Computerhaus Quickborn

Dezember 2024

AWS mausert sich zum globalen KI-Ökosystem​

Allgemein

AWS-CEO Matt Garman geleitete die Gäste der diesjährigen Hausmesse re:Invent durch drei Stunden Ankündigungen. Amazon Web Services Die Keynote der hauseigenen Konferenzmesse re:Invent 2024 in Las Vegas war eigentlich keine Keynote, sondern ein dreistündiger Ankündigungsmarathon. AWS-CEO Matt Garman sprach über deutlich mehr als 20 neue Produkte und Services. Amazons neue KI-Modellfamilie Allerdings durfte er die größte Neuigkeit, die Verfügbarkeit einer eigenen KI-Modellfamilie, nicht verkünden. Das übernahm Amazon-Chef Andy Jassy höchstpersönlich: Amazon schickt jetzt mit Nova seine eigene Foundation-Model-Familie ins Feld. Bislang zählt diese fünf Mitglieder: Nova Micro ist ein Text-Only-Modell, das nach Amazon-Aussagen die schnellsten und preiswertesten Antworten liefert. Nova Lite ist ein preiswertes, multimodales Modell, das sehr schnell Bild-, Video- und Text-Inputs verarbeiten kann. Nova Pro ist ebenfalls multimodal, dabei laut Amazon jedoch genauer und schneller als Nova Lite – aber offenbar auch teurer. Nova Canvas ist ein auf Bildgenerierung ausgerichtetes Modell. Nova Reel ist schließlich dafür vorgesehen, Videos zu generieren. Im Gegensatz zu Nova Micro, Lite und Pro sind Canvas und Reel noch nicht verfügbar. Sie erscheinen wohl im ersten Quartal 2025. Jassy berichtete von Benchmarks gegen die Foundation Models anderer Anbieter. Nova schneide zwar nicht überall am besten ab, sei aber sehr wettbewerbsfähig. KI-Handling soll einfacher werden Neben Nova spielte im AWS-Ankündigungsmarathon die einfachere Handhabung von KI- und Analytics-Services eine zentrale Rolle. Es gehe auch darum, so AWS-CEO Garman, die Nutzung von KI und Analytics in Applikationen einfacher zu gestalten. Künftig würden viele Applikationen nicht mehr ohne sogenannte Inference-Features auskommen, also Fähigkeiten, mit denen Anwendungen auf Basis zur Verfügung stehender Daten Schlussfolgerungen ziehen können. Eine dieser Möglichkeiten, um AI stärker in die produktiven Systeme und Applikationen zu integrieren, stellt Bedrock dar. Mit dieser Machine-Learning-Plattform lassen sich generative KI-Lösungen erstellen. Sie stellt Nutzern verschiedene Foundation-Modelle zur Verfügung (demnächst auch für die Nova-Familie) – unter anderem von: AI21 Labs, Anthropic, Cohere, Meta, Mistral AI und Stability AI.  Für Bedrock kündigte Garman ebenfalls zahlreiche Neuerungen an. Sie reichen von Hilfen zur Fehlervermeidung über den Einsatz von AI-basierten Agenten, die komplexe Aufgaben erfüllen, bis hin zur Generierung aufgabenspezifischer, kleinerer Modelle. Diese können in ihrem Aufgabenbereich ähnlich viel wie die großen Foundation-Modelle, kosten aber viel weniger und weisen kürzere Antwortzeiten auf. Mit der Automated-Reasoning-Funktion lässt sich zum Beispiel mit Hilfe von mathematischen Verfahren überprüfen, ob die Ergebnisse, die eine KI ausspuckt, realistisch sind oder ob es sich um Halluzinationen handelt. Autonome Agenten für Q Developer Außer Bedrock bildete auf der re:Invent die Entwicklerplattform Q Developer einen Schwerpunkt. Unter anderem bietet der Hyperscaler in diesem Bereich jetzt drei autonome Agenten an, die: Unittests automatisch generieren und anwenden; Dokumentationen für Anwendungssoftware entweder komplett neu erstellen oder bestehende, aber lückenhafte Dokumentationen überprüfen und komplementieren; sowie Code Reviews ausführen. Entwickelter Code wird dabei nicht nur überprüft, sondern der Agent schlägt auch Korrekturen vor. So steigt die Code-Qualität erheblich, schon bevor ein menschlicher Reviewer ihn zu Gesicht bekommt, verspricht AWS. Darüber hinaus wird es Agenten geben, die alte .Net-Applikationen automatisch auf Linux oder alte Cobol-Mainframe-Anwendungen auf Java migrieren. Kombi aus Analytics und AI Heute nutzen Kunden Amazon SageMaker, um Machine-Learning-Modelle zu erstellen, zu trainieren und bereitzustellen. Die gleichen Kunden nutzen zudem Analytics-Services von AWS. Jetzt kombiniert das Unternehmen beides in  SageMaker Next Generation. Die Lösung bietet mit Unified Studio eine Entwicklungsumgebung, die es ermöglicht, Daten siloübergreifend zu finden und zugänglich zu machen. So lassen sich Analytics-, Machine-Learning- und KI-Fähigkeiten kombinieren. AWS entwickelt sich immer mehr zu einem globalen Rundum-Compute- und Digitalisierungsdienstleister. Das belegen auch die zahlreichen Ankündigungen, die CEO Garman in Sachen Hardware machte. So ist die eigene CPU Graviton jetzt in der 4. Generation erhältlich. Auch der speziell für Machine Learning entwickelte Trainium-Chip ist ab sofort in seiner 2. Version generell verfügbar. Sein Nachfolger Trainium 3 wurde für das kommende Jahr in Aussicht gestellt. Auf Basis der Trainium bietet AWS auch die neuen TRN2 Ultraserver an, die in der Lage sind, die ganz großen KI-Modelle auf einem Server zu bearbeiten. (mb) 

AWS mausert sich zum globalen KI-Ökosystem​ AWS-CEO Matt Garman geleitete die Gäste der diesjährigen Hausmesse re:Invent durch drei Stunden Ankündigungen. Amazon Web Services

Die Keynote der hauseigenen Konferenzmesse re:Invent 2024 in Las Vegas war eigentlich keine Keynote, sondern ein dreistündiger Ankündigungsmarathon. AWS-CEO Matt Garman sprach über deutlich mehr als 20 neue Produkte und Services.

Amazons neue KI-Modellfamilie

Allerdings durfte er die größte Neuigkeit, die Verfügbarkeit einer eigenen KI-Modellfamilie, nicht verkünden. Das übernahm Amazon-Chef Andy Jassy höchstpersönlich: Amazon schickt jetzt mit Nova seine eigene Foundation-Model-Familie ins Feld. Bislang zählt diese fünf Mitglieder:

Nova Micro ist ein Text-Only-Modell, das nach Amazon-Aussagen die schnellsten und preiswertesten Antworten liefert.

Nova Lite ist ein preiswertes, multimodales Modell, das sehr schnell Bild-, Video- und Text-Inputs verarbeiten kann.

Nova Pro ist ebenfalls multimodal, dabei laut Amazon jedoch genauer und schneller als Nova Lite – aber offenbar auch teurer.

Nova Canvas ist ein auf Bildgenerierung ausgerichtetes Modell.

Nova Reel ist schließlich dafür vorgesehen, Videos zu generieren.

Im Gegensatz zu Nova Micro, Lite und Pro sind Canvas und Reel noch nicht verfügbar. Sie erscheinen wohl im ersten Quartal 2025. Jassy berichtete von Benchmarks gegen die Foundation Models anderer Anbieter. Nova schneide zwar nicht überall am besten ab, sei aber sehr wettbewerbsfähig.

KI-Handling soll einfacher werden

Neben Nova spielte im AWS-Ankündigungsmarathon die einfachere Handhabung von KI- und Analytics-Services eine zentrale Rolle. Es gehe auch darum, so AWS-CEO Garman, die Nutzung von KI und Analytics in Applikationen einfacher zu gestalten. Künftig würden viele Applikationen nicht mehr ohne sogenannte Inference-Features auskommen, also Fähigkeiten, mit denen Anwendungen auf Basis zur Verfügung stehender Daten Schlussfolgerungen ziehen können.

Eine dieser Möglichkeiten, um AI stärker in die produktiven Systeme und Applikationen zu integrieren, stellt Bedrock dar. Mit dieser Machine-Learning-Plattform lassen sich generative KI-Lösungen erstellen. Sie stellt Nutzern verschiedene Foundation-Modelle zur Verfügung (demnächst auch für die Nova-Familie) – unter anderem von:

AI21 Labs,

Anthropic,

Cohere,

Meta,

Mistral AI und

Stability AI.

 Für Bedrock kündigte Garman ebenfalls zahlreiche Neuerungen an. Sie reichen von Hilfen zur Fehlervermeidung über den Einsatz von AI-basierten Agenten, die komplexe Aufgaben erfüllen, bis hin zur Generierung aufgabenspezifischer, kleinerer Modelle. Diese können in ihrem Aufgabenbereich ähnlich viel wie die großen Foundation-Modelle, kosten aber viel weniger und weisen kürzere Antwortzeiten auf.

Mit der Automated-Reasoning-Funktion lässt sich zum Beispiel mit Hilfe von mathematischen Verfahren überprüfen, ob die Ergebnisse, die eine KI ausspuckt, realistisch sind oder ob es sich um Halluzinationen handelt.

Autonome Agenten für Q Developer

Außer Bedrock bildete auf der re:Invent die Entwicklerplattform Q Developer einen Schwerpunkt. Unter anderem bietet der Hyperscaler in diesem Bereich jetzt drei autonome Agenten an, die:

Unittests automatisch generieren und anwenden;

Dokumentationen für Anwendungssoftware entweder komplett neu erstellen oder bestehende, aber lückenhafte Dokumentationen überprüfen und komplementieren; sowie

Code Reviews ausführen.

Entwickelter Code wird dabei nicht nur überprüft, sondern der Agent schlägt auch Korrekturen vor. So steigt die Code-Qualität erheblich, schon bevor ein menschlicher Reviewer ihn zu Gesicht bekommt, verspricht AWS. Darüber hinaus wird es Agenten geben, die alte .Net-Applikationen automatisch auf Linux oder alte Cobol-Mainframe-Anwendungen auf Java migrieren.

Kombi aus Analytics und AI

Heute nutzen Kunden Amazon SageMaker, um Machine-Learning-Modelle zu erstellen, zu trainieren und bereitzustellen. Die gleichen Kunden nutzen zudem Analytics-Services von AWS. Jetzt kombiniert das Unternehmen beides in  SageMaker Next Generation. Die Lösung bietet mit Unified Studio eine Entwicklungsumgebung, die es ermöglicht, Daten siloübergreifend zu finden und zugänglich zu machen. So lassen sich Analytics-, Machine-Learning- und KI-Fähigkeiten kombinieren.

AWS entwickelt sich immer mehr zu einem globalen Rundum-Compute- und Digitalisierungsdienstleister. Das belegen auch die zahlreichen Ankündigungen, die CEO Garman in Sachen Hardware machte. So ist die eigene CPU Graviton jetzt in der 4. Generation erhältlich. Auch der speziell für Machine Learning entwickelte Trainium-Chip ist ab sofort in seiner 2. Version generell verfügbar. Sein Nachfolger Trainium 3 wurde für das kommende Jahr in Aussicht gestellt. Auf Basis der Trainium bietet AWS auch die neuen TRN2 Ultraserver an, die in der Lage sind, die ganz großen KI-Modelle auf einem Server zu bearbeiten. (mb)

AWS mausert sich zum globalen KI-Ökosystem​ Weiterlesen »

Black Friday im Darknet​

Allgemein

width=”5600″ height=”3200″ sizes=”(max-width: 5600px) 100vw, 5600px”>Weihnachtszeit ist Shoppingzeit – auch im Darknet, wo Cyberkriminelle ihre dunklen Geschäfte immer weiter professionalisieren.YinNarukami / Shutterstock Black Friday, Black Week und Cyber Monday – was sich als alljährlich wiederkehrender Shopping-Wahnsinn im World Wide Web seit vielen Jahren etabliert hat, hält nun mehr und mehr auch im Darknet Einzug. Schließlich will der Waffenhändler oder Drogendealer ebenfalls vom Weihnachtsgeschäft profitieren.   Wie funktioniert das Darknet? Letztendlich ist das Darknet auch nur ein eCommerce-Marktplatz. Kriminelle werben in der Black Week verstärkt um Abnehmer und versuchen, Kunden mit Rabatten für sich zu ködern. Die Bitdefender Labs haben zur vorweihnachtlichen Shopping-Saison die Sonderverkaufsaktionen der kriminellen Szene im finsteren Teil des Internets beobachtet.  Shopping-Portale im Darknet sind gut getarnt Das illegale Weihnachtssortiment ist umfangreich und reicht von Falschgeld über Facebook-Follower bis hin zum Raketenwerfer und Drogen. Kriminelle bieten ihre Waren auf illegalen Marktplätzen im Darknet an, die über den legal nutzbaren Tor-Browser erreichbar sind. Die entsprechenden Shoppingportale auf der dunklen Seite des eCommerce wechseln dabei ständig ihren Namen und ihre Präsenz, um sich zu tarnen.  Darkweb-Zugang: Insights aus dem Untergrund Auch die Kunden können diese versteckten Marktplätze nicht einfach betreten, sondern benötigen das Vertrauen der cyberkriminellen Gemeinschaften: Neuankömmlinge werden genau unter die Lupe genommen, sollten Empfehlungen vorweisen oder durch Beiträge in Online-Foren ihre kriminelle Gesinnung in Unterweltkreisen belegen können.  Interessanterweise agieren die kriminellen Anbieter in vielerlei Hinsicht wie ihre legalen eCommerce-Vorbilder: Bewertungen sind eine wichtige Entscheidungshilfe beim Kauf gefälschter Banknoten oder Dokumente. Möglichst viele Sterne sollen auch hier den Absatz ankurbeln. Cyber-Gangster brauchen schließlich ebenfalls einen Leumund in Form von Online-Bewertungen.  Hier einige Beispiele:  Falschgeld- und Bank-Login-Daten mit Nutzerbewertungen. Bitdefender srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/Holiday_Shopping_Abbildung_2.png?quality=50&strip=all 1397w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Holiday_Shopping_Abbildung_2.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Holiday_Shopping_Abbildung_2.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Holiday_Shopping_Abbildung_2.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Holiday_Shopping_Abbildung_2.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Holiday_Shopping_Abbildung_2.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Holiday_Shopping_Abbildung_2.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Holiday_Shopping_Abbildung_2.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Holiday_Shopping_Abbildung_2.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Sortiment weltweiter Ausweisdokumente: Individuell ausgeliefert, um automatisierte Systeme zu überlisten. Preis zwischen 25 und 150 Dollar.Bitdefender Social Follower und Likes.Bitdefender Neben Sprengstoff und Granaten finden sich auch Raketenwerfer im Angebot.Bitdefender Black Friday Sale für Drogen.Bitdefender 

Black Friday im Darknet​ width=”5600″ height=”3200″ sizes=”(max-width: 5600px) 100vw, 5600px”>Weihnachtszeit ist Shoppingzeit – auch im Darknet, wo Cyberkriminelle ihre dunklen Geschäfte immer weiter professionalisieren.YinNarukami / Shutterstock

Black Friday, Black Week und Cyber Monday – was sich als alljährlich wiederkehrender Shopping-Wahnsinn im World Wide Web seit vielen Jahren etabliert hat, hält nun mehr und mehr auch im Darknet Einzug. Schließlich will der Waffenhändler oder Drogendealer ebenfalls vom Weihnachtsgeschäft profitieren.  

Wie funktioniert das Darknet?

Letztendlich ist das Darknet auch nur ein eCommerce-Marktplatz. Kriminelle werben in der Black Week verstärkt um Abnehmer und versuchen, Kunden mit Rabatten für sich zu ködern. Die Bitdefender Labs haben zur vorweihnachtlichen Shopping-Saison die Sonderverkaufsaktionen der kriminellen Szene im finsteren Teil des Internets beobachtet. 

Shopping-Portale im Darknet sind gut getarnt

Das illegale Weihnachtssortiment ist umfangreich und reicht von Falschgeld über Facebook-Follower bis hin zum Raketenwerfer und Drogen. Kriminelle bieten ihre Waren auf illegalen Marktplätzen im Darknet an, die über den legal nutzbaren Tor-Browser erreichbar sind. Die entsprechenden Shoppingportale auf der dunklen Seite des eCommerce wechseln dabei ständig ihren Namen und ihre Präsenz, um sich zu tarnen. 

Darkweb-Zugang: Insights aus dem Untergrund

Auch die Kunden können diese versteckten Marktplätze nicht einfach betreten, sondern benötigen das Vertrauen der cyberkriminellen Gemeinschaften: Neuankömmlinge werden genau unter die Lupe genommen, sollten Empfehlungen vorweisen oder durch Beiträge in Online-Foren ihre kriminelle Gesinnung in Unterweltkreisen belegen können. 

Interessanterweise agieren die kriminellen Anbieter in vielerlei Hinsicht wie ihre legalen eCommerce-Vorbilder: Bewertungen sind eine wichtige Entscheidungshilfe beim Kauf gefälschter Banknoten oder Dokumente. Möglichst viele Sterne sollen auch hier den Absatz ankurbeln. Cyber-Gangster brauchen schließlich ebenfalls einen Leumund in Form von Online-Bewertungen. 

Hier einige Beispiele: 

Falschgeld- und Bank-Login-Daten mit Nutzerbewertungen. Bitdefender

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/Holiday_Shopping_Abbildung_2.png?quality=50&strip=all 1397w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Holiday_Shopping_Abbildung_2.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Holiday_Shopping_Abbildung_2.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Holiday_Shopping_Abbildung_2.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Holiday_Shopping_Abbildung_2.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Holiday_Shopping_Abbildung_2.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Holiday_Shopping_Abbildung_2.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Holiday_Shopping_Abbildung_2.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Holiday_Shopping_Abbildung_2.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Sortiment weltweiter Ausweisdokumente: Individuell ausgeliefert, um automatisierte Systeme zu überlisten. Preis zwischen 25 und 150 Dollar.Bitdefender

Social Follower und Likes.Bitdefender

Neben Sprengstoff und Granaten finden sich auch Raketenwerfer im Angebot.Bitdefender

Black Friday Sale für Drogen.Bitdefender

Black Friday im Darknet​ Weiterlesen »

Broadcom verliert weiteren VMware-Großkunden​

Allgemein

Die möglichen Kostenvorteile waren nur ein Grund für die Beeks Group, von VMware auf OpenNebula zu wechseln.JHVEPhoto – shutterstock.com Wegen der teilweise drastisch gestiegenen Kosten und anderer umstrittener Veränderungen befassen sich viele Unternehmen seit der Übernahme von VMware durch Broadcom mit einem Wechsel auf eine alternative Virtualisierungslösung. Häufiges Ergebnis ist dabei die Erkenntnis, dass der Aufwand für die Migration nicht gerechtfertigt ist. Es gibt aber auch Ausnahmen, wie etwa den auf Finanzdienstleister spezialisierten britischen Cloud-Betreiber Beeks Group. Zuvor ein großer VMware-Kunde, laufen die meisten der über 20.000 virtuellen Maschinen jetzt auf der quelloffenen Lösung OpenNebula, wie The Register berichtet. Die Gründe für die VMware-Abkehr Einer der Gründe für den Wechsel, so erklärte Matthew Cretney, Leiter der Produktionsabteilung bei Beeks, gegenüber The Register, sei die zehnmal so hohe VMware-Rechnung für Softwarelizenzen gewesen. Außerdem hätten die Kunden Beeks mitgeteilt, dass VMware nicht mehr als wesentliche Infrastruktur angesehen werde. Zudem habe das Technikerteam das Management davor gewarnt, dass die Qualität der Support-Services und Innovationen von VMware nachließe. Dies äußerte sich Beeks zufolge unter anderem in erheblichem Verwaltungsaufwand. Der habe dazu geführt, dass ein zu großer Teil der Serverflotte dafür verwendet wurde, VMs zu managen – statt sie für Kunden auszuführen. So konnte das Unternehmen dem Bericht zufolge dank OpenNebula einen größeren Teil seiner 3.000 Bare-Metal-Server für Client-Workloads statt wie bisher mit VMware für die Verwaltung der VMs einsetzen. Mit Blick auf den minimierten  Verwaltungsaufwand berichtet Beeks von einer 200-prozentigen Steigerung der VM-Effizienz, da nun mehr VMs auf jedem Server vorhanden sind. Fairerweise muss man einräumen, dass das Angebot von Beeks nicht unbedingt das ideale Nutzungsszenario für VMware Cloud Foundation (VCF) darstellt. So positioniert Broadcom VCF primär als Lösung für Unternehmen mit großen und komplexen IT-Strukturen. Der Anbieter argumentiert, dass VCF zwar einen hohen Preis hat, sich aber  für Unternehmen, die die gesamte Suite von Rechen-, Speicher- und Netzwerk-Virtualisierungskomponenten implementieren, schnell rechnet. 

Broadcom verliert weiteren VMware-Großkunden​ Die möglichen Kostenvorteile waren nur ein Grund für die Beeks Group, von VMware auf OpenNebula zu wechseln.JHVEPhoto – shutterstock.com

Wegen der teilweise drastisch gestiegenen Kosten und anderer umstrittener Veränderungen befassen sich viele Unternehmen seit der Übernahme von VMware durch Broadcom mit einem Wechsel auf eine alternative Virtualisierungslösung. Häufiges Ergebnis ist dabei die Erkenntnis, dass der Aufwand für die Migration nicht gerechtfertigt ist.

Es gibt aber auch Ausnahmen, wie etwa den auf Finanzdienstleister spezialisierten britischen Cloud-Betreiber Beeks Group. Zuvor ein großer VMware-Kunde, laufen die meisten der über 20.000 virtuellen Maschinen jetzt auf der quelloffenen Lösung OpenNebula, wie The Register berichtet.

Die Gründe für die VMware-Abkehr

Einer der Gründe für den Wechsel, so erklärte Matthew Cretney, Leiter der Produktionsabteilung bei Beeks, gegenüber The Register, sei die zehnmal so hohe VMware-Rechnung für Softwarelizenzen gewesen. Außerdem hätten die Kunden Beeks mitgeteilt, dass VMware nicht mehr als wesentliche Infrastruktur angesehen werde.

Zudem habe das Technikerteam das Management davor gewarnt, dass die Qualität der Support-Services und Innovationen von VMware nachließe. Dies äußerte sich Beeks zufolge unter anderem in erheblichem Verwaltungsaufwand. Der habe dazu geführt, dass ein zu großer Teil der Serverflotte dafür verwendet wurde, VMs zu managen – statt sie für Kunden auszuführen.

So konnte das Unternehmen dem Bericht zufolge dank OpenNebula einen größeren Teil seiner 3.000 Bare-Metal-Server für Client-Workloads statt wie bisher mit VMware für die Verwaltung der VMs einsetzen. Mit Blick auf den minimierten  Verwaltungsaufwand berichtet Beeks von einer 200-prozentigen Steigerung der VM-Effizienz, da nun mehr VMs auf jedem Server vorhanden sind.

Fairerweise muss man einräumen, dass das Angebot von Beeks nicht unbedingt das ideale Nutzungsszenario für VMware Cloud Foundation (VCF) darstellt. So positioniert Broadcom VCF primär als Lösung für Unternehmen mit großen und komplexen IT-Strukturen. Der Anbieter argumentiert, dass VCF zwar einen hohen Preis hat, sich aber  für Unternehmen, die die gesamte Suite von Rechen-, Speicher- und Netzwerk-Virtualisierungskomponenten implementieren, schnell rechnet.

Broadcom verliert weiteren VMware-Großkunden​ Weiterlesen »

Was IT-Freelancer in Deutschland verdienen​

Allgemein

loading=”lazy” width=”400px”>Wer als Freelancer SAP- und Cloud-Knowhow mitbringt, hat Aussicht auf gute Stundensätze.GaudiLab – shutterstock.com Cloud, SAP S/4HANA und Java – das sind die Top Skills, die Auftraggeber von IT-Freelancern 2024 abgefragt haben. Zu diesem Ergebnis kommt eine Analyse von freelance.de. Darin beschreiben die Analysten ihre Sicht auf die Marktentwicklung, nennen übliche Stundensätze in verschiedenen IT-Bereichen aus dem zu Ende gehenden Jahr und welche Trends sie für 2025 erwarten. Grundlage bilden Daten ausgeschriebener IT-Projekte auf freelance.de. Tipps & Fakten für Auftraggeber: Die 5 häufigsten Freelancer-Mythen Mit einen Median-Stundensatz von 100 Euro verdienten selbständige Expertinnen und Experten aus den Bereichen SAP, insbesondere SAP FI und SAP S/4HANA, sowie Spezialisten für Software- und Systemmigration im ablaufenden Jahr am besten. Darauf folgen Cloud-Experten sowie IT-Projektmanager und Programmierer.  RangTop 20 IT-Skills (2024)Median Stundensatz Freelancer auf freelance.de1Cloud90,00 €2SAP S/4HANA100,00 €3Java89,07 €4Microsoft Azure90,00 €5Migration100,00 €6Systemmigration100,00 €7Softwareentwicklung87,36 €8Kubernetes92,67 €9Python85,00 €10C++85,00 €11SAP-Beratung90,00 €12SCRUM100,00 €13C#85,00 €14Amazon Web Services (AWS)85,00 €15Jira91,18 €16MS-Office (Anwenderkenntnisse)85,00 €17SAP FI100,00 €18DevOps93,60 €19SQL89,25 €20Projektmanagement (IT)90,00 € Zwar dominierten klassische Themen wie Cloud-Technologien, Migrationen und Softwareentwicklung die Freelancer-Nachfrage 2024, doch die Schwerpunkte dürften sich in Zukunft verlagern. „Gleichzeitig glauben wir, dass auch Themen wie Künstliche Intelligenz und Cybersecurity die Zukunft prägen werden“, beschreibt Robin Gollbach, Geschäftsführer von freelance.de, die anstehenden Veränderungen im IT-Freelancer-Markt. Nachfrage nach IT-Freelancern bleibt stabil Mit 43 Prozent aller ausgeschriebenen Projekte auf freelance.de im Jahr 2024 nimmt die Kategorie „IT“ den größten Raum auf der Plattform ein (Stand: 28.11.2024). Für 2025 zeichne sich eine stabile Nachfrage im Bereich IT-Spezialisten ab, so die Prognose der Marktbeobachter. Allerdings sei mit leichten Verschiebungen innerhalb der Kategorien zu rechnen.  Das IT-Freelancer-Geschäft gewinnt an Härte Trends wie Künstliche Intelligenz (KI) und Machine Learning sorgten dafür, dass Unternehmen vermehrt Freelancer anfragen mit entsprechenden Kompetenzen, um neue Technologien zu implementieren. Auch der Bereich Cybersecurity zeige im Jahresvergleich der ausgeschriebenen Projekte Anzeichen steigender Relevanz, hieß es. Ein weiterer Schwerpunkt bleibt dem Freelancer-Portal zufolge das Thema Cloud-Computing, da die Migration zu und die Optimierung von Cloud-Plattformen spezialisierte Freelancer erfordere. Freelancer oder Festangestellter? 

Was IT-Freelancer in Deutschland verdienen​ loading=”lazy” width=”400px”>Wer als Freelancer SAP- und Cloud-Knowhow mitbringt, hat Aussicht auf gute Stundensätze.GaudiLab – shutterstock.com

Cloud, SAP S/4HANA und Java – das sind die Top Skills, die Auftraggeber von IT-Freelancern 2024 abgefragt haben. Zu diesem Ergebnis kommt eine Analyse von freelance.de. Darin beschreiben die Analysten ihre Sicht auf die Marktentwicklung, nennen übliche Stundensätze in verschiedenen IT-Bereichen aus dem zu Ende gehenden Jahr und welche Trends sie für 2025 erwarten. Grundlage bilden Daten ausgeschriebener IT-Projekte auf freelance.de.

Tipps & Fakten für Auftraggeber: Die 5 häufigsten Freelancer-Mythen

Mit einen Median-Stundensatz von 100 Euro verdienten selbständige Expertinnen und Experten aus den Bereichen SAP, insbesondere SAP FI und SAP S/4HANA, sowie Spezialisten für Software- und Systemmigration im ablaufenden Jahr am besten. Darauf folgen Cloud-Experten sowie IT-Projektmanager und Programmierer. 

RangTop 20 IT-Skills (2024)Median Stundensatz Freelancer auf freelance.de1Cloud90,00 €2SAP S/4HANA100,00 €3Java89,07 €4Microsoft Azure90,00 €5Migration100,00 €6Systemmigration100,00 €7Softwareentwicklung87,36 €8Kubernetes92,67 €9Python85,00 €10C++85,00 €11SAP-Beratung90,00 €12SCRUM100,00 €13C#85,00 €14Amazon Web Services (AWS)85,00 €15Jira91,18 €16MS-Office (Anwenderkenntnisse)85,00 €17SAP FI100,00 €18DevOps93,60 €19SQL89,25 €20Projektmanagement (IT)90,00 €

Zwar dominierten klassische Themen wie Cloud-Technologien, Migrationen und Softwareentwicklung die Freelancer-Nachfrage 2024, doch die Schwerpunkte dürften sich in Zukunft verlagern. „Gleichzeitig glauben wir, dass auch Themen wie Künstliche Intelligenz und Cybersecurity die Zukunft prägen werden“, beschreibt Robin Gollbach, Geschäftsführer von freelance.de, die anstehenden Veränderungen im IT-Freelancer-Markt.

Nachfrage nach IT-Freelancern bleibt stabil

Mit 43 Prozent aller ausgeschriebenen Projekte auf freelance.de im Jahr 2024 nimmt die Kategorie „IT“ den größten Raum auf der Plattform ein (Stand: 28.11.2024). Für 2025 zeichne sich eine stabile Nachfrage im Bereich IT-Spezialisten ab, so die Prognose der Marktbeobachter. Allerdings sei mit leichten Verschiebungen innerhalb der Kategorien zu rechnen. 

Das IT-Freelancer-Geschäft gewinnt an Härte

Trends wie Künstliche Intelligenz (KI) und Machine Learning sorgten dafür, dass Unternehmen vermehrt Freelancer anfragen mit entsprechenden Kompetenzen, um neue Technologien zu implementieren. Auch der Bereich Cybersecurity zeige im Jahresvergleich der ausgeschriebenen Projekte Anzeichen steigender Relevanz, hieß es. Ein weiterer Schwerpunkt bleibt dem Freelancer-Portal zufolge das Thema Cloud-Computing, da die Migration zu und die Optimierung von Cloud-Plattformen spezialisierte Freelancer erfordere.

Freelancer oder Festangestellter?

Was IT-Freelancer in Deutschland verdienen​ Weiterlesen »

On-Premises scheint für viele SAP-Kunden gesetzt​

Allgemein

width=”3840″ height=”2160″ sizes=”(max-width: 3840px) 100vw, 3840px”>Wie ihre künftige SAP-Architektur aussehen wird, ist für viele Unternehmen noch unklar. Sicher scheint nur, dass neben der Cloud auch On-Premises weiter eine wichtige Rolle spielen wird.Pavel Chagochkin – shutterstock.com Die Zukunft der SAP-Architekturen ist hybrid. Das machte eine Umfrage des Ressort Financials innerhalb der deutschsprachigen SAP-Anwendergruppe (DSAG) einmal mehr deutlich.   Wohin die Reise genau hingehen wird, ist allerdings vielerorts noch nicht ausgemacht. Nach wie vor arbeitet die Hälfte der Anwenderunternehmen mit SAP ERP Central Component (ECC) und viele haben noch nicht entschieden, welchen Pfad sie auf dem Weg hin zu S/4HANA beschreiten wollen.  Im Zeitraum vom 15. August bis 16. September 2024 hat die Anwendervertretung 267 Personen aus den Reihen der eigenen Mitgliedsunternehmen zu den Entwicklungen im Financials Ressort befragt. Demzufolge gaben 47 Prozent der Befragten an, derzeit noch SAP ERP Central Component (SAP ECC) einzusetzen, während 42 Prozent S/4HANA On-Premises (Classic Edition) nutzen. Die S/4HANA-Cloud-Angebote hingegen sind mit acht Prozent für die Private Edition und drei Prozent für die Public Edition vergleichsweise unterrepräsentiert.  Viele ECC-User sind noch unentschieden, wo es hingehen soll Gefragt nach ihrem Zielbild für die S/4HANA-Migration machten die befragten SAP-Anwender erneut deutlich, dass auch in der S/4HANA-Welt für sie On-Premises gesetzt bleibe. So sehen 39 Prozent ihre Zielarchitektur in S/4HANA On-Premises (Classic Edition), während 24 Prozent mit RISE with SAP in die S/4HANA Cloud Private Edition migrieren wollen. Fünf Prozent gaben an, mit GROW with SAP künftig auf die S/4HANA Cloud Public Edition zu setzen. Studie zu ERP-Trends: SAP S/4HANA ist das Maß der Dinge Stephan Hüttmann, DSAG-Fachvorstand Financials, bezeichnet es an dieser Stelle als besonders interessant, dass fast ein Viertel der an der Umfrage teilnehmenden ECC-User noch unentschieden sind, wie die Zukunft aussehen soll. „Das ist vor dem Hintergrund des nahenden Wartungsendes 2027 beziehungsweise 2030 mit der Extended Maintenance bemerkenswert”, führt er aus.  Lizenz-Thema intransparent – Investitionssicherheit fehlt Als Gründe für die Unentschlossenheit identifiziert Hüttmann die wenig transparente Lizenz-Thematik sowie die fehlende Investitionssicherheit. Aus Applikationssicht sei es für die Anwenderunternehmen essenziell zu wissen, wie die weitere Innovationsstrategie von SAP zum Beispiel hinsichtlich des Nachhaltigkeitsberichtswesens, der Regulatorik wie zum Beispiel E-Rechnung oder KI-Use-Cases aussieht, um sicher planen zu können. Der DSAG-Vertreter ermahnte SAP, die On-Premises-Kunden nicht zugunsten der Entwicklungen von Innovationen in der Cloud zu vergessen.  Anwender kritisieren SAPs KI-Kurs Offenbar gibt es für viele Anwenderunternehmen noch etliche Fragezeichen hinsichtlich ihrer künftigen SAP-Architektur. Das wird auch bei der Frage nach der Business Technology Platform (BTP) deutlich, die SAP als zentralen Baustein ihrer Softwarearchitektur identifiziert.  So erklärten 44 Prozent aller Befragten, also auch derer, die bereits auf S/4HANA gewechselt haben, noch unentschieden zu sein, ob sie die BTP als Cloud-Plattform mit den entsprechenden Lösungen und Services nutzen werden oder andere Wege gehen. „Die Anwender scheinen in Bezug auf die Unterstützung der Finanzprozesse durch Services und Applikationen auf der BTP noch unentschieden zu sein“, resümiert Hüttmann und vermutet, dass auch an dieser Stelle noch Informationen fehlen.  

On-Premises scheint für viele SAP-Kunden gesetzt​ width=”3840″ height=”2160″ sizes=”(max-width: 3840px) 100vw, 3840px”>Wie ihre künftige SAP-Architektur aussehen wird, ist für viele Unternehmen noch unklar. Sicher scheint nur, dass neben der Cloud auch On-Premises weiter eine wichtige Rolle spielen wird.Pavel Chagochkin – shutterstock.com

Die Zukunft der SAP-Architekturen ist hybrid. Das machte eine Umfrage des Ressort Financials innerhalb der deutschsprachigen SAP-Anwendergruppe (DSAG) einmal mehr deutlich.  

Wohin die Reise genau hingehen wird, ist allerdings vielerorts noch nicht ausgemacht. Nach wie vor arbeitet die Hälfte der Anwenderunternehmen mit SAP ERP Central Component (ECC) und viele haben noch nicht entschieden, welchen Pfad sie auf dem Weg hin zu S/4HANA beschreiten wollen. 

Im Zeitraum vom 15. August bis 16. September 2024 hat die Anwendervertretung 267 Personen aus den Reihen der eigenen Mitgliedsunternehmen zu den Entwicklungen im Financials Ressort befragt. Demzufolge gaben 47 Prozent der Befragten an, derzeit noch SAP ERP Central Component (SAP ECC) einzusetzen, während 42 Prozent S/4HANA On-Premises (Classic Edition) nutzen. Die S/4HANA-Cloud-Angebote hingegen sind mit acht Prozent für die Private Edition und drei Prozent für die Public Edition vergleichsweise unterrepräsentiert. 

Viele ECC-User sind noch unentschieden, wo es hingehen soll

Gefragt nach ihrem Zielbild für die S/4HANA-Migration machten die befragten SAP-Anwender erneut deutlich, dass auch in der S/4HANA-Welt für sie On-Premises gesetzt bleibe. So sehen 39 Prozent ihre Zielarchitektur in S/4HANA On-Premises (Classic Edition), während 24 Prozent mit RISE with SAP in die S/4HANA Cloud Private Edition migrieren wollen. Fünf Prozent gaben an, mit GROW with SAP künftig auf die S/4HANA Cloud Public Edition zu setzen.

Studie zu ERP-Trends: SAP S/4HANA ist das Maß der Dinge

Stephan Hüttmann, DSAG-Fachvorstand Financials, bezeichnet es an dieser Stelle als besonders interessant, dass fast ein Viertel der an der Umfrage teilnehmenden ECC-User noch unentschieden sind, wie die Zukunft aussehen soll. „Das ist vor dem Hintergrund des nahenden Wartungsendes 2027 beziehungsweise 2030 mit der Extended Maintenance bemerkenswert”, führt er aus. 

Lizenz-Thema intransparent – Investitionssicherheit fehlt

Als Gründe für die Unentschlossenheit identifiziert Hüttmann die wenig transparente Lizenz-Thematik sowie die fehlende Investitionssicherheit. Aus Applikationssicht sei es für die Anwenderunternehmen essenziell zu wissen, wie die weitere Innovationsstrategie von SAP zum Beispiel hinsichtlich des Nachhaltigkeitsberichtswesens, der Regulatorik wie zum Beispiel E-Rechnung oder KI-Use-Cases aussieht, um sicher planen zu können. Der DSAG-Vertreter ermahnte SAP, die On-Premises-Kunden nicht zugunsten der Entwicklungen von Innovationen in der Cloud zu vergessen. 

Anwender kritisieren SAPs KI-Kurs

Offenbar gibt es für viele Anwenderunternehmen noch etliche Fragezeichen hinsichtlich ihrer künftigen SAP-Architektur. Das wird auch bei der Frage nach der Business Technology Platform (BTP) deutlich, die SAP als zentralen Baustein ihrer Softwarearchitektur identifiziert.  So erklärten 44 Prozent aller Befragten, also auch derer, die bereits auf S/4HANA gewechselt haben, noch unentschieden zu sein, ob sie die BTP als Cloud-Plattform mit den entsprechenden Lösungen und Services nutzen werden oder andere Wege gehen. „Die Anwender scheinen in Bezug auf die Unterstützung der Finanzprozesse durch Services und Applikationen auf der BTP noch unentschieden zu sein“, resümiert Hüttmann und vermutet, dass auch an dieser Stelle noch Informationen fehlen. 

On-Premises scheint für viele SAP-Kunden gesetzt​ Weiterlesen »

OpenAI wildert bei der Konkurrenz in England​

Allgemein

Zwischen den KI-Firmen herrscht reger Personalwechsel – diesmal ging es für drei Experten von DeepMind zu OpenAI. Quelle: fotogestoeber/shutterstock.com OpenAI, die Macher von ChatGPT, treiben ihren Wachstumskurs weiter strategisch voran. Jüngst hat das Noch-Start-Up drei neue Mitarbeiter, allesamt Experten für Computer Vision und Machine Learning, seinem Talente-Pool hinzugefügt. Damit wechseln KI-Forscher in einem hart umkämpften Talentmarkt von einem direkten Konkurrenten zum anderen. Drei Neue für das Neuland Wie OpenAI am 04. Dezember in einer Stellungnahme bekannt gab, werden die drei hochrangigen Ingenieure alle in einem neu eröffneten OpenAI-Büro in Zürich arbeiten. OpenAI plant eine globale Expansion mit weiteren Büros in New York, Seattle, Brüssel, Paris und Singapur, zusätzlich zu bestehenden Standorten wie San Francisco, London und Tokio. In einem internen Memo teilten die Verantwortlichen von OpenAI am Dienstag mit, dass Lucas Beyer, Alexander Kolesnikov und Xiaohua Zhai dem Unternehmen beitreten werden, um an multimodaler KI zu arbeiten. Das bedeutet, dass sie zu künstlichen Intelligenzmodellen forschen werden, die in der Lage sind, Aufgaben in verschiedenen Medien – von Bildern bis zu Audio – auszuführen. GenAI schreitet weiter voran Dies würde einen weiteren deutlichen Schritt in der Entwicklung multimodaler KI von OpenAI und auch ChatGPT bedeuten: War der Flaggschiff-Chatbot zunächst nur in der Lage, mit Texteingaben zu interagieren, wurde er im Laufe der Zeit um Sprach- und Bildfunktionen erweitert. Später fügte das Unternehmen weitere Features hinzu, da multimodale Funktionen ein immer wichtigerer Bestandteil seiner Produktlinie und seiner KI-Forschung wurden. Mittlerweile ist die neueste Version der 2021 veröffentlichten Text-zu-Bild-Plattform Dall-E direkt in ChatGPT verfügbar. Mit Spannung wird auch das generative KI-Videoprodukt namens Sora aus OpenAIs Portfolio erwartet. Noch ist es aber nicht allgemein verfügbar. Reger Personalwechsel im KI-Sektor Im Wettlauf um die besten KI-Talente konkurrieren Unternehmen wie OpenAI, DeepMind und andere intensiv, oft mit Gehaltspaketen in Millionenhöhe. Wechsel zwischen Firmen sind dabei üblich: Tim Brooks, zuvor bei OpenAI, ging zu DeepMind Microsoft warb Mustafa Suleyman von Inflection AI ab Google zahlte 2,7 Milliarden Dollar zahlte, um Noam Shazeer, den Gründer von Character.AI, zurückzugewinnen. In den letzten Monaten haben eine Reihe von Schlüsselfiguren bei OpenAI das Unternehmen verlassen, um sich entweder direkten Konkurrenten wie DeepMind und Anthropic anzuschließen oder eigene Unternehmen zu gründen. Ilya Sutskever, ein Mitbegründer von OpenAI und ehemaliger leitender Wissenschaftler, hat das Unternehmen verlassen, um Safe Superintelligence zu gründen, ein Startup, das sich auf KI-Sicherheit und existenzielle Risiken konzentriert. Mira Murati, die ehemalige Chief Technology Officer von OpenAI, gab im September bekannt, dass sie das Unternehmen verlässt und Berichten zufolge Geld für ein neues KI-Unternehmen sammelt. 

OpenAI wildert bei der Konkurrenz in England​ Zwischen den KI-Firmen herrscht reger Personalwechsel – diesmal ging es für drei Experten von DeepMind zu OpenAI.
Quelle: fotogestoeber/shutterstock.com

OpenAI, die Macher von ChatGPT, treiben ihren Wachstumskurs weiter strategisch voran. Jüngst hat das Noch-Start-Up drei neue Mitarbeiter, allesamt Experten für Computer Vision und Machine Learning, seinem Talente-Pool hinzugefügt. Damit wechseln KI-Forscher in einem hart umkämpften Talentmarkt von einem direkten Konkurrenten zum anderen.

Drei Neue für das Neuland

Wie OpenAI am 04. Dezember in einer Stellungnahme bekannt gab, werden die drei hochrangigen Ingenieure alle in einem neu eröffneten OpenAI-Büro in Zürich arbeiten. OpenAI plant eine globale Expansion mit weiteren Büros in New York, Seattle, Brüssel, Paris und Singapur, zusätzlich zu bestehenden Standorten wie San Francisco, London und Tokio.

In einem internen Memo teilten die Verantwortlichen von OpenAI am Dienstag mit, dass

Lucas Beyer,

Alexander Kolesnikov und

Xiaohua Zhai

dem Unternehmen beitreten werden, um an multimodaler KI zu arbeiten. Das bedeutet, dass sie zu künstlichen Intelligenzmodellen forschen werden, die in der Lage sind, Aufgaben in verschiedenen Medien – von Bildern bis zu Audio – auszuführen.

GenAI schreitet weiter voran

Dies würde einen weiteren deutlichen Schritt in der Entwicklung multimodaler KI von OpenAI und auch ChatGPT bedeuten:

War der Flaggschiff-Chatbot zunächst nur in der Lage, mit Texteingaben zu interagieren, wurde er im Laufe der Zeit um Sprach- und Bildfunktionen erweitert. Später fügte das Unternehmen weitere Features hinzu, da multimodale Funktionen ein immer wichtigerer Bestandteil seiner Produktlinie und seiner KI-Forschung wurden. Mittlerweile ist die neueste Version der 2021 veröffentlichten Text-zu-Bild-Plattform Dall-E direkt in ChatGPT verfügbar.

Mit Spannung wird auch das generative KI-Videoprodukt namens Sora aus OpenAIs Portfolio erwartet. Noch ist es aber nicht allgemein verfügbar.

Reger Personalwechsel im KI-Sektor

Im Wettlauf um die besten KI-Talente konkurrieren Unternehmen wie OpenAI, DeepMind und andere intensiv, oft mit Gehaltspaketen in Millionenhöhe. Wechsel zwischen Firmen sind dabei üblich:

Tim Brooks, zuvor bei OpenAI, ging zu DeepMind

Microsoft warb Mustafa Suleyman von Inflection AI ab

Google zahlte 2,7 Milliarden Dollar zahlte, um Noam Shazeer, den Gründer von Character.AI, zurückzugewinnen.

In den letzten Monaten haben eine Reihe von Schlüsselfiguren bei OpenAI das Unternehmen verlassen, um sich entweder direkten Konkurrenten wie DeepMind und Anthropic anzuschließen oder eigene Unternehmen zu gründen.

Ilya Sutskever, ein Mitbegründer von OpenAI und ehemaliger leitender Wissenschaftler, hat das Unternehmen verlassen, um Safe Superintelligence zu gründen, ein Startup, das sich auf KI-Sicherheit und existenzielle Risiken konzentriert.

Mira Murati, die ehemalige Chief Technology Officer von OpenAI, gab im September bekannt, dass sie das Unternehmen verlässt und Berichten zufolge Geld für ein neues KI-Unternehmen sammelt.

OpenAI wildert bei der Konkurrenz in England​ Weiterlesen »

2025 wird kein gutes Homeoffice-Jahr​

Allgemein

CEOs wollen ihre Mitarbeiter mehrheitlich wieder im Büro sehen. Das erleichtert aus ihrer Sicht vieles.Thomas Andre Fure | shutterstock.com Diverse Back-to-Office-Mandate der letzten Monate ließen bereits vermuten, was eine Studie von KPMG nun bestätigt. Laut dem „CEO Outlook 2024“ für den weltweit mehr als 1.300 CEOs befragt wurden, hat sich die Einstellung der Firmenlenker zum Thema Remote Work, Hybrid Work und Homeoffice innerhalb eines knappen Jahres fundamental verändert: Während sich Anfang 2024 lediglich 34 Prozent der Befragten für eine Rückkehr ins Büro erwärmen konnten, liegt dieser Wert Ende 2024 bei 79 Prozent. Mit 86 Prozent versucht die große Mehrheit der Befragten zudem, ihre Beschäftigten mit willkommene(re)n Tasks, Gehaltserhöhungen oder auch Beförderungen zurück ins Büro zu locken. Die Back-to-Office-Propaganda der CEOs Dieser Trend dürfte sich – ausgehend von den USA – in den kommenden Monaten weltweit weiter verschärfen. Schließlich sitzen mit Elon Musk, Vivek Ramaswamy und Donald Trump demnächst (Ex-)Manager im Weißen Haus, die dafür bekannt sind, zwar selbst gerne in den eigenen vier (beziehungsweise hundert) Wänden zu arbeiten, das aber ihren Angestellten lieber nicht zugestehen wollen. Dafür haben sie mehr oder weniger gute, beziehungsweise schlechte, Gründe: Sie glauben, dass die persönliche Anwesenheit im Büro zu besserer Zusammenarbeit beiträgt und insgesamt bessere Ergebnisse zur Folge hat. Das mag zwar zutreffen, lässt aber außen vor, dass nicht nur Collaboration- sondern auch Einzelleistungen wichtig sind. Und konzentriert arbeiten lässt es sich remote erheblich besser. Zudem sind fokussierte Tasks, die hohe Konzentration erfordern, im Regelfall auch finanziell lukrativer. Sie glauben auch, dass räumliche Nähe mit Blick auf Mentoring- und Innovationsinitiativen sowie die Unternehmenskultur zuträglich ist. Im gleichen Atemzug trauen sie ihrer Belegschaft aber nicht über den Weg und befürchten, dass die im Homeoffice ihre Arbeitszeit im Pyjama vor dem TV verbummelt. Und sie glauben, dass Angestellte, die im Büro anwesend sind, einen Maßstab für Produktivität darstellen. Eigentlich ist ihnen aber nur wohler dabei, herumlaufen zu können und Mitarbeiter persönlich beaufsichtigen beziehungsweise „managen“ zu können. Einigen anderen geht es hingegen vor allem darum, die Kosten für Büroräume und -ausstattung rechtfertigen zu können. Die Mehrheit der Angestellten will auf ihre mit der Pandemie gewonnenen Remote-Work-Freiheiten nicht mehr verzichten. Wie eine Studie des Videoconferencing-Anbieters Owl Labs nahelegt, ist Büropflicht für ein Drittel der befragten Arbeitnehmer ein Kündigungsgrund. Das Jahr 2025 dürfte aus Remote-Work-Perspektive also ein schwieriges werden. Allerdings bietet die allgemeine Tendenz zum Bürozwang-Mandat auch Chancen für Unternehmen, die davon nichts halten. Nämlich die Fachkräfte zu verpflichten, die rückständigen CEOs und ihren Firmen(gebäuden) den Rücken kehren. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

2025 wird kein gutes Homeoffice-Jahr​ CEOs wollen ihre Mitarbeiter mehrheitlich wieder im Büro sehen. Das erleichtert aus ihrer Sicht vieles.Thomas Andre Fure | shutterstock.com

Diverse Back-to-Office-Mandate der letzten Monate ließen bereits vermuten, was eine Studie von KPMG nun bestätigt. Laut dem „CEO Outlook 2024“ für den weltweit mehr als 1.300 CEOs befragt wurden, hat sich die Einstellung der Firmenlenker zum Thema Remote Work, Hybrid Work und Homeoffice innerhalb eines knappen Jahres fundamental verändert:

Während sich Anfang 2024 lediglich 34 Prozent der Befragten für eine Rückkehr ins Büro erwärmen konnten, liegt dieser Wert Ende 2024 bei 79 Prozent.

Mit 86 Prozent versucht die große Mehrheit der Befragten zudem, ihre Beschäftigten mit willkommene(re)n Tasks, Gehaltserhöhungen oder auch Beförderungen zurück ins Büro zu locken.

Die Back-to-Office-Propaganda der CEOs

Dieser Trend dürfte sich – ausgehend von den USA – in den kommenden Monaten weltweit weiter verschärfen. Schließlich sitzen mit Elon Musk, Vivek Ramaswamy und Donald Trump demnächst (Ex-)Manager im Weißen Haus, die dafür bekannt sind, zwar selbst gerne in den eigenen vier (beziehungsweise hundert) Wänden zu arbeiten, das aber ihren Angestellten lieber nicht zugestehen wollen. Dafür haben sie mehr oder weniger gute, beziehungsweise schlechte, Gründe:

Sie glauben, dass die persönliche Anwesenheit im Büro zu besserer Zusammenarbeit beiträgt und insgesamt bessere Ergebnisse zur Folge hat. Das mag zwar zutreffen, lässt aber außen vor, dass nicht nur Collaboration- sondern auch Einzelleistungen wichtig sind. Und konzentriert arbeiten lässt es sich remote erheblich besser. Zudem sind fokussierte Tasks, die hohe Konzentration erfordern, im Regelfall auch finanziell lukrativer.

Sie glauben auch, dass räumliche Nähe mit Blick auf Mentoring- und Innovationsinitiativen sowie die Unternehmenskultur zuträglich ist. Im gleichen Atemzug trauen sie ihrer Belegschaft aber nicht über den Weg und befürchten, dass die im Homeoffice ihre Arbeitszeit im Pyjama vor dem TV verbummelt.

Und sie glauben, dass Angestellte, die im Büro anwesend sind, einen Maßstab für Produktivität darstellen. Eigentlich ist ihnen aber nur wohler dabei, herumlaufen zu können und Mitarbeiter persönlich beaufsichtigen beziehungsweise „managen“ zu können. Einigen anderen geht es hingegen vor allem darum, die Kosten für Büroräume und -ausstattung rechtfertigen zu können.

Die Mehrheit der Angestellten will auf ihre mit der Pandemie gewonnenen Remote-Work-Freiheiten nicht mehr verzichten. Wie eine Studie des Videoconferencing-Anbieters Owl Labs nahelegt, ist Büropflicht für ein Drittel der befragten Arbeitnehmer ein Kündigungsgrund. Das Jahr 2025 dürfte aus Remote-Work-Perspektive also ein schwieriges werden. Allerdings bietet die allgemeine Tendenz zum Bürozwang-Mandat auch Chancen für Unternehmen, die davon nichts halten. Nämlich die Fachkräfte zu verpflichten, die rückständigen CEOs und ihren Firmen(gebäuden) den Rücken kehren. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

2025 wird kein gutes Homeoffice-Jahr​ Weiterlesen »

Tyrannisiert Apple in großem Stil?​

Allgemein

„Vertrauen ist gut, Kontrolle ist besser“?Shutterstock/Tada Images Wie die Nachrichtenagentur Reuters berichtet, hat ein Apple-Mitarbeiter gegen seinen Arbeitgeber Klage bei einem Gericht im US-Bundesstaat Kalifornien eingereicht. Der (wesentliche) Vorwurf: Der Konzern kontrolliere die persönlichen Devices und iCloud-Konten seiner Mitarbeiter über eine spezielle Software. Die gläserne Apple-Fachkraft? Diese Software sei für Angestellte obligatorisch und ermögliche es dem Unternehmen, widerrechtlich auf E-Mails, gespeicherte Bilder, Gesundheitsdaten und andere Informationen zuzugreifen. Gegenüber Reuters wies Apple die Vorwürfe zurück und teilte lediglich mit, seine Belegschaft im Rahmen jährlicher Schulungen über ihre Rechte am Arbeitsplatz zu informieren. Es ist nicht die einzige Gelegenheit, bei der sich Apple Vorwürfen von Mitarbeitern stellen muss: Zwei weibliche Apple-Mitarbeiter verklagten den iPhone-Konzern wegen systematischer Diskriminierung – Stichwort „Gender Pay Gap“. Zudem wurden bei US-Behörden Beschwerden eingereicht, weil Apple seiner Belegschaft verbieten soll, bestimmte Themen wie Diskriminierung zu diskutieren – etwa, indem ihr Zugang zu Apps wie Slack limitiert wird. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Tyrannisiert Apple in großem Stil?​ „Vertrauen ist gut, Kontrolle ist besser“?Shutterstock/Tada Images

Wie die Nachrichtenagentur Reuters berichtet, hat ein Apple-Mitarbeiter gegen seinen Arbeitgeber Klage bei einem Gericht im US-Bundesstaat Kalifornien eingereicht. Der (wesentliche) Vorwurf: Der Konzern kontrolliere die persönlichen Devices und iCloud-Konten seiner Mitarbeiter über eine spezielle Software.

Die gläserne Apple-Fachkraft?

Diese Software sei für Angestellte obligatorisch und ermögliche es dem Unternehmen, widerrechtlich auf E-Mails, gespeicherte Bilder, Gesundheitsdaten und andere Informationen zuzugreifen. Gegenüber Reuters wies Apple die Vorwürfe zurück und teilte lediglich mit, seine Belegschaft im Rahmen jährlicher Schulungen über ihre Rechte am Arbeitsplatz zu informieren.

Es ist nicht die einzige Gelegenheit, bei der sich Apple Vorwürfen von Mitarbeitern stellen muss:

Zwei weibliche Apple-Mitarbeiter verklagten den iPhone-Konzern wegen systematischer Diskriminierung – Stichwort „Gender Pay Gap“.

Zudem wurden bei US-Behörden Beschwerden eingereicht, weil Apple seiner Belegschaft verbieten soll, bestimmte Themen wie Diskriminierung zu diskutieren – etwa, indem ihr Zugang zu Apps wie Slack limitiert wird.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Tyrannisiert Apple in großem Stil?​ Weiterlesen »

Wege aus dem Berufsfrust: Neuer Spaß im alten Job​

Allgemein

Durchschnittlich 38 Stunden tarifliche Wochenarbeitszeit, 29 Urlaubstage pro Jahr, Arbeitszeitflexibilität, verbesserte Vereinbarkeit von Job und Familie: Deutsche Arbeitnehmer haben es in vielen Punkten besser, als Ihre Kollegen im Ausland. Dennoch belegen Umfragen und Untersuchungen immer wieder: Die Zufriedenheit im Job stagniert seit vielen Jahren kontinuierlich auf niedrigem Niveau.Die Zufriedenheit im Job stagniert seit vielen Jahren kontinuierlich auf niedrigem Niveau. Doch es gibt Wege raus aus dem Berufsfrust. Foto: Antonioguillem – fotolia.comEine Erfahrung, die auch Madeleine Leitner bestätigen kann. Sie arbeitet seit über zwei Jahrzehnten mit Fach- und Führungskräfte, die beruflich unzufrieden sind oder in ihrer Karriere nicht weiterkommen. Neben den typischen Klienten mit einer Midlife-Crisis rund um den 40. Geburtstag suchen seit einiger Zeit sogar erfolgreiche Führungskräfte jenseits der 50 ihre Beratung. Angeödet von ihren Jobs haben sie sich innerlich längst verabschiedet. Ihre Motivation liegt bei null, viele arbeiten nur noch für das Geld. Aus lauter Frust kündigen sie, suchen ihr Glück in einem neuen Job oder steigen ohne Netz und doppelten Boden einfach aus. Oft mit verheerenden Folgen. Die erhoffte Erleuchtung bei der Suche nach ihrer wahren “Berufung” bleibt aus. Mangels Alternativen kehren sie nach einer Auszeit frustriert in ihren alten Beruf zurück. Bei anderen erweist sich die neue Stelle als Mördergrube; die Position besteht aus unlösbaren Aufgaben und entwickelt sich zum Schleudersitz; die Firma baut ab und die Neuen müssen als erste gehen. Der vermeintliche Traumjob erweist sich als Albtraum.Der Mensch gewöhnt sich schnell an positive DingeBei solch bedeutsamen Schritten rät die Psychologin aus Erfahrung daher zur Vorsicht. Aus der Wahrnehmungspsychologie ist nämlich bekannt, dass sich der Mensch sehr schnell an positive Dinge gewöhnt und diese dann als selbstverständlich erachtet. Im Gegensatz dazu nimmt er all das, das er nicht hat, besonders stark wahr. Daraus resultiert zwangsläufig ein Gefühl chronischer Unzufriedenheit, die positiven Seiten der Tätigkeit hingegen werden unterschätzt.Das stellen auch immer wieder die Klienten von Madeleine Leitner fest. Eine Mitarbeiterin eines sehr bekannten, großen IT-Unternehmen war so unzufrieden, dass sie unbedingt kündigen wollte. “Beim Beratungsgespräch berichtete ich ihr, dass ihr Job aus meiner Sicht geradezu sensationell positiv war im Vergleich zu dem, was ich von anderen Klienten als berufliche Realität kannte”, so die Psychologin. Sie wollte aber trotzdem unbedingt “etwas anderes” machen. Im Rahmen eines Treffens ehemaliger Klienten kam sie mit anderen ins Gespräch und realisierte erst dadurch, dass ein gutes Betriebsklima ohne Mobbing, eine gute Bezahlung, die Möglichkeit zu kleinen Sabbaticals und Freiräume bei der Arbeit alles andere als selbstverständlich sind. Danach bewertete sie ihren Job noch einmal deutlich positiver. Seitdem nutzt sie vermehrt das großzügige Angebot ihres Arbeitgebers für gelegentliche Auszeiten.Madeleine Leitner ist Diplompsychologin und Karrierecoach. Foto: Madeleine LeitnerEin weiterer Fall aus Leitners Praxis lief ähnlich ab: Ein Projektmanager im IT-Bereich wollte ebenfalls aus Frust kündigen. Nach der Standortbestimmung wurde ihm bewusst, dass die Firma und sein Chef außerordentlich gut waren. “Wir erkannten durch unsere Arbeit, dass sein eigentliches Thema, das ihn im Job unzufrieden machte, eher mit ihm selbst zu tun hatte. Denn er sah zwar immer, was man besser machen konnte, war aber nicht in der Lage, das zu kommunizieren”, so die Münchner Coach-Expertin. Nach und nach lernte er, sich die Vorschläge nicht mehr zu verkneifen, sondern aktiv anzusprechen. Das gelang ihm immer besser, zumal seine Impulse in der Firma auf fruchtbaren Boden fielen – damit war die Kündigung kein Thema mehr.”Bevor man also etwas Grundlegendes verändert, so Leitner, sollte man sich zunächst ein paar grundlegende Fragen stellen:Beschreiben Sie möglichst genau, was Sie an Ihrer Tätigkeit stört. Ein diffuses “ich fühle mich unterfordert” oder “mir fehlt die Motivation” reichen dafür nicht aus.Seit wann hat sich das Gefühl der Unzufriedenheit bei Ihnen eingestellt? Gab es einen bestimmten Auslöser oder war es eher ein schleichender Prozess?Hat das Problem mit Ihrer Tätigkeit oder mit Ihnen selbst zu tun? Ist ein Kollege an Ihnen vorbeigezogen? Sind interessante Aufgaben entfallen? Oder hatten Sie einen runden Geburtstag? Hat sich jemand selbständig gemacht, dem Sie das niemals zugetraut hätten? Wäre der Wechsel des Arbeitsplatzes wirklich die Lösung? Oder haben Sie eigentlich “nur” eine Art kleine Sinnkrise?Was genau geht in Ihnen vor? Versuchen Sie, durch Selbstbeobachtung herauszufinden, welche Gedanken Sie hegen, zum Beispiel: “Jetzt oder nie, sonst schaffe ich den Absprung nicht mehr” oder “Ein Job muss Erfüllung bringen”.Tipps, um wieder Freude im Job zu findenAußerdem hat die Münchner Psychologin aus ihrer Erfahrung noch drei Tipps parat, die Menschen geholfen haben, wieder Freude im alten Job zu finden:Sprechen Sie mit anderen Personen über deren Jobs. Das kann Ihnen helfen, Ihre Einschätzung zu relativieren. Denn viele Menschen wissen gar nicht, wie gut es Ihnen geht. Erst im Kontrast zu den Erfahrungen anderer bemerken sie, wie privilegiert sie eigentlich sind.Überlegen Sie, warum Sie sich ursprünglich für Ihren Job entschieden haben. Hätte es auch andere Optionen gegeben? Warum haben Sie diese nicht gewählt? Hat sich seitdem etwas Grundlegendes geändert?Überlegen Sie noch einmal ganz bewusst, was an Ihrer jetzigen Tätigkeit positiv für Sie ist! Das gute Betriebsklima? Die Jobsicherheit? Das Gehalt? Die Vereinbarkeit mit dem Privatleben?“Bei genauer Betrachtung haben viele meiner Klienten erkannt, dass ihre Tätigkeit im Vergleich gar nicht so schlecht abschneidet, wie sie das erwartet hatten”, freut sich die Psychologin. Allein diese Erkenntnis habe sie dazu motiviert, wieder mit neuem Schwung an ihre alte Arbeit zu gehen.Top-10-Faktoren der JobmotivationTop 10 Faktoren der JobmotivationDie Studie der ManpowerGroup hat die zehn wichtigsten Faktoren der Motivation im Arbeitsalltag identifiziert.Top 10 Faktoren der Jobmotivation Foto: MJgraphics – shutterstock.comDie Studie der ManpowerGroup hat die zehn wichtigsten Faktoren der Motivation im Arbeitsalltag identifiziert.1. Gutes Arbeitsverhältnis zu Kollegen und VorgesetztenDer menschliche Faktor zählt: 65 Prozent der Befragten sind motivierter im Job, wenn sie mit Kollegen und Chefs gut auskommen. 2014 waren es noch 77 Prozent.1. Gutes Arbeitsverhältnis zu Kollegen und Vorgesetzten Foto: Racorn – shutterstock.comDer menschliche Faktor zählt: 65 Prozent der Befragten sind motivierter im Job, wenn sie mit Kollegen und Chefs gut auskommen. 2014 waren es noch 77 Prozent.2. Flexible ArbeitszeitenGleitzeit oder ein Arbeitszeitkonto bleiben wichtige Motivatoren, sind allerdings auf dem Rückzug. Nur jeden zweiten Arbeitnehmer (50 Prozent) spornt flexibles Kommen und Gehen an. Im Vorjahr war dies noch bei 67 Prozent der Fall.2. Flexible Arbeitszeiten Foto: Stephanie Frey – shutterstock.comGleitzeit oder ein Arbeitszeitkonto bleiben wichtige Motivatoren, sind allerdings auf dem Rückzug. Nur jeden zweiten Arbeitnehmer (50 Prozent) spornt flexibles Kommen und Gehen an. Im Vorjahr war dies noch bei 67 Prozent der Fall.3. Freundschaftliches Verhältnis zu KollegenFür 42 Prozent der Deutschen ist es wichtig, auch nach Feierabend den Kontakt zu anderen Kollegen zu pflegen und gemeinsam etwas zu unternehmen. Letztes Jahr war es 45 Prozent.3. Freundschaftliches Verhältnis zu Kollegen Foto: Warren Goldswain – shutterstock.comFür 42 Prozent der Deutschen ist es wichtig, auch nach Feierabend den Kontakt zu anderen Kollegen zu pflegen und gemeinsam etwas zu unternehmen. Letztes Jahr war es 45 Prozent.4. Kostenlose Getränke vom ArbeitgeberGeringer Aufwand, große Wirkung: Für 33 Prozent Arbeitnehmer sind kostenlose Getränke am Arbeitsplatz motivierend für den Job – ein Prozent mehr als bei der Vorjahresbefragung.4. Kostenlose Getränke vom Arbeitgeber Foto: Anchiy – shutterstock.comGeringer Aufwand, große Wirkung: Für 33 Prozent Arbeitnehmer sind kostenlose Getränke am Arbeitsplatz motivierend für den Job – ein Prozent mehr als bei der Vorjahresbefragung.5. Teamarbeit33 Prozent der Arbeitnehmer haben mehr Spaß im Job, wenn sie häufig in Gruppen arbeiten. „Die Arbeitnehmer schätzen zwar den Kontakt zu ihren Kollegen – doch ständige Meetings und Arbeitsgruppen empfinden zwei Drittel eher lästig als motivierend“, sagt Herwarth Brune, Vorsitzender der Geschäftsführung der ManpowerGroup Deutschland.5. Teamarbeit Foto: Alphaspirit – shutterstock.com33 Prozent der Arbeitnehmer haben mehr Spaß im Job, wenn sie häufig in Gruppen arbeiten. „Die Arbeitnehmer schätzen zwar den Kontakt zu ihren Kollegen – doch ständige Meetings und Arbeitsgruppen empfinden zwei Drittel eher lästig als motivierend“, sagt Herwarth Brune, Vorsitzender der Geschäftsführung der ManpowerGroup Deutschland.6. Ansprechende RaumgestaltungDie Büroatmosphäre hat auf ebenso wenig Befragte eine motivierende Wirkung. 32 Prozent arbeiten aus eigener Sicht produktiver, wenn die Optik im Büro stimmt. Das bedeutet drei Prozentpunkte Einbuße im Vergleich zum Vorjahr.6. Ansprechende Raumgestaltung Foto: Monkey Business Images – shutterstock.comDie Büroatmosphäre hat auf ebenso wenig Befragte eine motivierende Wirkung. 32 Prozent arbeiten aus eigener Sicht produktiver, wenn die Optik im Büro stimmt. Das bedeutet drei Prozentpunkte Einbuße im Vergleich zum Vorjahr.7. Betriebliche GesundheitsförderungBeratung durch den Betriebsarzt und vom Arbeitgeber bezahlte Präventionskurse sind gut für die Motivation. 31 Prozent der Mitarbeiter arbeiten befreiter, wenn sie wissen, dass ihr Unternehmen die Gesundheit der Angestellten fördert. 2014 waren es 38 Prozent.7. Betriebliche Gesundheitsförderung Foto: Kzenon – shutterstock.comBeratung durch den Betriebsarzt und vom Arbeitgeber bezahlte Präventionskurse sind gut für die Motivation. 31 Prozent der Mitarbeiter arbeiten befreiter, wenn sie wissen, dass ihr Unternehmen die Gesundheit der Angestellten fördert. 2014 waren es 38 Prozent.8. Guter KaffeeAugen auf beim Kaffeekauf: Für 28 Prozent der Mitarbeiter fördert die Qualität des Koffeingetränks die Motivation am Arbeitsplatz. Guter Kaffee rutscht damit in die Top 10 der Arbeitsmotivatoren und holt im Vergleich zu 2014 fünf Prozentpunkte auf.8. Guter Kaffee Foto: Muzyka – shutterstock.comAugen auf beim Kaffeekauf: Für 28 Prozent der Mitarbeiter fördert die Qualität des Koffeingetränks die Motivation am Arbeitsplatz. Guter Kaffee rutscht damit in die Top 10 der Arbeitsmotivatoren und holt im Vergleich zu 2014 fünf Prozentpunkte auf.9. Pflanzen im BüroGrünpflanzen heben die Stimmung und sorgen für ein besseres Raumklima. Ein Prozent mehr als letztes Jahr, nämlich 27 Prozent der Befragten, können besser arbeiten, wenn Zimmerpflanzen im Büro stehen.9. Pflanzen im Büro Foto: Lapina – shutterstock.comGrünpflanzen heben die Stimmung und sorgen für ein besseres Raumklima. Ein Prozent mehr als letztes Jahr, nämlich 27 Prozent der Befragten, können besser arbeiten, wenn Zimmerpflanzen im Büro stehen.10. Motivation durch BüromöbelMit Investitionen in moderne Bürowelten können Arbeitgeber punkten: 25 Prozent der Arbeitnehmer lassen sich durch zeitgemäßes, ergonomisches Design motivieren – vier Prozent mehr als 2014. 10. Motivation durch Büromöbel Foto: Motorangel – shutterstock.comMit Investitionen in moderne Bürowelten können Arbeitgeber punkten: 25 Prozent der Arbeitnehmer lassen sich durch zeitgemäßes, ergonomisches Design motivieren – vier Prozent mehr als 2014. 

Wege aus dem Berufsfrust: Neuer Spaß im alten Job​ Durchschnittlich 38 Stunden tarifliche Wochenarbeitszeit, 29 Urlaubstage pro Jahr, Arbeitszeitflexibilität, verbesserte Vereinbarkeit von Job und Familie: Deutsche Arbeitnehmer haben es in vielen Punkten besser, als Ihre Kollegen im Ausland. Dennoch belegen Umfragen und Untersuchungen immer wieder: Die Zufriedenheit im Job stagniert seit vielen Jahren kontinuierlich auf niedrigem Niveau.Die Zufriedenheit im Job stagniert seit vielen Jahren kontinuierlich auf niedrigem Niveau. Doch es gibt Wege raus aus dem Berufsfrust.
Foto: Antonioguillem – fotolia.comEine Erfahrung, die auch Madeleine Leitner bestätigen kann. Sie arbeitet seit über zwei Jahrzehnten mit Fach- und Führungskräfte, die beruflich unzufrieden sind oder in ihrer Karriere nicht weiterkommen. Neben den typischen Klienten mit einer Midlife-Crisis rund um den 40. Geburtstag suchen seit einiger Zeit sogar erfolgreiche Führungskräfte jenseits der 50 ihre Beratung. Angeödet von ihren Jobs haben sie sich innerlich längst verabschiedet. Ihre Motivation liegt bei null, viele arbeiten nur noch für das Geld. Aus lauter Frust kündigen sie, suchen ihr Glück in einem neuen Job oder steigen ohne Netz und doppelten Boden einfach aus. Oft mit verheerenden Folgen. Die erhoffte Erleuchtung bei der Suche nach ihrer wahren “Berufung” bleibt aus. Mangels Alternativen kehren sie nach einer Auszeit frustriert in ihren alten Beruf zurück. Bei anderen erweist sich die neue Stelle als Mördergrube; die Position besteht aus unlösbaren Aufgaben und entwickelt sich zum Schleudersitz; die Firma baut ab und die Neuen müssen als erste gehen. Der vermeintliche Traumjob erweist sich als Albtraum.Der Mensch gewöhnt sich schnell an positive DingeBei solch bedeutsamen Schritten rät die Psychologin aus Erfahrung daher zur Vorsicht. Aus der Wahrnehmungspsychologie ist nämlich bekannt, dass sich der Mensch sehr schnell an positive Dinge gewöhnt und diese dann als selbstverständlich erachtet. Im Gegensatz dazu nimmt er all das, das er nicht hat, besonders stark wahr. Daraus resultiert zwangsläufig ein Gefühl chronischer Unzufriedenheit, die positiven Seiten der Tätigkeit hingegen werden unterschätzt.Das stellen auch immer wieder die Klienten von Madeleine Leitner fest. Eine Mitarbeiterin eines sehr bekannten, großen IT-Unternehmen war so unzufrieden, dass sie unbedingt kündigen wollte. “Beim Beratungsgespräch berichtete ich ihr, dass ihr Job aus meiner Sicht geradezu sensationell positiv war im Vergleich zu dem, was ich von anderen Klienten als berufliche Realität kannte”, so die Psychologin. Sie wollte aber trotzdem unbedingt “etwas anderes” machen. Im Rahmen eines Treffens ehemaliger Klienten kam sie mit anderen ins Gespräch und realisierte erst dadurch, dass ein gutes Betriebsklima ohne Mobbing, eine gute Bezahlung, die Möglichkeit zu kleinen Sabbaticals und Freiräume bei der Arbeit alles andere als selbstverständlich sind. Danach bewertete sie ihren Job noch einmal deutlich positiver. Seitdem nutzt sie vermehrt das großzügige Angebot ihres Arbeitgebers für gelegentliche Auszeiten.Madeleine Leitner ist Diplompsychologin und Karrierecoach.
Foto: Madeleine LeitnerEin weiterer Fall aus Leitners Praxis lief ähnlich ab: Ein Projektmanager im IT-Bereich wollte ebenfalls aus Frust kündigen. Nach der Standortbestimmung wurde ihm bewusst, dass die Firma und sein Chef außerordentlich gut waren. “Wir erkannten durch unsere Arbeit, dass sein eigentliches Thema, das ihn im Job unzufrieden machte, eher mit ihm selbst zu tun hatte. Denn er sah zwar immer, was man besser machen konnte, war aber nicht in der Lage, das zu kommunizieren”, so die Münchner Coach-Expertin. Nach und nach lernte er, sich die Vorschläge nicht mehr zu verkneifen, sondern aktiv anzusprechen. Das gelang ihm immer besser, zumal seine Impulse in der Firma auf fruchtbaren Boden fielen – damit war die Kündigung kein Thema mehr.”Bevor man also etwas Grundlegendes verändert, so Leitner, sollte man sich zunächst ein paar grundlegende Fragen stellen:Beschreiben Sie möglichst genau, was Sie an Ihrer Tätigkeit stört. Ein diffuses “ich fühle mich unterfordert” oder “mir fehlt die Motivation” reichen dafür nicht aus.Seit wann hat sich das Gefühl der Unzufriedenheit bei Ihnen eingestellt? Gab es einen bestimmten Auslöser oder war es eher ein schleichender Prozess?Hat das Problem mit Ihrer Tätigkeit oder mit Ihnen selbst zu tun? Ist ein Kollege an Ihnen vorbeigezogen? Sind interessante Aufgaben entfallen? Oder hatten Sie einen runden Geburtstag? Hat sich jemand selbständig gemacht, dem Sie das niemals zugetraut hätten? Wäre der Wechsel des Arbeitsplatzes wirklich die Lösung? Oder haben Sie eigentlich “nur” eine Art kleine Sinnkrise?Was genau geht in Ihnen vor? Versuchen Sie, durch Selbstbeobachtung herauszufinden, welche Gedanken Sie hegen, zum Beispiel: “Jetzt oder nie, sonst schaffe ich den Absprung nicht mehr” oder “Ein Job muss Erfüllung bringen”.Tipps, um wieder Freude im Job zu findenAußerdem hat die Münchner Psychologin aus ihrer Erfahrung noch drei Tipps parat, die Menschen geholfen haben, wieder Freude im alten Job zu finden:Sprechen Sie mit anderen Personen über deren Jobs. Das kann Ihnen helfen, Ihre Einschätzung zu relativieren. Denn viele Menschen wissen gar nicht, wie gut es Ihnen geht. Erst im Kontrast zu den Erfahrungen anderer bemerken sie, wie privilegiert sie eigentlich sind.Überlegen Sie, warum Sie sich ursprünglich für Ihren Job entschieden haben. Hätte es auch andere Optionen gegeben? Warum haben Sie diese nicht gewählt? Hat sich seitdem etwas Grundlegendes geändert?Überlegen Sie noch einmal ganz bewusst, was an Ihrer jetzigen Tätigkeit positiv für Sie ist! Das gute Betriebsklima? Die Jobsicherheit? Das Gehalt? Die Vereinbarkeit mit dem Privatleben?“Bei genauer Betrachtung haben viele meiner Klienten erkannt, dass ihre Tätigkeit im Vergleich gar nicht so schlecht abschneidet, wie sie das erwartet hatten”, freut sich die Psychologin. Allein diese Erkenntnis habe sie dazu motiviert, wieder mit neuem Schwung an ihre alte Arbeit zu gehen.Top-10-Faktoren der JobmotivationTop 10 Faktoren der JobmotivationDie Studie der ManpowerGroup hat die zehn wichtigsten Faktoren der Motivation im Arbeitsalltag identifiziert.Top 10 Faktoren der Jobmotivation
Foto: MJgraphics – shutterstock.comDie Studie der ManpowerGroup hat die zehn wichtigsten Faktoren der Motivation im Arbeitsalltag identifiziert.1. Gutes Arbeitsverhältnis zu Kollegen und VorgesetztenDer menschliche Faktor zählt: 65 Prozent der Befragten sind motivierter im Job, wenn sie mit Kollegen und Chefs gut auskommen. 2014 waren es noch 77 Prozent.1. Gutes Arbeitsverhältnis zu Kollegen und Vorgesetzten
Foto: Racorn – shutterstock.comDer menschliche Faktor zählt: 65 Prozent der Befragten sind motivierter im Job, wenn sie mit Kollegen und Chefs gut auskommen. 2014 waren es noch 77 Prozent.2. Flexible ArbeitszeitenGleitzeit oder ein Arbeitszeitkonto bleiben wichtige Motivatoren, sind allerdings auf dem Rückzug. Nur jeden zweiten Arbeitnehmer (50 Prozent) spornt flexibles Kommen und Gehen an. Im Vorjahr war dies noch bei 67 Prozent der Fall.2. Flexible Arbeitszeiten
Foto: Stephanie Frey – shutterstock.comGleitzeit oder ein Arbeitszeitkonto bleiben wichtige Motivatoren, sind allerdings auf dem Rückzug. Nur jeden zweiten Arbeitnehmer (50 Prozent) spornt flexibles Kommen und Gehen an. Im Vorjahr war dies noch bei 67 Prozent der Fall.3. Freundschaftliches Verhältnis zu KollegenFür 42 Prozent der Deutschen ist es wichtig, auch nach Feierabend den Kontakt zu anderen Kollegen zu pflegen und gemeinsam etwas zu unternehmen. Letztes Jahr war es 45 Prozent.3. Freundschaftliches Verhältnis zu Kollegen
Foto: Warren Goldswain – shutterstock.comFür 42 Prozent der Deutschen ist es wichtig, auch nach Feierabend den Kontakt zu anderen Kollegen zu pflegen und gemeinsam etwas zu unternehmen. Letztes Jahr war es 45 Prozent.4. Kostenlose Getränke vom ArbeitgeberGeringer Aufwand, große Wirkung: Für 33 Prozent Arbeitnehmer sind kostenlose Getränke am Arbeitsplatz motivierend für den Job – ein Prozent mehr als bei der Vorjahresbefragung.4. Kostenlose Getränke vom Arbeitgeber
Foto: Anchiy – shutterstock.comGeringer Aufwand, große Wirkung: Für 33 Prozent Arbeitnehmer sind kostenlose Getränke am Arbeitsplatz motivierend für den Job – ein Prozent mehr als bei der Vorjahresbefragung.5. Teamarbeit33 Prozent der Arbeitnehmer haben mehr Spaß im Job, wenn sie häufig in Gruppen arbeiten. „Die Arbeitnehmer schätzen zwar den Kontakt zu ihren Kollegen – doch ständige Meetings und Arbeitsgruppen empfinden zwei Drittel eher lästig als motivierend“, sagt Herwarth Brune, Vorsitzender der Geschäftsführung der ManpowerGroup Deutschland.5. Teamarbeit
Foto: Alphaspirit – shutterstock.com33 Prozent der Arbeitnehmer haben mehr Spaß im Job, wenn sie häufig in Gruppen arbeiten. „Die Arbeitnehmer schätzen zwar den Kontakt zu ihren Kollegen – doch ständige Meetings und Arbeitsgruppen empfinden zwei Drittel eher lästig als motivierend“, sagt Herwarth Brune, Vorsitzender der Geschäftsführung der ManpowerGroup Deutschland.6. Ansprechende RaumgestaltungDie Büroatmosphäre hat auf ebenso wenig Befragte eine motivierende Wirkung. 32 Prozent arbeiten aus eigener Sicht produktiver, wenn die Optik im Büro stimmt. Das bedeutet drei Prozentpunkte Einbuße im Vergleich zum Vorjahr.6. Ansprechende Raumgestaltung
Foto: Monkey Business Images – shutterstock.comDie Büroatmosphäre hat auf ebenso wenig Befragte eine motivierende Wirkung. 32 Prozent arbeiten aus eigener Sicht produktiver, wenn die Optik im Büro stimmt. Das bedeutet drei Prozentpunkte Einbuße im Vergleich zum Vorjahr.7. Betriebliche GesundheitsförderungBeratung durch den Betriebsarzt und vom Arbeitgeber bezahlte Präventionskurse sind gut für die Motivation. 31 Prozent der Mitarbeiter arbeiten befreiter, wenn sie wissen, dass ihr Unternehmen die Gesundheit der Angestellten fördert. 2014 waren es 38 Prozent.7. Betriebliche Gesundheitsförderung
Foto: Kzenon – shutterstock.comBeratung durch den Betriebsarzt und vom Arbeitgeber bezahlte Präventionskurse sind gut für die Motivation. 31 Prozent der Mitarbeiter arbeiten befreiter, wenn sie wissen, dass ihr Unternehmen die Gesundheit der Angestellten fördert. 2014 waren es 38 Prozent.8. Guter KaffeeAugen auf beim Kaffeekauf: Für 28 Prozent der Mitarbeiter fördert die Qualität des Koffeingetränks die Motivation am Arbeitsplatz. Guter Kaffee rutscht damit in die Top 10 der Arbeitsmotivatoren und holt im Vergleich zu 2014 fünf Prozentpunkte auf.8. Guter Kaffee
Foto: Muzyka – shutterstock.comAugen auf beim Kaffeekauf: Für 28 Prozent der Mitarbeiter fördert die Qualität des Koffeingetränks die Motivation am Arbeitsplatz. Guter Kaffee rutscht damit in die Top 10 der Arbeitsmotivatoren und holt im Vergleich zu 2014 fünf Prozentpunkte auf.9. Pflanzen im BüroGrünpflanzen heben die Stimmung und sorgen für ein besseres Raumklima. Ein Prozent mehr als letztes Jahr, nämlich 27 Prozent der Befragten, können besser arbeiten, wenn Zimmerpflanzen im Büro stehen.9. Pflanzen im Büro
Foto: Lapina – shutterstock.comGrünpflanzen heben die Stimmung und sorgen für ein besseres Raumklima. Ein Prozent mehr als letztes Jahr, nämlich 27 Prozent der Befragten, können besser arbeiten, wenn Zimmerpflanzen im Büro stehen.10. Motivation durch BüromöbelMit Investitionen in moderne Bürowelten können Arbeitgeber punkten: 25 Prozent der Arbeitnehmer lassen sich durch zeitgemäßes, ergonomisches Design motivieren – vier Prozent mehr als 2014. 10. Motivation durch Büromöbel
Foto: Motorangel – shutterstock.comMit Investitionen in moderne Bürowelten können Arbeitgeber punkten: 25 Prozent der Arbeitnehmer lassen sich durch zeitgemäßes, ergonomisches Design motivieren – vier Prozent mehr als 2014.

Wege aus dem Berufsfrust: Neuer Spaß im alten Job​ Weiterlesen »

Was ist Visual Studio Code?​

Allgemein

loading=”lazy” width=”400px”>Visual Studio Code auf macOS.IDG Visual Studio Code (VS Code) ist ein kostenloser Quellcode-Editor von Microsoft. Er ist für Windows-, macOS-, Linux- und Raspberry-Pi-Systeme verfügbar – und kann auch webbasiert genutzt werden. Das quelloffene Microsoft-Entwickler-Tool ist besonders schlank, gleichzeitig aber auch sehr leistungsstark. VS Code bietet integrierten Support für JavaScript, TypeScript und Node.js. Der Editor verfügt zudem über ein umfassendes Ökosystem an Erweiterungen für: andere Programmiersprachen (etwa C++, C#, Java, Python, PHP oder Go), Runtimes (wie .NET und Unity), Environments (beispielsweise Docker oder Kubernetes), sowie Clouds (AWS, Azure, Google Cloud). Weitere erwähnenswerte Funktionen von Visual Studio Code sind: die Code-Vervollständigung „IntelliSense“ für Variablen, Methoden und importierte Module, grafisches Debugging, Linting, Multi-Cursor-Editing, Parameter-Hints und weitere Editing-Funktionen, Code-Navigation und Refactoring, sowie integrierte Quellcodeverwaltung (inklusive Support für Git). Visual Studio Code selbst wurde mit der Electron-Shell, Node.js, TypeScript und dem Language-Server-Protokoll entwickelt und wird monatlich aktualisiert. Die Erweiterungen werden so oft wie nötig aktualisiert. Der Support-Umfang variiert zwischen den verschiedenen Programmiersprachen und ihren Erweiterungen: Das reicht von einfachem Syntax-Highlighting und Bracket Matching bis hin zu Debugging und Refactoring. Wenn kein Language Server (dazu gleich mehr) verfügbar ist, können Developer grundlegenden Support für ihre bevorzugte Programmiersprache über TextMate-Colorizer hinzufügen. Der Code im Repository von Visual Studio Code ist quelloffen und steht unter der MIT-Lizenz. Das Produkt selbst wird unter einer Standard-Microsoft-Produktlizenz ausgeliefert, da es einen kleinen Prozentsatz Microsoft-spezifischer Anpassungen enthält. Trotz der kommerziellen Lizenzform ist Visual Studio Code kostenlos. Visual Studio Code – Architektur Einfach nur zu schreiben, dass VS Code auf der Electron-Shell, Node.js, TypeScript und dem Language Server Protocol basiert, wird seiner Architektur nicht gerecht. Ein Blick in die „About“-Box verrät, dass Visual Studio Code: neben Electron (einem Framework, um plattformübergreifende Desktop-Anwendungen mit JavaScript, HTML und CSS zu schreiben), und Node.js (einer JavaScript-Laufzeitumgebung) auch Chromium (ein Open-Source-Browserprojekt), sowie V8 (eine quelloffene JavaScript- und WebAssembly-Engine von Google, die in C++ geschrieben ist) nutzt. Das Language Server Protocol definiert das Protokoll, das bei der Kommunikation zwischen einem Editor oder einer IDE und einem Language Server (Sprachserver) verwendet wird. Letztgenannter stellt sprachspezifische Features zur Verfügung, beispielsweise um alle Referenzen zu finden. Der Language Server ist dazu  gedacht, mit Development Tools über ein Protokoll zu kommunizieren, das Interprozesskommunikation ermöglicht. Das Debug Adapter Protocol (DAP) definiert das abstrakte Protokoll, das zwischen einem Tool (Editor oder IDE) und einem Debugger verwendet wird. So lassen sich generische Debugger für Dev-Tools implementieren, die über Debug-Adapter mit verschiedenen Debuggern kommunizieren können. Debug-Adapter sind kompatibel mit mehreren Entwickler-Tools und dadurch wiederverwendbar. Das reduziert den Support-Aufwand für einen neuen Debugger in verschiedenen Tools erheblich. Dieses Diagramm von Franz Verdi Torrez skizziert grob, wie die Einzelteile von VS Code zusammenwirken. Visual Studio Code – Extensions Eine Schnellsuche auf dem Visual-Studio-Code-Marktplatz fördert rund 38.000 Ergebnisse zutage, die Microsofts Quellcode-Editor um Support für Hunderte von Programmiersprachen erweitern. Extensions lassen sich sowohl über den Marketplace als auch über die Extensions-Sidebar oder die Befehlspalette in VS Code managen. Die aktuellen Erweiterungskategorien entnehmen Sie dem nachfolgenden Screenshot: loading=”lazy” width=”400px”>IDG VS Code – Download und Installation Visual Studio Code steht über die offizielle Webseite zum Download zur Verfügung. Eine bessere Übersicht über die verfügbaren Versionen bietet allerdings die (ebenfalls offizielle) Download-Seite. Davon abgesehen lässt sich VS Code im Fall von Linux- und Raspberry-Pi-Systemen auch über die Befehlszeile installieren. Je nach System führen Sie dazu apt, apt-get, rpm, yum oder snap aus. Detaillierte Installationsanweisungen stehen ebenfalls zur Verfügung für: Linux, macOS, Windows und Raspberry Pi. Um Support für Ihren Source-Code-Manager und Ihre bevorzugte Programmiersprache hinzuzufügen, müssen Sie unter Umständen zusätzliche Komponenten installieren. Zum Beispiel Git, Node.js, TypeScript, einen C++-Compiler, Python (3.7 oder höher), Yeoman und/oder eine Version von .NET. Visual Studio Code vs. Visual Studio Geht es darum, sich zwischen Visual Studio Code und Visual Studio zu entscheiden, gilt grundsätzlich: Visual Studio Code ist schlank, aber erweiterbar. Visual Studio ist hingegen ein vollumfängliches Schwergewicht. Visual Studio kann beispielsweise neue Projekte aus Templates generieren. Das kann Visual Studio Code zwar nicht, allerdings lassen sich mit Befehlszeilen-Tools wie Yeoman Projekt-Outlines in der VS-Code-Konsole generieren. Sollten Sie jedoch eine Code-Profiling-Funktion benötigen, sind Sie mit Visual Studio besser bedient. Visual Studio Code for the Web Statt VS Code auf Ihrem Rechner zu installieren, können Sie auch einfach folgende Webseiten aufrufen: vscode.dev, github.dev (für den Stable Build) oder insiders.vscode.dev (für den aktuellen Daily Build). In der Web-Version von Visual Studio Code können Sie Dateien und Ordner von Ihrem lokalen Rechner – oder aus einem Remote-Repository – öffnen. Visual Studio Code for the Web kann zwar weder Code noch Sprachserver ausführen, aber eine Vielzahl von VS-Code-Extensions. Um diesen Makel zu beheben, können Sie einen GitHub-Codespace nutzen, der Code ausführen und debuggen sowie Sprachserver nutzen kann. Voraussetzung: Ihre Organisation nutzt einen GitHub-Team- oder GitHub-Enterprise-Cloud-Plan. loading=”lazy” width=”400px”>Visual Studio Code denkt mit (siehe rechts unten).IDG loading=”lazy” width=”400px”>Ungünstigerweise lässt VS Code for the Web sowohl Python Extensions (brauchen einen Language Server) als auch die Debug-and-Run-Funktionalität für sämtliche Sprachen vermissen. IDG Zusammenfassend lässt sich festhalten: Visual Studio Code ist einer der besten Code-Editoren überhaupt. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Was ist Visual Studio Code?​ loading=”lazy” width=”400px”>Visual Studio Code auf macOS.IDG

Visual Studio Code (VS Code) ist ein kostenloser Quellcode-Editor von Microsoft. Er ist für Windows-, macOS-, Linux- und Raspberry-Pi-Systeme verfügbar – und kann auch webbasiert genutzt werden. Das quelloffene Microsoft-Entwickler-Tool ist besonders schlank, gleichzeitig aber auch sehr leistungsstark.

VS Code bietet integrierten Support für JavaScript, TypeScript und Node.js. Der Editor verfügt zudem über ein umfassendes Ökosystem an Erweiterungen für:

andere Programmiersprachen (etwa C++, C#, Java, Python, PHP oder Go),

Runtimes (wie .NET und Unity),

Environments (beispielsweise Docker oder Kubernetes), sowie

Clouds (AWS, Azure, Google Cloud).

Weitere erwähnenswerte Funktionen von Visual Studio Code sind:

die Code-Vervollständigung „IntelliSense“ für Variablen, Methoden und importierte Module,

grafisches Debugging,

Linting,

Multi-Cursor-Editing,

Parameter-Hints und weitere Editing-Funktionen,

Code-Navigation und Refactoring, sowie

integrierte Quellcodeverwaltung (inklusive Support für Git).

Visual Studio Code selbst wurde mit der Electron-Shell, Node.js, TypeScript und dem Language-Server-Protokoll entwickelt und wird monatlich aktualisiert. Die Erweiterungen werden so oft wie nötig aktualisiert. Der Support-Umfang variiert zwischen den verschiedenen Programmiersprachen und ihren Erweiterungen: Das reicht von einfachem Syntax-Highlighting und Bracket Matching bis hin zu Debugging und Refactoring. Wenn kein Language Server (dazu gleich mehr) verfügbar ist, können Developer grundlegenden Support für ihre bevorzugte Programmiersprache über TextMate-Colorizer hinzufügen.

Der Code im Repository von Visual Studio Code ist quelloffen und steht unter der MIT-Lizenz. Das Produkt selbst wird unter einer Standard-Microsoft-Produktlizenz ausgeliefert, da es einen kleinen Prozentsatz Microsoft-spezifischer Anpassungen enthält. Trotz der kommerziellen Lizenzform ist Visual Studio Code kostenlos.

Visual Studio Code – Architektur

Einfach nur zu schreiben, dass VS Code auf der Electron-Shell, Node.js, TypeScript und dem Language Server Protocol basiert, wird seiner Architektur nicht gerecht. Ein Blick in die „About“-Box verrät, dass Visual Studio Code:

neben Electron (einem Framework, um plattformübergreifende Desktop-Anwendungen mit JavaScript, HTML und CSS zu schreiben), und

Node.js (einer JavaScript-Laufzeitumgebung) auch

Chromium (ein Open-Source-Browserprojekt), sowie

V8 (eine quelloffene JavaScript- und WebAssembly-Engine von Google, die in C++ geschrieben ist) nutzt.

Das Language Server Protocol definiert das Protokoll, das bei der Kommunikation zwischen einem Editor oder einer IDE und einem Language Server (Sprachserver) verwendet wird. Letztgenannter stellt sprachspezifische Features zur Verfügung, beispielsweise um alle Referenzen zu finden. Der Language Server ist dazu  gedacht, mit Development Tools über ein Protokoll zu kommunizieren, das Interprozesskommunikation ermöglicht.

Das Debug Adapter Protocol (DAP) definiert das abstrakte Protokoll, das zwischen einem Tool (Editor oder IDE) und einem Debugger verwendet wird. So lassen sich generische Debugger für Dev-Tools implementieren, die über Debug-Adapter mit verschiedenen Debuggern kommunizieren können. Debug-Adapter sind kompatibel mit mehreren Entwickler-Tools und dadurch wiederverwendbar. Das reduziert den Support-Aufwand für einen neuen Debugger in verschiedenen Tools erheblich.

Dieses Diagramm von Franz Verdi Torrez skizziert grob, wie die Einzelteile von VS Code zusammenwirken.

Visual Studio Code – Extensions

Eine Schnellsuche auf dem Visual-Studio-Code-Marktplatz fördert rund 38.000 Ergebnisse zutage, die Microsofts Quellcode-Editor um Support für Hunderte von Programmiersprachen erweitern. Extensions lassen sich sowohl über den Marketplace als auch über die Extensions-Sidebar oder die Befehlspalette in VS Code managen.

Die aktuellen Erweiterungskategorien entnehmen Sie dem nachfolgenden Screenshot:

loading=”lazy” width=”400px”>IDG

VS Code – Download und Installation

Visual Studio Code steht über die offizielle Webseite zum Download zur Verfügung. Eine bessere Übersicht über die verfügbaren Versionen bietet allerdings die (ebenfalls offizielle) Download-Seite.

Davon abgesehen lässt sich VS Code im Fall von Linux- und Raspberry-Pi-Systemen auch über die Befehlszeile installieren. Je nach System führen Sie dazu apt, apt-get, rpm, yum oder snap aus.

Detaillierte Installationsanweisungen stehen ebenfalls zur Verfügung für:

Linux,

macOS,

Windows und

Raspberry Pi.

Um Support für Ihren Source-Code-Manager und Ihre bevorzugte Programmiersprache hinzuzufügen, müssen Sie unter Umständen zusätzliche Komponenten installieren. Zum Beispiel Git, Node.js, TypeScript, einen C++-Compiler, Python (3.7 oder höher), Yeoman und/oder eine Version von .NET.

Visual Studio Code vs. Visual Studio

Geht es darum, sich zwischen Visual Studio Code und Visual Studio zu entscheiden, gilt grundsätzlich:

Visual Studio Code ist schlank, aber erweiterbar.

Visual Studio ist hingegen ein vollumfängliches Schwergewicht.

Visual Studio kann beispielsweise neue Projekte aus Templates generieren. Das kann Visual Studio Code zwar nicht, allerdings lassen sich mit Befehlszeilen-Tools wie Yeoman Projekt-Outlines in der VS-Code-Konsole generieren. Sollten Sie jedoch eine Code-Profiling-Funktion benötigen, sind Sie mit Visual Studio besser bedient.

Visual Studio Code for the Web

Statt VS Code auf Ihrem Rechner zu installieren, können Sie auch einfach folgende Webseiten aufrufen:

vscode.dev, github.dev (für den Stable Build) oder

insiders.vscode.dev (für den aktuellen Daily Build).

In der Web-Version von Visual Studio Code können Sie Dateien und Ordner von Ihrem lokalen Rechner – oder aus einem Remote-Repository – öffnen. Visual Studio Code for the Web kann zwar weder Code noch Sprachserver ausführen, aber eine Vielzahl von VS-Code-Extensions. Um diesen Makel zu beheben, können Sie einen GitHub-Codespace nutzen, der Code ausführen und debuggen sowie Sprachserver nutzen kann. Voraussetzung: Ihre Organisation nutzt einen GitHub-Team- oder GitHub-Enterprise-Cloud-Plan.

loading=”lazy” width=”400px”>Visual Studio Code denkt mit (siehe rechts unten).IDG

loading=”lazy” width=”400px”>Ungünstigerweise lässt VS Code for the Web sowohl Python Extensions (brauchen einen Language Server) als auch die Debug-and-Run-Funktionalität für sämtliche Sprachen vermissen. IDG

Zusammenfassend lässt sich festhalten: Visual Studio Code ist einer der besten Code-Editoren überhaupt. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Was ist Visual Studio Code?​ Weiterlesen »

Was bei Data & Analytics Services wichtig wird​

Allgemein

loading=”lazy” width=”400px”>Im immer größer werdenden Datenmeer die richtigen Informationen zu finden, fällt Unternehmen zunehmend schwer. Die Nachfrage nach Data & Analytics Services wächst entsprechend.your – shutterstock.com In einer zunehmend datengetriebenen Welt spielen Data & Analytics Services (D&A) eine zentrale Rolle. Von intelligenter Automatisierung über präzisere Kundenansprache bis hin zu effizient gesteuerten Prozessen – Daten sind der Schlüssel zu Innovation und Effizienz. Die Nachfrage nach Datenprojekten bleibt daher trotz der schwächelnden Konjunktur hoch. Lünendonk-Studie „Der Markt für Data & Analytics in Deutschland“ Auch im Jahr 2024 hat Lünendonk den Markt für Data & Analytics Services in Deutschland vermessen und neben Entwicklungen, Trends und Prognosen die führenden D&A-Dienstleister analysiert. Dafür hat Lünendonk Anbieter von D&A-Diensten befragt wie auch rund 180 große Anwenderunternehmen. Trotz Konjunkturkrise investierten Unternehmen in D&A-Projekte Unternehmen stehen vor der Herausforderung, sich organisatorisch, prozessual und kulturell so aufzustellen, dass Entscheidungen auf der Grundlage von Daten und Vorhersagemodellen getroffen werden können. Häufig ist jedoch weder eine unternehmensweit hohe Datenqualität gewährleistet, noch gibt es ein einheitliches Datenmanagement. Die Entwicklungen rund um Künstliche Intelligenz und die weltweit rasant fortschreitende Digitalisierung erhöhen jedoch den Druck auf die Betriebe, Daten schneller und in höherer Qualität bereitzustellen, und sie damit besser nutzbar zu machen. Aus diesem Grund investierten Unternehmen im Jahr 2023 sehr stark in Themen wie Datensicherheit, Datenmanagement und Data Governance, um die Grundlagen für analytische Lösungen sowie den KI-Einsatz zu schaffen und Datenprodukte besser skalieren zu können. Lünendonk Infolge der hohen Investitionsneigung erreichten die von Lünendonk befragten D&A-Dienstleister im Jahr 2023 ein zweistelliges Wachstum von durchschnittlich 12,8 Prozent. Und auch die Aussichten auf 2025 sind optimistisch: Die Anbieter prognostizieren für das Jahr 2025 im Durchschnitt ein Umsatzplus von 14,9 Prozent. Data-Science-Fachjargon für Business-Entscheider Dabei liegt der Investitionsfokus der von Lünendonk befragten Anwenderunternehmen vor allem auf der Informations- und Datensicherheit (92 Prozent), dem Aufbau von agilen DataOps– und MLOps-Einheiten (84 Prozent) sowie Data Governance und Datenmanagement (84 Prozent). Datenprojekte werden immer komplexer Für die Umsetzung von Datenprojekten suchen viele Unternehmen dringend Experten. Die sind am Markt jedoch nur eingeschränkt verfügbar – zumindest ist die Nachfrage in vielen D&A-Themen größer als das Angebot. Laut der Lünendonk-Studie „Der Markt für IT-Dienstleistungen in Deutschland“ werden im Bereich Data & Analytics in 69 Prozent der Betriebe hierzulande in den nächsten Jahren D&A-Spezialisten fehlen. Bereits heute drückt sich dieser Mangel in einer hohen Nachfrage nach entsprechenden externen Beratungs- und IT-Dienstleistern aus. Die Relevanz von Dienstleistern für D&A- sowie AI-Projekte nimmt stetig zu. Gleichzeitig verändern sich aber auch die Anforderungen der Kunden an ihre Servicepartner. So gewinnt die End-to-End-Abwicklung von Datenprojekten laut der Studie deutlich an Bedeutung. 89 Prozent der befragten Kundenunternehmen gaben an, dass sie von einem D&A-Dienstleister ein Full-Service-Portfolio bestehend aus Data Consulting, Data Engineering und Data Operations erwarten. Darüber hinaus sind eine umfassende D&A-Expertise sowie die Fähigkeit, Near- und Offshore-Modelle anzubieten, bei der Auswahl von Dienstleistern besonders wichtig. Lünendonk Korrespondierend mit den Anforderungen der Auftraggeber in Ausschreibungen für D&A-Projekte definiert Lünendonk als Anbieter von Data & Analytics Services Management- und IT-Beratungen, die über ein breites und gleichzeitig umfassendes Portfolio vor allem in den Bereichen Beratung, Organisationsentwicklung, Datenmanagement, Softwareentwicklung, Aufbau von Datenplattformen und den IT-Betrieb von Datenprodukten verfügen. Ebenso sind Technologieexpertise, strategische Partnerschaften zu Technologieanbietern sowie Lieferfähigkeit von großer Relevanz. Dabei setzt sich ein Full-Service-Portfolio im Bereich von Data & Analytics Services laut Lünendonk aus ausgeprägten Kompetenzen und einer hohen Lieferfähigkeit vor allem in Bezug auf Data Strategy Services, Data Engineering Services und Data Operation Services sowie zunehmend auch AI-Services zusammen. Lünendonk Die führenden D&A-Dienstleister in Deutschland Zur Einordnung der Platzierungen im Lünendonk-Portfolio ist es zunächst wichtig festzuhalten, dass alle im Lünendonk®-Portfolio aufgeführten Dienstleister aufgrund ihres Portfolios in der Lage sind, D&A-Projekte umzusetzen. Sie unterscheiden sich jedoch neben ihrer Größe und Fokussierung auf D&A Services vor allem in ihrer thematischen Tiefe und Breite, ihrer Innovationsstärke, ihren Technologiepartnerschaften und ihrer Internationalität. Die Marktführer In diesem Jahr weisen sechs Dienstleister eine überdurchschnittliche Marktrelevanz wie auch D&A-Portfoliobreite und -tiefe auf. Mit Accenture, adesso, Capgemini, Deloitte und PwC platzieren sich fünf thematisch breit aufgestellte Beratungs- und IT-Dienstleistungskonzerne im Leader-Segment. Infomotion ist unter den Marktführern der einzige D&A-Spezialist. Mit über 600 Mitarbeitenden erwirtschaftete Infomotion einen Umsatz von über 72 Millionen Euro. adesso hat in den vergangenen Jahren massiv in die Themen KI, Data & Analytics sowie digitale Plattformen investiert und verfügt daher über ein breites D&A-Portfolio. Auch im Jahr 2023 konnte adesso den Umsatz im Segment „D&A“ im Vergleich zum Wettbewerb überdurchschnittlich steigern. Diese Einschätzung teilen auch die anderen befragten Dienstleister: Auf die Frage nach ihren wichtigsten Wettbewerbern wurden Accenture, Capgemini, Deloitte, adesso und Infomotion am häufigsten genannt. Die Verfolger Als Verfolger werden diejenigen D&A-Dienstleister klassifiziert, die im Vergleich zu den Marktführern eine etwas geringere Marktrelevanz bezeihungsweise eine geringere D&A-Stärke aufweisen – aber dennoch in einigen Segmenten bereits zu den führenden Dienstleistern gehören. Vor allem b.telligent, Dataciders und synvert sind hier nennen, die trotz ihrer vergleichsweise geringen Größe bereits eine sehr hohe Relevanz im D&A-Markt besitzen und die Vision verfolgen, diesen Markt in Zukunft signifikant zu prägen. Dies bestätigen unter anderem die Bewertungen der Kundenunternehmen. Mit IBM und valantic finden sich zudem zwei thematisch breit aufgestellte Beratungs- und IT-Dienstleister im Verfolgerfeld, die Data & Analytics stark in den Fokus ihres Portfolios stellen. Die Herausforderer Im Feld der Herausforderer finden sich die D&A-Spezialisten areto, cimt, Oraylis, Prodato und Woodmark. Diese Unternehmen können zwar ein umfassendes D&A-Portfolio vorweisen, besitzen aber mit Umsätzen von weniger als 50 Millionen Euro eine noch vergleichsweise geringe Marktrelevanz. CGI, msg und Sopra Steria gehören mit Gesamtumsätzen zwischen 400 Millionen und einer Milliarde Euro zwar zu den größeren IT-Dienstleistern in Deutschland, weisen aber im Vergleich zu anderen Marktbegleitern eine geringe D&A-Portfoliostärke auf, was sich auch in den Kundenbewertungen widerspiegelt. Die D&A-Spezialisten werden in der Studie zusätzlich in einem eigenen Portfolio dargestellt. Lünendonk D&A-Technologietrends: Data, Analytics & AI at scale Das derzeit wichtigste Trendthema im Bereich Data & Analytics ist die Daten- und Informationssicherheit. In diesem Punkt sind sich 99 Prozent der befragten Kundenunternehmen einig. Dabei geht es zum einen um den Schutz sensibler digitaler Daten vor unbefugtem Zugriff, zum anderen um die Vermeidung von Datenverlust, -diebstahl und -beschädigung sowie um die Verhinderung von Datenschutzverletzungen. In diesem Zusammenhang messen die befragten Betriebe auch dem Aufbau einer effektiven Data Governance eine hohe Relevanz bei. Dabei geht es für die Verantwortlichen vor allem darum festzulegen, wer welche Daten nutzen darf und wie datengetriebene Prozesse gesteuert und überwacht werden, um Datenschutzverletzungen zu vermeiden. Lünendonk Das klassische Stammdatenmanagement (Master Data Management/Customer Data Management), bei dem Kundeninformationen, Produktdaten, Lieferanteninformationen oder Mitarbeiterdaten verarbeitet werden, ist für 93 Prozent der Unternehmen nach wie vor besonders relevant. Intelligente KI-gestützte Automatisierung hat bereits für knapp jedes zweite Unternehmen eine hohe Relevanz, die in den kommenden Jahren weiter zunehmen wird. Zudem zeigt sich, dass die Hyperscaler Microsoft und AWS mit Abstand die bedeutendsten Technologiepartner für die untersuchten Dienstleister sind. Aber auch Databricks und Snowflake als führende Anbieter im Bereich Cloud-Lösungen werden von gut der Hälfte (52 Prozent) der D&A-Dienstleister als besonders wichtig eingeschätzt. SAP spielt dagegen nur noch für 43 Prozent der Serviceanbieter in diesem Bereich eine besondere Rolle. KI-Einsatz bleibt eine Herausforderung Ein weiterer bedeutender Technologietrend ist die Künstliche Intelligenz. Vor allem generative KI hat in den zurückliegenden zwei Jahren einen enormen Aufschwung erlebt und dazu beigetragen, die Technik für mehr User erlebbar zu machen. Die größten Einsatzfelder für generative KI-Anwendungen sehen die Kundenunternehmen im Bereich des Dokumentenmanagements (80 Prozent), in der Protokollierung (79 Prozent) sowie im Einsatz von Kunden-Chatbots (76 Prozent). KI und Datenanalysen im Allgemeinen können darüber hinaus in verschiedenen weiteren Themenfeldern unterstützen. 71 Prozent der Befragten sehen in der Umsetzung der Nachhaltigkeitsberichterstattung im Rahmen der Corporate Sustainability Reporting Directive (CSRD) ein geeignetes Einsatzfeld für KI. Darüber hinaus können KI und Vorhersagemodelle auch dazu beitragen, bessere Entscheidungen zu treffen und die Effizienz von Prozessen durch intelligente und datengesteuerte Automatisierung zu steigern. Tipps für die richtige Datenstrategie Allerdings stoßen viele Organisationen häufig noch auf verschiedene Herausforderungen, die den KI-Einsatz behindern. Insbesondere regulatorische Aspekte wie der EU AI Act oder Datenschutzbestimmungen stellen Hürden dar, die sich jedoch meist durch die Schaffung transparenter Entscheidungswege und die Verbesserung des Datenmanagements und der Datenqualität überwinden lassen. Aber auch fehlende Daten für das Training von KI-Tools (78 Prozent) sowie mögliche Halluzinationen (70 Prozent) identifizieren die Verantwortlichen in den Unternehmen als Hindernisse im KI-Praxiseinsatz. Um das Risiko von Fehlinformationen und Datenschutzverletzungen zu minimieren, setzen die Betriebe zunehmend auf Trustworthy AI. Durch den Einsatz von KI-Anwendungen nach bestimmten ethischen und technischen Grundsätzen sollen damit das Vertrauen und die Zuverlässigkeit von KI sichergestellt werden. Bereits 89 Prozent der D&A-Dienstleister haben Trustworthy AI in ihre KI-Strategie und KI-Governance aufgenommen. Fazit und Ausblick Die Relevanz von Data & Analytics Services wird in den kommenden Jahren weiter zunehmen. Daten sind nicht mehr nur ein Nebenprodukt der Digitalisierung, sondern entwickeln sich zunehmend zur strategischen Ressource. Durch den steigenden Einsatz von generativer KI, Cloud und Automatisierung werden datengetriebene Geschäftsmodelle und -prozesse immer relevanter. Auch durch den flächendeckenden Einsatz digitaler Produkte und die zunehmende Kundenzentrierung nimmt die Bedeutung weiter zu. Daten spielen daher eine zentrale Rolle für die digitale Transformation und die Wettbewerbsfähigkeit moderner Unternehmen. Die D&A-Dienstleister prognostizieren für die kommenden Jahre weiterhin ein zweistelliges Wachstum. Nach einem Umsatzplus von 14,9 Prozent 2025 und soll das Geschäft im darauffolgenden Jahr um weitere 16,5 Prozent zulegen. Zudem planen 83 Prozent der in der Lünendonk-Studie „Der Markt für IT-Dienstleistungen in Deutschland“ befragten CIOs, in den kommenden zwei Jahren verstärkt in ihre Transformation zum datengetriebenen Unternehmen zu investieren. Der Fokus liegt dabei vor allem auf dem Aufbau eines effizienten und effektiven Datenmanagements sowie auf einem verbesserten system- und unternehmensübergreifenden Datenaustausch. 

Was bei Data & Analytics Services wichtig wird​ loading=”lazy” width=”400px”>Im immer größer werdenden Datenmeer die richtigen Informationen zu finden, fällt Unternehmen zunehmend schwer. Die Nachfrage nach Data & Analytics Services wächst entsprechend.your – shutterstock.com

In einer zunehmend datengetriebenen Welt spielen Data & Analytics Services (D&A) eine zentrale Rolle. Von intelligenter Automatisierung über präzisere Kundenansprache bis hin zu effizient gesteuerten Prozessen – Daten sind der Schlüssel zu Innovation und Effizienz. Die Nachfrage nach Datenprojekten bleibt daher trotz der schwächelnden Konjunktur hoch.

Lünendonk-Studie „Der Markt für Data & Analytics in Deutschland“

Auch im Jahr 2024 hat Lünendonk den Markt für Data & Analytics Services in Deutschland vermessen und neben Entwicklungen, Trends und Prognosen die führenden D&A-Dienstleister analysiert. Dafür hat Lünendonk Anbieter von D&A-Diensten befragt wie auch rund 180 große Anwenderunternehmen.

Trotz Konjunkturkrise investierten Unternehmen in D&A-Projekte

Unternehmen stehen vor der Herausforderung, sich organisatorisch, prozessual und kulturell so aufzustellen, dass Entscheidungen auf der Grundlage von Daten und Vorhersagemodellen getroffen werden können. Häufig ist jedoch weder eine unternehmensweit hohe Datenqualität gewährleistet, noch gibt es ein einheitliches Datenmanagement.

Die Entwicklungen rund um Künstliche Intelligenz und die weltweit rasant fortschreitende Digitalisierung erhöhen jedoch den Druck auf die Betriebe, Daten schneller und in höherer Qualität bereitzustellen, und sie damit besser nutzbar zu machen. Aus diesem Grund investierten Unternehmen im Jahr 2023 sehr stark in Themen wie Datensicherheit, Datenmanagement und Data Governance, um die Grundlagen für analytische Lösungen sowie den KI-Einsatz zu schaffen und Datenprodukte besser skalieren zu können.

Lünendonk

Infolge der hohen Investitionsneigung erreichten die von Lünendonk befragten D&A-Dienstleister im Jahr 2023 ein zweistelliges Wachstum von durchschnittlich 12,8 Prozent. Und auch die Aussichten auf 2025 sind optimistisch: Die Anbieter prognostizieren für das Jahr 2025 im Durchschnitt ein Umsatzplus von 14,9 Prozent.

Data-Science-Fachjargon für Business-Entscheider

Dabei liegt der Investitionsfokus der von Lünendonk befragten Anwenderunternehmen vor allem auf der Informations- und Datensicherheit (92 Prozent), dem Aufbau von agilen DataOps– und MLOps-Einheiten (84 Prozent) sowie Data Governance und Datenmanagement (84 Prozent).

Datenprojekte werden immer komplexer

Für die Umsetzung von Datenprojekten suchen viele Unternehmen dringend Experten. Die sind am Markt jedoch nur eingeschränkt verfügbar – zumindest ist die Nachfrage in vielen D&A-Themen größer als das Angebot. Laut der Lünendonk-Studie „Der Markt für IT-Dienstleistungen in Deutschland“ werden im Bereich Data & Analytics in 69 Prozent der Betriebe hierzulande in den nächsten Jahren D&A-Spezialisten fehlen. Bereits heute drückt sich dieser Mangel in einer hohen Nachfrage nach entsprechenden externen Beratungs- und IT-Dienstleistern aus.

Die Relevanz von Dienstleistern für D&A- sowie AI-Projekte nimmt stetig zu. Gleichzeitig verändern sich aber auch die Anforderungen der Kunden an ihre Servicepartner. So gewinnt die End-to-End-Abwicklung von Datenprojekten laut der Studie deutlich an Bedeutung. 89 Prozent der befragten Kundenunternehmen gaben an, dass sie von einem D&A-Dienstleister ein Full-Service-Portfolio bestehend aus Data Consulting, Data Engineering und Data Operations erwarten. Darüber hinaus sind eine umfassende D&A-Expertise sowie die Fähigkeit, Near- und Offshore-Modelle anzubieten, bei der Auswahl von Dienstleistern besonders wichtig.

Lünendonk

Korrespondierend mit den Anforderungen der Auftraggeber in Ausschreibungen für D&A-Projekte definiert Lünendonk als Anbieter von Data & Analytics Services Management- und IT-Beratungen, die über ein breites und gleichzeitig umfassendes Portfolio vor allem in den Bereichen Beratung, Organisationsentwicklung, Datenmanagement, Softwareentwicklung, Aufbau von Datenplattformen und den IT-Betrieb von Datenprodukten verfügen. Ebenso sind Technologieexpertise, strategische Partnerschaften zu Technologieanbietern sowie Lieferfähigkeit von großer Relevanz.

Dabei setzt sich ein Full-Service-Portfolio im Bereich von Data & Analytics Services laut Lünendonk aus ausgeprägten Kompetenzen und einer hohen Lieferfähigkeit vor allem in Bezug auf Data Strategy Services, Data Engineering Services und Data Operation Services sowie zunehmend auch AI-Services zusammen.

Lünendonk

Die führenden D&A-Dienstleister in Deutschland

Zur Einordnung der Platzierungen im Lünendonk-Portfolio ist es zunächst wichtig festzuhalten, dass alle im Lünendonk®-Portfolio aufgeführten Dienstleister aufgrund ihres Portfolios in der Lage sind, D&A-Projekte umzusetzen. Sie unterscheiden sich jedoch neben ihrer Größe und Fokussierung auf D&A Services vor allem in ihrer thematischen Tiefe und Breite, ihrer Innovationsstärke, ihren Technologiepartnerschaften und ihrer Internationalität.

Die Marktführer

In diesem Jahr weisen sechs Dienstleister eine überdurchschnittliche Marktrelevanz wie auch D&A-Portfoliobreite und -tiefe auf. Mit Accenture, adesso, Capgemini, Deloitte und PwC platzieren sich fünf thematisch breit aufgestellte Beratungs- und IT-Dienstleistungskonzerne im Leader-Segment. Infomotion ist unter den Marktführern der einzige D&A-Spezialist. Mit über 600 Mitarbeitenden erwirtschaftete Infomotion einen Umsatz von über 72 Millionen Euro.

adesso hat in den vergangenen Jahren massiv in die Themen KI, Data & Analytics sowie digitale Plattformen investiert und verfügt daher über ein breites D&A-Portfolio. Auch im Jahr 2023 konnte adesso den Umsatz im Segment „D&A“ im Vergleich zum Wettbewerb überdurchschnittlich steigern.

Diese Einschätzung teilen auch die anderen befragten Dienstleister: Auf die Frage nach ihren wichtigsten Wettbewerbern wurden Accenture, Capgemini, Deloitte, adesso und Infomotion am häufigsten genannt.

Die Verfolger

Als Verfolger werden diejenigen D&A-Dienstleister klassifiziert, die im Vergleich zu den Marktführern eine etwas geringere Marktrelevanz bezeihungsweise eine geringere D&A-Stärke aufweisen – aber dennoch in einigen Segmenten bereits zu den führenden Dienstleistern gehören. Vor allem b.telligent, Dataciders und synvert sind hier nennen, die trotz ihrer vergleichsweise geringen Größe bereits eine sehr hohe Relevanz im D&A-Markt besitzen und die Vision verfolgen, diesen Markt in Zukunft signifikant zu prägen. Dies bestätigen unter anderem die Bewertungen der Kundenunternehmen.

Mit IBM und valantic finden sich zudem zwei thematisch breit aufgestellte Beratungs- und IT-Dienstleister im Verfolgerfeld, die Data & Analytics stark in den Fokus ihres Portfolios stellen.

Die Herausforderer

Im Feld der Herausforderer finden sich die D&A-Spezialisten areto, cimt, Oraylis, Prodato und Woodmark. Diese Unternehmen können zwar ein umfassendes D&A-Portfolio vorweisen, besitzen aber mit Umsätzen von weniger als 50 Millionen Euro eine noch vergleichsweise geringe Marktrelevanz.

CGI, msg und Sopra Steria gehören mit Gesamtumsätzen zwischen 400 Millionen und einer Milliarde Euro zwar zu den größeren IT-Dienstleistern in Deutschland, weisen aber im Vergleich zu anderen Marktbegleitern eine geringe D&A-Portfoliostärke auf, was sich auch in den Kundenbewertungen widerspiegelt.

Die D&A-Spezialisten werden in der Studie zusätzlich in einem eigenen Portfolio dargestellt.

Lünendonk

D&A-Technologietrends: Data, Analytics & AI at scale

Das derzeit wichtigste Trendthema im Bereich Data & Analytics ist die Daten- und Informationssicherheit. In diesem Punkt sind sich 99 Prozent der befragten Kundenunternehmen einig. Dabei geht es zum einen um den Schutz sensibler digitaler Daten vor unbefugtem Zugriff, zum anderen um die Vermeidung von Datenverlust, -diebstahl und -beschädigung sowie um die Verhinderung von Datenschutzverletzungen.

In diesem Zusammenhang messen die befragten Betriebe auch dem Aufbau einer effektiven Data Governance eine hohe Relevanz bei. Dabei geht es für die Verantwortlichen vor allem darum festzulegen, wer welche Daten nutzen darf und wie datengetriebene Prozesse gesteuert und überwacht werden, um Datenschutzverletzungen zu vermeiden.

Lünendonk

Das klassische Stammdatenmanagement (Master Data Management/Customer Data Management), bei dem Kundeninformationen, Produktdaten, Lieferanteninformationen oder Mitarbeiterdaten verarbeitet werden, ist für 93 Prozent der Unternehmen nach wie vor besonders relevant. Intelligente KI-gestützte Automatisierung hat bereits für knapp jedes zweite Unternehmen eine hohe Relevanz, die in den kommenden Jahren weiter zunehmen wird.

Zudem zeigt sich, dass die Hyperscaler Microsoft und AWS mit Abstand die bedeutendsten Technologiepartner für die untersuchten Dienstleister sind. Aber auch Databricks und Snowflake als führende Anbieter im Bereich Cloud-Lösungen werden von gut der Hälfte (52 Prozent) der D&A-Dienstleister als besonders wichtig eingeschätzt. SAP spielt dagegen nur noch für 43 Prozent der Serviceanbieter in diesem Bereich eine besondere Rolle.

KI-Einsatz bleibt eine Herausforderung

Ein weiterer bedeutender Technologietrend ist die Künstliche Intelligenz. Vor allem generative KI hat in den zurückliegenden zwei Jahren einen enormen Aufschwung erlebt und dazu beigetragen, die Technik für mehr User erlebbar zu machen. Die größten Einsatzfelder für generative KI-Anwendungen sehen die Kundenunternehmen im Bereich des Dokumentenmanagements (80 Prozent), in der Protokollierung (79 Prozent) sowie im Einsatz von Kunden-Chatbots (76 Prozent).

KI und Datenanalysen im Allgemeinen können darüber hinaus in verschiedenen weiteren Themenfeldern unterstützen. 71 Prozent der Befragten sehen in der Umsetzung der Nachhaltigkeitsberichterstattung im Rahmen der Corporate Sustainability Reporting Directive (CSRD) ein geeignetes Einsatzfeld für KI. Darüber hinaus können KI und Vorhersagemodelle auch dazu beitragen, bessere Entscheidungen zu treffen und die Effizienz von Prozessen durch intelligente und datengesteuerte Automatisierung zu steigern.

Tipps für die richtige Datenstrategie

Allerdings stoßen viele Organisationen häufig noch auf verschiedene Herausforderungen, die den KI-Einsatz behindern. Insbesondere regulatorische Aspekte wie der EU AI Act oder Datenschutzbestimmungen stellen Hürden dar, die sich jedoch meist durch die Schaffung transparenter Entscheidungswege und die Verbesserung des Datenmanagements und der Datenqualität überwinden lassen. Aber auch fehlende Daten für das Training von KI-Tools (78 Prozent) sowie mögliche Halluzinationen (70 Prozent) identifizieren die Verantwortlichen in den Unternehmen als Hindernisse im KI-Praxiseinsatz.

Um das Risiko von Fehlinformationen und Datenschutzverletzungen zu minimieren, setzen die Betriebe zunehmend auf Trustworthy AI. Durch den Einsatz von KI-Anwendungen nach bestimmten ethischen und technischen Grundsätzen sollen damit das Vertrauen und die Zuverlässigkeit von KI sichergestellt werden. Bereits 89 Prozent der D&A-Dienstleister haben Trustworthy AI in ihre KI-Strategie und KI-Governance aufgenommen.

Fazit und Ausblick

Die Relevanz von Data & Analytics Services wird in den kommenden Jahren weiter zunehmen. Daten sind nicht mehr nur ein Nebenprodukt der Digitalisierung, sondern entwickeln sich zunehmend zur strategischen Ressource. Durch den steigenden Einsatz von generativer KI, Cloud und Automatisierung werden datengetriebene Geschäftsmodelle und -prozesse immer relevanter. Auch durch den flächendeckenden Einsatz digitaler Produkte und die zunehmende Kundenzentrierung nimmt die Bedeutung weiter zu. Daten spielen daher eine zentrale Rolle für die digitale Transformation und die Wettbewerbsfähigkeit moderner Unternehmen.

Die D&A-Dienstleister prognostizieren für die kommenden Jahre weiterhin ein zweistelliges Wachstum. Nach einem Umsatzplus von 14,9 Prozent 2025 und soll das Geschäft im darauffolgenden Jahr um weitere 16,5 Prozent zulegen. Zudem planen 83 Prozent der in der Lünendonk-Studie „Der Markt für IT-Dienstleistungen in Deutschland“ befragten CIOs, in den kommenden zwei Jahren verstärkt in ihre Transformation zum datengetriebenen Unternehmen zu investieren. Der Fokus liegt dabei vor allem auf dem Aufbau eines effizienten und effektiven Datenmanagements sowie auf einem verbesserten system- und unternehmensübergreifenden Datenaustausch.

Was bei Data & Analytics Services wichtig wird​ Weiterlesen »

Panasonic bringt toten Gründer als KI zurück​

Allgemein

Panasonic hat den “Gott des Managements” wiederbelebt.Panasonic Wie die Japan Times berichtet, hat der japanische Elektronikriese Panasonic seinen legendären Gründer Konosuke Matsushita als KI-Modell wieder zum Leben erweckt. Der im Jahr 1989 verstorbene Panasonic-Vater wird in Japan bis heute für seine Business-Errungenschaften verehrt und gilt im Land der aufgehenden Sonne als “Gott des Managements”. Back to the Roots – mit Generative AI „Da die Zahl der Menschen, die direkt von Matsushita geschult wurden, immer weiter zurückging, haben wir uns dazu entschieden, Generative AI einzusetzen, um die Vision unseres Gründers an die nächste Generation weiterzugeben“, zitiert die Japan Times einen Unternehmenssprecher von Panasonic. Die KI-Version von Matsushita hat der Elektronikkonzern in Kooperation mit Forschern der Universität Tokio realisiert. Trainiert wurde die Matsushita-KI mit Schriftstücken, Reden und mehr als 3.000 Audioaufnahmen des Gründers. Laut der Japan Times plant Panasonic, sein KI-Modell kontinuierlich weiterzuentwickeln. Das Ziel sei es, den KI-basierten Matsushita künftig auch bei Business-Entscheidungen einzubeziehen. (fm) 松下幸之助の生誕130周年を迎える本日、その理念継承を目的とした「松下幸之助」再現AIを公表しました。PHP研究所が有する膨大な発言記録・音声データをもとに、パナソニックHDが株式会社松尾研究所とともに、創業者の思考と話し方の再現を目指して共同で開発しました。https://t.co/Kwb2VT8iLS pic.twitter.com/o01PMeurhj— Panasonic×AI|パナソニックの人工知能研究開発 (@panasonic_ai) November 27, 2024 Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Panasonic bringt toten Gründer als KI zurück​ Panasonic hat den “Gott des Managements” wiederbelebt.Panasonic

Wie die Japan Times berichtet, hat der japanische Elektronikriese Panasonic seinen legendären Gründer Konosuke Matsushita als KI-Modell wieder zum Leben erweckt. Der im Jahr 1989 verstorbene Panasonic-Vater wird in Japan bis heute für seine Business-Errungenschaften verehrt und gilt im Land der aufgehenden Sonne als “Gott des Managements”.

Back to the Roots – mit Generative AI

„Da die Zahl der Menschen, die direkt von Matsushita geschult wurden, immer weiter zurückging, haben wir uns dazu entschieden, Generative AI einzusetzen, um die Vision unseres Gründers an die nächste Generation weiterzugeben“, zitiert die Japan Times einen Unternehmenssprecher von Panasonic. Die KI-Version von Matsushita hat der Elektronikkonzern in Kooperation mit Forschern der Universität Tokio realisiert. Trainiert wurde die Matsushita-KI mit Schriftstücken, Reden und mehr als 3.000 Audioaufnahmen des Gründers.

Laut der Japan Times plant Panasonic, sein KI-Modell kontinuierlich weiterzuentwickeln. Das Ziel sei es, den KI-basierten Matsushita künftig auch bei Business-Entscheidungen einzubeziehen. (fm)

松下幸之助の生誕130周年を迎える本日、その理念継承を目的とした「松下幸之助」再現AIを公表しました。PHP研究所が有する膨大な発言記録・音声データをもとに、パナソニックHDが株式会社松尾研究所とともに、創業者の思考と話し方の再現を目指して共同で開発しました。https://t.co/Kwb2VT8iLS pic.twitter.com/o01PMeurhj— Panasonic×AI|パナソニックの人工知能研究開発 (@panasonic_ai) November 27, 2024

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Panasonic bringt toten Gründer als KI zurück​ Weiterlesen »

Entwickler-Tools gegen Zwangsjacken-Feeling​

Allgemein

loading=”lazy” width=”400px”>Zurück zum Dev-Glück – mit Präprozessoren.sivivolk/Shutterstock So sehr wir sie auch zu schätzen wissen, manchmal können sich Programmiersprachen wie eine Zwangsjacke anfühlen. Wer die strikten syntaktischen Regeln auch nur ein einziges Mal bricht, darf sich darauf einstellen, vom Compiler mit Fehlermeldungen bombardiert zu werden. Besonders übel wird das bei Sprachen mit Konventionen, die jede Kleinigkeit definieren – etwa wie Variablen zu benennen sind oder Code einzurücken ist. So muss das aber nicht laufen – Preprocessors (oder Präprozessoren) sei Dank. Sie kommen zum Einsatz, bevor der Code kompiliert wird und korrigieren sämtliche, persönliche Eigenheiten, die die Entwicklungsarbeit erst unterhaltsam machen. So genügt das Ergebnis am Ende den Konventionen und die Developer müssen sich nicht einschränken. Neu sind Präprozessoren dabei nicht. Im Gegenteil: Sprachen wie C verlassen sich schon seit Jahren auf sie. Allerdings erfreuen sich Preprocessors steigender Beliebtheit, denn auch Developer legen immer mehr Wert darauf, so zu arbeiten, wie sie es für richtig halten. Im Folgenden ein Überblick über eine Reihe empfehlenswerter und bewährter Präprozessoren, die Entwickler auf verschiedene Weise dabei unterstützen, der Konventions-Zwangsjacke zu entkommen. LESS und SASS Sowohl LESS (Leaner CSS) als auch SASS (Syntactically Awesome StyleSheets) sind Präprozessoren, mit denen Entwickler CSS-Layouts vereinfachen können. Zum Beispiel, indem sie Variablen und andere Funktionen einsetzen. SASS stellt dabei das leistungsstärkere der beiden Tools dar und kann auch mit komplexeren Optionen wie Loops aufwarten. LESS ist zwar etwas schlanker, wird seinem Zweck aber ebenso gerecht. Beide Tools machen es möglich, die scheinbar endlos lange Liste der CSS-Layout-Optionen mit dem Fingerspitzengefühl eines Devs aufzuräumen. AbsurdJS Devs mit ausgeprägter JavaScript-Affinität, die die Performanz der Programmiersprache für CSS nutzen möchten, finden in AbsurdJS den richtigen Preprocessor. Der ermöglicht es, Softwareentwicklungskonzepte wie Vererbung zu nutzen, um raffinierte CSS-Layouts zu erstellen. Ähnlich wie LESS und SASS zwängt dieser Präprozessor Entwickler nicht in die Designer-Rolle. Bython Manche Entwickler stehen auf geschweifte Klammern, wenn es darum geht, Code-Blöcke zu definieren. Andere bevorzugen es, der Leertaste den Tab-Button folgen zu lassen. Python ist eigentlich eher eine Sache für letztere Zielgruppe. Allerdings ist die Sprache inzwischen so populär und leistungsfähig, dass einige „Curly Brace“-Anhänger auf die Idee kommen, Python-Bibliotheken und -Tools nutzen zu wollen.   Die greifen dann im Regelfall auf Bython zurück. Der Preprocessor bringt geschweifte Klammern und Python-Tools zusammen und ersetzt erstere automatisch durch Einrückungen. Soll heißen: Nie wieder Leer- und Tab-Taste! Pypreprocessor C bietet Entwicklern schon lange die Möglichkeit, bei komplexen Entscheidungen über Code mit Preprocessing-Statements wie #ifdef zu arbeiten (blendet große Codeblöcke ein oder aus). Mit Pypreprocessor stehen Python-Devs dieselben Möglichkeiten offen. Dabei handelt es sich um eine dynamische Bibliothek, die Flags und Metavariablen einsetzt, um Code ein- oder auszublenden. TypeScript JavaScript wurde ursprünglich für Webentwickler entworfen, die Webseiten um kurze, leicht verständliche Codeblöcke ergänzen mussten, die hauptsächlich aus HTML bestanden. Das sieht inzwischen völlig anders aus. Heute entstehen ausgefeilte und dynamische Websites aus Abertausenden Zeilen von JavaScript-Code. Angesichts der Bandbreite von JavaScript wünschen sich einige Entwickler das Gefühl der Sicherheit, das stark typisierter Code vermittelt. Mit TypeScript steht dieser Zielgruppe ein erstaunlicher Kompromiss zur Verfügung. Denn generisches JavaScript funktioniert mit TypeScript weiterhin. Soll heißen: Sämtliche Typinformationen sind optional. Die Preprocessing Stage von TypeScript beinhaltet einen doppelten Fehler-Check und spuckt am Ende etwas aus, das die JavaScript-Engine verarbeiten kann. CoffeeScript Auf jeden Python-Dev, den Sehnsüchte nach einer C-ähnlichen Syntax heimsuchen, kommt ein JavaScript-Entwickler, der sich wünscht, so frei und simpel programmieren zu können, wie mit Python. Auch für diese Zielgruppe gibt es einen passenden Präprozessor: CoffeeScript. Den gibt es inzwischen auch in zahlreichen Varianten, wie beispielsweise: ToffeeScript, Civet, Storymatic oder CoffeeScript II: The Wrath of Khan. Größter Benefit all dieser Optionen: Sie müssen nie mehr ihre Finger an die Strichpunkt-Taste verschwenden. Darüber hinaus bieten CoffeeScript und Co. weitere praktische Funktionen wie asynchrone Grammatiken oder cleveren Metaprogramming-Mechanismen. Unter dem Strich steht sauberer Code mit minimierten Satzzeichen, der – zumindest in den Augen von CoffeeScript-Anhängern – deutlich leichter zu lesen ist. Handlebars und Pug Moderner Code enthält in der Regel diverse Textblöcke mit Nachrichten für (eventuelle) menschliche Benutzer. Diese sind oft prall gefüllt mit diversen Einfügungen und Anpassungen. Template-Systeme wie Handlebars und Pug sorgen dafür, dass das schneller vonstattengeht. Statt den Low-Level-Code zu schreiben, der erforderlich ist, um Strings zusammenzufügen, konzentrieren sich Entwickler einfach nur auf den Text – den Rest übernimmt das Template-System. AWK Um mit reinem Text zu arbeiten, ist das Unix-Befehlszeilen-Tool eines der simpelsten und leistungsstärksten Tools. AWK verknüpft eine Reihe von Unix-Befehlen, um Daten aus Zeilen zu extrahieren, zu sortieren und zu filtern. Mit dem AWK-Kommando ist es möglich, vollständige Reports zu erstellen. Einige Entwickler nutzen das Tool auch, um Rohdaten in der Processing-Pipeline zu bereinigen, bevor sie in das Hauptprogramm importiert werden. Vapour R ist eine leistungsstarke Programmiersprache. Allerdings wurde sie größtenteils von Statistikern entwickelt. Die denken im Regelfall eher wie Mathematiker, nicht wie Programmierer. Das muss nicht unbedingt ein Nachteil sein, kann aber eine Hürde darstellen, wenn es darum geht R-Bibliotheken zu nutzen. Vapour ist ein Preprocessor, der es R-Entwicklern ermöglicht, wie Programmierer zu denken. Und zwar wie solche, die gerne Typsysteme verwenden, um Fehler zu erkennen und Strukturen durchzusetzen. Laut den Entwicklern befindet sich das Tool noch in einem frühen Entwicklungsstadium. Mit neuen Funktionen und Syntaxoptimierungen ist also zu rechnen. Linting-Präprozessoren Nicht alle Präprozessoren konvertieren Code. Einige räumen auch hinter ihren Benutzern auf und spüren übersehene Fehler auf. Was einmal als lint-Befehl unter Unix seinen Anfang genommen hat, ist inzwischen in Form von Linting-Tools Teil vieler Language-Development-Stacks.   Diese Tools korrigieren Formatierungen, setzen Namenskonventionen durch und können auch einige Synatx- und Semantik-Fehler beheben. Beliebte Linting-Preprocessors sind: RuboCop für Ruby, Pylint für Python und ESLint für JavaScript. Preprocessors für Dokumentationen Automatisiert aus dem Code einen Satz kommentierter und mit Querverweisen versehene Dokumentationsdateien erstellen? Das geht mit Tools wie: Sphinx, MkDocs oder Doxygen. Die drei eben genannten Beispiele sind für mehrere Programmiersprachen ausgelegt. Allerdings existieren inzwischen für fast alle Sprachen eigene, offizielle Präprozessoren. Zum Beispiel: Javadoc, Rustdoc, Godoc oder JSDoc. Präprozessoren für integriertes Data Reporting Datenwissenschaftler verfassen komplexe Data-Reports in natürlicher Sprache, die Diagramme, Tabellen und Grafiken enthalten, die in der Regel mit R erstellt wurden. Im Laufe der Jahre haben Data Scientists diverse, mitunter komplexe Präprozessoren entwickelt. Und zwar nicht nur für R, sondern auch die Schriftsatzsprache LaTeX. Die jeweiligen Optionen weisen unterschiedliche Stärken, beziehungsweise Vorteile auf – hier einige Beispiele: R Markdown ist eine Variante des gängigen Markdown, mit dem auch Rechen- und Datenanalysen zusammengeführt werden können. Dieser Preprocessor kann auch Ergebnisse aus Sprachen wie Python oder SQL zusammenführen, um Präsentationen, Dokumente, Bücher und Websites zu erstellen. Knitr und sein Vorläufer Sweave sind zwei eng aufeinander abgestimmte Präprozessoren, die beide von Rstudio unterstützt werden. Developer, die Python mit LaTeX zusammenführen möchten, können auf Pweave zurückgreifen. Es ist nicht ausgeschlossen, dass eines Tages eine Meta-Version entsteht, die sämtliche existierenden Präprozessoren zu einem großen Preprocessor zusammenführt. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Entwickler-Tools gegen Zwangsjacken-Feeling​ loading=”lazy” width=”400px”>Zurück zum Dev-Glück – mit Präprozessoren.sivivolk/Shutterstock

So sehr wir sie auch zu schätzen wissen, manchmal können sich Programmiersprachen wie eine Zwangsjacke anfühlen. Wer die strikten syntaktischen Regeln auch nur ein einziges Mal bricht, darf sich darauf einstellen, vom Compiler mit Fehlermeldungen bombardiert zu werden. Besonders übel wird das bei Sprachen mit Konventionen, die jede Kleinigkeit definieren – etwa wie Variablen zu benennen sind oder Code einzurücken ist.

So muss das aber nicht laufen – Preprocessors (oder Präprozessoren) sei Dank. Sie kommen zum Einsatz, bevor der Code kompiliert wird und korrigieren sämtliche, persönliche Eigenheiten, die die Entwicklungsarbeit erst unterhaltsam machen. So genügt das Ergebnis am Ende den Konventionen und die Developer müssen sich nicht einschränken. Neu sind Präprozessoren dabei nicht. Im Gegenteil: Sprachen wie C verlassen sich schon seit Jahren auf sie. Allerdings erfreuen sich Preprocessors steigender Beliebtheit, denn auch Developer legen immer mehr Wert darauf, so zu arbeiten, wie sie es für richtig halten.

Im Folgenden ein Überblick über eine Reihe empfehlenswerter und bewährter Präprozessoren, die Entwickler auf verschiedene Weise dabei unterstützen, der Konventions-Zwangsjacke zu entkommen.

LESS und SASS

Sowohl LESS (Leaner CSS) als auch SASS (Syntactically Awesome StyleSheets) sind Präprozessoren, mit denen Entwickler CSS-Layouts vereinfachen können. Zum Beispiel, indem sie Variablen und andere Funktionen einsetzen.

SASS stellt dabei das leistungsstärkere der beiden Tools dar und kann auch mit komplexeren Optionen wie Loops aufwarten. LESS ist zwar etwas schlanker, wird seinem Zweck aber ebenso gerecht. Beide Tools machen es möglich, die scheinbar endlos lange Liste der CSS-Layout-Optionen mit dem Fingerspitzengefühl eines Devs aufzuräumen.

AbsurdJS

Devs mit ausgeprägter JavaScript-Affinität, die die Performanz der Programmiersprache für CSS nutzen möchten, finden in AbsurdJS den richtigen Preprocessor.

Der ermöglicht es, Softwareentwicklungskonzepte wie Vererbung zu nutzen, um raffinierte CSS-Layouts zu erstellen. Ähnlich wie LESS und SASS zwängt dieser Präprozessor Entwickler nicht in die Designer-Rolle.

Bython

Manche Entwickler stehen auf geschweifte Klammern, wenn es darum geht, Code-Blöcke zu definieren. Andere bevorzugen es, der Leertaste den Tab-Button folgen zu lassen. Python ist eigentlich eher eine Sache für letztere Zielgruppe. Allerdings ist die Sprache inzwischen so populär und leistungsfähig, dass einige „Curly Brace“-Anhänger auf die Idee kommen, Python-Bibliotheken und -Tools nutzen zu wollen.  

Die greifen dann im Regelfall auf Bython zurück. Der Preprocessor bringt geschweifte Klammern und Python-Tools zusammen und ersetzt erstere automatisch durch Einrückungen. Soll heißen: Nie wieder Leer- und Tab-Taste!

Pypreprocessor

C bietet Entwicklern schon lange die Möglichkeit, bei komplexen Entscheidungen über Code mit Preprocessing-Statements wie #ifdef zu arbeiten (blendet große Codeblöcke ein oder aus).

Mit Pypreprocessor stehen Python-Devs dieselben Möglichkeiten offen. Dabei handelt es sich um eine dynamische Bibliothek, die Flags und Metavariablen einsetzt, um Code ein- oder auszublenden.

TypeScript

JavaScript wurde ursprünglich für Webentwickler entworfen, die Webseiten um kurze, leicht verständliche Codeblöcke ergänzen mussten, die hauptsächlich aus HTML bestanden. Das sieht inzwischen völlig anders aus. Heute entstehen ausgefeilte und dynamische Websites aus Abertausenden Zeilen von JavaScript-Code.

Angesichts der Bandbreite von JavaScript wünschen sich einige Entwickler das Gefühl der Sicherheit, das stark typisierter Code vermittelt. Mit TypeScript steht dieser Zielgruppe ein erstaunlicher Kompromiss zur Verfügung. Denn generisches JavaScript funktioniert mit TypeScript weiterhin. Soll heißen: Sämtliche Typinformationen sind optional. Die Preprocessing Stage von TypeScript beinhaltet einen doppelten Fehler-Check und spuckt am Ende etwas aus, das die JavaScript-Engine verarbeiten kann.

CoffeeScript

Auf jeden Python-Dev, den Sehnsüchte nach einer C-ähnlichen Syntax heimsuchen, kommt ein JavaScript-Entwickler, der sich wünscht, so frei und simpel programmieren zu können, wie mit Python. Auch für diese Zielgruppe gibt es einen passenden Präprozessor: CoffeeScript.

Den gibt es inzwischen auch in zahlreichen Varianten, wie beispielsweise:

ToffeeScript,

Civet,

Storymatic oder

CoffeeScript II: The Wrath of Khan.

Größter Benefit all dieser Optionen: Sie müssen nie mehr ihre Finger an die Strichpunkt-Taste verschwenden. Darüber hinaus bieten CoffeeScript und Co. weitere praktische Funktionen wie asynchrone Grammatiken oder cleveren Metaprogramming-Mechanismen. Unter dem Strich steht sauberer Code mit minimierten Satzzeichen, der – zumindest in den Augen von CoffeeScript-Anhängern – deutlich leichter zu lesen ist.

Handlebars und Pug

Moderner Code enthält in der Regel diverse Textblöcke mit Nachrichten für (eventuelle) menschliche Benutzer. Diese sind oft prall gefüllt mit diversen Einfügungen und Anpassungen. Template-Systeme wie Handlebars und Pug sorgen dafür, dass das schneller vonstattengeht.

Statt den Low-Level-Code zu schreiben, der erforderlich ist, um Strings zusammenzufügen, konzentrieren sich Entwickler einfach nur auf den Text – den Rest übernimmt das Template-System.

AWK

Um mit reinem Text zu arbeiten, ist das Unix-Befehlszeilen-Tool eines der simpelsten und leistungsstärksten Tools. AWK verknüpft eine Reihe von Unix-Befehlen, um Daten aus Zeilen zu extrahieren, zu sortieren und zu filtern.

Mit dem AWK-Kommando ist es möglich, vollständige Reports zu erstellen. Einige Entwickler nutzen das Tool auch, um Rohdaten in der Processing-Pipeline zu bereinigen, bevor sie in das Hauptprogramm importiert werden.

Vapour

R ist eine leistungsstarke Programmiersprache. Allerdings wurde sie größtenteils von Statistikern entwickelt. Die denken im Regelfall eher wie Mathematiker, nicht wie Programmierer. Das muss nicht unbedingt ein Nachteil sein, kann aber eine Hürde darstellen, wenn es darum geht R-Bibliotheken zu nutzen.

Vapour ist ein Preprocessor, der es R-Entwicklern ermöglicht, wie Programmierer zu denken. Und zwar wie solche, die gerne Typsysteme verwenden, um Fehler zu erkennen und Strukturen durchzusetzen. Laut den Entwicklern befindet sich das Tool noch in einem frühen Entwicklungsstadium. Mit neuen Funktionen und Syntaxoptimierungen ist also zu rechnen.

Linting-Präprozessoren

Nicht alle Präprozessoren konvertieren Code. Einige räumen auch hinter ihren Benutzern auf und spüren übersehene Fehler auf. Was einmal als lint-Befehl unter Unix seinen Anfang genommen hat, ist inzwischen in Form von Linting-Tools Teil vieler Language-Development-Stacks.  

Diese Tools korrigieren Formatierungen, setzen Namenskonventionen durch und können auch einige Synatx- und Semantik-Fehler beheben. Beliebte Linting-Preprocessors sind:

RuboCop für Ruby,

Pylint für Python und

ESLint für JavaScript.

Preprocessors für Dokumentationen

Automatisiert aus dem Code einen Satz kommentierter und mit Querverweisen versehene Dokumentationsdateien erstellen? Das geht mit Tools wie:

Sphinx,

MkDocs oder

Doxygen.

Die drei eben genannten Beispiele sind für mehrere Programmiersprachen ausgelegt. Allerdings existieren inzwischen für fast alle Sprachen eigene, offizielle Präprozessoren. Zum Beispiel:

Javadoc,

Rustdoc,

Godoc oder

JSDoc.

Präprozessoren für integriertes Data Reporting

Datenwissenschaftler verfassen komplexe Data-Reports in natürlicher Sprache, die Diagramme, Tabellen und Grafiken enthalten, die in der Regel mit R erstellt wurden. Im Laufe der Jahre haben Data Scientists diverse, mitunter komplexe Präprozessoren entwickelt. Und zwar nicht nur für R, sondern auch die Schriftsatzsprache LaTeX.

Die jeweiligen Optionen weisen unterschiedliche Stärken, beziehungsweise Vorteile auf – hier einige Beispiele:

R Markdown ist eine Variante des gängigen Markdown, mit dem auch Rechen- und Datenanalysen zusammengeführt werden können. Dieser Preprocessor kann auch Ergebnisse aus Sprachen wie Python oder SQL zusammenführen, um Präsentationen, Dokumente, Bücher und Websites zu erstellen.

Knitr und sein Vorläufer Sweave sind zwei eng aufeinander abgestimmte Präprozessoren, die beide von Rstudio unterstützt werden.

Developer, die Python mit LaTeX zusammenführen möchten, können auf Pweave zurückgreifen.

Es ist nicht ausgeschlossen, dass eines Tages eine Meta-Version entsteht, die sämtliche existierenden Präprozessoren zu einem großen Preprocessor zusammenführt. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Entwickler-Tools gegen Zwangsjacken-Feeling​ Weiterlesen »

Intel-Chef Pat Gelsinger muss gehen​

Allgemein

Alle Bemühungen von Intel-CEO Pat Gelsinger, den Halbleiterkonzern wieder auf Kurs zu bringen, haben nicht ausgereicht, seinen Job zu sichern.Intel Corp. Pat Gelsinger hat mit Wirkung zum 1. Dezember 2024 sein Amt als Intel-CEO niedergelegt und den weltgrößten Chiphersteller verlassen. Das teilte der Konzern überraschend am folgenden Tag mit. Übergangsweise sollen David Zinser und Michelle Johnston (MJ) Holthaus Intel als Co-CEOs führen. Pat Gelsinger löst Bob Swan ab: VMware-Chef wechselt zu Intel Zinsner fungierte bis dato als Executive Vice President und Chief Financial Officer. Holthaus hat die neu geschaffene Position des CEO von Intel Products inne, einer Gruppe, die die Client Computing Group (CCG), die Data Center and AI Group (DCAI) und die Network and Edge Group (NEX) des Unternehmens umfasst. Frank Yeary, unabhängiger Vorstandsvorsitzender von Intel, wird während der Übergangszeit Interims-Vorstandsvorsitzender werden, teilte das Unternehmen mit. Wer Gelsinger nachfolgen soll, ist nicht bekannt. Der Intel-Vorstand hat eigenen Angaben zufolge eine Kommission gebildet, die einen Nachfolger finden soll. Yeary dankte Gelsinger für seine langjährigen Dienste und dessen Engagement für Intel. Der Manager habe den Herstellungsprozess neu belebt und moderne Fertigungsverfahren eingeführt, so Yeary. Außerdem habe Gelsinger unermüdlich daran gearbeitet, Innovation im gesamten Unternehmen voranzutreiben. Schlechte Zahlen kosten Gelsinger den Job Das hat allerdings nicht gereicht, Gelsingers CEO-Job zu sichern. „Obwohl wir erhebliche Fortschritte bei der Wiederherstellung der Wettbewerbsfähigkeit in der Fertigung und dem Aufbau der Fähigkeiten gemacht haben, eine Weltklasse-Foundry zu sein, wissen wir, dass wir noch viel Arbeit vor uns haben“, sagte Yeary und ließ durchblicken, dass letztendlich die schlechte finanzielle Performance Intels in den zurückliegenden Quartalen Gelsinger den Job gekostet haben dürfte. „Wir sind entschlossen, das Vertrauen der Investoren wiederherzustellen“, versprach Interims-Vorstandsvorsitzende. CEO Pat Gelsinger will Produktion hochfahren: Intel träumt vom goldenen Halbleiter-Zeitalter Yeary kündigte an, die Produktgruppe in den Mittelpunkt des kommenden Handelns stellen zu wollen. Er verwies auf Holthaus‘ dauerhafte Beförderung zum CEO von Intels Produktsparte und ihre Interimsrolle als Co-CEO. Letztendlich gehe es darum die Rolle als Marktführer zurückzugewinnen, gab der Manager als Ziel aus. „Wir werden uns weiterhin auf diese Mission konzentrieren und gleichzeitig die Effizienz und Rentabilität steigern.“ Intel soll einfacher und agiler werden Yearys Botschaft an Zinser und Holthaus ist klar: Das Produktportfolio vereinfachen und stärken, Fertigungs- und Foundry-Kapazitäten ausbauen und gleichzeitig die Kosten im Griff behalten. „Wir arbeiten daran, ein schlankeres, einfacheres und agileres Intel zu schaffen.“ Gelsinger sagte zum Abschied, es sei die Ehre seines Lebens gewesen, Intel zu leiten. „Der heutige Tag ist natürlich bittersüß, da dieses Unternehmen den Großteil meiner beruflichen Laufbahn mein Leben war.“ Gelsinger sprach von einem herausfordernden Jahr sowie schwierigen, aber notwendigen Entscheidungen, „um Intel für die aktuelle Marktdynamik zu positionieren“. Mitte August 2024 hatte Intel nach schlechten Zahlen für das zweite Quartal angekündigt, 15 Prozent seiner Stellen zu streichen. Das betrifft etwa 17.500 Beschäftigte. „Ich brauche weniger Leute im Hauptquartier, aber mehr Leute draußen im Feld bei den Kunden“, erklärte Intel-Chef Gelsinger im Sommer gegenüber der Nachrichtenagentur Reuters. Man müsse Kostenstrukturen anpassen und Arbeitsweisen grundlegend ändern. „Unsere Kosten sind zu hoch, unsere Margen sind zu niedrig“, konstatierte Gelsinger in einem offenen Brief an seine Belegschaft und stimmte seine Mannschaft auf harte Zeiten ein. Die haben nun Gelsinger selbst ereilt. 

Intel-Chef Pat Gelsinger muss gehen​ Alle Bemühungen von Intel-CEO Pat Gelsinger, den Halbleiterkonzern wieder auf Kurs zu bringen, haben nicht ausgereicht, seinen Job zu sichern.Intel Corp.

Pat Gelsinger hat mit Wirkung zum 1. Dezember 2024 sein Amt als Intel-CEO niedergelegt und den weltgrößten Chiphersteller verlassen. Das teilte der Konzern überraschend am folgenden Tag mit. Übergangsweise sollen David Zinser und Michelle Johnston (MJ) Holthaus Intel als Co-CEOs führen.

Pat Gelsinger löst Bob Swan ab: VMware-Chef wechselt zu Intel

Zinsner fungierte bis dato als Executive Vice President und Chief Financial Officer. Holthaus hat die neu geschaffene Position des CEO von Intel Products inne, einer Gruppe, die die Client Computing Group (CCG), die Data Center and AI Group (DCAI) und die Network and Edge Group (NEX) des Unternehmens umfasst. Frank Yeary, unabhängiger Vorstandsvorsitzender von Intel, wird während der Übergangszeit Interims-Vorstandsvorsitzender werden, teilte das Unternehmen mit.

Wer Gelsinger nachfolgen soll, ist nicht bekannt. Der Intel-Vorstand hat eigenen Angaben zufolge eine Kommission gebildet, die einen Nachfolger finden soll. Yeary dankte Gelsinger für seine langjährigen Dienste und dessen Engagement für Intel. Der Manager habe den Herstellungsprozess neu belebt und moderne Fertigungsverfahren eingeführt, so Yeary. Außerdem habe Gelsinger unermüdlich daran gearbeitet, Innovation im gesamten Unternehmen voranzutreiben.

Schlechte Zahlen kosten Gelsinger den Job

Das hat allerdings nicht gereicht, Gelsingers CEO-Job zu sichern. „Obwohl wir erhebliche Fortschritte bei der Wiederherstellung der Wettbewerbsfähigkeit in der Fertigung und dem Aufbau der Fähigkeiten gemacht haben, eine Weltklasse-Foundry zu sein, wissen wir, dass wir noch viel Arbeit vor uns haben“, sagte Yeary und ließ durchblicken, dass letztendlich die schlechte finanzielle Performance Intels in den zurückliegenden Quartalen Gelsinger den Job gekostet haben dürfte. „Wir sind entschlossen, das Vertrauen der Investoren wiederherzustellen“, versprach Interims-Vorstandsvorsitzende.

CEO Pat Gelsinger will Produktion hochfahren: Intel träumt vom goldenen Halbleiter-Zeitalter

Yeary kündigte an, die Produktgruppe in den Mittelpunkt des kommenden Handelns stellen zu wollen. Er verwies auf Holthaus‘ dauerhafte Beförderung zum CEO von Intels Produktsparte und ihre Interimsrolle als Co-CEO. Letztendlich gehe es darum die Rolle als Marktführer zurückzugewinnen, gab der Manager als Ziel aus. „Wir werden uns weiterhin auf diese Mission konzentrieren und gleichzeitig die Effizienz und Rentabilität steigern.“

Intel soll einfacher und agiler werden

Yearys Botschaft an Zinser und Holthaus ist klar: Das Produktportfolio vereinfachen und stärken, Fertigungs- und Foundry-Kapazitäten ausbauen und gleichzeitig die Kosten im Griff behalten. „Wir arbeiten daran, ein schlankeres, einfacheres und agileres Intel zu schaffen.“

Gelsinger sagte zum Abschied, es sei die Ehre seines Lebens gewesen, Intel zu leiten. „Der heutige Tag ist natürlich bittersüß, da dieses Unternehmen den Großteil meiner beruflichen Laufbahn mein Leben war.“ Gelsinger sprach von einem herausfordernden Jahr sowie schwierigen, aber notwendigen Entscheidungen, „um Intel für die aktuelle Marktdynamik zu positionieren“.

Mitte August 2024 hatte Intel nach schlechten Zahlen für das zweite Quartal angekündigt, 15 Prozent seiner Stellen zu streichen. Das betrifft etwa 17.500 Beschäftigte. „Ich brauche weniger Leute im Hauptquartier, aber mehr Leute draußen im Feld bei den Kunden“, erklärte Intel-Chef Gelsinger im Sommer gegenüber der Nachrichtenagentur Reuters. Man müsse Kostenstrukturen anpassen und Arbeitsweisen grundlegend ändern. „Unsere Kosten sind zu hoch, unsere Margen sind zu niedrig“, konstatierte Gelsinger in einem offenen Brief an seine Belegschaft und stimmte seine Mannschaft auf harte Zeiten ein. Die haben nun Gelsinger selbst ereilt.

Intel-Chef Pat Gelsinger muss gehen​ Weiterlesen »

Cisco fordert Digitalministerium für Deutschland​

Allgemein

Insgesamt gehen 93 Prozent der Unternehmen davon aus, dass die Belastungen durch Künstliche Intelligenz zunehmen werden. Doch sind sie in der Lage, diesem Druck standzuhalten? bennphoto/shutterstock.com Der neue Cisco AI Readiness Index zeigt, dass der Druck auf Unternehmen, Künstliche Intelligenz (KI) zu implementieren, weiter zunimmt. Die weltweite Studie mit 8.000 Unternehmen, davon 300 aus Deutschland, zeigt, dass fast alle deutschen Befragten der Meinung sind, dass es in den vergangenen Monate der Einsatz von KI immer dringlicher geworden ist. Zugleich gaben nur 13 Prozent der Befragten an, bereit zu sein, das volle Potenzial von KI zu nutzen – 2023 waren es noch 14 Prozent. Die Kluft zwischen dem Wunsch und der Fähigkeit, KI einzusetzen, hat zugenommen, da Netzwerke und Infrastrukturen oft nicht ausreichend für KI-Workloads gerüstet sind. Deutschland nur noch Mittelmaß So ist Deutschland in Europa, bezogen auf die Spitzengruppe der Schrittmacher („Pacemaker“), die als vollständig vorbereitet auf KI gelten, vom dritten auf den sechsten Rang abgerutscht. Großbritannien liegt mit 10 Prozent vorne, gefolgt von Italien (9 Prozent), Spanien (9 Prozent) der Schweiz (8 Prozent) und den Niederlanden (7 Prozent). Selbst wenn man die ersten beiden Kategorien („Schrittmacher/Pacemaker“ und „Verfolger/Chasers“), zusammennimmt kommt Deutschland nicht über den dritten Platz (35 Prozent) hinaus. Großbritannien (47 Prozent) und Spanien (40 Prozent) bleiben weiterhin auf den ersten beiden Rängen. Die KI-Bereitschaft deutscher Unternehmen 2023 und 2024 im Vergleich Cisco Können Investitionen helfen? Gleichzeitig planen 19 Prozent der Unternehmen in den nächsten vier bis fünf Jahren mehr als 40 Prozent ihres Budgets für KI bereitzustellen. Im Jahr 2024 sind es gerade einmal zwei Prozent, die das bereits tun. Die KI-Investitionen verteilen sich dabei fast gleichwertig auf die drei strategischen Bereiche Cybersicherheit, IT-Infrastruktur und Datenanalyse. Zu den wichtigsten Investitionszielen gehören: höhere Effizienz und Produktivität (48 Prozent), Innovations- und Wettbewerbsfähigkeit (43 Prozent) sowie verbesserte Kundenerfahrung und -zufriedenheit (45 Prozent). Zugleich berichtet mehr als die Hälfte der befragten Unternehmen von geringeren oder keinen Gewinnen aus bisherigen KI-Investitionen. Dennoch glauben 59 Prozent, dass KI langfristig ihre Erwartungen übertreffen wird. Deutschland Spitzenreiter bei KI-Strategie Es gibt jedoch auch gute Nachrichten für den Standort Deutschland: Zumindest in einer von sechs Kategorien (Strategie, Infrastruktur, Daten, Governance, Fachpersonal und Unternehmenskultur) des Cisco KI-Readiness Index schneiden deutsche Unternehmen gut ab: in der Strategie. Dort ist der Anteil in den beiden besten Gruppen „Schrittmacher“ und „Verfolger“ von 69 Prozent auf 77 Prozent gestiegen – der Spitzenplatz in Europa. Ganze 95 Prozent der deutschen Unternehmen verfügen bereits über eine KI-Strategie oder sind dabei, eine solche zu entwickeln. Allerdings verfügen nur 35 Prozent über ein Messverfahren für die Auswirkungen von KI-basierten Lösungen. „Deutschland ist beim Thema KI Europameister in der Planung, da gibt es gute Fortschritte. Das ist aber nur die halbe Miete, wir müssen deutlich stärker in die Umsetzung kommen. Von Powerpoint-Folien allein ist noch keine KI-Strategie erfolgreich geworden. Wir müssen vor allem im Bereich der Infrastruktur und Rechenzentren aktiver werden in Deutschland, aber auch bei der Aufbereitung und Nutzung von Daten“, ergänzt Christian Korff, Mitglied der Geschäftsführung von Cisco Deutschland. Der Reifegrad deutscher Unternehmen bei der KI-Strategie 2023 und 2024 im Vergleich Cisco Infrastruktur und Netzwerke Einer der Gründe für die durchwachsene KI-Bilanz sind die Infrastruktur und Netzwerkausrüstung für große KI-Arbeitslasten, welche nur begrenzt vorbereitet sind. Dies ist laut den Forschern besorgniserregend, da 93 Prozent der Befragten erwarten, dass die Arbeitslast ihrer Infrastruktur durch den Einsatz KI-gestützter Technologien steigen wird. Ganze 54 Prozent der Befragten geben an, dass ihre Infrastruktur nur begrenzt skalierbar und flexibel ist, um den steigenden Anforderungen gerecht zu werden. ​Zudem benötigen fast vier von fünf der befragten Unternehmen zusätzliche GPUs in ihren Rechenzentren für zukünftige KI-Workloads. Im Vorjahr waren es noch etwa drei Vierteln. ​ 78 Prozent der Unternehmen fehlt darüber hinaus das Vertrauen in die ausreichende Verfügbarkeit von Rechenressourcen. Das sind zwei Prozentpunkte mehr als im Jahr 2023. ​ Licht und Schatten bei der Infrastruktur Dennoch steht Deutschland in Sachen Infrastruktur im europäischen Vergleich gut da, trotz niedriger Werte. Mit 36 Prozent (2023: 34 Prozent) in den ersten beiden Gruppen ist Deutschland hinter Großbritannien am zweitbesten auf die Infrastruktur-Anforderungen von KI vorbereitet. Betrachtet man jedoch die einzelnen Kriterien, so zeigt sich, dass nur 14 Prozent der deutschen Unternehmen über die notwendigen GPUs verfügen, um den aktuellen und zukünftigen KI-Anforderungen gerecht zu werden. Nur ein Fünftel sind in der Lage, Daten in KI-Modellen mit Ende-zu-Ende-Verschlüsselung, Sicherheitsaudits, kontinuierlicher Überwachung und sofortiger Reaktion auf Bedrohungen zu schützen. Die Deutschen sind sich dieser Defizite bewusst: Denn 42 Prozent sehen die Verbesserung der Skalierbarkeit, Flexibilität und Verwaltbarkeit ihrer IT-Infrastruktur als oberste Priorität an. Cybersicherheit und Datenverwaltung Die Cybersicherheit bleibt ein kritisches Thema: So haben zwei Drittel der Befragten nur ein begrenztes Verständnis der Bedrohungen durch maschinelles Lernen, ein Anstieg gegenüber 65 Prozent. ​Zusätzlich sind 72 Prozent der Unternehmen bei der Zugriffskontrolle auf KI-Systeme und -Datensätze unzureichend aufgestellt. Das ist ein Anstieg von vier Prozentpunkten. Unternehmen fühlen sich zudem zunehmend unzureichend in der Datenverwaltung für KI-Initiativen aufgestellt. Nur 32 Prozent sehen sich gut vorbereitet, KI-Technologien effektiv zu nutzen. Zugleich berichten vier von fünf Unternehmen von Problemen bei der Vorverarbeitung und Bereinigung von Daten. Das ist ein ähnlicher Wert wie im Vorjahr (81 Prozent). 64 Prozent der Befragten sehen zudem Verbesserungsbedarf bei der Rückverfolgung der Datenherkunft. ​ Fachkräftemangel und kulturelle Bereitschaft ​​ Ebenfalls von zentraler Bedeutung, so die Forscher, ist der Fachkräftemangel in den Bereichen Infrastruktur, Daten und Governance: Weniger als ein Drittel der befragten Unternehmen halten ihre Talente für ausreichend vorbereitet, um KI vollständig zu nutzen. 24 Prozent der Teilnehmenden berichten von fehlendem internem Fachpersonal, und weitere 24 Prozent sehen einen branchenweiten Mangel an qualifizierten Talenten, um den wachsenden Bedarf an KI zu decken. ​ Auch die unternehmensinterne Bereitschaft zur Auseinandersetzung mit KI ist deutlich gesunken, so die Umfrage: Nur noch 66 Prozent der Vorstände zeigen sich offen für die transformative Kraft von KI, verglichen mit 82 Prozent im Vorjahr. ​So berichten 30 Prozent der Unternehmen von begrenzter Bereitschaft oder Widerstand ihrer Mitarbeitenden gegenüber der Einführung von KI. ​ Regularien als Problem und Möglichkeit In Europa, einschließlich Deutschland, wird die KI-Bereitschaft durch die sich schnell entwickelnde regulatorische Landschaft beeinflusst, wie zum Beispiel durch das im August 2024 in Kraft getretene Gesetz der Europäischen Union zur Künstlichen Intelligenz (EU AI Act). ​Dieses Gesetz bietet einen risikobasierten Rechtsrahmen für KI, der die KI-Governance und -Compliance beeinflusst. ​ Zugleich heben die Studienmacher hervor, dass europäische Organisationen großen Herausforderungen in der KI-Governance gegenüberstehen. Allerdings würden nur 31 Prozent über hochumfassende KI-Richtlinien und -Protokolle verfügen.​​ Zudem besteht ein erheblicher Bedarf an Talenten mit Fachkenntnissen in KI-Governance, Recht und Ethik. ​​ Gemeinsam den Fortschritt vorantreiben Die Forscher kommen zu dem Schluss, dass europäische Unternehmen, einschließlich der in Deutschland, ihre Infrastruktur-Skalierbarkeit, Datenverwaltung und Governance verbessern müssen, um ihre KI-Bereitschaft zu erhöhen. Investitionen in die Talententwicklung und die Förderung einer Pro-KI-Kultur seien ebenfalls entscheidend, um das volle Potenzial der KI auszuschöpfen. ​Führungskräfte müssten laut der Studie jetzt handeln und ihre Bereitschaft in allen sechs kritischen Säulen – Strategie, Infrastruktur, Daten, Governance, Talent und Kultur – verbessern, um die transformativen Chancen, die KI bietet, zu nutzen. ​ „Stillstand bei KI-Readiness bedeutet faktisch einen Rückschritt. Das können wir in Deutschland nicht ignorieren“, sagt Korff. Wie die Lösung für diese Probleme aussehen kann, stellt er sich so vor: „Wir bräuchten einen Digitalminister, der auch über die Föderalismusgrenzen hinweg die Digitalministerien orchestriert und damit die Kräfte der öffentlichen Hand bündelt.“ Christian Korff ist Mitglied der Geschäftsführung bei Cisco Deutschland und Leiter der Bundesfachkommission „Künstliche Intelligenz und Wertschöpfung 4.0“ vom Wirtschaftsrat der CDU.Cisco 

Cisco fordert Digitalministerium für Deutschland​ Insgesamt gehen 93 Prozent der Unternehmen davon aus, dass die Belastungen durch Künstliche Intelligenz zunehmen werden. Doch sind sie in der Lage, diesem Druck standzuhalten?
bennphoto/shutterstock.com

Der neue Cisco AI Readiness Index zeigt, dass der Druck auf Unternehmen, Künstliche Intelligenz (KI) zu implementieren, weiter zunimmt. Die weltweite Studie mit 8.000 Unternehmen, davon 300 aus Deutschland, zeigt, dass fast alle deutschen Befragten der Meinung sind, dass es in den vergangenen Monate der Einsatz von KI immer dringlicher geworden ist.

Zugleich gaben nur 13 Prozent der Befragten an, bereit zu sein, das volle Potenzial von KI zu nutzen – 2023 waren es noch 14 Prozent. Die Kluft zwischen dem Wunsch und der Fähigkeit, KI einzusetzen, hat zugenommen, da Netzwerke und Infrastrukturen oft nicht ausreichend für KI-Workloads gerüstet sind.

Deutschland nur noch Mittelmaß

So ist Deutschland in Europa, bezogen auf die Spitzengruppe der Schrittmacher („Pacemaker“), die als vollständig vorbereitet auf KI gelten, vom dritten auf den sechsten Rang abgerutscht. Großbritannien liegt mit 10 Prozent vorne, gefolgt von Italien (9 Prozent), Spanien (9 Prozent) der Schweiz (8 Prozent) und den Niederlanden (7 Prozent).

Selbst wenn man die ersten beiden Kategorien („Schrittmacher/Pacemaker“ und „Verfolger/Chasers“), zusammennimmt kommt Deutschland nicht über den dritten Platz (35 Prozent) hinaus. Großbritannien (47 Prozent) und Spanien (40 Prozent) bleiben weiterhin auf den ersten beiden Rängen.

Die KI-Bereitschaft deutscher Unternehmen 2023 und 2024 im Vergleich
Cisco

Können Investitionen helfen?

Gleichzeitig planen 19 Prozent der Unternehmen in den nächsten vier bis fünf Jahren mehr als 40 Prozent ihres Budgets für KI bereitzustellen. Im Jahr 2024 sind es gerade einmal zwei Prozent, die das bereits tun. Die KI-Investitionen verteilen sich dabei fast gleichwertig auf die drei strategischen Bereiche Cybersicherheit, IT-Infrastruktur und Datenanalyse.

Zu den wichtigsten Investitionszielen gehören:

höhere Effizienz und Produktivität (48 Prozent),

Innovations- und Wettbewerbsfähigkeit (43 Prozent) sowie

verbesserte Kundenerfahrung und -zufriedenheit (45 Prozent).

Zugleich berichtet mehr als die Hälfte der befragten Unternehmen von geringeren oder keinen Gewinnen aus bisherigen KI-Investitionen. Dennoch glauben 59 Prozent, dass KI langfristig ihre Erwartungen übertreffen wird.

Deutschland Spitzenreiter bei KI-Strategie

Es gibt jedoch auch gute Nachrichten für den Standort Deutschland: Zumindest in einer von sechs Kategorien (Strategie, Infrastruktur, Daten, Governance, Fachpersonal und Unternehmenskultur) des Cisco KI-Readiness Index schneiden deutsche Unternehmen gut ab: in der Strategie.

Dort ist der Anteil in den beiden besten Gruppen „Schrittmacher“ und „Verfolger“ von 69 Prozent auf 77 Prozent gestiegen – der Spitzenplatz in Europa. Ganze 95 Prozent der deutschen Unternehmen verfügen bereits über eine KI-Strategie oder sind dabei, eine solche zu entwickeln. Allerdings verfügen nur 35 Prozent über ein Messverfahren für die Auswirkungen von KI-basierten Lösungen.

„Deutschland ist beim Thema KI Europameister in der Planung, da gibt es gute Fortschritte. Das ist aber nur die halbe Miete, wir müssen deutlich stärker in die Umsetzung kommen. Von Powerpoint-Folien allein ist noch keine KI-Strategie erfolgreich geworden. Wir müssen vor allem im Bereich der Infrastruktur und Rechenzentren aktiver werden in Deutschland, aber auch bei der Aufbereitung und Nutzung von Daten“, ergänzt Christian Korff, Mitglied der Geschäftsführung von Cisco Deutschland.

Der Reifegrad deutscher Unternehmen bei der KI-Strategie 2023 und 2024 im Vergleich
Cisco

Infrastruktur und Netzwerke

Einer der Gründe für die durchwachsene KI-Bilanz sind die Infrastruktur und Netzwerkausrüstung für große KI-Arbeitslasten, welche nur begrenzt vorbereitet sind. Dies ist laut den Forschern besorgniserregend, da 93 Prozent der Befragten erwarten, dass die Arbeitslast ihrer Infrastruktur durch den Einsatz KI-gestützter Technologien steigen wird.

Ganze 54 Prozent der Befragten geben an, dass ihre Infrastruktur nur begrenzt skalierbar und flexibel ist, um den steigenden Anforderungen gerecht zu werden. ​Zudem benötigen fast vier von fünf der befragten Unternehmen zusätzliche GPUs in ihren Rechenzentren für zukünftige KI-Workloads. Im Vorjahr waren es noch etwa drei Vierteln. ​

78 Prozent der Unternehmen fehlt darüber hinaus das Vertrauen in die ausreichende Verfügbarkeit von Rechenressourcen. Das sind zwei Prozentpunkte mehr als im Jahr 2023. ​

Licht und Schatten bei der Infrastruktur

Dennoch steht Deutschland in Sachen Infrastruktur im europäischen Vergleich gut da, trotz niedriger Werte. Mit 36 Prozent (2023: 34 Prozent) in den ersten beiden Gruppen ist Deutschland hinter Großbritannien am zweitbesten auf die Infrastruktur-Anforderungen von KI vorbereitet.

Betrachtet man jedoch die einzelnen Kriterien, so zeigt sich, dass nur 14 Prozent der deutschen Unternehmen über die notwendigen GPUs verfügen, um den aktuellen und zukünftigen KI-Anforderungen gerecht zu werden. Nur ein Fünftel sind in der Lage, Daten in KI-Modellen mit Ende-zu-Ende-Verschlüsselung, Sicherheitsaudits, kontinuierlicher Überwachung und sofortiger Reaktion auf Bedrohungen zu schützen.

Die Deutschen sind sich dieser Defizite bewusst: Denn 42 Prozent sehen die Verbesserung der Skalierbarkeit, Flexibilität und Verwaltbarkeit ihrer IT-Infrastruktur als oberste Priorität an.

Cybersicherheit und Datenverwaltung

Die Cybersicherheit bleibt ein kritisches Thema: So haben zwei Drittel der Befragten nur ein begrenztes Verständnis der Bedrohungen durch maschinelles Lernen, ein Anstieg gegenüber 65 Prozent. ​Zusätzlich sind 72 Prozent der Unternehmen bei der Zugriffskontrolle auf KI-Systeme und -Datensätze unzureichend aufgestellt. Das ist ein Anstieg von vier Prozentpunkten.

Unternehmen fühlen sich zudem zunehmend unzureichend in der Datenverwaltung für KI-Initiativen aufgestellt. Nur 32 Prozent sehen sich gut vorbereitet, KI-Technologien effektiv zu nutzen. Zugleich berichten vier von fünf Unternehmen von Problemen bei der Vorverarbeitung und Bereinigung von Daten. Das ist ein ähnlicher Wert wie im Vorjahr (81 Prozent). 64 Prozent der Befragten sehen zudem Verbesserungsbedarf bei der Rückverfolgung der Datenherkunft. ​

Fachkräftemangel und kulturelle Bereitschaft ​​

Ebenfalls von zentraler Bedeutung, so die Forscher, ist der Fachkräftemangel in den Bereichen Infrastruktur, Daten und Governance:

Weniger als ein Drittel der befragten Unternehmen halten ihre Talente für ausreichend vorbereitet, um KI vollständig zu nutzen. 24 Prozent der Teilnehmenden berichten von fehlendem internem Fachpersonal, und weitere 24 Prozent sehen einen branchenweiten Mangel an qualifizierten Talenten, um den wachsenden Bedarf an KI zu decken. ​

Auch die unternehmensinterne Bereitschaft zur Auseinandersetzung mit KI ist deutlich gesunken, so die Umfrage: Nur noch 66 Prozent der Vorstände zeigen sich offen für die transformative Kraft von KI, verglichen mit 82 Prozent im Vorjahr. ​So berichten 30 Prozent der Unternehmen von begrenzter Bereitschaft oder Widerstand ihrer Mitarbeitenden gegenüber der Einführung von KI. ​

Regularien als Problem und Möglichkeit

In Europa, einschließlich Deutschland, wird die KI-Bereitschaft durch die sich schnell entwickelnde regulatorische Landschaft beeinflusst, wie zum Beispiel durch das im August 2024 in Kraft getretene Gesetz der Europäischen Union zur Künstlichen Intelligenz (EU AI Act). ​Dieses Gesetz bietet einen risikobasierten Rechtsrahmen für KI, der die KI-Governance und -Compliance beeinflusst. ​

Zugleich heben die Studienmacher hervor, dass europäische Organisationen großen Herausforderungen in der KI-Governance gegenüberstehen. Allerdings würden nur 31 Prozent über hochumfassende KI-Richtlinien und -Protokolle verfügen.​​ Zudem besteht ein erheblicher Bedarf an Talenten mit Fachkenntnissen in KI-Governance, Recht und Ethik. ​​

Gemeinsam den Fortschritt vorantreiben

Die Forscher kommen zu dem Schluss, dass europäische Unternehmen, einschließlich der in Deutschland, ihre

Infrastruktur-Skalierbarkeit,

Datenverwaltung und

Governance

verbessern müssen, um ihre KI-Bereitschaft zu erhöhen.

Investitionen in die Talententwicklung und die Förderung einer Pro-KI-Kultur seien ebenfalls entscheidend, um das volle Potenzial der KI auszuschöpfen. ​Führungskräfte müssten laut der Studie jetzt handeln und ihre Bereitschaft in allen sechs kritischen Säulen – Strategie, Infrastruktur, Daten, Governance, Talent und Kultur – verbessern, um die transformativen Chancen, die KI bietet, zu nutzen. ​

„Stillstand bei KI-Readiness bedeutet faktisch einen Rückschritt. Das können wir in Deutschland nicht ignorieren“, sagt Korff.

Wie die Lösung für diese Probleme aussehen kann, stellt er sich so vor: „Wir bräuchten einen Digitalminister, der auch über die Föderalismusgrenzen hinweg die Digitalministerien orchestriert und damit die Kräfte der öffentlichen Hand bündelt.“

Christian Korff ist Mitglied der Geschäftsführung bei Cisco Deutschland und Leiter der Bundesfachkommission „Künstliche Intelligenz und Wertschöpfung 4.0“ vom Wirtschaftsrat der CDU.Cisco

Cisco fordert Digitalministerium für Deutschland​ Weiterlesen »

Docker-Volumes-Tutorial​

Allgemein

loading=”lazy” width=”400px”>Mit Docker-Volumes gehen Container und lokale File-Systeme gut zusammen.Robert Mandel | shutterstock.com Docker-Container sind unveränderlich (immutable). Der Code und die Daten, die sie enthalten, verändern sich also nie. Das ist nützlich, um sicher sein zu können, dass der Code, der in der Produktion zur Anwendung kommt, derselbe ist, der den Qualitätssicherungs-Check absolviert hat. Weniger nützlich ist Immutability hingegen, wenn Daten über Applikations-Lifetimes hinweg geschrieben und nachgehalten werden müssen. Zwar lässt sich das in den meisten Fällen durch eine externe Datenbank lösen. Manchmal braucht eine Container-Applikation jedoch nur ein lokales Dateisystem – oder etwas, das wie eines aussieht. An dieser Stelle kommen Docker-Volumes ins Spiel. Dabei handelt es sich um den nativen Mechanismus von Docker, um mit lokalem Storage umzugehen. Ein Docker-Volume ist eine bequeme Möglichkeit, um containerisierte Applikationen dazu zu befähigen, Daten über ein lokales Dateisystem oder eine Dateisystem-ähnliches Interface zu schreiben und abzurufen. Dabei sind Docker-Volumes aber kein Allheilmittel, um State zu managen. Vielmehr sind sie mit Bedacht einzusetzen. Warum, erfahren Sie in diesem Tutorial. Wie Docker-Volumes funktionieren Docker-Volumes eröffnen Entwicklern einen Weg, um einen Dateipfad – den sogenannten Mount Point – von innerhalb eines Containers auf einen Systempfad oder ein Datei-ähnliches Objekt außerhalb zu mappen. Sämtliche Inhalte, die in ein Docker-Volume geschrieben werden, werden extern gespeichert – bleiben also über die Lebensdauer eines oder mehrerer Container hinweg erhalten. Dabei ist es auch möglich, dass mehrere Container parallel auf dasselbe Volume zugreifen (mit einigen Einschränkungen). Um zu steuern, wo Daten gespeichert werden, nutzen Docker-Volumes einen Volume Driver. Zwei Beispiele: Blockbridge bietet über die Volume-Treiber-Ebene direkten Zugriff auf iSCSI-Ziele. Die Storage Engine REX-Ray ist mit einer Vielzahl von Anbietern und Standards kompatibel und bietet Konnektivität über das Volume-Plug-in-System von Docker oder die allgemeinere Container-Storage-Interface-Spezifikation. Docker-Volumes manuell erstellen Der simpelste Weg, ein Docker Volume zu erstellen: Wenn Sie einen Container aufsetzen, geben Sie das -v– oder -volume-Flag, den Mount Point und das Ziel an. $ docker run -P —name websvc -v /websvcdata myorg/websvc python app.py Damit erstellen Sie ein „anonymes“ Volume mit dem Mount Point websvcdata. Die Daten werden in einem zufällig generierten Verzeichnis gespeichert, das vom Docker-Prozess verwendet wird. Dasselbe Ziel erreichen Sie mit einem Dockerfile, indem Sie eine VOLUME-Anweisung einfügen, die den Speicherort des Volumes beschreibt: FROM ubuntu: latest VOLUME /websvcdata Das wäre eine gute Möglichkeit, um im Rahmen einer Container-Session eine „Quick and Dirty“-Datenablage zu schaffen. Um den State Container-Session-übergreifend beizubehalten, ist das allerdings keine gute Lösung, weil der Name des Volumes nicht vorab bekannt ist und es so nicht effizient wiederverwendet werden kann. Docker-Volume-API nutzen Eine bessere Lösung, um benannte Volumes zu erstellen, bietet die volume–API von Docker. Volumes dieser Art können einfach an einen oder mehrere Container angehängt und damit deutlich einfacher wiederverwendet werden. $ docker volume create websvcdata Dieser Code erzeugt ein Docker-Volume mit dem Namen websvcdata. Allerdings verfügt das Volume noch nicht über einen Mount Point innerhalb eines Containers. Ein Zugriff über Container ist deshalb standardmäßig nicht möglich. Um einen Mount Point zu erstellen, starten Sie den Container folgendermaßen: $ docker run -P —name websvc -v websvcdata:/websvcdata myorg/websvc python app.py Dieser Code ist weitgehend identisch zu dem ersten docker run-Beispiel. Mit dem Unterschied, dass das Volume nicht anonym, sondern mit dem Namen websvcdata auf dem Host erstellt wird. Um festzustellen, ob die Mounts Ihren Vorstellungen entsprechen, können Sie docker inspect auf dem Container ausführen und den Abschnitt “Mounts” im resultierenden Dump lesen. Zu beachten ist dabei, dass Sie kein benanntes Volume mit einem Dockerfile erstellen können, weil die Namen für die Volumes zur Laufzeit spezifiziert werden müssen. Das ist auch so gewollt, weil Dockerfiles nicht einfach davon „ausgehen“ können, dass ein bestimmter Host und seine Volume-Pfade existieren. Sie sind dazu gedacht, auf jedem System mit jedem Volume-Path-Set zu laufen. Ein Volume, das in einem Dockerfile spezifiziert wird, wird an einem Speicherort erstellt, der die Persistenz der enthaltenen Daten unterstützt. Indem Sie docker volume create mit spezifischen Flags für den Docker-Storage-Treiber ausführen, können Sie diverse Einstellungen beeinflussen, um ein Volume zu erstellen. Mit dem lokalen Dateisystemtreiber können Sie beispielsweise angeben, wo das Volume platziert werden soll und welches Gerät oder Dateisystem verwendet werden soll. Das ermöglicht, das Volume auf dem für den jeweiligen Anwendungsfall günstigsten Device zu platzieren. Tipp: Wenn Sie ein Volume erstellen und es mit einem Pfad innerhalb des Basis-Images verknüpfen, das bereits Daten enthält, werden die Daten innerhalb des Basis-Images zur Bind Time auf das Volume kopiert. Das ist eine praktische Möglichkeit, um ein Volume vorab mit Daten zu befüllen, die Sie als Ausgangspunkt verwenden möchten. Docker-Volumes zwischen Containern teilen Falls Sie mehr als einen Container an dasselbe Docker-Volume anhängen wollen, geht das ganz simpel: $ docker run -ti —name instance1 -v DataVol1:/datavol1 ubuntu $ docker run -ti —name instance2 —volumes-from DataVol1 ubuntu $ docker run -ti —name instance3 —volumes-from DataVol1:ro ubuntu Hierdurch werden drei Container erstellt (instance1 bis instance3) – und jedem davon DataVol1 angehängt. Der instance3-Container hat DataVol1 als schreibgeschützt gemountet – wie es :ro nach dem Volumennamen anzeigt. Zu beachten ist dabei, dass Docker Konflikte zwischen Containern, die sich dasselbe Volume teilen, nicht automatisch auflöst. Das ist Sache Ihrer Applikation (dazu gleich mehr). Docker-Volumes entfernen Volumes werden nicht automatisch von der Festplatte entfernt, sobald ein Container entfernt wird. Auch das ist beabsichtigt, schließlich wollen Sie kein Volume entfernen, das möglicherweise noch von einem anderen Container in der Zukunft verwendet werden könnte. Das hat zur Folge, dass Sie selbst für Unmounting- und Cleanup-Prozesse verantwortlich sind. Um den Volume-Cleanup zu erleichtern, bietet Docker jedoch integrierte Tools: Der Befehl docker volume verfügt über einen Sub-Befehl namens docker volume prune. Dieses Kommando entfernt sämtliche Datenträger, die nicht von mindestens einem Container im System verwendet werden. Den Umfang der Löschaktion können Sie übrigens auch konfigurieren und beispielsweise nur die Volumes entfernen, die einem bestimmten Container zugeordnet sind. Wo Docker-Volumes an ihre Grenzen kommen Docker-Volumes sind kein Allheilmittel für lokale Persistenz. Wegen der Art und Weise, wie Container mit lokalen Dateisystemen interagieren, können Docker-Volumes unter Umständen sogar mehr Probleme verursachen als lösen. Die wesentlichen Limitationen von Docker-Volumes im Überblick: Docker kümmert sich nicht um File Locking in Volumes, die von mehreren Containern genutzt werden. Das liegt in der Verantwortung der jeweils verwendeten Anwendung. Wenn die fragliche App nicht fähig ist, Daten in ein gemeinsam genutztes Dateisystem zu schreiben, droht File Corruption im Volume. Eine mögliche Lösung für das Problem wäre es, Object Storage Server statt eines lokalen Dateisystems zu verwenden – beispielsweise ein Projekt wie Minio. Docker-Volumes können zudem die Portabilität von Anwendungen erschweren: Jeder Rechner weist eine andere Speichertopologie auf. Wenn Sie Volumes auf der Grundlage von Annahmen darüber erstellen, wo sich Dinge im System befinden, kann es sein, dass diese Annahmen nicht zutreffen, wenn Sie versuchen, dieselben Container auf einem System einzusetzen, das Sie nicht selbst erstellt haben. Das ist weniger problematisch, wenn Sie Container nur auf Systemen verwenden, auf denen Sie die Topologie streng kontrollieren können, etwa auf einem internen privaten Cluster. Falls Sie sich später für eine neue Architektur entscheiden, holen die Problemen Sie jedoch wieder ein. Volumes zu nutzen, um Stateful Data zu speichern, ist nicht zu empfehlen. Diese sollten stattdessen über einen anderen nativen Docker-Mechanismus verarbeitet werden. Secrets in Applikationen sollten beispielsweise über die Docker-eigenen Systeme oder Drittanbieter-Produkte wie HashiCorp Vault gehändelt werden. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Docker-Volumes-Tutorial​ loading=”lazy” width=”400px”>Mit Docker-Volumes gehen Container und lokale File-Systeme gut zusammen.Robert Mandel | shutterstock.com

Docker-Container sind unveränderlich (immutable). Der Code und die Daten, die sie enthalten, verändern sich also nie. Das ist nützlich, um sicher sein zu können, dass der Code, der in der Produktion zur Anwendung kommt, derselbe ist, der den Qualitätssicherungs-Check absolviert hat. Weniger nützlich ist Immutability hingegen, wenn Daten über Applikations-Lifetimes hinweg geschrieben und nachgehalten werden müssen.

Zwar lässt sich das in den meisten Fällen durch eine externe Datenbank lösen. Manchmal braucht eine Container-Applikation jedoch nur ein lokales Dateisystem – oder etwas, das wie eines aussieht. An dieser Stelle kommen Docker-Volumes ins Spiel. Dabei handelt es sich um den nativen Mechanismus von Docker, um mit lokalem Storage umzugehen.

Ein Docker-Volume ist eine bequeme Möglichkeit, um containerisierte Applikationen dazu zu befähigen, Daten über ein lokales Dateisystem oder eine Dateisystem-ähnliches Interface zu schreiben und abzurufen. Dabei sind Docker-Volumes aber kein Allheilmittel, um State zu managen. Vielmehr sind sie mit Bedacht einzusetzen. Warum, erfahren Sie in diesem Tutorial.

Wie Docker-Volumes funktionieren

Docker-Volumes eröffnen Entwicklern einen Weg, um einen Dateipfad – den sogenannten Mount Point – von innerhalb eines Containers auf einen Systempfad oder ein Datei-ähnliches Objekt außerhalb zu mappen. Sämtliche Inhalte, die in ein Docker-Volume geschrieben werden, werden extern gespeichert – bleiben also über die Lebensdauer eines oder mehrerer Container hinweg erhalten. Dabei ist es auch möglich, dass mehrere Container parallel auf dasselbe Volume zugreifen (mit einigen Einschränkungen).

Um zu steuern, wo Daten gespeichert werden, nutzen Docker-Volumes einen Volume Driver. Zwei Beispiele:

Blockbridge bietet über die Volume-Treiber-Ebene direkten Zugriff auf iSCSI-Ziele.

Die Storage Engine REX-Ray ist mit einer Vielzahl von Anbietern und Standards kompatibel und bietet Konnektivität über das Volume-Plug-in-System von Docker oder die allgemeinere Container-Storage-Interface-Spezifikation.

Docker-Volumes manuell erstellen

Der simpelste Weg, ein Docker Volume zu erstellen: Wenn Sie einen Container aufsetzen, geben Sie das -v– oder -volume-Flag, den Mount Point und das Ziel an.

$ docker run -P —name websvc -v /websvcdata myorg/websvc python app.py

Damit erstellen Sie ein „anonymes“ Volume mit dem Mount Point websvcdata. Die Daten werden in einem zufällig generierten Verzeichnis gespeichert, das vom Docker-Prozess verwendet wird.

Dasselbe Ziel erreichen Sie mit einem Dockerfile, indem Sie eine VOLUME-Anweisung einfügen, die den Speicherort des Volumes beschreibt:

FROM ubuntu: latest
VOLUME /websvcdata

Das wäre eine gute Möglichkeit, um im Rahmen einer Container-Session eine „Quick and Dirty“-Datenablage zu schaffen. Um den State Container-Session-übergreifend beizubehalten, ist das allerdings keine gute Lösung, weil der Name des Volumes nicht vorab bekannt ist und es so nicht effizient wiederverwendet werden kann.

Docker-Volume-API nutzen

Eine bessere Lösung, um benannte Volumes zu erstellen, bietet die volume–API von Docker. Volumes dieser Art können einfach an einen oder mehrere Container angehängt und damit deutlich einfacher wiederverwendet werden.

$ docker volume create websvcdata

Dieser Code erzeugt ein Docker-Volume mit dem Namen websvcdata. Allerdings verfügt das Volume noch nicht über einen Mount Point innerhalb eines Containers. Ein Zugriff über Container ist deshalb standardmäßig nicht möglich. Um einen Mount Point zu erstellen, starten Sie den Container folgendermaßen:

$ docker run -P —name websvc -v websvcdata:/websvcdata myorg/websvc python app.py

Dieser Code ist weitgehend identisch zu dem ersten docker run-Beispiel. Mit dem Unterschied, dass das Volume nicht anonym, sondern mit dem Namen websvcdata auf dem Host erstellt wird. Um festzustellen, ob die Mounts Ihren Vorstellungen entsprechen, können Sie docker inspect auf dem Container ausführen und den Abschnitt “Mounts” im resultierenden Dump lesen.

Zu beachten ist dabei, dass Sie kein benanntes Volume mit einem Dockerfile erstellen können, weil die Namen für die Volumes zur Laufzeit spezifiziert werden müssen. Das ist auch so gewollt, weil Dockerfiles nicht einfach davon „ausgehen“ können, dass ein bestimmter Host und seine Volume-Pfade existieren. Sie sind dazu gedacht, auf jedem System mit jedem Volume-Path-Set zu laufen. Ein Volume, das in einem Dockerfile spezifiziert wird, wird an einem Speicherort erstellt, der die Persistenz der enthaltenen Daten unterstützt.

Indem Sie docker volume create mit spezifischen Flags für den Docker-Storage-Treiber ausführen, können Sie diverse Einstellungen beeinflussen, um ein Volume zu erstellen. Mit dem lokalen Dateisystemtreiber können Sie beispielsweise angeben, wo das Volume platziert werden soll und welches Gerät oder Dateisystem verwendet werden soll. Das ermöglicht, das Volume auf dem für den jeweiligen Anwendungsfall günstigsten Device zu platzieren.

Tipp: Wenn Sie ein Volume erstellen und es mit einem Pfad innerhalb des Basis-Images verknüpfen, das bereits Daten enthält, werden die Daten innerhalb des Basis-Images zur Bind Time auf das Volume kopiert. Das ist eine praktische Möglichkeit, um ein Volume vorab mit Daten zu befüllen, die Sie als Ausgangspunkt verwenden möchten.

Docker-Volumes zwischen Containern teilen

Falls Sie mehr als einen Container an dasselbe Docker-Volume anhängen wollen, geht das ganz simpel:

$ docker run -ti —name instance1 -v DataVol1:/datavol1 ubuntu

$ docker run -ti —name instance2 —volumes-from DataVol1 ubuntu

$ docker run -ti —name instance3 —volumes-from DataVol1:ro ubuntu

Hierdurch werden drei Container erstellt (instance1 bis instance3) – und jedem davon DataVol1 angehängt. Der instance3-Container hat DataVol1 als schreibgeschützt gemountet – wie es :ro nach dem Volumennamen anzeigt. Zu beachten ist dabei, dass Docker Konflikte zwischen Containern, die sich dasselbe Volume teilen, nicht automatisch auflöst. Das ist Sache Ihrer Applikation (dazu gleich mehr).

Docker-Volumes entfernen

Volumes werden nicht automatisch von der Festplatte entfernt, sobald ein Container entfernt wird. Auch das ist beabsichtigt, schließlich wollen Sie kein Volume entfernen, das möglicherweise noch von einem anderen Container in der Zukunft verwendet werden könnte. Das hat zur Folge, dass Sie selbst für Unmounting- und Cleanup-Prozesse verantwortlich sind.

Um den Volume-Cleanup zu erleichtern, bietet Docker jedoch integrierte Tools: Der Befehl docker volume verfügt über einen Sub-Befehl namens docker volume prune. Dieses Kommando entfernt sämtliche Datenträger, die nicht von mindestens einem Container im System verwendet werden. Den Umfang der Löschaktion können Sie übrigens auch konfigurieren und beispielsweise nur die Volumes entfernen, die einem bestimmten Container zugeordnet sind.

Wo Docker-Volumes an ihre Grenzen kommen

Docker-Volumes sind kein Allheilmittel für lokale Persistenz. Wegen der Art und Weise, wie Container mit lokalen Dateisystemen interagieren, können Docker-Volumes unter Umständen sogar mehr Probleme verursachen als lösen. Die wesentlichen Limitationen von Docker-Volumes im Überblick:

Docker kümmert sich nicht um File Locking in Volumes, die von mehreren Containern genutzt werden. Das liegt in der Verantwortung der jeweils verwendeten Anwendung. Wenn die fragliche App nicht fähig ist, Daten in ein gemeinsam genutztes Dateisystem zu schreiben, droht File Corruption im Volume. Eine mögliche Lösung für das Problem wäre es, Object Storage Server statt eines lokalen Dateisystems zu verwenden – beispielsweise ein Projekt wie Minio.

Docker-Volumes können zudem die Portabilität von Anwendungen erschweren: Jeder Rechner weist eine andere Speichertopologie auf. Wenn Sie Volumes auf der Grundlage von Annahmen darüber erstellen, wo sich Dinge im System befinden, kann es sein, dass diese Annahmen nicht zutreffen, wenn Sie versuchen, dieselben Container auf einem System einzusetzen, das Sie nicht selbst erstellt haben. Das ist weniger problematisch, wenn Sie Container nur auf Systemen verwenden, auf denen Sie die Topologie streng kontrollieren können, etwa auf einem internen privaten Cluster. Falls Sie sich später für eine neue Architektur entscheiden, holen die Problemen Sie jedoch wieder ein.

Volumes zu nutzen, um Stateful Data zu speichern, ist nicht zu empfehlen. Diese sollten stattdessen über einen anderen nativen Docker-Mechanismus verarbeitet werden. Secrets in Applikationen sollten beispielsweise über die Docker-eigenen Systeme oder Drittanbieter-Produkte wie HashiCorp Vault gehändelt werden.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Docker-Volumes-Tutorial​ Weiterlesen »

Nextcloud baut Alternative zu Microsoft Teams​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/Nextcloud-Talk-video-call.png?quality=50&strip=all 6400w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Nextcloud-Talk-video-call.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Nextcloud-Talk-video-call.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Nextcloud-Talk-video-call.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Nextcloud-Talk-video-call.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Nextcloud-Talk-video-call.png?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Nextcloud-Talk-video-call.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Nextcloud-Talk-video-call.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Nextcloud-Talk-video-call.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Nextcloud-Talk-video-call.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Nextcloud-Talk-video-call.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Nextcloud bringt eine Alternative zu Microsoft Teams.Nextcloud Nextcloud hat auf seiner Kundenveranstaltung „Enterprise Day“ in Frankreich mit Talk „Paris“ eine nach eigenen Angaben DSGVO-konforme Alternative zu Microsoft Teams vorgestellt. Mit dem neuen Release des seit März 2023 verfügbaren Tools reagiere man auf die steigende Nachfrage nach einer datenschutzkonformen Kollaborationsplattform für hybrid arbeitende Teams, hieß es auf der Veranstaltung. Anwenderunternehmen erhielten damit volle Datenkontrolle und würden unabhängiger von US-amerikanischen Tech-Giganten, verspricht der Anbieter.  Nextcloud verspricht digitale Souveränität und Transparenz “Unternehmen brauchen leistungsstarke Tools für die Zusammenarbeit – und sind deshalb auf Lösungen angewiesen, die nicht DSGVO-konform sind und von US-amerikanischen Tech Konzernen abhängig machen“, sagte Nextcloud-CEO Frank Karlitschek. „Wir setzen dort an, wo andere Plattformen an ihre Grenzen stoßen – bei digitaler Souveränität und voller Transparenz. Wir geben Unternehmen die Werkzeuge, um ihre Kommunikation bei voller Datenhoheit unabhängig zu gestalten.“ Die Anwenderunternehmen brauchen Lösungen, die sie nicht von US-amerikanischen Tech-Konzernen abhängig machen, sagt Nextcloud-Chef Frank Karlitschek.Nextcloud Die Kollaborationssoftware Talk bietet Nextcloud zufolge eine DSGVO-konforme Kommunikation. Das Tool beinhalte klassische Funktionen für die Zusammenarbeit, die Nutzer von Teams kennen, wie Chats, Videokonferenzen und Webinare. Darüber hinaus lasse sich die Lösung über eine offene Architektur in bestehende Systeme integrieren und an individuelle Anforderungen anpassen, so der Hersteller.  Kartellwächter nehmen Microsoft ins Visier Im Release “Paris” hat Nextcloud weitere Features eingebaut. Die Desktop-App kombiniert Chat, Videokonferenzen und Webinare in einer Anwendung. Teams könnten direkt im Chat oder in Video-Calls Dokumente bearbeiten. Mit Talk bietet Nextcloud seinen Usern auch ein Whiteboard, auf dem sich gemeinsam an Ideen arbeiten lässt.Nextcloud Zu den neuen KI-Funktionen zählen KI-generierte Zusammenfassungen von Videokonferenzen und Chatverläufen sowie die Erstellung von To-do-Listen. Mit einem interaktiven Whiteboard sollen Teams leichter gemeinsam Brainstormen und Ideen in Echtzeit entwickeln können. Um bestimmte Meeting-Limits einzuhalten, können Calls in Talk nach einer festgelegten Zeit automatisch beendet werden. Kollaboration-Paket auf Open-Source-Plattform Talk ist Bestandteil des Nextcloud Hub. Hier fasst der Hersteller verschiedene Kollaborationswerkzeuge auf einer Open-Source-Plattform zusammen. Neben Talk gehören dazu:  Nextcloud Files für die Dateisynchronisierung und -freigabe,  Nextcloud Groupware für Kalender, Kontakte und Mail,  Nextcloud Office für die Echtzeit-Zusammenarbeit an Dokumenten und der  Nextcloud-Assistant als privater und lokaler KI-Assistent.  Mit Hilfe der Plattform, die sich lokal On-Premises wie auch in der Cloud betreiben lässt, behielten Unternehmen die Kontrolle über ihre sensiblen Daten und seien in der Lage, Datenschutzbestimmungen wie DSGVO und HIPAA einzuhalten, verspricht der Hersteller.  width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2Ciddz1Wx8K0m7mBbhzApR?utm_source=oembed”> 

Nextcloud baut Alternative zu Microsoft Teams​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/Nextcloud-Talk-video-call.png?quality=50&strip=all 6400w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Nextcloud-Talk-video-call.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Nextcloud-Talk-video-call.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Nextcloud-Talk-video-call.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Nextcloud-Talk-video-call.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Nextcloud-Talk-video-call.png?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Nextcloud-Talk-video-call.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Nextcloud-Talk-video-call.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Nextcloud-Talk-video-call.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Nextcloud-Talk-video-call.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/12/Nextcloud-Talk-video-call.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Nextcloud bringt eine Alternative zu Microsoft Teams.Nextcloud

Nextcloud hat auf seiner Kundenveranstaltung „Enterprise Day“ in Frankreich mit Talk „Paris“ eine nach eigenen Angaben DSGVO-konforme Alternative zu Microsoft Teams vorgestellt. Mit dem neuen Release des seit März 2023 verfügbaren Tools reagiere man auf die steigende Nachfrage nach einer datenschutzkonformen Kollaborationsplattform für hybrid arbeitende Teams, hieß es auf der Veranstaltung. Anwenderunternehmen erhielten damit volle Datenkontrolle und würden unabhängiger von US-amerikanischen Tech-Giganten, verspricht der Anbieter. 

Nextcloud verspricht digitale Souveränität und Transparenz

“Unternehmen brauchen leistungsstarke Tools für die Zusammenarbeit – und sind deshalb auf Lösungen angewiesen, die nicht DSGVO-konform sind und von US-amerikanischen Tech Konzernen abhängig machen“, sagte Nextcloud-CEO Frank Karlitschek. „Wir setzen dort an, wo andere Plattformen an ihre Grenzen stoßen – bei digitaler Souveränität und voller Transparenz. Wir geben Unternehmen die Werkzeuge, um ihre Kommunikation bei voller Datenhoheit unabhängig zu gestalten.“

Die Anwenderunternehmen brauchen Lösungen, die sie nicht von US-amerikanischen Tech-Konzernen abhängig machen, sagt Nextcloud-Chef Frank Karlitschek.Nextcloud

Die Kollaborationssoftware Talk bietet Nextcloud zufolge eine DSGVO-konforme Kommunikation. Das Tool beinhalte klassische Funktionen für die Zusammenarbeit, die Nutzer von Teams kennen, wie Chats, Videokonferenzen und Webinare. Darüber hinaus lasse sich die Lösung über eine offene Architektur in bestehende Systeme integrieren und an individuelle Anforderungen anpassen, so der Hersteller. 

Kartellwächter nehmen Microsoft ins Visier

Im Release “Paris” hat Nextcloud weitere Features eingebaut. Die Desktop-App kombiniert Chat, Videokonferenzen und Webinare in einer Anwendung. Teams könnten direkt im Chat oder in Video-Calls Dokumente bearbeiten.

Mit Talk bietet Nextcloud seinen Usern auch ein Whiteboard, auf dem sich gemeinsam an Ideen arbeiten lässt.Nextcloud

Zu den neuen KI-Funktionen zählen KI-generierte Zusammenfassungen von Videokonferenzen und Chatverläufen sowie die Erstellung von To-do-Listen. Mit einem interaktiven Whiteboard sollen Teams leichter gemeinsam Brainstormen und Ideen in Echtzeit entwickeln können. Um bestimmte Meeting-Limits einzuhalten, können Calls in Talk nach einer festgelegten Zeit automatisch beendet werden.

Kollaboration-Paket auf Open-Source-Plattform

Talk ist Bestandteil des Nextcloud Hub. Hier fasst der Hersteller verschiedene Kollaborationswerkzeuge auf einer Open-Source-Plattform zusammen. Neben Talk gehören dazu: 

Nextcloud Files für die Dateisynchronisierung und -freigabe, 

Nextcloud Groupware für Kalender, Kontakte und Mail, 

Nextcloud Office für die Echtzeit-Zusammenarbeit an Dokumenten und der 

Nextcloud-Assistant als privater und lokaler KI-Assistent. 

Mit Hilfe der Plattform, die sich lokal On-Premises wie auch in der Cloud betreiben lässt, behielten Unternehmen die Kontrolle über ihre sensiblen Daten und seien in der Lage, Datenschutzbestimmungen wie DSGVO und HIPAA einzuhalten, verspricht der Hersteller. 

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2Ciddz1Wx8K0m7mBbhzApR?utm_source=oembed”>

Nextcloud baut Alternative zu Microsoft Teams​ Weiterlesen »

Linux Mint: Systemschnappschüsse mit Timeshift erstellen​

Allgemein

Timeshift starten Thomas Rieske Lösung: Linux Mint hat zu diesem Zweck das unkompliziert zu bedienende Timeshift mit grafischer Benutzeroberfläche an Bord. Wenn Sie links unten in der Leiste auf das Linux-Mint-Symbol klicken, finden Sie das Tool im Menü unter Systemverwaltung. Alternativ tippen Sie Timeshift in das Suchfeld ein und wählen den entsprechenden Treffer aus. Passwort eingeben Thomas Rieske Anschließend tippen Sie Ihr Benutzerpasswort ein und klicken auf den Legitimieren-Button. Schnappschusstyp Thomas Rieske Nun startet bei der Ersteinrichtung ein Assistent, der Sie durch die weiteren Schritte führt. Wenn Sie Ihren Rechner mit dem Standarddateisystem ext4 formatiert haben, ist der Schnappschusstyp auf rsync festgelegt. Da es mit Timeshift und Btrfs immer wieder zu Problemen kommt, ist dieser Typ aber ohnehin vorzuziehen. Klicken Sie hier einfach auf Weiter. Ort für Schnappschüsse auswählen Thomas Rieske Danach ermittelt Mint die Systemgröße und führt angeschlossene Datenträger mit Linux-Dateisystemen auf, auf denen die Schnappschüsse gespeichert werden sollen. Anzuraten sind zum Beispiel externe Festplatten. Nicht unterstützt werden Windows-Dateisysteme sowie Remote- und Netzlaufwerke. Die Schnappschüsse landen auf der ausgewählten Partition unter /timeshift. Auch in diesem Dialog gelangen Sie mit Weiter zum folgenden Schritt. Schnappschussebenen Thomas Rieske Als Nächstes gilt es, festzulegen, wie oft Schnappschüsse erstellt werden sollen. In der Regel empfiehlt sich die erste Option mit zwei Snapshots pro Monat. Bei Bedarf, etwa wenn Sie größere Umstellungen am System vornehmen, können Sie auch manuell Schnappschüsse anlegen. Persönliche Benutzerordner Thomas Rieske Nach einem Klick auf die Weiter-Schaltfläche gelangen Sie zum Auswahldialog für persönliche Ordner der Nutzer. Diese sind per Default ausgeschlossen, was Sie auch nicht ändern sollten. Erstens würden Schnappschüsse durch den Einschluss von Benutzerordnern unnötig aufgebläht, zweitens gibt es für Ihre persönlichen Dateien und Verzeichnisse bessere Backup-Lösungen, etwa das Tool Mintbackup. Klicken Sie hier also nur auf den Weiter-Button. Ersteinrichtung abschließen Thomas Rieske Damit ist die Konfiguration von Timeshift vollständig. Im letzten Fenster des Assistenten finden Sie noch einige allgemeine Informationen zum Umgang mit dem Tool. Sie können dann auf den Beenden-Button klicken. Timeshift-Hauptfenster Thomas Rieske Nachdem Sie den Assistenten beendet haben, gelangen Sie zum Hauptfenster von Timeshift. Falls bereits Schnappschüsse erstellt wurden, finden Sie diese im mittleren Fensterbereich. Über die Symbolleiste oben können Sie unter anderem Snapshots manuell anlegen, wiederherstellen und löschen. Produkte: Der Trick funktioniert mit Linux Mint 22 Cinnamon. In anderen Versionen und Desktop-Umgebungen kann die Vorgehensweise abweichen. 

Linux Mint: Systemschnappschüsse mit Timeshift erstellen​ Timeshift starten

Thomas Rieske

Lösung: Linux Mint hat zu diesem Zweck das unkompliziert zu bedienende Timeshift mit grafischer Benutzeroberfläche an Bord. Wenn Sie links unten in der Leiste auf das Linux-Mint-Symbol klicken, finden Sie das Tool im Menü unter Systemverwaltung. Alternativ tippen Sie Timeshift in das Suchfeld ein und wählen den entsprechenden Treffer aus.

Passwort eingeben

Thomas Rieske

Anschließend tippen Sie Ihr Benutzerpasswort ein und klicken auf den Legitimieren-Button.

Schnappschusstyp

Thomas Rieske

Nun startet bei der Ersteinrichtung ein Assistent, der Sie durch die weiteren Schritte führt. Wenn Sie Ihren Rechner mit dem Standarddateisystem ext4 formatiert haben, ist der Schnappschusstyp auf rsync festgelegt. Da es mit Timeshift und Btrfs immer wieder zu Problemen kommt, ist dieser Typ aber ohnehin vorzuziehen. Klicken Sie hier einfach auf Weiter.

Ort für Schnappschüsse auswählen

Thomas Rieske

Danach ermittelt Mint die Systemgröße und führt angeschlossene Datenträger mit Linux-Dateisystemen auf, auf denen die Schnappschüsse gespeichert werden sollen. Anzuraten sind zum Beispiel externe Festplatten. Nicht unterstützt werden Windows-Dateisysteme sowie Remote- und Netzlaufwerke. Die Schnappschüsse landen auf der ausgewählten Partition unter /timeshift. Auch in diesem Dialog gelangen Sie mit Weiter zum folgenden Schritt.

Schnappschussebenen

Thomas Rieske

Als Nächstes gilt es, festzulegen, wie oft Schnappschüsse erstellt werden sollen. In der Regel empfiehlt sich die erste Option mit zwei Snapshots pro Monat. Bei Bedarf, etwa wenn Sie größere Umstellungen am System vornehmen, können Sie auch manuell Schnappschüsse anlegen.

Persönliche Benutzerordner

Thomas Rieske

Nach einem Klick auf die Weiter-Schaltfläche gelangen Sie zum Auswahldialog für persönliche Ordner der Nutzer. Diese sind per Default ausgeschlossen, was Sie auch nicht ändern sollten. Erstens würden Schnappschüsse durch den Einschluss von Benutzerordnern unnötig aufgebläht, zweitens gibt es für Ihre persönlichen Dateien und Verzeichnisse bessere Backup-Lösungen, etwa das Tool Mintbackup. Klicken Sie hier also nur auf den Weiter-Button.

Ersteinrichtung abschließen

Thomas Rieske

Damit ist die Konfiguration von Timeshift vollständig. Im letzten Fenster des Assistenten finden Sie noch einige allgemeine Informationen zum Umgang mit dem Tool. Sie können dann auf den Beenden-Button klicken.

Timeshift-Hauptfenster

Thomas Rieske

Nachdem Sie den Assistenten beendet haben, gelangen Sie zum Hauptfenster von Timeshift. Falls bereits Schnappschüsse erstellt wurden, finden Sie diese im mittleren Fensterbereich. Über die Symbolleiste oben können Sie unter anderem Snapshots manuell anlegen, wiederherstellen und löschen.

Produkte: Der Trick funktioniert mit Linux Mint 22 Cinnamon. In anderen Versionen und Desktop-Umgebungen kann die Vorgehensweise abweichen.

Linux Mint: Systemschnappschüsse mit Timeshift erstellen​ Weiterlesen »

Bitcoin und Co.: Wann muss ich bei Krypto-Verkäufen Steuern zahlen?​

Allgemein

tungtaechit/Shutterstock.com In Zeiten von Bitcoin und Co. hat der Traum vom schnellen Geld für viele Anleger neue Dimensionen erreicht: Wer beispielsweise im März 2020 für 10.000 Euro Bitcoin kaufte, konnte seine Anlage bereits im April 2021 für über 100.000 Euro verkaufen – das entspricht einer Wertsteigerung von fast 1.000 Prozent. Seit der Wahl von Donald Trump zum US-Präsidenten am 5. November 2024 klettert der Bitcoin beinahe ständig auf neue Höchstwerte. Das Besondere an diesem Fall: Man musste nicht einmal Steuern zahlen. Bei anderen Krypto-Gewinnen hingegen fallen jedoch ganz normale Steuern an, was Anleger unbedingt beachten sollten. Andernfalls droht Ärger mit dem Finanzamt und empfindliche Strafen von bis zu zehn Jahren Haft. Aber wann und wie versteuert man Krypto-Gewinne? Das klären wir in diesem Beitrag. Der Bundesfinanzhof hat entschieden: Krypto-Gewinne sind steuerpflichtig – in bestimmten Fällen Anfang 2023 hat sich der Bundesfinanzhof in München mit der Frage beschäftigt, ob Anleger Gewinne aus Krypto-Verkäufen tatsächlich versteuern müssen. Zuvor hatte ein Krypto-Anleger gegen die gängige Praxis der Finanzämter geklagt, die für solche Gewinne Steuern einforderten. Bislang hatte der Fiskus Bitcoin als Wirtschaftsgut eingestuft und entsprechende Veräußerungsgewinne als normales Einkommen betrachtet, was die Erhebung von Einkommenssteuer zur Folge hatte. Das Gericht entschied, dass diese Praxis rechtens ist und beibehalten werden muss; Gewinne aus Krypto-Verkäufen müssen also versteuert werden. Es gibt jedoch eine entscheidende Ausnahme, auf die wir im nächsten Absatz eingehen werden. Wichtig: Auch wenn Privatanleger Bitcoins in Altcoins tauschen (oder Altcoins in Bitcoin), gilt dies als privates Veräußerungsgeschäft und muss in der Steuererklärung angegeben werden. Krypto-Gewinne steuerfrei behalten? Das geht – nach einem Jahr Wer Krypto-Gewinne nicht versteuern will, kann das tun – allerdings erst, wenn er die Digitalmünzen mindestens ein Jahr lang gehalten hat. Nach genau 365 Tagen kann man Gewinne aus dem Verkauf von Bitcoin und Co. in voller Höhe einstreichen, man spricht dann vom Ablauf der “Spekulationsfrist”. Das Problem dabei: Wenn Krypto-Kurse auf lukrative Höhen klettern und man beim Verkauf also satte Gewinne erzielen könnte, gleichzeitig aber die Spekulationsfrist noch nicht abgelaufen ist, kann man mächtig in die Zwickmühle geraten. Wartet man nämlich noch den Ablauf der 365 Tage ab, könnten die Kurse ja wieder fallen und die schönen Gewinne zunichtemachen. Die Entscheidung lautet dann: Entweder mit sicherem Gewinn verkaufen und mitunter kräftig Steuern zahlen oder noch etwas warten, die Steuer sparen, aber Kursverluste riskieren. Bitcoin-Kurs bei Coingecko: Auch astronomische Krypto-Gewinne darf man vollständig behalten – wenn man es richtig anstellt.Coingecko Steuerschuld bei Kryptos ist abhängig vom Jahreseinkommen Wie hoch die Steuerpflicht bei Gewinnen aus Krypto-Verkäufen ausfällt, kommt ganz auf den persönlichen Steuersatz an. Der wird beim Veräußern innerhalb des ersten Jahres nämlich vom Finanzamt angesetzt. Sind die Gewinne sehr hoch, steigt entsprechend auch der einkommensabhängige Steuersatz – wenn er aufgrund von anderen Einkommen nicht ohnehin schon im Spitzenfeld liegt. Versteuern muss man aber nur den tatsächlichen Gewinn beim Verkauf der Währung, also nicht die gesamte Verkaufssumme. Der Gewinn berechnet sich ganz einfach aus der Differenz zwischen dem Anschaffungspreis und dem erzielten Erlös beim Verkaufen. Eine Rechenhilfe dazu finden Sie weiter unten in den FAQ. Bitte beachten: Auch für Gewinne aus Kryptowährungen gilt seit 2024 ein Freibetrag von 1.000 Euro (vorher: 600 Euro). Solange Gewinne diese Grenze unterschreiten, muss man darauf keine Steuern zahlen. Vorteil bei Kryptos: Keine Abgeltungssteuer Bitcoin, Ethereum, Dogecoin und Co. werden vom Fiskus als privates Geld eingestuft. Damit werden solche Anlagen beziehungsweise Gewinne, die man damit erzielt, ausdrücklich anders bewertet und eingestuft als etwa Aktiengewinne: Letztere gelten als Kapitalertrag und unterliegen deswegen der Kapitalertragssteuer. Diese Steuer fällt bei Krypto-Gewinnen nicht an. Mini FAQ zum Thema Die wichtigsten Fragen zum Thema haben wir hier zusammengefasst. Was ist, wenn man Bitcoin oder Altcoin mit Verlust verkauft? Auch das kann in der Steuererklärung relevant sein: Verluste aus Krypto-Investitionen können mit Gewinnen aus anderen privaten Veräußerungsgeschäften verrechnet werden. Dies kann zu einem steuerlichen Vorteil führen – allerdings nur, wenn die Verluste innerhalb des ersten “Besitzjahres” entstehen. Andernfalls entfällt die steuerliche Relevanz, ähnlich wie bei Veräußerungen mit Gewinn. Altcoins – was ist das? Als Altcoin bezeichnet man alle Kryptowährungen, die nicht Bitcoin sind. Weil der Bitcoin den Kryptomarkt erst ins Rollen gebracht hat, ist er nach wie vor die wichtigste Digitalwährung – sogar so wichtig, dass man alle Alternativen dazu mit einer eigenen Kategorie abgrenzt, nämlich den Altcoins. Wie lange hat man 2024 Zeit für die Steuererklärung? Die Frist läuft dieses Jahr bis zum 2. September 2024. Lässt man die Erklärung von einem Steuerberater anfertigen, dann verlängert sich die Frist bis zum 2. Juni 2025. Wo trägt man solche Gewinne in der Steuererklärung ein? Dafür ist die Anlage SO (sonstige Einkünfte) da. Wie läuft das mit der Freigrenze? Die Freigrenze darf man hier nicht mit dem Freibetrag verwechseln. Denn sobald der Gewinn beim Verkauf von Kryptos die Marke von 1.000 Euro übersteigt, muss der gesamte Betrag (Gewinn) versteuert werden. Wie viel Steuern muss ich auf meine Krypto-Gewinne zahlen? Die fällige Einkommensteuer kann man beispielsweise beim BMF ganz schnell ausrechnen.Foundry Wenn man Kryptowährungen verkauft, bevor man sie ein Jahr lang im Wallet gehalten hat, und wenn der Gewinn die Freigrenze überschreitet, dann werden die Gewinne wie Einkommen betrachtet und versteuert. In Deutschland gilt 2024 ein Grundfreibetrag von 11.604 Euro. Nur das Einkommen, das darüber liegt, muss versteuert werden. Der Spitzensteuersatz liegt aktuell bei 42 Prozent, er wird für Einkommen ab 66.761 Euro im Jahr angesetzt. Ihre Einkommenssteuer können Sie beim Bundesfinanzamt ganz einfach berechnen. Was passiert, wenn man einfach keine Steuern auf Krypto-Gewinne zahlt? Wer Gewinne aus dem Verkauf von Kryptowährungen widerrechtlich weder meldet noch versteuert, der begeht Steuerhinterziehung. Strafen dafür können empfindlich ausfallen: Laut § 370 Abs. 1 der Abgabenordnung (AO) drohen in schweren Fällen Freiheitsstrafen von bis zu 10 Jahren. Dazu kommt eine Rückzahlung der geschuldeten Steuer, Zinsen und mitunter Säumniszuschläge. Fazit / Zusammenfassung Gewinne aus Verkäufen von Kryptowährungen, die man mindestens 365 Tage lang im Wallet gehalten hat, sind steuerfrei. Vor dem Ablauf dieser Frist zählen Gewinne aus dem Verkauf als Einkommen und müssen entsprechend gemeldet und versteuert werden. Wer das nicht macht, begeht Steuerhinterziehung und riskiert empfindliche Strafen. Beim Verkauf vor Ablauf der Frist kann man eine Freigrenze von 1.000 Euro geltend machen. Auch der Tausch von Bitcoin in Altcoin und andersherum kann steuerpflichtig sein. Wer mit Verlusten verkauft, kann auch das gegebenenfalls steuerlich geltend machen. Finanzrechtlich gilt der Verkauf von Kryptos als privates Veräußerungsgeschäft. Auch wer Waren (innerhalb der Ein-Jahres-Frist) mit Bitcoin kauft, muss auf korrektes Versteuern achten. (PC-Welt) 

Bitcoin und Co.: Wann muss ich bei Krypto-Verkäufen Steuern zahlen?​ tungtaechit/Shutterstock.com

In Zeiten von Bitcoin und Co. hat der Traum vom schnellen Geld für viele Anleger neue Dimensionen erreicht: Wer beispielsweise im März 2020 für 10.000 Euro Bitcoin kaufte, konnte seine Anlage bereits im April 2021 für über 100.000 Euro verkaufen – das entspricht einer Wertsteigerung von fast 1.000 Prozent. Seit der Wahl von Donald Trump zum US-Präsidenten am 5. November 2024 klettert der Bitcoin beinahe ständig auf neue Höchstwerte.

Das Besondere an diesem Fall: Man musste nicht einmal Steuern zahlen. Bei anderen Krypto-Gewinnen hingegen fallen jedoch ganz normale Steuern an, was Anleger unbedingt beachten sollten. Andernfalls droht Ärger mit dem Finanzamt und empfindliche Strafen von bis zu zehn Jahren Haft. Aber wann und wie versteuert man Krypto-Gewinne? Das klären wir in diesem Beitrag.

Der Bundesfinanzhof hat entschieden: Krypto-Gewinne sind steuerpflichtig – in bestimmten Fällen

Anfang 2023 hat sich der Bundesfinanzhof in München mit der Frage beschäftigt, ob Anleger Gewinne aus Krypto-Verkäufen tatsächlich versteuern müssen. Zuvor hatte ein Krypto-Anleger gegen die gängige Praxis der Finanzämter geklagt, die für solche Gewinne Steuern einforderten.

Bislang hatte der Fiskus Bitcoin als Wirtschaftsgut eingestuft und entsprechende Veräußerungsgewinne als normales Einkommen betrachtet, was die Erhebung von Einkommenssteuer zur Folge hatte. Das Gericht entschied, dass diese Praxis rechtens ist und beibehalten werden muss; Gewinne aus Krypto-Verkäufen müssen also versteuert werden. Es gibt jedoch eine entscheidende Ausnahme, auf die wir im nächsten Absatz eingehen werden.

Wichtig: Auch wenn Privatanleger Bitcoins in Altcoins tauschen (oder Altcoins in Bitcoin), gilt dies als privates Veräußerungsgeschäft und muss in der Steuererklärung angegeben werden.

Krypto-Gewinne steuerfrei behalten? Das geht – nach einem Jahr

Wer Krypto-Gewinne nicht versteuern will, kann das tun – allerdings erst, wenn er die Digitalmünzen mindestens ein Jahr lang gehalten hat. Nach genau 365 Tagen kann man Gewinne aus dem Verkauf von Bitcoin und Co. in voller Höhe einstreichen, man spricht dann vom Ablauf der “Spekulationsfrist”.

Das Problem dabei: Wenn Krypto-Kurse auf lukrative Höhen klettern und man beim Verkauf also satte Gewinne erzielen könnte, gleichzeitig aber die Spekulationsfrist noch nicht abgelaufen ist, kann man mächtig in die Zwickmühle geraten.

Wartet man nämlich noch den Ablauf der 365 Tage ab, könnten die Kurse ja wieder fallen und die schönen Gewinne zunichtemachen. Die Entscheidung lautet dann: Entweder mit sicherem Gewinn verkaufen und mitunter kräftig Steuern zahlen oder noch etwas warten, die Steuer sparen, aber Kursverluste riskieren.

Bitcoin-Kurs bei Coingecko: Auch astronomische Krypto-Gewinne darf man vollständig behalten – wenn man es richtig anstellt.Coingecko

Steuerschuld bei Kryptos ist abhängig vom Jahreseinkommen

Wie hoch die Steuerpflicht bei Gewinnen aus Krypto-Verkäufen ausfällt, kommt ganz auf den persönlichen Steuersatz an. Der wird beim Veräußern innerhalb des ersten Jahres nämlich vom Finanzamt angesetzt. Sind die Gewinne sehr hoch, steigt entsprechend auch der einkommensabhängige Steuersatz – wenn er aufgrund von anderen Einkommen nicht ohnehin schon im Spitzenfeld liegt.

Versteuern muss man aber nur den tatsächlichen Gewinn beim Verkauf der Währung, also nicht die gesamte Verkaufssumme. Der Gewinn berechnet sich ganz einfach aus der Differenz zwischen dem Anschaffungspreis und dem erzielten Erlös beim Verkaufen. Eine Rechenhilfe dazu finden Sie weiter unten in den FAQ.

Bitte beachten: Auch für Gewinne aus Kryptowährungen gilt seit 2024 ein Freibetrag von 1.000 Euro (vorher: 600 Euro). Solange Gewinne diese Grenze unterschreiten, muss man darauf keine Steuern zahlen.

Vorteil bei Kryptos: Keine Abgeltungssteuer

Bitcoin, Ethereum, Dogecoin und Co. werden vom Fiskus als privates Geld eingestuft. Damit werden solche Anlagen beziehungsweise Gewinne, die man damit erzielt, ausdrücklich anders bewertet und eingestuft als etwa Aktiengewinne: Letztere gelten als Kapitalertrag und unterliegen deswegen der Kapitalertragssteuer. Diese Steuer fällt bei Krypto-Gewinnen nicht an.

Mini FAQ zum Thema

Die wichtigsten Fragen zum Thema haben wir hier zusammengefasst.

Was ist, wenn man Bitcoin oder Altcoin mit Verlust verkauft?

Auch das kann in der Steuererklärung relevant sein: Verluste aus Krypto-Investitionen können mit Gewinnen aus anderen privaten Veräußerungsgeschäften verrechnet werden. Dies kann zu einem steuerlichen Vorteil führen – allerdings nur, wenn die Verluste innerhalb des ersten “Besitzjahres” entstehen. Andernfalls entfällt die steuerliche Relevanz, ähnlich wie bei Veräußerungen mit Gewinn.

Altcoins – was ist das?

Als Altcoin bezeichnet man alle Kryptowährungen, die nicht Bitcoin sind. Weil der Bitcoin den Kryptomarkt erst ins Rollen gebracht hat, ist er nach wie vor die wichtigste Digitalwährung – sogar so wichtig, dass man alle Alternativen dazu mit einer eigenen Kategorie abgrenzt, nämlich den Altcoins.

Wie lange hat man 2024 Zeit für die Steuererklärung?

Die Frist läuft dieses Jahr bis zum 2. September 2024. Lässt man die Erklärung von einem Steuerberater anfertigen, dann verlängert sich die Frist bis zum 2. Juni 2025.

Wo trägt man solche Gewinne in der Steuererklärung ein?

Dafür ist die Anlage SO (sonstige Einkünfte) da.

Wie läuft das mit der Freigrenze?

Die Freigrenze darf man hier nicht mit dem Freibetrag verwechseln. Denn sobald der Gewinn beim Verkauf von Kryptos die Marke von 1.000 Euro übersteigt, muss der gesamte Betrag (Gewinn) versteuert werden.

Wie viel Steuern muss ich auf meine Krypto-Gewinne zahlen?

Die fällige Einkommensteuer kann man beispielsweise beim BMF ganz schnell ausrechnen.Foundry

Wenn man Kryptowährungen verkauft, bevor man sie ein Jahr lang im Wallet gehalten hat, und wenn der Gewinn die Freigrenze überschreitet, dann werden die Gewinne wie Einkommen betrachtet und versteuert. In Deutschland gilt 2024 ein Grundfreibetrag von 11.604 Euro. Nur das Einkommen, das darüber liegt, muss versteuert werden. Der Spitzensteuersatz liegt aktuell bei 42 Prozent, er wird für Einkommen ab 66.761 Euro im Jahr angesetzt.

Ihre Einkommenssteuer können Sie beim Bundesfinanzamt ganz einfach berechnen.

Was passiert, wenn man einfach keine Steuern auf Krypto-Gewinne zahlt?

Wer Gewinne aus dem Verkauf von Kryptowährungen widerrechtlich weder meldet noch versteuert, der begeht Steuerhinterziehung. Strafen dafür können empfindlich ausfallen: Laut § 370 Abs. 1 der Abgabenordnung (AO) drohen in schweren Fällen Freiheitsstrafen von bis zu 10 Jahren. Dazu kommt eine Rückzahlung der geschuldeten Steuer, Zinsen und mitunter Säumniszuschläge.

Fazit / Zusammenfassung

Gewinne aus Verkäufen von Kryptowährungen, die man mindestens 365 Tage lang im Wallet gehalten hat, sind steuerfrei.

Vor dem Ablauf dieser Frist zählen Gewinne aus dem Verkauf als Einkommen und müssen entsprechend gemeldet und versteuert werden.

Wer das nicht macht, begeht Steuerhinterziehung und riskiert empfindliche Strafen.

Beim Verkauf vor Ablauf der Frist kann man eine Freigrenze von 1.000 Euro geltend machen.

Auch der Tausch von Bitcoin in Altcoin und andersherum kann steuerpflichtig sein.

Wer mit Verlusten verkauft, kann auch das gegebenenfalls steuerlich geltend machen.

Finanzrechtlich gilt der Verkauf von Kryptos als privates Veräußerungsgeschäft.

Auch wer Waren (innerhalb der Ein-Jahres-Frist) mit Bitcoin kauft, muss auf korrektes Versteuern achten.

(PC-Welt)

Bitcoin und Co.: Wann muss ich bei Krypto-Verkäufen Steuern zahlen?​ Weiterlesen »

Nach oben scrollen
×