Computerhaus Quickborn

März 2025

Siemens und Accenture gründen gemeinsame Business Group​

Allgemein

Auf softwaredefinierte Produkte und Fabriken soll sich die neu gegründete Accenture Siemens Business Group konzentrieren. Siemens Im Rahmen der Hannover Messe 2025 (HMI) gaben Accenture und Siemens bekannt, dass sie ihr strategische Partnerschaft intensivieren wollen. Dazu gründen die beiden Unternehmen die Accenture Siemens Business Group. Die bei Accenture angesiedelte Geschäftseinheit plant weltweit 7.000 Fachkräfte mit Fertigungs- und IT-Expertise zu beschäftigen. Die Gruppe soll softwaredefinierte Produkte und Fabriken entwickeln und dabei Industrietechnologie mit KI-gestützter Engineering- und Fertigungskompetenz verbinden. Dazu setzt die Gruppe auf die Kombination des Siemens Xcelerator-Portfolios für Automation, industrielle KI und Software sowie der Daten- und KI-Kompetenz von Accenture. Auf dies Weise will man Unternehmen dabei unterstützen, ihr Engineering und ihre Fertigung neu aufzustellen. Digitalisierung der Fertigung Für Roland Busch, Präsident und Vorstandsvorsitzender der Siemens AG, liegen die Vorteile dieser Partnerschaft auf der Hand: „Zwei Marktführer bringen ihre einzigartigen Fähigkeiten zusammen: die Technologie, den Datenzugang und das ausgeprägte Fachwissen für Software, Automation und Industrie-KI – und Accentures Stärke, Daten und KI im Engineering und in der Fertigung einzusetzen.“ Die Bedeutung der Zusammenarbeit unterstreicht Julie Sweet, CEO und Chair von Accenture: „Engineering und Fertigung markieren das nächste Kapitel der Digitalisierung.“ Die beiden Unternehmen arbeiten schon seit längerem zusammen. Um den Erfolg dieser Kooperation zu belegen, nennen die Partner zwei Projekte als Beispiel: Die KION AG Hier vereinheitlichen und optimieren Accenture und Siemens zentrale Engineering-Prozesse mit Siemens Teamcenter als einheitlichem System für das Produktlebenszyklus-Management. Dank Simulationsfähigkeiten, generativer KI und Model-Based-Systems-Engineering (MBSE) kann KION seine Engineerung-Prozesse neu denken und weiterentwickeln. Navantia Für das spanische Staatsunternehmen, das im zivilen und militärischen Schiffsbau aktiv ist, haben Accenture und Siemens eine neue Produktentwicklungsplattform mit Siemens Teamcenter und Capital Logic Designer entwickelt. Die Plattform ermöglicht,  Digitale Zwillinge der Navantia-Schiffe zu erstellen. Die Digital Twins verbessern das Produktdesign und reduzieren die Gesamtkonstruktions- sowie Fertigungskosten des Unternehmens um 20 Prozent. Das Portfolio Grundsätzlich soll die Accenture Siemens Business Group Lösungen für softwaredefinierte Produkte und Fabriken entwickeln. Als Zielgruppe sieht man die Branchen Automobil, Elektronik, Halbleiter, Konsumgüter, Luft- und Raumfahrt, Maschinenbau, Transportwesen und Verteidigung. Engineering-Lösungen: Die Gruppe konzentriert sich darauf, die Engineering- und F&E-Modelle ihrer Kunden neu aufzustellen. Dazu zählt der Aufbau globaler Engineering-Kompetenzzentren und die Unterstützung beim Entwickeln softwaredefinierter Produkte. Darüber hinaus optimiert die Gruppe den Einsatz von MBSE und treibt eine raschere Verbreitung und Umsetzung des Software-Defined-Vehicle-(SDV-)Frameworks für Automobilhersteller voran, das Accenture und Siemens jüngst vorgestellt haben. Fertigungslösungen: Hier will man Unternehmen dabei unterstützen, Fertigungssteuerungssysteme für die Echtzeitüberwachung und -kontrolle von Produktionsprozessen zu implementieren, zu harmonisieren und zu migrieren. Durch die Anwendung von Prinzipien aus der IT treibt soll die KI-gestützte Automation und Fertigung bei Kunden vorangetrieben werden. Zusätzlich bietet die Group gemanagte Sicherheitsdienste an, mit denen Organisationen ihre operative Technologie (OT) und kritische Engineering- und Fertigungssysteme vor Cyber-Bedrohungen schützen können. Die Dienste beinhalten Accentures Managed-Extended-Detection-and-Response-(MxDR-)Plattform. Darüber hinaus entwickelt die Accenture Siemens Business Group Lösungen für den Kundendienst, Wartungen, Reparaturen und Generalüberholungen von Industrieanlagen. Agentic AI Ein weiteres Geschäftsfeld der Gruppe ist Agentic KI. Mittels KI-Agenten sollen industrielle Prozesse optimiert werden. Dabei stützt sich die Accenture Siemens Business Group auf Lösungen des Accenture-Geschäftsbereichs für Digital Engineering und Fertigung, Industry X. Geplant ist, Unternehmen dabei zu helfen, KI-Agenten zu erstellen, vorgefertigte Agenten und KI-Grundmodelle anzupassen – beispielsweise für Simulation und Robotik. Auf diese Weise sollen Unternehmen in die Lage versetzt werden, sämtliche KI-Komponenten, die in ihrer Organisation zum Einsatz kommen, übergreifend zu steuern. 

Siemens und Accenture gründen gemeinsame Business Group​ Auf softwaredefinierte Produkte und Fabriken soll sich die neu gegründete Accenture Siemens Business Group konzentrieren.
Siemens

Im Rahmen der Hannover Messe 2025 (HMI) gaben Accenture und Siemens bekannt, dass sie ihr strategische Partnerschaft intensivieren wollen. Dazu gründen die beiden Unternehmen die Accenture Siemens Business Group. Die bei Accenture angesiedelte Geschäftseinheit plant weltweit 7.000 Fachkräfte mit Fertigungs- und IT-Expertise zu beschäftigen.

Die Gruppe soll softwaredefinierte Produkte und Fabriken entwickeln und dabei Industrietechnologie mit KI-gestützter Engineering- und Fertigungskompetenz verbinden. Dazu setzt die Gruppe auf die Kombination des Siemens Xcelerator-Portfolios für Automation, industrielle KI und Software sowie der Daten- und KI-Kompetenz von Accenture. Auf dies Weise will man Unternehmen dabei unterstützen, ihr Engineering und ihre Fertigung neu aufzustellen.

Digitalisierung der Fertigung

Für Roland Busch, Präsident und Vorstandsvorsitzender der Siemens AG, liegen die Vorteile dieser Partnerschaft auf der Hand: „Zwei Marktführer bringen ihre einzigartigen Fähigkeiten zusammen: die Technologie, den Datenzugang und das ausgeprägte Fachwissen für Software, Automation und Industrie-KI – und Accentures Stärke, Daten und KI im Engineering und in der Fertigung einzusetzen.“ Die Bedeutung der Zusammenarbeit unterstreicht Julie Sweet, CEO und Chair von Accenture: „Engineering und Fertigung markieren das nächste Kapitel der Digitalisierung.“

Die beiden Unternehmen arbeiten schon seit längerem zusammen. Um den Erfolg dieser Kooperation zu belegen, nennen die Partner zwei Projekte als Beispiel:

Die KION AG

Hier vereinheitlichen und optimieren Accenture und Siemens zentrale Engineering-Prozesse mit Siemens Teamcenter als einheitlichem System für das Produktlebenszyklus-Management. Dank Simulationsfähigkeiten, generativer KI und Model-Based-Systems-Engineering (MBSE) kann KION seine Engineerung-Prozesse neu denken und weiterentwickeln.

Navantia

Für das spanische Staatsunternehmen, das im zivilen und militärischen Schiffsbau aktiv ist, haben Accenture und Siemens eine neue Produktentwicklungsplattform mit Siemens Teamcenter und Capital Logic Designer entwickelt. Die Plattform ermöglicht,  Digitale Zwillinge der Navantia-Schiffe zu erstellen. Die Digital Twins verbessern das Produktdesign und reduzieren die Gesamtkonstruktions- sowie Fertigungskosten des Unternehmens um 20 Prozent.

Das Portfolio

Grundsätzlich soll die Accenture Siemens Business Group Lösungen für softwaredefinierte Produkte und Fabriken entwickeln. Als Zielgruppe sieht man die Branchen Automobil, Elektronik, Halbleiter, Konsumgüter, Luft- und Raumfahrt, Maschinenbau, Transportwesen und Verteidigung.

Engineering-Lösungen:

Die Gruppe konzentriert sich darauf, die Engineering- und F&E-Modelle ihrer Kunden neu aufzustellen. Dazu zählt der Aufbau globaler Engineering-Kompetenzzentren und die Unterstützung beim Entwickeln softwaredefinierter Produkte. Darüber hinaus optimiert die Gruppe den Einsatz von MBSE und treibt eine raschere Verbreitung und Umsetzung des Software-Defined-Vehicle-(SDV-)Frameworks für Automobilhersteller voran, das Accenture und Siemens jüngst vorgestellt haben.

Fertigungslösungen:

Hier will man Unternehmen dabei unterstützen, Fertigungssteuerungssysteme für die Echtzeitüberwachung und -kontrolle von Produktionsprozessen zu implementieren, zu harmonisieren und zu migrieren. Durch die Anwendung von Prinzipien aus der IT treibt soll die KI-gestützte Automation und Fertigung bei Kunden vorangetrieben werden. Zusätzlich bietet die Group gemanagte Sicherheitsdienste an, mit denen Organisationen ihre operative Technologie (OT) und kritische Engineering- und Fertigungssysteme vor Cyber-Bedrohungen schützen können. Die Dienste beinhalten Accentures Managed-Extended-Detection-and-Response-(MxDR-)Plattform.

Darüber hinaus entwickelt die Accenture Siemens Business Group Lösungen für den Kundendienst, Wartungen, Reparaturen und Generalüberholungen von Industrieanlagen.

Agentic AI

Ein weiteres Geschäftsfeld der Gruppe ist Agentic KI. Mittels KI-Agenten sollen industrielle Prozesse optimiert werden. Dabei stützt sich die Accenture Siemens Business Group auf Lösungen des Accenture-Geschäftsbereichs für Digital Engineering und Fertigung, Industry X.

Geplant ist, Unternehmen dabei zu helfen, KI-Agenten zu erstellen, vorgefertigte Agenten und KI-Grundmodelle anzupassen – beispielsweise für Simulation und Robotik. Auf diese Weise sollen Unternehmen in die Lage versetzt werden, sämtliche KI-Komponenten, die in ihrer Organisation zum Einsatz kommen, übergreifend zu steuern.

Siemens und Accenture gründen gemeinsame Business Group​ Weiterlesen »

Immer weniger IT-Jobs in Deutschland​

Allgemein

width=”4923″ height=”2769″ sizes=”(max-width: 4923px) 100vw, 4923px”>Das Job-Angebot für IT-Profis schrumpft. Der Grund: die wirtschaftlich angespannte Situation in vielen Unternehmen. Rawpixel.com – shutterstock.com Die wirtschaftliche Flaute schlägt auf den IT-Job-Markt durch. 2024 ist das Stellenangebot für Informatikerinnen und Informatiker erstmals seit Jahren deutlich gesunken. Wirtschaft und Verwaltung schrieben nur noch 780.000 IT-Jobs aus – zehn Prozent weniger als im Jahr zuvor. Das ist das zentrale Ergebnisse der jüngsten Stellenmarkt-Analyse der Berliner Personalmarktforschung Index Research, die sich als Quelle auf die eigene Stellenanzeigen-Datenbank beruft.   Bereits 2023 sank die Nachfrage nach IT-Profis um ein Prozent auf 868.000 Jobs leicht. 2022 lag das Jobangebot mit über 876.000 Stellenangeboten noch 21 Prozent über dem Niveau von 2021. Die meisten IT-Jobs gab es Index Research zufolge im vergangenen Jahr noch in der ITK-Branche selbst (über 229.000 Stellen). Dahinter folgen die freiberuflichen, wissenschaftlichen und technischen Dienstleister (fast 119.000 Stellen) sowie die Industrie (mehr als 94.000 Stellen).  IT-Jobmarkt gerät in Schieflage Offenbar macht die unsichere ökonomische Gesamtlage den Verantwortlichen in den Firmen zu schaffen. „Die wirtschaftlich angespannte Situation in vielen Unternehmen schlägt sich auch in der Nachfrage nach Informatikern nieder, auch wenn die Digitalisierung von Geschäftsprozessen und Produkten nach wie vor auf der Tagesordnung steht“, analysiert Jürgen Grenz, CEO der Index Gruppe, die Studienergebnisse. Studium sticht Ausbildung   Unternehmen bevorzugen Informatiker mit akademischem Abschluss. 2024 richteten sich über 351.000 IT-Stellen explizit an Fachkräfte mit Hochschulabschluss. Für Informatiker mit dualer Berufsausbildung gab es rund 147.000 Jobangebote.   Zugleich setzt man trotz der schwierigen wirtschaftlichen Lage klar auf Nachwuchsförderung: 2024 haben Unternehmen und öffentliche Einrichtungen mehr als 60.000 Ausbildungsplätze sowie fast 37.000 Stellen für Praktikanten und Werkstudenten ausgeschrieben.   

Immer weniger IT-Jobs in Deutschland​ width=”4923″ height=”2769″ sizes=”(max-width: 4923px) 100vw, 4923px”>Das Job-Angebot für IT-Profis schrumpft. Der Grund: die wirtschaftlich angespannte Situation in vielen Unternehmen. Rawpixel.com – shutterstock.com

Die wirtschaftliche Flaute schlägt auf den IT-Job-Markt durch. 2024 ist das Stellenangebot für Informatikerinnen und Informatiker erstmals seit Jahren deutlich gesunken. Wirtschaft und Verwaltung schrieben nur noch 780.000 IT-Jobs aus – zehn Prozent weniger als im Jahr zuvor. Das ist das zentrale Ergebnisse der jüngsten Stellenmarkt-Analyse der Berliner Personalmarktforschung Index Research, die sich als Quelle auf die eigene Stellenanzeigen-Datenbank beruft.  

Bereits 2023 sank die Nachfrage nach IT-Profis um ein Prozent auf 868.000 Jobs leicht. 2022 lag das Jobangebot mit über 876.000 Stellenangeboten noch 21 Prozent über dem Niveau von 2021. Die meisten IT-Jobs gab es Index Research zufolge im vergangenen Jahr noch in der ITK-Branche selbst (über 229.000 Stellen). Dahinter folgen die freiberuflichen, wissenschaftlichen und technischen Dienstleister (fast 119.000 Stellen) sowie die Industrie (mehr als 94.000 Stellen). 

IT-Jobmarkt gerät in Schieflage

Offenbar macht die unsichere ökonomische Gesamtlage den Verantwortlichen in den Firmen zu schaffen. „Die wirtschaftlich angespannte Situation in vielen Unternehmen schlägt sich auch in der Nachfrage nach Informatikern nieder, auch wenn die Digitalisierung von Geschäftsprozessen und Produkten nach wie vor auf der Tagesordnung steht“, analysiert Jürgen Grenz, CEO der Index Gruppe, die Studienergebnisse.

Studium sticht Ausbildung  

Unternehmen bevorzugen Informatiker mit akademischem Abschluss. 2024 richteten sich über 351.000 IT-Stellen explizit an Fachkräfte mit Hochschulabschluss. Für Informatiker mit dualer Berufsausbildung gab es rund 147.000 Jobangebote.  

Zugleich setzt man trotz der schwierigen wirtschaftlichen Lage klar auf Nachwuchsförderung: 2024 haben Unternehmen und öffentliche Einrichtungen mehr als 60.000 Ausbildungsplätze sowie fast 37.000 Stellen für Praktikanten und Werkstudenten ausgeschrieben.  

Immer weniger IT-Jobs in Deutschland​ Weiterlesen »

Grafik-Chatbots gehen in Flammen auf​

Allgemein

Eine immer größere Nachfrage nach KI-Modellen, insbesondere bei Grafik-Chatbots, bereitet ihren Herstellern zunehmend Probleme. shutterstock – Zoomik Neue generative KI-Modelle (GenAI), die in der Woche vom 24. März 2025 von Google und OpenAI eingeführt wurden, setzen die Rechenzentren beider Unternehmen unter Druck. OpenAI-CEO Sam Altman kündigte deshalb auf der Social-Media-Plattform X an, dass das Unternehmen die Nutzung von GPUs vorübergehend einschränken müsse. Grund ist, dass die Nachfrage nach dem neuen 4o-Bilderzeugungstool überwältigend sei. OpenAI, das auf Nvidia-GPUs setzt, hatte bereits in der Vergangenheit mit Überlastungen zu kämpfen. Erneute Kapazitätsengpässe Besserung ist erst einmal nicht in Sicht, wie das Unternehmen ankündigte. Bis das System effizienter wird, soll der Dienst nur eingeschränkt verfügbar sein. Zugleich ist es nicht das erste Mal, das die Macher von ChatGPT mit Kapazitätsproblemen bei neuen Modellen zu kämpfen haben. Die hohe Nachfrage nach Künstlicher Intelligenz (KI) überlaste das System, besonders die rechenintensive Bilderstellung, erklärte Analyst Bob O’Donnell von Technalysis. Zudem können Nvidia-GPUs, sobald sie überhitzen oder zu stark belastet sind, ihre Leistung drosseln, so der Experte. Mehr Anbieter, weniger Ausfallzeiten Einen Ausweg aus der Misere stellt Gennady Pekhimenko, CEO von CentML, einem kanadischen Unternehmen das KI-Dienste auf Nvidia-Grafikprozessoren anbietet, vor: OpenAI könnte die Nachfrage durch Modellverkleinerung oder Code-Optimierung besser bewältigen. Für einige Anwendungsfälle würden seiner Meinung nach kleinere oder Open-Source-Modelle ausreichen. Unternehmen könnten zudem Rechenkapazitäten von verschiedenen Anbietern beziehen, um Ausfallzeiten zu vermeiden. Derzeit gebe es keine GPU-Knappheit, die das KI-Wachstum behindere, so der Assistenzprofessor für Computerwissenschaften an der Universität von Toronto. Cleveres Marketing oder Auftakt für eigene Projekte Altmans Kommentar über „schmelzende“ GPUs könnte allerdings auch Marketing für OpenAIs neue Bilderzeugungsmodelle gewesen sein, so Pekhimenko. Große Cloud-Anbieter investieren Milliarden in Rechenzentren, während die US-Regierung 500 Milliarden Dollar für den KI-Ausbau ankündigte. Die Veröffentlichung von DeepSeek zeigt jedoch, dass Software-Optimierungen KI skalierbar machen, ohne ständig neue Hardware zu benötigen. Berichte deuten darauf hin, dass OpenAI eigene Rechenzentren plant, da Microsoft sich aus entsprechenden Projekten zurückzieht. Ratenlimits sollen Entlastung bringen Mit seinen Problemen ist das Start-Up nicht allein: Auch Google kämpft mit hoher Nachfrage nach seinem neuen KI-Modell Gemini 2.5. Produktleiter Logan Kilpatrick erklärte, dass das Unternehmen daran arbeite, höhere Ratenlimits für Entwickler bereitzustellen. Google nutzt dafür eigene Tensor Processing Units (TPUs), die speziell für Gemini optimiert sind. Die Produkte beider Unternehmen werden von Privatpersonen und Unternehmen in großem Umfang genutzt. Normalerweise dauere es aber eine Weile, bis die Hardware aufholt, um neue KI-Software effizient zu betreiben. Unbeabsichtigte Unterbrechungen können laut Analysten zudem die Produktivität von Unternehmen beeinträchtigen. 

Grafik-Chatbots gehen in Flammen auf​ Eine immer größere Nachfrage nach KI-Modellen, insbesondere bei Grafik-Chatbots, bereitet ihren Herstellern zunehmend Probleme.
shutterstock – Zoomik

Neue generative KI-Modelle (GenAI), die in der Woche vom 24. März 2025 von Google und OpenAI eingeführt wurden, setzen die Rechenzentren beider Unternehmen unter Druck.

OpenAI-CEO Sam Altman kündigte deshalb auf der Social-Media-Plattform X an, dass das Unternehmen die Nutzung von GPUs vorübergehend einschränken müsse. Grund ist, dass die Nachfrage nach dem neuen 4o-Bilderzeugungstool überwältigend sei. OpenAI, das auf Nvidia-GPUs setzt, hatte bereits in der Vergangenheit mit Überlastungen zu kämpfen.

Erneute Kapazitätsengpässe

Besserung ist erst einmal nicht in Sicht, wie das Unternehmen ankündigte. Bis das System effizienter wird, soll der Dienst nur eingeschränkt verfügbar sein. Zugleich ist es nicht das erste Mal, das die Macher von ChatGPT mit Kapazitätsproblemen bei neuen Modellen zu kämpfen haben.

Die hohe Nachfrage nach Künstlicher Intelligenz (KI) überlaste das System, besonders die rechenintensive Bilderstellung, erklärte Analyst Bob O’Donnell von Technalysis. Zudem können Nvidia-GPUs, sobald sie überhitzen oder zu stark belastet sind, ihre Leistung drosseln, so der Experte.

Mehr Anbieter, weniger Ausfallzeiten

Einen Ausweg aus der Misere stellt Gennady Pekhimenko, CEO von CentML, einem kanadischen Unternehmen das KI-Dienste auf Nvidia-Grafikprozessoren anbietet, vor: OpenAI könnte die Nachfrage durch Modellverkleinerung oder Code-Optimierung besser bewältigen. Für einige Anwendungsfälle würden seiner Meinung nach kleinere oder Open-Source-Modelle ausreichen.

Unternehmen könnten zudem Rechenkapazitäten von verschiedenen Anbietern beziehen, um Ausfallzeiten zu vermeiden. Derzeit gebe es keine GPU-Knappheit, die das KI-Wachstum behindere, so der Assistenzprofessor für Computerwissenschaften an der Universität von Toronto.

Cleveres Marketing oder Auftakt für eigene Projekte

Altmans Kommentar über „schmelzende“ GPUs könnte allerdings auch Marketing für OpenAIs neue Bilderzeugungsmodelle gewesen sein, so Pekhimenko.

Große Cloud-Anbieter investieren Milliarden in Rechenzentren, während die US-Regierung 500 Milliarden Dollar für den KI-Ausbau ankündigte. Die Veröffentlichung von DeepSeek zeigt jedoch, dass Software-Optimierungen KI skalierbar machen, ohne ständig neue Hardware zu benötigen.

Berichte deuten darauf hin, dass OpenAI eigene Rechenzentren plant, da Microsoft sich aus entsprechenden Projekten zurückzieht.

Ratenlimits sollen Entlastung bringen

Mit seinen Problemen ist das Start-Up nicht allein: Auch Google kämpft mit hoher Nachfrage nach seinem neuen KI-Modell Gemini 2.5. Produktleiter Logan Kilpatrick erklärte, dass das Unternehmen daran arbeite, höhere Ratenlimits für Entwickler bereitzustellen. Google nutzt dafür eigene Tensor Processing Units (TPUs), die speziell für Gemini optimiert sind.

Die Produkte beider Unternehmen werden von Privatpersonen und Unternehmen in großem Umfang genutzt. Normalerweise dauere es aber eine Weile, bis die Hardware aufholt, um neue KI-Software effizient zu betreiben. Unbeabsichtigte Unterbrechungen können laut Analysten zudem die Produktivität von Unternehmen beeinträchtigen.

Grafik-Chatbots gehen in Flammen auf​ Weiterlesen »

Gartner: GenAI-Boom verliert an Tempo​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2447740517.jpg?quality=50&strip=all 7373w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2447740517.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2447740517.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2447740517.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2447740517.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2447740517.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2447740517.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2447740517.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2447740517.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2447740517.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2447740517.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Während Unternehmen ihre eigenen GenAI-Aktivitäten auf den Prüfstand stellen, spielen KI-fähige Devices laut Gartner eine immer größere Rolle. Shutterstock/DC Studio Laut einer Prognose von Gartner werden sich die weltweiten Ausgaben für generative künstliche Intelligenz (GenAI) im Jahr 2025 voraussichtlich auf 644 Milliarden Dollar summieren. Im Vergleich zum Vorjahr (365 Milliarden Dollar) entspricht das einer Steigerung um 76,4 Prozent. Im Jahr 2024 war der damals noch junge Markt allerdings noch um knapp 337 Prozent gewachsen.  „Aufgrund hoher Misserfolgsraten bei ersten Proof-of-Concepts (POCs) und Unzufriedenheit mit den aktuellen Ergebnissen von GenAI sinken die Erwartungen an die Fähigkeiten der Technologie“, erklärt John-David Lovelock, Distinguished VP Analyst bei Gartner. Dennoch würden die Anbieter von Foundation-Modellen jedes Jahr Milliarden investieren, um die Größe, Leistung und Zuverlässigkeit ihrer GenAI-Modelle zu verbessern. „Dieses Paradoxon wird auch 2025 und 2026 bestehen bleiben“, prognostiziert der Marktforscher.  Interne GenAI-Projekte auf dem Prüfstand  Als Konsequenz dieses Missverhältnisses geht Lovelock unter anderem davon aus, dass CIOs in diesem Jahr ambitionierte interne Projekte aus dem Jahr 2024 auf den Prüfstand stellen werden. Stattdessen würden sie sich für kommerzielle Standardlösungen entscheiden, da diese eine vorhersehbarere Implementierung und einen höheren Wert für das Unternehmen böten. „Trotz verbesserter Modelle werden CIOs ihre Aktivitäten bei POCs und Eigenentwicklungen zurückfahren und sich stattdessen auf GenAI-Funktionen von bestehenden Softwareanbietern konzentrieren“, so der Gartner-Analyst.  Dieser Trend spiegelt sich teilweise auch in den Gartner-Prognosen für die GenAI-Ausgaben im laufenden Jahr wider. So gehen die Marktforscher zwar davon aus, dass die Investitionen in allen Kern- und Teilmärkten deutlich steigen werden. Das geringste Wachstum sollen jedoch Server mit nur 33 Prozent auf 180.620 Millionen Dollar verzeichnen. Zum Vergleich: 2024 legte der Bereich, in den unter anderem die teuren Nvidia-GPUs fallen, noch um mehr als das Anderthalbfache (155 Prozent) zu.  Gartner-Prognose Weltweite GenAI Ausgaben (in Millionen Dollar)     Ausgaben 2024  Wachstum 2024 (in %)  Ausgaben 2025  Wachstum 2025 (in %) Services  10,569  177.0 27,760 162.6 Software 19,164 255.1 37,157 93.9 Devices 199,595 845.5 398,323 99.5 Servers 135,636 154.7 180,620 33.1 GenAI insgesamt 364,964 336.7 643,860 76.4  Quelle: Gartner (März 2025) Insgesamt schätzt Gartner, dass die Ausgaben für GenAI in diesem Jahr vor allem durch die Integration von KI-Funktionen in Hardware wie Server, Smartphones und PCs getrieben werden – entsprechend sollen 80 Prozent der Gesamtsumme auf Hardware entfallen.  KI wird zur Standardfunktion – ob man will oder nicht  Dabei spielen laut Lovelock zunehmend auch KI-fähige Devices aus dem Consumer-Bereich eine immer größere Rolle. Der Analyst geht davon aus, dass bis 2028 nahezu alle Geräte von Privatanwendern KI-fähig sein werden. „Allerdings“, so Lovelock, „suchen die Verbraucher nicht gezielt nach diesen Funktionen. Wenn die Hersteller KI als Standardfunktion in ihre Geräte integrieren, sind die Kunden gezwungen, sie zu kaufen.“  Grundlage für die Gartner-Studie „Forecast Alert: GenAI IT Spending, 2023-2028, Worldwide“ war die Analyse der Verkäufe von über tausend Anbietern aus dem gesamten Spektrum von GenAI-Produkten und -Services, ergänzt um Sekundärquellen. Die Studie ist für Gartner-Kunden kostenlos erhältlich.  

Gartner: GenAI-Boom verliert an Tempo​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2447740517.jpg?quality=50&strip=all 7373w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2447740517.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2447740517.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2447740517.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2447740517.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2447740517.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2447740517.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2447740517.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2447740517.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2447740517.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/10/shutterstock_2447740517.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Während Unternehmen ihre eigenen GenAI-Aktivitäten auf den Prüfstand stellen, spielen KI-fähige Devices laut Gartner eine immer größere Rolle. Shutterstock/DC Studio

Laut einer Prognose von Gartner werden sich die weltweiten Ausgaben für generative künstliche Intelligenz (GenAI) im Jahr 2025 voraussichtlich auf 644 Milliarden Dollar summieren. Im Vergleich zum Vorjahr (365 Milliarden Dollar) entspricht das einer Steigerung um 76,4 Prozent. Im Jahr 2024 war der damals noch junge Markt allerdings noch um knapp 337 Prozent gewachsen. 

„Aufgrund hoher Misserfolgsraten bei ersten Proof-of-Concepts (POCs) und Unzufriedenheit mit den aktuellen Ergebnissen von GenAI sinken die Erwartungen an die Fähigkeiten der Technologie“, erklärt John-David Lovelock, Distinguished VP Analyst bei Gartner. Dennoch würden die Anbieter von Foundation-Modellen jedes Jahr Milliarden investieren, um die Größe, Leistung und Zuverlässigkeit ihrer GenAI-Modelle zu verbessern. „Dieses Paradoxon wird auch 2025 und 2026 bestehen bleiben“, prognostiziert der Marktforscher. 

Interne GenAI-Projekte auf dem Prüfstand 

Als Konsequenz dieses Missverhältnisses geht Lovelock unter anderem davon aus, dass CIOs in diesem Jahr ambitionierte interne Projekte aus dem Jahr 2024 auf den Prüfstand stellen werden. Stattdessen würden sie sich für kommerzielle Standardlösungen entscheiden, da diese eine vorhersehbarere Implementierung und einen höheren Wert für das Unternehmen böten. „Trotz verbesserter Modelle werden CIOs ihre Aktivitäten bei POCs und Eigenentwicklungen zurückfahren und sich stattdessen auf GenAI-Funktionen von bestehenden Softwareanbietern konzentrieren“, so der Gartner-Analyst. 

Dieser Trend spiegelt sich teilweise auch in den Gartner-Prognosen für die GenAI-Ausgaben im laufenden Jahr wider. So gehen die Marktforscher zwar davon aus, dass die Investitionen in allen Kern- und Teilmärkten deutlich steigen werden. Das geringste Wachstum sollen jedoch Server mit nur 33 Prozent auf 180.620 Millionen Dollar verzeichnen. Zum Vergleich: 2024 legte der Bereich, in den unter anderem die teuren Nvidia-GPUs fallen, noch um mehr als das Anderthalbfache (155 Prozent) zu. 

Gartner-Prognose Weltweite GenAI Ausgaben (in Millionen Dollar)  

  Ausgaben 2024  Wachstum 2024 (in %)  Ausgaben 2025  Wachstum 2025 (in %) Services  10,569  177.0 27,760 162.6 Software 19,164 255.1 37,157 93.9 Devices 199,595 845.5 398,323 99.5 Servers 135,636 154.7 180,620 33.1 GenAI insgesamt 364,964 336.7 643,860 76.4  Quelle: Gartner (März 2025)

Insgesamt schätzt Gartner, dass die Ausgaben für GenAI in diesem Jahr vor allem durch die Integration von KI-Funktionen in Hardware wie Server, Smartphones und PCs getrieben werden – entsprechend sollen 80 Prozent der Gesamtsumme auf Hardware entfallen. 

KI wird zur Standardfunktion – ob man will oder nicht 

Dabei spielen laut Lovelock zunehmend auch KI-fähige Devices aus dem Consumer-Bereich eine immer größere Rolle. Der Analyst geht davon aus, dass bis 2028 nahezu alle Geräte von Privatanwendern KI-fähig sein werden. „Allerdings“, so Lovelock, „suchen die Verbraucher nicht gezielt nach diesen Funktionen. Wenn die Hersteller KI als Standardfunktion in ihre Geräte integrieren, sind die Kunden gezwungen, sie zu kaufen.“ 

Grundlage für die Gartner-Studie „Forecast Alert: GenAI IT Spending, 2023-2028, Worldwide“ war die Analyse der Verkäufe von über tausend Anbietern aus dem gesamten Spektrum von GenAI-Produkten und -Services, ergänzt um Sekundärquellen. Die Studie ist für Gartner-Kunden kostenlos erhältlich. 

Gartner: GenAI-Boom verliert an Tempo​ Weiterlesen »

G7-Staaten fallen im globalen Technologie-Rennen zurück​

Allgemein

Die einst so dominanten G7 benötigen dringend frischen Wind in MINT wie eine aktuelle Studie zeigt. shutterstock – justit Die Länder der „Gruppe der 7“ (G7) – USA, UK, Kanada, Frankreich, Deutschland, Italien, Japan – fallen bei wichtigen technologischen Wirtschaftsindikatoren wie Hightech-Exporten, der Zahl der Softwareentwickler und KI-bezogenen Patentanmeldungen zurück. Damit gefährdeten sie vor allem ihre künftige Wettbewerbsfähigkeit, so eine aktuelle Studie der in London ansässigen Personalberatung SThree und des Center for Economics and Business Research (Cebr). Einst führende Innovationszentren stünden die G7-Staaten nun zunehmend in Konkurrenz mit aufstrebenden Technologienationen, warnen die Studienmacher. Die Länder  müssten ihre Innovationskraft stärken, um ihre technologische Führungsrolle zu sichern. Besonders Zukunftsbranchen wie Künstliche Intelligenz (KI), Automatisierung und saubere Energie benötigen MINT-Fachkräfte. Länder, die gezielt in MINT-Bildung investierten, werden wirtschaftlich wachsen, während andere Gefahr laufen, zurückzufallen, so die Studie. Gesamtführer Confoederatio Helvetica Deutlich wird dies zum Beispiel anhand der Platzierung der einzelnen Länder im STEM Skills Index: Über alle Branchen verteilt, thront die Schweiz auf Platz eins, nicht zuletzt aufgrund eines starken naturwissenschaftlichen Sektors, gefolgt von Südkorea und Singapur. Der erste G7-Staat ist auf Rang sieben Großbritannien, dank einer ausgewogenen, aber in keinem bestimmten Bereich dominanten Wirtschaft. Deutschland belegt trotz eines starken Ingenieurswesens nur Platz 13 – drei Plätze hinter Österreich. Italien als schlechtestes G7-Mitglied landete auf Platz 28 von insgesamt 35. Zum Glück für die G7-Staaten wurden in der Studie einige große Volkswirtschaften wie China oder Indien mangels Daten nicht berücksichtigt. So entwickle sich Chinas MINT-Ökosystem zum einen sehr schnell, stellten die Forscher fest. Zum anderen verfüge das Land über 63 der 500 führenden Forschungseinrichtungen und werde entsprechend zunehmend als Forschungssupermacht angesehen, das massiv in diesen Bereich investiere. Schwache Grundlagen in Deutschland Für die Zukunft sieht es nicht viel besser aus: Im Bildungs-Gesamt-Ranking führt Finnland das Feld an. Spitzenreiter der G7 ist das Vereinigte Königreich auf dem neunten Platz, während Deutschland auf Platz 16 rangiert. Grund hierfür ist das schwache Abschneiden im Bereich der grundlegenden Bildung (Platz 20), während Deutschland bei der spezialisierten Bildung auf dem neunten Platz liegt. Damit schneidet unser Land nur einen Platz schlechter ab als der G7-Spitzenreiter, das Vereinigte Königreich. Die Pole Position geht an Finnland. Deutschland nur noch gehobenes Mittelmaß In der Gesamtwertung ist Deutschland, einst Europas MINT-Führer, demnach gerade einmal gehobenes Mittelmaß laut Studie: Es zeigt eine starke Leistung im Ingenieurswesen, liegt jedoch in keiner Kategorie weit vorne. Trotz hoher Investitionen in Forschung und Entwicklung (R&D) und einem robusten Ingenieurssektor, bleibt Deutschland hinter den Spitzenreitern in den Bereichen Technologie und Life Sciences zurück. Und auch die starke Position als Land der Ingenieure sei nicht sicher, hebt die Studie hervor, da ernsthafte Konkurrenz aus den nordischen sowie asiatischen Ländern in den Bereichen Technologie und Life Sciences droht. Zugleich seien13 Prozent aller MINT-Beschäftigten in Deutschland Ausländer, Tendenz steigend. Fachkräfte-Import kein Allheilmittel Ein Import von ausländischen Fachkräften kann laut den Studienmachern helfen, den Fachkräftemangel und eine alternde Bevölkerung zu kompensieren. Bei einer global alternden Bevölkerung ist dies allerdings kein Dauerzustand. Die Studie fordert deshalb Regierungen, die im MINT-Bereich führend sein wollen, auf, ein starkes inländisches Qualifikationsangebot sicherzustellen. Viele Länder scheitern daran allerdings. Besonders das tertiäre Bildungssystem müsse agiler werden, um die gefragten Kompetenzen zu vermitteln, so die Forscher. Portugal als Vorbild Als Beispiel, wie staatliche Maßnahmen das MINT-Ökosystem stärken können, verweist die Studie auf Portugal: Trotz einer alternden Bevölkerung hat das Land hohe MINT-Absolventenzahlen und priorisiert Investitionen in Bildung. Ein Erfolgsfaktor ist zudem die Förderung von Frauen in MINT-Berufen, wo Portugal europaweit gut abschneidet. Weltweit bleibt die geringe Frauenbeteiligung jedoch ein Problem, das je nach Land unterschiedliche Ursachen hat. Einen anderen Weg gehen immer mehr Unternehmen, indem sie auf kompetenzbasierte Einstellung statt auf traditionelle Hochschulabschlüsse setzen. Große Firmen wie Boeing, Walmart und IBM engagieren sich in Initiativen wie der Rework America Alliance und verpflichten sich zu praxisorientierten Ansätzen. Laut McKinsey haben sie Hochschulabschlüsse aus Stellenanzeigen gestrichen und unterstützen den Aufstieg von Arbeitnehmern in besser bezahlte Positionen. Dies erweitert den Bewerberpool, erleichtert langfristige Stellenbesetzungen und schafft vermehrt Chancen für nicht-klassische Bewerber, so die Analysten. Zusammenarbeit von öffentlichen und privaten Sektor essenziell Der Erfolg hänge daher von der Zusammenarbeit zwischen Regierungen, Unternehmen und dem Bildungswesen ab, um qualifizierte MINT-Fachkräfte aufzubauen. Zu diesem Schluss kommen Cebr und SThree, die anhand von 26 Indikatoren aus Bereichen wie Bildung, Integration von Arbeitskräften, Industriemöglichkeiten und Innovation, die verschiedenen Indices, die 35 Länder nach MINT-Fähigkeiten einstufen, erstellt haben. 

G7-Staaten fallen im globalen Technologie-Rennen zurück​ Die einst so dominanten G7 benötigen dringend frischen Wind in MINT wie eine aktuelle Studie zeigt.
shutterstock – justit

Die Länder der „Gruppe der 7“ (G7) – USA, UK, Kanada, Frankreich, Deutschland, Italien, Japan – fallen bei wichtigen technologischen Wirtschaftsindikatoren wie Hightech-Exporten, der Zahl der Softwareentwickler und KI-bezogenen Patentanmeldungen zurück. Damit gefährdeten sie vor allem ihre künftige Wettbewerbsfähigkeit, so eine aktuelle Studie der in London ansässigen Personalberatung SThree und des Center for Economics and Business Research (Cebr).

Einst führende Innovationszentren stünden die G7-Staaten nun zunehmend in Konkurrenz mit aufstrebenden Technologienationen, warnen die Studienmacher. Die Länder  müssten ihre Innovationskraft stärken, um ihre technologische Führungsrolle zu sichern. Besonders Zukunftsbranchen wie Künstliche Intelligenz (KI), Automatisierung und saubere Energie benötigen MINT-Fachkräfte. Länder, die gezielt in MINT-Bildung investierten, werden wirtschaftlich wachsen, während andere Gefahr laufen, zurückzufallen, so die Studie.

Gesamtführer Confoederatio Helvetica

Deutlich wird dies zum Beispiel anhand der Platzierung der einzelnen Länder im STEM Skills Index: Über alle Branchen verteilt, thront die Schweiz auf Platz eins, nicht zuletzt aufgrund eines starken naturwissenschaftlichen Sektors, gefolgt von Südkorea und Singapur.

Der erste G7-Staat ist auf Rang sieben Großbritannien, dank einer ausgewogenen, aber in keinem bestimmten Bereich dominanten Wirtschaft. Deutschland belegt trotz eines starken Ingenieurswesens nur Platz 13 – drei Plätze hinter Österreich. Italien als schlechtestes G7-Mitglied landete auf Platz 28 von insgesamt 35.

Zum Glück für die G7-Staaten wurden in der Studie einige große Volkswirtschaften wie China oder Indien mangels Daten nicht berücksichtigt. So entwickle sich Chinas MINT-Ökosystem zum einen sehr schnell, stellten die Forscher fest. Zum anderen verfüge das Land über 63 der 500 führenden Forschungseinrichtungen und werde entsprechend zunehmend als Forschungssupermacht angesehen, das massiv in diesen Bereich investiere.

Schwache Grundlagen in Deutschland

Für die Zukunft sieht es nicht viel besser aus: Im Bildungs-Gesamt-Ranking führt Finnland das Feld an. Spitzenreiter der G7 ist das Vereinigte Königreich auf dem neunten Platz, während Deutschland auf Platz 16 rangiert. Grund hierfür ist das schwache Abschneiden im Bereich der grundlegenden Bildung (Platz 20), während Deutschland bei der spezialisierten Bildung auf dem neunten Platz liegt. Damit schneidet unser Land nur einen Platz schlechter ab als der G7-Spitzenreiter, das Vereinigte Königreich. Die Pole Position geht an Finnland.

Deutschland nur noch gehobenes Mittelmaß

In der Gesamtwertung ist Deutschland, einst Europas MINT-Führer, demnach gerade einmal gehobenes Mittelmaß laut Studie: Es zeigt eine starke Leistung im Ingenieurswesen, liegt jedoch in keiner Kategorie weit vorne. Trotz hoher Investitionen in Forschung und Entwicklung (R&D) und einem robusten Ingenieurssektor, bleibt Deutschland hinter den Spitzenreitern in den Bereichen Technologie und Life Sciences zurück.

Und auch die starke Position als Land der Ingenieure sei nicht sicher, hebt die Studie hervor, da ernsthafte Konkurrenz aus den nordischen sowie asiatischen Ländern in den Bereichen Technologie und Life Sciences droht. Zugleich seien13 Prozent aller MINT-Beschäftigten in Deutschland Ausländer, Tendenz steigend.

Fachkräfte-Import kein Allheilmittel

Ein Import von ausländischen Fachkräften kann laut den Studienmachern helfen, den Fachkräftemangel und eine alternde Bevölkerung zu kompensieren. Bei einer global alternden Bevölkerung ist dies allerdings kein Dauerzustand.

Die Studie fordert deshalb Regierungen, die im MINT-Bereich führend sein wollen, auf, ein starkes inländisches Qualifikationsangebot sicherzustellen. Viele Länder scheitern daran allerdings. Besonders das tertiäre Bildungssystem müsse agiler werden, um die gefragten Kompetenzen zu vermitteln, so die Forscher.

Portugal als Vorbild

Als Beispiel, wie staatliche Maßnahmen das MINT-Ökosystem stärken können, verweist die Studie auf Portugal: Trotz einer alternden Bevölkerung hat das Land hohe MINT-Absolventenzahlen und priorisiert Investitionen in Bildung. Ein Erfolgsfaktor ist zudem die Förderung von Frauen in MINT-Berufen, wo Portugal europaweit gut abschneidet. Weltweit bleibt die geringe Frauenbeteiligung jedoch ein Problem, das je nach Land unterschiedliche Ursachen hat.

Einen anderen Weg gehen immer mehr Unternehmen, indem sie auf kompetenzbasierte Einstellung statt auf traditionelle Hochschulabschlüsse setzen. Große Firmen wie Boeing, Walmart und IBM engagieren sich in Initiativen wie der Rework America Alliance und verpflichten sich zu praxisorientierten Ansätzen.

Laut McKinsey haben sie Hochschulabschlüsse aus Stellenanzeigen gestrichen und unterstützen den Aufstieg von Arbeitnehmern in besser bezahlte Positionen. Dies erweitert den Bewerberpool, erleichtert langfristige Stellenbesetzungen und schafft vermehrt Chancen für nicht-klassische Bewerber, so die Analysten.

Zusammenarbeit von öffentlichen und privaten Sektor essenziell

Der Erfolg hänge daher von der Zusammenarbeit zwischen Regierungen, Unternehmen und dem Bildungswesen ab, um qualifizierte MINT-Fachkräfte aufzubauen. Zu diesem Schluss kommen Cebr und SThree, die anhand von 26 Indikatoren aus Bereichen wie

Bildung,

Integration von Arbeitskräften,

Industriemöglichkeiten und

Innovation,

die verschiedenen Indices, die 35 Länder nach MINT-Fähigkeiten einstufen, erstellt haben.

G7-Staaten fallen im globalen Technologie-Rennen zurück​ Weiterlesen »

GenAI: Firmen investieren ohne Plan​

Allgemein

Unternehmen setzen GenAI vor allem für Textgenerierung, Kunden-Support und Automatisierung ein. shutterstock – Andrii Yalanskyi Unternehmen in Deutschland, Österreich und der Schweiz (DACH) investieren trotz wirtschaftlicher und geopolitischer Unsicherheiten in GenAI-Erweiterungen des digitalen Arbeitsplatzes. Laut der Deutschen Social Collaboration Studie 2025 von der TU Darmstadt und Campana & Schott haben vier von zehn Unternehmen bereits entsprechende Projekte umgesetzt. Weitere 36 Prozent planen, ihre Kapazitäten zu erweitern. Die häufigsten Anwendungsfälle für GenAI sind dabei das Erstellen von Texten, der Kunden-Support und die Automatisierung von Aufgaben. ​ GenAI soll sich lohnen Laut Studie bleibt die Investitionsbereitschaft in GenAI trotz der aktuellen Krisensituation hoch, da fast die Hälfte der Befragten (43 Prozent) eine schnelle Amortisation der Kosten erwartet. Unternehmen, die GenAI bereits getestet haben, sind hiervon besonders überzeugt. Generell halten mehr als die Hälfte der Befragten GenAI für relevant, auch ohne konkrete Anwendungsfälle. Absolut irrelevant wird die Technologie von weniger als zehn Prozent eingeschätzt. Gleichzeitig nutzen 44 Prozent der Unternehmen GenAI-Tools, am häufigsten ist dabei Microsoft 365 Copilot (24 Prozent) im Einsatz. Allerdings glauben nur 41 Prozent der Befragten , dass sie GenAI schon jetzt ohne maßgebliche Verbesserung der Datenqualität nutzen könnten. Erfolg in Gefahr Die Akzeptanz dieser neuen Technologien wird allerdings durch mangelhaftes Change & Adoption Management gefährdet. Fast die Hälfte der Mitarbeitenden ohne Führungsfunktion und 41 Prozent der mittleren Führungsebene wissen nicht, ob eine Erweiterung des digitalen Arbeitsplatzes geplant ist. Ähnlich ist es bei GenAI-Investitionen: 16 Prozent der oberen Führungsebene, 27 Prozent in der mittleren und 40 Prozent in der unteren Ebene kennen den Planungsstatus nicht. Soll GenAI erfolgreich eingeführt werden, muss laut den Studienmachern jedoch ein umfassendes Change Management für breite Akzeptanz neuer Technologien sorgen. „GenAI gilt als essenziell für den Wettbewerbserfolg“, urteilt Boris Ovcak, Partner und Leiter der Division Transformation of Work von Campana & Schott. Es fehlten jedoch oft Maßnahmen für das Adoption & Change Management.  Aus Sicht von Ovcak stellen mangelndes Wissen und geringe Akzeptanz der Mitarbeitenden jedoch ein hohes Risikopotenzial für den Erfolg solcher Projekte dar. Die Studienbetreiber betonen zudem, dass eine hohe Datenqualität entscheidend für den Erfolg von GenAI-Projekten sei. Deshalb müssten Unternehmen sich auch auf die Herausforderungen durch den EU AI Act verstärkt vorbereiten. Die Deutsche Social Collaboration Studie wird seit 2016 jährlich durchgeführt. Für die aktuelle Ausgabe wurden 513 Mitarbeitende aus Unternehmen in Deutschland, Österreich und der Schweiz befragt, darunter 14 Prozent Frontline Workers. Die Befragten verteilten sich auf verschiedene Hierarchieebenen, Unternehmensgrößen und Branchen. 

GenAI: Firmen investieren ohne Plan​ Unternehmen setzen GenAI vor allem für Textgenerierung, Kunden-Support und Automatisierung ein.
shutterstock – Andrii Yalanskyi

Unternehmen in Deutschland, Österreich und der Schweiz (DACH) investieren trotz wirtschaftlicher und geopolitischer Unsicherheiten in GenAI-Erweiterungen des digitalen Arbeitsplatzes. Laut der Deutschen Social Collaboration Studie 2025 von der TU Darmstadt und Campana & Schott haben vier von zehn Unternehmen bereits entsprechende Projekte umgesetzt. Weitere 36 Prozent planen, ihre Kapazitäten zu erweitern.

Die häufigsten Anwendungsfälle für GenAI sind dabei

das Erstellen von Texten,

der Kunden-Support und

die Automatisierung von Aufgaben. ​

GenAI soll sich lohnen

Laut Studie bleibt die Investitionsbereitschaft in GenAI trotz der aktuellen Krisensituation hoch, da fast die Hälfte der Befragten (43 Prozent) eine schnelle Amortisation der Kosten erwartet. Unternehmen, die GenAI bereits getestet haben, sind hiervon besonders überzeugt.

Generell halten mehr als die Hälfte der Befragten GenAI für relevant, auch ohne konkrete Anwendungsfälle. Absolut irrelevant wird die Technologie von weniger als zehn Prozent eingeschätzt. Gleichzeitig nutzen 44 Prozent der Unternehmen GenAI-Tools, am häufigsten ist dabei Microsoft 365 Copilot (24 Prozent) im Einsatz. Allerdings glauben nur 41 Prozent der Befragten , dass sie GenAI schon jetzt ohne maßgebliche Verbesserung der Datenqualität nutzen könnten.

Erfolg in Gefahr

Die Akzeptanz dieser neuen Technologien wird allerdings durch mangelhaftes Change & Adoption Management gefährdet. Fast die Hälfte der Mitarbeitenden ohne Führungsfunktion und 41 Prozent der mittleren Führungsebene wissen nicht, ob eine Erweiterung des digitalen Arbeitsplatzes geplant ist.

Ähnlich ist es bei GenAI-Investitionen:

16 Prozent der oberen Führungsebene,

27 Prozent in der mittleren und

40 Prozent in der unteren Ebene

kennen den Planungsstatus nicht. Soll GenAI erfolgreich eingeführt werden, muss laut den Studienmachern jedoch ein umfassendes Change Management für breite Akzeptanz neuer Technologien sorgen.

„GenAI gilt als essenziell für den Wettbewerbserfolg“, urteilt Boris Ovcak, Partner und Leiter der Division Transformation of Work von Campana & Schott. Es fehlten jedoch oft Maßnahmen für das Adoption & Change Management.  Aus Sicht von Ovcak stellen mangelndes Wissen und geringe Akzeptanz der Mitarbeitenden jedoch ein hohes Risikopotenzial für den Erfolg solcher Projekte dar.

Die Studienbetreiber betonen zudem, dass eine hohe Datenqualität entscheidend für den Erfolg von GenAI-Projekten sei. Deshalb müssten Unternehmen sich auch auf die Herausforderungen durch den EU AI Act verstärkt vorbereiten.

Die Deutsche Social Collaboration Studie wird seit 2016 jährlich durchgeführt. Für die aktuelle Ausgabe wurden 513 Mitarbeitende aus Unternehmen in Deutschland, Österreich und der Schweiz befragt, darunter 14 Prozent Frontline Workers. Die Befragten verteilten sich auf verschiedene Hierarchieebenen, Unternehmensgrößen und Branchen.

GenAI: Firmen investieren ohne Plan​ Weiterlesen »

Was ist Reactive Programming?​

Allgemein

Reactive Programming heißt in erster Linie, mit Ereignisströmen zu arbeiten. Foto: DC Studio – shutterstock.com Reactive Programming stellt eine bedeutende Facette der modernen Softwareentwicklung dar. Sie basiert darauf, Software als eine Reihe von Interaktionen zu betrachten, die zwischen Ereignis-Produzenten, -Konsumenten und -Modifikatoren ablaufen. Richtig angewendet, bietet dieser Softwareentwicklungsansatz signifikante Vorteile, wenn es darum geht, Code zusammenzusetzen, zu erweitern und verständlich zu gestalten. Reaktive Programmierung kann dazu beitragen, Ihre Anwendungsarchitekturen in einer Vielzahl von Szenarien zu optimieren. Etwa in den Bereichen: Echtzeitdatenverarbeitung, asynchrone Programmierung, Benutzeroberflächen und verteilte Systeme. Im Folgenden lesen Sie, was Sie zum Thema Reactive Programming wissen sollten. Reactive Programming – Definition Reactive Programming ist ein Softwareentwicklungsparadigma, das Inputs und Outputs als Event-Streams (Ereignisströme) modelliert. Mit Hilfe dieses Ansatzes können Entwickler Anwendungen in einem deklarativen, funktionalen und standardisierten Stil erstellen. Das Herzstück sind dabei die Ereignisströme: Sie können jede Art von Datenfluss darstellen, von Netzwerkaktivitäten bis hin zu den Zeilen einer Textdatei. Jedes Mal, wenn eine Datenquelle diskrete Ereignisse auf der Grundlage von Elementen in den Daten auslösen kann, lässt sie sich als reaktiver Stream verpacken oder modellieren. Mit Ereignisströmen können Sie Input- und Output-Quellen als zusammensetzbare Elemente verbinden und sie gleichzeitig an jeder Stelle der Kette manipulieren. So werden Anwendungen zu einem Netzwerk von Streams – mit Produzenten, Konsumenten und Modifikatoren. Die reaktive Programmierung ähnelt in der Praxis der funktionalen, beziehungsweise ist von ihr inspiriert. Im Folgenden ein kleines Beispiel für ein reaktives Programm in JavaScript: // Create an event stream from a text input keypress const input = document.getElementById(‘myInput’); const keypressStream = rxjs.fromEvent(input, ‘keypress’); // Apply operators to the stream const filteredStream = keypressStream.pipe( rxjs.operators.map(event => event.key), rxjs.operators.filter(key => key !== ‘ ‘), rxjs.operators.throttleTime(500) // Throttle keypress events to a maximum of one event per 500ms ); // Subscribe to the stream and handle the events filteredStream.subscribe(key => { console.log(‘Keypress:’, key); }); Dieser Code überwacht eine Texteingabe auf Tastendrucke und verwendet die reaktive JavaScript-Bibliothek RxJS, um diese in einen Ereignisstrom zu verwandeln. Dazu nutzt er die reaktiven Operatoren map, filter und throttleTime. Sie eliminieren mit dem Code zudem Leerzeichen und drosseln die Event-Frequenz auf 500 Millisekunden. Schließlich wird ein Abonnement für den Stream erstellt, das die umgewandelten Ereignisse auf der Konsole ausgibt. Dieses Beispiel können Sie hier live einsehen. Reaktive Programmierung – Vor- & Nachteile Event Streams sind ein klares und portables Mittel, um Datenströme darzustellen. Durch die Verwendung von Ereignisströmen wird der Code deklarativ und nicht imperativ, was in Sachen Composability und Verständlichkeit ein großer Gewinn sein kann. Zudem sind reaktive Systeme darauf ausgelegt, Datenströme asynchron zu verarbeiten. Das macht sie einerseits skalierbar und andererseits auch hinsichtlich der Concurrency optimierbar. Die Kehrseite der Medaille: Reactive Programming ist mit erheblichem Lernaufwand verbunden – es gibt entsprechend wenige echte Experten auf diesem Gebiet. Ein weiterer Nachteil: Hat man erst einmal erfasst, wie leistungsfähig der reaktive Ansatz ist, könnte man versucht sein, ihn als Allheilmittel zu betrachten. Reactive Programming – Elemente Auf hoher Ebene basiert Reactive Programming auf mehreren Kernelementen: Observables sind das konkrete Mittel, um beliebige Ereignisströme als wiederverwendbare Komponenten zu modellieren. Observables haben eine klar definierte API, die Ereignisse, Fehler und Lebenszyklusereignisse erzeugt, welche andere Komponenten abonnieren oder ändern können. Im Wesentlichen macht der Observable-Type aus einem Ereignisstrom eine portable, programmierbare Einheit. Observers sind das Gegenstück zu Observables. Sie abonnieren die Ereignisse, die Observables erzeugen, und nehmen an ihnen teil. Das hat zur Folge, dass der Anwendungscode zu einer Inversion-of-Control-Position neigt, in der er Observables und Observer miteinander verbindet, anstatt sich direkt mit der Funktionalität zu befassen. Operators sind das Äquivalent zu funktionalen Operatoren, die auch als Funktionen höherer Ordnung bezeichnet werden. Mit reaktiven Operators lassen sich die Events, die den Stream durchlaufen, auf vielfältige Weise manipulieren. Auch hier kann der Anwendungscode auf Distanz bleiben, indem die gewünschte Funktionalität “von oben” in die Datenströme injiziert wird – während die Operationen eng mit den Daten verbunden bleiben, die sie bearbeiten. Scheduling Ein weiterer wichtiger Komponententyp ist der Scheduler. Bei der reaktiven Programmierung unterstützt er dabei, zu managen, wie Events von der Engine behandelt werden. In unserem eingangs genannten Beispiel könnten wir die Engine zum Beispiel anweisen, die Operation mit einem asynchronen Scheduler auszuführen: const filteredStream = keypressStream.pipe( rxjs.operators.observeOn(rxjs.asyncScheduler), rxjs.operators.map(event => event.key), rxjs.operators.filter(key => key !== ‘ ‘), rxjs.operators.throttleTime(500) ); Das Konzept des Schedulers ist eine leistungsfähige Methode, um das Verhalten von Streams zu definieren und zu steuern. Es gibt diverse Variationen in verschiedenen Frameworks. Darüber hinaus ist es auch möglich, eigene Implementierungen zu schreiben. Backpressure Ein weiteres wichtiges Konzept in Sachen Reactive Programming ist Backpressure. Im Wesentlichen beantwortet es die Frage: Was passiert, wenn zu viele Ereignisse zu schnell eintreten, so dass das System sie nicht verarbeiten kann? Eine Backpressure-Strategie unterstützt dabei, den Datenfluss zwischen Ereignisproduzenten und -konsumenten zu managen und sicherzustellen, dass letzterer die Menge der eingehenden Events verarbeiten kann, ohne überfordert zu werden. Dabei gibt es mehrere allgemeine Ansätze – beispielsweise: Dropping: Wenn sich die Events stauen, werden sie “weggeworfen”. Sobald der Konsument in der Lage ist, mehr zu verarbeiten, werden die aktuellsten Ereignisse geliefert. Hier liegt der Fokus auf Lebendigkeit. Buffering: Eine Warteschlange mit unverarbeiteten Ereignissen wird erstelllt und schrittweise an den Konsumenten übergeben, sobald dieser dazu in der Lage ist, sie zu verarbeiten. Der Fokus: Konsistenz. Throttling: Die Rate der Ereignisbereitstellung wird durch diverse Strategien wie Zeitdrosselung, Zähldrosselung oder Token-Buckets verringert. Signaling: Eine Möglichkeit wird geschaffen, um dem Event-Produzenten den Backpressure-Status-Quo mitzuteilen, damit dieser entsprechend reagieren kann. Backpressure-Strategien können sich entsprechend der Bedingungen dynamisch verändern. Wenn wir unser Beispiel um eine zählbasiertes Buffer Backpressure Handling erweitern wollten, würde das folgendermaßen funktionieren: const filteredStream = keypressStream.pipe( rxjs.operators.throttleTime(500), // Throttle keypress events to a maximum of one event per 500ms rxjs.operators.observeOn(rxjs.asyncScheduler), rxjs.operators.map(event => event.key), rxjs.operators.filter(key => key !== ‘ ‘), rxjs.operators.bufferCount(5) ); Natürlich ist Backpressure für dieses Beispiel nicht erforderlich, vermittelt aber eine Vorstellung davon, wie es funktioniert. Die Anzahl der Tastenanschläge ist auf 500 Millisekunden begrenzt. Sobald fünf dieser Anschläge erfolgt sind, werden sie an den Abonnenten weitergeleitet, um sie auf der Konsole auszugegeben. Dieses Beispiel können Sie hier live einsehen. Reactive Frameworks Im Bereich Reactive Programming gibt es zahlreiche Frameworks und Engines für diverse Sprachen und Plattformen. Das Vorzeigeprojekt in diesem Bereich ist ReactiveX, dessen Standardspezifikationen in allen bedeutenden Programmiersprachen implementiert ist. Darüber hinaus gibt es weitere Reactive Frameworks – zum Beispiel: die Reactive Extensions von .NET, das Reactor-Projekt (basiert auf der JVM), Spring WebFlux (basiert auf Reactor), das Play-Framework (Java, Scala), Vert.x (für Java, Kotlin und Groovy), Akka Streams (Java), Trio (Python) oder Nito.AsynxExec (.Net). Einige Sprachen haben auch eine gute reaktive Unterstützung eingebaut. Go mit goroutines ist nur ein Beispiel. (fm) We didn’t invent muchDivide et impera⇒microservicesTestis unus, testis nullus⇒high availabilityPacta sunt servanda⇒APIMutatis mutandis⇒AgileCarpe diem⇒reactive programmingAlea jacta est⇒immutabilityMors tua, vita mea ⇒circuit breakerAd libitum⇒horizontal scaling pic.twitter.com/4TE1xbZBL0— Mario Fusco (@mariofusco) March 5, 2020 Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Was ist Reactive Programming?​ Reactive Programming heißt in erster Linie, mit Ereignisströmen zu arbeiten.
Foto: DC Studio – shutterstock.com

Reactive Programming stellt eine bedeutende Facette der modernen Softwareentwicklung dar. Sie basiert darauf, Software als eine Reihe von Interaktionen zu betrachten, die zwischen Ereignis-Produzenten, -Konsumenten und -Modifikatoren ablaufen. Richtig angewendet, bietet dieser Softwareentwicklungsansatz signifikante Vorteile, wenn es darum geht, Code zusammenzusetzen, zu erweitern und verständlich zu gestalten.

Reaktive Programmierung kann dazu beitragen, Ihre Anwendungsarchitekturen in einer Vielzahl von Szenarien zu optimieren. Etwa in den Bereichen:

Echtzeitdatenverarbeitung,

asynchrone Programmierung,

Benutzeroberflächen und

verteilte Systeme.

Im Folgenden lesen Sie, was Sie zum Thema Reactive Programming wissen sollten.

Reactive Programming – Definition

Reactive Programming ist ein Softwareentwicklungsparadigma, das Inputs und Outputs als Event-Streams (Ereignisströme) modelliert. Mit Hilfe dieses Ansatzes können Entwickler Anwendungen in einem deklarativen, funktionalen und standardisierten Stil erstellen.

Das Herzstück sind dabei die Ereignisströme: Sie können jede Art von Datenfluss darstellen, von Netzwerkaktivitäten bis hin zu den Zeilen einer Textdatei. Jedes Mal, wenn eine Datenquelle diskrete Ereignisse auf der Grundlage von Elementen in den Daten auslösen kann, lässt sie sich als reaktiver Stream verpacken oder modellieren.

Mit Ereignisströmen können Sie Input- und Output-Quellen als zusammensetzbare Elemente verbinden und sie gleichzeitig an jeder Stelle der Kette manipulieren. So werden Anwendungen zu einem Netzwerk von Streams – mit Produzenten, Konsumenten und Modifikatoren.

Die reaktive Programmierung ähnelt in der Praxis der funktionalen, beziehungsweise ist von ihr inspiriert. Im Folgenden ein kleines Beispiel für ein reaktives Programm in JavaScript:

// Create an event stream from a text input keypress

const input = document.getElementById(‘myInput’);

const keypressStream = rxjs.fromEvent(input, ‘keypress’);

// Apply operators to the stream

const filteredStream = keypressStream.pipe(

rxjs.operators.map(event => event.key),

rxjs.operators.filter(key => key !== ‘ ‘),

rxjs.operators.throttleTime(500) // Throttle keypress events to a maximum of one event per 500ms

);

// Subscribe to the stream and handle the events

filteredStream.subscribe(key => {

console.log(‘Keypress:’, key);

});

Dieser Code überwacht eine Texteingabe auf Tastendrucke und verwendet die reaktive JavaScript-Bibliothek RxJS, um diese in einen Ereignisstrom zu verwandeln. Dazu nutzt er die reaktiven Operatoren map, filter und throttleTime. Sie eliminieren mit dem Code zudem Leerzeichen und drosseln die Event-Frequenz auf 500 Millisekunden. Schließlich wird ein Abonnement für den Stream erstellt, das die umgewandelten Ereignisse auf der Konsole ausgibt. Dieses Beispiel können Sie hier live einsehen.

Reaktive Programmierung – Vor- & Nachteile

Event Streams sind ein klares und portables Mittel, um Datenströme darzustellen. Durch die Verwendung von Ereignisströmen wird der Code deklarativ und nicht imperativ, was in Sachen Composability und Verständlichkeit ein großer Gewinn sein kann. Zudem sind reaktive Systeme darauf ausgelegt, Datenströme asynchron zu verarbeiten. Das macht sie einerseits skalierbar und andererseits auch hinsichtlich der Concurrency optimierbar.

Die Kehrseite der Medaille: Reactive Programming ist mit erheblichem Lernaufwand verbunden – es gibt entsprechend wenige echte Experten auf diesem Gebiet. Ein weiterer Nachteil: Hat man erst einmal erfasst, wie leistungsfähig der reaktive Ansatz ist, könnte man versucht sein, ihn als Allheilmittel zu betrachten.

Reactive Programming – Elemente

Auf hoher Ebene basiert Reactive Programming auf mehreren Kernelementen:

Observables sind das konkrete Mittel, um beliebige Ereignisströme als wiederverwendbare Komponenten zu modellieren. Observables haben eine klar definierte API, die Ereignisse, Fehler und Lebenszyklusereignisse erzeugt, welche andere Komponenten abonnieren oder ändern können. Im Wesentlichen macht der Observable-Type aus einem Ereignisstrom eine portable, programmierbare Einheit.

Observers sind das Gegenstück zu Observables. Sie abonnieren die Ereignisse, die Observables erzeugen, und nehmen an ihnen teil. Das hat zur Folge, dass der Anwendungscode zu einer Inversion-of-Control-Position neigt, in der er Observables und Observer miteinander verbindet, anstatt sich direkt mit der Funktionalität zu befassen.

Operators sind das Äquivalent zu funktionalen Operatoren, die auch als Funktionen höherer Ordnung bezeichnet werden. Mit reaktiven Operators lassen sich die Events, die den Stream durchlaufen, auf vielfältige Weise manipulieren. Auch hier kann der Anwendungscode auf Distanz bleiben, indem die gewünschte Funktionalität “von oben” in die Datenströme injiziert wird – während die Operationen eng mit den Daten verbunden bleiben, die sie bearbeiten.

Scheduling

Ein weiterer wichtiger Komponententyp ist der Scheduler. Bei der reaktiven Programmierung unterstützt er dabei, zu managen, wie Events von der Engine behandelt werden. In unserem eingangs genannten Beispiel könnten wir die Engine zum Beispiel anweisen, die Operation mit einem asynchronen Scheduler auszuführen:

const filteredStream = keypressStream.pipe( rxjs.operators.observeOn(rxjs.asyncScheduler), rxjs.operators.map(event => event.key), rxjs.operators.filter(key => key !== ‘ ‘), rxjs.operators.throttleTime(500) );

Das Konzept des Schedulers ist eine leistungsfähige Methode, um das Verhalten von Streams zu definieren und zu steuern. Es gibt diverse Variationen in verschiedenen Frameworks. Darüber hinaus ist es auch möglich, eigene Implementierungen zu schreiben.

Backpressure

Ein weiteres wichtiges Konzept in Sachen Reactive Programming ist Backpressure. Im Wesentlichen beantwortet es die Frage: Was passiert, wenn zu viele Ereignisse zu schnell eintreten, so dass das System sie nicht verarbeiten kann?

Eine Backpressure-Strategie unterstützt dabei, den Datenfluss zwischen Ereignisproduzenten und -konsumenten zu managen und sicherzustellen, dass letzterer die Menge der eingehenden Events verarbeiten kann, ohne überfordert zu werden. Dabei gibt es mehrere allgemeine Ansätze – beispielsweise:

Dropping: Wenn sich die Events stauen, werden sie “weggeworfen”. Sobald der Konsument in der Lage ist, mehr zu verarbeiten, werden die aktuellsten Ereignisse geliefert. Hier liegt der Fokus auf Lebendigkeit.

Buffering: Eine Warteschlange mit unverarbeiteten Ereignissen wird erstelllt und schrittweise an den Konsumenten übergeben, sobald dieser dazu in der Lage ist, sie zu verarbeiten. Der Fokus: Konsistenz.

Throttling: Die Rate der Ereignisbereitstellung wird durch diverse Strategien wie Zeitdrosselung, Zähldrosselung oder Token-Buckets verringert.

Signaling: Eine Möglichkeit wird geschaffen, um dem Event-Produzenten den Backpressure-Status-Quo mitzuteilen, damit dieser entsprechend reagieren kann.

Backpressure-Strategien können sich entsprechend der Bedingungen dynamisch verändern. Wenn wir unser Beispiel um eine zählbasiertes Buffer Backpressure Handling erweitern wollten, würde das folgendermaßen funktionieren:

const filteredStream = keypressStream.pipe(

rxjs.operators.throttleTime(500), // Throttle keypress events to a maximum of one event per 500ms

rxjs.operators.observeOn(rxjs.asyncScheduler),

rxjs.operators.map(event => event.key),

rxjs.operators.filter(key => key !== ‘ ‘),

rxjs.operators.bufferCount(5)

);

Natürlich ist Backpressure für dieses Beispiel nicht erforderlich, vermittelt aber eine Vorstellung davon, wie es funktioniert. Die Anzahl der Tastenanschläge ist auf 500 Millisekunden begrenzt. Sobald fünf dieser Anschläge erfolgt sind, werden sie an den Abonnenten weitergeleitet, um sie auf der Konsole auszugegeben. Dieses Beispiel können Sie hier live einsehen.

Reactive Frameworks

Im Bereich Reactive Programming gibt es zahlreiche Frameworks und Engines für diverse Sprachen und Plattformen. Das Vorzeigeprojekt in diesem Bereich ist ReactiveX, dessen Standardspezifikationen in allen bedeutenden Programmiersprachen implementiert ist.

Darüber hinaus gibt es weitere Reactive Frameworks – zum Beispiel:

die Reactive Extensions von .NET,

das Reactor-Projekt (basiert auf der JVM),

Spring WebFlux (basiert auf Reactor),

das Play-Framework (Java, Scala),

Vert.x (für Java, Kotlin und Groovy),

Akka Streams (Java),

Trio (Python) oder

Nito.AsynxExec (.Net).

Einige Sprachen haben auch eine gute reaktive Unterstützung eingebaut. Go mit goroutines ist nur ein Beispiel. (fm)

We didn’t invent muchDivide et impera⇒microservicesTestis unus, testis nullus⇒high availabilityPacta sunt servanda⇒APIMutatis mutandis⇒AgileCarpe diem⇒reactive programmingAlea jacta est⇒immutabilityMors tua, vita mea ⇒circuit breakerAd libitum⇒horizontal scaling pic.twitter.com/4TE1xbZBL0— Mario Fusco (@mariofusco) March 5, 2020

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Was ist Reactive Programming?​ Weiterlesen »

Network-as-a-Service-Angebote im Überblick​

Allgemein

Network-as-a-Service ist im Kommen. Dieser Artikel verschafft Klarheit im NaaS-Angebotswirrwarr. Foto: Mike Flippo – SurfsUp – shutterstock.com Anbieter aller Art springen auf den Network-as-a-Service (NaaS)-Zug auf. Aus Kundenperspektive ist das höchst verwirrend. Schon die Definition von Network-as-a-Service ist nicht klar: Handelt es sich bei NaaS um die Beschaffung von Netzwerk-Equipment auf Abo-Basis oder ist NaaS nur eine andere Art, einen Managed Service zu beschreiben? Oder ist Network-as-a-Service gar etwas grundlegend anderes, das eine wachsende Herausforderung für Netzwerkentscheider adressiert, nämlich Netzwerkkonnektivität, Ausfallsicherheit, Security und Skalierbarkeit in einer Multi-Cloud-Welt bereitzustellen? Geht es nach IDC-Analyst Brandon Butler, bezeichnet Network-as-a-Service ein Cloud-fähiges, nutzungsbasiertes Verbrauchsmodell, das es Benutzern ermöglicht, Netzwerkfunktionen zu erwerben und zu orchestrieren – ohne eine eigene Infrastruktur besitzen, aufbauen oder warten zu müssen. NaaS kann ein alternatives Verbrauchsmodell für eine breite Palette von Netzwerkelementen bieten – darunter kabelgebundene und drahtlose LANs, WANs und VPNs sowie Zweigstellen, Rechenzentren, Edge-, Multi-Cloud– und Hybrid-Cloud-Umgebungen. Es kann auch genutzt werden, um neue Netzwerkmodelle wie Secure Access Service Edge (SASE) zu realisieren. Vor allem aber befähigt die Technologie IT-Teams dazu: einfacher (nach oben oder unten) zu skalieren, neue Services schneller bereitzustellen, sowie das Verhältnis zwischen Investitions- und Betriebskosten zu optimieren. Will Townsend, Analyst bei Moor Insights, weiß, was Bestandteil eines vollständigen NaaS-Offerings sein sollte: “Das umfasst mehrere Schlüsselelemente. Zum einen eine hochskalierbare Cloud-native Architektur. Zum anderen ein hohes Maß an Automatisierung und die Einbindung von Künstlicher Intelligenz (KI) und maschinellem Lernen (ML), um selbstheilende, beobachtbare und sichere Systeme zu ermöglichen. Dieser architektonische Ansatz ermöglicht es Unternehmen auch, Leistungsoptimierung auf bestimmte Workloads zuzuschneiden. Zu den weiteren potenziellen Vorteilen gehören eine garantierte Servicequalität, eine verbesserte IT-Flexibilität und ein Ressourcenmanagement für den Line-of-Business-Support. Last, but not least kann die Infrastruktur als Betriebsausgabe in der Bilanz verbucht werden.” Die NaaS-Anbieterlandschaft lässt sich in fünf Kategorien unterteilen: Netzwerkausrüster, TK-Anbieter, Cloud-Service-Anbieter, WAN-Anbieter und Multi-Cloud-Netzwerk-Provider. Im Folgenden finden Sie einen Überblick über die besten Anbieter in den jeweiligen Bereichen – und was diese in Sachen Network-as-a-Service zu bieten haben. 1. Netzwerkausrüster HPE-Aruba Mit der Einführung von GreenLake NaaS im Jahr 2017 und der Ankündigung im Jahr 2019, sein gesamtes Portfolio in Service-Form anbieten zu wollen, hat sich HPE-Aruba als Marktführer im NaaS-Bereich etabliert. Zuletzt hat HPE die Network-as-a-Service-Nutzung für seine Kunden vereinfacht, indem es ihnen vorkonfigurierte Servicepakete zur Verfügung stellt. Diese sind verfügbar für: drahtlose und kabelgebundene Netzwerke, SD-Branch, SD-WAN, Netzwerkrichtlinien und User Experience. Jedes dieser Pakete enthält Hardware-, Software- und Servicekomponenten von Aruba. Hinter GreenLake NaaS für Aruba steht ein Abo-basiertes, monatliches Bezahlmodell, das den Kunden ermöglicht, die Leistung je nach Geschäftsanforderungen zu skalieren, Altgeräte zu recyclen und ein Dashboard für die Customer Experience sowie automatische Hardware- und Software-Updates zur Verfügung stellt. Eine remote durch Aruba gemanagte und überwachte Option ist ebenfalls verfügbar. Eine weitere NaaS-Option aus selbem Hause ist GreenLake für Microsoft Azure Stack HCI. Damit können die Kunden Windows– und Linux-VMs in Hybrid-Clouds, On-Premise- und Edge-Umgebungen betreiben. Dieses Offering ist auf Grundlage von Lighthouse konzipiert, einer physischen Infrastruktur, die Rechen-, Storage- und Netzwerkfunktionen umfasst und an den Standort des Kunden geliefert wird. Darüber hinaus hat HPE auch ein Storage-basiertes NaaS namens GreenLake Cloud Data Services im Angebot, mit dem die Kunden selbst eine Storage-Infrastruktur als Service bereitstellen können. Eine Option für High-Performance-Computing bietet zudem Zugang zu fortschrittlichen Nvidia-GPUs. Juniper Networks Auch bei Juniper Networks setzt man mit Nachdruck auf Network-as-a-Service: Das Unternehmen bietet nicht nur Netzwerkfunktionen als Service an, sondern stellt über Managed Service Provider und Reseller auch einen klaren Deployment-Pfad zur Verfügung. Über seinen Finanzarm (Juniper Financial Services) bietet das Unternehmen sogar flexible Finanzierungsmöglichkeiten an. Juniper NaaS nutzt seine Cloud-basierte AIOps-Plattform (basierend auf der Technologie von Mist Systems), die es ermöglicht, kabelgebundene Netzwerke, Wireless-Implementierungen und SD-WAN über ein einziges Portal zu managen. Dabei steht den Kunden die Option offen, den Weg über einen MSP zu gehen, der die internen Systeme des Kunden über APIs einbinden kann. Die andere Option: Bei Resellern kaufen, das System selbst managen und in den Genuss einer Abo-basierten Abrechnung kommen. Zu den Benefits, die Juniper NaaS realisieren kann, gehören: Insights und Automatisierung über den gesamten Netzwerk-Stack zu ermöglichen, sowie anpassbare und transparente Service-Levels bis auf Client-, Anwendungs- und Sitzungsebene umzusetzen, um eine optimale Benutzererfahrung zu gewährleisten. Der Service will Kunden zudem in die Lage versetzen, Cloud-Services einfach(er) zu skalieren sowie die Netzwerknutzung zu managen und zu überwachen. Darüber hinaus integriert Juniper die Sicherheit in die Netzwerkstruktur, indem es Transparenz, Threat Intelligence und Policy Enforcement auf jeden Verbindungspunkt ausweitet. Anfang 2024 wurde bekannt, dass Hewlett Packard Enterprise (HPE) Juniper Networks für 14 Milliarden Dollar übernehmen möchte. Die Übernahme soll spätestens Anfang 2025 abgeschlossen sein. Dell Im Jahr 2019 kündigte Michael Dell an, sein Unternehmen wolle aggressiv in den Bereich NaaS einsteigen. Er hat nicht zuviel versprochen: Dell hat inzwischen ein breitgefächertes Portfolio an Storage-, Datensicherheits- und Rechenressourcen in as-a-Service-Form an. Dell APEX NaaS umfasst dabei: Block-, Datei- und Objektspeicher, Backup und Disaster Recovery, virtuelle Maschinen, Container, Anwendungsentwicklung und High-Performance Computing. Die Dell APEX-Konsole soll dabei die Kontrolle über alle Daten ermöglichen, unabhängig davon, wo sich der Nutzer befindet. Im Ergebnis verspricht Dell besseren Schutz vor Cyberangriffen, mehr Datenschutz, Compliance und kürzere Reaktionszeiten auf Cybervorfälle. Auf strategischer(er) Ebene kann APEX laut Dell Unternehmen auch dabei unterstützen, konsistente Prozesse über verschiedene Cloud-Umgebungen hinweg zu erreichen, die Lücke zwischen Public-Cloud-Agilität und Private-Cloud-Kontrolle zu schließen und Abläufe zu rationalisieren. Um die Kunden bei der Planung beziehungsweise dem Übergang auf Network-as-a-Service zu unterstützen, bietet Dell einen dedizierten Service an. Für Kunden, die die Dell-Infrastruktur in Equinix-Rechenzentren betreiben wollen, steht auch eine Managed-Services-Option zur Verfügung. Cisco Laut CEO Chuck Robbins plant Cisco, sein gesamtes Portfolio in NaaS-Form anzubieten. Dabei verfolgt der Netzwerkriese allerdings einen iterativen Ansatz. Das erste Offering, das dieser Strategie entsprungen ist, heißt Cisco Plus Hybrid Cloud und umfasst verbrauchsbasierte Optionen für: virtuelle Desktop-Infrastrukturen (hyperkonvergente Cisco HyperFlex-Infrastrukturen mit VDI-Software von Drittanbietern), Edge Computing, Virtualisierung und Bare Metal Computing (auf Cisco UCS-Servern) sowie Rechenzentrumsnetzwerke (mit Cisco Nexus- und MDS-Switches). Zudem hat der Konzern mit Cisco+ Secure Connect Now einen schlüsselfertigen SASE-Abonnementdienst eingeführt. Der Service integriert Funktionen, die Cisco im Laufe der letzten Jahre erworben hat, darunter: SD-WAN von Meraki, Zero Trust Network Access von Duo und Observability von ThousandEyes. Axians Auch für IT-Dienstleister Axians stellt Network-as-a-Service die “logische Alternative” zum selbst gemanagten Netzwerk dar. Das Unternehmen, das zum französischen Bauriesen Vinci gehört, möchte mit seinem NaaS-Offering die Kunden dabei unterstützen, Aufwand, Komplexität und Kosten zu reduzieren, dabei aber den Anforderungen des digitalen Zeitalters gerecht zu werden. Das NaaS-Angebot von Axians gliedert sich dabei in sechs verschiedene Bereiche: SD-WAN-as-a-Service WiFi-as-a-Service LAN-as-a-Service Data-Center-as-a-Service Security-as-a-Service Collaboration Kunden, die sich in Sachen NaaS für Axians entscheiden, durchlaufen nach Angaben des Unternehmens einen vierstufigen Prozess, der sie zum standardisierten Netzwerk führt: In der Design-Phase wird das optimale Netzwerk auf Grundlage von Best Practices und den individuellen Unternehmensanforderungen aufgebaut. In der Build-Phase werden zum Netzwerkprofil passende, technische und funktionale Standards eingezogen. In der Go-Live-Phase wird die Kundenhardware durch neue vorkonfigurierte und durchgängig gemanagte State-of-the-Art-Devices ersetzt. In der Service-Phase wählen die Kunden nach Angaben von Axians lediglich noch das gewünschte Servicelevel aus und verlassen sich anschließend auf die hauseigenen Expertenteams. Auch Axians setzt in Sachen Abrechnung auf ein Abomodell mit monatlichen Gebühren. 2. Telcos Vodafone Der TK-Riese Vodafone steigt mit seinem Angebotspaket “Total Cloud Managed Hosting” ebenfalls in den NaaS-Ring. Das Versprechen für die Kunden: Eine “individualisierte Enterprise-Class-Infrastruktur”, die exakt auf die jeweiligen Unternehmensanforderungen passen soll. Dabei setzt der Anbieter vor allem auf Datenschutz und Sicherheit: Die Infrastruktur der Kunden wird ausschließlich in zertifizierten (ISO 27001 und 9001) deutschen Rechenzentren gehostet. Zusätzliche, zubuchbare Security Services sind unter anderem: Firewalls, IDS, SIM, HIDS, DDoS-Schutz und Content Security. Dabei verspricht Vodafone den Kunden nicht nur mehr Effizienz, weniger Kosten, maximale Verfügbarkeit und standesgemäßen Support, sondern auch, deren gesamten Hardware-Stack durchgängig zu managen und zu überwachen. Für den Telekommunikationsanbieter spricht darüber hinaus sein weitläufiges Glasfasernetz, das einen reibungslosen Datenverkehr gewährleisten soll. Verizon Auch Verizon setzt auf Network-as-a-Service und nutzt sein riesiges globales Netzwerk, seine Managed-Service-Expertise und seine engen Beziehungen zu Enterprise-Kunden, um Managed Services in den Bereichen SD-WAN, VoIP und Security in ein modulares, skalierbares und nutzungsabhängiges Format zu pressen. Nach Angaben von Verizon läuft sein NaaS auf einem programmierbaren, modernisierten Netzwerk und stellt (im Vergleich mit traditionellen Netzwerkinfrastrukturen) agilere, widerstandsfähigere und Cloud-zentrierte Services bereit. Auf strategischer Ebene soll das Offering auch neue Geschäftsmodelle unterstützen und zur Operations-Transformation beitragen. Zu den weiteren Benefits der Verizon-Lösung gehören ein hohes Performance-, Effizienz- und Agilitäts-Level und niedrigere Investitionskosten, Zudem entfallen Hardware-Upgrades und die NaaS-Plattform bietet Transparenz und eine automatisierte Kontrolle der Netzwerkfunktionen, ermöglicht Unternehmen Einblicke in die Netzwerk- und Anwendungsleistung und vereinfacht das Netzwerkmanagement durch Automatisierung und zentrale Tools. Um Unternehmen bei der Entwicklung und Umsetzung einer NaaS-Strategie zu unterstützen, bietet der TK-Konzern sowohl ein eigenes Serviceteam als auch ein Partner-Ökosystem. Lumen Technologies Lumen Technologies (ehemals CenturyLink) will Network-as-a-Service mit einer Self-Service-Bereitstellung sicherer WAN-Konnektivität über ein privates Netzwerk (abgerechnet auf Stundenbasis) auf die nächste Stufe heben. Für stabilere Workloads bietet das Unternehmen auch monatliche Abrechnungsoptionen an. Das Offering, das die Kunden überzeugen soll: Statt sich die Mühe zu machen, ein SD-WAN-Overlay zu implementieren und den Datenverkehr über das unsichere Internet laufen zu lassen, sollen Unternehmen in den Genuss der Vorteile flexibler, optimierter und sicherer Verbindungen über ein globales, privates Netzwerk kommen. Der Dynamic Connections Service von Lumen hilft Unternehmen dabei, die WAN-Kapazität schnell zu erhöhen, um saisonale Nachfragespitzen zu bewältigen. Auch wenn es um die WAN-Traffic-Performance und darum geht, Workloads dynamisch zu managen, stehen die Kunden nicht im Regen. Der US-TK-Anbieter selbst betrachtet sein aktuelles NaaS-Angebot als Beispiel dafür, wohin sich die Technologie entwickelt: “In Zukunft müssen Sie nicht mehr selbst Verbindungen aufbauen, sondern können erwarten, dass APIs die zugrundeliegende Netzwerkinfrastruktur automatisch auf der Grundlage Ihrer Präferenzen und Echtzeit-Reportings Ihrer Anwendungen anpassen.” 3. Hyperscaler Google Google bietet eine Reihe von Netzwerkdiensten an, die auf seiner globalen Infrastruktur aufbauen und auf Automatisierung, künstliche Intelligenz und Programmierbarkeit setzen. Mit dem Virtual Private Cloud (VPC) -Service können die Kunden granulare Netzwerkrichtlinien definieren, darunter IP-Adressbereiche, Firewalls, Cloud-VPNs und -Router. Weitere verfügbare Services: DNS, Load Balancing, Content Delivery Network, IDS, NAT, DDoS-Schutz und Web-Application Firewall. Über das Google Network Connectivity Center können Kunden On-Premises-, Google-Cloud- und andere Cloud-Netzwerke miteinander verbinden und sie über einen zentralen Hub managen. Darüber hinaus bietet Google Network Service Tiers an, aus denen die Kunden die jeweils für ihre Workloads passende auswählen können. Das ermöglicht nur eine bessere Kontrolle der Netzwerkkosten, sondern ermöglicht auch, die Performance für Applikationen mit hoher Priorität zu erhöhen. Microsoft Azure Virtual WAN ist eine Architektur auf Hub-and-Spoke-Basis, die Network-as-a-Service für Connectivity, Security und Routing auf dem globalen Azure-Backbone bietet. Kunden können den Abonnementdienst nutzen, um auf verschiedenen Ebenen davon zu profitieren: Skalierbarkeit, einfachere Bereitstellung, reduzierte IT-Kosten, geringe Latenz, hohe Performance und erweitertes Routing. Der Service bietet dabei drei Optionen: Konnektivität für Zweigstellen und Remote-Benutzer (einschließlich SD-WAN-Verbindungen und VPN-Gateways), Security Services wie die Azure-Firewall und virtuelles Routing (Site-to-Site oder Point-to-Point). Um Benutzerfreundlichkeit und die Integration von Drittanbieterprodukten in Azure-Umgebungen zu optimieren, kooperiert Microsoft auch mit anderen Anbietern. So ist beispielsweise die Fortinet FortiGate SD-WAN/Network Virtual Appliance inzwischen nativ in Azure Virtual WAN integriert – ebenso wie der Versa SASE-Service. 4. WAN-Anbieter Graphiant Das US-Startup Graphiant hat einen Service auf den Markt gebracht, der Edge-Konnektivität über sein eigenes privates Netzwerk bietet. Dabei vertritt das Unternehmen die Ansicht, dass MPLS zwar privat und sicher – für heutige Netzwerkanforderungen aber zu unflexibel und kostspielig ist. SD-WAN biete zwar Edge-to-Cloud-Konnektivität über das Consumer-Breitbandnetz – das könne jedoch zu Leistungsproblemen führen. Zudem könne SD-WAN schwierig zu managen und zu warten sein. Die Lösung im Sinne von Graphiant: Kunden verbinden ihre Standorte im Rahmen des Servceangebots mit dem Graphiant-Edge. Dann läuft das gesamte Routing über einen “Multi-Tenant Stateless Core”, der beliebige Konnektivität zwischen den Standorten ermöglicht. Zum Offering gehört auch maßgeschneiderte Hardware, die laut Graphiant vom Kunden über ein Cloud-basiertes Managementportal einfach konfiguriert und programmiert werden kann, um Service Level Agreements (SLAs) für Anwendungen zu erstellen. Die Konnektivität auf der letzten Meile kann über jede Art von Netzwerk erfolgen, auch über das Internet. Der Datenverkehr wird von Punkt zu Punkt verschlüsselt und während der Übertragung niemals entschlüsselt. Die Benefits seines Service sieht Graphiant in: einer schnelleren Bereitstellung und Skalierung von Netzwerkressourcen, der beschleunigten und vereinfachten Inbetriebnahme von Cloud-Ressourcen, der verbesserten Sicherheit durch Ende-zu-Ende-Verschlüsselung, der vorhersehbaren Anwendungsleistung sowie den geringeren Kosten. Die dem Angebot zugrundeliegende Technologie heißt Vector Packet Processing (VPP) – ein Open-Source-Framework, um verschlüsselten Netzwerk-Traffic zu beschleunigen. Mit VPP fügt die Plattform Metadaten-Etiketten an Pakete an, die dem Netzwerk Informationen darüber geben, welchen Weg ein Paket nehmen sollte, um sein Ziel zu erreichen. VPP fasst auch mehrere Pakete zusammen, so dass die Verarbeitung in großen Mengen erfolgt, was sich positiv auf die Performance auswirkt. Megaport Dieser Anbieter arbeitet mit Hyperscalern, Colocation-Anbietern und SD-WAN/SASE-Vendoren wie Cisco zusammen, um ein Multi-Cloud-Overlay, ein sogenanntes Software-defined Cloud Interconnect (SDCI), bereitzustellen. Mit Megaport One nehmen Kunden keine Änderungen an ihren SD-WAN- oder SASE-Implementierungen vor: Sie leiten den entsprechenden Traffic einfach über das private Megaport 700-PoP-Netzwerk – statt über das öffentliche Internet. Megaports sichere Cloud-Konnektivität in Serviceform realisiert zahlreiche NaaS-Benefits: ein Abonnement-Zahlungsmodell, Scale-up-/Scale-down-Optionen, schneller Bereitstellung, Echtzeit-Reporting und -Analyse sowie automatisierte Bestellung, Bereitstellung und Orchestrierung von Cloud-Netzwerkressourcen. Zu den Anwendungsfällen gehören High-Performance-Computing-Infrastrukturen (HPC), die Vernetzung von On-Prem-zu-Cloud oder Cloud-zu-Cloud sowie die effizientere Bereitstellung von Applikationen in der Cloud. Mit Megaport als herstellerneutralem Vermittler können Kunden die besten Optionen von Cloud- und Netzwerk-Equipment-Anbietern auswählen und sich über einen einzigen physischen SDCI-Port mit allen Cloud-basierten Ressourcen verbinden. Perimeter 81 Eine Cloud-basierte, konvergierte Netzwerk- und Sicherheitsplattform als Service hat Perimeter 81 im Angebot. Sie umfasst: eine VPN-Alternative, Firewall-as-a-Service, Secure Web Gateway, Malware-Schutz, einen Software-defined Permeter sowie Zero Trust Network Access. In Bezug auf die Architektur besteht das Network-as-a-Service-Angebot von Perimeter 81 aus drei Teilen: dem Client, der auf dem Endbenutzergerät läuft, dem Controller, der die Zugriffskontrolle durchsetzt, und den Gateways, die den Datenverkehr verschlüsseln. Das Deployment läuft über einen Webbrowser – hierbei richtet die IT Gateways zum nächstgelegenen Perimeter 81 PoP ein und anschließend verschlüsselte Tunnel zu Cloud oder einer lokalen Umgebung. Im nächsten Schritt folgt das User Onboarding und die Erstellung von Gruppen. Letztere können – basierend auf ihren Anmeldeinformationen, Gerätepositionen, IP-Adressen und anderen granularen Merkmalen – auf bestimmte Teile des Netzwerks zugreifen. Zu den Benefits dieser Lösung zählen: schnelle Bereitstellung, Support für gängige SaaS-Anwendungen, unbegrenzte Bandbreite, automatisierte Wi-Fi-Sicherheit, DNS-Filtering, Zwei-Faktor-Authentifizierung, Auditing und Reporting. Abgerechnet wird bei Perimeter 81 pro Gateway und Endbenutzer. 5. Multi-Cloud-Provider Alkira Alkira bietet einen Service, der Netzwerk- und Security-Equipment von Herstellern wie Cisco, Fortinet, Palo Alto und HPE-Aruba mit den Cloud-Umgebungen von Amazon Web Services, Microsoft beziehungsweise Azure und Google Cloud integriert. Atif Khan, CTO von Alkira, beschreibt, welches Problem sein Unternehmen lösen möchte: “Moderne Unternehmen haben es schwer, eine Vielzahl von Standorten, Regionen, Benutzern, SD-WAN-Fabrics und Clouds zu managen. Sie brauchen einen schnellen Weg, um all diese Komponenten miteinander zu verbinden. Das geht mit Cloud Area Networking.” Der Alkira-Service bietet: Firewall-as-a-Service, Netzwerksegmentierung, sowie Routing zwischen Cloud-Regionen, On-Premises- und SaaS-Anwendungen. Für den abonnementbasierten Service müssen die Kunden keine Hardware anschaffen und keine Software-Agenten installieren. Das Unternehmen hat etwas kreiert, das von einigen Analysten als “Supercloud” bezeichnet wird: Einen Service, der über mehrere Clouds hinweg läuft, die Cloud-nativen Tools der einzelnen Hyperscaler nutzt und die Grundlagen der einzelnen Cloud-Plattformen abstrahiert, um den Kunden eine einheitliche Experience zu bieten. CTO Khan beschreibt es folgendermaßen: “Stellen Sie sich uns als die Alkira-Cloud vor, die aber innerhalb der Hyperscaler-Infrastruktur sitzt. Indem sie die Roh-Funktionen der Hyperscaler nutzt realisiert sie unbegrenzte Skalierbarkeit.” Aviatrix Aviatrix bietet eine übergeordnete Kontrollebene, die es den Kunden ermöglicht, Netzwerk, Security und Konnektivität zu mehreren Clouds über ein einzelnes Interface zu verwalten. Die Kunden nutzen dabei einen Controller, der auf jeder Cloud-Plattform läuft und automatisch ein Gateway in Betrieb setzt, das eingebettete Sicherheit, Traffic Inspection und Policy Enforcement bietet. Die Gateway-Software bildet eine Netzwerk-Datenebene, über die sich verschiedene Funktionen managen lassen. Zum Beispiel: Netzwerktelemetrie, Fehlerbehebung, Layer-4-Firewalls, NAT-Gateways, Netzwerksegmentierung, Bedrohungserkennung und -abwehr. Aviatrix CoPilot ist die Benutzeroberfläche für zentralisierte Cloud-Netzwerke und Sicherheit. Sie nutzt gängige Netzwerkmanagement-Tools wie Traceroute, Packet Capture und NetFlow-Analysen, um Netzwerkexperten dabei zu unterstützen, den Überblick über Probleme in Multi-Cloud-Umgebungen zu behalten. Der Pay-as-you-go-Service ist auf dem Marktplatz der Cloud-Anbieter verfügbar – ohne Vertragsverhandlungen und ohne Vorabverpflichtung. Aviatrix berechnet die Verbindungen und die über diese Verbindungen bereitgestellten Services. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Network-as-a-Service-Angebote im Überblick​ Network-as-a-Service ist im Kommen. Dieser Artikel verschafft Klarheit im NaaS-Angebotswirrwarr.
Foto: Mike Flippo – SurfsUp – shutterstock.com

Anbieter aller Art springen auf den Network-as-a-Service (NaaS)-Zug auf. Aus Kundenperspektive ist das höchst verwirrend. Schon die Definition von Network-as-a-Service ist nicht klar: Handelt es sich bei NaaS um die Beschaffung von Netzwerk-Equipment auf Abo-Basis oder ist NaaS nur eine andere Art, einen Managed Service zu beschreiben? Oder ist Network-as-a-Service gar etwas grundlegend anderes, das eine wachsende Herausforderung für Netzwerkentscheider adressiert, nämlich Netzwerkkonnektivität, Ausfallsicherheit, Security und Skalierbarkeit in einer Multi-Cloud-Welt bereitzustellen?

Geht es nach IDC-Analyst Brandon Butler, bezeichnet Network-as-a-Service ein Cloud-fähiges, nutzungsbasiertes Verbrauchsmodell, das es Benutzern ermöglicht, Netzwerkfunktionen zu erwerben und zu orchestrieren – ohne eine eigene Infrastruktur besitzen, aufbauen oder warten zu müssen. NaaS kann ein alternatives Verbrauchsmodell für eine breite Palette von Netzwerkelementen bieten – darunter kabelgebundene und drahtlose LANs, WANs und VPNs sowie Zweigstellen, Rechenzentren, Edge-, Multi-Cloud– und Hybrid-Cloud-Umgebungen. Es kann auch genutzt werden, um neue Netzwerkmodelle wie Secure Access Service Edge (SASE) zu realisieren. Vor allem aber befähigt die Technologie IT-Teams dazu:

einfacher (nach oben oder unten) zu skalieren,

neue Services schneller bereitzustellen, sowie

das Verhältnis zwischen Investitions- und Betriebskosten zu optimieren.

Will Townsend, Analyst bei Moor Insights, weiß, was Bestandteil eines vollständigen NaaS-Offerings sein sollte: “Das umfasst mehrere Schlüsselelemente. Zum einen eine hochskalierbare Cloud-native Architektur. Zum anderen ein hohes Maß an Automatisierung und die Einbindung von Künstlicher Intelligenz (KI) und maschinellem Lernen (ML), um selbstheilende, beobachtbare und sichere Systeme zu ermöglichen. Dieser architektonische Ansatz ermöglicht es Unternehmen auch, Leistungsoptimierung auf bestimmte Workloads zuzuschneiden. Zu den weiteren potenziellen Vorteilen gehören eine garantierte Servicequalität, eine verbesserte IT-Flexibilität und ein Ressourcenmanagement für den Line-of-Business-Support. Last, but not least kann die Infrastruktur als Betriebsausgabe in der Bilanz verbucht werden.”

Die NaaS-Anbieterlandschaft lässt sich in fünf Kategorien unterteilen:

Netzwerkausrüster,

TK-Anbieter,

Cloud-Service-Anbieter,

WAN-Anbieter und

Multi-Cloud-Netzwerk-Provider.

Im Folgenden finden Sie einen Überblick über die besten Anbieter in den jeweiligen Bereichen – und was diese in Sachen Network-as-a-Service zu bieten haben.

1. Netzwerkausrüster

HPE-Aruba

Mit der Einführung von GreenLake NaaS im Jahr 2017 und der Ankündigung im Jahr 2019, sein gesamtes Portfolio in Service-Form anbieten zu wollen, hat sich HPE-Aruba als Marktführer im NaaS-Bereich etabliert. Zuletzt hat HPE die Network-as-a-Service-Nutzung für seine Kunden vereinfacht, indem es ihnen vorkonfigurierte Servicepakete zur Verfügung stellt. Diese sind verfügbar für:

drahtlose und kabelgebundene Netzwerke,

SD-Branch,

SD-WAN,

Netzwerkrichtlinien und

User Experience.

Jedes dieser Pakete enthält Hardware-, Software- und Servicekomponenten von Aruba.

Hinter GreenLake NaaS für Aruba steht ein Abo-basiertes, monatliches Bezahlmodell, das den Kunden ermöglicht, die Leistung je nach Geschäftsanforderungen zu skalieren, Altgeräte zu recyclen und ein Dashboard für die Customer Experience sowie automatische Hardware- und Software-Updates zur Verfügung stellt. Eine remote durch Aruba gemanagte und überwachte Option ist ebenfalls verfügbar.

Eine weitere NaaS-Option aus selbem Hause ist GreenLake für Microsoft Azure Stack HCI. Damit können die Kunden Windows– und Linux-VMs in Hybrid-Clouds, On-Premise- und Edge-Umgebungen betreiben. Dieses Offering ist auf Grundlage von Lighthouse konzipiert, einer physischen Infrastruktur, die Rechen-, Storage- und Netzwerkfunktionen umfasst und an den Standort des Kunden geliefert wird.

Darüber hinaus hat HPE auch ein Storage-basiertes NaaS namens GreenLake Cloud Data Services im Angebot, mit dem die Kunden selbst eine Storage-Infrastruktur als Service bereitstellen können. Eine Option für High-Performance-Computing bietet zudem Zugang zu fortschrittlichen Nvidia-GPUs.

Juniper Networks

Auch bei Juniper Networks setzt man mit Nachdruck auf Network-as-a-Service: Das Unternehmen bietet nicht nur Netzwerkfunktionen als Service an, sondern stellt über Managed Service Provider und Reseller auch einen klaren Deployment-Pfad zur Verfügung. Über seinen Finanzarm (Juniper Financial Services) bietet das Unternehmen sogar flexible Finanzierungsmöglichkeiten an.

Juniper NaaS nutzt seine Cloud-basierte AIOps-Plattform (basierend auf der Technologie von Mist Systems), die es ermöglicht, kabelgebundene Netzwerke, Wireless-Implementierungen und SD-WAN über ein einziges Portal zu managen. Dabei steht den Kunden die Option offen, den Weg über einen MSP zu gehen, der die internen Systeme des Kunden über APIs einbinden kann. Die andere Option: Bei Resellern kaufen, das System selbst managen und in den Genuss einer Abo-basierten Abrechnung kommen. Zu den Benefits, die Juniper NaaS realisieren kann, gehören:

Insights und Automatisierung über den gesamten Netzwerk-Stack zu ermöglichen, sowie

anpassbare und transparente Service-Levels bis auf Client-, Anwendungs- und Sitzungsebene umzusetzen, um eine optimale Benutzererfahrung zu gewährleisten.

Der Service will Kunden zudem in die Lage versetzen, Cloud-Services einfach(er) zu skalieren sowie die Netzwerknutzung zu managen und zu überwachen. Darüber hinaus integriert Juniper die Sicherheit in die Netzwerkstruktur, indem es Transparenz, Threat Intelligence und Policy Enforcement auf jeden Verbindungspunkt ausweitet. Anfang 2024 wurde bekannt, dass Hewlett Packard Enterprise (HPE) Juniper Networks für 14 Milliarden Dollar übernehmen möchte. Die Übernahme soll spätestens Anfang 2025 abgeschlossen sein.

Dell

Im Jahr 2019 kündigte Michael Dell an, sein Unternehmen wolle aggressiv in den Bereich NaaS einsteigen. Er hat nicht zuviel versprochen: Dell hat inzwischen ein breitgefächertes Portfolio an Storage-, Datensicherheits- und Rechenressourcen in as-a-Service-Form an.

Dell APEX NaaS umfasst dabei:

Block-, Datei- und Objektspeicher,

Backup und Disaster Recovery,

virtuelle Maschinen,

Container,

Anwendungsentwicklung und

High-Performance Computing.

Die Dell APEX-Konsole soll dabei die Kontrolle über alle Daten ermöglichen, unabhängig davon, wo sich der Nutzer befindet. Im Ergebnis verspricht Dell besseren Schutz vor Cyberangriffen, mehr Datenschutz, Compliance und kürzere Reaktionszeiten auf Cybervorfälle.

Auf strategischer(er) Ebene kann APEX laut Dell Unternehmen auch dabei unterstützen, konsistente Prozesse über verschiedene Cloud-Umgebungen hinweg zu erreichen, die Lücke zwischen Public-Cloud-Agilität und Private-Cloud-Kontrolle zu schließen und Abläufe zu rationalisieren.

Um die Kunden bei der Planung beziehungsweise dem Übergang auf Network-as-a-Service zu unterstützen, bietet Dell einen dedizierten Service an. Für Kunden, die die Dell-Infrastruktur in Equinix-Rechenzentren betreiben wollen, steht auch eine Managed-Services-Option zur Verfügung.

Cisco

Laut CEO Chuck Robbins plant Cisco, sein gesamtes Portfolio in NaaS-Form anzubieten. Dabei verfolgt der Netzwerkriese allerdings einen iterativen Ansatz. Das erste Offering, das dieser Strategie entsprungen ist, heißt Cisco Plus Hybrid Cloud und umfasst verbrauchsbasierte Optionen für:

virtuelle Desktop-Infrastrukturen (hyperkonvergente Cisco HyperFlex-Infrastrukturen mit VDI-Software von Drittanbietern),

Edge Computing,

Virtualisierung und

Bare Metal Computing (auf Cisco UCS-Servern) sowie

Rechenzentrumsnetzwerke (mit Cisco Nexus- und MDS-Switches).

Zudem hat der Konzern mit Cisco+ Secure Connect Now einen schlüsselfertigen SASE-Abonnementdienst eingeführt. Der Service integriert Funktionen, die Cisco im Laufe der letzten Jahre erworben hat, darunter:

SD-WAN von Meraki,

Zero Trust Network Access von Duo und

Observability von ThousandEyes.

Axians

Auch für IT-Dienstleister Axians stellt Network-as-a-Service die “logische Alternative” zum selbst gemanagten Netzwerk dar. Das Unternehmen, das zum französischen Bauriesen Vinci gehört, möchte mit seinem NaaS-Offering die Kunden dabei unterstützen, Aufwand, Komplexität und Kosten zu reduzieren, dabei aber den Anforderungen des digitalen Zeitalters gerecht zu werden. Das NaaS-Angebot von Axians gliedert sich dabei in sechs verschiedene Bereiche:

SD-WAN-as-a-Service

WiFi-as-a-Service

LAN-as-a-Service

Data-Center-as-a-Service

Security-as-a-Service

Collaboration

Kunden, die sich in Sachen NaaS für Axians entscheiden, durchlaufen nach Angaben des Unternehmens einen vierstufigen Prozess, der sie zum standardisierten Netzwerk führt:

In der Design-Phase wird das optimale Netzwerk auf Grundlage von Best Practices und den individuellen Unternehmensanforderungen aufgebaut.

In der Build-Phase werden zum Netzwerkprofil passende, technische und funktionale Standards eingezogen.

In der Go-Live-Phase wird die Kundenhardware durch neue vorkonfigurierte und durchgängig gemanagte State-of-the-Art-Devices ersetzt.

In der Service-Phase wählen die Kunden nach Angaben von Axians lediglich noch das gewünschte Servicelevel aus und verlassen sich anschließend auf die hauseigenen Expertenteams.

Auch Axians setzt in Sachen Abrechnung auf ein Abomodell mit monatlichen Gebühren.

2. Telcos

Vodafone

Der TK-Riese Vodafone steigt mit seinem Angebotspaket “Total Cloud Managed Hosting” ebenfalls in den NaaS-Ring. Das Versprechen für die Kunden: Eine “individualisierte Enterprise-Class-Infrastruktur”, die exakt auf die jeweiligen Unternehmensanforderungen passen soll. Dabei setzt der Anbieter vor allem auf Datenschutz und Sicherheit: Die Infrastruktur der Kunden wird ausschließlich in zertifizierten (ISO 27001 und 9001) deutschen Rechenzentren gehostet. Zusätzliche, zubuchbare Security Services sind unter anderem:

Firewalls,

IDS,

SIM,

HIDS,

DDoS-Schutz und

Content Security.

Dabei verspricht Vodafone den Kunden nicht nur mehr Effizienz, weniger Kosten, maximale Verfügbarkeit und standesgemäßen Support, sondern auch, deren gesamten Hardware-Stack durchgängig zu managen und zu überwachen. Für den Telekommunikationsanbieter spricht darüber hinaus sein weitläufiges Glasfasernetz, das einen reibungslosen Datenverkehr gewährleisten soll.

Verizon

Auch Verizon setzt auf Network-as-a-Service und nutzt sein riesiges globales Netzwerk, seine Managed-Service-Expertise und seine engen Beziehungen zu Enterprise-Kunden, um Managed Services in den Bereichen SD-WAN, VoIP und Security in ein modulares, skalierbares und nutzungsabhängiges Format zu pressen.

Nach Angaben von Verizon läuft sein NaaS auf einem programmierbaren, modernisierten Netzwerk und stellt (im Vergleich mit traditionellen Netzwerkinfrastrukturen) agilere, widerstandsfähigere und Cloud-zentrierte Services bereit. Auf strategischer Ebene soll das Offering auch neue Geschäftsmodelle unterstützen und zur Operations-Transformation beitragen.

Zu den weiteren Benefits der Verizon-Lösung gehören ein hohes Performance-, Effizienz- und Agilitäts-Level und niedrigere Investitionskosten, Zudem entfallen Hardware-Upgrades und die NaaS-Plattform bietet Transparenz und eine automatisierte Kontrolle der Netzwerkfunktionen, ermöglicht Unternehmen Einblicke in die Netzwerk- und Anwendungsleistung und vereinfacht das Netzwerkmanagement durch Automatisierung und zentrale Tools.

Um Unternehmen bei der Entwicklung und Umsetzung einer NaaS-Strategie zu unterstützen, bietet der TK-Konzern sowohl ein eigenes Serviceteam als auch ein Partner-Ökosystem.

Lumen Technologies

Lumen Technologies (ehemals CenturyLink) will Network-as-a-Service mit einer Self-Service-Bereitstellung sicherer WAN-Konnektivität über ein privates Netzwerk (abgerechnet auf Stundenbasis) auf die nächste Stufe heben. Für stabilere Workloads bietet das Unternehmen auch monatliche Abrechnungsoptionen an.

Das Offering, das die Kunden überzeugen soll: Statt sich die Mühe zu machen, ein SD-WAN-Overlay zu implementieren und den Datenverkehr über das unsichere Internet laufen zu lassen, sollen Unternehmen in den Genuss der Vorteile flexibler, optimierter und sicherer Verbindungen über ein globales, privates Netzwerk kommen.

Der Dynamic Connections Service von Lumen hilft Unternehmen dabei, die WAN-Kapazität schnell zu erhöhen, um saisonale Nachfragespitzen zu bewältigen. Auch wenn es um die WAN-Traffic-Performance und darum geht, Workloads dynamisch zu managen, stehen die Kunden nicht im Regen.

Der US-TK-Anbieter selbst betrachtet sein aktuelles NaaS-Angebot als Beispiel dafür, wohin sich die Technologie entwickelt: “In Zukunft müssen Sie nicht mehr selbst Verbindungen aufbauen, sondern können erwarten, dass APIs die zugrundeliegende Netzwerkinfrastruktur automatisch auf der Grundlage Ihrer Präferenzen und Echtzeit-Reportings Ihrer Anwendungen anpassen.”

3. Hyperscaler

Google

Google bietet eine Reihe von Netzwerkdiensten an, die auf seiner globalen Infrastruktur aufbauen und auf Automatisierung, künstliche Intelligenz und Programmierbarkeit setzen.

Mit dem Virtual Private Cloud (VPC) -Service können die Kunden granulare Netzwerkrichtlinien definieren, darunter IP-Adressbereiche, Firewalls, Cloud-VPNs und -Router. Weitere verfügbare Services:

DNS,

Load Balancing,

Content Delivery Network,

IDS,

NAT,

DDoS-Schutz und

Web-Application Firewall.

Über das Google Network Connectivity Center können Kunden On-Premises-, Google-Cloud- und andere Cloud-Netzwerke miteinander verbinden und sie über einen zentralen Hub managen.

Darüber hinaus bietet Google Network Service Tiers an, aus denen die Kunden die jeweils für ihre Workloads passende auswählen können. Das ermöglicht nur eine bessere Kontrolle der Netzwerkkosten, sondern ermöglicht auch, die Performance für Applikationen mit hoher Priorität zu erhöhen.

Microsoft

Azure Virtual WAN ist eine Architektur auf Hub-and-Spoke-Basis, die Network-as-a-Service für Connectivity, Security und Routing auf dem globalen Azure-Backbone bietet. Kunden können den Abonnementdienst nutzen, um auf verschiedenen Ebenen davon zu profitieren:

Skalierbarkeit,

einfachere Bereitstellung,

reduzierte IT-Kosten,

geringe Latenz,

hohe Performance und

erweitertes Routing.

Der Service bietet dabei drei Optionen:

Konnektivität für Zweigstellen und Remote-Benutzer (einschließlich SD-WAN-Verbindungen und VPN-Gateways),

Security Services wie die Azure-Firewall und

virtuelles Routing (Site-to-Site oder Point-to-Point).

Um Benutzerfreundlichkeit und die Integration von Drittanbieterprodukten in Azure-Umgebungen zu optimieren, kooperiert Microsoft auch mit anderen Anbietern. So ist beispielsweise die Fortinet FortiGate SD-WAN/Network Virtual Appliance inzwischen nativ in Azure Virtual WAN integriert – ebenso wie der Versa SASE-Service.

4. WAN-Anbieter

Graphiant

Das US-Startup Graphiant hat einen Service auf den Markt gebracht, der Edge-Konnektivität über sein eigenes privates Netzwerk bietet. Dabei vertritt das Unternehmen die Ansicht, dass MPLS zwar privat und sicher – für heutige Netzwerkanforderungen aber zu unflexibel und kostspielig ist. SD-WAN biete zwar Edge-to-Cloud-Konnektivität über das Consumer-Breitbandnetz – das könne jedoch zu Leistungsproblemen führen. Zudem könne SD-WAN schwierig zu managen und zu warten sein.

Die Lösung im Sinne von Graphiant: Kunden verbinden ihre Standorte im Rahmen des Servceangebots mit dem Graphiant-Edge. Dann läuft das gesamte Routing über einen “Multi-Tenant Stateless Core”, der beliebige Konnektivität zwischen den Standorten ermöglicht. Zum Offering gehört auch maßgeschneiderte Hardware, die laut Graphiant vom Kunden über ein Cloud-basiertes Managementportal einfach konfiguriert und programmiert werden kann, um Service Level Agreements (SLAs) für Anwendungen zu erstellen. Die Konnektivität auf der letzten Meile kann über jede Art von Netzwerk erfolgen, auch über das Internet. Der Datenverkehr wird von Punkt zu Punkt verschlüsselt und während der Übertragung niemals entschlüsselt.

Die Benefits seines Service sieht Graphiant in:

einer schnelleren Bereitstellung und Skalierung von Netzwerkressourcen,

der beschleunigten und vereinfachten Inbetriebnahme von Cloud-Ressourcen,

der verbesserten Sicherheit durch Ende-zu-Ende-Verschlüsselung,

der vorhersehbaren Anwendungsleistung sowie

den geringeren Kosten.

Die dem Angebot zugrundeliegende Technologie heißt Vector Packet Processing (VPP) – ein Open-Source-Framework, um verschlüsselten Netzwerk-Traffic zu beschleunigen. Mit VPP fügt die Plattform Metadaten-Etiketten an Pakete an, die dem Netzwerk Informationen darüber geben, welchen Weg ein Paket nehmen sollte, um sein Ziel zu erreichen. VPP fasst auch mehrere Pakete zusammen, so dass die Verarbeitung in großen Mengen erfolgt, was sich positiv auf die Performance auswirkt.

Megaport

Dieser Anbieter arbeitet mit Hyperscalern, Colocation-Anbietern und SD-WAN/SASE-Vendoren wie Cisco zusammen, um ein Multi-Cloud-Overlay, ein sogenanntes Software-defined Cloud Interconnect (SDCI), bereitzustellen. Mit Megaport One nehmen Kunden keine Änderungen an ihren SD-WAN- oder SASE-Implementierungen vor: Sie leiten den entsprechenden Traffic einfach über das private Megaport 700-PoP-Netzwerk – statt über das öffentliche Internet.

Megaports sichere Cloud-Konnektivität in Serviceform realisiert zahlreiche NaaS-Benefits:

ein Abonnement-Zahlungsmodell,

Scale-up-/Scale-down-Optionen,

schneller Bereitstellung,

Echtzeit-Reporting und -Analyse sowie

automatisierte Bestellung, Bereitstellung und Orchestrierung von Cloud-Netzwerkressourcen.

Zu den Anwendungsfällen gehören High-Performance-Computing-Infrastrukturen (HPC), die Vernetzung von On-Prem-zu-Cloud oder Cloud-zu-Cloud sowie die effizientere Bereitstellung von Applikationen in der Cloud.

Mit Megaport als herstellerneutralem Vermittler können Kunden die besten Optionen von Cloud- und Netzwerk-Equipment-Anbietern auswählen und sich über einen einzigen physischen SDCI-Port mit allen Cloud-basierten Ressourcen verbinden.

Perimeter 81

Eine Cloud-basierte, konvergierte Netzwerk- und Sicherheitsplattform als Service hat Perimeter 81 im Angebot. Sie umfasst:

eine VPN-Alternative,

Firewall-as-a-Service,

Secure Web Gateway,

Malware-Schutz,

einen Software-defined Permeter sowie

Zero Trust Network Access.

In Bezug auf die Architektur besteht das Network-as-a-Service-Angebot von Perimeter 81 aus drei Teilen:

dem Client, der auf dem Endbenutzergerät läuft,

dem Controller, der die Zugriffskontrolle durchsetzt, und

den Gateways, die den Datenverkehr verschlüsseln.

Das Deployment läuft über einen Webbrowser – hierbei richtet die IT Gateways zum nächstgelegenen Perimeter 81 PoP ein und anschließend verschlüsselte Tunnel zu Cloud oder einer lokalen Umgebung. Im nächsten Schritt folgt das User Onboarding und die Erstellung von Gruppen. Letztere können – basierend auf ihren Anmeldeinformationen, Gerätepositionen, IP-Adressen und anderen granularen Merkmalen – auf bestimmte Teile des Netzwerks zugreifen.

Zu den Benefits dieser Lösung zählen:

schnelle Bereitstellung,

Support für gängige SaaS-Anwendungen,

unbegrenzte Bandbreite,

automatisierte Wi-Fi-Sicherheit,

DNS-Filtering,

Zwei-Faktor-Authentifizierung,

Auditing und

Reporting.

Abgerechnet wird bei Perimeter 81 pro Gateway und Endbenutzer.

5. Multi-Cloud-Provider

Alkira

Alkira bietet einen Service, der Netzwerk- und Security-Equipment von Herstellern wie Cisco, Fortinet, Palo Alto und HPE-Aruba mit den Cloud-Umgebungen von Amazon Web Services, Microsoft beziehungsweise Azure und Google Cloud integriert. Atif Khan, CTO von Alkira, beschreibt, welches Problem sein Unternehmen lösen möchte: “Moderne Unternehmen haben es schwer, eine Vielzahl von Standorten, Regionen, Benutzern, SD-WAN-Fabrics und Clouds zu managen. Sie brauchen einen schnellen Weg, um all diese Komponenten miteinander zu verbinden. Das geht mit Cloud Area Networking.”

Der Alkira-Service bietet:

Firewall-as-a-Service,

Netzwerksegmentierung, sowie

Routing zwischen Cloud-Regionen, On-Premises- und SaaS-Anwendungen.

Für den abonnementbasierten Service müssen die Kunden keine Hardware anschaffen und keine Software-Agenten installieren.

Das Unternehmen hat etwas kreiert, das von einigen Analysten als “Supercloud” bezeichnet wird: Einen Service, der über mehrere Clouds hinweg läuft, die Cloud-nativen Tools der einzelnen Hyperscaler nutzt und die Grundlagen der einzelnen Cloud-Plattformen abstrahiert, um den Kunden eine einheitliche Experience zu bieten. CTO Khan beschreibt es folgendermaßen: “Stellen Sie sich uns als die Alkira-Cloud vor, die aber innerhalb der Hyperscaler-Infrastruktur sitzt. Indem sie die Roh-Funktionen der Hyperscaler nutzt realisiert sie unbegrenzte Skalierbarkeit.”

Aviatrix

Aviatrix bietet eine übergeordnete Kontrollebene, die es den Kunden ermöglicht, Netzwerk, Security und Konnektivität zu mehreren Clouds über ein einzelnes Interface zu verwalten.

Die Kunden nutzen dabei einen Controller, der auf jeder Cloud-Plattform läuft und automatisch ein Gateway in Betrieb setzt, das eingebettete Sicherheit, Traffic Inspection und Policy Enforcement bietet. Die Gateway-Software bildet eine Netzwerk-Datenebene, über die sich verschiedene Funktionen managen lassen. Zum Beispiel:

Netzwerktelemetrie,

Fehlerbehebung,

Layer-4-Firewalls,

NAT-Gateways,

Netzwerksegmentierung,

Bedrohungserkennung und -abwehr.

Aviatrix CoPilot ist die Benutzeroberfläche für zentralisierte Cloud-Netzwerke und Sicherheit. Sie nutzt gängige Netzwerkmanagement-Tools wie Traceroute, Packet Capture und NetFlow-Analysen, um Netzwerkexperten dabei zu unterstützen, den Überblick über Probleme in Multi-Cloud-Umgebungen zu behalten.

Der Pay-as-you-go-Service ist auf dem Marktplatz der Cloud-Anbieter verfügbar – ohne Vertragsverhandlungen und ohne Vorabverpflichtung. Aviatrix berechnet die Verbindungen und die über diese Verbindungen bereitgestellten Services. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Network-as-a-Service-Angebote im Überblick​ Weiterlesen »

Chromebooks sind die besseren Entwicklermaschinen​

Allgemein

Lesen Sie, warum unser Autor auf ChromeOS schwört, um Software zu schreiben.CC Photo Lab | shutterstock.com Ich bin ein Windows-Fan der ersten Stunde und habe schon in den späten 1980er Jahren erste Erfahrungen mit Windows 1.02 gesammelt – damals auf einem IBM PS/2 Model 25. Auch Windows 3.1, 2000 und 7 sind mir als Developer in guter Erinnerung (aus bekannten Gründen hüllen wir den Mantel des Schweigens um Windows 8). Vor ein paar Jahren ereilte mich dann die Erkenntnis, dass ich rund 98 Prozent meiner Arbeitszeit innerhalb des Chrome-Browsers verbringe und nur noch höchste selten auf Windows-Applikationen zurückgreife. Die einzige Ausnahme: Visual Studio Code. Da sich Microsofts Entwickler-Tool jedoch auf ChromeOS nativ ausführen lässt, gab es keinen triftigen Grund, einem Chromebook nicht wenigstens einmal eine Chance zu geben. Zu meiner Überraschung klappte dieser Umstieg reibungslos – inklusive sämtlicher dafür nötiger Extensions. Chromebook-Vorzüge für Entwickler Die Vorteile, die ein Chromebook, beziehungsweise Chrome OS, mit Blick auf die Softwareentwicklungsarbeit verwirklichen: ChromeOS startet in Sekunden und aktualisiert sich automatisch im Hintergrund. Langwierige, riskante und mühsame Update-Sessions wie unter Windows entfallen. Das Google-Betriebssystem ist außerdem auch im Handumdrehen aufgesetzt – ganz im Gegensatz zu Windows. Auch der „Blue Screen of Death“ ist kein Thema mehr. Bloatware ist nicht existent und die Virenlast ist wesentlich geringer als bei Windows, was leichtgewichtige(re) Sicherheitslösungen erlaubt. Die Hardware von Chromebooks ist allgemein vergleichsweise günstig, allerdings sehr robust. Natürlich waren dennoch einige Anpassungen nötig. Zum Beispiel empfiehlt es sich, Chrome Remote Desktop als Alternative zu komplexen Windows-Utilities zu verwenden. Zudem ist es empfehlenswert, das API-Tool Postman in Kombination mit VS Code zu nutzen. Das war es dann aber auch schon. Die einzige echte Einschränkung, mit der sich Developer mit Chromebook-Ambitionen auseinandersetzen sollten, ist der Punkt Systemspeicher: Die meisten günstige(re)n Chromebook-Geräte sind lediglich mit 8 GB RAM ausgestattet, was bei intensiveren Workloads zu Geschwindigkeitsproblemen bei der Arbeit mit Visual Studio Code führen kann. Ein Chromebook mit 16 GB RAM ist deshalb zu empfehlen, „in“ günstig aber nicht unbedingt leicht zu finden. Diese Herausforderung anzunehmen, lohnt sich jedoch mit Blick auf die vielen Vorteile für Entwickler. Diese müssen übrigens (wie ich selbst) auch keine Linux-Genies sein, um direkt mit ChromeOS durchzustarten: Selbst VS Code zu installieren erfordert nicht mehr als einen Doppelklick auf die entsprechende *.deb-Datei. Wenn nur alles in der Technologiewelt so simpel wäre. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Chromebooks sind die besseren Entwicklermaschinen​ Lesen Sie, warum unser Autor auf ChromeOS schwört, um Software zu schreiben.CC Photo Lab | shutterstock.com

Ich bin ein Windows-Fan der ersten Stunde und habe schon in den späten 1980er Jahren erste Erfahrungen mit Windows 1.02 gesammelt – damals auf einem IBM PS/2 Model 25. Auch Windows 3.1, 2000 und 7 sind mir als Developer in guter Erinnerung (aus bekannten Gründen hüllen wir den Mantel des Schweigens um Windows 8).

Vor ein paar Jahren ereilte mich dann die Erkenntnis, dass ich rund 98 Prozent meiner Arbeitszeit innerhalb des Chrome-Browsers verbringe und nur noch höchste selten auf Windows-Applikationen zurückgreife. Die einzige Ausnahme: Visual Studio Code.

Da sich Microsofts Entwickler-Tool jedoch auf ChromeOS nativ ausführen lässt, gab es keinen triftigen Grund, einem Chromebook nicht wenigstens einmal eine Chance zu geben. Zu meiner Überraschung klappte dieser Umstieg reibungslos – inklusive sämtlicher dafür nötiger Extensions.

Chromebook-Vorzüge für Entwickler

Die Vorteile, die ein Chromebook, beziehungsweise Chrome OS, mit Blick auf die Softwareentwicklungsarbeit verwirklichen:

ChromeOS startet in Sekunden und aktualisiert sich automatisch im Hintergrund. Langwierige, riskante und mühsame Update-Sessions wie unter Windows entfallen.

Das Google-Betriebssystem ist außerdem auch im Handumdrehen aufgesetzt – ganz im Gegensatz zu Windows.

Auch der „Blue Screen of Death“ ist kein Thema mehr.

Bloatware ist nicht existent und die Virenlast ist wesentlich geringer als bei Windows, was leichtgewichtige(re) Sicherheitslösungen erlaubt.

Die Hardware von Chromebooks ist allgemein vergleichsweise günstig, allerdings sehr robust.

Natürlich waren dennoch einige Anpassungen nötig. Zum Beispiel empfiehlt es sich, Chrome Remote Desktop als Alternative zu komplexen Windows-Utilities zu verwenden. Zudem ist es empfehlenswert, das API-Tool Postman in Kombination mit VS Code zu nutzen. Das war es dann aber auch schon.

Die einzige echte Einschränkung, mit der sich Developer mit Chromebook-Ambitionen auseinandersetzen sollten, ist der Punkt Systemspeicher: Die meisten günstige(re)n Chromebook-Geräte sind lediglich mit 8 GB RAM ausgestattet, was bei intensiveren Workloads zu Geschwindigkeitsproblemen bei der Arbeit mit Visual Studio Code führen kann. Ein Chromebook mit 16 GB RAM ist deshalb zu empfehlen, „in“ günstig aber nicht unbedingt leicht zu finden.

Diese Herausforderung anzunehmen, lohnt sich jedoch mit Blick auf die vielen Vorteile für Entwickler. Diese müssen übrigens (wie ich selbst) auch keine Linux-Genies sein, um direkt mit ChromeOS durchzustarten: Selbst VS Code zu installieren erfordert nicht mehr als einen Doppelklick auf die entsprechende *.deb-Datei. Wenn nur alles in der Technologiewelt so simpel wäre. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Chromebooks sind die besseren Entwicklermaschinen​ Weiterlesen »

Noise Cancelling: Ist die Geräuschunterdrückung gefährlich?​

Allgemein

Foundry In der Großstadt ist man ständig dem Lärm ausgesetzt. Da ist es kein Wunder, dass hier immer öfter Menschen mit Kopfhörern zu sehen sind, die lieber Podcasts oder Ariana Grande als Baumaschinen und Verkehrslärm hören. Apple hat mit den Airpods Pro den Airpods Max und den Airpods 4 sehr beliebte Kopfhörer im Programm, die eine hervorragende Geräuschunterdrückung bieten. Auch lange Zugfahrten und Flüge werden damit erstaunlich stressfrei. Seit Februar sorgte allerdings ein Bericht der BBC für Aufsehen, der negative Folgen von Noise Cancelling hervorhob. Der Artikel wurde sofort von anderen Medien wie der Zeitung The Guardian aufgegriffen und seitdem vielfach zitiert. Das Thema ist leider recht komplex. Kann Noise Cancelling Schäden verursachen? Der Hintergrund: Im Alltag ist das Verstehen von Sprache komplizierter und aufwendiger als man vermutet. Führen Sie etwa in einem sehr lauten Lokal ein Gespräch, muss das Gehirn beim Filtern, Zuordnen und Orten von Gesprächspartnern eine echte Leistung vollbringen – nur, damit Sie dem gewünschten Gesprächspartner zuhören können. Man nennt dies auch den „Cocktailparty-Effekt“. Auch das Verstehen von Sprache in einem lauten Klassenzimmer oder Großraumbüro ist nicht immer einfach und kann zu Problemen führen. Vor allem Kinder und jüngere Menschen haben hier manchmal große Probleme. Bei etwa zwei oder drei Prozent aller Kinder kann eine sogenannte Auditive Verarbeitungs Störung (oder Auditory Processing Disorder, auch AVWS genannt) nachgewiesen werden. Zu den Einschränkungen gehört etwa die Fähigkeit, Geräuschquellen zu orten und Gespräche in lauten Umgebungen zu führen. Die Theorie: Die Nutzung von Noise-Cancelling-Kopfhörern könnte diese Probleme verstärken oder vielleicht sogar verursachen. Eine offensichtlich von AVWS betroffene junge Engländerin namens Sophie wird im Artikel der BBC genannt, die starke Probleme mit lauten Geräuschen hat und im Beruf und im Privatleben deutlich beeinträchtigt ist. So gelte sie als jemand, der nie zuhört, “etwas schrullig” sei und einige Probleme im Studium hatte. Ihr Audiologe vermutete, ihre AVWS könnte auch damit zusammenhängen, dass sie etwa fünf Stunden am Tag Kopfhörer mit Noise Cancelling nutzt. Laut National Health Service gebe es nämlich immer öfter junge Erwachsene mit Hörproblemen, die aber keine körperlichen Schäden hätten. Die Vermutung liegt für die BBC nahe, dass die stark gestiegene Nutzung von Noise Cancelling damit im Zusammenhang stehen könnte. Handelt es sich aber hier um einen Einzelfall? Die BBC zitiert zur Unterstützung dieser These Renee Almeida vom Imperial College Healthcare Trust. Sie bestätigt, dass ein steigender Anteil junger Menschen Probleme mit aktivem Hören hätten. Die Audiologin Claire Benton ergänzt, dass die fortgeschrittenen Hörfähigkeiten auch im späten Teenager-Alter noch nicht vollständig entwickelt worden wären. Eine ständige Nutzung von ANC-Kopfhörern könnte wohl tatsächlich die Entwicklung dieser Fähigkeiten verlangsamen, da sie zu einem Unterangebot an auditiven Reizen führt. „Durch das Tragen dieser Kopfhörer hat man sozusagen eine falsche Umgebung geschaffen, in der man nur das hört, was man hören will. Man muss nicht daran arbeiten“, so Benton. Eine Schädigung durch ANC selbst kann allerdings bisher nicht nachgewiesen werden. Im Artikel wird dazu auf noch bestehende Mängel in der Forschung zu diesem Thema verwiesen. Auch einige weitere von der Zeitung The Guardian zu diesem Thema befragte Fachleute wollen keinen direkten Zusammenhang mit der Nutzung von Noise Cancelling bestätigen. So weist eine vom Guardian befragte Professorin der Universität Melbourne auch auf die positiven Aspekte hin. Schließlich ermöglicht die Technik oft erst das Hören von Podcasts und Filmen in lauten Umgebungen. Aufgabe für Logopäden Es gibt zudem einige Unterschiede zwischen England und Deutschland. Die im Artikel vorgestellte Engländerin hatte offenbar die Herausforderung, ihre Probleme bei einem Spezialisten behandeln zu lassen. In Deutschland wäre dafür ein Logopäde zuständig, auch für Erwachsene. Haben etwa Schüler Probleme mit dem verstehenden Hören, wäre es zudem Aufgabe von Lehrern und Eltern, dies frühzeitig festzustellen. Laut Schätzungen ist vielleicht ein Kind pro Schulklasse betroffen, oft auch als Folge einer Hörschädigung.   Hörschäden durch zu hohe Lautstärke Nach meiner Meinung wird ein wichtiger Vorteil dieser Kopfhörer unterschätzt, der auch im Artikel kurz erwähnt wird: Kopfhörer können vor Lärmschäden schützen. Eine Studie hat erst vor einigen Jahren die Lautstärke von Nutzern mit Kopfhörern mit und ohne Noise Cancelling verglichen. Wie zu erwarten, wählten die Anwender ohne Noise Cancelling beim Hören von Musik deutlich höhere Lautstärken – insbesondere in lauten Umgebungen wie einer U-Bahn. Ohne ANC nutzten die Probanden Lautstärkeeinstellungen mit mehr als 85 dBA, mit Noise Cancelling unter 75 dBA. Da längerer Musikgenuss mit Lautstärken oberhalb 75 dBA das Gehör nachhaltig schädigen kann, ist dies ein klarer Vorteil dieser Technologie – wenn überhaupt Kopfhörer genutzt werden. Fazit Allgemein haben HNO-Ärzte wenig Begeisterung für Kopfhörer, primär bei sehr langer Nutzungszeit. Für die meisten Nutzer ist nach meiner Einschätzung Noise Cancelling aber eher nützlich als schädlich: Es reduziert Lärm und somit Stress, Nutzer verwenden die Kopfhörer außerdem mit niedrigerer Lautstärke. Für Menschen mit auditiver Wahrnehmungsstörung kann dieses Herausfiltern aber vielleicht eher schädlich sein. Betroffene sollten dies aber besser mit Ihrem Hausarzt abklären: Schließlich ist diese Störung langfristig nicht nur in Schule und Beruf, sondern auch im Privatleben ein Manko. Ob Noise Cancelling aber für Kinder schädlich ist? Hier fehlt es wohl noch an aussagekräftigen Forschungsergebnissen. (Macwelt) 

Noise Cancelling: Ist die Geräuschunterdrückung gefährlich?​ Foundry

In der Großstadt ist man ständig dem Lärm ausgesetzt. Da ist es kein Wunder, dass hier immer öfter Menschen mit Kopfhörern zu sehen sind, die lieber Podcasts oder Ariana Grande als Baumaschinen und Verkehrslärm hören. Apple hat mit den Airpods Pro den Airpods Max und den Airpods 4 sehr beliebte Kopfhörer im Programm, die eine hervorragende Geräuschunterdrückung bieten. Auch lange Zugfahrten und Flüge werden damit erstaunlich stressfrei.

Seit Februar sorgte allerdings ein Bericht der BBC für Aufsehen, der negative Folgen von Noise Cancelling hervorhob. Der Artikel wurde sofort von anderen Medien wie der Zeitung The Guardian aufgegriffen und seitdem vielfach zitiert. Das Thema ist leider recht komplex.

Kann Noise Cancelling Schäden verursachen?

Der Hintergrund: Im Alltag ist das Verstehen von Sprache komplizierter und aufwendiger als man vermutet. Führen Sie etwa in einem sehr lauten Lokal ein Gespräch, muss das Gehirn beim Filtern, Zuordnen und Orten von Gesprächspartnern eine echte Leistung vollbringen – nur, damit Sie dem gewünschten Gesprächspartner zuhören können. Man nennt dies auch den „Cocktailparty-Effekt“. Auch das Verstehen von Sprache in einem lauten Klassenzimmer oder Großraumbüro ist nicht immer einfach und kann zu Problemen führen.

Vor allem Kinder und jüngere Menschen haben hier manchmal große Probleme. Bei etwa zwei oder drei Prozent aller Kinder kann eine sogenannte Auditive Verarbeitungs Störung (oder Auditory Processing Disorder, auch AVWS genannt) nachgewiesen werden. Zu den Einschränkungen gehört etwa die Fähigkeit, Geräuschquellen zu orten und Gespräche in lauten Umgebungen zu führen. Die Theorie: Die Nutzung von Noise-Cancelling-Kopfhörern könnte diese Probleme verstärken oder vielleicht sogar verursachen.

Eine offensichtlich von AVWS betroffene junge Engländerin namens Sophie wird im Artikel der BBC genannt, die starke Probleme mit lauten Geräuschen hat und im Beruf und im Privatleben deutlich beeinträchtigt ist. So gelte sie als jemand, der nie zuhört, “etwas schrullig” sei und einige Probleme im Studium hatte. Ihr Audiologe vermutete, ihre AVWS könnte auch damit zusammenhängen, dass sie etwa fünf Stunden am Tag Kopfhörer mit Noise Cancelling nutzt.

Laut National Health Service gebe es nämlich immer öfter junge Erwachsene mit Hörproblemen, die aber keine körperlichen Schäden hätten. Die Vermutung liegt für die BBC nahe, dass die stark gestiegene Nutzung von Noise Cancelling damit im Zusammenhang stehen könnte.

Handelt es sich aber hier um einen Einzelfall?

Die BBC zitiert zur Unterstützung dieser These Renee Almeida vom Imperial College Healthcare Trust. Sie bestätigt, dass ein steigender Anteil junger Menschen Probleme mit aktivem Hören hätten. Die Audiologin Claire Benton ergänzt, dass die fortgeschrittenen Hörfähigkeiten auch im späten Teenager-Alter noch nicht vollständig entwickelt worden wären.

Eine ständige Nutzung von ANC-Kopfhörern könnte wohl tatsächlich die Entwicklung dieser Fähigkeiten verlangsamen, da sie zu einem Unterangebot an auditiven Reizen führt. „Durch das Tragen dieser Kopfhörer hat man sozusagen eine falsche Umgebung geschaffen, in der man nur das hört, was man hören will. Man muss nicht daran arbeiten“, so Benton.

Eine Schädigung durch ANC selbst kann allerdings bisher nicht nachgewiesen werden. Im Artikel wird dazu auf noch bestehende Mängel in der Forschung zu diesem Thema verwiesen. Auch einige weitere von der Zeitung The Guardian zu diesem Thema befragte Fachleute wollen keinen direkten Zusammenhang mit der Nutzung von Noise Cancelling bestätigen.

So weist eine vom Guardian befragte Professorin der Universität Melbourne auch auf die positiven Aspekte hin. Schließlich ermöglicht die Technik oft erst das Hören von Podcasts und Filmen in lauten Umgebungen.

Aufgabe für Logopäden

Es gibt zudem einige Unterschiede zwischen England und Deutschland. Die im Artikel vorgestellte Engländerin hatte offenbar die Herausforderung, ihre Probleme bei einem Spezialisten behandeln zu lassen. In Deutschland wäre dafür ein Logopäde zuständig, auch für Erwachsene. Haben etwa Schüler Probleme mit dem verstehenden Hören, wäre es zudem Aufgabe von Lehrern und Eltern, dies frühzeitig festzustellen. Laut Schätzungen ist vielleicht ein Kind pro Schulklasse betroffen, oft auch als Folge einer Hörschädigung.  

Hörschäden durch zu hohe Lautstärke

Nach meiner Meinung wird ein wichtiger Vorteil dieser Kopfhörer unterschätzt, der auch im Artikel kurz erwähnt wird: Kopfhörer können vor Lärmschäden schützen. Eine Studie hat erst vor einigen Jahren die Lautstärke von Nutzern mit Kopfhörern mit und ohne Noise Cancelling verglichen. Wie zu erwarten, wählten die Anwender ohne Noise Cancelling beim Hören von Musik deutlich höhere Lautstärken – insbesondere in lauten Umgebungen wie einer U-Bahn.

Ohne ANC nutzten die Probanden Lautstärkeeinstellungen mit mehr als 85 dBA, mit Noise Cancelling unter 75 dBA. Da längerer Musikgenuss mit Lautstärken oberhalb 75 dBA das Gehör nachhaltig schädigen kann, ist dies ein klarer Vorteil dieser Technologie – wenn überhaupt Kopfhörer genutzt werden.

Fazit

Allgemein haben HNO-Ärzte wenig Begeisterung für Kopfhörer, primär bei sehr langer Nutzungszeit. Für die meisten Nutzer ist nach meiner Einschätzung Noise Cancelling aber eher nützlich als schädlich: Es reduziert Lärm und somit Stress, Nutzer verwenden die Kopfhörer außerdem mit niedrigerer Lautstärke.

Für Menschen mit auditiver Wahrnehmungsstörung kann dieses Herausfiltern aber vielleicht eher schädlich sein. Betroffene sollten dies aber besser mit Ihrem Hausarzt abklären: Schließlich ist diese Störung langfristig nicht nur in Schule und Beruf, sondern auch im Privatleben ein Manko. Ob Noise Cancelling aber für Kinder schädlich ist? Hier fehlt es wohl noch an aussagekräftigen Forschungsergebnissen.

(Macwelt)

Noise Cancelling: Ist die Geräuschunterdrückung gefährlich?​ Weiterlesen »

Mehr Leistung für Laptops gratis: Die besten Tuning-Tools und -Tipps​

Allgemein

istockphoto.com/hh5800 Mit dem Analyse-Tool Aida64 Extreme (Download-Link) prüfen Sie als Erstes, wie sich Ihr Notebook unter Last verhält. Rufen Sie dazu den “Systemstabilitätstest” auf, den Sie im oberen Menü unter “Werkzeuge” finden: Sie können dort auswählen, welche Komponenten, etwa Prozessor, Festplatte und/oder Grafikkarte, Sie belasten wollen. Mit “Start” links unten leiten Sie den Lasttest ein: Im oberen Verlaufsdiagramm erkennen Sie, wie sich die Temperatur verändert. Im unteren Diagramm zeigt Ihnen Aida, ob die CPU “throttelt”, also aufgrund zu hoher Erwärmung ihre Taktrate verringert. In diesem Fall sollten Sie die Lüfter reinigen und die Wärmeleitpaste von CPU und GPU erneuern. Treiber- und BIOS/UEFI-Update Bevor Sie Ihr Notebook tunen, sollten Sie die Hardware-Treiber und das BIOS/UEFI Ihres Notebooks aktualisieren. Ein aktuelles Update kann Optimierungen des Herstellers liefern, wie bessere Leistungs- und Sparfunktionen der CPU oder eine effizientere Lüftersteuerung. Nutzen Sie dazu die vorinstallierten Treiber-Tools der Hersteller. Fast jeder Hersteller installiert ab Werk eine entsprechende Software: Die prüft mit einem Mausklick, ob aktuellere Treiber und BIOS/UEFI-Versionen verfügbar sind oder führt Sie zur Webseite, wo Sie diese herunterladen können. Achten Sie dabei darauf, nur die passenden Updates für Ihr Modell einzuspielen. Tipp: Aktuellere Treiber bekommen Sie meist direkt vom Hersteller des Chipsatzes, der Grafikkarte oder des WLAN-Moduls im Notebook. Notebook-Prozessor übertakten Je nach CPU-Hersteller laden Sie sich bei AMD den Ryzen Master respektive bei Intel das Extreme Tuning Tool herunter. Mit den Tools können Sie über Schieberegler die Taktrate und die Kernspannung (Core Voltage) erhöhen. Gehen Sie dabei behutsam in kleinen Schritten vor und testen Sie nach jeder Änderung mit den Bordmitteln der Tool oder dem “Systemstabilitätstest” von Aida64 Extreme, ob das Notebook noch stabil läuft. Insbesondere bei der Core Voltage sollten Sie sich in kleinen 10 Millivolt Schritten an den maximal möglichen Wert herantasten. Hinweis: Nicht jede Notebook-CPU ist mit den AMD- respektive Intel-Tools kompatibel – manche Hersteller sperren zudem die Übertaktungsfunktion in ihren Laptop-Modellen komplett. AMD Akku-Leistung checken und optimieren Wichtige Informationen zum Notebookakku liefert Batterycare – etwa den aktuellen Ladestand und die daraus resultierende restliche Laufzeit. Im Menü “Detaillierte Infos” führt das Tool außerdem die aktuelle Entladeleistung sowie die Akkuabnutzung in Prozent auf. Akku laden: Diesen Fehler sollten Sie unbedingt vermeiden Unter “Optionen” können Sie überdies einstellen, dass Sie Batterycare mit einem Hinweis über bestimmte Akkuvorgänge informiert – zum Beispiel, wenn die verbleibende Laufzeit unter einen bestimmten Prozentwert sinkt oder der Akku auf eine festgelegte Kapazität aufgeladen wurde. Datenträger-Integrität im Auge behalten Den Zustand der SSD (oder HDD) überwachen Sie mit Crystaldiskinfo – das Tool gibt eine Information zum Gesamtzustand und der Temperatur des Speichermediums aus. Zudem zeigt es die einzelnen Smart-Werte an, mit denen Sie Festplattenfehlern auf die Spur kommen. So können Sie wichtige Dateien oder die gesamte Windows-Installation auf einem externen Laufwerk sichern, bevor es zu einem Ausfall der SSD oder Festplatte kommt. Vor allem HDDs als Systemdatenträger sind starken Belastungen ausgesetzt – deshalb ist ein regelmäßiger Gesundheits-Check hier Pflicht! Wenn Crystaldiksinfo die im Notebook eingebaute SSD (oder HDD) nicht erkennt, können Sie auf ein entsprechendes Analyse-Tool des Herstellers ausweichen. Von wem die SSD in Ihrem Laptop stammt, verrät Aida64 Extreme – oder der Geräte-Manager im Menü “Laufwerke”. WLAN-Verbindungs-Check Die Stabilität und Geschwindigkeit der WLAN-Verbindung Ihres Notebooks prüfen Sie mit Inssider – insbesondere wenn Sie mobil online gehen: So können Sie an jedem Einsatzort testen, wie es um die Sendestärke und das Tempo des Funknetzes bestellt ist. Wenn Sie mit Inssider feststellen, dass Ihr WLAN-Signal auf dem Balkon schwach ist oder durch Nachbar-Funknetze gestört wird, gibt es einfache Lösungen: Ein Repeater kann die Reichweite erhöhen, oder ein Kanalwechsel im Router sorgt für eine stabilere Verbindung. So surfen Sie auch draußen mit hoher Geschwindigkeit. Auch um im öffentlichen Hotspot die Position mit der besten Verbindung zu finden, empfiehlt sich Inssider. (PC-Welt) 

Mehr Leistung für Laptops gratis: Die besten Tuning-Tools und -Tipps​ istockphoto.com/hh5800

Mit dem Analyse-Tool Aida64 Extreme (Download-Link) prüfen Sie als Erstes, wie sich Ihr Notebook unter Last verhält. Rufen Sie dazu den “Systemstabilitätstest” auf, den Sie im oberen Menü unter “Werkzeuge” finden: Sie können dort auswählen, welche Komponenten, etwa Prozessor, Festplatte und/oder Grafikkarte, Sie belasten wollen.

Mit “Start” links unten leiten Sie den Lasttest ein: Im oberen Verlaufsdiagramm erkennen Sie, wie sich die Temperatur verändert. Im unteren Diagramm zeigt Ihnen Aida, ob die CPU “throttelt”, also aufgrund zu hoher Erwärmung ihre Taktrate verringert. In diesem Fall sollten Sie die Lüfter reinigen und die Wärmeleitpaste von CPU und GPU erneuern.

Treiber- und BIOS/UEFI-Update

Bevor Sie Ihr Notebook tunen, sollten Sie die Hardware-Treiber und das BIOS/UEFI Ihres Notebooks aktualisieren. Ein aktuelles Update kann Optimierungen des Herstellers liefern, wie bessere Leistungs- und Sparfunktionen der CPU oder eine effizientere Lüftersteuerung. Nutzen Sie dazu die vorinstallierten Treiber-Tools der Hersteller.

Fast jeder Hersteller installiert ab Werk eine entsprechende Software: Die prüft mit einem Mausklick, ob aktuellere Treiber und BIOS/UEFI-Versionen verfügbar sind oder führt Sie zur Webseite, wo Sie diese herunterladen können. Achten Sie dabei darauf, nur die passenden Updates für Ihr Modell einzuspielen.

Tipp: Aktuellere Treiber bekommen Sie meist direkt vom Hersteller des Chipsatzes, der Grafikkarte oder des WLAN-Moduls im Notebook.

Notebook-Prozessor übertakten

Je nach CPU-Hersteller laden Sie sich bei AMD den Ryzen Master respektive bei Intel das Extreme Tuning Tool herunter. Mit den Tools können Sie über Schieberegler die Taktrate und die Kernspannung (Core Voltage) erhöhen.

Gehen Sie dabei behutsam in kleinen Schritten vor und testen Sie nach jeder Änderung mit den Bordmitteln der Tool oder dem “Systemstabilitätstest” von Aida64 Extreme, ob das Notebook noch stabil läuft. Insbesondere bei der Core Voltage sollten Sie sich in kleinen 10 Millivolt Schritten an den maximal möglichen Wert herantasten.

Hinweis: Nicht jede Notebook-CPU ist mit den AMD- respektive Intel-Tools kompatibel – manche Hersteller sperren zudem die Übertaktungsfunktion in ihren Laptop-Modellen komplett.

AMD

Akku-Leistung checken und optimieren

Wichtige Informationen zum Notebookakku liefert Batterycare – etwa den aktuellen Ladestand und die daraus resultierende restliche Laufzeit. Im Menü “Detaillierte Infos” führt das Tool außerdem die aktuelle Entladeleistung sowie die Akkuabnutzung in Prozent auf.

Akku laden: Diesen Fehler sollten Sie unbedingt vermeiden

Unter “Optionen” können Sie überdies einstellen, dass Sie Batterycare mit einem Hinweis über bestimmte Akkuvorgänge informiert – zum Beispiel, wenn die verbleibende Laufzeit unter einen bestimmten Prozentwert sinkt oder der Akku auf eine festgelegte Kapazität aufgeladen wurde.

Datenträger-Integrität im Auge behalten

Den Zustand der SSD (oder HDD) überwachen Sie mit Crystaldiskinfo – das Tool gibt eine Information zum Gesamtzustand und der Temperatur des Speichermediums aus. Zudem zeigt es die einzelnen Smart-Werte an, mit denen Sie Festplattenfehlern auf die Spur kommen. So können Sie wichtige Dateien oder die gesamte Windows-Installation auf einem externen Laufwerk sichern, bevor es zu einem Ausfall der SSD oder Festplatte kommt.

Vor allem HDDs als Systemdatenträger sind starken Belastungen ausgesetzt – deshalb ist ein regelmäßiger Gesundheits-Check hier Pflicht! Wenn Crystaldiksinfo die im Notebook eingebaute SSD (oder HDD) nicht erkennt, können Sie auf ein entsprechendes Analyse-Tool des Herstellers ausweichen.

Von wem die SSD in Ihrem Laptop stammt, verrät Aida64 Extreme – oder der Geräte-Manager im Menü “Laufwerke”.

WLAN-Verbindungs-Check

Die Stabilität und Geschwindigkeit der WLAN-Verbindung Ihres Notebooks prüfen Sie mit Inssider – insbesondere wenn Sie mobil online gehen: So können Sie an jedem Einsatzort testen, wie es um die Sendestärke und das Tempo des Funknetzes bestellt ist.

Wenn Sie mit Inssider feststellen, dass Ihr WLAN-Signal auf dem Balkon schwach ist oder durch Nachbar-Funknetze gestört wird, gibt es einfache Lösungen: Ein Repeater kann die Reichweite erhöhen, oder ein Kanalwechsel im Router sorgt für eine stabilere Verbindung. So surfen Sie auch draußen mit hoher Geschwindigkeit.

Auch um im öffentlichen Hotspot die Position mit der besten Verbindung zu finden, empfiehlt sich Inssider.

(PC-Welt)

Mehr Leistung für Laptops gratis: Die besten Tuning-Tools und -Tipps​ Weiterlesen »

Intelligent wirken: Wie Sie im Berufsalltag schlau rüberkommen​

Allgemein

Ihre Mutter ist Cindy aus Marzan? Das sollten Sie so nicht rüberbringen. Wer schlau wirken will, sollte den Guttenberg machen. “Ein gefälschter Doktortitel kann da Wunder wirken, oder ein abgekürzter zweiter Vorname à la Ronald R. Tolkien”, so Rhetoriker Flume.In deutschen Unternehmen zählt die Kompetenz, daher geben Sie sich hierzulande besser das Image eines Schlaubergers. Foto: lassedesignen – shutterstock.comKleidung und Haltung: Lässig aber hochwertigIntelligente Menschen lesen bis in die Nacht. Sie gehen wenig aus dem Haus und haben keine Zeit für Sport. Also sind sie blass und übernächtigt. Und wenn Sie nicht gerne lesen, die Nächte bekommen Sie auch mit den fünf Staffeln von Breaking Bad verkürzt. Tragen Sie Kleidung von guter Qualität. Britisch-lässig mit Stilbrüchen. Die Kleidung soll sagen: Ich komme aus gutem Hause, aber ich habe keine Zeit für Trends und moderne Kombinationen. Ein aus dem Hosenbund hängender Hemdzipfel oder die Kombination von Cord und Tweed sind unverzichtbar.Vergessen Sie SmalltalkWer sich zu eloquent über das Wetter und aktuelles Zeitgeschehen unterhalten kann, wirkt oberflächlich und gesellschaftskonform. Aber das sind intelligente Menschen ja nicht. “Steigen Sie zwar auf ein Gespräch ein, gehen aber schnell ins Detail. Rasch haben Sie Ihren Gesprächspartner im Gewirr Ihrer Gedankengänge verloren. Aber das bemerken Sie gar nicht, denn Ihre Ideen sind einfach zu wichtig. Smalltalk wird überbewertet!”, schmunzelt der Autor zahlreicher Fachbücher.Im Vortrag: Gedankenpausen machen und abschweifenWer wirklich intelligent ist, der macht kein Infotainment. Sie wollen Ihre Expertise sprechen lassen. Deshalb sind die Vorträge schlauer Menschen langatmig und vor lauter Fachbegriffen schwer zu verstehen. “Wenn Sie bemerken, dass Ihr Publikum aussteigt, haben Sie Ihr Ziel erreicht. Machen Sie an diesem Punkt unbedingt noch drei Minuten weiter, bevor Sie das Thema wechseln”, rät Flume.Peter Flume, Rhetoriktrainer: “Smalltalk wird überbewertet.” Foto: Peter FlumeWenn Sie etwas zu lange Gedankenpausen einlegen, dann nur, weil Ihnen gerade ein Geistesblitz gekommen ist. Schreiben Sie diesen unbedingt sofort auf oder zeichnen Sie ein intelligent aussehendes Diagramm, auch wenn Ihre Zuhörer warten müssen. Nehmen Sie den Blickkontakt vom Plenum, sodass Sie nicht unterbrochen werden können.Satzbau: Fremdwörter und nicht zu einfache SätzeIntelligente Menschen kennen ihr Fachgebiet in- und auswendig. Das sollten Sie zeigen, indem Sie Fachbegriffe so natürlich verwenden, dass sich keiner traut, nachzufragen. Selbst unpassende Fremdwörter locker eingestreut zeigen den Zuhörern lediglich auf, wie begrenzt doch deren Horizont ist.Öffentliche Anlässe: Kaffee statt Alkohol“Mit einem Bier in der Hand gesehen zu werden, tut Ihrem Image als Intellektuellem nicht gut”, beobachtet der Trainer mit mehr als 25 Jahren Erfahrung. Vielmehr sollten Sie billigen Alkohol in der Öffentlichkeit vermeiden. Sie brauchen schließlich einen klaren Kopf. Sheldon Cooper macht das auch so. Stattdessen können Sie Schwarztee oder Kaffee bestellen, den brauchen Sie auch, weil Sie immer bis nachts die Probleme der Menschheit lösen.Im Gespräch: Die gleiche Information neu formulierenHeißt es “der Preis erhöht sich um 20 Prozent”, sollten Sie “also um ein Fünftel” murmeln und im Kopf schnell die absolute Zahl in Euro ausrechnen. Menschen, die Informationen schnell verarbeiten, wirken intelligenter. Flume: “Rechnen zu können ist heute ja schon eine aussterbende Kunst, daher lassen sich Gesprächspartner oft schon durch einfache Grundrechenarten aus der Fassung bringen. Informationen konkret zu machen ist ein Zeichen von hohem IQ.”Wenn Sie jetzt noch zögern den Schlauberger zu geben, dann machen Sie sich klar, wieviel einfacher die Umsetzung dieser sieben Tipps ist, statt sich auf Ihre Gesprächspartner und Zuhörer wirklich einzulassen. 

Intelligent wirken: Wie Sie im Berufsalltag schlau rüberkommen​ Ihre Mutter ist Cindy aus Marzan? Das sollten Sie so nicht rüberbringen. Wer schlau wirken will, sollte den Guttenberg machen. “Ein gefälschter Doktortitel kann da Wunder wirken, oder ein abgekürzter zweiter Vorname à la Ronald R. Tolkien”, so Rhetoriker Flume.In deutschen Unternehmen zählt die Kompetenz, daher geben Sie sich hierzulande besser das Image eines Schlaubergers.
Foto: lassedesignen – shutterstock.comKleidung und Haltung: Lässig aber hochwertigIntelligente Menschen lesen bis in die Nacht. Sie gehen wenig aus dem Haus und haben keine Zeit für Sport. Also sind sie blass und übernächtigt. Und wenn Sie nicht gerne lesen, die Nächte bekommen Sie auch mit den fünf Staffeln von Breaking Bad verkürzt. Tragen Sie Kleidung von guter Qualität. Britisch-lässig mit Stilbrüchen. Die Kleidung soll sagen: Ich komme aus gutem Hause, aber ich habe keine Zeit für Trends und moderne Kombinationen. Ein aus dem Hosenbund hängender Hemdzipfel oder die Kombination von Cord und Tweed sind unverzichtbar.Vergessen Sie SmalltalkWer sich zu eloquent über das Wetter und aktuelles Zeitgeschehen unterhalten kann, wirkt oberflächlich und gesellschaftskonform. Aber das sind intelligente Menschen ja nicht. “Steigen Sie zwar auf ein Gespräch ein, gehen aber schnell ins Detail. Rasch haben Sie Ihren Gesprächspartner im Gewirr Ihrer Gedankengänge verloren. Aber das bemerken Sie gar nicht, denn Ihre Ideen sind einfach zu wichtig. Smalltalk wird überbewertet!”, schmunzelt der Autor zahlreicher Fachbücher.Im Vortrag: Gedankenpausen machen und abschweifenWer wirklich intelligent ist, der macht kein Infotainment. Sie wollen Ihre Expertise sprechen lassen. Deshalb sind die Vorträge schlauer Menschen langatmig und vor lauter Fachbegriffen schwer zu verstehen. “Wenn Sie bemerken, dass Ihr Publikum aussteigt, haben Sie Ihr Ziel erreicht. Machen Sie an diesem Punkt unbedingt noch drei Minuten weiter, bevor Sie das Thema wechseln”, rät Flume.Peter Flume, Rhetoriktrainer: “Smalltalk wird überbewertet.”
Foto: Peter FlumeWenn Sie etwas zu lange Gedankenpausen einlegen, dann nur, weil Ihnen gerade ein Geistesblitz gekommen ist. Schreiben Sie diesen unbedingt sofort auf oder zeichnen Sie ein intelligent aussehendes Diagramm, auch wenn Ihre Zuhörer warten müssen. Nehmen Sie den Blickkontakt vom Plenum, sodass Sie nicht unterbrochen werden können.Satzbau: Fremdwörter und nicht zu einfache SätzeIntelligente Menschen kennen ihr Fachgebiet in- und auswendig. Das sollten Sie zeigen, indem Sie Fachbegriffe so natürlich verwenden, dass sich keiner traut, nachzufragen. Selbst unpassende Fremdwörter locker eingestreut zeigen den Zuhörern lediglich auf, wie begrenzt doch deren Horizont ist.Öffentliche Anlässe: Kaffee statt Alkohol“Mit einem Bier in der Hand gesehen zu werden, tut Ihrem Image als Intellektuellem nicht gut”, beobachtet der Trainer mit mehr als 25 Jahren Erfahrung. Vielmehr sollten Sie billigen Alkohol in der Öffentlichkeit vermeiden. Sie brauchen schließlich einen klaren Kopf. Sheldon Cooper macht das auch so. Stattdessen können Sie Schwarztee oder Kaffee bestellen, den brauchen Sie auch, weil Sie immer bis nachts die Probleme der Menschheit lösen.Im Gespräch: Die gleiche Information neu formulierenHeißt es “der Preis erhöht sich um 20 Prozent”, sollten Sie “also um ein Fünftel” murmeln und im Kopf schnell die absolute Zahl in Euro ausrechnen. Menschen, die Informationen schnell verarbeiten, wirken intelligenter. Flume: “Rechnen zu können ist heute ja schon eine aussterbende Kunst, daher lassen sich Gesprächspartner oft schon durch einfache Grundrechenarten aus der Fassung bringen. Informationen konkret zu machen ist ein Zeichen von hohem IQ.”Wenn Sie jetzt noch zögern den Schlauberger zu geben, dann machen Sie sich klar, wieviel einfacher die Umsetzung dieser sieben Tipps ist, statt sich auf Ihre Gesprächspartner und Zuhörer wirklich einzulassen.

Intelligent wirken: Wie Sie im Berufsalltag schlau rüberkommen​ Weiterlesen »

Deshalb benutzen Sie Ihren USB-Stick falsch​

Allgemein

CameraCraft USB-Sticks scheinen relativ selbsterklärend zu sein. Man kauft sie, steckt sie am PC ein, kopiert etwas rüber und steckt sie wieder aus. Doch dabei passieren Fehler, die über das bekannte Problem von “erst beim dritten Versuch ist der USB-Stick richtig herum” hinausgehen. Diese Fehler können passieren, wenn Sie einen USB-Stick nutzen – und diese Tipps haben wir dagegen. Falschen USB-Port benutzt Die meisten PCs und Laptops besitzen mehrere USB-Ports. Als Laie könnte man davon ausgehen, dass es egal ist, welchen dieser Ansteckplätze man für den USB-Stick nutzt. Doch weit gefehlt. Tatsächlich kann es einen großen Unterschied bei der Übertragungsgeschwindigkeit Ihres Sticks ausmachen. Denn neben den schnellen USB-3-Buchsen besitzen viele auch deutlich langsamere USB-2-Steckplätze, die man nicht unbedingt sofort erkennt. Bei den meisten Geräten befinden sich die schnelleren USB-Ports am hinteren Ende und haben eine blaue Innenfarbe. USB-2-Ports sind hingegen weiter vorne und haben keine besondere Farbe. Ist die Buchse grün oder rot, handelt es sich hingegen um einen USB-3.1- oder USB-3.2-Port. Im Alltag macht das allerdings nur dann einen Unterschied, wenn Sie auch einen USB-Stick nutzen, der USB 3 unterstützt, oder wenn Sie große Datenmengen verschieben wollen. USB-Stick nicht optimiert Sie können einen USB-Stick, der nicht die optimale Leistung bringt, unter Windows relativ einfach optimieren. Rufen Sie dafür mit der Tastenkombination Win + R die Datenträgerverwaltung auf und geben Sie den Befehl “diskmgmt.msc” ein. Dort können Sie einen aktuell mit dem PC verbundenen USB-Stick auswählen und unter Eigenschaften und Hardware den Punkt Richtlinien finden. Aktivieren Sie dann die Option Bessere Leistung und setzen Sie einen Haken bei den Einstellungen “Schreibcache auf dem Gerät aktivieren” und “Von Windows veranlasstes Leeren des Geräteschreibcaches deaktivieren”. Ist das geglückt, sollte die Datenübertragung deutlich schneller laufen. Alternativ können Sie auch das Dateisystem Ihres USB-Sticks ändern, wenn dieser nicht mit großen Datenmengen zurechtkommt. Die Formatierung löscht aber alle gespeicherten Daten. USB-Stick nicht sicher entfernt In den meisten Fällen spielt es keine Rolle, ob Sie Ihren USB-Stick vor dem Ausstecken unter Windows “sicher entfernen” oder nicht. Wenn Sie aber vorher die Tipps zur besseren Leistung und Optimierung befolgt haben, müssen Sie ihn sicher entfernen, da sonst Daten verloren gehen können. Klicken Sie hierfür mit der rechten Maustaste auf den USB-Stick im Gerätemanager und wählen Sie den Befehl Auswerfen. Damit haben Sie den Stick abgemeldet und können ihn sicher ausstecken. “Kaputten” USB-Stick entsorgt Ebenfalls fatal: Sie stellen fest, dass Ihr USB-Stick nicht mehr formatierbar ist und sich die Daten nicht davon löschen lassen. Das kann passieren, vor allem bei älteren (oder super günstigen) Sticks. Doch Sie sollten in diesem Fall nicht gleich verzweifeln, oder gar aufgeben und ihn einfach wegwerfen. Stattdessen gibt es Mittel und Wege, wie Sie den USB-Stick noch retten können. Je nach Ursache gibt es verschiedene Lösungsansätze, die wir im Ratgeber Wie Sie Ihren USB-Stick unter Windows wiederbeleben vorstellen. (PC-Welt) 

Deshalb benutzen Sie Ihren USB-Stick falsch​ CameraCraft

USB-Sticks scheinen relativ selbsterklärend zu sein. Man kauft sie, steckt sie am PC ein, kopiert etwas rüber und steckt sie wieder aus. Doch dabei passieren Fehler, die über das bekannte Problem von “erst beim dritten Versuch ist der USB-Stick richtig herum” hinausgehen.

Diese Fehler können passieren, wenn Sie einen USB-Stick nutzen – und diese Tipps haben wir dagegen.

Falschen USB-Port benutzt

Die meisten PCs und Laptops besitzen mehrere USB-Ports. Als Laie könnte man davon ausgehen, dass es egal ist, welchen dieser Ansteckplätze man für den USB-Stick nutzt. Doch weit gefehlt.

Tatsächlich kann es einen großen Unterschied bei der Übertragungsgeschwindigkeit Ihres Sticks ausmachen. Denn neben den schnellen USB-3-Buchsen besitzen viele auch deutlich langsamere USB-2-Steckplätze, die man nicht unbedingt sofort erkennt.

Bei den meisten Geräten befinden sich die schnelleren USB-Ports am hinteren Ende und haben eine blaue Innenfarbe. USB-2-Ports sind hingegen weiter vorne und haben keine besondere Farbe. Ist die Buchse grün oder rot, handelt es sich hingegen um einen USB-3.1- oder USB-3.2-Port.

Im Alltag macht das allerdings nur dann einen Unterschied, wenn Sie auch einen USB-Stick nutzen, der USB 3 unterstützt, oder wenn Sie große Datenmengen verschieben wollen.

USB-Stick nicht optimiert

Sie können einen USB-Stick, der nicht die optimale Leistung bringt, unter Windows relativ einfach optimieren. Rufen Sie dafür mit der Tastenkombination Win + R die Datenträgerverwaltung auf und geben Sie den Befehl “diskmgmt.msc” ein. Dort können Sie einen aktuell mit dem PC verbundenen USB-Stick auswählen und unter Eigenschaften und Hardware den Punkt Richtlinien finden.

Aktivieren Sie dann die Option Bessere Leistung und setzen Sie einen Haken bei den Einstellungen “Schreibcache auf dem Gerät aktivieren” und “Von Windows veranlasstes Leeren des Geräteschreibcaches deaktivieren”. Ist das geglückt, sollte die Datenübertragung deutlich schneller laufen.

Alternativ können Sie auch das Dateisystem Ihres USB-Sticks ändern, wenn dieser nicht mit großen Datenmengen zurechtkommt. Die Formatierung löscht aber alle gespeicherten Daten.

USB-Stick nicht sicher entfernt

In den meisten Fällen spielt es keine Rolle, ob Sie Ihren USB-Stick vor dem Ausstecken unter Windows “sicher entfernen” oder nicht. Wenn Sie aber vorher die Tipps zur besseren Leistung und Optimierung befolgt haben, müssen Sie ihn sicher entfernen, da sonst Daten verloren gehen können.

Klicken Sie hierfür mit der rechten Maustaste auf den USB-Stick im Gerätemanager und wählen Sie den Befehl Auswerfen. Damit haben Sie den Stick abgemeldet und können ihn sicher ausstecken.

“Kaputten” USB-Stick entsorgt

Ebenfalls fatal: Sie stellen fest, dass Ihr USB-Stick nicht mehr formatierbar ist und sich die Daten nicht davon löschen lassen. Das kann passieren, vor allem bei älteren (oder super günstigen) Sticks. Doch Sie sollten in diesem Fall nicht gleich verzweifeln, oder gar aufgeben und ihn einfach wegwerfen.

Stattdessen gibt es Mittel und Wege, wie Sie den USB-Stick noch retten können. Je nach Ursache gibt es verschiedene Lösungsansätze, die wir im Ratgeber Wie Sie Ihren USB-Stick unter Windows wiederbeleben vorstellen.

(PC-Welt)

Deshalb benutzen Sie Ihren USB-Stick falsch​ Weiterlesen »

Lenovo Laptop 7606 im Test​

Allgemein

Christoph Hoffmann Auf einen Blick Pro Sehr gutes Preis-Leistungs-Verhältnis Windows 11 Pro vorinstalliert und aktiviert 16 GB Arbeitsspeicher Ausreichend für den normalen Gebrauch Kontra ungenügende Spiele-Leistung Nur Wi-Fi 5 Verwaschene Display-Farben Geringe Akku-Laufzeit Fazit Für den günstigen Preis darf man keine Wunder erwarten, das verspricht die HMCW GmbH auch gar nicht. Der Anbieter aus dem sächsischen Taura konfektioniert dieses Lenovo-Notebook und übernimmt auch den Hersteller-Support. Die Ausstattung ist veraltet, aber immer noch flott genug für einfache Aufgaben wie Office-Anwendungen, Video-Streaming und das Surfen im Web.Auf der Habenseite stehen 16 GB Arbeitsspeicher, eine 512-GB-SDD und Windows 11 Pro. Was uns besonders gut gefällt: Abgesehen von den Windows- und Treiber-Updates ist der Laptop direkt startklar. Also wirklich ein ideales Gerät für den schnellen Einstieg. Wer ein preisgünstiges Windows-11-Notebook als Alternative zu einem Chromebook sucht, könnte mit dem Lenovo Laptop 7606 glücklich werden. Die Ausstattung des Lenovo Laptop 7606 ist nicht mehr ganz auf der Höhe der Zeit, aber für gewöhnliche Office-Anwendungen, das Surfen im Web und Video-Streaming ist die Leistung ausreichend. Auf der Habenseite stehen 16 GB Arbeitsspeicher, eine 512-GB-SDD und Windows 11 Pro zum Schnäppchenpreis von rund 300 Euro. Wir haben den Amazon-Bestseller gekauft und einem ausführlichen Test unterzogen. Design, Verarbeitung & Ausstattung Das Notebook kommt gut verpackt. Der Original-Lenovo-Karton hat mehrere Siegel, die wir mit einem Messer aufschneiden und das in Folie eingepackte Laptop anschließend entnehmen. Der erste Eindruck: Das ist groß und leicht. Tatsächlich bringt es knapp 1,6 Kilogramm auf die Waage. Angesichts des schwarzen Kunststoffgehäuses ist das Gewicht nicht verwunderlich. Das Design ist zweckmäßig, ein optischer Hingucker ist das Notebook sicher nicht. Die Gehäuseoberfläche ist nicht glatt, sondern mit einem Muster aus vielen kleinen Quadraten überzogen. Rechts unten in der Ecke prangt der Lenovo-Schriftzug. Christoph Hoffmann Die Oberfläche vom Gehäusedeckel gibt es auch unterhalb der Tastatur, ausgespart von dem großen Touchpad. Der Deckel lässt sich leicht öffnen und im richtigen Winkel justieren. Insgesamt macht das Lenovo-Gerät auf uns einen guten ersten Eindruck. Es wirkt stimmig und kommt nicht gleich wie ein Billigheimer rüber, den man angesichts des günstigen Preises durchaus erwarten dürfte.                                               Im inneren des Lenovo-Laptops arbeitet der Intel Celeron N5100. Der bereits Anfang 2021 vorgestellte Quad-Core-SoC wird und wurde hauptsächlich in preiswerten Notebooks verbaut und ist fest auf dem Mainboard verlötet. Die CPU taktet mit 1,1 bis 2,8 GHz und integriert neben den vier CPU-Kernen auch eine DirectX-12-fähige Grafikeinheit sowie einen LPDDR4(x)-Speichercontroller. Ihm zur Seite stehen 16 Gigabyte Arbeitsspeicher (DDR4 SDRAM). Das ist die maximale Ausbaustufe, da es nur einen Slot gibt und eine Aufrüstung nicht möglich ist. Zudem weist HMWC auf einem gedruckten Infoblatt explizit darauf hin, dass das Gehäuse nicht geöffnet werden darf. Sehr wahrscheinlich erlischt bei einer Zuwiderhandlung die Garantie.   Beim internen Speicher sorgt die 512 Gigabyte große M.2-NVMe-SSD für ausreichend Platz und Geschwindigkeit. In unserem ganz offiziell bei Amazon gekauften Modell ist eine SK Hynix HFS512GEJ4X112N verbaut, die laut Crystal Disk Info knapp vier Betriebsstunden hat. Es handelt sich dabei um eine M.2-SSD im 2242-Format mit PCIe-4.0-Anschluss. Die Tastatur mit großen flachen Tasten ermöglicht ein angenehmes Tippgefühl mit einem guten spürbaren Anschlag. Der ist besser als bei anderen Notebooks und normalen PC-Tastaturen. Wie bei einem 15-Zoll-Notebook üblich ist die Tastatur im Full-Size-Format mit einem Nummernblock. In der oberen Reihe der Tastatur wechseln man von den Funktionstasten per FN-Schalter zu Steuerungstasten, um etwa Einstellungen und Programme aufzurufen. Die Tastatur macht insgesamt einen wirklich guten Eindruck und wird gerade Vielschreiber ansprechen. Christoph Hoffmann Das Touchpad (gemessene 10,5 × 7 Zentimeter) ist nicht mittig, sondern leicht links versetzt unter der Tastatur angeordnet. Es reagiert gut und verzögerungsfrei auf unsere Fingertipps und Wischgesten. Die Bedienoberfläche ist glatt und angenehm unter den Fingerkuppen zu spüren. Rechts an der Seite sind ein USB-A-Port und der Ethernet-Anschluss platziert. Links gibt es Anschlüsse für Strom, USB-C und USB-A, HDMI und Audio. Beim Strom setzt Lenovo bei diesem Modell noch auf den klassischen runden Stecker und nicht auf USB-C.    Christoph Hoffmann Das 15,6 Zoll große Display löst mit 1.920 × 1.080 Pixel (FHD) auf, bei einer Bildwiederholrate von 60Hz. Das Seitenverhältnis von 16:9 ist ideal zum Arbeiten und Videoschauen. Der matte Bildschirm ist ausreichend hell und zeigt wenig Reflexionen. Allerdings kommen die Farben für unser Empfinden arg verwaschen rüber. Das merkt man insbesondere beim Videostreaming von Netflix & Co. Das Schwarz ist eher ein dunkles Grau und eigentlich satte Farben wirken kontrastarm und zu hell. Gut: In der Einstellungen-App von Windows lässt sich das HDR-Videostreaming aktivieren und kalibrieren. Das kann die Wiederqualität im Vollbildmodus steigern, sofern Sie entsprechende Videos abspielen. Am oberen Deckelrand gibt es noch eine Webcam, die allerdings nur mit 0,9 Megapixel (720p) auflöst. Das Bild ist im Detail etwas unscharf und pixelig.  Insgesamt ist Ausstattung aber solide und gut abgestimmt. Weitere Infos zeigen die Benchmarks weiter unten im Text. Inbetriebnahme: Einfacher geht es nicht Das Notebook ist so konzipiert, dass es schnellstmöglich startklar ist und hier hat der Anbieter HMCW (Amazon-Verkäufername „shinobee“) wirklich vieles richtig gemacht. Nach dem Einschalten bootet ein installiertes und bereits aktiviertes Windows 11 23H2. Direkt auf dem Desktop öffnet sich ein Fenster mit Hinweise zur Konfiguration und einer Anleitung, wie der vorgegebene Nutzer „User“ geändert werden kann. Das ist alles verständlich und erleichtert den Einstieg. Christoph Hoffmann Entweder gleich oder zu einem späteren Zeitpunkt lassen sich die verfügbaren Updates in der Einstellungen-App einspielen. Hier wird dann auch Windows auf die aktuelle Build 24H2 aktualisiert. Für die Updates (18 waren es bei uns in Summe) sollten Sie ausreichend Zeit und mehrere Neustarts einplanen. Christoph Hoffmann Vorinstalliert sind Word 2010 und Excel 2010 – natürlich sind das nicht die neuesten Versionen, aber zum Öffnen und Bearbeiten von unterstützten Dateien reichen die Programme. Als Browser ist Firefox installiert – zusätzlich zu Microsoft Edge. Als Extra packt HMCW noch eine kostenlose 180-Tage-Lizenz von G-Data Internet Security für ein Gerät mit dazu. Gut: Die Software ist noch nicht installiert (Bloatware!). Die Setup-Dateien liegen in einem Desktop-Ordner, die Lizenznummer gibt es ausgedruckt. Christoph Hoffmann Leistung: So schnell ist der Lenovo-Laptop Klar, dass eine knapp vier Jahre alte CPU in der heutigen Zeit kein Sprinter und im Vergleich zu modernen Prozessoren chancenlos ist. Aber genau das ist beim Lenovo-Notebook ja eingepreist. Mit dem Benchmark-Test PCMark 10 haben wir die Leistung ermittelt. Diese Software gibt uns realistische Werte, indem sie alltägliche Aufgaben nacheinander abarbeitet. Der Score von 1.194 ist unterdurchschnittlich. Im Vergleich: Das im Angebot rund 400 Euro teure Acer Aspire Go 15 (2024) kommt mit 3.469 auf einen fast drei Mal besseren Benchmark-Score. Christoph Hoffmann Entsprechend ist das Lenovo 7606 keine Option für Spiele abseits von Tetris & Co. Die Spiele-Grafikleistung ermittelt der 3DMark TimeSpy mit einem Ergebnis von 320 Punkten. Das ist ein fast schon lächerlicher Wert für ein Notebook im Jahr 2025. Beim Benchmark stottert die Wiedergabe der Actionszenen regelrecht. Aber, um wieder beim Thema zu bleiben: Fürs Gamen ist der Laptop nicht konzipiert. Christoph Hoffmann Die M.2-NVMe-SSD von SK Hynix liefert im Crystal Disk Mark eine Leseleistung von 2.726 MB/s und eine Schreibrate von 2.314 MB/s. Das ist für eine PCIe-4.0-SSD eher durchschnittlich und liegt im Test deutlich unter den Herstellerangaben von jeweils 3.500 MB/s. Christoph Hoffmann Die Akku-Laufzeit gibt Lenovo bei diesem Modell im Datenblatt mit bis zu sechs Stunden an. Windows schätzt bei vollem Akku rund vier Stunden und liegt damit ganz gut. In unseren Tests, bei denen wir einen Film wiederholt abspielten, bis der Akku leer war, hielt das Gerät durchschnittlich 4.5 Stunden durch. Fazit: Lenovo Laptop 7606 Bei Amazon ist das Lenovo-Notebook mit 4,2 von 5 Sternen bei 197 Rezensionen bewertet. Diese Einschätzung können wir teilen. Für einen günstigen Preis von rund 300 Euro gibt es eine solide Ausstattung und eine akzeptable Leistung für den Heimgebrauch.Was uns besonders gut gefällt: Abgesehen von den Windows- und Treiber-Updates ist der Laptop direkt startklar. Also wirklich ein ideales Gerät für den schnellen Einstieg.  Technische Daten Bezeichnung: Lenovo V15-IJL, Modell 7606 Farbe: schwarz (Business Black) Bildschirm: 15,6 Zoll matt, Auflösung 1.920 × 1.080 Pixel (FHD), Bildwiederholrate 60Hz, Seitenverhältnis 16:9 Prozessor: Intel Celeron N5100 (4 Kerne/4 Threads) Grafik: Intel UHD Graphics (iGPU) Arbeitsspeicher: 16 GB DDR4 PC2666 SO-DIMM Interner Speicher: 512 GB SSD SK Hynix HFS512GEJ4X112N (M.2 2242 PCIe Gen4 x4) Schnittstellen: 1 × USB-C 3.0 (5 GB/​s), 1 × USB-A 3.0 (5 GB/s), 1 × USB-A 2.0 (480 MB/​s), 1 × HDMI 1.4b, 1 × Audio 3,5mm-Klinke Eingabe: Full-Size-Tastatur mit Nummernblock, DE-Layout, Touchpad Konnektivität: 1 × Ethernet RJ-45 1GBit/s, Wi-Fi 5 (WLAN 802.11a/​b/​g/​n/​ac), Bluetooth 5.0 Kamera: Webcam mit 0,9 Megapixel Akku: Li-Ionen, 38 Wh, bis 6 Stunden Laufzeit (Herstellerangabe) Betriebssystem: Windows 11 Professional 64 Bit (vorinstalliert & aktiviert) Gewicht: 1,70 Kg Abmessungen: 359,2 × 235,8 × 19,9 mm (B × T × H) Herstellergarantie: 12 Monate (PC-Welt) 

Lenovo Laptop 7606 im Test​ Christoph Hoffmann

Auf einen Blick

Pro

Sehr gutes Preis-Leistungs-Verhältnis

Windows 11 Pro vorinstalliert und aktiviert

16 GB Arbeitsspeicher

Ausreichend für den normalen Gebrauch

Kontra

ungenügende Spiele-Leistung

Nur Wi-Fi 5

Verwaschene Display-Farben

Geringe Akku-Laufzeit

Fazit

Für den günstigen Preis darf man keine Wunder erwarten, das verspricht die HMCW GmbH auch gar nicht. Der Anbieter aus dem sächsischen Taura konfektioniert dieses Lenovo-Notebook und übernimmt auch den Hersteller-Support. Die Ausstattung ist veraltet, aber immer noch flott genug für einfache Aufgaben wie Office-Anwendungen, Video-Streaming und das Surfen im Web.Auf der Habenseite stehen 16 GB Arbeitsspeicher, eine 512-GB-SDD und Windows 11 Pro. Was uns besonders gut gefällt: Abgesehen von den Windows- und Treiber-Updates ist der Laptop direkt startklar. Also wirklich ein ideales Gerät für den schnellen Einstieg. Wer ein preisgünstiges Windows-11-Notebook als Alternative zu einem Chromebook sucht, könnte mit dem Lenovo Laptop 7606 glücklich werden.

Die Ausstattung des Lenovo Laptop 7606 ist nicht mehr ganz auf der Höhe der Zeit, aber für gewöhnliche Office-Anwendungen, das Surfen im Web und Video-Streaming ist die Leistung ausreichend. Auf der Habenseite stehen 16 GB Arbeitsspeicher, eine 512-GB-SDD und Windows 11 Pro zum Schnäppchenpreis von rund 300 Euro. Wir haben den Amazon-Bestseller gekauft und einem ausführlichen Test unterzogen.

Design, Verarbeitung & Ausstattung

Das Notebook kommt gut verpackt. Der Original-Lenovo-Karton hat mehrere Siegel, die wir mit einem Messer aufschneiden und das in Folie eingepackte Laptop anschließend entnehmen. Der erste Eindruck: Das ist groß und leicht. Tatsächlich bringt es knapp 1,6 Kilogramm auf die Waage. Angesichts des schwarzen Kunststoffgehäuses ist das Gewicht nicht verwunderlich.

Das Design ist zweckmäßig, ein optischer Hingucker ist das Notebook sicher nicht. Die Gehäuseoberfläche ist nicht glatt, sondern mit einem Muster aus vielen kleinen Quadraten überzogen. Rechts unten in der Ecke prangt der Lenovo-Schriftzug.

Christoph Hoffmann

Die Oberfläche vom Gehäusedeckel gibt es auch unterhalb der Tastatur, ausgespart von dem großen Touchpad. Der Deckel lässt sich leicht öffnen und im richtigen Winkel justieren.

Insgesamt macht das Lenovo-Gerät auf uns einen guten ersten Eindruck. Es wirkt stimmig und kommt nicht gleich wie ein Billigheimer rüber, den man angesichts des günstigen Preises durchaus erwarten dürfte.                                              

Im inneren des Lenovo-Laptops arbeitet der Intel Celeron N5100. Der bereits Anfang 2021 vorgestellte Quad-Core-SoC wird und wurde hauptsächlich in preiswerten Notebooks verbaut und ist fest auf dem Mainboard verlötet. Die CPU taktet mit 1,1 bis 2,8 GHz und integriert neben den vier CPU-Kernen auch eine DirectX-12-fähige Grafikeinheit sowie einen LPDDR4(x)-Speichercontroller.

Ihm zur Seite stehen 16 Gigabyte Arbeitsspeicher (DDR4 SDRAM). Das ist die maximale Ausbaustufe, da es nur einen Slot gibt und eine Aufrüstung nicht möglich ist. Zudem weist HMWC auf einem gedruckten Infoblatt explizit darauf hin, dass das Gehäuse nicht geöffnet werden darf. Sehr wahrscheinlich erlischt bei einer Zuwiderhandlung die Garantie.  

Beim internen Speicher sorgt die 512 Gigabyte große M.2-NVMe-SSD für ausreichend Platz und Geschwindigkeit. In unserem ganz offiziell bei Amazon gekauften Modell ist eine SK Hynix HFS512GEJ4X112N verbaut, die laut Crystal Disk Info knapp vier Betriebsstunden hat. Es handelt sich dabei um eine M.2-SSD im 2242-Format mit PCIe-4.0-Anschluss.

Die Tastatur mit großen flachen Tasten ermöglicht ein angenehmes Tippgefühl mit einem guten spürbaren Anschlag. Der ist besser als bei anderen Notebooks und normalen PC-Tastaturen. Wie bei einem 15-Zoll-Notebook üblich ist die Tastatur im Full-Size-Format mit einem Nummernblock.

In der oberen Reihe der Tastatur wechseln man von den Funktionstasten per FN-Schalter zu Steuerungstasten, um etwa Einstellungen und Programme aufzurufen. Die Tastatur macht insgesamt einen wirklich guten Eindruck und wird gerade Vielschreiber ansprechen.

Christoph Hoffmann

Das Touchpad (gemessene 10,5 × 7 Zentimeter) ist nicht mittig, sondern leicht links versetzt unter der Tastatur angeordnet. Es reagiert gut und verzögerungsfrei auf unsere Fingertipps und Wischgesten. Die Bedienoberfläche ist glatt und angenehm unter den Fingerkuppen zu spüren.

Rechts an der Seite sind ein USB-A-Port und der Ethernet-Anschluss platziert. Links gibt es Anschlüsse für Strom, USB-C und USB-A, HDMI und Audio. Beim Strom setzt Lenovo bei diesem Modell noch auf den klassischen runden Stecker und nicht auf USB-C.   

Christoph Hoffmann

Das 15,6 Zoll große Display löst mit 1.920 × 1.080 Pixel (FHD) auf, bei einer Bildwiederholrate von 60Hz. Das Seitenverhältnis von 16:9 ist ideal zum Arbeiten und Videoschauen. Der matte Bildschirm ist ausreichend hell und zeigt wenig Reflexionen. Allerdings kommen die Farben für unser Empfinden arg verwaschen rüber. Das merkt man insbesondere beim Videostreaming von Netflix & Co.

Das Schwarz ist eher ein dunkles Grau und eigentlich satte Farben wirken kontrastarm und zu hell. Gut: In der Einstellungen-App von Windows lässt sich das HDR-Videostreaming aktivieren und kalibrieren. Das kann die Wiederqualität im Vollbildmodus steigern, sofern Sie entsprechende Videos abspielen.

Am oberen Deckelrand gibt es noch eine Webcam, die allerdings nur mit 0,9 Megapixel (720p) auflöst. Das Bild ist im Detail etwas unscharf und pixelig. 

Insgesamt ist Ausstattung aber solide und gut abgestimmt. Weitere Infos zeigen die Benchmarks weiter unten im Text.

Inbetriebnahme: Einfacher geht es nicht

Das Notebook ist so konzipiert, dass es schnellstmöglich startklar ist und hier hat der Anbieter HMCW (Amazon-Verkäufername „shinobee“) wirklich vieles richtig gemacht. Nach dem Einschalten bootet ein installiertes und bereits aktiviertes Windows 11 23H2. Direkt auf dem Desktop öffnet sich ein Fenster mit Hinweise zur Konfiguration und einer Anleitung, wie der vorgegebene Nutzer „User“ geändert werden kann. Das ist alles verständlich und erleichtert den Einstieg.

Christoph Hoffmann

Entweder gleich oder zu einem späteren Zeitpunkt lassen sich die verfügbaren Updates in der Einstellungen-App einspielen. Hier wird dann auch Windows auf die aktuelle Build 24H2 aktualisiert. Für die Updates (18 waren es bei uns in Summe) sollten Sie ausreichend Zeit und mehrere Neustarts einplanen.

Christoph Hoffmann

Vorinstalliert sind Word 2010 und Excel 2010 – natürlich sind das nicht die neuesten Versionen, aber zum Öffnen und Bearbeiten von unterstützten Dateien reichen die Programme. Als Browser ist Firefox installiert – zusätzlich zu Microsoft Edge.

Als Extra packt HMCW noch eine kostenlose 180-Tage-Lizenz von G-Data Internet Security für ein Gerät mit dazu. Gut: Die Software ist noch nicht installiert (Bloatware!). Die Setup-Dateien liegen in einem Desktop-Ordner, die Lizenznummer gibt es ausgedruckt.

Christoph Hoffmann

Leistung: So schnell ist der Lenovo-Laptop

Klar, dass eine knapp vier Jahre alte CPU in der heutigen Zeit kein Sprinter und im Vergleich zu modernen Prozessoren chancenlos ist. Aber genau das ist beim Lenovo-Notebook ja eingepreist.

Mit dem Benchmark-Test PCMark 10 haben wir die Leistung ermittelt. Diese Software gibt uns realistische Werte, indem sie alltägliche Aufgaben nacheinander abarbeitet. Der Score von 1.194 ist unterdurchschnittlich. Im Vergleich: Das im Angebot rund 400 Euro teure Acer Aspire Go 15 (2024) kommt mit 3.469 auf einen fast drei Mal besseren Benchmark-Score.

Christoph Hoffmann

Entsprechend ist das Lenovo 7606 keine Option für Spiele abseits von Tetris & Co. Die Spiele-Grafikleistung ermittelt der 3DMark TimeSpy mit einem Ergebnis von 320 Punkten. Das ist ein fast schon lächerlicher Wert für ein Notebook im Jahr 2025. Beim Benchmark stottert die Wiedergabe der Actionszenen regelrecht. Aber, um wieder beim Thema zu bleiben: Fürs Gamen ist der Laptop nicht konzipiert.

Christoph Hoffmann

Die M.2-NVMe-SSD von SK Hynix liefert im Crystal Disk Mark eine Leseleistung von 2.726 MB/s und eine Schreibrate von 2.314 MB/s. Das ist für eine PCIe-4.0-SSD eher durchschnittlich und liegt im Test deutlich unter den Herstellerangaben von jeweils 3.500 MB/s.

Christoph Hoffmann

Die Akku-Laufzeit gibt Lenovo bei diesem Modell im Datenblatt mit bis zu sechs Stunden an. Windows schätzt bei vollem Akku rund vier Stunden und liegt damit ganz gut. In unseren Tests, bei denen wir einen Film wiederholt abspielten, bis der Akku leer war, hielt das Gerät durchschnittlich 4.5 Stunden durch.

Fazit: Lenovo Laptop 7606

Bei Amazon ist das Lenovo-Notebook mit 4,2 von 5 Sternen bei 197 Rezensionen bewertet. Diese Einschätzung können wir teilen. Für einen günstigen Preis von rund 300 Euro gibt es eine solide Ausstattung und eine akzeptable Leistung für den Heimgebrauch.Was uns besonders gut gefällt: Abgesehen von den Windows- und Treiber-Updates ist der Laptop direkt startklar. Also wirklich ein ideales Gerät für den schnellen Einstieg. 

Technische Daten

Bezeichnung: Lenovo V15-IJL, Modell 7606

Farbe: schwarz (Business Black)

Bildschirm: 15,6 Zoll matt, Auflösung 1.920 × 1.080 Pixel (FHD), Bildwiederholrate 60Hz, Seitenverhältnis 16:9

Prozessor: Intel Celeron N5100 (4 Kerne/4 Threads)

Grafik: Intel UHD Graphics (iGPU)

Arbeitsspeicher: 16 GB DDR4 PC2666 SO-DIMM

Interner Speicher: 512 GB SSD SK Hynix HFS512GEJ4X112N (M.2 2242 PCIe Gen4 x4)

Schnittstellen: 1 × USB-C 3.0 (5 GB/​s), 1 × USB-A 3.0 (5 GB/s), 1 × USB-A 2.0 (480 MB/​s), 1 × HDMI 1.4b, 1 × Audio 3,5mm-Klinke

Eingabe: Full-Size-Tastatur mit Nummernblock, DE-Layout, Touchpad

Konnektivität: 1 × Ethernet RJ-45 1GBit/s, Wi-Fi 5 (WLAN 802.11a/​b/​g/​n/​ac), Bluetooth 5.0

Kamera: Webcam mit 0,9 Megapixel

Akku: Li-Ionen, 38 Wh, bis 6 Stunden Laufzeit (Herstellerangabe)

Betriebssystem: Windows 11 Professional 64 Bit (vorinstalliert & aktiviert)

Gewicht: 1,70 Kg

Abmessungen: 359,2 × 235,8 × 19,9 mm (B × T × H)

Herstellergarantie: 12 Monate

(PC-Welt)

Lenovo Laptop 7606 im Test​ Weiterlesen »

12 Tipps für Führungskräfte an der Belastungsgrenze​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/Burnout-shutterstock_2132962141_c7affe.jpg?quality=50&strip=all 3887w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Burnout-shutterstock_2132962141_c7affe.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Burnout-shutterstock_2132962141_c7affe.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Burnout-shutterstock_2132962141_c7affe.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Burnout-shutterstock_2132962141_c7affe.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Burnout-shutterstock_2132962141_c7affe.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Burnout-shutterstock_2132962141_c7affe.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Burnout-shutterstock_2132962141_c7affe.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Burnout-shutterstock_2132962141_c7affe.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Burnout-shutterstock_2132962141_c7affe.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Burnout-shutterstock_2132962141_c7affe.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Führungskräfte sollten, wenn sie ihrem Job Erschöpfungszustände zeigen, selbstkritisch Maßnahmen ergreifen, um mit ihren Kräften nicht dauerhaft in den roten Burnout-Bereich zu kommen. Gannvector – Shutterstock 2519701687 Um einem Burnout vorzubeugen, kann es zunächst hilfreich sein, die berufliche Tätigkeit in Eigenregie zu hinterfragen und folgende zwölf Tipps zu befolgen: 1. Machen Sie sich bewusst, dass auch Sie (nur) ein Mensch sind … und zeigen Sie dies auch anderen Personen.  2. Akzeptieren Sie, dass auch Sie manchmal an Ihre Grenzen stoßen – sowohl physisch als auch psychisch.  3.  Führen Sie sich Ihre Erfolge in den zurückliegenden Jahren vor Augen. Und seien diese (scheinbar) noch so klein, sie sind nicht selbstverständlich.  4.  Reflektieren Sie, von wem Sie in der zurückliegenden Zeit Unterstützung erfahren haben – beruflich und privat. Machen Sie sich bewusst, wer Ihre Stützen im Alltag sind, auf die Sie bauen und vertrauen können.  5. Ermitteln Sie, was sich in Ihrem Umfeld in den zurückliegenden Jahren oft schleichend verändert hat. Nehmen Sie sich eine Auszeit oder nutzen Sie eine stille Stunde, um Ihr gewohntes Verhalten zu überdenken und sich bewusst zu werden, wo Sie eventuell einige Weichen neu stellen sollten.   6. Seien Sie dabei ehrlich zu sich selbst! Stehen Sie zu Ihren Schwächen und eventuellen Defiziten und überlegen Sie sich, wo Sie von wem eventuell einen „Support“ brauchen.  7. Reflektieren Sie allein, mit einem Coach oder mit einer anderen Person, die Ihnen wichtig ist, was für Sie ein erfülltes Leben bedeutet und was für Ihr Wohlbefinden wesentlich ist – beruflich und privat. Fokussieren Sie Ihre Aktivitäten hierauf.  8. Haben Sie den Mut, zu Anforderungen, die von außen an Sie gestellt werden, auch mal Nein zu sorgen. Sie müssen und können nicht alle Rollenanforderungen erfüllen. Zu viel ist schlicht zu viel!  9. Planen Sie in Ihren Alltag Räume und Zeiten für sich ein, also Oasen, um neue Energie zu tanken.  10. Akzeptieren Sie, dass vieles anders kommt als von Ihnen geplant und gedacht. Seien Sie entsprechend flexibel und anpassungsbereit.  11. Machen Sie sich bewusst, dass nicht nur Sie aktuell am Rande Ihrer Belastungsgrenze agieren. Vermutlich geht es vielen Menschen in Ihrem Umfeld so.  12. Sagen Sie „Tschüss“ zum Selbstanspruch, stets perfekt zu sein und 24/7 wie eine Maschine zu funktionieren. Seien Sie in Ihrem Umfeld ein „Role-Model“ beziehungsweise Vorbild hierfür. Das erleichtert es Ihnen auch, tragfähige, von wechselseitiger Wertschätzung geprägte Beziehungen mit anderen Menschen aufzubauen.  

12 Tipps für Führungskräfte an der Belastungsgrenze​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/Burnout-shutterstock_2132962141_c7affe.jpg?quality=50&strip=all 3887w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Burnout-shutterstock_2132962141_c7affe.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Burnout-shutterstock_2132962141_c7affe.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Burnout-shutterstock_2132962141_c7affe.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Burnout-shutterstock_2132962141_c7affe.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Burnout-shutterstock_2132962141_c7affe.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Burnout-shutterstock_2132962141_c7affe.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Burnout-shutterstock_2132962141_c7affe.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Burnout-shutterstock_2132962141_c7affe.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Burnout-shutterstock_2132962141_c7affe.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/Burnout-shutterstock_2132962141_c7affe.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Führungskräfte sollten, wenn sie ihrem Job Erschöpfungszustände zeigen, selbstkritisch Maßnahmen ergreifen, um mit ihren Kräften nicht dauerhaft in den roten Burnout-Bereich zu kommen. Gannvector – Shutterstock 2519701687

Um einem Burnout vorzubeugen, kann es zunächst hilfreich sein, die berufliche Tätigkeit in Eigenregie zu hinterfragen und folgende zwölf Tipps zu befolgen:

1. Machen Sie sich bewusst, dass auch Sie (nur) ein Mensch sind … und zeigen Sie dies auch anderen Personen. 

2. Akzeptieren Sie, dass auch Sie manchmal an Ihre Grenzen stoßen – sowohl physisch als auch psychisch. 

3.  Führen Sie sich Ihre Erfolge in den zurückliegenden Jahren vor Augen. Und seien diese (scheinbar) noch so klein, sie sind nicht selbstverständlich. 

4.  Reflektieren Sie, von wem Sie in der zurückliegenden Zeit Unterstützung erfahren haben – beruflich und privat. Machen Sie sich bewusst, wer Ihre Stützen im Alltag sind, auf die Sie bauen und vertrauen können. 

5. Ermitteln Sie, was sich in Ihrem Umfeld in den zurückliegenden Jahren oft schleichend verändert hat. Nehmen Sie sich eine Auszeit oder nutzen Sie eine stille Stunde, um Ihr gewohntes Verhalten zu überdenken und sich bewusst zu werden, wo Sie eventuell einige Weichen neu stellen sollten.  

6. Seien Sie dabei ehrlich zu sich selbst! Stehen Sie zu Ihren Schwächen und eventuellen Defiziten und überlegen Sie sich, wo Sie von wem eventuell einen „Support“ brauchen. 

7. Reflektieren Sie allein, mit einem Coach oder mit einer anderen Person, die Ihnen wichtig ist, was für Sie ein erfülltes Leben bedeutet und was für Ihr Wohlbefinden wesentlich ist – beruflich und privat. Fokussieren Sie Ihre Aktivitäten hierauf. 

8. Haben Sie den Mut, zu Anforderungen, die von außen an Sie gestellt werden, auch mal Nein zu sorgen. Sie müssen und können nicht alle Rollenanforderungen erfüllen. Zu viel ist schlicht zu viel! 

9. Planen Sie in Ihren Alltag Räume und Zeiten für sich ein, also Oasen, um neue Energie zu tanken. 

10. Akzeptieren Sie, dass vieles anders kommt als von Ihnen geplant und gedacht. Seien Sie entsprechend flexibel und anpassungsbereit. 

11. Machen Sie sich bewusst, dass nicht nur Sie aktuell am Rande Ihrer Belastungsgrenze agieren. Vermutlich geht es vielen Menschen in Ihrem Umfeld so. 

12. Sagen Sie „Tschüss“ zum Selbstanspruch, stets perfekt zu sein und 24/7 wie eine Maschine zu funktionieren. Seien Sie in Ihrem Umfeld ein „Role-Model“ beziehungsweise Vorbild hierfür. Das erleichtert es Ihnen auch, tragfähige, von wechselseitiger Wertschätzung geprägte Beziehungen mit anderen Menschen aufzubauen. 

12 Tipps für Führungskräfte an der Belastungsgrenze​ Weiterlesen »

Samsung Galaxy S25+ im Test: Flaggschiff ohne Schwächen​

Allgemein

Dominik Tomaszewski / Foundry Auf einen Blick Pro Erstklassige Leistung Wunderschönes Display Hervorragendes Software-Erlebnis Nützliche KI-Funktionen Kontra Sekundär-Kameras könnten besser sein Aufladen nur mit 45 Watt Kabelloses Qi2-Laden benötigt spezielle Hülle Fazit Durch die fehlenden Upgrades fühlt sich das Galaxy S25+ wie eine verpasste Chance für Samsung an. Dennoch bietet es das beste Gleichgewicht zwischen Hardware, Software und Preis unter den aktuellen Flaggschiff-Smartphones. Samsung hat das Jahr 2025 mit der Einführung seiner Galaxy S25-Serie mit einem Paukenschlag begonnen. Das Galaxy S25, das S25+ und das S25 Ultra sind ihren Vorgängermodellen jedoch sehr ähnlich, und Samsung hat sich bei den Upgrades für das absolute Minimum entschieden. Wenn Sie den Kauf des Galaxy S25+ ernsthaft in Erwägung ziehen, dann besitzen Sie wahrscheinlich noch nicht das Galaxy S24+. Falls doch, sollten Sie sich diese Ausgabe lieber sparen. Stattdessen besitzen Sie wahrscheinlich ein Smartphone, das mindestens drei oder vier Generationen alt ist, was das S25+ zu einem viel größeren Upgrade macht. Aber gibt es bessere Flaggschiff-Optionen, wenn Sie mindestens 1.000 Euro ausgeben wollen? Ich habe das Galaxy S25+ ausführlich getestet und verrate Ihnen im Folgenden, ob es sein Geld wert ist. Design & Verarbeitung Hochwertiges und dennoch robustes Design 190 Gramm IP68 Wasser- und Staubschutz Das Galaxy S25 hat ein einfaches, aber sehr effektives Design: eine Vorder- und Rückseite aus Glas (Gorilla Glass Victus 2), ein Aluminiumrahmen und drei Kameralinsen auf der Rückseite. Samsung beschränkt auch die physischen Tasten auf ein absolutes Minimum – alles, was Sie hier finden, sind eine Lautstärkewippe und eine Power-Taste. Manche werden das Design als langweilig bezeichnen, vor allem, wenn Sie sich nicht für eine der lebhafteren Farboptionen entscheiden (es gibt insgesamt sieben, darunter drei, die exklusiv auf der Samsung-Website angeboten werden). Die von mir getestete Version “Silver Shadow” sticht sicherlich nicht hervor. Dominik Tomaszewski / Foundry Ein ungewöhnliches Design ist anfangs zwar cool, man kann sich an ihm aber auch schnell satt sehen. Ein unauffälligeres Design wie dieses wird auf jeden Fall den Test der Zeit bestehen. Das S25+ ist ein gut verarbeitetes Smartphone, das sich robust anfühlt. Mit 190 Gramm ist es etwas leichter als das S24+ und bereitet mir keine Handschmerzen wie das 221 Gramm schwere Pixel 9 Pro XL. Das S25+ ist ein gut verarbeitetes Smartphone, das sich robust anfühlt. Ich würde jedoch empfehlen, ein wenig zusätzliches Gewicht in Form einer Schutzhülle hinzuzufügen. Ich habe während meines Tests auf eine solche verzichtet und war oft besorgt, dass das Smartphone vom Tisch oder aus meiner Hosentasche rutschen könnte. Ein wenig zusätzlicher Halt ist meiner Meinung nach notwendig. Dominik Tomaszewski / Foundry Dank der Schutzklasse IP68 ist das S25+ vollständig gegen Staub geschützt und kann bis zu 30 Minuten lang in bis zu 1,5 Meter tiefes Süßwasser getaucht werden. Erwähnenswert ist außerdem der Vibrationsmotor, der ein ausgezeichnetes haptisches Feedback liefert. Bildschirm & Lautsprecher 6,7-Zoll, 120 Hz, 1440p, AMOLED Die Antireflexionsbeschichtung des S25 Ultra fehlt Stereo-Lautsprecher Das 6,7-Zoll-Display des S24+ mit einer Auflösung von 1.440 × 3.120 Pixeln war bereits eines der besten Displays auf dem Markt. Aus diesem Grund musste Samsung auch am S25+ keine Änderungen vornehmen. Dominik Tomaszewski / Foundry Das ist zwar eine gute Sache, bedeutet aber auch, dass das S25+ auf die Antireflexionsbeschichtung des Ultra-Displays verzichten muss, die eine bessere Sichtbarkeit mit einer höheren Kratz- und Stoßfestigkeit kombiniert. Mit einer Spitzenhelligkeit von 2.600 Candela pro Quadratmeter sollte es kein Problem sein, das S25+ an einem hellen, sonnigen Tag im Freien zu verwenden, aber die Reflexionen können manchmal störend sein. Das 6,7-Zoll-Display des S24+ mit einer Auflösung von 1.440 x 3.120 Pixeln war bereits eines der besten Displays auf dem Markt. Das ist jedoch nur ein kleiner Nachteil eines ansonsten hervorragenden Displays. Im Modus “Natürlich”, den ich gewählt habe, sehen die Inhalte unglaublich scharf, klar und naturgetreu aus. Wenn Sie auf “Lebendig” umschalten, steigern sich Kontrast und Sättigung, sodass Filme und Videos noch eindrucksvoller wirken. Dank beider Optionen bietet das Display des S25+ eine beeindruckende Vielseitigkeit. Die 120- Hertz-Bildwiederholfrequenz mag bei den meisten Android-Smartphones heutzutage Standard sein. Die flüssige und ruckelfreie Darstellung kann sich mit den besten Modellen messen. Der Standardmodus “Adaptiv” kann automatisch auf bis zu 1 Hertz reduziert werden. Auf diese Weise schonen Sie beispielsweise beim Lesen eines E-Books Ihren Akku. Dominik Tomaszewski / Foundry Der Bildschirm enthält eine verbesserte Version von Samsungs Ultraschall-Fingerabdrucksensor, der insgesamt schnell und zuverlässig arbeitet. Allerdings ist der Zielbereich recht klein, sodass ich ihn beim schnellen Entsperren gelegentlich verfehlte. Da die Gesichtserkennung inzwischen genauso sicher ist, habe ich sie bevorzugt verwendet. Samsung hat die gleichen Stereo-Lautsprecher wie beim S24+ verbaut. Sie bieten eine beeindruckende Klarheit, vermeiden hörbare Verzerrungen, werden aber nicht besonders laut. Wenn Sie einen ordentlichen Bass wollen, sollten Sie einen Kopfhörer oder Lautsprecher anschließen. Spezifikationen & Leistung Qualcomm Snapdragon 8 Elite für Galaxy 12-GB-RAM bei beiden Modellen 256 oder 512 GB nicht erweiterbarer Speicher Anders als bei der Galaxy S24-Serie setzt Samsung bei allen drei Galaxy S25-Modellen weltweit auf einen Qualcomm-Chipsatz. Der Snapdragon 8 Elite für das Galaxy – eine übertaktete Version von Qualcomms neuestem High-End-Chip – stellt ein deutliches Upgrade gegenüber der Exynos 2400-Variante des Galaxy S24 dar. Dominik Tomaszewski / Foundry Das S25 ist unglaublich flott und reaktionsschnell und erledigt jede erdenkliche Aufgabe mit Leichtigkeit. Mit 12 GB Arbeitsspeicher in allen Modellen ist es ideal für das Surfen im Internet, Social Media oder Multitasking. Die erstklassigen Spezifikationen machen es auch zu einer leistungsstarken Gaming-Maschine. Starten Sie “Call of Duty: Mobile”, “PUBG Mobile”, “Genshin Impact” oder einen anderen anspruchsvollen Titel aus dem Google Play Store und genießen Sie einfach das flüssige Gameplay, das Sie von dedizierten Gaming-Handys gewohnt sind. Das S25 ist unglaublich schnell und reaktionsschnell und erledigt jede erdenkliche Aufgabe mit Leichtigkeit. Längere Gaming-Sessions stellen eine größere Herausforderung dar, da sich das S25 dann spürbar warm anfühlt. Ohne spezielle Kühlsysteme ist dies jedoch verständlich. Im normalen Alltagsbetrieb gibt es jedoch keine Anzeichen von Überhitzung. Das S25 wird wahlweise mit 256 oder 512 Gigabyte schnellem UFS 4.0 Speicher angeboten. Der interne Speicher ist jedoch nicht per microSD erweiterbar. Samsung Galaxy S25 Benchmarks https://infogram.com/samsung-galaxy-s25-benchmarks-1h7v4pdx7mv9j4k Kameras 50 MP, f/1,8 Hauptkamera 12 MP, f/2,2 Ultraweitwinkel 10 MP, f/2,4 3x Teleobjektiv 12 MP, f/2,2 Selfie-Kamera Samsung hat keine bedeutenden Änderungen an der Kamera-Hardware des Galaxy S25+ vorgenommen. Es verfügt über die gleiche Dreifach-Kamera auf der Rückseite wie sein Vorgänger, bestehend aus einer 50-Megapixel-Hauptkamera, einer 10-Megapixel-Dreifach-Telekamera und einer 12-Megapixel-Ultraweitwinkelkamera. Das bedeutet, dass Sie auf den 200-Megapixel-Hauptsensor und das zusätzliche 50-Megapixel-Teleobjektiv mit fünffach Zoom des S25 Ultra verzichten müssen. Das macht sich bemerkbar. Dominik Tomaszewski / Foundry Die allgemeine Kameraleistung für Fotos ist immer noch ausgezeichnet, aber es ist ein deutlicher Rückschritt gegenüber dem Ultra und den anderen besten Kamerahandys auf dem Markt, einschließlich des Pixel 9 Pro XL, iPhone 16 Pro Max und Xiaomi 14 Ultra. Das 50-Megapixel-Hauptobjektiv liefert durchgängig großartige Details und einen großen Dynamikbereich. Es geht im Allgemeinen gut mit Schatten um und sorgt dafür, dass grauer Himmel weder über- noch unterbelichtet wird. Ich bin auch von der Farbgenauigkeit beeindruckt – die Aufnahmen sind naturgetreuer, als wir es bisher von Samsung-Handys gewohnt waren. Selbst bei schwachem Licht hellt die automatisch aktivierte Nachtaufnahme dunkle Bilder dezent auf, ohne künstlich zu wirken oder zu viel Rauschen zu erzeugen. Ich habe das Hauptobjektiv auch gerne für Porträts verwendet. Es trennt das Motiv gut vom Hintergrund, und ich finde es toll, dass man den Grad der Hintergrundunschärfe vor oder nach der Aufnahme einstellen kann. Das Hauptobjektiv mit 50 Megapixeln liefert durchweg großartige Details und einen großen Dynamikbereich. Leider überzeugen die ergänzenden Objektive nicht vollständig. Das 10-Megapixel-Teleobjektiv liefert bei guten Lichtverhältnissen starke Ergebnisse, und der dreifache optische Zoom sorgt für große Flexibilität. Doch beim digitalen Zoom (bis zu 30-fach) nimmt die Bildqualität schnell ab. Besonders bei wenig Licht entstehen entweder enttäuschend dunkle Aufnahmen oder Bilder mit deutlich sichtbarem Rauschen. Das 12-Megapixel-Ultraweitwinkelobjektiv ist in Ordnung. Mir gefällt das flexible Sichtfeld von 120 Grad. Der Dynamikbereich und die Belichtung sind etwas schlechter als beim Hauptobjektiv, aber nicht so sehr, dass es auffällt, es sei denn, man vergleicht sie direkt miteinander. Wenn man sich dieser Einschränkungen bewusst ist, lohnt es sich, dieses Objektiv zu verwenden. Auf der Vorderseite ist das 12-Megapixel-Objektiv bei allen S25-Modellen gleich. Es liefert klare, scharfe Selfies, auch bei schlechten Lichtverhältnissen. Ich war besonders beeindruckt von der Art und Weise, wie genau es Hauttöne und Farben einfängt. Das S25+ kann Videos mit bis zu 8K aufnehmen, wobei die OIS (optische Bildstabilisierung) am Haupt- und Teleobjektiv Verwackler vermeiden sollen. Zusammen mit den kristallklaren Dual-Mikrofonen ist es eine großartige Wahl für die Aufnahme von Konzerten oder anderen Live-Events. Die wichtigste Änderung ist jedoch die Einführung eines Log-Aufnahmemodus. Wenn er aktiviert ist, können Sie mit einem flachen Bildprofil filmen und das Filmmaterial anschließend selbst farblich anpassen. In Kombination mit der 8K-Aufnahmefunktion ist das S25+ eines der fortschrittlichsten Kamerahandys für Videoaufnahmen. Akkulaufzeit & Aufladen 4.900 mAh Akku 45 W kabelgebundenes und 15 W drahtloses Laden Qi2 Wireless erfordert eine kompatible Hülle Das S25 hat den gleichen 4.900-Milliamperestunden-Akku wie sein Vorgänger. Verglichen mit den meisten Flaggschiff-Handys auf dem Markt ist das ein wenig wenig. Ich würde nicht so weit gehen zu sagen, dass die Akkulaufzeit eine Schwäche ist, aber sie ist auch keine Stärke. Bei moderater Nutzung können Sie bequem einen ganzen Tag mit einer einzigen Ladung auskommen. Während des Tests habe ich das Smartphone im Durchschnitt etwa 3 Stunden pro Tag intensiv genutzt. In der Regel musste es zur Hälfte des zweiten Tages ans Ladegerät. Dominik Tomaszewski / Foundry An den wenigen besonders anspruchsvollen Tagen war meine Zuversicht jedoch geringer. Bei hoher Helligkeit, aktiviertem GPS und mobilen Daten sank der Akkustand um mehr als die Hälfte nach nur zwei Stunden Bildschirmzeit. Zugegeben, ich habe in dieser Zeit viele Fotos und Videos aufgenommen, aber trotzdem würde ich sicherheitshalber eine Powerbank dabeihaben. Mit hoher Helligkeit, GPS und mobilen Daten habe ich mehr als die Hälfte der Ladung in nur zwei Stunden Bildschirmzeit verloren. Enttäuschend ist, dass das S25+ weiterhin nur mit maximal 45 Watt geladen werden kann – deutlich langsamer als das OnePlus 13 (100 Watt) oder das Xiaomi 14 Ultra (90 Watt). Zudem legt Samsung kein Ladegerät bei. Mit meinem 65-Watt-Netzteil erreichte das Handy in 15 Minuten 25 Prozent und nach 30 Minuten 53 Prozent. Eine vollständige Aufladung dauerte 85 Minuten – solide, aber keineswegs beeindruckend. Dominik Tomaszewski / Foundry Das kabellose Aufladen bleibt auf viel langsamere 15 Watt beschränkt, wobei der Qi2-Standard im MagSafe-Stil den separaten Kauf eines kompatiblen Gehäuses voraussetzt. Die durchschnittliche Akkulaufzeit und das relativ langsame Aufladen sind die Hauptfaktoren, die gegen das S25+ sprechen. Für die meisten Nutzer sollte das aber kein Hindernis darstellen. Software & Apps One UI 7 über Android 15 Neue Galaxy AI-Funktionen Sieben Jahre lang Betriebssystem- und Sicherheitsupdates Genau wie bei den anderen Galaxy-S25-Smartphones läuft auf dem S25+ die One UI 7 von Samsung. Die Benutzeroberfläche basiert zwar auf Android 15, unterscheidet sich aber in Aussehen und Bedienung deutlich von der Version auf den Pixel-Smartphones von Google. One UI 7 ist meine persönliche Lieblingsversion von Android. Sie ist einfach zu bedienen, sieht toll aus und integriert wirklich nützliche KI-Funktionen. Ich liebe die Anpassungsmöglichkeiten, die es mir ermöglichen, einen Startbildschirm, einen Sperrbildschirm und ein Menü für die Schnelleinstellungen zu erstellen, das perfekt auf meine Vorlieben zugeschnitten ist. Dominik Tomaszewski / Foundry Letzteres ist jetzt von der Benachrichtigungsleiste getrennt, je nachdem, wo Sie nach unten wischen, genau wie bei iOS. Ich bevorzuge es gegenüber der Version auf dem iPhone. Und anders als beim Pixel können Sie mit einem einzigen Fingertipp WLAN oder mobile Daten ein- und ausschalten, was für mich einen großen Unterschied macht. One UI 7 ist meine persönliche Lieblingsversion von Android. Sie ist einfach zu bedienen, sieht toll aus und integriert wirklich nützliche KI-Funktionen. One UI 7 bietet zahlreiche Beispiele für den Einsatz von KI. Eine meiner Lieblingsfunktionen ist die Suchfunktion. Wenn man etwas im App-Drawer oder in den Einstellungen sucht, kann man natürliche Sprache verwenden. Das ist besonders hilfreich, da Funktionen wie “Adaptive Helligkeit” für die automatische Helligkeitsanpassung und “Bewegungsglättung” für die Aktualisierungsrate auf einfache Weise gefunden werden können – was die Nutzererfahrung deutlich verbessert. Dominik Tomaszewski / Foundry Mit One UI 7 erhalten Sie auch die derzeit leistungsstärkste Version von Google Gemini auf einem Smartphone. Wenn Sie lange auf die Einschalttaste drücken, wird die reguläre Version des Assistenten angezeigt, die Sie gegen Gemini Live austauschen können. Beide Modi funktionieren hervorragend. Gemini kann auch verwendet werden, um mit einigen Samsung-Apps zu interagieren, zum Beispiel, um ein Ereignis im Kalender zu erstellen oder etwas zu den Notizen hinzuzufügen. Das funktioniert jedoch am zuverlässigsten, wenn Sie bereits in das Samsung-Ökosystem investiert haben. Das Gleiche gilt für Now Brief. Dieses Feature fasst wichtige Informationen zusammen und “brieft” Sie auf Wunsch dreimal am Tag. Für jemanden, der hauptsächlich die Apps von Google verwendet und keine Wearables gekoppelt hat, ist der Nutzen jedoch begrenzt. Dominik Tomaszewski / Foundry Circle to Search ist zwar immer noch da, aber AI Select macht es noch leistungsfähiger. Anstatt nur herauszufinden, was auf Ihrem Bildschirm zu sehen ist, können Sie es als Grundlage für etwas Neues verwenden. Ich war beeindruckt von der Art und Weise, wie es den Stil eines Fotos verändern, Hintergrundobjekte nahtlos entfernen oder etwas Neues erschaffen konnte (natürlich mit generativer KI). Audio Eraser ist eine weitere neue Funktion. Sie funktioniert im Grunde genauso wie der Audio Magic Eraser, indem sie das Audio in einem Video analysiert und das Rauschen reduziert. Das funktioniert im Allgemeinen gut, aber das Ergebnis kann manchmal etwas künstlich klingen. Neben den Tools zum Schreiben, Transkribieren, Zusammenfassen und Übersetzen in Echtzeit, die mit der Galaxy S24-Serie eingeführt wurden, bietet das S25+ eine umfassende KI-Suite, die wirklich nützlich sein kann. Wenn Sie dann noch Samsungs erstklassiges Engagement für sieben Jahre Betriebssystem- und Sicherheitsupdates einberechnen, haben Sie ein nahezu perfektes Software-Erlebnis. Preis & Verfügbarkeit Das Galaxy S25+ ist ein echtes Flaggschiff und dementsprechend ist es auch nicht gerade billig. Bei Samsung beginnen die Preise bei 1.149 Euro für ein Modell mit 12 Gigabyte RAM und 256 Gigabyte Speicherplatz. 512 Gigabyte interner Speicher schlagen mit 1.269 Euro zu Buche. Online-Händler Amazon bietet identische Preise für beide Modelle. Mit diesem Einstiegspreis konkurriert das S25+ unter anderem mit dem Google Pixel 9 Pro (ab 1.099 Euro), dem Apple iPhone 16 Pro (ab 1.199 Euro) und dem OnePlus 13 (ab 999 Euro). Es ist jedoch deutlich günstiger als das Galaxy S25 Ultra (ab 1.449 Euro). Sollten Sie das Samsung Galaxy S25 kaufen? Wenn Sie ein mindestens drei Jahre altes Smartphone besitzen und es sich leisten können, dann ja. Für die meisten Nutzer ist das S25+ das Nonplusultra in der Galaxy S25-Reihe von Samsung. Es bietet eine überzeugende Kombination aus erstklassiger Hardware und hervorragender KI-Software. Sie müssen zwar auf den S Pen und die 50 Megapixel Ultrawide-Kamera des Ultra verzichten, damit sparen Sie jedoch auch 300 Euro. Abgesehen von der relativ langsamen Aufladung und einigen Ungereimtheiten bei der Kamera ist das S25+ ein Smartphone ohne echte Schwächen. Das Fehlen von Upgrades bedeutet, dass Besitzer eines Galaxy S24+ oder S23+ es nicht in Betracht ziehen sollten. Wenn Sie jedoch ein älteres Modell besitzen, werden Sie den Unterschied wirklich bemerken. Das S25+ ist ein beeindruckendes Mobiltelefon, das den Test der Zeit überstehen sollte. Von uns gibt es in diesem Fall eine klare Kaufempfehlung. Spezifikationen One UI 7, basierend auf Android 15 6,7-Zoll, 1.440 × 3.120 Pixel, AMOLED, 120 Hz Ultraschall-Fingerabdruckscanner Qualcomm Snapdragon 8 Elite für Galaxy 12 GB RAM 256 GB / 512 GB Speicher 50 MP, f/1,8 Hauptkamera 12 MP, f/2,2 Ultraweitwinkel 10 MP, f/2,4 3x Teleobjektiv 12 MP, f/2,2 Selfie-Kamera Bis zu 8K bei 30 fps Video auf der Rückseite Stereo-Lautsprecher Dual-SIM, eSIM Wi-Fi 7 Bluetooth 5.4 4.900 mAh Akku 45 W kabelgebundenes Laden 15 W kabelloses Laden 158,4 × 75,8 × 7,3 mm IP68 zertifiziert 190 g Farben: Navy, Icyblue, Silver Shadow, Mint exklusiv bei Samsung: Blueback, Coralred, Pinkgold (PC-Welt) >>>> >>> 

Samsung Galaxy S25+ im Test: Flaggschiff ohne Schwächen​ Dominik Tomaszewski / Foundry

Auf einen Blick

Pro

Erstklassige Leistung

Wunderschönes Display

Hervorragendes Software-Erlebnis

Nützliche KI-Funktionen

Kontra

Sekundär-Kameras könnten besser sein

Aufladen nur mit 45 Watt

Kabelloses Qi2-Laden benötigt spezielle Hülle

Fazit

Durch die fehlenden Upgrades fühlt sich das Galaxy S25+ wie eine verpasste Chance für Samsung an. Dennoch bietet es das beste Gleichgewicht zwischen Hardware, Software und Preis unter den aktuellen Flaggschiff-Smartphones.

Samsung hat das Jahr 2025 mit der Einführung seiner Galaxy S25-Serie mit einem Paukenschlag begonnen. Das Galaxy S25, das S25+ und das S25 Ultra sind ihren Vorgängermodellen jedoch sehr ähnlich, und Samsung hat sich bei den Upgrades für das absolute Minimum entschieden.

Wenn Sie den Kauf des Galaxy S25+ ernsthaft in Erwägung ziehen, dann besitzen Sie wahrscheinlich noch nicht das Galaxy S24+. Falls doch, sollten Sie sich diese Ausgabe lieber sparen.

Stattdessen besitzen Sie wahrscheinlich ein Smartphone, das mindestens drei oder vier Generationen alt ist, was das S25+ zu einem viel größeren Upgrade macht. Aber gibt es bessere Flaggschiff-Optionen, wenn Sie mindestens 1.000 Euro ausgeben wollen? Ich habe das Galaxy S25+ ausführlich getestet und verrate Ihnen im Folgenden, ob es sein Geld wert ist.

Design & Verarbeitung

Hochwertiges und dennoch robustes Design

190 Gramm

IP68 Wasser- und Staubschutz

Das Galaxy S25 hat ein einfaches, aber sehr effektives Design: eine Vorder- und Rückseite aus Glas (Gorilla Glass Victus 2), ein Aluminiumrahmen und drei Kameralinsen auf der Rückseite. Samsung beschränkt auch die physischen Tasten auf ein absolutes Minimum – alles, was Sie hier finden, sind eine Lautstärkewippe und eine Power-Taste.

Manche werden das Design als langweilig bezeichnen, vor allem, wenn Sie sich nicht für eine der lebhafteren Farboptionen entscheiden (es gibt insgesamt sieben, darunter drei, die exklusiv auf der Samsung-Website angeboten werden). Die von mir getestete Version “Silver Shadow” sticht sicherlich nicht hervor.

Dominik Tomaszewski / Foundry

Ein ungewöhnliches Design ist anfangs zwar cool, man kann sich an ihm aber auch schnell satt sehen. Ein unauffälligeres Design wie dieses wird auf jeden Fall den Test der Zeit bestehen. Das S25+ ist ein gut verarbeitetes Smartphone, das sich robust anfühlt. Mit 190 Gramm ist es etwas leichter als das S24+ und bereitet mir keine Handschmerzen wie das 221 Gramm schwere Pixel 9 Pro XL.

Das S25+ ist ein gut verarbeitetes Smartphone, das sich robust anfühlt.

Ich würde jedoch empfehlen, ein wenig zusätzliches Gewicht in Form einer Schutzhülle hinzuzufügen. Ich habe während meines Tests auf eine solche verzichtet und war oft besorgt, dass das Smartphone vom Tisch oder aus meiner Hosentasche rutschen könnte. Ein wenig zusätzlicher Halt ist meiner Meinung nach notwendig.

Dominik Tomaszewski / Foundry

Dank der Schutzklasse IP68 ist das S25+ vollständig gegen Staub geschützt und kann bis zu 30 Minuten lang in bis zu 1,5 Meter tiefes Süßwasser getaucht werden. Erwähnenswert ist außerdem der Vibrationsmotor, der ein ausgezeichnetes haptisches Feedback liefert.

Bildschirm & Lautsprecher

6,7-Zoll, 120 Hz, 1440p, AMOLED

Die Antireflexionsbeschichtung des S25 Ultra fehlt

Stereo-Lautsprecher

Das 6,7-Zoll-Display des S24+ mit einer Auflösung von 1.440 × 3.120 Pixeln war bereits eines der besten Displays auf dem Markt. Aus diesem Grund musste Samsung auch am S25+ keine Änderungen vornehmen.

Dominik Tomaszewski / Foundry

Das ist zwar eine gute Sache, bedeutet aber auch, dass das S25+ auf die Antireflexionsbeschichtung des Ultra-Displays verzichten muss, die eine bessere Sichtbarkeit mit einer höheren Kratz- und Stoßfestigkeit kombiniert. Mit einer Spitzenhelligkeit von 2.600 Candela pro Quadratmeter sollte es kein Problem sein, das S25+ an einem hellen, sonnigen Tag im Freien zu verwenden, aber die Reflexionen können manchmal störend sein.

Das 6,7-Zoll-Display des S24+ mit einer Auflösung von 1.440 x 3.120 Pixeln war bereits eines der besten Displays auf dem Markt.

Das ist jedoch nur ein kleiner Nachteil eines ansonsten hervorragenden Displays. Im Modus “Natürlich”, den ich gewählt habe, sehen die Inhalte unglaublich scharf, klar und naturgetreu aus. Wenn Sie auf “Lebendig” umschalten, steigern sich Kontrast und Sättigung, sodass Filme und Videos noch eindrucksvoller wirken. Dank beider Optionen bietet das Display des S25+ eine beeindruckende Vielseitigkeit.

Die 120- Hertz-Bildwiederholfrequenz mag bei den meisten Android-Smartphones heutzutage Standard sein. Die flüssige und ruckelfreie Darstellung kann sich mit den besten Modellen messen. Der Standardmodus “Adaptiv” kann automatisch auf bis zu 1 Hertz reduziert werden. Auf diese Weise schonen Sie beispielsweise beim Lesen eines E-Books Ihren Akku.

Dominik Tomaszewski / Foundry

Der Bildschirm enthält eine verbesserte Version von Samsungs Ultraschall-Fingerabdrucksensor, der insgesamt schnell und zuverlässig arbeitet. Allerdings ist der Zielbereich recht klein, sodass ich ihn beim schnellen Entsperren gelegentlich verfehlte. Da die Gesichtserkennung inzwischen genauso sicher ist, habe ich sie bevorzugt verwendet.

Samsung hat die gleichen Stereo-Lautsprecher wie beim S24+ verbaut. Sie bieten eine beeindruckende Klarheit, vermeiden hörbare Verzerrungen, werden aber nicht besonders laut. Wenn Sie einen ordentlichen Bass wollen, sollten Sie einen Kopfhörer oder Lautsprecher anschließen.

Spezifikationen & Leistung

Qualcomm Snapdragon 8 Elite für Galaxy

12-GB-RAM bei beiden Modellen

256 oder 512 GB nicht erweiterbarer Speicher

Anders als bei der Galaxy S24-Serie setzt Samsung bei allen drei Galaxy S25-Modellen weltweit auf einen Qualcomm-Chipsatz. Der Snapdragon 8 Elite für das Galaxy – eine übertaktete Version von Qualcomms neuestem High-End-Chip – stellt ein deutliches Upgrade gegenüber der Exynos 2400-Variante des Galaxy S24 dar.

Dominik Tomaszewski / Foundry

Das S25 ist unglaublich flott und reaktionsschnell und erledigt jede erdenkliche Aufgabe mit Leichtigkeit. Mit 12 GB Arbeitsspeicher in allen Modellen ist es ideal für das Surfen im Internet, Social Media oder Multitasking. Die erstklassigen Spezifikationen machen es auch zu einer leistungsstarken Gaming-Maschine. Starten Sie “Call of Duty: Mobile”, “PUBG Mobile”, “Genshin Impact” oder einen anderen anspruchsvollen Titel aus dem Google Play Store und genießen Sie einfach das flüssige Gameplay, das Sie von dedizierten Gaming-Handys gewohnt sind.

Das S25 ist unglaublich schnell und reaktionsschnell und erledigt jede erdenkliche Aufgabe mit Leichtigkeit.

Längere Gaming-Sessions stellen eine größere Herausforderung dar, da sich das S25 dann spürbar warm anfühlt. Ohne spezielle Kühlsysteme ist dies jedoch verständlich. Im normalen Alltagsbetrieb gibt es jedoch keine Anzeichen von Überhitzung.

Das S25 wird wahlweise mit 256 oder 512 Gigabyte schnellem UFS 4.0 Speicher angeboten. Der interne Speicher ist jedoch nicht per microSD erweiterbar.

Samsung Galaxy S25 Benchmarks

https://infogram.com/samsung-galaxy-s25-benchmarks-1h7v4pdx7mv9j4k

Kameras

50 MP, f/1,8 Hauptkamera

12 MP, f/2,2 Ultraweitwinkel

10 MP, f/2,4 3x Teleobjektiv

12 MP, f/2,2 Selfie-Kamera

Samsung hat keine bedeutenden Änderungen an der Kamera-Hardware des Galaxy S25+ vorgenommen. Es verfügt über die gleiche Dreifach-Kamera auf der Rückseite wie sein Vorgänger, bestehend aus einer 50-Megapixel-Hauptkamera, einer 10-Megapixel-Dreifach-Telekamera und einer 12-Megapixel-Ultraweitwinkelkamera. Das bedeutet, dass Sie auf den 200-Megapixel-Hauptsensor und das zusätzliche 50-Megapixel-Teleobjektiv mit fünffach Zoom des S25 Ultra verzichten müssen. Das macht sich bemerkbar.

Dominik Tomaszewski / Foundry

Die allgemeine Kameraleistung für Fotos ist immer noch ausgezeichnet, aber es ist ein deutlicher Rückschritt gegenüber dem Ultra und den anderen besten Kamerahandys auf dem Markt, einschließlich des Pixel 9 Pro XL, iPhone 16 Pro Max und Xiaomi 14 Ultra.

Das 50-Megapixel-Hauptobjektiv liefert durchgängig großartige Details und einen großen Dynamikbereich. Es geht im Allgemeinen gut mit Schatten um und sorgt dafür, dass grauer Himmel weder über- noch unterbelichtet wird. Ich bin auch von der Farbgenauigkeit beeindruckt – die Aufnahmen sind naturgetreuer, als wir es bisher von Samsung-Handys gewohnt waren. Selbst bei schwachem Licht hellt die automatisch aktivierte Nachtaufnahme dunkle Bilder dezent auf, ohne künstlich zu wirken oder zu viel Rauschen zu erzeugen.

Ich habe das Hauptobjektiv auch gerne für Porträts verwendet. Es trennt das Motiv gut vom Hintergrund, und ich finde es toll, dass man den Grad der Hintergrundunschärfe vor oder nach der Aufnahme einstellen kann.

Das Hauptobjektiv mit 50 Megapixeln liefert durchweg großartige Details und einen großen Dynamikbereich.

Leider überzeugen die ergänzenden Objektive nicht vollständig. Das 10-Megapixel-Teleobjektiv liefert bei guten Lichtverhältnissen starke Ergebnisse, und der dreifache optische Zoom sorgt für große Flexibilität. Doch beim digitalen Zoom (bis zu 30-fach) nimmt die Bildqualität schnell ab. Besonders bei wenig Licht entstehen entweder enttäuschend dunkle Aufnahmen oder Bilder mit deutlich sichtbarem Rauschen.

Das 12-Megapixel-Ultraweitwinkelobjektiv ist in Ordnung. Mir gefällt das flexible Sichtfeld von 120 Grad. Der Dynamikbereich und die Belichtung sind etwas schlechter als beim Hauptobjektiv, aber nicht so sehr, dass es auffällt, es sei denn, man vergleicht sie direkt miteinander. Wenn man sich dieser Einschränkungen bewusst ist, lohnt es sich, dieses Objektiv zu verwenden.

Auf der Vorderseite ist das 12-Megapixel-Objektiv bei allen S25-Modellen gleich. Es liefert klare, scharfe Selfies, auch bei schlechten Lichtverhältnissen. Ich war besonders beeindruckt von der Art und Weise, wie genau es Hauttöne und Farben einfängt.

Das S25+ kann Videos mit bis zu 8K aufnehmen, wobei die OIS (optische Bildstabilisierung) am Haupt- und Teleobjektiv Verwackler vermeiden sollen. Zusammen mit den kristallklaren Dual-Mikrofonen ist es eine großartige Wahl für die Aufnahme von Konzerten oder anderen Live-Events.

Die wichtigste Änderung ist jedoch die Einführung eines Log-Aufnahmemodus. Wenn er aktiviert ist, können Sie mit einem flachen Bildprofil filmen und das Filmmaterial anschließend selbst farblich anpassen. In Kombination mit der 8K-Aufnahmefunktion ist das S25+ eines der fortschrittlichsten Kamerahandys für Videoaufnahmen.

Akkulaufzeit & Aufladen

4.900 mAh Akku

45 W kabelgebundenes und 15 W drahtloses Laden

Qi2 Wireless erfordert eine kompatible Hülle

Das S25 hat den gleichen 4.900-Milliamperestunden-Akku wie sein Vorgänger. Verglichen mit den meisten Flaggschiff-Handys auf dem Markt ist das ein wenig wenig. Ich würde nicht so weit gehen zu sagen, dass die Akkulaufzeit eine Schwäche ist, aber sie ist auch keine Stärke.

Bei moderater Nutzung können Sie bequem einen ganzen Tag mit einer einzigen Ladung auskommen. Während des Tests habe ich das Smartphone im Durchschnitt etwa 3 Stunden pro Tag intensiv genutzt. In der Regel musste es zur Hälfte des zweiten Tages ans Ladegerät.

Dominik Tomaszewski / Foundry

An den wenigen besonders anspruchsvollen Tagen war meine Zuversicht jedoch geringer. Bei hoher Helligkeit, aktiviertem GPS und mobilen Daten sank der Akkustand um mehr als die Hälfte nach nur zwei Stunden Bildschirmzeit. Zugegeben, ich habe in dieser Zeit viele Fotos und Videos aufgenommen, aber trotzdem würde ich sicherheitshalber eine Powerbank dabeihaben.

Mit hoher Helligkeit, GPS und mobilen Daten habe ich mehr als die Hälfte der Ladung in nur zwei Stunden Bildschirmzeit verloren.

Enttäuschend ist, dass das S25+ weiterhin nur mit maximal 45 Watt geladen werden kann – deutlich langsamer als das OnePlus 13 (100 Watt) oder das Xiaomi 14 Ultra (90 Watt). Zudem legt Samsung kein Ladegerät bei. Mit meinem 65-Watt-Netzteil erreichte das Handy in 15 Minuten 25 Prozent und nach 30 Minuten 53 Prozent. Eine vollständige Aufladung dauerte 85 Minuten – solide, aber keineswegs beeindruckend.

Dominik Tomaszewski / Foundry

Das kabellose Aufladen bleibt auf viel langsamere 15 Watt beschränkt, wobei der Qi2-Standard im MagSafe-Stil den separaten Kauf eines kompatiblen Gehäuses voraussetzt. Die durchschnittliche Akkulaufzeit und das relativ langsame Aufladen sind die Hauptfaktoren, die gegen das S25+ sprechen. Für die meisten Nutzer sollte das aber kein Hindernis darstellen.

Software & Apps

One UI 7 über Android 15

Neue Galaxy AI-Funktionen

Sieben Jahre lang Betriebssystem- und Sicherheitsupdates

Genau wie bei den anderen Galaxy-S25-Smartphones läuft auf dem S25+ die One UI 7 von Samsung. Die Benutzeroberfläche basiert zwar auf Android 15, unterscheidet sich aber in Aussehen und Bedienung deutlich von der Version auf den Pixel-Smartphones von Google. One UI 7 ist meine persönliche Lieblingsversion von Android. Sie ist einfach zu bedienen, sieht toll aus und integriert wirklich nützliche KI-Funktionen.

Ich liebe die Anpassungsmöglichkeiten, die es mir ermöglichen, einen Startbildschirm, einen Sperrbildschirm und ein Menü für die Schnelleinstellungen zu erstellen, das perfekt auf meine Vorlieben zugeschnitten ist.

Dominik Tomaszewski / Foundry

Letzteres ist jetzt von der Benachrichtigungsleiste getrennt, je nachdem, wo Sie nach unten wischen, genau wie bei iOS. Ich bevorzuge es gegenüber der Version auf dem iPhone. Und anders als beim Pixel können Sie mit einem einzigen Fingertipp WLAN oder mobile Daten ein- und ausschalten, was für mich einen großen Unterschied macht.

One UI 7 ist meine persönliche Lieblingsversion von Android. Sie ist einfach zu bedienen, sieht toll aus und integriert wirklich nützliche KI-Funktionen.

One UI 7 bietet zahlreiche Beispiele für den Einsatz von KI. Eine meiner Lieblingsfunktionen ist die Suchfunktion. Wenn man etwas im App-Drawer oder in den Einstellungen sucht, kann man natürliche Sprache verwenden. Das ist besonders hilfreich, da Funktionen wie “Adaptive Helligkeit” für die automatische Helligkeitsanpassung und “Bewegungsglättung” für die Aktualisierungsrate auf einfache Weise gefunden werden können – was die Nutzererfahrung deutlich verbessert.

Dominik Tomaszewski / Foundry

Mit One UI 7 erhalten Sie auch die derzeit leistungsstärkste Version von Google Gemini auf einem Smartphone. Wenn Sie lange auf die Einschalttaste drücken, wird die reguläre Version des Assistenten angezeigt, die Sie gegen Gemini Live austauschen können. Beide Modi funktionieren hervorragend.

Gemini kann auch verwendet werden, um mit einigen Samsung-Apps zu interagieren, zum Beispiel, um ein Ereignis im Kalender zu erstellen oder etwas zu den Notizen hinzuzufügen. Das funktioniert jedoch am zuverlässigsten, wenn Sie bereits in das Samsung-Ökosystem investiert haben.

Das Gleiche gilt für Now Brief. Dieses Feature fasst wichtige Informationen zusammen und “brieft” Sie auf Wunsch dreimal am Tag. Für jemanden, der hauptsächlich die Apps von Google verwendet und keine Wearables gekoppelt hat, ist der Nutzen jedoch begrenzt.

Dominik Tomaszewski / Foundry

Circle to Search ist zwar immer noch da, aber AI Select macht es noch leistungsfähiger. Anstatt nur herauszufinden, was auf Ihrem Bildschirm zu sehen ist, können Sie es als Grundlage für etwas Neues verwenden. Ich war beeindruckt von der Art und Weise, wie es den Stil eines Fotos verändern, Hintergrundobjekte nahtlos entfernen oder etwas Neues erschaffen konnte (natürlich mit generativer KI).

Audio Eraser ist eine weitere neue Funktion. Sie funktioniert im Grunde genauso wie der Audio Magic Eraser, indem sie das Audio in einem Video analysiert und das Rauschen reduziert. Das funktioniert im Allgemeinen gut, aber das Ergebnis kann manchmal etwas künstlich klingen.

Neben den Tools zum Schreiben, Transkribieren, Zusammenfassen und Übersetzen in Echtzeit, die mit der Galaxy S24-Serie eingeführt wurden, bietet das S25+ eine umfassende KI-Suite, die wirklich nützlich sein kann.

Wenn Sie dann noch Samsungs erstklassiges Engagement für sieben Jahre Betriebssystem- und Sicherheitsupdates einberechnen, haben Sie ein nahezu perfektes Software-Erlebnis.

Preis & Verfügbarkeit

Das Galaxy S25+ ist ein echtes Flaggschiff und dementsprechend ist es auch nicht gerade billig. Bei Samsung beginnen die Preise bei 1.149 Euro für ein Modell mit 12 Gigabyte RAM und 256 Gigabyte Speicherplatz. 512 Gigabyte interner Speicher schlagen mit 1.269 Euro zu Buche. Online-Händler Amazon bietet identische Preise für beide Modelle.

Mit diesem Einstiegspreis konkurriert das S25+ unter anderem mit dem Google Pixel 9 Pro (ab 1.099 Euro), dem Apple iPhone 16 Pro (ab 1.199 Euro) und dem OnePlus 13 (ab 999 Euro). Es ist jedoch deutlich günstiger als das Galaxy S25 Ultra (ab 1.449 Euro).

Sollten Sie das Samsung Galaxy S25 kaufen?

Wenn Sie ein mindestens drei Jahre altes Smartphone besitzen und es sich leisten können, dann ja. Für die meisten Nutzer ist das S25+ das Nonplusultra in der Galaxy S25-Reihe von Samsung.

Es bietet eine überzeugende Kombination aus erstklassiger Hardware und hervorragender KI-Software. Sie müssen zwar auf den S Pen und die 50 Megapixel Ultrawide-Kamera des Ultra verzichten, damit sparen Sie jedoch auch 300 Euro. Abgesehen von der relativ langsamen Aufladung und einigen Ungereimtheiten bei der Kamera ist das S25+ ein Smartphone ohne echte Schwächen.

Das Fehlen von Upgrades bedeutet, dass Besitzer eines Galaxy S24+ oder S23+ es nicht in Betracht ziehen sollten. Wenn Sie jedoch ein älteres Modell besitzen, werden Sie den Unterschied wirklich bemerken. Das S25+ ist ein beeindruckendes Mobiltelefon, das den Test der Zeit überstehen sollte. Von uns gibt es in diesem Fall eine klare Kaufempfehlung.

Spezifikationen

One UI 7, basierend auf Android 15

6,7-Zoll, 1.440 × 3.120 Pixel, AMOLED, 120 Hz

Ultraschall-Fingerabdruckscanner

Qualcomm Snapdragon 8 Elite für Galaxy

12 GB RAM

256 GB / 512 GB Speicher

50 MP, f/1,8 Hauptkamera

12 MP, f/2,2 Ultraweitwinkel

10 MP, f/2,4 3x Teleobjektiv

12 MP, f/2,2 Selfie-Kamera

Bis zu 8K bei 30 fps Video auf der Rückseite

Stereo-Lautsprecher

Dual-SIM, eSIM

Wi-Fi 7

Bluetooth 5.4

4.900 mAh Akku

45 W kabelgebundenes Laden

15 W kabelloses Laden

158,4 × 75,8 × 7,3 mm

IP68 zertifiziert

190 g

Farben: Navy, Icyblue, Silver Shadow, Mint

exklusiv bei Samsung: Blueback, Coralred, Pinkgold

(PC-Welt)

>>>>

>>>

Samsung Galaxy S25+ im Test: Flaggschiff ohne Schwächen​ Weiterlesen »

Asus ProArt PZ13 im Test: Günstiges 2-in-1-Gerät mit langer Akkulaufzeit​

Allgemein

Thomas Rau Auf einen Blick Pro 2-in-1 mit Ansteck-Tastatur OLED-Touchscreen mit optimaler Farbdarstellung sehr lange Akkulaufzeit Eingabestift im Lieferumfang Schutzhülle mit Standfuß Kontra mäßige Rechenleistung wenige Anschlüsse nicht besonders leicht im Notebook-Modus Fazit Das Asus ProArt PZ13 bietet zahlreiche Vorteile für mobile Content-Creator – vor allem ist es deutlich günstiger als die meisten 2-in-1-Geräte mit ähnlicher Ausstattung. Dank des Detachable-Formats können Sie unterwegs auf die Tastatur verzichten und Gewicht sparen. Der OLED-Bildschirm bietet mit herausragender Farbwiedergabe optimale Voraussetzungen für die Foto- und Videowiedergabe und aufgrund der üppigen Akkulaufzeit stellen auch längere Ausflüge kein Problem dar.Allerdings kann die mäßige Rechenleistung des sparsamen Snapdragon-Prozessors zur Stolperfalle bei aufwändiger Multimedia-Bearbeitung werden. Auf diesen Kompromiss müssen Sie sich beim 2-in-1 von Asus einlassen und außerdem akzeptieren, dass es nur sehr wenige Anschlüsse besitzt.Weitere Profi-Notebooks für unterwegs, Home-Office oder Büro finden Sie in unserem großen Vergleichs-Test der besten Business-Laptops. Asus Proart PZ13: Empfehlung der Redaktion für 2-in-1-Detachables.IDG Asus will für das Proart PZ13 vor allem Fotografen und Kreatoren begeistern, die ihren Content draußen und unterwegs erstellen. Besonders wenn sie bereits viel Geld in eine teure Kamera gesteckt haben, kommt das sehr günstige 2-in-1-Detachable als attraktive Alternative zu Surface Pro und Macbook in Frage. Das Proart PZ13 ist ein 13-Zoll-Tablet mit OLED-Bildschirm, das per Ansteck-Tastatur zum Notebook wird. Asus liefert außerdem eine olivgrüne Abdeckung für die Rückseite mit, die magnetisch am Gehäuse hält und sich in der Mitte in einem beliebigen Winkel als Standfuß abwinkeln lässt. So können Sie das Tablet stabil hinstellen und bequem per Touchscreen oder mit dem beigelegten Eingabestift bedienen. Laut Asus ist das Gehäuse besonders geschützt gegen das Eindringen von Staub und Regen  (Schutzklasse IP-52) und damit auch bei herausfordernden Wetterbedingungen einsatzbereit. Das Metallgehäuse mit abgerundeten Seiten und sehr schmalen Displayrändern ist sehr stabil verarbeitet: Seine Rückseite fällt nicht besonders griffig aus, ist aber auch nicht so glatt, dass das Tablet aus der Hand rutscht. Gut zugreifen sollten Sie aber ohnehin, denn mit knapp 900 Gramm Gewicht lässt es die Hände bei längerem Halten ermüden. Die magnetische Hülle besitzt einen ausklappbaren Standfuß.Thomas Rau Dass das Proart PZ13 trotz dieser Ausstattung und eines OLED-Bildschirms so günstig ist, liegt vor allem am Prozessor: Asus entscheidet sich für den Snapdragon X1-P42-100, die leistungsschwächsten Variante von Qualcomms ARM-Prozessoren der Oryon-Familie. Er besitzt acht Kerne, die mit bis zu 3,2 GHz takten, im Boost-Takt kann ein Kern auf bis zu 3,4 GHz beschleunigen. Die Leistung seiner NPU entspricht mit 45 TOPS aber der seiner Brüder aus den Serien Snapdragon X Plus und X Elite: Damit übertrifft er die Vorgaben von Microsoft, und Asus darf ihn als Copilot+PC bewerben. Als Betriebssystem läuft auf dem Asus-Tablet die ARM-Version von Windows 11 24H2. Foto-Profis sollten daher vor dem Kauf prüfen, ob ihre bevorzugten Bearbeitungsprogramme als native ARM-Versionen vorliegen. Denn zwar läuft fast jede Software auf dieser Windows-Variante: Gibt es aber keine spezielle ARM-Version, kommt der Windows-Emulator Prism zum Einsatz, der Leistung kostet. Mit Lightroom, Darktable, Luminar Neo und Affinity Photo gibt es viele beliebte Foto-Programme bereits als native ARM-Versionen,  andere wie DxO PhotoLab oder ON1 Photo RAW noch nicht. Rechenleistung Nicht optimal für intensive Multimedia-Bearbeitung ist die mäßige Rechenleistung des ARM-Prozessor im Asus ProArt: Er ist je nach Benchmark deutlich oder etwas schwächer als Copilot+PCs mit einem Snapdragon X Elite mit 12 und 10 Kernen. Im Cinebench R24 zum Beispiel ist er mit 560 Punkten rund 20 Prozent langsamer als andere Snapdragon-Notebooks. Das liegt vor allem an der geringeren Anzahl an Kernen, denn im Single-Thread-Test ist er mit 108 Punkten genauso schnell wie die anderen Snapdragon-Prozessoren. Wenn also viele Kerne gefragt sind – was bei Foto- und Videoprogrammen häufig der Fall ist -, hinkt das ProArt hinterher. Weniger deutlich ist der Abstand dagegen in gemischten Systemtests, die auch den Office- und Interneteinsatz prüfen: Im Crossmark beträgt der Rückstand des ProArt auf die Snapdragon-Konkurrenz rund 5 bis 15 Prozent. Der Abstand zu aktuellen Notebooks mit Intel Lunar Lake ist ein bisschen größer, weil dieser Benchmark nicht für ARM optimiert ist. Besonders schwach ist die Grafikleistung des Snapdragon X1-P42-100: Die integrierte GPU ist in den meisten Tests nur rund halb so schnell wie die ohnehin nicht besonders leistungsfähige Grafik im Snapdragon X Elite. Besonders erheblich ist der Abstand zu Intels Lunar-Lake-GPU Arc 140V, die rund dreimal schneller ist. Damit ist das ProArt nicht spieletauglich. Aber auch in Multimedia-Programmen, die von GPU-Leistung profitieren, ist der Snapdragon X Plus keine große Hilfe. Rückseite des Asus ProartPZ13.Thomas Rau Keine Kritik gibt es dagegen an seiner KI-Leistung: Im Test Procyon AI Computer Vision erreicht das ProArt 1725 Punkte – damit liegt seine NPU auf dem Niveau der anderen Snapdragon-Prozessoren. So kann sie die CPU bei lokalen KI-Programmen entlasten und damit die Leistungsaufnahme reduzieren, was besonders bei ultramobilen Geräten wie dem ProArt sinnvoll ist. Das 2-in-1 von Asus bringt die KI-Programme der ARM-Version von Windows 11 24H2 mit – zum Beispiel Paint Cocreator, die Echtzeitübersetzung von Videos mit englischen Untertiteln und die Studio Effects für die Notebook-Kameras. Asus steuert das Verwaltungs-Tool StoryCube bei, das KI-Funktionen enthält. Bei hoher Prozessorlast – zum Beispiel während des Tests mit Cinebench R24 – sind die Lüfter deutlich hörbar mit bis zu 43 dB(A). Ansonsten arbeitet das Tablet meist lautlos oder mit 38 bis 40 dB(A) sehr leise. Akkulaufzeit Ein ultramobiles Multimedia-Gerät wie das ProArt sollte zum einen hohe Rechenleistung bieten, zum anderen eine lange Akkulaufzeit: Wie gezeigt, ist die Performance des 13-Zoll-Tablets ausbaufähig. Seine Ausdauer überzeugt dagegen in jeder Hinsicht: Im WLAN-Test  hält es zwischen 18,5 (Einstellung: Ausgeglichen) und 21 Stunden (Einstellung: Flüstermodus) durch. Beim Akkutest mit Office-Programmen schafft es über 15 Stunden. Diese Top-Werte erzielt das Asus-Detachable trotz OLED-Technik und hoher Displayauflösung: Dafür ist zum einen der große 70-Wattstunden-Akku verantwortlich. Zum anderen der sehr sparsame Prozessor: Im WLAN-Test verbraucht das ProArt unter 3,8 Watt – deutlich weniger als andere Snapdragon- oder Lunar-Lake-Notebooks mit ähnlicher Ausstattung, die sich deutlich über vier Watt genehmigen. Asus liefert ein 65-Watt-Netzteil für Typ-C mit: Nach einer Stunde Ladezeit liegt der Akkustand damit bei 78 Prozent. Als Tablet wiegt das ProArt 878 Gramm und ist damit so leicht wie das Microsoft Surface Pro, aber deutlich schwerer als zum Beispiel das Apple iPad Pro 13 Zoll sowie andere Windows-Tablets mit dieser Displaydiagonale, die knapp unter 800 Gramm wiegen. Die Komplettausstattung mit Tastatur und Schutzhülle bringt über 1,5 Kilogramm auf die Waage, was ziemlich viel für einen 13-Zoll-Laptop ist. Asus liefert eine Schutzhülle, Tastatur sowie einen Eingabestift und einen Micro-SD-Adapter mit.Thomas Rau Bildschirm Wie es sich für ein Display in einem Kreator-Laptop gehört, liefert der OLED-Bildschirm des ProArt ein Top-Ergebnis bei der Farbwiedergabe: Er deckt fast alle Farbräume komplett ab – sRGB und DCI-P3 zu 100 Prozent. Die Farbgenauigkeit liegt ebenfalls sehr hoch. Außerdem profitieren Foto- und Videobearbeiter von dem sehr gleichmäßig ausgeleuchteten Bildschirm sowie für OLED typischen extrem hohen Kontrast. Die hohe Auflösung von 2880 x 1800 sorgt mit einer hohen Punktedichte für eine sehr scharfe und detaillierte Darstellung. Auch die Helligkeit ist mit rund 400 cd/qm2 hoch – allerdings gibt es einige OLEDs und natürlich (Mini-)LED-Displays mit deutlich mehr Leuchtstärke. Beim ProArt kann das abhängig vom Umgebungslicht problematisch werden, wenn es zu Reflektionen auf der spiegelnde Bildschirmoberfläche kommt. Ausstattung Viele Anschlüsse finden sich nicht am ProArt: Es besitzt nur zwei Typ-C-Buchsen mit USB4. Eine davon liegt ebenso wie der für Fotografen wichtige SD-Karteneinschub hinter einer Abdeckung auf der linken Seite. Asus liefert einen Adapter für Micro-SD-Karten mit. Im Lieferumfang findet sich außerdem ein Eingabestift: Der Asus Pen 2.0 bietet 4096 Druckstufen und bringt vier tauschbare Stiftaufsätze mit. Er verbindet sich per Bluetooth mit dem Tablet und lässt sich per USB-C laden. Unterwegs können Sie ihn in einer Schlaufe links am Gehäuse unterbringen. Bedienung Im mobilen Einsatz bedienen Sie das ProArt am besten per Stift oder per Finger über den Touchscreen. Zum Notebook wird das Asus-Tablet dank einer Tastatur, die über acht Pogo-Pin-Kontakte ans Tablet kommt. Es ist so groß wie eine Notebook-Tastatur für 13-Zoll-Laptops, auch das Touchpad hat eine entsprechende Größe. Die Enter-Taste ist nur einzeilig, die Pfeiltasten sind abgesetzt, aber verkleinert. Ansonsten entspricht das Tasten-Layout dem gewohnten Standard. Allerdings lässt sich die Ansteck-Tastatur nur flach vor dem Tablet hinlegen und nicht für eine ergonomischere Schreibhaltung anwinkeln. Im Test stört das etwas laute Tippgeräusch. Ansonsten gibt es dank gutem Druckpunkt und ordentlichem Tastenhub keine Einschränkungen gegenüber einer fest eingebauten Tastatur. Gleiches gilt für das Touchpad, das eine sehr klare, aber etwas laute Rückmeldung bei einem Mausklick liefert. Das Druck-Feedback ist sehr gleichmäßig im ganzen unteren Bereich, sodass Sie nicht nach der optimalen Position für einen Links- oder Rechtsklick suchen müssen. Die Oberfläche könnte etwas griffiger sein, um den Mauszeiger rasch exakt zu positionieren. Dafür sind sehr schnelle Mausbewegungen möglich, was auch für Mehrfingergesten zum Blättern und Scrollen gilt. Testergebnisse und Ausstattung Asus ProArt PZ13 HT5306QA: Test-Ergebnisse Geschwindigkeit bei Büro-Programmen88 Punkte (von 100)Geschwindigkeit bei Multimedia-Programmen61 Punkte (von 100)Leistung 3D Mark52 Punkte (von 100)Crossmark1354 PunktePC Mark 10 Applications Benchmark Office11981 PunkteProcyon Office Productivity Score5247 PunkteCinebench R24: Multi-Core/Single-Core (Einstellung: Ausgeglichen)560 / 108 PunkteKI-Leistung NPU (Procyon, Computer Vision Benchmark): INT1725 Punkte3D Mark: Night Raid / Steel Nomad15997 / 235 PunkteDisplay: Helligkeit / Helligkeitsverteilung / Kontrast404 / 97% / unendlichAbdeckung Farbraum (Prozent): sRGB / Adobe-RGB / DCI-P3100 / 99 / 100Farbabweichung (Delta-E)0,71Display entspiegelt / Touchscreennein / jaAkkulaufzeit (Stunden:Minuten): WLAN-Test18:33Leistungsaufnahme Akkubetrieb3,79 WattBetriebsgeräusch unter Last43 dB(A)Temperatur Oberseite / Unterseite22 / 35 Grad Asus ProArt PZ13 HT5306QA: Ausstattung ProzessorQualcomm Snapdragon X1-P42-100TaktrateStandard-Takt: 3,2 GHz; Turbo-Takt: max. 3,4 GHzKerne / Threads8 / 8RAM16 GB LPDDR5X (gelötet / nicht wechselbar)GrafikkarteAdreno X1-45LaufwerkNVMe-SSD Micron 2400 (PCIe 4.0 x 4)nutzbare Kapazität951,59 GBFormatM.2 2230Netzwerk: LAN / WLAN / Bluetooth / Mobil-/ WiFi-7 (Qualcomm Fast Connect 7800) / 5.4BetriebssystemWindows 11 Home 24H2 (ARM64)Display: Diagonale / Auflösung / Format13,3 Zoll (OLED) / 2880 x 1800 / 16:10Punktdichte / Wiederholrate255 ppi / 60 HzGewicht: Notebook (mit Akku) / Netzteil / mit Tastatur, Hülle878 / 224 / 1527 GrammAkku: Kapazität70 WhAnschlüsse rechts–Anschlüsse links2x Typ-C USB 4, 1x SD-KarteAnschlüsse hinten–Weitere AusstattungFront-Kamera (1440p) mit Windows Hello; Back-Kamera (2160p), Netzteil (65 Watt, Typ-C-Anschluss) (PC-Welt) 

Asus ProArt PZ13 im Test: Günstiges 2-in-1-Gerät mit langer Akkulaufzeit​ Thomas Rau

Auf einen Blick

Pro

2-in-1 mit Ansteck-Tastatur

OLED-Touchscreen mit optimaler Farbdarstellung

sehr lange Akkulaufzeit

Eingabestift im Lieferumfang

Schutzhülle mit Standfuß

Kontra

mäßige Rechenleistung

wenige Anschlüsse

nicht besonders leicht im Notebook-Modus

Fazit

Das Asus ProArt PZ13 bietet zahlreiche Vorteile für mobile Content-Creator – vor allem ist es deutlich günstiger als die meisten 2-in-1-Geräte mit ähnlicher Ausstattung. Dank des Detachable-Formats können Sie unterwegs auf die Tastatur verzichten und Gewicht sparen. Der OLED-Bildschirm bietet mit herausragender Farbwiedergabe optimale Voraussetzungen für die Foto- und Videowiedergabe und aufgrund der üppigen Akkulaufzeit stellen auch längere Ausflüge kein Problem dar.Allerdings kann die mäßige Rechenleistung des sparsamen Snapdragon-Prozessors zur Stolperfalle bei aufwändiger Multimedia-Bearbeitung werden. Auf diesen Kompromiss müssen Sie sich beim 2-in-1 von Asus einlassen und außerdem akzeptieren, dass es nur sehr wenige Anschlüsse besitzt.Weitere Profi-Notebooks für unterwegs, Home-Office oder Büro finden Sie in unserem großen Vergleichs-Test der besten Business-Laptops.

Asus Proart PZ13: Empfehlung der Redaktion für 2-in-1-Detachables.IDG

Asus will für das Proart PZ13 vor allem Fotografen und Kreatoren begeistern, die ihren Content draußen und unterwegs erstellen. Besonders wenn sie bereits viel Geld in eine teure Kamera gesteckt haben, kommt das sehr günstige 2-in-1-Detachable als attraktive Alternative zu Surface Pro und Macbook in Frage.

Das Proart PZ13 ist ein 13-Zoll-Tablet mit OLED-Bildschirm, das per Ansteck-Tastatur zum Notebook wird. Asus liefert außerdem eine olivgrüne Abdeckung für die Rückseite mit, die magnetisch am Gehäuse hält und sich in der Mitte in einem beliebigen Winkel als Standfuß abwinkeln lässt. So können Sie das Tablet stabil hinstellen und bequem per Touchscreen oder mit dem beigelegten Eingabestift bedienen.

Laut Asus ist das Gehäuse besonders geschützt gegen das Eindringen von Staub und Regen  (Schutzklasse IP-52) und damit auch bei herausfordernden Wetterbedingungen einsatzbereit. Das Metallgehäuse mit abgerundeten Seiten und sehr schmalen Displayrändern ist sehr stabil verarbeitet: Seine Rückseite fällt nicht besonders griffig aus, ist aber auch nicht so glatt, dass das Tablet aus der Hand rutscht. Gut zugreifen sollten Sie aber ohnehin, denn mit knapp 900 Gramm Gewicht lässt es die Hände bei längerem Halten ermüden.

Die magnetische Hülle besitzt einen ausklappbaren Standfuß.Thomas Rau

Dass das Proart PZ13 trotz dieser Ausstattung und eines OLED-Bildschirms so günstig ist, liegt vor allem am Prozessor: Asus entscheidet sich für den Snapdragon X1-P42-100, die leistungsschwächsten Variante von Qualcomms ARM-Prozessoren der Oryon-Familie. Er besitzt acht Kerne, die mit bis zu 3,2 GHz takten, im Boost-Takt kann ein Kern auf bis zu 3,4 GHz beschleunigen. Die Leistung seiner NPU entspricht mit 45 TOPS aber der seiner Brüder aus den Serien Snapdragon X Plus und X Elite: Damit übertrifft er die Vorgaben von Microsoft, und Asus darf ihn als Copilot+PC bewerben.

Als Betriebssystem läuft auf dem Asus-Tablet die ARM-Version von Windows 11 24H2. Foto-Profis sollten daher vor dem Kauf prüfen, ob ihre bevorzugten Bearbeitungsprogramme als native ARM-Versionen vorliegen. Denn zwar läuft fast jede Software auf dieser Windows-Variante: Gibt es aber keine spezielle ARM-Version, kommt der Windows-Emulator Prism zum Einsatz, der Leistung kostet. Mit Lightroom, Darktable, Luminar Neo und Affinity Photo gibt es viele beliebte Foto-Programme bereits als native ARM-Versionen,  andere wie DxO PhotoLab oder ON1 Photo RAW noch nicht.

Rechenleistung

Nicht optimal für intensive Multimedia-Bearbeitung ist die mäßige Rechenleistung des ARM-Prozessor im Asus ProArt: Er ist je nach Benchmark deutlich oder etwas schwächer als Copilot+PCs mit einem Snapdragon X Elite mit 12 und 10 Kernen. Im Cinebench R24 zum Beispiel ist er mit 560 Punkten rund 20 Prozent langsamer als andere Snapdragon-Notebooks. Das liegt vor allem an der geringeren Anzahl an Kernen, denn im Single-Thread-Test ist er mit 108 Punkten genauso schnell wie die anderen Snapdragon-Prozessoren.

Wenn also viele Kerne gefragt sind – was bei Foto- und Videoprogrammen häufig der Fall ist -, hinkt das ProArt hinterher. Weniger deutlich ist der Abstand dagegen in gemischten Systemtests, die auch den Office- und Interneteinsatz prüfen: Im Crossmark beträgt der Rückstand des ProArt auf die Snapdragon-Konkurrenz rund 5 bis 15 Prozent. Der Abstand zu aktuellen Notebooks mit Intel Lunar Lake ist ein bisschen größer, weil dieser Benchmark nicht für ARM optimiert ist.

Besonders schwach ist die Grafikleistung des Snapdragon X1-P42-100: Die integrierte GPU ist in den meisten Tests nur rund halb so schnell wie die ohnehin nicht besonders leistungsfähige Grafik im Snapdragon X Elite. Besonders erheblich ist der Abstand zu Intels Lunar-Lake-GPU Arc 140V, die rund dreimal schneller ist. Damit ist das ProArt nicht spieletauglich. Aber auch in Multimedia-Programmen, die von GPU-Leistung profitieren, ist der Snapdragon X Plus keine große Hilfe.

Rückseite des Asus ProartPZ13.Thomas Rau

Keine Kritik gibt es dagegen an seiner KI-Leistung: Im Test Procyon AI Computer Vision erreicht das ProArt 1725 Punkte – damit liegt seine NPU auf dem Niveau der anderen Snapdragon-Prozessoren. So kann sie die CPU bei lokalen KI-Programmen entlasten und damit die Leistungsaufnahme reduzieren, was besonders bei ultramobilen Geräten wie dem ProArt sinnvoll ist.

Das 2-in-1 von Asus bringt die KI-Programme der ARM-Version von Windows 11 24H2 mit – zum Beispiel Paint Cocreator, die Echtzeitübersetzung von Videos mit englischen Untertiteln und die Studio Effects für die Notebook-Kameras. Asus steuert das Verwaltungs-Tool StoryCube bei, das KI-Funktionen enthält.

Bei hoher Prozessorlast – zum Beispiel während des Tests mit Cinebench R24 – sind die Lüfter deutlich hörbar mit bis zu 43 dB(A). Ansonsten arbeitet das Tablet meist lautlos oder mit 38 bis 40 dB(A) sehr leise.

Akkulaufzeit

Ein ultramobiles Multimedia-Gerät wie das ProArt sollte zum einen hohe Rechenleistung bieten, zum anderen eine lange Akkulaufzeit: Wie gezeigt, ist die Performance des 13-Zoll-Tablets ausbaufähig. Seine Ausdauer überzeugt dagegen in jeder Hinsicht: Im WLAN-Test  hält es zwischen 18,5 (Einstellung: Ausgeglichen) und 21 Stunden (Einstellung: Flüstermodus) durch. Beim Akkutest mit Office-Programmen schafft es über 15 Stunden.

Diese Top-Werte erzielt das Asus-Detachable trotz OLED-Technik und hoher Displayauflösung: Dafür ist zum einen der große 70-Wattstunden-Akku verantwortlich. Zum anderen der sehr sparsame Prozessor: Im WLAN-Test verbraucht das ProArt unter 3,8 Watt – deutlich weniger als andere Snapdragon- oder Lunar-Lake-Notebooks mit ähnlicher Ausstattung, die sich deutlich über vier Watt genehmigen.

Asus liefert ein 65-Watt-Netzteil für Typ-C mit: Nach einer Stunde Ladezeit liegt der Akkustand damit bei 78 Prozent.

Als Tablet wiegt das ProArt 878 Gramm und ist damit so leicht wie das Microsoft Surface Pro, aber deutlich schwerer als zum Beispiel das Apple iPad Pro 13 Zoll sowie andere Windows-Tablets mit dieser Displaydiagonale, die knapp unter 800 Gramm wiegen.

Die Komplettausstattung mit Tastatur und Schutzhülle bringt über 1,5 Kilogramm auf die Waage, was ziemlich viel für einen 13-Zoll-Laptop ist.

Asus liefert eine Schutzhülle, Tastatur sowie einen Eingabestift und einen Micro-SD-Adapter mit.Thomas Rau

Bildschirm

Wie es sich für ein Display in einem Kreator-Laptop gehört, liefert der OLED-Bildschirm des ProArt ein Top-Ergebnis bei der Farbwiedergabe: Er deckt fast alle Farbräume komplett ab – sRGB und DCI-P3 zu 100 Prozent. Die Farbgenauigkeit liegt ebenfalls sehr hoch. Außerdem profitieren Foto- und Videobearbeiter von dem sehr gleichmäßig ausgeleuchteten Bildschirm sowie für OLED typischen extrem hohen Kontrast.

Die hohe Auflösung von 2880 x 1800 sorgt mit einer hohen Punktedichte für eine sehr scharfe und detaillierte Darstellung. Auch die Helligkeit ist mit rund 400 cd/qm2 hoch – allerdings gibt es einige OLEDs und natürlich (Mini-)LED-Displays mit deutlich mehr Leuchtstärke. Beim ProArt kann das abhängig vom Umgebungslicht problematisch werden, wenn es zu Reflektionen auf der spiegelnde Bildschirmoberfläche kommt.

Ausstattung

Viele Anschlüsse finden sich nicht am ProArt: Es besitzt nur zwei Typ-C-Buchsen mit USB4. Eine davon liegt ebenso wie der für Fotografen wichtige SD-Karteneinschub hinter einer Abdeckung auf der linken Seite. Asus liefert einen Adapter für Micro-SD-Karten mit.

Im Lieferumfang findet sich außerdem ein Eingabestift: Der Asus Pen 2.0 bietet 4096 Druckstufen und bringt vier tauschbare Stiftaufsätze mit. Er verbindet sich per Bluetooth mit dem Tablet und lässt sich per USB-C laden. Unterwegs können Sie ihn in einer Schlaufe links am Gehäuse unterbringen.

Bedienung

Im mobilen Einsatz bedienen Sie das ProArt am besten per Stift oder per Finger über den Touchscreen. Zum Notebook wird das Asus-Tablet dank einer Tastatur, die über acht Pogo-Pin-Kontakte ans Tablet kommt. Es ist so groß wie eine Notebook-Tastatur für 13-Zoll-Laptops, auch das Touchpad hat eine entsprechende Größe.

Die Enter-Taste ist nur einzeilig, die Pfeiltasten sind abgesetzt, aber verkleinert. Ansonsten entspricht das Tasten-Layout dem gewohnten Standard. Allerdings lässt sich die Ansteck-Tastatur nur flach vor dem Tablet hinlegen und nicht für eine ergonomischere Schreibhaltung anwinkeln.

Im Test stört das etwas laute Tippgeräusch. Ansonsten gibt es dank gutem Druckpunkt und ordentlichem Tastenhub keine Einschränkungen gegenüber einer fest eingebauten Tastatur.

Gleiches gilt für das Touchpad, das eine sehr klare, aber etwas laute Rückmeldung bei einem Mausklick liefert. Das Druck-Feedback ist sehr gleichmäßig im ganzen unteren Bereich, sodass Sie nicht nach der optimalen Position für einen Links- oder Rechtsklick suchen müssen.

Die Oberfläche könnte etwas griffiger sein, um den Mauszeiger rasch exakt zu positionieren. Dafür sind sehr schnelle Mausbewegungen möglich, was auch für Mehrfingergesten zum Blättern und Scrollen gilt.

Testergebnisse und Ausstattung

Asus ProArt PZ13 HT5306QA: Test-Ergebnisse Geschwindigkeit bei Büro-Programmen88 Punkte (von 100)Geschwindigkeit bei Multimedia-Programmen61 Punkte (von 100)Leistung 3D Mark52 Punkte (von 100)Crossmark1354 PunktePC Mark 10 Applications Benchmark Office11981 PunkteProcyon Office Productivity Score5247 PunkteCinebench R24: Multi-Core/Single-Core (Einstellung: Ausgeglichen)560 / 108 PunkteKI-Leistung NPU (Procyon, Computer Vision Benchmark): INT1725 Punkte3D Mark: Night Raid / Steel Nomad15997 / 235 PunkteDisplay: Helligkeit / Helligkeitsverteilung / Kontrast404 / 97% / unendlichAbdeckung Farbraum (Prozent): sRGB / Adobe-RGB / DCI-P3100 / 99 / 100Farbabweichung (Delta-E)0,71Display entspiegelt / Touchscreennein / jaAkkulaufzeit (Stunden:Minuten): WLAN-Test18:33Leistungsaufnahme Akkubetrieb3,79 WattBetriebsgeräusch unter Last43 dB(A)Temperatur Oberseite / Unterseite22 / 35 Grad

Asus ProArt PZ13 HT5306QA: Ausstattung ProzessorQualcomm Snapdragon X1-P42-100TaktrateStandard-Takt: 3,2 GHz; Turbo-Takt: max. 3,4 GHzKerne / Threads8 / 8RAM16 GB LPDDR5X (gelötet / nicht wechselbar)GrafikkarteAdreno X1-45LaufwerkNVMe-SSD Micron 2400 (PCIe 4.0 x 4)nutzbare Kapazität951,59 GBFormatM.2 2230Netzwerk: LAN / WLAN / Bluetooth / Mobil-/ WiFi-7 (Qualcomm Fast Connect 7800) / 5.4BetriebssystemWindows 11 Home 24H2 (ARM64)Display: Diagonale / Auflösung / Format13,3 Zoll (OLED) / 2880 x 1800 / 16:10Punktdichte / Wiederholrate255 ppi / 60 HzGewicht: Notebook (mit Akku) / Netzteil / mit Tastatur, Hülle878 / 224 / 1527 GrammAkku: Kapazität70 WhAnschlüsse rechts–Anschlüsse links2x Typ-C USB 4, 1x SD-KarteAnschlüsse hinten–Weitere AusstattungFront-Kamera (1440p) mit Windows Hello; Back-Kamera (2160p), Netzteil (65 Watt, Typ-C-Anschluss)

(PC-Welt)

Asus ProArt PZ13 im Test: Günstiges 2-in-1-Gerät mit langer Akkulaufzeit​ Weiterlesen »

Hyperautomatisierte Fabriken – Asien treibt die Entwicklung​

Allgemein

Der Frage nach der Fabrik der Zukunft geht die Accenture-Studie „Rethinking the course to manufacturing’s future“ nach. Accenture Ab Montag ist Hannover mit der HMI wieder für fast eine Woche der Nabel der industriellen Welt und ein Schaufenster für den deutschen Maschinenbau. Doch die Asiaten könnten ihnen die Show stehlen, wenn es um die hyperautomatisierten Fabriken der Zukunft geht.[MB1]  Dies legt zumindest die aktuelle Accenture-Studie “Rethinking the course to manufacturing’s future” nahe. Im Zuge der Studie befragte Accenture weltweit 552 Fabrikleiter aus den Bereichen Maschinenbau, Automobil und Luftfahrt. Danach erwarten vor allem die Asiaten, dass ihre Produktionsstätten bis 2040 zu hyperautomatisierten Fabriken ausgebaut werden. Menschen nehmen dort dann vor allem eine überwachende und unterstützende Rolle ein. In Europa und den USA sieht man das zurückhaltender, stimmt aber zu, dass sich die Zukunft der Fertigung grundlegend verändern wird. Vor allem in Deutschland ist laut Accenture eine gewisse Skepsis gegenüber der Hyperautomatisierung erkennbar. Kernelemente der Fabrik der Zukunft Doch welche Technologien und Anwendungen prägen überhaupt das Bild der hyperautomatisierten Fabrik der Zukunft? Die Accenture-Studie hat hierzu acht Kernelemente ausgemacht und die Studienteilnehmer dazu gefragt, inwieweit sie dem zustimmen: Autonome Betriebsabläufe (Industrie 5.0): Die Zustimmung weltweit liegt bei 53 Prozent, in Deutschland nur bei 40 Prozent und in Europa sogar bei nur 38 Prozent. Selbstlernende Maschinen mit generativer KI finden weltweit bei 52 Prozent Zustimmung, in Deutschland jedoch nur bei 42 Prozent und in Europa bei 39 Prozent. Vollautomatisierte Lager hält etwas mehr als die Hälfte der Befragten weltweit für entscheidend, verglichen mit 38 Prozent in Deutschland und 35 Prozent in Europa. Intelligente, vernetzte Fertigungszellen werden global von 49 Prozent als relevant angesehen, aber nur von 27 Prozent in Deutschland und von 31 Prozent in Europa. Autonome mobile Roboter (AMR) werden weltweit von 49 Prozent priorisiert, in Deutschland von 42 Prozent und in Europa von 32 Prozent. Digital vernetzte und interagierende Teams erhalten weltweit von 48 Prozent eine Zustimmung, in Deutschland 31 Prozent und in Europa 30 Prozent. Digitale Zwillinge von Betriebsabläufen werden weltweit von 47 Prozent für wichtig gehalten, in Deutschland und Europa jedoch nur von 29 Prozent. Fahrerlose Transportfahrzeuge (AGV) halten global 45 Prozent für relevant, während die Zustimmung in Deutschland darunter bei 31 Prozent und in Europa bei 25 Prozent liegt. Grundsätzlich liegen die Zustimmungswerte in China und Japan mit 51 bis 83 Prozent deutlich höher. Regionale Unterschiede Doch die regionalen Unterschiede gehen noch weiter. Während in Japan fast drei Viertel der Verantwortlichen davon ausgehen, dass ihr Unternehmen 2040 vornehmlich „Dark Factories“ bauen wird, ist es in Deutschland nicht einmal ein Viertel. In China, den USA und Europa liegen die Werte bei 53, 29 beziehungsweise 20 Prozent. Die Kernelemente einer hyperautomatisierten Fabrik Accenture Ebenso glauben am ehesten (72 Prozent) die Japaner, dass humanoide Roboter in den Montageprozessen zum Standard werden. China und die USA folgen mit 65 und 35 Prozent. Deutlich skeptischer ist man dagegen in Deutschland (23 Prozent) und Europa (21 Prozent). Umgestaltung der Arbeit Hyperautomatisierte Fabriken, so die Studie, verändern die Arbeitsweise, Rollen und dafür erforderlichen Fähigkeiten der Mitarbeitenden. Demzufolge halten 70 Prozent der Fabrikleiter die Umgestaltung der Belegschaft für den wichtigsten Wegbereiter der Fertigung der Zukunft, gefolgt von Automatisierung (63 Prozent), KI (62 Prozent) und Digitalisierung (61 Prozent). Besonders entscheidend für die Umgestaltung von Arbeit und Belegschaft seien Erhalt und Weitergabe von Produktionswissen (global: 74 Prozent, Deutschland: 54 Prozent, Europa: 64 Prozent). Auch die Integration von Datenanalyse und datengestützte Entscheidungsfindung sehen die Studienteilnehmer in ähnlichem Maße als wesentlich an. Hindernis Schulungsbedarf Für knapp die Hälfte der Befragten weltweit und in Deutschland sind umfangreiche Investitionen in Schulungsprogramme das größte Hindernis bei der Umgestaltung der Belegschaft. Im Schnitt sehen europäische Firmen weniger Handlungsbedarf in diesem Bereich (43 Prozent). Ganz anders in China, wo 62 Prozent die nötigen Investitionen als Herausforderung betrachten. Darüber hinaus bremse der Widerstand der Belegschaft gegen neue, erweiterte Arbeitsrollen die Umgestaltung, so 38 Prozent der Befragten. Noch mehr sind es in Deutschland und Europa (46 Prozent). Spitzenreiter ist Italien mit 66 Prozent. Zu neuen Rollen zählen etwa Human-Robot Collaboration Manager oder Autonomous Logistics Coordinator. Mangel an KI-Know-how Weltweit beklagen 51 Prozent der Fabrikleiter einen Mangel an Fachkräften mit KI-Kenntnissen und -Qualifikationen. Besonders stark wird dieses Problem in Indien und Japan wahrgenommen (67 Prozent), deutlich geringer dafür in China (40 Prozent). In Deutschland sehen 46 Prozent der Verantwortlichen im Mangel an KI-Fachkräften ein Problem. In Europa sind es knapp 50 Prozent. Klare Prioritäten setzen die Fabrikleiter weltweit bei der Digitalisierung. Im Fokus stehen Maßnahmen, die eigentlich bereits überfällig sind. An erster Stelle wird das Thema Cybersicherheit (77 Prozent) genannt. Mit 70 Prozent gefolgt von der Einführung von Manufacturing Execution Systems (MES) und Cloud-Plattformen (67 Prozent). IIoT hat keine Priorität Die Werte der deutschen und europäischen Befragten liegen bei allen Maßnahmen unter dem globalen Durchschnitt. Darüber, warum sie einen geringeren Handlungsbedarf in diesen Feldern sehen, gibt die Studie keine Auskunft. Dagegen finden es die Autoren bedenklich, dass Technologien wie das Industrial Internet of Things (IIoT) und Digitale Zwillinge von Maschinen und Produkten in kaum einem Land zu den Top-Prioritäten zählten. Schließen bilden diese Technologien in ihren Augen die digitale Basis moderner Fabriken. 

Hyperautomatisierte Fabriken – Asien treibt die Entwicklung​ Der Frage nach der Fabrik der Zukunft geht die Accenture-Studie „Rethinking the course to manufacturing’s future“ nach.
Accenture

Ab Montag ist Hannover mit der HMI wieder für fast eine Woche der Nabel der industriellen Welt und ein Schaufenster für den deutschen Maschinenbau. Doch die Asiaten könnten ihnen die Show stehlen, wenn es um die hyperautomatisierten Fabriken der Zukunft geht.[MB1] 

Dies legt zumindest die aktuelle Accenture-Studie “Rethinking the course to manufacturing’s future” nahe. Im Zuge der Studie befragte Accenture weltweit 552 Fabrikleiter aus den Bereichen Maschinenbau, Automobil und Luftfahrt.

Danach erwarten vor allem die Asiaten, dass ihre Produktionsstätten bis 2040 zu hyperautomatisierten Fabriken ausgebaut werden. Menschen nehmen dort dann vor allem eine überwachende und unterstützende Rolle ein. In Europa und den USA sieht man das zurückhaltender, stimmt aber zu, dass sich die Zukunft der Fertigung grundlegend verändern wird. Vor allem in Deutschland ist laut Accenture eine gewisse Skepsis gegenüber der Hyperautomatisierung erkennbar.

Kernelemente der Fabrik der Zukunft

Doch welche Technologien und Anwendungen prägen überhaupt das Bild der hyperautomatisierten Fabrik der Zukunft? Die Accenture-Studie hat hierzu acht Kernelemente ausgemacht und die Studienteilnehmer dazu gefragt, inwieweit sie dem zustimmen:

Autonome Betriebsabläufe (Industrie 5.0):

Die Zustimmung weltweit liegt bei 53 Prozent, in Deutschland nur bei 40 Prozent und in Europa sogar bei nur 38 Prozent.

Selbstlernende Maschinen mit generativer KI

finden weltweit bei 52 Prozent Zustimmung, in Deutschland jedoch nur bei 42 Prozent und in Europa bei 39 Prozent.

Vollautomatisierte Lager

hält etwas mehr als die Hälfte der Befragten weltweit für entscheidend, verglichen mit 38 Prozent in Deutschland und 35 Prozent in Europa.

Intelligente, vernetzte Fertigungszellen

werden global von 49 Prozent als relevant angesehen, aber nur von 27 Prozent in Deutschland und von 31 Prozent in Europa.

Autonome mobile Roboter (AMR)

werden weltweit von 49 Prozent priorisiert, in Deutschland von 42 Prozent und in Europa von 32 Prozent.

Digital vernetzte und interagierende Teams

erhalten weltweit von 48 Prozent eine Zustimmung, in Deutschland 31 Prozent und in Europa 30 Prozent.

Digitale Zwillinge von Betriebsabläufen

werden weltweit von 47 Prozent für wichtig gehalten, in Deutschland und Europa jedoch nur von 29 Prozent.

Fahrerlose Transportfahrzeuge (AGV)

halten global 45 Prozent für relevant, während die Zustimmung in Deutschland darunter bei 31 Prozent und in Europa bei 25 Prozent liegt.

Grundsätzlich liegen die Zustimmungswerte in China und Japan mit 51 bis 83 Prozent deutlich höher.

Regionale Unterschiede

Doch die regionalen Unterschiede gehen noch weiter. Während in Japan fast drei Viertel der Verantwortlichen davon ausgehen, dass ihr Unternehmen 2040 vornehmlich „Dark Factories“ bauen wird, ist es in Deutschland nicht einmal ein Viertel. In China, den USA und Europa liegen die Werte bei 53, 29 beziehungsweise 20 Prozent.

Die Kernelemente einer hyperautomatisierten Fabrik
Accenture

Ebenso glauben am ehesten (72 Prozent) die Japaner, dass humanoide Roboter in den Montageprozessen zum Standard werden. China und die USA folgen mit 65 und 35 Prozent. Deutlich skeptischer ist man dagegen in Deutschland (23 Prozent) und Europa (21 Prozent).

Umgestaltung der Arbeit

Hyperautomatisierte Fabriken, so die Studie, verändern die Arbeitsweise, Rollen und dafür erforderlichen Fähigkeiten der Mitarbeitenden. Demzufolge halten 70 Prozent der Fabrikleiter die Umgestaltung der Belegschaft für den wichtigsten Wegbereiter der Fertigung der Zukunft, gefolgt von Automatisierung (63 Prozent), KI (62 Prozent) und Digitalisierung (61 Prozent).

Besonders entscheidend für die Umgestaltung von Arbeit und Belegschaft seien Erhalt und Weitergabe von Produktionswissen (global: 74 Prozent, Deutschland: 54 Prozent, Europa: 64 Prozent). Auch die Integration von Datenanalyse und datengestützte Entscheidungsfindung sehen die Studienteilnehmer in ähnlichem Maße als wesentlich an.

Hindernis Schulungsbedarf

Für knapp die Hälfte der Befragten weltweit und in Deutschland sind umfangreiche Investitionen in Schulungsprogramme das größte Hindernis bei der Umgestaltung der Belegschaft. Im Schnitt sehen europäische Firmen weniger Handlungsbedarf in diesem Bereich (43 Prozent). Ganz anders in China, wo 62 Prozent die nötigen Investitionen als Herausforderung betrachten.

Darüber hinaus bremse der Widerstand der Belegschaft gegen neue, erweiterte Arbeitsrollen die Umgestaltung, so 38 Prozent der Befragten. Noch mehr sind es in Deutschland und Europa (46 Prozent). Spitzenreiter ist Italien mit 66 Prozent. Zu neuen Rollen zählen etwa Human-Robot Collaboration Manager oder Autonomous Logistics Coordinator.

Mangel an KI-Know-how

Weltweit beklagen 51 Prozent der Fabrikleiter einen Mangel an Fachkräften mit KI-Kenntnissen und -Qualifikationen. Besonders stark wird dieses Problem in Indien und Japan wahrgenommen (67 Prozent), deutlich geringer dafür in China (40 Prozent). In Deutschland sehen 46 Prozent der Verantwortlichen im Mangel an KI-Fachkräften ein Problem. In Europa sind es knapp 50 Prozent.

Klare Prioritäten setzen die Fabrikleiter weltweit bei der Digitalisierung. Im Fokus stehen Maßnahmen, die eigentlich bereits überfällig sind. An erster Stelle wird das Thema Cybersicherheit (77 Prozent) genannt. Mit 70 Prozent gefolgt von der Einführung von Manufacturing Execution Systems (MES) und Cloud-Plattformen (67 Prozent).

IIoT hat keine Priorität

Die Werte der deutschen und europäischen Befragten liegen bei allen Maßnahmen unter dem globalen Durchschnitt. Darüber, warum sie einen geringeren Handlungsbedarf in diesen Feldern sehen, gibt die Studie keine Auskunft.

Dagegen finden es die Autoren bedenklich, dass Technologien wie das Industrial Internet of Things (IIoT) und Digitale Zwillinge von Maschinen und Produkten in kaum einem Land zu den Top-Prioritäten zählten. Schließen bilden diese Technologien in ihren Augen die digitale Basis moderner Fabriken.

Hyperautomatisierte Fabriken – Asien treibt die Entwicklung​ Weiterlesen »

Vibe Coding im Selbstversuch​

Allgemein

Auch (oder gerade) wenn Sie dem Vibe-Coding-Ansatz skeptisch gegenüberstehen, sollten Sie es einfach mal ausprobieren – empfiehlt unser Autor.diy13 | shutterstock.com Falls Sie bis jetzt noch nie etwas von Vibe Coding gehört haben: Machen Sie sich nichts draus. Schließlich wurde dieser Begriff erst Anfang Februar 2025 vom OpenAI-Mitbegründer Andrej Karpathy geprägt – und zwar mit einem viralen Post auf der Bluesky-Alternative X. Diese neue Art und Weise, mit künstlicher Intelligenz (KI) zu programmieren, setzt im Wesentlichen auf natürliche Sprache in Kombination mit einer guten Portion (Dev-)Intuition. Alles bis ins kleinste Detail sprachlich auszuführen oder gar selbst den Code zu schreiben, entfällt. Als Entwickler definieren Sie einfach den „Vibe“, den die Anwendung versprühen soll und überlassen der KI die Routinearbeit. Dieses Konzept überzeugt innerhalb der Entwickler-Community nicht jeden – wie etwa diese Reddit-Diskussion zeigt. Oder diese. Oder die gerade erst erblühende Meme-Kultur rund um das noch junge Thema: [image or embed]— Liam @ GamingOnLinux (@gamingonlinux.com) 24. März 2025 um 12:08 In diesem Artikel berichte ich von meiner ersten Vibe-Coding-Experience, die meine Sichtweise auf das Thema verändert hat – so viel schon einmal vorneweg. Ich hatte im Lauf der letzten Jahre immer wieder ein paar brillante Ideen für schöne Websites, aus denen – aus Gründen – nie etwa geworden ist. Dann „kam“ Vibe Coding. Vibe-Coding-Erfahrungen mit Claude Code Meinen Vibe-Coding-Einstieg habe ich in erster Linie Claude Code zu verdanken. Dieses Large Language Model (LLM) von Anthropic wurde gezielt darauf abgestimmt, Developer bei Programmieraufgaben zu unterstützen und Code zu erstellen. Das Tool wird einfach ins Projektverzeichnis installiert und läuft über die Befehlszeile. Claude Code kann: die Anwendungsstruktur vollständig lesen und „verstehen“, Fragen dazu beantworten und vor allem Änderungen daran vornehmen, die Sie in einfacher Sprache formulieren. In der Praxis funktioniert das erschreckend erstaunlich gut: Ich habe mit einer komplett leeren Astro-Applikation losgelegt, eine Datei namens claude.md erstellt und der KI gründliche Anweisungen zu den zu befolgenden Regeln gegeben (zum Beispiel bezüglich der strikten TypeScript-Typisierung). Dazu habe ich das Tool zudem per URL auf die Astro-Dokumentation verwiesen. Anschließend habe ich Claude in circa einem Absatz vermittelt, wie meine App funktionieren, aussehen und die Benutzer authentifizieren soll. Im Ergebnis stand eine grundlegende, laufende Webseite – in etwas weniger als einer Stunde. Diese zu optimieren, Funktionen hinzuzufügen und das User Interface anzupassen, dauerte noch einmal drei Stunden. Weil Claude den gesamten Code des Verzeichnisses kennt, in dem sein Kommandozeilen-Tool ausgeführt wird, kann es den Anwendungskontext erfassen – und Änderungen im Handumdrehen erledigen (inklusive optionalem Genehmigungsprozess). Ich selbst habe bei diesem Projekt die meiste Zeit damit verbracht, auf den Code zu starren, den die KI generiert hat – und gelegentlich ein paar Dinge zu korrigieren. Letztendlich habe ich aber mit Hilfe von Vibe Coding und Claude Code in Stunden erledigt, wofür ich (bei entsprechender Motivation) Wochen gebraucht hätte. Zugegeben: ich bin kein Astro-Genie. Aber ich verstehe die grundlegende Arbeitsweise des Meta-Frameworks und erkenne guten Code, wenn ich ihn sehe. Deshalb konnte es mich auch erstaunen, dass Claude Code alle möglichen Details ergänzt hatte, um die ich es nicht gebeten hatte – beispielsweise Avatar-Support für den Login-Bildschirm. Das KI-Tool hat aber nicht nur zuverlässig eine hübsche und nutzwertige Benutzeroberfläche generiert, sondern unter anderem auch Google-Anzeigen getreu Anweisung „geschmackvoll“ platziert – einschließlich eines Platzhalters für Testing-Zwecke und einem Switch, um echte Anzeigen in der Produktionsumgebung anzuzeigen. Claude Code wusste scheinbar einfach, was „das Richtige“ war – und hat es getan. Junior-Dev-Vibes Der Haken an der Sache – wenn man so will – war der Preis. Die Bearbeitungsgebühren, die im Rahmen meines kleinen Projekts mit Claude Code aufgelaufen sind, lagen bei circa 50 Dollar. Entsprechend viele Projekte vorausgesetzt, kann sich das schnell zu einem kleinen Vermögen summieren. Wenn ich allerdings bedenke, wie viele Arbeitsstunden ich mit Vibe Coding und Claude Code eingespart habe, kann ich (für meinen Fall) nur resümieren: Es hat sich gelohnt. Deswegen wird diese Vibe-Coding-Erfahrung wird nicht meine letzte gewesen sein: In Zukunft plane ich fest mit Claude Code, wenn’s ums „Heavy Lifting“ geht. Denn die Arbeit mit dem Tool hat sich beinahe so angefühlt, als würde ich mit einem sehr fähigen Junior Developer zusammenarbeiten – der danach giert, sämtlichen Code zu schreiben und nie ein Problem damit hat, Anweisungen anzunehmen. Festzuhalten ist, dass Claude Code und Vibe Coding Neulinge nicht plötzlich dazu befähigen, Code zu schreiben. Denn der Schlüssel zum Erfolg war bei meinem Projekt dass ich wusste, welche Grundlagen nötig waren (Frameworks, Guidelines, und so weiter) und dass ich erkannt habe, wenn die KI den Weg der Best Practices verlassen hat. Das war wie beschrieben der wesentliche Teil der Arbeit. Fakt ist aber auch: Das Vibe-Coding-Konzept steht gerade erst am Anfang. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Vibe Coding im Selbstversuch​ Auch (oder gerade) wenn Sie dem Vibe-Coding-Ansatz skeptisch gegenüberstehen, sollten Sie es einfach mal ausprobieren – empfiehlt unser Autor.diy13 | shutterstock.com

Falls Sie bis jetzt noch nie etwas von Vibe Coding gehört haben: Machen Sie sich nichts draus. Schließlich wurde dieser Begriff erst Anfang Februar 2025 vom OpenAI-Mitbegründer Andrej Karpathy geprägt – und zwar mit einem viralen Post auf der Bluesky-Alternative X.

Diese neue Art und Weise, mit künstlicher Intelligenz (KI) zu programmieren, setzt im Wesentlichen auf natürliche Sprache in Kombination mit einer guten Portion (Dev-)Intuition. Alles bis ins kleinste Detail sprachlich auszuführen oder gar selbst den Code zu schreiben, entfällt. Als Entwickler definieren Sie einfach den „Vibe“, den die Anwendung versprühen soll und überlassen der KI die Routinearbeit.

Dieses Konzept überzeugt innerhalb der Entwickler-Community nicht jeden – wie etwa diese Reddit-Diskussion zeigt. Oder diese. Oder die gerade erst erblühende Meme-Kultur rund um das noch junge Thema:

[image or embed]— Liam @ GamingOnLinux (@gamingonlinux.com) 24. März 2025 um 12:08

In diesem Artikel berichte ich von meiner ersten Vibe-Coding-Experience, die meine Sichtweise auf das Thema verändert hat – so viel schon einmal vorneweg. Ich hatte im Lauf der letzten Jahre immer wieder ein paar brillante Ideen für schöne Websites, aus denen – aus Gründen – nie etwa geworden ist. Dann „kam“ Vibe Coding.

Vibe-Coding-Erfahrungen mit Claude Code

Meinen Vibe-Coding-Einstieg habe ich in erster Linie Claude Code zu verdanken. Dieses Large Language Model (LLM) von Anthropic wurde gezielt darauf abgestimmt, Developer bei Programmieraufgaben zu unterstützen und Code zu erstellen. Das Tool wird einfach ins Projektverzeichnis installiert und läuft über die Befehlszeile.

Claude Code kann:

die Anwendungsstruktur vollständig lesen und „verstehen“,

Fragen dazu beantworten und vor allem

Änderungen daran vornehmen, die Sie in einfacher Sprache formulieren.

In der Praxis funktioniert das erschreckend erstaunlich gut: Ich habe mit einer komplett leeren Astro-Applikation losgelegt, eine Datei namens claude.md erstellt und der KI gründliche Anweisungen zu den zu befolgenden Regeln gegeben (zum Beispiel bezüglich der strikten TypeScript-Typisierung). Dazu habe ich das Tool zudem per URL auf die Astro-Dokumentation verwiesen.

Anschließend habe ich Claude in circa einem Absatz vermittelt, wie meine App funktionieren, aussehen und die Benutzer authentifizieren soll. Im Ergebnis stand eine grundlegende, laufende Webseite – in etwas weniger als einer Stunde. Diese zu optimieren, Funktionen hinzuzufügen und das User Interface anzupassen, dauerte noch einmal drei Stunden. Weil Claude den gesamten Code des Verzeichnisses kennt, in dem sein Kommandozeilen-Tool ausgeführt wird, kann es den Anwendungskontext erfassen – und Änderungen im Handumdrehen erledigen (inklusive optionalem Genehmigungsprozess).

Ich selbst habe bei diesem Projekt die meiste Zeit damit verbracht, auf den Code zu starren, den die KI generiert hat – und gelegentlich ein paar Dinge zu korrigieren. Letztendlich habe ich aber mit Hilfe von Vibe Coding und Claude Code in Stunden erledigt, wofür ich (bei entsprechender Motivation) Wochen gebraucht hätte. Zugegeben: ich bin kein Astro-Genie. Aber ich verstehe die grundlegende Arbeitsweise des Meta-Frameworks und erkenne guten Code, wenn ich ihn sehe.

Deshalb konnte es mich auch erstaunen, dass Claude Code alle möglichen Details ergänzt hatte, um die ich es nicht gebeten hatte – beispielsweise Avatar-Support für den Login-Bildschirm. Das KI-Tool hat aber nicht nur zuverlässig eine hübsche und nutzwertige Benutzeroberfläche generiert, sondern unter anderem auch Google-Anzeigen getreu Anweisung „geschmackvoll“ platziert – einschließlich eines Platzhalters für Testing-Zwecke und einem Switch, um echte Anzeigen in der Produktionsumgebung anzuzeigen. Claude Code wusste scheinbar einfach, was „das Richtige“ war – und hat es getan.

Junior-Dev-Vibes

Der Haken an der Sache – wenn man so will – war der Preis. Die Bearbeitungsgebühren, die im Rahmen meines kleinen Projekts mit Claude Code aufgelaufen sind, lagen bei circa 50 Dollar. Entsprechend viele Projekte vorausgesetzt, kann sich das schnell zu einem kleinen Vermögen summieren. Wenn ich allerdings bedenke, wie viele Arbeitsstunden ich mit Vibe Coding und Claude Code eingespart habe, kann ich (für meinen Fall) nur resümieren: Es hat sich gelohnt.

Deswegen wird diese Vibe-Coding-Erfahrung wird nicht meine letzte gewesen sein: In Zukunft plane ich fest mit Claude Code, wenn’s ums „Heavy Lifting“ geht. Denn die Arbeit mit dem Tool hat sich beinahe so angefühlt, als würde ich mit einem sehr fähigen Junior Developer zusammenarbeiten – der danach giert, sämtlichen Code zu schreiben und nie ein Problem damit hat, Anweisungen anzunehmen.

Festzuhalten ist, dass Claude Code und Vibe Coding Neulinge nicht plötzlich dazu befähigen, Code zu schreiben. Denn der Schlüssel zum Erfolg war bei meinem Projekt dass ich wusste, welche Grundlagen nötig waren (Frameworks, Guidelines, und so weiter) und dass ich erkannt habe, wenn die KI den Weg der Best Practices verlassen hat. Das war wie beschrieben der wesentliche Teil der Arbeit. Fakt ist aber auch: Das Vibe-Coding-Konzept steht gerade erst am Anfang. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Vibe Coding im Selbstversuch​ Weiterlesen »

11 Open-Source-KI-Tools für Entwickler​

Allgemein

Möglichst stressfrei hochwertige Software schreiben – das wollen diese elf Open-Source-KI-Projekte erleichtern. DC Studio | shutterstock.com Geht es um Software, entspringen dem Open-Source-Bereich regelmäßig höchst wirkungsvolle und kreative Ideen. Auch – und gerade – wenn dabei künstliche Intelligenz (KI) eine Rolle spielt: Die Rechenleistung, die die Technologie erfordert, macht sie nicht ideal für Einzelkämpfer. Vielmehr braucht es oft verteilte Teams, um solche Softwareprojekte stemmen zu können. Die folgenden elf quelloffenen KI-Projekte können Entwicklern dabei unter die Arme greifen. Sie eignen sich hervorragend als Startpunkt und Inspiration für eigene Dev-Projekte. 1. Upscayl Manchmal brauchen Bilder nur einen etwas höheren Detailgrad, um auf einer Webseite wirklich gut auszusehen. Den Task, Bildauflösung, -schärfe und Farbtreue gemäß den gewünschten Anforderungen anzupassen, können Entwickler auch an die Open-Source-Lösung  Upscayl auslagern. Weil die Upscayle-KI diese zusätzlichen Details quasi „herbei halluziniert“, eignet sich dieses quelloffene Projekt vor allem dazu, fiktionale Bilder zu optimieren. Für Abbildungen, die absolute Genauigkeit erfordern, hingegen weniger. Tatort-Fotos sollten deshalb beispielsweise außen vor bleiben.    Upscayl auf GitHub 2. Nyro Mit der Kommandozeile verbringen Entwickler in der Regel viel Zeit, um mit dem Betriebssystem zu interagieren. Im Einzelfall geht es dabei nur um ein paar Sekunden, aber die summieren sich auf Dauer. Das Open-Source-Projekt Nyro (das auf dem auf dem Electron-Framework aufbaut) ermöglicht es, grundlegende, alltägliche Tasks zu automatisieren. Dazu gehört etwa, Screenshots zu erstellen, Fenstergrößen anzupassen und Daten zwischen Applikationen zu synchronisieren. Die daraus resultierende Zeitersparnis kann sich in deutlichen Produktivitätssteigerungen niederschlagen. Nyro auf GitHub 3. Geppetto Nicht wenige Dev-Teams arbeiten inzwischen in weiten Teilen über Slack. Die Beiträge, die dabei auf der Messaging-Plattform gepostet werden, stellen quasi eine solide First-Generation-Dokumentation dar. Der Open-Source-Slackbot Gepetto kann Entwickler dabei unterstützen, diese Inhalte mit Unterstützung von Large Language Models (LLMs) besser zu strukturieren. Bei Bedarf ist es auch möglich, über Dall-E künstlerische Aspekte in die Dokumentation einfließen zu lassen. Geppetto auf GitHub 4. E2B Dass Generative AI weit mehr kann, als einfache Fragen zu beantworten und Bilder generieren, beweist das E2B-Projekt. Dabei handelt es sich um eine „Agent Sandbox“, die große Sprachmodelle mit diversen anderen Tools aus dem (menschlichen) Alltag verbindet: Web-Browser, GitHub-Repositories und Befehlszeilen-Tools wie Linter. Das realisiert LLMs, die deutlich nutzwertigere Aufgaben als die eingangs erwähnten bewältigen können. Etwa, Cloud-Infrastrukturen zu managen. E2B auf GitHub 5. Dataline Irgendeiner Remote-KI sämtliche Daten zu Trainingszwecken auszuhändigen, ist nicht jedermanns Sache. Abhilfe kann an dieser Stelle das Open-Source-Projekt Dataline schaffen. Das generiert mit Hilfe eines LLM SQL-Befehle, die die Informationen aus der Datenbank „ziehen“. Im Anschluss erzeugt die KI daraus einen Data-Science-Report (auf Grundlage einer lokalen Verbindung). Dieser hybride Ansatz kombiniert klassische datenwissenschaftliche Analyse-Algorithmen mit Generative AI. Dataline auf GitHub 6. Swirl Connect Als Entwickler möchte man sich manchmal am liebsten direkt auf einen Datensatz stürzen – müsste man sich nicht vorher die Mühe machen, diesen zu extrahieren und neu zu formatieren. Insbesondere wenn es um große Datensätze geht, können diese Prozesse zeitaufwändig ausfallen. Gegensteuern können Devs mit dem Open-Source-Projekt Swirl Connect. Das verknüpft diverse Standard-Datenbanken mit gängigen LLMs und RAG-Suchindizes. Im Ergebnis liegen alle benötigten Daten an einem Ort – und Sie können sich ganz auf das KI-Training fokussieren. Swirl Connect auf GitHub 7. DSPy Prompt Engineering ist eine Disziplin, die erst durch Generative AI entstanden ist. Im Gegensatz zu Entwicklern arbeitet ein Prompt Engineer nicht mit Algorithmen, sondern mit Worten darauf hin, LLMs den idealen Output zu entlocken. Wenn sich das für Sie ein wenig zu sehr nach dunkler Magie anfühlt, ermöglicht das quelloffene Tool DSPy einen systematischeren Ansatz für das LLM-Training. Anstelle von Wörtern und Phrasen verbindet es Module und Optimierer und ordnet diese in einer Pipeline für das LLM an. Für Entwickler bedeutet das, sich weniger Gedanken um sprachliche Nuancen machen zu müssen – und sich besser auf die Arbeit mit Code konzentrieren zu können. DSPy auf GitHub 8. Guardrails-Framework Eine wesentliche Herausforderung besteht mit Blick auf GenAI darin, wirksame Leitplanken zu etablieren. Das Open-Source-Framework Guardrails on the Gateway ermöglicht, Generative-AI-Pipelines mit solchen Leitplanken auszustatten.   Das funktioniert über asynchrone Funktionen, die nachverfolgen, wie sich die von der KI generierten Antworten entwickeln und diese schrittweise verfeinern. Unter dem Strich kann das für weniger Halluzinationen und mehr korrekten Output sorgen. Guardrails auf GitHub 9. Unsloth Ein Large Language Model auf einen neuen Datensatz zu trainieren, ist oft eine kostenintensive Angelegenheit. Diesen Trainingsprozess will das quelloffene KI-Tool Unsloth optimieren. In der Konsequenz soll das KI-Modelltraining laut der Entwickler hinter dem Projekt zwei- bis fünfmal schneller ablaufen – mit der kostenpflichtigen Professional-Version sogar bis zu 30-mal. Verantwortlich dafür ist im Wesentlichen (handgeschriebener) Kernel-Code, der den Memory-Verbrauch reduziert, die Genauigkeit aber (mindestens) beibehält.   Unsloth auf GitHub 10. Wren AI In aller Regel werden Daten in weitläufigen Tabellen abgespeichert, über die per SQL zugegriffen wird. Allerdings gehören SQL Queries nicht gerade zur Popkultur – sogar viele Entwickler haben damit zu kämpfen, schnell effiziente Abfragen zu schreiben. An diesem Punkt kann das quelloffene Projekt Wren AI unterstützen – das quasi ein natürlichsprachliches SQL-Frontend darstellt. Die KI übersetzt dabei natürlichsprachliche Fragen in SQL und spart so potenziell jede Menge Zeit und Ärger. Wren AI auf GitHub 11. AnythingLLM Es ist sehr wahrscheinlich, dass auch Sie jede Menge digitaler Dokumente horten, um bestimmte, dort enthaltene Informationen in Zukunft zu nutzen. Die Herausforderung besteht dann darin, die entsprechenden Inhalte auch zu finden, wenn man sie braucht. Dabei unterstützt das Open-Source-KI-Tool AnythingLLM: Sie speisen Ihre Dokumente einfach in ein beliebiges LLM- oder RAG-System ein und fragen anschließend die benötigten Informationen ab. AnythingLLM auf GitHub Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

11 Open-Source-KI-Tools für Entwickler​ Möglichst stressfrei hochwertige Software schreiben – das wollen diese elf Open-Source-KI-Projekte erleichtern.
DC Studio | shutterstock.com

Geht es um Software, entspringen dem Open-Source-Bereich regelmäßig höchst wirkungsvolle und kreative Ideen. Auch – und gerade – wenn dabei künstliche Intelligenz (KI) eine Rolle spielt: Die Rechenleistung, die die Technologie erfordert, macht sie nicht ideal für Einzelkämpfer. Vielmehr braucht es oft verteilte Teams, um solche Softwareprojekte stemmen zu können.

Die folgenden elf quelloffenen KI-Projekte können Entwicklern dabei unter die Arme greifen. Sie eignen sich hervorragend als Startpunkt und Inspiration für eigene Dev-Projekte.

1. Upscayl

Manchmal brauchen Bilder nur einen etwas höheren Detailgrad, um auf einer Webseite wirklich gut auszusehen. Den Task, Bildauflösung, -schärfe und Farbtreue gemäß den gewünschten Anforderungen anzupassen, können Entwickler auch an die Open-Source-Lösung  Upscayl auslagern.

Weil die Upscayle-KI diese zusätzlichen Details quasi „herbei halluziniert“, eignet sich dieses quelloffene Projekt vor allem dazu, fiktionale Bilder zu optimieren. Für Abbildungen, die absolute Genauigkeit erfordern, hingegen weniger. Tatort-Fotos sollten deshalb beispielsweise außen vor bleiben.   

Upscayl auf GitHub

2. Nyro

Mit der Kommandozeile verbringen Entwickler in der Regel viel Zeit, um mit dem Betriebssystem zu interagieren. Im Einzelfall geht es dabei nur um ein paar Sekunden, aber die summieren sich auf Dauer.

Das Open-Source-Projekt Nyro (das auf dem auf dem Electron-Framework aufbaut) ermöglicht es, grundlegende, alltägliche Tasks zu automatisieren. Dazu gehört etwa, Screenshots zu erstellen, Fenstergrößen anzupassen und Daten zwischen Applikationen zu synchronisieren. Die daraus resultierende Zeitersparnis kann sich in deutlichen Produktivitätssteigerungen niederschlagen.

Nyro auf GitHub

3. Geppetto

Nicht wenige Dev-Teams arbeiten inzwischen in weiten Teilen über Slack. Die Beiträge, die dabei auf der Messaging-Plattform gepostet werden, stellen quasi eine solide First-Generation-Dokumentation dar.

Der Open-Source-Slackbot Gepetto kann Entwickler dabei unterstützen, diese Inhalte mit Unterstützung von Large Language Models (LLMs) besser zu strukturieren. Bei Bedarf ist es auch möglich, über Dall-E künstlerische Aspekte in die Dokumentation einfließen zu lassen.

Geppetto auf GitHub

4. E2B

Dass Generative AI weit mehr kann, als einfache Fragen zu beantworten und Bilder generieren, beweist das E2B-Projekt. Dabei handelt es sich um eine „Agent Sandbox“, die große Sprachmodelle mit diversen anderen Tools aus dem (menschlichen) Alltag verbindet: Web-Browser, GitHub-Repositories und Befehlszeilen-Tools wie Linter.

Das realisiert LLMs, die deutlich nutzwertigere Aufgaben als die eingangs erwähnten bewältigen können. Etwa, Cloud-Infrastrukturen zu managen.

E2B auf GitHub

5. Dataline

Irgendeiner Remote-KI sämtliche Daten zu Trainingszwecken auszuhändigen, ist nicht jedermanns Sache. Abhilfe kann an dieser Stelle das Open-Source-Projekt Dataline schaffen. Das generiert mit Hilfe eines LLM SQL-Befehle, die die Informationen aus der Datenbank „ziehen“.

Im Anschluss erzeugt die KI daraus einen Data-Science-Report (auf Grundlage einer lokalen Verbindung). Dieser hybride Ansatz kombiniert klassische datenwissenschaftliche Analyse-Algorithmen mit Generative AI.

Dataline auf GitHub

6. Swirl Connect

Als Entwickler möchte man sich manchmal am liebsten direkt auf einen Datensatz stürzen – müsste man sich nicht vorher die Mühe machen, diesen zu extrahieren und neu zu formatieren. Insbesondere wenn es um große Datensätze geht, können diese Prozesse zeitaufwändig ausfallen.

Gegensteuern können Devs mit dem Open-Source-Projekt Swirl Connect. Das verknüpft diverse Standard-Datenbanken mit gängigen LLMs und RAG-Suchindizes. Im Ergebnis liegen alle benötigten Daten an einem Ort – und Sie können sich ganz auf das KI-Training fokussieren.

Swirl Connect auf GitHub

7. DSPy

Prompt Engineering ist eine Disziplin, die erst durch Generative AI entstanden ist. Im Gegensatz zu Entwicklern arbeitet ein Prompt Engineer nicht mit Algorithmen, sondern mit Worten darauf hin, LLMs den idealen Output zu entlocken.

Wenn sich das für Sie ein wenig zu sehr nach dunkler Magie anfühlt, ermöglicht das quelloffene Tool DSPy einen systematischeren Ansatz für das LLM-Training. Anstelle von Wörtern und Phrasen verbindet es Module und Optimierer und ordnet diese in einer Pipeline für das LLM an. Für Entwickler bedeutet das, sich weniger Gedanken um sprachliche Nuancen machen zu müssen – und sich besser auf die Arbeit mit Code konzentrieren zu können.

DSPy auf GitHub

8. Guardrails-Framework

Eine wesentliche Herausforderung besteht mit Blick auf GenAI darin, wirksame Leitplanken zu etablieren. Das Open-Source-Framework Guardrails on the Gateway ermöglicht, Generative-AI-Pipelines mit solchen Leitplanken auszustatten.  

Das funktioniert über asynchrone Funktionen, die nachverfolgen, wie sich die von der KI generierten Antworten entwickeln und diese schrittweise verfeinern. Unter dem Strich kann das für weniger Halluzinationen und mehr korrekten Output sorgen.

Guardrails auf GitHub

9. Unsloth

Ein Large Language Model auf einen neuen Datensatz zu trainieren, ist oft eine kostenintensive Angelegenheit. Diesen Trainingsprozess will das quelloffene KI-Tool Unsloth optimieren.

In der Konsequenz soll das KI-Modelltraining laut der Entwickler hinter dem Projekt zwei- bis fünfmal schneller ablaufen – mit der kostenpflichtigen Professional-Version sogar bis zu 30-mal. Verantwortlich dafür ist im Wesentlichen (handgeschriebener) Kernel-Code, der den Memory-Verbrauch reduziert, die Genauigkeit aber (mindestens) beibehält.  

Unsloth auf GitHub

10. Wren AI

In aller Regel werden Daten in weitläufigen Tabellen abgespeichert, über die per SQL zugegriffen wird. Allerdings gehören SQL Queries nicht gerade zur Popkultur – sogar viele Entwickler haben damit zu kämpfen, schnell effiziente Abfragen zu schreiben.

An diesem Punkt kann das quelloffene Projekt Wren AI unterstützen – das quasi ein natürlichsprachliches SQL-Frontend darstellt. Die KI übersetzt dabei natürlichsprachliche Fragen in SQL und spart so potenziell jede Menge Zeit und Ärger.

Wren AI auf GitHub

11. AnythingLLM

Es ist sehr wahrscheinlich, dass auch Sie jede Menge digitaler Dokumente horten, um bestimmte, dort enthaltene Informationen in Zukunft zu nutzen. Die Herausforderung besteht dann darin, die entsprechenden Inhalte auch zu finden, wenn man sie braucht.

Dabei unterstützt das Open-Source-KI-Tool AnythingLLM: Sie speisen Ihre Dokumente einfach in ein beliebiges LLM- oder RAG-System ein und fragen anschließend die benötigten Informationen ab.

AnythingLLM auf GitHub

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

11 Open-Source-KI-Tools für Entwickler​ Weiterlesen »

Nach oben scrollen
×