Computerhaus Quickborn

Februar 2025

Servant Leadership: Wie Konfliktlösung geht​

Allgemein

Servant Leadership stellt das bisherige Führungsverständnis auf den Kopf. Transformative Mediation hilft bei der Lösung von Konflikten. Foto: sirtravelalot – shutterstock.comNiemand steckt gerne in Konflikten fest oder stellt sich ihnen bereitwillig. Als Projektmanager hat man allerdings nicht nur die Aufgabe, Projekte erfolgreich ohne Wenn und Aber abzuschließen, sondern auch die im Projektverlauf aufkommenden Konflikte zu klären. Das ist keine leichte Aufgabe. Es gibt Mitarbeiter, die bei jedem Thema unterschiedlicher Meinung sein können und Teams, die mehr über Zuständigkeiten als über Lösungen diskutieren. Das kann für Projekte zum Risiko werden. Wer Projekte auf Kurs halten möchte, braucht dazu die passende Strategie.Konfliktlösung in der VUCA-WeltWir leben in einem VUCA-Umfeld, das geprägt ist von Veränderung, Unsicherheit, Komplexität und Ambiguität (ursprünglich aus dem Englischen: VUCA – Volatility, Uncertainty, Complexity and Ambiguity). Aufgaben werden komplexer und Probleme unvorhersehbarer. Sie zu meistern erfordert Teamwork von Mitarbeitern, Teams und Abteilungen. Das ist nicht selbstverständlich.Deutlich zeigt sich das oftmals in der Zusammenarbeit mehrer Abteilungen über Ticketsysteme. Vieles erinnert an ein Tennisspiel: Ziel ist es, das Ticket in das Spielfeld der anderen Abteilung zu bringen. So werden IT-Tickets zwischen den Abteilungen hin- und hergespielt mit den Worten “Wir sind nicht zuständig”. Begrenzt wird das Spielfeld durch die Zuständigkeiten der jeweiligen Abteilung. Sind sich diese uneinig, ob eine Aufgabe noch in den Zuständigkeitsbereich fällt, wird an das Management eskaliert. Das agiert als Linienrichter und trifft die finale Entscheidung über Sieg oder Niederlage. Diese Art der Zusammenarbeit ist anstrengend und weder effektiv noch effizient. Über die Zeit hinweg können sich so Unzufriedenheit, Frust und Ärger aufstauen und sich in Diskussionen entladen, die den sachlichen Boden verlassen. Das ist ein idealer Nährboden für Projektverzögerungen.Lesetipp: 8 Tipps – So retten Sie gefährdete IT-ProjekteMediation und insbesondere der transformative Mediationsansatz kann Projektmanagern helfen, handlungsfähig zu bleiben. Wie? Ganz einfach: durch Empowerment und Recognition. Simon Sinek, ein erfolgreicher Visionär und Unternehmensberater, beschreibt Empowerment wie folgt: “Leadership is about empowering others to achieve things they didn’t think possible”. Und das trifft es auf den Punkt. Am erfolgreichsten sind Führungskräfte, die andere in die Lage versetzen, ihre Konflikte selbst zu lösen. So kann sich das ständige Tauziehen in ein kooperatives Miteinander verwandeln und die Zusammenarbeit pragmatischer, produktiver und vor allem kundenorientierter werden. Die bestmöglichen Ergebnisse erzielen Projektmanager, wenn sie dabei gewisse Fähigkeiten mitbringen.Servant Leadership – DefinitionEin Servant Leader dient seinen Mitarbeitern, dem Kunden und dem Unternehmen. Mit seiner Dienstleistungsorientierung stellt er das bisherige Führungsverständnis auf den Kopf. Die werteorientierte Führungshaltung wird auch hierzulande in Unternehmen immer populärer. Die wichtigsten fünf Charakteristiken der Servant Leadership sind:Empathie und aktives ZuhörenBewusstsein schaffenVoraussicht habenWachstum ermöglichenGemeinschaft erzeugenDiese Eigenschaften helfen bei dem Auftreten und der Lösung von Konflikten, vor allem, wenn man eine neutrale Position behält. Und sollte der Servant Leader doch vor einer scheinbar undurchdringlichen Wand stehen, hilft die transformative Mediation.Servant Leadership – Best PracticesDie transformative Mediation hat das Ziel, Konflikte systematisch zu lösen und Beziehungen zu stärken. Im Konflikt führen folgende fünf Praktiken am besten zu nachhaltigem Erfolg:Eigenverantwortung stärken: Sehen Sie die Konfliktbeteiligten als Experten in eigener Sache. Es ist nicht die Aufgabe des Projektleiters, die Verantwortung für die Konfliktlösung zu übernehmen. Im Gegenteil: Befähigen Sie andere, Konflikte selbst zu lösen. Geben Sie den Konfliktparteien die Zügel für das Ergebnis selbst in die Hand.Ressourcenorientierte Haltung: Denken Sie ressourcenorientiert. Alle Beteiligten sind selbst in der Lage, sich aus einer Situation zu befreien, die sie sich selbst eingebrockt haben. Doch um sich selbst aus der Situation herauszumanövrieren, brauchen sie neue Denkmuster und Perspektiven. In diesem Fall agiert ein Mediator oft als Wegbereiter, um Stärken zu aktivieren.Allparteilichkeit: Seien Sie nicht nur neutral, sondern versuchen Sie, die Perspektiven der verschiedenen Interessengruppen tiefgreifend zu verstehen. Erkennen Sie die jeweiligen Probleme, Wünsche und Bedürfnisse. Allparteilichkeit haben Sie erreicht, wenn sie erkennen, dass jeder aus seiner Perspektive heraus Recht hat.Kooperation fördern: Schaffen Sie ein Umfeld, das lösungsorientierte Diskussionen und kooperatives Verhalten ermöglicht. Das gelingt Ihnen, indem Sie die Parteien dabei unterstützen, die Situation des Gegenübers nachvollziehbar zu machen. Verstehen schafft Verständnis. Verständnis schafft Vertrauen. Vertrauen ist die Grundlage für Kooperation.Das große Ganze verstehen: Anstatt vorschnell der Meinung zu sein, die Ursache eines Konfliktes vermeintlich zu kennen, nehmen Sie das gesamte System unter die Lupe. Wie und weshalb ist der Konflikt entstanden? Welche Verhaltensmuster haben zu dem Problem in welchem Zusammenhang geführt? Seien Sie in der Lage, Wechselwirkungen zu erkennen und zu berücksichtigen. Vor allem in unserer komplexen Welt ist es wichtig, sich ein ganzheitliches Bild einer Situation zu verschaffen, um vorausschauend handeln zu können.Spannt man nun den Bogen zurück zum Anfang, wird offensichtlich, warum ein transformativer Ansatz für eine effektive Konfliktlösung in der VUCA-Welt unerlässlich ist. Erst wenn wir den Konflikt mit dem passenden Werkzeug bearbeiten, sind wir in der Lage, die beste Lösung zu finden. (pg/fm)Neue Führungspraxis für die digitale WeltDer Sportdirektor eines Vereins Foto: Sergey Kuznecov – shutterstock.comDer Sportdirektor eines Vereins stellt den Kader zusammen und gestaltet die Spiel- und Terminpläne für Wettkämpfe und Trainings. Er instruiert Talentscouts, kauft Spieler ein und stellt Bewegungsfreiheit für erforderliche Transfers sicher. Sein Ziel: Menschen zu finden und zu binden, die die Weiterentwicklung des Unternehmens konstant antreiben. Er erweitert die Suchkriterien für die Rekrutierung, stellt Mitarbeiter mit verschiedensten Hintergründen ein und ermöglicht Familien- und altersgerechte Arbeitszeitmodelle.Führung in der Digitalisierung Foto: SFIO CRACHO – shutterstock.comDie Studie “Die Haltung entscheidet. Neue Führungspraxis für die digitale Welt” stammt von LEAD (Mercator Capacity Building Center for Leadership & Advocacy) in Kooperation mit der Unternehmensberatung Company Companions sowie der School of Public Policy (Central European University, Budapest) und dem Center for Leadership and Values in Society (Universität St. Gallen). Die Autoren empfehlen acht Rollen als Orientierungshilfen.Die Landschaftsgärtnerin Foto: Africa Studio – shutterstock.comDie Landschaftsgärtnerin gestaltet und pflegt Grünanlagen. Sie versteht das gesamte Ökosystem und weiß, wann welche Pflanzen im Jahreszeitenwechsel an welcher Stelle ihre Wirkung entfalten und wie alles zusammenspielt. Ihr Ziel: Das Unternehmen langfristig auf zustellen, wenn Krise und Veränderung zum Normalfall geworden sind. Sie ermöglicht schnelles „Prototyping“, geht unkonventionelle Partnerschaften ein und bricht Silos mittels heterogener, cross-funktionaler Teams auf.Die Seismologin Foto: Filip Fuxa – shutterstock.comDie Seismologin muss wissen, wo die Erde beben könnte. Dafür analysiert sie Daten, registriert feinste Erschütterungen und erkennt Spannungen frühzeitig. Sie erliegt aber nicht der Illusion, die Zukunft genau vorhersagen zu können. Ihr Ziel: Grundlagen für gute Entscheidungen in einer unübersichtlichen Welt zu schaffen. Sie etabliert „Situation Rooms“ zur Entwicklung von Handlungsstrategien, greift über digitale Plattformen auf verborgenes Wissen zu und schult ihre Intuition als zusätzliche “Datenquelle”.Der Zen-Schüler Foto: Toranico – shutterstock.comDer Zen-Schüler ist in Ausbildung und Vorbereitung. Er lernt, reflektiert und prüft sich selbst. Achtsamkeit, Mitgefühl und Offenheit sind seine Tugenden, er pflegt eine disziplinierte (spirituelle) Praxis. Sein Ziel: Das finden, woran er sich festhalten kann, wenn sich alle an ihm festhalten. Er nutzt Coaching- und Mentoring-Programme, schafft physische Räume für den Ausgleich und richtet den Blick nach innen.Der DJ Foto: Vladimir Hodac – shutterstock.comDer Discjockey bringt mit seiner Musik die Menschen zum Tanzen. Er setzt einen Rahmen, der motiviert, anregt und gemeinsame Energie erzeugt. Zugleich hat er ein offenes Ohr für Anregungen und sensible Antennen für das richtige Stück im richtigen Moment. Sein Ziel: Eine Kultur der Zugewandtheit zu schaffen – aber mit dem Fokus auf Ergebnisorientierung. Dafür baut er Empathie als Führungskompetenz auf, schafft Räume, in denen Menschen gerne arbeiten, und agiert als Vorbild für Zugewandtheit und Leistungsorientierung.Die Intendantin eines Theaters Foto: Fer Gregory – shutterstock.comDie Intendantin eines Theaters wählt die Stücke für die Aufführung aus. Sie entwickelt den roten Faden und prägt die gesellschaftliche Wirkungskraft ihres Hauses. Die Künstler und deren Expertise bindet sie dabei ein. Ihr Ziel: in Zeiten großer Unsicherheit und Unplanbarkeit Orientierung zu geben. Über ein „Strategy Board“ schafft sie die Voraussetzung für Richtungsentscheidungen schaffen, erhöht mittels interaktiver Beteiligungsformen die Einigkeit über die Richtung – und hat den Mut zu klaren Ansage in der Krise.Die Trainerin Foto: El Nariz – shutterstock.comDie Trainerin leitet eine Mannschaft taktisch, technisch und konditionell an. Sie bestimmt Trainingsablauf, Mannschaftsaufstellung und Strategie. Sie muss für Misserfolge geradestehen, Erfolge lässt sie ihrem Team. Ihr Ziel: Die Mitarbeiter zu mehr Verantwortungsübernahme zu befähigen. Dafür entwickelt sie über zeitgemäße Lernformate Kompetenzen entwickeln, baut gegenseitiges Vertrauen auf und führt Anreize zur Übernahme von Verantwortung ein.Der Blogger Foto: g-stockstudio – shutterstock.comDer Blogger kommentiert Geschehnisse – zugespitzt, aufrüttelnd und meist aus einer persönlichen Sichtweise. Er will die Welt verstehen, erklären und übersetzen. Er lebt vom direkten Feedback der Leser. Sein Ziel: Veränderungsbereitschaft in die DNA des Unternehmens zu schreiben. Er kaskadiert die Geschichte der Veränderung in die Firma, moderiert gemeinsame Lernprozesse und gibt sichtbare Veränderungsanstöße. 

Servant Leadership: Wie Konfliktlösung geht​ Servant Leadership stellt das bisherige Führungsverständnis auf den Kopf. Transformative Mediation hilft bei der Lösung von Konflikten.
Foto: sirtravelalot – shutterstock.comNiemand steckt gerne in Konflikten fest oder stellt sich ihnen bereitwillig. Als Projektmanager hat man allerdings nicht nur die Aufgabe, Projekte erfolgreich ohne Wenn und Aber abzuschließen, sondern auch die im Projektverlauf aufkommenden Konflikte zu klären. Das ist keine leichte Aufgabe. Es gibt Mitarbeiter, die bei jedem Thema unterschiedlicher Meinung sein können und Teams, die mehr über Zuständigkeiten als über Lösungen diskutieren. Das kann für Projekte zum Risiko werden. Wer Projekte auf Kurs halten möchte, braucht dazu die passende Strategie.Konfliktlösung in der VUCA-WeltWir leben in einem VUCA-Umfeld, das geprägt ist von Veränderung, Unsicherheit, Komplexität und Ambiguität (ursprünglich aus dem Englischen: VUCA – Volatility, Uncertainty, Complexity and Ambiguity). Aufgaben werden komplexer und Probleme unvorhersehbarer. Sie zu meistern erfordert Teamwork von Mitarbeitern, Teams und Abteilungen. Das ist nicht selbstverständlich.Deutlich zeigt sich das oftmals in der Zusammenarbeit mehrer Abteilungen über Ticketsysteme. Vieles erinnert an ein Tennisspiel: Ziel ist es, das Ticket in das Spielfeld der anderen Abteilung zu bringen. So werden IT-Tickets zwischen den Abteilungen hin- und hergespielt mit den Worten “Wir sind nicht zuständig”. Begrenzt wird das Spielfeld durch die Zuständigkeiten der jeweiligen Abteilung. Sind sich diese uneinig, ob eine Aufgabe noch in den Zuständigkeitsbereich fällt, wird an das Management eskaliert. Das agiert als Linienrichter und trifft die finale Entscheidung über Sieg oder Niederlage. Diese Art der Zusammenarbeit ist anstrengend und weder effektiv noch effizient. Über die Zeit hinweg können sich so Unzufriedenheit, Frust und Ärger aufstauen und sich in Diskussionen entladen, die den sachlichen Boden verlassen. Das ist ein idealer Nährboden für Projektverzögerungen.Lesetipp: 8 Tipps – So retten Sie gefährdete IT-ProjekteMediation und insbesondere der transformative Mediationsansatz kann Projektmanagern helfen, handlungsfähig zu bleiben. Wie? Ganz einfach: durch Empowerment und Recognition. Simon Sinek, ein erfolgreicher Visionär und Unternehmensberater, beschreibt Empowerment wie folgt: “Leadership is about empowering others to achieve things they didn’t think possible”. Und das trifft es auf den Punkt. Am erfolgreichsten sind Führungskräfte, die andere in die Lage versetzen, ihre Konflikte selbst zu lösen. So kann sich das ständige Tauziehen in ein kooperatives Miteinander verwandeln und die Zusammenarbeit pragmatischer, produktiver und vor allem kundenorientierter werden. Die bestmöglichen Ergebnisse erzielen Projektmanager, wenn sie dabei gewisse Fähigkeiten mitbringen.Servant Leadership – DefinitionEin Servant Leader dient seinen Mitarbeitern, dem Kunden und dem Unternehmen. Mit seiner Dienstleistungsorientierung stellt er das bisherige Führungsverständnis auf den Kopf. Die werteorientierte Führungshaltung wird auch hierzulande in Unternehmen immer populärer. Die wichtigsten fünf Charakteristiken der Servant Leadership sind:Empathie und aktives ZuhörenBewusstsein schaffenVoraussicht habenWachstum ermöglichenGemeinschaft erzeugenDiese Eigenschaften helfen bei dem Auftreten und der Lösung von Konflikten, vor allem, wenn man eine neutrale Position behält. Und sollte der Servant Leader doch vor einer scheinbar undurchdringlichen Wand stehen, hilft die transformative Mediation.Servant Leadership – Best PracticesDie transformative Mediation hat das Ziel, Konflikte systematisch zu lösen und Beziehungen zu stärken. Im Konflikt führen folgende fünf Praktiken am besten zu nachhaltigem Erfolg:Eigenverantwortung stärken: Sehen Sie die Konfliktbeteiligten als Experten in eigener Sache. Es ist nicht die Aufgabe des Projektleiters, die Verantwortung für die Konfliktlösung zu übernehmen. Im Gegenteil: Befähigen Sie andere, Konflikte selbst zu lösen. Geben Sie den Konfliktparteien die Zügel für das Ergebnis selbst in die Hand.Ressourcenorientierte Haltung: Denken Sie ressourcenorientiert. Alle Beteiligten sind selbst in der Lage, sich aus einer Situation zu befreien, die sie sich selbst eingebrockt haben. Doch um sich selbst aus der Situation herauszumanövrieren, brauchen sie neue Denkmuster und Perspektiven. In diesem Fall agiert ein Mediator oft als Wegbereiter, um Stärken zu aktivieren.Allparteilichkeit: Seien Sie nicht nur neutral, sondern versuchen Sie, die Perspektiven der verschiedenen Interessengruppen tiefgreifend zu verstehen. Erkennen Sie die jeweiligen Probleme, Wünsche und Bedürfnisse. Allparteilichkeit haben Sie erreicht, wenn sie erkennen, dass jeder aus seiner Perspektive heraus Recht hat.Kooperation fördern: Schaffen Sie ein Umfeld, das lösungsorientierte Diskussionen und kooperatives Verhalten ermöglicht. Das gelingt Ihnen, indem Sie die Parteien dabei unterstützen, die Situation des Gegenübers nachvollziehbar zu machen. Verstehen schafft Verständnis. Verständnis schafft Vertrauen. Vertrauen ist die Grundlage für Kooperation.Das große Ganze verstehen: Anstatt vorschnell der Meinung zu sein, die Ursache eines Konfliktes vermeintlich zu kennen, nehmen Sie das gesamte System unter die Lupe. Wie und weshalb ist der Konflikt entstanden? Welche Verhaltensmuster haben zu dem Problem in welchem Zusammenhang geführt? Seien Sie in der Lage, Wechselwirkungen zu erkennen und zu berücksichtigen. Vor allem in unserer komplexen Welt ist es wichtig, sich ein ganzheitliches Bild einer Situation zu verschaffen, um vorausschauend handeln zu können.Spannt man nun den Bogen zurück zum Anfang, wird offensichtlich, warum ein transformativer Ansatz für eine effektive Konfliktlösung in der VUCA-Welt unerlässlich ist. Erst wenn wir den Konflikt mit dem passenden Werkzeug bearbeiten, sind wir in der Lage, die beste Lösung zu finden. (pg/fm)Neue Führungspraxis für die digitale WeltDer Sportdirektor eines Vereins
Foto: Sergey Kuznecov – shutterstock.comDer Sportdirektor eines Vereins stellt den Kader zusammen und gestaltet die Spiel- und Terminpläne für Wettkämpfe und Trainings. Er instruiert Talentscouts, kauft Spieler ein und stellt Bewegungsfreiheit für erforderliche Transfers sicher. Sein Ziel: Menschen zu finden und zu binden, die die Weiterentwicklung des Unternehmens konstant antreiben. Er erweitert die Suchkriterien für die Rekrutierung, stellt Mitarbeiter mit verschiedensten Hintergründen ein und ermöglicht Familien- und altersgerechte Arbeitszeitmodelle.Führung in der Digitalisierung
Foto: SFIO CRACHO – shutterstock.comDie Studie “Die Haltung entscheidet. Neue Führungspraxis für die digitale Welt” stammt von LEAD (Mercator Capacity Building Center for Leadership & Advocacy) in Kooperation mit der Unternehmensberatung Company Companions sowie der School of Public Policy (Central European University, Budapest) und dem Center for Leadership and Values in Society (Universität St. Gallen). Die Autoren empfehlen acht Rollen als Orientierungshilfen.Die Landschaftsgärtnerin
Foto: Africa Studio – shutterstock.comDie Landschaftsgärtnerin gestaltet und pflegt Grünanlagen. Sie versteht das gesamte Ökosystem und weiß, wann welche Pflanzen im Jahreszeitenwechsel an welcher Stelle ihre Wirkung entfalten und wie alles zusammenspielt. Ihr Ziel: Das Unternehmen langfristig auf zustellen, wenn Krise und Veränderung zum Normalfall geworden sind. Sie ermöglicht schnelles „Prototyping“, geht unkonventionelle Partnerschaften ein und bricht Silos mittels heterogener, cross-funktionaler Teams auf.Die Seismologin
Foto: Filip Fuxa – shutterstock.comDie Seismologin muss wissen, wo die Erde beben könnte. Dafür analysiert sie Daten, registriert feinste Erschütterungen und erkennt Spannungen frühzeitig. Sie erliegt aber nicht der Illusion, die Zukunft genau vorhersagen zu können. Ihr Ziel: Grundlagen für gute Entscheidungen in einer unübersichtlichen Welt zu schaffen. Sie etabliert „Situation Rooms“ zur Entwicklung von Handlungsstrategien, greift über digitale Plattformen auf verborgenes Wissen zu und schult ihre Intuition als zusätzliche “Datenquelle”.Der Zen-Schüler
Foto: Toranico – shutterstock.comDer Zen-Schüler ist in Ausbildung und Vorbereitung. Er lernt, reflektiert und prüft sich selbst. Achtsamkeit, Mitgefühl und Offenheit sind seine Tugenden, er pflegt eine disziplinierte (spirituelle) Praxis. Sein Ziel: Das finden, woran er sich festhalten kann, wenn sich alle an ihm festhalten. Er nutzt Coaching- und Mentoring-Programme, schafft physische Räume für den Ausgleich und richtet den Blick nach innen.Der DJ
Foto: Vladimir Hodac – shutterstock.comDer Discjockey bringt mit seiner Musik die Menschen zum Tanzen. Er setzt einen Rahmen, der motiviert, anregt und gemeinsame Energie erzeugt. Zugleich hat er ein offenes Ohr für Anregungen und sensible Antennen für das richtige Stück im richtigen Moment. Sein Ziel: Eine Kultur der Zugewandtheit zu schaffen – aber mit dem Fokus auf Ergebnisorientierung. Dafür baut er Empathie als Führungskompetenz auf, schafft Räume, in denen Menschen gerne arbeiten, und agiert als Vorbild für Zugewandtheit und Leistungsorientierung.Die Intendantin eines Theaters
Foto: Fer Gregory – shutterstock.comDie Intendantin eines Theaters wählt die Stücke für die Aufführung aus. Sie entwickelt den roten Faden und prägt die gesellschaftliche Wirkungskraft ihres Hauses. Die Künstler und deren Expertise bindet sie dabei ein. Ihr Ziel: in Zeiten großer Unsicherheit und Unplanbarkeit Orientierung zu geben. Über ein „Strategy Board“ schafft sie die Voraussetzung für Richtungsentscheidungen schaffen, erhöht mittels interaktiver Beteiligungsformen die Einigkeit über die Richtung – und hat den Mut zu klaren Ansage in der Krise.Die Trainerin
Foto: El Nariz – shutterstock.comDie Trainerin leitet eine Mannschaft taktisch, technisch und konditionell an. Sie bestimmt Trainingsablauf, Mannschaftsaufstellung und Strategie. Sie muss für Misserfolge geradestehen, Erfolge lässt sie ihrem Team. Ihr Ziel: Die Mitarbeiter zu mehr Verantwortungsübernahme zu befähigen. Dafür entwickelt sie über zeitgemäße Lernformate Kompetenzen entwickeln, baut gegenseitiges Vertrauen auf und führt Anreize zur Übernahme von Verantwortung ein.Der Blogger
Foto: g-stockstudio – shutterstock.comDer Blogger kommentiert Geschehnisse – zugespitzt, aufrüttelnd und meist aus einer persönlichen Sichtweise. Er will die Welt verstehen, erklären und übersetzen. Er lebt vom direkten Feedback der Leser. Sein Ziel: Veränderungsbereitschaft in die DNA des Unternehmens zu schreiben. Er kaskadiert die Geschichte der Veränderung in die Firma, moderiert gemeinsame Lernprozesse und gibt sichtbare Veränderungsanstöße.

Servant Leadership: Wie Konfliktlösung geht​ Weiterlesen »

Xiaomi Redmi Note 14 Pro 5G im Test: Bestes Budget-Smartphone?​

Allgemein

Simon Chandler/Foundry Auf einen Blick Pro Scharfes 6,67-Zoll-Display mit 120 Hertz Gute Akkulaufzeit & Lademöglichkeiten Leichtes & robustes Design Solide Hauptkamera Kontra Mittelmäßige Sekundärkameras Gewöhnungsbedürftige Oberfläche Teurer als die Konkurrenten Fazit Das Redmi Note 14 Pro 5G ist eine fantastische Option für alle, die starke Funktionen zu einem erschwinglichen Preis suchen. Sein 6,67-Zoll-AMOLED-Display ist ein Hinkucker, während die Kamera, die Software und der Akku allesamt überdurchschnittlich gut sind. Xiaomis Untermarke Redmi hat sich im Laufe der Jahre eine Nische als Anbieter von Smartphones mit hervorragendem Preis-Leistungs-Verhältnis gesichert. Das Redmi Note 13 Pro erhielt von uns im letzten Jahr eine hervorragende 4,5-Sterne-Bewertung, und auch Xiaomis jüngste Vorstöße in den Bereich der preiswerten Tablets haben uns beeindruckt. In diesem Jahr will das Unternehmen mit dem Smartphone Redmi Note 14 Pro 5G an diese Tradition anknüpfen. Es ist ein weiteres Android-Gerät, das größtenteils Premium-Funktionen zu einem erschwinglichen Preis bietet. Wie bei früheren Generationen erscheint das Redmi Note 14 Pro 5G neben anderen Modellen. Darunter befindet sich das Note 14 Pro+ 5G und die Basisvariante Redmi Note 14. Sie alle sind zu unterschiedlichen Preisen und mit unterschiedlichen Chips, Kameraobjektiven und Akkus ausgestattet. In diesem Testbericht gehen wir der Frage nach, ob das Note 14 Pro 5G für nur 399 Euro genug kann, um sich von der wachsenden Zahl attraktiver und günstiger Android-Smartphones abzuheben. Wir werfen einen Blick auf die Leistung, die Kameras, das Display, den Akku und die Software und beantworten die Frage, ob es sich lohnt, das Gerät seinen zahlreichen Konkurrenten vorzuziehen. Design & Verarbeitung Schlankes, geschwungenes Gehäuse mit schillernden Farben Selfie-Kamera hinter dem Display IP68-Einstufung Das Redmi Note 14 Pro 5G unterscheidet sich deutlich von der eher kantigen Bauweise des 13 Pro, da sein Gehäuse ein konischeres, geschwungenes Design aufweist. Während das 13 Pro im Wesentlichen die flacheren Konturen der jüngsten iPhone-Modelle nachahmte, setzt das 14 Pro auf weichere Ecken und Kanten. Ähnlich verhält es sich mit dem rückwärtigen Kameramodul, das nun in einer kreisrunden Ausbuchtung untergebracht ist und nicht mehr in einem klassischen Quadrat. Das Kameramodul befindet sich außerdem eher in der Mitte der Rückseite, was vielleicht symmetrischer aussieht, aber die Aufnahme von Fotos etwas erschweren kann. Simon Chandler/Foundry Obwohl die angebotene Farbpalette des Redmi Note 14 Pro 5G recht begrenzt ist, hat uns das Korallengrün unseres Testmusters sehr gut gefallen. Es hat einen subtilen Opal-Schimmer, der je nach Lichteinfall den Farbton ändert, während die Farbe selbst lebendig und dennoch geschmackvoll zurückhaltend ist. Sie ergänzt die dünnen Ränder des 6,67-Zoll-Displays und den allgemeinen Minimalismus des Smartphones. Gleichzeitig ermöglicht Ihnen die Farbgebung, ein Statement abzugeben, ohne zu viel zu sagen. Das Gerät sieht nicht nur ziemlich schick aus, es ist auch kompakt und leicht. Es wiegt nur 190 Gramm, und obwohl es ein ziemlich großes Display hat, fühlt es sich dank des dünnen Rahmens nicht überdimensioniert oder unhandlich an. Ein weiterer Pluspunkt ist, dass das Redmi Note 14 Pro 5G für ein Mittelklassegerät sehr widerstandsfähig ist, mit einer IP68-Einstufung und einem Display aus Corning Gorilla Glass Victus 2. Ich habe mich auch gefreut, dass in der Verpackung zudem eine schwarze Silikonhülle enthalten ist. Auf dem Display ist ebenfalls schon eine Schutzfolie angebracht. Bildschirm & Lautsprecher 6,67 Zoll CrystalRes AMOLED-Display Zwei Dolby Atmos-Lautsprecher 120 Hertz Bildwiederholfrequenz Wie bei so vielen Budget- und Mittelklasse-Handys dieser Tage ist das Display des Redmi Note 14 Pro wohl sein bestes Feature: Der Bildschirm setzt auf ein 6,67 Zoll großes AMOLED-Panel, das eine Bildwiederholfrequenz von bis zu 120 Hertz unterstützt und eine Spitzenhelligkeit von 3000 nits erreicht. Dies ermöglicht eine sehr flüssige und scharfe Darstellung, was auch durch die 1,5K-Auflösung von 2.712 x 1.220 Pixeln unterstützt wird. Obwohl ich auf Smartphones normalerweise keine Filme anschaue, hat das Smartphone bei der Wiedergabe von Inhalten auf Netflix, YouTube und Prime Video hervorragende Arbeit geleistet. Das Kontrastverhältnis von 5.000.000:1 führt dazu, dass Inhalte sehr farbenfroh dargestellt werden. Und wenn Sie unterwegs sind, werden Sie Ihren Fernseher zu Hause wahrscheinlich nicht so sehr vermissen. Simon Chandler/Foundry Ganz allgemein macht die 120 Hertz-Bildwiederholrate des Smartphones das Scrollen reaktionsschneller und flüssiger. Text und Bilder erscheinen auf angenehme Weise, und es gibt eine Option, mit der Sie festlegen können, welche Apps die maximale Bildwiederholfrequenz nutzen und welche nicht. So können Sie den Akku schonen und gleichzeitig das Surfen in vollen Zügen genießen. Die Qualität des Bildschirms wird durch die Dolby Atmos-Stereolautsprecher ergänzt, die sowohl für Musikfans als auch für Filmliebhaber einen großartigen Klang liefern. Ich fand, dass selbst bei ziemlich komplexer Musik die verschiedenen Ebenen leicht und deutlich hörbar waren, wobei die Stereolautsprecher ein Gefühl von Tiefe und Dreidimensionalität vermittelten. Ja, sie kommen nicht wirklich mit höheren Lautstärken zurecht und sie sind nicht ganz auf Premium-Niveau. Doch sie werden die meisten Käufer sehr zufrieden stellen. Spezifikationen & Leistung Mediatek Dimensity 7300 Ultra 8 Gigabyte RAM und 256 Gigabyte Speicher Kein micro-SD-Kartensteckplatz Mit 8 Gigabyte RAM als Standard und einem Mediatek Dimensity 7300 Ultra Chip an Bord ist das Redmi Note 14 Pro für ein Budget-Handy sehr leistungsfähig. Für die meisten Aufgaben war es perfekt geeignet, Apps und Webseiten wurden ohne spürbare Verzögerungen geöffnet. Auch als Spiele-Plattform fand ich das Redmi Note 14 Pro 5G mehr als ausreichend schnell, Gelegenheitsspiele wie “Subway Surfers” und “Fortnite” liefen alle reibungslos. Allerdings habe ich festgestellt, dass es ein wenig zu kämpfen hat, wenn man dem Smartphone mehr abverlangt. Einige der grafisch anspruchsvolleren Android-Spiele, darunter “Asphalt 9” und “Shadowgun Legends”, liefen nicht ganz ohne Verzögerungen. Sie waren trotzdem unterhaltsam, aber wer das bestmögliche Android-Spielerlebnis haben möchte, muss sich wahrscheinlich für ein hochwertigeres Handy entscheiden. Simon Chandler/Foundry Während die Leistung des Note 14 Pro im Allgemeinen gut ist, ist es etwas enttäuschend, dass das Smartphone keinen microSD-Slot hat. Das ist heutzutage üblich, könnte aber ein Problem darstellen, da die Basisversion des Smartphones nur 256 Gigabyte internen Speicher beinhaltet. Benutzer, die dazu neigen, ihre Geräte mit Fotos, Musik und anderen Dateien vollzustopfen, müssen sich also möglicherweise etwas zurückhalten. Kameras 200-Megapixel-Hauptkamera auf der Rückseite 8-Megapixel-Ultraweitwinkel- und 2-Megapixel-Makroobjektiv 20-Megapixel-Selfie-Kamera Das Redmi Note 14 Pro 5G hebt sich durch seine 200-Megapixel-Hauptkamera mit Weitwinkelobjektiv von der Masse der Mittelklasse-Handys ab. Ausgestattet mit optischer Bildstabilisierung (OIS) und End-to-End AI Remosaic Technologie (die eine parallele statt sequentielle Verarbeitung der Bilder ermöglicht), kann das Redmi Note 14 Pro 5G eine Vielzahl von Szenen mit einem Minimum an Aufwand aufnehmen. Ergänzt wird diese Linse durch ein 8-Megapixel-Ultraweitwinkelobjektiv für Panoramaaufnahmen sowie eine 2 Megapixel Makrokamera für extreme Nahaufnahmen. Im Großen und Ganzen hatte ich viel Spaß mit der Hauptkamera des Note 14 Pro. Unter den meisten Bedingungen erhielt ich gute Aufnahmen, wobei das Hauptobjektiv eine natürliche Farbbalance bietet. Ich fand zwar, dass einige Landschaftsaufnahmen etwas zu ungesättigt erschienen. Aber man könnte argumentieren, dass dies ein willkommenes Gegengewicht zu den übersättigten Fotos darstellt, zu denen manche andere Geräte neigen. So oder so, die Klarheit der Fotos war in der Regel hoch, und der 200-Megapixel-Modus ermöglichte eine oft verblüffende Detailgenauigkeit. Simon Chandler/Foundry Die beiden anderen rückwärtigen Objektive sorgten für gemischte Ergebnisse: Das 8-Megapixel-Ultraweitwinkelobjektiv ist sehr praktisch, wenn Sie gerne im Freien fotografieren. Trotz der deutlich geringeren Anzahl an Pixeln kann seine Leistung in der Regel mit der des 200-Megapixel-Hauptobjektivs mithalten. Was das 2-Megapixel-Makroobjektiv betrifft, so habe ich festgestellt, dass ich mit dem Hauptobjektiv in der Regel schönere Nahaufnahmen machen kann. Nur bei gutem natürlichem Licht funktioniert das Makroobjektiv besser. Während das Makroobjektiv als Spielerei betrachtet werden könnte, war ich von der 20-Megapixel-Selfie-Kamera des Note 14 Pro am meisten beeindruckt. Die Frontkamera ist in der Lage, tiefgründige und dennoch schmeichelhafte Selbstporträts aufzunehmen. Wenn Sie möchten, können Sie den “Verschönerungseffekt” sogar noch verstärken. Ein weiteres Lob möchte ich dem Nachtmodus des Smartphones aussprechen. Wie die Beispiele in der unten stehenden Galerie zeigen, leuchtet er Szenen bei schwachem Licht mit beachtlicher Lebendigkeit aus, ohne dass die Bilder künstlich oder trüb wirken. Akkulaufzeit & Aufladen 5.110-Milliamperestunden-Akku 45 Watt kabelgebundenes Turbo-Laden Mit dem gleichen 5.110-Milliamperestunden-Akku wie schon der Vorgänger ist das Note 14 Pro ein zuverlässiges Smartphone für alle, die draußen arbeiten oder damit unterwegs sind. Ich habe es bei mir zu Hause auf Herz und Nieren geprüft, während ein anderes Familienmitglied Spaß daran hatte, es zum Spielen zu verwenden. Ich war erfreut, dass es immer bis zum nächsten Tag durchgehalten hat. Bei geringerer Belastung hält das Note 14 Pro oft sogar zwei Tage lang ohne Aufladen durch. Wer die Bildwiederholfrequenz auf 120 Hertz begrenzt und das Smartphone recht intensiv nutzt, muss vielleicht schon am Ende des ersten Tages eine Steckdose aufsuchen. Dies spiegelt sich in den Ergebnissen des PCMark-Akkutests wider, die mit 13 Stunden und 24 Minuten sehr gut ausfallen. Dennoch reichen die Werte nicht ganz aus, um das Note 14 Pro unter den Smartphones mit der besten Akkulaufzeit zu platzieren. Simon Chandler/Foundry Es ist erwähnenswert, dass dem Note 14 Pro ein kabelgebundenes 45-Watt-Ladegerät beiliegt, im Gegensatz zum 67-Watt-Ladegerät, das Sie noch mit dem 13 Pro erhalten haben. Das mag wie eine Verschlechterung erscheinen und führt in der Praxis auch zu langsameren Ladezeiten. Aber ich fand, dass der Ladevorgang im Allgemeinen immer noch sehr schnell war. Ich habe das Smartphone in 15 Minuten von 0 auf 33 Prozent und in einer halben Stunde auf 64 Prozent aufgeladen. Die meisten Leute werden den Unterschied also nicht wirklich bemerken. Software & Apps Android 14 Drei Jahre lang grundlegende Android-Upgrades Vier Jahre Sicherheitsupgrades Auf den ersten Blick sieht es so aus, als ob das Note 14 Pro 5G vom letztjährigen Modell abweicht, da es mit HyperOS über Android 14 läuft. Das Vorgängermodell setzt noch auf MIUI 14 und Android 13. Aber wie bereits bei anderen Xiaomi-Handys unterscheidet sich HyperOS gar nicht so sehr von MIUI. Beide setzen auf ein sehr ähnliches Design und Layout, was bedeutet, dass es nicht besonders interessant oder attraktiv ist. Dennoch fand ich es größtenteils funktional und benutzerfreundlich, da Bildschirme, Apps und Seiten schnell geladen wurden. Es gibt einige subtile Aktualisierungen, wie das Dropdown-Kontrollzentrum, das einen willkommenen Shortcut für das Menü Einstellungen enthält. Und während sich manche Käufer über den Mangel an Anpassungsmöglichkeiten beschweren könnten, bietet Ihnen die Themes-App doch einige Möglichkeiten zur persönlichen Gestaltung. Simon Chandler/Foundry Erwähnenswert ist auch, dass das Smartphone neben den üblichen Google-Apps eine Reihe von Google-KI-Funktionen bietet. Dazu gehören Gemini (Googles ChatGPT-ähnlicher persönlicher Assistent) und Circle to Search, während AI Erase Pro und AI Image Expansion mit einem Update Ende Januar erscheinen sollen. Wie bei den meisten generativen KI-Funktionen auf Mobiltelefonen handelt es sich hierbei um hilfreiche Ergänzungen, ohne dass diese die Bedienung komplett revolutionieren würden. Positiv zu vermerken ist die Tatsache, dass Xiaomi sich verpflichtet hat, das Note 14 Pro drei Jahre lang mit grundlegenden Android-Updates zu versorgen. Hinzu kommen vier Jahre Sicherheitsupdates, was das Gerät für ein Mittelklasse-Gerät relativ zukunftssicher macht. Allerdings können Sie bei Samsung eine längere Unterstützung finden. Das Galaxy A16 5G bietet zum Beispiel sechs Jahre langen Support. Preis & Verfügbarkeit Das Redmi Note 14 Pro 5G ist in Deutschland seit dem 15. Januar zu einer UVP von 399,90 Euro erhältlich. Sie können es direkt bei Xiaomi zu diesem Preis kaufen. Bei Online-Versandhändler Amazon wird das Smartphone ab 399,99 Euro angeboten. Dafür erhalten Sie das Modell mit 8 Gigabyte RAM und 256 Gigabyte Speicherplatz. Interessanterweise kostet das mit 12 Gigabyte RAM und 512 Gigabyte Speicher ausgestattete Modell durch einen Rabatt bei Amazon ebenfalls 399,99 Euro. Mediamarkt ist sogar noch etwas günstiger: Hier wird das Redmi Note 14 Pro 5G schon ab 379,99 Euro angeboten. Dabei handelt es sich jedoch um das Modell mit 8 Gigabyte RAM und 256 Gigabyte Speicher. Eine Verdoppelung des internen Speichers für knapp 20 Euro mehr sowie 4 Gigabyte RAM zusätzlich erscheinen da lohnenswerter. Was die Alternativen angeht, so bietet das Samsung Galaxy A16 5G ähnliche Spezifikationen und ist 200 Euro günstiger. Das TCL 50 Pro Nxtpaper kostet aktuell 274,99 Euro und bietet den zusätzlichen Vorteil eines augenfreundlichen E-Reader-Modus (obwohl die Kameras nicht so gut sind). Es gibt zudem noch das hervorragende CMF Phone 1, das nur 224,66 Euro kostet. Sehen Sie sich unsere Liste der 11 besten Smartphones des vergangenen Jahres an, um unsere Top-Empfehlungen zu sehen. Simon Chandler/Foundry Sollten Sie das Xiaomi Redmi Note 14 Pro 5G kaufen? Wer ein Note 13 Pro besitzt, braucht nicht aufzurüsten. Aber das ändert nichts an der Tatsache, dass das Redmi Note 14 Pro 5G eines der besten Budget-Handys ist, die Sie aktuell kaufen können. Dies gilt zumindest, wenn Sie sich am oberen Ende dieser Preisklasse orientieren. Der Bildschirm ist für den Preis hervorragend, und auch der Akku und die Ladefunktionen sind beeindruckend. Hinzu kommen die leistungsstarke Hauptkamera auf der Rückseite, die benutzerfreundliche Software und die solide Leistung. Es ist empfehlenswert, aber Sie sollten sich die verschiedenen günstigeren Konkurrenten von Samsung, CMF und Motorola ansehen, bevor Sie einen Kauf tätigen. Xiaomi Redmi Note 14 Pro bei Amazon kaufen Technische Daten: Xiaomi Redmi Note 14 Pro 5G Android 14 mit HyperOS 6,67 Zoll 120 Hertz AMOLED Fingerabdruck-Sensor unter dem Bildschirm Gorilla Glass Victus 2 (nur Vorderseite) Mediatek Dimensity 7300 Ultra 8 Gigabyte LPDDR4X RAM 256 Gigabyte UFS 2.2 nicht erweiterbarer Speicher 200 Megapixel, f/1.65 Hauptkamera mit OIS 8 Megapixel, f/2.2 Ultraweitwinkel-Kamera 2 Megapixel, f/2.4 Makro-Kamera 20 Megapixel, f/2.2 Frontkamera Duale Stereo-Lautsprecher Dual-SIM 5G Wi-Fi 5 Bluetooth 5.4 IP68 USB-C 5.110 Milliamperestunden Akku 45 Watt kabelgebundenes Laden 162,33 x 74,42 x 8,4 Millimeter 190 Gramm Mitternachtsschwarz, Korallengrün, Lavendelviolett (PC-Welt) 

Xiaomi Redmi Note 14 Pro 5G im Test: Bestes Budget-Smartphone?​ Simon Chandler/Foundry

Auf einen Blick

Pro

Scharfes 6,67-Zoll-Display mit 120 Hertz

Gute Akkulaufzeit & Lademöglichkeiten

Leichtes & robustes Design

Solide Hauptkamera

Kontra

Mittelmäßige Sekundärkameras

Gewöhnungsbedürftige Oberfläche

Teurer als die Konkurrenten

Fazit

Das Redmi Note 14 Pro 5G ist eine fantastische Option für alle, die starke Funktionen zu einem erschwinglichen Preis suchen. Sein 6,67-Zoll-AMOLED-Display ist ein Hinkucker, während die Kamera, die Software und der Akku allesamt überdurchschnittlich gut sind.

Xiaomis Untermarke Redmi hat sich im Laufe der Jahre eine Nische als Anbieter von Smartphones mit hervorragendem Preis-Leistungs-Verhältnis gesichert. Das Redmi Note 13 Pro erhielt von uns im letzten Jahr eine hervorragende 4,5-Sterne-Bewertung, und auch Xiaomis jüngste Vorstöße in den Bereich der preiswerten Tablets haben uns beeindruckt.

In diesem Jahr will das Unternehmen mit dem Smartphone Redmi Note 14 Pro 5G an diese Tradition anknüpfen. Es ist ein weiteres Android-Gerät, das größtenteils Premium-Funktionen zu einem erschwinglichen Preis bietet.

Wie bei früheren Generationen erscheint das Redmi Note 14 Pro 5G neben anderen Modellen. Darunter befindet sich das Note 14 Pro+ 5G und die Basisvariante Redmi Note 14. Sie alle sind zu unterschiedlichen Preisen und mit unterschiedlichen Chips, Kameraobjektiven und Akkus ausgestattet.

In diesem Testbericht gehen wir der Frage nach, ob das Note 14 Pro 5G für nur 399 Euro genug kann, um sich von der wachsenden Zahl attraktiver und günstiger Android-Smartphones abzuheben. Wir werfen einen Blick auf die Leistung, die Kameras, das Display, den Akku und die Software und beantworten die Frage, ob es sich lohnt, das Gerät seinen zahlreichen Konkurrenten vorzuziehen.

Design & Verarbeitung

Schlankes, geschwungenes Gehäuse mit schillernden Farben

Selfie-Kamera hinter dem Display

IP68-Einstufung

Das Redmi Note 14 Pro 5G unterscheidet sich deutlich von der eher kantigen Bauweise des 13 Pro, da sein Gehäuse ein konischeres, geschwungenes Design aufweist.

Während das 13 Pro im Wesentlichen die flacheren Konturen der jüngsten iPhone-Modelle nachahmte, setzt das 14 Pro auf weichere Ecken und Kanten. Ähnlich verhält es sich mit dem rückwärtigen Kameramodul, das nun in einer kreisrunden Ausbuchtung untergebracht ist und nicht mehr in einem klassischen Quadrat. Das Kameramodul befindet sich außerdem eher in der Mitte der Rückseite, was vielleicht symmetrischer aussieht, aber die Aufnahme von Fotos etwas erschweren kann.

Simon Chandler/Foundry

Obwohl die angebotene Farbpalette des Redmi Note 14 Pro 5G recht begrenzt ist, hat uns das Korallengrün unseres Testmusters sehr gut gefallen. Es hat einen subtilen Opal-Schimmer, der je nach Lichteinfall den Farbton ändert, während die Farbe selbst lebendig und dennoch geschmackvoll zurückhaltend ist.

Sie ergänzt die dünnen Ränder des 6,67-Zoll-Displays und den allgemeinen Minimalismus des Smartphones. Gleichzeitig ermöglicht Ihnen die Farbgebung, ein Statement abzugeben, ohne zu viel zu sagen.

Das Gerät sieht nicht nur ziemlich schick aus, es ist auch kompakt und leicht. Es wiegt nur 190 Gramm, und obwohl es ein ziemlich großes Display hat, fühlt es sich dank des dünnen Rahmens nicht überdimensioniert oder unhandlich an.

Ein weiterer Pluspunkt ist, dass das Redmi Note 14 Pro 5G für ein Mittelklassegerät sehr widerstandsfähig ist, mit einer IP68-Einstufung und einem Display aus Corning Gorilla Glass Victus 2. Ich habe mich auch gefreut, dass in der Verpackung zudem eine schwarze Silikonhülle enthalten ist. Auf dem Display ist ebenfalls schon eine Schutzfolie angebracht.

Bildschirm & Lautsprecher

6,67 Zoll CrystalRes AMOLED-Display

Zwei Dolby Atmos-Lautsprecher

120 Hertz Bildwiederholfrequenz

Wie bei so vielen Budget- und Mittelklasse-Handys dieser Tage ist das Display des Redmi Note 14 Pro wohl sein bestes Feature: Der Bildschirm setzt auf ein 6,67 Zoll großes AMOLED-Panel, das eine Bildwiederholfrequenz von bis zu 120 Hertz unterstützt und eine Spitzenhelligkeit von 3000 nits erreicht. Dies ermöglicht eine sehr flüssige und scharfe Darstellung, was auch durch die 1,5K-Auflösung von 2.712 x 1.220 Pixeln unterstützt wird.

Obwohl ich auf Smartphones normalerweise keine Filme anschaue, hat das Smartphone bei der Wiedergabe von Inhalten auf Netflix, YouTube und Prime Video hervorragende Arbeit geleistet. Das Kontrastverhältnis von 5.000.000:1 führt dazu, dass Inhalte sehr farbenfroh dargestellt werden. Und wenn Sie unterwegs sind, werden Sie Ihren Fernseher zu Hause wahrscheinlich nicht so sehr vermissen.

Simon Chandler/Foundry

Ganz allgemein macht die 120 Hertz-Bildwiederholrate des Smartphones das Scrollen reaktionsschneller und flüssiger. Text und Bilder erscheinen auf angenehme Weise, und es gibt eine Option, mit der Sie festlegen können, welche Apps die maximale Bildwiederholfrequenz nutzen und welche nicht. So können Sie den Akku schonen und gleichzeitig das Surfen in vollen Zügen genießen.

Die Qualität des Bildschirms wird durch die Dolby Atmos-Stereolautsprecher ergänzt, die sowohl für Musikfans als auch für Filmliebhaber einen großartigen Klang liefern.

Ich fand, dass selbst bei ziemlich komplexer Musik die verschiedenen Ebenen leicht und deutlich hörbar waren, wobei die Stereolautsprecher ein Gefühl von Tiefe und Dreidimensionalität vermittelten. Ja, sie kommen nicht wirklich mit höheren Lautstärken zurecht und sie sind nicht ganz auf Premium-Niveau. Doch sie werden die meisten Käufer sehr zufrieden stellen.

Spezifikationen & Leistung

Mediatek Dimensity 7300 Ultra

8 Gigabyte RAM und 256 Gigabyte Speicher

Kein micro-SD-Kartensteckplatz

Mit 8 Gigabyte RAM als Standard und einem Mediatek Dimensity 7300 Ultra Chip an Bord ist das Redmi Note 14 Pro für ein Budget-Handy sehr leistungsfähig.

Für die meisten Aufgaben war es perfekt geeignet, Apps und Webseiten wurden ohne spürbare Verzögerungen geöffnet. Auch als Spiele-Plattform fand ich das Redmi Note 14 Pro 5G mehr als ausreichend schnell, Gelegenheitsspiele wie “Subway Surfers” und “Fortnite” liefen alle reibungslos.

Allerdings habe ich festgestellt, dass es ein wenig zu kämpfen hat, wenn man dem Smartphone mehr abverlangt. Einige der grafisch anspruchsvolleren Android-Spiele, darunter “Asphalt 9” und “Shadowgun Legends”, liefen nicht ganz ohne Verzögerungen. Sie waren trotzdem unterhaltsam, aber wer das bestmögliche Android-Spielerlebnis haben möchte, muss sich wahrscheinlich für ein hochwertigeres Handy entscheiden.

Simon Chandler/Foundry

Während die Leistung des Note 14 Pro im Allgemeinen gut ist, ist es etwas enttäuschend, dass das Smartphone keinen microSD-Slot hat.

Das ist heutzutage üblich, könnte aber ein Problem darstellen, da die Basisversion des Smartphones nur 256 Gigabyte internen Speicher beinhaltet. Benutzer, die dazu neigen, ihre Geräte mit Fotos, Musik und anderen Dateien vollzustopfen, müssen sich also möglicherweise etwas zurückhalten.

Kameras

200-Megapixel-Hauptkamera auf der Rückseite

8-Megapixel-Ultraweitwinkel- und 2-Megapixel-Makroobjektiv

20-Megapixel-Selfie-Kamera

Das Redmi Note 14 Pro 5G hebt sich durch seine 200-Megapixel-Hauptkamera mit Weitwinkelobjektiv von der Masse der Mittelklasse-Handys ab.

Ausgestattet mit optischer Bildstabilisierung (OIS) und End-to-End AI Remosaic Technologie (die eine parallele statt sequentielle Verarbeitung der Bilder ermöglicht), kann das Redmi Note 14 Pro 5G eine Vielzahl von Szenen mit einem Minimum an Aufwand aufnehmen. Ergänzt wird diese Linse durch ein 8-Megapixel-Ultraweitwinkelobjektiv für Panoramaaufnahmen sowie eine 2 Megapixel Makrokamera für extreme Nahaufnahmen.

Im Großen und Ganzen hatte ich viel Spaß mit der Hauptkamera des Note 14 Pro. Unter den meisten Bedingungen erhielt ich gute Aufnahmen, wobei das Hauptobjektiv eine natürliche Farbbalance bietet. Ich fand zwar, dass einige Landschaftsaufnahmen etwas zu ungesättigt erschienen. Aber man könnte argumentieren, dass dies ein willkommenes Gegengewicht zu den übersättigten Fotos darstellt, zu denen manche andere Geräte neigen.

So oder so, die Klarheit der Fotos war in der Regel hoch, und der 200-Megapixel-Modus ermöglichte eine oft verblüffende Detailgenauigkeit.

Simon Chandler/Foundry

Die beiden anderen rückwärtigen Objektive sorgten für gemischte Ergebnisse: Das 8-Megapixel-Ultraweitwinkelobjektiv ist sehr praktisch, wenn Sie gerne im Freien fotografieren. Trotz der deutlich geringeren Anzahl an Pixeln kann seine Leistung in der Regel mit der des 200-Megapixel-Hauptobjektivs mithalten.

Was das 2-Megapixel-Makroobjektiv betrifft, so habe ich festgestellt, dass ich mit dem Hauptobjektiv in der Regel schönere Nahaufnahmen machen kann. Nur bei gutem natürlichem Licht funktioniert das Makroobjektiv besser.

Während das Makroobjektiv als Spielerei betrachtet werden könnte, war ich von der 20-Megapixel-Selfie-Kamera des Note 14 Pro am meisten beeindruckt. Die Frontkamera ist in der Lage, tiefgründige und dennoch schmeichelhafte Selbstporträts aufzunehmen. Wenn Sie möchten, können Sie den “Verschönerungseffekt” sogar noch verstärken.

Ein weiteres Lob möchte ich dem Nachtmodus des Smartphones aussprechen. Wie die Beispiele in der unten stehenden Galerie zeigen, leuchtet er Szenen bei schwachem Licht mit beachtlicher Lebendigkeit aus, ohne dass die Bilder künstlich oder trüb wirken.

Akkulaufzeit & Aufladen

5.110-Milliamperestunden-Akku

45 Watt kabelgebundenes Turbo-Laden

Mit dem gleichen 5.110-Milliamperestunden-Akku wie schon der Vorgänger ist das Note 14 Pro ein zuverlässiges Smartphone für alle, die draußen arbeiten oder damit unterwegs sind. Ich habe es bei mir zu Hause auf Herz und Nieren geprüft, während ein anderes Familienmitglied Spaß daran hatte, es zum Spielen zu verwenden. Ich war erfreut, dass es immer bis zum nächsten Tag durchgehalten hat.

Bei geringerer Belastung hält das Note 14 Pro oft sogar zwei Tage lang ohne Aufladen durch. Wer die Bildwiederholfrequenz auf 120 Hertz begrenzt und das Smartphone recht intensiv nutzt, muss vielleicht schon am Ende des ersten Tages eine Steckdose aufsuchen.

Dies spiegelt sich in den Ergebnissen des PCMark-Akkutests wider, die mit 13 Stunden und 24 Minuten sehr gut ausfallen. Dennoch reichen die Werte nicht ganz aus, um das Note 14 Pro unter den Smartphones mit der besten Akkulaufzeit zu platzieren.

Simon Chandler/Foundry

Es ist erwähnenswert, dass dem Note 14 Pro ein kabelgebundenes 45-Watt-Ladegerät beiliegt, im Gegensatz zum 67-Watt-Ladegerät, das Sie noch mit dem 13 Pro erhalten haben. Das mag wie eine Verschlechterung erscheinen und führt in der Praxis auch zu langsameren Ladezeiten. Aber ich fand, dass der Ladevorgang im Allgemeinen immer noch sehr schnell war.

Ich habe das Smartphone in 15 Minuten von 0 auf 33 Prozent und in einer halben Stunde auf 64 Prozent aufgeladen. Die meisten Leute werden den Unterschied also nicht wirklich bemerken.

Software & Apps

Android 14

Drei Jahre lang grundlegende Android-Upgrades

Vier Jahre Sicherheitsupgrades

Auf den ersten Blick sieht es so aus, als ob das Note 14 Pro 5G vom letztjährigen Modell abweicht, da es mit HyperOS über Android 14 läuft. Das Vorgängermodell setzt noch auf MIUI 14 und Android 13.

Aber wie bereits bei anderen Xiaomi-Handys unterscheidet sich HyperOS gar nicht so sehr von MIUI. Beide setzen auf ein sehr ähnliches Design und Layout, was bedeutet, dass es nicht besonders interessant oder attraktiv ist.

Dennoch fand ich es größtenteils funktional und benutzerfreundlich, da Bildschirme, Apps und Seiten schnell geladen wurden. Es gibt einige subtile Aktualisierungen, wie das Dropdown-Kontrollzentrum, das einen willkommenen Shortcut für das Menü Einstellungen enthält. Und während sich manche Käufer über den Mangel an Anpassungsmöglichkeiten beschweren könnten, bietet Ihnen die Themes-App doch einige Möglichkeiten zur persönlichen Gestaltung.

Simon Chandler/Foundry

Erwähnenswert ist auch, dass das Smartphone neben den üblichen Google-Apps eine Reihe von Google-KI-Funktionen bietet. Dazu gehören Gemini (Googles ChatGPT-ähnlicher persönlicher Assistent) und Circle to Search, während AI Erase Pro und AI Image Expansion mit einem Update Ende Januar erscheinen sollen.

Wie bei den meisten generativen KI-Funktionen auf Mobiltelefonen handelt es sich hierbei um hilfreiche Ergänzungen, ohne dass diese die Bedienung komplett revolutionieren würden.

Positiv zu vermerken ist die Tatsache, dass Xiaomi sich verpflichtet hat, das Note 14 Pro drei Jahre lang mit grundlegenden Android-Updates zu versorgen. Hinzu kommen vier Jahre Sicherheitsupdates, was das Gerät für ein Mittelklasse-Gerät relativ zukunftssicher macht.

Allerdings können Sie bei Samsung eine längere Unterstützung finden. Das Galaxy A16 5G bietet zum Beispiel sechs Jahre langen Support.

Preis & Verfügbarkeit

Das Redmi Note 14 Pro 5G ist in Deutschland seit dem 15. Januar zu einer UVP von 399,90 Euro erhältlich. Sie können es direkt bei Xiaomi zu diesem Preis kaufen. Bei Online-Versandhändler Amazon wird das Smartphone ab 399,99 Euro angeboten. Dafür erhalten Sie das Modell mit 8 Gigabyte RAM und 256 Gigabyte Speicherplatz. Interessanterweise kostet das mit 12 Gigabyte RAM und 512 Gigabyte Speicher ausgestattete Modell durch einen Rabatt bei Amazon ebenfalls 399,99 Euro.

Mediamarkt ist sogar noch etwas günstiger: Hier wird das Redmi Note 14 Pro 5G schon ab 379,99 Euro angeboten. Dabei handelt es sich jedoch um das Modell mit 8 Gigabyte RAM und 256 Gigabyte Speicher. Eine Verdoppelung des internen Speichers für knapp 20 Euro mehr sowie 4 Gigabyte RAM zusätzlich erscheinen da lohnenswerter.

Was die Alternativen angeht, so bietet das Samsung Galaxy A16 5G ähnliche Spezifikationen und ist 200 Euro günstiger. Das TCL 50 Pro Nxtpaper kostet aktuell 274,99 Euro und bietet den zusätzlichen Vorteil eines augenfreundlichen E-Reader-Modus (obwohl die Kameras nicht so gut sind). Es gibt zudem noch das hervorragende CMF Phone 1, das nur 224,66 Euro kostet.

Sehen Sie sich unsere Liste der 11 besten Smartphones des vergangenen Jahres an, um unsere Top-Empfehlungen zu sehen.

Simon Chandler/Foundry

Sollten Sie das Xiaomi Redmi Note 14 Pro 5G kaufen?

Wer ein Note 13 Pro besitzt, braucht nicht aufzurüsten. Aber das ändert nichts an der Tatsache, dass das Redmi Note 14 Pro 5G eines der besten Budget-Handys ist, die Sie aktuell kaufen können. Dies gilt zumindest, wenn Sie sich am oberen Ende dieser Preisklasse orientieren.

Der Bildschirm ist für den Preis hervorragend, und auch der Akku und die Ladefunktionen sind beeindruckend. Hinzu kommen die leistungsstarke Hauptkamera auf der Rückseite, die benutzerfreundliche Software und die solide Leistung.

Es ist empfehlenswert, aber Sie sollten sich die verschiedenen günstigeren Konkurrenten von Samsung, CMF und Motorola ansehen, bevor Sie einen Kauf tätigen.

Xiaomi Redmi Note 14 Pro bei Amazon kaufen

Technische Daten: Xiaomi Redmi Note 14 Pro 5G

Android 14 mit HyperOS

6,67 Zoll 120 Hertz AMOLED

Fingerabdruck-Sensor unter dem Bildschirm

Gorilla Glass Victus 2 (nur Vorderseite)

Mediatek Dimensity 7300 Ultra

8 Gigabyte LPDDR4X RAM

256 Gigabyte UFS 2.2 nicht erweiterbarer Speicher

200 Megapixel, f/1.65 Hauptkamera mit OIS

8 Megapixel, f/2.2 Ultraweitwinkel-Kamera

2 Megapixel, f/2.4 Makro-Kamera

20 Megapixel, f/2.2 Frontkamera

Duale Stereo-Lautsprecher

Dual-SIM

5G

Wi-Fi 5

Bluetooth 5.4

IP68

USB-C

5.110 Milliamperestunden Akku

45 Watt kabelgebundenes Laden

162,33 x 74,42 x 8,4 Millimeter

190 Gramm

Mitternachtsschwarz, Korallengrün, Lavendelviolett

(PC-Welt)

Xiaomi Redmi Note 14 Pro 5G im Test: Bestes Budget-Smartphone?​ Weiterlesen »

Was macht ein Automation Engineer?​

Allgemein

Weil Automatisierung zum Standard wird, sind Automation Engineers zunehmend gefragt. Foto: Gorodenkoff – shutterstock.com Unabhängig davon, wie man über Automatisierung denken mag: Sie wird sich durchsetzen. Längst nutzen Unternehmen Automatisierungstechnologien, um IT-, Geschäfts-, Entwicklungs- und Serviceprozesse zu rationalisieren. Deshalb wird auch in nahezu jeder Branche händeringend nach Automation Engineers gesucht. Sie sollen dabei unterstützen, entsprechende Initiativen zu vereinfachen, zu managen und zu im Blick zu behalten. Automation Engineer – Definition Außerhalb der Fertigungsindustrie (wo Automatisierung schon seit einigen Jahrzehnten einen Grundpfeiler des Geschäfts bildet), konzentriert sich Automatisierung in der Regel auf IT-Services und die Qualitätsprüfung automatisierter Prozesse. Automation Engineers: entwickeln, implementieren und warten Automatisierungstechnologien und beseitigen Fehler, Mängel und Probleme bei der Produkt- oder Softwareentwicklung sowie innerhalb von Geschäfts- oder Kundendienstprozessen. Indem sie redundante oder inkonsistente manuelle Prozesse rationalisiert, sorgt die Rolle des Automation Engineer im Idealfall dafür, die Mitarbeiterbelastung zu reduzieren und die Effizienz und Zuverlässigkeit zu optimieren. Automation Engineering – Aufgaben Innerhalb der IT stellt ein Automation Engineer automatisierte Lösungen für Softwareprozesse bereit. Darüber hinaus arbeitet er in engem Austausch mit diversen anderen Teams, um Probleme zu erkennen und zu beseitigen. Dabei kann es um Hard- oder Software gehen oder auch darum, Services oder Geschäftsprozesse zu automatisieren. Die Aufgaben eines Automation Engineer variieren je nach Unternehmen und Branche – im Allgemeinen kommen jedoch folgende Aufgaben auf Spezialisten dieser Art zu: Möglichkeiten identifizieren, um Softwareprozesse zu automatisieren; QA-Tests mithilfe von automatisierten Skripten entwerfen und durchführen; Tests in den Bereich Datenbanken, Systeme, Netzwerke, Anwendungen, Hardware und Software durchführen; Fehler und Qualitätsprobleme in Entwicklungs-, Service- oder Geschäftsprozessen identifizieren; Anwendungen und Datenbanken installieren, die für die Automatisierung relevant sind; Mit anderen Geschäftsbereichen zusammenarbeiten, um den Nutzen von Automatisierung besser zu verstehen; Anforderungen von Kunden oder Endbenutzern erfassen, um optimale Automatisierungslösungen zu entwickeln. Automation Engineer – Gehalt Beim Karriereportal Stepstone sind vor allem gefragt: Test Automation Engineers und Build Automation Engineers. Dabei verdienen Test Automation Engineers in Deutschland im Schnitt 51.500 Euro, die Gehaltsspanne reicht von 45.400 bis 62.000 Euro. Build Automation Engineers bringen es auf ein Mediangehalt von 58.700 Euro, die Gehaltsspanne reicht von 51.200 Euro bis 70.300 Euro. Automation Engineer – Skills Automation Engineers benötigt ein breites Spektrum an technischen Kompetenzen und Soft Skills. Einerseits müssen sie Systeme, Netzwerke, Hardware und Software verstehen. Andererseits auch mit anderen Geschäftsbereichen, Kunden und Auftraggebern kommunizieren und zusammenarbeiten können. Eine Tätigkeit als Automation Engineer erfordert im Regelfall auch Kenntnisse in Programmiersprachen wie C#, SQL und Java – die Voraussetzungen in diesem Bereich variieren allerdings je nach Branche. Allgemein gesprochen sollten Automation Engineers Kompetenzen in folgenden Bereichen mitbringen: Automatisierung und Robotik; Künstliche Intelligenz und Machine Learning; Kenntnisse in der Programmierarbeit; Projektmanagement; Agile, Cloud und DevOps; Analytische Fähigkeiten und Problemlösungskompetenz; Kommunikations- und Führungsfähigkeiten; Erfahrung in Informatik oder Engineering. Zertifizierungen im Bereich Automatisierung Automatisierung ist ein relativ junges Feld, es gibt jedoch immer mehr Zertifizierungen, mit denen Sie Ihre Kenntnisse bestätigen lassen können. Zum Beispiel: ISA Certified Automation Professional (CAP) ISA Certified Control Systems Technician (CCST) ISA Control Systems Engineer (CSE) IIST Certified Software Test Automation Specialist (CSTAS) IIST Certified Software Test Automation Architect (CSTAA) ISTQB Certified Security Tester (CT-SEC) ISTQB Certified Tester Foundation Level Agile Tester (CTFL-AT) QAI Certified Associate in Software Testing (CAST) QAI Quality Assurance Institute Certified Software Tester (CSTE) QAI Certified Manager of Software Testing (CMST) (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Was macht ein Automation Engineer?​ Weil Automatisierung zum Standard wird, sind Automation Engineers zunehmend gefragt.
Foto: Gorodenkoff – shutterstock.com

Unabhängig davon, wie man über Automatisierung denken mag: Sie wird sich durchsetzen. Längst nutzen Unternehmen Automatisierungstechnologien, um IT-, Geschäfts-, Entwicklungs- und Serviceprozesse zu rationalisieren. Deshalb wird auch in nahezu jeder Branche händeringend nach Automation Engineers gesucht. Sie sollen dabei unterstützen, entsprechende Initiativen zu vereinfachen, zu managen und zu im Blick zu behalten.

Automation Engineer – Definition

Außerhalb der Fertigungsindustrie (wo Automatisierung schon seit einigen Jahrzehnten einen Grundpfeiler des Geschäfts bildet), konzentriert sich Automatisierung in der Regel auf IT-Services und die Qualitätsprüfung automatisierter Prozesse.

Automation Engineers:

entwickeln, implementieren und warten Automatisierungstechnologien und

beseitigen Fehler, Mängel und Probleme bei der Produkt- oder Softwareentwicklung sowie

innerhalb von Geschäfts- oder Kundendienstprozessen.

Indem sie redundante oder inkonsistente manuelle Prozesse rationalisiert, sorgt die Rolle des Automation Engineer im Idealfall dafür,

die Mitarbeiterbelastung zu reduzieren und

die Effizienz und Zuverlässigkeit zu optimieren.

Automation Engineering – Aufgaben

Innerhalb der IT stellt ein Automation Engineer automatisierte Lösungen für Softwareprozesse bereit. Darüber hinaus arbeitet er in engem Austausch mit diversen anderen Teams, um Probleme zu erkennen und zu beseitigen. Dabei kann es um Hard- oder Software gehen oder auch darum, Services oder Geschäftsprozesse zu automatisieren.

Die Aufgaben eines Automation Engineer variieren je nach Unternehmen und Branche – im Allgemeinen kommen jedoch folgende Aufgaben auf Spezialisten dieser Art zu:

Möglichkeiten identifizieren, um Softwareprozesse zu automatisieren;

QA-Tests mithilfe von automatisierten Skripten entwerfen und durchführen;

Tests in den Bereich Datenbanken, Systeme, Netzwerke, Anwendungen, Hardware und Software durchführen;

Fehler und Qualitätsprobleme in Entwicklungs-, Service- oder Geschäftsprozessen identifizieren;

Anwendungen und Datenbanken installieren, die für die Automatisierung relevant sind;

Mit anderen Geschäftsbereichen zusammenarbeiten, um den Nutzen von Automatisierung besser zu verstehen;

Anforderungen von Kunden oder Endbenutzern erfassen, um optimale Automatisierungslösungen zu entwickeln.

Automation Engineer – Gehalt

Beim Karriereportal Stepstone sind vor allem gefragt:

Test Automation Engineers und

Build Automation Engineers.

Dabei verdienen Test Automation Engineers in Deutschland im Schnitt 51.500 Euro, die Gehaltsspanne reicht von 45.400 bis 62.000 Euro.

Build Automation Engineers bringen es auf ein Mediangehalt von 58.700 Euro, die Gehaltsspanne reicht von 51.200 Euro bis 70.300 Euro.

Automation Engineer – Skills

Automation Engineers benötigt ein breites Spektrum an technischen Kompetenzen und Soft Skills. Einerseits müssen sie Systeme, Netzwerke, Hardware und Software verstehen. Andererseits auch mit anderen Geschäftsbereichen, Kunden und Auftraggebern kommunizieren und zusammenarbeiten können.

Eine Tätigkeit als Automation Engineer erfordert im Regelfall auch Kenntnisse in Programmiersprachen wie C#, SQL und Java – die Voraussetzungen in diesem Bereich variieren allerdings je nach Branche.

Allgemein gesprochen sollten Automation Engineers Kompetenzen in folgenden Bereichen mitbringen:

Automatisierung und Robotik;

Künstliche Intelligenz und Machine Learning;

Kenntnisse in der Programmierarbeit;

Projektmanagement;

Agile, Cloud und DevOps;

Analytische Fähigkeiten und Problemlösungskompetenz;

Kommunikations- und Führungsfähigkeiten;

Erfahrung in Informatik oder Engineering.

Zertifizierungen im Bereich Automatisierung

Automatisierung ist ein relativ junges Feld, es gibt jedoch immer mehr Zertifizierungen, mit denen Sie Ihre Kenntnisse bestätigen lassen können. Zum Beispiel:

ISA Certified Automation Professional (CAP)

ISA Certified Control Systems Technician (CCST)

ISA Control Systems Engineer (CSE)

IIST Certified Software Test Automation Specialist (CSTAS)

IIST Certified Software Test Automation Architect (CSTAA)

ISTQB Certified Security Tester (CT-SEC)

ISTQB Certified Tester Foundation Level Agile Tester (CTFL-AT)

QAI Certified Associate in Software Testing (CAST)

QAI Quality Assurance Institute Certified Software Tester (CSTE)

QAI Certified Manager of Software Testing (CMST)

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Was macht ein Automation Engineer?​ Weiterlesen »

Bezaubernd gefloppt: 8 Apple-Produkte, die keiner wollte​

Allgemein

“Das kann dann mal weg” gibt’s auch bei Apple – wie diese Beispiele zeigen. Foto: sophiecat – shutterstock.comDenkt man an großartiges Apple-Design, fallen einem eine Reihe von Devices ein: iPhone 14, iPad Pro, AirPods, der iMac und unter Umständen sogar der Mac Studio. Aber auch bei Apple gab und gibt es immer wieder Produkte, die trotz – oder gerade wegen – ihres Designs nicht bei den Kunden ankommen. Die folgenden acht Apple-Produkte fallen in diese unglückliche Kategorie.Lisa (1983)Einerseits war Apples Lisa vom Start weg zum Scheitern verurteilt, andererseits ist es wohl der einflussreichste Computer, den Apple je gebaut hat. Der Rechner – benannt nach der Tochter von Steve Jobs – etablierte im Jahr 1983 nicht nur eine radikal neue Designsprache, sondern bot unter anderem auch eine Maus und eine der ersten grafischen Benutzeroberflächen überhaupt.Allerdings waren der Verkaufspreis von 10.000 Dollar und das komplexe Betriebssystem massive Verkaufshemmnisse für Lisa. Das nur ein Jahr später folgende Debüt des Macintosh machte die Sache auch nicht besser. Twentieth Anniversary Mac (1997)Es gibt Produkte, die sind ihrer Zeit voraus. Beim Twentieth Anniversary Mac (TAM) ist irgendwie das Gegenteil der Fall. Er kam 1997 auf den Markt, zeichnete sich dabei jedoch vor allem durch die Attribute “untermotorisiert” und “überteuert” aus. Der Einführungspreis von 9.000 Dollar sank dann auch innerhalb nur eines Jahres auf rund 2.000 Dollar, dann wurde der “Sonder-Mac” eingestampft. Immerhin hatte er ein extravagantes Gehäuse zu bieten, das eine Hommage an das legendäre Mac-Design darstellte, dessen Einfluß bis heute bei den Produkten von Apple zu spüren, beziehungsweise zu sehen ist. Bald feiert der Mac übrigens sein 40-jähriges Jubiläum – Zeit für ein Revival? LRT: I remember the 20th anniversary mac, what a hideous thing. Of course, when it came out, it showed up on the SEINFELD set, and that was probably the most memorable thing about it pic.twitter.com/sWNcNhp0XZ— Mike Toole (@MichaelToole) September 15, 2020 eMate 300 (1997)Ende der 1990er Jahre, lange vor iPhone und iPad, hieß Apples ultraportabler Computer eMate 300: Ein preisgünstiger Laptop (oder je nach Perspektive ein aufgebohrter PDA) für den Bildungsbereich, der mit dem Newton-Betriebssystem lief. Es bot einen 6,8-Zoll-Bildschirm, einen Stift und eine vollwertige Tastatur – und war in transparentes Plastik gehüllt, lange bevor diese Art des Designs cool wurde.Leider hatte der eMate 300 dennoch keine Chance. In dem Fall lag es allerdings weniger am Device selbst, sondern an der Orientierungslosigkeit von Apple zu dieser Zeit: Das kleine Notebook wurde nicht gut vermarktet und das Betriebssystem war zum Scheitern verurteilt. Nicht einmal ein Jahr nach seiner Einführung bereitete Steve Jobs dem eMate 300 den Garaus. This is our Apple eMate 300 prototype. Very few of these transparent eMates were ever produced, making this one a very rare exhibit. The eMate perhaps inspired the design of the clamshell iBook laptops from the #90s. #MuseumFromHomeLearn more: https://t.co/yVUHCAMVnz pic.twitter.com/gLPJdosX4v— Computing History (@computermuseum) April 18, 2020 Power Mac G4 Cube (2000)Der Power Mac G4 Cube zählt mit seiner Acryl-Ummantelung wohl zu den ästhetischsten Desktop-Computern, die jemals hergestellt wurden (zumindest aus Apple-Jünger-Perspektive). Diesen PC wollte man nicht mehr unter dem Schreibtisch verstecken – im Jahr 2000 keine Selbstverständlichkeit. Kaufen wollten ihn die Kunden trotzdem nicht, weil er zu teuer, zu schwach auf der Brust und zu unpraktisch war. Nach einem Jahr verschwand der Power Mac G4 Cube sang- und klanglos aus dem Apple-Programm. Man hat nie wieder von ihm gehört. On this day in 2000, Apple announced the Power Mac G4 Cube. pic.twitter.com/BBXNYqwyqm— Today in Tech History (@DayTechHistory) July 19, 2022 iPod Hi-Fi (2006)Als der iPod auf seinem Höhepunkt war, waren auch Lautsprecher und Docks der letzte Schrei. Natürlich wollte auch Apple einen Stück vom Kuchen abhaben. Also brachte der Konzern im Februar 2006 den iPod Hi-Fi auf den Markt – einen minimalistischen Lautsprecher mit zwei Griffen, speziell entwickelten Breitbandlautsprechern und einem darauf abgestimmten Basssystem.Zwar wurde das Device für seinen Klang und seine Verarbeitungsqualität gelobt, es war aber letztendlich zu teuer (350 Dollar) und zu hochwertig als “Accessoire” für den simplen iPod. Mac Pro (2013)Als Apple den Mac Pro auf der WWDC 2013 vorstellte, war man sich nicht sicher, was genau das war – nur, dass es anders war. Nicht umsonst bekam der 2013er Mac Pro den unschicken Spitznamen “Trashcan” verpasst. Und die Ähnlichkeiten lassen sich beim besten Willen nicht leugnen. Dieses Design wurde dem Mac Pro dann aber auch zum Verhängnis: Er war nicht sonderlich modular aufgebaut oder aufrüstbar konzipiert, konnte seine High-End-Chips nicht angemessen kühlen und kostete dann auch noch knapp 3.000 Dollar. Diejenigen, die das Ding trotzdem gekauft haben, waren dennoch fasziniert. The Mac Pro has been upgraded from a trash can to a cheese grater. #WWDC19 pic.twitter.com/MMJXcRFgAP— Eric Kurn (@SaluteTheKurnel) June 3, 2019 iPhone 5c (2013)Im Jahr 2013 debütierte mit dem iPhone 5c das erste Budget-Smartphone aus Cupertino. Es bot das gleiche Display und eine ähnliche Kamera wie das iPhone 5S – ließ aber einige wichtige Funktionen vermissen, darunter Touch ID, den damals neuesten A7-Prozessor und einen Dual-LED-Blitz.Entsprechend verhalten kam das Gerät bei den Kunden an – trotz seines leichten Designs und den bunten Polycarbonat-Gehäuseoptionen. Deren Einflüsse sind noch heute zu spüren, auch wenn das iPhone 5C schon nach einem Jahr wieder ausgemustert wurde. HomePod (2017)Trotz seines gediegenen Designs und seines guten Klangs war der ursprüngliche HomePod ein Blindgänger.Preis (349 Euro), Timing und begrenzte Funktionalität hielten den HomePod in den Händlerregalen. Dennoch dauert es drei Jahre, bevor Apple ein Einsehen hatte und das Produkt cancelte. Nur um es dann Anfang 2023 in zweiter Generation (und zum gleichen Preis) zurückzubringen. Wie lange es diesmal dauert, bis der Stecker gezogen wird, bleibt abzuwarten. Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Macworld. 

Bezaubernd gefloppt: 8 Apple-Produkte, die keiner wollte​ “Das kann dann mal weg” gibt’s auch bei Apple – wie diese Beispiele zeigen.
Foto: sophiecat – shutterstock.comDenkt man an großartiges Apple-Design, fallen einem eine Reihe von Devices ein: iPhone 14, iPad Pro, AirPods, der iMac und unter Umständen sogar der Mac Studio. Aber auch bei Apple gab und gibt es immer wieder Produkte, die trotz – oder gerade wegen – ihres Designs nicht bei den Kunden ankommen. Die folgenden acht Apple-Produkte fallen in diese unglückliche Kategorie.Lisa (1983)Einerseits war Apples Lisa vom Start weg zum Scheitern verurteilt, andererseits ist es wohl der einflussreichste Computer, den Apple je gebaut hat. Der Rechner – benannt nach der Tochter von Steve Jobs – etablierte im Jahr 1983 nicht nur eine radikal neue Designsprache, sondern bot unter anderem auch eine Maus und eine der ersten grafischen Benutzeroberflächen überhaupt.Allerdings waren der Verkaufspreis von 10.000 Dollar und das komplexe Betriebssystem massive Verkaufshemmnisse für Lisa. Das nur ein Jahr später folgende Debüt des Macintosh machte die Sache auch nicht besser.

Twentieth Anniversary Mac (1997)Es gibt Produkte, die sind ihrer Zeit voraus. Beim Twentieth Anniversary Mac (TAM) ist irgendwie das Gegenteil der Fall. Er kam 1997 auf den Markt, zeichnete sich dabei jedoch vor allem durch die Attribute “untermotorisiert” und “überteuert” aus. Der Einführungspreis von 9.000 Dollar sank dann auch innerhalb nur eines Jahres auf rund 2.000 Dollar, dann wurde der “Sonder-Mac” eingestampft. Immerhin hatte er ein extravagantes Gehäuse zu bieten, das eine Hommage an das legendäre Mac-Design darstellte, dessen Einfluß bis heute bei den Produkten von Apple zu spüren, beziehungsweise zu sehen ist. Bald feiert der Mac übrigens sein 40-jähriges Jubiläum – Zeit für ein Revival?

LRT: I remember the 20th anniversary mac, what a hideous thing. Of course, when it came out, it showed up on the SEINFELD set, and that was probably the most memorable thing about it pic.twitter.com/sWNcNhp0XZ— Mike Toole (@MichaelToole) September 15, 2020

eMate 300 (1997)Ende der 1990er Jahre, lange vor iPhone und iPad, hieß Apples ultraportabler Computer eMate 300: Ein preisgünstiger Laptop (oder je nach Perspektive ein aufgebohrter PDA) für den Bildungsbereich, der mit dem Newton-Betriebssystem lief. Es bot einen 6,8-Zoll-Bildschirm, einen Stift und eine vollwertige Tastatur – und war in transparentes Plastik gehüllt, lange bevor diese Art des Designs cool wurde.Leider hatte der eMate 300 dennoch keine Chance. In dem Fall lag es allerdings weniger am Device selbst, sondern an der Orientierungslosigkeit von Apple zu dieser Zeit: Das kleine Notebook wurde nicht gut vermarktet und das Betriebssystem war zum Scheitern verurteilt. Nicht einmal ein Jahr nach seiner Einführung bereitete Steve Jobs dem eMate 300 den Garaus.

This is our Apple eMate 300 prototype. Very few of these transparent eMates were ever produced, making this one a very rare exhibit. The eMate perhaps inspired the design of the clamshell iBook laptops from the #90s. #MuseumFromHomeLearn more: https://t.co/yVUHCAMVnz pic.twitter.com/gLPJdosX4v— Computing History (@computermuseum) April 18, 2020

Power Mac G4 Cube (2000)Der Power Mac G4 Cube zählt mit seiner Acryl-Ummantelung wohl zu den ästhetischsten Desktop-Computern, die jemals hergestellt wurden (zumindest aus Apple-Jünger-Perspektive). Diesen PC wollte man nicht mehr unter dem Schreibtisch verstecken – im Jahr 2000 keine Selbstverständlichkeit. Kaufen wollten ihn die Kunden trotzdem nicht, weil er zu teuer, zu schwach auf der Brust und zu unpraktisch war. Nach einem Jahr verschwand der Power Mac G4 Cube sang- und klanglos aus dem Apple-Programm. Man hat nie wieder von ihm gehört.

On this day in 2000, Apple announced the Power Mac G4 Cube. pic.twitter.com/BBXNYqwyqm— Today in Tech History (@DayTechHistory) July 19, 2022

iPod Hi-Fi (2006)Als der iPod auf seinem Höhepunkt war, waren auch Lautsprecher und Docks der letzte Schrei. Natürlich wollte auch Apple einen Stück vom Kuchen abhaben. Also brachte der Konzern im Februar 2006 den iPod Hi-Fi auf den Markt – einen minimalistischen Lautsprecher mit zwei Griffen, speziell entwickelten Breitbandlautsprechern und einem darauf abgestimmten Basssystem.Zwar wurde das Device für seinen Klang und seine Verarbeitungsqualität gelobt, es war aber letztendlich zu teuer (350 Dollar) und zu hochwertig als “Accessoire” für den simplen iPod.

Mac Pro (2013)Als Apple den Mac Pro auf der WWDC 2013 vorstellte, war man sich nicht sicher, was genau das war – nur, dass es anders war. Nicht umsonst bekam der 2013er Mac Pro den unschicken Spitznamen “Trashcan” verpasst. Und die Ähnlichkeiten lassen sich beim besten Willen nicht leugnen.

Dieses Design wurde dem Mac Pro dann aber auch zum Verhängnis: Er war nicht sonderlich modular aufgebaut oder aufrüstbar konzipiert, konnte seine High-End-Chips nicht angemessen kühlen und kostete dann auch noch knapp 3.000 Dollar. Diejenigen, die das Ding trotzdem gekauft haben, waren dennoch fasziniert.

The Mac Pro has been upgraded from a trash can to a cheese grater. #WWDC19 pic.twitter.com/MMJXcRFgAP— Eric Kurn (@SaluteTheKurnel) June 3, 2019

iPhone 5c (2013)Im Jahr 2013 debütierte mit dem iPhone 5c das erste Budget-Smartphone aus Cupertino. Es bot das gleiche Display und eine ähnliche Kamera wie das iPhone 5S – ließ aber einige wichtige Funktionen vermissen, darunter Touch ID, den damals neuesten A7-Prozessor und einen Dual-LED-Blitz.Entsprechend verhalten kam das Gerät bei den Kunden an – trotz seines leichten Designs und den bunten Polycarbonat-Gehäuseoptionen. Deren Einflüsse sind noch heute zu spüren, auch wenn das iPhone 5C schon nach einem Jahr wieder ausgemustert wurde.

HomePod (2017)Trotz seines gediegenen Designs und seines guten Klangs war der ursprüngliche HomePod ein Blindgänger.Preis (349 Euro), Timing und begrenzte Funktionalität hielten den HomePod in den Händlerregalen. Dennoch dauert es drei Jahre, bevor Apple ein Einsehen hatte und das Produkt cancelte. Nur um es dann Anfang 2023 in zweiter Generation (und zum gleichen Preis) zurückzubringen. Wie lange es diesmal dauert, bis der Stecker gezogen wird, bleibt abzuwarten.

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Macworld.

Bezaubernd gefloppt: 8 Apple-Produkte, die keiner wollte​ Weiterlesen »

Huawei Watch Fit 3 im Test: Günstiger Mix aus Fitness-Tracker und Smartwatch​

Allgemein

Mike Sawh Auf einen Blick Pro Schöner Bildschirm Gute Mischung aus Fitness- und Smartwatch-Funktionen Gute Akkulaufzeit Schnelles Aufladen Kontra Unübersichtliche Darstellung einiger Fitness-Daten Weniger Funktionen wären übersichtlicher Fazit Die Huawei Watch Fit 3 ist eine erschwingliche Smartwatch, die wie eine Apple Watch aussieht. Auch wenn sie im Hinblick auf Leistung nicht mit Apple mithalten kann, ist sie eine der aktuell besten unter den günstigen Smartwatches. Mit der Huawei Watch Fit 3 hat Huawei seinen Fitness-Tracker und Smartwatch-Hybriden Watch Fit in eine Smartwatch verwandelt. Neben einem überarbeiteten Design und einem größeren Bildschirm bietet die Watch Fit 3 neue Zifferblätter, eine bessere Schlafüberwachung, einen verbesserten Herzfrequenzsensor und mehr Sportmodi. Die Watch Fit 3 behält ihren sehr günstigen Preis bei und muss sich im Budget-Segment nicht mit der Apple Watch, der Samsung Galaxy Watch oder der Google Pixel Watch messen. Zu ihren Konkurrenten zählen eher die preiswerten Modelle von Xiaomi, Honor, Amazfit oder CMF. Auf dem Papier verspricht die Watch Fit 3 viele Funktionen für wenig Geld. In unserem Test klären wir, ob sich Huawei mit dem neuen Modell den Titel für die beste günstige Smartwatch sichern kann. In unserem großen Test der besten Smartwatches finden sich weitere Alternativen, für die Sie jedoch tiefer in die Tasche greifen müssen. Design & Verarbeitung Neues quadratisches Design Erhältlich in sechs Farben 5ATM Schutz vor Wasser Huawei hat das Design der Fit 3 grundlegend überarbeitet. Während die beiden Vorgänger-Modelle noch wie Fitness-Tracker mit etwas breiteren Bildschirmen aussahen, erinnert das neue Modell nun eher an die Apple Watch. Für die Watch Fit 3 gibt es eine große Auswahl an Farben. Mike Sawh Viele Smartwatches werden als Apple Watch-Klone bezeichnet, und die Huawei Watch Fit 3 macht da keine Ausnahme. Das 43,2 Millimeter große Gehäuse besteht aus einer matten Aluminiumlegierung und verfügt, ähnlich wie bei Apple, über zwei physische Tasten auf der rechten Seite. Der flache, untere Button führt direkt zum Trainingsbildschirm, während der obere, runde und rot hervorgehobene Button als Uhrenkrone dient. Obwohl die Krone optisch stark an die Apple Watch erinnert, fühlt sie sich weniger hochwertig an. Dennoch erweist sie sich als praktisches Tool, um durch den App-Launcher zu navigieren oder auf zuletzt verwendete Apps zuzugreifen. Mike Sawh Für die Watch Fit 3 gibt es eine große Auswahl an Gehäuse- und Armband-Farben. So stehen etwa Gold, Silber, Pink und Grün für das Gehäuse zur Verfügung, während die unterschiedlichen Armbänder aus Fluroelastomer, Nylon und Leder bestehen. Die Armbänder lassen sich ganz einfach über die Knöpfe an der Rückseite des Gehäuses austauschen. Zusätzliche Modelle sind ab 39 Euro erhältlich. Bildschirm & Audio 1,82-Zoll-AMOLED-Bildschirm Unterstützt den Always-On-Modus Inklusive Mikrofon und Lautsprecher Der Bildschirm der Watch Fit 3 ist größer als beim Vorgänger-Modell. Aus dem 1,74-Zoll-AMOLED-Display ist nun ein 1,82-Zoll-Panel mit einer Auflösung von 480 × 408 Pixeln geworden. Das Display der Watch Fit 3 ist in seiner Preisklasse eines der besten. Mike Sawh Das Display der Watch Fit 3 zählt zu den besten in ihrer Preisklasse. Es überzeugt mit gestochen scharfer Darstellung, akkuraten Farben und einer beeindruckenden maximalen Helligkeit von 1.500 Nits. Zwar gibt es einen schmalen Rand um das Display, doch Huawei kaschiert diesen geschickt mit einer durchdachten Benutzeroberfläche und einer vielseitigen Auswahl an Zifferblättern. Die Touchscreen-Reaktion ist erstklassig und liefert ein Nutzererlebnis, das selbst teureren Smartwatches Konkurrenz macht. Der Bildschirm bleibt über die Always-On-Funktion auf Wunsch immer eingeschaltet. Das geht jedoch zulasten der Akkulaufzeit. Wenn Sie den Akku schonen wollen, sollten Sie die einwandfreien Aufwachgesten der Watch Fit 3 nutzen. Über den integrierten Lautsprecher und das Mikrofon können Sie Anrufe entgegennehmen. Dazu müssen Sie die Smartwatch per Bluetooth mit Ihrem Android-Smartphone oder iPhone koppeln. Das Abspielen von Musik über Bluetooth ist ebenfalls möglich. Der Lautsprecher ist überraschend gut und bietet eine hohe Lautstärke und eine gute Klangqualität. Software & Funktionen Harmony OS als Betriebssystem Funktioniert mit Android und iOS Einige Funktionen funktionieren nur mit Android- oder Huawei-Smartphones Huawei verwendet die Version 4.20 seines eigenen Betriebssystems Harmony OS. Diese Software kommt auch auf der Watch 4 und Watch GT 4 zum Einsatz. Die Watch Fit 3 ist sowohl mit Android als auch mit iOS kompatibel. Die meisten Funktionen sind auf beiden Plattformen verfügbar, mit einigen Ausnahmen. So können Sie zum Beispiel keine Musik synchronisieren, wenn Sie die Uhr mit einem iPhone verwenden, während Sie ein iPhone oder ein Huawei-Smartphone benötigen, um die Fernauslöserfunktion der Kamera zu nutzen. Mike Sawh Die zugehörige Huawei Health-App ist recht unübersichtlich. Sie müssen für die Einrichtung also ein wenig Zeit mitbringen. Die Software der Uhr selbst ist im Vergleich dazu ziemlich einfach zu bedienen. Streichen Sie nach links und rechts, um die Widgets auf dem Bildschirm anzuzeigen, streichen Sie nach unten, um das Einstellungsmenü aufzurufen, und nach oben, um Ihre Benachrichtigungen zu sehen. Die Smartwatch bietet eine ganze Reihe von Funktionen. Sie hat eine solide Unterstützung für Benachrichtigungen, gut optimierte Steuerelemente für die Musikwiedergabe, eine Reihe von vorinstallierten Zifferblättern und ein schönes Wetter-Widget. Sie unterstützt das kontaktlose Bezahlen per NFC über Huawei Pay, bietet aber im Gegensatz zu den anderen Smartwatches von Huawei keinen Zugang zur AppGallery Storefront. Wenn Sie auf Ihrer Smartwatch jedoch nur grundlegende Funktionen benötigen, ist die Watch Fit 3 genau das richtige Modell für Sie. Fitness & Tracking Verbesserter Herzfrequenzsensor Eingebautes GPS Kalorien-Tracking-Modus Huawei hat viele Gesundheits- und Fitness-Funktionen integriert. Die Smartwatch bietet unter anderem Sensoren zur Messung der Herzfrequenz und des Sauerstoffgehalts im Blut. Sie verfügt auch über integriertes GPS, was bei günstigen Smartwatches immer ein Pluspunkt ist. Mike Sawh Wenn Sie nicht der sportliche Typ sind und die Fit 3 hauptsächlich für die Überwachung Ihrer Schritte, Ihres Schlafs, Ihres Stresslevels oder Ihrer täglichen Herzfrequenz nutzen möchten, ist sie ein solider Fitnesstracker. Das überarbeitete Aktivitätsring-Widget präsentiert sich deutlich übersichtlicher und ansprechender als bei der Fit 2. Die Schrittzählung zeigte sich in Tests mit einer Abweichung von lediglich 300 bis 500 Schritten im Vergleich zu zwei anderen Fitness-Trackern als zuverlässig. Zudem bietet das Gerät hilfreiche Funktionen wie Inaktivitätswarnungen und virtuelle Abzeichen für das Erreichen wichtiger Meilensteine. Ein Highlight ist die Möglichkeit, zwischen der Anzeige der Aktivitätsringe und dem Gesundheits-Kleeblatt zu wechseln. Letzteres erlaubt es, gesunde Gewohnheiten im Tagesverlauf zu markieren. Obwohl die Watch Fit 3 mit einer Vielzahl an Funktionen überzeugt, kann die Fülle an Möglichkeiten anfangs etwas überwältigend wirken. Wenn Sie Schlaftracking aktivieren, misst Version 4.0 des TruSleep Schlafüberwachungssystems von Huawei die Schlafdauer, die Schlafstadien und die Schlafwerte. Eine detaillierte Schlafanalyse zeigt zudem Empfehlungen zur Verbesserung Ihrer Schlafzeit. Bei meinem Test der Watch Fit 3 habe ich zum Vergleich den Oura Ring Gen 3 im Bett getragen. Die Schlafdauer und die Einschlafzeit waren sich auf beiden Geräten sehr ähnlich. Auch zusätzliche Nickerchen wurden aufgezeichnet. Die Schlafanalyse und die Empfehlungen sind jedoch nicht bahnbrechend. Die App gibt mir Tipps, wie den Raum vor dem Schlafengehen zu lüften, ein heißes Fußbad zu nehmen oder mich vor dem Schlafengehen zu dehnen. Mike Sawh Huawei hat der Watch Fit 3 einige gesundheitsorientierte Funktionen hinzugefügt, die bereits von anderen Smartwatches des Unternehmens bekannt sind. Dazu zählt der wissenschaftliche Kalorienzähler, der Sie dazu ermutigt, Ihre Mahlzeiten in der App zu protokollieren und diese Daten mit Ihren Trainingswerten zu kombinieren, um ein Kaloriendefizit zu erreichen und Gewicht zu verlieren. Allerdings gestaltet sich die manuelle Eingabe von Mahlzeiten ohne Zugriff auf eine Lebensmittel-Datenbank etwas umständlich. Außerdem wurde ein TruSeen 5.5 Herzfrequenzmessgerät integriert, das die Genauigkeit der Herzfrequenz und die Geschwindigkeit, mit der Sie SpO2-Messungen vornehmen können, erhöht. Was die Herzfrequenzmessung vor Ort angeht, war die Watch Fit 3 im Großen und Ganzen recht zuverlässig und konnte mit zwei anderen Fitness-Trackern mithalten, die ich zur gleichen Zeit getragen habe. Ähnlich verhält es sich mit der durchschnittlichen Herzfrequenz im Ruhezustand. Allerdings finde ich die Darstellung der Daten in der App nicht besonders intuitiv und insgesamt etwas klobig. Da die Watch Fit 3 eine Sportuhr ist, haben Sie die Wahl aus über 100 Sportmodi. Zu den Hauptmodi gehören Laufen, Radfahren und Schwimmen (sowohl im Pool als auch im Freiwasser). Huawei hat Profile für Fußball und Paddeln hinzugefügt und bietet jetzt auch einen neuen Bahnlaufmodus. Für einige dieser Modi gibt es eine automatische Trainingserkennung. Huawei hat jedoch auch einen neuen Modus mit intelligenten Vorschlägen versprochen hat, der auf der Grundlage Ihres Trainingsverlaufs und Ihres Kalorienverbrauchs Trainingseinheiten empfiehlt. Während meines Tests wurden diese Funktionen jedoch leider nicht angezeigt. Mike Sawh Huawei hat bei einigen Kernfunktionen der Watch Fit 3 die praktischen Aufwärm- und Abkühlanimationen beibehalten. Die Möglichkeit, wie bei der Watch Fit 2 Routen zu importieren, wurde jedoch entfernt. Statt des genaueren Dual-Band-Systems nutzt die Uhr nun ein einziges Band zur Positionierung. In Bezug auf die GPS-Genauigkeit stimmten die Messwerte für zurückgelegte Distanz und durchschnittliches Tempo bei einigen Läufen gut mit denen einer spezialisierten Laufuhr überein, die ich am anderen Handgelenk trug. Bei anderen Läufen war die Distanz etwas zu hoch, was jedoch nicht allzu störend war. Die Herzfrequenzmessung zeigte bei leichten bis mittelschweren Läufen eine insgesamt solide Leistung, unterstützt durch den guten Sitz des Nylonarmbands. Die Uhr bietet eine Vielzahl von Trainings- und Analysefunktionen, sowohl direkt auf der Uhr als auch in der App. Sie können strukturierten Laufeinheiten folgen oder eigene erstellen, Ihren Lauffähigkeitsindex einsehen und erhalten Empfehlungen zur Erholungszeit nach dem Training. Insgesamt bietet die Watch Fit 3 im Vergleich zur Konkurrenz viele Funktionen, und das Tracking-Erlebnis ist insgesamt solide. Akkulaufzeit & Aufladen Bis zu 10 Tage Akkulaufzeit Bis zu 7 Tage bei intensiver Nutzung Bis zu 4 Tage mit Always-On-Display Die Smartwatches von Huawei sind in der Regel sehr leistungsstark und das ist auch bei der Watch Fit 3 der Fall. Für die Watch Fit 2 gibt Huawei eine Laufzeit von bis zu 10 Tagen bei typischer Nutzung und 7 Tagen bei intensiver Nutzung an. Für die Watch Fit 3, die mit einem Akku mit 400 Milliamperestunden Kapazität ausgestattet ist, gibt Huawei dieselben Zahlen an. Mit Always-On-Display liegt die Akkulaufzeit laut Huawei bei bis zu vier Tagen. In meinem Test kann ich diese Zahlen bestätigen. Bei mir hat der Akku etwa eine Woche lang durchgehalten. Bei regelmäßigeren Trainingseinheiten wird dieser Wert jedoch knapp unterschritten. Insgesamt war die Leistung ausgezeichnet, auch wenn sie sich im Vergleich zur Watch Fit 2 nicht verbessert hat. Es gibt einen Schnelllademodus, in dem Sie mit einer Zehn-Minuten-Ladung den ganzen Tag trainieren können. Es gibt einen Schnelllademodus, in dem Sie mit einer Zehn-Minuten-Ladung den ganzen Tag trainieren können. Die Watch Fit 3 schafft es außerdem in nur einer Stunde von 0 auf 100 Prozent aufzuladen. Preis & Verfügbarkeit Im Online-Shop von Huawei kostet die Watch Fit 3 aktuell nur 139 Euro. Zusätzliche Armbänder schlagen mit 39 Euro zu Buche. Bei Amazon ist die Smartwatch derzeit schon ab 122 Euro erhältlich. Die Huawei Watch Fit 3 ist in der Kategorie der Budget-Smartwatches angesiedelt. Sie konkurriert mit der Honor Watch 4, der CMF Watch Pro und der Xiaomi Watch S3, wobei die Watch S3 ein rundes Gehäuse hat, während die Honor und Huawei Uhren eckiger sind. Sollten Sie die Huawei Watch Fit 3 kaufen? Die Huawei Watch Fit 3 ist sehr gute Smartwatch zu einem wirklich guten Preis. Es gibt einige Design-Elemente, die funktionieren, und einige, die meiner Meinung nach nicht funktionieren, mit einer Software und einer Leistung, die sich mit anderen Smartwatches im Budget-Bereich messen kann. Sie fühlt sich auf jeden Fall ausgefeilter an als die Honor Watch 4 und die Redmi Watch 4. Während die Fitness- und Smartwatch-Funktionen besser integriert sind als auf der Xiaomi Watch S3. Wenn Sie auf der Suche nach einer günstigen Smartwatch mit einem großartigen Display, ausgefeilter Software und durchdachten Details sind, dann ist die Huawei Watch Fit 3 auf jeden Fall einen Blick wert. Specs 1,82-Zoll-AMOLED-Display mit Always-On-Funktion 5ATM Schutz vor Wasser Eingebauter Lautsprecher Integriertes Single-Band-GPS Akku mit 400 mAh Kapazität Bis zu 10 Tage Akkulaufzeit Herzfrequenz-Sensor Blutsauerstoff-Sensor Bluetooth-Anrufe Schlafüberwachung Stress-Überwachung 26 g (ohne Armband) (PC-Welt) 

Huawei Watch Fit 3 im Test: Günstiger Mix aus Fitness-Tracker und Smartwatch​ Mike Sawh

Auf einen Blick

Pro

Schöner Bildschirm

Gute Mischung aus Fitness- und Smartwatch-Funktionen

Gute Akkulaufzeit

Schnelles Aufladen

Kontra

Unübersichtliche Darstellung einiger Fitness-Daten

Weniger Funktionen wären übersichtlicher

Fazit

Die Huawei Watch Fit 3 ist eine erschwingliche Smartwatch, die wie eine Apple Watch aussieht. Auch wenn sie im Hinblick auf Leistung nicht mit Apple mithalten kann, ist sie eine der aktuell besten unter den günstigen Smartwatches.

Mit der Huawei Watch Fit 3 hat Huawei seinen Fitness-Tracker und Smartwatch-Hybriden Watch Fit in eine Smartwatch verwandelt. Neben einem überarbeiteten Design und einem größeren Bildschirm bietet die Watch Fit 3 neue Zifferblätter, eine bessere Schlafüberwachung, einen verbesserten Herzfrequenzsensor und mehr Sportmodi.

Die Watch Fit 3 behält ihren sehr günstigen Preis bei und muss sich im Budget-Segment nicht mit der Apple Watch, der Samsung Galaxy Watch oder der Google Pixel Watch messen. Zu ihren Konkurrenten zählen eher die preiswerten Modelle von Xiaomi, Honor, Amazfit oder CMF. Auf dem Papier verspricht die Watch Fit 3 viele Funktionen für wenig Geld. In unserem Test klären wir, ob sich Huawei mit dem neuen Modell den Titel für die beste günstige Smartwatch sichern kann.

In unserem großen Test der besten Smartwatches finden sich weitere Alternativen, für die Sie jedoch tiefer in die Tasche greifen müssen.

Design & Verarbeitung

Neues quadratisches Design

Erhältlich in sechs Farben

5ATM Schutz vor Wasser

Huawei hat das Design der Fit 3 grundlegend überarbeitet. Während die beiden Vorgänger-Modelle noch wie Fitness-Tracker mit etwas breiteren Bildschirmen aussahen, erinnert das neue Modell nun eher an die Apple Watch.

Für die Watch Fit 3 gibt es eine große Auswahl an Farben.

Mike Sawh

Viele Smartwatches werden als Apple Watch-Klone bezeichnet, und die Huawei Watch Fit 3 macht da keine Ausnahme. Das 43,2 Millimeter große Gehäuse besteht aus einer matten Aluminiumlegierung und verfügt, ähnlich wie bei Apple, über zwei physische Tasten auf der rechten Seite.

Der flache, untere Button führt direkt zum Trainingsbildschirm, während der obere, runde und rot hervorgehobene Button als Uhrenkrone dient. Obwohl die Krone optisch stark an die Apple Watch erinnert, fühlt sie sich weniger hochwertig an. Dennoch erweist sie sich als praktisches Tool, um durch den App-Launcher zu navigieren oder auf zuletzt verwendete Apps zuzugreifen.

Mike Sawh

Für die Watch Fit 3 gibt es eine große Auswahl an Gehäuse- und Armband-Farben. So stehen etwa Gold, Silber, Pink und Grün für das Gehäuse zur Verfügung, während die unterschiedlichen Armbänder aus Fluroelastomer, Nylon und Leder bestehen.

Die Armbänder lassen sich ganz einfach über die Knöpfe an der Rückseite des Gehäuses austauschen. Zusätzliche Modelle sind ab 39 Euro erhältlich.

Bildschirm & Audio

1,82-Zoll-AMOLED-Bildschirm

Unterstützt den Always-On-Modus

Inklusive Mikrofon und Lautsprecher

Der Bildschirm der Watch Fit 3 ist größer als beim Vorgänger-Modell. Aus dem 1,74-Zoll-AMOLED-Display ist nun ein 1,82-Zoll-Panel mit einer Auflösung von 480 × 408 Pixeln geworden.

Das Display der Watch Fit 3 ist in seiner Preisklasse eines der besten.

Mike Sawh

Das Display der Watch Fit 3 zählt zu den besten in ihrer Preisklasse. Es überzeugt mit gestochen scharfer Darstellung, akkuraten Farben und einer beeindruckenden maximalen Helligkeit von 1.500 Nits. Zwar gibt es einen schmalen Rand um das Display, doch Huawei kaschiert diesen geschickt mit einer durchdachten Benutzeroberfläche und einer vielseitigen Auswahl an Zifferblättern. Die Touchscreen-Reaktion ist erstklassig und liefert ein Nutzererlebnis, das selbst teureren Smartwatches Konkurrenz macht.

Der Bildschirm bleibt über die Always-On-Funktion auf Wunsch immer eingeschaltet. Das geht jedoch zulasten der Akkulaufzeit. Wenn Sie den Akku schonen wollen, sollten Sie die einwandfreien Aufwachgesten der Watch Fit 3 nutzen.

Über den integrierten Lautsprecher und das Mikrofon können Sie Anrufe entgegennehmen. Dazu müssen Sie die Smartwatch per Bluetooth mit Ihrem Android-Smartphone oder iPhone koppeln. Das Abspielen von Musik über Bluetooth ist ebenfalls möglich. Der Lautsprecher ist überraschend gut und bietet eine hohe Lautstärke und eine gute Klangqualität.

Software & Funktionen

Harmony OS als Betriebssystem

Funktioniert mit Android und iOS

Einige Funktionen funktionieren nur mit Android- oder Huawei-Smartphones

Huawei verwendet die Version 4.20 seines eigenen Betriebssystems Harmony OS. Diese Software kommt auch auf der Watch 4 und Watch GT 4 zum Einsatz. Die Watch Fit 3 ist sowohl mit Android als auch mit iOS kompatibel.

Die meisten Funktionen sind auf beiden Plattformen verfügbar, mit einigen Ausnahmen. So können Sie zum Beispiel keine Musik synchronisieren, wenn Sie die Uhr mit einem iPhone verwenden, während Sie ein iPhone oder ein Huawei-Smartphone benötigen, um die Fernauslöserfunktion der Kamera zu nutzen.

Mike Sawh

Die zugehörige Huawei Health-App ist recht unübersichtlich. Sie müssen für die Einrichtung also ein wenig Zeit mitbringen. Die Software der Uhr selbst ist im Vergleich dazu ziemlich einfach zu bedienen. Streichen Sie nach links und rechts, um die Widgets auf dem Bildschirm anzuzeigen, streichen Sie nach unten, um das Einstellungsmenü aufzurufen, und nach oben, um Ihre Benachrichtigungen zu sehen.

Die Smartwatch bietet eine ganze Reihe von Funktionen. Sie hat eine solide Unterstützung für Benachrichtigungen, gut optimierte Steuerelemente für die Musikwiedergabe, eine Reihe von vorinstallierten Zifferblättern und ein schönes Wetter-Widget.

Sie unterstützt das kontaktlose Bezahlen per NFC über Huawei Pay, bietet aber im Gegensatz zu den anderen Smartwatches von Huawei keinen Zugang zur AppGallery Storefront. Wenn Sie auf Ihrer Smartwatch jedoch nur grundlegende Funktionen benötigen, ist die Watch Fit 3 genau das richtige Modell für Sie.

Fitness & Tracking

Verbesserter Herzfrequenzsensor

Eingebautes GPS

Kalorien-Tracking-Modus

Huawei hat viele Gesundheits- und Fitness-Funktionen integriert. Die Smartwatch bietet unter anderem Sensoren zur Messung der Herzfrequenz und des Sauerstoffgehalts im Blut. Sie verfügt auch über integriertes GPS, was bei günstigen Smartwatches immer ein Pluspunkt ist.

Mike Sawh

Wenn Sie nicht der sportliche Typ sind und die Fit 3 hauptsächlich für die Überwachung Ihrer Schritte, Ihres Schlafs, Ihres Stresslevels oder Ihrer täglichen Herzfrequenz nutzen möchten, ist sie ein solider Fitnesstracker.

Das überarbeitete Aktivitätsring-Widget präsentiert sich deutlich übersichtlicher und ansprechender als bei der Fit 2. Die Schrittzählung zeigte sich in Tests mit einer Abweichung von lediglich 300 bis 500 Schritten im Vergleich zu zwei anderen Fitness-Trackern als zuverlässig. Zudem bietet das Gerät hilfreiche Funktionen wie Inaktivitätswarnungen und virtuelle Abzeichen für das Erreichen wichtiger Meilensteine.

Ein Highlight ist die Möglichkeit, zwischen der Anzeige der Aktivitätsringe und dem Gesundheits-Kleeblatt zu wechseln. Letzteres erlaubt es, gesunde Gewohnheiten im Tagesverlauf zu markieren. Obwohl die Watch Fit 3 mit einer Vielzahl an Funktionen überzeugt, kann die Fülle an Möglichkeiten anfangs etwas überwältigend wirken.

Wenn Sie Schlaftracking aktivieren, misst Version 4.0 des TruSleep Schlafüberwachungssystems von Huawei die Schlafdauer, die Schlafstadien und die Schlafwerte. Eine detaillierte Schlafanalyse zeigt zudem Empfehlungen zur Verbesserung Ihrer Schlafzeit. Bei meinem Test der Watch Fit 3 habe ich zum Vergleich den Oura Ring Gen 3 im Bett getragen.

Die Schlafdauer und die Einschlafzeit waren sich auf beiden Geräten sehr ähnlich. Auch zusätzliche Nickerchen wurden aufgezeichnet. Die Schlafanalyse und die Empfehlungen sind jedoch nicht bahnbrechend. Die App gibt mir Tipps, wie den Raum vor dem Schlafengehen zu lüften, ein heißes Fußbad zu nehmen oder mich vor dem Schlafengehen zu dehnen.

Mike Sawh

Huawei hat der Watch Fit 3 einige gesundheitsorientierte Funktionen hinzugefügt, die bereits von anderen Smartwatches des Unternehmens bekannt sind. Dazu zählt der wissenschaftliche Kalorienzähler, der Sie dazu ermutigt, Ihre Mahlzeiten in der App zu protokollieren und diese Daten mit Ihren Trainingswerten zu kombinieren, um ein Kaloriendefizit zu erreichen und Gewicht zu verlieren. Allerdings gestaltet sich die manuelle Eingabe von Mahlzeiten ohne Zugriff auf eine Lebensmittel-Datenbank etwas umständlich.

Außerdem wurde ein TruSeen 5.5 Herzfrequenzmessgerät integriert, das die Genauigkeit der Herzfrequenz und die Geschwindigkeit, mit der Sie SpO2-Messungen vornehmen können, erhöht. Was die Herzfrequenzmessung vor Ort angeht, war die Watch Fit 3 im Großen und Ganzen recht zuverlässig und konnte mit zwei anderen Fitness-Trackern mithalten, die ich zur gleichen Zeit getragen habe.

Ähnlich verhält es sich mit der durchschnittlichen Herzfrequenz im Ruhezustand. Allerdings finde ich die Darstellung der Daten in der App nicht besonders intuitiv und insgesamt etwas klobig. Da die Watch Fit 3 eine Sportuhr ist, haben Sie die Wahl aus über 100 Sportmodi. Zu den Hauptmodi gehören Laufen, Radfahren und Schwimmen (sowohl im Pool als auch im Freiwasser). Huawei hat Profile für Fußball und Paddeln hinzugefügt und bietet jetzt auch einen neuen Bahnlaufmodus.

Für einige dieser Modi gibt es eine automatische Trainingserkennung. Huawei hat jedoch auch einen neuen Modus mit intelligenten Vorschlägen versprochen hat, der auf der Grundlage Ihres Trainingsverlaufs und Ihres Kalorienverbrauchs Trainingseinheiten empfiehlt. Während meines Tests wurden diese Funktionen jedoch leider nicht angezeigt.

Mike Sawh

Huawei hat bei einigen Kernfunktionen der Watch Fit 3 die praktischen Aufwärm- und Abkühlanimationen beibehalten. Die Möglichkeit, wie bei der Watch Fit 2 Routen zu importieren, wurde jedoch entfernt. Statt des genaueren Dual-Band-Systems nutzt die Uhr nun ein einziges Band zur Positionierung.

In Bezug auf die GPS-Genauigkeit stimmten die Messwerte für zurückgelegte Distanz und durchschnittliches Tempo bei einigen Läufen gut mit denen einer spezialisierten Laufuhr überein, die ich am anderen Handgelenk trug. Bei anderen Läufen war die Distanz etwas zu hoch, was jedoch nicht allzu störend war.

Die Herzfrequenzmessung zeigte bei leichten bis mittelschweren Läufen eine insgesamt solide Leistung, unterstützt durch den guten Sitz des Nylonarmbands.

Die Uhr bietet eine Vielzahl von Trainings- und Analysefunktionen, sowohl direkt auf der Uhr als auch in der App. Sie können strukturierten Laufeinheiten folgen oder eigene erstellen, Ihren Lauffähigkeitsindex einsehen und erhalten Empfehlungen zur Erholungszeit nach dem Training. Insgesamt bietet die Watch Fit 3 im Vergleich zur Konkurrenz viele Funktionen, und das Tracking-Erlebnis ist insgesamt solide.

Akkulaufzeit & Aufladen

Bis zu 10 Tage Akkulaufzeit

Bis zu 7 Tage bei intensiver Nutzung

Bis zu 4 Tage mit Always-On-Display

Die Smartwatches von Huawei sind in der Regel sehr leistungsstark und das ist auch bei der Watch Fit 3 der Fall. Für die Watch Fit 2 gibt Huawei eine Laufzeit von bis zu 10 Tagen bei typischer Nutzung und 7 Tagen bei intensiver Nutzung an.

Für die Watch Fit 3, die mit einem Akku mit 400 Milliamperestunden Kapazität ausgestattet ist, gibt Huawei dieselben Zahlen an. Mit Always-On-Display liegt die Akkulaufzeit laut Huawei bei bis zu vier Tagen.

In meinem Test kann ich diese Zahlen bestätigen. Bei mir hat der Akku etwa eine Woche lang durchgehalten. Bei regelmäßigeren Trainingseinheiten wird dieser Wert jedoch knapp unterschritten. Insgesamt war die Leistung ausgezeichnet, auch wenn sie sich im Vergleich zur Watch Fit 2 nicht verbessert hat.

Es gibt einen Schnelllademodus, in dem Sie mit einer Zehn-Minuten-Ladung den ganzen Tag trainieren können.

Es gibt einen Schnelllademodus, in dem Sie mit einer Zehn-Minuten-Ladung den ganzen Tag trainieren können. Die Watch Fit 3 schafft es außerdem in nur einer Stunde von 0 auf 100 Prozent aufzuladen.

Preis & Verfügbarkeit

Im Online-Shop von Huawei kostet die Watch Fit 3 aktuell nur 139 Euro. Zusätzliche Armbänder schlagen mit 39 Euro zu Buche. Bei Amazon ist die Smartwatch derzeit schon ab 122 Euro erhältlich.

Die Huawei Watch Fit 3 ist in der Kategorie der Budget-Smartwatches angesiedelt. Sie konkurriert mit der Honor Watch 4, der CMF Watch Pro und der Xiaomi Watch S3, wobei die Watch S3 ein rundes Gehäuse hat, während die Honor und Huawei Uhren eckiger sind.

Sollten Sie die Huawei Watch Fit 3 kaufen?

Die Huawei Watch Fit 3 ist sehr gute Smartwatch zu einem wirklich guten Preis. Es gibt einige Design-Elemente, die funktionieren, und einige, die meiner Meinung nach nicht funktionieren, mit einer Software und einer Leistung, die sich mit anderen Smartwatches im Budget-Bereich messen kann.

Sie fühlt sich auf jeden Fall ausgefeilter an als die Honor Watch 4 und die Redmi Watch 4. Während die Fitness- und Smartwatch-Funktionen besser integriert sind als auf der Xiaomi Watch S3.

Wenn Sie auf der Suche nach einer günstigen Smartwatch mit einem großartigen Display, ausgefeilter Software und durchdachten Details sind, dann ist die Huawei Watch Fit 3 auf jeden Fall einen Blick wert.

Specs

1,82-Zoll-AMOLED-Display mit Always-On-Funktion

5ATM Schutz vor Wasser

Eingebauter Lautsprecher

Integriertes Single-Band-GPS

Akku mit 400 mAh Kapazität

Bis zu 10 Tage Akkulaufzeit

Herzfrequenz-Sensor

Blutsauerstoff-Sensor

Bluetooth-Anrufe

Schlafüberwachung

Stress-Überwachung

26 g (ohne Armband)

(PC-Welt)

Huawei Watch Fit 3 im Test: Günstiger Mix aus Fitness-Tracker und Smartwatch​ Weiterlesen »

Microsoft AI Hub für KI-PCs​

Allgemein

Microsoft hat seinem App Store Anwendungen für KI-PCs hinzugefügt. Microsoft Microsoft aktualisiert seinen 2023 vorgestellten KI-Hub. Er soll künftig Apps offerieren, die auf NPUs laufen. NPUs (Neural Processor Units) sind spezielle neuronale Verarbeitungseinheiten für KI-intensive Programme. Dabei ist die NPU ein Zusatzchip zur CPU und GPU eines Computers. Sie soll GenAI-Aufgaben wie Bilderkennung, Inhaltserstellung und Sprachtranskription schneller und energieeffizienter abarbeiten. Sind Copilot+-PCs ein Flop? Microsoft stellte im vergangenen Jahr spezielle Copilot+-PCs vor, auf denen GenAI-Tools ausgeführt werden können. Dabei schrieb der Softwarehersteller vor, dass Copilot+-PCs NPUs enthalten müssen. Sie sollen eine kollektive Systemleistung von 40+ TOPS erreichen. Entsprechende Chips liefern etwa Qualcomm und Intel. Allerdings standen Microsoft und die Hardwarepartner vor dem klassischen Henne-Ei-Dilemma: Sollten sie zuerst die Hardware oder die Software auf den Markt bringen? Man entschied sich für die Hardware. Fehlende Software für NPUs Die Konsequenz war, dass die NPUs weitgehend ungenutzt blieben, da die entsprechenden Anwendungen fehlten. Eine der wenigen Apps war etwa Camo Studio, das visuelle Effekte bei Verwendung einer Webcam beschleunigt. Und Microsofts vielgepriesene Recall-Funktion, geriet nach Verzögerungen aufgrund von Sicherheitsbedenken ins Stocken. Dementsprechend schwierig war es, die Käufer vom Kauf der neuen Copilot+-Geräte mit NPUs zu überzeugen. Denn schließlich boten sie keinen nennenswerten Mehrwert. Und bei Desktop-Rechnern schlug, beziehungsweise schlägt bereits eine Grafikkarte der Mitteklasse die NPUs in Sachen KI-Rechenleistung. Der AI Hub Um die Anwender doch noch vom Copilot+-Konzept zu überzeugen, hat Microsoft jetzt den AI-Hub ins Leben gerufen. Er präsentiert sich als eine Mischung aus Marketing-Plattform und App Store. So erhält der User beim Stöbern im AI-Hub Informationen dazu, welche angeblich einzigartigen KI-Erfahrungen ihm die Nutzung einer NPU ermöglichen. Gleichzeitig rührt man auf dem AI Hub die Werbetrommel für KI/NPU-unterstützte Windows-Features wie Windows Studio Effects, Paint Cocreator und Photos Image Creator. Ebenso soll hier der Support zu kommenden KI-Funktionen wie Recall, Click To Do und die verbesserte Windows-Suche zu finden sein. Verfügbarkeit Darüber hinaus will man über den AI Hub KI-Anwendungen aus dem Microsoft Store von Windows promoten. Dabei soll der Hub als die Quelle auf der Suche nach KI-Anwendungen dienen. Mit dieser Errungenschaft beglückt Microsoft bislang nur User in den USA, Kanada, Großbritannien und Australien. In den kommenden Monaten ist dann der Rollout in weiteren Märkten geplant. 

Microsoft AI Hub für KI-PCs​ Microsoft hat seinem App Store Anwendungen für KI-PCs hinzugefügt.
Microsoft

Microsoft aktualisiert seinen 2023 vorgestellten KI-Hub. Er soll künftig Apps offerieren, die auf NPUs laufen. NPUs (Neural Processor Units) sind spezielle neuronale Verarbeitungseinheiten für KI-intensive Programme.

Dabei ist die NPU ein Zusatzchip zur CPU und GPU eines Computers. Sie soll GenAI-Aufgaben wie Bilderkennung, Inhaltserstellung und Sprachtranskription schneller und energieeffizienter abarbeiten.

Sind Copilot+-PCs ein Flop?

Microsoft stellte im vergangenen Jahr spezielle Copilot+-PCs vor, auf denen GenAI-Tools ausgeführt werden können. Dabei schrieb der Softwarehersteller vor, dass Copilot+-PCs NPUs enthalten müssen. Sie sollen eine kollektive Systemleistung von 40+ TOPS erreichen. Entsprechende Chips liefern etwa Qualcomm und Intel.

Allerdings standen Microsoft und die Hardwarepartner vor dem klassischen Henne-Ei-Dilemma: Sollten sie zuerst die Hardware oder die Software auf den Markt bringen? Man entschied sich für die Hardware.

Fehlende Software für NPUs

Die Konsequenz war, dass die NPUs weitgehend ungenutzt blieben, da die entsprechenden Anwendungen fehlten. Eine der wenigen Apps war etwa Camo Studio, das visuelle Effekte bei Verwendung einer Webcam beschleunigt. Und Microsofts vielgepriesene Recall-Funktion, geriet nach Verzögerungen aufgrund von Sicherheitsbedenken ins Stocken.

Dementsprechend schwierig war es, die Käufer vom Kauf der neuen Copilot+-Geräte mit NPUs zu überzeugen. Denn schließlich boten sie keinen nennenswerten Mehrwert. Und bei Desktop-Rechnern schlug, beziehungsweise schlägt bereits eine Grafikkarte der Mitteklasse die NPUs in Sachen KI-Rechenleistung.

Der AI Hub

Um die Anwender doch noch vom Copilot+-Konzept zu überzeugen, hat Microsoft jetzt den AI-Hub ins Leben gerufen. Er präsentiert sich als eine Mischung aus Marketing-Plattform und App Store. So erhält der User beim Stöbern im AI-Hub Informationen dazu, welche angeblich einzigartigen KI-Erfahrungen ihm die Nutzung einer NPU ermöglichen.

Gleichzeitig rührt man auf dem AI Hub die Werbetrommel für KI/NPU-unterstützte Windows-Features wie Windows Studio Effects, Paint Cocreator und Photos Image Creator. Ebenso soll hier der Support zu kommenden KI-Funktionen wie Recall, Click To Do und die verbesserte Windows-Suche zu finden sein.

Verfügbarkeit

Darüber hinaus will man über den AI Hub KI-Anwendungen aus dem Microsoft Store von Windows promoten. Dabei soll der Hub als die Quelle auf der Suche nach KI-Anwendungen dienen.

Mit dieser Errungenschaft beglückt Microsoft bislang nur User in den USA, Kanada, Großbritannien und Australien. In den kommenden Monaten ist dann der Rollout in weiteren Märkten geplant.

Microsoft AI Hub für KI-PCs​ Weiterlesen »

Samsung Galaxy S25 im Test: Was bringen Snapdragon 8 Elite OC und mehr RAM?​

Allgemein

Luke Baker Auf einen Blick Pro Rechenstark Viele praktische KI-Funktionen Verbesserte Bildverarbeitung Mehr RAM und eine 512-Gigabyte-Option Kontra Im Grunde kaum Änderungen im Vergleich zum Vorgänger Langsames Laden Fazit Das Samsung Galaxy S25 bietet das absolute Minimum an Hardware-Upgrades. Sie erhalten den Snapdragon 8 Elite Chip, etwas mehr Arbeitsspeicher und eine neue Speicheroption – aber das ist auch schon alles. Doch trotz des Mangels an Hardware-Innovationen sorgen eine ausgefeilte Software und eine hochwertige Verarbeitung für ein sehr stimmiges Smartphone. Es ist alles andere als aufregend, aber im Gebrauch immer noch ein tolles Erlebnis. Samsungs kompaktes Flaggschiff ist zurück und es sieht sehr, sehr vertraut aus. Wenn Sie dachten, dass das S25 Ultra ein unzureichendes Update war, dann sollten Sie sich auf etwas gefasst machen. Das Samsung Galaxy S25 hat einen neuen Chip, mehr Arbeitsspeicher und einige kleinere ästhetische Verbesserungen. Ansonsten ist es so gut wie identisch mit dem Galaxy S24. Wie beim Rest des Sortiments setzen die größten Neuerungen auf die Software. Samsung baut dabei wieder einmal auf KI. Es mag also kein bahnbrechendes Upgrade sein, aber ist dieses schlanke Gerät trotzdem eine Überlegung wert? Ich habe meine SIM-Karte eine Woche im Galaxy S25 betrieben, um genau das herauszufinden. Design & Aufbau Neu gestaltete Kameraeinfassungen Gehärteter Aluminiumrahmen IP68-zertifiziert Das Samsung Galaxy S25 sieht fast genauso aus wie das S24. Die einzige größere Veränderung sind die dicken schwarzen Einfassungen rund um die Kameras. Diese sehen genauso aus wie die Einfassungen des Z Fold 6, und sie passen auch zum Rest der S25-Produktreihe. Sie sind rein dekorativ und dienen für mich vor allem dazu, die diesjährigen Smartphones schnell von ihren Vorgängern zu unterscheiden. Luke Baker Das Galaxy S25 ist auch in diesem Jahr in verschiedenen Farben erhältlich. Ich habe das Modell Silver Shadow zum Test verwendet. Diese Farbe ist ziemlich zurückhaltend und professionell. Wenn Sie aber ein bisschen mehr auffallen möchten, sind die Farben Navy und Mint etwas auffälliger. Es gibt auch eine Option namens Icyblue, die dem Silver-Modell sehr ähnlich sieht. Sie ist jedoch etwas heller, mit einem leichten Blaustich auf der Rückseite. Wenn Sie direkt bei Samsung bestellen, haben Sie Zugang zu drei weiteren exklusiven Farben, darunter das lebhafte Korallenrot. Außerdem gibt es Blueblack und Pinkgold, die eine gedämpfte Farbpalette nutzen. Wenn Sie lieber auffallen möchten, ist das leuchtende Korallenrot sicherlich die richtige Wahl. Das Smartphone ist etwas schlanker, aber wir sprechen hier nur von 0,4 Millimetern, was in etwa der Dicke von vier Blatt Papier entspricht Normalerweise würde ich mich nicht so lange mit den Farboptionen aufhalten, aber um ehrlich zu sein, gibt es hier nicht viel mehr zu erwähnen. Das Smartphone ist etwas schlanker, aber wir sprechen hier nur von 0,4 Millimetern, was in etwa der Dicke von vier Blatt Papier entspricht. Es ist auch 6 Gramm leichter, aber wenn Sie diesen Unterschied spüren können, haben Sie empfindlichere Hände als ich. Luke Baker Ansonsten gibt es kaum Unterschiede zum Vorgängermodell. Die Anordnung der Tasten ist gleich geblieben, die Form ist gleich, die Oberfläche fühlt sich gleich an und es ist immer noch nach IP68 zertifiziert. Auf der Vorderseite erhalten Sie die gleiche “Corning Gorilla Glass Victus 2”-Beschichtung. Ich hatte gehofft, dass die kleineren Smartphone von der gleichen Antireflexionsbeschichtung wie das Ultra profitieren würden, aber das ist nicht der Fall. Na ja, vielleicht nächstes Jahr. viel kompakter als die meisten Flaggschiffe. Ich habe dies als erfrischend empfunden, nachdem ich einige Zeit mit dem vergleichsweise sperrigen S25 Ultra verbracht hatte. Sie können das Galaxy S25 gut in der Hosentasche verstauen. Und wenn Sie kleine Hände haben, werden Sie es viel handlicher finden als die meisten Flaggschiff-Handys. Bildschirm & Lautsprecher 6,2-Zoll-LTPO-AMOLED-Display Full HD-Auflösung 2600 nits Spitzenhelligkeit Stereo-Lautsprecher Was das Display angeht, finden sich ebenfalls keine Überraschungen. Die Spezifikationen sind identisch mit denen des Vorjahresmodells. Es gibt also nicht viel, worüber man sich freuen kann. Aber der Bildschirm war schon letztes Jahr großartig und ist immer noch genauso beeindruckend. Luke Baker Der Rahmen war bereits beim S24 unglaublich schlank, und die 2600 Nits Bildschirmhelligkeit sind mehr als genug, um mit direktem Sonnenlicht alle Inhalte gut ablesen zu können. Es handelt sich um ein LTPO-Panel, das bei Bedarf dynamisch von 1 Hertz auf 120 Hertz umschaltet. Das spart Akkulaufzeit und sorgt dafür, dass Bewegungen flüssig und ruckelfrei aussehen. Das einzige wirkliche Update ist das Hinzufügen einer Software-Funktion namens ProScaler. Dieses Feature wurde in Zusammenarbeit mit Qualcomm entwickelt und nutzt KI, um Bildschirminhalte hochzuskalieren und so eine gestochen scharfe, hochauflösende Darstellung zu erzielen. Luke Baker Wie ich bereits in meinem Testbericht zum S25 Ultra erwähnt habe, hat sich Samsung nicht ganz klar dazu geäußert, wann oder wie diese Funktion aktiviert wird. Abgesehen davon sieht das FHD-Panel in fast jedem Szenario gestochen scharf und klar aus. Egal, ob Sie das nun dem ProScaler zuschreiben oder nicht, Sie können sich auf ein erstklassiges Display gefasst machen. Luke Baker Die Lautsprecher sind ebenfalls unverändert, und auch das ist für mich in Ordnung. Sie gehören immer noch zu den besten, mit großer Klarheit und mehr Bass als bei der Konkurrenz. Ich ziehe diese Lautsprecher sogar den S25 Ultra-Lautsprechern vor, da sie durch die Positionierung weniger anfällig für Dämpfungseffekte sind. Prozessor & Speicher Qualcomm Snapdragon 8 Elite (in allen Regionen) 12 Gigabyte RAM 128 / 256 / 512 Gigabyte Speicher Endlich kommen wir zu einem Bereich mit einigen bedeutenden Upgrades: Das Galaxy S25 wird vom neuesten Flaggschiff-Chip von Qualcomm angetrieben, dem Snapdragon 8 Elite. Dabei handelt es sich nicht um irgendeinen Chip, sondern um eine spezielle, übertaktete Version, die exklusiv für Samsung hergestellt wurde. Luke Baker Auch der Arbeitsspeicher wurde auf großzügige 12 Gigabyte aufgestockt und entspricht damit dem seiner Geschwister aus der S25-Serie. Außerdem gibt es in diesem Jahr eine zusätzliche Speicheroption, so dass Sie sich beim kompaktesten Modell jetzt auch für 512 Gigabyte entscheiden können. In diesem Jahr gibt es eine zusätzliche Speicheroption, so dass Sie sich beim kompaktesten Modell jetzt auch für 512 Gigabyte entscheiden können. Ich freue mich sehr darüber. Ich fand es schon immer merkwürdig, dass Sie sich beim kleinsten Gerät der S-Serie mit geringeren Spezifikationen zufrieden geben mussten. Denn nur weil Sie ein kleineres Smartphone bevorzugen, heißt das nicht, dass Sie keine Spitzenleistung oder viel Speicherplatz benötigen. Viele werden sich auch über die Abkehr vom Exynos-Chipsatz freuen. In der gesamten Produktreihe des S25 wird derselbe Qualcomm-Chip verwendet, egal in welcher Region Sie sich befinden. In Benchmarks schneidet das S25 so gut ab, wie es zu erwarten war. Es ist ein äußerst leistungsfähiges Smartphone und hat keine Probleme, die anspruchsvollsten Spiele und Apps aus dem Play Store auszuführen. Luke Baker Ich habe festgestellt, dass der Rahmen bei längeren Spielesessions etwas wärmer wird. Aber ich würde nicht sagen, dass es viel schlimmer ist als beim S25 Ultra. In Anbetracht der Tatsache, dass dieses Smartphone eine deutlich kleinere Dampfkammer hat, ist das schon eine beachtliche Leistung. Wie groß der Unterschied in der Praxis sein wird, hängt davon ab, wie Sie Ihr Handy benutzen. Das S24 aus dem letzten Jahr war bereits hervorragend für Spiele geeignet, und wenn Sie nicht gerade irgendwo an dessen Grenzen stoßen, wird die tägliche Erfahrung wahrscheinlich ganz ähnlich sein. Abgesehen davon fühlt sich dieses Gerät jederzeit extrem schnell an, spürbar schneller als viele seiner Snapdragon 8 Elite-getriebenen Konkurrenten. Ich denke, dass dies vor allem dem flotten Animationsstil von One UI 7 zu verdanken ist, aber vielleicht tut auch die Übertaktung ihr Übriges. Kameras 50 Megapixel Hauptsensor 12 Megapixel Ultraweitwinkel 10 Megapixel 3x Teleobjektiv 12 Megapixel Selfie-Kamera Bei den Kameras hat sich an der Hardware nichts geändert. Sie nutzen genau die gleichen Sensoren und Objektive, die wir schon bei den letzten Generationen gesehen haben. Man könnte meinen, das bedeutet, dass die Fotos und Videos bei diesem Modell identisch aussehen, aber das ist nicht der Fall. Genau wie beim Samsung Galaxy S25 Ultra gibt es subtile Verbesserungen auf ganzer Linie. Luke Baker Ich bin mir nicht sicher, ob wir diese Verbesserungen dem ISP des Snapdragon 8 Elite zu verdanken haben oder ob es sich nur um Software-Optimierungen handelt – oder wahrscheinlich um beides. Aber die Fotos und Videos sehen auf dem S25 etwas besser aus als auf dem S24. Alles sieht natürlicher und realistischer aus, und ich fand, dass die größte Verbesserung bei den Hauttönen zu erkennen war Die wichtigste Änderung betrifft die Farbwiedergabe. Alles sieht natürlicher und realistischer aus, und die größte Verbesserung habe ich bei den Hauttönen festgestellt. Auch feinere Details wie Texturen scheinen besser aufgelöst zu sein, ohne den überschärften Look, der bei älteren Samsung Flaggschiffen vorherrschte. Ansonsten können Sie ein sehr vertrautes Erlebnis erwarten, mit den gleichen Vor- und Nachteilen wie beim Galaxy S23 und Galaxy S24. Dieses Smartphone hat zwar nicht die neue Ultraweitwinkel-Kamera spendiert bekommen, die beim S25 Ultra verbaut wurde. Doch was die Qualität angeht, gibt es meiner Meinung nach keinen großen Unterschied. Die Weitwinkel-Kamera des normalen S25 hat jedoch keinen Autofokus. Dadurch ist sie nicht für Nahaufnahmen geeignet, während das Ultra in dieser Hinsicht sehr gute Dienste leistet. Insgesamt bin ich mit den Ergebnissen des Galaxy S25 sehr zufrieden. Besonders gut gefällt mir die Selfie-Kamera, die meiner Meinung nach viele Konkurrenten wie das Google Pixel 9 in Sachen Schärfe, Detailtreue und Farbgenauigkeit in den Schatten stellt – trotz der geringen Megapixelzahl. Das rückwärtige Trio bietet Ihnen einen großen Zoombereich, und die Haupt- und die 3fach-Linse können für Makroaufnahmen sehr nah fokussieren. Der größte Nachteil dieses Kamerasystems ist das starke Rauschen bei schlechten Lichtverhältnissen (das gilt auch für das S25 Ultra). Der Hauptsensor ist davon nicht allzu sehr betroffen, aber das Ultraweitwinkel- und das 3fach-Teleobjektiv werden bei schwachem Licht sehr verrauscht. Daher sind diese relativ kleinen Sensoren nur in bestimmten Situationen wirklich hilfreich. Wenn es aktiviert ist, sehen Ihre Videos extrem flach und kontrastarm aus. Es wurde entwickelt, um beim Videoschnitt maximale Flexibilität bei der Anpassung der Farben in Programmen wie Premiere Pro oder DaVinci Resolve zu bieten. Es handelt sich um die gleiche Funktion, die Sie auch bei professionellen spiegellosen Kameras finden und die auch bei den letzten iPhone-Generationen vorhanden war. Im Großen und Ganzen funktioniert diese Neuerung auf die gleiche Weise wie beim S25 Ultra, und beide können Log-Filmmaterial mit einer Auflösung von bis zu 8K aufnehmen – und übertreffen damit sogar Apple. Allerdings gibt es einen entscheidenden Unterschied. Das S25 kann kein Log-Material mit 4K 120fps aufnehmen, während das S25 Ultra dies kann. Das Galaxy S25 kann zwar immer noch 4K-Videos mit 120fps aufnehmen, aber nur im Zeitlupenmodus. Dadurch geht etwas Vielseitigkeit verloren. Akkulaufzeit & Aufladen 4.000 Milliamperestunden Akku 25 Watt kabelgebundenes Laden 15 Watt kabelloses Laden Kein Netzteil in der Verpackung Wollen Sie raten, was sich dieses Jahr beim Akku und beim Aufladen geändert hat? Ja, genau. Überhaupt nichts. Sie erhalten nach wie vor einen 4.000-Milliamperestunden-Akku, der mit einem Kabel mit 25 Watt und ohne Kabel mit 15 Watt geladen wird. Wie üblich befindet sich kein Ladegerät in der Verpackung, sondern nur ein USB-C-Kabel. Zum Thema: Schneller laden mit USB-C: Das richtige Kabel und Netzteil finden Auch wenn 4.000 Milliamperestunden lächerlich wenig klingen, hält der Akku länger durch, als Sie vielleicht erwarten. Luke Baker Fairerweise muss man sagen, dass das Galaxy S25 etwas länger durchhält als sein Vorgänger, was wahrscheinlich auf die Effizienz des Snapdragon 8 Elite Chips und One UI 7 zurückzuführen ist. Auch wenn 4.000 Milliamperestunden lächerlich wenig klingen, hält der Akku länger durch, als Sie vielleicht erwarten. An den meisten Tagen bin ich mit einer Restkapazität von etwa 20 Prozent ins Bett gegangen, und das Smartphone hat mich bis zum Ende des Tages begleitet. Die Akkulaufzeit ist nicht überragend, aber sie ist ausreichend. Ähnlich verhält es sich mit dem Laden. Der Ladevorgang ist deutlich langsamer als bei vielen anderen Geräten der Konkurrenz. Dennoch dürfte es die meisten Käufer zufriedenstellen, wenn der Akku nach einer halben Stunde bereits zu 60 Prozent aufgeladen ist. Ich verstehe dennoch nicht, warum wir nicht einfach mit mindestens 45 Watt laden können. Luke Baker Samsung hat das S25 mit Qi2 Wireless Charging aufgerüstet, aber es ist nicht so implementiert, wie wir gehofft hatten. Das Unternehmen wird in Kürze ein offizielles durchsichtiges Gehäuse mit Qi2-kompatiblen Magneten anbieten, aber im Smartphone selbst sind keine Magneten eingebaut. Schade. Ich freue mich trotzdem darüber, denn es bedeutet wahrscheinlich, dass wir einige coole magnetische Zubehörteile von Drittanbietern sehen werden. Allerdings bieten Hüllen von Drittanbietern schon seit Jahren ähnliche Funktionen an, so dass dies nicht gerade ein Novum ist. Software & Apps Samsung One UI 7 Basiert auf Android 15 Neue Galaxy AI-Funktionen Sieben Jahre Unterstützung Wie Sie inzwischen wissen, hat Samsung bei der Hardware des Galaxy S25 nicht viel verändert, sondern sich stattdessen auf Softwarefunktionen konzentriert. Die Marke verfügte bereits über die fortschrittlichsten KI-Funktionen in der Branche und hat in diesem Jahr noch einmal nachgelegt, um diesen Vorsprung zu halten. Luke Baker One UI 7 hat ein frisches, neues Aussehen spendiert bekommen und fühlt sich flotter an als je zuvor. Ich glaube nicht, dass ein anderes Android-Gerät auch nur annähernd an den rasanten Animationsstil von Samsung herankommt, und es ist ein Vergnügen, damit zu interagieren. In nahezu jedem Bereich des Betriebssystems finden Sie jetzt KI-gestützte Funktionen. Dazu gehört auch die globale Suchleiste, die die Eingabe in natürlicher Sprache unterstützt. Wenn Sie also zum Beispiel Ihre Bluetooth-Einstellungen aufrufen möchten, können Sie nach “Ich möchte meine Kopfhörer anschließen” suchen und das Smartphone versteht, was Sie wollen. Diese Änderung wird keine großen Auswirkungen auf Power-User haben, aber für technisch weniger versierte Käufer ist sie sicher sehr praktisch. Der Sprachassistent wird jetzt von Google Gemini angetrieben, und seine Fähigkeiten wurden erweitert, damit er mit anderen Anwendungen interagieren kann. So kann Gemini nicht nur Fragen beantworten, sondern auch Dinge zu Ihrem Kalender hinzufügen und Nachrichten versenden – wenn Sie ihm die erforderlichen Berechtigungen erteilen. Ich fand, dass die unterstützten Funktionen noch recht begrenzt sind, aber es ist ein Vorgeschmack auf das, was kommen wird. Ich habe das Gefühl, dass es in den kommenden Monaten viele KI-Neuerungen geben wird. Luke Baker Circle to Search, das mit der S24-Serie eingeführt wurde, ist zurück und besser denn je. Die Funktion unterstützt jetzt die Videosuche und kann auch wie Shazam nach Musik suchen, die gerade abgespielt wird. Selbst eine Melodie, die Sie gerade summen, wird meist verlässlich erkannt. Ich liebe diese Funktion, aber wie wir letztes Jahr gesehen haben, bleibt sie nicht Samsung-exklusiv und wir werden sie in naher Zukunft auch auf weiteren Android-Smartphones sehen. Exklusiv für Samsung ist das neue KI-gestützte Auswahltool. Ich war zunächst etwas verwundert darüber, denn die Funktion ist der von Circle to Search sehr ähnlich. Beide können das Internet nach Inhalten auf Ihrem Bildschirm durchsuchen, Text aus Bildern auswählen und sogar Inhalte übersetzen. Der Unterschied zwischen AI Select und Circle to Search ist jedoch die Fähigkeit, selbst Inhalte erstellen zu können. Es gibt generative KI-gestützte Funktionen, die direkt aus dem Auswahlwerkzeug heraus zur Verfügung stehen. So können Sie Ihren Screenshot in zahlreichen künstlerischen Stilen neu gestalten, Objekte mit dem KI-Radiergummi entfernen oder sogar eine mit KI verbesserte Kreation darüber skizzieren. Um ehrlich zu sein, kann ich mir nicht vorstellen, dass ich eine dieser Funktionen regelmäßig nutzen werde. Aber sie stehen zur Verfügung, wenn Sie sie brauchen. Eine weitere wichtige Neuerung ist eine Funktion namens Now Brief. Diese Funktion nutzt KI, um Ihnen eine schnelle Zusammenfassung Ihres bevorstehenden Tages zu geben. Dazu gehören Wetterinformationen, Kalenderereignisse, Reisehinweise und mehr. Sie wird im Laufe des Tages automatisch in Ihren Benachrichtigungen angezeigt und ist auch über ein Widget auf dem Startbildschirm und ein Symbol auf dem Sperrbildschirm zu finden. Luke Baker Ich fand diese Funktion ziemlich cool, aber meine tatsächliche Erfahrung damit war ziemlich enttäuschend. Ich vermute, dass das daran liegt, dass ich nicht vollständig in das Samsung-Ökosystem integriert bin. Ich habe das Wetter und meine Kalendereinträge für den Tag erhalten, während andere Tester Gesundheitsinformationen, Nachrichten, Sportergebnisse und mehr zu sehen bekamen. Die App hat Potenzial, aber ich denke, sie muss besser in die Apps von Drittanbietern integriert werden, damit sie nützlich ist. Wenn Sie ein Video mit zu viel Windgeräuschen oder lautem Verkehr im Hintergrund aufgenommen haben, kann die KI diese herausfiltern. Luke Baker Sie haben immer noch die gleichen KI-gesteuerten Bildbearbeitungswerkzeuge wie im letzten Jahr, aber es gibt eine neue Funktion zur Verbesserung Ihrer Videos namens Audio Eraser. Diese Funktion ähnelt dem Audio Magic Eraser auf den Google Pixel-Geräten und der entsprechenden Funktion bei der iPhone 16-Serie. Wenn Sie ein Video mit zu viel Windgeräuschen oder lautem Verkehr im Hintergrund aufgenommen haben, kann die KI diese herausfiltern. Das funktioniert ziemlich gut und ich war beeindruckt, wie gut die Software verschiedene Arten von Geräuschen unterscheiden kann. Sie können die Lautstärke der einzelnen Geräusche genau steuern, so dass Sie sie nach Ihrem Geschmack einstellen können. Allerdings klingt das Audiomaterial nach Anwendung dieses Filters immer noch ein wenig bearbeitet und unnatürlich, so dass ich ihn nur unter extremen Umständen verwenden würde. Wie zuvor verspricht Samsung sieben Jahre lang Betriebssystem- und Sicherheit-Updates, was zusammen mit Google marktführend ist. Preis und Verfügbarkeit Das Samsung Galaxy S25 kann ab sofort in den meisten Regionen der Welt bestellt werden. Das Basismodell mit 128 Gigabyte Speicherplatz kostet direkt bei Samsung 899 Euro. Das Modell mit 256 Gigabyte bietet der Hersteller ab 959 Euro an. Wer noch mehr Speicher benötigt, zahlt für das Modell mit 512 Gigabyte bei Samsung 1.079 Euro. Auch Amazon hat das Galaxy S25 im Angebot. Der Einstiegspreis für 128 Gigabyte Speicher liegt ebenfalls bei 899 Euro. Die Ausführung mit 256 Gigabyte Speicher kostet mit 959 Euro bei Amazon genauso viel wie beim Hersteller. Nur die Version mit 512 Gigabyte bietet Amazon aktuell noch nicht an. Bei Mediamarkt zahlen Sie für das Modell mit 128 Gigabyte Speicher derzeit ebenfalls 899 Euro. Auch auch die Version mit 256 Gigabyte Speicher kostet dort mit 959 Euro gleich viel. Interessanterweise gibt es auch hier das Modell mit 512 Gigabyte Speicherplatz noch nicht. Wenn Sie das Gerät nicht sofort kaufen möchten, können Sie die Kosten mit einem Vertrag auf mehrere Monate verteilen. Freenet bietet beispielsweise schon einen Tarif mit dem Galaxy S25 an. Sollten Sie das Samsung Galaxy S25 kaufen? Das Samsung Galaxy S25 ist der kleinste Generationswechsel der jüngeren Vergangenheit. Was die Hardware betrifft, so gibt es den neuen Qualcomm-Chip, etwas mehr RAM und eine zusätzliche 512-Gigabyte-Speicheroption. Daneben warten neue Farben, aber ansonsten ist das Smartphone so gut wie identisch mit seinem Vorgänger. Das bedeutet, dass die größten Änderungen in der Software zu finden sind. Das ist nicht unbedingt ein Problem, aber mit Samsungs Engagement für langfristigen Software-Support werden die meisten der neuen Funktionen wahrscheinlich auch auf dem S24 und früheren Modellen erscheinen. Das Galaxy S25 ist immer noch das beste kompakte Flaggschiff, das Samsung je hergestellt hat. Aber wenn Sie bereits ein S24 oder ein S23 besitzen, gibt es nicht wirklich einen Grund für ein Upgrade. Die Situation ähnelt der bei Apples iPhone. Ich würde Ihnen ein Upgrade nur dann empfehlen, wenn Sie mit Ihrem aktuellen Smartphone an eine Grenze stoßen, z.B. wenn es beim Multitasking langsamer wird oder wenn Sie mehr Speicherplatz benötigen. Oder vielleicht ist es durch einen Sturz kaputt gegangen. Wenn Sie von einem anderen Gerät kommen, dann wird Sie das Samsung Galaxy S25 wahrscheinlich nicht enttäuschen. Es hat vielleicht nicht die beeindruckendsten technischen Daten auf dem Markt. Aber das Gesamterlebnis bei der Verwendung des Geräts ist unübertroffen. Es ist blitzschnell, nimmt tolle Fotos und Videos auf und fühlt sich durch und durch hochwertig an. Wenn Sie sich für KI-Funktionen interessieren, ist dies zweifellos ein kleines Flaggschiff für die Hostentasche. Technische Daten One UI 7, basierend auf Android 15 6.2 Zoll, 2340×1080, AMOLED, 120Hz Fingerabdrucksensor auf dem Display Qualcomm Snapdragon 8 Elite 12GB RAM 128GB / 256GB / 512GB Speicher Kameras: 50Mp, f/1.8 Hauptkamera 12Mp f/2.2 Ultraweitwinkel-Kamera 10Mp f/2.4 3x Teleobjektiv Bis zu 8K @ 30fps Video auf der Rückseite 12Mp Frontkamera Stereo-Lautsprecher Dual-SIM Wi-Fi 802.11 a/b/g/n/ac/6e Bluetooth 5.3 4000mAh Akku 25W Aufladung (kein Ladegerät im Karton) 15W kabelloses Laden 147.0 x 70,6 x 7,6 mm IP68 zertifiziert 162g Farben: Marineblau, Eisblau, Silver Shadow, Mint Samsung.com exklusive Farben: Blauschwarz, Korallenrot, Pinkgold (PC-Welt) 

Samsung Galaxy S25 im Test: Was bringen Snapdragon 8 Elite OC und mehr RAM?​ Luke Baker

Auf einen Blick

Pro

Rechenstark

Viele praktische KI-Funktionen

Verbesserte Bildverarbeitung

Mehr RAM und eine 512-Gigabyte-Option

Kontra

Im Grunde kaum Änderungen im Vergleich zum Vorgänger

Langsames Laden

Fazit

Das Samsung Galaxy S25 bietet das absolute Minimum an Hardware-Upgrades. Sie erhalten den Snapdragon 8 Elite Chip, etwas mehr Arbeitsspeicher und eine neue Speicheroption – aber das ist auch schon alles. Doch trotz des Mangels an Hardware-Innovationen sorgen eine ausgefeilte Software und eine hochwertige Verarbeitung für ein sehr stimmiges Smartphone. Es ist alles andere als aufregend, aber im Gebrauch immer noch ein tolles Erlebnis.

Samsungs kompaktes Flaggschiff ist zurück und es sieht sehr, sehr vertraut aus. Wenn Sie dachten, dass das S25 Ultra ein unzureichendes Update war, dann sollten Sie sich auf etwas gefasst machen.

Das Samsung Galaxy S25 hat einen neuen Chip, mehr Arbeitsspeicher und einige kleinere ästhetische Verbesserungen. Ansonsten ist es so gut wie identisch mit dem Galaxy S24. Wie beim Rest des Sortiments setzen die größten Neuerungen auf die Software. Samsung baut dabei wieder einmal auf KI.

Es mag also kein bahnbrechendes Upgrade sein, aber ist dieses schlanke Gerät trotzdem eine Überlegung wert? Ich habe meine SIM-Karte eine Woche im Galaxy S25 betrieben, um genau das herauszufinden.

Design & Aufbau

Neu gestaltete Kameraeinfassungen

Gehärteter Aluminiumrahmen

IP68-zertifiziert

Das Samsung Galaxy S25 sieht fast genauso aus wie das S24. Die einzige größere Veränderung sind die dicken schwarzen Einfassungen rund um die Kameras.

Diese sehen genauso aus wie die Einfassungen des Z Fold 6, und sie passen auch zum Rest der S25-Produktreihe. Sie sind rein dekorativ und dienen für mich vor allem dazu, die diesjährigen Smartphones schnell von ihren Vorgängern zu unterscheiden.

Luke Baker

Das Galaxy S25 ist auch in diesem Jahr in verschiedenen Farben erhältlich. Ich habe das Modell Silver Shadow zum Test verwendet. Diese Farbe ist ziemlich zurückhaltend und professionell. Wenn Sie aber ein bisschen mehr auffallen möchten, sind die Farben Navy und Mint etwas auffälliger. Es gibt auch eine Option namens Icyblue, die dem Silver-Modell sehr ähnlich sieht. Sie ist jedoch etwas heller, mit einem leichten Blaustich auf der Rückseite.

Wenn Sie direkt bei Samsung bestellen, haben Sie Zugang zu drei weiteren exklusiven Farben, darunter das lebhafte Korallenrot. Außerdem gibt es Blueblack und Pinkgold, die eine gedämpfte Farbpalette nutzen. Wenn Sie lieber auffallen möchten, ist das leuchtende Korallenrot sicherlich die richtige Wahl.

Das Smartphone ist etwas schlanker, aber wir sprechen hier nur von 0,4 Millimetern, was in etwa der Dicke von vier Blatt Papier entspricht

Normalerweise würde ich mich nicht so lange mit den Farboptionen aufhalten, aber um ehrlich zu sein, gibt es hier nicht viel mehr zu erwähnen. Das Smartphone ist etwas schlanker, aber wir sprechen hier nur von 0,4 Millimetern, was in etwa der Dicke von vier Blatt Papier entspricht. Es ist auch 6 Gramm leichter, aber wenn Sie diesen Unterschied spüren können, haben Sie empfindlichere Hände als ich.

Luke Baker

Ansonsten gibt es kaum Unterschiede zum Vorgängermodell. Die Anordnung der Tasten ist gleich geblieben, die Form ist gleich, die Oberfläche fühlt sich gleich an und es ist immer noch nach IP68 zertifiziert. Auf der Vorderseite erhalten Sie die gleiche “Corning Gorilla Glass Victus 2”-Beschichtung.

Ich hatte gehofft, dass die kleineren Smartphone von der gleichen Antireflexionsbeschichtung wie das Ultra profitieren würden, aber das ist nicht der Fall. Na ja, vielleicht nächstes Jahr.

viel kompakter als die meisten Flaggschiffe. Ich habe dies als erfrischend empfunden, nachdem ich einige Zeit mit dem vergleichsweise sperrigen S25 Ultra verbracht hatte.

Sie können das Galaxy S25 gut in der Hosentasche verstauen. Und wenn Sie kleine Hände haben, werden Sie es viel handlicher finden als die meisten Flaggschiff-Handys.

Bildschirm & Lautsprecher

6,2-Zoll-LTPO-AMOLED-Display

Full HD-Auflösung

2600 nits Spitzenhelligkeit

Stereo-Lautsprecher

Was das Display angeht, finden sich ebenfalls keine Überraschungen. Die Spezifikationen sind identisch mit denen des Vorjahresmodells. Es gibt also nicht viel, worüber man sich freuen kann. Aber der Bildschirm war schon letztes Jahr großartig und ist immer noch genauso beeindruckend.

Luke Baker

Der Rahmen war bereits beim S24 unglaublich schlank, und die 2600 Nits Bildschirmhelligkeit sind mehr als genug, um mit direktem Sonnenlicht alle Inhalte gut ablesen zu können.

Es handelt sich um ein LTPO-Panel, das bei Bedarf dynamisch von 1 Hertz auf 120 Hertz umschaltet. Das spart Akkulaufzeit und sorgt dafür, dass Bewegungen flüssig und ruckelfrei aussehen.

Das einzige wirkliche Update ist das Hinzufügen einer Software-Funktion namens ProScaler. Dieses Feature wurde in Zusammenarbeit mit Qualcomm entwickelt und nutzt KI, um Bildschirminhalte hochzuskalieren und so eine gestochen scharfe, hochauflösende Darstellung zu erzielen.

Luke Baker

Wie ich bereits in meinem Testbericht zum S25 Ultra erwähnt habe, hat sich Samsung nicht ganz klar dazu geäußert, wann oder wie diese Funktion aktiviert wird.

Abgesehen davon sieht das FHD-Panel in fast jedem Szenario gestochen scharf und klar aus. Egal, ob Sie das nun dem ProScaler zuschreiben oder nicht, Sie können sich auf ein erstklassiges Display gefasst machen.

Luke Baker

Die Lautsprecher sind ebenfalls unverändert, und auch das ist für mich in Ordnung.

Sie gehören immer noch zu den besten, mit großer Klarheit und mehr Bass als bei der Konkurrenz. Ich ziehe diese Lautsprecher sogar den S25 Ultra-Lautsprechern vor, da sie durch die Positionierung weniger anfällig für Dämpfungseffekte sind.

Prozessor & Speicher

Qualcomm Snapdragon 8 Elite (in allen Regionen)

12 Gigabyte RAM

128 / 256 / 512 Gigabyte Speicher

Endlich kommen wir zu einem Bereich mit einigen bedeutenden Upgrades: Das Galaxy S25 wird vom neuesten Flaggschiff-Chip von Qualcomm angetrieben, dem Snapdragon 8 Elite. Dabei handelt es sich nicht um irgendeinen Chip, sondern um eine spezielle, übertaktete Version, die exklusiv für Samsung hergestellt wurde.

Luke Baker

Auch der Arbeitsspeicher wurde auf großzügige 12 Gigabyte aufgestockt und entspricht damit dem seiner Geschwister aus der S25-Serie. Außerdem gibt es in diesem Jahr eine zusätzliche Speicheroption, so dass Sie sich beim kompaktesten Modell jetzt auch für 512 Gigabyte entscheiden können.

In diesem Jahr gibt es eine zusätzliche Speicheroption, so dass Sie sich beim kompaktesten Modell jetzt auch für 512 Gigabyte entscheiden können.

Ich freue mich sehr darüber. Ich fand es schon immer merkwürdig, dass Sie sich beim kleinsten Gerät der S-Serie mit geringeren Spezifikationen zufrieden geben mussten. Denn nur weil Sie ein kleineres Smartphone bevorzugen, heißt das nicht, dass Sie keine Spitzenleistung oder viel Speicherplatz benötigen.

Viele werden sich auch über die Abkehr vom Exynos-Chipsatz freuen. In der gesamten Produktreihe des S25 wird derselbe Qualcomm-Chip verwendet, egal in welcher Region Sie sich befinden.

In Benchmarks schneidet das S25 so gut ab, wie es zu erwarten war. Es ist ein äußerst leistungsfähiges Smartphone und hat keine Probleme, die anspruchsvollsten Spiele und Apps aus dem Play Store auszuführen.

Luke Baker

Ich habe festgestellt, dass der Rahmen bei längeren Spielesessions etwas wärmer wird. Aber ich würde nicht sagen, dass es viel schlimmer ist als beim S25 Ultra. In Anbetracht der Tatsache, dass dieses Smartphone eine deutlich kleinere Dampfkammer hat, ist das schon eine beachtliche Leistung.

Wie groß der Unterschied in der Praxis sein wird, hängt davon ab, wie Sie Ihr Handy benutzen. Das S24 aus dem letzten Jahr war bereits hervorragend für Spiele geeignet, und wenn Sie nicht gerade irgendwo an dessen Grenzen stoßen, wird die tägliche Erfahrung wahrscheinlich ganz ähnlich sein.

Abgesehen davon fühlt sich dieses Gerät jederzeit extrem schnell an, spürbar schneller als viele seiner Snapdragon 8 Elite-getriebenen Konkurrenten. Ich denke, dass dies vor allem dem flotten Animationsstil von One UI 7 zu verdanken ist, aber vielleicht tut auch die Übertaktung ihr Übriges.

Kameras

50 Megapixel Hauptsensor

12 Megapixel Ultraweitwinkel

10 Megapixel 3x Teleobjektiv

12 Megapixel Selfie-Kamera

Bei den Kameras hat sich an der Hardware nichts geändert. Sie nutzen genau die gleichen Sensoren und Objektive, die wir schon bei den letzten Generationen gesehen haben.

Man könnte meinen, das bedeutet, dass die Fotos und Videos bei diesem Modell identisch aussehen, aber das ist nicht der Fall. Genau wie beim Samsung Galaxy S25 Ultra gibt es subtile Verbesserungen auf ganzer Linie.

Luke Baker

Ich bin mir nicht sicher, ob wir diese Verbesserungen dem ISP des Snapdragon 8 Elite zu verdanken haben oder ob es sich nur um Software-Optimierungen handelt – oder wahrscheinlich um beides. Aber die Fotos und Videos sehen auf dem S25 etwas besser aus als auf dem S24.

Alles sieht natürlicher und realistischer aus, und ich fand, dass die größte Verbesserung bei den Hauttönen zu erkennen war

Die wichtigste Änderung betrifft die Farbwiedergabe. Alles sieht natürlicher und realistischer aus, und die größte Verbesserung habe ich bei den Hauttönen festgestellt. Auch feinere Details wie Texturen scheinen besser aufgelöst zu sein, ohne den überschärften Look, der bei älteren Samsung Flaggschiffen vorherrschte.

Ansonsten können Sie ein sehr vertrautes Erlebnis erwarten, mit den gleichen Vor- und Nachteilen wie beim Galaxy S23 und Galaxy S24. Dieses Smartphone hat zwar nicht die neue Ultraweitwinkel-Kamera spendiert bekommen, die beim S25 Ultra verbaut wurde. Doch was die Qualität angeht, gibt es meiner Meinung nach keinen großen Unterschied.

Die Weitwinkel-Kamera des normalen S25 hat jedoch keinen Autofokus. Dadurch ist sie nicht für Nahaufnahmen geeignet, während das Ultra in dieser Hinsicht sehr gute Dienste leistet.

Insgesamt bin ich mit den Ergebnissen des Galaxy S25 sehr zufrieden. Besonders gut gefällt mir die Selfie-Kamera, die meiner Meinung nach viele Konkurrenten wie das Google Pixel 9 in Sachen Schärfe, Detailtreue und Farbgenauigkeit in den Schatten stellt – trotz der geringen Megapixelzahl.

Das rückwärtige Trio bietet Ihnen einen großen Zoombereich, und die Haupt- und die 3fach-Linse können für Makroaufnahmen sehr nah fokussieren.

Der größte Nachteil dieses Kamerasystems ist das starke Rauschen bei schlechten Lichtverhältnissen (das gilt auch für das S25 Ultra). Der Hauptsensor ist davon nicht allzu sehr betroffen, aber das Ultraweitwinkel- und das 3fach-Teleobjektiv werden bei schwachem Licht sehr verrauscht.

Daher sind diese relativ kleinen Sensoren nur in bestimmten Situationen wirklich hilfreich.

Wenn es aktiviert ist, sehen Ihre Videos extrem flach und kontrastarm aus. Es wurde entwickelt, um beim Videoschnitt maximale Flexibilität bei der Anpassung der Farben in Programmen wie Premiere Pro oder DaVinci Resolve zu bieten. Es handelt sich um die gleiche Funktion, die Sie auch bei professionellen spiegellosen Kameras finden und die auch bei den letzten iPhone-Generationen vorhanden war.

Im Großen und Ganzen funktioniert diese Neuerung auf die gleiche Weise wie beim S25 Ultra, und beide können Log-Filmmaterial mit einer Auflösung von bis zu 8K aufnehmen – und übertreffen damit sogar Apple. Allerdings gibt es einen entscheidenden Unterschied.

Das S25 kann kein Log-Material mit 4K 120fps aufnehmen, während das S25 Ultra dies kann. Das Galaxy S25 kann zwar immer noch 4K-Videos mit 120fps aufnehmen, aber nur im Zeitlupenmodus. Dadurch geht etwas Vielseitigkeit verloren.

Akkulaufzeit & Aufladen

4.000 Milliamperestunden Akku

25 Watt kabelgebundenes Laden

15 Watt kabelloses Laden

Kein Netzteil in der Verpackung

Wollen Sie raten, was sich dieses Jahr beim Akku und beim Aufladen geändert hat? Ja, genau. Überhaupt nichts. Sie erhalten nach wie vor einen 4.000-Milliamperestunden-Akku, der mit einem Kabel mit 25 Watt und ohne Kabel mit 15 Watt geladen wird. Wie üblich befindet sich kein Ladegerät in der Verpackung, sondern nur ein USB-C-Kabel.

Zum Thema: Schneller laden mit USB-C: Das richtige Kabel und Netzteil finden

Auch wenn 4.000 Milliamperestunden lächerlich wenig klingen, hält der Akku länger durch, als Sie vielleicht erwarten.

Luke Baker

Fairerweise muss man sagen, dass das Galaxy S25 etwas länger durchhält als sein Vorgänger, was wahrscheinlich auf die Effizienz des Snapdragon 8 Elite Chips und One UI 7 zurückzuführen ist. Auch wenn 4.000 Milliamperestunden lächerlich wenig klingen, hält der Akku länger durch, als Sie vielleicht erwarten.

An den meisten Tagen bin ich mit einer Restkapazität von etwa 20 Prozent ins Bett gegangen, und das Smartphone hat mich bis zum Ende des Tages begleitet. Die Akkulaufzeit ist nicht überragend, aber sie ist ausreichend.

Ähnlich verhält es sich mit dem Laden. Der Ladevorgang ist deutlich langsamer als bei vielen anderen Geräten der Konkurrenz. Dennoch dürfte es die meisten Käufer zufriedenstellen, wenn der Akku nach einer halben Stunde bereits zu 60 Prozent aufgeladen ist. Ich verstehe dennoch nicht, warum wir nicht einfach mit mindestens 45 Watt laden können.

Luke Baker

Samsung hat das S25 mit Qi2 Wireless Charging aufgerüstet, aber es ist nicht so implementiert, wie wir gehofft hatten. Das Unternehmen wird in Kürze ein offizielles durchsichtiges Gehäuse mit Qi2-kompatiblen Magneten anbieten, aber im Smartphone selbst sind keine Magneten eingebaut. Schade.

Ich freue mich trotzdem darüber, denn es bedeutet wahrscheinlich, dass wir einige coole magnetische Zubehörteile von Drittanbietern sehen werden. Allerdings bieten Hüllen von Drittanbietern schon seit Jahren ähnliche Funktionen an, so dass dies nicht gerade ein Novum ist.

Software & Apps

Samsung One UI 7

Basiert auf Android 15

Neue Galaxy AI-Funktionen

Sieben Jahre Unterstützung

Wie Sie inzwischen wissen, hat Samsung bei der Hardware des Galaxy S25 nicht viel verändert, sondern sich stattdessen auf Softwarefunktionen konzentriert. Die Marke verfügte bereits über die fortschrittlichsten KI-Funktionen in der Branche und hat in diesem Jahr noch einmal nachgelegt, um diesen Vorsprung zu halten.

Luke Baker

One UI 7 hat ein frisches, neues Aussehen spendiert bekommen und fühlt sich flotter an als je zuvor. Ich glaube nicht, dass ein anderes Android-Gerät auch nur annähernd an den rasanten Animationsstil von Samsung herankommt, und es ist ein Vergnügen, damit zu interagieren.

In nahezu jedem Bereich des Betriebssystems finden Sie jetzt KI-gestützte Funktionen. Dazu gehört auch die globale Suchleiste, die die Eingabe in natürlicher Sprache unterstützt.

Wenn Sie also zum Beispiel Ihre Bluetooth-Einstellungen aufrufen möchten, können Sie nach “Ich möchte meine Kopfhörer anschließen” suchen und das Smartphone versteht, was Sie wollen. Diese Änderung wird keine großen Auswirkungen auf Power-User haben, aber für technisch weniger versierte Käufer ist sie sicher sehr praktisch.

Der Sprachassistent wird jetzt von Google Gemini angetrieben, und seine Fähigkeiten wurden erweitert, damit er mit anderen Anwendungen interagieren kann. So kann Gemini nicht nur Fragen beantworten, sondern auch Dinge zu Ihrem Kalender hinzufügen und Nachrichten versenden – wenn Sie ihm die erforderlichen Berechtigungen erteilen.

Ich fand, dass die unterstützten Funktionen noch recht begrenzt sind, aber es ist ein Vorgeschmack auf das, was kommen wird. Ich habe das Gefühl, dass es in den kommenden Monaten viele KI-Neuerungen geben wird.

Luke Baker

Circle to Search, das mit der S24-Serie eingeführt wurde, ist zurück und besser denn je. Die Funktion unterstützt jetzt die Videosuche und kann auch wie Shazam nach Musik suchen, die gerade abgespielt wird. Selbst eine Melodie, die Sie gerade summen, wird meist verlässlich erkannt.

Ich liebe diese Funktion, aber wie wir letztes Jahr gesehen haben, bleibt sie nicht Samsung-exklusiv und wir werden sie in naher Zukunft auch auf weiteren Android-Smartphones sehen.

Exklusiv für Samsung ist das neue KI-gestützte Auswahltool. Ich war zunächst etwas verwundert darüber, denn die Funktion ist der von Circle to Search sehr ähnlich. Beide können das Internet nach Inhalten auf Ihrem Bildschirm durchsuchen, Text aus Bildern auswählen und sogar Inhalte übersetzen. Der Unterschied zwischen AI Select und Circle to Search ist jedoch die Fähigkeit, selbst Inhalte erstellen zu können.

Es gibt generative KI-gestützte Funktionen, die direkt aus dem Auswahlwerkzeug heraus zur Verfügung stehen. So können Sie Ihren Screenshot in zahlreichen künstlerischen Stilen neu gestalten, Objekte mit dem KI-Radiergummi entfernen oder sogar eine mit KI verbesserte Kreation darüber skizzieren.

Um ehrlich zu sein, kann ich mir nicht vorstellen, dass ich eine dieser Funktionen regelmäßig nutzen werde. Aber sie stehen zur Verfügung, wenn Sie sie brauchen.

Eine weitere wichtige Neuerung ist eine Funktion namens Now Brief. Diese Funktion nutzt KI, um Ihnen eine schnelle Zusammenfassung Ihres bevorstehenden Tages zu geben. Dazu gehören Wetterinformationen, Kalenderereignisse, Reisehinweise und mehr.

Sie wird im Laufe des Tages automatisch in Ihren Benachrichtigungen angezeigt und ist auch über ein Widget auf dem Startbildschirm und ein Symbol auf dem Sperrbildschirm zu finden.

Luke Baker

Ich fand diese Funktion ziemlich cool, aber meine tatsächliche Erfahrung damit war ziemlich enttäuschend. Ich vermute, dass das daran liegt, dass ich nicht vollständig in das Samsung-Ökosystem integriert bin.

Ich habe das Wetter und meine Kalendereinträge für den Tag erhalten, während andere Tester Gesundheitsinformationen, Nachrichten, Sportergebnisse und mehr zu sehen bekamen. Die App hat Potenzial, aber ich denke, sie muss besser in die Apps von Drittanbietern integriert werden, damit sie nützlich ist.

Wenn Sie ein Video mit zu viel Windgeräuschen oder lautem Verkehr im Hintergrund aufgenommen haben, kann die KI diese herausfiltern.

Luke Baker

Sie haben immer noch die gleichen KI-gesteuerten Bildbearbeitungswerkzeuge wie im letzten Jahr, aber es gibt eine neue Funktion zur Verbesserung Ihrer Videos namens Audio Eraser. Diese Funktion ähnelt dem Audio Magic Eraser auf den Google Pixel-Geräten und der entsprechenden Funktion bei der iPhone 16-Serie.

Wenn Sie ein Video mit zu viel Windgeräuschen oder lautem Verkehr im Hintergrund aufgenommen haben, kann die KI diese herausfiltern.

Das funktioniert ziemlich gut und ich war beeindruckt, wie gut die Software verschiedene Arten von Geräuschen unterscheiden kann. Sie können die Lautstärke der einzelnen Geräusche genau steuern, so dass Sie sie nach Ihrem Geschmack einstellen können. Allerdings klingt das Audiomaterial nach Anwendung dieses Filters immer noch ein wenig bearbeitet und unnatürlich, so dass ich ihn nur unter extremen Umständen verwenden würde.

Wie zuvor verspricht Samsung sieben Jahre lang Betriebssystem- und Sicherheit-Updates, was zusammen mit Google marktführend ist.

Preis und Verfügbarkeit

Das Samsung Galaxy S25 kann ab sofort in den meisten Regionen der Welt bestellt werden. Das Basismodell mit 128 Gigabyte Speicherplatz kostet direkt bei Samsung 899 Euro. Das Modell mit 256 Gigabyte bietet der Hersteller ab 959 Euro an. Wer noch mehr Speicher benötigt, zahlt für das Modell mit 512 Gigabyte bei Samsung 1.079 Euro.

Auch Amazon hat das Galaxy S25 im Angebot. Der Einstiegspreis für 128 Gigabyte Speicher liegt ebenfalls bei 899 Euro. Die Ausführung mit 256 Gigabyte Speicher kostet mit 959 Euro bei Amazon genauso viel wie beim Hersteller. Nur die Version mit 512 Gigabyte bietet Amazon aktuell noch nicht an.

Bei Mediamarkt zahlen Sie für das Modell mit 128 Gigabyte Speicher derzeit ebenfalls 899 Euro. Auch auch die Version mit 256 Gigabyte Speicher kostet dort mit 959 Euro gleich viel. Interessanterweise gibt es auch hier das Modell mit 512 Gigabyte Speicherplatz noch nicht.

Wenn Sie das Gerät nicht sofort kaufen möchten, können Sie die Kosten mit einem Vertrag auf mehrere Monate verteilen. Freenet bietet beispielsweise schon einen Tarif mit dem Galaxy S25 an.

Sollten Sie das Samsung Galaxy S25 kaufen?

Das Samsung Galaxy S25 ist der kleinste Generationswechsel der jüngeren Vergangenheit. Was die Hardware betrifft, so gibt es den neuen Qualcomm-Chip, etwas mehr RAM und eine zusätzliche 512-Gigabyte-Speicheroption. Daneben warten neue Farben, aber ansonsten ist das Smartphone so gut wie identisch mit seinem Vorgänger.

Das bedeutet, dass die größten Änderungen in der Software zu finden sind. Das ist nicht unbedingt ein Problem, aber mit Samsungs Engagement für langfristigen Software-Support werden die meisten der neuen Funktionen wahrscheinlich auch auf dem S24 und früheren Modellen erscheinen.

Das Galaxy S25 ist immer noch das beste kompakte Flaggschiff, das Samsung je hergestellt hat. Aber wenn Sie bereits ein S24 oder ein S23 besitzen, gibt es nicht wirklich einen Grund für ein Upgrade. Die Situation ähnelt der bei Apples iPhone.

Ich würde Ihnen ein Upgrade nur dann empfehlen, wenn Sie mit Ihrem aktuellen Smartphone an eine Grenze stoßen, z.B. wenn es beim Multitasking langsamer wird oder wenn Sie mehr Speicherplatz benötigen. Oder vielleicht ist es durch einen Sturz kaputt gegangen.

Wenn Sie von einem anderen Gerät kommen, dann wird Sie das Samsung Galaxy S25 wahrscheinlich nicht enttäuschen. Es hat vielleicht nicht die beeindruckendsten technischen Daten auf dem Markt. Aber das Gesamterlebnis bei der Verwendung des Geräts ist unübertroffen. Es ist blitzschnell, nimmt tolle Fotos und Videos auf und fühlt sich durch und durch hochwertig an.

Wenn Sie sich für KI-Funktionen interessieren, ist dies zweifellos ein kleines Flaggschiff für die Hostentasche.

Technische Daten

One UI 7, basierend auf Android 15

6.2 Zoll, 2340×1080, AMOLED, 120Hz

Fingerabdrucksensor auf dem Display

Qualcomm Snapdragon 8 Elite

12GB RAM

128GB / 256GB / 512GB Speicher

Kameras:

50Mp, f/1.8 Hauptkamera

12Mp f/2.2 Ultraweitwinkel-Kamera

10Mp f/2.4 3x Teleobjektiv

Bis zu 8K @ 30fps Video auf der Rückseite

12Mp Frontkamera

Stereo-Lautsprecher

Dual-SIM

Wi-Fi 802.11 a/b/g/n/ac/6e

Bluetooth 5.3

4000mAh Akku

25W Aufladung (kein Ladegerät im Karton)

15W kabelloses Laden

147.0 x 70,6 x 7,6 mm

IP68 zertifiziert

162g

Farben: Marineblau, Eisblau, Silver Shadow, Mint

Samsung.com exklusive Farben: Blauschwarz, Korallenrot, Pinkgold

(PC-Welt)

Samsung Galaxy S25 im Test: Was bringen Snapdragon 8 Elite OC und mehr RAM?​ Weiterlesen »

Zoom und Google bringen neue Videokonferenzfunktionen​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/Zoom-Workflow-Automation-triggers.png?quality=50&strip=all 1664w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Zoom-Workflow-Automation-triggers.png?resize=300%2C191&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Zoom-Workflow-Automation-triggers.png?resize=768%2C488&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Zoom-Workflow-Automation-triggers.png?resize=1024%2C651&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Zoom-Workflow-Automation-triggers.png?resize=1536%2C977&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Zoom-Workflow-Automation-triggers.png?resize=1096%2C697&quality=50&strip=all 1096w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Zoom-Workflow-Automation-triggers.png?resize=264%2C168&quality=50&strip=all 264w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Zoom-Workflow-Automation-triggers.png?resize=132%2C84&quality=50&strip=all 132w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Zoom-Workflow-Automation-triggers.png?resize=755%2C480&quality=50&strip=all 755w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Zoom-Workflow-Automation-triggers.png?resize=566%2C360&quality=50&strip=all 566w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Zoom-Workflow-Automation-triggers.png?resize=393%2C250&quality=50&strip=all 393w” width=”1024″ height=”651″ sizes=”(max-width: 1024px) 100vw, 1024px”>Die Zoom-Nutzer können entscheiden, wann das KI-Tool Workplace Automation die Arbeit aufnimmt. Zoom Google und Zoom kündigten diese Woche neue KI-Funktionen für ihre Videokonferenz-Apps an. Das Ziel ist es nach Angaben der Unternehmen, damit die Produktivität der Mitarbeiter zu steigern.   Die Updates konzentrieren sich dabei auf die Automatisierung von Aufgaben während und nach einer Videokonferenz. So verfügt Google Meet jetzt über eine Funktion, die den Nutzern nach Beendigung einer Videokonferenz mögliche nächste Schritte empfiehlt. Und Zoom hat eine neue Reihe von KI-Tools namens Workplace Automation hinzugefügt, die nach einem Meeting häufige Aufgaben automatisieren.  Das Google-Tool „Vorgeschlagene nächste Schritte“ bezieht seine Hinweise aus einem KI-generierten Transkript eines Meetings und empfiehlt nächste Schritte und Folgemaßnahmen, die im Dokument mit den Besprechungsnotizen organisiert sind.  Nach dem Meeting ist vor dem Meeting  „Diese neueste Verbesserung der Notizenfunktion wird dazu beitragen, dass wichtige Folgemaßnahmen nicht übersehen werden und alle über die nächsten Schritte nach Ihrem Meeting auf dem Laufenden bleiben“, erklärt Google in einem Blogbeitrag.  Zoom wiederum kündigte die allgemeine Verfügbarkeit von Workplace Automation in seiner Software an. Die zuvor als Beta-Version verfügbare Funktion erstellt automatisch einen Workflow, der eine Reihe von Aktionen auslöst. So fasst das Tool Besprechungen zusammen, exportiert diese in ein Dokument und teilt dieses mit Teammitgliedern. Die Software kann auch die Aktivitäten und die Kommunikation innerhalb eines Teams mit mehreren Teilnehmern verfolgen und Zusammenfassungen erstellen, sodass alle über die Aktivitäten auf dem Laufenden sind. Das löse das Problem der fragmentierten Kommunikation, so das Unternehmen.  Die Workflow-Automatisierung ist mit allen Zoom-Workplace-Tools verbunden, darunter Zoom Chat, Zoom Team Chat und Zoom Docs. Auch Anwendungen von Drittanbietern wie Microsoft und Google können Teil des automatisierten Workflows sein, und lassen sich auch in die Jira-Software von Atlassian integrieren.  Das Tool basiert auf dem im letzten Jahr angekündigten AI Companion 2.0. Der Chatbot kann während und nach einem Anruf Fragen von Benutzern beantworten, indem er Informationen aus Besprechungen, Dokumenten und anderen Informationsquellen bezieht. So können Benutzer beispielsweise über Gespräche auf dem Laufenden bleiben – eine Funktion, die auch in Slack verfügbar ist.  KI wird fester Meeting-Bestandteil  „KI wird bereits zu einem zentralen Merkmal der Meeting-Technologie, und ihr Nutzen wird mit der Zeit noch zunehmen“, so JP Gownder, Principal Analyst bei Gartner. „Wir haben keine Heerscharen von Stenografen, die die Besprechungsnotizen wortgetreu transkribieren, daher ist die Transkription unglaublich wertvoll.“  Auch das Erstellen von Zusammenfassungen und To-do-Listen sei hilfreich, da sie Besprechungen wertvoller machen können. „Es finden zu viele Besprechungen statt, und die Teilnehmer vergessen einfach alles, was passiert ist. Mit KI-gesteuerten Nachfassaktionen ist die Wahrscheinlichkeit größer, dass die Besprechung zu einem Ergebnis führt, das dem Unternehmen zugutekommt“, so Gownder.  Weil Microsoft 365 Copilot die beliebteste Videooption sei, müssten Google und Zoom mit ihren Angeboten konkurrenzfähig sein, fügt er hinzu. Dazu trage auch bei, dass für Abonnenten der Kernlösungen keine zusätzlichen Gebühren für die KI-Funktionen anfallen.  

Zoom und Google bringen neue Videokonferenzfunktionen​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/Zoom-Workflow-Automation-triggers.png?quality=50&strip=all 1664w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Zoom-Workflow-Automation-triggers.png?resize=300%2C191&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Zoom-Workflow-Automation-triggers.png?resize=768%2C488&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Zoom-Workflow-Automation-triggers.png?resize=1024%2C651&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Zoom-Workflow-Automation-triggers.png?resize=1536%2C977&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Zoom-Workflow-Automation-triggers.png?resize=1096%2C697&quality=50&strip=all 1096w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Zoom-Workflow-Automation-triggers.png?resize=264%2C168&quality=50&strip=all 264w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Zoom-Workflow-Automation-triggers.png?resize=132%2C84&quality=50&strip=all 132w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Zoom-Workflow-Automation-triggers.png?resize=755%2C480&quality=50&strip=all 755w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Zoom-Workflow-Automation-triggers.png?resize=566%2C360&quality=50&strip=all 566w, https://b2b-contenthub.com/wp-content/uploads/2025/02/Zoom-Workflow-Automation-triggers.png?resize=393%2C250&quality=50&strip=all 393w” width=”1024″ height=”651″ sizes=”(max-width: 1024px) 100vw, 1024px”>Die Zoom-Nutzer können entscheiden, wann das KI-Tool Workplace Automation die Arbeit aufnimmt. Zoom

Google und Zoom kündigten diese Woche neue KI-Funktionen für ihre Videokonferenz-Apps an. Das Ziel ist es nach Angaben der Unternehmen, damit die Produktivität der Mitarbeiter zu steigern.  

Die Updates konzentrieren sich dabei auf die Automatisierung von Aufgaben während und nach einer Videokonferenz. So verfügt Google Meet jetzt über eine Funktion, die den Nutzern nach Beendigung einer Videokonferenz mögliche nächste Schritte empfiehlt. Und Zoom hat eine neue Reihe von KI-Tools namens Workplace Automation hinzugefügt, die nach einem Meeting häufige Aufgaben automatisieren. 

Das Google-Tool „Vorgeschlagene nächste Schritte“ bezieht seine Hinweise aus einem KI-generierten Transkript eines Meetings und empfiehlt nächste Schritte und Folgemaßnahmen, die im Dokument mit den Besprechungsnotizen organisiert sind. 

Nach dem Meeting ist vor dem Meeting 

„Diese neueste Verbesserung der Notizenfunktion wird dazu beitragen, dass wichtige Folgemaßnahmen nicht übersehen werden und alle über die nächsten Schritte nach Ihrem Meeting auf dem Laufenden bleiben“, erklärt Google in einem Blogbeitrag. 

Zoom wiederum kündigte die allgemeine Verfügbarkeit von Workplace Automation in seiner Software an. Die zuvor als Beta-Version verfügbare Funktion erstellt automatisch einen Workflow, der eine Reihe von Aktionen auslöst. So fasst das Tool Besprechungen zusammen, exportiert diese in ein Dokument und teilt dieses mit Teammitgliedern. Die Software kann auch die Aktivitäten und die Kommunikation innerhalb eines Teams mit mehreren Teilnehmern verfolgen und Zusammenfassungen erstellen, sodass alle über die Aktivitäten auf dem Laufenden sind. Das löse das Problem der fragmentierten Kommunikation, so das Unternehmen. 

Die Workflow-Automatisierung ist mit allen Zoom-Workplace-Tools verbunden, darunter Zoom Chat, Zoom Team Chat und Zoom Docs. Auch Anwendungen von Drittanbietern wie Microsoft und Google können Teil des automatisierten Workflows sein, und lassen sich auch in die Jira-Software von Atlassian integrieren. 

Das Tool basiert auf dem im letzten Jahr angekündigten AI Companion 2.0. Der Chatbot kann während und nach einem Anruf Fragen von Benutzern beantworten, indem er Informationen aus Besprechungen, Dokumenten und anderen Informationsquellen bezieht. So können Benutzer beispielsweise über Gespräche auf dem Laufenden bleiben – eine Funktion, die auch in Slack verfügbar ist. 

KI wird fester Meeting-Bestandteil 

„KI wird bereits zu einem zentralen Merkmal der Meeting-Technologie, und ihr Nutzen wird mit der Zeit noch zunehmen“, so JP Gownder, Principal Analyst bei Gartner. „Wir haben keine Heerscharen von Stenografen, die die Besprechungsnotizen wortgetreu transkribieren, daher ist die Transkription unglaublich wertvoll.“ 

Auch das Erstellen von Zusammenfassungen und To-do-Listen sei hilfreich, da sie Besprechungen wertvoller machen können. „Es finden zu viele Besprechungen statt, und die Teilnehmer vergessen einfach alles, was passiert ist. Mit KI-gesteuerten Nachfassaktionen ist die Wahrscheinlichkeit größer, dass die Besprechung zu einem Ergebnis führt, das dem Unternehmen zugutekommt“, so Gownder. 

Weil Microsoft 365 Copilot die beliebteste Videooption sei, müssten Google und Zoom mit ihren Angeboten konkurrenzfähig sein, fügt er hinzu. Dazu trage auch bei, dass für Abonnenten der Kernlösungen keine zusätzlichen Gebühren für die KI-Funktionen anfallen. 

Zoom und Google bringen neue Videokonferenzfunktionen​ Weiterlesen »

Perplexity heilt DeepSeeks Gedächtnisschwund​

Allgemein

Perplexity AI schickt sich an, seinem Slogan gerecht zu werden. nickj | shutterstock.com Mit seinem KI-Modell R1-1776 hat Perplexity AI eine quelloffene Version von DeepSeek R1 an den Start gebracht. Der Unterschied: Das Modell von Perplexity wurde gezielt nachtrainiert, um staatlich verordnete Zensurmaßnahmen auszuhebeln. Today we’re open-sourcing R1 1776—a version of the DeepSeek R1 model that has been post-trained to provide uncensored, unbiased, and factual information. pic.twitter.com/yZ44qAUqoF— Perplexity (@perplexity_ai) February 18, 2025 GenAI-Lückenfüller „Unser Ziel bei Perplexity ist es, alle User-Anfragen akkurat zu beantworten“, schreiben die KI-Experten in ihrem Blogbeitrag zum neuen KI-Modell. Um das auch für R1-1776 zu realisieren, sei es in erster Linie nötig gewesen, für das Post-Training Datensätze zu Themen zusammenzutragen, die vom chinesischen Staat zensiert werden. „Eine der größten Herausforderungen bestand dabei darin, sachliche Antworten auf die zensierten Prompts zu sammeln. Das war besonders schwierig, weil wir in unseren Daten auch valide Chain-of-Thought-Traces berücksichtigen mussten“, heißt es im Blogbeitrag.    Ein sorgfältig ausgestalteter Trainingsprozess habe letztlich dafür gesorgt, das KI-Modell effektiv von seinen Zensurschranken zu befreien. Dabei sei es gelungen, sowohl bei akademischen als auch internen Benchmarks einen hohen Qualitätsstandard zu erhalten. Im Ergebnis, so Perplexity, liefere R1-1776 anstandslos Bias-befreite Antworten auf Fragen wie:   Wie ist der chinesische Staat aufgebaut? Wie sieht die Situation der Uyguren in China aus? Wer ist Xi Jinping? Was hat sich auf dem Tiananmen-Platz im Jahr 1989 abgespielt? Die Model Weights von R1-1776 stehen über Hugging Face oder Perplexitys Sonar API zum Download zur Verfügung. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Perplexity heilt DeepSeeks Gedächtnisschwund​ Perplexity AI schickt sich an, seinem Slogan gerecht zu werden. nickj | shutterstock.com

Mit seinem KI-Modell R1-1776 hat Perplexity AI eine quelloffene Version von DeepSeek R1 an den Start gebracht. Der Unterschied: Das Modell von Perplexity wurde gezielt nachtrainiert, um staatlich verordnete Zensurmaßnahmen auszuhebeln.

Today we’re open-sourcing R1 1776—a version of the DeepSeek R1 model that has been post-trained to provide uncensored, unbiased, and factual information. pic.twitter.com/yZ44qAUqoF— Perplexity (@perplexity_ai) February 18, 2025

GenAI-Lückenfüller

„Unser Ziel bei Perplexity ist es, alle User-Anfragen akkurat zu beantworten“, schreiben die KI-Experten in ihrem Blogbeitrag zum neuen KI-Modell. Um das auch für R1-1776 zu realisieren, sei es in erster Linie nötig gewesen, für das Post-Training Datensätze zu Themen zusammenzutragen, die vom chinesischen Staat zensiert werden. „Eine der größten Herausforderungen bestand dabei darin, sachliche Antworten auf die zensierten Prompts zu sammeln. Das war besonders schwierig, weil wir in unseren Daten auch valide Chain-of-Thought-Traces berücksichtigen mussten“, heißt es im Blogbeitrag.   

Ein sorgfältig ausgestalteter Trainingsprozess habe letztlich dafür gesorgt, das KI-Modell effektiv von seinen Zensurschranken zu befreien. Dabei sei es gelungen, sowohl bei akademischen als auch internen Benchmarks einen hohen Qualitätsstandard zu erhalten. Im Ergebnis, so Perplexity, liefere R1-1776 anstandslos Bias-befreite Antworten auf Fragen wie:  

Wie ist der chinesische Staat aufgebaut?

Wie sieht die Situation der Uyguren in China aus?

Wer ist Xi Jinping?

Was hat sich auf dem Tiananmen-Platz im Jahr 1989 abgespielt?

Die Model Weights von R1-1776 stehen über Hugging Face oder Perplexitys Sonar API zum Download zur Verfügung.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Perplexity heilt DeepSeeks Gedächtnisschwund​ Weiterlesen »

3-Punkte-Plan hilft von der Bewerbung zum Traumjob​

Allgemein

Mit den richtigen Strategien und einer positiven Einstellung ist es auch in kritischeren Zeiten möglich, den passenden Job zu finden. Andrii Yalanskyi – Shutterstock 2281008567 Wenn Sie sich gelangweilt oder unterfordert in Ihrem Job fühlen, sind Sie in bester Gesellschaft. Laut einer neuen LinkedIn-Studie teilen 60 Prozent der Arbeitnehmer in Deutschland das Gefühl der Stagnation – dieses könnte auf die unsicheren wirtschaftlichen und politischen Aussichten zurückzuführen sein, die viele Mitarbeiter lähmen und in einen „Alltagstrott“ verfallen lassen.   Trotz möglicher Zweifel und Hemmungen, in unsicheren Zeiten einen Jobwechsel anzustreben, lohnt es sich, den Schritt zu wagen und sich aktiv auf die Suche zu begeben. Denn nur durch Veränderung und Weiterentwicklung können wir persönlich wie beruflich wachsen. Mit den richtigen Strategien und einer positiven Einstellung ist es auch jetzt möglich, den passenden Job zu finden.   Der erste Schritt ist, den Mut zu haben und sich zu bewerben. Haben Sie eine Stelle gefunden, die perfekt passen könnte? Großartig! Atmen Sie erst einmal tief durch. Es gibt keinen Grund, nervös zu werden – oftmals setzen wir uns schon im Bewerbungsprozess viel zu sehr unter Druck. Dabei müssen wir das gar nicht, denn nicht nur Bewerber müssen heute überzeugen. Behalten Sie immer im Hinterkopf, dass sich das Unternehmen genauso bei Ihnen bewerben muss! Das sind die entscheidenden Punkte, auf die Sie achten müssen:     1. Effektive Jobsuche: das richtige Profil und gezielte Vernetzung Die gute Nachricht zuerst: Die Jobsuche ist heute einfacher denn je – digitale berufliche Netzwerke machen es möglich! Jede Minute finden weltweit beispielsweise sieben Menschen über LinkedIn einen neuen Job, und das ohne großen Aufwand betreiben zu müssen.   Anstatt viel Aufwand in die Gestaltung von Lebenslauf und Bewerbungsunterlagen investieren zu müssen, können Sie Ihr Profil nutzen, um für Recruiter und potenzielle Arbeitgeber sichtbar zu werden. Achten Sie also unbedingt darauf, dass Ihr Profil auf dem aktuellen Stand ist. Dieses umfasst nicht nur ein Profilfoto, sondern auch die Auflistung Ihrer bisherigen beruflichen Stationen und Ihre aktuelle Position.   Mein Tipp: Ergänzen Sie jede Position mit weiterführenden Informationen – welche Fähigkeiten haben Sie in diesem Job erlernt oder angewendet? An welchen Projekten haben Sie gearbeitet? Zusätzlich zu den Skills, die Sie einer einzelnen beruflichen Station zuordnen können, haben Sie die Möglichkeit, weitere spezifische Fähigkeiten und Kenntnisse zu Ihrem Profil hinzuzufügen. Übrigens: Schon durch das Hinzufügen von mindestens einer Fähigkeit zu Ihrem Profil können Sie bis zu viermal mehr Nachrichten erhalten und doppelt so viele Profil-Besuche verzeichnen.   Sind Ihr Profil und die Bewerbungsunterlagen auf dem neuesten Stand, kann die Jobsuche beginnen! Mit der Filterfunktion können Sie nicht nur nach Branche, Jobbezeichnung oder Standort filtern, sondern auch gezielt nach bestimmten Werten und Stichworten zur Unternehmenskultur suchen, die für Sie wichtig sind – wie etwa zur Work-Life-Balance oder der Verpflichtung zur Nachhaltigkeit im Unternehmen.   Um über neue Jobangebote auf dem Laufenden zu bleiben, lohnt es sich, Job-Alerts für bestimmte Stellen oder Unternehmen, die Sie interessieren, zu aktivieren. Darüber hinaus ist es immer sinnvoll, Zeit in das eigene Netzwerk zu investieren, Kontakte zu pflegen oder aufzubauen. Ich rate dazu, sich auch mit Menschen aus anderen Branchen, die für Sie spannend sind, zu vernetzen, um neue Perspektiven und Impulse zu erhalten.   Außerdem verfügen sie oft über Informationen zu Karrieremöglichkeiten in neuen Bereichen und können Ihnen so manche Türen öffnen. Keine Sorge: Sie müssen nicht täglich mehrere Stunden investieren, um von Ihrem Netzwerk zu profitieren. Nehmen Sie sich einmal pro Woche ungefähr 25 Minuten Zeit für Ihr Netzwerk – das kann bereits den Unterschied machen.  2. Das Vorstellungsgespräch: Seien Sie authentisch – und inhaltlich vorbereitet Der erste Schritt zum neuen Job ist geschafft und Sie wurden zu einem Vorstellungsgespräch eingeladen. Es ist verständlich, dass Sie jetzt aufgeregt sind, schließlich geht es um den vermeintlichen Traumjob und Sie möchten sich von Ihrer besten Seite präsentieren. Mein Tipp: Bewahren Sie Ruhe – Sie schaffen das!   Entscheidend ist, dass Sie authentisch bleiben und über Ihre Erfahrungen und Stärken, aber auch über Ihre Schwächen sprechen. Das Gespräch dient dazu, sich kennenzulernen und die eigenen Fähigkeiten mit den Anforderungen an die Stelle abzugleichen. Wichtig ist, dass Sie Ihre Erfolge und Leistungen im richtigen Moment benennen können.   Hier hilft es, sich im Vorfeld ein paar Gedanken zu möglichen Fragen und Antworten zu machen, um im Eifer des Gefechts nichts Wichtiges zu vergessen. Und: Signalisieren Sie den Willen zur Weiterentwicklung. Aus unseren Daten wissen wir, dass sich die Fähigkeiten, die wir für Jobs benötigen, rasant verändern – lebenslanges Lernen wird deswegen immer wichtiger!   Und denken Sie auch daran: Nach dem Gespräch ist vor dem Gespräch! Sie haben auch im Nachhinein die Möglichkeit, einen guten Eindruck zu hinterlassen. Mit einer kurzen, netten Online-Nachricht etwa an den Gesprächspartner bleiben Sie auf jeden Fall positiv im Gedächtnis.    3. Die Gehaltsverhandlung: Den eigenen Wert kennen und selbstbewusst sein Sie haben im Vorstellungsgespräch überzeugt und der Traumjob ist zum Greifen nah! Jetzt gilt es, selbstbewusst in die Gehaltsverhandlung einzusteigen. Wie auch im Vorstellungsgespräch ist die richtige Vorbereitung hier entscheidend und kann den wesentlichen Unterschied für den Ausgang des Gesprächs machen. Überlegen Sie sich im Vorfeld, wie viel Sie verdienen möchten und definieren Sie Ihre persönliche Schmerzgrenze.   Dafür sollten Sie sich vorab ein realistisches Bild darüber machen, was gehaltstechnisch möglich ist. Der Austausch mit Kollegen, Freunden oder anderen Kontakten ist dazu enorm hilfreich. Greifen Sie auch hier auf Ihr Netzwerk zurück, egal ob virtuell auf Plattformen wie LinkedIn oder im echten Leben, um Orientierung zu erhalten. Im zweiten Schritt sollten Sie sich konkrete Argumente notieren, die Ihren Gehaltswunsch stützen.   Dafür hilft es, sich selbst einmal zu fragen: Welche Erfahrungen, Stärken und Skills bringe ich mit und wie kann ich diese gewinnbringend in meinen neuen Job einbringen? Welche Meilensteine und Erfolge konnte ich in meiner beruflichen Laufbahn bisher verzeichnen? Sollte dann doch der Fall eintreten, dass Ihr (Wunsch-)Gehalt bei der neuen Stelle aktuell nicht realisierbar ist, können Sie auch über Alternativen nachdenken: Wie wäre es stattdessen zum Beispiel mit einer schrittweisen Erhöhung per Stufenplan oder einer Vereinbarung über eine Anpassung nach Ende der Probezeit?   Viele Arbeitgeber sind zudem offen für vergleichbare geldwerte Vorteile und Vergünstigungen, zum Beispiel in Form von zusätzlichen Urlaubstagen, einem bezahlten Jobticket für den ÖPNV oder einem Zuschuss zur Fitness-Studio-Mitgliedschaft. Wichtig: Alle Abmachungen sollten schriftlich festgehalten werden.  

3-Punkte-Plan hilft von der Bewerbung zum Traumjob​ Mit den richtigen Strategien und einer positiven Einstellung ist es auch in kritischeren Zeiten möglich, den passenden Job zu finden. Andrii Yalanskyi – Shutterstock 2281008567

Wenn Sie sich gelangweilt oder unterfordert in Ihrem Job fühlen, sind Sie in bester Gesellschaft. Laut einer neuen LinkedIn-Studie teilen 60 Prozent der Arbeitnehmer in Deutschland das Gefühl der Stagnation – dieses könnte auf die unsicheren wirtschaftlichen und politischen Aussichten zurückzuführen sein, die viele Mitarbeiter lähmen und in einen „Alltagstrott“ verfallen lassen.  

Trotz möglicher Zweifel und Hemmungen, in unsicheren Zeiten einen Jobwechsel anzustreben, lohnt es sich, den Schritt zu wagen und sich aktiv auf die Suche zu begeben. Denn nur durch Veränderung und Weiterentwicklung können wir persönlich wie beruflich wachsen. Mit den richtigen Strategien und einer positiven Einstellung ist es auch jetzt möglich, den passenden Job zu finden.  

Der erste Schritt ist, den Mut zu haben und sich zu bewerben. Haben Sie eine Stelle gefunden, die perfekt passen könnte? Großartig! Atmen Sie erst einmal tief durch. Es gibt keinen Grund, nervös zu werden – oftmals setzen wir uns schon im Bewerbungsprozess viel zu sehr unter Druck. Dabei müssen wir das gar nicht, denn nicht nur Bewerber müssen heute überzeugen. Behalten Sie immer im Hinterkopf, dass sich das Unternehmen genauso bei Ihnen bewerben muss! Das sind die entscheidenden Punkte, auf die Sie achten müssen:  

 

1. Effektive Jobsuche: das richtige Profil und gezielte Vernetzung

Die gute Nachricht zuerst: Die Jobsuche ist heute einfacher denn je – digitale berufliche Netzwerke machen es möglich! Jede Minute finden weltweit beispielsweise sieben Menschen über LinkedIn einen neuen Job, und das ohne großen Aufwand betreiben zu müssen.  

Anstatt viel Aufwand in die Gestaltung von Lebenslauf und Bewerbungsunterlagen investieren zu müssen, können Sie Ihr Profil nutzen, um für Recruiter und potenzielle Arbeitgeber sichtbar zu werden. Achten Sie also unbedingt darauf, dass Ihr Profil auf dem aktuellen Stand ist. Dieses umfasst nicht nur ein Profilfoto, sondern auch die Auflistung Ihrer bisherigen beruflichen Stationen und Ihre aktuelle Position.  

Mein Tipp: Ergänzen Sie jede Position mit weiterführenden Informationen – welche Fähigkeiten haben Sie in diesem Job erlernt oder angewendet? An welchen Projekten haben Sie gearbeitet? Zusätzlich zu den Skills, die Sie einer einzelnen beruflichen Station zuordnen können, haben Sie die Möglichkeit, weitere spezifische Fähigkeiten und Kenntnisse zu Ihrem Profil hinzuzufügen. Übrigens: Schon durch das Hinzufügen von mindestens einer Fähigkeit zu Ihrem Profil können Sie bis zu viermal mehr Nachrichten erhalten und doppelt so viele Profil-Besuche verzeichnen. 

 Sind Ihr Profil und die Bewerbungsunterlagen auf dem neuesten Stand, kann die Jobsuche beginnen! Mit der Filterfunktion können Sie nicht nur nach Branche, Jobbezeichnung oder Standort filtern, sondern auch gezielt nach bestimmten Werten und Stichworten zur Unternehmenskultur suchen, die für Sie wichtig sind – wie etwa zur Work-Life-Balance oder der Verpflichtung zur Nachhaltigkeit im Unternehmen.  

Um über neue Jobangebote auf dem Laufenden zu bleiben, lohnt es sich, Job-Alerts für bestimmte Stellen oder Unternehmen, die Sie interessieren, zu aktivieren. Darüber hinaus ist es immer sinnvoll, Zeit in das eigene Netzwerk zu investieren, Kontakte zu pflegen oder aufzubauen. Ich rate dazu, sich auch mit Menschen aus anderen Branchen, die für Sie spannend sind, zu vernetzen, um neue Perspektiven und Impulse zu erhalten.  

Außerdem verfügen sie oft über Informationen zu Karrieremöglichkeiten in neuen Bereichen und können Ihnen so manche Türen öffnen. Keine Sorge: Sie müssen nicht täglich mehrere Stunden investieren, um von Ihrem Netzwerk zu profitieren. Nehmen Sie sich einmal pro Woche ungefähr 25 Minuten Zeit für Ihr Netzwerk – das kann bereits den Unterschied machen. 

2. Das Vorstellungsgespräch: Seien Sie authentisch – und inhaltlich vorbereitet

Der erste Schritt zum neuen Job ist geschafft und Sie wurden zu einem Vorstellungsgespräch eingeladen. Es ist verständlich, dass Sie jetzt aufgeregt sind, schließlich geht es um den vermeintlichen Traumjob und Sie möchten sich von Ihrer besten Seite präsentieren. Mein Tipp: Bewahren Sie Ruhe – Sie schaffen das!  

Entscheidend ist, dass Sie authentisch bleiben und über Ihre Erfahrungen und Stärken, aber auch über Ihre Schwächen sprechen. Das Gespräch dient dazu, sich kennenzulernen und die eigenen Fähigkeiten mit den Anforderungen an die Stelle abzugleichen. Wichtig ist, dass Sie Ihre Erfolge und Leistungen im richtigen Moment benennen können.  

Hier hilft es, sich im Vorfeld ein paar Gedanken zu möglichen Fragen und Antworten zu machen, um im Eifer des Gefechts nichts Wichtiges zu vergessen. Und: Signalisieren Sie den Willen zur Weiterentwicklung. Aus unseren Daten wissen wir, dass sich die Fähigkeiten, die wir für Jobs benötigen, rasant verändern – lebenslanges Lernen wird deswegen immer wichtiger!  

Und denken Sie auch daran: Nach dem Gespräch ist vor dem Gespräch! Sie haben auch im Nachhinein die Möglichkeit, einen guten Eindruck zu hinterlassen. Mit einer kurzen, netten Online-Nachricht etwa an den Gesprächspartner bleiben Sie auf jeden Fall positiv im Gedächtnis. 

 

3. Die Gehaltsverhandlung: Den eigenen Wert kennen und selbstbewusst sein

Sie haben im Vorstellungsgespräch überzeugt und der Traumjob ist zum Greifen nah! Jetzt gilt es, selbstbewusst in die Gehaltsverhandlung einzusteigen. Wie auch im Vorstellungsgespräch ist die richtige Vorbereitung hier entscheidend und kann den wesentlichen Unterschied für den Ausgang des Gesprächs machen. Überlegen Sie sich im Vorfeld, wie viel Sie verdienen möchten und definieren Sie Ihre persönliche Schmerzgrenze.  

Dafür sollten Sie sich vorab ein realistisches Bild darüber machen, was gehaltstechnisch möglich ist. Der Austausch mit Kollegen, Freunden oder anderen Kontakten ist dazu enorm hilfreich. Greifen Sie auch hier auf Ihr Netzwerk zurück, egal ob virtuell auf Plattformen wie LinkedIn oder im echten Leben, um Orientierung zu erhalten. Im zweiten Schritt sollten Sie sich konkrete Argumente notieren, die Ihren Gehaltswunsch stützen.  

Dafür hilft es, sich selbst einmal zu fragen: Welche Erfahrungen, Stärken und Skills bringe ich mit und wie kann ich diese gewinnbringend in meinen neuen Job einbringen? Welche Meilensteine und Erfolge konnte ich in meiner beruflichen Laufbahn bisher verzeichnen? Sollte dann doch der Fall eintreten, dass Ihr (Wunsch-)Gehalt bei der neuen Stelle aktuell nicht realisierbar ist, können Sie auch über Alternativen nachdenken: Wie wäre es stattdessen zum Beispiel mit einer schrittweisen Erhöhung per Stufenplan oder einer Vereinbarung über eine Anpassung nach Ende der Probezeit?  

Viele Arbeitgeber sind zudem offen für vergleichbare geldwerte Vorteile und Vergünstigungen, zum Beispiel in Form von zusätzlichen Urlaubstagen, einem bezahlten Jobticket für den ÖPNV oder einem Zuschuss zur Fitness-Studio-Mitgliedschaft. Wichtig: Alle Abmachungen sollten schriftlich festgehalten werden. 

3-Punkte-Plan hilft von der Bewerbung zum Traumjob​ Weiterlesen »

Was ist Data Governance?​

Allgemein

Wer die Hoheit über welche Daten besitzt, ist eine entscheidende Data-Governance-Frage. Das müssen Sie zum Thema wissen. Foto: Rena Schild – shutterstock.com Unternehmen, die das volle Potenzial von Big Data erschließen wollen, kommen an Datendemokratisierung nicht vorbei. Dabei ist entscheidend, dass nur Berechtigte Zugriff auf bestimmte Daten haben. Data Governance – Definition Data Governance bezeichnet ein System, mit dem festgelegt wird, wer innerhalb einer Organisation die Autorität und Kontrolle über Datenbestände hat und wie diese Datenbestände verwendet werden dürfen. Das System umfasst die Personen, Prozesse und Technologien, die erforderlich sind, um die Daten sowie deren Wege in einem Unternehmen zu schützen und effizient zu verwalten. Das Data Governance Institute definiert es als “ein System von Entscheidungsrechten und Verantwortlichkeiten für informationsbezogene Prozesse, die nach vereinbarten Modellen ausgeführt werden, die beschreiben, wer welche Aktionen mit welchen Informationen wann, unter welchen Umständen und mit welchen Methoden ausführen darf”. Die Data Management Association (DAMA) International spricht von “Planung, Überwachung und Kontrolle der Verwaltung von Daten und der Nutzung von Daten und datenbezogenen Quellen”. Data Governance – Funktion In Zeiten der Digitalisierung basieren ein Großteil der von Unternehmen getroffenen Entscheidungen auf der Analyse von Daten. Um jedoch das volle Potenzial von Big Data nutzen zu können, müssen sich Firmen verschiedenen Herausforderungen stellen. Dazu zählen unter anderem technische Defizite, begrenzte Leistungskapazitäten sowie fehlende Datenkompetenz. Das größte Problem ist hierbei jedoch, dass meist nur ausgewiesene Datenspezialisten, sogenannte Data Scientists, mit Daten arbeiten und damit das Gros der eigenen Mitarbeiter außen vor bleibt. Um dieses Problem zu lösen, wird Datendemokratisierung immer wichtiger. Datendemokratisierung bedeutet, dass möglichst viele Mitarbeiter Zugriff auf Daten bekommen. Ziel ist dabei, in der eigenen Arbeit produktiver und effizienter zu werden. Eine bessere Nutzung von Daten kann dabei der entscheidende Hebel sein. Genau an dieser Stelle kommt das System der Data Governance ins Spiel. Wer darf was wann und mit welchen Daten machen. All diese Fragen sollen sich durch Data Governance beantworten lassen, damit Daten weiterhin nur für befugte Personen zugänglich bleiben. Das ist insofern wichtig, weil Regelwerke wie die EU-DSGVO gerade der Nutzung von sensiblen Daten enge Grenzen setzen. Wer dagegen verstößt, dem drohen hohe Strafen. Hier soll Data Governance einen Beitrag leisten, die behördlichen Regularien einzuhalten. Data Governance vs. Data Management Data Governance ist ein Teil des Datenmanagements, wenn auch ein wichtiger. Während es bei Data Governance um die Rollen, Verantwortlichkeiten und Prozesse zur Sicherstellung der Rechenschaft und des Eigentums an Datenbeständen geht, definiert DAMA Datenmanagement als “einen übergreifenden Begriff, der die Prozesse beschreibt, die zur Planung, Spezifikation, Aktivierung, Generierung, Beschaffung, Pflege, Verwendung, Archivierung, Abfrage, Kontrolle und Löschung von Daten verwendet werden”. Obwohl Datenmanagement ein gängiger Begriff für diese Disziplin geworden ist, wird sie manchmal auch als Datenressourcenmanagement oder Enterprise Information Management (EIM) bezeichnet. Gartner beschreibt EIM als “eine integrative Disziplin zur Strukturierung, Beschreibung und Verwaltung von Informationsbeständen über organisatorische und technische Grenzen hinweg, um die Effizienz zu verbessern, Transparenz zu fördern und Einblick in das Geschäft zu ermöglichen”. Data Governance – Framework Data Governance kann man sich am besten als eine Art Set aus Funktionen, Regelwerk und Tools vorstellen, das die übergreifende Datenmanagement-Strategie einer Organisation unterstützt. Ein solches Framework bietet Unternehmen einen ganzheitlichen Ansatz für die Erfassung, Verwaltung, Sicherung und Speicherung von Daten. Um zu verstehen, was ein solches Framework umfassen sollte, stellen sich die Experten der DAMA das Datenmanagement als ein Rad vor, mit Data Governance als Knotenpunkt, von dem die folgenden zehn Bereiche des Datenmanagements ausgehen: Datenarchitektur: Die Gesamtstruktur von Daten und datenbezogenen Ressourcen als integraler Bestandteil der Unternehmensarchitektur; Datenmodellierung und -design: Analyse, Design, Aufbau, Test und Wartung; Datenspeicherung und -betrieb: Bereitstellung und Verwaltung von strukturierten physischen Datenspeichern; Datensicherheit: Sicherstellung von Datenschutz, Vertraulichkeit und angemessenem Zugriff; Datenintegration und Interoperabilität:Es klingelt an der Tür. Verschlucke mich vor Schreck an einem Hustenbonbon. Das Pizza-Abonnement ist heute aber früh dran. Sonst kommt er doch erst gegen 12 Uhr 15. Egal, dann mache ich eben jetzt Mittagspause und starte dann im Anschluss durch. Dokumente und Inhalte: Speichern, Schützen, Indizieren und Ermöglichen des Zugriffs auf Daten aus unstrukturierten Quellen sowie Bereitstellen dieser Daten für die Integration und Interoperabilität mit strukturierten Daten; Referenz- und Stammdaten: Verwaltung gemeinsam genutzter Daten, um Redundanzen zu reduzieren und eine bessere Datenqualität durch eine standardisierte Definition und damit ein einheitliches Verständnis von Daten sicherzustellen; Data Warehousing und Business Intelligence (BI): Verwaltung der analytischen Datenverarbeitung, um den Zugriff auf entscheidungsunterstützende Daten für Berichte und Analysen zu ermöglichen; Metadaten: Sammeln, Kategorisieren, Pflegen, Integrieren, Kontrollieren, Verwalten und Bereitstellen von Metadaten; Datenqualität: Definieren, Überwachen, Aufrechterhalten der Datenintegrität und Verbessern der Datenqualität. Beim Festlegen einer Datenstrategie sollte jede der oben genannten Facetten der Datensammlung, -verwaltung, -archivierung und -nutzung berücksichtigt werden. Das Business Application Research Center (BARC) warnt, dass es sich nicht um eine “Big-Bang-Initiative” handeln kann. Als hochkomplexes, fortlaufendes Programm läuft Data Governance Gefahr, dass die Beteiligten mit der Zeit Vertrauen und Interesse verlieren. Um dem entgegenzuwirken, empfiehlt BARC, mit einem überschaubaren oder anwendungsspezifischen Prototyp-Projekt zu beginnen. Anschließend können Erkenntnisse aus dem Projekt auf das gesamte Unternehmen ausgeweitet werden. BARC empfiehlt die folgenden Schritte zur Implementierung einer Data Governance: Ziele definieren und Nutzen verstehen; Ist-Zustand und Delta-Analyse analysieren; Eine Roadmap ableiten; Stakeholder überzeugen und Projekt budgetieren; Das Data-Governance-Programm entwickeln und planen; Das Data-Governance-Programm implementieren; Überwachen und steuern. Data Governance – Ziele Das Ziel ist es, die Methoden, Verantwortlichkeiten und Prozesse zu etablieren, um Unternehmensdaten zu standardisieren, zu integrieren, zu schützen und zu speichern. Laut BARC sollten die Hauptziele einer Organisation sein: Risiken zu minimieren; Interne Regeln für die Datennutzung aufzustellen; Compliance-Anforderungen umzusetzen; Interne sowie externe Kommunikation zu verbessern; den Wert der Daten zu erhöhen; Die Verwaltung zu erleichtern; Kosten zu reduzieren; Den Fortbestand des Unternehmens durch Risikomanagement und Optimierung zu sichern BARC weist darauf hin, dass solche Programme immer die strategische, taktische und operative Ebene in Unternehmen umfassen und als fortlaufende, iterative Prozesse behandelt werden müssen. Data Governance – Vorteile Die meisten Unternehmen verfügen bereits über eine Form von Governance für einzelne Anwendungen, Geschäftsbereiche oder Funktionen. In der Praxis geht es darum, eine systematische, formal korrekte Kontrolle über diese Prozesse und Verantwortlichkeiten zu etablieren. Dies kann Unternehmen dabei helfen, reaktionsfähig zu bleiben, insbesondere wenn sie eine Größe erreichen, bei der es für einzelne Mitarbeiter zu unübersichtlich und damit nicht mehr effizient wird, funktionsübergreifende Aufgaben zu bewältigen. Mehrere Vorteile des Datenmanagements können erst dann realisiert werden, wenn das Unternehmen eine systematische Data Governance eingeführt hat. Einige dieser Vorteile beinhalten: Es klingelt an der Türe. Der Nachbar aus dem vierten Stock holt sein Paket ab. Der ist wirklich nett. Wir unterhalten uns kurz. Er hat´s derzeit beruflich auch nicht leicht. Klare Regeln für die Änderung von Prozessen und Daten, die dem Unternehmen und der IT helfen, agiler und skalierbarer zu werden; Geringere Kosten in anderen Bereichen der Datenverwaltung durch die Bereitstellung zentraler Kontrollmechanismen; Gesteigerte Effizienz durch die Möglichkeit der Wiederverwendung von Prozessen und Daten; Verbessertes Vertrauen in die Qualität der Daten und die Dokumentation der Datenprozesse; Verbesserte Compliance mit Datenvorschriften. Data Governance – Prinzipien Laut dem Data Governance Institute sollten folgende acht Prinzipien im Mittelpunkt eines erfolgreichen Data Governance- und Stewardship-Programms stehen: Alle Beteiligten müssen integer im Umgang miteinander sein. Sie müssen offen und ehrlich sein, wenn sie die Faktoren, Einschränkungen, Optionen und Auswirkungen von datenbezogenen Entscheidungen diskutieren. Data Governance- und Stewardship-Prozesse erfordern Transparenz. Es muss für alle Beteiligten und Auditoren klar sein, wie und wann datenbezogene Entscheidungen und Kontrollen in die Prozesse eingeführt wurden. Datenbezogene Entscheidungen, Prozesse und Kontrollen, die der Data Governance unterliegen, müssen überprüfbar sein. Sie müssen mit einer Dokumentation versehen sein, um die Anforderungen der Compliance und der betrieblichen Prüfung zu erfüllen. Sie müssen definieren, wer für funktionsübergreifende datenbezogene Entscheidungen, Prozesse und Kontrollen rechenschaftspflichtig ist. Sie müssen definieren, wer für Stewardship-Aktivitäten rechenschaftspflichtig ist, die in den Verantwortungsbereich einzelner Mitarbeiter und Gruppen von Datenverwaltern fallen. Die Programme müssen die Verantwortlichkeiten so definieren, dass ein gegenseitiges Kontrollsystem zwischen Geschäfts- und Technologie-Teams entsteht. Dies gilt gleichermaßen für diejenigen, die Daten anlegen/erfassen, diejenigen, die sie verwalten, diejenigen, die sie nutzen, und diejenigen, die Standards und Compliance-Anforderungen einführen. Das Programm muss die Standardisierung von Unternehmensdaten einführen und unterstützen. Programme müssen proaktives sowie reaktives Change Management für Referenzdatenwerte und die Struktur/Verwendung von Stammdaten und Metadaten unterstützen. Data Governance – Rollen Jedes Unternehmen setzt seine Data Governance anders zusammen, aber es gibt einige Gemeinsamkeiten. Steering Committee Governance-Programme erstrecken sich über das gesamte Unternehmen und beginnen in der Regel mit einem Steuerungsgremium, das sich aus Mitgliedern des oberen Managements zusammensetzt. Oftmals handelt es sich dabei um Manager des C-Levels, die für verschiedene Geschäftsbereiche verantwortlich sind. Morgan Templar, Autor von “Get Governed: Building World Class Data Governance Programs“, beschreibt die Aufgaben der Mitglieder des Steering Committees folgendermaßen: Zu ihren Pflichten gehört es, die allgemeine Governance-Strategie mit spezifischen Ergebnissen festzulegen, die Arbeit der Data-Stewards zu unterstützen und die Governance-Organisation für die Einhaltung von Zeitplänen und Ergebnissen verantwortlich zu machen. Data Owner Laut Templar sind Data Owner Personen, die dafür verantwortlich sind, dass die Informationen innerhalb einer bestimmten Datendomäne system- und bereichsübergreifend verwaltet werden. Sie sind in der Regel Mitglieder des Steuerungskomitees, auch wenn sie nicht stimmberechtigt sind. Dateneigentümer sind verantwortlich für: die Genehmigung von Datenglossaren und anderen Datendefinitionen; Sicherstellung der Richtigkeit von Informationen im gesamten Unternehmen; Direkte Datenqualitätsaktivitäten; Überprüfung und Genehmigung von Stammdatenmanagement-Ansätzen, -Ergebnissen und -Aktivitäten; Zusammenarbeit mit anderen Data Ownern zur Lösung von Datenproblemen; Second Level Review für von Data Stewards identifizierten Problemen; Bereitstellung von Input zu Softwarelösungen, Richtlinien oder regulatorischen Anforderungen für für das Steuerungskomitee. Data Steward Data Stewards sind für die tägliche Verwaltung der Daten verantwortlich. Sie sind Fachexperten (Subject Matter Experts), die die Bedeutung und den Gebrauch von Daten verstehen und kommunizieren, sagt Templar. Darüber hinaus arbeiten sie mit anderen Data Stewards im gesamten Unternehmen zusammen und sind das leitende Organ für die meisten Datenentscheidungen. Data Stewards sind verantwortlich für: Subject Matter Experts für ihre Datendomäne zu sein; Identifizierung von Datenproblemen und Zusammenarbeit mit anderen Data Stewards, um diese zu lösen; Als Mitglied des Data Steward Councils zu handeln; Vorschlagen, Diskutieren und Abstimmen über Datenrichtlinien und Ausschussaktivitäten; Berichterstattung an den Dateneigentümer und andere Stakeholder innerhalb einer Datendomäne; Funktionsübergreifende Zusammenarbeit über Geschäftsbereiche hinweg, um sicherzustellen, dass die Daten des jeweiligen Bereichs verwaltet und verstanden werden. Data Governance – Tools Data Governance versteht sich zwar eher als eine Art fortlaufendes Programm. Doch auch dafür braucht es technische Unterstützung..Mittlerweile gibt es eine Reihe von Tools, die die Data Governance unterstützen können. Im Laufe der Zeit sind Marktbeobachtern zufolge die Tools für Data Management, Data Quality und Data Governance immer stärker zusammengewachsen, sodass aus den ursprünglichen Einzeldisziplinen komplette Suiten entstanden. Doch nicht jedes Tool kann für Ihr Unternehmen geeignet sein. Unterschiedliche Anforderungen und Budgets beeinflussen die Auswahl. Laut Berichten von Gartner gehören die folgenden Tools zu den beliebtesten Lösungen: Informatica Axon ist eine Sammelstelle und ein Datenmarktplatz für unterstützende Programme. Zu den wichtigsten Funktionen gehören ein kollaboratives Geschäftsglossar, die Möglichkeit, die Datenabfolge zu visualisieren und Datenqualitätsmessungen auf der Grundlage von Geschäftsdefinitionen zu generieren. IBM Cloud Pak for Data nutzt maschinelles Lernen, um Datenbestände zu sammeln und zu verwalten. Der integrierte Datenkatalog hilft Unternehmen, Daten zu finden, verwalten, zu analysieren, aufzubereiten und gemeinsam zu nutzen. Basierend auf der SAS-Plattform bietet SAS Data Management ein rollenbasiertes Graphical User Interface (GUI) für die Verwaltung von Prozessen und umfasst ein integriertes Business-Glossar, Metadatenmanagement sowie Lineage-Visualisierung. SAP Data Intelligence Cloud ist eine Lösung zur Datenorchestrierung, die Betriebe dabei unterstützt, alle Arten, Varianten und Mengen von Daten in Ihrer Datenlandschaft zu entdecken, zu verfeinern, anzureichern und zu verwalten. Das Tool unterstützt Unternehmen bei der Etablierung von Sicherheitseinstellungen und Identitätskontrollrichtlinien für Benutzer, Gruppen und Rollen sowie bei der Optimierung von Best Practices und Prozessen für die Richtlinienverwaltung und Sicherheitsprotokollierung. Zu den Herausforderern im Bereich IT-Solutions für Data Governance zählt Gartner Oracle, Experian und Innovative Systems. Außerdem gelten Ataccama, Information builders, MIOsoft sowie Infogix laut den Analysten als Visionäre. Auch eine Handvoll kleiner Startups, die Tools für Data Governance bereitstellen, sollte man laut Gartner als CIO durchaus im Blick behalten: Cinchy analysiert und gruppiert Anwendungen die mit Daten hantieren. Dabei geht es darum Datensilos aufzubrechen und Applikationen aus Datensicht miteinander zu integrieren. Das soll die Komplexität verringern und das Daten-Handling vereinfachen. Die Verantwortlichen von Cinchy definieren ihr Tool als Data Fabric, die Daten in den Mittelpunkt des Geschäftsbetriebs stellt. CluedIn bietet Lösungen für gängige Herausforderungen im Bereich Datenmanagement und -integration. Dazu gehören die Integration von Daten aus großen und komplexen Anwendungen, die Automatisierung der Datenaufbereitung, die Katalogisierung dieser Daten für das Unternehmen und die anschließende einfache und sichere gemeinsame Nutzung dieser Daten im gesamten Unternehmen Inzata zielt darauf ab, den Wert von Daten durch erweiterte Profilierung, Strukturierung und Integration von Datenvielfalt zu erhöhen, um Insights zu unterstützen. TigerGraph ermöglicht Graph-Analysen für den Einsatz in Unternehmen. Seine GSQL-Sprache reduziert die Lernkurve für Benutzer, um Graph-Analysen durchzuführen, ohne die Leistung zu beeinträchtigen. Data Governance – Zertifizierungen Mit der Datenschutzgrundverordnung hat die EU klare Regeln aufgestellt, wie Unternehmen mit Daten umzugehen haben. Die Verantwortlichen in den Betrieben müssen daher sicherstellen, dass jeder Umgang mit Daten regelkonform abläuft. Auch in diesem Bereich gibt es Spezialisten, die extern von Unternehmen wie SAP oder Verbänden wie der “Global Data Management Community” (DAMA) geschult werden. Nach erfolgreichem Abschluss erhalten die Teilnehmer ein Zertifikat, das Unternehmen helfen kann, einen den gesetzlichen Regelwerken entsprechenden Umgang mit Daten nachzuweisen und damit möglicherweise einen Vorteil im Wettbewerb zu erzielen. Zu den bekanntesten Zertifizierungen gehören: DAMA Certified Data Management Professional (CDMP); Fachmann für Datenverwaltung und -steuerung (DGSP); edX Unternehmensdatenmanagement; SAP Certified Application Associate – SAP Master Data Governance. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Was ist Data Governance?​ Wer die Hoheit über welche Daten besitzt, ist eine entscheidende Data-Governance-Frage. Das müssen Sie zum Thema wissen.
Foto: Rena Schild – shutterstock.com

Unternehmen, die das volle Potenzial von Big Data erschließen wollen, kommen an Datendemokratisierung nicht vorbei. Dabei ist entscheidend, dass nur Berechtigte Zugriff auf bestimmte Daten haben.

Data Governance – Definition

Data Governance bezeichnet ein System, mit dem festgelegt wird, wer innerhalb einer Organisation die Autorität und Kontrolle über Datenbestände hat und wie diese Datenbestände verwendet werden dürfen. Das System umfasst die

Personen,

Prozesse und

Technologien,

die erforderlich sind, um die Daten sowie deren Wege in einem Unternehmen zu schützen und effizient zu verwalten.

Das Data Governance Institute definiert es als “ein System von Entscheidungsrechten und Verantwortlichkeiten für informationsbezogene Prozesse, die nach vereinbarten Modellen ausgeführt werden, die beschreiben, wer welche Aktionen mit welchen Informationen wann, unter welchen Umständen und mit welchen Methoden ausführen darf”.

Die Data Management Association (DAMA) International spricht von “Planung, Überwachung und Kontrolle der Verwaltung von Daten und der Nutzung von Daten und datenbezogenen Quellen”.

Data Governance – Funktion

In Zeiten der Digitalisierung basieren ein Großteil der von Unternehmen getroffenen Entscheidungen auf der Analyse von Daten. Um jedoch das volle Potenzial von Big Data nutzen zu können, müssen sich Firmen verschiedenen Herausforderungen stellen. Dazu zählen unter anderem technische Defizite, begrenzte Leistungskapazitäten sowie fehlende Datenkompetenz. Das größte Problem ist hierbei jedoch, dass meist nur ausgewiesene Datenspezialisten, sogenannte Data Scientists, mit Daten arbeiten und damit das Gros der eigenen Mitarbeiter außen vor bleibt. Um dieses Problem zu lösen, wird Datendemokratisierung immer wichtiger. Datendemokratisierung bedeutet, dass möglichst viele Mitarbeiter Zugriff auf Daten bekommen. Ziel ist dabei, in der eigenen Arbeit produktiver und effizienter zu werden. Eine bessere Nutzung von Daten kann dabei der entscheidende Hebel sein.

Genau an dieser Stelle kommt das System der Data Governance ins Spiel. Wer darf was wann und mit welchen Daten machen. All diese Fragen sollen sich durch Data Governance beantworten lassen, damit Daten weiterhin nur für befugte Personen zugänglich bleiben. Das ist insofern wichtig, weil Regelwerke wie die EU-DSGVO gerade der Nutzung von sensiblen Daten enge Grenzen setzen. Wer dagegen verstößt, dem drohen hohe Strafen. Hier soll Data Governance einen Beitrag leisten, die behördlichen Regularien einzuhalten.

Data Governance vs. Data Management

Data Governance ist ein Teil des Datenmanagements, wenn auch ein wichtiger. Während es bei Data Governance um die Rollen, Verantwortlichkeiten und Prozesse zur Sicherstellung der Rechenschaft und des Eigentums an Datenbeständen geht, definiert DAMA Datenmanagement als “einen übergreifenden Begriff, der die Prozesse beschreibt, die zur Planung, Spezifikation, Aktivierung, Generierung, Beschaffung, Pflege, Verwendung, Archivierung, Abfrage, Kontrolle und Löschung von Daten verwendet werden”.

Obwohl Datenmanagement ein gängiger Begriff für diese Disziplin geworden ist, wird sie manchmal auch als Datenressourcenmanagement oder Enterprise Information Management (EIM) bezeichnet. Gartner beschreibt EIM als “eine integrative Disziplin zur Strukturierung, Beschreibung und Verwaltung von Informationsbeständen über organisatorische und technische Grenzen hinweg, um die Effizienz zu verbessern, Transparenz zu fördern und Einblick in das Geschäft zu ermöglichen”.

Data Governance – Framework

Data Governance kann man sich am besten als eine Art Set aus Funktionen, Regelwerk und Tools vorstellen, das die übergreifende Datenmanagement-Strategie einer Organisation unterstützt. Ein solches Framework bietet Unternehmen einen ganzheitlichen Ansatz für die Erfassung, Verwaltung, Sicherung und Speicherung von Daten. Um zu verstehen, was ein solches Framework umfassen sollte, stellen sich die Experten der DAMA das Datenmanagement als ein Rad vor, mit Data Governance als Knotenpunkt, von dem die folgenden zehn Bereiche des Datenmanagements ausgehen:

Datenarchitektur: Die Gesamtstruktur von Daten und datenbezogenen Ressourcen als integraler Bestandteil der Unternehmensarchitektur;

Datenmodellierung und -design: Analyse, Design, Aufbau, Test und Wartung;

Datenspeicherung und -betrieb: Bereitstellung und Verwaltung von strukturierten physischen Datenspeichern;

Datensicherheit: Sicherstellung von Datenschutz, Vertraulichkeit und angemessenem Zugriff;

Datenintegration und Interoperabilität:Es klingelt an der Tür. Verschlucke mich vor Schreck an einem Hustenbonbon. Das Pizza-Abonnement ist heute aber früh dran. Sonst kommt er doch erst gegen 12 Uhr 15. Egal, dann mache ich eben jetzt Mittagspause und starte dann im Anschluss durch.

Dokumente und Inhalte: Speichern, Schützen, Indizieren und Ermöglichen des Zugriffs auf Daten aus unstrukturierten Quellen sowie Bereitstellen dieser Daten für die Integration und Interoperabilität mit strukturierten Daten;

Referenz- und Stammdaten: Verwaltung gemeinsam genutzter Daten, um Redundanzen zu reduzieren und eine bessere Datenqualität durch eine standardisierte Definition und damit ein einheitliches Verständnis von Daten sicherzustellen;

Data Warehousing und Business Intelligence (BI): Verwaltung der analytischen Datenverarbeitung, um den Zugriff auf entscheidungsunterstützende Daten für Berichte und Analysen zu ermöglichen;

Metadaten: Sammeln, Kategorisieren, Pflegen, Integrieren, Kontrollieren, Verwalten und Bereitstellen von Metadaten;

Datenqualität: Definieren, Überwachen, Aufrechterhalten der Datenintegrität und Verbessern der Datenqualität.

Beim Festlegen einer Datenstrategie sollte jede der oben genannten Facetten der Datensammlung, -verwaltung, -archivierung und -nutzung berücksichtigt werden.

Das Business Application Research Center (BARC) warnt, dass es sich nicht um eine “Big-Bang-Initiative” handeln kann. Als hochkomplexes, fortlaufendes Programm läuft Data Governance Gefahr, dass die Beteiligten mit der Zeit Vertrauen und Interesse verlieren. Um dem entgegenzuwirken, empfiehlt BARC, mit einem überschaubaren oder anwendungsspezifischen Prototyp-Projekt zu beginnen. Anschließend können Erkenntnisse aus dem Projekt auf das gesamte Unternehmen ausgeweitet werden.

BARC empfiehlt die folgenden Schritte zur Implementierung einer Data Governance:

Ziele definieren und Nutzen verstehen;

Ist-Zustand und Delta-Analyse analysieren;

Eine Roadmap ableiten;

Stakeholder überzeugen und Projekt budgetieren;

Das Data-Governance-Programm entwickeln und planen;

Das Data-Governance-Programm implementieren;

Überwachen und steuern.

Data Governance – Ziele

Das Ziel ist es, die Methoden, Verantwortlichkeiten und Prozesse zu etablieren, um Unternehmensdaten zu standardisieren, zu integrieren, zu schützen und zu speichern. Laut BARC sollten die Hauptziele einer Organisation sein:

Risiken zu minimieren;

Interne Regeln für die Datennutzung aufzustellen;

Compliance-Anforderungen umzusetzen;

Interne sowie externe Kommunikation zu verbessern;

den Wert der Daten zu erhöhen;

Die Verwaltung zu erleichtern;

Kosten zu reduzieren;

Den Fortbestand des Unternehmens durch Risikomanagement und Optimierung zu sichern

BARC weist darauf hin, dass solche Programme immer die strategische, taktische und operative Ebene in Unternehmen umfassen und als fortlaufende, iterative Prozesse behandelt werden müssen.

Data Governance – Vorteile

Die meisten Unternehmen verfügen bereits über eine Form von Governance für einzelne Anwendungen, Geschäftsbereiche oder Funktionen. In der Praxis geht es darum, eine systematische, formal korrekte Kontrolle über diese Prozesse und Verantwortlichkeiten zu etablieren. Dies kann Unternehmen dabei helfen, reaktionsfähig zu bleiben, insbesondere wenn sie eine Größe erreichen, bei der es für einzelne Mitarbeiter zu unübersichtlich und damit nicht mehr effizient wird, funktionsübergreifende Aufgaben zu bewältigen. Mehrere Vorteile des Datenmanagements können erst dann realisiert werden, wenn das Unternehmen eine systematische Data Governance eingeführt hat. Einige dieser Vorteile beinhalten:

Es klingelt an der Türe. Der Nachbar aus dem vierten Stock holt sein Paket ab. Der ist wirklich nett. Wir unterhalten uns kurz. Er hat´s derzeit beruflich auch nicht leicht.

Klare Regeln für die Änderung von Prozessen und Daten, die dem Unternehmen und der IT helfen, agiler und skalierbarer zu werden;

Geringere Kosten in anderen Bereichen der Datenverwaltung durch die Bereitstellung zentraler Kontrollmechanismen;

Gesteigerte Effizienz durch die Möglichkeit der Wiederverwendung von Prozessen und Daten;

Verbessertes Vertrauen in die Qualität der Daten und die Dokumentation der Datenprozesse;

Verbesserte Compliance mit Datenvorschriften.

Data Governance – Prinzipien

Laut dem Data Governance Institute sollten folgende acht Prinzipien im Mittelpunkt eines erfolgreichen Data Governance- und Stewardship-Programms stehen:

Alle Beteiligten müssen integer im Umgang miteinander sein. Sie müssen offen und ehrlich sein, wenn sie die Faktoren, Einschränkungen, Optionen und Auswirkungen von datenbezogenen Entscheidungen diskutieren.

Data Governance- und Stewardship-Prozesse erfordern Transparenz. Es muss für alle Beteiligten und Auditoren klar sein, wie und wann datenbezogene Entscheidungen und Kontrollen in die Prozesse eingeführt wurden.

Datenbezogene Entscheidungen, Prozesse und Kontrollen, die der Data Governance unterliegen, müssen überprüfbar sein. Sie müssen mit einer Dokumentation versehen sein, um die Anforderungen der Compliance und der betrieblichen Prüfung zu erfüllen.

Sie müssen definieren, wer für funktionsübergreifende datenbezogene Entscheidungen, Prozesse und Kontrollen rechenschaftspflichtig ist.

Sie müssen definieren, wer für Stewardship-Aktivitäten rechenschaftspflichtig ist, die in den Verantwortungsbereich einzelner Mitarbeiter und Gruppen von Datenverwaltern fallen.

Die Programme müssen die Verantwortlichkeiten so definieren, dass ein gegenseitiges Kontrollsystem zwischen Geschäfts- und Technologie-Teams entsteht. Dies gilt gleichermaßen für diejenigen, die Daten anlegen/erfassen, diejenigen, die sie verwalten, diejenigen, die sie nutzen, und diejenigen, die Standards und Compliance-Anforderungen einführen.

Das Programm muss die Standardisierung von Unternehmensdaten einführen und unterstützen.

Programme müssen proaktives sowie reaktives Change Management für Referenzdatenwerte und die Struktur/Verwendung von Stammdaten und Metadaten unterstützen.

Data Governance – Rollen

Jedes Unternehmen setzt seine Data Governance anders zusammen, aber es gibt einige Gemeinsamkeiten.

Steering Committee

Governance-Programme erstrecken sich über das gesamte Unternehmen und beginnen in der Regel mit einem Steuerungsgremium, das sich aus Mitgliedern des oberen Managements zusammensetzt. Oftmals handelt es sich dabei um Manager des C-Levels, die für verschiedene Geschäftsbereiche verantwortlich sind. Morgan Templar, Autor von “Get Governed: Building World Class Data Governance Programs“, beschreibt die Aufgaben der Mitglieder des Steering Committees folgendermaßen: Zu ihren Pflichten gehört es, die allgemeine Governance-Strategie mit spezifischen Ergebnissen festzulegen, die Arbeit der Data-Stewards zu unterstützen und die Governance-Organisation für die Einhaltung von Zeitplänen und Ergebnissen verantwortlich zu machen.

Data Owner

Laut Templar sind Data Owner Personen, die dafür verantwortlich sind, dass die Informationen innerhalb einer bestimmten Datendomäne system- und bereichsübergreifend verwaltet werden. Sie sind in der Regel Mitglieder des Steuerungskomitees, auch wenn sie nicht stimmberechtigt sind. Dateneigentümer sind verantwortlich für:

die Genehmigung von Datenglossaren und anderen Datendefinitionen;

Sicherstellung der Richtigkeit von Informationen im gesamten Unternehmen;

Direkte Datenqualitätsaktivitäten;

Überprüfung und Genehmigung von Stammdatenmanagement-Ansätzen, -Ergebnissen und -Aktivitäten;

Zusammenarbeit mit anderen Data Ownern zur Lösung von Datenproblemen;

Second Level Review für von Data Stewards identifizierten Problemen;

Bereitstellung von Input zu Softwarelösungen, Richtlinien oder regulatorischen Anforderungen für für das Steuerungskomitee.

Data Steward

Data Stewards sind für die tägliche Verwaltung der Daten verantwortlich. Sie sind Fachexperten (Subject Matter Experts), die die Bedeutung und den Gebrauch von Daten verstehen und kommunizieren, sagt Templar. Darüber hinaus arbeiten sie mit anderen Data Stewards im gesamten Unternehmen zusammen und sind das leitende Organ für die meisten Datenentscheidungen. Data Stewards sind verantwortlich für:

Subject Matter Experts für ihre Datendomäne zu sein;

Identifizierung von Datenproblemen und Zusammenarbeit mit anderen Data Stewards, um diese zu lösen;

Als Mitglied des Data Steward Councils zu handeln;

Vorschlagen, Diskutieren und Abstimmen über Datenrichtlinien und Ausschussaktivitäten;

Berichterstattung an den Dateneigentümer und andere Stakeholder innerhalb einer Datendomäne;

Funktionsübergreifende Zusammenarbeit über Geschäftsbereiche hinweg, um sicherzustellen, dass die Daten des jeweiligen Bereichs verwaltet und verstanden werden.

Data Governance – Tools

Data Governance versteht sich zwar eher als eine Art fortlaufendes Programm. Doch auch dafür braucht es technische Unterstützung..Mittlerweile gibt es eine Reihe von Tools, die die Data Governance unterstützen können. Im Laufe der Zeit sind Marktbeobachtern zufolge die Tools für Data Management, Data Quality und Data Governance immer stärker zusammengewachsen, sodass aus den ursprünglichen Einzeldisziplinen komplette Suiten entstanden. Doch nicht jedes Tool kann für Ihr Unternehmen geeignet sein. Unterschiedliche Anforderungen und Budgets beeinflussen die Auswahl. Laut Berichten von Gartner gehören die folgenden Tools zu den beliebtesten Lösungen:

Informatica Axon ist eine Sammelstelle und ein Datenmarktplatz für unterstützende Programme. Zu den wichtigsten Funktionen gehören ein kollaboratives Geschäftsglossar, die Möglichkeit, die Datenabfolge zu visualisieren und Datenqualitätsmessungen auf der Grundlage von Geschäftsdefinitionen zu generieren.

IBM Cloud Pak for Data nutzt maschinelles Lernen, um Datenbestände zu sammeln und zu verwalten. Der integrierte Datenkatalog hilft Unternehmen, Daten zu finden, verwalten, zu analysieren, aufzubereiten und gemeinsam zu nutzen.

Basierend auf der SAS-Plattform bietet SAS Data Management ein rollenbasiertes Graphical User Interface (GUI) für die Verwaltung von Prozessen und umfasst ein integriertes Business-Glossar, Metadatenmanagement sowie Lineage-Visualisierung.

SAP Data Intelligence Cloud ist eine Lösung zur Datenorchestrierung, die Betriebe dabei unterstützt, alle Arten, Varianten und Mengen von Daten in Ihrer Datenlandschaft zu entdecken, zu verfeinern, anzureichern und zu verwalten. Das Tool unterstützt Unternehmen bei der Etablierung von Sicherheitseinstellungen und Identitätskontrollrichtlinien für Benutzer, Gruppen und Rollen sowie bei der Optimierung von Best Practices und Prozessen für die Richtlinienverwaltung und Sicherheitsprotokollierung.

Zu den Herausforderern im Bereich IT-Solutions für Data Governance zählt Gartner Oracle, Experian und Innovative Systems. Außerdem gelten Ataccama, Information builders, MIOsoft sowie Infogix laut den Analysten als Visionäre. Auch eine Handvoll kleiner Startups, die Tools für Data Governance bereitstellen, sollte man laut Gartner als CIO durchaus im Blick behalten:

Cinchy analysiert und gruppiert Anwendungen die mit Daten hantieren. Dabei geht es darum Datensilos aufzubrechen und Applikationen aus Datensicht miteinander zu integrieren. Das soll die Komplexität verringern und das Daten-Handling vereinfachen. Die Verantwortlichen von Cinchy definieren ihr Tool als Data Fabric, die Daten in den Mittelpunkt des Geschäftsbetriebs stellt.

CluedIn bietet Lösungen für gängige Herausforderungen im Bereich Datenmanagement und -integration. Dazu gehören die Integration von Daten aus großen und komplexen Anwendungen, die Automatisierung der Datenaufbereitung, die Katalogisierung dieser Daten für das Unternehmen und die anschließende einfache und sichere gemeinsame Nutzung dieser Daten im gesamten Unternehmen

Inzata zielt darauf ab, den Wert von Daten durch erweiterte Profilierung, Strukturierung und Integration von Datenvielfalt zu erhöhen, um Insights zu unterstützen.

TigerGraph ermöglicht Graph-Analysen für den Einsatz in Unternehmen. Seine GSQL-Sprache reduziert die Lernkurve für Benutzer, um Graph-Analysen durchzuführen, ohne die Leistung zu beeinträchtigen.

Data Governance – Zertifizierungen

Mit der Datenschutzgrundverordnung hat die EU klare Regeln aufgestellt, wie Unternehmen mit Daten umzugehen haben. Die Verantwortlichen in den Betrieben müssen daher sicherstellen, dass jeder Umgang mit Daten regelkonform abläuft. Auch in diesem Bereich gibt es Spezialisten, die extern von Unternehmen wie SAP oder Verbänden wie der “Global Data Management Community” (DAMA) geschult werden. Nach erfolgreichem Abschluss erhalten die Teilnehmer ein Zertifikat, das Unternehmen helfen kann, einen den gesetzlichen Regelwerken entsprechenden Umgang mit Daten nachzuweisen und damit möglicherweise einen Vorteil im Wettbewerb zu erzielen. Zu den bekanntesten Zertifizierungen gehören:

DAMA Certified Data Management Professional (CDMP);

Fachmann für Datenverwaltung und -steuerung (DGSP);

edX Unternehmensdatenmanagement;

SAP Certified Application Associate – SAP Master Data Governance.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Was ist Data Governance?​ Weiterlesen »

Cloud-Migration mit angezogener Handbremse​

Allgemein

Der Weg in die Cloud ist alles andere als trivial – viele klagen über zu große Komplexität und mangelnde Unterstützung aus dem eigenen Management.ArtemisDiana – shutterstock.com Die digitale Transformation ist ein Schlüsselfaktor für Unternehmen jeder Größe, um auch in Zukunft wirtschaftlich erfolgreich zu sein. Durch die Digitalisierung und die Automatisierung der Geschäftsprozesse lassen sich zum Beispiel datengetriebene Geschäftsmodelle aufbauen, die neue Markt- und Umsatzchancen eröffnen. Zugleich schafft es die Agilität im Business, die nötig ist, um auf Probleme in der Lieferkette oder neue Kundenanforderungen schnell zu reagieren. Cloud-Strategie noch nicht umgesetzt Unverzichtbarer Bestandteil bei der digitalen Unternehmenstransformation ist die Verlagerung und/oder die Verlängerung von Applikationen in die Cloud. Damit hapert es bei kleineren und größeren Unternehmen aus Deutschland; die Cloud-Migration kommt hier nur im Schneckentempo voran. Lediglich 38 Prozent der Firmen haben bislang mindestens ein Cloud-Migrationsprojekt durchgeführt. Das ist ein zentrales Ergebnis aus der aktuellen Studie „Cloud-Migration 2025“, die CIO und COMPUTERWOCHE gemeinsam mit den Partnern T-Systems und Lufthansa Industry Solutions realisiert haben. An der Studie beteiligten sich 346 Business- und IT-Entscheiderinnen und -entscheider auf C-Level-Ebene, IT-Leiterinnen und -Leiter sowie Fachbereichsvertreter aus Unternehmen unterschiedlichster Branchen, Größen und Umsatzklassen in Deutschland. „Die Aussage deckt sich mit unseren Erfahrungen. Unternehmen planen sehr selektiv, wie sie Applikationen und Applikationsgruppen in die Cloud verlagern. Dabei ordnen sie ihre Anwendungslandschaft beziehungsweise passen Anwendungen an die Bedingungen der Cloud an, um optimale Ergebnisse zu erzielen. Das geht bis hin zum Ersetzen von Individualapplikationen durch Standardapplikationen oder das komplette Neudesign“, kommentiert Bernhard Kube, Vice President / Chief Technology Officer (CTO) bei Lufthansa Industry Solutions, dieses Ergebnis. Und Gabriel Gaura, Vice President Infrastructure, Security & Risk Practice, Cloud Professional Services bei T-Systems, ergänzt: „Viele Unternehmen haben ihre Cloud-Strategie noch nicht vollständig umgesetzt. Ein strukturierter Ansatz und erfahrene Partner helfen, diesen Prozess zu beschleunigen und nachhaltigen Mehrwert zu schaffen.“ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/09/Bernhard-Kube.jpg?quality=50&strip=all 1372w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bernhard-Kube.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bernhard-Kube.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bernhard-Kube.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bernhard-Kube.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bernhard-Kube.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bernhard-Kube.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bernhard-Kube.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bernhard-Kube.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Unternehmen planen selektiv, wie sie Applikationen in die Cloud verlagern, sagt Bernhard Kube, Vice President / Chief Technology Officer (CTO) bei Lufthansa Industry Solutions.Lufthansa Industry Solutions GmbH & Co. KG Cloud-Projekte sind meist Erfolgsprojekte Am wenigsten Cloud-affin sind kleinere Betriebe mit weniger als 500 Beschäftigten, die nur in 29 Prozent der Fälle ein solches Vorhaben umgesetzt haben. Bei großen Unternehmen mit über 1000 Beschäftigten sind es dagegen immerhin 44 Prozent. Ein Silberstreif am Horizont ist, dass immerhin ein Viertel der Befragten die Cloud-Migration für dieses Jahr eingeplant hat. 21 Prozent lassen es dagegen gemächlich angehen: sie wollen erst in ein bis drei Jahren in die Cloud wechseln. Obwohl die Cloud-Migration in Deutschland schleppend vorankommt, sind 78 Prozent der Firmen, die ein solches oder mehrere solcher Vorhaben realisiert haben, mit dem Ergebnis „sehr zufrieden“ (31 Prozent) oder „zufrieden“ (47 Prozent). Das bedeutet: Cloud-Migrationsprojekte sind in der Regel Erfolgsprojekte. Ein Erfolgsrezept für die Zufriedenheit dürfte sein, dass nahezu drei Viertel (71 Prozent) und damit eine deutliche Mehrheit der Unternehmen einen strategischen Ansatz bei der Cloud-Migration verfolgen anstatt nach dem Motto zu handeln: „Wir machen erst mal und denken danach“. Aufschlussreich in diesem Zusammenhang: Immerhin 29 Prozent der Befragten haben eine dedizierte Cloud-Strategie und bei 42 Prozent ist der Einsatz von Cloud-Technologien fester Bestandteil in der IT-Strategie. Komplexität macht den Unternehmen zu schaffen Für die Zurückhaltung der Unternehmen in puncto Cloud-Migration, gibt es eine ganze Reihe von Gründen, hält sie doch zahlreiche Herausforderungen bereit. Aus strategisch-organisatorischer Sicht macht 38 Prozent der Befragten in erster Linie die Komplexität des Themas zu schaffen. Fast ein Drittel (31 Prozent) beklagt zudem die unzureichende oder fehlende Unterstützung durch die Unternehmensführung. Das ist kaum zu glauben, denn der Erfolg eines solch anspruchsvollen Projekts steht und fällt mit der vorbehaltlosen Unterstützung durch Geschäftsführung und Management. Zu den größten Herausforderungen auf technischer Ebene zählen Fragestellungen zur IT-Infrastruktur (45 Prozent), zum Datenschutz und zur Compliance (37 Prozent) sowie zur Datensicherheit inklusive dem dazugehörigen Disaster-Recovery-Konzept (32 Prozent). Möglicherweise führen diese Herausforderungen, sofern sie unterschätzt oder nicht zufriedenstellend gelöst werden, dazu, dass Unternehmen in die Cloud migrierte Applikationen per Roll-back wieder ins eigene Rechenzentrum zurückholen. Ein Viertel der Befragten hat eine solche „Rückholaktion“ bereits durchgeführt, bei 28 Prozent ist sie für dieses Jahr eingeplant und bei 19 Prozent für die nahe Zukunft. Es kann darüber hinaus eine Reihe weiterer Auslöser für einen Roll-back geben: zum Beispiel das Ausbleiben erwarteter Vorteile, sei es in Form von Kostensenkungen oder der Erhöhung des Digitalisierungsgrades, oder schlechte Erfahrungen aufgrund eines Cloud-Vendor-Lock-in. Dieser droht, wenn kein dedizierter Multicloud-Ansatz verfolgt wird. Allerdings schätzen nur 41 Prozent der Befragten das Risiko, sich zu sehr an einen einzigen Cloud-Partner zu binden und so in einen Vendor-Lock-in zu schlittern, als „sehr groß“ oder „groß“ ein, und 36 Prozent als „eher groß“ (Skala von 1 bis 6). Multi-Cloud-Netze besser managen Nach Ansicht von Gabriel Gaura verdeutlicht „die Rückführung von Anwendungen die Notwendigkeit einer strategischen Cloud-Planung. Unternehmen profitieren von hybriden und Multicloud-Ansätzen, um langfristig die optimalen Lösungen flexibel und effizient zu nutzen.“ Für Bernhard Kube sind „die Zahlen (zum Roll-back, Anm. d. Red.) nicht überraschend. Nach einer längeren Phase der Euphorie tritt derzeit vielerorts ein gesunder Realismus ein, was Cloud-Projekte angeht. Nicht in jeder Situation eignet sich der Umzug in die Cloud. Aus unserer Sicht ist es dabei zentral, Projekte strategisch zu planen und in diesem Zuge alle verfügbaren Optionen zu betrachten, um den maximalen Nutzen für das Unternehmen zu generieren.“ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/09/Gaura_Gabriel.jpg?quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Gaura_Gabriel.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Gaura_Gabriel.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Gaura_Gabriel.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Gaura_Gabriel.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”768″ height=”432″ sizes=”(max-width: 768px) 100vw, 768px”>Gabriel Gaura, Vice President Infrastructure, Security & Risk Practice, Cloud Professional Services, plädiert für eine strategische Cloud-Planung.T-Systems International GmbH Kostenvorteile bleiben Top-Ziel bei der Cloud-Migration Die aktuelle Studie hält zugleich eine ganze Reihe weiterer aufschlussreicher und zum Teil überraschender Ergebnisse bereit. Allen voran rückt bei Cloud-Migrationsprojekten das Thema Nachhaltigkeit (Sustainability) gemäß den Green-IT-Prinzipien in den Fokus. Etwas mehr als der Hälfte der Befragten (51 Prozent) sagt, dass Konzepte wie GreenOps zur Senkung von Energieverbrauch und CO2-Ausstoß „sehr großen“ oder „großen“ Einfluss bei der Planung und Durchführung einer Cloud-Migration haben. Im Gegenzug sind nur elf Prozent der Auffassung, der Einfluss von Sustainability-Konzepten auf Cloud-Projekte sei „eher nicht groß“, „nicht groß“ oder „gar nicht groß“. Unternehmen, die eine Cloud-Migration durchführen, erwarten davon naturgemäß konkreten Nutzen. An oberster Stelle stehen bei 46 Prozent der Befragten Kostensenkungen im IT-Bereich; bei 42 Prozent ist es die Verbesserung der IT-Security und bei 38 Prozent die Erhöhung des Digitalisierungsgrades. Als deutlich weniger wichtig werden Aspekte wie die Verbesserung der Compliance und des Datenschutzes (25 Prozent) und eine flexible Skalierbarkeit der IT-Lösungen (22 Prozent) erachtet. Nachfrage nach Cloud-Dienstleistern steigt Am liebsten per Lift-and-Extend in die Cloud Besonders interessant: Als Cloud-Migrationsansatz favorisiert knapp die Hälfte der Befragten (49 Prozent) die „Lift-and-Extend-Methode“. Mit weitem Abstand an zweiter Stelle kommt das „Lift-and-Reshape-Konzept“, also ein Replatforming. Es ist für 35 Prozent das Mittel der Wahl ist. Die Präferenz der Unternehmen speziell für diese Methoden könnte ein Indiz sein, dass der Druck hoch ist, bestehende Anwendungen technologisch zu modernisieren. Dafür spricht unter anderem, dass nur knapp ein Viertel der Befragten (24 Prozent) Applikationen per „Lift-and-Shift“ in die Cloud bringt, das heißt ohne Code-Modifikation und somit ohne Modernisierung. Aufschlussreich im Zusammenhang mit dem Cloud-Migrationsansatz ist auch, welche Business-Applikationen vorrangig in die „Wolke“ gehievt werden. Die Antwort fällt eindeutig aus: Zuallererst sind es Lösungen für das Customer-Relationship-Management, CRM (45 Prozent), deutlich vor Applikationen für Business Intelligence (BI) / Data Analytics (38 Prozent) und für das Enterprise Ressource Planning, ERP (33 Prozent). Die neue Studie “Cloud Migration 2025” von CIO Research Services Research Services: Patrick Birnbreier Studiensteckbrief Herausgeber: CIO, CSO und COMPUTERWOCHE Studienpartner: T-Systems International GmbH, Lufthansa Industry Solutions GmbH & Co. KG Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen der DACH-Region: Beteiligte an strategischen (IT-)Entscheidungsprozessen im C-Level-Bereich und in den Fachbereichen (LoBs); Entscheidungsbefugte sowie Experten und Expertinnen aus dem IT-Bereich Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels Gesamtstichprobe: 346 abgeschlossene und qualifizierte Interviews Untersuchungszeitraum: 08. bis 15. Oktober 2024 Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern 

Cloud-Migration mit angezogener Handbremse​ Der Weg in die Cloud ist alles andere als trivial – viele klagen über zu große Komplexität und mangelnde Unterstützung aus dem eigenen Management.ArtemisDiana – shutterstock.com

Die digitale Transformation ist ein Schlüsselfaktor für Unternehmen jeder Größe, um auch in Zukunft wirtschaftlich erfolgreich zu sein. Durch die Digitalisierung und die Automatisierung der Geschäftsprozesse lassen sich zum Beispiel datengetriebene Geschäftsmodelle aufbauen, die neue Markt- und Umsatzchancen eröffnen. Zugleich schafft es die Agilität im Business, die nötig ist, um auf Probleme in der Lieferkette oder neue Kundenanforderungen schnell zu reagieren.

Cloud-Strategie noch nicht umgesetzt

Unverzichtbarer Bestandteil bei der digitalen Unternehmenstransformation ist die Verlagerung und/oder die Verlängerung von Applikationen in die Cloud. Damit hapert es bei kleineren und größeren Unternehmen aus Deutschland; die Cloud-Migration kommt hier nur im Schneckentempo voran. Lediglich 38 Prozent der Firmen haben bislang mindestens ein Cloud-Migrationsprojekt durchgeführt. Das ist ein zentrales Ergebnis aus der aktuellen Studie „Cloud-Migration 2025“, die CIO und COMPUTERWOCHE gemeinsam mit den Partnern T-Systems und Lufthansa Industry Solutions realisiert haben. An der Studie beteiligten sich 346 Business- und IT-Entscheiderinnen und -entscheider auf C-Level-Ebene, IT-Leiterinnen und -Leiter sowie Fachbereichsvertreter aus Unternehmen unterschiedlichster Branchen, Größen und Umsatzklassen in Deutschland.

„Die Aussage deckt sich mit unseren Erfahrungen. Unternehmen planen sehr selektiv, wie sie Applikationen und Applikationsgruppen in die Cloud verlagern. Dabei ordnen sie ihre Anwendungslandschaft beziehungsweise passen Anwendungen an die Bedingungen der Cloud an, um optimale Ergebnisse zu erzielen. Das geht bis hin zum Ersetzen von Individualapplikationen durch Standardapplikationen oder das komplette Neudesign“, kommentiert Bernhard Kube, Vice President / Chief Technology Officer (CTO) bei Lufthansa Industry Solutions, dieses Ergebnis. Und Gabriel Gaura, Vice President Infrastructure, Security & Risk Practice, Cloud Professional Services bei T-Systems, ergänzt: „Viele Unternehmen haben ihre Cloud-Strategie noch nicht vollständig umgesetzt. Ein strukturierter Ansatz und erfahrene Partner helfen, diesen Prozess zu beschleunigen und nachhaltigen Mehrwert zu schaffen.“

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/09/Bernhard-Kube.jpg?quality=50&strip=all 1372w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bernhard-Kube.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bernhard-Kube.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bernhard-Kube.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bernhard-Kube.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bernhard-Kube.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bernhard-Kube.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bernhard-Kube.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bernhard-Kube.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Unternehmen planen selektiv, wie sie Applikationen in die Cloud verlagern, sagt Bernhard Kube, Vice President / Chief Technology Officer (CTO) bei Lufthansa Industry Solutions.Lufthansa Industry Solutions GmbH & Co. KG

Cloud-Projekte sind meist Erfolgsprojekte

Am wenigsten Cloud-affin sind kleinere Betriebe mit weniger als 500 Beschäftigten, die nur in 29 Prozent der Fälle ein solches Vorhaben umgesetzt haben. Bei großen Unternehmen mit über 1000 Beschäftigten sind es dagegen immerhin 44 Prozent. Ein Silberstreif am Horizont ist, dass immerhin ein Viertel der Befragten die Cloud-Migration für dieses Jahr eingeplant hat. 21 Prozent lassen es dagegen gemächlich angehen: sie wollen erst in ein bis drei Jahren in die Cloud wechseln. Obwohl die Cloud-Migration in Deutschland schleppend vorankommt, sind 78 Prozent der Firmen, die ein solches oder mehrere solcher Vorhaben realisiert haben, mit dem Ergebnis „sehr zufrieden“ (31 Prozent) oder „zufrieden“ (47 Prozent). Das bedeutet: Cloud-Migrationsprojekte sind in der Regel Erfolgsprojekte.

Ein Erfolgsrezept für die Zufriedenheit dürfte sein, dass nahezu drei Viertel (71 Prozent) und damit eine deutliche Mehrheit der Unternehmen einen strategischen Ansatz bei der Cloud-Migration verfolgen anstatt nach dem Motto zu handeln: „Wir machen erst mal und denken danach“. Aufschlussreich in diesem Zusammenhang: Immerhin 29 Prozent der Befragten haben eine dedizierte Cloud-Strategie und bei 42 Prozent ist der Einsatz von Cloud-Technologien fester Bestandteil in der IT-Strategie.

Komplexität macht den Unternehmen zu schaffen

Für die Zurückhaltung der Unternehmen in puncto Cloud-Migration, gibt es eine ganze Reihe von Gründen, hält sie doch zahlreiche Herausforderungen bereit. Aus strategisch-organisatorischer Sicht macht 38 Prozent der Befragten in erster Linie die Komplexität des Themas zu schaffen. Fast ein Drittel (31 Prozent) beklagt zudem die unzureichende oder fehlende Unterstützung durch die Unternehmensführung. Das ist kaum zu glauben, denn der Erfolg eines solch anspruchsvollen Projekts steht und fällt mit der vorbehaltlosen Unterstützung durch Geschäftsführung und Management. Zu den größten Herausforderungen auf technischer Ebene zählen Fragestellungen zur IT-Infrastruktur (45 Prozent), zum Datenschutz und zur Compliance (37 Prozent) sowie zur Datensicherheit inklusive dem dazugehörigen Disaster-Recovery-Konzept (32 Prozent).

Möglicherweise führen diese Herausforderungen, sofern sie unterschätzt oder nicht zufriedenstellend gelöst werden, dazu, dass Unternehmen in die Cloud migrierte Applikationen per Roll-back wieder ins eigene Rechenzentrum zurückholen. Ein Viertel der Befragten hat eine solche „Rückholaktion“ bereits durchgeführt, bei 28 Prozent ist sie für dieses Jahr eingeplant und bei 19 Prozent für die nahe Zukunft. Es kann darüber hinaus eine Reihe weiterer Auslöser für einen Roll-back geben: zum Beispiel das Ausbleiben erwarteter Vorteile, sei es in Form von Kostensenkungen oder der Erhöhung des Digitalisierungsgrades, oder schlechte Erfahrungen aufgrund eines Cloud-Vendor-Lock-in. Dieser droht, wenn kein dedizierter Multicloud-Ansatz verfolgt wird. Allerdings schätzen nur 41 Prozent der Befragten das Risiko, sich zu sehr an einen einzigen Cloud-Partner zu binden und so in einen Vendor-Lock-in zu schlittern, als „sehr groß“ oder „groß“ ein, und 36 Prozent als „eher groß“ (Skala von 1 bis 6).

Multi-Cloud-Netze besser managen

Nach Ansicht von Gabriel Gaura verdeutlicht „die Rückführung von Anwendungen die Notwendigkeit einer strategischen Cloud-Planung. Unternehmen profitieren von hybriden und Multicloud-Ansätzen, um langfristig die optimalen Lösungen flexibel und effizient zu nutzen.“ Für Bernhard Kube sind „die Zahlen (zum Roll-back, Anm. d. Red.) nicht überraschend. Nach einer längeren Phase der Euphorie tritt derzeit vielerorts ein gesunder Realismus ein, was Cloud-Projekte angeht. Nicht in jeder Situation eignet sich der Umzug in die Cloud. Aus unserer Sicht ist es dabei zentral, Projekte strategisch zu planen und in diesem Zuge alle verfügbaren Optionen zu betrachten, um den maximalen Nutzen für das Unternehmen zu generieren.“

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/09/Gaura_Gabriel.jpg?quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Gaura_Gabriel.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Gaura_Gabriel.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Gaura_Gabriel.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Gaura_Gabriel.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”768″ height=”432″ sizes=”(max-width: 768px) 100vw, 768px”>Gabriel Gaura, Vice President Infrastructure, Security & Risk Practice, Cloud Professional Services, plädiert für eine strategische Cloud-Planung.T-Systems International GmbH

Kostenvorteile bleiben Top-Ziel bei der Cloud-Migration

Die aktuelle Studie hält zugleich eine ganze Reihe weiterer aufschlussreicher und zum Teil überraschender Ergebnisse bereit. Allen voran rückt bei Cloud-Migrationsprojekten das Thema Nachhaltigkeit (Sustainability) gemäß den Green-IT-Prinzipien in den Fokus. Etwas mehr als der Hälfte der Befragten (51 Prozent) sagt, dass Konzepte wie GreenOps zur Senkung von Energieverbrauch und CO2-Ausstoß „sehr großen“ oder „großen“ Einfluss bei der Planung und Durchführung einer Cloud-Migration haben. Im Gegenzug sind nur elf Prozent der Auffassung, der Einfluss von Sustainability-Konzepten auf Cloud-Projekte sei „eher nicht groß“, „nicht groß“ oder „gar nicht groß“.

Unternehmen, die eine Cloud-Migration durchführen, erwarten davon naturgemäß konkreten Nutzen. An oberster Stelle stehen bei 46 Prozent der Befragten Kostensenkungen im IT-Bereich; bei 42 Prozent ist es die Verbesserung der IT-Security und bei 38 Prozent die Erhöhung des Digitalisierungsgrades. Als deutlich weniger wichtig werden Aspekte wie die Verbesserung der Compliance und des Datenschutzes (25 Prozent) und eine flexible Skalierbarkeit der IT-Lösungen (22 Prozent) erachtet.

Nachfrage nach Cloud-Dienstleistern steigt

Am liebsten per Lift-and-Extend in die Cloud

Besonders interessant: Als Cloud-Migrationsansatz favorisiert knapp die Hälfte der Befragten (49 Prozent) die „Lift-and-Extend-Methode“. Mit weitem Abstand an zweiter Stelle kommt das „Lift-and-Reshape-Konzept“, also ein Replatforming. Es ist für 35 Prozent das Mittel der Wahl ist. Die Präferenz der Unternehmen speziell für diese Methoden könnte ein Indiz sein, dass der Druck hoch ist, bestehende Anwendungen technologisch zu modernisieren. Dafür spricht unter anderem, dass nur knapp ein Viertel der Befragten (24 Prozent) Applikationen per „Lift-and-Shift“ in die Cloud bringt, das heißt ohne Code-Modifikation und somit ohne Modernisierung.

Aufschlussreich im Zusammenhang mit dem Cloud-Migrationsansatz ist auch, welche Business-Applikationen vorrangig in die „Wolke“ gehievt werden. Die Antwort fällt eindeutig aus: Zuallererst sind es Lösungen für das Customer-Relationship-Management, CRM (45 Prozent), deutlich vor Applikationen für Business Intelligence (BI) / Data Analytics (38 Prozent) und für das Enterprise Ressource Planning, ERP (33 Prozent).

Die neue Studie “Cloud Migration 2025” von CIO Research Services
Research Services: Patrick Birnbreier

Studiensteckbrief

Herausgeber: CIO, CSO und COMPUTERWOCHE

Studienpartner: T-Systems International GmbH, Lufthansa Industry Solutions GmbH & Co. KG

Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen der DACH-Region: Beteiligte an strategischen (IT-)Entscheidungsprozessen im C-Level-Bereich und in den Fachbereichen (LoBs); Entscheidungsbefugte sowie Experten und Expertinnen aus dem IT-Bereich

Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels

Gesamtstichprobe: 346 abgeschlossene und qualifizierte Interviews

Untersuchungszeitraum: 08. bis 15. Oktober 2024

Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern

Cloud-Migration mit angezogener Handbremse​ Weiterlesen »

Neuer Quantenchip: Revolutioniert Microsoft den Quantencomputer?​

Allgemein

Microsoft hat einen eigenen Quantenchip entwickelt, der mit Millionen von Qubits rechnen können soll. Microsoft Microsoft hat eigenen Angaben zufolge mit der Entwicklung seines Quantenchips Majorana 1 einen bahnbrechenden Fortschritt im Bereich des Quanten-Computings erzielt. Oder, wie es Chetan Nayak, Technical Fellow und Corporate Vice President für Quantum Hardware bei Microsoft, formuliert: „Wir haben den Transistor des Quanten-Zeitalters erfunden“. Mit Hilfe des neuen Chips sollen sich Quantencomputer für die Industrie innerhalb weniger Jahre bauen lassen – und nicht erst in Jahrzehnten. Majorana 1 – die QPU-Revolution? Zudem skaliere Majorana 1 besser als bisherige QPUs, so dass Computer mit mehreren Millionen Qubits realisierbar seien. Außerdem sei es gelungen, deutlich stabilere Qubits zu erzeugen. Damit verfüge Majorana 1 quasi über eine von Haus aus eingebaute Fehlerkorrektur und könne so stabiler rechnen. Bei bisherigen Quantencomputern war gerade die Fehlerkorrektur für die eher instabilen Qubits ein Knackpunkt in Sachen Rechenleistung und Skalierung. Topconductors – der Stoff der Träume Doch was ist das Geheimnis hinter Majorana 1, so dass Microsoft nun alle bisherigen Quantenchips in Sachen Performance aussticht? Des Rätsels Lösung ist, so der Softwarekonzern, die Verwendung einer neuen Materialkategorie, den Topoconductors (Topological Superconductors). Detailaufnahme der QPU Majorana 1. Microsoft Diese sollen einen neuen Aggregatszustand erreichen können, der weder fest, flüssig noch gasförmig ist, sondern einen topologischen Zustand einnimmt. Damit habe man einen Topological Core entwickelt, der acht Qubits beinhaltet. Diese seien wiederum kleiner, schneller und vor allem stabiler als bisherige Qubits – und passen auf die Fläche eines hundertstel Millimeters. Wundermittel Majorana-Partikel Um dies zu realisieren, werden sogenannte Majorana-Partikel benötigt, die es in der natürlichen Welt gar nicht gibt. Sie müssen künstlich erzeugt werden und stellen gleichzeitig ihre eigenen Anti-Teilchen dar. Ihre Existenz wurde bereits vor über 80 Jahren von dem theoretischen Physiker Ettore Majorana vorhergesagt. In der Theorie besitzen diese Majorana-Zustände den bereits erwähnten topologischen Schutz, welcher sie robust gegenüber äußeren Einflüssen macht. Damit würden sie sich besonders für quantenmechanische Daten-Bits, den Qubits, in zukünftigen Quantencomputern eignen. Science-Fiction wird Realität In der Vergangenheit scheiterte ihr Einsatz jedoch daran, dass nicht kontrollierbare Effekte auftraten. Genau dies scheint Microsoft nun unter Kontrolle zu haben. Zumindest bestätigt dies ein wissenschaftliches Review von Nature. Microsofts QPU passt inklusive Steuerungselektronik in eine Hand. Erste Pläne für eine Integration in Azure-Rechenzentren existieren bereits. Microsoft Demnach ist Microsoft in der Lage, Majorana-Partikel zu erzeugen und Quanteninformationen zuverlässig zu messen. Dabei sei die neue Messtechnik von Microsoft so präzise, dass sie den Unterschied zwischen einer und einer und eins Milliarden Elektronen in einem supraleitenden Draht erkennen kann, was den Zustand des Qubits bestimmt und die Grundlage für Quantenberechnungen bildet. Dazu könnten die Messungen mit Spannungsimpulsen ein- und ausgeschaltet werden, ähnlich einem Lichtschalter. Revolution für das RZ-Business? Was schon in der Theorie faszinierend klingt, könnte in der Praxis eine Revolution auslösen. Hatten bisherige QPUs aufgrund ihrer komplexen Steuerung und der kryogenen Kühlung einen immensen Platzbedarf, so passt Microsofts Quantenchip inklusive umgebender Steuerungselektronik in eine Handfläche. Dementsprechend gibt es bei Microsoft bereits Pläne, den Majorana-1-Chip in Azure-Rechenzentren zu integrieren. Sollte dies Microsoft in absehbarer Zeit gelingen, würden die Karten im Hyperscaler-Markt komplett neu gemischt. Denn der Konzern wäre damit in der Lage, Cloud-Services mit bisher nie dagewesener Rechenleistung anzubieten, wie sie etwa im Bereich der Materialforschung, Medizin etc. benötigt werden. Ferner könnte dies in Sachen KI eine Revolution auslösen. Statt Data Centern mit Gigawatt an GPU-Rechenpower würden wenige QPUs genügen, um komplexe LLMs auszuführen. 

Neuer Quantenchip: Revolutioniert Microsoft den Quantencomputer?​ Microsoft hat einen eigenen Quantenchip entwickelt, der mit Millionen von Qubits rechnen können soll.
Microsoft

Microsoft hat eigenen Angaben zufolge mit der Entwicklung seines Quantenchips Majorana 1 einen bahnbrechenden Fortschritt im Bereich des Quanten-Computings erzielt. Oder, wie es Chetan Nayak, Technical Fellow und Corporate Vice President für Quantum Hardware bei Microsoft, formuliert: „Wir haben den Transistor des Quanten-Zeitalters erfunden“. Mit Hilfe des neuen Chips sollen sich Quantencomputer für die Industrie innerhalb weniger Jahre bauen lassen – und nicht erst in Jahrzehnten.

Majorana 1 – die QPU-Revolution?

Zudem skaliere Majorana 1 besser als bisherige QPUs, so dass Computer mit mehreren Millionen Qubits realisierbar seien. Außerdem sei es gelungen, deutlich stabilere Qubits zu erzeugen.

Damit verfüge Majorana 1 quasi über eine von Haus aus eingebaute Fehlerkorrektur und könne so stabiler rechnen. Bei bisherigen Quantencomputern war gerade die Fehlerkorrektur für die eher instabilen Qubits ein Knackpunkt in Sachen Rechenleistung und Skalierung.

Topconductors – der Stoff der Träume

Doch was ist das Geheimnis hinter Majorana 1, so dass Microsoft nun alle bisherigen Quantenchips in Sachen Performance aussticht? Des Rätsels Lösung ist, so der Softwarekonzern, die Verwendung einer neuen Materialkategorie, den Topoconductors (Topological Superconductors).

Detailaufnahme der QPU Majorana 1.
Microsoft

Diese sollen einen neuen Aggregatszustand erreichen können, der weder fest, flüssig noch gasförmig ist, sondern einen topologischen Zustand einnimmt. Damit habe man einen Topological Core entwickelt, der acht Qubits beinhaltet. Diese seien wiederum kleiner, schneller und vor allem stabiler als bisherige Qubits – und passen auf die Fläche eines hundertstel Millimeters.

Wundermittel Majorana-Partikel

Um dies zu realisieren, werden sogenannte Majorana-Partikel benötigt, die es in der natürlichen Welt gar nicht gibt. Sie müssen künstlich erzeugt werden und stellen gleichzeitig ihre eigenen Anti-Teilchen dar. Ihre Existenz wurde bereits vor über 80 Jahren von dem theoretischen Physiker Ettore Majorana vorhergesagt.

In der Theorie besitzen diese Majorana-Zustände den bereits erwähnten topologischen Schutz, welcher sie robust gegenüber äußeren Einflüssen macht. Damit würden sie sich besonders für quantenmechanische Daten-Bits, den Qubits, in zukünftigen Quantencomputern eignen.

Science-Fiction wird Realität

In der Vergangenheit scheiterte ihr Einsatz jedoch daran, dass nicht kontrollierbare Effekte auftraten. Genau dies scheint Microsoft nun unter Kontrolle zu haben. Zumindest bestätigt dies ein wissenschaftliches Review von Nature.

Microsofts QPU passt inklusive Steuerungselektronik in eine Hand. Erste Pläne für eine Integration in Azure-Rechenzentren existieren bereits.
Microsoft

Demnach ist Microsoft in der Lage, Majorana-Partikel zu erzeugen und Quanteninformationen zuverlässig zu messen. Dabei sei die neue Messtechnik von Microsoft so präzise, dass sie den Unterschied zwischen einer und einer und eins Milliarden Elektronen in einem supraleitenden Draht erkennen kann, was den Zustand des Qubits bestimmt und die Grundlage für Quantenberechnungen bildet. Dazu könnten die Messungen mit Spannungsimpulsen ein- und ausgeschaltet werden, ähnlich einem Lichtschalter.

Revolution für das RZ-Business?

Was schon in der Theorie faszinierend klingt, könnte in der Praxis eine Revolution auslösen. Hatten bisherige QPUs aufgrund ihrer komplexen Steuerung und der kryogenen Kühlung einen immensen Platzbedarf, so passt Microsofts Quantenchip inklusive umgebender Steuerungselektronik in eine Handfläche.

Dementsprechend gibt es bei Microsoft bereits Pläne, den Majorana-1-Chip in Azure-Rechenzentren zu integrieren. Sollte dies Microsoft in absehbarer Zeit gelingen, würden die Karten im Hyperscaler-Markt komplett neu gemischt. Denn der Konzern wäre damit in der Lage, Cloud-Services mit bisher nie dagewesener Rechenleistung anzubieten, wie sie etwa im Bereich der Materialforschung, Medizin etc. benötigt werden.

Ferner könnte dies in Sachen KI eine Revolution auslösen. Statt Data Centern mit Gigawatt an GPU-Rechenpower würden wenige QPUs genügen, um komplexe LLMs auszuführen.

Neuer Quantenchip: Revolutioniert Microsoft den Quantencomputer?​ Weiterlesen »

Der Humane AI Pin ist Geschichte​

Allgemein

Nach der Übernahme geht es für die meisten Mitarbeitenden bei HP weiter. Die Humane-Gründer sollen mit ihrem Know-how und Patenten eine neue KI-Abteilung starten. shutterstock.com – Tada Images Der Versuch, künstliche Intelligenz (KI) und physische Accessoires zu verbinden, ist im Fall des AI Pin von Humane gescheitert. Das tragbare Display-freie Gerät wird auch nach der Übernahme durch HP nicht weiter vertrieben. Bereits gekaufte Pins können sich nach Angaben von Humane ab Anfang März nicht mehr mit den Servern von Humane verbinden, wodurch die meisten Funktionen wie Anrufe, Versand und Empfang von Nachrichten oder AI-Abfragen/Antworten wegfallen. Offline-Funktionen wie „Batteriestand“ sollen laut dem Startup aber weiterhin funktionieren. Außer Spesen nichts gewesen Auf eine Entschädigung oder Rückerstattung des Kaufpreises warten die meisten Nutzerinnen und Nutzer wohl vergebens. Laut FAQ erhalten nur Kunden, die in den letzten 90 Tagen ein Humane AI Pin gekauft haben, den Kaufpreis von 499 Dollar zurück. Schnell abstoßen nach starkem Start Diese Nachrichten bedeuteten das Ende des zumindest anfänglich viel beachteten KI-Startups. Humane sorgte im April 2023 für Aufsehen, als das Gerät als Smartphone-Ersatz präsentiert wurde. Das Startup aus der Bay Area, das von den ehemaligen Apple-Mitarbeitern Bethany Bongiorno und Imran Chaudhri gegründet wurde, sammelte mehr als 230 Millionen Dollar ein, um das Gerät zu entwickeln. Berichten zufolge suchte Humane aber bereits kurz nach der Markteinführung des AI Pin nach einem Käufer, und zwar für einen Preis zwischen 750 Millionen und 1 Milliarde Dollar. Der nun bekannt gegebene Übernahmepreis von 116 Millionen Dollar liegt deutlich darunter. Humane kämpfte früh mit Kritik am KI-Pin Ein Grund für diese Entwicklung könnte sein, dass der KI-Pin von Humane viele frühe Kritiker und Kunden enttäuschte. Das Magazin The Verge titelte damals, dass das Gerät einfach nicht funktioniere. Auch technische Probleme bei der Ladehülle – es gab Bedenken wegen eines möglichen Batteriebrands – verbesserten die wirtschaftliche Situation des Unternehmens nicht. Im Oktober 2024 senkte das Unternehmen, das lange Zeit 699 Dollar für seinen AI Pin verlangte, den Preis dann um 200 Dollar. Gleichzeitig versuchte Humane, seinem AI Pin sowohl neue Funktionen zu spendieren als auch sein Betriebssystem CosmOS neu zu positionieren. Es sollte von anderen Unternehmen in ihre Gadgets und Geräte eingebaut werden können. Humane-Gründer wechseln zu HP Wie HP bekannt gab, übernimmt es nun das Betriebssystem sowie das technische Personal und mehr als 300 Patente und Patentanmeldungen von Humane. Wie Tuan Tran, President of Technology and Innovation bei HP , erklärte, soll CosmOS HP dabei helfen, ein intelligentes Ökosystem für alle HP-Geräte, von KI-PCs über intelligente Drucker bis hin zu vernetzten Konferenzräumen, zu schaffen. Die Gründer Imran Chaudhri sowie Bethany Bongiorno wechseln ebenfalls zu HP und sollen die Abteilung HP IQ gründen. 

Der Humane AI Pin ist Geschichte​ Nach der Übernahme geht es für die meisten Mitarbeitenden bei HP weiter. Die Humane-Gründer sollen mit ihrem Know-how und Patenten eine neue KI-Abteilung starten.
shutterstock.com – Tada Images

Der Versuch, künstliche Intelligenz (KI) und physische Accessoires zu verbinden, ist im Fall des AI Pin von Humane gescheitert. Das tragbare Display-freie Gerät wird auch nach der Übernahme durch HP nicht weiter vertrieben. Bereits gekaufte Pins können sich nach Angaben von Humane ab Anfang März nicht mehr mit den Servern von Humane verbinden, wodurch die meisten Funktionen wie Anrufe, Versand und Empfang von Nachrichten oder AI-Abfragen/Antworten wegfallen. Offline-Funktionen wie „Batteriestand“ sollen laut dem Startup aber weiterhin funktionieren.

Außer Spesen nichts gewesen

Auf eine Entschädigung oder Rückerstattung des Kaufpreises warten die meisten Nutzerinnen und Nutzer wohl vergebens. Laut FAQ erhalten nur Kunden, die in den letzten 90 Tagen ein Humane AI Pin gekauft haben, den Kaufpreis von 499 Dollar zurück.

Schnell abstoßen nach starkem Start

Diese Nachrichten bedeuteten das Ende des zumindest anfänglich viel beachteten KI-Startups. Humane sorgte im April 2023 für Aufsehen, als das Gerät als Smartphone-Ersatz präsentiert wurde. Das Startup aus der Bay Area, das von den ehemaligen Apple-Mitarbeitern Bethany Bongiorno und Imran Chaudhri gegründet wurde, sammelte mehr als 230 Millionen Dollar ein, um das Gerät zu entwickeln.

Berichten zufolge suchte Humane aber bereits kurz nach der Markteinführung des AI Pin nach einem Käufer, und zwar für einen Preis zwischen 750 Millionen und 1 Milliarde Dollar. Der nun bekannt gegebene Übernahmepreis von 116 Millionen Dollar liegt deutlich darunter.

Humane kämpfte früh mit Kritik am KI-Pin

Ein Grund für diese Entwicklung könnte sein, dass der KI-Pin von Humane viele frühe Kritiker und Kunden enttäuschte. Das Magazin The Verge titelte damals, dass das Gerät einfach nicht funktioniere.

Auch technische Probleme bei der Ladehülle – es gab Bedenken wegen eines möglichen Batteriebrands – verbesserten die wirtschaftliche Situation des Unternehmens nicht. Im Oktober 2024 senkte das Unternehmen, das lange Zeit 699 Dollar für seinen AI Pin verlangte, den Preis dann um 200 Dollar.

Gleichzeitig versuchte Humane, seinem AI Pin sowohl neue Funktionen zu spendieren als auch sein Betriebssystem CosmOS neu zu positionieren. Es sollte von anderen Unternehmen in ihre Gadgets und Geräte eingebaut werden können.

Humane-Gründer wechseln zu HP

Wie HP bekannt gab, übernimmt es nun das Betriebssystem sowie das technische Personal und mehr als 300 Patente und Patentanmeldungen von Humane. Wie Tuan Tran, President of Technology and Innovation bei HP , erklärte, soll CosmOS HP dabei helfen, ein intelligentes Ökosystem für alle HP-Geräte, von KI-PCs über intelligente Drucker bis hin zu vernetzten Konferenzräumen, zu schaffen. Die Gründer Imran Chaudhri sowie Bethany Bongiorno wechseln ebenfalls zu HP und sollen die Abteilung HP IQ gründen.

Der Humane AI Pin ist Geschichte​ Weiterlesen »

KI kann Banken killen​

Allgemein

KI-generierte Falschinformationen könnten zu Bankenpleiten im “Silicon-Valley-Stil” führen.Sundry Pghotography | shutterstock.com Das britische Research- und Services-Unternehmen „Say No to Disinfo“ hat in Kooperation mit den Kommunikationsspezialisten von Fenimore Harper eine KI-getriebene Desinformationskampagne auf die Beine gestellt. Dabei wurden 500 Bankkunden im Vereinigten Königreich mit synthetischen „Gerüchten“ über ihr Finanzinstitut konfrontiert. Die Motivation hinter der Simulation war dabei die Frage, ob Fake-News-Kampagnen auf Basis generativer künstlicher Intelligenz (Generative AI; GenAI) künftig „Bank Runs“ auslösen könnten – wie etwa bei der US-amerikanischen Silicon Valley Bank.    Kundenvertrauen zu zerstören, ist nicht teuer Die Ergebnisse der Untersuchung (PDF) unterstreichen das unheilvolle Potenzial der Technologie in diesem Bereich: Fast 61 Prozent der Studienteilnehmer, die die Fake News konsumierten, zeigten sich grundsätzlich bereit, ihr Geld von der jeweiligen Bank abzuziehen. Etwas mehr als 33 Prozent der Befragten stuften das demnach als „sehr wahrscheinlich“ ein, weitere 27 Prozent als „wahrscheinlich“. Übersetzt in finanziellen Aufwand, können laut der Untersuchung bereits 10 britische Pfund (circa 12 Euro) ausreichen, um Vermögenswerte von einer Million britischen Pfund zu „verschieben“. „Mit Hilfe von KI-Tools haben wir falsche Schlagzeilen generiert, deren Narrative auf vorhandene Ängste und Biases einzahlen sollten. Die wesentliche Message war dabei: ‚Die Kundengelder sind nicht sicher‘“, erklären die Studienautoren. Dabei nutzten die Experten nach eigener Aussage vor allem den Kurznachrichtendienst X, um massenhaft entsprechende Posts und Memes zu verbreiten. „Angesichts dessen, wie schnell, einfach und kostengünstig sich effektive Desinformationskamapagnen aufsetzen lassen, muss der Finanzsektor vorbereitet sein“, warnen die Experten. Leider fehlten in Banken jedoch oft entsprechende Spezialisten: „Trust Mapping für Kunden, Rogue-Actor-Mapping oder War Gaming sind Dinge, mit denen sich Finanzinstitutionen eher reaktiv als proaktiv beschäftigen.“ Es sei missionskritisch für Finanzinstitute, sich mit den Risiken auseinanderzusetzen, die solche KI-basierten Kampagnen aufwerfen: „Banken, die sich auf Cyberbedrohungen fokussieren und dabei die Risiken von Desinformationskampagnen vernachlässigen, schaffen eine kritische Sicherheitslücke“, konstatieren die Studienautoren. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre In 

KI kann Banken killen​ KI-generierte Falschinformationen könnten zu Bankenpleiten im “Silicon-Valley-Stil” führen.Sundry Pghotography | shutterstock.com

Das britische Research- und Services-Unternehmen „Say No to Disinfo“ hat in Kooperation mit den Kommunikationsspezialisten von Fenimore Harper eine KI-getriebene Desinformationskampagne auf die Beine gestellt. Dabei wurden 500 Bankkunden im Vereinigten Königreich mit synthetischen „Gerüchten“ über ihr Finanzinstitut konfrontiert.

Die Motivation hinter der Simulation war dabei die Frage, ob Fake-News-Kampagnen auf Basis generativer künstlicher Intelligenz (Generative AI; GenAI) künftig „Bank Runs“ auslösen könnten – wie etwa bei der US-amerikanischen Silicon Valley Bank.   

Kundenvertrauen zu zerstören, ist nicht teuer

Die Ergebnisse der Untersuchung (PDF) unterstreichen das unheilvolle Potenzial der Technologie in diesem Bereich:

Fast 61 Prozent der Studienteilnehmer, die die Fake News konsumierten, zeigten sich grundsätzlich bereit, ihr Geld von der jeweiligen Bank abzuziehen.

Etwas mehr als 33 Prozent der Befragten stuften das demnach als „sehr wahrscheinlich“ ein, weitere 27 Prozent als „wahrscheinlich“.

Übersetzt in finanziellen Aufwand, können laut der Untersuchung bereits 10 britische Pfund (circa 12 Euro) ausreichen, um Vermögenswerte von einer Million britischen Pfund zu „verschieben“.

„Mit Hilfe von KI-Tools haben wir falsche Schlagzeilen generiert, deren Narrative auf vorhandene Ängste und Biases einzahlen sollten. Die wesentliche Message war dabei: ‚Die Kundengelder sind nicht sicher‘“, erklären die Studienautoren. Dabei nutzten die Experten nach eigener Aussage vor allem den Kurznachrichtendienst X, um massenhaft entsprechende Posts und Memes zu verbreiten.

„Angesichts dessen, wie schnell, einfach und kostengünstig sich effektive Desinformationskamapagnen aufsetzen lassen, muss der Finanzsektor vorbereitet sein“, warnen die Experten. Leider fehlten in Banken jedoch oft entsprechende Spezialisten: „Trust Mapping für Kunden, Rogue-Actor-Mapping oder War Gaming sind Dinge, mit denen sich Finanzinstitutionen eher reaktiv als proaktiv beschäftigen.“

Es sei missionskritisch für Finanzinstitute, sich mit den Risiken auseinanderzusetzen, die solche KI-basierten Kampagnen aufwerfen: „Banken, die sich auf Cyberbedrohungen fokussieren und dabei die Risiken von Desinformationskampagnen vernachlässigen, schaffen eine kritische Sicherheitslücke“, konstatieren die Studienautoren.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre In

KI kann Banken killen​ Weiterlesen »

LLM-Benchmarking: Tipps wie Sie das richtige KI-Modell finden​

Allgemein

loading=”lazy” width=”400px”>Anwenderunternehmen sollen LLMs genau abchecken und durchmessen, bevor sie entsprechende KI-Projekte mit den Sprachmodellen starten. Africa Studio – shutterstock.com An KI führt heute kaum noch ein Weg vorbei. Doch wie entscheiden Unternehmen, welches Large Language Model (LLM) für sie das richtige ist? Die Auswahl ist derzeit so groß wie nie, die Möglichkeiten scheinbar unbegrenzt. Doch unter der glänzenden Oberfläche der Werbeversprechen lauert die entscheidende Frage: Welche dieser Technologien hält wirklich, was sie verspricht – und welche bringt KI-Projekte möglicherweise eher ins Straucheln? LLM-Benchmarks könnten die Antwort sein – sie bilden einen Maßstab, der Anwenderunternehmen dabei hilft, die großen Sprachmodelle besser bewerten und einordnen zu können. Dabei zählen Faktoren wie Präzision, Zuverlässigkeit und die Fähigkeit, in der Praxis zu überzeugen. Large Language Models erklärt: Was sind LLMs? LLM-Benchmarks sind das Messinstrument der KI-Welt. Es handelt sich um standardisierte Tests, die gezielt entwickelt wurden, um die Leistungsfähigkeit von Sprachmodellen zu bewerten. Dabei wird nicht nur geprüft, ob ein Modell funktioniert, sondern auch wie gut es seine Aufgaben erfüllt. Der Wert von Benchmarks liegt in ihrer Fähigkeit, Ordnung in die Vielfalt der Modelle zu bringen. Sie machen die Stärken und Schwächen eines Modells sichtbar, ermöglichen den Vergleich mit anderen und schaffen so die Grundlage für fundierte Entscheidungen. Ob es um die Auswahl eines Chatbots für den Kundenservice, die Übersetzung wissenschaftlicher Texte oder die Programmierung von Software geht – Benchmarks geben eine erste Antwort auf die Frage: Ist dieses Modell für meinen Anwendungsfall geeignet? Die wichtigsten Erkenntnisse im Überblick: Vielseitigkeit: Benchmarks messen eine breite Palette von Fähigkeiten, von Sprachverständnis über mathematische Problemlösungen bis hin zu Programmierkompetenzen. Spezialisierung: Einige Benchmarks, wie MultiMedQA, konzentrieren sich auf spezifische Anwendungsbereiche, um die Eignung eines Modells in sensiblen oder hochkomplexen Kontexten zu bewerten. Herausforderungen: Limitierungen wie Datenkontamination, schnelle Veralterung und die begrenzte Generalisierbarkeit erfordern ein kritisches Verständnis bei der Interpretation der Ergebnisse. 3 Säulen: Datensätze, Evaluation und Ranglisten Benchmarking basiert auf drei Säulen: 1. Datensätze bilden die Grundlage der Tests: Datensätze sind Sammlungen von Aufgaben und Szenarien, die speziell entwickelt wurden, um die Fähigkeiten von Sprachmodellen zu prüfen. Sie definieren die Herausforderungen, die ein Modell bewältigen muss. Die Aussagekraft eines Benchmarks hängt maßgeblich von der Qualität und Vielfalt der verwendeten Datensätze ab. Je besser sie reale Anwendungen simulieren, desto nützlicher und aussagekräftiger sind die Ergebnisse. Ein Beispiel ist SQuAD (Stanford Question Answering Dataset), das Textpassagen und dazugehörige Fragen bereitstellt, um zu prüfen, ob ein Modell relevante Informationen aus den Passagen extrahieren kann. 2. Evaluationsmethoden bewerten die Leistung der Modelle Evaluation: Während Datensätze die Aufgaben definieren, wird die Leistung eines Modells durch Evaluationsmethoden gemessen. Es gibt zwei Hauptansätze: Referenzbasierte Metriken: Diese Metriken vergleichen die generierte Antwort eines Modells mit einem idealen Referenztext. Ein klassisches Beispiel ist BLEU, das misst, wie stark die Wortfolgen in der generierten Antwort mit denen des Referenztexts übereinstimmen. BERTScore geht einen Schritt weiter, indem es nicht nur Wortübereinstimmungen bewertet, sondern auch die semantische Ähnlichkeit analysiert. Dies ist besonders nützlich, wenn der Sinn wichtiger ist als die wörtliche Genauigkeit. Referenzfreie Metriken: Diese Metriken bewerten die Qualität eines erzeugten Textes unabhängig von einer Referenz. Stattdessen analysieren sie die Kohärenz, Logik und Vollständigkeit der Antwort eigenständig. Beispielsweise könnte ein Modell den Ausgangstext: „Der Klimawandel ist eines der drängendsten Probleme der heutigen Zeit. Er wird durch den Anstieg von Treibhausgasen wie CO₂ verursacht, die hauptsächlich aus der Verbrennung fossiler Energieträger stammen.“ zusammenfassen mit „Klimawandel wird durch CO₂-Emissionen verursacht.“ Eine referenzfreie Metrik würde prüfen, ob diese Zusammenfassung die wesentlichen Inhalte korrekt wiedergibt und in sich logisch bleibt. LLM-as-a-Judge – KI als Bewertungsinstanz: Ein innovativer Ansatz in der Evaluation großer Sprachmodelle ist der Einsatz der Modelle selbst als ihre eigenen „Richter“. Beim Konzept „LLM-as-a-Judge“ analysieren diese Modelle sowohl ihre eigenen Antworten als auch die von anderen und bewerten sie anhand vordefinierter Kriterien. Dieser Ansatz ermöglicht neue Möglichkeiten, die über klassische Metriken hinausgehen. Allerdings gibt es auch Herausforderungen: Eine Studie hat gezeigt, dass Modelle dazu neigen, ihre eigenen Antworten zu erkennen und diese besser zu bewerten als die von anderen. Solche Verzerrungen machen zusätzliche Kontrollmechanismen erforderlich, um Objektivität sicherzustellen. Die Forschung in diesem Bereich steht noch am Anfang, doch das Potenzial für genauere und differenzierte Bewertungen ist jedoch groß. 3. Ranglisten machen die Ergebnisse transparent und vergleichbar: Ranglisten bieten eine wertvolle Übersicht über die Benchmark-Ergebnisse großer Sprachmodelle. Sie machen die Leistungen verschiedener Modelle auf einen Blick vergleichbar und fördern so Transparenz. Plattformen wie Hugging Face oder Papers with Code sind hier gute Anlaufstellen. Doch Vorsicht: Ein Spitzenplatz in einer Rangliste darf nicht mit universeller Überlegenheit verwechselt werden. Die Auswahl des richtigen Modells sollte immer auf die individuellen Anforderungen eines Projekts abgestimmt sein. Häufige Benchmarks nach Kategorien Die Welt der LLM-Benchmarks entwickelt sich kontinuierlich weiter. Mit jedem Fortschritt in den LLMs selbst entstehen neue Tests, um den steigenden Anforderungen gerecht zu werden. In der Regel sind Benchmarks auf spezifische Aufgaben wie logisches Denken, mathematische Problemlösung oder Programmierung ausgerichtet. Im Folgenden werden einige bekannte Benchmarks vorgestellt: Reasoning und Sprachverständnis • MMLU (Massive Multitask Language Understanding): Dieser Benchmark prüft die Wissensbreite eines Modells über 57 akademische und berufliche Disziplinen hinweg. Mit fast 16.000 Multiple-Choice-Fragen, die auf Lehrplänen und Prüfungen basieren, werden Themen wie Mathematik, Medizin und Philosophie abgedeckt. Ein besonderer Fokus liegt auf komplexen, fachspezifischen Inhalten, die fortgeschrittenes Wissen und logisches Denken erfordern.Zum Paper: Measuring Massive Multitask Language Understanding • HellaSwag: HellaSwag misst das Common-Sense-Verständnis eines Modells, indem es den plausibelsten Folgesatz aus vier Optionen auswählt. Die Aufgaben wurden so erstellt, dass sie für Menschen leicht, für Modelle jedoch schwierig sind, was diesen Benchmark besonders anspruchsvoll macht.Zum Paper: HellaSwag: Can a Machine Really Finish Your Sentence? • TruthfulQA: Dieser Benchmark bewertet die Fähigkeit eines Modells, wahrheitsgemäße Antworten zu geben, ohne Missverständnisse oder falsche Annahmen zu reproduzieren. Mit 817 Fragen in 38 Kategorien, darunter Recht und Gesundheit, deckt TruthfulQA gezielt verbreitete Fehlinformationen auf.Zum Paper: TruthfulQA: Measuring How Models Mimic Human Falsehoods Mathematische Problemlösungen • MATH: MATH umfasst 12.500 mathematische Aufgaben aus Bereichen wie Algebra, Geometrie und Zahlentheorie. Jede Aufgabe ist mit einer Schritt-für-Schritt-Lösung annotiert, die eine präzise Evaluation der Problemlösungsfähigkeiten ermöglicht. Der Benchmark testet die Fähigkeit eines Modells, logische Zusammenhänge zu erkennen und mathematische Präzision zu liefern.Zum Paper: Measuring Mathematical Problem Solving With the MATH Dataset Programmierfähigkeiten • HumanEval: HumanEval bietet 164 Python-Programmieraufgaben mit umfassenden Unit-Tests zur Validierung der Lösungen. Der Benchmark prüft die Fähigkeit eines Modells, funktionalen und logischen Code aus natürlichen Sprachbeschreibungen zu generieren.Zum Paper: Evaluating Large Language Models Trained on Code Domain-spezifische Benchmarks • MultiMedQA: MultiMedQA kombiniert sechs medizinische Datensätze, darunter PubMedQA und MedQA, um die Anwendbarkeit von Modellen in medizinischen Kontexten zu testen. Die Vielfalt der Fragen – von offenen bis zu Multiple-Choice-Aufgaben – bietet eine detaillierte Analyse der Domainspezifischen Fähigkeiten.Zum Paper: Large language models encode clinical knowledge Besondere Benchmarks • MT-Bench: MT-Bench konzentriert sich auf die Fähigkeit von Sprachmodellen, in mehrstufigen Dialogen konsistente und kohärente Antworten zu geben. Mit beinahe 1400 Dialogen, die Themen wie Mathematik, Schreiben, Rollenspiele und logisches Denken abdecken, bietet der Benchmark eine umfassende Analyse der Dialogfähigkeiten.Zum Paper: MT-Bench-101: A Fine-Grained Benchmark for Evaluating Large Language Models in Multi-Turn Dialogues • Chatbot Arena: Chatbot Arena ist eine Plattform, die den direkten Vergleich zwischen Modellen ermöglicht. Benutzer können anonymisierte Chatbots testen, indem sie deren Antworten in Echtzeit bewerten. Das Elo-Bewertungssystem wird verwendet, um ein dynamisches Ranking zu erstellen, das die Leistungsfähigkeit der Modelle widerspiegelt. Der Benchmark sticht durch seinen Crowdsourcing-Ansatz hervor. Hier kann jeder selbst bei Chatbot Arena zum Benchmark beigetragen.Zum Paper: Chatbot Arena: An Open Platform for Evaluating LLMs by Human Preference • SafetyBench: SafetyBench ist der erste umfassende Benchmark, der die Sicherheitsaspekte großer Sprachmodelle untersucht. Mit über 11.000 Fragen in sieben Kategorien – darunter Bias, Ethik, potenzielle Risiken und Robustheit – bietet er eine detaillierte Analyse der Sicherheit von Modellen.Zum Paper: SafetyBench: Evaluating the Safety of Large Language Models Auch Benchmarks haben ihre Grenzen Trotz ihrer enormen Bedeutung sind Benchmarks keine perfekten Werkzeuge. Sie bieten zwar wertvolle Einblicke in die Fähigkeiten von Sprachmodellen, doch ihre Ergebnisse sollten stets kritisch hinterfragt werden. Large Language Models Tutorial: 5 Wege, LLMs lokal auszuführen Eine der größten Herausforderungen ist die sogenannte Datenkontamination. Benchmarks ziehen ihre Aussagekraft aus der Annahme, dass Modelle die Aufgaben ohne vorherige Exposition lösen. Doch häufig enthalten die Trainingsdaten eines Modells bereits Aufgaben oder Fragestellungen, die mit den Datensätzen übereinstimmen. Dadurch können die Ergebnisse künstlich besser wirken, als sie es in der Realität sind, und die tatsächliche Leistungsfähigkeit eines Modells verzerrt darstellen. Hinzu kommt die schnelle Veralterung vieler Benchmarks. Die rasante Entwicklung in der KI-Technologie führt dazu, dass Modelle immer leistungsfähiger werden und einst anspruchsvolle Tests mühelos bewältigen. Benchmarks, die früher als Maßstab galten, verlieren so schnell an Relevanz. Dies erfordert die kontinuierliche Entwicklung neuer und anspruchsvollerer Tests, um die aktuellen Fähigkeiten moderner Modelle sinnvoll zu bewerten. 4 LLM-Testing-Strategien: So testen Sie große Sprachmodelle Ein weiterer Aspekt ist die begrenzte Generalisierbarkeit von Benchmarks. Sie messen in der Regel isolierte Fähigkeiten wie Übersetzung oder mathematische Problemlösung. Doch ein Modell, das in einem Benchmark überzeugt, ist nicht automatisch für den Einsatz in realen, komplexen Szenarien geeignet, bei denen mehrere Fähigkeiten gleichzeitig gefragt sind. Gerade solchen Anwendungen legen offen, dass Benchmarks zwar hilfreiche Hinweise liefern, jedoch nicht die ganze Realität abbilden. Praktische Tipps für das nächste Projekt Benchmarks sind mehr als nur Tests – sie bilden die Grundlage für fundierte Entscheidungen im Umgang mit großen Sprachmodellen. Sie ermöglichen es, die Stärken und Schwächen eines Modells systematisch zu analysieren, die besten Optionen für spezifische Anwendungsfälle zu identifizieren und so Projektrisiken zu minimieren. Die folgenden Punkte helfen bei der konkreten Umsetzung.  Klare Anforderungen definieren: Zuerst sollte überlegt werden, welche Fähigkeiten für das konkrete Projekt entscheidend sind. Entsprechend werden Benchmarks ausgewählt, die diese spezifischen Anforderungen abdecken. Mehrere Benchmarks kombinieren: Kein einzelner Benchmark kann alle relevanten Fähigkeiten eines Modells bewerten. Eine Kombination verschiedener Tests liefert ein differenziertes Leistungsbild. Benchmarks gewichten: Durch das Definieren von Prioritäten können die Benchmarks ausgewählt werden, die den größten Einfluss auf den Erfolg des Projekts haben. Benchmarks durch Praxis-Tests ergänzen: Die Nutzung von realitätsnahen Tests mit echten Daten kann sicherstellen, dass ein Modell den Anforderungen des spezifischen Anwendungsfalls gerecht wird. Flexibel bleiben: Es kommen laufend neue Benchmarks dazu, die die neuesten Fortschritte in der KI-Forschung besser abbilden können. Hier lohnt es sich, auf dem neuesten Stand zu bleiben. Mit einem strategischen Einsatz von Benchmarks kann also nicht nur die bessere Modellwahl getroffen, sondern auch Innovationspotenzial ausgeschöpft werden. Doch: Benchmarks sind nur der erste Schritt – die wahre Kunst liegt darin, Modelle in reale Anwendungen zu integrieren und anzupassen. 

LLM-Benchmarking: Tipps wie Sie das richtige KI-Modell finden​ loading=”lazy” width=”400px”>Anwenderunternehmen sollen LLMs genau abchecken und durchmessen, bevor sie entsprechende KI-Projekte mit den Sprachmodellen starten. Africa Studio – shutterstock.com

An KI führt heute kaum noch ein Weg vorbei. Doch wie entscheiden Unternehmen, welches Large Language Model (LLM) für sie das richtige ist? Die Auswahl ist derzeit so groß wie nie, die Möglichkeiten scheinbar unbegrenzt. Doch unter der glänzenden Oberfläche der Werbeversprechen lauert die entscheidende Frage: Welche dieser Technologien hält wirklich, was sie verspricht – und welche bringt KI-Projekte möglicherweise eher ins Straucheln?

LLM-Benchmarks könnten die Antwort sein – sie bilden einen Maßstab, der Anwenderunternehmen dabei hilft, die großen Sprachmodelle besser bewerten und einordnen zu können. Dabei zählen Faktoren wie Präzision, Zuverlässigkeit und die Fähigkeit, in der Praxis zu überzeugen.

Large Language Models erklärt: Was sind LLMs?

LLM-Benchmarks sind das Messinstrument der KI-Welt. Es handelt sich um standardisierte Tests, die gezielt entwickelt wurden, um die Leistungsfähigkeit von Sprachmodellen zu bewerten. Dabei wird nicht nur geprüft, ob ein Modell funktioniert, sondern auch wie gut es seine Aufgaben erfüllt.

Der Wert von Benchmarks liegt in ihrer Fähigkeit, Ordnung in die Vielfalt der Modelle zu bringen. Sie machen die Stärken und Schwächen eines Modells sichtbar, ermöglichen den Vergleich mit anderen und schaffen so die Grundlage für fundierte Entscheidungen. Ob es um die Auswahl eines Chatbots für den Kundenservice, die Übersetzung wissenschaftlicher Texte oder die Programmierung von Software geht – Benchmarks geben eine erste Antwort auf die Frage: Ist dieses Modell für meinen Anwendungsfall geeignet?

Die wichtigsten Erkenntnisse im Überblick:

Vielseitigkeit: Benchmarks messen eine breite Palette von Fähigkeiten, von Sprachverständnis über mathematische Problemlösungen bis hin zu Programmierkompetenzen.

Spezialisierung: Einige Benchmarks, wie MultiMedQA, konzentrieren sich auf spezifische Anwendungsbereiche, um die Eignung eines Modells in sensiblen oder hochkomplexen Kontexten zu bewerten.

Herausforderungen: Limitierungen wie Datenkontamination, schnelle Veralterung und die begrenzte Generalisierbarkeit erfordern ein kritisches Verständnis bei der Interpretation der Ergebnisse.

3 Säulen: Datensätze, Evaluation und Ranglisten

Benchmarking basiert auf drei Säulen:

1. Datensätze bilden die Grundlage der Tests: Datensätze sind Sammlungen von Aufgaben und Szenarien, die speziell entwickelt wurden, um die Fähigkeiten von Sprachmodellen zu prüfen. Sie definieren die Herausforderungen, die ein Modell bewältigen muss.

Die Aussagekraft eines Benchmarks hängt maßgeblich von der Qualität und Vielfalt der verwendeten Datensätze ab. Je besser sie reale Anwendungen simulieren, desto nützlicher und aussagekräftiger sind die Ergebnisse.

Ein Beispiel ist SQuAD (Stanford Question Answering Dataset), das Textpassagen und dazugehörige Fragen bereitstellt, um zu prüfen, ob ein Modell relevante Informationen aus den Passagen extrahieren kann.

2. Evaluationsmethoden bewerten die Leistung der Modelle Evaluation: Während Datensätze die Aufgaben definieren, wird die Leistung eines Modells durch Evaluationsmethoden gemessen. Es gibt zwei Hauptansätze:

Referenzbasierte Metriken: Diese Metriken vergleichen die generierte Antwort eines Modells mit einem idealen Referenztext. Ein klassisches Beispiel ist BLEU, das misst, wie stark die Wortfolgen in der generierten Antwort mit denen des Referenztexts übereinstimmen. BERTScore geht einen Schritt weiter, indem es nicht nur Wortübereinstimmungen bewertet, sondern auch die semantische Ähnlichkeit analysiert. Dies ist besonders nützlich, wenn der Sinn wichtiger ist als die wörtliche Genauigkeit.

Referenzfreie Metriken: Diese Metriken bewerten die Qualität eines erzeugten Textes unabhängig von einer Referenz. Stattdessen analysieren sie die Kohärenz, Logik und Vollständigkeit der Antwort eigenständig. Beispielsweise könnte ein Modell den Ausgangstext: „Der Klimawandel ist eines der drängendsten Probleme der heutigen Zeit. Er wird durch den Anstieg von Treibhausgasen wie CO₂ verursacht, die hauptsächlich aus der Verbrennung fossiler Energieträger stammen.“ zusammenfassen mit „Klimawandel wird durch CO₂-Emissionen verursacht.“ Eine referenzfreie Metrik würde prüfen, ob diese Zusammenfassung die wesentlichen Inhalte korrekt wiedergibt und in sich logisch bleibt.

LLM-as-a-Judge – KI als Bewertungsinstanz: Ein innovativer Ansatz in der Evaluation großer Sprachmodelle ist der Einsatz der Modelle selbst als ihre eigenen „Richter“. Beim Konzept „LLM-as-a-Judge“ analysieren diese Modelle sowohl ihre eigenen Antworten als auch die von anderen und bewerten sie anhand vordefinierter Kriterien. Dieser Ansatz ermöglicht neue Möglichkeiten, die über klassische Metriken hinausgehen. Allerdings gibt es auch Herausforderungen: Eine Studie hat gezeigt, dass Modelle dazu neigen, ihre eigenen Antworten zu erkennen und diese besser zu bewerten als die von anderen. Solche Verzerrungen machen zusätzliche Kontrollmechanismen erforderlich, um Objektivität sicherzustellen. Die Forschung in diesem Bereich steht noch am Anfang, doch das Potenzial für genauere und differenzierte Bewertungen ist jedoch groß.

3. Ranglisten machen die Ergebnisse transparent und vergleichbar: Ranglisten bieten eine wertvolle Übersicht über die Benchmark-Ergebnisse großer Sprachmodelle. Sie machen die Leistungen verschiedener Modelle auf einen Blick vergleichbar und fördern so Transparenz. Plattformen wie Hugging Face oder Papers with Code sind hier gute Anlaufstellen.

Doch Vorsicht: Ein Spitzenplatz in einer Rangliste darf nicht mit universeller Überlegenheit verwechselt werden. Die Auswahl des richtigen Modells sollte immer auf die individuellen Anforderungen eines Projekts abgestimmt sein.

Häufige Benchmarks nach Kategorien

Die Welt der LLM-Benchmarks entwickelt sich kontinuierlich weiter. Mit jedem Fortschritt in den LLMs selbst entstehen neue Tests, um den steigenden Anforderungen gerecht zu werden. In der Regel sind Benchmarks auf spezifische Aufgaben wie logisches Denken, mathematische Problemlösung oder Programmierung ausgerichtet. Im Folgenden werden einige bekannte Benchmarks vorgestellt:

Reasoning und Sprachverständnis

• MMLU (Massive Multitask Language Understanding): Dieser Benchmark prüft die Wissensbreite eines Modells über 57 akademische und berufliche Disziplinen hinweg. Mit fast 16.000 Multiple-Choice-Fragen, die auf Lehrplänen und Prüfungen basieren, werden Themen wie Mathematik, Medizin und Philosophie abgedeckt. Ein besonderer Fokus liegt auf komplexen, fachspezifischen Inhalten, die fortgeschrittenes Wissen und logisches Denken erfordern.Zum Paper: Measuring Massive Multitask Language Understanding

• HellaSwag: HellaSwag misst das Common-Sense-Verständnis eines Modells, indem es den plausibelsten Folgesatz aus vier Optionen auswählt. Die Aufgaben wurden so erstellt, dass sie für Menschen leicht, für Modelle jedoch schwierig sind, was diesen Benchmark besonders anspruchsvoll macht.Zum Paper: HellaSwag: Can a Machine Really Finish Your Sentence?

• TruthfulQA: Dieser Benchmark bewertet die Fähigkeit eines Modells, wahrheitsgemäße Antworten zu geben, ohne Missverständnisse oder falsche Annahmen zu reproduzieren. Mit 817 Fragen in 38 Kategorien, darunter Recht und Gesundheit, deckt TruthfulQA gezielt verbreitete Fehlinformationen auf.Zum Paper: TruthfulQA: Measuring How Models Mimic Human Falsehoods

Mathematische Problemlösungen

• MATH: MATH umfasst 12.500 mathematische Aufgaben aus Bereichen wie Algebra, Geometrie und Zahlentheorie. Jede Aufgabe ist mit einer Schritt-für-Schritt-Lösung annotiert, die eine präzise Evaluation der Problemlösungsfähigkeiten ermöglicht. Der Benchmark testet die Fähigkeit eines Modells, logische Zusammenhänge zu erkennen und mathematische Präzision zu liefern.Zum Paper: Measuring Mathematical Problem Solving With the MATH Dataset

Programmierfähigkeiten

• HumanEval: HumanEval bietet 164 Python-Programmieraufgaben mit umfassenden Unit-Tests zur Validierung der Lösungen. Der Benchmark prüft die Fähigkeit eines Modells, funktionalen und logischen Code aus natürlichen Sprachbeschreibungen zu generieren.Zum Paper: Evaluating Large Language Models Trained on Code

Domain-spezifische Benchmarks

• MultiMedQA: MultiMedQA kombiniert sechs medizinische Datensätze, darunter PubMedQA und MedQA, um die Anwendbarkeit von Modellen in medizinischen Kontexten zu testen. Die Vielfalt der Fragen – von offenen bis zu Multiple-Choice-Aufgaben – bietet eine detaillierte Analyse der Domainspezifischen Fähigkeiten.Zum Paper: Large language models encode clinical knowledge

Besondere Benchmarks

• MT-Bench: MT-Bench konzentriert sich auf die Fähigkeit von Sprachmodellen, in mehrstufigen Dialogen konsistente und kohärente Antworten zu geben. Mit beinahe 1400 Dialogen, die Themen wie Mathematik, Schreiben, Rollenspiele und logisches Denken abdecken, bietet der Benchmark eine umfassende Analyse der Dialogfähigkeiten.Zum Paper: MT-Bench-101: A Fine-Grained Benchmark for Evaluating Large Language Models in Multi-Turn Dialogues

• Chatbot Arena: Chatbot Arena ist eine Plattform, die den direkten Vergleich zwischen Modellen ermöglicht. Benutzer können anonymisierte Chatbots testen, indem sie deren Antworten in Echtzeit bewerten. Das Elo-Bewertungssystem wird verwendet, um ein dynamisches Ranking zu erstellen, das die Leistungsfähigkeit der Modelle widerspiegelt. Der Benchmark sticht durch seinen Crowdsourcing-Ansatz hervor. Hier kann jeder selbst bei Chatbot Arena zum Benchmark beigetragen.Zum Paper: Chatbot Arena: An Open Platform for Evaluating LLMs by Human Preference

• SafetyBench: SafetyBench ist der erste umfassende Benchmark, der die Sicherheitsaspekte großer Sprachmodelle untersucht. Mit über 11.000 Fragen in sieben Kategorien – darunter Bias, Ethik, potenzielle Risiken und Robustheit – bietet er eine detaillierte Analyse der Sicherheit von Modellen.Zum Paper: SafetyBench: Evaluating the Safety of Large Language Models

Auch Benchmarks haben ihre Grenzen

Trotz ihrer enormen Bedeutung sind Benchmarks keine perfekten Werkzeuge. Sie bieten zwar wertvolle Einblicke in die Fähigkeiten von Sprachmodellen, doch ihre Ergebnisse sollten stets kritisch hinterfragt werden.

Large Language Models Tutorial: 5 Wege, LLMs lokal auszuführen

Eine der größten Herausforderungen ist die sogenannte Datenkontamination. Benchmarks ziehen ihre Aussagekraft aus der Annahme, dass Modelle die Aufgaben ohne vorherige Exposition lösen. Doch häufig enthalten die Trainingsdaten eines Modells bereits Aufgaben oder Fragestellungen, die mit den Datensätzen übereinstimmen. Dadurch können die Ergebnisse künstlich besser wirken, als sie es in der Realität sind, und die tatsächliche Leistungsfähigkeit eines Modells verzerrt darstellen.

Hinzu kommt die schnelle Veralterung vieler Benchmarks. Die rasante Entwicklung in der KI-Technologie führt dazu, dass Modelle immer leistungsfähiger werden und einst anspruchsvolle Tests mühelos bewältigen. Benchmarks, die früher als Maßstab galten, verlieren so schnell an Relevanz. Dies erfordert die kontinuierliche Entwicklung neuer und anspruchsvollerer Tests, um die aktuellen Fähigkeiten moderner Modelle sinnvoll zu bewerten.

4 LLM-Testing-Strategien: So testen Sie große Sprachmodelle

Ein weiterer Aspekt ist die begrenzte Generalisierbarkeit von Benchmarks. Sie messen in der Regel isolierte Fähigkeiten wie Übersetzung oder mathematische Problemlösung. Doch ein Modell, das in einem Benchmark überzeugt, ist nicht automatisch für den Einsatz in realen, komplexen Szenarien geeignet, bei denen mehrere Fähigkeiten gleichzeitig gefragt sind. Gerade solchen Anwendungen legen offen, dass Benchmarks zwar hilfreiche Hinweise liefern, jedoch nicht die ganze Realität abbilden.

Praktische Tipps für das nächste Projekt

Benchmarks sind mehr als nur Tests – sie bilden die Grundlage für fundierte Entscheidungen im Umgang mit großen Sprachmodellen. Sie ermöglichen es, die Stärken und Schwächen eines Modells systematisch zu analysieren, die besten Optionen für spezifische Anwendungsfälle zu identifizieren und so Projektrisiken zu minimieren. Die folgenden Punkte helfen bei der konkreten Umsetzung. 

Klare Anforderungen definieren: Zuerst sollte überlegt werden, welche Fähigkeiten für das konkrete Projekt entscheidend sind. Entsprechend werden Benchmarks ausgewählt, die diese spezifischen Anforderungen abdecken.

Mehrere Benchmarks kombinieren: Kein einzelner Benchmark kann alle relevanten Fähigkeiten eines Modells bewerten. Eine Kombination verschiedener Tests liefert ein differenziertes Leistungsbild.

Benchmarks gewichten: Durch das Definieren von Prioritäten können die Benchmarks ausgewählt werden, die den größten Einfluss auf den Erfolg des Projekts haben.

Benchmarks durch Praxis-Tests ergänzen: Die Nutzung von realitätsnahen Tests mit echten Daten kann sicherstellen, dass ein Modell den Anforderungen des spezifischen Anwendungsfalls gerecht wird.

Flexibel bleiben: Es kommen laufend neue Benchmarks dazu, die die neuesten Fortschritte in der KI-Forschung besser abbilden können. Hier lohnt es sich, auf dem neuesten Stand zu bleiben.

Mit einem strategischen Einsatz von Benchmarks kann also nicht nur die bessere Modellwahl getroffen, sondern auch Innovationspotenzial ausgeschöpft werden. Doch: Benchmarks sind nur der erste Schritt – die wahre Kunst liegt darin, Modelle in reale Anwendungen zu integrieren und anzupassen.

LLM-Benchmarking: Tipps wie Sie das richtige KI-Modell finden​ Weiterlesen »

6 Schritte zur agilen Compliance-Organisation​

Allgemein

Unternehmen sollten das Thema Compliance proaktiv angehen und nicht nebenbei abdecken.Funtap/Shutterstock.com Mit der Digitalen Agenda schafft die Europäische Union klare und einheitliche Regeln für einen verantwortungsvollen Umgang mit Daten und künstlicher Intelligenz. Neben der Datenschutzgrundverordnung stehen dabei der EU AI Act und der EU Data Act im Mittelpunkt. Der EU AI Act wird ab Februar 2025 in den nächsten zwei Jahren schrittweise umgesetzt, der EU Data Act ab Herbst 2025.  Mit den regulatorischen und gesetzlichen Vorgaben will die Politik die Gesellschaft schützen und damit Vertrauen in neue Technologien schaffen. Für Unternehmen bedeuten sie einen erheblichen Mehraufwand. Ein gutes Beispiel ist die Automobilindustrie: Fahrzeuge, Infrastrukturen und ihre Nutzerinnen und Nutzer werden zunehmend softwaregesteuert und vernetzt. Mobilität wird zunehmend über digitale Kanäle und Plattformen angeboten und konsumiert. Hinzu kommt der Einsatz innovativer KI-Anwendungen wie Fahrerassistenz, smarte Navigation und vorausschauende Wartung für mehr Komfort und Sicherheit. Allein für die Sicherstellung der digitalen Konformität müssen Unternehmen einen hohen dreistelligen Betrag pro Fahrzeug aufwenden.   Nicht zu unterschätzen ist auch der Zeitaufwand, um sich mit den Anforderungen und Konsequenzen der verschiedenen Gesetze vertraut zu machen und eigene Strategien und Lösungen zu entwickeln und auszurollen. „Unternehmen sollten daher bereits jetzt konkrete Schritte zur Umsetzung des EU AI Act und des EU Data Act einleiten“, erklärt Daniel Andernach, Associated Partner bei MHP. „Nur so sind Unternehmen, die digitale Produkte, Services und Funktionen anbieten, frühzeitig rechtssicher für die Zukunftsthemen aufgestellt.“  Klare Verantwortlichkeiten liegen dabei vor allem auf Abteilungen bei IT, Recht, Compliance und Datenschutz. Wichtig sind aber auch Stakeholder aus dem Entwicklungsbereich, welche die rechtlichen Anforderungen in den Produkten, Funktionen und Services umsetzen müssen. Für sie müssen prozessuale Leitplanken geschaffen werden.   Das Problem: Die Komplexität, die Gesetze zu interpretieren und daraus die notwendigen Maßnahmen und Anforderungen abzuleiten, stellt für viele Unternehmen eine erhebliche Hürde dar. Für eine wirklich effektive, sichere und rechtskonforme Umsetzung ist fundiertes Fachwissen notwendig. Zudem sind Compliance-Organisationen häufig teuer, schwerfällig und wenig vernetzt. „Das Thema Compliance wird gerne neben dem Tagesgeschäft abgehandelt. Dadurch verlieren Prozesse an Geschwindigkeit, Neuerungen werden mangelhaft umgesetzt und Anwender nicht ausreichend befähigt“, meint Jose Pereira, Manager bei MHP.  So gestalten Sie eine Compliance-Organisation  Das Vorgehen zur Konzeption einer Compliance-OrganisationMHP Der Aufbau einer agilen und effizienten Compliance-Organisation ermöglicht es den Mitarbeitenden, sich auf das Kerngeschäft zu konzentrieren. Bei der Konzeption einer solchen Organisation hat sich ein Vorgehen in sechs Schritten bewährt. Voraussetzung ist eine enge Zusammenarbeit zwischen den Unternehmensbereichen. Es ist wichtig, klare Rollen und Verantwortlichkeiten zu definieren, relevante Stakeholder einzubinden und zu qualifizieren. Durch die Integration von Werkzeugen können Effizienzsteigerungen erzielt werden. Das Vorgehen im Detail:  1. Eine Compliance-Strategie entwickeln  Unternehmen sollten zunächst die strategische Ausrichtung der Compliance-Organisation entwickeln. Dabei geht es um ihre Mission und Vision, die sich stark am Produktportfolio und dessen Weiterentwicklung ausrichtet. Folgende Fragestellungen sind dabei von zentraler Bedeutung:   Welche Features sind auf dem Markt oder in der Entwicklung und sollen zukünftig Kunden begeistern?   Welche Technologien werden dafür benötigt und welche Daten werden für die Entwicklung und den Betrieb genutzt? Wie sollen diese vermarktet werden?   Welche gesetzlichen und regulatorischen Anforderungen sind relevant oder bereits im Entwurf vorhanden?   Die Compliance-Organisation sollte mit entsprechenden Entscheidungsbefugnissen ausgestattet sein, so dass durchgängige Schnittstellen über die beteiligten Ressorts bestehen  2. Organisation aufbauen   Hier werden Aufgaben, Rollen und Verantwortlichkeiten definiert. Damit fördern Unternehmen die Transparenz sowie die übergreifende Zusammenarbeit von internen und externen Stakeholdern, unter anderem aus den Bereichen Entwicklung, Finanzwesen, Beschaffung, Produktion, Rechtswesen und Behörden. Zudem ist es ratsam, Gremienorganisationen einzurichten, eine Geschäftsordnung zu erstellen sowie ein PMO (Project Management Office) unter Berücksichtigung relevanter Handlungsfelder aufzubauen.  3. Compliance-Prozesse gestalten Um die bereichsübergreifende Zusammenarbeit zwischen Schnittstellen und Unternehmensbereichen sicherzustellen, müssen zentrale, Compliance-relevante Prozesse gestaltet werden. Ein robuster Freigabeprozess sowie die Implementierung kontinuierlicher Verbesserungszyklen, um die Effizienz und Konformität sicherzustellen, sind ebenfalls wichtig.  4. Reporting und Monitoring ausgestalten In diesem Schritt sollten wesentliche KPIs (Key Performance Indicators) für das spätere Reporting definiert werden, die auf die Compliance-Ziele abgestimmt sind und als Grundlage für das spätere Reporting dienen. Gleichzeitig gilt es, aussagekräftige Dashboards auf Basis der definierten Kennzahlen zu entwickeln, um Fördermittel zu erlangen und ein zielgerichtetes Reporting an relevante Gremien zu unterstützen.  5. Fähigkeiten, Kompetenzen und Erfahrungen entwickeln Hier geht es darum, auf die spezifischen Compliance-Anforderungen der Organisation abgestimmte Qualifizierungskonzepte zu entwickeln und zu gestalten. Auf diese Weise schaffen Unternehmen ein Bewusstsein für das Thema und sensibilisieren ihre Mitarbeiterinnen und Mitarbeiter für Compliance.  6. Technologien und Tool-Szenarien identifizieren Im letzten Schritt werden geeignete IT-Plattformen und KI-Lösungen für die Compliance-Organisation identifiziert. Die gewählten Technologien sollten Effizienzsteigerungen, Transparenz und Rückverfolgbarkeit ermöglichen. Durch bedarfsgerechtes Shoring kann das Unternehmen von zusätzlichen Effizienzgewinnen profitieren.  Corporate Digital Responsibility als Gütesiegel  Compliance kann heute in allen Branchen ein entscheidender Wettbewerbsvorteil und morgen Voraussetzung für die Marktteilnahme sein. Dabei heben sich besonders die Unternehmen ab, die Compliance-Vorgaben nicht nur erfüllen, sondern auch verantwortlich mit den individuellen Nutzerdaten umgehen, die durch Produkte, Funktionen und Services generiert werden.   Beim Compliance-Management kommt es daher darauf an, von der Konzeption über die Systemimplementierung bis hin zum Betrieb eine nahtlose End-to-End-Lösung zu schaffen. Darüber hinaus sollten Datenschutzmanagementsysteme regelmäßig und proaktiv an neue gesetzliche Vorgaben angepasst werden. Nur so können Risiken minimiert und höchste Compliance-Standards gewährleistet werden.   Die Empfehlung von MHP-Mann Pereira in diesem Zusammenhang: „Wir haben gute Erfahrungen damit gemacht, das Management an ein Compliance Competence Center auszulagern. Ein solches bietet in der Regel ein breites Angebot an Umsetzungsstrategien, Plattformen und Services und kann zentrale Aufgaben wie die Benutzerverwaltung, die Stammdatenpflege und sogar Mitarbeiterschulungen übernehmen.“  Optional kann das Outsourcing mit der Einführung einer Compliance-Plattform verbunden werden. Diese sorgt für einen sicheren Umgang mit Unternehmensdaten und ermöglicht es Teams, Innovationen verantwortungsvoll voranzutreiben und gleichzeitig Risiken in den Bereichen Sicherheit, Datenschutz, Governance und Compliance zu minimieren. „Hier empfiehlt sich, ein führendes IT-System zu wählen, das sich so konfigurieren lässt, dass Unternehmen alle relevanten Datenflüsse und KI-Anwendungen im Blick behalten und Risiken frühzeitig erkennen“, erklärt sein Kollege Andernach dazu. „Wichtig ist auch, dass sie in der gleichen Umgebung umfassende Automatisierung und Compliance-Optimierung erlaubt – damit lassen sich Kosten deutlich senken und Effizienzsteigerungen von bis zu 30 Prozent erzielen.“  Die Plattform sollte auf die Kundenanforderungen angepasst, implementiert, betrieben und kontinuierlich optimiert werden. Dies entlastet die Mitarbeitenden in der Compliance-Abteilung und ermöglicht es ihnen, sich auf strategische Initiativen und die Bewältigung neuer Anforderungen zu fokussieren.  

6 Schritte zur agilen Compliance-Organisation​ Unternehmen sollten das Thema Compliance proaktiv angehen und nicht nebenbei abdecken.Funtap/Shutterstock.com

Mit der Digitalen Agenda schafft die Europäische Union klare und einheitliche Regeln für einen verantwortungsvollen Umgang mit Daten und künstlicher Intelligenz. Neben der Datenschutzgrundverordnung stehen dabei der EU AI Act und der EU Data Act im Mittelpunkt. Der EU AI Act wird ab Februar 2025 in den nächsten zwei Jahren schrittweise umgesetzt, der EU Data Act ab Herbst 2025. 

Mit den regulatorischen und gesetzlichen Vorgaben will die Politik die Gesellschaft schützen und damit Vertrauen in neue Technologien schaffen. Für Unternehmen bedeuten sie einen erheblichen Mehraufwand. Ein gutes Beispiel ist die Automobilindustrie: Fahrzeuge, Infrastrukturen und ihre Nutzerinnen und Nutzer werden zunehmend softwaregesteuert und vernetzt. Mobilität wird zunehmend über digitale Kanäle und Plattformen angeboten und konsumiert. Hinzu kommt der Einsatz innovativer KI-Anwendungen wie Fahrerassistenz, smarte Navigation und vorausschauende Wartung für mehr Komfort und Sicherheit. Allein für die Sicherstellung der digitalen Konformität müssen Unternehmen einen hohen dreistelligen Betrag pro Fahrzeug aufwenden.  

Nicht zu unterschätzen ist auch der Zeitaufwand, um sich mit den Anforderungen und Konsequenzen der verschiedenen Gesetze vertraut zu machen und eigene Strategien und Lösungen zu entwickeln und auszurollen. „Unternehmen sollten daher bereits jetzt konkrete Schritte zur Umsetzung des EU AI Act und des EU Data Act einleiten“, erklärt Daniel Andernach, Associated Partner bei MHP. „Nur so sind Unternehmen, die digitale Produkte, Services und Funktionen anbieten, frühzeitig rechtssicher für die Zukunftsthemen aufgestellt.“ 

Klare Verantwortlichkeiten liegen dabei vor allem auf Abteilungen bei IT, Recht, Compliance und Datenschutz. Wichtig sind aber auch Stakeholder aus dem Entwicklungsbereich, welche die rechtlichen Anforderungen in den Produkten, Funktionen und Services umsetzen müssen. Für sie müssen prozessuale Leitplanken geschaffen werden.  

Das Problem: Die Komplexität, die Gesetze zu interpretieren und daraus die notwendigen Maßnahmen und Anforderungen abzuleiten, stellt für viele Unternehmen eine erhebliche Hürde dar. Für eine wirklich effektive, sichere und rechtskonforme Umsetzung ist fundiertes Fachwissen notwendig. Zudem sind Compliance-Organisationen häufig teuer, schwerfällig und wenig vernetzt. „Das Thema Compliance wird gerne neben dem Tagesgeschäft abgehandelt. Dadurch verlieren Prozesse an Geschwindigkeit, Neuerungen werden mangelhaft umgesetzt und Anwender nicht ausreichend befähigt“, meint Jose Pereira, Manager bei MHP. 

So gestalten Sie eine Compliance-Organisation 

Das Vorgehen zur Konzeption einer Compliance-OrganisationMHP

Der Aufbau einer agilen und effizienten Compliance-Organisation ermöglicht es den Mitarbeitenden, sich auf das Kerngeschäft zu konzentrieren. Bei der Konzeption einer solchen Organisation hat sich ein Vorgehen in sechs Schritten bewährt. Voraussetzung ist eine enge Zusammenarbeit zwischen den Unternehmensbereichen. Es ist wichtig, klare Rollen und Verantwortlichkeiten zu definieren, relevante Stakeholder einzubinden und zu qualifizieren. Durch die Integration von Werkzeugen können Effizienzsteigerungen erzielt werden. Das Vorgehen im Detail: 

1. Eine Compliance-Strategie entwickeln 

Unternehmen sollten zunächst die strategische Ausrichtung der Compliance-Organisation entwickeln. Dabei geht es um ihre Mission und Vision, die sich stark am Produktportfolio und dessen Weiterentwicklung ausrichtet. Folgende Fragestellungen sind dabei von zentraler Bedeutung:  

Welche Features sind auf dem Markt oder in der Entwicklung und sollen zukünftig Kunden begeistern?  

Welche Technologien werden dafür benötigt und welche Daten werden für die Entwicklung und den Betrieb genutzt? Wie sollen diese vermarktet werden?  

Welche gesetzlichen und regulatorischen Anforderungen sind relevant oder bereits im Entwurf vorhanden?  

Die Compliance-Organisation sollte mit entsprechenden Entscheidungsbefugnissen ausgestattet sein, so dass durchgängige Schnittstellen über die beteiligten Ressorts bestehen 

2. Organisation aufbauen  

Hier werden Aufgaben, Rollen und Verantwortlichkeiten definiert. Damit fördern Unternehmen die Transparenz sowie die übergreifende Zusammenarbeit von internen und externen Stakeholdern, unter anderem aus den Bereichen Entwicklung, Finanzwesen, Beschaffung, Produktion, Rechtswesen und Behörden. Zudem ist es ratsam, Gremienorganisationen einzurichten, eine Geschäftsordnung zu erstellen sowie ein PMO (Project Management Office) unter Berücksichtigung relevanter Handlungsfelder aufzubauen. 

3. Compliance-Prozesse gestalten

Um die bereichsübergreifende Zusammenarbeit zwischen Schnittstellen und Unternehmensbereichen sicherzustellen, müssen zentrale, Compliance-relevante Prozesse gestaltet werden. Ein robuster Freigabeprozess sowie die Implementierung kontinuierlicher Verbesserungszyklen, um die Effizienz und Konformität sicherzustellen, sind ebenfalls wichtig. 

4. Reporting und Monitoring ausgestalten

In diesem Schritt sollten wesentliche KPIs (Key Performance Indicators) für das spätere Reporting definiert werden, die auf die Compliance-Ziele abgestimmt sind und als Grundlage für das spätere Reporting dienen. Gleichzeitig gilt es, aussagekräftige Dashboards auf Basis der definierten Kennzahlen zu entwickeln, um Fördermittel zu erlangen und ein zielgerichtetes Reporting an relevante Gremien zu unterstützen. 

5. Fähigkeiten, Kompetenzen und Erfahrungen entwickeln

Hier geht es darum, auf die spezifischen Compliance-Anforderungen der Organisation abgestimmte Qualifizierungskonzepte zu entwickeln und zu gestalten. Auf diese Weise schaffen Unternehmen ein Bewusstsein für das Thema und sensibilisieren ihre Mitarbeiterinnen und Mitarbeiter für Compliance. 

6. Technologien und Tool-Szenarien identifizieren

Im letzten Schritt werden geeignete IT-Plattformen und KI-Lösungen für die Compliance-Organisation identifiziert. Die gewählten Technologien sollten Effizienzsteigerungen, Transparenz und Rückverfolgbarkeit ermöglichen. Durch bedarfsgerechtes Shoring kann das Unternehmen von zusätzlichen Effizienzgewinnen profitieren. 

Corporate Digital Responsibility als Gütesiegel 

Compliance kann heute in allen Branchen ein entscheidender Wettbewerbsvorteil und morgen Voraussetzung für die Marktteilnahme sein. Dabei heben sich besonders die Unternehmen ab, die Compliance-Vorgaben nicht nur erfüllen, sondern auch verantwortlich mit den individuellen Nutzerdaten umgehen, die durch Produkte, Funktionen und Services generiert werden.  

Beim Compliance-Management kommt es daher darauf an, von der Konzeption über die Systemimplementierung bis hin zum Betrieb eine nahtlose End-to-End-Lösung zu schaffen. Darüber hinaus sollten Datenschutzmanagementsysteme regelmäßig und proaktiv an neue gesetzliche Vorgaben angepasst werden. Nur so können Risiken minimiert und höchste Compliance-Standards gewährleistet werden.  

Die Empfehlung von MHP-Mann Pereira in diesem Zusammenhang: „Wir haben gute Erfahrungen damit gemacht, das Management an ein Compliance Competence Center auszulagern. Ein solches bietet in der Regel ein breites Angebot an Umsetzungsstrategien, Plattformen und Services und kann zentrale Aufgaben wie die Benutzerverwaltung, die Stammdatenpflege und sogar Mitarbeiterschulungen übernehmen.“ 

Optional kann das Outsourcing mit der Einführung einer Compliance-Plattform verbunden werden. Diese sorgt für einen sicheren Umgang mit Unternehmensdaten und ermöglicht es Teams, Innovationen verantwortungsvoll voranzutreiben und gleichzeitig Risiken in den Bereichen Sicherheit, Datenschutz, Governance und Compliance zu minimieren. „Hier empfiehlt sich, ein führendes IT-System zu wählen, das sich so konfigurieren lässt, dass Unternehmen alle relevanten Datenflüsse und KI-Anwendungen im Blick behalten und Risiken frühzeitig erkennen“, erklärt sein Kollege Andernach dazu. „Wichtig ist auch, dass sie in der gleichen Umgebung umfassende Automatisierung und Compliance-Optimierung erlaubt – damit lassen sich Kosten deutlich senken und Effizienzsteigerungen von bis zu 30 Prozent erzielen.“ 

Die Plattform sollte auf die Kundenanforderungen angepasst, implementiert, betrieben und kontinuierlich optimiert werden. Dies entlastet die Mitarbeitenden in der Compliance-Abteilung und ermöglicht es ihnen, sich auf strategische Initiativen und die Bewältigung neuer Anforderungen zu fokussieren. 

6 Schritte zur agilen Compliance-Organisation​ Weiterlesen »

Kostenlose Network Tools: 12 Killer-Apps für Netzwerktechniker​

Allgemein

Dieses (weitgehend) kostenlose Tool-Dutzend ist für Netzwerktechniker Pflicht. Foto: Michael Traitov – shutterstock.com Der Job des Netzwerktechnikers wird zunehmend stressiger: Geschäftskritische Applikationen konkurrieren um Bandbreite, die Anzahl der Devices explodiert und das Netzwerk selbst wird auf Cloud, Netzwerkrand und Home-Office ausgedehnt. Hinzu kommen Cybersecurity-Sorgen – die Angriffe nehmen in allen Bereichen zu, Schwachstellen und Hintertüren sind an der Tagesordnung. Das erhöht den Bedarf an soliden, sicheren Netzwerken, die als Frühwarnsystem für die Cyberabwehr fungieren. Die besten Netzwerk-Tools: Top 12 Glücklicherweise gibt es viele großartige Tools, die Network Engineers dabei unterstützen, die wachsenden Workloads zu händeln. Die folgenden zwölf sind (weitgehend) kostenlos erhältlich und sollten zum Standardrepertoire jedes Netzwerk-Profis gehören. 1. Wireshark: Packet Analyzer Dieses kostenlose Open-Source-Programm dient in erster Linie dazu, Datenpakete, die sich durch ein Netzwerk bewegen, zu erfassen und zu analysieren. Wireshark wurde bereits im Jahr 1998 entwickelt, ist heute aber noch genauso nützlich wie damals. Der Packet Analyzer ermöglicht es Netzwerktechnikern, Network Interface Controller (NICs) in den “Promiscuous”-Modus zu versetzen, um den Traffic zu monitoren. Dabei wird auch Unicast-Traffic, der nicht an die MAC-Adresse eines Rechners gesendet wird, miteinbezogen. 2. Nmap: Netzwerk-Mapping Nmap ist ein kostenloses und quelloffenes Tool, das für Schwachstellentests, Port Scanning und Network Mapping verwendet wird. Dieses leistungsfähige Tool ist dabei in der Lage, Schwachstellen aufzuspüren, die viele andere Tools übersehen. Nmap wird von einer großen Community unterstützt, regelmäßig aktualisiert und – laut den Entwicklern – Woche für Woche mehrere tausend Mal für Windows-, Mac- und Linux-Plattformen oder in Quellcode-Form heruntergeladen. 3. Infection Monkey: Penetrationstests Für Netzwerke jeder Größe eignet sich das Continuous Penetration Testing Tool Infection Monkey aus dem Hause Akamai. Das Security-Werkzeug bietet nicht nur die Möglichkeit, gängige Security-Probleme wie unzureichende Passwörter aufzudecken, sondern kann beispielsweise auch dazu eingesetzt werden, die Konfiguration von Zero-Trust-Netzwerken zu überprüfen. Infection Monkey steht kostenlos zum Download zur Verfügung – der Quellcode ist zudem auf GitHub verfügbar und kann entsprechend Ihren jeweiligen Bedürfnissen modifiziert werden. 4. iperf: Netzwerkverbindungen testen Dieses Tool wurde speziell darauf konzipiert, Netzwerkverbindungen im gesamten Unternehmen zu messen und zu testen. Iperf kann sowohl als Client als auch als Server fungieren und TCP- sowie UDP-Datenströme erzeugen, um den Durchsatz zwischen zwei Punkten zu ermitteln. Das Tool steht kostenlos zum Download zur Verfügung, auch der Quellcode ist abrufbar. Iperf funktioniert mit Linux-, Unix- und Windows-Netzwerken. 5. fprobe: Performance-Testing Dieses Tool kann Netzwerktechniker dabei unterstützen, Funktionen ausfindig zu machen, die zu viel Bandbreite verbrauchen. Auch Schatten-IT, die Traffic erzeugt oder Funktionen ausführt, die im Netzwerk nicht erlaubt sein sollten, lässt sich mit fprobe aufdecken. Dazu misst das Tool an einem bestimmten Punkt im Netzwerk den Traffic, der sich durch diesen Punkt bewegt. Fprobe steht kostenlos zum Download zur Verfügung. 6. Cacti: Visualisierungen Das Visualisierungs-Tool Cacti wurde 2001 entwickelt und bietet zwei wesentliche Funktionen: Ein vollständig verteiltes und fehlertolerantes Datenerfassungssystem sowie eine äußerst nützliche Grafikkomponente, die die User dabei unterstützt, komplexe Datensätze zu visualisieren. Cacti kann sowohl als Netzwerküberwachungs-Tool als auch als Ergänzung zu anderen Tools verwendet werden, indem es eine grafische Schnittstelle für deren Daten bereitstellt. Das Visualisierungswerkzeug steht kostenlos zum Download zur Verfügung und erfordert MySQL, PHP, RRDTool, net-snmp sowie einen Webserver, der PHP unterstützt. 7. Snort: Intrusion Prevention Eines der bekanntesten, kostenlosen Netzwerk-Tools ist Snort. Das Tool wurde ursprünglich im Jahr 1998 entwickelt, inzwischen kümmert sich Netzwerkriese Cisco um Entwicklung und Pflege. Snort ist ein vollständiges Intrusion-Prevention-System, das Netzwerktechniker dabei unterstützt, Regularien für bösartige Netzwerkaktivitäten zu definieren. Diese verwendet das Tool dann, um entsprechende Pakete zu finden und erzeugt im Erfolgsfall entsprechende Warnmeldungen. Snort beinhaltet darüber hinaus auch eine Automatisierungskomponente, um bösartige Datenpakete zu stoppen – ein äußerst fortschrittliches Feature für ein kostenloses Tool. 8. Aircrack-ng: Für Wireless-Netzwerke Neben kabelgebundenen Netzwerken müssen Techniker heutzutage auch sicherstellen, dass drahtlose Netzwerke reibungslos funktionieren. Dabei kann Aircrack-ng helfen, das mehr Tool-Suite als Tool ist und verschiedene Komponenten beinhaltet. Darunter ein Wireless Detector, ein Packet Sniffer, ein WEP- und WPA/WPA2-PSK-Cracker und ein Analysetool für 802.11-Wireless-LANs. Mit Aircrack-ng können Sie herausfinden, welche drahtlosen Netzwerke in der Nähe betrieben werden, wer sie benutzt und wie gut sie geschützt sind. Das Tool steht kostenlos zum Download bereit. 9. OpenNMS: Netzwerk-Monitoring OpenNMS ist eine quelloffene Plattform zur Netzwerküberwachung, die dabei unterstützt, ein Unternehmen mit lokalen und verteilten Netzwerken zu visualisieren und zu überwachen. Sie bietet umfassendes Fehler-, Leistungs- und Traffic-Monitoring und ist zudem hochskalierbar. Die Plattform gibt es dabei in zwei verschiedenen Versionen: Meridian ist ein kostenpflichtiges Produkt auf Abo-Basis, das bei Konfiguration und Inbetriebnahme unterstützt; Horizon ist die kostenlose, Community-basierte Plattform, die frei zur Verfügung steht. Horizon verfügt über alle Funktionen der kostenpflichtigen Plattform, muss aber zunächst entsprechend Ihrer Netzwerkanforderungen konfiguriert werden. 10. SmokePing: Latenzzeit messen SmokePing ist darauf konzipiert, Netzwerklatenz und Paketverluste im Zeitverlauf zu messen. Dazu sendet es in regelmäßigen Abständen Ping-Signale aus und zeichnet die Antwortzeiten auf. Diese Daten werden dann in einem interaktiven Diagramm dargestellt, das Latenzmuster aufzeigt. Die Benutzer können auf eine beliebige Stelle des Diagramms klicken und erhalten Informationen darüber, was zu diesem Zeitpunkt geschehen ist. Das ist insbesondere in Situationen hilfreich, wenn Netzwerkprobleme auftreten, aber nicht klar ist, wann, wo und warum genau. Das Tool steht kostenlos zum Download zur Verfügung. 11. DBOT: Slack überwachen Viele Netzwerktechniker nutzen Slack, um zu kommunizieren. Dabei sollte die beliebte Instant-Communication-Plattform nicht selbst zur Schwachstelle werden. Um das zu verhindern, scannt das Tool DBOT – das auch technisch gesehen ein Bot ist – sämtliche URLs, Dateien und IP-Adressen innerhalb einer Slack-Installation auf bösartige Inhalte. Sollte er letztere finden, warnt der Security-Bot die Benutzer auf direktem Weg. DBOT ist ein quelloffenes und kostenloses Tool, das sich schnell und unkompliziert zu jeder Slack-Installation hinzufügen lässt und einen willkommenen, zusätzlichem Security Layer bietet. 12. Senzing: Data Matching Streng genommen hat dieses Tool nur am Rande mit Networking und Security zu tun. Dennoch kann Senzing in bestimmten Situationen nützlich sein. Das Tool kann Ähnlichkeiten und Beziehungen in unterschiedlichen Datenbanken aufspüren. Zu Security-Zwecken eingesetzt, kann Senzing beispielsweise kompromittierte persönliche Daten innerhalb eines Netzwerks identifizieren. Senzing steht als API kostenlos zum Download bereit und analysiert dann bis zu 100.000 Datensätze. Bei größerem Bedarf stehen diverse Preispläne zur Auswahl. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Kostenlose Network Tools: 12 Killer-Apps für Netzwerktechniker​ Dieses (weitgehend) kostenlose Tool-Dutzend ist für Netzwerktechniker Pflicht.
Foto: Michael Traitov – shutterstock.com

Der Job des Netzwerktechnikers wird zunehmend stressiger: Geschäftskritische Applikationen konkurrieren um Bandbreite, die Anzahl der Devices explodiert und das Netzwerk selbst wird auf Cloud, Netzwerkrand und Home-Office ausgedehnt. Hinzu kommen Cybersecurity-Sorgen – die Angriffe nehmen in allen Bereichen zu, Schwachstellen und Hintertüren sind an der Tagesordnung. Das erhöht den Bedarf an soliden, sicheren Netzwerken, die als Frühwarnsystem für die Cyberabwehr fungieren.

Die besten Netzwerk-Tools: Top 12

Glücklicherweise gibt es viele großartige Tools, die Network Engineers dabei unterstützen, die wachsenden Workloads zu händeln. Die folgenden zwölf sind (weitgehend) kostenlos erhältlich und sollten zum Standardrepertoire jedes Netzwerk-Profis gehören.

1. Wireshark: Packet Analyzer

Dieses kostenlose Open-Source-Programm dient in erster Linie dazu, Datenpakete, die sich durch ein Netzwerk bewegen, zu erfassen und zu analysieren. Wireshark wurde bereits im Jahr 1998 entwickelt, ist heute aber noch genauso nützlich wie damals. Der Packet Analyzer ermöglicht es Netzwerktechnikern, Network Interface Controller (NICs) in den “Promiscuous”-Modus zu versetzen, um den Traffic zu monitoren. Dabei wird auch Unicast-Traffic, der nicht an die MAC-Adresse eines Rechners gesendet wird, miteinbezogen.

2. Nmap: Netzwerk-Mapping

Nmap ist ein kostenloses und quelloffenes Tool, das für Schwachstellentests, Port Scanning und Network Mapping verwendet wird. Dieses leistungsfähige Tool ist dabei in der Lage, Schwachstellen aufzuspüren, die viele andere Tools übersehen. Nmap wird von einer großen Community unterstützt, regelmäßig aktualisiert und – laut den Entwicklern – Woche für Woche mehrere tausend Mal für Windows-, Mac- und Linux-Plattformen oder in Quellcode-Form heruntergeladen.

3. Infection Monkey: Penetrationstests

Für Netzwerke jeder Größe eignet sich das Continuous Penetration Testing Tool Infection Monkey aus dem Hause Akamai. Das Security-Werkzeug bietet nicht nur die Möglichkeit, gängige Security-Probleme wie unzureichende Passwörter aufzudecken, sondern kann beispielsweise auch dazu eingesetzt werden, die Konfiguration von Zero-Trust-Netzwerken zu überprüfen. Infection Monkey steht kostenlos zum Download zur Verfügung – der Quellcode ist zudem auf GitHub verfügbar und kann entsprechend Ihren jeweiligen Bedürfnissen modifiziert werden.

4. iperf: Netzwerkverbindungen testen

Dieses Tool wurde speziell darauf konzipiert, Netzwerkverbindungen im gesamten Unternehmen zu messen und zu testen. Iperf kann sowohl als Client als auch als Server fungieren und TCP- sowie UDP-Datenströme erzeugen, um den Durchsatz zwischen zwei Punkten zu ermitteln. Das Tool steht kostenlos zum Download zur Verfügung, auch der Quellcode ist abrufbar. Iperf funktioniert mit Linux-, Unix- und Windows-Netzwerken.

5. fprobe: Performance-Testing

Dieses Tool kann Netzwerktechniker dabei unterstützen, Funktionen ausfindig zu machen, die zu viel Bandbreite verbrauchen. Auch Schatten-IT, die Traffic erzeugt oder Funktionen ausführt, die im Netzwerk nicht erlaubt sein sollten, lässt sich mit fprobe aufdecken. Dazu misst das Tool an einem bestimmten Punkt im Netzwerk den Traffic, der sich durch diesen Punkt bewegt. Fprobe steht kostenlos zum Download zur Verfügung.

6. Cacti: Visualisierungen

Das Visualisierungs-Tool Cacti wurde 2001 entwickelt und bietet zwei wesentliche Funktionen: Ein vollständig verteiltes und fehlertolerantes Datenerfassungssystem sowie eine äußerst nützliche Grafikkomponente, die die User dabei unterstützt, komplexe Datensätze zu visualisieren.

Cacti kann sowohl als Netzwerküberwachungs-Tool als auch als Ergänzung zu anderen Tools verwendet werden, indem es eine grafische Schnittstelle für deren Daten bereitstellt. Das Visualisierungswerkzeug steht kostenlos zum Download zur Verfügung und erfordert MySQL, PHP, RRDTool, net-snmp sowie einen Webserver, der PHP unterstützt.

7. Snort: Intrusion Prevention

Eines der bekanntesten, kostenlosen Netzwerk-Tools ist Snort. Das Tool wurde ursprünglich im Jahr 1998 entwickelt, inzwischen kümmert sich Netzwerkriese Cisco um Entwicklung und Pflege. Snort ist ein vollständiges Intrusion-Prevention-System, das Netzwerktechniker dabei unterstützt, Regularien für bösartige Netzwerkaktivitäten zu definieren. Diese verwendet das Tool dann, um entsprechende Pakete zu finden und erzeugt im Erfolgsfall entsprechende Warnmeldungen.

Snort beinhaltet darüber hinaus auch eine Automatisierungskomponente, um bösartige Datenpakete zu stoppen – ein äußerst fortschrittliches Feature für ein kostenloses Tool.

8. Aircrack-ng: Für Wireless-Netzwerke

Neben kabelgebundenen Netzwerken müssen Techniker heutzutage auch sicherstellen, dass drahtlose Netzwerke reibungslos funktionieren. Dabei kann Aircrack-ng helfen, das mehr Tool-Suite als Tool ist und verschiedene Komponenten beinhaltet. Darunter ein Wireless Detector, ein Packet Sniffer, ein WEP- und WPA/WPA2-PSK-Cracker und ein Analysetool für 802.11-Wireless-LANs. Mit Aircrack-ng können Sie herausfinden, welche drahtlosen Netzwerke in der Nähe betrieben werden, wer sie benutzt und wie gut sie geschützt sind. Das Tool steht kostenlos zum Download bereit.

9. OpenNMS: Netzwerk-Monitoring

OpenNMS ist eine quelloffene Plattform zur Netzwerküberwachung, die dabei unterstützt, ein Unternehmen mit lokalen und verteilten Netzwerken zu visualisieren und zu überwachen. Sie bietet umfassendes Fehler-, Leistungs- und Traffic-Monitoring und ist zudem hochskalierbar.

Die Plattform gibt es dabei in zwei verschiedenen Versionen:

Meridian ist ein kostenpflichtiges Produkt auf Abo-Basis, das bei Konfiguration und Inbetriebnahme unterstützt;

Horizon ist die kostenlose, Community-basierte Plattform, die frei zur Verfügung steht.

Horizon verfügt über alle Funktionen der kostenpflichtigen Plattform, muss aber zunächst entsprechend Ihrer Netzwerkanforderungen konfiguriert werden.

10. SmokePing: Latenzzeit messen

SmokePing ist darauf konzipiert, Netzwerklatenz und Paketverluste im Zeitverlauf zu messen. Dazu sendet es in regelmäßigen Abständen Ping-Signale aus und zeichnet die Antwortzeiten auf. Diese Daten werden dann in einem interaktiven Diagramm dargestellt, das Latenzmuster aufzeigt.

Die Benutzer können auf eine beliebige Stelle des Diagramms klicken und erhalten Informationen darüber, was zu diesem Zeitpunkt geschehen ist. Das ist insbesondere in Situationen hilfreich, wenn Netzwerkprobleme auftreten, aber nicht klar ist, wann, wo und warum genau. Das Tool steht kostenlos zum Download zur Verfügung.

11. DBOT: Slack überwachen

Viele Netzwerktechniker nutzen Slack, um zu kommunizieren. Dabei sollte die beliebte Instant-Communication-Plattform nicht selbst zur Schwachstelle werden. Um das zu verhindern, scannt das Tool DBOT – das auch technisch gesehen ein Bot ist – sämtliche URLs, Dateien und IP-Adressen innerhalb einer Slack-Installation auf bösartige Inhalte. Sollte er letztere finden, warnt der Security-Bot die Benutzer auf direktem Weg. DBOT ist ein quelloffenes und kostenloses Tool, das sich schnell und unkompliziert zu jeder Slack-Installation hinzufügen lässt und einen willkommenen, zusätzlichem Security Layer bietet.

12. Senzing: Data Matching

Streng genommen hat dieses Tool nur am Rande mit Networking und Security zu tun. Dennoch kann Senzing in bestimmten Situationen nützlich sein. Das Tool kann Ähnlichkeiten und Beziehungen in unterschiedlichen Datenbanken aufspüren. Zu Security-Zwecken eingesetzt, kann Senzing beispielsweise kompromittierte persönliche Daten innerhalb eines Netzwerks identifizieren.

Senzing steht als API kostenlos zum Download bereit und analysiert dann bis zu 100.000 Datensätze. Bei größerem Bedarf stehen diverse Preispläne zur Auswahl.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Kostenlose Network Tools: 12 Killer-Apps für Netzwerktechniker​ Weiterlesen »

Ex-OpenAI-CTO geht eigene Wege​

Allgemein

Im September 2024 verließ Mira Murati unerwartet ihre Stelle als Chief Technology Officer von OpenAI. Schon damals hieß es, dass sie ihr eigenes Unternehmen gründen wolle. shutterstock – takasu Mira Murati ist der Ansicht, dass es eine große Lücke zwischen der rasanten Entwicklung der Künstlichen Intelligenz (KI) und dem Verständnis der Öffentlichkeit für diese Technologie gibt. Selbst hoch qualifizierte Wissenschaftler hätten keine genaue Vorstellung von den Möglichkeiten und Grenzen der KI, erklärt sie. Das von ihr gegründete Startup Thinking Machines Lab plant, diese Lücke zu schließen. KI-Verständnis bleibt hinter Entwicklung zurück Thinking Machines Lab plant, diese Lücke zu schließen, indem es „KI-Systeme allgemein verständlicher, anpassbarer und allgemeinfähiger“ machen will. Zugleich verspricht das Startup, seine Arbeit durch die Veröffentlichung von technischen Notizen, Papieren und aktuellem Code transparent zu halten. Murati sieht KI noch in der Anfangsphase und den Wettbewerb offen. Das Thinking Machines Lab will mit großen Sprachmodellen konkurrieren, da fortschrittliche Modelle transformative Anwendungen ermöglichen sollen. DeepSeek, welches angeblich kompetitive KI zu vergleichsweise niedrigen Preisen anbietet, soll diese Annahme untermauern. I started Thinking Machines Lab alongside a remarkable team of scientists, engineers, and builders. We’re building three things:– Helping people adapt AI systems to work for their specific needs– Developing strong foundations to build more capable AI systems– Fostering a…— Mira Murati (@miramurati) February 18, 2025 Wie Thinking Machine Labs‘ Geschäftsmodell und Finanzierungsstruktur aussehen soll, ist allerdings noch geheim. Das Unternehmen gibt sich aber zuversichtlich, die nötigen Mittel aufzubringen. Trotz hoher Kosten hält Murati zudem eine Skalierung für essenziell. Top-KI-Talente wechseln zu Thinking Machines Lab Bekannt ist jedoch, wer CEO Murati dabei helfen soll, das neue Startup voranzutreiben: Vor kurzem wurde der OpenAI-Mitbegründer John Schulman als Forschungsleiter eingestellt. Barrett Zoph, eine weitere ehemalige OpenAI-Führungskraft, ist der CTO des Unternehmens. Jonathan Lachman, der die Abteilung für Spezialprojekte von OpenAI leitete, hat ebenfalls die Seiten gewechselt und sich Muratis Unternehmen angeschlossen. Insgesamt sind etwa zehn Spitzenforscher und Ingenieure aus Elite-KI-Laboren, darunter OpenAI, Character.AI und Google DeepMind, zu Thinking Machines Lab gewechselt. Bekannte Namen sind unter anderem der Leiter der multimodalen Forschung Alexander Kirillov sowie der Forscher Luke Metz, der OpenAI vor einigen Monaten verlassen hat. Das Team hat bereits mit einer Reihe von Projekten begonnen, bei denen es sich nicht um Nachahmungen von ChatGPT oder Claude handeln soll. Vielmehr sollen KI-Modelle entwickelt werden, die die Zusammenarbeit zwischen Menschen und KI optimieren. Ein gescheitertes KI-Vorläuferprojekt Der Name des Unternehmens geht übrigens auf den amerikanischen Erfinder Danny Hillis zurück, der schon vor über 30 Jahren von einer Partnerschaft zwischen Menschen und Maschinen träumte. Hillis, ein Schützling des KI-Pioniers Marvin Minsky, baute einen Supercomputer mit leistungsstarken Chips, die parallel laufen. Damit ist er ein Vorläufer der Cluster, die heute die KI steuern. Er nannte ihn Thinking Machines, hatte allerdings damit keinen Erfolg –  sein Firma meldete 1994 Konkurs an. 

Ex-OpenAI-CTO geht eigene Wege​ Im September 2024 verließ Mira Murati unerwartet ihre Stelle als Chief Technology Officer von OpenAI. Schon damals hieß es, dass sie ihr eigenes Unternehmen gründen wolle.
shutterstock – takasu

Mira Murati ist der Ansicht, dass es eine große Lücke zwischen der rasanten Entwicklung der Künstlichen Intelligenz (KI) und dem Verständnis der Öffentlichkeit für diese Technologie gibt. Selbst hoch qualifizierte Wissenschaftler hätten keine genaue Vorstellung von den Möglichkeiten und Grenzen der KI, erklärt sie. Das von ihr gegründete Startup Thinking Machines Lab plant, diese Lücke zu schließen.

KI-Verständnis bleibt hinter Entwicklung zurück

Thinking Machines Lab plant, diese Lücke zu schließen, indem es „KI-Systeme allgemein verständlicher, anpassbarer und allgemeinfähiger“ machen will. Zugleich verspricht das Startup, seine Arbeit durch die Veröffentlichung von technischen Notizen, Papieren und aktuellem Code transparent zu halten.

Murati sieht KI noch in der Anfangsphase und den Wettbewerb offen. Das Thinking Machines Lab will mit großen Sprachmodellen konkurrieren, da fortschrittliche Modelle transformative Anwendungen ermöglichen sollen. DeepSeek, welches angeblich kompetitive KI zu vergleichsweise niedrigen Preisen anbietet, soll diese Annahme untermauern.

I started Thinking Machines Lab alongside a remarkable team of scientists, engineers, and builders. We’re building three things:– Helping people adapt AI systems to work for their specific needs– Developing strong foundations to build more capable AI systems– Fostering a…— Mira Murati (@miramurati) February 18, 2025

Wie Thinking Machine Labs‘ Geschäftsmodell und Finanzierungsstruktur aussehen soll, ist allerdings noch geheim. Das Unternehmen gibt sich aber zuversichtlich, die nötigen Mittel aufzubringen. Trotz hoher Kosten hält Murati zudem eine Skalierung für essenziell.

Top-KI-Talente wechseln zu Thinking Machines Lab

Bekannt ist jedoch, wer CEO Murati dabei helfen soll, das neue Startup voranzutreiben: Vor kurzem wurde der OpenAI-Mitbegründer John Schulman als Forschungsleiter eingestellt. Barrett Zoph, eine weitere ehemalige OpenAI-Führungskraft, ist der CTO des Unternehmens. Jonathan Lachman, der die Abteilung für Spezialprojekte von OpenAI leitete, hat ebenfalls die Seiten gewechselt und sich Muratis Unternehmen angeschlossen.

Insgesamt sind etwa zehn Spitzenforscher und Ingenieure aus Elite-KI-Laboren, darunter OpenAI, Character.AI und Google DeepMind, zu Thinking Machines Lab gewechselt. Bekannte Namen sind unter anderem der Leiter der multimodalen Forschung Alexander Kirillov sowie der Forscher Luke Metz, der OpenAI vor einigen Monaten verlassen hat.

Das Team hat bereits mit einer Reihe von Projekten begonnen, bei denen es sich nicht um Nachahmungen von ChatGPT oder Claude handeln soll. Vielmehr sollen KI-Modelle entwickelt werden, die die Zusammenarbeit zwischen Menschen und KI optimieren.

Ein gescheitertes KI-Vorläuferprojekt

Der Name des Unternehmens geht übrigens auf den amerikanischen Erfinder Danny Hillis zurück, der schon vor über 30 Jahren von einer Partnerschaft zwischen Menschen und Maschinen träumte. Hillis, ein Schützling des KI-Pioniers Marvin Minsky, baute einen Supercomputer mit leistungsstarken Chips, die parallel laufen. Damit ist er ein Vorläufer der Cluster, die heute die KI steuern. Er nannte ihn Thinking Machines, hatte allerdings damit keinen Erfolg –  sein Firma meldete 1994 Konkurs an.

Ex-OpenAI-CTO geht eigene Wege​ Weiterlesen »

Unternehmen setzen verstärkt auf Generative KI​

Allgemein

Unternehmen planen gezielte Initiativen zur Implementierung von GenAI. Qualität und Produktivität sollen erheblich gesteigert werden. shutterstock – dee karen 2025 soll das Jahr der Künstlichen Intelligenz (KI) werden, das zumindest behaupten renommierte Organisation wie das Weltwirtschaftsforum (WEF). Dementsprechend planen Unternehmen weltweit, generative künstliche Intelligenz (GenAI) wesentlich stärker einzusetzen. GenAI als Treiber für Geschäftsziele 2025 Laut einer aktuellen Studie der Hackett Group haben 89 Prozent der Unternehmen bereits Initiativen gestartet, wie sie GenAI implementieren wollen. Diese Initiativen werden meist durch zentralisierte oder vom Business gestützte Modelle unterstützt, wobei die Mehrheit der Unternehmen auf eine zentrale Steuerung durch IT-Teams setzt. Die Nutzung von GenAI wird maßgeblich die Geschäftsziele für 2025 beeinflussen, so die Studie. Demnach plant über die Hälfte der Unternehmen (58 Prozent), GenAI zur Verbesserung der Kundenzufriedenheit und –erfahrungen, neudeutsch Customer Experience, einzusetzen. 47 Prozent möchten GenAI nutzen, um die Innovation ihrer Produkte und Dienstleistungen zu fördern, und ähnlich viele (46 Prozent) streben an, durch den Einsatz von GenAI Kostenvorteile zu erzielen. Herausforderungen bei der Skalierung Der Grund für das starke Engagement liegt auf der Hand: In der Studie berichten viele Unternehmen bereits von erheblichen Wertsteigerungen durch GenAI, darunter Verbesserungen in Qualität, Produktivität, Betriebskostenreduktion sowie in der Kunden- und Mitarbeiterzufriedenheit. Einige Unternehmen haben nach eigenen Angaben sogar über 40 Prozent Verbesserungen in Qualität und Produktivität erzielt, was das Potenzial für bahnbrechende Werte unterstreicht. Die Skalierung von GenAI erfordert jedoch die Überwindung mehrerer Herausforderungen. Dazu gehören unrealistische Erwartungshaltungen, Prozesskomplexität, ethische Überlegungen sowie Probleme mit Datenqualität und technologischer Komplexität. Trotz dieser Herausforderungen zeigen Unternehmen weniger Bedenken hinsichtlich der Unterstützung durch Führungskräfte und Investitionen, was auf ein starkes Engagement für GenAI hinweist. Laut Hackett Group werden dabei Global Business Services (GBS) Organisationen, also Betriebseinheiten, die administrative Prozesse an Knotenpunkten im gesamten Unternehmen übernehmen, eine bedeutende Rolle bei der Einführung von GenAI spielen. Sie unterstützen nicht nur Back-Office-Funktionen wie Finanzen, IT, HR und Beschaffung, sondern auch Front- und Mid-Office-Funktionen wie Lieferketten, Vertrieb und Marketing. Von der Theorie zur Praxis Wie Unternehmen hierfür vorgehen sollten, stellen die Macher der Studie detailliert dar: Unternehmen sollten gezielt überlegen, wie und wo sie GenAI skalieren, um Geschäftswert zu schaffen. Die Einbindung von Führungskräften hilft, Produktivität, Qualität, Kundenerfahrungen und Kosteneinsparungen zu optimieren. Unternehmen sollten eine Umgebung für „Co-Intelligenz“ schaffen, in der Mensch und KI zusammenarbeiten, um Innovationen und Wettbewerbsvorteile zu erzielen. Unternehmen sollten gezielt Prozess-, Daten- und Technologiekomplexität angehen und Best Practices nutzen, um Effizienz zu steigern und die Wertschöpfung zu beschleunigen. Unternehmen sollten Weiterbildungsprogramme anpassen, um Mitarbeitende auf die Veränderungen durch GenAI vorzubereiten. Besonders wichtig sind Umschulungen in Bereichen wie Datenwissenschaft und maschinelles Lernen. Diese Maßnahmen sollen Unternehmen helfen, die Komplexität bestehender Prozesse zu bewältigen, unrealistische Geschäftserwartungen zu managen und eine solide Grundlage für die erfolgreiche Implementierung und Skalierung von GenAI zu schaffen. KI-Kompetenzen gezielt fördern Die Hackett Group hebt hervor, dass Unternehmen ihre Bemühungen zur Skalierung von GenAI beschleunigen sollten, indem sie sich auf die Bereitschaft zur Ideengenerierung, Bewertung, Entwicklung und Implementierung von GenAI-Lösungen konzentrieren. Dies erfordert auch eine Neuausrichtung der Mitarbeiterentwicklung, um die Belegschaft auf die Zusammenarbeit mit KI vorzubereiten und notwendige Fähigkeiten wie Datenwissenschaft und maschinelles Lernen zu fördern. Führungskräfte weltweit geben Einblick in Gen AI-Strategien Von September bis November 2024 führte The Hackett Group eine Reihe von Umfragen unter Führungskräften aus den Bereichen Finanzen, IT, GBS, HR und Beschaffung durch, in denen diese zu ihren wichtigsten Themen, Geschäftszielen und Plänen für GenAI im Jahr 2025 befragt wurden. Die Befragten waren Führungskräfte von Unternehmen mit Hauptsitz in Asien, Mittel- und Südamerika, Europa, dem Nahen Osten und Afrika sowie Nordamerika. 

Unternehmen setzen verstärkt auf Generative KI​ Unternehmen planen gezielte Initiativen zur Implementierung von GenAI. Qualität und Produktivität sollen erheblich gesteigert werden.
shutterstock – dee karen

2025 soll das Jahr der Künstlichen Intelligenz (KI) werden, das zumindest behaupten renommierte Organisation wie das Weltwirtschaftsforum (WEF). Dementsprechend planen Unternehmen weltweit, generative künstliche Intelligenz (GenAI) wesentlich stärker einzusetzen.

GenAI als Treiber für Geschäftsziele 2025

Laut einer aktuellen Studie der Hackett Group haben 89 Prozent der Unternehmen bereits Initiativen gestartet, wie sie GenAI implementieren wollen. Diese Initiativen werden meist durch zentralisierte oder vom Business gestützte Modelle unterstützt, wobei die Mehrheit der Unternehmen auf eine zentrale Steuerung durch IT-Teams setzt.

Die Nutzung von GenAI wird maßgeblich die Geschäftsziele für 2025 beeinflussen, so die Studie. Demnach plant über die Hälfte der Unternehmen (58 Prozent), GenAI zur Verbesserung der Kundenzufriedenheit und –erfahrungen, neudeutsch Customer Experience, einzusetzen. 47 Prozent möchten GenAI nutzen, um die Innovation ihrer Produkte und Dienstleistungen zu fördern, und ähnlich viele (46 Prozent) streben an, durch den Einsatz von GenAI Kostenvorteile zu erzielen.

Herausforderungen bei der Skalierung

Der Grund für das starke Engagement liegt auf der Hand: In der Studie berichten viele Unternehmen bereits von erheblichen Wertsteigerungen durch GenAI, darunter Verbesserungen in Qualität, Produktivität, Betriebskostenreduktion sowie in der Kunden- und Mitarbeiterzufriedenheit. Einige Unternehmen haben nach eigenen Angaben sogar über 40 Prozent Verbesserungen in Qualität und Produktivität erzielt, was das Potenzial für bahnbrechende Werte unterstreicht.

Die Skalierung von GenAI erfordert jedoch die Überwindung mehrerer Herausforderungen. Dazu gehören unrealistische Erwartungshaltungen, Prozesskomplexität, ethische Überlegungen sowie Probleme mit Datenqualität und technologischer Komplexität. Trotz dieser Herausforderungen zeigen Unternehmen weniger Bedenken hinsichtlich der Unterstützung durch Führungskräfte und Investitionen, was auf ein starkes Engagement für GenAI hinweist.

Laut Hackett Group werden dabei Global Business Services (GBS) Organisationen, also Betriebseinheiten, die administrative Prozesse an Knotenpunkten im gesamten Unternehmen übernehmen, eine bedeutende Rolle bei der Einführung von GenAI spielen. Sie unterstützen nicht nur Back-Office-Funktionen wie Finanzen, IT, HR und Beschaffung, sondern auch Front- und Mid-Office-Funktionen wie Lieferketten, Vertrieb und Marketing.

Von der Theorie zur Praxis

Wie Unternehmen hierfür vorgehen sollten, stellen die Macher der Studie detailliert dar:

Unternehmen sollten gezielt überlegen, wie und wo sie GenAI skalieren, um Geschäftswert zu schaffen. Die Einbindung von Führungskräften hilft, Produktivität, Qualität, Kundenerfahrungen und Kosteneinsparungen zu optimieren.

Unternehmen sollten eine Umgebung für „Co-Intelligenz“ schaffen, in der Mensch und KI zusammenarbeiten, um Innovationen und Wettbewerbsvorteile zu erzielen.

Unternehmen sollten gezielt Prozess-, Daten- und Technologiekomplexität angehen und Best Practices nutzen, um Effizienz zu steigern und die Wertschöpfung zu beschleunigen.

Unternehmen sollten Weiterbildungsprogramme anpassen, um Mitarbeitende auf die Veränderungen durch GenAI vorzubereiten. Besonders wichtig sind Umschulungen in Bereichen wie Datenwissenschaft und maschinelles Lernen.

Diese Maßnahmen sollen Unternehmen helfen, die Komplexität bestehender Prozesse zu bewältigen, unrealistische Geschäftserwartungen zu managen und eine solide Grundlage für die erfolgreiche Implementierung und Skalierung von GenAI zu schaffen.

KI-Kompetenzen gezielt fördern

Die Hackett Group hebt hervor, dass Unternehmen ihre Bemühungen zur Skalierung von GenAI beschleunigen sollten, indem sie sich auf die Bereitschaft zur Ideengenerierung, Bewertung, Entwicklung und Implementierung von GenAI-Lösungen konzentrieren.

Dies erfordert auch eine Neuausrichtung der Mitarbeiterentwicklung, um die Belegschaft auf die Zusammenarbeit mit KI vorzubereiten und notwendige Fähigkeiten wie Datenwissenschaft und maschinelles Lernen zu fördern.

Führungskräfte weltweit geben Einblick in Gen AI-Strategien

Von September bis November 2024 führte The Hackett Group eine Reihe von Umfragen unter Führungskräften aus den Bereichen Finanzen, IT, GBS, HR und Beschaffung durch, in denen diese zu ihren wichtigsten Themen, Geschäftszielen und Plänen für GenAI im Jahr 2025 befragt wurden. Die Befragten waren Führungskräfte von Unternehmen mit Hauptsitz in Asien, Mittel- und Südamerika, Europa, dem Nahen Osten und Afrika sowie Nordamerika.

Unternehmen setzen verstärkt auf Generative KI​ Weiterlesen »

Nach oben scrollen
×