Computerhaus Quickborn

April 2025

Was ist eine GPU?​

Allgemein

GPUs sind dem Gaming-Bereich längst entwachsen.Nvidia Ursprünglich für Gaming-Zwecke entwickelt, sind Graphics Processing Units (GPUs; Grafikprozessoren) angesichts der rasant steigenden Anforderungen im Bereich der Datenverarbeitung auch für Unternehmen inzwischen nahezu unverzichtbar. Schließlich ermöglichen GPUs mit Hilfe dutzender, hunderter oder tausender miteinander verbundener Kerne Parallel Processing und eignen sich damit ideal für komplexe, datenintensive Workloads – wie sie beispielsweise im Bereich der (generativen) künstlichen Intelligenz (KI) anfallen.   In Verbindung mit CPUs können Grafikprozessoren die Systemgeschwindigkeit und -Performance erheblich steigern und dazu beitragen, das Potenzial von „Next Generation“-Technologien voll auszuschöpfen. In diesem Grundlagenartikel lesen Sie: wie sich GPUs und CPUs unterscheiden, wie Grafikprozessoren funktionieren, in welchen Ausformungen sie auftreten, welche Business Use Cases dabei besonders relevant sind, sowie welche Anbieter im GPU-Bereich tonangebend sind. GPU “vs.” CPU Sowohl GPUs als auch CPUs sind Hardware-Komponenten von Computern und Servern. Dabei fungiert die Central Processing Unit als eine Art „Systemverwaltungsgehirn“ – vereinfacht gesagt ermöglichen CPUs, dass Computer funktionieren. CPUs enthalten in der Regel weit weniger Kerne als GPUs und verarbeiten Tasks sequenziell. Im Vergleich zu GPUs übernehmen CPUs eher allgemeine Aufgaben. Zum Beispiel: Anwendungen auszuführen, Input- und Output-Prozesse abzuarbeiten, oder Grafiken zu verarbeiten. Darüber hinaus können CPUs auch einige komplexere Aufgaben bewältigen, beispielsweise auch niedrigschwellige KI-Workloads wie Inferenz- oder Modelltraining. Wichtig ist an dieser Stelle, dass GPU und CPU nicht „gegeneinander arbeiten“. Vielmehr ergänzen sich Graphics und Central Processing Unit gegenseitig – je nachdem, welcher Chipsatz besser für die jeweilige Aufgabe geeignet ist. GPU – Funktionsweise GPUs werden auf Siliziumwafern gefertigt, die als Basis für eine Reihe kleinerer, spezialisierterer Multiprozessoren dienen. Diese sind durch Transistoren miteinander verbunden, über die sie kommunizieren, Berechnungen durchführen und mehrere Aufgaben gleichzeitig ausführen können (Parallel Processing). Dabei werden die jeweiligen Tasks in kleinere, unabhängige Schritte aufgeteilt, die über die GPU-Architektur verteilt werden. In der Regel verfügen GPUs über einen eigenen Arbeitsspeicher (RAM), der speziell darauf ausgelegt ist, große Datenmengen zu verarbeiten. Das ermöglicht, die zu verarbeitenden Daten schneller abzurufen, zu speichern und zu modifizieren.   GPU-Formen Grafikprozessoren werden in der Regel in drei verschiedenen Ausformungen angeboten. Nämlich als: diskrete GPUs, integrierte GPUs oder virtuelle GPUs (vGPUs). Bei diskreten GPUs handelt es sich um separate Chips(ätze), die von der CPU des Geräts getrennt sind. In der Folge verfügen Standalone-GPUs auch über einen eigenen Speicher, der nicht mit der CPU geteilt wird – was eine verbesserte Performance sicherstellt. Diskrete GPUs sind in der Regel für spezifische Tasks mit besonderen Anforderungen ausgelegt. Ihr Nachteil ist allerdings ein höherer Energiebedarf – mehr Wärme bedeutet zusätzliche Kühlungsmaßnahmen. Integrierte GPUs machen das Gros der heute am Markt verfügbaren Grafikprozessoren aus. Diese GPUs sind mit CPUs integriert und teilen sich den Systemspeicher entsprechend mit diesen. Das ermöglicht leichtgewichtigere Systeme, die weniger (Energie-)Kosten verursachen. Virtuelle GPUs oder vGPUs sind hingegen softwarebasierte GPU-Cluster, die meistens von Cloud-Service-Anbietern angeboten werden. Diese Art der virtuellen Infrastruktur wird immer beliebter, schließlich müssen Unternehmen damit physische Hardware nicht selbst anschaffen, betreiben und warten. GPU-Anwendungsfälle Wie bereits erwähnt, ist die Graphics Processing Unit tief im Gaming-Bereich verwurzelt. Das hat sich mit der technologischen Evolution der letzten Jahre grundlegend verändert: Inzwischen sind die Grafikprozessoren nicht nur für grafikintensive Egoshooter unverzichtbar, sondern auch für eine wachsende Zahl anspruchsvoller Business Use Cases. High Performance Computing Beim High Performance Computing (HPC) werden Rechner in Clustern zusammengeführt, um als „Einheit“ komplexe Berechnungen in hoher Geschwindigkeit durchzuführen. Dieses Konzept wird im Wesentlichen durch die Parallel-Processing-Fähigkeiten von GPUs realisiert. HPC ist der „Motor“, der Supercomputer antreibt, die für die Computerwissenschaft von essenzieller Bedeutung sind. Sie kommen zum Beispiel im Quantencomputing, bei tiefgehenden Datenanalysen oder wissenschaftlichen Simulationen zum Einsatz. Machine & Deep Learning Machine Learning (ML) und Deep Learning (DL) bilden das Rückgrat der Datenwissenschaft. Damit ML- und DL-Modelle große Datensätze analysieren und menschliches Lernverhalten simulieren können, benötigen sie erhebliche Rechenleistung – die GPUs liefern können. So können Grafikprozessoren ML-Funktionen beschleunigen und zum Beispiel dazu beitragen, Daten optimal zu verarbeiten, Muster schneller zu erkennen und bessere Schlussfolgerungen zu ziehen. (Generative) KI Enorme Rechen-Power erfordern auch Large Language Models (LLMs), beziehungsweise Generative AI (GenAI). Auch in diesem Bereich haben sich GPUs zur treibenden Kraft entwickelt, in erster Linie wegen ihrer Parallel-Processing-Fähigkeiten.   Insbesondere unterstützen Grafikprozessoren dabei, KI-Modelle zu trainieren, weil sie Support für komplexe Algorithmen, Data Retrieval und Feedback-Schleifen mitbringen. GPUs können so wesentlich dazu beitragen, den KI-Trainingsprozess zu beschleunigen und Modelle schneller in die Produktion zu bringen. Edge Computing & IoT Auch am Netzwerkrand steigt die Bedeutung von GPUs. Insbesondere in Bereichen wie der Cybersicherheit und dem Internet of Things (IoT), in denen möglichst geringe Latenzzeiten häufig von entscheidender Bedeutung sind.  Mit GPUs als Rückgrat sind Edge- und IoT-Geräte unter anderem in der Lage, Objekte zu erkennen, Videos und Bilder in Echtzeit zu analysieren, kritische Anomalien zu identifizieren und Predictive-Maintenance-Tasks auszuführen. GPU-Anbieter Die folgenden Anbieterunternehmen sind auf dem GPU-Markt derzeit führend. Nvidia Marvell Broadcom Intel AMD Samsung Qualcomm (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Was ist eine GPU?​ GPUs sind dem Gaming-Bereich längst entwachsen.Nvidia

Ursprünglich für Gaming-Zwecke entwickelt, sind Graphics Processing Units (GPUs; Grafikprozessoren) angesichts der rasant steigenden Anforderungen im Bereich der Datenverarbeitung auch für Unternehmen inzwischen nahezu unverzichtbar. Schließlich ermöglichen GPUs mit Hilfe dutzender, hunderter oder tausender miteinander verbundener Kerne Parallel Processing und eignen sich damit ideal für komplexe, datenintensive Workloads – wie sie beispielsweise im Bereich der (generativen) künstlichen Intelligenz (KI) anfallen.  

In Verbindung mit CPUs können Grafikprozessoren die Systemgeschwindigkeit und -Performance erheblich steigern und dazu beitragen, das Potenzial von „Next Generation“-Technologien voll auszuschöpfen. In diesem Grundlagenartikel lesen Sie:

wie sich GPUs und CPUs unterscheiden,

wie Grafikprozessoren funktionieren,

in welchen Ausformungen sie auftreten,

welche Business Use Cases dabei besonders relevant sind, sowie

welche Anbieter im GPU-Bereich tonangebend sind.

GPU “vs.” CPU

Sowohl GPUs als auch CPUs sind Hardware-Komponenten von Computern und Servern. Dabei fungiert die Central Processing Unit als eine Art „Systemverwaltungsgehirn“ – vereinfacht gesagt ermöglichen CPUs, dass Computer funktionieren. CPUs enthalten in der Regel weit weniger Kerne als GPUs und verarbeiten Tasks sequenziell. Im Vergleich zu GPUs übernehmen CPUs eher allgemeine Aufgaben. Zum Beispiel:

Anwendungen auszuführen,

Input- und Output-Prozesse abzuarbeiten, oder

Grafiken zu verarbeiten.

Darüber hinaus können CPUs auch einige komplexere Aufgaben bewältigen, beispielsweise auch niedrigschwellige KI-Workloads wie Inferenz- oder Modelltraining.

Wichtig ist an dieser Stelle, dass GPU und CPU nicht „gegeneinander arbeiten“. Vielmehr ergänzen sich Graphics und Central Processing Unit gegenseitig – je nachdem, welcher Chipsatz besser für die jeweilige Aufgabe geeignet ist.

GPU – Funktionsweise

GPUs werden auf Siliziumwafern gefertigt, die als Basis für eine Reihe kleinerer, spezialisierterer Multiprozessoren dienen. Diese sind durch Transistoren miteinander verbunden, über die sie kommunizieren, Berechnungen durchführen und mehrere Aufgaben gleichzeitig ausführen können (Parallel Processing). Dabei werden die jeweiligen Tasks in kleinere, unabhängige Schritte aufgeteilt, die über die GPU-Architektur verteilt werden.

In der Regel verfügen GPUs über einen eigenen Arbeitsspeicher (RAM), der speziell darauf ausgelegt ist, große Datenmengen zu verarbeiten. Das ermöglicht, die zu verarbeitenden Daten schneller abzurufen, zu speichern und zu modifizieren.  

GPU-Formen

Grafikprozessoren werden in der Regel in drei verschiedenen Ausformungen angeboten. Nämlich als:

diskrete GPUs,

integrierte GPUs oder

virtuelle GPUs (vGPUs).

Bei diskreten GPUs handelt es sich um separate Chips(ätze), die von der CPU des Geräts getrennt sind. In der Folge verfügen Standalone-GPUs auch über einen eigenen Speicher, der nicht mit der CPU geteilt wird – was eine verbesserte Performance sicherstellt. Diskrete GPUs sind in der Regel für spezifische Tasks mit besonderen Anforderungen ausgelegt. Ihr Nachteil ist allerdings ein höherer Energiebedarf – mehr Wärme bedeutet zusätzliche Kühlungsmaßnahmen.

Integrierte GPUs machen das Gros der heute am Markt verfügbaren Grafikprozessoren aus. Diese GPUs sind mit CPUs integriert und teilen sich den Systemspeicher entsprechend mit diesen. Das ermöglicht leichtgewichtigere Systeme, die weniger (Energie-)Kosten verursachen.

Virtuelle GPUs oder vGPUs sind hingegen softwarebasierte GPU-Cluster, die meistens von Cloud-Service-Anbietern angeboten werden. Diese Art der virtuellen Infrastruktur wird immer beliebter, schließlich müssen Unternehmen damit physische Hardware nicht selbst anschaffen, betreiben und warten.

GPU-Anwendungsfälle

Wie bereits erwähnt, ist die Graphics Processing Unit tief im Gaming-Bereich verwurzelt. Das hat sich mit der technologischen Evolution der letzten Jahre grundlegend verändert: Inzwischen sind die Grafikprozessoren nicht nur für grafikintensive Egoshooter unverzichtbar, sondern auch für eine wachsende Zahl anspruchsvoller Business Use Cases.

High Performance Computing

Beim High Performance Computing (HPC) werden Rechner in Clustern zusammengeführt, um als „Einheit“ komplexe Berechnungen in hoher Geschwindigkeit durchzuführen. Dieses Konzept wird im Wesentlichen durch die Parallel-Processing-Fähigkeiten von GPUs realisiert.

HPC ist der „Motor“, der Supercomputer antreibt, die für die Computerwissenschaft von essenzieller Bedeutung sind. Sie kommen zum Beispiel im Quantencomputing, bei tiefgehenden Datenanalysen oder wissenschaftlichen Simulationen zum Einsatz.

Machine & Deep Learning

Machine Learning (ML) und Deep Learning (DL) bilden das Rückgrat der Datenwissenschaft. Damit ML- und DL-Modelle große Datensätze analysieren und menschliches Lernverhalten simulieren können, benötigen sie erhebliche Rechenleistung – die GPUs liefern können.

So können Grafikprozessoren ML-Funktionen beschleunigen und zum Beispiel dazu beitragen, Daten optimal zu verarbeiten, Muster schneller zu erkennen und bessere Schlussfolgerungen zu ziehen.

(Generative) KI

Enorme Rechen-Power erfordern auch Large Language Models (LLMs), beziehungsweise Generative AI (GenAI). Auch in diesem Bereich haben sich GPUs zur treibenden Kraft entwickelt, in erster Linie wegen ihrer Parallel-Processing-Fähigkeiten.  

Insbesondere unterstützen Grafikprozessoren dabei, KI-Modelle zu trainieren, weil sie Support für komplexe Algorithmen, Data Retrieval und Feedback-Schleifen mitbringen. GPUs können so wesentlich dazu beitragen, den KI-Trainingsprozess zu beschleunigen und Modelle schneller in die Produktion zu bringen.

Edge Computing & IoT

Auch am Netzwerkrand steigt die Bedeutung von GPUs. Insbesondere in Bereichen wie der Cybersicherheit und dem Internet of Things (IoT), in denen möglichst geringe Latenzzeiten häufig von entscheidender Bedeutung sind. 

Mit GPUs als Rückgrat sind Edge- und IoT-Geräte unter anderem in der Lage, Objekte zu erkennen, Videos und Bilder in Echtzeit zu analysieren, kritische Anomalien zu identifizieren und Predictive-Maintenance-Tasks auszuführen.

GPU-Anbieter

Die folgenden Anbieterunternehmen sind auf dem GPU-Markt derzeit führend.

Nvidia

Marvell

Broadcom

Intel

AMD

Samsung

Qualcomm

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Was ist eine GPU?​ Weiterlesen »

Mediationsverfahren: Wie Change etwas Gutes wird​

Allgemein

An strategischen Wendepunkten ist das Buy-In der Mitarbeiter das A und O. Bleibt es aus, ist das Projekt in Gefahr. Mediation kann helfen, das Ruder noch rumzureißen, bevor man gegen einen Eisberg fährt. Foto: S.Bachstroem – shutterstock.com “Früher war alles besser”. Wer kennt diesen Satz nicht? Der Mensch ist ein Gewohnheitstier und fühlt sich unwohl, sobald Veränderungen auftreten – sei es privater oder beruflicher Natur. Doch in einer Welt des ständigen Wandels sind Veränderungen unvermeidlich und Anpassungsfähigkeit gefragt, wie schon Charles Darwin erkannte: ”It is not the strongest of the species that survives, nor the most intelligent; it is the one most adaptable to change”. In der heutigen dynamischen Unternehmenswelt bedeutet dies: Stillstand ist Rückschritt, und wer sich nicht anpasst, verliert seinen Wettbewerbsvorteil. Dennoch ist nicht jeder Mitarbeiter bereit, neue Wege mitzugehen. Die Angst vor dem Unbekannten ist menschlich und evolutionstheoretisch nachvollziehbar: Warum die Höhle verlassen, wenn man nicht weiß, was einen draußen erwartet? Projektmanagement – die Anzeichen des Scheiterns An strategischen Wendepunkten ist das Buy-In der Mitarbeiter das A und O. Bleibt es aus, ist das Projekt in Gefahr. Typische Fehler von Führungskräften sind Foliensätze mit Transformationsbekenntnissen, ohne sie aktiv vorzuleben. Man verschanzt sich hinter neuen Buzzwords, ohne zu verstehen was sie bedeuten. Oder es werden im Trend liegende Methoden und Techniken eingeführt, ohne zu hinterfragen, ob diese zur eigenen Situation passen. Das schürt das Misstrauen der Mitarbeiter und treibt negative Reaktionen voran. Jetzt ist es Zeit, die Situation zu hinterfragen, bevor das Projekt zu scheitern droht. Achten Sie auf die Anzeichen: Ihre Kollegen streiten öfter und Diskussionen werden lauter? Konflikte entstehen oft aus unbefriedigten Bedürfnissen heraus und einem Mangel an Klarheit, Orientierung und Transparenz. Anstatt sich mit dem Wesentlichen auseinanderzusetzen und an einem Strang zu ziehen, gehen sich Kolleginnen und Kollegen nun gegenseitig an. Hören Sie öfter den Spruch: “Wir haben keine Probleme!” Dann sollten Sie wachsam sein, denn das ist ein klassischer Fall von Verdrängung oder Verleugnung. Die Mitarbeiter möchten sich nicht mit dem neuen Sachverhalt auseinandersetzen, weil sie entweder davon ausgehen, dass “das” schon vorbeigeht, wie alles davor auch. Oder weil sie ignorieren, dass sie eine aktive Rolle in dieser Veränderung spielen. Sie möchten keine Verantwortung übernehmen und halten sich lieber raus. Vor allem verdeckter Widerstand ist bedrohlich. Selten ist er eindeutig erkennbar und häufig ist er den ausübenden Personen selbst nicht bewusst. Oft wird er dadurch aber zu einem unkalkulierbaren Risiko für Transformationsprojekte. Werden Sie hellhörig, wenn bereits getroffene Entscheidungen immer wieder in Frage gestellt werden, angenommene Aufgaben zurückdelegiert und Verantwortungsbereiche von Ihnen eingeteilt werden müssen, weil sich niemand mehr freiwillig meldet. Proaktivität wird zum Fremdwort. Nebensächliches und Sonderfälle werden endlos diskutiert. Doch dort, wo Kommunikation notwendig wäre, wird geschwiegen. Man kann das Ruder aber dennoch rumreißen, bevor man gegen einen Eisberg fährt. Es bedarf nur des richtigen Werkzeugs. Mediationsverfahren für den Change-Erfolg Mediation ist eine Methode der strategischen Konfliktlösung. Das Verfahren kann in seiner Struktur auch von Führungskräften genutzt werden, um Spannungen zu lösen und Widerstände in Veränderungsprozessen abzubauen. Betrachten wir dazu den Mediationsprozess im Rahmen der Umstrukturierung eines IT-Bereiches. Die Herausforderung besteht darin, dass einige Mitarbeiter hartnäckig an den alten Arbeitsweisen festhalten, was zu starken Spannungen innerhalb des Teams und an den Schnittstellen der Zusammenarbeit mit anderen Abteilungen führt. Der Mediationsprozess gliedert sich in sieben Schritte: Bedarfsanalyse und Vorbereitung: Zuerst erfolgt eine umfassende Bedarfsanalyse, um die Art des Konflikts zu verstehen und die Ziele des Mediationsprozesses festzulegen. Dies geschieht durch Gespräche zwischen dem Mediator und den betroffenen Mitarbeitern, Vorgesetzten und sonstigen Beteiligten. Mediationsverfahren erläutern: Die betroffenen Parteien werden eingeladen und der Mediator erklärt das Mediationsverfahren, seine Ziele, Regeln und Grundsätze. Dabei wird auch auf die Vertraulichkeit der Gespräche hingewiesen. Konfliktthemen herausarbeiten: Die Parteien haben nun die Möglichkeit, ihre Sicht der Konfliktsituation darzustellen. Der Mediator hilft dabei, einen Überblick über die zu klärenden Themen zu gewinnen. Dies können zum Beispiel Kommunikationsprobleme, Ressourcenkonflikte oder Widerstände gegen Veränderungen sein. Interessen und Bedürfnisse identifizieren: Der Mediator unterstützt die Parteien dabei, gemeinsame Interessen und Bedürfnisse zu erkennen, um den Kern des zugrunde liegenden Konflikts zu erfassen und zu lösen. Lösungsoptionen entwickeln: In diesem Schritt arbeiten die Beteiligten an Lösungen für die zuvor identifizierten Problembereiche. Der Mediator spielt dabei eine entscheidende Rolle. Er stellt sicher, dass die Zusammenarbeit von Anfang an auf einer soliden Basis steht und die Kommunikation zwischen den Parteien während des gesamten Prozesses lösungsorientiert bleibt. Dies schafft die Grundlage für eine rasche Lösung und legt den Grundstein dafür, dass die Zusammenarbeit auch bei zukünftigen Streitpunkten kooperativ bleibt. Vereinbarung und Durchführung: Sobald die Parteien eine Vereinbarung getroffen haben, wird diese schriftlich festgehalten. Ziel ist die Festlegung konkreter Aktionspunkte mit klaren Verantwortlichkeiten. In regelmäßigen Folgetreffen werden der Umsetzungsfortschritt und die Zielerreichung überprüft. Abschluss und Nachbereitung: Am Ende der Mediation findet ein Abschlussgespräch statt, um sicherzustellen, dass die Vereinbarung wirksam ist, die Parteien mit dem Ergebnis zufrieden sind und die ursprünglichen Konflikte dauerhaft gelöst sind. Dies ist eine grobe Skizze eines Mediationsverfahrens für Konflikte im Zusammenhang mit Umstrukturierungen im IT-Bereich. Die tatsächlichen Schritte und Details können je nach den spezifischen Umständen und den beteiligten Parteien variieren. Widerstände managen – oder managen lassen? Ist der Konflikt bereits weit fortgeschritten, gleicht er oftmals einem Flächenbrand, der nur schwer wieder unter Kontrolle zu bringen ist. In solchen Situationen stellt sich für Führungskräfte die Frage: Wann ist es noch sinnvoll, selbst weiter gegenzusteuern, und ab wann sollte ein Mediator hinzugezogen werden? Fünf Indikatoren zeigen, wann externe Unterstützung sinnvoll sein kann: 1. Konflikte halten sich hartnäckig: Wenn Probleme trotz wiederholter Lösungsansätze bestehen bleiben, Diskussionen sich im Kreis drehen oder Spannungen zwischen denselben Parteien immer wieder aufflammen, kann Mediation eingesetzt werden, um die strittigen Themen nachhaltig zu klären. 2. Die Zusammenarbeit leidet: Wenn ungelöste Spannungen eine einst lebendige Arbeitsatmosphäre ersticken, der Aufwand für schriftliche Absicherungen steigt oder sich konträre Positionen so verhärten, dass die Kooperationsbereitschaft zum Erliegen kommt, kann Mediation dazu beitragen, diesen Entwicklungen entgegenzuwirken. Sie hilft dabei, Trennwände zwischen Teams abzubauen, eine effektive abteilungsübergreifende Zusammenarbeit zu fördern und die Kommunikation an Schnittstellen zu verbessern.3. Emotionen blockieren den Fortschritt: Wenn starke Emotionen wie Ärger, Frustration oder Groll einen konstruktiven Dialog erschweren und Diskussionen den Boden der Sachlichkeit verlassen, kann Mediation helfen, diese Blockaden zu lösen und die Diskussion wieder auf eine sachliche und lösungsorientierte Ebene zurückzuführen. 4. Umsetzung von Lösungen scheitert: Wenn getroffene Vereinbarungen nur auf dem Papier Bestand haben und somit Diskussionen, zum Beispiel über Zuständigkeiten, immer wieder von vorne beginnen, kann ein Mediator helfen, eine nachhaltige Lösung zu erarbeiten, die sich auch in der Praxis bewährt.5. Die Kommunikation bricht ab: Wenn die Parteien nur noch schriftlich miteinander kommunizieren, etwa per E-Mail, wobei jedes Wort so sorgfältig gewählt ist, wie es in rechtssicheren Vertragstexten der Fall ist, oder wenn die Kommunikation ganz abbricht, ist dies ein deutliches Signal, externe Unterstützung hinzuzuziehen. Beachten Sie alle oben genannten Prozessschritte, dann sollte dem Erfolg Ihres nächsten Change-Management-Projektes nichts mehr im Wege stehen. Und droht es doch einmal außer Kontrolle zu geraten, denken Sie daran: Mediation kann helfen, das Ruder noch herumzureißen. 

Mediationsverfahren: Wie Change etwas Gutes wird​ An strategischen Wendepunkten ist das Buy-In der Mitarbeiter das A und O. Bleibt es aus, ist das Projekt in Gefahr. Mediation kann helfen, das Ruder noch rumzureißen, bevor man gegen einen Eisberg fährt.
Foto: S.Bachstroem – shutterstock.com

“Früher war alles besser”. Wer kennt diesen Satz nicht? Der Mensch ist ein Gewohnheitstier und fühlt sich unwohl, sobald Veränderungen auftreten – sei es privater oder beruflicher Natur. Doch in einer Welt des ständigen Wandels sind Veränderungen unvermeidlich und Anpassungsfähigkeit gefragt, wie schon Charles Darwin erkannte: ”It is not the strongest of the species that survives, nor the most intelligent; it is the one most adaptable to change”. In der heutigen dynamischen Unternehmenswelt bedeutet dies: Stillstand ist Rückschritt, und wer sich nicht anpasst, verliert seinen Wettbewerbsvorteil.

Dennoch ist nicht jeder Mitarbeiter bereit, neue Wege mitzugehen. Die Angst vor dem Unbekannten ist menschlich und evolutionstheoretisch nachvollziehbar: Warum die Höhle verlassen, wenn man nicht weiß, was einen draußen erwartet?

Projektmanagement – die Anzeichen des Scheiterns

An strategischen Wendepunkten ist das Buy-In der Mitarbeiter das A und O. Bleibt es aus, ist das Projekt in Gefahr. Typische Fehler von Führungskräften sind Foliensätze mit Transformationsbekenntnissen, ohne sie aktiv vorzuleben. Man verschanzt sich hinter neuen Buzzwords, ohne zu verstehen was sie bedeuten. Oder es werden im Trend liegende Methoden und Techniken eingeführt, ohne zu hinterfragen, ob diese zur eigenen Situation passen. Das schürt das Misstrauen der Mitarbeiter und treibt negative Reaktionen voran. Jetzt ist es Zeit, die Situation zu hinterfragen, bevor das Projekt zu scheitern droht. Achten Sie auf die Anzeichen:

Ihre Kollegen streiten öfter und Diskussionen werden lauter? Konflikte entstehen oft aus unbefriedigten Bedürfnissen heraus und einem Mangel an Klarheit, Orientierung und Transparenz. Anstatt sich mit dem Wesentlichen auseinanderzusetzen und an einem Strang zu ziehen, gehen sich Kolleginnen und Kollegen nun gegenseitig an.

Hören Sie öfter den Spruch: “Wir haben keine Probleme!” Dann sollten Sie wachsam sein, denn das ist ein klassischer Fall von Verdrängung oder Verleugnung. Die Mitarbeiter möchten sich nicht mit dem neuen Sachverhalt auseinandersetzen, weil sie entweder davon ausgehen, dass “das” schon vorbeigeht, wie alles davor auch. Oder weil sie ignorieren, dass sie eine aktive Rolle in dieser Veränderung spielen. Sie möchten keine Verantwortung übernehmen und halten sich lieber raus.

Vor allem verdeckter Widerstand ist bedrohlich. Selten ist er eindeutig erkennbar und häufig ist er den ausübenden Personen selbst nicht bewusst. Oft wird er dadurch aber zu einem unkalkulierbaren Risiko für Transformationsprojekte. Werden Sie hellhörig, wenn bereits getroffene Entscheidungen immer wieder in Frage gestellt werden, angenommene Aufgaben zurückdelegiert und Verantwortungsbereiche von Ihnen eingeteilt werden müssen, weil sich niemand mehr freiwillig meldet. Proaktivität wird zum Fremdwort. Nebensächliches und Sonderfälle werden endlos diskutiert. Doch dort, wo Kommunikation notwendig wäre, wird geschwiegen.

Man kann das Ruder aber dennoch rumreißen, bevor man gegen einen Eisberg fährt. Es bedarf nur des richtigen Werkzeugs.

Mediationsverfahren für den Change-Erfolg

Mediation ist eine Methode der strategischen Konfliktlösung. Das Verfahren kann in seiner Struktur auch von Führungskräften genutzt werden, um Spannungen zu lösen und Widerstände in Veränderungsprozessen abzubauen. Betrachten wir dazu den Mediationsprozess im Rahmen der Umstrukturierung eines IT-Bereiches. Die Herausforderung besteht darin, dass einige Mitarbeiter hartnäckig an den alten Arbeitsweisen festhalten, was zu starken Spannungen innerhalb des Teams und an den Schnittstellen der Zusammenarbeit mit anderen Abteilungen führt. Der Mediationsprozess gliedert sich in sieben Schritte:

Bedarfsanalyse und Vorbereitung: Zuerst erfolgt eine umfassende Bedarfsanalyse, um die Art des Konflikts zu verstehen und die Ziele des Mediationsprozesses festzulegen. Dies geschieht durch Gespräche zwischen dem Mediator und den betroffenen Mitarbeitern, Vorgesetzten und sonstigen Beteiligten.

Mediationsverfahren erläutern: Die betroffenen Parteien werden eingeladen und der Mediator erklärt das Mediationsverfahren, seine Ziele, Regeln und Grundsätze. Dabei wird auch auf die Vertraulichkeit der Gespräche hingewiesen.

Konfliktthemen herausarbeiten: Die Parteien haben nun die Möglichkeit, ihre Sicht der Konfliktsituation darzustellen. Der Mediator hilft dabei, einen Überblick über die zu klärenden Themen zu gewinnen. Dies können zum Beispiel Kommunikationsprobleme, Ressourcenkonflikte oder Widerstände gegen Veränderungen sein.

Interessen und Bedürfnisse identifizieren: Der Mediator unterstützt die Parteien dabei, gemeinsame Interessen und Bedürfnisse zu erkennen, um den Kern des zugrunde liegenden Konflikts zu erfassen und zu lösen.

Lösungsoptionen entwickeln: In diesem Schritt arbeiten die Beteiligten an Lösungen für die zuvor identifizierten Problembereiche. Der Mediator spielt dabei eine entscheidende Rolle. Er stellt sicher, dass die Zusammenarbeit von Anfang an auf einer soliden Basis steht und die Kommunikation zwischen den Parteien während des gesamten Prozesses lösungsorientiert bleibt. Dies schafft die Grundlage für eine rasche Lösung und legt den Grundstein dafür, dass die Zusammenarbeit auch bei zukünftigen Streitpunkten kooperativ bleibt.

Vereinbarung und Durchführung: Sobald die Parteien eine Vereinbarung getroffen haben, wird diese schriftlich festgehalten. Ziel ist die Festlegung konkreter Aktionspunkte mit klaren Verantwortlichkeiten. In regelmäßigen Folgetreffen werden der Umsetzungsfortschritt und die Zielerreichung überprüft.

Abschluss und Nachbereitung: Am Ende der Mediation findet ein Abschlussgespräch statt, um sicherzustellen, dass die Vereinbarung wirksam ist, die Parteien mit dem Ergebnis zufrieden sind und die ursprünglichen Konflikte dauerhaft gelöst sind.

Dies ist eine grobe Skizze eines Mediationsverfahrens für Konflikte im Zusammenhang mit Umstrukturierungen im IT-Bereich. Die tatsächlichen Schritte und Details können je nach den spezifischen Umständen und den beteiligten Parteien variieren.

Widerstände managen – oder managen lassen?

Ist der Konflikt bereits weit fortgeschritten, gleicht er oftmals einem Flächenbrand, der nur schwer wieder unter Kontrolle zu bringen ist. In solchen Situationen stellt sich für Führungskräfte die Frage: Wann ist es noch sinnvoll, selbst weiter gegenzusteuern, und ab wann sollte ein Mediator hinzugezogen werden? Fünf Indikatoren zeigen, wann externe Unterstützung sinnvoll sein kann:

1. Konflikte halten sich hartnäckig: Wenn Probleme trotz wiederholter Lösungsansätze bestehen bleiben, Diskussionen sich im Kreis drehen oder Spannungen zwischen denselben Parteien immer wieder aufflammen, kann Mediation eingesetzt werden, um die strittigen Themen nachhaltig zu klären.

2. Die Zusammenarbeit leidet: Wenn ungelöste Spannungen eine einst lebendige Arbeitsatmosphäre ersticken, der Aufwand für schriftliche Absicherungen steigt oder sich konträre Positionen so verhärten, dass die Kooperationsbereitschaft zum Erliegen kommt, kann Mediation dazu beitragen, diesen Entwicklungen entgegenzuwirken. Sie hilft dabei, Trennwände zwischen Teams abzubauen, eine effektive abteilungsübergreifende Zusammenarbeit zu fördern und die Kommunikation an Schnittstellen zu verbessern.3. Emotionen blockieren den Fortschritt: Wenn starke Emotionen wie Ärger, Frustration oder Groll einen konstruktiven Dialog erschweren und Diskussionen den Boden der Sachlichkeit verlassen, kann Mediation helfen, diese Blockaden zu lösen und die Diskussion wieder auf eine sachliche und lösungsorientierte Ebene zurückzuführen.

4. Umsetzung von Lösungen scheitert: Wenn getroffene Vereinbarungen nur auf dem Papier Bestand haben und somit Diskussionen, zum Beispiel über Zuständigkeiten, immer wieder von vorne beginnen, kann ein Mediator helfen, eine nachhaltige Lösung zu erarbeiten, die sich auch in der Praxis bewährt.5. Die Kommunikation bricht ab: Wenn die Parteien nur noch schriftlich miteinander kommunizieren, etwa per E-Mail, wobei jedes Wort so sorgfältig gewählt ist, wie es in rechtssicheren Vertragstexten der Fall ist, oder wenn die Kommunikation ganz abbricht, ist dies ein deutliches Signal, externe Unterstützung hinzuzuziehen.

Beachten Sie alle oben genannten Prozessschritte, dann sollte dem Erfolg Ihres nächsten Change-Management-Projektes nichts mehr im Wege stehen. Und droht es doch einmal außer Kontrolle zu geraten, denken Sie daran: Mediation kann helfen, das Ruder noch herumzureißen.

Mediationsverfahren: Wie Change etwas Gutes wird​ Weiterlesen »

Worst of Schadsoftware: 11 historische Malware-Angriffe​

Allgemein

Diese elf Malware-Meilensteine haben die Evolution von Schadsoftware maßgeblich geprägt. Foto: local doctor – shutterstock.com Schadsoftware, die sich unter mysteriösen Umständen ausbreitet, ist seit Dekaden fester Bestandteil von Cyberpunk-Stories – und solchen aus dem Real Life. Worst of … Malware-Angriffe Dieser Artikel beleuchtet elf Meilensteine der Malware-Evolution – von der Premiere der Schadsoftware über fiese Trojaner bis hin zu modernen Ransomware-Attacken mit Schäden in Millionenhöhe. 1. Creeper-Virus (1971) Im Jahr 1966 wurde John von Neumanns “Theory of Self-Reproducing Automata” (PDF) posthum veröffentlicht. Darin stellt der Mathematiker das Konzept eines sich selbst reproduzierenden Computercodes vor. Bereits fünf Jahre später tauchte der erste bekannte Computervirus namens Creeper auf – geschrieben in der PDP-10-Assembler-Sprache. Der Virus war in der Lage, sich selbst zu reproduzieren und sich über das gerade entstehende ARPANET von Rechner zu Rechner zu verbreiten. Creeper war dabei keine Schadsoftware im eigentlichen Sinn: Entwickler Bob Thomas wollte damit lediglich beweisen, dass das Konzept von von Neumann funktioniert. Deswegen veranlasste der Virus angeschlossene Teletype-Fernschreiber lediglich dazu eine Textnachricht auszudrucken: “I’M THE CREEPER: CATCH ME IF YOU CAN” Trotz seiner harmlosen Natur ist der Creeper-Virus von signifikanter Bedeutung für die Evolution der Malware. Schließlich bildet er die Grundlage, für alles, was auf ihn folgte. Kurz nachdem Creeper auf die “Öffentlichkeit losgelassen” wurde, war es Ray Tomlinson – Erfinder der E-Mail – der mit einem programmierten Gegenmittel – Reaper -, den Code von Creeper eliminierte. 2. Brain-Virus (1986) Creeper wurde entwickelt, um sich über Computernetzwerke zu verbreiten. Allerdings war dieser Angriffsvektor in den 1970er und 1980er Jahren begrenzt – die meisten Rechner arbeiteten isoliert. Die Verbreitung von Malware fand zu dieser Zeit im Wesentlichen über Disketten statt. Das früheste Beispiel für eine Schadsoftware dieser Art ist ElkCloner – entwickelt von einem 15-Jährigen, “just for fun” und maßgeschneidert für Apple-II-Computer. Der bedeutendste Computervirus der Generation Diskette war jedoch Brain, der sich ab 1986 weltweit verbreitete und als erster IBM-PC-Virus gilt. Entwickelt wurde er von dem Programmierer-Brüderpaar Amjad und Basit Farooq Alvi in Pakistan, die sich ihren Lebensunterhalt mit medizinischer Software verdienten. Da ihre Programme häufig raubkopiert wurden, entwickelten sie einen Virus, der in der Lage war, den Bootsektor raubkopierter Disketten zu infizieren. Brain war dabei relativ harmlos – er enthielt lediglich Kontaktinformationen der Entwickler, mit dem Angebot die Software zu “desinfizieren”. Die Entwickler-Brüder zeigten sich selbst 25 Jahre später noch schockiert darüber, wie schnell sich Brain auf der ganzen Welt verbreitet hatte. Und darüber, wie wütend die Menschen, die ihre Software illegal kopiert hatten, aus irgendeinem Grund auf sie waren. Trotzdem haben sie immer noch dieselbe Adresse und Telefonnummer. 3. Morris-Wurm (1988) Die Malware Morris debütierte im Jahr 1988 und kann gleich mehrere Premieren für sich beanspruchen: Er war der erste Computerwurm, der sich ohne ein “Hilfsprogramm” reproduzieren konnte. Um sich möglichst schnell möglichst weit zu verbreiten, nutzte Morris mehrere Sicherheitslücken aus. Obwohl nicht darauf konzipiert, war es die erste Malware, die größeren, finanziellen Schaden anrichten konnte. Der Morris-Wurm verbreitete sich mit rasender Geschwindigkeit: Innerhalb von 24 Stunden waren bereits zehn Prozent aller mit dem Internet verbundenen Computer infiziert. Die Schadsoftware kopierte sich auf befallenen Rechnern mehrmals selbst, was diese mehrheitlich in die Knie zwang. Die geschätzten Kosten des Angriffs gingen in die Millionen. Benannt ist der Wurm nach seinem Schöpfer Robert Morris. Der damalige Student der Cornell University betrachtete sein Werk als Proof-of-Concept, das belegen sollte, wie weit verbreitet Sicherheitslücken sind. Dabei ahnte er nicht, welche Dynamik das Projekt annehmen würde und versuchte noch den Schaden abzuwenden, was ihm nicht gelang. Die Konsequenz: eine weitere Premiere. Robert Morris war die erste Person, die auf Grundlage des 1986 eingeführten “Computer Fraud and Abuse Act” verurteilt wurde. 4. ILOVEYOU-Wurm (2000) Im Gegensatz zu den bisher genannten Malware-Entwicklern hatte der 24-jährige Onel de Guzman im Jahr 2000 ausschließlich kriminelle Absichten. Weil er sich keinen Einwahl-Service leisten konnte, entwickelte er ein Virus, um die Passwörter anderer Nutzer zu stehlen und ihre Accounts zu übernehmen. Dabei nutzte die Schadsoftware eine ganze Reihe von Schwachstellen in Windows 95 aus – auf besonders raffinierte Art und Weise. Weil das Legacy-Betriebssystem Dateierweiterungen in E-Mail-Anhängen automatisch versteckte, merkten die meisten Benutzer nicht, dass sie auf Executables klickten. Der Wurm breitete sich wie ein Lauffeuer aus und infizierte Millionen von Rechnern, die daraufhin die Zugangsdaten an eine philippinische E-Mail-Adresse zurückschickten. Dabei löschte ILOVEYOU auch zahlreiche Dateien auf den Zielsystemen. Der Wurm verursachte Schäden in Millionenhöhe und legte kurzzeitig sogar das Computersystem des britischen Parlaments lahm. Der Schöpfer des Wurms wurde – mangels Gesetze – nie wegen seiner kriminellen Handlungen angeklagt. In einem Interview mit der BBC drückte de Guzman jedoch sein Bedauern aus. Dennoch macht ihn der Wurm zu einer Art Social-Engineering-Pionier. Ihren Namen verdankt die Schadsoftware dem Umstand, dass sie sich über E-Mails mit dem Betreff “ILOVEYOU” verbreitete. 5. Mydoom-Wurm (2004) Trotzdem der Wurm Mydoom beinahe 20 Jahre auf dem Buckel hat, hält er immer noch eine Reihe von Rekorden. Er infizierte Computer per E-Mail, übernahm Zielrechner und verschickte dann Kopien von sich selbst per E-Mail. Dabei war er so effizient, dass er auf seinem Höhepunkt ein Viertel aller weltweit verschickten E-Mails ausmachte – eine “Leistung”, die bis heute nicht übertroffen wurde. Mydoom verursachte einen Schaden von mehr als 35 Milliarden Dollar – ein Wert, der (inflationsbereinigt) ebenfalls noch nie übertroffen wurde. Dazu kommt, dass der Urheber und der eigentliche Zweck von Mydoom bis heute ein Mysterium sind. Infizierte Computer wurden auch im Rahmen eines Botnetzes verwendet, das wiederum DDoS-Angriffen auf die SCO Group und Microsoft diente. Ersteres Unternehmen versuchte damals Eigentumsrechte an Linux geltend zu machen, weshalb Einige ein abtrünniges Mitglied der Open-Source-Gemeinschaft hinter dem Wurm vermuten. Konkrete Beweise gibt es dafür jedoch nicht. 6. Zeus-Trojaner (2007) Der Trojaner Zeus wurde erstmals im Jahr 2007 – am Ende der “Web 1.0”-Ära – entdeckt und war für die Zukunft der Schadsoftware wegweisend. Er infizierte seine Zeile per Phishing oder über Drive-by-Downloads und diente als Vehikel für jede Art von bösartigem Payload. Der Quellcode und ein Benutzerhandbuch wurden im Jahr 2011 geleakt, was sowohl für Security-Forscher, als auch für kriminelle Hacker ein gefundenes Fressen war und für zahlreiche neue Varianten sorgte. Zeus wird auch oft als “Banking-Trojaner” bezeichnet, da die meisten dieser “Ableger” vor allem für diesen Bereich konzipiert waren. Im Jahr 2014 schaffte es eine davon, sich zwischen einen Benutzer und seine Bank-Webseite zu schalten und unter anderem Passwörter und Tastatureingaben abzufangen. Es gibt jedoch zum Beispiel auch Versionen, die darauf ausgelegt sind, Salesforce-Kontoinformationen abzugreifen. 7. CryptoLocker Ransomware (2013) Zeus kann auch dazu verwendet werden, Botnetze aus befallenen Rechnern zu erschaffen. Die Betreiber eines solchen Botnet mit dem Namen “Gameover Zeus” infizierten ihre Bots mit CryptoLocker, eines der ersten erpresserischen Schadsoftware-Programme. Die Ransomware wurde für ihre rasante Verbreitung und performante, asymmetrische Verschlüsselung “berühmt”, die damals schwer zu knacken war. Im Jahr 2014 gelang es internationalen Behörden, in Kooperation die Kontrolle über das Gameover-Zeus-Botnet zu übernehmen. Die Dateien von CryptoLocker-Betroffenen konnten kostenlos wiederhergestellt werden. Leider verbreitete sich CryptoLocker aber auch per Phishing – bis heute tauchen Varianten der Erpresser-Malware auf. 8. Emotet-Trojaner (2014) Der Trojaner Emotet ist ein weiteres Beispiel für eine Schadsoftware, deren Funktionalität sich im Laufe seiner aktiven Jahre verändert hat. Darüber hinaus ist Emotet auch ein Paradebeispiel für sogenannte polymorphe Malware. Deren Code verändert sich bei jedem Zugriff leicht, um zu verhindern, dass sie von Endpoint-Security-Software erkannt wird. Auch Emotet verbreitete sich hauptsächlich über Phishing – erstmals im Jahr 2014. Inzwischen handelt es sich aber – wie im Fall von Zeus – um eine modulare Malware, die als Vehikel für andere Schadsoftware-Formen dient – etwa die Ransomware-Varianten Trickster und Ryuk. Die höchste “Auszeichnung” erhielt der Emotet-Trojaner von Arne Schönbohm, Leiter des Bundesamtes für Sicherheit in der Informationstechnik (BSI), der ihn als “König der Malware” bezeichnete. 9. Mirai-Botnet (2016) Alle bisher aufgeführten Viren, Trojaner und Würmer haben Computer befallen – die PCs und Laptops, die wir für Arbeit und Freizeit nutzen. Das änderte sich mit dem Mirai-Botnetz, welches schonungslos die Lücken in Sachen IoT-Sicherheit aufdeckte und Devices – hauptsächlich Überwachungskameras – befiel, deren Standardpasswörter nicht geändert worden waren. Paras Jha, der Student, der die Mirai-Malware entwickelte, wollte die Botnetze für DoS-Angriffe nutzen, um sich an Rivalen in der obskuren Welt des Minecraft-Server-Hosting zu rächen. Stattdessen löste er einen Angriff auf einen großen DNS-Anbieter aus und legte damit das Internet für einen Großteil der US-Ostküste für fast 24 Stunden lahm. 10. Petya Ransomware/NotPetya Wiper (2016/2017) Ein Ransomware-Trojaner namens Petya befiel im Jahr 2016 erstmals Computer. Obwohl die Malware über einen cleveren Mechanismus verfügte, um Daten auf Zielrechnern zu verschlüsseln, verbreitete sie sich vor allem über herkömmliche Phishing-Methoden und galt als nicht besonders virulent. Sehr wahrscheinlich würde sich heute niemand mehr an den Trojaner erinnern, wäre nicht im Jahr darauf eine neue, sich selbst reproduzierende Variante aufgetaucht, die geleakte NSA-Exploits (Eternal Blue und Eternal Romance) nutzte, um sich zu verbreiten. Die neue Version mit dem Namen NotPetya nutzte ursprünglich eine Hintertür in einer (vor allem in der Ukraine verwendeten) Buchhaltungssoftware aus, um sich zu verbreiten und richtete in kürzester Zeit großen Schäden an – vornehmlich in Europa. Obwohl NotPetya immer noch wie eine Ransomware aussah, handelte es sich um einen sogenannten Wiper, der schlicht dazu dient, Daten und Systeme zu zerstören. Security-Forscher gehen davon aus, dass der russische Geheimdienst die eher gewöhnliche Petya-Malware umfunktioniert hat, um sie als Cyberwaffe gegen die Ukraine einzusetzen. Damit unterstreicht NotPetya auch die symbiotische Beziehung zwischen staatlich gesponserten und kriminellen Hackern. 11. Clop-Ransomware (2019- ) Clop (manchmal auch Cl0p) ist eine weitere Ransomware-Variante, die 2019 auf der Bildfläche erschien und seitdem immer häufiger auftritt. Das machte die Schadsoftware zu einer der größten Malware-Bedrohungen des Jahres 2023. Clop verhindert nicht nur, dass Betroffene auf ihre Daten zugreifen, sondern ermöglicht es dem Angreifer auch, diese Daten zu exfiltrieren. Der Sicherheitsanbieter McAfee hat die technischen Details analysiert und zeigt auf, wie die Ransomware Sicherheitssoftware umgeht. Was Clop extrem gefährlich macht, ist allerdings nicht die Art und Weise, wie es eingesetzt wird – sondern von wem. Die Ransomware bildet die Speerspitze des Ransomware-as-a-Service-Trends und kann gegen eine Gebühr – oder einen Anteil am zu erwarteten Lösegeld – quasi von Jedermann gebucht werden. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! Die Geschichte des Computer-Virus1986: Brain Foto: Sergey Nivens – shutterstock.comMehr als ein Jahrzehnt, bevor Napster für irgendjemanden ein Begriff war, wurde der erste Computervirus entwickelt – um Softwarepiraterie zu bekämpfen. Der Autor, der das Wort “Cyber” in die Welt setzte, war William Gibson – genannt “Brain”. Basit und Amjad Alvi entwickelten und vermarkteten medizinische Software im pakistanischen Lahore. Sie interessierten sich für zwei Dinge. Zuerst wollten sie die Multitasking-Funktionalität der neuen DOS-Betriebssysteme (sogenannte “TSR”-Systeme) testen. Zweitens wollten sie sehen, ob es im Vergleich zu anderen Betriebssystemen wie Unix Sicherheitslücken in DOS gibt.Als sie bemerkten, dass DOS recht anfällig war, hatten sie die Idee, ein Stück Software zu schreiben, das überwacht, wie die Software und die Disketten sich bewegen. Brain verbreitete sich viral über 3,25-Zoll-Disketten und innerhalb weniger Wochen mussten die Alvis ihre Telefonnummern ändern. Das hat Ihnen allerdings wenig genützt, denn 25 Jahre nach der Entwicklung des ersten PC-Virus machte sich Mikko Hypponen von F-Secure im Frühjahr 2011 auf die Reise nach Lahore. Sein Ziel: die Adresse, die im Code zu finden war. Tatsächlich fand er die Alvi-Brüder dort vor und bekam die Gelegenheit, mit ihnen das erste Video-Interview über Brain zu führen.1987: Stoned Foto: Rido – shutterstock.comErstellt durch einen Gymnasiasten in Neuseeland, wurde Stoned zunächst als harmlos angesehen. Zunächst machte er sich auch lediglich mit der Meldung “Your PC is now Stoned” bemerkbar. Doch als erster Virus, der den Bootsektor eines PCs infizierte, zeigte Stoned, dass Viren die Funktion eines Computers steuern können – und zwar von dem Moment an, in dem er eingeschaltet wird. Bob Dylan wäre stolz gewesen.1990: Form Foto: Peeradach Rattanakoses – shutterstock.comForm wurde zu einem der meistverbreiteten Viren überhaupt. Am 18. eines jeden Monats entlockte er den PC-Lautsprechern ein klickendes Geräusch – jedes Mal, wenn eine Taste gedrückt wurde. Das war zwar durchaus ärgerlich, aber harmlos.1992: Michelangelo Foto: QQ7 – shutterstock.comMichelangelo wurde dazu genutzt, alle Daten auf einer Festplatte zu bestimmten Terminen zu überschreiben. Als eine Variante von Stoned – nur deutlich bösartiger – war Michelangelo wohl der erste Computervirus, der es auf internationaler Ebene in die Nachrichten geschafft hat.1992: VCL Foto: Alexander Raths – shutterstock.comDas Virus Creation Laboratory (VCL) machte es kinderleicht, ein bösartiges kleines Programm zu basteln – durch die Automatisierung der Virenerstellung über eine einfache grafische Schnittstelle.1993: Monkey Foto: Volodymyr Burdiak – shutterstock.comMonkey – ebenfalls ein entfernter Verwandter von Stoned – integrierte sich heimlich in Dateien und verbreitete sich anschließend nahtlos. Damit war Monkey ein früher Vorfahre des Rootkits: Ein selbstverbergendes Programm, das den Bootvorgang per Diskette verhindern konnte. Wenn es nicht korrekt entfernt wurde, verhinderte Monkey gar jegliche Art des Bootens.1995: Concept Foto: Bacho – shutterstock.comAls erster Virus, der Microsoft Word-Dateien infizierte, wurde Concept zu einem der häufigsten Computer-Schädlinge. Schließlich war er in der Lage, jedes Betriebssystem, das Word ausführen konnte, zu infizieren. Achja und: Wurde die Datei geteilt, wurde auch der Virus geteilt.1999: Happy99 Foto: YanLev – shutterstock.comHappy99 war der erste E-Mail-Virus. Er begrüßte User mit den Worten “Happy New Year 1999” und verbreitete die frohe Botschaft per E-Mail auch gleich an alle Kontakte im Adressbuch. Wie die frühen PC-Viren richtete Happy99 keinen wirklichen Schaden an, schaffte es aber dennoch, sich auf Millionen von PCs auf der ganzen Welt auszubreiten.1999: Melissa Foto: Celso Pupo – shutterstock.comAngeblich benannt nach einer exotischen Tänzerin, stellte Melissa eine Kombination aus klassischem Virus und E-Mail-Virus dar. Er (beziehungsweise sie) infizierte eine Word-Datei, verschickte sich dann selbst per E-Mail an alle Kontakte im Adressbuch und wurde so zum ersten Virus, der innerhalb weniger Stunden zu weltweiter Verbreitung brachte.Melissa kombinierte das “Spaß-Motiv” der frühen Virenautoren mit der Zerstörungskraft der neuen Ära: Der Virus integrierte unter anderem Kommentare von “The Simpsons” in Dokumente der Benutzer, konnte aber auch vertrauliche Informationen verschicken, ohne dass Betroffene dies bemerkten. Nicht lange nach Melissa wurden Makroviren praktisch eliminiert, indem Microsoft die Arbeitsweise der Visual-Basic-Makro-Sprache in Office-Anwendungen änderte.2000: Loveletter Foto: OlegKoval – shutterstock.comDieser Loveletter hat Millionen von Herzen gebrochen und gilt noch heute als einer der größten Ausbrüche aller Zeiten. Loveletter verbreitete sich via E-Mail-Anhang und überschrieb viele wichtige Dateien auf infizierten PCs. Gleichzeitig ist es einer der erfolgreichsten Social-Engineering-Attacken überhaupt. Millionen von Internet-Nutzern fielen dem Versprechen von der großen Liebe zum Opfer und öffneten den infizierten E-Mail-Anhang. Der geschätzte, weltweite Gesamtschaden betrug Schätzungen zufolge 5,5 Milliarden Dollar.2001: Code Red Foto: Tidarat Tiemjai – shutterstock.comDer erste Wurm, der sich ohne jegliche Benutzerinteraktion innerhalb von Minuten verbreitete, trug den Namen Code Red. Er führte verschiedene Aktionen in einem Monatszyklus aus: An den Tagen eins bis 19 verbreitete er sich – von Tag 20 bis 27 startete er Denial-of-Service-Attacken auf diverse Webseiten – beispielsweise die des Weißen Hauses. Von Tag 28 bis zum Ende des Monats war übrigens auch bei Code Red Siesta angesagt.2003: Slammer Foto: muzsy – shutterstock.comNetzwerk-Würmer benötigen nur ein paar Zeilen Code und eine Schwachstelle – schon können sie für ernste Probleme sorgen. Slammer brachte auf diese Weise das Geldautomaten-Netz der Bank of America und die Notrufdienste in Seattle zum Absturz. Sogar das Flugverkehrskontrollsystem war nicht gegen den agilen Bösewicht immun.2003: Fizzer Foto: TijanaM – shutterstock.comFizzer war der erste Virus, der gezielt entwickelt wurde, um Geld zu verdienen. In Gestalt eines infizierten E-Mail-Anhangs kam er auf die Rechner seiner Opfer. Wurde die Datei geöffnet, übernahm Fizzer den Rechner und benutzte diesen, um Spam zu versenden.2003: Cabir Foto: Maxim Tupikov – chuckchee – shutterstock.comCabir war der erste Handy-Virus der IT-Geschichte und hatte es gezielt auf Nokia-Telefone mit Symbian OS abgesehen. Cabir wurde über Bluetooth verbreitet und bewies, dass der technologische Fortschritt alleine kein wirksames Mittel gegen Hacker und Cyberkriminelle ist.2003: SDBot Foto: Mati Nitibhon – shutterstock.comSDBot war ein Trojanisches Pferd, das die üblichen Sicherheitsmaßnahmen eines PCs umging, um heimlich die Kontrolle zu übernehmen. Er erstellte eine Backdoor, die es dem Autor unter anderem ermöglichte, Passwörter und Registrierungscodes von Spielen wie “Half-Life” und “Need for Speed 2” auszuspionieren.2003: Sobig Foto: Jakub Krechowicz – shutterstock.comSobig war eine Optimierung von Fizzer. Die Besonderheit: Einige Versionen warteten zunächst ein paar Tage nach der Infektion eines Rechners, bevor die betroffenen Rechner als E-Mail-Proxy-Server benutzt wurden. Das Ergebnis? Eine massive Spam-Attacke. Alleine AOL musste mehr als 20 Millionen infizierte Nachrichten pro Tag abfangen.2004: Sasser Foto: Montypeter – shutterstock.comSasser verschaffte sich über gefährdete Netzwerk-Ports Zugang zum System, verlangsamte dieses dramatisch oder brachte gleich ganze Netzwerke zum Absturz – von Australien über Hongkong bis nach Großbritannien.2005: Haxdoor Foto: leolintang – shutterstock.comHaxdoor war ein weiterer Trojaner, der nach Passwörtern und anderen privaten Daten schnüffelte. Spätere Varianten hatten zudem Rootkit-Fähigkeiten. Im Vergleich zu früheren Viren setzte Haxdoor weitaus komplexere Methoden ein, um seine Existenz auf dem System zu verschleiern. Ein modernes Rootkit kann einen Computer in einen Zombie-Computer verwandeln, der ohne das Wissen des Benutzers fremdgesteuert werden kann – unter Umständen jahrelang.2005: Sony DRM Rootkit Foto: April Cat – shutterstock.comIm Jahr 2005 hatte eine der größten Plattenfirmen der Welt die gleiche Idee, die schon die Alvi-Brüder im Jahr 1986 hatten: Ein Virus sollte Piraterie verhindern. Auf den betroffenen Audio-CDs war nicht nur eine Musik-Player-Software, sondern auch ein Rootkit enthalten. Dieses kontrollierte, wie der Besitzer auf die Audio-Tracks der Disc zugreift. Das Ergebnis: ein medialer Shitstorm und eine Sammelklage. Letzterer konnte sich Sony nur durch großzügige Vergleichszahlungen und kostenlose Downloads außergerichtlich erwehren. 2007: Storm Worm Foto: solarseven – shutterstock.comLaut Machiavelli ist es besser, gefürchtet als geliebt zu werden. Sieben Jahre nach Loveletter, machte sich der Schädling Storm Worm unsere kollektive Angst vor Wetterkapriolen zu Nutze. Dazu benutzte er eine E-Mail mit der Betreffzeile “230 Tote durch Sturm in Europa”. Sobald der Dateianhang geöffnet wurde, zwangen eine Trojaner- Backdoor und ein Rootkit den betroffenen Rechner, sich einem Botnetz anzuschließen. Botnetze sind Armeen von Zombie-Computern, die verwendet werden können, um unter anderem Tonnen von Spam zu verbreiten. Storm Worm kaperte zehn Millionen Rechner.2008: Mebroot Foto: GlebStock – shutterstock.comMebroot war ein Rootkit, dass gezielt konstruiert wurde, um die gerade aufkommenden Rootkit-Detektoren auszutricksen. Dabei war der Schädling so fortschrittlich, dass er einen Diagnosebericht an den Virenschreiber sendete, sobald er einen PC zum Absturz gebracht hatte.2008: Conficker Foto: Lemau Studio – shutterstock.comConficker verbreitete sich rasend schnell auf Millionen von Computern weltweit. Er nutzte sowohl Schwachstellen in Windows, als auch schwache Passwörter. Kombiniert mit einigen fortschrittlichen Techniken, konnte Conficker weitere Malware installieren. Eine – besonders fiese – Folge: die Benutzer wurden durch den Virus vom Besuch der Website der meisten Anbieter von Security-Software gehindert. Mehr als zwei Jahre nachdem Conficker erstmals gesichtet wurde, waren immer noch täglich mehr Rechner infiziert.2010: 3D Anti Terrorist Foto: 1000 Words – shutterstock.comDieses “trojanisierte” Game zielte auf Windows-Telefone ab und wurde über Freeware-Websites verteilt. Einmal installiert, startete der Trojaner Anrufe zu besonders teuren Sondernummern und bescherte den Nutzern überaus saftige Rechnungen. Diese Strategie bei Apps ist immer noch neu – wird sich aber vermutlich zu einer der gängigsten Methoden entwickeln, mit denen Hacker und Cyberkriminelle künftig mobile Endgeräte angreifen.2010: Stuxnet Foto: jaroslava V – shutterstock.comWie schon gesehen, haben Computer-Viren schon seit Jahrzehnten Auswirkungen auf die reale Welt – doch im Jahr 2010 hat ein Virus auch den Lauf der Geschichte verändert: Stuxnet. Als ungewöhnlich großer Windows-Wurm (Stuxnet ist mehr als 1000 Prozent größer als der typische Computerwurm) verbreitete sich Stuxnet wahrscheinlich über USB-Geräte. Der Wurm infizierte ein System, versteckte sich mit einem Rootkit und erkannte dann, ob der infizierte Computer sich mit dem Automatisierungssystem Siemens Simatic verbindet. Wenn Stuxnet eine Verbindung feststellte, veränderte er die Befehle, die der Windows-Rechner an die PLC/SPS-programmierbaren Logik-Controller sendet – also die Boxen zur Steuerung der Maschinen. Läuft er auf PLC/SPS, sucht er nach einer bestimmten Fabrikumgebung. Wenn diese nicht gefunden wird, bleibt Stuxnet inaktiv. Nach Schätzungen der F-Secure Labs, kostete die Umsetzung von Stuxnet mehr als zehn Mannjahre Arbeit. Immerhin zeigt das, dass ein Virus, der offensichtlich eine Zentrifuge zur Urananreicherung manipulieren kann, nicht im Handumdrehen von Jedermann erschaffen werden kann. Die Komplexität von Stuxnet und die Tatsache, dass der Einsatz dieses Virus nicht auf finanziellen Interessen beruhte, legt den Verdacht nahe, dass Stuxnet im Auftrag einer Regierung entwickelt wurde. 

Worst of Schadsoftware: 11 historische Malware-Angriffe​ Diese elf Malware-Meilensteine haben die Evolution von Schadsoftware maßgeblich geprägt.
Foto: local doctor – shutterstock.com

Schadsoftware, die sich unter mysteriösen Umständen ausbreitet, ist seit Dekaden fester Bestandteil von Cyberpunk-Stories – und solchen aus dem Real Life.

Worst of … Malware-Angriffe

Dieser Artikel beleuchtet elf Meilensteine der Malware-Evolution – von der Premiere der Schadsoftware über fiese Trojaner bis hin zu modernen Ransomware-Attacken mit Schäden in Millionenhöhe.

1. Creeper-Virus (1971)

Im Jahr 1966 wurde John von Neumanns “Theory of Self-Reproducing Automata” (PDF) posthum veröffentlicht. Darin stellt der Mathematiker das Konzept eines sich selbst reproduzierenden Computercodes vor. Bereits fünf Jahre später tauchte der erste bekannte Computervirus namens Creeper auf – geschrieben in der PDP-10-Assembler-Sprache. Der Virus war in der Lage, sich selbst zu reproduzieren und sich über das gerade entstehende ARPANET von Rechner zu Rechner zu verbreiten. Creeper war dabei keine Schadsoftware im eigentlichen Sinn: Entwickler Bob Thomas wollte damit lediglich beweisen, dass das Konzept von von Neumann funktioniert. Deswegen veranlasste der Virus angeschlossene Teletype-Fernschreiber lediglich dazu eine Textnachricht auszudrucken: “I’M THE CREEPER: CATCH ME IF YOU CAN”

Trotz seiner harmlosen Natur ist der Creeper-Virus von signifikanter Bedeutung für die Evolution der Malware. Schließlich bildet er die Grundlage, für alles, was auf ihn folgte. Kurz nachdem Creeper auf die “Öffentlichkeit losgelassen” wurde, war es Ray Tomlinson – Erfinder der E-Mail – der mit einem programmierten Gegenmittel – Reaper -, den Code von Creeper eliminierte.

2. Brain-Virus (1986)

Creeper wurde entwickelt, um sich über Computernetzwerke zu verbreiten. Allerdings war dieser Angriffsvektor in den 1970er und 1980er Jahren begrenzt – die meisten Rechner arbeiteten isoliert. Die Verbreitung von Malware fand zu dieser Zeit im Wesentlichen über Disketten statt. Das früheste Beispiel für eine Schadsoftware dieser Art ist ElkCloner – entwickelt von einem 15-Jährigen, “just for fun” und maßgeschneidert für Apple-II-Computer.

Der bedeutendste Computervirus der Generation Diskette war jedoch Brain, der sich ab 1986 weltweit verbreitete und als erster IBM-PC-Virus gilt. Entwickelt wurde er von dem Programmierer-Brüderpaar Amjad und Basit Farooq Alvi in Pakistan, die sich ihren Lebensunterhalt mit medizinischer Software verdienten. Da ihre Programme häufig raubkopiert wurden, entwickelten sie einen Virus, der in der Lage war, den Bootsektor raubkopierter Disketten zu infizieren. Brain war dabei relativ harmlos – er enthielt lediglich Kontaktinformationen der Entwickler, mit dem Angebot die Software zu “desinfizieren”. Die Entwickler-Brüder zeigten sich selbst 25 Jahre später noch schockiert darüber, wie schnell sich Brain auf der ganzen Welt verbreitet hatte. Und darüber, wie wütend die Menschen, die ihre Software illegal kopiert hatten, aus irgendeinem Grund auf sie waren. Trotzdem haben sie immer noch dieselbe Adresse und Telefonnummer.

3. Morris-Wurm (1988)

Die Malware Morris debütierte im Jahr 1988 und kann gleich mehrere Premieren für sich beanspruchen:

Er war der erste Computerwurm, der sich ohne ein “Hilfsprogramm” reproduzieren konnte.

Um sich möglichst schnell möglichst weit zu verbreiten, nutzte Morris mehrere Sicherheitslücken aus.

Obwohl nicht darauf konzipiert, war es die erste Malware, die größeren, finanziellen Schaden anrichten konnte.

Der Morris-Wurm verbreitete sich mit rasender Geschwindigkeit: Innerhalb von 24 Stunden waren bereits zehn Prozent aller mit dem Internet verbundenen Computer infiziert. Die Schadsoftware kopierte sich auf befallenen Rechnern mehrmals selbst, was diese mehrheitlich in die Knie zwang. Die geschätzten Kosten des Angriffs gingen in die Millionen. Benannt ist der Wurm nach seinem Schöpfer Robert Morris. Der damalige Student der Cornell University betrachtete sein Werk als Proof-of-Concept, das belegen sollte, wie weit verbreitet Sicherheitslücken sind. Dabei ahnte er nicht, welche Dynamik das Projekt annehmen würde und versuchte noch den Schaden abzuwenden, was ihm nicht gelang. Die Konsequenz: eine weitere Premiere. Robert Morris war die erste Person, die auf Grundlage des 1986 eingeführten “Computer Fraud and Abuse Act” verurteilt wurde.

4. ILOVEYOU-Wurm (2000)

Im Gegensatz zu den bisher genannten Malware-Entwicklern hatte der 24-jährige Onel de Guzman im Jahr 2000 ausschließlich kriminelle Absichten. Weil er sich keinen Einwahl-Service leisten konnte, entwickelte er ein Virus, um die Passwörter anderer Nutzer zu stehlen und ihre Accounts zu übernehmen. Dabei nutzte die Schadsoftware eine ganze Reihe von Schwachstellen in Windows 95 aus – auf besonders raffinierte Art und Weise.

Weil das Legacy-Betriebssystem Dateierweiterungen in E-Mail-Anhängen automatisch versteckte, merkten die meisten Benutzer nicht, dass sie auf Executables klickten. Der Wurm breitete sich wie ein Lauffeuer aus und infizierte Millionen von Rechnern, die daraufhin die Zugangsdaten an eine philippinische E-Mail-Adresse zurückschickten. Dabei löschte ILOVEYOU auch zahlreiche Dateien auf den Zielsystemen. Der Wurm verursachte Schäden in Millionenhöhe und legte kurzzeitig sogar das Computersystem des britischen Parlaments lahm.

Der Schöpfer des Wurms wurde – mangels Gesetze – nie wegen seiner kriminellen Handlungen angeklagt. In einem Interview mit der BBC drückte de Guzman jedoch sein Bedauern aus. Dennoch macht ihn der Wurm zu einer Art Social-Engineering-Pionier. Ihren Namen verdankt die Schadsoftware dem Umstand, dass sie sich über E-Mails mit dem Betreff “ILOVEYOU” verbreitete.

5. Mydoom-Wurm (2004)

Trotzdem der Wurm Mydoom beinahe 20 Jahre auf dem Buckel hat, hält er immer noch eine Reihe von Rekorden.

Er infizierte Computer per E-Mail, übernahm Zielrechner und verschickte dann Kopien von sich selbst per E-Mail.

Dabei war er so effizient, dass er auf seinem Höhepunkt ein Viertel aller weltweit verschickten E-Mails ausmachte – eine “Leistung”, die bis heute nicht übertroffen wurde.

Mydoom verursachte einen Schaden von mehr als 35 Milliarden Dollar – ein Wert, der (inflationsbereinigt) ebenfalls noch nie übertroffen wurde.

Dazu kommt, dass der Urheber und der eigentliche Zweck von Mydoom bis heute ein Mysterium sind. Infizierte Computer wurden auch im Rahmen eines Botnetzes verwendet, das wiederum DDoS-Angriffen auf die SCO Group und Microsoft diente. Ersteres Unternehmen versuchte damals Eigentumsrechte an Linux geltend zu machen, weshalb Einige ein abtrünniges Mitglied der Open-Source-Gemeinschaft hinter dem Wurm vermuten. Konkrete Beweise gibt es dafür jedoch nicht.

6. Zeus-Trojaner (2007)

Der Trojaner Zeus wurde erstmals im Jahr 2007 – am Ende der “Web 1.0”-Ära – entdeckt und war für die Zukunft der Schadsoftware wegweisend. Er infizierte seine Zeile per Phishing oder über Drive-by-Downloads und diente als Vehikel für jede Art von bösartigem Payload. Der Quellcode und ein Benutzerhandbuch wurden im Jahr 2011 geleakt, was sowohl für Security-Forscher, als auch für kriminelle Hacker ein gefundenes Fressen war und für zahlreiche neue Varianten sorgte.

Zeus wird auch oft als “Banking-Trojaner” bezeichnet, da die meisten dieser “Ableger” vor allem für diesen Bereich konzipiert waren. Im Jahr 2014 schaffte es eine davon, sich zwischen einen Benutzer und seine Bank-Webseite zu schalten und unter anderem Passwörter und Tastatureingaben abzufangen. Es gibt jedoch zum Beispiel auch Versionen, die darauf ausgelegt sind, Salesforce-Kontoinformationen abzugreifen.

7. CryptoLocker Ransomware (2013)

Zeus kann auch dazu verwendet werden, Botnetze aus befallenen Rechnern zu erschaffen. Die Betreiber eines solchen Botnet mit dem Namen “Gameover Zeus” infizierten ihre Bots mit CryptoLocker, eines der ersten erpresserischen Schadsoftware-Programme. Die Ransomware wurde für ihre rasante Verbreitung und performante, asymmetrische Verschlüsselung “berühmt”, die damals schwer zu knacken war.

Im Jahr 2014 gelang es internationalen Behörden, in Kooperation die Kontrolle über das Gameover-Zeus-Botnet zu übernehmen. Die Dateien von CryptoLocker-Betroffenen konnten kostenlos wiederhergestellt werden. Leider verbreitete sich CryptoLocker aber auch per Phishing – bis heute tauchen Varianten der Erpresser-Malware auf.

8. Emotet-Trojaner (2014)

Der Trojaner Emotet ist ein weiteres Beispiel für eine Schadsoftware, deren Funktionalität sich im Laufe seiner aktiven Jahre verändert hat. Darüber hinaus ist Emotet auch ein Paradebeispiel für sogenannte polymorphe Malware. Deren Code verändert sich bei jedem Zugriff leicht, um zu verhindern, dass sie von Endpoint-Security-Software erkannt wird.

Auch Emotet verbreitete sich hauptsächlich über Phishing – erstmals im Jahr 2014. Inzwischen handelt es sich aber – wie im Fall von Zeus – um eine modulare Malware, die als Vehikel für andere Schadsoftware-Formen dient – etwa die Ransomware-Varianten Trickster und Ryuk. Die höchste “Auszeichnung” erhielt der Emotet-Trojaner von Arne Schönbohm, Leiter des Bundesamtes für Sicherheit in der Informationstechnik (BSI), der ihn als “König der Malware” bezeichnete.

9. Mirai-Botnet (2016)

Alle bisher aufgeführten Viren, Trojaner und Würmer haben Computer befallen – die PCs und Laptops, die wir für Arbeit und Freizeit nutzen. Das änderte sich mit dem Mirai-Botnetz, welches schonungslos die Lücken in Sachen IoT-Sicherheit aufdeckte und Devices – hauptsächlich Überwachungskameras – befiel, deren Standardpasswörter nicht geändert worden waren.

Paras Jha, der Student, der die Mirai-Malware entwickelte, wollte die Botnetze für DoS-Angriffe nutzen, um sich an Rivalen in der obskuren Welt des Minecraft-Server-Hosting zu rächen. Stattdessen löste er einen Angriff auf einen großen DNS-Anbieter aus und legte damit das Internet für einen Großteil der US-Ostküste für fast 24 Stunden lahm.

10. Petya Ransomware/NotPetya Wiper (2016/2017)

Ein Ransomware-Trojaner namens Petya befiel im Jahr 2016 erstmals Computer. Obwohl die Malware über einen cleveren Mechanismus verfügte, um Daten auf Zielrechnern zu verschlüsseln, verbreitete sie sich vor allem über herkömmliche Phishing-Methoden und galt als nicht besonders virulent. Sehr wahrscheinlich würde sich heute niemand mehr an den Trojaner erinnern, wäre nicht im Jahr darauf eine neue, sich selbst reproduzierende Variante aufgetaucht, die geleakte NSA-Exploits (Eternal Blue und Eternal Romance) nutzte, um sich zu verbreiten.

Die neue Version mit dem Namen NotPetya nutzte ursprünglich eine Hintertür in einer (vor allem in der Ukraine verwendeten) Buchhaltungssoftware aus, um sich zu verbreiten und richtete in kürzester Zeit großen Schäden an – vornehmlich in Europa. Obwohl NotPetya immer noch wie eine Ransomware aussah, handelte es sich um einen sogenannten Wiper, der schlicht dazu dient, Daten und Systeme zu zerstören. Security-Forscher gehen davon aus, dass der russische Geheimdienst die eher gewöhnliche Petya-Malware umfunktioniert hat, um sie als Cyberwaffe gegen die Ukraine einzusetzen. Damit unterstreicht NotPetya auch die symbiotische Beziehung zwischen staatlich gesponserten und kriminellen Hackern.

11. Clop-Ransomware (2019- )

Clop (manchmal auch Cl0p) ist eine weitere Ransomware-Variante, die 2019 auf der Bildfläche erschien und seitdem immer häufiger auftritt. Das machte die Schadsoftware zu einer der größten Malware-Bedrohungen des Jahres 2023. Clop verhindert nicht nur, dass Betroffene auf ihre Daten zugreifen, sondern ermöglicht es dem Angreifer auch, diese Daten zu exfiltrieren. Der Sicherheitsanbieter McAfee hat die technischen Details analysiert und zeigt auf, wie die Ransomware Sicherheitssoftware umgeht.

Was Clop extrem gefährlich macht, ist allerdings nicht die Art und Weise, wie es eingesetzt wird – sondern von wem. Die Ransomware bildet die Speerspitze des Ransomware-as-a-Service-Trends und kann gegen eine Gebühr – oder einen Anteil am zu erwarteten Lösegeld – quasi von Jedermann gebucht werden. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die Geschichte des Computer-Virus1986: Brain
Foto: Sergey Nivens – shutterstock.comMehr als ein Jahrzehnt, bevor Napster für irgendjemanden ein Begriff war, wurde der erste Computervirus entwickelt – um Softwarepiraterie zu bekämpfen. Der Autor, der das Wort “Cyber” in die Welt setzte, war William Gibson – genannt “Brain”. Basit und Amjad Alvi entwickelten und vermarkteten medizinische Software im pakistanischen Lahore. Sie interessierten sich für zwei Dinge. Zuerst wollten sie die Multitasking-Funktionalität der neuen DOS-Betriebssysteme (sogenannte “TSR”-Systeme) testen. Zweitens wollten sie sehen, ob es im Vergleich zu anderen Betriebssystemen wie Unix Sicherheitslücken in DOS gibt.Als sie bemerkten, dass DOS recht anfällig war, hatten sie die Idee, ein Stück Software zu schreiben, das überwacht, wie die Software und die Disketten sich bewegen. Brain verbreitete sich viral über 3,25-Zoll-Disketten und innerhalb weniger Wochen mussten die Alvis ihre Telefonnummern ändern. Das hat Ihnen allerdings wenig genützt, denn 25 Jahre nach der Entwicklung des ersten PC-Virus machte sich Mikko Hypponen von F-Secure im Frühjahr 2011 auf die Reise nach Lahore. Sein Ziel: die Adresse, die im Code zu finden war. Tatsächlich fand er die Alvi-Brüder dort vor und bekam die Gelegenheit, mit ihnen das erste Video-Interview über Brain zu führen.1987: Stoned
Foto: Rido – shutterstock.comErstellt durch einen Gymnasiasten in Neuseeland, wurde Stoned zunächst als harmlos angesehen. Zunächst machte er sich auch lediglich mit der Meldung “Your PC is now Stoned” bemerkbar. Doch als erster Virus, der den Bootsektor eines PCs infizierte, zeigte Stoned, dass Viren die Funktion eines Computers steuern können – und zwar von dem Moment an, in dem er eingeschaltet wird. Bob Dylan wäre stolz gewesen.1990: Form
Foto: Peeradach Rattanakoses – shutterstock.comForm wurde zu einem der meistverbreiteten Viren überhaupt. Am 18. eines jeden Monats entlockte er den PC-Lautsprechern ein klickendes Geräusch – jedes Mal, wenn eine Taste gedrückt wurde. Das war zwar durchaus ärgerlich, aber harmlos.1992: Michelangelo
Foto: QQ7 – shutterstock.comMichelangelo wurde dazu genutzt, alle Daten auf einer Festplatte zu bestimmten Terminen zu überschreiben. Als eine Variante von Stoned – nur deutlich bösartiger – war Michelangelo wohl der erste Computervirus, der es auf internationaler Ebene in die Nachrichten geschafft hat.1992: VCL
Foto: Alexander Raths – shutterstock.comDas Virus Creation Laboratory (VCL) machte es kinderleicht, ein bösartiges kleines Programm zu basteln – durch die Automatisierung der Virenerstellung über eine einfache grafische Schnittstelle.1993: Monkey
Foto: Volodymyr Burdiak – shutterstock.comMonkey – ebenfalls ein entfernter Verwandter von Stoned – integrierte sich heimlich in Dateien und verbreitete sich anschließend nahtlos. Damit war Monkey ein früher Vorfahre des Rootkits: Ein selbstverbergendes Programm, das den Bootvorgang per Diskette verhindern konnte. Wenn es nicht korrekt entfernt wurde, verhinderte Monkey gar jegliche Art des Bootens.1995: Concept
Foto: Bacho – shutterstock.comAls erster Virus, der Microsoft Word-Dateien infizierte, wurde Concept zu einem der häufigsten Computer-Schädlinge. Schließlich war er in der Lage, jedes Betriebssystem, das Word ausführen konnte, zu infizieren. Achja und: Wurde die Datei geteilt, wurde auch der Virus geteilt.1999: Happy99
Foto: YanLev – shutterstock.comHappy99 war der erste E-Mail-Virus. Er begrüßte User mit den Worten “Happy New Year 1999” und verbreitete die frohe Botschaft per E-Mail auch gleich an alle Kontakte im Adressbuch. Wie die frühen PC-Viren richtete Happy99 keinen wirklichen Schaden an, schaffte es aber dennoch, sich auf Millionen von PCs auf der ganzen Welt auszubreiten.1999: Melissa
Foto: Celso Pupo – shutterstock.comAngeblich benannt nach einer exotischen Tänzerin, stellte Melissa eine Kombination aus klassischem Virus und E-Mail-Virus dar. Er (beziehungsweise sie) infizierte eine Word-Datei, verschickte sich dann selbst per E-Mail an alle Kontakte im Adressbuch und wurde so zum ersten Virus, der innerhalb weniger Stunden zu weltweiter Verbreitung brachte.Melissa kombinierte das “Spaß-Motiv” der frühen Virenautoren mit der Zerstörungskraft der neuen Ära: Der Virus integrierte unter anderem Kommentare von “The Simpsons” in Dokumente der Benutzer, konnte aber auch vertrauliche Informationen verschicken, ohne dass Betroffene dies bemerkten. Nicht lange nach Melissa wurden Makroviren praktisch eliminiert, indem Microsoft die Arbeitsweise der Visual-Basic-Makro-Sprache in Office-Anwendungen änderte.2000: Loveletter
Foto: OlegKoval – shutterstock.comDieser Loveletter hat Millionen von Herzen gebrochen und gilt noch heute als einer der größten Ausbrüche aller Zeiten. Loveletter verbreitete sich via E-Mail-Anhang und überschrieb viele wichtige Dateien auf infizierten PCs. Gleichzeitig ist es einer der erfolgreichsten Social-Engineering-Attacken überhaupt. Millionen von Internet-Nutzern fielen dem Versprechen von der großen Liebe zum Opfer und öffneten den infizierten E-Mail-Anhang. Der geschätzte, weltweite Gesamtschaden betrug Schätzungen zufolge 5,5 Milliarden Dollar.2001: Code Red
Foto: Tidarat Tiemjai – shutterstock.comDer erste Wurm, der sich ohne jegliche Benutzerinteraktion innerhalb von Minuten verbreitete, trug den Namen Code Red. Er führte verschiedene Aktionen in einem Monatszyklus aus: An den Tagen eins bis 19 verbreitete er sich – von Tag 20 bis 27 startete er Denial-of-Service-Attacken auf diverse Webseiten – beispielsweise die des Weißen Hauses. Von Tag 28 bis zum Ende des Monats war übrigens auch bei Code Red Siesta angesagt.2003: Slammer
Foto: muzsy – shutterstock.comNetzwerk-Würmer benötigen nur ein paar Zeilen Code und eine Schwachstelle – schon können sie für ernste Probleme sorgen. Slammer brachte auf diese Weise das Geldautomaten-Netz der Bank of America und die Notrufdienste in Seattle zum Absturz. Sogar das Flugverkehrskontrollsystem war nicht gegen den agilen Bösewicht immun.2003: Fizzer
Foto: TijanaM – shutterstock.comFizzer war der erste Virus, der gezielt entwickelt wurde, um Geld zu verdienen. In Gestalt eines infizierten E-Mail-Anhangs kam er auf die Rechner seiner Opfer. Wurde die Datei geöffnet, übernahm Fizzer den Rechner und benutzte diesen, um Spam zu versenden.2003: Cabir
Foto: Maxim Tupikov – chuckchee – shutterstock.comCabir war der erste Handy-Virus der IT-Geschichte und hatte es gezielt auf Nokia-Telefone mit Symbian OS abgesehen. Cabir wurde über Bluetooth verbreitet und bewies, dass der technologische Fortschritt alleine kein wirksames Mittel gegen Hacker und Cyberkriminelle ist.2003: SDBot
Foto: Mati Nitibhon – shutterstock.comSDBot war ein Trojanisches Pferd, das die üblichen Sicherheitsmaßnahmen eines PCs umging, um heimlich die Kontrolle zu übernehmen. Er erstellte eine Backdoor, die es dem Autor unter anderem ermöglichte, Passwörter und Registrierungscodes von Spielen wie “Half-Life” und “Need for Speed 2” auszuspionieren.2003: Sobig
Foto: Jakub Krechowicz – shutterstock.comSobig war eine Optimierung von Fizzer. Die Besonderheit: Einige Versionen warteten zunächst ein paar Tage nach der Infektion eines Rechners, bevor die betroffenen Rechner als E-Mail-Proxy-Server benutzt wurden. Das Ergebnis? Eine massive Spam-Attacke. Alleine AOL musste mehr als 20 Millionen infizierte Nachrichten pro Tag abfangen.2004: Sasser
Foto: Montypeter – shutterstock.comSasser verschaffte sich über gefährdete Netzwerk-Ports Zugang zum System, verlangsamte dieses dramatisch oder brachte gleich ganze Netzwerke zum Absturz – von Australien über Hongkong bis nach Großbritannien.2005: Haxdoor
Foto: leolintang – shutterstock.comHaxdoor war ein weiterer Trojaner, der nach Passwörtern und anderen privaten Daten schnüffelte. Spätere Varianten hatten zudem Rootkit-Fähigkeiten. Im Vergleich zu früheren Viren setzte Haxdoor weitaus komplexere Methoden ein, um seine Existenz auf dem System zu verschleiern. Ein modernes Rootkit kann einen Computer in einen Zombie-Computer verwandeln, der ohne das Wissen des Benutzers fremdgesteuert werden kann – unter Umständen jahrelang.2005: Sony DRM Rootkit
Foto: April Cat – shutterstock.comIm Jahr 2005 hatte eine der größten Plattenfirmen der Welt die gleiche Idee, die schon die Alvi-Brüder im Jahr 1986 hatten: Ein Virus sollte Piraterie verhindern. Auf den betroffenen Audio-CDs war nicht nur eine Musik-Player-Software, sondern auch ein Rootkit enthalten. Dieses kontrollierte, wie der Besitzer auf die Audio-Tracks der Disc zugreift. Das Ergebnis: ein medialer Shitstorm und eine Sammelklage. Letzterer konnte sich Sony nur durch großzügige Vergleichszahlungen und kostenlose Downloads außergerichtlich erwehren. 2007: Storm Worm
Foto: solarseven – shutterstock.comLaut Machiavelli ist es besser, gefürchtet als geliebt zu werden. Sieben Jahre nach Loveletter, machte sich der Schädling Storm Worm unsere kollektive Angst vor Wetterkapriolen zu Nutze. Dazu benutzte er eine E-Mail mit der Betreffzeile “230 Tote durch Sturm in Europa”. Sobald der Dateianhang geöffnet wurde, zwangen eine Trojaner- Backdoor und ein Rootkit den betroffenen Rechner, sich einem Botnetz anzuschließen. Botnetze sind Armeen von Zombie-Computern, die verwendet werden können, um unter anderem Tonnen von Spam zu verbreiten. Storm Worm kaperte zehn Millionen Rechner.2008: Mebroot
Foto: GlebStock – shutterstock.comMebroot war ein Rootkit, dass gezielt konstruiert wurde, um die gerade aufkommenden Rootkit-Detektoren auszutricksen. Dabei war der Schädling so fortschrittlich, dass er einen Diagnosebericht an den Virenschreiber sendete, sobald er einen PC zum Absturz gebracht hatte.2008: Conficker
Foto: Lemau Studio – shutterstock.comConficker verbreitete sich rasend schnell auf Millionen von Computern weltweit. Er nutzte sowohl Schwachstellen in Windows, als auch schwache Passwörter. Kombiniert mit einigen fortschrittlichen Techniken, konnte Conficker weitere Malware installieren. Eine – besonders fiese – Folge: die Benutzer wurden durch den Virus vom Besuch der Website der meisten Anbieter von Security-Software gehindert. Mehr als zwei Jahre nachdem Conficker erstmals gesichtet wurde, waren immer noch täglich mehr Rechner infiziert.2010: 3D Anti Terrorist
Foto: 1000 Words – shutterstock.comDieses “trojanisierte” Game zielte auf Windows-Telefone ab und wurde über Freeware-Websites verteilt. Einmal installiert, startete der Trojaner Anrufe zu besonders teuren Sondernummern und bescherte den Nutzern überaus saftige Rechnungen. Diese Strategie bei Apps ist immer noch neu – wird sich aber vermutlich zu einer der gängigsten Methoden entwickeln, mit denen Hacker und Cyberkriminelle künftig mobile Endgeräte angreifen.2010: Stuxnet
Foto: jaroslava V – shutterstock.comWie schon gesehen, haben Computer-Viren schon seit Jahrzehnten Auswirkungen auf die reale Welt – doch im Jahr 2010 hat ein Virus auch den Lauf der Geschichte verändert: Stuxnet. Als ungewöhnlich großer Windows-Wurm (Stuxnet ist mehr als 1000 Prozent größer als der typische Computerwurm) verbreitete sich Stuxnet wahrscheinlich über USB-Geräte. Der Wurm infizierte ein System, versteckte sich mit einem Rootkit und erkannte dann, ob der infizierte Computer sich mit dem Automatisierungssystem Siemens Simatic verbindet. Wenn Stuxnet eine Verbindung feststellte, veränderte er die Befehle, die der Windows-Rechner an die PLC/SPS-programmierbaren Logik-Controller sendet – also die Boxen zur Steuerung der Maschinen. Läuft er auf PLC/SPS, sucht er nach einer bestimmten Fabrikumgebung. Wenn diese nicht gefunden wird, bleibt Stuxnet inaktiv. Nach Schätzungen der F-Secure Labs, kostete die Umsetzung von Stuxnet mehr als zehn Mannjahre Arbeit. Immerhin zeigt das, dass ein Virus, der offensichtlich eine Zentrifuge zur Urananreicherung manipulieren kann, nicht im Handumdrehen von Jedermann erschaffen werden kann. Die Komplexität von Stuxnet und die Tatsache, dass der Einsatz dieses Virus nicht auf finanziellen Interessen beruhte, legt den Verdacht nahe, dass Stuxnet im Auftrag einer Regierung entwickelt wurde.

Worst of Schadsoftware: 11 historische Malware-Angriffe​ Weiterlesen »

Wie man dem Chef elegant „Nein“ sagt​

Allgemein

Ein klares und begründetes „Nein“ signalisiert keine Schwäche, sondern Professionalität und Selbstreflexion. eamesBot – Shutterstock 2430583241 Egal, ob Führungskraft oder Mitarbeiter: Jeder Mensch kennt Situationen, in denen er das Gefühl hat, in einer Konfliktsituation zwischen den eigenen Bedürfnissen und den Erwartungen anderer zu stehen, weshalb ein klares Nein nötig wäre. Doch dieses zu artikulieren, fällt vielen Menschen schwer, obwohl ein klares „Nein“ enorm befreiend sein kann – für beide Seiten.    Wann und wie „Nein“ sagen? Beim Neinsagen gilt es jedoch zu beachten: Unser „Nein“ sollte weder willkürlich noch aggressiv sein. Es bedarf einiger Vorüberlegungen und eines gewissen Fingerspitzengefühls, um auf eine respektvolle Art und Weise ein Nichtwollen oder -können zu artikulieren und damit Grenzen zu setzen.   Folgende Tipps helfen dabei:  Klare ICH-Botschaften senden Kommunizieren Sie Ihre eigenen Kapazitäten oder Prioritäten sachlich und ohne Schuldzuweisungen. Ein Beispiel: „Ich bin derzeit mit meinen Aufgaben komplett ausgelastet. Ich kann dieses Projekt nur zusätzlich übernehmen, wenn andere Aufgaben verschoben oder delegiert werden.“  Alternativen aufzeigen Ein „Nein“ muss nicht endgültig sein. Bieten Sie mögliche Lösungen an, die für beide Seiten eventuell akzeptabel sind. Beispiele: „Können wir das Projekt verschieben?“ oder „Könnte vorläufig erst einmal jemand anderes diese Aufgabe übernehmen?“  Zeit für Reflexion nehmen Ein vorschnelles „Ja“ kann langfristig negative Folgen haben, ebenso ein abruptes beziehungsweise vorschnelles „Nein“. Bedenken Sie die möglichen Konsequenzen und bitten Sie, sofern nötig, um Bedenkzeit: „Darf ich Ihnen morgen Bescheid geben, wie ich beziehungsweise wir das am besten lösen könnten?“  Konsequenzen erfragen Stellen Sie gezielte Fragen, um den Spielraum für eine Lösung auszuloten: „Was passiert, wenn wir diese Aufgabe erst in zwei Wochen erledigen?“ oder „Welches Ziel hat für Sie aktuell die höchste Priorität?“     Ein klares „Nein“ nicht als Schwäche interpretieren Ein klares und begründetes „Nein“ signalisiert keine Schwäche, sondern Professionalität und Selbstreflexion. Es schafft nämlich Raum für das gemeinsame Suchen nach einer tragfähigen, weil für alle Beteiligten beziehungsweise Betroffenen akzeptablen Lösung und verhindert, dass sich Probleme oder Konflikte auf der psychologischen Ebene verfestigen.   Führungskräfte sollten in ihrem Umfeld eine Kultur fördern, in der Widerspruch als konstruktiv wahrgenommen wird – ohne Angst vor Konsequenzen. Denn nur dann können Konflikte funktional betrachtet und gelöst werden und so das Fundament für eine Weiterentwicklung der Zusammenarbeit geschaffen werden. Ein klar formuliertes und begründetes „Nein“ ist mehr als eine Absage: Es ist ein Ausdruck von Respekt, Klarheit und Verantwortung.  

Wie man dem Chef elegant „Nein“ sagt​ Ein klares und begründetes „Nein“ signalisiert keine Schwäche, sondern Professionalität und Selbstreflexion. eamesBot – Shutterstock 2430583241

Egal, ob Führungskraft oder Mitarbeiter: Jeder Mensch kennt Situationen, in denen er das Gefühl hat, in einer Konfliktsituation zwischen den eigenen Bedürfnissen und den Erwartungen anderer zu stehen, weshalb ein klares Nein nötig wäre. Doch dieses zu artikulieren, fällt vielen Menschen schwer, obwohl ein klares „Nein“ enorm befreiend sein kann – für beide Seiten. 

 

Wann und wie „Nein“ sagen?

Beim Neinsagen gilt es jedoch zu beachten: Unser „Nein“ sollte weder willkürlich noch aggressiv sein. Es bedarf einiger Vorüberlegungen und eines gewissen Fingerspitzengefühls, um auf eine respektvolle Art und Weise ein Nichtwollen oder -können zu artikulieren und damit Grenzen zu setzen.  

Folgende Tipps helfen dabei: 

Klare ICH-Botschaften senden

Kommunizieren Sie Ihre eigenen Kapazitäten oder Prioritäten sachlich und ohne Schuldzuweisungen. Ein Beispiel: „Ich bin derzeit mit meinen Aufgaben komplett ausgelastet. Ich kann dieses Projekt nur zusätzlich übernehmen, wenn andere Aufgaben verschoben oder delegiert werden.“ 

Alternativen aufzeigen

Ein „Nein“ muss nicht endgültig sein. Bieten Sie mögliche Lösungen an, die für beide Seiten eventuell akzeptabel sind. Beispiele: „Können wir das Projekt verschieben?“ oder „Könnte vorläufig erst einmal jemand anderes diese Aufgabe übernehmen?“ 

Zeit für Reflexion nehmen

Ein vorschnelles „Ja“ kann langfristig negative Folgen haben, ebenso ein abruptes beziehungsweise vorschnelles „Nein“. Bedenken Sie die möglichen Konsequenzen und bitten Sie, sofern nötig, um Bedenkzeit: „Darf ich Ihnen morgen Bescheid geben, wie ich beziehungsweise wir das am besten lösen könnten?“ 

Konsequenzen erfragen

Stellen Sie gezielte Fragen, um den Spielraum für eine Lösung auszuloten: „Was passiert, wenn wir diese Aufgabe erst in zwei Wochen erledigen?“ oder „Welches Ziel hat für Sie aktuell die höchste Priorität?“  

 

Ein klares „Nein“ nicht als Schwäche interpretieren

Ein klares und begründetes „Nein“ signalisiert keine Schwäche, sondern Professionalität und Selbstreflexion. Es schafft nämlich Raum für das gemeinsame Suchen nach einer tragfähigen, weil für alle Beteiligten beziehungsweise Betroffenen akzeptablen Lösung und verhindert, dass sich Probleme oder Konflikte auf der psychologischen Ebene verfestigen.  

Führungskräfte sollten in ihrem Umfeld eine Kultur fördern, in der Widerspruch als konstruktiv wahrgenommen wird – ohne Angst vor Konsequenzen. Denn nur dann können Konflikte funktional betrachtet und gelöst werden und so das Fundament für eine Weiterentwicklung der Zusammenarbeit geschaffen werden. Ein klar formuliertes und begründetes „Nein“ ist mehr als eine Absage: Es ist ein Ausdruck von Respekt, Klarheit und Verantwortung. 

Wie man dem Chef elegant „Nein“ sagt​ Weiterlesen »

Fettnäpfchen vermeiden: Jobstart für Fortgeschrittene​

Allgemein

Von neuen Mitarbeitern erwartet man Interesse. Also: Üben Sie sich in Geduld, aber lehnen Sie sich nicht zurück. Lernen Sie! Foto: Roman Samborskyi – shutterstock.comSie kommen in eine neue Umgebung und müssen sich und Ihre Arbeit präsentieren. Sie müssen es schaffen, möglichst schnell alle Arbeitsabläufe zu durchschauen, Ihre Kollegen kennen zulernen und alle informellen Beziehungsnetzwerke zu verstehen. Das geht nur, wenn Sie den Einstieg in das neue Unternehmen mit derselben Sorgfalt angehen wie zuvor den Ausstieg aus dem alten und den Bewerbungsprozess.Dabei ist es wichtig, die Angst abzubauen. Viele Neueinsteiger betrachten die Probezeit als eine Phase, in der man ohne Probleme hinausgeworfen werden kann. Doch diese Sichtweise ist falsch. In der Probezeit befinden sich beide Seiten auf dem Prüfstand. Sie sollten herausfinden, ob sie zusammen passen. Dabei geht es nicht nur um fachliche Leistungen, sondern auch um die Chemie.Die erste Begegnung mit den KollegenTypische Anfängerfehler sollten natürlich vom ersten Tag an vermieden werden. Dass das Outfit stimmt, versteht sich von selbst. Sorgen Sie auch dafür, dass Sie nicht völlig abgehetzt das Büro betreten. Das beste Gefühl fürs Timing bekommen Sie, indem Sie den Weg schon im Vorfeld einmal abfahrenDie größte Angst haben Neulinge vor der ersten Begegnung mit den neuen Kollegen – und das zu Recht. In der Regel treffen wir eine Einschätzung über Sympathie oder Antipathie des Gegenübers innerhalb weniger Sekunden. Es kommt darauf an, wie Sie jetzt auftreten, ob sie natürlich und souverän wirken oder ängstlich und verunsichert. Was Sie sich in den ersten Minuten, Stunden und Tagen verscherzen, ist nur schwer wieder gut zu machen.Nicht einfacher wird die Sache dadurch, dass die Kollegen meist wenig vorbereitet sind. Wenn Sie Glück haben, wissen sie zumindest, dass heute ein Neuer kommt. Wenn Sie Pech haben, nicht einmal das. Eine organisierte Einarbeitung gibt es in den wenigsten Fällen. In manchen Unternehmen gibt es zwar Mentoren, die den Einstieg erleichtern sollen – auch dies ist jedoch oft genug nur blanke Theorie. Umso wichtiger ist, es den Einstieg gut vorzubereiten.Zunächst sollten Sie sich vorstellen, allerdings nur, wenn die Situation das hergibt. Sind alle sehr beschäftigt, kann es befremdlich wirken, wenn Sie herumgehen und jeden von der Arbeit abhalten. Passen Sie die richtige Gelegenheit ab und stellen Sie sich dann mit vollem Namen und der Funktion vor, die Sie ausfüllen werdenDuzen oder Siezen?Eine heikle Frage ist oft die nach dem “Du” oder “Sie“. Passen Sie auf, wie die anderen miteinander umgehen. Das “Du” sollten Sie erst anbieten, wenn Sie die Betriebssitten kennen. Anders herum gilt: Duzt man sie sofort, weil dies im Betrieb üblich ist, sollten Sie sich gut überlegen, ob Sie sich dem entziehen wollen.Die Regeln für die ersten Stunden und Tage sind einfach:zunächst beobachten und dann handelnim Zweifel fragen. Je schneller es Ihnen gelingt, sich die Namen der neuen Kollegen, die Abteilungskürzel, wichtige Kunden und die Palette der Produkte zu merken, desto schneller läuft die Integration.Vorsicht vor Aktionismus und BesserwissereiNatürlich sollten Sie sich in der Anfangszeit engagiert zeigen. Gleich die Pausen zu überziehen macht einen genauso schlechten Eindruck wie überpünktlich in den Feierabend zu starten. Andererseits: Zu viel Aktionismus kommt auch nicht gut. Insbesondere dann nicht, wenn Sie einfach drauflos starten – ohne sich vorher mit den Rahmenbedingungen vertraut gemacht zu haben. Oder noch schlimmer: Wenn Sie gleich zu Anfang eingefahrene Abläufe umkrempeln.Wenn Sie Ihren neuen Kollegen erklären, was sie alles falsch machen oder wie Sie es besser machen würden, haben Sie schon verloren. Zunächst ist Zurückhaltung gefordert. Tragen Sie Ihre Ideen nur bei passender Gelegenheit vor und stempeln Sie keinen als Dummkopf ab. Wer gleich die ganze Firma umstrukturieren will und damit Kompetenzen anzweifelt, wird die neuen Kollegen vor den Kopf stoßen.Viel besser: Nachfragen! Gerade am Anfang nimmt Ihnen das niemand übel. Im Gegenteil, man wird es als Interesse verstehen. Auch vermeintliche Nebensächlichkeiten bedürfen mitunter der Klärung: Bringt jeder seine eigene Kaffeetasse mit? Gibt es eine Kaffeekasse? Ist es üblich, zum Einstand eine Runde auszugeben? Tabu ist auch, im neuen Job über Ihren alten Arbeitgeber oder die alten Kollegen zu lästern.Abwarten und von anderen lernenNiemand erwartet von Ihnen, dass Sie sofort alles verstehen, alles richtig oder gar besser machen als die anderen. Was man einzig erwartet, ist Interesse. Also: Üben Sie sich in Geduld, aber lehnen Sie sich nicht zurück. Lernen Sie!Seien Sie aufmerksam, machen Sie sich Notizen und beschäftigen Sie sich damit. Nutzen Sie alle Informationsquellen wie Unternehmensblog, Mitarbeiterzeitschrift, Intranet oder Handbücher, um möglichst viel über Ihr neues Unternehmen und Ihre eigenen Aufgaben zu erfahren. Eine gute Möglichkeit, die Abläufe zu hinterfragen, bieten auch die Pausen. Soweit dies üblich und in Corona-Zeiten möglich ist, gehen Sie mit den Kollegen zum Mittagessen.Halten Sie sich im Zweifel zurück, solange Sie die Rollen der Kollegen nicht sicher einschätzen können. Lassen Sie sich nur nicht zu Kritik hinreißen. Eine falsche Bemerkung beim falschen Kollegen – und Sie sind raus. In jedem Unternehmen gibt es Mitarbeiter, die mehr Gewicht haben als andere. Diese sollten Sie möglichst schnell identifizieren. Die Unfähigkeit, die firmeninternen Spielregeln zu durchschauen, ist der zweithäufigste Grund, warum jemand bei Beförderungen übergangen wird. Noch fataler ist dieses Nichtverstehen in einem neuen Job. Wer sich mit den Falschen verbündet, hat keine Chance. Welche Wege zum neuen Job führenMehr Mobilität?Überdenken Sie Ihre Flexibilität. Längere Anfahrtswege oder geringeres Gehalt können trotzdem zielführend sein.Keine KatastropheIst die Kündigung bereits ausgesprochen, bewahren Sie die Ruhe.Der FlurfunkReagieren Sie möglichst frühzeitig auf die Zeichen des Marktes. Nehmen Sie die Gerüchteküche ernst. Agieren Sie selbst.Absichern?Verlassen Sie sich nicht auf vermeintliche Sicherheiten. Manch einer steht schneller auf der Straße, als er meint.Haltung bewahrenHängen Sie Ihren Frust nicht an die große Glocke – weder vor noch nach einer Kündigung.Außen vor Informieren Sie Kollegen oder gar den Vorgesetzten auf keinen Fall zu früh, denn von da an sind Sie von allen wichtigen Informationen abgeschnitten.Präsenz zeigenStellen Sie Ihr Profil in die relevanten Online-Portale ein. Tun Sie dies frühzeitig. Erste Erfolge zeigen sich frühestens nach vier bis sechs Monaten.Externe UnterstützungNehmen Sie Kontakt mit ausgewählten Personalberatern Ihrer Branche auf. Signalisieren Sie Ihr Interesse an neuen Herausforderungen in allen relevanten Netzwerken, aber werden Sie nicht zu deutlich, ehe die Kündigung tatsächlich ausgesprochen ist.Profilieren Sie sichWenn noch nicht absehbar ist, ob und wann Sie wechseln werden, nutzen Sie bereits die Zeit, um sich zunächst im eigenen Haus zu profilieren. Beteiligen Sie sich an Projekten, die für die Zukunft relevant sind, schlagen Sie sinnvolle Sparmöglichkeiten vor. Sorgen Sie dafür, dass Ihr Engagement auch extern publik wird. Netzwerke und Arbeitskreise bieten dafür gute Möglichkeiten.Eine gute Bewerbung … ist immer noch sehr wichtig. Überarbeiten und vervollständigen Sie Ihre Bewerbungsunterlagen.Eigenwerbung stinkt?Das war einmal. Kümmern Sie sich um Ihr Selbstmarketing. Erarbeiten Sie Ihr eigenes Stärkenprofil. Besonders in der Krise geht es um Effizienz. Im Bewerbungsgespräch müssen Sie kurz und knapp darlegen können, worin Ihre Stärken liegen. Unterstützung bieten Karriereberater.Bereit seinBesorgen Sie sich ein Zwischenzeugnis.Ups, zu spät …Wenn Sie selbst gehen, bereiten Sie die Trennung sorgfältig vor. Beachten Sie die Fristen.Viele Wege führen zum neuen JobNutzen Sie alle Bewerbungswege: Print, online, persönlich.Hilfreich: ein langer AtemBefassen Sie sich mit der Psychologie des Vorstellungsgespräches, und zwar nicht nur in der ersten Runde.Falsche Kompromisse?Bei potenziellen Stellenangeboten: Bleiben Sie kritisch, sich selbst und Ihrem Können gegenüber – aber auch dem suchenden Unternehmen.Im Guten trennenIst die Entscheidung zum Wechsel gefallen, nutzen Sie auch Ihren Abgang zur Profilierung.Es ist soweitWenn Sie dann tatsächlich gehen: Hinterlassen Sie einen bestellten Acker.Neu ankommenAgieren Sie im neuen Unternehmen besonnen. Lernen Sie, hören Sie gut zu.Los gehts!Nehmen Sie die eigenen Gefühle ernst – auch wenn sie negativ sind. Bei Zweifeln: Starten Sie neu! 

Fettnäpfchen vermeiden: Jobstart für Fortgeschrittene​ Von neuen Mitarbeitern erwartet man Interesse. Also: Üben Sie sich in Geduld, aber lehnen Sie sich nicht zurück. Lernen Sie!
Foto: Roman Samborskyi – shutterstock.comSie kommen in eine neue Umgebung und müssen sich und Ihre Arbeit präsentieren. Sie müssen es schaffen, möglichst schnell alle Arbeitsabläufe zu durchschauen, Ihre Kollegen kennen zulernen und alle informellen Beziehungsnetzwerke zu verstehen. Das geht nur, wenn Sie den Einstieg in das neue Unternehmen mit derselben Sorgfalt angehen wie zuvor den Ausstieg aus dem alten und den Bewerbungsprozess.Dabei ist es wichtig, die Angst abzubauen. Viele Neueinsteiger betrachten die Probezeit als eine Phase, in der man ohne Probleme hinausgeworfen werden kann. Doch diese Sichtweise ist falsch. In der Probezeit befinden sich beide Seiten auf dem Prüfstand. Sie sollten herausfinden, ob sie zusammen passen. Dabei geht es nicht nur um fachliche Leistungen, sondern auch um die Chemie.Die erste Begegnung mit den KollegenTypische Anfängerfehler sollten natürlich vom ersten Tag an vermieden werden. Dass das Outfit stimmt, versteht sich von selbst. Sorgen Sie auch dafür, dass Sie nicht völlig abgehetzt das Büro betreten. Das beste Gefühl fürs Timing bekommen Sie, indem Sie den Weg schon im Vorfeld einmal abfahrenDie größte Angst haben Neulinge vor der ersten Begegnung mit den neuen Kollegen – und das zu Recht. In der Regel treffen wir eine Einschätzung über Sympathie oder Antipathie des Gegenübers innerhalb weniger Sekunden. Es kommt darauf an, wie Sie jetzt auftreten, ob sie natürlich und souverän wirken oder ängstlich und verunsichert. Was Sie sich in den ersten Minuten, Stunden und Tagen verscherzen, ist nur schwer wieder gut zu machen.Nicht einfacher wird die Sache dadurch, dass die Kollegen meist wenig vorbereitet sind. Wenn Sie Glück haben, wissen sie zumindest, dass heute ein Neuer kommt. Wenn Sie Pech haben, nicht einmal das. Eine organisierte Einarbeitung gibt es in den wenigsten Fällen. In manchen Unternehmen gibt es zwar Mentoren, die den Einstieg erleichtern sollen – auch dies ist jedoch oft genug nur blanke Theorie. Umso wichtiger ist, es den Einstieg gut vorzubereiten.Zunächst sollten Sie sich vorstellen, allerdings nur, wenn die Situation das hergibt. Sind alle sehr beschäftigt, kann es befremdlich wirken, wenn Sie herumgehen und jeden von der Arbeit abhalten. Passen Sie die richtige Gelegenheit ab und stellen Sie sich dann mit vollem Namen und der Funktion vor, die Sie ausfüllen werdenDuzen oder Siezen?Eine heikle Frage ist oft die nach dem “Du” oder “Sie“. Passen Sie auf, wie die anderen miteinander umgehen. Das “Du” sollten Sie erst anbieten, wenn Sie die Betriebssitten kennen. Anders herum gilt: Duzt man sie sofort, weil dies im Betrieb üblich ist, sollten Sie sich gut überlegen, ob Sie sich dem entziehen wollen.Die Regeln für die ersten Stunden und Tage sind einfach:zunächst beobachten und dann handelnim Zweifel fragen. Je schneller es Ihnen gelingt, sich die Namen der neuen Kollegen, die Abteilungskürzel, wichtige Kunden und die Palette der Produkte zu merken, desto schneller läuft die Integration.Vorsicht vor Aktionismus und BesserwissereiNatürlich sollten Sie sich in der Anfangszeit engagiert zeigen. Gleich die Pausen zu überziehen macht einen genauso schlechten Eindruck wie überpünktlich in den Feierabend zu starten. Andererseits: Zu viel Aktionismus kommt auch nicht gut. Insbesondere dann nicht, wenn Sie einfach drauflos starten – ohne sich vorher mit den Rahmenbedingungen vertraut gemacht zu haben. Oder noch schlimmer: Wenn Sie gleich zu Anfang eingefahrene Abläufe umkrempeln.Wenn Sie Ihren neuen Kollegen erklären, was sie alles falsch machen oder wie Sie es besser machen würden, haben Sie schon verloren. Zunächst ist Zurückhaltung gefordert. Tragen Sie Ihre Ideen nur bei passender Gelegenheit vor und stempeln Sie keinen als Dummkopf ab. Wer gleich die ganze Firma umstrukturieren will und damit Kompetenzen anzweifelt, wird die neuen Kollegen vor den Kopf stoßen.Viel besser: Nachfragen! Gerade am Anfang nimmt Ihnen das niemand übel. Im Gegenteil, man wird es als Interesse verstehen. Auch vermeintliche Nebensächlichkeiten bedürfen mitunter der Klärung: Bringt jeder seine eigene Kaffeetasse mit? Gibt es eine Kaffeekasse? Ist es üblich, zum Einstand eine Runde auszugeben? Tabu ist auch, im neuen Job über Ihren alten Arbeitgeber oder die alten Kollegen zu lästern.Abwarten und von anderen lernenNiemand erwartet von Ihnen, dass Sie sofort alles verstehen, alles richtig oder gar besser machen als die anderen. Was man einzig erwartet, ist Interesse. Also: Üben Sie sich in Geduld, aber lehnen Sie sich nicht zurück. Lernen Sie!Seien Sie aufmerksam, machen Sie sich Notizen und beschäftigen Sie sich damit. Nutzen Sie alle Informationsquellen wie Unternehmensblog, Mitarbeiterzeitschrift, Intranet oder Handbücher, um möglichst viel über Ihr neues Unternehmen und Ihre eigenen Aufgaben zu erfahren. Eine gute Möglichkeit, die Abläufe zu hinterfragen, bieten auch die Pausen. Soweit dies üblich und in Corona-Zeiten möglich ist, gehen Sie mit den Kollegen zum Mittagessen.Halten Sie sich im Zweifel zurück, solange Sie die Rollen der Kollegen nicht sicher einschätzen können. Lassen Sie sich nur nicht zu Kritik hinreißen. Eine falsche Bemerkung beim falschen Kollegen – und Sie sind raus. In jedem Unternehmen gibt es Mitarbeiter, die mehr Gewicht haben als andere. Diese sollten Sie möglichst schnell identifizieren. Die Unfähigkeit, die firmeninternen Spielregeln zu durchschauen, ist der zweithäufigste Grund, warum jemand bei Beförderungen übergangen wird. Noch fataler ist dieses Nichtverstehen in einem neuen Job. Wer sich mit den Falschen verbündet, hat keine Chance. Welche Wege zum neuen Job führenMehr Mobilität?Überdenken Sie Ihre Flexibilität. Längere Anfahrtswege oder geringeres Gehalt können trotzdem zielführend sein.Keine KatastropheIst die Kündigung bereits ausgesprochen, bewahren Sie die Ruhe.Der FlurfunkReagieren Sie möglichst frühzeitig auf die Zeichen des Marktes. Nehmen Sie die Gerüchteküche ernst. Agieren Sie selbst.Absichern?Verlassen Sie sich nicht auf vermeintliche Sicherheiten. Manch einer steht schneller auf der Straße, als er meint.Haltung bewahrenHängen Sie Ihren Frust nicht an die große Glocke – weder vor noch nach einer Kündigung.Außen vor Informieren Sie Kollegen oder gar den Vorgesetzten auf keinen Fall zu früh, denn von da an sind Sie von allen wichtigen Informationen abgeschnitten.Präsenz zeigenStellen Sie Ihr Profil in die relevanten Online-Portale ein. Tun Sie dies frühzeitig. Erste Erfolge zeigen sich frühestens nach vier bis sechs Monaten.Externe UnterstützungNehmen Sie Kontakt mit ausgewählten Personalberatern Ihrer Branche auf. Signalisieren Sie Ihr Interesse an neuen Herausforderungen in allen relevanten Netzwerken, aber werden Sie nicht zu deutlich, ehe die Kündigung tatsächlich ausgesprochen ist.Profilieren Sie sichWenn noch nicht absehbar ist, ob und wann Sie wechseln werden, nutzen Sie bereits die Zeit, um sich zunächst im eigenen Haus zu profilieren. Beteiligen Sie sich an Projekten, die für die Zukunft relevant sind, schlagen Sie sinnvolle Sparmöglichkeiten vor. Sorgen Sie dafür, dass Ihr Engagement auch extern publik wird. Netzwerke und Arbeitskreise bieten dafür gute Möglichkeiten.Eine gute Bewerbung … ist immer noch sehr wichtig. Überarbeiten und vervollständigen Sie Ihre Bewerbungsunterlagen.Eigenwerbung stinkt?Das war einmal. Kümmern Sie sich um Ihr Selbstmarketing. Erarbeiten Sie Ihr eigenes Stärkenprofil. Besonders in der Krise geht es um Effizienz. Im Bewerbungsgespräch müssen Sie kurz und knapp darlegen können, worin Ihre Stärken liegen. Unterstützung bieten Karriereberater.Bereit seinBesorgen Sie sich ein Zwischenzeugnis.Ups, zu spät …Wenn Sie selbst gehen, bereiten Sie die Trennung sorgfältig vor. Beachten Sie die Fristen.Viele Wege führen zum neuen JobNutzen Sie alle Bewerbungswege: Print, online, persönlich.Hilfreich: ein langer AtemBefassen Sie sich mit der Psychologie des Vorstellungsgespräches, und zwar nicht nur in der ersten Runde.Falsche Kompromisse?Bei potenziellen Stellenangeboten: Bleiben Sie kritisch, sich selbst und Ihrem Können gegenüber – aber auch dem suchenden Unternehmen.Im Guten trennenIst die Entscheidung zum Wechsel gefallen, nutzen Sie auch Ihren Abgang zur Profilierung.Es ist soweitWenn Sie dann tatsächlich gehen: Hinterlassen Sie einen bestellten Acker.Neu ankommenAgieren Sie im neuen Unternehmen besonnen. Lernen Sie, hören Sie gut zu.Los gehts!Nehmen Sie die eigenen Gefühle ernst – auch wenn sie negativ sind. Bei Zweifeln: Starten Sie neu!

Fettnäpfchen vermeiden: Jobstart für Fortgeschrittene​ Weiterlesen »

eSIM einrichten: So geht es Schritt für Schritt​

Allgemein

Jacob / Pexels Die eSIM-Technologie ermöglicht es, ohne physische SIM-Karte online zu gehen. Stattdessen laden Sie das Profil Ihres Anbieters direkt aufs Gerät. Das spart Zeit – besonders auf Reisen. Wir zeigen Ihnen Schritt für Schritt, wie Sie eine eSIM kaufen, einrichten und aktivieren. Wo kann ich eine eSIM kaufen? Bevor Sie eine eSIM einrichten können, benötigen Sie ein entsprechendes eSIM-Profil – also die digitale Version der klassischen SIM-Karte. Dieses Profil erhalten Sie bei Abschluss von eSIM-Tarifen von Mobilfunkanbietern wie Telekom oder Vodafone oder von spezialisierten Reise-eSIM-Diensten wie Ubigi, Saily oder Holafly. Letztere bieten flexible Datenpakete für einzelne Länder oder ganze Regionen. Die Buchung ist schnell erledigt, die Bezahlung erfolgt meist per Kreditkarte oder Paypal, und im Anschluss erhalten Sie alle Infos und Codes per E-Mail. Zielort auswählen, Datentarif festlegen, bezahlen, fertig – so einfach kaufen Sie eine eSIM (Beispiel: Holafly).PC-Welt / Holafly Holafly etwa hat sich auf unbegrenzte Datenpakete für Reisende spezialisiert. Besonders praktisch: Die Laufzeit kann individuell angepasst werden – etwa 4, 8 oder 16 Tage, statt wie üblich 7 oder 30. Auch mehrere eSIMs für verschiedene Reiseteilnehmer lassen sich gleichzeitig buchen. Ubigi bietet eSIM-Tarife in über 190 Ländern – bereits ab wenigen Euro pro Tag. Saily wiederum überzeugt mit günstigen Prepaid-Angeboten, die sich besonders für Vielreisende eignen. Weitere empfehlenswerte eSIM-Anbieter finden Sie hier. Anleitung: eSIM auf dem Smartphone einrichten Nach der Buchung erhalten Sie vom Anbieter einen QR-Code beziehungsweise Installationscode. Damit lässt sich das eSIM-Profil direkt auf Ihrem Smartphone installieren. Beachten Sie jedoch, dass sich der QR-Code oft nur ein einziges Mal scannen lässt. Wenn Sie das Profil nach dem Einrichten versehentlich löschen, können Sie es nur mithilfe des Kundensupports wiederherstellen. Außerdem benötigen Sie zum Einrichten eine aktive Internetverbindung – etwa über WLAN. Für Reise-eSIMs gilt: Richten Sie eine eSIM immer vor Beginn einer Reise auf dem Smartphone ein, aber aktivieren Sie sie erst nach Ankunft im Zielland. So installieren Sie eine eSIM auf dem iPhone: Öffnen Sie die Einstellungen > Mobilfunk > Mobilfunktarif hinzufügen. Scannen Sie den QR-Code aus der Installations-E-Mail oder geben Sie den Code manuell ein. Folgen Sie den Anweisungen auf dem Bildschirm. Innerhalb weniger Sekunden ist die eSIM eingerichtet. So installieren Sie eine eSIM auf Android-Geräten (z. B. Samsung, Google Pixel): Gehen Sie zu Einstellungen > Verbindungen > SIM-Manager oder Netzwerk & Internet > SIM-Karten verwalten. Wählen Sie eSIM hinzufügen > QR-Code scannen. Scannen Sie den QR-Code und warten Sie, bis die eSIM installiert ist. Tipp: Viele Anbieter bieten auch eigene Apps an. Darüber lässt sich der gesamte Vorgang noch schneller und komfortabler abschließen. Im SIM-Manager Ihres Handys können Sie eSIMs hinzufügen (sofern Ihr Handy kompatibel ist).PC-Welt eSIM aktivieren – so geht’s nach der Einrichtung In den meisten Fällen müssen Sie eine eingerichtete eSIM manuell als aktive Verbindung auswählen, um sie zu aktivieren. Dazu öffnen Sie die Einstellungen auf Ihrem Smartphone und gehen zum Bereich Verbindungen oder Netzwerk & Internet – je nach Gerät und Systemversion. Im SIM-Manager tippen Sie dann auf die eSIM, die Sie aktivieren möchten. Im Anschluss wird Ihr Smartphone die mobile Datenverbindung über die eSIM abwickeln. In der Statusleiste erscheint dann in der Regel das Netzsymbol des Anbieters selbst beziehungsweise das Partnernetzwerk, welches der Anbieter für das entsprechende Land nutzt. Hinweis: Bei einigen eSIMs (etwa Saily) erfolgt die Aktivierung auch automatisch mit dem ersten Netzempfang im Zielland – vorausgesetzt, Sie haben Data Roaming angeschaltet. Was es sonst noch zur eSIM auf Reisen zu wissen gibt, erfahren Sie hier. (PC-Welt) 

eSIM einrichten: So geht es Schritt für Schritt​ Jacob / Pexels

Die eSIM-Technologie ermöglicht es, ohne physische SIM-Karte online zu gehen. Stattdessen laden Sie das Profil Ihres Anbieters direkt aufs Gerät. Das spart Zeit – besonders auf Reisen. Wir zeigen Ihnen Schritt für Schritt, wie Sie eine eSIM kaufen, einrichten und aktivieren.

Wo kann ich eine eSIM kaufen?

Bevor Sie eine eSIM einrichten können, benötigen Sie ein entsprechendes eSIM-Profil – also die digitale Version der klassischen SIM-Karte. Dieses Profil erhalten Sie bei Abschluss von eSIM-Tarifen von Mobilfunkanbietern wie Telekom oder Vodafone oder von spezialisierten Reise-eSIM-Diensten wie Ubigi, Saily oder Holafly.

Letztere bieten flexible Datenpakete für einzelne Länder oder ganze Regionen. Die Buchung ist schnell erledigt, die Bezahlung erfolgt meist per Kreditkarte oder Paypal, und im Anschluss erhalten Sie alle Infos und Codes per E-Mail.

Zielort auswählen, Datentarif festlegen, bezahlen, fertig – so einfach kaufen Sie eine eSIM (Beispiel: Holafly).PC-Welt / Holafly

Holafly etwa hat sich auf unbegrenzte Datenpakete für Reisende spezialisiert. Besonders praktisch: Die Laufzeit kann individuell angepasst werden – etwa 4, 8 oder 16 Tage, statt wie üblich 7 oder 30. Auch mehrere eSIMs für verschiedene Reiseteilnehmer lassen sich gleichzeitig buchen.

Ubigi bietet eSIM-Tarife in über 190 Ländern – bereits ab wenigen Euro pro Tag. Saily wiederum überzeugt mit günstigen Prepaid-Angeboten, die sich besonders für Vielreisende eignen. Weitere empfehlenswerte eSIM-Anbieter finden Sie hier.

Anleitung: eSIM auf dem Smartphone einrichten

Nach der Buchung erhalten Sie vom Anbieter einen QR-Code beziehungsweise Installationscode. Damit lässt sich das eSIM-Profil direkt auf Ihrem Smartphone installieren. Beachten Sie jedoch, dass sich der QR-Code oft nur ein einziges Mal scannen lässt. Wenn Sie das Profil nach dem Einrichten versehentlich löschen, können Sie es nur mithilfe des Kundensupports wiederherstellen. Außerdem benötigen Sie zum Einrichten eine aktive Internetverbindung – etwa über WLAN.

Für Reise-eSIMs gilt: Richten Sie eine eSIM immer vor Beginn einer Reise auf dem Smartphone ein, aber aktivieren Sie sie erst nach Ankunft im Zielland.

So installieren Sie eine eSIM auf dem iPhone:

Öffnen Sie die Einstellungen > Mobilfunk > Mobilfunktarif hinzufügen.

Scannen Sie den QR-Code aus der Installations-E-Mail oder geben Sie den Code manuell ein.

Folgen Sie den Anweisungen auf dem Bildschirm. Innerhalb weniger Sekunden ist die eSIM eingerichtet.

So installieren Sie eine eSIM auf Android-Geräten (z. B. Samsung, Google Pixel):

Gehen Sie zu Einstellungen > Verbindungen > SIM-Manager oder Netzwerk & Internet > SIM-Karten verwalten.

Wählen Sie eSIM hinzufügen > QR-Code scannen.

Scannen Sie den QR-Code und warten Sie, bis die eSIM installiert ist.

Tipp: Viele Anbieter bieten auch eigene Apps an. Darüber lässt sich der gesamte Vorgang noch schneller und komfortabler abschließen.

Im SIM-Manager Ihres Handys können Sie eSIMs hinzufügen (sofern Ihr Handy kompatibel ist).PC-Welt

eSIM aktivieren – so geht’s nach der Einrichtung

In den meisten Fällen müssen Sie eine eingerichtete eSIM manuell als aktive Verbindung auswählen, um sie zu aktivieren. Dazu öffnen Sie die Einstellungen auf Ihrem Smartphone und gehen zum Bereich Verbindungen oder Netzwerk & Internet – je nach Gerät und Systemversion. Im SIM-Manager tippen Sie dann auf die eSIM, die Sie aktivieren möchten.

Im Anschluss wird Ihr Smartphone die mobile Datenverbindung über die eSIM abwickeln. In der Statusleiste erscheint dann in der Regel das Netzsymbol des Anbieters selbst beziehungsweise das Partnernetzwerk, welches der Anbieter für das entsprechende Land nutzt.

Hinweis: Bei einigen eSIMs (etwa Saily) erfolgt die Aktivierung auch automatisch mit dem ersten Netzempfang im Zielland – vorausgesetzt, Sie haben Data Roaming angeschaltet. Was es sonst noch zur eSIM auf Reisen zu wissen gibt, erfahren Sie hier.

(PC-Welt)

eSIM einrichten: So geht es Schritt für Schritt​ Weiterlesen »

Poco F7 Pro: Gelungenes Mittelklasse-Smartphone im Test​

Allgemein

Connor Jewiss/Foundry Auf einen Blick Pro Flaggschiff-Chip Snapdragon 8 Gen 3 Beeindruckendes Display Zuverlässige Akkulaufzeit Hochwertiges, IP68-zertifiziertes Gehäuse Kontra Ultraweitwinkel-Kamera ist gerade noch okay Das Display ist nicht hell genug Vorinstallierte Bloatware Fazit Mit dem Snapdragon 8 Gen 3, einem atemberaubenden 2K-AMOLED-Display, IP68-Wasser- und Staubresistenz und blitzschnellem Aufladen bietet das Poco F7 Pro echte Flaggschiff-Qualitäten. Dabei kostet das Smartphone nur die Hälfte dessen, was sonst für High-End-Modelle aufgerufen wird. Es gibt Kompromisse, darunter Schwächen bei der Kamera, dem Display und zu viel Bloatware. Aber es ist schwer, ein Smartphone zu finden, das so viel Leistung für weniger Geld bietet. Das Poco F7 Pro bringt echte Flaggschiff-Power in die Smartphone-Mittelklasse. Dazu kommen elegantes Design, ein 2K-Display und einer der effizientesten Chipsätze der letzten Zeit. Wenn Sie sich die Leistung eines Flaggschiffs, eine exzellente Akkulaufzeit und ein brillantes Display wünschen, ohne Ihr Budget zu sprengen, dann ist das Poco F7 Pro in jeder Hinsicht das Richtige für Sie. Das Smartphone ist dennoch nicht perfekt. Die Ultraweitwinkel-Kamera ist nur durchschnittlich, das Display nicht hell genug und es gibt kein kabelloses Laden. Aber diese Kompromisse sind leicht zu verzeihen, wenn man bedenkt, was Sie für den Preis bekommen. Design & Verarbeitung Schlanke Konstruktion aus Glas und Metall IP68 Wasser- und Staubschutz Ins Display integrierter Ultraschall-Fingerabdruckscanner Das Poco F7 Pro setzt in diesem Jahr auf eine raffiniertere Ästhetik, die hochwertiges Design mit Zweckmäßigkeit verbindet. Wo ältere Poco-Geräte noch an Gamer-Smartphones erinnerten, geht das F7 Pro in eine erwachsene Richtung. Dieses Mittelklasse-Smartphone bietet symmetrische Rundungen, einen Kontrast aus Matt und Glanz auf der Rückseite und einen stabilen Aluminiumrahmen. Connor Jewiss / Foundry Das ergibt einen dezenten Look, besonders in der silbernen Ausführung, die ich getestet habe. Und es fühlt sich deutlich hochwertiger an als das F6 Pro aus dem vergangenen Jahr. Mein einziger Kritikpunkt an dieser Farbe ist, dass sie ein wahrer Magnet für Fingerabdrücke und Staub ist. Es wird dadurch schwer, Ihr Gerät wie neu aussehen zu lassen, es sei denn, Sie verwenden eine Hülle. Doch dies würde den Sinn eines so interessanten Designs zunichtemachen. Das runde Kameramodul erinnert ebenfalls an Flaggschiff-Geräte, und das Smartphone liegt unglaublich gut in der Hand. Das Modul befindet sich in der oberen Ecke des Geräts und nicht in der Mitte, was leicht an das iPhone erinnert. Doch genau dieses Kameramodul ist ebenfalls ein Magnet für Staub und Fussel. Connor Jewiss / Foundry Auf der Rückseite befindet sich ein ziemlich großes Poco-Logo, unter dem sich alle regulatorischen Hinweise befinden. Das ist kein Mangel, aber es ist etwas, das man beachten sollte. Denn dadurch wirkt das untere Drittel des Smartphones wie eine Werbeanzeige. Mit 206 Gramm und einer Dicke von 8,12 Millimetern ist das Smartphone gut ausbalanciert. Dazu kommt die IP68-Zertifizierung. Endlich ist ein Poco-Smartphone wasser- und staubdicht! Das ist etwas, was ich mir schon lange gewünscht habe, denn immer mehr Mittelklassegeräte erfüllen diese Schutzklasse. Das allein ist schon ein großes Upgrade und stellt das F7 Pro in direkten Wettbewerb mit weitaus teureren Mittelklasse-Smartphones, darunter das F7 Ultra. Das Poco F7 Pro setzt in diesem Jahr auf eine raffiniertere Ästhetik, die hochwertiges Design mit Zweckmäßigkeit verbindet. Auf der Vorderseite schützt Gorilla Glass 7i das 6,67-Zoll-Display, während Poco darunter einen Ultraschall-Fingerabdrucksensor verbaut hat. Er ist ein echtes Upgrade gegenüber den optischen Fingerabdrucksensoren vieler Konkurrenten. Er ist schnell, genau und funktioniert auch mit nassen oder fettigen Fingern. Rund um das Gehäuse finden Sie außerdem Stereolautsprecher, einen IR-Sender, Dual-SIM-Unterstützung und eine Haptik, die sich sehr hochwertig anfühlt – etwas, was man von Handys in dieser Preisklasse normalerweise nicht behaupten kann. Bildschirm & Lautsprecher Atemberaubendes 2K Flow AMOLED-Display mit 1.440p-Auflösung 120-Hertz-Bildwiederholfrequenz mit Dolby Vision und HDR10 Die Helligkeit ist in hellen Umgebungen enttäuschend Der Bildschirm des Poco F7 Pro ist für seine Klasse außergewöhnlich. Sie erhalten ein 6,67 Zoll großes AMOLED-Display mit einer scharfen Auflösung von 3.200 × 1.440 Pixeln, einer Bildwiederholfrequenz von 120 Hertz und Unterstützung für Dolby Vision und HDR10. Die Farben sind akkurat und die Bilder sehen meistens lebendig und scharf aus, vor allem, wenn Sie sich HDR-Inhalte ansehen. Connor Jewiss / Foundry Allerdings ist dieser Bildschirm bei Weitem nicht so hell, wie ich es erwartet hätte. Schauen Sie sich einfach das Bild oben an – Sie können sehen, wie schwach das Display ist, wenn Sie es im Freien im hellen Sonnenlicht verwenden. Mittelklasse-Smartphones sind nie so hell wie Flaggschiffe, aber beim Poco F7 Pro scheint dies besonders auffällig zu sein. Das ist enttäuschend, wenn man bedenkt, dass Pocos neuestes Modell über eine Technologie zur zirkularen Polarisation verfügt, die das natürliche Licht nachahmt und so für mehr Sehkomfort sorgt. Außerdem gibt es eine 3.840 Hertz PWM-Dimmung und Zertifizierungen für geringes blaues Licht und eine flimmerfreie Nutzung. Wenn Sie viel Zeit mit Ihrem Smartphone verbringen, ist dieser Bildschirm für die Augen angenehmer als die meisten anderen. Der Bildschirm des Poco F7 Pro ist für seine Klasse außergewöhnlich Der Klang ist genau so, wie Sie es von einem Mittelklasse-Smartphone erwarten würden. Die Stereolautsprecher sind passabel, wenn Sie Inhalte laut wiedergeben möchten. Aber ich würde Ihnen empfehlen, einen Kopfhörer zu verwenden, wenn Sie sich Filme anschauen oder Musik hören möchten. Die Lautsprecher des F7 Pro klingen dennoch weniger blechern als bei anderen Mittelklasse-Smartphones, die ich getestet habe. Es gibt keine Buchse für Kopfhörer, aber das haben Sie wahrscheinlich auch nicht erwartet. Spezifikationen & Leistung Snapdragon 8 Gen 3 ist auch im Jahr 2025 noch sehr schnell Multitasking funktioniert sehr flüssig Das Gerät bietet eine gute Spielleistung Die Entscheidung von Poco, den Snapdragon 8 Gen 3 aus dem letzten Jahr und nicht den neueren 8 Elite zu verwenden, ist klug. Sie macht es möglich, dieses Gerät unter 500 Euro anzubieten. Aber seien Sie unbesorgt – dieser Chipsatz ist immer noch ein absolutes Kraftpaket und effizienter als viele neue Mittelklasse-Chipsätze. Connor Jewiss / Foundry Im Geekbench 6 erzielt das F7 Pro einen beeindruckenden Wert von 5.605 im Multi-Core-Bereich – auf Augenhöhe mit dem Galaxy S23 Ultra. Das zeigt, wie viel Leistung Sie aus Pocos neuestem Mittelklassegerät herausquetschen können. Diese Zahl ist gleichzeitig viel höher als die Ergebnisse der Pixel 9-Serie mit Tensor G4. Bei der täglichen Nutzung dieses Smartphones erwarten Sie keine Verzögerungen oder Verlangsamungen, etwas, das ich von anderen Mittelklassegeräten kleinerer Marken eigentlich immer erwarte. Das Poco schafft es hingegen, schnell und einfach zwischen Apps zu wechseln oder ressourcenintensive Aufgaben wie Videoaufnahmen verzögerungsfrei auszuführen. Allerdings kann sich das Smartphone dabei erwärmen, wenn Sie seine Leistung voll ausschöpfen. In Benchmark-Tests habe ich beobachtet, dass sich das Gerät dann sehr warm anfühlt. Das passiert zwar nicht im täglichen Gebrauch und Sie werden das Poco F7 Pro wahrscheinlich nicht häufig ausreizen, aber es ist dennoch zu beachten. Die Entscheidung von Poco, den Snapdragon 8 Gen 3 aus dem letzten Jahr und nicht den neueren 8 Elite zu verwenden, ist klug. Sie macht es möglich, dieses Gerät unter 500 Euro anzubieten. Die Spielleistung ist ebenfalls ziemlich gut. Poco gibt an, dass “Genshin Impact” dank der “WildBoost Optimization 4.0” und dem “IceLoop”-Flüssigkeitskühlsystem mit 90 Bildern pro Sekunde und anhaltend flüssig laufen soll. Obwohl ich kein großer Gamer bin, konnte ich diese Ergebnisse nur reproduzieren, wenn ich die Qualität herunterschraubte. Bei höheren Auflösungen kommt es, wie zu erwarten, zu Verzögerungen. Einfachere Spiele laufen hingegen mit Leichtigkeit, obwohl das Smartphone nach einer Weile recht warm wird. Die Latenz bei Berührungen ist beeindruckend niedrig, und die neue “Smart Frame Rate” sorgt dafür, dass auch bei anspruchsvolleren Titeln alles flüssig läuft. Der Speicher ist mit UFS 4.1 angebunden – der schnellste verfügbare Standard – und die Zugriffsgeschwindigkeiten des F7 Pro übertreffen sogar einige teurere Modelle wie das Galaxy S24 aus dem letzten Jahr. Die RAM-Ausstattung ist mit 12 Gigabyte LPDDR5X ebenfalls großartig, und obwohl es keine Unterstützung für Micro-SD-Erweiterung gibt, bedeutet die Option mit 256 oder 512 Gigabyte internem Speicher, dass nur wenige Menschen eine solche benötigen würden. Poco bietet auch weiterhin seinen hervorragenden IR-Blaster, Stereo-Lautsprecher, NFC, Wi-Fi 7 und sogar Dual-Frequenz-GPS. Poco F7 Pro Benchmarks Kameras 50-Megapixel-Hauptsensor mit OIS Liefert solide HDR- und Low-Light-Leistung 8-Megapixel-Ultraweitwinkel-Kamera eher mittelmäßig Das Kamera-Set-up des F7 Pro ist einfach, aber effektiv: eine 50-Megapixel-Hauptkamera mit OIS, die den gleichen Light Fusion 800-Sensor verwendet, den wir schon in einigen Xiaomi-Flaggschiffen gesehen haben, gepaart mit einer 8-Megapixel-Ultraweitwinkel- und einer 20-Megapixel-Selfie-Kamera. Connor Jewiss / Foundry Die Fotos der Hauptkamera sind scharf, lebendig und gut belichtet, insbesondere bei Tageslicht. Der Dynamikbereich ist ausgezeichnet, mit guter Kontrolle der Lichter und tiefen Schatten. Die Farbwiedergabe ist gut abgestimmt, mit natürlich wirkenden Tönen. Ich war tatsächlich überrascht, wie scharf die Bilder sind, und sie behalten sogar viele Details, wenn Sie anfangen zu zoomen. Wenn Sie die Fotos mit der 2x-Zoom-Option aufnehmen, sehen sie etwas weniger scharf aus. Das ist besonders auffällig, wenn Sie versuchen, weiter in das Foto hineinzuzoomen. Das liegt daran, dass es sich um einen digitalen Zoom handelt – das F7 Pro verfügt nicht über ein Teleobjektiv. Obwohl ich bei diesem mittleren Preis nicht unbedingt ein Tele erwarten würde, wäre es eine willkommene Ergänzung – und vielleicht nützlicher als der Ultraweitwinkel-Sensor, der stattdessen verbaut wurde. Auch die Nachtaufnahmen sind dank KI-unterstütztem HDR und computergestützter Fotografie erstaunlich gut. Die Bilder bleiben trotz der schlechten Lichtverhältnisse ziemlich scharf und detailliert. Auch die Farbgenauigkeit ist ziemlich gut – die Bildverarbeitung kompensiert nicht übermäßig. Eine Funktion, die mir gut gefallen hat, ist, dass das Smartphone automatisch den Nachtmodus aktiviert, wenn Sie im Dunkeln fotografieren. Das klingt zwar selbstverständlich, aber die meisten Mittelklasse-Handys, die ich getestet habe, tun dies nicht. Außerdem erhalten Sie einige clevere Fotofunktionen wie “UltraSnap”, das bis zu 150 Bilder in schneller Folge aufnimmt, und den “AI Creativity Assistant” für die Bearbeitung und Retusche. Die Videoqualität erreicht in 4K-Auflösung 60 Bilder pro Sekunde und bietet eine gute Stabilisierung, obwohl die Aufnahmen bei schlechten Lichtverhältnissen verrauscht sein können. Connor Jewiss/Foundry Die Ultraweitwinkel-Kamera fühlt sich jedoch wie ein nachträglicher Einfall an. Bei Tageslicht sind die Ergebnisse noch annehmbar, aber bei schwächerem Licht werden die Fotos schnell verrauscht, sodass der Qualitätsunterschied zwischen dem Haupt- und dem Zweitobjektiv deutlich wird. Da dies die Kameraoption ist, die am seltensten benutzt wird, verstehe ich, warum sich Poco dazu entschieden hat. Aber ein hochwertigerer Sensor oder sogar ein Teleobjektiv wären besser gewesen. Was die Selfie-Kamera angeht, so ist diese gut, auch wenn die Porträtkantenerkennung bislang nicht optimal funktioniert. Alle Selfie-Aufnahmen, die Sie für soziale Medien machen, sind mehr als gut genug, und das gilt auch für Videos, die Sie aufnehmen. Der Porträtmodus funktioniert zuverlässiger, wenn Sie die rückwärtige Kamera verwenden, obwohl die Kantenerkennung weiterhin nicht perfekt ist – ich vermute, dass dies an der Bildverarbeitung von Poco liegt. Die Fotos der Hauptkamera sind scharf, lebendig und gut belichtet – besonders bei Tageslicht Alles in allem ist die Kamera des F7 Pro nicht bahnbrechend, aber sie beherrscht die Grundlagen und nutzt die Intelligenz der Software, um mehr aus der Hardware herauszuholen. Das ist bei einem Mittelklasse-Smartphone nicht immer der Fall, also ein großes Lob an Poco dafür. Das Smartphone ist kein Konkurrent für das Pixel 9a, was die reine Bildqualität angeht, aber es ist immer noch mehr als gut genug für soziale Medien und alltägliche Aufnahmen. Akkulaufzeit & Aufladen Der 6.000-Milliamperestunden-Akku hält locker einen ganzen Tag durch 90 Watt HyperCharge füllt den Akku in 37 Minuten von 0 auf 100 Prozent auf Intelligentes KI-Akku-Management verlängert die Langlebigkeit Die Akkulaufzeit ist ein weiterer großer Pluspunkt des Poco F7 Pro. Mit einer 6.000-Milliamperestunden-Zelle hält dieses Mittelklasse-Smartphone meist mehr als einen Tag durch, selbst bei intensiver Nutzung. Ich habe dieses Gerät einen Tag lang auf Reisen benutzt – Videos ansehen, Musik abspielen, Wegbeschreibung und die üblichen Aufgaben – und es war am Ende des Tages immer noch nicht vollkommen leer. Im Flugzeugmodus hat das Smartphone mehr als eine Woche mit minimaler Nutzung überstanden. Das liegt teilweise an der Effizienz des Snapdragon 8 Gen 3, aber auch an der KI-gesteuerten Energieverwaltung von HyperOS. Connor Jewiss / Foundry An einem typischen Tag mit gemischter Nutzung – Musik hören, 5G, Videoanrufe und Hintergrundsynchronisation – hatte ich am Ende nur noch etwas mehr als 35 Prozent Akku übrig. Das ist beeindruckend, primär in Anbetracht des hochauflösenden 2K-Panels. Das Aufladen klappt ebenfalls gut. Poco gibt an, dass das mitgelieferte 90-Watt-HyperCharge-Netzteil das Smartphone in etwa 37 Minuten vollständig aufladen kann, wobei eine 50-prozentige Aufladung nur 15 Minuten dauert. In meinen Tests hat das Smartphone fast identische Ergebnisse erzielt und nur ein paar Minuten länger gebraucht. Wenn Sie ein normales 50-Watt-Netzteil verwenden, das Sie vielleicht zu Hause haben, dauert der Ladevorgang etwas länger, nämlich 1 Stunde und 15 Minuten. Auch das Wärmemanagement ist gut, sodass das Smartphone beim Laden nicht überhitzt. Die Akkulaufzeit ist ein weiterer großer Pluspunkt des Poco F7 Pro Diese Art von Akku- und Ladefunktionen würde man sonst eher von viel teureren Flaggschiffen erwarten. Dies ist damit ein weiterer Bereich, in dem Poco den Nutzern Flaggschiff-Funktionen ohne das dafür normalerweise fällige Preisschild anbietet. Software & Eigenschaften Läuft mit Xiaomi HyperOS 2 (basierend auf Android 15) Beinhaltet Gemini AI und HyperAI Integrationen Ein wenig Bloatware im Lieferumfang, aber das meiste davon ist entfernbar Das Poco F7 Pro wird mit HyperOS 2 ausgeliefert, Xiaomis neuester Systemsoftware, die auf Android 15 basiert. HyperOS sorgt für eine verfeinerte Benutzeroberfläche mit höherer Animationsgeschwindigkeit, saubererem Schriftbild und etwas weniger Durcheinander, obwohl es sich immer noch deutlich nach einem Xiaomi-Smartphone anfühlt. Mir gefällt dieses Design, auch wenn man durchaus erkennen kann, wo sich die Marke von Apples iOS hat inspirieren lassen. Connor Jewiss / Foundry Sie finden eine Handvoll vorinstallierter Apps, darunter ein paar Spiele und Xiaomis eigene App-Suite. Aber die meisten davon können deinstalliert werden. Das ist bei einem Mittelklasse-Smartphone zu erwarten. Doch das F7 Pro hat weniger Bloatware an Bord als andere Geräte, die ich getestet habe. Trotzdem ist es für mich ein massives Problem, das erwähnt werden sollte. Poco verlässt sich in diesem Jahr stark auf KI. Sowohl Google Gemini als auch HyperAI sind in System-Apps wie Notizen, Kalender und die Kamera integriert. KI-Zusammenfassungen, Transkription und Tools zur Bildverbesserung sind ebenfalls bereits enthalten. Sie erhalten diese Funktionen auf den meisten Handys mit Android 15, aber es ist schön, die tiefere Integration von HyperAI zu sehen. HyperOS sorgt für eine verfeinerte Benutzeroberfläche mit höherer Animationsgeschwindigkeit, saubererem Schriftbild und etwas weniger Durcheinander Das einzige wirkliche Fragezeichen ist die Softwareunterstützung. Xiaomi hat sich zu drei Android-Updates und vier Jahren Sicherheitspatches verpflichtet. Das ist anständig, kann aber nicht ganz mit Samsung oder Google mithalten, die in dieser Preisklasse sechs oder sieben Jahre bieten. Dennoch ist es eine Verbesserung gegenüber den Vorjahren. Preis & Verfügbarkeit Das Poco F7 Pro können Sie ab sofort kaufen. Bei der Markteinführung wurden die folgenden Preise aufgerufen, aber es gibt oft Rabatte: 12 Gigabyte RAM und 256 Gigabyte Speicher: 499 Euro 12 Gigabyte RAM und 512 Gigabyte Speicherplatz: 549 Euro Zur Auswahl stehen die Farben Schwarz, Silber und Blau. Das ist nicht unbedingt die aufregendste Auswahl, aber es gibt immer noch eine gewisse Flexibilität, um eine Option zu finden, die Ihnen gefällt. Sie können das Poco F7 Pro direkt im Xiaomi-Store kaufen. Auch bei Amazon wird das Smartphone zum gleichen Preis angeboten. Connor Jewiss / Foundry Mit einem Preis von 499 Euro liegt das Poco F7 Pro Kopf an Kopf mit dem Google Pixel 9a und dem Samsung Galaxy A56 (beide ebenfalls 499 Euro). Aber es gibt noch viele andere Mittelklasse-Alternativen, darunter das Nothing Phone (3a), das mit 329 Euro einen viel günstigeren Startpreis hat. Sollten Sie das Poco F7 Pro kaufen? Das Poco F7 Pro ist ein Flaggschiff-Killer im wahrsten Sinne des Wortes. Es versucht nicht, alles zu können – aber das, was es kann, macht es gut … meistens. Der Snapdragon 8 Gen 3 bietet eine exzellente Leistung für den Preis, das 2K-AMOLED-Display ist einfach wunderschön und die Akkulaufzeit ist erstklassig. Wenn Sie dann noch ein 90 Watt-Ladegerät, IP68-Wasser- und Staubschutz und einige intelligente KI-Funktionen hinzufügen, erhalten Sie eines der am besten abgerundeten Smartphones in diesem Marktsegment. Sicher, die Ultraweitwinkel-Kamera ist einfach gehalten, es gibt viel Bloatware, die entfernt werden muss, und ich würde mir ein helleres Display wünschen, das Sie auch im Freien verwenden können. Aber das sind nur Kleinigkeiten angesichts dessen, was Sie insgesamt für Ihr Geld bekommen. Mit einem so aggressiven Preis ist das F7 Pro meiner Meinung nach eines der besten Angebote des Jahres 2025. Wenn Sie im Alltag mehr Wert auf Geschwindigkeit, Akku und Optik als auf hochmoderne Kamerafunktionen legen, dann ist das Poco F7 Pro das richtige Handy für Sie. Prüfen Sie nur vor dem Kauf, ob das teurere Poco F7 Ultra nicht besser zu Ihnen passen würde. Spezifikationen HyperOS 2, basierend auf Android 15 6,67-Zoll, 1.440 x 3.200, OLED, 120-Hertz-Display Ultraschall-Fingerabdruckleser unter dem Display Qualcomm Snapdragon 8 Gen 3 12-Gigabyte-RAM 256 Gigabyte / 512 Gigabyte Speicher Kameras: 50-Megapixel-Hauptsensor 8-Megapixel-Ultraweitwinkel 20-Megapixel-Selfie-Kamera Stereo-Lautsprecher Dual-SIM Wi-Fi 802.11 a/b/g/n/ac/6e/7 Bluetooth 5.4 6.000 Milliamperestunden Akku 90 Watt kabelgebundenes Laden 160,3 × 75 × 8,1 Millimeter IP68 zertifiziert 206 Gramm Farben: Schwarz, Silber, Blau (PC-Welt) 

Poco F7 Pro: Gelungenes Mittelklasse-Smartphone im Test​ Connor Jewiss/Foundry

Auf einen Blick

Pro

Flaggschiff-Chip Snapdragon 8 Gen 3

Beeindruckendes Display

Zuverlässige Akkulaufzeit

Hochwertiges, IP68-zertifiziertes Gehäuse

Kontra

Ultraweitwinkel-Kamera ist gerade noch okay

Das Display ist nicht hell genug

Vorinstallierte Bloatware

Fazit

Mit dem Snapdragon 8 Gen 3, einem atemberaubenden 2K-AMOLED-Display, IP68-Wasser- und Staubresistenz und blitzschnellem Aufladen bietet das Poco F7 Pro echte Flaggschiff-Qualitäten. Dabei kostet das Smartphone nur die Hälfte dessen, was sonst für High-End-Modelle aufgerufen wird. Es gibt Kompromisse, darunter Schwächen bei der Kamera, dem Display und zu viel Bloatware. Aber es ist schwer, ein Smartphone zu finden, das so viel Leistung für weniger Geld bietet.

Das Poco F7 Pro bringt echte Flaggschiff-Power in die Smartphone-Mittelklasse. Dazu kommen elegantes Design, ein 2K-Display und einer der effizientesten Chipsätze der letzten Zeit.

Wenn Sie sich die Leistung eines Flaggschiffs, eine exzellente Akkulaufzeit und ein brillantes Display wünschen, ohne Ihr Budget zu sprengen, dann ist das Poco F7 Pro in jeder Hinsicht das Richtige für Sie.

Das Smartphone ist dennoch nicht perfekt. Die Ultraweitwinkel-Kamera ist nur durchschnittlich, das Display nicht hell genug und es gibt kein kabelloses Laden. Aber diese Kompromisse sind leicht zu verzeihen, wenn man bedenkt, was Sie für den Preis bekommen.

Design & Verarbeitung

Schlanke Konstruktion aus Glas und Metall

IP68 Wasser- und Staubschutz

Ins Display integrierter Ultraschall-Fingerabdruckscanner

Das Poco F7 Pro setzt in diesem Jahr auf eine raffiniertere Ästhetik, die hochwertiges Design mit Zweckmäßigkeit verbindet. Wo ältere Poco-Geräte noch an Gamer-Smartphones erinnerten, geht das F7 Pro in eine erwachsene Richtung. Dieses Mittelklasse-Smartphone bietet symmetrische Rundungen, einen Kontrast aus Matt und Glanz auf der Rückseite und einen stabilen Aluminiumrahmen.

Connor Jewiss / Foundry

Das ergibt einen dezenten Look, besonders in der silbernen Ausführung, die ich getestet habe. Und es fühlt sich deutlich hochwertiger an als das F6 Pro aus dem vergangenen Jahr. Mein einziger Kritikpunkt an dieser Farbe ist, dass sie ein wahrer Magnet für Fingerabdrücke und Staub ist. Es wird dadurch schwer, Ihr Gerät wie neu aussehen zu lassen, es sei denn, Sie verwenden eine Hülle. Doch dies würde den Sinn eines so interessanten Designs zunichtemachen.

Das runde Kameramodul erinnert ebenfalls an Flaggschiff-Geräte, und das Smartphone liegt unglaublich gut in der Hand. Das Modul befindet sich in der oberen Ecke des Geräts und nicht in der Mitte, was leicht an das iPhone erinnert. Doch genau dieses Kameramodul ist ebenfalls ein Magnet für Staub und Fussel.

Connor Jewiss / Foundry

Auf der Rückseite befindet sich ein ziemlich großes Poco-Logo, unter dem sich alle regulatorischen Hinweise befinden. Das ist kein Mangel, aber es ist etwas, das man beachten sollte. Denn dadurch wirkt das untere Drittel des Smartphones wie eine Werbeanzeige.

Mit 206 Gramm und einer Dicke von 8,12 Millimetern ist das Smartphone gut ausbalanciert. Dazu kommt die IP68-Zertifizierung. Endlich ist ein Poco-Smartphone wasser- und staubdicht! Das ist etwas, was ich mir schon lange gewünscht habe, denn immer mehr Mittelklassegeräte erfüllen diese Schutzklasse. Das allein ist schon ein großes Upgrade und stellt das F7 Pro in direkten Wettbewerb mit weitaus teureren Mittelklasse-Smartphones, darunter das F7 Ultra.

Das Poco F7 Pro setzt in diesem Jahr auf eine raffiniertere Ästhetik, die hochwertiges Design mit Zweckmäßigkeit verbindet.

Auf der Vorderseite schützt Gorilla Glass 7i das 6,67-Zoll-Display, während Poco darunter einen Ultraschall-Fingerabdrucksensor verbaut hat. Er ist ein echtes Upgrade gegenüber den optischen Fingerabdrucksensoren vieler Konkurrenten. Er ist schnell, genau und funktioniert auch mit nassen oder fettigen Fingern.

Rund um das Gehäuse finden Sie außerdem Stereolautsprecher, einen IR-Sender, Dual-SIM-Unterstützung und eine Haptik, die sich sehr hochwertig anfühlt – etwas, was man von Handys in dieser Preisklasse normalerweise nicht behaupten kann.

Bildschirm & Lautsprecher

Atemberaubendes 2K Flow AMOLED-Display mit 1.440p-Auflösung

120-Hertz-Bildwiederholfrequenz mit Dolby Vision und HDR10

Die Helligkeit ist in hellen Umgebungen enttäuschend

Der Bildschirm des Poco F7 Pro ist für seine Klasse außergewöhnlich. Sie erhalten ein 6,67 Zoll großes AMOLED-Display mit einer scharfen Auflösung von 3.200 × 1.440 Pixeln, einer Bildwiederholfrequenz von 120 Hertz und Unterstützung für Dolby Vision und HDR10. Die Farben sind akkurat und die Bilder sehen meistens lebendig und scharf aus, vor allem, wenn Sie sich HDR-Inhalte ansehen.

Connor Jewiss / Foundry

Allerdings ist dieser Bildschirm bei Weitem nicht so hell, wie ich es erwartet hätte. Schauen Sie sich einfach das Bild oben an – Sie können sehen, wie schwach das Display ist, wenn Sie es im Freien im hellen Sonnenlicht verwenden.

Mittelklasse-Smartphones sind nie so hell wie Flaggschiffe, aber beim Poco F7 Pro scheint dies besonders auffällig zu sein. Das ist enttäuschend, wenn man bedenkt, dass Pocos neuestes Modell über eine Technologie zur zirkularen Polarisation verfügt, die das natürliche Licht nachahmt und so für mehr Sehkomfort sorgt.

Außerdem gibt es eine 3.840 Hertz PWM-Dimmung und Zertifizierungen für geringes blaues Licht und eine flimmerfreie Nutzung. Wenn Sie viel Zeit mit Ihrem Smartphone verbringen, ist dieser Bildschirm für die Augen angenehmer als die meisten anderen.

Der Bildschirm des Poco F7 Pro ist für seine Klasse außergewöhnlich

Der Klang ist genau so, wie Sie es von einem Mittelklasse-Smartphone erwarten würden. Die Stereolautsprecher sind passabel, wenn Sie Inhalte laut wiedergeben möchten. Aber ich würde Ihnen empfehlen, einen Kopfhörer zu verwenden, wenn Sie sich Filme anschauen oder Musik hören möchten.

Die Lautsprecher des F7 Pro klingen dennoch weniger blechern als bei anderen Mittelklasse-Smartphones, die ich getestet habe. Es gibt keine Buchse für Kopfhörer, aber das haben Sie wahrscheinlich auch nicht erwartet.

Spezifikationen & Leistung

Snapdragon 8 Gen 3 ist auch im Jahr 2025 noch sehr schnell

Multitasking funktioniert sehr flüssig

Das Gerät bietet eine gute Spielleistung

Die Entscheidung von Poco, den Snapdragon 8 Gen 3 aus dem letzten Jahr und nicht den neueren 8 Elite zu verwenden, ist klug. Sie macht es möglich, dieses Gerät unter 500 Euro anzubieten.

Aber seien Sie unbesorgt – dieser Chipsatz ist immer noch ein absolutes Kraftpaket und effizienter als viele neue Mittelklasse-Chipsätze.

Connor Jewiss / Foundry

Im Geekbench 6 erzielt das F7 Pro einen beeindruckenden Wert von 5.605 im Multi-Core-Bereich – auf Augenhöhe mit dem Galaxy S23 Ultra. Das zeigt, wie viel Leistung Sie aus Pocos neuestem Mittelklassegerät herausquetschen können. Diese Zahl ist gleichzeitig viel höher als die Ergebnisse der Pixel 9-Serie mit Tensor G4.

Bei der täglichen Nutzung dieses Smartphones erwarten Sie keine Verzögerungen oder Verlangsamungen, etwas, das ich von anderen Mittelklassegeräten kleinerer Marken eigentlich immer erwarte. Das Poco schafft es hingegen, schnell und einfach zwischen Apps zu wechseln oder ressourcenintensive Aufgaben wie Videoaufnahmen verzögerungsfrei auszuführen.

Allerdings kann sich das Smartphone dabei erwärmen, wenn Sie seine Leistung voll ausschöpfen. In Benchmark-Tests habe ich beobachtet, dass sich das Gerät dann sehr warm anfühlt. Das passiert zwar nicht im täglichen Gebrauch und Sie werden das Poco F7 Pro wahrscheinlich nicht häufig ausreizen, aber es ist dennoch zu beachten.

Die Entscheidung von Poco, den Snapdragon 8 Gen 3 aus dem letzten Jahr und nicht den neueren 8 Elite zu verwenden, ist klug. Sie macht es möglich, dieses Gerät unter 500 Euro anzubieten.

Die Spielleistung ist ebenfalls ziemlich gut. Poco gibt an, dass “Genshin Impact” dank der “WildBoost Optimization 4.0” und dem “IceLoop”-Flüssigkeitskühlsystem mit 90 Bildern pro Sekunde und anhaltend flüssig laufen soll.

Obwohl ich kein großer Gamer bin, konnte ich diese Ergebnisse nur reproduzieren, wenn ich die Qualität herunterschraubte. Bei höheren Auflösungen kommt es, wie zu erwarten, zu Verzögerungen. Einfachere Spiele laufen hingegen mit Leichtigkeit, obwohl das Smartphone nach einer Weile recht warm wird. Die Latenz bei Berührungen ist beeindruckend niedrig, und die neue “Smart Frame Rate” sorgt dafür, dass auch bei anspruchsvolleren Titeln alles flüssig läuft.

Der Speicher ist mit UFS 4.1 angebunden – der schnellste verfügbare Standard – und die Zugriffsgeschwindigkeiten des F7 Pro übertreffen sogar einige teurere Modelle wie das Galaxy S24 aus dem letzten Jahr.

Die RAM-Ausstattung ist mit 12 Gigabyte LPDDR5X ebenfalls großartig, und obwohl es keine Unterstützung für Micro-SD-Erweiterung gibt, bedeutet die Option mit 256 oder 512 Gigabyte internem Speicher, dass nur wenige Menschen eine solche benötigen würden.

Poco bietet auch weiterhin seinen hervorragenden IR-Blaster, Stereo-Lautsprecher, NFC, Wi-Fi 7 und sogar Dual-Frequenz-GPS.

Poco F7 Pro Benchmarks

Kameras

50-Megapixel-Hauptsensor mit OIS

Liefert solide HDR- und Low-Light-Leistung

8-Megapixel-Ultraweitwinkel-Kamera eher mittelmäßig

Das Kamera-Set-up des F7 Pro ist einfach, aber effektiv: eine 50-Megapixel-Hauptkamera mit OIS, die den gleichen Light Fusion 800-Sensor verwendet, den wir schon in einigen Xiaomi-Flaggschiffen gesehen haben, gepaart mit einer 8-Megapixel-Ultraweitwinkel- und einer 20-Megapixel-Selfie-Kamera.

Connor Jewiss / Foundry

Die Fotos der Hauptkamera sind scharf, lebendig und gut belichtet, insbesondere bei Tageslicht. Der Dynamikbereich ist ausgezeichnet, mit guter Kontrolle der Lichter und tiefen Schatten.

Die Farbwiedergabe ist gut abgestimmt, mit natürlich wirkenden Tönen. Ich war tatsächlich überrascht, wie scharf die Bilder sind, und sie behalten sogar viele Details, wenn Sie anfangen zu zoomen.

Wenn Sie die Fotos mit der 2x-Zoom-Option aufnehmen, sehen sie etwas weniger scharf aus. Das ist besonders auffällig, wenn Sie versuchen, weiter in das Foto hineinzuzoomen. Das liegt daran, dass es sich um einen digitalen Zoom handelt – das F7 Pro verfügt nicht über ein Teleobjektiv. Obwohl ich bei diesem mittleren Preis nicht unbedingt ein Tele erwarten würde, wäre es eine willkommene Ergänzung – und vielleicht nützlicher als der Ultraweitwinkel-Sensor, der stattdessen verbaut wurde.

Auch die Nachtaufnahmen sind dank KI-unterstütztem HDR und computergestützter Fotografie erstaunlich gut. Die Bilder bleiben trotz der schlechten Lichtverhältnisse ziemlich scharf und detailliert.

Auch die Farbgenauigkeit ist ziemlich gut – die Bildverarbeitung kompensiert nicht übermäßig. Eine Funktion, die mir gut gefallen hat, ist, dass das Smartphone automatisch den Nachtmodus aktiviert, wenn Sie im Dunkeln fotografieren. Das klingt zwar selbstverständlich, aber die meisten Mittelklasse-Handys, die ich getestet habe, tun dies nicht.

Außerdem erhalten Sie einige clevere Fotofunktionen wie “UltraSnap”, das bis zu 150 Bilder in schneller Folge aufnimmt, und den “AI Creativity Assistant” für die Bearbeitung und Retusche.

Die Videoqualität erreicht in 4K-Auflösung 60 Bilder pro Sekunde und bietet eine gute Stabilisierung, obwohl die Aufnahmen bei schlechten Lichtverhältnissen verrauscht sein können.

Connor Jewiss/Foundry

Die Ultraweitwinkel-Kamera fühlt sich jedoch wie ein nachträglicher Einfall an. Bei Tageslicht sind die Ergebnisse noch annehmbar, aber bei schwächerem Licht werden die Fotos schnell verrauscht, sodass der Qualitätsunterschied zwischen dem Haupt- und dem Zweitobjektiv deutlich wird. Da dies die Kameraoption ist, die am seltensten benutzt wird, verstehe ich, warum sich Poco dazu entschieden hat. Aber ein hochwertigerer Sensor oder sogar ein Teleobjektiv wären besser gewesen.

Was die Selfie-Kamera angeht, so ist diese gut, auch wenn die Porträtkantenerkennung bislang nicht optimal funktioniert. Alle Selfie-Aufnahmen, die Sie für soziale Medien machen, sind mehr als gut genug, und das gilt auch für Videos, die Sie aufnehmen. Der Porträtmodus funktioniert zuverlässiger, wenn Sie die rückwärtige Kamera verwenden, obwohl die Kantenerkennung weiterhin nicht perfekt ist – ich vermute, dass dies an der Bildverarbeitung von Poco liegt.

Die Fotos der Hauptkamera sind scharf, lebendig und gut belichtet – besonders bei Tageslicht

Alles in allem ist die Kamera des F7 Pro nicht bahnbrechend, aber sie beherrscht die Grundlagen und nutzt die Intelligenz der Software, um mehr aus der Hardware herauszuholen. Das ist bei einem Mittelklasse-Smartphone nicht immer der Fall, also ein großes Lob an Poco dafür. Das Smartphone ist kein Konkurrent für das Pixel 9a, was die reine Bildqualität angeht, aber es ist immer noch mehr als gut genug für soziale Medien und alltägliche Aufnahmen.

Akkulaufzeit & Aufladen

Der 6.000-Milliamperestunden-Akku hält locker einen ganzen Tag durch

90 Watt HyperCharge füllt den Akku in 37 Minuten von 0 auf 100 Prozent auf

Intelligentes KI-Akku-Management verlängert die Langlebigkeit

Die Akkulaufzeit ist ein weiterer großer Pluspunkt des Poco F7 Pro.

Mit einer 6.000-Milliamperestunden-Zelle hält dieses Mittelklasse-Smartphone meist mehr als einen Tag durch, selbst bei intensiver Nutzung. Ich habe dieses Gerät einen Tag lang auf Reisen benutzt – Videos ansehen, Musik abspielen, Wegbeschreibung und die üblichen Aufgaben – und es war am Ende des Tages immer noch nicht vollkommen leer.

Im Flugzeugmodus hat das Smartphone mehr als eine Woche mit minimaler Nutzung überstanden. Das liegt teilweise an der Effizienz des Snapdragon 8 Gen 3, aber auch an der KI-gesteuerten Energieverwaltung von HyperOS.

Connor Jewiss / Foundry

An einem typischen Tag mit gemischter Nutzung – Musik hören, 5G, Videoanrufe und Hintergrundsynchronisation – hatte ich am Ende nur noch etwas mehr als 35 Prozent Akku übrig. Das ist beeindruckend, primär in Anbetracht des hochauflösenden 2K-Panels.

Das Aufladen klappt ebenfalls gut. Poco gibt an, dass das mitgelieferte 90-Watt-HyperCharge-Netzteil das Smartphone in etwa 37 Minuten vollständig aufladen kann, wobei eine 50-prozentige Aufladung nur 15 Minuten dauert.

In meinen Tests hat das Smartphone fast identische Ergebnisse erzielt und nur ein paar Minuten länger gebraucht. Wenn Sie ein normales 50-Watt-Netzteil verwenden, das Sie vielleicht zu Hause haben, dauert der Ladevorgang etwas länger, nämlich 1 Stunde und 15 Minuten. Auch das Wärmemanagement ist gut, sodass das Smartphone beim Laden nicht überhitzt.

Die Akkulaufzeit ist ein weiterer großer Pluspunkt des Poco F7 Pro

Diese Art von Akku- und Ladefunktionen würde man sonst eher von viel teureren Flaggschiffen erwarten. Dies ist damit ein weiterer Bereich, in dem Poco den Nutzern Flaggschiff-Funktionen ohne das dafür normalerweise fällige Preisschild anbietet.

Software & Eigenschaften

Läuft mit Xiaomi HyperOS 2 (basierend auf Android 15)

Beinhaltet Gemini AI und HyperAI Integrationen

Ein wenig Bloatware im Lieferumfang, aber das meiste davon ist entfernbar

Das Poco F7 Pro wird mit HyperOS 2 ausgeliefert, Xiaomis neuester Systemsoftware, die auf Android 15 basiert.

HyperOS sorgt für eine verfeinerte Benutzeroberfläche mit höherer Animationsgeschwindigkeit, saubererem Schriftbild und etwas weniger Durcheinander, obwohl es sich immer noch deutlich nach einem Xiaomi-Smartphone anfühlt. Mir gefällt dieses Design, auch wenn man durchaus erkennen kann, wo sich die Marke von Apples iOS hat inspirieren lassen.

Connor Jewiss / Foundry

Sie finden eine Handvoll vorinstallierter Apps, darunter ein paar Spiele und Xiaomis eigene App-Suite. Aber die meisten davon können deinstalliert werden. Das ist bei einem Mittelklasse-Smartphone zu erwarten. Doch das F7 Pro hat weniger Bloatware an Bord als andere Geräte, die ich getestet habe. Trotzdem ist es für mich ein massives Problem, das erwähnt werden sollte.

Poco verlässt sich in diesem Jahr stark auf KI. Sowohl Google Gemini als auch HyperAI sind in System-Apps wie Notizen, Kalender und die Kamera integriert. KI-Zusammenfassungen, Transkription und Tools zur Bildverbesserung sind ebenfalls bereits enthalten. Sie erhalten diese Funktionen auf den meisten Handys mit Android 15, aber es ist schön, die tiefere Integration von HyperAI zu sehen.

HyperOS sorgt für eine verfeinerte Benutzeroberfläche mit höherer Animationsgeschwindigkeit, saubererem Schriftbild und etwas weniger Durcheinander

Das einzige wirkliche Fragezeichen ist die Softwareunterstützung. Xiaomi hat sich zu drei Android-Updates und vier Jahren Sicherheitspatches verpflichtet. Das ist anständig, kann aber nicht ganz mit Samsung oder Google mithalten, die in dieser Preisklasse sechs oder sieben Jahre bieten. Dennoch ist es eine Verbesserung gegenüber den Vorjahren.

Preis & Verfügbarkeit

Das Poco F7 Pro können Sie ab sofort kaufen. Bei der Markteinführung wurden die folgenden Preise aufgerufen, aber es gibt oft Rabatte:

12 Gigabyte RAM und 256 Gigabyte Speicher: 499 Euro

12 Gigabyte RAM und 512 Gigabyte Speicherplatz: 549 Euro

Zur Auswahl stehen die Farben Schwarz, Silber und Blau. Das ist nicht unbedingt die aufregendste Auswahl, aber es gibt immer noch eine gewisse Flexibilität, um eine Option zu finden, die Ihnen gefällt.

Sie können das Poco F7 Pro direkt im Xiaomi-Store kaufen. Auch bei Amazon wird das Smartphone zum gleichen Preis angeboten.

Connor Jewiss / Foundry

Mit einem Preis von 499 Euro liegt das Poco F7 Pro Kopf an Kopf mit dem Google Pixel 9a und dem Samsung Galaxy A56 (beide ebenfalls 499 Euro). Aber es gibt noch viele andere Mittelklasse-Alternativen, darunter das Nothing Phone (3a), das mit 329 Euro einen viel günstigeren Startpreis hat.

Sollten Sie das Poco F7 Pro kaufen?

Das Poco F7 Pro ist ein Flaggschiff-Killer im wahrsten Sinne des Wortes. Es versucht nicht, alles zu können – aber das, was es kann, macht es gut … meistens.

Der Snapdragon 8 Gen 3 bietet eine exzellente Leistung für den Preis, das 2K-AMOLED-Display ist einfach wunderschön und die Akkulaufzeit ist erstklassig. Wenn Sie dann noch ein 90 Watt-Ladegerät, IP68-Wasser- und Staubschutz und einige intelligente KI-Funktionen hinzufügen, erhalten Sie eines der am besten abgerundeten Smartphones in diesem Marktsegment.

Sicher, die Ultraweitwinkel-Kamera ist einfach gehalten, es gibt viel Bloatware, die entfernt werden muss, und ich würde mir ein helleres Display wünschen, das Sie auch im Freien verwenden können. Aber das sind nur Kleinigkeiten angesichts dessen, was Sie insgesamt für Ihr Geld bekommen. Mit einem so aggressiven Preis ist das F7 Pro meiner Meinung nach eines der besten Angebote des Jahres 2025.

Wenn Sie im Alltag mehr Wert auf Geschwindigkeit, Akku und Optik als auf hochmoderne Kamerafunktionen legen, dann ist das Poco F7 Pro das richtige Handy für Sie. Prüfen Sie nur vor dem Kauf, ob das teurere Poco F7 Ultra nicht besser zu Ihnen passen würde.

Spezifikationen

HyperOS 2, basierend auf Android 15

6,67-Zoll, 1.440 x 3.200, OLED, 120-Hertz-Display

Ultraschall-Fingerabdruckleser unter dem Display

Qualcomm Snapdragon 8 Gen 3

12-Gigabyte-RAM

256 Gigabyte / 512 Gigabyte Speicher

Kameras:

50-Megapixel-Hauptsensor

8-Megapixel-Ultraweitwinkel

20-Megapixel-Selfie-Kamera

Stereo-Lautsprecher

Dual-SIM

Wi-Fi 802.11 a/b/g/n/ac/6e/7

Bluetooth 5.4

6.000 Milliamperestunden Akku

90 Watt kabelgebundenes Laden

160,3 × 75 × 8,1 Millimeter

IP68 zertifiziert

206 Gramm

Farben: Schwarz, Silber, Blau

(PC-Welt)

Poco F7 Pro: Gelungenes Mittelklasse-Smartphone im Test​ Weiterlesen »

Motorola Moto G85 5G im Test: Gutes Handy, aber nicht Klassenbester​

Allgemein

Connor Jewiss / Foundry Auf einen Blick Pro Wunderschönes Curved-Edge-POLED-Display Schlankes und leichtes Design Zuverlässige Akkulaufzeit Beeindruckende Schnellladefunktion Kontra Mittelmäßige Kameraleistung, insbesondere bei schlechten Lichtverhältnissen Softwareunterstützung hinkt der Konkurrenz hinterher Leistung bleibt hinter ähnlich teuren Konkurrenten zurück Fazit Das Moto G85 5G punktet mit ansprechendem Design und hochwertiger Haptik, kann jedoch in puncto Leistung, Kameraqualität und Softwareunterstützung nicht vollends überzeugen. Ein solides Mittelklasse-Smartphone, aber kein Klassenbester. Das Moto G85 5G ist eines der neuesten Mittelklasse-Smartphones von Motorola (Stand: Zeitpunkt der Erstellung dieses Artikels). Mit seinem eleganten Design und dem gebogenen POLED-Display vermittelt es eine hochwertige Anmutung, die über seinen Preis hinausgeht. Das Moto G85 5G bietet eine solide Akkulaufzeit, eine reibungslose Leistung im Alltag und ein sauberes Software-Erlebnis. Die Kameraqualität ist jedoch nur mittelmäßig, in der Leistung bleibt das Moto hinter den wichtigsten Konkurrenten, und dazu kommt die enttäuschende Software-Update-Politik von Motorola. Wenn Sie mehr Wert auf Design und Displayqualität als auf reine Leistung legen, ist das Moto G85 G5 einen Blick wert. Allerdings gibt es bessere Allrounder zu einem ähnlichen Preis. Design & Verarbeitung Hochwertiges Design mit gebogenem Display Veganes Leder oder matte Kunststoffoberflächen Schlank und leicht, aber nur IP52 wasserdicht Motorola hat schon immer attraktive, erschwingliche Mobiltelefone auf den Markt gebracht. Mit dem Moto G85 5G orientiert sich Motorola am Design der Flaggschiff-Serie Edge und bietet mit 7,6 Millimetern ein ultraschlankes Profil und eine gebogene Frontscheibe, was sich in der Hand erstklassig anfühlt. Mit 172 Gramm ist es außerdem bemerkenswert leicht, wenn man die Größe des Displays und des Akkus bedenkt. Connor Jewiss / Foundry Die veganen Lederoptionen (Kobaltblau und Olivgrün) verleihen dem Gerät eine strukturierte, griffige Oberfläche. Sie werden feststellen, dass es sich nicht um Leder handelt – es fühlt sich eher wie Wildleder an. Wenn Sie eine konventionellere Oberfläche bevorzugen, bietet das Modell Urban Grey eine glatte, matte Kunststoffrückseite, die Fingerabdrücke und Flecken gut verbirgt. Ergonomisch gesehen liegt das Telefon gut in der Hand, und die sanften Kurven machen die einhändige Bedienung weniger schwierig als bei flacheren Geräten wie dem Poco X7. Die Tasten sind gut platziert, wobei die Einschalttaste gleichzeitig als schneller und zuverlässiger Fingerabdruckscanner dient. Es gibt keine Option für das Display, aber bei diesem Preisniveau würde ich auch keine erwarten. Bei der Widerstandsfähigkeit zeigt das Moto G85 5G seine Grenzen. Die IP52-Einstufung bietet Schutz gegen leichte Spritzer und Staub, aber nicht gegen Untertauchen. Das ist besser als nichts, aber Konkurrenten wie das Samsung Galaxy A36 5G bieten eine IP67-Zertifizierung. Display & Sound Beeindruckendes 6,67-Zoll-POLED-Display Glatte 120 Hertz Bildwiederholrate und ordentliche Helligkeit Laute Stereolautsprecher, aber zu wenig Bass Das 6,67-Zoll-POLED-Display des Moto G85 ist sein größtes Verkaufsargument. Gebogene Displays zu diesem Preis sind heutzutage praktisch unbekannt, und ich bin normalerweise kein Fan davon, aber Motorola hat es ausgezeichnet gemacht. Die Wölbungen sind subtil und minimieren versehentliche Berührungen, ein häufiges Problem bei früheren gebogenen Bildschirmen. Das Ergebnis ist ein Display, das viel hochwertiger aussieht, als es der Preis vermuten lässt. Connor Jewiss / Foundry Mit einer Auflösung von 2.400 × 1.080 Pixeln und einer Bildwiederholfrequenz von 120 Hertz ist das Scrollen butterweich und die Darstellung scharf. Die Farben sind lebendig und das Display bietet eine gute Kalibrierung, auch wenn manche es etwas zu kräftig finden mögen. Es gibt einen manuellen Farbbalance-Modus in den Einstellungen, wenn Sie einen natürlicheren Ton bevorzugen. Die Helligkeit erreicht bei direktem Sonnenlicht einen Spitzenwert von 1.600 Nits. Das genügt für die meisten Außenbedingungen, reicht aber nicht ganz an die Helligkeit des Panels von Konkurrenten wie dem Poco X7 heran, das über 1.800 Nits hinausgeht. Die Betrachtungswinkel sind dank der POLED-Technologie ausgezeichnet, und die Farbverschiebung bei schrägen Blickwinkeln ist minimal. Die Stereolautsprecher sind laut und liefern klaren Klang für Podcasts und gelegentliches Videoschauen. Sie sind Dolby-Atmos-zertifiziert, was ihnen eine gewisse virtuelle Surround-Tiefe verleiht, aber es fehlt ihnen an Wärme und Bass, insbesondere bei höheren Lautstärken. Es gibt keinen Kopfhöreranschluss, was enttäuschend ist, da dies bei günstigen Handys immer noch üblich ist. Spezifikationen & Leistung Snapdragon 6s Gen 3 liefert eine reibungslose Alltagsleistung Bleibt in Hinblick auf Leistung hinter Konkurrenten wie dem Poco X6 und dem Galaxy A35 zurück UFS-2.2-Speicher begrenzt die Geschwindigkeit Bei der Leistung liegt das Moto G85 5G definitiv in der Mittelklasse. Es wird vom Snapdragon 6s Gen 3 angetrieben, einem relativ neuen, aber bescheidenen 6-nm-Chipsatz mit acht Kernen (zwei Cortex-A78 und sechs Cortex-A55). Die Grafikaufgaben werden von der Adreno-619-GPU übernommen. Connor Jewiss / Foundry Bei normaler Nutzung wie dem Scrollen in sozialen Medien, dem Surfen im Internet und leichtem Multitasking hält das Moto G85 5G gut mit. Die leichtgewichtige “My UX”-Oberfläche von Motorola sorgt dafür, dass alles flott funktioniert, und die Animationen flüssig sind. Apps werden schnell geöffnet, und das Smartphone hält mit den meisten täglichen Aufgaben problemlos mit. Bei stärkerer Belastung treten jedoch Einschränkungen auf. Einfache Spiele können problemlos laufen, aber bei 3D-Spielen kann es bei mehr Details problematisch werden. Große Spiele sollten Sie am besten vermeiden, es sei denn, Sie setzen die Einstellungen auf die niedrigste Stufe herab. Das Wärmemanagement ist anständig und das Moto G85 5G erwärmt sich nur nach längeren Spielesessions. Allerdings ist mir aufgefallen, dass das Handy besonders warm wird, wenn Sie es während des Ladevorgangs benutzen. Benchmarks Im Vergleich zu ähnlich teuren Konkurrenten schneidet das Moto G85 5G nicht so gut ab, wie Sie in den Benchmarks unten sehen können: Kameras 50-Megapixel-Hauptkamera auf der Rückseite 8-Megapixel-Ultraweitwinkelkamera 32-Megapixel-Selfiekamera Motorola hat das Moto G85 5G mit einer Dual-Rückkamera ausgestattet: einem 50-Megapixel-Hauptsensor (f/1.8) und einem 8-Megapixel-Ultraweitwinkelobjektiv (f/2.2). Auf der Vorderseite befindet sich eine 32-Megapixel-Selfiekamera. Connor Jewiss / Foundry Bei guter Beleuchtung macht die 50-Megapixel-Hauptkamera solide Fotos. Die Farben sind lebendig, ohne übersättigt zu wirken, und die Detailgenauigkeit ist für diese Preisklasse anständig. Der Dynamikbereich ist allerdings etwas eingeschränkt und die Lichter können an hellen Tagen leicht überstrahlen. Nahaufnahmen und Porträts sind einigermaßen scharf, aber die Kantenerkennung ist im Porträtmodus nicht immer optimal. Bei anspruchsvolleren Objekten in Porträtaufnahmen hat das Moto G85 5G definitiv Probleme mit der Kantenerkennung. Die 8-Megapixel-Ultraweitwinkelkamera hat noch größere Probleme. Die Bilder sind spürbar weicher, insbesondere an den Rändern, und die Farbkonsistenz des Hauptsensors ist nicht besonders gut. Fotos bei schlechten Lichtverhältnissen weisen ein deutliches Rauschen auf, auch wenn der Nachtmodus aktiviert ist. Die 32-Megapixel-Selfiekamera ist bei Tageslicht gut und liefert scharfe, detaillierte Bilder mit akkuraten Hauttönen. Bei schwachem Licht schleicht sich jedoch erneut Rauschen ein. Das Fehlen eines Autofokus bedeutet, dass Selfies nur dann gelingen, wenn Sie das Handy ruhig halten. Die Videoaufzeichnung erreicht eine Höchstgeschwindigkeit von 1080p 60 fps (frames per second). Die Bildstabilisierung ist elektronisch (EIS) und funktioniert gut für den gelegentlichen Gebrauch, aber das Fehlen von 4K-Aufnahmen und optischer Bildstabilisierung (OIS) schränkt die Attraktivität des G85 für Videofilmer ein. Akkulaufzeit & Aufladen 5.000-mAh-Akku 30 Watt kabelgebundenes Laden (kein Ladegerät in der Verpackung) Kein kabelloses Laden Kompetente Ladegeschwindigkeiten, aber nicht klassenführend Der Akku des Moto G85 5G hat eine Kapazität von 5.000 mAh, was für Mittelklassegeräte Standard ist. Die Akkulaufzeit ist im täglichen Gebrauch ausgezeichnet. Bei leichter bis mittlerer Nutzung (soziale Medien, Anrufe, gelegentliches Streaming) hält das Moto G85 5G eineinhalb Tage durch. Bei anspruchsvoller Nutzung kommen Sie immer noch problemlos durch einen Tag. Connor Jewiss / Foundry Meine Tests ergaben eine Betriebszeit von etwa sieben Stunden, wobei das Streaming von Videos etwa sechs Prozent pro Stunde verbraucht. Bei anspruchsvollen Spielen liegt der Verbrauch bei etwa 15 Prozent pro Stunde, Gelegenheitsspiele wirken sich weit weniger aus. Das Aufladen erfolgt über ein kabelgebundenes 30-Watt-Ladegerät, aber Motorola legt kein Ladegerät bei, sondern nur ein Kabel USB-A zu USB-C. Mit einem kompatiblen 30-Watt-Ladegerät erreicht das Handy in etwa 30 Minuten 50 Prozent und ist in etwa 80 Minuten vollständig aufgeladen. Es gibt keine kabellose Ladefunktion, was bei einem Handy dieses Preises nicht mehr die Norm ist. Außerdem bieten Konkurrenten wie das Poco X7 schnelleres kabelgebundenes Laden (45 Watt). Trotzdem sollte die Ladegeschwindigkeit des Moto G85 für die meisten Leute ausreichen. Software & Funktionen Sauberes Android 14 mit minimalem Ballast Die nützlichen Moto-Gesten von Motorola sind zurück Nur ein Betriebssystem-Update, drei Jahre lang Sicherheitspatches Motorolas “My UX”-Skin über Android 14 ist ein weiteres Highlight. Es ist sauber, nahe am sogenannten Stock-Android und frei von unnötigen Animationen und Unordnung. Die Moto-Gesten-Funktionen (drehen Sie Ihre Hand, um die Kamera zu öffnen, tippen Sie, um die Taschenlampe zu aktivieren) sind intuitiv, obwohl ich nicht sicher bin, ob sie für die meisten so nützlich sein werden. Connor Jewiss / Foundry Das Moto G85 5G wird mit vorinstallierten Drittanbieter-Apps wie Booking.com und Facebook geliefert. Das ist nicht so schlimm wie ich es schon bei anderen Handys gesehen habe, aber Bloatware von Drittanbietern ist immer ärgerlich. Zum Glück lassen sich diese vorinstallierten Apps problemlos entfernen. Motorolas eigene Apps sind dezent gehalten und meist nützlich – darunter Moto Secure für zusätzliche Sicherheit und Moto Display für eine praktische Anzeige von Benachrichtigungen. Leider ist das Engagement für den Software-Support eher dürftig. Motorola verspricht nur ein Betriebssystem-Update (auf das aktuelle Android 15) und drei Jahre lang zweimonatliche Sicherheitspatches. Das ist enttäuschend, vor allem wenn Samsung sechs Jahre lang beides für das Galaxy A26 5G anbietet und sogar Xiaomi und One Plus ihre Update-Politik in dieser Preisklasse verbessern. Es gibt kein Always-on-Display und keine wichtigen KI-Funktionen. Preis und Verfügbarkeit Motorola bietet das Moto G85 5G derzeit für 299,99 Euro an (12 GB/256 GB). Zu den Farboptionen gehören Kobaltblau, Olivgrün (beide mit veganer Lederoberfläche) und Urban Grey mit einer matten Kunststoffrückseite. Connor Jewiss / Foundry Sollten Sie das Motorola Moto G85 5G kaufen? Das Motorola Moto G85 5G ist ein attraktives Mittelklasse-Smartphone mit einem hervorragenden Display und einer soliden Akkulaufzeit. Sein schlankes Design, das gebogene POLED-Panel und die leichte Bauweise lassen es teurer erscheinen als es ist. Für Gelegenheitsnutzer, die eine zuverlässige Leistung im Alltag benötigen, ist es eine solide Wahl. Allerdings ist die Konkurrenz groß. Smartphones wie das Poco X7 bieten bessere Leistung, Kameras und Ladegeschwindigkeiten für weniger Geld. Das Galaxy A26 5G von Samsung bietet ein helleres Display, mehr Leistung und eine weitaus bessere Softwareunterstützung. Das Moto G85 5G ist kein schlechtes Handy, aber es ist schwer zu empfehlen, es sei denn, Sie fühlen sich von seinem Design besonders angezogen oder sind der Marke treu. Spezifikationen Bildschirm: 6,67 Zoll POLED, 2400 × 1080 Pixel Auflösung, 120 Hertz Bildwiederholrate Prozessor: Qualcomm Snapdragon 6s Gen 3 Speicher: 8 GB / 12 GB RAM Speicher: 128 GB / 256 GB, erweiterbar über Micro-SD Rückseitige Kameras: 50 Megapixel (f/1.8), 8 Megapixel Ultraweitwinkel (f/2.2) Frontkamera: 32 Megapixel (f/2.4) Akku: 5000 mAh, 30 Watt kabelgebundenes Laden Software: Android 14 mit My UX Abmessungen: 161,9 × 73,1 × 7,6 Millimeter Gewicht: 172 Gramm Wasserbeständigkeit: IP52 (spritzwassergeschützt) Konnektivität: 5G (sub-6GHz), Dual-SIM, eSIM, NFC, Bluetooth 5.1 Audio: Stereolautsprecher (Dolby Atmos), kein Kopfhöreranschluss (PC-Welt) 

Motorola Moto G85 5G im Test: Gutes Handy, aber nicht Klassenbester​ Connor Jewiss / Foundry

Auf einen Blick

Pro

Wunderschönes Curved-Edge-POLED-Display

Schlankes und leichtes Design

Zuverlässige Akkulaufzeit

Beeindruckende Schnellladefunktion

Kontra

Mittelmäßige Kameraleistung, insbesondere bei schlechten Lichtverhältnissen

Softwareunterstützung hinkt der Konkurrenz hinterher

Leistung bleibt hinter ähnlich teuren Konkurrenten zurück

Fazit

Das Moto G85 5G punktet mit ansprechendem Design und hochwertiger Haptik, kann jedoch in puncto Leistung, Kameraqualität und Softwareunterstützung nicht vollends überzeugen. Ein solides Mittelklasse-Smartphone, aber kein Klassenbester.

Das Moto G85 5G ist eines der neuesten Mittelklasse-Smartphones von Motorola (Stand: Zeitpunkt der Erstellung dieses Artikels). Mit seinem eleganten Design und dem gebogenen POLED-Display vermittelt es eine hochwertige Anmutung, die über seinen Preis hinausgeht.

Das Moto G85 5G bietet eine solide Akkulaufzeit, eine reibungslose Leistung im Alltag und ein sauberes Software-Erlebnis. Die Kameraqualität ist jedoch nur mittelmäßig, in der Leistung bleibt das Moto hinter den wichtigsten Konkurrenten, und dazu kommt die enttäuschende Software-Update-Politik von Motorola.

Wenn Sie mehr Wert auf Design und Displayqualität als auf reine Leistung legen, ist das Moto G85 G5 einen Blick wert. Allerdings gibt es bessere Allrounder zu einem ähnlichen Preis.

Design & Verarbeitung

Hochwertiges Design mit gebogenem Display

Veganes Leder oder matte Kunststoffoberflächen

Schlank und leicht, aber nur IP52 wasserdicht

Motorola hat schon immer attraktive, erschwingliche Mobiltelefone auf den Markt gebracht. Mit dem Moto G85 5G orientiert sich Motorola am Design der Flaggschiff-Serie Edge und bietet mit 7,6 Millimetern ein ultraschlankes Profil und eine gebogene Frontscheibe, was sich in der Hand erstklassig anfühlt. Mit 172 Gramm ist es außerdem bemerkenswert leicht, wenn man die Größe des Displays und des Akkus bedenkt.

Connor Jewiss / Foundry

Die veganen Lederoptionen (Kobaltblau und Olivgrün) verleihen dem Gerät eine strukturierte, griffige Oberfläche. Sie werden feststellen, dass es sich nicht um Leder handelt – es fühlt sich eher wie Wildleder an. Wenn Sie eine konventionellere Oberfläche bevorzugen, bietet das Modell Urban Grey eine glatte, matte Kunststoffrückseite, die Fingerabdrücke und Flecken gut verbirgt.

Ergonomisch gesehen liegt das Telefon gut in der Hand, und die sanften Kurven machen die einhändige Bedienung weniger schwierig als bei flacheren Geräten wie dem Poco X7. Die Tasten sind gut platziert, wobei die Einschalttaste gleichzeitig als schneller und zuverlässiger Fingerabdruckscanner dient. Es gibt keine Option für das Display, aber bei diesem Preisniveau würde ich auch keine erwarten.

Bei der Widerstandsfähigkeit zeigt das Moto G85 5G seine Grenzen. Die IP52-Einstufung bietet Schutz gegen leichte Spritzer und Staub, aber nicht gegen Untertauchen. Das ist besser als nichts, aber Konkurrenten wie das Samsung Galaxy A36 5G bieten eine IP67-Zertifizierung.

Display & Sound

Beeindruckendes 6,67-Zoll-POLED-Display

Glatte 120 Hertz Bildwiederholrate und ordentliche Helligkeit

Laute Stereolautsprecher, aber zu wenig Bass

Das 6,67-Zoll-POLED-Display des Moto G85 ist sein größtes Verkaufsargument.

Gebogene Displays zu diesem Preis sind heutzutage praktisch unbekannt, und ich bin normalerweise kein Fan davon, aber Motorola hat es ausgezeichnet gemacht. Die Wölbungen sind subtil und minimieren versehentliche Berührungen, ein häufiges Problem bei früheren gebogenen Bildschirmen. Das Ergebnis ist ein Display, das viel hochwertiger aussieht, als es der Preis vermuten lässt.

Connor Jewiss / Foundry

Mit einer Auflösung von 2.400 × 1.080 Pixeln und einer Bildwiederholfrequenz von 120 Hertz ist das Scrollen butterweich und die Darstellung scharf. Die Farben sind lebendig und das Display bietet eine gute Kalibrierung, auch wenn manche es etwas zu kräftig finden mögen. Es gibt einen manuellen Farbbalance-Modus in den Einstellungen, wenn Sie einen natürlicheren Ton bevorzugen.

Die Helligkeit erreicht bei direktem Sonnenlicht einen Spitzenwert von 1.600 Nits. Das genügt für die meisten Außenbedingungen, reicht aber nicht ganz an die Helligkeit des Panels von Konkurrenten wie dem Poco X7 heran, das über 1.800 Nits hinausgeht. Die Betrachtungswinkel sind dank der POLED-Technologie ausgezeichnet, und die Farbverschiebung bei schrägen Blickwinkeln ist minimal.

Die Stereolautsprecher sind laut und liefern klaren Klang für Podcasts und gelegentliches Videoschauen. Sie sind Dolby-Atmos-zertifiziert, was ihnen eine gewisse virtuelle Surround-Tiefe verleiht, aber es fehlt ihnen an Wärme und Bass, insbesondere bei höheren Lautstärken. Es gibt keinen Kopfhöreranschluss, was enttäuschend ist, da dies bei günstigen Handys immer noch üblich ist.

Spezifikationen & Leistung

Snapdragon 6s Gen 3 liefert eine reibungslose Alltagsleistung

Bleibt in Hinblick auf Leistung hinter Konkurrenten wie dem Poco X6 und dem Galaxy A35 zurück

UFS-2.2-Speicher begrenzt die Geschwindigkeit

Bei der Leistung liegt das Moto G85 5G definitiv in der Mittelklasse. Es wird vom Snapdragon 6s Gen 3 angetrieben, einem relativ neuen, aber bescheidenen 6-nm-Chipsatz mit acht Kernen (zwei Cortex-A78 und sechs Cortex-A55). Die Grafikaufgaben werden von der Adreno-619-GPU übernommen.

Connor Jewiss / Foundry

Bei normaler Nutzung wie dem Scrollen in sozialen Medien, dem Surfen im Internet und leichtem Multitasking hält das Moto G85 5G gut mit. Die leichtgewichtige “My UX”-Oberfläche von Motorola sorgt dafür, dass alles flott funktioniert, und die Animationen flüssig sind. Apps werden schnell geöffnet, und das Smartphone hält mit den meisten täglichen Aufgaben problemlos mit.

Bei stärkerer Belastung treten jedoch Einschränkungen auf. Einfache Spiele können problemlos laufen, aber bei 3D-Spielen kann es bei mehr Details problematisch werden. Große Spiele sollten Sie am besten vermeiden, es sei denn, Sie setzen die Einstellungen auf die niedrigste Stufe herab.

Das Wärmemanagement ist anständig und das Moto G85 5G erwärmt sich nur nach längeren Spielesessions. Allerdings ist mir aufgefallen, dass das Handy besonders warm wird, wenn Sie es während des Ladevorgangs benutzen.

Benchmarks

Im Vergleich zu ähnlich teuren Konkurrenten schneidet das Moto G85 5G nicht so gut ab, wie Sie in den Benchmarks unten sehen können:

Kameras

50-Megapixel-Hauptkamera auf der Rückseite

8-Megapixel-Ultraweitwinkelkamera

32-Megapixel-Selfiekamera

Motorola hat das Moto G85 5G mit einer Dual-Rückkamera ausgestattet: einem 50-Megapixel-Hauptsensor (f/1.8) und einem 8-Megapixel-Ultraweitwinkelobjektiv (f/2.2). Auf der Vorderseite befindet sich eine 32-Megapixel-Selfiekamera.

Connor Jewiss / Foundry

Bei guter Beleuchtung macht die 50-Megapixel-Hauptkamera solide Fotos. Die Farben sind lebendig, ohne übersättigt zu wirken, und die Detailgenauigkeit ist für diese Preisklasse anständig. Der Dynamikbereich ist allerdings etwas eingeschränkt und die Lichter können an hellen Tagen leicht überstrahlen.

Nahaufnahmen und Porträts sind einigermaßen scharf, aber die Kantenerkennung ist im Porträtmodus nicht immer optimal. Bei anspruchsvolleren Objekten in Porträtaufnahmen hat das Moto G85 5G definitiv Probleme mit der Kantenerkennung.

Die 8-Megapixel-Ultraweitwinkelkamera hat noch größere Probleme. Die Bilder sind spürbar weicher, insbesondere an den Rändern, und die Farbkonsistenz des Hauptsensors ist nicht besonders gut. Fotos bei schlechten Lichtverhältnissen weisen ein deutliches Rauschen auf, auch wenn der Nachtmodus aktiviert ist.

Die 32-Megapixel-Selfiekamera ist bei Tageslicht gut und liefert scharfe, detaillierte Bilder mit akkuraten Hauttönen. Bei schwachem Licht schleicht sich jedoch erneut Rauschen ein. Das Fehlen eines Autofokus bedeutet, dass Selfies nur dann gelingen, wenn Sie das Handy ruhig halten.

Die Videoaufzeichnung erreicht eine Höchstgeschwindigkeit von 1080p 60 fps (frames per second). Die Bildstabilisierung ist elektronisch (EIS) und funktioniert gut für den gelegentlichen Gebrauch, aber das Fehlen von 4K-Aufnahmen und optischer Bildstabilisierung (OIS) schränkt die Attraktivität des G85 für Videofilmer ein.

Akkulaufzeit & Aufladen

5.000-mAh-Akku

30 Watt kabelgebundenes Laden (kein Ladegerät in der Verpackung)

Kein kabelloses Laden

Kompetente Ladegeschwindigkeiten, aber nicht klassenführend

Der Akku des Moto G85 5G hat eine Kapazität von 5.000 mAh, was für Mittelklassegeräte Standard ist.

Die Akkulaufzeit ist im täglichen Gebrauch ausgezeichnet. Bei leichter bis mittlerer Nutzung (soziale Medien, Anrufe, gelegentliches Streaming) hält das Moto G85 5G eineinhalb Tage durch. Bei anspruchsvoller Nutzung kommen Sie immer noch problemlos durch einen Tag.

Connor Jewiss / Foundry

Meine Tests ergaben eine Betriebszeit von etwa sieben Stunden, wobei das Streaming von Videos etwa sechs Prozent pro Stunde verbraucht. Bei anspruchsvollen Spielen liegt der Verbrauch bei etwa 15 Prozent pro Stunde, Gelegenheitsspiele wirken sich weit weniger aus.

Das Aufladen erfolgt über ein kabelgebundenes 30-Watt-Ladegerät, aber Motorola legt kein Ladegerät bei, sondern nur ein Kabel USB-A zu USB-C. Mit einem kompatiblen 30-Watt-Ladegerät erreicht das Handy in etwa 30 Minuten 50 Prozent und ist in etwa 80 Minuten vollständig aufgeladen.

Es gibt keine kabellose Ladefunktion, was bei einem Handy dieses Preises nicht mehr die Norm ist. Außerdem bieten Konkurrenten wie das Poco X7 schnelleres kabelgebundenes Laden (45 Watt). Trotzdem sollte die Ladegeschwindigkeit des Moto G85 für die meisten Leute ausreichen.

Software & Funktionen

Sauberes Android 14 mit minimalem Ballast

Die nützlichen Moto-Gesten von Motorola sind zurück

Nur ein Betriebssystem-Update, drei Jahre lang Sicherheitspatches

Motorolas “My UX”-Skin über Android 14 ist ein weiteres Highlight. Es ist sauber, nahe am sogenannten Stock-Android und frei von unnötigen Animationen und Unordnung. Die Moto-Gesten-Funktionen (drehen Sie Ihre Hand, um die Kamera zu öffnen, tippen Sie, um die Taschenlampe zu aktivieren) sind intuitiv, obwohl ich nicht sicher bin, ob sie für die meisten so nützlich sein werden.

Connor Jewiss / Foundry

Das Moto G85 5G wird mit vorinstallierten Drittanbieter-Apps wie Booking.com und Facebook geliefert. Das ist nicht so schlimm wie ich es schon bei anderen Handys gesehen habe, aber Bloatware von Drittanbietern ist immer ärgerlich.

Zum Glück lassen sich diese vorinstallierten Apps problemlos entfernen. Motorolas eigene Apps sind dezent gehalten und meist nützlich – darunter Moto Secure für zusätzliche Sicherheit und Moto Display für eine praktische Anzeige von Benachrichtigungen.

Leider ist das Engagement für den Software-Support eher dürftig. Motorola verspricht nur ein Betriebssystem-Update (auf das aktuelle Android 15) und drei Jahre lang zweimonatliche Sicherheitspatches. Das ist enttäuschend, vor allem wenn Samsung sechs Jahre lang beides für das Galaxy A26 5G anbietet und sogar Xiaomi und One Plus ihre Update-Politik in dieser Preisklasse verbessern.

Es gibt kein Always-on-Display und keine wichtigen KI-Funktionen.

Preis und Verfügbarkeit

Motorola bietet das Moto G85 5G derzeit für 299,99 Euro an (12 GB/256 GB).

Zu den Farboptionen gehören Kobaltblau, Olivgrün (beide mit veganer Lederoberfläche) und Urban Grey mit einer matten Kunststoffrückseite.

Connor Jewiss / Foundry

Sollten Sie das Motorola Moto G85 5G kaufen?

Das Motorola Moto G85 5G ist ein attraktives Mittelklasse-Smartphone mit einem hervorragenden Display und einer soliden Akkulaufzeit. Sein schlankes Design, das gebogene POLED-Panel und die leichte Bauweise lassen es teurer erscheinen als es ist. Für Gelegenheitsnutzer, die eine zuverlässige Leistung im Alltag benötigen, ist es eine solide Wahl.

Allerdings ist die Konkurrenz groß. Smartphones wie das Poco X7 bieten bessere Leistung, Kameras und Ladegeschwindigkeiten für weniger Geld. Das Galaxy A26 5G von Samsung bietet ein helleres Display, mehr Leistung und eine weitaus bessere Softwareunterstützung.

Das Moto G85 5G ist kein schlechtes Handy, aber es ist schwer zu empfehlen, es sei denn, Sie fühlen sich von seinem Design besonders angezogen oder sind der Marke treu.

Spezifikationen

Bildschirm: 6,67 Zoll POLED, 2400 × 1080 Pixel Auflösung, 120 Hertz Bildwiederholrate

Prozessor: Qualcomm Snapdragon 6s Gen 3

Speicher: 8 GB / 12 GB RAM

Speicher: 128 GB / 256 GB, erweiterbar über Micro-SD

Rückseitige Kameras: 50 Megapixel (f/1.8), 8 Megapixel Ultraweitwinkel (f/2.2)

Frontkamera: 32 Megapixel (f/2.4)

Akku: 5000 mAh, 30 Watt kabelgebundenes Laden

Software: Android 14 mit My UX

Abmessungen: 161,9 × 73,1 × 7,6 Millimeter

Gewicht: 172 Gramm

Wasserbeständigkeit: IP52 (spritzwassergeschützt)

Konnektivität: 5G (sub-6GHz), Dual-SIM, eSIM, NFC, Bluetooth 5.1

Audio: Stereolautsprecher (Dolby Atmos), kein Kopfhöreranschluss

(PC-Welt)

Motorola Moto G85 5G im Test: Gutes Handy, aber nicht Klassenbester​ Weiterlesen »

Entschlüsselt: Geheimcodes im Arbeitszeugnis​

Allgemein

Diese codierten Formulierungen sollten sie kennen. Foto: fizkes – shutterstock.comIn Arbeitszeugnissen wimmelt es von Doppeldeutigkeiten. Doch was steckt wirklich hinter den Formulierungen der Personalabteilungen? Anhand des Buches “Arbeitszeugnisse für Führungskräfte” von Thorsten Knobbe, Mario Leis, Karsten Umnuß, und Peter Böke, haben wir für Sie die 40 wichtigsten Phrasen und deren Übersetzung zusammengestellt. Allerdings müssen die vorgestellten Formulierungen nicht zwangläufig etwas Negatives bedeuten. So kann es auch an der eingeschränkten Formulierungskunst des Zeugnisausstellers liegen, dass manche Aussagen missverständlich sind. Manchmal entscheiden eben Nuancen über den Sinn. Wenn beispielsweise im Zeugnis steht, dass der Mitarbeiter mit “Fleiß und Interesse” bei der Sache war, was sich in “glänzenden Ergebnissen widergespiegelt” hat, dann ist das in Ordnung. Fehlt die zweite Passage, handelt es sich um ein codierte Formulierung, die dem Mitarbeiter zwar Fleiß bescheinigt, doch die Ergebnisse waren nicht zufrieden stellend.Taucht also eine der folgenden Formulierungen in einem Arbeitszeugnis auf, sollte sich der Verfasser fragen, ob er es wirklich so meint. Schnell hat man einem an sich guten Mitarbeiter die Chancen für ein berufliches Weiterkommen verbaut. Wenn man im eigenen Arbeitszeugnis auf diese Phrasen stößt, sollte man umgehend das Gespräch mit der Personalabteilung suchen. Signalisiert der Arbeitgeber kein Entgegenkommen, gibt es durchaus die Möglichkeit, ein entsprechendes Arbeitzeugnis einzuklagen.Dieser Artikel basiert auf einem Beitrag der CW-Schwesterpublikation ChannelPartner.Phrasen in Arbeitszeugnissen und deren ÜbersetzungPhrase 1Übersetzung 1Phrase 2Übersetzung 2Phrase 3Übersetzung 3Phrase 4Übersetzung 4Phrase 5Übersetzung 5Phrase 6Übersetzung 6Phrase 7Übersetzung 7Phrase 8Übersetzung 8Phrase 9Übersetzung 9Phrase 10Übersetzung 10Phrase 11Übersetzung 11Phrase 12Übersetzung 12Phrase 13Übersetzung 13Phrase 14Übersetzung 14Phrase 15Übersetzung 15Phrase 16Übersetzung 16Phrase 17Übersetzung 17Phrase 18Übersetzung 18Phrase 19Übersetzung 19Phrase 20Übersetzung 20Phrase 21Übersetzung 21Phrase 22Übersetzung 22Phrase 23Übersetzung 23Phrase 24Übersetzung 24Phrase 25Übersetzung 25Phrase 26Übersetzung 26Phrase 27Übersetzung 27Phrase 28Übersetzung 28Phrase 29Übersetzung 29Phrase 30Übersetzung 30Phrase 31Übersetzung 31Phrase 32Übersetzung 32Phrase 33Übersetzung 33Phrase 34Übersetzung 34Phrase 35Übersetzung 35Phrase 36Übersetzung 36Phrase 37Übersetzung 37Phrase 38Übersetzung 38Phrase 39Übersetzung 39Phrase 40Übersetzung 40 

Entschlüsselt: Geheimcodes im Arbeitszeugnis​ Diese codierten Formulierungen sollten sie kennen.
Foto: fizkes – shutterstock.comIn Arbeitszeugnissen wimmelt es von Doppeldeutigkeiten. Doch was steckt wirklich hinter den Formulierungen der Personalabteilungen? Anhand des Buches “Arbeitszeugnisse für Führungskräfte” von Thorsten Knobbe, Mario Leis, Karsten Umnuß, und Peter Böke, haben wir für Sie die 40 wichtigsten Phrasen und deren Übersetzung zusammengestellt. Allerdings müssen die vorgestellten Formulierungen nicht zwangläufig etwas Negatives bedeuten. So kann es auch an der eingeschränkten Formulierungskunst des Zeugnisausstellers liegen, dass manche Aussagen missverständlich sind. Manchmal entscheiden eben Nuancen über den Sinn. Wenn beispielsweise im Zeugnis steht, dass der Mitarbeiter mit “Fleiß und Interesse” bei der Sache war, was sich in “glänzenden Ergebnissen widergespiegelt” hat, dann ist das in Ordnung. Fehlt die zweite Passage, handelt es sich um ein codierte Formulierung, die dem Mitarbeiter zwar Fleiß bescheinigt, doch die Ergebnisse waren nicht zufrieden stellend.Taucht also eine der folgenden Formulierungen in einem Arbeitszeugnis auf, sollte sich der Verfasser fragen, ob er es wirklich so meint. Schnell hat man einem an sich guten Mitarbeiter die Chancen für ein berufliches Weiterkommen verbaut. Wenn man im eigenen Arbeitszeugnis auf diese Phrasen stößt, sollte man umgehend das Gespräch mit der Personalabteilung suchen. Signalisiert der Arbeitgeber kein Entgegenkommen, gibt es durchaus die Möglichkeit, ein entsprechendes Arbeitzeugnis einzuklagen.Dieser Artikel basiert auf einem Beitrag der CW-Schwesterpublikation ChannelPartner.Phrasen in Arbeitszeugnissen und deren ÜbersetzungPhrase 1Übersetzung 1Phrase 2Übersetzung 2Phrase 3Übersetzung 3Phrase 4Übersetzung 4Phrase 5Übersetzung 5Phrase 6Übersetzung 6Phrase 7Übersetzung 7Phrase 8Übersetzung 8Phrase 9Übersetzung 9Phrase 10Übersetzung 10Phrase 11Übersetzung 11Phrase 12Übersetzung 12Phrase 13Übersetzung 13Phrase 14Übersetzung 14Phrase 15Übersetzung 15Phrase 16Übersetzung 16Phrase 17Übersetzung 17Phrase 18Übersetzung 18Phrase 19Übersetzung 19Phrase 20Übersetzung 20Phrase 21Übersetzung 21Phrase 22Übersetzung 22Phrase 23Übersetzung 23Phrase 24Übersetzung 24Phrase 25Übersetzung 25Phrase 26Übersetzung 26Phrase 27Übersetzung 27Phrase 28Übersetzung 28Phrase 29Übersetzung 29Phrase 30Übersetzung 30Phrase 31Übersetzung 31Phrase 32Übersetzung 32Phrase 33Übersetzung 33Phrase 34Übersetzung 34Phrase 35Übersetzung 35Phrase 36Übersetzung 36Phrase 37Übersetzung 37Phrase 38Übersetzung 38Phrase 39Übersetzung 39Phrase 40Übersetzung 40

Entschlüsselt: Geheimcodes im Arbeitszeugnis​ Weiterlesen »

Perplexity will Chrome für „hyperpersonalisierte“ Werbung​

Allgemein

Das Such- und Nutzerverhalten auszuspähen und in personalisierte Werbung umzumünzen findet der Perplexity-CEO Aravind Srinavas völlig in Ordnung. Kathy Hutchins – shutterstock.com Google soll nach dem Willen der US-Regierung zerschlagen werden, um die Monopolstellung des Techkonzerns zu brechen. Dafür soll der Browser Chrome aus dem Firmengeflecht gelöst und verkauft werden. Interessenten gibt es zuhauf, unter anderem OpenAI. Die Macher von ChatGPT sind jedoch nicht das einzige KI-Unternehmen, welches Interesse an einem Kauf von Chrome bekundet hat. Auch Perplexity hat bekräftigt, dass für sie eine Akquise durchaus Sinn machen könnte. Browser als Türöffner für umfassende Datensammlung Während OpenAI wohl vor allem auf Trainingsdaten spekuliert, hat Perplexitys CEO Aravind Srinivas in einem TBPN-Podcast  andere Gründe offengelegt: Perplexity will demnach seinen eigenen Browser haben, um Daten über alles zu sammeln, was Nutzer außerhalb von Perplexity tun. Anschließend könne man Werbekunden mit den Profilen Premium-Anzeigen verkaufen. Kaufverhalten sagt mehr als Arbeitsfragen Über den Browser gesammelte Daten sind aber noch nicht alles, denn Perplexity will auch „einige der Prompts, die Menschen“ in seinem Chatbot tätigen, nutzen. Diese seien „rein arbeitsbezogen und nichts Persönliches“, so der CEO, und damit nicht dafür geeignet, ein ausreichend genaues Dossier zu erstellen. Sie würden nur dazu dienen, die im Browser gesammelten Daten besser zu verstehen. Er erklärte allerdings auch, dass Informationen darüber, „welche Dinge Sie kaufen, in welche Hotels Sie gehen, in welche Restaurants Sie gehen, was Sie sich ansehen”, sehr viel mehr über Nutzer verrate. „Wir planen, den gesamten Kontext zu nutzen, um ein besseres Nutzerprofil zu erstellen, und vielleicht können wir über unseren Entdeckungs-Feed dort Werbung einblenden“, so Srinivas. Eigener Browser kommt im Mai Unabhängig von einem Kauf von Chrome will das KI-Unternehmen im Mai, seinen eigenen Browser „Comet“ auf den Markt bringen. Hier ist Srinivas der Ansicht, dass die Browser-Benutzer von Perplexity mit Nachverfolgung, Profilerstellung und personalisierter Werbung einverstanden sein würden. Sein Argument: Werbung sollte für Nutzende relevant sein. Gleichzeitig schickt sich Perplexity an, die Verbreitung seiner KI-Suchmaschine voranzutreiben. Wie das Startup bekannt gab, soll die Perplexity-App auf neuen Geräten der Razr-Serie vorinstalliert werden und über die Moto AI durch Eingabe von „Ask Perplexity“ aufrufbar sein. Gleichzeitig können die Nutzer drei Monate lang den KI-Assistenten Perplexity Pro kostenlos verwenden. Wie das Nachrichtenportal Bloomberg berichtete, befindet sich Perplexity diesbezüglich auch in Gesprächen mit Samsung – womit die Smartphones der Koreaner neben Samsungs Bixby und Google Gemini schon den dritten KI-Assistenten bekommen würden. Im Podcast bestätigte Srinivas die Kooperation mit Samsung nicht direkt, verwies er aber auf den Bloomberg-Artikel, der Anfang des Monats veröffentlicht wurde und in dem beide Partnerschaften diskutiert wurden. Als weitere Kooperationspartner gesetzt, ist dagegen die Deutsche Telekom. Der digitale Assistent von Perplexity soll als digitaler Concierge für das für die zweite Jahreshälfte angekündigte KI-Phone fungieren. 

Perplexity will Chrome für „hyperpersonalisierte“ Werbung​ Das Such- und Nutzerverhalten auszuspähen und in personalisierte Werbung umzumünzen findet der Perplexity-CEO Aravind Srinavas völlig in Ordnung.
Kathy Hutchins – shutterstock.com

Google soll nach dem Willen der US-Regierung zerschlagen werden, um die Monopolstellung des Techkonzerns zu brechen. Dafür soll der Browser Chrome aus dem Firmengeflecht gelöst und verkauft werden. Interessenten gibt es zuhauf, unter anderem OpenAI.

Die Macher von ChatGPT sind jedoch nicht das einzige KI-Unternehmen, welches Interesse an einem Kauf von Chrome bekundet hat. Auch Perplexity hat bekräftigt, dass für sie eine Akquise durchaus Sinn machen könnte.

Browser als Türöffner für umfassende Datensammlung

Während OpenAI wohl vor allem auf Trainingsdaten spekuliert, hat Perplexitys CEO Aravind Srinivas in einem TBPN-Podcast  andere Gründe offengelegt:

Perplexity will demnach seinen eigenen Browser haben, um Daten über alles zu sammeln, was Nutzer außerhalb von Perplexity tun. Anschließend könne man Werbekunden mit den Profilen Premium-Anzeigen verkaufen.

Kaufverhalten sagt mehr als Arbeitsfragen

Über den Browser gesammelte Daten sind aber noch nicht alles, denn Perplexity will auch „einige der Prompts, die Menschen“ in seinem Chatbot tätigen, nutzen. Diese seien „rein arbeitsbezogen und nichts Persönliches“, so der CEO, und damit nicht dafür geeignet, ein ausreichend genaues Dossier zu erstellen. Sie würden nur dazu dienen, die im Browser gesammelten Daten besser zu verstehen.

Er erklärte allerdings auch, dass Informationen darüber, „welche Dinge Sie kaufen, in welche Hotels Sie gehen, in welche Restaurants Sie gehen, was Sie sich ansehen”, sehr viel mehr über Nutzer verrate. „Wir planen, den gesamten Kontext zu nutzen, um ein besseres Nutzerprofil zu erstellen, und vielleicht können wir über unseren Entdeckungs-Feed dort Werbung einblenden“, so Srinivas.

Eigener Browser kommt im Mai

Unabhängig von einem Kauf von Chrome will das KI-Unternehmen im Mai, seinen eigenen Browser „Comet“ auf den Markt bringen. Hier ist Srinivas der Ansicht, dass die Browser-Benutzer von Perplexity mit Nachverfolgung, Profilerstellung und personalisierter Werbung einverstanden sein würden. Sein Argument: Werbung sollte für Nutzende relevant sein.

Gleichzeitig schickt sich Perplexity an, die Verbreitung seiner KI-Suchmaschine voranzutreiben. Wie das Startup bekannt gab, soll die Perplexity-App auf neuen Geräten der Razr-Serie vorinstalliert werden und über die Moto AI durch Eingabe von „Ask Perplexity“ aufrufbar sein. Gleichzeitig können die Nutzer drei Monate lang den KI-Assistenten Perplexity Pro kostenlos verwenden.

Wie das Nachrichtenportal Bloomberg berichtete, befindet sich Perplexity diesbezüglich auch in Gesprächen mit Samsung – womit die Smartphones der Koreaner neben Samsungs Bixby und Google Gemini schon den dritten KI-Assistenten bekommen würden. Im Podcast bestätigte Srinivas die Kooperation mit Samsung nicht direkt, verwies er aber auf den Bloomberg-Artikel, der Anfang des Monats veröffentlicht wurde und in dem beide Partnerschaften diskutiert wurden.

Als weitere Kooperationspartner gesetzt, ist dagegen die Deutsche Telekom. Der digitale Assistent von Perplexity soll als digitaler Concierge für das für die zweite Jahreshälfte angekündigte KI-Phone fungieren.

Perplexity will Chrome für „hyperpersonalisierte“ Werbung​ Weiterlesen »

Digitale Zwillinge werden unverzichtbar​

Allgemein

Dass Digital Twins nur ein kurzfristiger Hype sind, glaubt nur noch eine Minderheit der Industrie. Gorodenkoff – shutterstock.com Egal, ob der Digitale Zwilling eines Produkts, einer Fabrik oder der Produktion – Digital Twins werden immer wichtiger. Erlauben sie es doch in einem virtuellen Modell Maschinen oder sogar ganze Fabriken wie beispielsweise bei BMW abzubilden. Wie unverzichtbar Digitale Zwillinge mittlerweile sind, untermauert eine Befragung des Digitalverbands Bitkom unter 552 Industrieunternehmen des verarbeitenden Gewerbes ab 100 Beschäftigten in Deutschland. Knapp zwei Drittel der befragten Industrieunternehmen (63 Prozent) gaben an, dass Digital Twins inzwischen unverzichtbar seien, um international wettbewerbsfähig zu bleiben. Maschinen- und Autobauer führend Selbst unter denen, die entsprechende Anwendungen in der Produktion noch nicht nutzen, sind sich 50 Prozent ihrer Bedeutung bewusst. Am höchsten ist die Zustimmung im Maschinen- und Anlagenbau (73 Prozent) sowie im Automobilbau (67 Prozent). Für Lukas Spohr, Experte für Manufacturing und Industrie 4.0 beim Bitkom, liegen die Vorteile auf der Hand: „Digitale Zwillinge verbinden die reale und virtuelle Welt. Durch Sensoren kann der Status von Maschinen in Echtzeit abgerufen werden – und immer mehr Industrieunternehmen erkennen, wie viele Vorteile das für die Fehlervermeidung, sparsame Ressourcennutzung und Flexibilität in der Produktion bringt.“ Neue Geschäftsmodelle per Digital Twin Einen weiteren Grund für die zunehmende Bedeutung digitaler Zwillinge sieht der Bitkom in den Möglichkeiten, die sie eröffnen. So gab mehr als die Hälfte der Befragten (56 Prozent) zu Protokoll, mit ihnen ganz neue Geschäftsmodelle entwickeln zu können. Allerdings sind die virtuellen Modelle nur bei weniger als der Hälfte (48 Prozent) der Unternehmen bereits in der Produktion im Einsatz. Damit ist aber ihr Einsatz in den letzten drei Jahren um etwa die Hälfte gestiegen – 2022 waren es lediglich 33 Prozent der Industrieunternehmen. Auch die Einstellung gegenüber den Digitalen Zwillingen hat sich geändert. Lediglich ein Sechstel der deutschen Industrie (18 Prozent) glaubt noch, dass es sich um einen Hype handelt, der bald vorübergeht. 

Digitale Zwillinge werden unverzichtbar​ Dass Digital Twins nur ein kurzfristiger Hype sind, glaubt nur noch eine Minderheit der Industrie.
Gorodenkoff – shutterstock.com

Egal, ob der Digitale Zwilling eines Produkts, einer Fabrik oder der Produktion – Digital Twins werden immer wichtiger. Erlauben sie es doch in einem virtuellen Modell Maschinen oder sogar ganze Fabriken wie beispielsweise bei BMW abzubilden.

Wie unverzichtbar Digitale Zwillinge mittlerweile sind, untermauert eine Befragung des Digitalverbands Bitkom unter 552 Industrieunternehmen des verarbeitenden Gewerbes ab 100 Beschäftigten in Deutschland. Knapp zwei Drittel der befragten Industrieunternehmen (63 Prozent) gaben an, dass Digital Twins inzwischen unverzichtbar seien, um international wettbewerbsfähig zu bleiben.

Maschinen- und Autobauer führend

Selbst unter denen, die entsprechende Anwendungen in der Produktion noch nicht nutzen, sind sich 50 Prozent ihrer Bedeutung bewusst. Am höchsten ist die Zustimmung im Maschinen- und Anlagenbau (73 Prozent) sowie im Automobilbau (67 Prozent).

Für Lukas Spohr, Experte für Manufacturing und Industrie 4.0 beim Bitkom, liegen die Vorteile auf der Hand: „Digitale Zwillinge verbinden die reale und virtuelle Welt. Durch Sensoren kann der Status von Maschinen in Echtzeit abgerufen werden – und immer mehr Industrieunternehmen erkennen, wie viele Vorteile das für die Fehlervermeidung, sparsame Ressourcennutzung und Flexibilität in der Produktion bringt.“

Neue Geschäftsmodelle per Digital Twin

Einen weiteren Grund für die zunehmende Bedeutung digitaler Zwillinge sieht der Bitkom in den Möglichkeiten, die sie eröffnen. So gab mehr als die Hälfte der Befragten (56 Prozent) zu Protokoll, mit ihnen ganz neue Geschäftsmodelle entwickeln zu können.

Allerdings sind die virtuellen Modelle nur bei weniger als der Hälfte (48 Prozent) der Unternehmen bereits in der Produktion im Einsatz. Damit ist aber ihr Einsatz in den letzten drei Jahren um etwa die Hälfte gestiegen – 2022 waren es lediglich 33 Prozent der Industrieunternehmen. Auch die Einstellung gegenüber den Digitalen Zwillingen hat sich geändert. Lediglich ein Sechstel der deutschen Industrie (18 Prozent) glaubt noch, dass es sich um einen Hype handelt, der bald vorübergeht.

Digitale Zwillinge werden unverzichtbar​ Weiterlesen »

Interdisziplinäre Teams: Konflikte in Innovationskraft wandeln​

Allgemein

Heterogenität ist ein zweischneidiges Schwert, denn hohe Leistung geht nicht selten mit großem Konfliktpotenzial einher. Foto: ProStockStudio – shutterstock.com Vielfalt wird oft als das Geheimnis erfolgreicher Teamarbeit angesehen – als Quelle für Innovation, Leistungssteigerung und zufriedene Kunden. Schon Carl Gustav Jung, der Begründer der analytischen Psychologie, erkannte das enorme Potenzial von Vielfalt, als er sagte: “The greater the contrast, the greater the potential. Great energy only comes from a correspondingly great tension of opposites”. Allzu oft wird allerdings übersehen, dass Vielfalt auch ein hohes Konfliktpotenzial birgt. So können paradoxerweise interdisziplinäre Teams trotz ihres hohen Leistungspotenzials zu den schwächsten Teams gehören. Interdisziplinäre Zusammenarbeit – ein Konflikt kommt selten allein Die Realität in interdisziplinären Teams gleicht häufig nicht einem sprudelnden Ideenfluss, sondern eher einem Sumpf aus künstlicher Harmonie oder internen Streitigkeiten. Statt sich um Kunden, Projekte und Lösungen zu kümmern, verstricken sich viele in internen Angelegenheiten oder tendieren dazu, zu einer Gemeinschaft zu werden, die Vielfalt unterdrückt, um sich eine Wohlfühlatmosphäre zu bewahren. So sind manche interdisziplinäre Teams noch weit davon entfernt, zu den prädestinierten Problemlösern unserer Zeit zu werden, die mit differenzierten Problemanalysen und kreativen Lösungsansätzen die Konkurrenz in den Schatten stellen. Leistungsstarke interdisziplinäre Teams hingegen leben den konstruktiven Diskurs. Hier bringen die Teammitglieder ihre vielfältigen Meinungen, Kompetenzen und Erfahrungen ein, auch wenn sie dafür nicht immer Applaus erhalten. Sie halten abweichende Standpunkte nicht aus Angst vor Ablehnung zurück, sondern engagieren sich in lösungsorientierten Diskussionen, um bestmögliche Resultate zu erzielen. Solche Teams sind nicht stolz auf ihre Harmonie, sondern identifizieren sich beispielsweise über intellektuelle Herausforderungen, Leistung und Fortschritt. Hochleistungsteams sind nicht konfliktscheu, sie sind konfliktfreudig. Um dieses Potenzial zu entfalten, bedarf es jedoch einer gezielten Förderung der Konfliktkompetenz. Interdisziplinäre Teams – 5 Schritte zum Erfolg Interdisziplinäre Teams funktionieren dann am besten, wenn sie lernen, mit Konflikten effektiv und nachhaltig umzugehen. Persönliche Differenzen haben jedoch nicht nur Nachteile, sondern können im Gegenzug auch Innovationskraft und Wachstum beflügeln. Wie man einen negativen Konflikt in einen positiven Wachstumsfaktor verwandelt, ist simpel. Die Lösung besteht aus fünf Schritten: 1. Gelassenheit durch VorbereitungUm Konflikte erfolgreich zu bewältigen, muss man diese zunächst als normal und selbstverständlich annehmen und Lösungsmethoden zur Hand haben. Indem ein Team mit Konflikten rechnet und sich potenzieller Konfliktquellen in den unterschiedlichen Projektphasen bewusst ist, kann es gegensteuern. Typische Konfliktherde sind beispielsweise: vage Projektziele, unterschiedliche Prioritäten in der Umsetzung, unterschiedliche Arbeitsstile oder Wertesysteme. Außerdem müssen die verschiedenen Charaktere im Team und deren Beziehungsgeflecht klar sein. In diesem Zusammenhang werden einzelne Emotionen oft zu gefährlichen Brandbeschleunigern. Dem kann man mit gezielter Vorbereitung zuvorkommen und sich anbahnende Konflikte rechtzeitig deeskalieren. Lesetipp: Wie Emotionen Change-Prozesse beeinflussen 2. Offene Ansprache“Houston, wir haben ein Problem” – Nennen Sie das Kind beim Namen. Wenn ein Konflikt spürbar ist, muss dieser angesprochen werden. Ignorieren, verdrängen oder leugnen bringt einem der Lösung nicht näher. Im Gegenteil. Im Hintergrund brodelnde Konflikte intensivieren oft die Spannungen und verstärken Emotionen. Wenn die Teammitglieder wissen, wie sie professionell mit Emotionen umgehen können, dann wird auch der Konflikt schneller gelöst. Frustration, Ärger oder Enttäuschung beim Namen zu nennen, entschärft emotionsgeladene Diskussionen. 3. Analyse von Bedürfnissen, WünschenSo wie im ersten Schritt unterschiedliche Charaktere bewusst sein müssen, kommt es im dritten Schritt darauf an, deren Werte, Bedürfnisse und Wünsche herauszuarbeiten. Denn Werte und Bedürfnisse stehen hinter den jeweiligen Standpunkten oder Positionen. Respekt, Anerkennung und Wertschätzung sind nur drei Beispiele, die ein Gespräch oder das Handeln einer Person maßgeblich beeinflussen. 4. Gegenseitiges VerständnisWenn ich weiß, dass mein Gegenüber viel Wert auf Anerkennung und Wertschätzung legt, kann ich bei gut geleisteter Arbeit auch mal ein “Vielen Dank, hervorragend” fallen lassen. Versteht man warum sein Gegenüber wie handelt, ist es einfacher darauf einzugehen. Gemeinsamkeiten schaffen Verständnis, Vertrauen und Bindung. Während die unterschiedlichen Positionen der Teammitglieder diese einerseits weit voneinander entfernen, verbinden die gemeinsamen Bedürfnisse und das gegenseitige Verständnis sie andererseits wieder. 5. Stärke durch VielseitigkeitProbleme zu lösen ist das Spezialgebiet interdisziplinärer Teams. Nachdem die persönlichen Differenzen aus der Welt geschafft worden sind, können sie auch wieder auf ein gemeinsames Ziel hinarbeiten. Die Vielseitigkeit der einzelnen Teammitglieder und die Akzeptanz dieser Heterogenität führt zu langfristigem Erfolg. Kommt es trotz dieser Schritte zu keiner Einigung, kann Mediation durch einen neutralen Mediator eine weitere Lösungsvariante sein. Der gelöste Konflikt öffnet nun Raum für lösungsorientierte Diskussionen und Innovationskraft, die wie Gustav Jung schon sagte, genau dann am größten ist, je unterschiedlicher wir sind. (bw) Konstruktive Konflikte in agilen Teams schaffenKonstruktive Konflikte und Kritik erzeugen Foto: fizkes – shutterstock.com“Konflikt” muss nicht zwingend negativ sein. Er kann sich auch positiv auswirken, wenn er in einem agilen Team konstruktiv zur Anwendung kommt. IT-Management-Berater Ivan Kovynyov gibt Tipps, wie Führungskräfte gezielt eine positive Konfliktkultur im Team schaffen und damit Leistung und Projekterfolg verbessern können. Heterogenes Team bilden Foto: LeoWolfert – shutterstock.comMan braucht ein heterogenes Team. Denn würde beispielsweise das Team ausschließlich aus weißen Männern mittleren Alters bestehen, so ist es abzusehen, dass sie alle einen ähnlichen Denkstil haben werden. Konfliktfreies Teambuilding Foto: Rawpixel.com – shutterstock.comTeammitglieder sollten sich bereits kennengelernt und miteinander gearbeitet haben. Es wäre kontraproduktiv, die Teambuilding-Phase mit einem konstruktiven Konflikt zu beginnen.Hindernisse beseitigen Foto: AJR_photo – shutterstock.comBarrieren für freie Meinungsäußerung im Team müssen identifiziert und beseitigt werden: irrationale Harmoniebedürftigkeit, zu starke Konsensorientierung, starke Meinungsmacher, Lagerbildung, autoritäre Projektleiter oder Product Owner, Null-Fehler-Toleranz, Zielvorgaben enthalten Lösungsweg etc.Den richtigen Weg einschlagen Foto: Jirsak – shutterstock.comDer Mittelweg ist nicht immer der beste Weg: wenn einer links am Baum vorbei will und der andere rechts, ist der Weg durch die Mitte offensichtlich nicht der beste.Konsensregeln definieren Foto: Robert Kneschke – shutterstock.comEinen qualifizierten Konsens suchen: Für Situationen in denen das Team zu keiner Übereinkunft kommt, müssen Regeln definiert werden. Zum Beispiel ruft das Team einen unabhängigen Experten oder der Projektleiter oder der Product Owner entscheiden.Gemeinsames Ziel festlegen Foto: Burhanuddin – shutterstock.comGemeinsame Ziele als Nordstern: Debatten können Teilnehmer eines agilen Teams leicht weiter voneinander entfernen. Gemeinsames Verständnis des Ziels und der Mission des Teams schafft das Gegenteil und wirkt balancierend. Humorvoller Umgang Foto: fizkes – shutterstock.comWenn alle Stricke reißen: Humor hilft immer! 

Interdisziplinäre Teams: Konflikte in Innovationskraft wandeln​ Heterogenität ist ein zweischneidiges Schwert, denn hohe Leistung geht nicht selten mit großem Konfliktpotenzial einher.
Foto: ProStockStudio – shutterstock.com

Vielfalt wird oft als das Geheimnis erfolgreicher Teamarbeit angesehen – als Quelle für Innovation, Leistungssteigerung und zufriedene Kunden. Schon Carl Gustav Jung, der Begründer der analytischen Psychologie, erkannte das enorme Potenzial von Vielfalt, als er sagte: “The greater the contrast, the greater the potential. Great energy only comes from a correspondingly great tension of opposites”. Allzu oft wird allerdings übersehen, dass Vielfalt auch ein hohes Konfliktpotenzial birgt. So können paradoxerweise interdisziplinäre Teams trotz ihres hohen Leistungspotenzials zu den schwächsten Teams gehören.

Interdisziplinäre Zusammenarbeit – ein Konflikt kommt selten allein

Die Realität in interdisziplinären Teams gleicht häufig nicht einem sprudelnden Ideenfluss, sondern eher einem Sumpf aus künstlicher Harmonie oder internen Streitigkeiten. Statt sich um Kunden, Projekte und Lösungen zu kümmern, verstricken sich viele in internen Angelegenheiten oder tendieren dazu, zu einer Gemeinschaft zu werden, die Vielfalt unterdrückt, um sich eine Wohlfühlatmosphäre zu bewahren. So sind manche interdisziplinäre Teams noch weit davon entfernt, zu den prädestinierten Problemlösern unserer Zeit zu werden, die mit differenzierten Problemanalysen und kreativen Lösungsansätzen die Konkurrenz in den Schatten stellen.

Leistungsstarke interdisziplinäre Teams hingegen leben den konstruktiven Diskurs. Hier bringen die Teammitglieder ihre vielfältigen Meinungen, Kompetenzen und Erfahrungen ein, auch wenn sie dafür nicht immer Applaus erhalten. Sie halten abweichende Standpunkte nicht aus Angst vor Ablehnung zurück, sondern engagieren sich in lösungsorientierten Diskussionen, um bestmögliche Resultate zu erzielen. Solche Teams sind nicht stolz auf ihre Harmonie, sondern identifizieren sich beispielsweise über intellektuelle Herausforderungen, Leistung und Fortschritt. Hochleistungsteams sind nicht konfliktscheu, sie sind konfliktfreudig. Um dieses Potenzial zu entfalten, bedarf es jedoch einer gezielten Förderung der Konfliktkompetenz.

Interdisziplinäre Teams – 5 Schritte zum Erfolg

Interdisziplinäre Teams funktionieren dann am besten, wenn sie lernen, mit Konflikten effektiv und nachhaltig umzugehen. Persönliche Differenzen haben jedoch nicht nur Nachteile, sondern können im Gegenzug auch Innovationskraft und Wachstum beflügeln. Wie man einen negativen Konflikt in einen positiven Wachstumsfaktor verwandelt, ist simpel. Die Lösung besteht aus fünf Schritten:

1. Gelassenheit durch VorbereitungUm Konflikte erfolgreich zu bewältigen, muss man diese zunächst als normal und selbstverständlich annehmen und Lösungsmethoden zur Hand haben. Indem ein Team mit Konflikten rechnet und sich potenzieller Konfliktquellen in den unterschiedlichen Projektphasen bewusst ist, kann es gegensteuern. Typische Konfliktherde sind beispielsweise:

vage Projektziele,

unterschiedliche Prioritäten in der Umsetzung,

unterschiedliche Arbeitsstile oder Wertesysteme.

Außerdem müssen die verschiedenen Charaktere im Team und deren Beziehungsgeflecht klar sein. In diesem Zusammenhang werden einzelne Emotionen oft zu gefährlichen Brandbeschleunigern. Dem kann man mit gezielter Vorbereitung zuvorkommen und sich anbahnende Konflikte rechtzeitig deeskalieren.

Lesetipp: Wie Emotionen Change-Prozesse beeinflussen

2. Offene Ansprache“Houston, wir haben ein Problem” – Nennen Sie das Kind beim Namen. Wenn ein Konflikt spürbar ist, muss dieser angesprochen werden. Ignorieren, verdrängen oder leugnen bringt einem der Lösung nicht näher. Im Gegenteil. Im Hintergrund brodelnde Konflikte intensivieren oft die Spannungen und verstärken Emotionen. Wenn die Teammitglieder wissen, wie sie professionell mit Emotionen umgehen können, dann wird auch der Konflikt schneller gelöst. Frustration, Ärger oder Enttäuschung beim Namen zu nennen, entschärft emotionsgeladene Diskussionen.

3. Analyse von Bedürfnissen, WünschenSo wie im ersten Schritt unterschiedliche Charaktere bewusst sein müssen, kommt es im dritten Schritt darauf an, deren Werte, Bedürfnisse und Wünsche herauszuarbeiten. Denn Werte und Bedürfnisse stehen hinter den jeweiligen Standpunkten oder Positionen. Respekt, Anerkennung und Wertschätzung sind nur drei Beispiele, die ein Gespräch oder das Handeln einer Person maßgeblich beeinflussen.

4. Gegenseitiges VerständnisWenn ich weiß, dass mein Gegenüber viel Wert auf Anerkennung und Wertschätzung legt, kann ich bei gut geleisteter Arbeit auch mal ein “Vielen Dank, hervorragend” fallen lassen. Versteht man warum sein Gegenüber wie handelt, ist es einfacher darauf einzugehen. Gemeinsamkeiten schaffen Verständnis, Vertrauen und Bindung. Während die unterschiedlichen Positionen der Teammitglieder diese einerseits weit voneinander entfernen, verbinden die gemeinsamen Bedürfnisse und das gegenseitige Verständnis sie andererseits wieder.

5. Stärke durch VielseitigkeitProbleme zu lösen ist das Spezialgebiet interdisziplinärer Teams. Nachdem die persönlichen Differenzen aus der Welt geschafft worden sind, können sie auch wieder auf ein gemeinsames Ziel hinarbeiten. Die Vielseitigkeit der einzelnen Teammitglieder und die Akzeptanz dieser Heterogenität führt zu langfristigem Erfolg.

Kommt es trotz dieser Schritte zu keiner Einigung, kann Mediation durch einen neutralen Mediator eine weitere Lösungsvariante sein. Der gelöste Konflikt öffnet nun Raum für lösungsorientierte Diskussionen und Innovationskraft, die wie Gustav Jung schon sagte, genau dann am größten ist, je unterschiedlicher wir sind. (bw)

Konstruktive Konflikte in agilen Teams schaffenKonstruktive Konflikte und Kritik erzeugen
Foto: fizkes – shutterstock.com“Konflikt” muss nicht zwingend negativ sein. Er kann sich auch positiv auswirken, wenn er in einem agilen Team konstruktiv zur Anwendung kommt. IT-Management-Berater Ivan Kovynyov gibt Tipps, wie Führungskräfte gezielt eine positive Konfliktkultur im Team schaffen und damit Leistung und Projekterfolg verbessern können. Heterogenes Team bilden
Foto: LeoWolfert – shutterstock.comMan braucht ein heterogenes Team. Denn würde beispielsweise das Team ausschließlich aus weißen Männern mittleren Alters bestehen, so ist es abzusehen, dass sie alle einen ähnlichen Denkstil haben werden. Konfliktfreies Teambuilding
Foto: Rawpixel.com – shutterstock.comTeammitglieder sollten sich bereits kennengelernt und miteinander gearbeitet haben. Es wäre kontraproduktiv, die Teambuilding-Phase mit einem konstruktiven Konflikt zu beginnen.Hindernisse beseitigen
Foto: AJR_photo – shutterstock.comBarrieren für freie Meinungsäußerung im Team müssen identifiziert und beseitigt werden: irrationale Harmoniebedürftigkeit, zu starke Konsensorientierung, starke Meinungsmacher, Lagerbildung, autoritäre Projektleiter oder Product Owner, Null-Fehler-Toleranz, Zielvorgaben enthalten Lösungsweg etc.Den richtigen Weg einschlagen
Foto: Jirsak – shutterstock.comDer Mittelweg ist nicht immer der beste Weg: wenn einer links am Baum vorbei will und der andere rechts, ist der Weg durch die Mitte offensichtlich nicht der beste.Konsensregeln definieren
Foto: Robert Kneschke – shutterstock.comEinen qualifizierten Konsens suchen: Für Situationen in denen das Team zu keiner Übereinkunft kommt, müssen Regeln definiert werden. Zum Beispiel ruft das Team einen unabhängigen Experten oder der Projektleiter oder der Product Owner entscheiden.Gemeinsames Ziel festlegen
Foto: Burhanuddin – shutterstock.comGemeinsame Ziele als Nordstern: Debatten können Teilnehmer eines agilen Teams leicht weiter voneinander entfernen. Gemeinsames Verständnis des Ziels und der Mission des Teams schafft das Gegenteil und wirkt balancierend. Humorvoller Umgang
Foto: fizkes – shutterstock.comWenn alle Stricke reißen: Humor hilft immer!

Interdisziplinäre Teams: Konflikte in Innovationskraft wandeln​ Weiterlesen »

Mit diesem Tool scrollen Windows-Nutzer besser​

Allgemein

Scroll-Räder und mittige Maustasten können Sie mit unserem Skript getrost vergessen.Gorodenkoff | shutterstock.com Je größer Ihr Bildschirm, desto wahrscheinlicher ist es, dass Sie regelmäßig vom Scroll-System von Windows 11 in den Wahnsinn getrieben werden. Denn Microsoft hat die Bildlaufleisten bei der aktuellen Windows-Version im Vergleich zu den Vorgängern verkleinert. Fehlklicks und Mauszeiger-Präzisionsarbeit sind die zeit- und nervenraubenden Folgen. Weil auch ein Scroll-Rad nur bei überschaubaren Bewegungen Abhilfe schafft, haben wir uns Gedanken darüber gemacht, wie man unter Windows besser scrollen könnte – und das Resultat der Denkarbeit im Vibe-Coding-Verfahren kurzerhand umgesetzt. Das Ergebnis ist ein völlig kostenloses Skript, das Ihrer Produktivität unter Windows 11 im Handumdrehen einen Boost verleihen kann. Das neue Windows-Scroll-Erlebnis Unser Tool fußt auf dem (ebenfalls kostenlosen) Windows-Automation-Framework AutoHotkey und trägt den Namen „Grab to Scroll“ – Sie können es hier direkt herunterladen. Die einzige Voraussetzung, die erfüllt sein muss, um das Skript einzusetzen: Sie brauchen das Kernprogramm AutoHotKey (2.0). Ist dieses installiert, starten Sie das Tool einfach mit einem Doppelklick. Und so funktioniert es: Positionieren Sie den Mauszeiger an einer beliebigen Stelle über einem beliebigen Programmfenster (zum Beispiel Chrome, Slack oder Excel). Klicken Sie auf die mittlere Maustaste (beziehungsweise das Mausrad) und halten Sie diese gedrückt. Bewegen Sie die Maus (nicht das Scroll-Rad) nach oben, unten, links oder rechts. Das Skript übersetzt Ihre Mausbewegungen in schnelle, präzise Scroll-Bewegungen. Sobald Sie dort sind, wo Sie hinwollen, lassen Sie die Taste (beziehungsweise das Rad) los. Das klingt nicht nur simpel, sondern fühlt sich auch genauso an. Nach einiger Zeit geht dieses Verfahren in Fleisch und Blut über. Doch sehen Sie selbst: So sieht „Grab to Scroll“ in Aktion aus.Chris Hoffman, IDG Einen „Nachteil“ hat das Skript jedoch: Die mittlere Maustaste – beziehungsweise das Scroll-Rad – funktioniert nicht wie gewohnt, solange das Skript aktiv ist. Dafür gibt es jedoch auch einen Workaround: Um die normale Funktionalität zu nutzen, halten Sie einfach zeitgleich die Strg-Taste gedrückt. Wenn Sie „Grab to Scroll“ vollständig beenden möchten, reicht dazu ein Rechtsklick auf das entsprechende Symbol in der Taskleiste. Über den System Tray beenden Sie das Scroll-Tool zuverlässig.Chris Hoffman, IDG Natürlich können Sie das Skript auch entsprechend Ihren Vorlieben anpassen, beispielsweise mit Blick auf die Scroll-Geschwindigkeit. Dazu müssen Sie lediglich die Zahlenwerte in der Skriptdatei mit Notepad, Notepad ++ oder einem anderen Editor Ihrer Wahl verändern. Wie das genau geht, entnehmen Sie den eingepflegten Kommentaren. Damit die Änderungen wirksam werden, müssen Sie das Skript anschließend über den System Tray neu laden.   Mit Vibe Coding zum maßgeschneiderten Windows Um dieses Skript zu erstellen, haben wir uns dem Vibe-Coding-Verfahren bedient: Wir hatten ein Problem sowie eine Lösung dafür und haben beides generativer künstlicher Intelligenz (GenAI) „übergeben“, die daraus dann das „Grab to Scroll“-Skript erstellt hat. Dieser Prozess lief alles andere als reibungslos ab – es waren einige Versuche nötig, um zu einem zufriedenstellenden Ergebnis zu kommen. Der entscheidende Punkt aber ist: Um unser Tool zu erstellen, mussten wir nur wissen, was das Problem ist und wie die Lösung aussehen sollte. Diese Vision anschließend in Routinearbeit zu übersetzen, hat die KI übernommen. Und trotz einiger Anlaufschwierigkeiten dauerte es von der Vision zum fertigen Skript nur etwa eine Stunde. Heißt im Umkehrschluss: Mit dem gleichen Verfahren könnten Sie weitere Skripte entwickeln, damit Windows genau so funktioniert, wie Sie es sich vorstellen – auch wenn Sie kein Programmierer sind. Vor allem aber zeigt unser Skript, dass GenAI zu nutzen nicht unbedingt bedeutet, sein Gehirn auszuschalten: Im Gegenteil kann die Technologie unsere Denkleistung verstärken und beschleunigen, wenn sie richtig eingesetzt wird. So kann Vibe Coding dazu beitragen, eine Idee in Sekunden direkt umzusetzen und zu testen – statt erst einmal stundenlang Grundlagen zu recherchieren. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Mit diesem Tool scrollen Windows-Nutzer besser​ Scroll-Räder und mittige Maustasten können Sie mit unserem Skript getrost vergessen.Gorodenkoff | shutterstock.com

Je größer Ihr Bildschirm, desto wahrscheinlicher ist es, dass Sie regelmäßig vom Scroll-System von Windows 11 in den Wahnsinn getrieben werden. Denn Microsoft hat die Bildlaufleisten bei der aktuellen Windows-Version im Vergleich zu den Vorgängern verkleinert. Fehlklicks und Mauszeiger-Präzisionsarbeit sind die zeit- und nervenraubenden Folgen.

Weil auch ein Scroll-Rad nur bei überschaubaren Bewegungen Abhilfe schafft, haben wir uns Gedanken darüber gemacht, wie man unter Windows besser scrollen könnte – und das Resultat der Denkarbeit im Vibe-Coding-Verfahren kurzerhand umgesetzt. Das Ergebnis ist ein völlig kostenloses Skript, das Ihrer Produktivität unter Windows 11 im Handumdrehen einen Boost verleihen kann.

Das neue Windows-Scroll-Erlebnis

Unser Tool fußt auf dem (ebenfalls kostenlosen) Windows-Automation-Framework AutoHotkey und trägt den Namen „Grab to Scroll“ – Sie können es hier direkt herunterladen. Die einzige Voraussetzung, die erfüllt sein muss, um das Skript einzusetzen: Sie brauchen das Kernprogramm AutoHotKey (2.0). Ist dieses installiert, starten Sie das Tool einfach mit einem Doppelklick.

Und so funktioniert es:

Positionieren Sie den Mauszeiger an einer beliebigen Stelle über einem beliebigen Programmfenster (zum Beispiel Chrome, Slack oder Excel).

Klicken Sie auf die mittlere Maustaste (beziehungsweise das Mausrad) und halten Sie diese gedrückt.

Bewegen Sie die Maus (nicht das Scroll-Rad) nach oben, unten, links oder rechts.

Das Skript übersetzt Ihre Mausbewegungen in schnelle, präzise Scroll-Bewegungen.

Sobald Sie dort sind, wo Sie hinwollen, lassen Sie die Taste (beziehungsweise das Rad) los.

Das klingt nicht nur simpel, sondern fühlt sich auch genauso an. Nach einiger Zeit geht dieses Verfahren in Fleisch und Blut über. Doch sehen Sie selbst:

So sieht „Grab to Scroll“ in Aktion aus.Chris Hoffman, IDG

Einen „Nachteil“ hat das Skript jedoch: Die mittlere Maustaste – beziehungsweise das Scroll-Rad – funktioniert nicht wie gewohnt, solange das Skript aktiv ist. Dafür gibt es jedoch auch einen Workaround: Um die normale Funktionalität zu nutzen, halten Sie einfach zeitgleich die Strg-Taste gedrückt.

Wenn Sie „Grab to Scroll“ vollständig beenden möchten, reicht dazu ein Rechtsklick auf das entsprechende Symbol in der Taskleiste.

Über den System Tray beenden Sie das Scroll-Tool zuverlässig.Chris Hoffman, IDG

Natürlich können Sie das Skript auch entsprechend Ihren Vorlieben anpassen, beispielsweise mit Blick auf die Scroll-Geschwindigkeit. Dazu müssen Sie lediglich die Zahlenwerte in der Skriptdatei mit Notepad, Notepad ++ oder einem anderen Editor Ihrer Wahl verändern. Wie das genau geht, entnehmen Sie den eingepflegten Kommentaren. Damit die Änderungen wirksam werden, müssen Sie das Skript anschließend über den System Tray neu laden.  

Mit Vibe Coding zum maßgeschneiderten Windows

Um dieses Skript zu erstellen, haben wir uns dem Vibe-Coding-Verfahren bedient: Wir hatten ein Problem sowie eine Lösung dafür und haben beides generativer künstlicher Intelligenz (GenAI) „übergeben“, die daraus dann das „Grab to Scroll“-Skript erstellt hat. Dieser Prozess lief alles andere als reibungslos ab – es waren einige Versuche nötig, um zu einem zufriedenstellenden Ergebnis zu kommen.

Der entscheidende Punkt aber ist: Um unser Tool zu erstellen, mussten wir nur wissen, was das Problem ist und wie die Lösung aussehen sollte. Diese Vision anschließend in Routinearbeit zu übersetzen, hat die KI übernommen. Und trotz einiger Anlaufschwierigkeiten dauerte es von der Vision zum fertigen Skript nur etwa eine Stunde. Heißt im Umkehrschluss: Mit dem gleichen Verfahren könnten Sie weitere Skripte entwickeln, damit Windows genau so funktioniert, wie Sie es sich vorstellen – auch wenn Sie kein Programmierer sind.

Vor allem aber zeigt unser Skript, dass GenAI zu nutzen nicht unbedingt bedeutet, sein Gehirn auszuschalten: Im Gegenteil kann die Technologie unsere Denkleistung verstärken und beschleunigen, wenn sie richtig eingesetzt wird. So kann Vibe Coding dazu beitragen, eine Idee in Sekunden direkt umzusetzen und zu testen – statt erst einmal stundenlang Grundlagen zu recherchieren. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Mit diesem Tool scrollen Windows-Nutzer besser​ Weiterlesen »

Die harte Wahrheit über cloudbasierte KI​

Allgemein

Cloudbasierte KI – nur ein schöner Traum?Pavel Chagochkin | shutterstock.com Der Public-Cloud-Markt wächst weiter rasant – in erster Linie getrieben durch KI-Initiativen in Unternehmen. Entsprechend überschlagen sich die Cloud-Anbieter, um ihre jeweils neuesten und revolutionärsten KI-Features anzupreisen und bieten mitunter auch großzügige Rabatte, um Unternehmen dazu zu bringen, diese zu beziehen. Hinter dieser Hype-Fassade verbirgt sich allerdings eine beunruhigende Realität, die nur selten offen thematisiert wird.   Immer wieder ist zu beobachten, dass Projekte im Bereich künstliche Intelligenz (KI) mit großem Tamtam an den Start gehen, nur, um in der Folge still und leise in der Versenkung zu verschwinden. Die Enterprise-Kunden sind vor allem gut darin, Geld auszugeben. KI-Fähigkeiten effektiv aufzubauen und zielführend einzusetzen, stellt sie hingegen vor Probleme. Das belegen auch Statistiken: So gehen zum Beispiel die Analysten von Gartner davon aus, dass ganze 85 Prozent der KI-Implementierungen die Erwartungen, die in sie gesetzt werden, nicht erfüllen können. Oder erst gar nicht abgeschlossen werden. Nach außen präsentiert sich ein völlig anderes Bild: Cloud-Anbieter behaupten immer wieder, Schwierigkeiten zu haben, die überwältigende Nachfrage nach KI-Ressourcen zu befriedigen. Gleichzeitig können die Geschäftsergebnisse der Cloud-Riesen aber bislang des Öfteren die Erwartungen der Investoren nicht erfüllen. Trotz der Schwierigkeiten, ein proportionales Umsatzwachstum nachzuweisen, kündigen die Anbieter aber dennoch weiter beispiellose Investitionen in KI-Infrastruktur an – teilweise ist von einer Erhöhung der Budgets um bis zu 40 Prozent die Rede.     Das schürt unter Investoren die Sorge, dass die Cloud-Anbieter die potenzielle zukünftige Nachfrage mit der aktuellen Marktrealität verwechseln. Das wiederum könnte zu einer Diskrepanz zwischen Infrastrukturinvestitionen und unmittelbarer Umsatzgenerierung führen. Ist KI am Ende doch nur ein extrem teures Forschungsprojekt, weil die Technologie nicht in großem Maßstab eingesetzt und bezahlt werden kann? Fakt ist jedenfalls, dass die kurzfristige Marktdynamik – dem langfristigen Potenzial von KI zum Trotz – deutlich komplexer ist, als es die Verlautbarungen der Anbieter vermuten lassen. Cloud-KI-Dilemmata Das größte Hemmnis für eine erfolgreiche KI-Implementierung ist wahrscheinlich die Datenqualität. So setzen Unternehmen immer komplexere (generative) KI-Anwendungen ein, die eigentlich maßgeschneiderte, hochwertige Datensätze erfordern. Dabei offenbaren sich allerdings vielerorts gravierende Mängel bei existierenden Dateninfrastrukturen. Zwar dürfte den meisten Anwenderunternehmen durchaus bewusst gewesen sein, dass ihr Datenbestand nicht perfekt ist. Wie es wirklich um die Qualität der Daten bestellt ist, haben die meisten aber erst gemerkt, als ihre KI-Projekte schon nicht mehr zu retten waren. In vielen Fällen liegt die Ursache dafür in jahrelangen Versäumnissen, grundlegende Daten(qualitäts)probleme anzugehen. Die damit angehäuften, technischen Schulden gefährden nun allerdings die KI-Ambitionen. Durch zögerliche Führungskräfte verschärft sich diese Situation noch weiter: Viele Unternehmen geben GenAI-Initiativen auf, weil es ihnen zu kostspielig erscheint, ihre Datenprobleme zu beheben. Das führt in einen Teufelskreis, bei dem mangelnde Investitionen zu anhaltenden Misserfolgen führen, was wiederum die Zögerlichkeit der C-Level-Entscheider befeuert. Zudem entwickelt sich der Return on Investment (RoI) von KI-Initiativen deutlich langsamer als erwartet. Das würde eigentlich erfordern, erfolgskritische Grundlagen wie ein robustes Datenmanagement und eine strategische Planung zu evaluieren – doch auch diese Maßnahmen halten viele Anwender für zu teuer oder zu riskant.   Die Cloud-Anbieter reagieren auf diese Zurückhaltung ihrerseits mit immer aggressiveren Marketing- und Incentive-Programmen und selbstbewussten Versprechungen einer besonders einfachen Implementierung. Diese Taktiken verschleiern jedoch oft die tatsächlichen Probleme. Einige Anbieter schaffen gar künstliche Nachfragesignale, indem sie KI-bezogene Stellenanzeigen veröffentlichen, von denen viele gar nicht finanziert sind. Das Ziel ist es, den Eindruck zu erwecken, man habe KI besonders schnell und mit Erfolg eingeführt.  Und auch die Kompetenzlücke, beziehungsweise der „gute, alte“ Fachkräftemangel trägt dazu bei, dass KI-Programme nicht in Gang kommen. Die Anwenderunternehmen suchen händeringend nach qualifizierten Fachkräften, die KI-Systeme effektiv implementieren und managen können. An dieser Stelle hilft es auch nichts, dass die Cloud-Anbieter inzwischen diverse Tools und Plattformen anbieten, um ihre Kunden zu unterstützen. Am Ende wird diese Situation sehr wahrscheinlich zu einer Zweiklassengesellschaft mit Blick auf KI führen. Die einen schaffen es, ihre Daten erfolgreich zu organisieren und die Technologie effektiv zu implementieren. Die anderen fallen zurück und werden sehr wahrscheinlich nicht mehr aufholen können. Strategischer Weg, bester Weg Damit sich die Situation bessert, müssten sich die Entscheider in den Anwenderunternehmen von der derzeitigen Praxis verabschieden: Statt sich voreilig in schlecht geplante KI-Implementierungen zu stürzen, jeder neuen KI-Funktion hinterher zu hecheln und sinnlos Cloud-Credits zu verschleudern, wäre es angebracht, KI-Fähigkeiten strategisch und mit Bedacht zu entwickeln. Ganz konkret ließe sich das zum Beispiel in folgende Maßnahmen übersetzen: Zunächst sollten Sie Ihre Daten in Ordnung bringen. Wenn deren Qualität nicht stimmt, liefern selbst die raffiniertesten  KI-Tools keinen Mehrwert. Soll heißen: Investieren Sie in angemessene Datenmanagement- und Qualitätskontrollmaßnahmen bevor Sie KI-Projekte in Angriff nehmen.   Im nächsten Schritt bauen Sie internes Fachwissen auf. Ihr Team muss verstehen, wie sich die Tools der Anbieter effektiv einsetzen lassen, um Ihre geschäftlichen Herausforderungen zu stemmen. Investieren Sie in die Schulung bestehender Mitarbeiter und stellen Sie gezielt KI-Spezialisten ein. Starten Sie mit kleinen, fokussierten Projekten, die spezifische Business-Probleme adressieren und belegen Sie deren Mehrwert durch kontrollierte Experimente – bevor Sie skalieren. Das hilft dabei, Vertrauen sowie interne Fähigkeiten aufzubauen und zu einem greifbaren RoI zu gelangen. Für die Zukunft sollten sowohl die großen Cloud-, respektive KI-Anbieter als auch ihre Kunden eine realistischere Erwartungshaltung annehmen, wenn es um KI geht. Sie sollten den Fokus künftig auf nachhaltige KI-Implementierungen legen – in ihrem eigenen Interesse. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die harte Wahrheit über cloudbasierte KI​ Cloudbasierte KI – nur ein schöner Traum?Pavel Chagochkin | shutterstock.com

Der Public-Cloud-Markt wächst weiter rasant – in erster Linie getrieben durch KI-Initiativen in Unternehmen. Entsprechend überschlagen sich die Cloud-Anbieter, um ihre jeweils neuesten und revolutionärsten KI-Features anzupreisen und bieten mitunter auch großzügige Rabatte, um Unternehmen dazu zu bringen, diese zu beziehen. Hinter dieser Hype-Fassade verbirgt sich allerdings eine beunruhigende Realität, die nur selten offen thematisiert wird.  

Immer wieder ist zu beobachten, dass Projekte im Bereich künstliche Intelligenz (KI) mit großem Tamtam an den Start gehen, nur, um in der Folge still und leise in der Versenkung zu verschwinden. Die Enterprise-Kunden sind vor allem gut darin, Geld auszugeben. KI-Fähigkeiten effektiv aufzubauen und zielführend einzusetzen, stellt sie hingegen vor Probleme. Das belegen auch Statistiken: So gehen zum Beispiel die Analysten von Gartner davon aus, dass ganze 85 Prozent der KI-Implementierungen die Erwartungen, die in sie gesetzt werden, nicht erfüllen können. Oder erst gar nicht abgeschlossen werden.

Nach außen präsentiert sich ein völlig anderes Bild: Cloud-Anbieter behaupten immer wieder, Schwierigkeiten zu haben, die überwältigende Nachfrage nach KI-Ressourcen zu befriedigen. Gleichzeitig können die Geschäftsergebnisse der Cloud-Riesen aber bislang des Öfteren die Erwartungen der Investoren nicht erfüllen. Trotz der Schwierigkeiten, ein proportionales Umsatzwachstum nachzuweisen, kündigen die Anbieter aber dennoch weiter beispiellose Investitionen in KI-Infrastruktur an – teilweise ist von einer Erhöhung der Budgets um bis zu 40 Prozent die Rede.    

Das schürt unter Investoren die Sorge, dass die Cloud-Anbieter die potenzielle zukünftige Nachfrage mit der aktuellen Marktrealität verwechseln. Das wiederum könnte zu einer Diskrepanz zwischen Infrastrukturinvestitionen und unmittelbarer Umsatzgenerierung führen. Ist KI am Ende doch nur ein extrem teures Forschungsprojekt, weil die Technologie nicht in großem Maßstab eingesetzt und bezahlt werden kann? Fakt ist jedenfalls, dass die kurzfristige Marktdynamik – dem langfristigen Potenzial von KI zum Trotz – deutlich komplexer ist, als es die Verlautbarungen der Anbieter vermuten lassen.

Cloud-KI-Dilemmata

Das größte Hemmnis für eine erfolgreiche KI-Implementierung ist wahrscheinlich die Datenqualität. So setzen Unternehmen immer komplexere (generative) KI-Anwendungen ein, die eigentlich maßgeschneiderte, hochwertige Datensätze erfordern. Dabei offenbaren sich allerdings vielerorts gravierende Mängel bei existierenden Dateninfrastrukturen. Zwar dürfte den meisten Anwenderunternehmen durchaus bewusst gewesen sein, dass ihr Datenbestand nicht perfekt ist. Wie es wirklich um die Qualität der Daten bestellt ist, haben die meisten aber erst gemerkt, als ihre KI-Projekte schon nicht mehr zu retten waren. In vielen Fällen liegt die Ursache dafür in jahrelangen Versäumnissen, grundlegende Daten(qualitäts)probleme anzugehen. Die damit angehäuften, technischen Schulden gefährden nun allerdings die KI-Ambitionen.

Durch zögerliche Führungskräfte verschärft sich diese Situation noch weiter: Viele Unternehmen geben GenAI-Initiativen auf, weil es ihnen zu kostspielig erscheint, ihre Datenprobleme zu beheben. Das führt in einen Teufelskreis, bei dem mangelnde Investitionen zu anhaltenden Misserfolgen führen, was wiederum die Zögerlichkeit der C-Level-Entscheider befeuert. Zudem entwickelt sich der Return on Investment (RoI) von KI-Initiativen deutlich langsamer als erwartet. Das würde eigentlich erfordern, erfolgskritische Grundlagen wie ein robustes Datenmanagement und eine strategische Planung zu evaluieren – doch auch diese Maßnahmen halten viele Anwender für zu teuer oder zu riskant.  

Die Cloud-Anbieter reagieren auf diese Zurückhaltung ihrerseits mit immer aggressiveren Marketing- und Incentive-Programmen und selbstbewussten Versprechungen einer besonders einfachen Implementierung. Diese Taktiken verschleiern jedoch oft die tatsächlichen Probleme. Einige Anbieter schaffen gar künstliche Nachfragesignale, indem sie KI-bezogene Stellenanzeigen veröffentlichen, von denen viele gar nicht finanziert sind. Das Ziel ist es, den Eindruck zu erwecken, man habe KI besonders schnell und mit Erfolg eingeführt. 

Und auch die Kompetenzlücke, beziehungsweise der „gute, alte“ Fachkräftemangel trägt dazu bei, dass KI-Programme nicht in Gang kommen. Die Anwenderunternehmen suchen händeringend nach qualifizierten Fachkräften, die KI-Systeme effektiv implementieren und managen können. An dieser Stelle hilft es auch nichts, dass die Cloud-Anbieter inzwischen diverse Tools und Plattformen anbieten, um ihre Kunden zu unterstützen. Am Ende wird diese Situation sehr wahrscheinlich zu einer Zweiklassengesellschaft mit Blick auf KI führen. Die einen schaffen es, ihre Daten erfolgreich zu organisieren und die Technologie effektiv zu implementieren. Die anderen fallen zurück und werden sehr wahrscheinlich nicht mehr aufholen können.

Strategischer Weg, bester Weg

Damit sich die Situation bessert, müssten sich die Entscheider in den Anwenderunternehmen von der derzeitigen Praxis verabschieden: Statt sich voreilig in schlecht geplante KI-Implementierungen zu stürzen, jeder neuen KI-Funktion hinterher zu hecheln und sinnlos Cloud-Credits zu verschleudern, wäre es angebracht, KI-Fähigkeiten strategisch und mit Bedacht zu entwickeln. Ganz konkret ließe sich das zum Beispiel in folgende Maßnahmen übersetzen:

Zunächst sollten Sie Ihre Daten in Ordnung bringen. Wenn deren Qualität nicht stimmt, liefern selbst die raffiniertesten  KI-Tools keinen Mehrwert. Soll heißen: Investieren Sie in angemessene Datenmanagement- und Qualitätskontrollmaßnahmen bevor Sie KI-Projekte in Angriff nehmen.  

Im nächsten Schritt bauen Sie internes Fachwissen auf. Ihr Team muss verstehen, wie sich die Tools der Anbieter effektiv einsetzen lassen, um Ihre geschäftlichen Herausforderungen zu stemmen. Investieren Sie in die Schulung bestehender Mitarbeiter und stellen Sie gezielt KI-Spezialisten ein.

Starten Sie mit kleinen, fokussierten Projekten, die spezifische Business-Probleme adressieren und belegen Sie deren Mehrwert durch kontrollierte Experimente – bevor Sie skalieren. Das hilft dabei, Vertrauen sowie interne Fähigkeiten aufzubauen und zu einem greifbaren RoI zu gelangen.

Für die Zukunft sollten sowohl die großen Cloud-, respektive KI-Anbieter als auch ihre Kunden eine realistischere Erwartungshaltung annehmen, wenn es um KI geht. Sie sollten den Fokus künftig auf nachhaltige KI-Implementierungen legen – in ihrem eigenen Interesse. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die harte Wahrheit über cloudbasierte KI​ Weiterlesen »

Die größten Paradoxa der Softwareentwicklung​

Allgemein

Paradoxe Erlebnisse sind für Softwareentwickler Alltag.Rosemarie Mosteller | shutterstock.com Vergleicht man den Bau von Brücken mit der Softwareentwicklung, zeigen sich bedeutende Unterschiede: Denn auch wenn keine Brücke – ähnlich wie ein Softwareprojekt – der anderen bis aufs „Haar“ gleicht, werden sie aus bekannten Materialien mit bekannten Eigenschaften geschaffen.   Im Gegensatz dazu beinhaltet der Softwareentwicklungsprozess wesentlich mehr „unknown Unknowns“. Was dazu führt, dass er jede Menge Paradoxa beinhaltet, mit denen Developer teilweise nur schwer umgehen können. Wichtig ist aber vor allem, sich ihre Existenz bewusst zu machen – nur so lassen sich die daraus entstehenden Fallstricke umgehen. Insbesondere, wenn es dabei um die folgenden vier Paradoxa geht. 1. Ohne Plan, aber mit Deadline Zielführend einzuschätzen, wie lange ein Softwareprojekt dauern wird, ist wahrscheinlich die größte Herausforderung für Softwareentwickler überhaupt. Denn darüber lässt sich keine abschließende, verbindliche Aussage treffen. Sicher, man kann den ungefähren Aufwand schätzen – das geht im Regelfall allerdings daneben. Meistens wird der zeitliche Aufwand drastisch unterschätzt. Wird die gesetzte Deadline dann verpasst, ärgern sich vor allem die Kunden. Sie stecken nicht in der Haut der Devs und durchblicken die Abläufe und möglichen Hindernisse (im Regelfall) nicht. Also sind sie frustriert, weil ihre Software nicht zum vereinbarten Zeitpunkt ausgeliefert wird.   Auch sämtliche Versuche, mit schicken, agilen Methoden wie Story Points oder Planing Poker zielführender vorhersagen zu wollen, wann ein Softwareprojekt abgeschlossen wird, bringen nichts wenig. Wir scheinen einfach nicht in der Lage, Hofstadters Gesetz (der Verzögerung) zu überwinden. 2. Mehr Mannstärke, mehr Verzug Stellt ein Manager einer Fabrik fest, dass die monatliche Quote für abgefüllte Zahnpastatuben in Gefahr ist, setzt er mehr Arbeiter ein, um die Vorgabe zu erfüllen. Ähnlich verhält es sich beim Hausbau: Wenn Sie doppelt so viele Häuser wie im Vorjahr bauen wollen, hilft es in der Regel, die Vorleistungen – Arbeit und Material – zu verdoppeln. Im Fall der Softwareentwicklung verhält sich das völlig anders, wie Frederick Brooks bereits 1975 in seinem Buch „Vom Mythos des Mann-Monats“ herausgearbeitet hat. Demnach hilft es wenig, verzögerte Softwareprojekte mit zusätzlicher Mannstärke retten zu wollen. Im Gegenteil: Gemäß dem Brooks’schen Gesetz verzögert das das Projekt nur noch zusätzlich. Schließlich können neu hinzukommende Teammitglieder nicht sofort zum Projekt beitragen. Sie benötigen Zeit, um sich in den Kontext komplexer Systeme einzuarbeiten, was oft auch zusätzliche Kommunikationsmaßnahmen nach sich zieht. Am Ende verzögert sich dann nicht nur alles noch weiter – es kostet auch mehr. 3. Mehr Skills, weniger Programmier-Tasks Als Softwareentwickler umfassende Expertise aufzubauen und sämtliche erforderlichen Regeln und Feinheiten zu verinnerlichen, um wartbaren, sauberen Code zu schreiben, nimmt etliche Jahre in Anspruch. Dabei erscheint es auch relativ paradox, dass die Programmieraufgaben mit steigender Erfahrung eher weniger werden: Statt zu programmieren, sitzen leitende Entwickler vor allem in Design-Meetings, überprüfen den Code anderer und übernehmen weitere Führungsaufgaben.   Das heißt zwar nicht, dass Senior Developer einen kleineren Beitrag leisten. Schließlich sorgen sie in Führungspositionen dafür, dass zeitgemäß und zielführend gearbeitet wird und tragen so wesentlich zum Team- und Unternehmenserfolg bei. Aber am Ende schreiben sie dennoch weniger Code. 4. Bessere Tools, keine Zeitvorteile Vergleicht man die Webentwicklung von heute mit performanten Tools wie React, Astro und Next.js mit dem Gebaren von vor 30 Jahren (Stichwort Common Gateway Interface), wird klar, dass wir uns seitdem um Lichtjahre weiterentwickelt haben. Doch obwohl unsere Tools immer besser und die Prozessoren immer schneller werden, scheinen sich Softwareprojekte insgesamt nicht zu beschleunigen. Das wirft Fragen auf: Unsere Websites sehen zwar immer besser aus, aber sind wir wirklich produktiver? Laufen unsere Websites schneller und verarbeiten sie Daten besser? Natürlich abstrahieren die Frameworks und Bibliotheken von heute viele Komplexitäten. Sie führen aber auch zu neuen Problemen. Zum Beispiel langen Build-Pipelines, Konfigurationsalbträumen oder Abhängigkeitsproblemen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die größten Paradoxa der Softwareentwicklung​ Paradoxe Erlebnisse sind für Softwareentwickler Alltag.Rosemarie Mosteller | shutterstock.com

Vergleicht man den Bau von Brücken mit der Softwareentwicklung, zeigen sich bedeutende Unterschiede: Denn auch wenn keine Brücke – ähnlich wie ein Softwareprojekt – der anderen bis aufs „Haar“ gleicht, werden sie aus bekannten Materialien mit bekannten Eigenschaften geschaffen.  

Im Gegensatz dazu beinhaltet der Softwareentwicklungsprozess wesentlich mehr „unknown Unknowns“. Was dazu führt, dass er jede Menge Paradoxa beinhaltet, mit denen Developer teilweise nur schwer umgehen können. Wichtig ist aber vor allem, sich ihre Existenz bewusst zu machen – nur so lassen sich die daraus entstehenden Fallstricke umgehen. Insbesondere, wenn es dabei um die folgenden vier Paradoxa geht.

1. Ohne Plan, aber mit Deadline

Zielführend einzuschätzen, wie lange ein Softwareprojekt dauern wird, ist wahrscheinlich die größte Herausforderung für Softwareentwickler überhaupt. Denn darüber lässt sich keine abschließende, verbindliche Aussage treffen. Sicher, man kann den ungefähren Aufwand schätzen – das geht im Regelfall allerdings daneben. Meistens wird der zeitliche Aufwand drastisch unterschätzt.

Wird die gesetzte Deadline dann verpasst, ärgern sich vor allem die Kunden. Sie stecken nicht in der Haut der Devs und durchblicken die Abläufe und möglichen Hindernisse (im Regelfall) nicht. Also sind sie frustriert, weil ihre Software nicht zum vereinbarten Zeitpunkt ausgeliefert wird.  

Auch sämtliche Versuche, mit schicken, agilen Methoden wie Story Points oder Planing Poker zielführender vorhersagen zu wollen, wann ein Softwareprojekt abgeschlossen wird, bringen nichts wenig. Wir scheinen einfach nicht in der Lage, Hofstadters Gesetz (der Verzögerung) zu überwinden.

2. Mehr Mannstärke, mehr Verzug

Stellt ein Manager einer Fabrik fest, dass die monatliche Quote für abgefüllte Zahnpastatuben in Gefahr ist, setzt er mehr Arbeiter ein, um die Vorgabe zu erfüllen. Ähnlich verhält es sich beim Hausbau: Wenn Sie doppelt so viele Häuser wie im Vorjahr bauen wollen, hilft es in der Regel, die Vorleistungen – Arbeit und Material – zu verdoppeln.

Im Fall der Softwareentwicklung verhält sich das völlig anders, wie Frederick Brooks bereits 1975 in seinem Buch „Vom Mythos des Mann-Monats“ herausgearbeitet hat. Demnach hilft es wenig, verzögerte Softwareprojekte mit zusätzlicher Mannstärke retten zu wollen. Im Gegenteil: Gemäß dem Brooks’schen Gesetz verzögert das das Projekt nur noch zusätzlich. Schließlich können neu hinzukommende Teammitglieder nicht sofort zum Projekt beitragen. Sie benötigen Zeit, um sich in den Kontext komplexer Systeme einzuarbeiten, was oft auch zusätzliche Kommunikationsmaßnahmen nach sich zieht. Am Ende verzögert sich dann nicht nur alles noch weiter – es kostet auch mehr.

3. Mehr Skills, weniger Programmier-Tasks

Als Softwareentwickler umfassende Expertise aufzubauen und sämtliche erforderlichen Regeln und Feinheiten zu verinnerlichen, um wartbaren, sauberen Code zu schreiben, nimmt etliche Jahre in Anspruch. Dabei erscheint es auch relativ paradox, dass die Programmieraufgaben mit steigender Erfahrung eher weniger werden: Statt zu programmieren, sitzen leitende Entwickler vor allem in Design-Meetings, überprüfen den Code anderer und übernehmen weitere Führungsaufgaben.  

Das heißt zwar nicht, dass Senior Developer einen kleineren Beitrag leisten. Schließlich sorgen sie in Führungspositionen dafür, dass zeitgemäß und zielführend gearbeitet wird und tragen so wesentlich zum Team- und Unternehmenserfolg bei. Aber am Ende schreiben sie dennoch weniger Code.

4. Bessere Tools, keine Zeitvorteile

Vergleicht man die Webentwicklung von heute mit performanten Tools wie React, Astro und Next.js mit dem Gebaren von vor 30 Jahren (Stichwort Common Gateway Interface), wird klar, dass wir uns seitdem um Lichtjahre weiterentwickelt haben. Doch obwohl unsere Tools immer besser und die Prozessoren immer schneller werden, scheinen sich Softwareprojekte insgesamt nicht zu beschleunigen. Das wirft Fragen auf:

Unsere Websites sehen zwar immer besser aus, aber sind wir wirklich produktiver?

Laufen unsere Websites schneller und verarbeiten sie Daten besser?

Natürlich abstrahieren die Frameworks und Bibliotheken von heute viele Komplexitäten. Sie führen aber auch zu neuen Problemen. Zum Beispiel langen Build-Pipelines, Konfigurationsalbträumen oder Abhängigkeitsproblemen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die größten Paradoxa der Softwareentwicklung​ Weiterlesen »

Large-Language-Model-Tutorial: 5 Wege, LLMs lokal auszuführen​

Allgemein

Large Language Models lokal zu betreiben, muss keine Kopfschmerzen bereiten. Foto: Jamie Jin | shutterstock.com Chatbots im Stil von ChatGPT, Claude oder phind können extrem hilfreich sein. Wenn Sie allerdings verhindern möchten, dass die externen Applikationen möglicherweise sensible Daten verarbeiten, respektive diese nutzen, um die zugrundeliegenden, großen Sprachmodelle (Large Language Models; LLMs) zu trainieren, bleibt nur eine Lösung: Sie laden ein LLM auf Ihren Rechner und führen es lokal aus. Das ist auch eine gute Option, um neue Spezialmodelle auszutesten, etwa Metas Code-Llama-Modellfamilie oder SeamlessM4T. Ein eigenes LLM lokal zu betreiben, mag dabei auf den ersten Blick komplex wirken. Mit den richtigen Tools ist das allerdings überraschend simpel. Zudem sind die Anforderungen, die das an die Hardware stellt, nicht übermäßig. Wir haben die in diesem Tutorial vorgestellten Optionen auf zweierlei Systemen getestet: einem Windows-PC mit Intel i9-Prozessor, 64 GB RAM und Nvidia GeForce-GPU (12 GB) und einem Mac mit M1-Chip und 16 GB RAM. Das wahrscheinlich größte Hindernis, wenn Sie dieses Unterfangen angehen wollen: Sie müssen ein Modell finden, das für die angestrebten Tasks geeignet ist und auf Ihrer Hardware läuft. Dabei funktionieren nur wenige so gut wie die bekannten GenAI-Tools der großen Unternehmen. Wie Simon Willison, Schöpfer des Kommandozeilen-Tools LLM, argumentiert, muss das jedoch kein Nachteil sein: “Einige Modelle, die auf Laptops laufen, halluzinieren wie wild. Das ist meiner Meinung nach ein guter Grund, sie einzusetzen. Denn das trägt zum allgemeinen Verständnis der Modelle – und ihrer Grenzen – bei.” 1. Lokaler Chatbot mit GPT4All Den Desktop-Client von gpt4all herunterzuladen (verfügbar für Windows, MacOS und Ubuntu), bietet sich an, wenn Sie einen Chatbot aufsetzen wollen, der keine Daten an Dritte sendet. GPT4All ist dabei einfach einzurichten: Sobald Sie die Desktop-App zum ersten Mal öffnen, werden Ihnen ein knappes Dutzend LLM-Optionen angezeigt, die lokal ausgeführt werden können – beispielsweise Metas Llama-2-7B chat. Darüber hinaus können Sie auch OpenAIs GPT-3.5 und GPT-4 für die nicht lokale Nutzung einrichten (einen API-Key vorausgesetzt). Sobald die Large Language Models eingerichtet sind, erwartet Sie ein übersichtliches und selbsterklärendes Chatbot-Interface. Foto: Sharon Machlis / IDG Darüber hinaus steht auch ein neues Beta-Plugin namens LocalDocs bereit. Das ermöglicht Ihnen, lokal mit Ihren eigenen Dokumenten zu “chatten”. Sie können es über die Registerkarte Settings aktivieren. Dieses Plugin befindet sich noch in der Entwicklung – Halluzinationen sind deshalb nicht ausgeschlossen. Nichtsdestotrotz handelt es sich um eine interessante Funktion, die sich parallel zu den Open-Source-LLMs verbessern dürfte. Neben der Chatbot-Anwendung verfügt GPT4All auch über Bindings für Python und Node sowie eine Befehlszeilenschnittstelle. Auch ein Servermodus steht zur Verfügung, über den Sie mit ihrem lokalen Large Language Model über eine http-API interagieren können. Diese Schnittsatelle ist ähnlich strukturiert wie die von Open AI und erleichtert es, lokale Sprachmodelle mit nur wenigen Änderungen am Code gegen die von OpenAI auszutauschen. 2. LLM in der Kommandozeile Das eingangs bereits erwähnte Tool von Simon Willison – LLM – bietet eine simple Option, um quelloffene, große Sprachmodelle herunterzuladen und lokal auf dem eigenen Rechner auszuführen. Dafür müssen Sie zwar Python installiert haben, aber keinen Python-Code anfassen. Wenn Sie auf einem Mac arbeiten und Homebrew benutzen, installieren Sie es einfach mit: brew install llm Wenn Sie einen Windows-Rechner nutzen, verwenden Sie Ihre bevorzugte Methode, um Python-Bibliotheken zu installieren – etwa: pip install llm LLM verwendet standardmäßig die Modelle von OpenAI. Andere Modelle lassen sich aber über Plugins verwenden. Mit dem gpt4all-Plugin haben Sie beispielsweise Zugriff auf dessen lokale Modelle. Es stehen auch Plugins für Llama, das MLC-Projekt und MPT-30b sowie andere Remote-Modelle zur Verfügung Plugins installieren Sie über die Kommandozeile mit: llm install model-name Folgender Befehl zeigt darüber hinaus alle verfügbaren Sprachmodelle an: llm models list LLM listet bei Bedarf alle verfügbaren Sprachmodelle auf. Foto: Sharon Machlis / IDG Um eine Anfrage an ein lokales LLM zu senden, nutzen Sie folgende Syntax: llm -m the-model-name “Your query” Was die Benutzererfahrung von LLM elegant gestaltet, ist der Umstand, dass das Tool das GPT4All-LLM automatisch auf Ihrem System installiert, falls es nicht vorhanden sein sollte. Das LLM-Plugin für Metas Llama-Modelle erfordert ein wenig mehr Einstellungsarbeit als im Fall von GPT4All. Die Details dazu entnehmen Sie dem GitHub-Repository des Tools. Das LLM-Tool verfügt darüber hinaus über weitere Funktionen, etwa ein argument-Flag, das sich aus vorherigen Chat-Sessions übernehmen und innerhalb eines Python-Skripts übernehmen lässt. 3. Llama auf dem Mac mit Ollama Wenn Sie es noch einfacher als mit LLM haben möchten (dabei aber auch Limitationen in Kauf nehmen können), ist das Open-Source-Tool Ollama einen Blick wert. Dieses steht aktuell für macOS und Linux zur Verfügung – eine Windows-Version ist den Verantwortlichen zufolge in Entwicklung. Die Installation ist mit ein paar Klicks erledigt – und obwohl es sich bei Ollama ebenfalls um ein Kommandozeilen-Tool handelt, gibt es nur einen Befehl: ollama run model-name Sollte das betreffende Modell auf Ihrem System noch nicht vorhanden sein, wird es automatisch heruntergeladen. Die Liste der aktuell verfügbaren LLMs können Sie jederzeit online einsehen. So sieht es aus, wenn Code Llama in einem Ollama Terminal-Fenster läuft. Foto: Sharon Machlis / IDG Das README des Ollama GitHub-Repos enthält eine hilfreiche Liste einiger Modellspezifikationen und hifreiche Hinweise dazu, welche Modelle wie viel Arbeitsspeicher erfordern. Bei unserem Test performte das Llama-LLM 7B Code erstaunlich flott und gut (Mac M1). Obwohl es das kleinste Modell der Llama-Familie ist, brachte eine Frage zu R-Code (“Schreibe R-Code für ein ggplot2-Diagramm mit blauen Balken.”) es nicht aus dem Konzept – auch wenn die Antwort, beziehungsweise der Code nicht perfekt war). Ollama bietet zudem einige zusätzliche Funktionen, etwa eine Integrationsmöglichkeit mit LangChain. 4. Mit Dokumenten chatten über h2oGPT Bei h2o.ai beschäftigt man sich schon seit einiger Zeit mit automatisiertem Machine Learning. Da verwundert es nicht, dass der Open-Source-affine Anbieter inzwischen mit h2oGPT auch in den Bereich der Chatbot-LLMs vorgestoßen ist. Dieses steht in einer kostenlosen Testversion zum Download zur Verfügung. Diese ermöglicht zwar nicht, das LLM auf Ihr System herunterzuladen. Sie können aber damit testen, ob das Interface etwas für Sie ist. Für eine lokale Version des Tools klonen Sie das GitHub-Repository, erstellen und aktivieren eine virtuelle Python-Umgebung und führen dann die folgenden fünf Codezeilen aus (die Sie auch in der README finden): pip install -r requirements.txt pip install -r reqs_optional/requirements_optional_langchain.txt pip install -r reqs_optional/requirements_optional_gpt4all.txt python generate.py –base_model=llama –prompt_type=llama2 –model_path_llama=https://huggingface.co/TheBloke/Llama-2-7b-Chat-GGUF/resolve/main/llama-2-7b-chat.Q6_K.gguf –max_seq_len=4096 Das führt Sie zu einer “limitierten Dokumentenabfragefähigkeit” und einem Llama-Modell von Meta. Eine weitere Codezeile reicht, um eine lokale Version und eine Anwendung unter http://localhost:7860 zur Verfügung zu stellen: python generate.py –base_model=’llama’ –prompt_type=llama2 Ohne weiteren Dateninput hinzuzufügen, können Sie die Applikation als allgemeinen Chatbot verwenden. Wenn Sie eigene Daten – etwa Dokumente – hochladen, können Sie anschließend gezielt Fragen zu den Inhalten stellen. Zu den kompatiblen Dateiformaten gehören unter anderem: .pdf, .csv, .doc, .txt und .markdown. Die Benutzeroberfläche von h2oGPT bietet außerdem eine “Expert”-Registerkarte, die eine Reihe von Konfigurationsoptionen für Benutzer bereitstellen, die wissen, was sie tun. Ein Blick auf das “Expert”-Tab in h2oGPT. Foto: Sharon Machlis / IDG 5. Dokumente abfragen mit PrivateGPT Mit PrivateGPT können Sie Ihre Dokumente in natürlicher Sprache abfragen. Die Dokumente können in dieser Anwendung dabei mehrere Dutzend verschiedene Formate umfassen. Laut der README zum Projekt sollen die Daten dabei privat bleiben und zu keinem Zeitpunkt die Ausführungsumgebung verlassen. Das Tool funktioniert also auch ohne Internetverbindung. PrivateGPT verfügt über Skripte, um: Dateien einzulesen, diese anschließend zu unterteilen, Embeddings zu erstellen (numerische Repräsentationen der Textsemantik) und diese in einem lokalen Chroma Vector Store abzuspeichern. Wenn Sie eine Frage stellen, sucht die App nach relevanten Dokumenten und sendet nur diejenigen an das LLM, um eine präzise Antwort zu generieren. Wenn Sie mit Python vertraut sind, können Sie das vollständige PrivateGPT-Repository klonen und es lokal ausführen. Sollte das nicht der Fall sein, steht auf GitHub auch eine vereinfachte Version zur Verfügung. Die README-Datei letztgenannter Version enthält detaillierte Anweisungen, die kein Python-Sysadmin-Knowhow voraussetzen. PrivateGPT enthält die Funktionen, die man sich von einer “Chat mit eigenen Dokumenten”-Anwendung im Terminal wahrscheinlich am ehesten vorstellt. Allerdings warnt die Dokumentation davor, das Tool in der Produktion einzusetzen. Wenn Sie es trotzdem tun, werden Sie schnell feststellen, warum. Selbst die kleine Modelloption lief auf unserem Heim-PC sehr träge. Weitere Wege zum lokalen LLM Es gibt weitere Möglichkeiten, Large Language Models auf lokaler Ebene auszuführen – von der fertigen Desktop-App bis hin zum DIY-Skript. Eine kleine Auswahl: Jan Dieses relativ junge Open-Source-Projekt zielt darauf ab, den Zugang zu künstlicher Intelligenz mit “offenen, lokal ausgerichteten Produkten” zu demokratisieren. Die App ist einfach herunterzuladen und zu installieren, das Interface bietet eine gute Balance zwischen Anpassbarkeit und Benutzerfreundlichkeit. Auch Modelle auszuwählen geht mit Jan intuitiv vonstatten. Über den im untenstehenden Screenshot abgebildeten Hub des Projekts stehen mehr als 30 KI-Modelle zum Download zur Verfügung – weitere lassen sich (im GGUF-Format) importieren. Sollte Ihr Rechner für bestimmte LLMs zu schwach auf der Brust sein, sehen Sie das bereits bei der Modellauswahl im Hub. Auch wenn nicht genug Arbeitsspeicher zur Verfügung steht (oder knapp wird), erhalten Sie eine entsprechende Meldung. Ein Blick auf den Modell-Hub des Jan-Projekts. Foto: Sharon Machlis | IDG Die Chat-Oberfläche von Jan enthält auf der rechten Seite einen Bereich, in dem Sie Systemanweisungen für das LLM festlegen und Parameter anpassen können. Ausreichend RAM vorausgesetzt, werden die Outputs relativ flott gestreamt. Mit Jan dürfen Sie übrigens nicht nur lokal arbeiten, sondern auch OpenAI-Modelle aus der Cloud nutzen. Darüber hinaus lässt sich das Tool für die Arbeit mit Remote- oder lokalen API-Servern konfigurieren. Die Chat-Oberfläche von Jan ist detailliert und einfach zu benutzen. Foto: Sharon Machlis | IDG Die Projektdokumentation von Jan ist noch etwas spärlich (Stand April 2024). Nur gut, dass das Gros der Anwendung intuitiv zu bedienen ist. Ein entscheidender Vorteil von Jan gegenüber LMStudio ist, dass Jan unter der AGPLv3-Lizenz als Open Source Software verfügbar ist. Somit ist eine uneingeschränkte kommerzielle Nutzung erlaubt, solange alle abgeleiteten Werke ebenfalls quelloffen sind. Jan ist für Windows, macOS und Linux verfügbar. Nvidia ChatRTX Die Nvidia-Demoanwendung ChatRTX wurde entwickelt, um Fragen zu Dokumentenverzeichnissen zu beantworten. Seit dem Start im Februar 2024 nutzt das Tool wahlweise das Mistral- oder das Llama-2-LLM auf lokaler Basis. Die Hardware-Voraussetzungen: Ein Windows-PC mit GPU (Nvidia-Geforce-RTX-30-Serie oder höher) und mindestens 8 GB Video-RAM. Bei einer Download-Größe von 35 GB ist außerdem eine robuste Internetanbindung zu empfehlen. Sind die Voraussetzungen erfüllt und die Applikation entpackt, bietet ChatRTX ein simples Interface, das einfach und intuitiv zu bedienen ist. Das Interface von Nvidias ChatRTX. Foto: Sharon Machlis | IDG Wählen Sie ein LLM und den Pfad zu Ihren Dateien aus, warten Sie darauf, dass die Anwendung Einbettungen für Ihre Dateien erstellt – Sie können diesen Vorgang im Terminalfenster verfolgen – und stellen Sie dann Ihre Frage. Die Antwort enthält Links zu den Dokumenten, die das Modell verwendet hat, um seinen Output zu generieren. Die Nvidia-App unterstützt derzeit .txt-, .pdf- und .doc-Dateien sowie YouTube-Videos (über eine URL). Eine ChatRTX-Sitzung mit Links zu Quelldokumenten. Foto: Sharon Machlis | IDG Beachten sollten Sie dabei, dass die Anwendung keine Unterverzeichnisse durchsucht – Sie müssen also alle relevanten Dateien in einem Ornder ablegen. Wenn Sie dem Verzeichnis weitere Dokumente hinzufügen möchten, klicken Sie auf die Aktualisierungs-Schaltfläche oben rechts neben dem Datensatz, um die Einbettungen neu zu generieren llamafile Mozillas llamafile ermöglicht es Entwicklern, kritische Teile großer Sprachmodelle in ausführbare Dateien zu verwandeln. Dazu gehört auch eine Software, mit der LLM-Dateien im GGUF-Format heruntergeladen, importiert und in einem lokalen Chat-Interface im Browser ausgeführt werden können. Um llamafile auszuführen, laden Sie die aktuelle Serverversion herunter mit (siehe README): curl -L https://github.com/Mozilla-Ocho/llamafile/releases/download/0.1/llamafile-server-0.1 > llamafile chmod +x llamafile Anschließend laden Sie ein Modell Ihrer Wahl herunter. Für diesen Artikel haben wir uns für Zephyr entschieden und eine Version von Hugging Face heruntergeladen (Link führt direkt zum GGUF-Download). Nachdem das erledigt ist, führen Sie das Modell aus mit: ./llamafile –model ./zephyr-7b-alpha.Q4_0.gguf Öffnen Sie es nun in Ihrem Browser unter http://127.0.0.1:8080. Sie sehen einen Eröffnungsbildschirm mit verschiedenen Chat-Optionen: Sobald Sie eine Abfrage eingeben… Foto: Sharon Machlis / IDG …verwandelt sich der Startbildschirm in ein simples Chatbot-Interface. Foto: Sharon Machlis / IDG Während llamafile auf meinem Mac extrem einfach zum Laufen zu bringen war, stießen wir unter Windows auf einige Probleme. Wie ollama ist auch llamafile nicht die erste Wahl, wenn es um Plug-and-Play-Software für Windows geht. LocalGPT Dieser Ableger von PrivateGPT bietet mehr Modelloptionen und stellt darüber hinaus detaillierte Anleitungen zur Verfügung. Auf Youtube ist außerdem ein 17-minütiger Video-Walkthrough abrufbar. LM Studio Eine weitere Desktop-Anwendung, die wir angetestet haben, ist LM Studio. Sie zeichnet sich durch eine benutzerfreundliche, simple Chat-Oberfläche aus. Geht es um die Modellauswahl, sind Sie allerdings auf sich gestellt. Dass der Hugging Face Hub als Hauptquelle für Modell-Downloads innerhalb von LM Studio dient, macht die Sache nicht besser, denn die Auswahl ist überwältigend. LangChain Eine weitere Option: Large Language Models für die lokale Verwendung über das Open-Source-Framework LangChain herunterzuladen. Das erfordert jedoch Programmierkenntnisse in Zusammenhang mit dem LangChain-Ökosystem. Wenn Sie damit vertraut sind, sollten Sie sich folgende Ressourcen für den lokalen LLM-Betrieb genauer ansehen: Hugging Face Local Pipelines, Titan Takeoff (erfordert Docker und Python) und OpenLLM. Bei OpenLLM handelt es sich um eine eigenständige Plattform, die entwickelt wurde, um LLM-basierten Applikationen in der Produktion bereitzustellen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Large-Language-Model-Tutorial: 5 Wege, LLMs lokal auszuführen​ Large Language Models lokal zu betreiben, muss keine Kopfschmerzen bereiten.
Foto: Jamie Jin | shutterstock.com

Chatbots im Stil von ChatGPT, Claude oder phind können extrem hilfreich sein. Wenn Sie allerdings verhindern möchten, dass die externen Applikationen möglicherweise sensible Daten verarbeiten, respektive diese nutzen, um die zugrundeliegenden, großen Sprachmodelle (Large Language Models; LLMs) zu trainieren, bleibt nur eine Lösung: Sie laden ein LLM auf Ihren Rechner und führen es lokal aus. Das ist auch eine gute Option, um neue Spezialmodelle auszutesten, etwa Metas Code-Llama-Modellfamilie oder SeamlessM4T.

Ein eigenes LLM lokal zu betreiben, mag dabei auf den ersten Blick komplex wirken. Mit den richtigen Tools ist das allerdings überraschend simpel. Zudem sind die Anforderungen, die das an die Hardware stellt, nicht übermäßig. Wir haben die in diesem Tutorial vorgestellten Optionen auf zweierlei Systemen getestet:

einem Windows-PC mit Intel i9-Prozessor, 64 GB RAM und Nvidia GeForce-GPU (12 GB) und

einem Mac mit M1-Chip und 16 GB RAM.

Das wahrscheinlich größte Hindernis, wenn Sie dieses Unterfangen angehen wollen: Sie müssen ein Modell finden, das für die angestrebten Tasks geeignet ist und auf Ihrer Hardware läuft. Dabei funktionieren nur wenige so gut wie die bekannten GenAI-Tools der großen Unternehmen. Wie Simon Willison, Schöpfer des Kommandozeilen-Tools LLM, argumentiert, muss das jedoch kein Nachteil sein: “Einige Modelle, die auf Laptops laufen, halluzinieren wie wild. Das ist meiner Meinung nach ein guter Grund, sie einzusetzen. Denn das trägt zum allgemeinen Verständnis der Modelle – und ihrer Grenzen – bei.”

1. Lokaler Chatbot mit GPT4All

Den Desktop-Client von gpt4all herunterzuladen (verfügbar für Windows, MacOS und Ubuntu), bietet sich an, wenn Sie einen Chatbot aufsetzen wollen, der keine Daten an Dritte sendet. GPT4All ist dabei einfach einzurichten: Sobald Sie die Desktop-App zum ersten Mal öffnen, werden Ihnen ein knappes Dutzend LLM-Optionen angezeigt, die lokal ausgeführt werden können – beispielsweise Metas Llama-2-7B chat. Darüber hinaus können Sie auch OpenAIs GPT-3.5 und GPT-4 für die nicht lokale Nutzung einrichten (einen API-Key vorausgesetzt).

Sobald die Large Language Models eingerichtet sind, erwartet Sie ein übersichtliches und selbsterklärendes Chatbot-Interface.
Foto: Sharon Machlis / IDG

Darüber hinaus steht auch ein neues Beta-Plugin namens LocalDocs bereit. Das ermöglicht Ihnen, lokal mit Ihren eigenen Dokumenten zu “chatten”. Sie können es über die Registerkarte Settings aktivieren. Dieses Plugin befindet sich noch in der Entwicklung – Halluzinationen sind deshalb nicht ausgeschlossen. Nichtsdestotrotz handelt es sich um eine interessante Funktion, die sich parallel zu den Open-Source-LLMs verbessern dürfte.

Neben der Chatbot-Anwendung verfügt GPT4All auch über Bindings für Python und Node sowie eine Befehlszeilenschnittstelle. Auch ein Servermodus steht zur Verfügung, über den Sie mit ihrem lokalen Large Language Model über eine http-API interagieren können. Diese Schnittsatelle ist ähnlich strukturiert wie die von Open AI und erleichtert es, lokale Sprachmodelle mit nur wenigen Änderungen am Code gegen die von OpenAI auszutauschen.

2. LLM in der Kommandozeile

Das eingangs bereits erwähnte Tool von Simon Willison – LLM – bietet eine simple Option, um quelloffene, große Sprachmodelle herunterzuladen und lokal auf dem eigenen Rechner auszuführen. Dafür müssen Sie zwar Python installiert haben, aber keinen Python-Code anfassen.

Wenn Sie auf einem Mac arbeiten und Homebrew benutzen, installieren Sie es einfach mit:

brew install llm

Wenn Sie einen Windows-Rechner nutzen, verwenden Sie Ihre bevorzugte Methode, um Python-Bibliotheken zu installieren – etwa:

pip install llm

LLM verwendet standardmäßig die Modelle von OpenAI. Andere Modelle lassen sich aber über Plugins verwenden. Mit dem gpt4all-Plugin haben Sie beispielsweise Zugriff auf dessen lokale Modelle. Es stehen auch Plugins für Llama, das MLC-Projekt und MPT-30b sowie andere Remote-Modelle zur Verfügung

Plugins installieren Sie über die Kommandozeile mit:

llm install model-name

Folgender Befehl zeigt darüber hinaus alle verfügbaren Sprachmodelle an:

llm models list

LLM listet bei Bedarf alle verfügbaren Sprachmodelle auf.
Foto: Sharon Machlis / IDG

Um eine Anfrage an ein lokales LLM zu senden, nutzen Sie folgende Syntax:

llm -m the-model-name “Your query”

Was die Benutzererfahrung von LLM elegant gestaltet, ist der Umstand, dass das Tool das GPT4All-LLM automatisch auf Ihrem System installiert, falls es nicht vorhanden sein sollte. Das LLM-Plugin für Metas Llama-Modelle erfordert ein wenig mehr Einstellungsarbeit als im Fall von GPT4All. Die Details dazu entnehmen Sie dem GitHub-Repository des Tools.

Das LLM-Tool verfügt darüber hinaus über weitere Funktionen, etwa ein argument-Flag, das sich aus vorherigen Chat-Sessions übernehmen und innerhalb eines Python-Skripts übernehmen lässt.

3. Llama auf dem Mac mit Ollama

Wenn Sie es noch einfacher als mit LLM haben möchten (dabei aber auch Limitationen in Kauf nehmen können), ist das Open-Source-Tool Ollama einen Blick wert. Dieses steht aktuell für macOS und Linux zur Verfügung – eine Windows-Version ist den Verantwortlichen zufolge in Entwicklung.

Die Installation ist mit ein paar Klicks erledigt – und obwohl es sich bei Ollama ebenfalls um ein Kommandozeilen-Tool handelt, gibt es nur einen Befehl:

ollama run model-name

Sollte das betreffende Modell auf Ihrem System noch nicht vorhanden sein, wird es automatisch heruntergeladen. Die Liste der aktuell verfügbaren LLMs können Sie jederzeit online einsehen.

So sieht es aus, wenn Code Llama in einem Ollama Terminal-Fenster läuft.
Foto: Sharon Machlis / IDG

Das README des Ollama GitHub-Repos enthält eine hilfreiche Liste einiger Modellspezifikationen und hifreiche Hinweise dazu, welche Modelle wie viel Arbeitsspeicher erfordern. Bei unserem Test performte das Llama-LLM 7B Code erstaunlich flott und gut (Mac M1). Obwohl es das kleinste Modell der Llama-Familie ist, brachte eine Frage zu R-Code (“Schreibe R-Code für ein ggplot2-Diagramm mit blauen Balken.”) es nicht aus dem Konzept – auch wenn die Antwort, beziehungsweise der Code nicht perfekt war). Ollama bietet zudem einige zusätzliche Funktionen, etwa eine Integrationsmöglichkeit mit LangChain.

4. Mit Dokumenten chatten über h2oGPT

Bei h2o.ai beschäftigt man sich schon seit einiger Zeit mit automatisiertem Machine Learning. Da verwundert es nicht, dass der Open-Source-affine Anbieter inzwischen mit h2oGPT auch in den Bereich der Chatbot-LLMs vorgestoßen ist. Dieses steht in einer kostenlosen Testversion zum Download zur Verfügung. Diese ermöglicht zwar nicht, das LLM auf Ihr System herunterzuladen. Sie können aber damit testen, ob das Interface etwas für Sie ist.

Für eine lokale Version des Tools klonen Sie das GitHub-Repository, erstellen und aktivieren eine virtuelle Python-Umgebung und führen dann die folgenden fünf Codezeilen aus (die Sie auch in der README finden):

pip install -r requirements.txt

pip install -r reqs_optional/requirements_optional_langchain.txt

pip install -r reqs_optional/requirements_optional_gpt4all.txt

python generate.py –base_model=llama –prompt_type=llama2 –model_path_llama=https://huggingface.co/TheBloke/Llama-2-7b-Chat-GGUF/resolve/main/llama-2-7b-chat.Q6_K.gguf –max_seq_len=4096

Das führt Sie zu einer “limitierten Dokumentenabfragefähigkeit” und einem Llama-Modell von Meta. Eine weitere Codezeile reicht, um eine lokale Version und eine Anwendung unter http://localhost:7860 zur Verfügung zu stellen:

python generate.py –base_model=’llama’ –prompt_type=llama2

Ohne weiteren Dateninput hinzuzufügen, können Sie die Applikation als allgemeinen Chatbot verwenden. Wenn Sie eigene Daten – etwa Dokumente – hochladen, können Sie anschließend gezielt Fragen zu den Inhalten stellen. Zu den kompatiblen Dateiformaten gehören unter anderem:

.pdf,

.csv,

.doc,

.txt und

.markdown.

Die Benutzeroberfläche von h2oGPT bietet außerdem eine “Expert”-Registerkarte, die eine Reihe von Konfigurationsoptionen für Benutzer bereitstellen, die wissen, was sie tun.

Ein Blick auf das “Expert”-Tab in h2oGPT.
Foto: Sharon Machlis / IDG

5. Dokumente abfragen mit PrivateGPT

Mit PrivateGPT können Sie Ihre Dokumente in natürlicher Sprache abfragen. Die Dokumente können in dieser Anwendung dabei mehrere Dutzend verschiedene Formate umfassen. Laut der README zum Projekt sollen die Daten dabei privat bleiben und zu keinem Zeitpunkt die Ausführungsumgebung verlassen. Das Tool funktioniert also auch ohne Internetverbindung.

PrivateGPT verfügt über Skripte, um:

Dateien einzulesen,

diese anschließend zu unterteilen,

Embeddings zu erstellen (numerische Repräsentationen der Textsemantik) und

diese in einem lokalen Chroma Vector Store abzuspeichern.

Wenn Sie eine Frage stellen, sucht die App nach relevanten Dokumenten und sendet nur diejenigen an das LLM, um eine präzise Antwort zu generieren. Wenn Sie mit Python vertraut sind, können Sie das vollständige PrivateGPT-Repository klonen und es lokal ausführen. Sollte das nicht der Fall sein, steht auf GitHub auch eine vereinfachte Version zur Verfügung. Die README-Datei letztgenannter Version enthält detaillierte Anweisungen, die kein Python-Sysadmin-Knowhow voraussetzen.

PrivateGPT enthält die Funktionen, die man sich von einer “Chat mit eigenen Dokumenten”-Anwendung im Terminal wahrscheinlich am ehesten vorstellt. Allerdings warnt die Dokumentation davor, das Tool in der Produktion einzusetzen. Wenn Sie es trotzdem tun, werden Sie schnell feststellen, warum. Selbst die kleine Modelloption lief auf unserem Heim-PC sehr träge.

Weitere Wege zum lokalen LLM

Es gibt weitere Möglichkeiten, Large Language Models auf lokaler Ebene auszuführen – von der fertigen Desktop-App bis hin zum DIY-Skript. Eine kleine Auswahl:

Jan

Dieses relativ junge Open-Source-Projekt zielt darauf ab, den Zugang zu künstlicher Intelligenz mit “offenen, lokal ausgerichteten Produkten” zu demokratisieren. Die App ist einfach herunterzuladen und zu installieren, das Interface bietet eine gute Balance zwischen Anpassbarkeit und Benutzerfreundlichkeit. Auch Modelle auszuwählen geht mit Jan intuitiv vonstatten. Über den im untenstehenden Screenshot abgebildeten Hub des Projekts stehen mehr als 30 KI-Modelle zum Download zur Verfügung – weitere lassen sich (im GGUF-Format) importieren. Sollte Ihr Rechner für bestimmte LLMs zu schwach auf der Brust sein, sehen Sie das bereits bei der Modellauswahl im Hub. Auch wenn nicht genug Arbeitsspeicher zur Verfügung steht (oder knapp wird), erhalten Sie eine entsprechende Meldung.

Ein Blick auf den Modell-Hub des Jan-Projekts.
Foto: Sharon Machlis | IDG

Die Chat-Oberfläche von Jan enthält auf der rechten Seite einen Bereich, in dem Sie Systemanweisungen für das LLM festlegen und Parameter anpassen können. Ausreichend RAM vorausgesetzt, werden die Outputs relativ flott gestreamt. Mit Jan dürfen Sie übrigens nicht nur lokal arbeiten, sondern auch OpenAI-Modelle aus der Cloud nutzen. Darüber hinaus lässt sich das Tool für die Arbeit mit Remote- oder lokalen API-Servern konfigurieren.

Die Chat-Oberfläche von Jan ist detailliert und einfach zu benutzen.
Foto: Sharon Machlis | IDG

Die Projektdokumentation von Jan ist noch etwas spärlich (Stand April 2024). Nur gut, dass das Gros der Anwendung intuitiv zu bedienen ist. Ein entscheidender Vorteil von Jan gegenüber LMStudio ist, dass Jan unter der AGPLv3-Lizenz als Open Source Software verfügbar ist. Somit ist eine uneingeschränkte kommerzielle Nutzung erlaubt, solange alle abgeleiteten Werke ebenfalls quelloffen sind. Jan ist für Windows, macOS und Linux verfügbar.

Nvidia ChatRTX

Die Nvidia-Demoanwendung ChatRTX wurde entwickelt, um Fragen zu Dokumentenverzeichnissen zu beantworten. Seit dem Start im Februar 2024 nutzt das Tool wahlweise das Mistral- oder das Llama-2-LLM auf lokaler Basis. Die Hardware-Voraussetzungen: Ein Windows-PC mit GPU (Nvidia-Geforce-RTX-30-Serie oder höher) und mindestens 8 GB Video-RAM. Bei einer Download-Größe von 35 GB ist außerdem eine robuste Internetanbindung zu empfehlen. Sind die Voraussetzungen erfüllt und die Applikation entpackt, bietet ChatRTX ein simples Interface, das einfach und intuitiv zu bedienen ist.

Das Interface von Nvidias ChatRTX.
Foto: Sharon Machlis | IDG

Wählen Sie ein LLM und den Pfad zu Ihren Dateien aus, warten Sie darauf, dass die Anwendung Einbettungen für Ihre Dateien erstellt – Sie können diesen Vorgang im Terminalfenster verfolgen – und stellen Sie dann Ihre Frage. Die Antwort enthält Links zu den Dokumenten, die das Modell verwendet hat, um seinen Output zu generieren. Die Nvidia-App unterstützt derzeit .txt-, .pdf- und .doc-Dateien sowie YouTube-Videos (über eine URL).

Eine ChatRTX-Sitzung mit Links zu Quelldokumenten.
Foto: Sharon Machlis | IDG

Beachten sollten Sie dabei, dass die Anwendung keine Unterverzeichnisse durchsucht – Sie müssen also alle relevanten Dateien in einem Ornder ablegen. Wenn Sie dem Verzeichnis weitere Dokumente hinzufügen möchten, klicken Sie auf die Aktualisierungs-Schaltfläche oben rechts neben dem Datensatz, um die Einbettungen neu zu generieren

llamafile

Mozillas llamafile ermöglicht es Entwicklern, kritische Teile großer Sprachmodelle in ausführbare Dateien zu verwandeln. Dazu gehört auch eine Software, mit der LLM-Dateien im GGUF-Format heruntergeladen, importiert und in einem lokalen Chat-Interface im Browser ausgeführt werden können.

Um llamafile auszuführen, laden Sie die aktuelle Serverversion herunter mit (siehe README):

curl -L https://github.com/Mozilla-Ocho/llamafile/releases/download/0.1/llamafile-server-0.1 > llamafile

chmod +x llamafile

Anschließend laden Sie ein Modell Ihrer Wahl herunter. Für diesen Artikel haben wir uns für Zephyr entschieden und eine Version von Hugging Face heruntergeladen (Link führt direkt zum GGUF-Download). Nachdem das erledigt ist, führen Sie das Modell aus mit:

./llamafile –model ./zephyr-7b-alpha.Q4_0.gguf

Öffnen Sie es nun in Ihrem Browser unter http://127.0.0.1:8080. Sie sehen einen Eröffnungsbildschirm mit verschiedenen Chat-Optionen:

Sobald Sie eine Abfrage eingeben…
Foto: Sharon Machlis / IDG

…verwandelt sich der Startbildschirm in ein simples Chatbot-Interface.
Foto: Sharon Machlis / IDG

Während llamafile auf meinem Mac extrem einfach zum Laufen zu bringen war, stießen wir unter Windows auf einige Probleme. Wie ollama ist auch llamafile nicht die erste Wahl, wenn es um Plug-and-Play-Software für Windows geht.

LocalGPT

Dieser Ableger von PrivateGPT bietet mehr Modelloptionen und stellt darüber hinaus detaillierte Anleitungen zur Verfügung. Auf Youtube ist außerdem ein 17-minütiger Video-Walkthrough abrufbar.

LM Studio

Eine weitere Desktop-Anwendung, die wir angetestet haben, ist LM Studio. Sie zeichnet sich durch eine benutzerfreundliche, simple Chat-Oberfläche aus. Geht es um die Modellauswahl, sind Sie allerdings auf sich gestellt. Dass der Hugging Face Hub als Hauptquelle für Modell-Downloads innerhalb von LM Studio dient, macht die Sache nicht besser, denn die Auswahl ist überwältigend.

LangChain

Eine weitere Option: Large Language Models für die lokale Verwendung über das Open-Source-Framework LangChain herunterzuladen. Das erfordert jedoch Programmierkenntnisse in Zusammenhang mit dem LangChain-Ökosystem.

Wenn Sie damit vertraut sind, sollten Sie sich folgende Ressourcen für den lokalen LLM-Betrieb genauer ansehen:

Hugging Face Local Pipelines,

Titan Takeoff (erfordert Docker und Python) und

OpenLLM.

Bei OpenLLM handelt es sich um eine eigenständige Plattform, die entwickelt wurde, um LLM-basierten Applikationen in der Produktion bereitzustellen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Large-Language-Model-Tutorial: 5 Wege, LLMs lokal auszuführen​ Weiterlesen »

Wird Chrome bald zum „AI-first“-Erlebnis dank OpenAI?​

Allgemein

Noch gehörten Chromes IP und Daten zu Google. Ein prominenter Interessent hat sich öffentlich präsentiert. viewimage – shutterstock.com Wird Google aufgespalten? Diese Frage steht im Raum, seit die US-Regierung das Unternehmen als Suchmonopolisten einstufte und öffentlich verkündete, gegen den Techriesen juristisch vorgehen zu wollen. Googles milliardenschwere Verträge über die Platzierung von Suchergebnissen, die das US-Justizministerium ebenfalls auflösen will, spielen hierbei eine wichtige Rolle. Das US-Justizministerium sieht Googles Browser Chrome hierbei als zentrales Element seines wettbewerbswidrigen Verhaltens und erwägt, dessen Verkauf anzuordnen. Ziel wäre es, fairere Wettbewerbsbedingungen im Internet zu schaffen. Unklar ist jedoch, wer Chrome übernehmen könnte. Selbstentwicklung oder Übernahme OpenAI denkt Berichten zufolge darüber nach, einen eigenen Browser auf Chromium-Basis zu entwickeln und hat dafür ehemalige Chrome-Entwickler von Google angeheuert. Alternativ könnte sich das milliardenschwere Startup auch vorstellen, den Browser direkt zu kaufen, wie Nick Turley, Produktmanager bei OpenAI, vor Gericht laut Bloomberg unmissverständlich klar machte: „Ja, das würden wir, wie viele andere Parteien auch“. Im Rahmen des Gerichtsverfahrens gegen Google sprach er auch von einem möglichen „AI-first“-Experiment. Bings Daten reichen nicht Mit 4 Milliarden Nutzern und einem Marktanteil von 67 Prozent ist Chrome der meistgenutzte Browser der Welt. Die Übernahme dieses Browsers würde OpenAI sofort eine massive installierte Basis von Nutzern verschaffen, die einen Anreiz haben, Google-Dienste zu nutzen. Ein eigener Browser würde es OpenAI wiederum ermöglichen, ChatGPT nahtlos zu integrieren und wertvolle Nutzerdaten für das KI-Training zu nutzen. OpenAI arbeitet derzeit mit Microsoft zusammen, hält aber die Daten von Bing für unzureichend. In einer E-Mail an Google, die während des Gerichtsverfahrens  wurde und vom Nachrichtenportal Reuters veröffentlicht wurde, betonte OpenAI, dass der Zugang zu Googles API ein besseres Nutzererlebnis ermöglichen würde. Google lehnte eine Zusammenarbeit bisher aus Sorge um seine Position im Suchmarkt ab. Laut OpenAI-Chef Turley würde eine verpflichtende Lizenzierung von Googles Suchdaten den Wettbewerb stärken. Ausgliederung von Chrome als Option Interessanterweise wird im Zusammenhang mit dem Gerichtsverfahren viel darüber spekuliert, wer Chrome kaufen könnte. Über die Alternative, den Browser als eigenständiges Unternehmen auszugliedern, wird indes nur wenig diskutiert. So behauptet Google, dass Chrome allein nicht überlebensfähig wäre. Die Milliarden, die das Unternehmen an Apple zahlt, um Google als Standard-Suchmaschine zu platzieren, lassen jedoch etwas anderes vermuten. 

Wird Chrome bald zum „AI-first“-Erlebnis dank OpenAI?​ Noch gehörten Chromes IP und Daten zu Google. Ein prominenter Interessent hat sich öffentlich präsentiert.
viewimage – shutterstock.com

Wird Google aufgespalten? Diese Frage steht im Raum, seit die US-Regierung das Unternehmen als Suchmonopolisten einstufte und öffentlich verkündete, gegen den Techriesen juristisch vorgehen zu wollen. Googles milliardenschwere Verträge über die Platzierung von Suchergebnissen, die das US-Justizministerium ebenfalls auflösen will, spielen hierbei eine wichtige Rolle.

Das US-Justizministerium sieht Googles Browser Chrome hierbei als zentrales Element seines wettbewerbswidrigen Verhaltens und erwägt, dessen Verkauf anzuordnen. Ziel wäre es, fairere Wettbewerbsbedingungen im Internet zu schaffen. Unklar ist jedoch, wer Chrome übernehmen könnte.

Selbstentwicklung oder Übernahme

OpenAI denkt Berichten zufolge darüber nach, einen eigenen Browser auf Chromium-Basis zu entwickeln und hat dafür ehemalige Chrome-Entwickler von Google angeheuert.

Alternativ könnte sich das milliardenschwere Startup auch vorstellen, den Browser direkt zu kaufen, wie Nick Turley, Produktmanager bei OpenAI, vor Gericht laut Bloomberg unmissverständlich klar machte: „Ja, das würden wir, wie viele andere Parteien auch“. Im Rahmen des Gerichtsverfahrens gegen Google sprach er auch von einem möglichen „AI-first“-Experiment.

Bings Daten reichen nicht

Mit 4 Milliarden Nutzern und einem Marktanteil von 67 Prozent ist Chrome der meistgenutzte Browser der Welt. Die Übernahme dieses Browsers würde OpenAI sofort eine massive installierte Basis von Nutzern verschaffen, die einen Anreiz haben, Google-Dienste zu nutzen. Ein eigener Browser würde es OpenAI wiederum ermöglichen, ChatGPT nahtlos zu integrieren und wertvolle Nutzerdaten für das KI-Training zu nutzen.

OpenAI arbeitet derzeit mit Microsoft zusammen, hält aber die Daten von Bing für unzureichend. In einer E-Mail an Google, die während des Gerichtsverfahrens  wurde und vom Nachrichtenportal Reuters veröffentlicht wurde, betonte OpenAI, dass der Zugang zu Googles API ein besseres Nutzererlebnis ermöglichen würde. Google lehnte eine Zusammenarbeit bisher aus Sorge um seine Position im Suchmarkt ab. Laut OpenAI-Chef Turley würde eine verpflichtende Lizenzierung von Googles Suchdaten den Wettbewerb stärken.

Ausgliederung von Chrome als Option

Interessanterweise wird im Zusammenhang mit dem Gerichtsverfahren viel darüber spekuliert, wer Chrome kaufen könnte. Über die Alternative, den Browser als eigenständiges Unternehmen auszugliedern, wird indes nur wenig diskutiert. So behauptet Google, dass Chrome allein nicht überlebensfähig wäre. Die Milliarden, die das Unternehmen an Apple zahlt, um Google als Standard-Suchmaschine zu platzieren, lassen jedoch etwas anderes vermuten.

Wird Chrome bald zum „AI-first“-Erlebnis dank OpenAI?​ Weiterlesen »

Microsoft erweitert M365 Copilot​

Allgemein

Mit seinem neuen Copilot-Update will Microsoft die Zusammenarbeit zwischen KI-Agent und Nutzer intensivieren. Microsoft Microsoft hat seine generative KI-Software Copilot um wichtige neue Funktionen erweitert, die den Benutzern helfen sollen, produktiver zu arbeiten. Die nächste Welle von Copilot-Updates umfasst „digitale Arbeits“-Tools zur Automatisierung von Arbeitsabläufen und zur Zusammenführung von Dokumenteninformationen, mit dem Ziel, Unternehmensanwendern zu helfen, „smarter statt härter“ zu arbeiten.  Suche in unstrukturierten Daten  Ein Beispiel dafür ist die neue Funktion Copilot Search, die Informationen übersichtlich zusammenfasst, indem sie große Mengen unstrukturierter Daten durchforstet, die in unternehmensinternen Apps und Systemen gespeichert sind. Copilot kann Kontext liefern und Informationen präsentieren, nachdem es Daten in gängigen Microsoft-Produktivitäts-Tools und Drittanbieter-Apps wie Google Drive, Slack, ServiceNow und Software von Atlassian durchsucht hat.   Die neuen KI-Funktionen – darunter weitere Zusammenfassungswerkzeuge, Personalisierungsmöglichkeiten für den Desktop und administrative Tools – werden durch „fortschrittliche Modelle, adaptive Speichertechnologien und intelligente Agenten“ ermöglicht, so Microsoft in einem Blog-Beitrag.  Zu den weiteren neuen Copilot-Funktionen gehören „Speicher- und Personalisierungsfunktionen“ – ein Thema, das Microsoft kürzlich auf seiner 50-Jahr-Feier besonders hervorgehoben hat. Die Funktionen können das Desktop-Erlebnis individuell anpassen, indem sie Benutzerpräferenzen über die Zeit hinweg speichern und verstehen. „Speicher und Personalisierung sind privat und nur für Sie zugänglich“, schreibt Microsoft dazu in seinem Blog. „Wenn Sie mit vertraulichen Informationen arbeiten, können Sie steuern, was Copilot speichert.“  Das Feature „Copilot Notebooks“ wiederum ermöglicht es Anwendern, ein Mini-KI-Modell auf der Grundlage ihrer Notizen und Dokumente erstellen. Benutzer können ein „Notizbuch“ erstellen und es mit relevanten Dokumenten zum jeweiligen Projekt füllen. Das Notizbuch präsentiert dann kontextbezogene Antworten, indem es nur diese Dokumente durchsucht. Die Notizbücher können auch mit neuen Dokumenten aktualisiert werden, die das KI-Modell in den Datenbestand indexiert. Copilot Notebooks erinnert damit stark an Googles NotebookLM-App, die Teil von Google Workspace ist.   Ab Ende Mai verfügbar  Die neuen Funktionen sollen ab Ende Mai für Microsoft-365-Copilot-Kunden verfügbar sein. Microsofts kostenpflichtiges generatives KI-Angebot für Unternehmen ist als Add-on zu kommerziellen M365-Abos für zusätzlich 30 Dollar pro Nutzer und Monat erhältlich.   Wie Microsoft bekannt gab, stehen im neuen Agent Store außerdem die bereits angekündigten Researcher- und Analyst-Reasoning-Agenten bereit – allerdings nur für Teilnehmer des Frontier-Programms. Im Store finden Kunden außerdem vorgefertigte KI-Agenten von Microsoft und Partnern wie Jira, Monday.com und Miro. Zusätzlich können Unternehmen im Store auch ihre eigenen benutzerdefinierten Agenten anbieten.  Microsoft kündigte außerdem das Copilot Control System für Systemadministratoren an, mit dem diese die Erstellung und Bereitstellung von KI-Agenten in Unternehmenssystemen verwalten können – einschließlich der Möglichkeit, Agenten für bestimmte Benutzer oder Gruppen zu aktivieren, zu deaktivieren oder zu blockieren.  Laut Jack Gold, Principal Analyst bei J. Gold Associates, ist dies ein wichtiger Schritt, da Copilot und andere KI-Systeme immer stärker in Unternehmens-Tools integriert werden. „Lassen Sie Jack, einen einfachen Mitarbeiter, alles fragen, was er will? Die Kenntnis der Rollen, Sicherheits- und Datenzugriffsberechtigungen verschiedener Benutzer wird für allgemeine KI-Systeme sehr wichtig sein“, so Gold.  Aus Sicht von J.P. Gownder, Vice President und Principal Analyst bei Forrester Research, steht Microsoft noch ganz am Anfang der Reise hin zu agentenbasierter KI. „Microsoft Copilot Agents eignen sich gut für den Zugriff auf bestimmte Datenquellen – wie eine SharePoint-Website –, um sicherzustellen, dass Sie die richtige Datenquelle abfragen“, so Gownder. Allerdings stuft Forrester einige Copilot-Funktionen, die einfache Aufgaben erledigen und auf spezifische Quellen zugreifen, eher als „agentenähnlich“ ein, denn als echte agentenbasierte KI. „Agentenähnliche Lösungen können punktuelle Probleme lösen, sind aber noch nicht die ‚digitalen Kollegen‘, von denen Anbieter sprechen – zumindest noch nicht“, so Gownder.  

Microsoft erweitert M365 Copilot​ Mit seinem neuen Copilot-Update will Microsoft die Zusammenarbeit zwischen KI-Agent und Nutzer intensivieren. Microsoft

Microsoft hat seine generative KI-Software Copilot um wichtige neue Funktionen erweitert, die den Benutzern helfen sollen, produktiver zu arbeiten. Die nächste Welle von Copilot-Updates umfasst „digitale Arbeits“-Tools zur Automatisierung von Arbeitsabläufen und zur Zusammenführung von Dokumenteninformationen, mit dem Ziel, Unternehmensanwendern zu helfen, „smarter statt härter“ zu arbeiten. 

Suche in unstrukturierten Daten 

Ein Beispiel dafür ist die neue Funktion Copilot Search, die Informationen übersichtlich zusammenfasst, indem sie große Mengen unstrukturierter Daten durchforstet, die in unternehmensinternen Apps und Systemen gespeichert sind. Copilot kann Kontext liefern und Informationen präsentieren, nachdem es Daten in gängigen Microsoft-Produktivitäts-Tools und Drittanbieter-Apps wie Google Drive, Slack, ServiceNow und Software von Atlassian durchsucht hat.  

Die neuen KI-Funktionen – darunter weitere Zusammenfassungswerkzeuge, Personalisierungsmöglichkeiten für den Desktop und administrative Tools – werden durch „fortschrittliche Modelle, adaptive Speichertechnologien und intelligente Agenten“ ermöglicht, so Microsoft in einem Blog-Beitrag. 

Zu den weiteren neuen Copilot-Funktionen gehören „Speicher- und Personalisierungsfunktionen“ – ein Thema, das Microsoft kürzlich auf seiner 50-Jahr-Feier besonders hervorgehoben hat. Die Funktionen können das Desktop-Erlebnis individuell anpassen, indem sie Benutzerpräferenzen über die Zeit hinweg speichern und verstehen. „Speicher und Personalisierung sind privat und nur für Sie zugänglich“, schreibt Microsoft dazu in seinem Blog. „Wenn Sie mit vertraulichen Informationen arbeiten, können Sie steuern, was Copilot speichert.“ 

Das Feature „Copilot Notebooks“ wiederum ermöglicht es Anwendern, ein Mini-KI-Modell auf der Grundlage ihrer Notizen und Dokumente erstellen. Benutzer können ein „Notizbuch“ erstellen und es mit relevanten Dokumenten zum jeweiligen Projekt füllen. Das Notizbuch präsentiert dann kontextbezogene Antworten, indem es nur diese Dokumente durchsucht. Die Notizbücher können auch mit neuen Dokumenten aktualisiert werden, die das KI-Modell in den Datenbestand indexiert. Copilot Notebooks erinnert damit stark an Googles NotebookLM-App, die Teil von Google Workspace ist.  

Ab Ende Mai verfügbar 

Die neuen Funktionen sollen ab Ende Mai für Microsoft-365-Copilot-Kunden verfügbar sein. Microsofts kostenpflichtiges generatives KI-Angebot für Unternehmen ist als Add-on zu kommerziellen M365-Abos für zusätzlich 30 Dollar pro Nutzer und Monat erhältlich.  

Wie Microsoft bekannt gab, stehen im neuen Agent Store außerdem die bereits angekündigten Researcher- und Analyst-Reasoning-Agenten bereit – allerdings nur für Teilnehmer des Frontier-Programms. Im Store finden Kunden außerdem vorgefertigte KI-Agenten von Microsoft und Partnern wie Jira, Monday.com und Miro. Zusätzlich können Unternehmen im Store auch ihre eigenen benutzerdefinierten Agenten anbieten. 

Microsoft kündigte außerdem das Copilot Control System für Systemadministratoren an, mit dem diese die Erstellung und Bereitstellung von KI-Agenten in Unternehmenssystemen verwalten können – einschließlich der Möglichkeit, Agenten für bestimmte Benutzer oder Gruppen zu aktivieren, zu deaktivieren oder zu blockieren. 

Laut Jack Gold, Principal Analyst bei J. Gold Associates, ist dies ein wichtiger Schritt, da Copilot und andere KI-Systeme immer stärker in Unternehmens-Tools integriert werden. „Lassen Sie Jack, einen einfachen Mitarbeiter, alles fragen, was er will? Die Kenntnis der Rollen, Sicherheits- und Datenzugriffsberechtigungen verschiedener Benutzer wird für allgemeine KI-Systeme sehr wichtig sein“, so Gold. 

Aus Sicht von J.P. Gownder, Vice President und Principal Analyst bei Forrester Research, steht Microsoft noch ganz am Anfang der Reise hin zu agentenbasierter KI. „Microsoft Copilot Agents eignen sich gut für den Zugriff auf bestimmte Datenquellen – wie eine SharePoint-Website –, um sicherzustellen, dass Sie die richtige Datenquelle abfragen“, so Gownder. Allerdings stuft Forrester einige Copilot-Funktionen, die einfache Aufgaben erledigen und auf spezifische Quellen zugreifen, eher als „agentenähnlich“ ein, denn als echte agentenbasierte KI. „Agentenähnliche Lösungen können punktuelle Probleme lösen, sind aber noch nicht die ‚digitalen Kollegen‘, von denen Anbieter sprechen – zumindest noch nicht“, so Gownder. 

Microsoft erweitert M365 Copilot​ Weiterlesen »

Tariff Response – Zollrisiken in der Lieferkette simulieren​

Allgemein

Mit seinen Zoll-Fantasien sorgt US-Präsident Donald Trump für viel Unruhe in den globalen Lieferketten. Joshua Sukoff – shutterstock.com Mal sind es 25 Prozent, dann 50 oder gar 100 Prozent – das kann sich quasi über Nacht ändern. Auch die Frage, wann sie denn nun gelten, lässt sich derzeit meist nur schwer beantworten. Vielleicht greifen sie schon in der nächsten Woche, oder aber erst in 90 Tagen, oder… Die Zollpolitik des wirtschaftspolitisch irrlichternden US-Präsidenten Donald Trump lässt die für die Lieferketten verantwortlichen Manager in vielen Unternehmen derzeit kaum ruhig schlafen. Big Tech stöhnt unter Trump-Zöllen Angesichts des zunehmenden Zolldrucks und der wachsenden Unsicherheit im globalen Handel hat Kinaxis, ein Anbieter von Lösungen für das Supply-Chain-Management, Tariff Response entwickelt. Mit der Lösung sollen Anwenderunternehmen Zollrisiken simulieren, strategische Szenarien durchspielen und so schneller fundierte Entscheidungen treffen können.  KI-gestützte Was-wäre-wenn-Szenarien Tariff Response basiert Kinaxis zufolge auf der eigenen KI-gestützten Maestro-Plattform. Im Kern geht es dabei um KI-gestützte Was-wäre-wenn-Szenarioplanungen. Das Software-Tool sei in erster Linie für den Umgang mit Störungen im Handel konzipiert worden, hieß es von Seiten des Herstellers. Dabei würden zollspezifische Daten, Beschaffungslogik, Optionen zur Preisgestaltung und Nachfragemodellierung kombiniert, sodass Unternehmen Margenrisiken analysieren, Strategien durchspielen und Alternativen bewerten könnten – „und das innerhalb von Sekunden statt Tagen oder Wochen“, versprechen die Kinaxis-Verantwortlichen.  „Globale Lieferketten funktionieren nicht mehr nach den alten Regeln,“ erklärte Mark Morgan, President of Global Commercial Operations bei Kinaxis. „Zölle greifen heute schneller und haben weitreichendere Folgen.“ Wenn sich Handelsrichtlinien über Nacht änderten, benötigten Unternehmen heute mehr als nur Tabellenkalkulationen. Mit Kinaxis Tariff Response erhielten Betriebe in Echtzeit Einblick in Kosten, Nachfrage und Auswirkungen auf die Beschaffung, sodass sie schnell und gezielt reagieren könnten, wirbt der Manager. Lesen Sie mehr darüber, wie Donald Trump die Digitalbranche verunsichert: Zieht Trump den Deutschen den Stecker? Wird Deutschland nach dem Trump-Sieg digital erpressbar? Ist Trump der Booster für Europas digitale Souveränität? Trump und EU-Kommission gehen auf Konfrontationskurs 

Tariff Response – Zollrisiken in der Lieferkette simulieren​ Mit seinen Zoll-Fantasien sorgt US-Präsident Donald Trump für viel Unruhe in den globalen Lieferketten. Joshua Sukoff – shutterstock.com

Mal sind es 25 Prozent, dann 50 oder gar 100 Prozent – das kann sich quasi über Nacht ändern. Auch die Frage, wann sie denn nun gelten, lässt sich derzeit meist nur schwer beantworten. Vielleicht greifen sie schon in der nächsten Woche, oder aber erst in 90 Tagen, oder… Die Zollpolitik des wirtschaftspolitisch irrlichternden US-Präsidenten Donald Trump lässt die für die Lieferketten verantwortlichen Manager in vielen Unternehmen derzeit kaum ruhig schlafen.

Big Tech stöhnt unter Trump-Zöllen

Angesichts des zunehmenden Zolldrucks und der wachsenden Unsicherheit im globalen Handel hat Kinaxis, ein Anbieter von Lösungen für das Supply-Chain-Management, Tariff Response entwickelt. Mit der Lösung sollen Anwenderunternehmen Zollrisiken simulieren, strategische Szenarien durchspielen und so schneller fundierte Entscheidungen treffen können. 

KI-gestützte Was-wäre-wenn-Szenarien

Tariff Response basiert Kinaxis zufolge auf der eigenen KI-gestützten Maestro-Plattform. Im Kern geht es dabei um KI-gestützte Was-wäre-wenn-Szenarioplanungen. Das Software-Tool sei in erster Linie für den Umgang mit Störungen im Handel konzipiert worden, hieß es von Seiten des Herstellers. Dabei würden zollspezifische Daten, Beschaffungslogik, Optionen zur Preisgestaltung und Nachfragemodellierung kombiniert, sodass Unternehmen Margenrisiken analysieren, Strategien durchspielen und Alternativen bewerten könnten – „und das innerhalb von Sekunden statt Tagen oder Wochen“, versprechen die Kinaxis-Verantwortlichen. 

„Globale Lieferketten funktionieren nicht mehr nach den alten Regeln,“ erklärte Mark Morgan, President of Global Commercial Operations bei Kinaxis. „Zölle greifen heute schneller und haben weitreichendere Folgen.“ Wenn sich Handelsrichtlinien über Nacht änderten, benötigten Unternehmen heute mehr als nur Tabellenkalkulationen. Mit Kinaxis Tariff Response erhielten Betriebe in Echtzeit Einblick in Kosten, Nachfrage und Auswirkungen auf die Beschaffung, sodass sie schnell und gezielt reagieren könnten, wirbt der Manager.

Lesen Sie mehr darüber, wie Donald Trump die Digitalbranche verunsichert:

Zieht Trump den Deutschen den Stecker?

Wird Deutschland nach dem Trump-Sieg digital erpressbar?

Ist Trump der Booster für Europas digitale Souveränität?

Trump und EU-Kommission gehen auf Konfrontationskurs

Tariff Response – Zollrisiken in der Lieferkette simulieren​ Weiterlesen »

Virtual Reality: Die Geschichte der virtuellen Realität​

Allgemein

Virtual Reality ist heute State of the Art. Lesen Sie, wie sich die Technologie über die Jahrzehnte entwickelt hat und wie die VR-Zukunft aussehen könnte. Foto: Joshua Resnick – shutterstock.com Das Kürzel “VR” ist heute wohl jedem ein Begriff. Durch den anhaltenden Remote-Work-Trend, die Pandemie-bedingten Einschränkungen und nicht zuletzt das Aufkommen des Metaverse wird Virtual Reality zunehmend interessanter – für Unternehmen wie für Konsumenten. Lesen Sie, wie Virtual Reality entstanden ist und was die Zukunft für die Technologie bereithalten könnte. Anfänge Das erste Gerät, das über Virtual-Reality-Charakteristiken verfügte, war der View-Master. Das Gerät ermöglichte die Betrachtung stereoskopischer Bilder. Das Konzept auf dem das Device basierte, entstand bereits im Jahr 1838 – die Idee dahinter: Verschiedene Einzelbilder gleichzeitig zu betrachten, um ein dreidimensionales Bild zu erzeugen. Der View-Master erschien im Jahr 1939 und bot die Möglichkeit, sieben stereoskopische 3D-Farbdias auf einer Pappkarton-Scheibe zu “montieren”, um sie als “Film” zu betrachten. Dieses Konzept erfreute sich insbesondere bei Urlaubern großer Beliebtheit, weswegen der View-Master in den Folgejahren in mehreren Versionen neu aufgelegt wurde. Der Markenname ist nach einigen Übernahmen heute im Besitz des Spielzeugriesen Mattel, der das Gerät mittlerweile als Virtual-Reality-Brille für Kinder vermarktet. Der View-Master funktionierte mit auf Pappscheiben montierten Dias. Foto: Handige Harrie at Dutch Wikipedia / Wikimedia Commons / Public Domain Der View-Master war der Vorreiter dessen, was wir heute als VR-Headset kennen – das Konzept der virtuellen Realität wurde jedoch bereits im Jahr 1935 tiefgehend ausgebaut. Maßgeblichen Anteil daran hatte die von Stanley G. Weinbaum verfasste, fiktive Kurzgeschichte “Pygmalion’s Spectacles“. Hier wurden erstmals Brillen (für den Konsum von Spielfilmen) beschrieben, die dazu imstande waren, bei ihren Nutzern ein immersives Erlebnis zu erzeugen. Die Geschichte bot erstmals Einblick in eine Technologie, die nicht nur die Perspektive, sondern die Realität ihrer Anwender verändern konnte. Zukunftskino Bis Teile dieses Konzepts von der fiktiven in die reale Welt überführt werden konnten, dauerte es einige Jahre. 1962 machte sich der Filmemacher Morton Heilig das simple Prinzip des View-Master zunutze, als er mit dem Sensorama das weltweit erste immersive System realisierte. Das Gerät, das am ehesten an eine monströse Jahrmarktattraktion oder einen Arcade-Automaten erinnert, verfügte über einen Sitz und zwei Gucklöcher. Zahlende Nutzer kamen mit dem Sensorama in Genuss vollwertiger 3D-Bilder und Sounds. Darüber hinaus war es auch möglich, atmosphärische Effekte wie beispielsweise Wind oder auch Gerüche zu erzeugen. Morton Heiligs Sensorama (hier die Konzeptzeichnung des US-Patents) ist eines der ersten Virtual-Reality-Systeme und bildete die Grundlage für viele weitere Innovationen. Foto: Morton Heilig / Figure 5 of US Patent #3050870 / Wikimedia Commons / Public Domain Heilig selbst war davon überzeugt, mit dem Sensorama das Kino der Zukunft erfunden zu haben. Das hat sich zwar nicht ganz bewahrheitet – dennoch war das Sensorama eine bahnbrechende Innovation, die Heilig inspirierte, das Konzept weiter auszubauen. Im Jahr 1964 präsentierte er daraufhin die Telesphere Mask – ein Head-Mounted Display (HMD), das in Verbindung mit dem stationären Sensorama genutzt wird und seinen Nutzern völlig neue Bewegungsfreiheit sowie ein deutlich erweitertes Blickfeld ermöglicht und zudem Stereosound bietet. Die Erfindung Heiligs gilt als Vorreiter der VR-Brille, wie wir sie heute kennen. Damoklesschwert Trotz der rasanten Forschritte im Bereich Virtual Reality dienten die Innovationen vor allem der Exploration einer neuartigen Technologie – spezifische Use Cases, die Unternehmen Mehrwert bescheren können, gab es im Gegensatz zu heute nicht. Ein Name, der untrennbar mit Virtual Reality wie wir es heute kennen, verbunden ist, ist Ivan Sutherland. Der Computerwissenschaftler erstellte eine Blaupause für die moderne VR-Technologie. Das gelang ihm, indem er Heiligs HMD im Jahr 1966 um eine entscheidende Zutat erweiterte: Head-Tracking-Technologie. Das daraus entsprungene Device ähnelte der Telesphere Mask und wurde bekannt als “The Sword of Damocles”: Obwohl Sutherlands Innovation aus heutiger Sicht sehr rudimentär wirkt, markierte sie einen entscheidenden Schritt hin zum Interaktionslevel heutiger VR-Headsets. VPL-Boost Ab dem Jahr 1984 wurden VR-Brillen und -Handschuhe erstmals auch am Markt verfügbar – dank des von Jaron Lanier und Thomas Zimmerman (beide ehemalige Mitarbeiter des Ex-Videospiel-Riesen Atari) gegründeten Unternehmens VPL Research: Die neuen Möglichkeiten blieben auch der NASA nicht verborgen, die VPL Research im Jahr 1985 mit der Entwicklung eines Datenhandschuhs für Astronauten (PDF) beauftragte. Die Raumfahrtorganisation war es auch, die für einen ersten, gewichtigen Use Case in Sachen Virtual Reality sorgte, als sie beschloss, die Möglichkeiten der Technologie im Bereich Astronauten-Training ausloten zu wollen – in Zusammenarbeit mit VPL Research. Die Fortschritte in Sachen VR machten die Technologie zunehmend auch für militärische Zwecke interessant. Das lag im Wesentlichen an der Möglichkeit, computergenerierte 3D-Karten sowie Radar- und Infrarot-Technologien einzubinden. So experimentierte beispielsweise das Rüstungsunternehmen British Aerospace im Jahr 1987 mit einem virtuellen Cockpit. Consumer-Fehlschlag Auch die Gaming-Industrie hatte früh großes Interesse an Virtual Reality. Einen der ersten Versuche, ein VR-Device als Spielkonsole im großen Stil zu vermarkten, startete der Videospiel-Gigant Nintendo im Jahr 1995 mit dem Virtual Boy, der sich zu einem der größten Flops der Gaming-Geschichte entwickelte und das japanische Traditionsunternehmen teuer zu stehen kam. Die Gründe für den Misserfolg waren nicht nur schlechtes Timing (zahlreiche deutlich leistungsfähigere Konkurrenz-Konsolen waren bereits erschienen oder standen in den Startlöchern) und ein verfrühter Marktstart, sondern vor allem die verheerende Ergonomie und die noch lange nicht ausgereifte Technologie selbst: Bereits bei der Präsentation für Pressevertreter bereitete der Virtual-Boy-“Genuss” auch dank unausgereifter roter LEDs (auf schwarzem Grund) vielen Nutzern Kopfschmerzen, Übelkeit oder Schwindel. Nintendo selbst empfahl damals den Nutzern in Form eines Warnhinweises auf der Verpackung, alle 30 Minuten eine Spielpause einzulegen. Nach knapp einem Jahr und Entwicklungskosten in Höhe von fünf Millionen Dollar verschwand der Virtual Boy wieder vom Markt. VR-Demokratisierung Nachdem Virtual Reality um den Jahrtausendwechsel in Form von immersiveren 3D-Darstellungen auch den Sprung in die Mainstream-Film- und -TV-Welt schaffte, war es vor allem die Einführung von Google Street View im Jahr 2007, die die interessantesten technologischen Fortschritte in diesem Bereich bündelte. Der Service wurde durch Fotografien mit speziellen 360-Grad-Kameras möglich, die auf den allseits bekannten Google-Fahrzeugen montiert sind. Der Suchmaschinen-Gigant legte mit Hilfe der 360-Grad-Bilder eine visuelle Datenbank an, die den Nutzern ermöglichte, einen Ort ihrer Wahl in einer Virtual-Reality-Version zu betrachten. Ein beeindruckender Use Case, der die Technologie massentauglich machte und zeigte, welches Potenzial in VR steckt. Das befeuerte Weiterentwicklungen insbesondere im Unternehmensumfeld. Reifeprüfung Der Name Oculus Rift steht für Viele als Synonym für ein modernes Virtual-Reality-Erlebnis – sowohl was das Design des HMD, als auch was seine Fähigkeiten angeht. Frühe Prototypen des VR-Headsets existierten bereits im Jahr 2007, lange bevor das dazugehörige Unternehmen überhaupt gegründet war. Im August 2012 erschien schließlich das erste Rift Development Kit im Rahmen einer Crowdfunding-Kampagne mit dem Ziel, das Device vor allem Entwicklern schmackhaft zu machen. Im Jahr 2014 übernahm Facebook das Unternehmen für 2,3 Milliarden Dollar – ein Schachzug, der verdeutlichte, welches Potenzial die Tech-Branche in der Technologie erkannte. Neben weiteren Entwicklungskits erschien im Jahr 2019 das VR-Headset “Rift S“, das weitere, entscheidende Meilensteine in der VR-Evolution markierte. Das Headset verfügt über ein kamerabasiertes Tracking-System (Oculus Insight), mit dessen Hilfe es sowohl seine eigene als auch die Position der beiden Controller im virtuellen, dreidimensionalen Raum bestimmen kann. Schöne, neue XR-Welt Die Corona-Pandemie unterstreicht seit dem Jahr 2020, wie wichtig Virtual Reality künftig auch für die Business-Welt wird. Firmen weltweit experimentieren nicht erst seit Beginn des Social-Distancing-Zeitalters mit VR Use Cases – insbesondere in Sachen virtuelle Zusammenarbeit, Wartung von Maschinen und der Schulung von Mitarbeitern. Interessante Use Cases in Deutschland haben beispielsweise BMW, BASF, die ZF Gruppe oder die Linde AG in petto. Die Zukunft von Virtual Reality wird künftig in Extended Reality liegen, dem Dachbegriff für Virtual, Augmented und Mixed Reality. Dieser ist jedoch nicht unproblematisch, da sich beispielsweise die Anforderungen, die Augmented und Virtual Reality an die Rechenpower stellen, deutlich unterscheiden. Ähnlich wie VR-Pionier Morton Heilig verfolgen die Entwickler heute jedoch ebenfalls das Ziel, noch immersivere Erfahrungen zu erzeugen und dabei neue Mehrwerte für Unternehmen zu erschließen. Dabei dürften insbesondere die Cloud, Edge Computing und 5G dafür sorgen, dass Virtual Reality zunehmende Verbreitung in Unternehmen findet. Bislang benötigen VR-Devices nämlich im Regelfall entweder Mobilgeräte oder stationäre Rechner, die über ausreichend Power verfügen müssen (je höher die Auflösung der virtuellen Welt, desto mehr Rechenkraft wird benötigt). Werden diese überflüssig, ist der Weg zu einer wirklich mobilen VR-Erfahrung frei, was zahlreiche neue Anwendungsfälle generieren dürfte. Ein weiterer Booster für die Technologie – nicht nur im Unternehmenumfeld – ist 2024 mit Apples MR-Brille Vision Pro auf den Plan getreten. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Virtual Reality: Die Geschichte der virtuellen Realität​ Virtual Reality ist heute State of the Art. Lesen Sie, wie sich die Technologie über die Jahrzehnte entwickelt hat und wie die VR-Zukunft aussehen könnte.
Foto: Joshua Resnick – shutterstock.com

Das Kürzel “VR” ist heute wohl jedem ein Begriff. Durch den anhaltenden Remote-Work-Trend, die Pandemie-bedingten Einschränkungen und nicht zuletzt das Aufkommen des Metaverse wird Virtual Reality zunehmend interessanter – für Unternehmen wie für Konsumenten. Lesen Sie, wie Virtual Reality entstanden ist und was die Zukunft für die Technologie bereithalten könnte.

Anfänge

Das erste Gerät, das über Virtual-Reality-Charakteristiken verfügte, war der View-Master. Das Gerät ermöglichte die Betrachtung stereoskopischer Bilder. Das Konzept auf dem das Device basierte, entstand bereits im Jahr 1838 – die Idee dahinter: Verschiedene Einzelbilder gleichzeitig zu betrachten, um ein dreidimensionales Bild zu erzeugen.

Der View-Master erschien im Jahr 1939 und bot die Möglichkeit, sieben stereoskopische 3D-Farbdias auf einer Pappkarton-Scheibe zu “montieren”, um sie als “Film” zu betrachten. Dieses Konzept erfreute sich insbesondere bei Urlaubern großer Beliebtheit, weswegen der View-Master in den Folgejahren in mehreren Versionen neu aufgelegt wurde. Der Markenname ist nach einigen Übernahmen heute im Besitz des Spielzeugriesen Mattel, der das Gerät mittlerweile als Virtual-Reality-Brille für Kinder vermarktet.

Der View-Master funktionierte mit auf Pappscheiben montierten Dias.
Foto: Handige Harrie at Dutch Wikipedia / Wikimedia Commons / Public Domain

Der View-Master war der Vorreiter dessen, was wir heute als VR-Headset kennen – das Konzept der virtuellen Realität wurde jedoch bereits im Jahr 1935 tiefgehend ausgebaut. Maßgeblichen Anteil daran hatte die von Stanley G. Weinbaum verfasste, fiktive Kurzgeschichte “Pygmalion’s Spectacles“. Hier wurden erstmals Brillen (für den Konsum von Spielfilmen) beschrieben, die dazu imstande waren, bei ihren Nutzern ein immersives Erlebnis zu erzeugen. Die Geschichte bot erstmals Einblick in eine Technologie, die nicht nur die Perspektive, sondern die Realität ihrer Anwender verändern konnte.

Zukunftskino

Bis Teile dieses Konzepts von der fiktiven in die reale Welt überführt werden konnten, dauerte es einige Jahre. 1962 machte sich der Filmemacher Morton Heilig das simple Prinzip des View-Master zunutze, als er mit dem Sensorama das weltweit erste immersive System realisierte. Das Gerät, das am ehesten an eine monströse Jahrmarktattraktion oder einen Arcade-Automaten erinnert, verfügte über einen Sitz und zwei Gucklöcher. Zahlende Nutzer kamen mit dem Sensorama in Genuss vollwertiger 3D-Bilder und Sounds. Darüber hinaus war es auch möglich, atmosphärische Effekte wie beispielsweise Wind oder auch Gerüche zu erzeugen.

Morton Heiligs Sensorama (hier die Konzeptzeichnung des US-Patents) ist eines der ersten Virtual-Reality-Systeme und bildete die Grundlage für viele weitere Innovationen.
Foto: Morton Heilig / Figure 5 of US Patent #3050870 / Wikimedia Commons / Public Domain

Heilig selbst war davon überzeugt, mit dem Sensorama das Kino der Zukunft erfunden zu haben. Das hat sich zwar nicht ganz bewahrheitet – dennoch war das Sensorama eine bahnbrechende Innovation, die Heilig inspirierte, das Konzept weiter auszubauen.

Im Jahr 1964 präsentierte er daraufhin die Telesphere Mask – ein Head-Mounted Display (HMD), das in Verbindung mit dem stationären Sensorama genutzt wird und seinen Nutzern völlig neue Bewegungsfreiheit sowie ein deutlich erweitertes Blickfeld ermöglicht und zudem Stereosound bietet. Die Erfindung Heiligs gilt als Vorreiter der VR-Brille, wie wir sie heute kennen.

Damoklesschwert

Trotz der rasanten Forschritte im Bereich Virtual Reality dienten die Innovationen vor allem der Exploration einer neuartigen Technologie – spezifische Use Cases, die Unternehmen Mehrwert bescheren können, gab es im Gegensatz zu heute nicht. Ein Name, der untrennbar mit Virtual Reality wie wir es heute kennen, verbunden ist, ist Ivan Sutherland. Der Computerwissenschaftler erstellte eine Blaupause für die moderne VR-Technologie.

Das gelang ihm, indem er Heiligs HMD im Jahr 1966 um eine entscheidende Zutat erweiterte: Head-Tracking-Technologie. Das daraus entsprungene Device ähnelte der Telesphere Mask und wurde bekannt als “The Sword of Damocles”:

Obwohl Sutherlands Innovation aus heutiger Sicht sehr rudimentär wirkt, markierte sie einen entscheidenden Schritt hin zum Interaktionslevel heutiger VR-Headsets.

VPL-Boost

Ab dem Jahr 1984 wurden VR-Brillen und -Handschuhe erstmals auch am Markt verfügbar – dank des von Jaron Lanier und Thomas Zimmerman (beide ehemalige Mitarbeiter des Ex-Videospiel-Riesen Atari) gegründeten Unternehmens VPL Research:

Die neuen Möglichkeiten blieben auch der NASA nicht verborgen, die VPL Research im Jahr 1985 mit der Entwicklung eines Datenhandschuhs für Astronauten (PDF) beauftragte. Die Raumfahrtorganisation war es auch, die für einen ersten, gewichtigen Use Case in Sachen Virtual Reality sorgte, als sie beschloss, die Möglichkeiten der Technologie im Bereich Astronauten-Training ausloten zu wollen – in Zusammenarbeit mit VPL Research.

Die Fortschritte in Sachen VR machten die Technologie zunehmend auch für militärische Zwecke interessant. Das lag im Wesentlichen an der Möglichkeit, computergenerierte 3D-Karten sowie Radar- und Infrarot-Technologien einzubinden. So experimentierte beispielsweise das Rüstungsunternehmen British Aerospace im Jahr 1987 mit einem virtuellen Cockpit.

Consumer-Fehlschlag

Auch die Gaming-Industrie hatte früh großes Interesse an Virtual Reality. Einen der ersten Versuche, ein VR-Device als Spielkonsole im großen Stil zu vermarkten, startete der Videospiel-Gigant Nintendo im Jahr 1995 mit dem Virtual Boy, der sich zu einem der größten Flops der Gaming-Geschichte entwickelte und das japanische Traditionsunternehmen teuer zu stehen kam. Die Gründe für den Misserfolg waren nicht nur schlechtes Timing (zahlreiche deutlich leistungsfähigere Konkurrenz-Konsolen waren bereits erschienen oder standen in den Startlöchern) und ein verfrühter Marktstart, sondern vor allem die verheerende Ergonomie und die noch lange nicht ausgereifte Technologie selbst:

Bereits bei der Präsentation für Pressevertreter bereitete der Virtual-Boy-“Genuss” auch dank unausgereifter roter LEDs (auf schwarzem Grund) vielen Nutzern Kopfschmerzen, Übelkeit oder Schwindel. Nintendo selbst empfahl damals den Nutzern in Form eines Warnhinweises auf der Verpackung, alle 30 Minuten eine Spielpause einzulegen. Nach knapp einem Jahr und Entwicklungskosten in Höhe von fünf Millionen Dollar verschwand der Virtual Boy wieder vom Markt.

VR-Demokratisierung

Nachdem Virtual Reality um den Jahrtausendwechsel in Form von immersiveren 3D-Darstellungen auch den Sprung in die Mainstream-Film- und -TV-Welt schaffte, war es vor allem die Einführung von Google Street View im Jahr 2007, die die interessantesten technologischen Fortschritte in diesem Bereich bündelte.

Der Service wurde durch Fotografien mit speziellen 360-Grad-Kameras möglich, die auf den allseits bekannten Google-Fahrzeugen montiert sind. Der Suchmaschinen-Gigant legte mit Hilfe der 360-Grad-Bilder eine visuelle Datenbank an, die den Nutzern ermöglichte, einen Ort ihrer Wahl in einer Virtual-Reality-Version zu betrachten. Ein beeindruckender Use Case, der die Technologie massentauglich machte und zeigte, welches Potenzial in VR steckt. Das befeuerte Weiterentwicklungen insbesondere im Unternehmensumfeld.

Reifeprüfung

Der Name Oculus Rift steht für Viele als Synonym für ein modernes Virtual-Reality-Erlebnis – sowohl was das Design des HMD, als auch was seine Fähigkeiten angeht. Frühe Prototypen des VR-Headsets existierten bereits im Jahr 2007, lange bevor das dazugehörige Unternehmen überhaupt gegründet war. Im August 2012 erschien schließlich das erste Rift Development Kit im Rahmen einer Crowdfunding-Kampagne mit dem Ziel, das Device vor allem Entwicklern schmackhaft zu machen.

Im Jahr 2014 übernahm Facebook das Unternehmen für 2,3 Milliarden Dollar – ein Schachzug, der verdeutlichte, welches Potenzial die Tech-Branche in der Technologie erkannte. Neben weiteren Entwicklungskits erschien im Jahr 2019 das VR-Headset “Rift S“, das weitere, entscheidende Meilensteine in der VR-Evolution markierte. Das Headset verfügt über ein kamerabasiertes Tracking-System (Oculus Insight), mit dessen Hilfe es sowohl seine eigene als auch die Position der beiden Controller im virtuellen, dreidimensionalen Raum bestimmen kann.

Schöne, neue XR-Welt

Die Corona-Pandemie unterstreicht seit dem Jahr 2020, wie wichtig Virtual Reality künftig auch für die Business-Welt wird. Firmen weltweit experimentieren nicht erst seit Beginn des Social-Distancing-Zeitalters mit VR Use Cases – insbesondere in Sachen virtuelle Zusammenarbeit, Wartung von Maschinen und der Schulung von Mitarbeitern. Interessante Use Cases in Deutschland haben beispielsweise

BMW,

BASF,

die ZF Gruppe

oder die Linde AG

in petto.

Die Zukunft von Virtual Reality wird künftig in Extended Reality liegen, dem Dachbegriff für Virtual, Augmented und Mixed Reality. Dieser ist jedoch nicht unproblematisch, da sich beispielsweise die Anforderungen, die Augmented und Virtual Reality an die Rechenpower stellen, deutlich unterscheiden. Ähnlich wie VR-Pionier Morton Heilig verfolgen die Entwickler heute jedoch ebenfalls das Ziel, noch immersivere Erfahrungen zu erzeugen und dabei neue Mehrwerte für Unternehmen zu erschließen.

Dabei dürften insbesondere die Cloud, Edge Computing und 5G dafür sorgen, dass Virtual Reality zunehmende Verbreitung in Unternehmen findet. Bislang benötigen VR-Devices nämlich im Regelfall entweder Mobilgeräte oder stationäre Rechner, die über ausreichend Power verfügen müssen (je höher die Auflösung der virtuellen Welt, desto mehr Rechenkraft wird benötigt). Werden diese überflüssig, ist der Weg zu einer wirklich mobilen VR-Erfahrung frei, was zahlreiche neue Anwendungsfälle generieren dürfte. Ein weiterer Booster für die Technologie – nicht nur im Unternehmenumfeld – ist 2024 mit Apples MR-Brille Vision Pro auf den Plan getreten.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Virtual Reality: Die Geschichte der virtuellen Realität​ Weiterlesen »

Nach oben scrollen
×