Computerhaus Quickborn

Allgemein

Cloud-Wechsel leicht gemacht​

Allgemein

width=”1000″ height=”563″ sizes=”(max-width: 1000px) 100vw, 1000px”>Mit einem Framework will der CISPE-Verband Anwendern den Wechsel zwischen verschiedenen Cloud-Anbietern erleichtern.Connect world – shutterstock.com Die Organisation Cloud Infrastructure Services Providers in Europe (CISPE) hat das Cloud Switching Framework vorgestellt. Damit will der Verband Cloud-Anbietern und deren Kunden einen Leitfaden an die Hand geben, der es vereinfachen soll, den EU Data Act umzusetzen.   Das Regelwerk, das Ende 2023 vom Rat und dem Parlament der EU verabschiedet wurde, im Januar 2024 in Kraft trat und ab dem 12. September 2025 umzusetzen ist, beschreibt, wie Daten in Europa gehandhabt und genutzt werden sollen.  Das Gesetz regelt unter anderem auch den Wechsel von Anwenderunternehmen und Konsumenten zwischen Anbietern von Cloud- und anderen Datenverarbeitungsdiensten. Darüber hinaus sollen Schutzvorkehrungen unrechtmäßige internationale Datenübertragungen durch Cloud-Anbieter verhindern.  Framework für mehr Wettbewerb Um Anbietern und ihren Kunden dabei zu helfen, die Verpflichtungen des Data Act in Bezug auf Cloud-Datenportabilität und Anbieterwechsel einzuhalten und zu automatisieren, hat CISPE das Cloud Switching Framework vorgestellt. Die Verantwortlichen sprechen von einem „wichtigen Instrument, das eine größere Auswahl an Cloud-Anbietern, Wettbewerbsfähigkeit und Innovation in ganz Europa fördert“.  Im Detail beschreibt das Framework die technischen und betrieblichen Prozesse, die erforderlich sind, um die vom Data Act geforderten Portierungs- und Wechselfunktionen bereitzustellen. Dabei geht es im Einzelnen um  Transparenz: Cloud-Anbieter müssen klare und detaillierte Informationen über den Wechselprozess bereitstellen, einschließlich Verfahren, Datenformate, Kosten und technische Einschränkungen.  Vertragliche Verpflichtungen: Verträge müssen es Kunden ermöglichen, zwischen Anbietern zu wechseln oder mehrere Anbieter zu nutzen. Außerdem gilt es, in den Verträgen Unterstützungspflichten des Anbieters, Datenexportanforderungen und Kündigungsverfahren zu spezifizieren.  Einleitung des Wechsels: Anbieter müssen Kanäle anbieten, über die Kunden einen Wechselantrag stellen und den Fortschritt verfolgen können.  Technische Anforderungen: Anbieter müssen offene Schnittstellen, Datenexport-Tools und andere technische Fähigkeiten bereitstellen, um den Wechsel zu erleichtern sowie dabei auch die Datensicherheit zu gewährleisten.  Beendigung: Anbieter müssen das Kundenkonto schließen, sobald der Kunde den Abschluss des Wechsels bestätigt und die Schließung anfordert, was zur Beendigung des Vertrags führt.  „Heute stellen wir ein Tool zur Verfügung, das die Einhaltung des Data Act radikal vereinfacht und Anbietern wie Kunden ausreichend Zeit vor der Frist im nächsten September gibt“, sagte Francisco Mingorance, Generalsekretär von CISPE. „Die Auswirkungen der maschinenlesbaren, überprüfbaren Anmeldeinformationen, die vom CISPE-Framework unterstützt werden, sind weitreichend, und dies ist erst der Anfang.“  Arnaud David, Director Public Policy EMEA, Digital und AI beim CISPE-Mitglied AWS, bekräftigte, von Anfang an ein großer Befürworter des CISPE Cloud Switching Framework gewesen zu sein. „Es ist wichtig, dass es jetzt verfügbar ist, damit Anbieter und Kunden ausreichend Zeit haben, ihre Cloud-Optionen zu prüfen, da die Frist für die Einhaltung des Data Act immer näher rückt.“  Data Act – zwischen Innovations-Booster und Lachnummer Die Meinungen zum Data Act gingen in den beiden vergangenen Jahren weit auseinander. „Das Datengesetz wird ein Wendepunkt sein, der den Zugang zu einer fast unendlichen Menge an hochwertigen Industriedaten ermöglicht“, sagte die federführende Europaabgeordnete Pilar del Castillo Vera von der EVP-Fraktion im März 2023, als noch um die Details des Regelwerks gefeilscht wurde. Der Data Act soll neue Dienste ermöglichen sowie Wettbewerbsfähigkeit und Innovation stärken, so die Hoffnung der EU-Politiker.  „In den uns weniger freundlich gesonnenen Ländern schlägt man sich bei der Lektüre des Data Act vor Freude die Schenkel wund“, schimpfte dagegen der vor eineinhalb Jahren noch amtierende Bitkom-Präsident Achim Berg. Das Regelwerk zwinge die Unternehmen dazu, Geschäftsgeheimnisse zu teilen. „Dem Ziel der digitalen und technologischen Souveränität erweist der Data Act mit seinen Vorschlägen einen Bärendienst“, kritisierte der IT-Lobbyist.  Mittlerweile haben sich die Wogen etwas geglättet. Rund die Hälfte der Unternehmen in Deutschland sehen den Data Act eher als Chance, berichtete der Bitkom im Sommer 2024 unter Berufung auf eine Umfrage unter rund 600 Betrieben. Allerdings sprechen vier von zehn Firmenvertretern von einem Risiko im Zusammenhang mit dem kommenden Regelwerk. Bitkom „Damit der Data Act keine Fehlzündung wird, müssen die von ihm eröffneten Möglichkeiten auch genutzt werden“, mahnte David Schönwerth, Bereichsleiter Data Economy beim Bitkom. Wichtig sei daher, dass sich wirklich alle Unternehmen mit dem Data Act beschäftigten. Schließlich betreffe der Data Act fast die gesamte Wirtschaft und nicht nur Unternehmen, die bereits heute Daten anbieten oder Daten von Dritten nutzen. Entsprechend wünsche sich eine knappe Mehrheit (53 Prozent) mehr Beratung durch öffentliche Stellen bei der Umsetzung des Data Acts, lautet ein Ergebnis der Bitkom-Umfrage. „Das ist ein Aufruf an die Bundesregierung“, so Schönwerth. „Die Unternehmen benötigen dringend Klarheit, welche Aufsichtsbehörden für den Data Act zuständig sind.“  Allerdings ist die deutsche Politik nach dem Ende der Ampelkoalition erst einmal mit anderen Dingen beschäftigt. Das dürfte bis weit ins nächste Jahr anhalten, so dass Klarheit in Sachen Data-Act-Umsetzung von Seiten der Politik eher Wunschdenken bleiben dürfte.  AWS, Google und Microsoft streichen Umzugsgebühren Währenddessen bereiten sich die Hyperscaler darauf vor, den Data Act im kommenden Jahr umzusetzen. Im Januar 2024 kündigten Vertreter von Google Cloud an, in Zukunft keine Gebühren mehr von Kunden zu kassieren, wenn diese den Cloud-Provider wechseln wollen. Demzufolge könnten Anwender ihre Daten und Workloads kostenfrei aus Googles Cloud-Infrastruktur zu einem anderen Anbieter transferieren.  Die anderen großen Cloud-Provider zogen nach. Anfang März 2024 verabschiedete sich AWS von den sogenannten Egress-Gebühren. Wenige Tage folgte Microsoft und kündigte an, dass Azure-Kunden ihre Daten kostenlos über das Internet zu anderen Cloud-Anbietern oder lokalen Rechenzentren übertragen können.  

Cloud-Wechsel leicht gemacht​ width=”1000″ height=”563″ sizes=”(max-width: 1000px) 100vw, 1000px”>Mit einem Framework will der CISPE-Verband Anwendern den Wechsel zwischen verschiedenen Cloud-Anbietern erleichtern.Connect world – shutterstock.com

Die Organisation Cloud Infrastructure Services Providers in Europe (CISPE) hat das Cloud Switching Framework vorgestellt. Damit will der Verband Cloud-Anbietern und deren Kunden einen Leitfaden an die Hand geben, der es vereinfachen soll, den EU Data Act umzusetzen.  

Das Regelwerk, das Ende 2023 vom Rat und dem Parlament der EU verabschiedet wurde, im Januar 2024 in Kraft trat und ab dem 12. September 2025 umzusetzen ist, beschreibt, wie Daten in Europa gehandhabt und genutzt werden sollen. 

Das Gesetz regelt unter anderem auch den Wechsel von Anwenderunternehmen und Konsumenten zwischen Anbietern von Cloud- und anderen Datenverarbeitungsdiensten. Darüber hinaus sollen Schutzvorkehrungen unrechtmäßige internationale Datenübertragungen durch Cloud-Anbieter verhindern. 

Framework für mehr Wettbewerb

Um Anbietern und ihren Kunden dabei zu helfen, die Verpflichtungen des Data Act in Bezug auf Cloud-Datenportabilität und Anbieterwechsel einzuhalten und zu automatisieren, hat CISPE das Cloud Switching Framework vorgestellt. Die Verantwortlichen sprechen von einem „wichtigen Instrument, das eine größere Auswahl an Cloud-Anbietern, Wettbewerbsfähigkeit und Innovation in ganz Europa fördert“. 

Im Detail beschreibt das Framework die technischen und betrieblichen Prozesse, die erforderlich sind, um die vom Data Act geforderten Portierungs- und Wechselfunktionen bereitzustellen. Dabei geht es im Einzelnen um 

Transparenz: Cloud-Anbieter müssen klare und detaillierte Informationen über den Wechselprozess bereitstellen, einschließlich Verfahren, Datenformate, Kosten und technische Einschränkungen. 

Vertragliche Verpflichtungen: Verträge müssen es Kunden ermöglichen, zwischen Anbietern zu wechseln oder mehrere Anbieter zu nutzen. Außerdem gilt es, in den Verträgen Unterstützungspflichten des Anbieters, Datenexportanforderungen und Kündigungsverfahren zu spezifizieren. 

Einleitung des Wechsels: Anbieter müssen Kanäle anbieten, über die Kunden einen Wechselantrag stellen und den Fortschritt verfolgen können. 

Technische Anforderungen: Anbieter müssen offene Schnittstellen, Datenexport-Tools und andere technische Fähigkeiten bereitstellen, um den Wechsel zu erleichtern sowie dabei auch die Datensicherheit zu gewährleisten. 

Beendigung: Anbieter müssen das Kundenkonto schließen, sobald der Kunde den Abschluss des Wechsels bestätigt und die Schließung anfordert, was zur Beendigung des Vertrags führt. 

„Heute stellen wir ein Tool zur Verfügung, das die Einhaltung des Data Act radikal vereinfacht und Anbietern wie Kunden ausreichend Zeit vor der Frist im nächsten September gibt“, sagte Francisco Mingorance, Generalsekretär von CISPE. „Die Auswirkungen der maschinenlesbaren, überprüfbaren Anmeldeinformationen, die vom CISPE-Framework unterstützt werden, sind weitreichend, und dies ist erst der Anfang.“ 

Arnaud David, Director Public Policy EMEA, Digital und AI beim CISPE-Mitglied AWS, bekräftigte, von Anfang an ein großer Befürworter des CISPE Cloud Switching Framework gewesen zu sein. „Es ist wichtig, dass es jetzt verfügbar ist, damit Anbieter und Kunden ausreichend Zeit haben, ihre Cloud-Optionen zu prüfen, da die Frist für die Einhaltung des Data Act immer näher rückt.“ 

Data Act – zwischen Innovations-Booster und Lachnummer

Die Meinungen zum Data Act gingen in den beiden vergangenen Jahren weit auseinander. „Das Datengesetz wird ein Wendepunkt sein, der den Zugang zu einer fast unendlichen Menge an hochwertigen Industriedaten ermöglicht“, sagte die federführende Europaabgeordnete Pilar del Castillo Vera von der EVP-Fraktion im März 2023, als noch um die Details des Regelwerks gefeilscht wurde. Der Data Act soll neue Dienste ermöglichen sowie Wettbewerbsfähigkeit und Innovation stärken, so die Hoffnung der EU-Politiker. 

„In den uns weniger freundlich gesonnenen Ländern schlägt man sich bei der Lektüre des Data Act vor Freude die Schenkel wund“, schimpfte dagegen der vor eineinhalb Jahren noch amtierende Bitkom-Präsident Achim Berg. Das Regelwerk zwinge die Unternehmen dazu, Geschäftsgeheimnisse zu teilen. „Dem Ziel der digitalen und technologischen Souveränität erweist der Data Act mit seinen Vorschlägen einen Bärendienst“, kritisierte der IT-Lobbyist. 

Mittlerweile haben sich die Wogen etwas geglättet. Rund die Hälfte der Unternehmen in Deutschland sehen den Data Act eher als Chance, berichtete der Bitkom im Sommer 2024 unter Berufung auf eine Umfrage unter rund 600 Betrieben. Allerdings sprechen vier von zehn Firmenvertretern von einem Risiko im Zusammenhang mit dem kommenden Regelwerk.

Bitkom

„Damit der Data Act keine Fehlzündung wird, müssen die von ihm eröffneten Möglichkeiten auch genutzt werden“, mahnte David Schönwerth, Bereichsleiter Data Economy beim Bitkom. Wichtig sei daher, dass sich wirklich alle Unternehmen mit dem Data Act beschäftigten. Schließlich betreffe der Data Act fast die gesamte Wirtschaft und nicht nur Unternehmen, die bereits heute Daten anbieten oder Daten von Dritten nutzen. Entsprechend wünsche sich eine knappe Mehrheit (53 Prozent) mehr Beratung durch öffentliche Stellen bei der Umsetzung des Data Acts, lautet ein Ergebnis der Bitkom-Umfrage. „Das ist ein Aufruf an die Bundesregierung“, so Schönwerth. „Die Unternehmen benötigen dringend Klarheit, welche Aufsichtsbehörden für den Data Act zuständig sind.“ 

Allerdings ist die deutsche Politik nach dem Ende der Ampelkoalition erst einmal mit anderen Dingen beschäftigt. Das dürfte bis weit ins nächste Jahr anhalten, so dass Klarheit in Sachen Data-Act-Umsetzung von Seiten der Politik eher Wunschdenken bleiben dürfte. 

AWS, Google und Microsoft streichen Umzugsgebühren

Währenddessen bereiten sich die Hyperscaler darauf vor, den Data Act im kommenden Jahr umzusetzen. Im Januar 2024 kündigten Vertreter von Google Cloud an, in Zukunft keine Gebühren mehr von Kunden zu kassieren, wenn diese den Cloud-Provider wechseln wollen. Demzufolge könnten Anwender ihre Daten und Workloads kostenfrei aus Googles Cloud-Infrastruktur zu einem anderen Anbieter transferieren. 

Die anderen großen Cloud-Provider zogen nach. Anfang März 2024 verabschiedete sich AWS von den sogenannten Egress-Gebühren. Wenige Tage folgte Microsoft und kündigte an, dass Azure-Kunden ihre Daten kostenlos über das Internet zu anderen Cloud-Anbietern oder lokalen Rechenzentren übertragen können. 

Cloud-Wechsel leicht gemacht​ Weiterlesen »

VOICE wirft Broadcom Missbrauch seiner Marktmacht vor​

Allgemein

loading=”lazy” width=”400px”>Anwender werfen Broadcom/VMware vor, ihre Marktmacht zum Nachteil ihrer Kunden auszunutzen.Smokedsalmon – shutterstock.com Vertreter des VOICE -Bundesverbands der IT-Anwender haben in einem offenen Brief an Kommissionspräsidentin Ursula von der Leyen erneut das missbräuchliche Marktverhalten von Broadcom und ihrer Tochter VMware angeprangert. VOICE bat die EU-Aufsichtsbehörden darum, dieses anwenderschädigende Verhalten zu unterbinden, und Broadcom/VMware dazu zu bringen, ihre Lizenzbedingungen zu ändern. AT&T streitet mit Broadcom: AT&T verklagt Broadcom wegen Vertragsbruch AT&T vs. Broadcom – Streit um VMware-Support wird schärfer Stein des Anstoßes ist die Tatsache, dass Broadcom nach der Übernahme von VMware seine Lizenzmetrik auf ein Cloud-Abo-Modell umgestellt – zum Nachteil der Anwender, wie VOICE kritisiert. „Mit der Umstellung diktiert VMware seinen Kunden Lizenzbedingungen, die ihnen gravierende Nachteile und erhebliche Kostensteigerungen einbringen“, heißt es in einer Mitteilung des Anwenderverbands. Preissteigerungen von mehreren 100 Prozent Viele bisher einzeln beziehbare Applikationen und Services seien so gebündelt worden, dass Anwenderunternehmen teilweise vor Preiserhöhungen von mehreren hundert Prozent stünden. Darüber hinaus habe Broadcom/VMware Kundenkategorien eingeführt, für die der Anbieter den Zugang zu den geschaffenen Service-Bundles entweder eingeschränkt oder enorm verteuert habe.  Auskunftsersuchen wegen VMware: EU untersucht Broadcoms Lizenzpraktiken Nach Auffassung von VOICE und seinen europäischen Schwesterverbänden wie Beltug, Cigref und CIO Platform Nederlande nutzt Broadcom/VMware hier seine Marktmacht missbräuchlich aus. Bereits im März 2024 hatten die Verbände dies in einem offenen Brief an die Kommission kritisiert. Nun legen die Anwendervertreter nach und fordern von Broadcom/VMware acht konkrete Veränderungen in der Lizenzpolitik:  VMware-Produkte für Server-, Speicher- und Netzwerkvirtualisierung (vSphere/vCenter, vSAN, NSX) werden (auch) einzeln ohne kommerzielle Bündelung untereinander oder mit anderen Produkten (wie Aria) verkauft.  Sämtliche VMware-Kunden können sämtliche VMware-Produkte ohne Einschränkungen in Bezug auf Kategorisierungen wie Kundengruppen usw. erwerben.  Rabatte werden auf alle Produkte gewährt, ohne dass eine eindeutige Bevorzugung vorliegt, so dass kein der Bündelung gleichwertiger Effekt erzielt wird.  Broadcom/VMware gewährt die vertraglich vereinbarten Verlängerungsklauseln zum Ende der Vertragslaufzeit (sog. “outyear renewal clause”).  Bestehende unbefristete Lizenzen werden beim Erwerb von Abonnementlizenzen angemessen kompensiert.  Die Anforderung von mindestens 16 Cores pro CPU bei der Ermittlung der Lizenzkosten wird ersatzlos gestrichen.  Alle Verträge, die bereits unter dem von Broadcom eingeführten Lizenzsystem abgeschlossen wurden, werden rückwirkend auf das unter den Ziffern 1 bis 8 beschriebene System umgestellt, so dass die Kunden auch rückwirkend die gewünschten Produkte individuell ohne kommerzielle Bündelung auswählen können.  Mehrkosten für Verträge, die bereits nach dem neuen Lizenzsystem abgeschlossen wurden, werden umgehend erstattet.  Wenn die Lizenzbestimmungen gemäß diesen Forderungen verändert werden, ließen sich die meisten Probleme ausräumen, hieß es von Seiten der Anwendervereinigung. Man werde sich weiter für die Interessen der Anwender und die Durchsetzung der genannten Änderungen einsetzen, kündigten die VOICE-Vertreter an. Eine weitere Eskalation scheint nicht ausgeschlossen. VOICE behält sich eigenen Angaben zufolge auch rechtliche Schritte vor.  

VOICE wirft Broadcom Missbrauch seiner Marktmacht vor​ loading=”lazy” width=”400px”>Anwender werfen Broadcom/VMware vor, ihre Marktmacht zum Nachteil ihrer Kunden auszunutzen.Smokedsalmon – shutterstock.com

Vertreter des VOICE -Bundesverbands der IT-Anwender haben in einem offenen Brief an Kommissionspräsidentin Ursula von der Leyen erneut das missbräuchliche Marktverhalten von Broadcom und ihrer Tochter VMware angeprangert. VOICE bat die EU-Aufsichtsbehörden darum, dieses anwenderschädigende Verhalten zu unterbinden, und Broadcom/VMware dazu zu bringen, ihre Lizenzbedingungen zu ändern.

AT&T streitet mit Broadcom:

AT&T verklagt Broadcom wegen Vertragsbruch

AT&T vs. Broadcom – Streit um VMware-Support wird schärfer

Stein des Anstoßes ist die Tatsache, dass Broadcom nach der Übernahme von VMware seine Lizenzmetrik auf ein Cloud-Abo-Modell umgestellt – zum Nachteil der Anwender, wie VOICE kritisiert. „Mit der Umstellung diktiert VMware seinen Kunden Lizenzbedingungen, die ihnen gravierende Nachteile und erhebliche Kostensteigerungen einbringen“, heißt es in einer Mitteilung des Anwenderverbands.

Preissteigerungen von mehreren 100 Prozent

Viele bisher einzeln beziehbare Applikationen und Services seien so gebündelt worden, dass Anwenderunternehmen teilweise vor Preiserhöhungen von mehreren hundert Prozent stünden. Darüber hinaus habe Broadcom/VMware Kundenkategorien eingeführt, für die der Anbieter den Zugang zu den geschaffenen Service-Bundles entweder eingeschränkt oder enorm verteuert habe. 

Auskunftsersuchen wegen VMware: EU untersucht Broadcoms Lizenzpraktiken

Nach Auffassung von VOICE und seinen europäischen Schwesterverbänden wie Beltug, Cigref und CIO Platform Nederlande nutzt Broadcom/VMware hier seine Marktmacht missbräuchlich aus. Bereits im März 2024 hatten die Verbände dies in einem offenen Brief an die Kommission kritisiert. Nun legen die Anwendervertreter nach und fordern von Broadcom/VMware acht konkrete Veränderungen in der Lizenzpolitik: 

VMware-Produkte für Server-, Speicher- und Netzwerkvirtualisierung (vSphere/vCenter, vSAN, NSX) werden (auch) einzeln ohne kommerzielle Bündelung untereinander oder mit anderen Produkten (wie Aria) verkauft. 

Sämtliche VMware-Kunden können sämtliche VMware-Produkte ohne Einschränkungen in Bezug auf Kategorisierungen wie Kundengruppen usw. erwerben. 

Rabatte werden auf alle Produkte gewährt, ohne dass eine eindeutige Bevorzugung vorliegt, so dass kein der Bündelung gleichwertiger Effekt erzielt wird. 

Broadcom/VMware gewährt die vertraglich vereinbarten Verlängerungsklauseln zum Ende der Vertragslaufzeit (sog. “outyear renewal clause”). 

Bestehende unbefristete Lizenzen werden beim Erwerb von Abonnementlizenzen angemessen kompensiert. 

Die Anforderung von mindestens 16 Cores pro CPU bei der Ermittlung der Lizenzkosten wird ersatzlos gestrichen. 

Alle Verträge, die bereits unter dem von Broadcom eingeführten Lizenzsystem abgeschlossen wurden, werden rückwirkend auf das unter den Ziffern 1 bis 8 beschriebene System umgestellt, so dass die Kunden auch rückwirkend die gewünschten Produkte individuell ohne kommerzielle Bündelung auswählen können. 

Mehrkosten für Verträge, die bereits nach dem neuen Lizenzsystem abgeschlossen wurden, werden umgehend erstattet. 

Wenn die Lizenzbestimmungen gemäß diesen Forderungen verändert werden, ließen sich die meisten Probleme ausräumen, hieß es von Seiten der Anwendervereinigung. Man werde sich weiter für die Interessen der Anwender und die Durchsetzung der genannten Änderungen einsetzen, kündigten die VOICE-Vertreter an. Eine weitere Eskalation scheint nicht ausgeschlossen. VOICE behält sich eigenen Angaben zufolge auch rechtliche Schritte vor. 

VOICE wirft Broadcom Missbrauch seiner Marktmacht vor​ Weiterlesen »

Wie der KI-Ramp-up in Deutschland läuft​

Allgemein

Wenn die IT tatsächlich aus der Tech-Schublade ausbrechen und sich in der Organisation neu positionieren will, sollte sie alles daran setzen, die Chance durch KI zu nutzen.Shutterstock Germany only – vectorfusionart Das Phänomen ist bekannt – bei einem neuen Hobby oder einer neuen Sportart investieren Menschen erstmal kräftig in die Ausrüstung: Werkzeuge, Schläger, Funktionskleidung, Schuhe und die elektronische Gangschaltung. Das stärkt die Zugehörigkeit zu einer Peergroup, verscheucht die Fear of Missing Out (FOMO) und soll helfen, das spontane Engagement zu verstetigen. Ein Teil der Anschaffungen landet erfahrungsgemäß nach kurzer Zeit im Keller. Bei KI ist die Situation ähnlich. Viele Unternehmen investieren in die Technik, weil sie das Zeug hat, das Next Big Thing zu werden – wer würde heute ernsthaft daran zweifeln? Einer aktuellen Untersuchung der COMPUTERWOCHE zufolge ist die Antwort klar: kaum jemand. Laut Einschätzung der Teilnehmenden liegen sowohl der Mittelwert der KI-Relevanz als auch der Investitionspriorität im obersten Viertel einer Zehnerskala. Zudem entfallen absolut die meisten Nennungen in beiden Bereichen auf den höchsten Wert. Und immerhin knapp 93 Prozent stimmen der Aussage zu, dass sich ihr Unternehmen mit KI beschäftigt, „weil es tatsächlich einen Bedarf an entsprechenden KI-Lösungen und -Tools bei uns gibt und nicht nur, weil KI gerade ‚en vogue‘ ist“. Die KI-Budgets wachsen Grundsätzlich stehen die IT-Budgets unter Druck. Dagegen können sich die Geldmittel für KI und deren Entwicklung durchaus sehen lassen. Fast 57 Prozent der Unternehmen gehen davon aus, dass ihre KI-Budgets im Jahr 2025 stark oder sehr stark steigen werden, also um mindestens fünf beziehungsweise zehn Prozent. Der Anteil der Firmen, die mit sinkenden KI-Budgets rechnen, beträgt weniger als vier Prozent. Vergleicht man die Zahlen mit der KI-Studie von Foundry aus dem Vorjahr, lässt sich jedoch ein geringfügiger Rückgang der Investitionsbereitschaft erkennen – vor allem im Bereich des „sehr starken“ Budget-Anstiegs von mehr als zehn Prozent. Hier hinterlassen die wirtschaftlichen Zwänge ihre Spuren. Dennoch: Nur 1,6 Prozent der Firmen wollen oder müssen eigenem Bekunden nach nicht in KI investieren. Wird GenAI zum Karriere-Booster? KI-Tools im Einsatz Maßgeblich zum Erfolg beigetragen haben die Durchbrüche bei generativer KI (GenAI), allen voran in großen Sprachmodellen (LLMs) wie ChatGPT. Heute zeigt sich, dass „texten“ der wichtigste Anwendungsfall von KI ist, gefolgt von Text-to-Speech-Konvertern, Bildschöpfern oder Bilderkennern. Hier treiben sich der persönliche und professionelle Nutzen von KI gegenseitig an. Auf Unternehmensebene steht die Produktivität im Fokus, angereichert mit der Hoffnung auf mehr Geschwindigkeit und Effizienz: Das größte Potenzial zur Optimierung steckt in der Analyse von Daten, von Produktionsprozessen sowie in generellen Betriebsabläufen, so die Befragten. KI-Leistung muss sich lohnen Gerade in wirtschaftlich schwierigen Zeiten schauen die Unternehmen allerdings genau auf den Return on Investment (RoI) – das gilt auch für KI. Lediglich 13 Prozent der Firmen haben keine konkreten RoI-Erwartungen oder sparen sich die Berechnung, weil sie erst einmal KI-Kompetenzen aufbauen wollen. Demgegenüber spüren sechs von sieben Unternehmen dem RoI nach – 19 Prozent sogar bei allen KI-Projekten. Die umfangreiche Liste der RoI-Messkriterien zeigt die ganze Bandbreite des KI-Potenzials. Kleine Firmen analysieren primär die Zufriedenheit der Kunden und Mitarbeitenden sowie die Effektivität und die Kostensenkung, große Organisationen fokussieren auf Produktivität, Umsätze, Effektivität sowie Kosten. Generative KI einführen: Daran scheitern GenAI-Rollouts Skills werden bei Partnern gesucht Ungeachtet des großen Zuspruchs gibt es diverse Klippen, die umschifft werden müssen. Ein wichtiges Thema in Organisationen sind die fehlenden KI-Skills. So hat die These „Unser Unternehmen verfügt über ausreichend KI-Fachwissen“ in der Umfrage den geringsten Zuspruch erfahren. Daher suchen Unternehmen für die KI-Einführung Hilfe an allen Ecken. Ganz oben stehen Managed-Service- und Cloud-Provider sowie Beratungen, speziell für große Organisationen. Aber selbst KI-Startups und Anbieter aus dem Bereich Autonome Systeme sowie KI-Lieferanten werden angefragt. Ein starkes Indiz dafür, dass sich die fachliche Unterstützung im KI-Sektor zu einem vielversprechenden Markt entwickeln wird.  Unternehmen wenden sich in erster Linie an Managed Services Provider und Beratungsunternehmen Research Services: Daniela Petrini Die Baustellen im Unternehmen Neben der Kompetenzfrage schlagen sich die Betriebe mit einer Reihe weiterer Herausforderungen und Risiken herum. Vor allem die KI als vermeintliche Blackbox bereitet vielen Befragten Sorgen, aber auch Manipulation, Sicherheit sowie die Nachvollziehbarkeit der Ergebnisse, werden als Herausforderungen bei der Umsetzung im Unternehmen sowie bezüglich der KI-Akzeptanz genannt. Weitaus seltener als die Angst vor Kontrollverlust im Umgang mit der Technik. Und nur knapp 15 Prozent verwiesen auf fehlendes Budget als Bremsklotz für KI. Im Vergleich zum Vorjahr hat sich die Situation komplett gedreht. So lag in der Studie 2023 noch die Befürchtung auf Platz 1 (mit 34,2 Prozent), dass Kunden, Geschäftspartner und Dienstleister einem Unternehmen den KI-Einsatz verübeln könnten. Insofern hat sich die KI heute zu einem weitgehend akzeptierten Tool entwickelt. Als größte Herausforderung bzw. Risiko gilt für die Unternehmen Manipulation an der KI Research Services: Daniela Petrini Vendor-Lock-in – die Schattenseite Ein traditionelles Dilemma für IT-Verantwortliche ist die enge – exklusive – Bindung an ein technisches Ökosystem in Hard- und Software. Fehlende Skills und begrenzte Ressourcen machen in vielen Unternehmen auch bei KI und Sprachmodellen eine Fokussierung notwendig. Der Vendor-Lock-in als Prinzip der Kundenbindung wird sich laut Studie auch hier etablieren: Lediglich 6,4 Prozent denken, dass es Möglichkeiten gegen die exklusive Lieferantenbindung gibt; 14 Prozent fallen partout keine Mittel und Wege gegen den Effekt ein. Und stattliche 80 Prozent gehen davon aus, dass die Gefahr eines Vendor-Lock-in bei KI eher groß bis sehr groß ist. Dies gilt überdurchschnittlich oft für das Top-Management sowie für größere Organisationen.  width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/5LyDXcO77nKawkSI41MMIo?utm_source=oembed”> Organisationen fit für KI machen Die steigende KI-Akzeptanz zeigt sich auch in der Frage, wie die Organisationen das einschlägige Know-how der Menschen fördern. Jeweils über 40 Prozent der Teilnehmerinnen und Teilnehmer berichten von externen Schulungsprogrammen beziehungsweise Zertifizierungen, von Trainings On-the-Job und „Learning by doing“ in laufenden KI-Projekten sowie von internen Schulungsmaßnahmen. Hinzu kommen Lernressourcen wie Schulungsmaterial, Online-Kurse oder Community-Foren. Immerhin ein Viertel der Firmen hat ein KI-Competence-Center beziehungsweise Center of Excellence (CoE) gegründet – eine Zahl, die in anderen Fragen der Studie bestätigt wird. Fazit: KI und IT – Chance und Risiko Sind Unternehmen 2024 KI-ready? Noch sind Hausaufgaben zu erledigen, aber viele Organisationen sind auf einem guten Weg. Die Auswirkungen der wirtschaftlichen Krise in den kommenden Quartalen werden zeigen, ob der Motor weiter läuft oder abgewürgt wird. Dazu müssen Strategien, Ressourcen und Skills geschickt ausbalanciert werden. Für IT-Abteilungen und ihr Management bildet KI damit zweifellos eine (weitere) große Herausforderung, manchmal unter dem bekannten Motto „Do more with less“. Dessen ungeachtet eröffnet der Trend die große Chance, um sich als IT-Führungskraft im Unternehmen neu zu positionieren: näher an den Fachthemen und an der Wertschöpfung. Dafür sprechen drei Faktoren: Das IT-Top-Management sowie die IT-Abteilungen werden mit weitem Abstand als die KI-Verantwortlichen in ihren Organisationen wahrgenommen. Damit entfällt die Aufgabe, sich die Position erst erkämpfen zu müssen. Darüber hinaus wird gewünscht, dass IT-Expertinnen und Experten ihre Stakeholder bei der Auswahl der KI-Tools beraten sowie im Betrieb unterstützen. Und schließlich ist das KI-Budget mehrheitlich in der IT angesiedelt – entweder dediziert oder als Teil des großen Ganzen. Wenn die IT tatsächlich aus der Tech-Schublade ausbrechen und sich in der Organisation neu positionieren will, sollte sie alles daran setzen, die Chance durch KI zu nutzen. Ein derart starker Tech-Trend, der Business und IT zusammenführt, wird so schnell nicht wiederkommen.   Die neue Studie “AI-ready Enterprise 2024” von CIO Research Services Research Services: Daniela Petrini Studiensteckbrief Herausgeber: CIO, CSO und COMPUTERWOCHE Studienpartner: NICE Systems GmbH; Lufthansa Industry Solutions GmbH & Co. KG; UiPath GmbH Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen der DACH-Region: Beteiligte an strategischen (IT-)Entscheidungsprozessen im C-Level-Bereich und in den Fachbereichen (LoBs); Entscheidungsbefugte sowie Experten und Expertinnen aus dem IT-Bereich Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels Gesamtstichprobe: 313 abgeschlossene und qualifizierte Interviews Untersuchungszeitraum: 12. bis 19. September 2024 Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern 

Wie der KI-Ramp-up in Deutschland läuft​ Wenn die IT tatsächlich aus der Tech-Schublade ausbrechen und sich in der Organisation neu positionieren will, sollte sie alles daran setzen, die Chance durch KI zu nutzen.Shutterstock Germany only – vectorfusionart

Das Phänomen ist bekannt – bei einem neuen Hobby oder einer neuen Sportart investieren Menschen erstmal kräftig in die Ausrüstung: Werkzeuge, Schläger, Funktionskleidung, Schuhe und die elektronische Gangschaltung. Das stärkt die Zugehörigkeit zu einer Peergroup, verscheucht die Fear of Missing Out (FOMO) und soll helfen, das spontane Engagement zu verstetigen. Ein Teil der Anschaffungen landet erfahrungsgemäß nach kurzer Zeit im Keller.

Bei KI ist die Situation ähnlich. Viele Unternehmen investieren in die Technik, weil sie das Zeug hat, das Next Big Thing zu werden – wer würde heute ernsthaft daran zweifeln? Einer aktuellen Untersuchung der COMPUTERWOCHE zufolge ist die Antwort klar: kaum jemand. Laut Einschätzung der Teilnehmenden liegen sowohl der Mittelwert der KI-Relevanz als auch der Investitionspriorität im obersten Viertel einer Zehnerskala. Zudem entfallen absolut die meisten Nennungen in beiden Bereichen auf den höchsten Wert. Und immerhin knapp 93 Prozent stimmen der Aussage zu, dass sich ihr Unternehmen mit KI beschäftigt, „weil es tatsächlich einen Bedarf an entsprechenden KI-Lösungen und -Tools bei uns gibt und nicht nur, weil KI gerade ‚en vogue‘ ist“.

Die KI-Budgets wachsen

Grundsätzlich stehen die IT-Budgets unter Druck. Dagegen können sich die Geldmittel für KI und deren Entwicklung durchaus sehen lassen. Fast 57 Prozent der Unternehmen gehen davon aus, dass ihre KI-Budgets im Jahr 2025 stark oder sehr stark steigen werden, also um mindestens fünf beziehungsweise zehn Prozent. Der Anteil der Firmen, die mit sinkenden KI-Budgets rechnen, beträgt weniger als vier Prozent. Vergleicht man die Zahlen mit der KI-Studie von Foundry aus dem Vorjahr, lässt sich jedoch ein geringfügiger Rückgang der Investitionsbereitschaft erkennen – vor allem im Bereich des „sehr starken“ Budget-Anstiegs von mehr als zehn Prozent. Hier hinterlassen die wirtschaftlichen Zwänge ihre Spuren. Dennoch: Nur 1,6 Prozent der Firmen wollen oder müssen eigenem Bekunden nach nicht in KI investieren.

Wird GenAI zum Karriere-Booster?

KI-Tools im Einsatz

Maßgeblich zum Erfolg beigetragen haben die Durchbrüche bei generativer KI (GenAI), allen voran in großen Sprachmodellen (LLMs) wie ChatGPT. Heute zeigt sich, dass „texten“ der wichtigste Anwendungsfall von KI ist, gefolgt von Text-to-Speech-Konvertern, Bildschöpfern oder Bilderkennern. Hier treiben sich der persönliche und professionelle Nutzen von KI gegenseitig an. Auf Unternehmensebene steht die Produktivität im Fokus, angereichert mit der Hoffnung auf mehr Geschwindigkeit und Effizienz: Das größte Potenzial zur Optimierung steckt in der Analyse von Daten, von Produktionsprozessen sowie in generellen Betriebsabläufen, so die Befragten.

KI-Leistung muss sich lohnen

Gerade in wirtschaftlich schwierigen Zeiten schauen die Unternehmen allerdings genau auf den Return on Investment (RoI) – das gilt auch für KI. Lediglich 13 Prozent der Firmen haben keine konkreten RoI-Erwartungen oder sparen sich die Berechnung, weil sie erst einmal KI-Kompetenzen aufbauen wollen. Demgegenüber spüren sechs von sieben Unternehmen dem RoI nach – 19 Prozent sogar bei allen KI-Projekten. Die umfangreiche Liste der RoI-Messkriterien zeigt die ganze Bandbreite des KI-Potenzials. Kleine Firmen analysieren primär die Zufriedenheit der Kunden und Mitarbeitenden sowie die Effektivität und die Kostensenkung, große Organisationen fokussieren auf Produktivität, Umsätze, Effektivität sowie Kosten.

Generative KI einführen: Daran scheitern GenAI-Rollouts

Skills werden bei Partnern gesucht

Ungeachtet des großen Zuspruchs gibt es diverse Klippen, die umschifft werden müssen. Ein wichtiges Thema in Organisationen sind die fehlenden KI-Skills. So hat die These „Unser Unternehmen verfügt über ausreichend KI-Fachwissen“ in der Umfrage den geringsten Zuspruch erfahren. Daher suchen Unternehmen für die KI-Einführung Hilfe an allen Ecken. Ganz oben stehen Managed-Service- und Cloud-Provider sowie Beratungen, speziell für große Organisationen. Aber selbst KI-Startups und Anbieter aus dem Bereich Autonome Systeme sowie KI-Lieferanten werden angefragt. Ein starkes Indiz dafür, dass sich die fachliche Unterstützung im KI-Sektor zu einem vielversprechenden Markt entwickeln wird. 

Unternehmen wenden sich in erster Linie an Managed Services Provider und Beratungsunternehmen
Research Services: Daniela Petrini

Die Baustellen im Unternehmen

Neben der Kompetenzfrage schlagen sich die Betriebe mit einer Reihe weiterer Herausforderungen und Risiken herum. Vor allem die KI als vermeintliche Blackbox bereitet vielen Befragten Sorgen, aber auch Manipulation, Sicherheit sowie die Nachvollziehbarkeit der Ergebnisse, werden als Herausforderungen bei der Umsetzung im Unternehmen sowie bezüglich der KI-Akzeptanz genannt. Weitaus seltener als die Angst vor Kontrollverlust im Umgang mit der Technik. Und nur knapp 15 Prozent verwiesen auf fehlendes Budget als Bremsklotz für KI. Im Vergleich zum Vorjahr hat sich die Situation komplett gedreht. So lag in der Studie 2023 noch die Befürchtung auf Platz 1 (mit 34,2 Prozent), dass Kunden, Geschäftspartner und Dienstleister einem Unternehmen den KI-Einsatz verübeln könnten. Insofern hat sich die KI heute zu einem weitgehend akzeptierten Tool entwickelt.

Als größte Herausforderung bzw. Risiko gilt für die Unternehmen Manipulation an der KI
Research Services: Daniela Petrini

Vendor-Lock-in – die Schattenseite

Ein traditionelles Dilemma für IT-Verantwortliche ist die enge – exklusive – Bindung an ein technisches Ökosystem in Hard- und Software. Fehlende Skills und begrenzte Ressourcen machen in vielen Unternehmen auch bei KI und Sprachmodellen eine Fokussierung notwendig. Der Vendor-Lock-in als Prinzip der Kundenbindung wird sich laut Studie auch hier etablieren: Lediglich 6,4 Prozent denken, dass es Möglichkeiten gegen die exklusive Lieferantenbindung gibt; 14 Prozent fallen partout keine Mittel und Wege gegen den Effekt ein. Und stattliche 80 Prozent gehen davon aus, dass die Gefahr eines Vendor-Lock-in bei KI eher groß bis sehr groß ist. Dies gilt überdurchschnittlich oft für das Top-Management sowie für größere Organisationen. 

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/5LyDXcO77nKawkSI41MMIo?utm_source=oembed”>

Organisationen fit für KI machen

Die steigende KI-Akzeptanz zeigt sich auch in der Frage, wie die Organisationen das einschlägige Know-how der Menschen fördern. Jeweils über 40 Prozent der Teilnehmerinnen und Teilnehmer berichten von externen Schulungsprogrammen beziehungsweise Zertifizierungen, von Trainings On-the-Job und „Learning by doing“ in laufenden KI-Projekten sowie von internen Schulungsmaßnahmen. Hinzu kommen Lernressourcen wie Schulungsmaterial, Online-Kurse oder Community-Foren. Immerhin ein Viertel der Firmen hat ein KI-Competence-Center beziehungsweise Center of Excellence (CoE) gegründet – eine Zahl, die in anderen Fragen der Studie bestätigt wird.

Fazit: KI und IT – Chance und Risiko

Sind Unternehmen 2024 KI-ready? Noch sind Hausaufgaben zu erledigen, aber viele Organisationen sind auf einem guten Weg. Die Auswirkungen der wirtschaftlichen Krise in den kommenden Quartalen werden zeigen, ob der Motor weiter läuft oder abgewürgt wird. Dazu müssen Strategien, Ressourcen und Skills geschickt ausbalanciert werden. Für IT-Abteilungen und ihr Management bildet KI damit zweifellos eine (weitere) große Herausforderung, manchmal unter dem bekannten Motto „Do more with less“.

Dessen ungeachtet eröffnet der Trend die große Chance, um sich als IT-Führungskraft im Unternehmen neu zu positionieren: näher an den Fachthemen und an der Wertschöpfung. Dafür sprechen drei Faktoren:

Das IT-Top-Management sowie die IT-Abteilungen werden mit weitem Abstand als die KI-Verantwortlichen in ihren Organisationen wahrgenommen. Damit entfällt die Aufgabe, sich die Position erst erkämpfen zu müssen.

Darüber hinaus wird gewünscht, dass IT-Expertinnen und Experten ihre Stakeholder bei der Auswahl der KI-Tools beraten sowie im Betrieb unterstützen.

Und schließlich ist das KI-Budget mehrheitlich in der IT angesiedelt – entweder dediziert oder als Teil des großen Ganzen.

Wenn die IT tatsächlich aus der Tech-Schublade ausbrechen und sich in der Organisation neu positionieren will, sollte sie alles daran setzen, die Chance durch KI zu nutzen. Ein derart starker Tech-Trend, der Business und IT zusammenführt, wird so schnell nicht wiederkommen.  

Die neue Studie “AI-ready Enterprise 2024” von CIO Research Services
Research Services: Daniela Petrini

Studiensteckbrief

Herausgeber: CIO, CSO und COMPUTERWOCHE

Studienpartner: NICE Systems GmbH; Lufthansa Industry Solutions GmbH & Co. KG; UiPath GmbH

Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen der DACH-Region: Beteiligte an strategischen (IT-)Entscheidungsprozessen im C-Level-Bereich und in den Fachbereichen (LoBs); Entscheidungsbefugte sowie Experten und Expertinnen aus dem IT-Bereich

Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels

Gesamtstichprobe: 313 abgeschlossene und qualifizierte Interviews

Untersuchungszeitraum: 12. bis 19. September 2024

Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern

Wie der KI-Ramp-up in Deutschland läuft​ Weiterlesen »

Die besten Unified-Endpoint-Management-Lösungen​

Allgemein

Mit Unified Endpoint Management (UEM) verwalten Unternehmen mobile Endgeräte über eine gemeinsame Lösung. Foto: everything possible – shutterstock.com Da Remote- und Hybrid-Arbeitsmodelle in den letzten zwei Jahren zur Norm geworden sind, bedeutet Mobility Management nicht nur, mobile Geräte zu verwalten, sondern alle Geräte, die von mobilen Mitarbeitern genutzt werden – egal wo sie sich befinden. Die dazu bevorzugt genutzten Unified-Endpoint-Management (UEM)-Tools verbinden bestehende Technologien für das Enterprise Mobility Management (EMM) wie Mobile Device Management (MDM) und Mobile Application Management (MAM) mit Tools zur Verwaltung von Desktop-PCs und Laptops. EMM meets CTM Wie die EMM-Suiten, aus denen sie hervorgegangen sind, helfen UEM-Plattformen Unternehmen dabei, ihre mobile Infrastruktur zu sichern, Geräterichtlinien zu kontrollieren und mobile Apps, Inhalte, Netzwerke sowie Services zu verwalten. UEM-Tools vereinen diese Fähigkeiten mit Funktionen, die normalerweise in Client Management Tools (CMTs) zu finden sind. Diese kommen zum Einsatz um Desktop-PCs und Laptops in einem Unternehmensnetzwerk zu managen. Mit der Möglichkeit, Richtlinien zu erstellen, die auf vielen Geräten und Betriebssystemen eingesetzt werden können, reduzieren UEM-Produkte sowohl die manuelle Arbeit als auch das Risiko für die IT-Abteilung. Außerdem liefern sie Einblicke in die Geräte- und App-Nutzung der Beschäftigten, was zur Verbesserung funktionsübergreifender Arbeitsabläufe genutzt werden kann. Unified Endpoint Management – Die besten Lösungen 2024 Die Kollegen unserer US-Schwesterpublikation Computerworld haben alle großen UEM-Plattformen in einem umfassenden Test in verschiedenen Kategorien miteinander verglichen. Getestet wurden dabei die Lösungen von BlackBerry, Cisco, Google, IBM, Ivanti, ManageEngine, Microsoft und VMware. Ein Klick auf den untenstehenden Download Button führt Sie direkt zum Ergebnis-PDF. Die besten UEM-Lösungen 2024 Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die besten Unified-Endpoint-Management-Lösungen​ Mit Unified Endpoint Management (UEM) verwalten Unternehmen mobile Endgeräte über eine gemeinsame Lösung.
Foto: everything possible – shutterstock.com

Da Remote- und Hybrid-Arbeitsmodelle in den letzten zwei Jahren zur Norm geworden sind, bedeutet Mobility Management nicht nur, mobile Geräte zu verwalten, sondern alle Geräte, die von mobilen Mitarbeitern genutzt werden – egal wo sie sich befinden. Die dazu bevorzugt genutzten Unified-Endpoint-Management (UEM)-Tools verbinden bestehende Technologien für das Enterprise Mobility Management (EMM) wie Mobile Device Management (MDM) und Mobile Application Management (MAM) mit Tools zur Verwaltung von Desktop-PCs und Laptops.

EMM meets CTM

Wie die EMM-Suiten, aus denen sie hervorgegangen sind, helfen UEM-Plattformen Unternehmen dabei,

ihre mobile Infrastruktur zu sichern,

Geräterichtlinien zu kontrollieren und

mobile Apps, Inhalte, Netzwerke sowie Services zu verwalten.

UEM-Tools vereinen diese Fähigkeiten mit Funktionen, die normalerweise in Client Management Tools (CMTs) zu finden sind. Diese kommen zum Einsatz um Desktop-PCs und Laptops in einem Unternehmensnetzwerk zu managen. Mit der Möglichkeit, Richtlinien zu erstellen, die auf vielen Geräten und Betriebssystemen eingesetzt werden können, reduzieren UEM-Produkte sowohl die manuelle Arbeit als auch das Risiko für die IT-Abteilung. Außerdem liefern sie Einblicke in die Geräte- und App-Nutzung der Beschäftigten, was zur Verbesserung funktionsübergreifender Arbeitsabläufe genutzt werden kann.

Unified Endpoint Management – Die besten Lösungen 2024

Die Kollegen unserer US-Schwesterpublikation Computerworld haben alle großen UEM-Plattformen in einem umfassenden Test in verschiedenen Kategorien miteinander verglichen. Getestet wurden dabei die Lösungen von BlackBerry, Cisco, Google, IBM, Ivanti, ManageEngine, Microsoft und VMware. Ein Klick auf den untenstehenden Download Button führt Sie direkt zum Ergebnis-PDF.

Die besten UEM-Lösungen 2024

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die besten Unified-Endpoint-Management-Lösungen​ Weiterlesen »

Scrum ist nicht zielführend​

Allgemein

Das Scrum-Problem verbildlicht. Robyn Mackenzie | shutterstock.com Eine Führungskraft im Software-Business zu finden, die keinen gesteigerten Wert darauf legt, „agil“ zu sein, dürfte schwierig werden. Dabei wage ich zu behaupten, dass nur ein verschwindend geringer Prozentsatz dieser Manager das Agile Manifesto überhaupt einmal zu Gesicht bekommen hat. Geschweige denn darüber nachgedacht hat, was Agile wirklich bedeutet und wie es in der Praxis angewendet werden kann. Nicht wenige Unternehmen, die irgendwann feststellen, dass sie agil arbeiten wollen, gehen davon aus, dass das mit einem Berater und der anschließenden Scrum-Implementierung getan ist. Auf der Gewinnerseite stehen dabei regelmäßig eher die Consultants, die hier ein gutes Geschäft wittern. Warum sich das alles so verhält, ist mir ehrlich gesagt ein Rätsel. Ich kann absolut nicht nachvollziehen, inwiefern sich in Scrum die agilen Prinzipien manifestieren. Aus meiner Sicht steht Scrum vielmehr in direktem Widerspruch zu diesen und erfüllt nicht annähernd den angestrebten Zweck. Der Sprint, der niemals endet Die Problemstellung bei Scrum: Ein riesiger, rechteckiger Block (an Aufwand) soll in eine fest definierte Aussparung gepresst werden, die nicht verändert werden darf. Deswegen wird der Block in viele kleine Blöcke aufgeteilt, die so zurechtgeschnitzt werden müssen, dass sie passen. Auch wenn das Ergebnis am Ende nicht wirklich das ist, was man will oder braucht. Wie durch dieses Konzept „Individuen und Interaktionen Vorrang vor Prozessen und Tools“ erhalten sollen, erschließt sich mir nicht. Davon abgesehen, passen die kleinen Blöcke trotzdem nur selten richtig in die Aussparung: Wenn der Sprint sich seinem Ende nähert, ist die Arbeit entweder schon erledigt, oder wird auf keinen Fall mehr rechtzeitig fertig. Und ganz ehrlich: Bitte melden Sie sich bei mir, wenn Sie Lust darauf haben, kontinuierlich Deadlines im Nacken zu haben. Ständiger Druck, etwas „fertigstellen“ zu müssen, führt im Regelfall lediglich zu oberflächlichen, überstürzten Lösungen. Unter anderem. Sowohl Anforderungen als auch Einschränkungen verändern sich wegen „unknown Unknowns“ im Bereich der Softwareentwicklung ständig. Entsprechend braucht es oft Zeit, die Dinge richtig und sorgfältig zu erledigen. Der Scrum-Prozess sieht Kursänderungen allerdings erst nach Ende des Sprints vor. Wie passt das zu „auf den Change reagieren, statt einem Plan zu folgen“? Der Sprint an sich ist ein eng fokussierter Prozess, der dazu führen kann, dass der Blick aufs große Ganze verloren geht. Und Scrum artet nur allzu oft Zeremonien-artig aus. Aber wer hat denn nicht Bock auf das tägliche Stand-Up-Meeting, bei dem jeder erzählt, was er oder sie getan hat und tun wird? Auch Retrospektiven werden regelmäßig erzwungen, selbst wenn kein Feedback vorhanden ist. Unter dem Strich wird vieles bei Scrum einfach nur „pro forma“ gemacht – das exakte Gegenteil von Agilität und Anpassungsfähigkeit. Und dabei haben wir noch gar nicht über endlose Sprint-Planungs- und Backlog-Grooming-Meetings gesprochen. Letztendlich verkommt Scrum so zu einer Endlosserie kurzer Softwareprojekte, die wie die meisten anderen Projekte dieser Art enden: Sie dauern länger als erwartet, erreichen ihre Ziele nicht und beinhalten viele Meeting-Stunden, die sich die meisten Beteiligten lieber sparen würden. Der bessere Scrum-Prozess Hier ein Gegenvorschlag in acht Schritten: Teilen Sie die Arbeit in „natürliche“ Chunks variabler Größe auf, die zu den Projektanforderungen passen. Arbeiten Sie diese Chunks in einer sinnvollen Reihenfolge ab und setzen Sie die jeweils benötigte Anzahl von Entwicklern darauf an.   Seien Sie sich bewusst, dass die Zeit für die jeweiligen Abschnitte von der zu Beginn eingeplanten Dauer abweichen wird. Tracken Sie dabei jeden Abschnitt separat und erzwingen Sie nicht, diese zu festen, unflexiblen Zeitpunkten abschließen zu müssen. Wenn Sie merken, dass bestimmte Tasks aufgrund veränderter Umstände keinen Sinn mehr ergeben, leiten Sie sofort eine Kursänderung ein. Das Review erfolgt, wenn die Zeit dafür reif ist – nicht, wenn der Kalender es vorschreibt. Wenn Chunks wegfallen, hinzukommen oder sich verändern müssen, ist das zu akzeptieren. Wiederholen Sie das, bis alle benötigten Chunks fertig sind, dann liefern Sie die Software aus. Eventuell macht es auch Sinn, jeden Chunk direkt nach Fertigstellung auszuliefern. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Scrum ist nicht zielführend​ Das Scrum-Problem verbildlicht.
Robyn Mackenzie | shutterstock.com

Eine Führungskraft im Software-Business zu finden, die keinen gesteigerten Wert darauf legt, „agil“ zu sein, dürfte schwierig werden. Dabei wage ich zu behaupten, dass nur ein verschwindend geringer Prozentsatz dieser Manager das Agile Manifesto überhaupt einmal zu Gesicht bekommen hat. Geschweige denn darüber nachgedacht hat, was Agile wirklich bedeutet und wie es in der Praxis angewendet werden kann.

Nicht wenige Unternehmen, die irgendwann feststellen, dass sie agil arbeiten wollen, gehen davon aus, dass das mit einem Berater und der anschließenden Scrum-Implementierung getan ist. Auf der Gewinnerseite stehen dabei regelmäßig eher die Consultants, die hier ein gutes Geschäft wittern.

Warum sich das alles so verhält, ist mir ehrlich gesagt ein Rätsel. Ich kann absolut nicht nachvollziehen, inwiefern sich in Scrum die agilen Prinzipien manifestieren. Aus meiner Sicht steht Scrum vielmehr in direktem Widerspruch zu diesen und erfüllt nicht annähernd den angestrebten Zweck.

Der Sprint, der niemals endet

Die Problemstellung bei Scrum: Ein riesiger, rechteckiger Block (an Aufwand) soll in eine fest definierte Aussparung gepresst werden, die nicht verändert werden darf. Deswegen wird der Block in viele kleine Blöcke aufgeteilt, die so zurechtgeschnitzt werden müssen, dass sie passen. Auch wenn das Ergebnis am Ende nicht wirklich das ist, was man will oder braucht. Wie durch dieses Konzept „Individuen und Interaktionen Vorrang vor Prozessen und Tools“ erhalten sollen, erschließt sich mir nicht.

Davon abgesehen, passen die kleinen Blöcke trotzdem nur selten richtig in die Aussparung: Wenn der Sprint sich seinem Ende nähert,

ist die Arbeit entweder schon erledigt, oder

wird auf keinen Fall mehr rechtzeitig fertig.

Und ganz ehrlich: Bitte melden Sie sich bei mir, wenn Sie Lust darauf haben, kontinuierlich Deadlines im Nacken zu haben. Ständiger Druck, etwas „fertigstellen“ zu müssen, führt im Regelfall lediglich zu oberflächlichen, überstürzten Lösungen. Unter anderem.

Sowohl Anforderungen als auch Einschränkungen verändern sich wegen „unknown Unknowns“ im Bereich der Softwareentwicklung ständig. Entsprechend braucht es oft Zeit, die Dinge richtig und sorgfältig zu erledigen. Der Scrum-Prozess sieht Kursänderungen allerdings erst nach Ende des Sprints vor. Wie passt das zu „auf den Change reagieren, statt einem Plan zu folgen“?

Der Sprint an sich ist ein eng fokussierter Prozess, der dazu führen kann, dass der Blick aufs große Ganze verloren geht. Und Scrum artet nur allzu oft Zeremonien-artig aus. Aber wer hat denn nicht Bock auf das tägliche Stand-Up-Meeting, bei dem jeder erzählt, was er oder sie getan hat und tun wird? Auch Retrospektiven werden regelmäßig erzwungen, selbst wenn kein Feedback vorhanden ist. Unter dem Strich wird vieles bei Scrum einfach nur „pro forma“ gemacht – das exakte Gegenteil von Agilität und Anpassungsfähigkeit. Und dabei haben wir noch gar nicht über endlose Sprint-Planungs- und Backlog-Grooming-Meetings gesprochen.

Letztendlich verkommt Scrum so zu einer Endlosserie kurzer Softwareprojekte, die wie die meisten anderen Projekte dieser Art enden:

Sie dauern länger als erwartet,

erreichen ihre Ziele nicht und

beinhalten viele Meeting-Stunden, die sich die meisten Beteiligten lieber sparen würden.

Der bessere Scrum-Prozess

Hier ein Gegenvorschlag in acht Schritten:

Teilen Sie die Arbeit in „natürliche“ Chunks variabler Größe auf, die zu den Projektanforderungen passen.

Arbeiten Sie diese Chunks in einer sinnvollen Reihenfolge ab und setzen Sie die jeweils benötigte Anzahl von Entwicklern darauf an.  

Seien Sie sich bewusst, dass die Zeit für die jeweiligen Abschnitte von der zu Beginn eingeplanten Dauer abweichen wird. Tracken Sie dabei jeden Abschnitt separat und erzwingen Sie nicht, diese zu festen, unflexiblen Zeitpunkten abschließen zu müssen.

Wenn Sie merken, dass bestimmte Tasks aufgrund veränderter Umstände keinen Sinn mehr ergeben, leiten Sie sofort eine Kursänderung ein.

Das Review erfolgt, wenn die Zeit dafür reif ist – nicht, wenn der Kalender es vorschreibt.

Wenn Chunks wegfallen, hinzukommen oder sich verändern müssen, ist das zu akzeptieren.

Wiederholen Sie das, bis alle benötigten Chunks fertig sind, dann liefern Sie die Software aus.

Eventuell macht es auch Sinn, jeden Chunk direkt nach Fertigstellung auszuliefern.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Scrum ist nicht zielführend​ Weiterlesen »

Behind the scenes: Die IT der NFL​

Allgemein

Die NFL zu Gast in der Münchner Allianz Arena. Für das dreistündige Spektakel wurde ein eigenes Terabit-Netz aufgebaut. Hill Touch down – über 70.000 Fans feiern in der Münchner Allianz Arena die ersten Punkte der Carolina Panthers. Über große Videoscreens können sie den cleveren Schachzug der Football-Player nochmal per Instant Replay verfolgen. Die NFL, die National Football League aus den USA, ist zu Gast in München. Während die Fans jubeln, entspannen sich langsam die Gesichtszüge von Anish Patel, Director Stadium & Wireless Engineering bei der NFL, und Aaron Amendolia, Deputy CIO der NFL. TV-Übertragung, Instant Replay, Zugangskontrollen, WLAN etc. – alle Systeme sind auf Grün, das Netzwerk steht und läuft stabil. Ein eigenes Netz in einer Woche Bis es so weit war, hatten Patel und Amendolia eine harte Woche zu bewältigen. Schließlich ist Patel für das Design und den Betrieb der Netzinfrastruktur in den NFL-Stadien, egal ob International Games, US-Spiele oder Super Bowl verantwortlich. Amendolia kümmert sich dagegen mehr um die strategischen Aspekte wie das Frequenzmanagement, da die NFL in Europa andere Funkfrequenzen als in den USA benutzen muss. Ein weiteres großes Thema ist für den Deputy CIO die Privacy. Viele Services wie Besucher-Tracking, Verarbeitung von Fan-Daten, die in den USA selbstverständlich sind, kann die NFL in Europa mit Blick auf GDPR respektive DSGVO nicht nutzen.   Drei Container an IT-Equipment In strittigen Spielsituationen erhalten die Schiedsrichter in Echtzeit Unterstützung aus dem Central Command Center in New York. Hill Für das rund dreistündige NFL-Spektakel in München mussten die beiden mit ihren Teams innerhalb einer Woche ein komplettes Netzwerk inklusive kleinem Data Center, Cyberabwehr, WLAN, Private LTE, VoIP-Call-Manager und Glasfaserinfrastruktur – um nur eine einige Bestandteile der IT-Installation zu nennen – aus dem Boden stampfen. Wie viel Arbeit das ist, veranschaulicht Patel: „Allein für das Spiel in München haben wir drei Container an Equipment mitgebracht.“ Dazu zählen unter anderem Switches, Router, Nexus Data-Center-Switches, Access Point, mmWave-Equipment, Kartenscanner, Tablets und jede Menge Glasfaser. On-Premises-Hardware, bei der sich die NFL auf das Portfolio von Cisco verlässt. „Cisco ist unser offizieller Cybersecurity- und Netzinfrastruktur-Partner, auch bei den internationalen Spielen in London und München sowie 2025 in Madrid und eventuell Berlin“, erklärt Deputy CIO Amendolia. Terabits an Daten Über die Frage, wie viel Gigabit/s denn das Glasfasernetz nun habe, kann Patel nur lachen. „Wir reden hier über Terabits/s an Geschwindigkeit“, geht der Netzspezialist ins Detail. Wozu Patel diese Geschwindigkeiten benötigt, zeigt ein Blick vor das Stadium. Hier parken die Riesen-Trucks der TV-Networks, die das Spiel in die USA übertragen. Und von Full HD redet hier niemand mehr – mittlerweile gehört UHD, also 4k, zum guten Ton beziehungsweise Bild. Die NFL benötigt andere Kamerapositionen als die Bundesliga. Deshalb kann nur ein Teil der vorhandenen Infrastruktur genutzt werden. Hill Doch warum der ganze Aufwand? Schließlich ist die Münchner Allianz Arena eines der modernsten Fußballstadien Europas. Und auch ihre IT-Infrastruktur mit modernem WLAN, Kennzeichen-Screening in den Parkhäusern, elektronischen Zugangssystemen, vernetzten Kassensystemen etc. muss sich nicht verstecken. Infrastruktur-Sharing So räumt Patel auch ein, dass man in Stadien wie der Allianz Arena durchaus ein Infrastruktur-Sharing betreibt. Und im Rechenzentrum der Allianz Arena finden sich denn auch neben den festinstallierten 19-Zoll-Racks des Stadions einige rollbare Racks in halber Größe. Allerdings bleibt es beim Sharing, sind doch die Anforderungen an die IT-Infrastruktur von Fußball und American Football zu unterschiedlich. „Das beginnt schon mit den Kamerapositionen, diese sind beim Football an ganz anderen Stellen und damit nutzt uns die vorinstallierte Infrastruktur nichts“, veranschaulicht Deputy CIO Amendolia. Command Center in New York An den Seitenlinien stehen mobile Communications Center mit VoIP-Telefonen und Tablets. Hill „Zudem benötigen wir eine schnelle Verbindung zum Art McNally GameDay Central Command Center in New York, denn dort sitzen die mit den deutschen Video-Schiedsrichtern vergleichbaren NFL-Offiziellen“, macht Patel auf eine weitere Besonderheit aufmerksam. Und an den Seitenlinien stehen kleine blaue Rollwagen in denen sich Tablets für die Schiedsrichter vor Ort befinden. Auf diesen können sie unklare Spielsituationen per VR/AR genauer analysieren und sich in Echtzeit mit den Kollegen in New York beraten. Ebenfalls an den Seitenlinien befinden sich IP-Telefone, die über einen Cisco Call Manager gesteuert werden. Mit diesen können die Trainer der Mannschaften Kontakt zu den Taktikern und anderen Experten im Backend aufnehmen. Core-Netz und Edge-Computing Für eine eigene NFL-Infrastruktur spricht aber noch ein anderer Grund: die Security. „Wir brauchen ein eigenes Core-Netz, das auch dann noch funktioniert, wenn wir IT-technisch von der Außenwelt abgeschnitten sind, um den reibungslosen Spielbetrieb zu gewährleisten“, unterstreicht Netzdesigner Patel. Mobiles Data- und Network-Center der NFL im Rechenzentrum der Allianz Arena. Hill Hierzu verfolgt der Netzspezialist einen Edge-Computing-Ansatz. Im Kern das Netz für den eigentlichen Spielbetrieb mit kleinem mobilen Data Center. Im Edge laufen dann alle anderen Services wie die TV-Übertragungen etc. Strikte Security-Policies „Dazu haben wir das Netz bereits auf dem physikalischen Layer vom Rest der Infrastruktur getrennt“, ergänzt er. Zudem soll das Netz frei von Störungen und unerwarteten Auslastung-Peaks funktionieren. Schließlich misst die NFL in den Gäste-WLANs teileweise Lasten von bis zu 20 Gbit/s im Stadium. Ferner findet im Core-Netz eine strikte Endpoint-Kontrolle statt. Und Devices können sich nur per Zwei-Faktor Authentifizierung einbuchen. Sicherheit aus der Cloud Wie wichtig diese strikte Security-Policy ist, verdeutlich Deputy CIO Amendolia am Beispiel des Super Bowl im Februar: „Damals blockierten wir erfolgreich 39.000 sicherheitsrelevante Ereignisse und 354.000 Verbindungen in oder aus Gebieten der Welt, die auf der schwarzen Liste stehen.“ Dabei verlässt sich Amendolia wiederum auf Partner Cisco und dessen Cloud-basiertes Security-Portfolio. Zum Einsatz kommen etwa Cisco Umbrella, Cisco XDR, Cisco Firepower and Cisco Secure Malware Analytics.    

Behind the scenes: Die IT der NFL​ Die NFL zu Gast in der Münchner Allianz Arena. Für das dreistündige Spektakel wurde ein eigenes Terabit-Netz aufgebaut.
Hill

Touch down – über 70.000 Fans feiern in der Münchner Allianz Arena die ersten Punkte der Carolina Panthers. Über große Videoscreens können sie den cleveren Schachzug der Football-Player nochmal per Instant Replay verfolgen. Die NFL, die National Football League aus den USA, ist zu Gast in München.

Während die Fans jubeln, entspannen sich langsam die Gesichtszüge von Anish Patel, Director Stadium & Wireless Engineering bei der NFL, und Aaron Amendolia, Deputy CIO der NFL. TV-Übertragung, Instant Replay, Zugangskontrollen, WLAN etc. – alle Systeme sind auf Grün, das Netzwerk steht und läuft stabil.

Ein eigenes Netz in einer Woche

Bis es so weit war, hatten Patel und Amendolia eine harte Woche zu bewältigen. Schließlich ist Patel für das Design und den Betrieb der Netzinfrastruktur in den NFL-Stadien, egal ob International Games, US-Spiele oder Super Bowl verantwortlich. Amendolia kümmert sich dagegen mehr um die strategischen Aspekte wie das Frequenzmanagement, da die NFL in Europa andere Funkfrequenzen als in den USA benutzen muss.

Ein weiteres großes Thema ist für den Deputy CIO die Privacy. Viele Services wie Besucher-Tracking, Verarbeitung von Fan-Daten, die in den USA selbstverständlich sind, kann die NFL in Europa mit Blick auf GDPR respektive DSGVO nicht nutzen.  

Drei Container an IT-Equipment

In strittigen Spielsituationen erhalten die Schiedsrichter in Echtzeit Unterstützung aus dem Central Command Center in New York.
Hill

Für das rund dreistündige NFL-Spektakel in München mussten die beiden mit ihren Teams innerhalb einer Woche ein komplettes Netzwerk inklusive kleinem Data Center, Cyberabwehr, WLAN, Private LTE, VoIP-Call-Manager und Glasfaserinfrastruktur – um nur eine einige Bestandteile der IT-Installation zu nennen – aus dem Boden stampfen.

Wie viel Arbeit das ist, veranschaulicht Patel: „Allein für das Spiel in München haben wir drei Container an Equipment mitgebracht.“ Dazu zählen unter anderem Switches, Router, Nexus Data-Center-Switches, Access Point, mmWave-Equipment, Kartenscanner, Tablets und jede Menge Glasfaser. On-Premises-Hardware, bei der sich die NFL auf das Portfolio von Cisco verlässt. „Cisco ist unser offizieller Cybersecurity- und Netzinfrastruktur-Partner, auch bei den internationalen Spielen in London und München sowie 2025 in Madrid und eventuell Berlin“, erklärt Deputy CIO Amendolia.

Terabits an Daten

Über die Frage, wie viel Gigabit/s denn das Glasfasernetz nun habe, kann Patel nur lachen. „Wir reden hier über Terabits/s an Geschwindigkeit“, geht der Netzspezialist ins Detail. Wozu Patel diese Geschwindigkeiten benötigt, zeigt ein Blick vor das Stadium. Hier parken die Riesen-Trucks der TV-Networks, die das Spiel in die USA übertragen. Und von Full HD redet hier niemand mehr – mittlerweile gehört UHD, also 4k, zum guten Ton beziehungsweise Bild.

Die NFL benötigt andere Kamerapositionen als die Bundesliga. Deshalb kann nur ein Teil der vorhandenen Infrastruktur genutzt werden.
Hill

Doch warum der ganze Aufwand? Schließlich ist die Münchner Allianz Arena eines der modernsten Fußballstadien Europas. Und auch ihre IT-Infrastruktur mit modernem WLAN, Kennzeichen-Screening in den Parkhäusern, elektronischen Zugangssystemen, vernetzten Kassensystemen etc. muss sich nicht verstecken.

Infrastruktur-Sharing

So räumt Patel auch ein, dass man in Stadien wie der Allianz Arena durchaus ein Infrastruktur-Sharing betreibt. Und im Rechenzentrum der Allianz Arena finden sich denn auch neben den festinstallierten 19-Zoll-Racks des Stadions einige rollbare Racks in halber Größe.

Allerdings bleibt es beim Sharing, sind doch die Anforderungen an die IT-Infrastruktur von Fußball und American Football zu unterschiedlich. „Das beginnt schon mit den Kamerapositionen, diese sind beim Football an ganz anderen Stellen und damit nutzt uns die vorinstallierte Infrastruktur nichts“, veranschaulicht Deputy CIO Amendolia.

Command Center in New York

An den Seitenlinien stehen mobile Communications Center mit VoIP-Telefonen und Tablets.
Hill

„Zudem benötigen wir eine schnelle Verbindung zum Art McNally GameDay Central Command Center in New York, denn dort sitzen die mit den deutschen Video-Schiedsrichtern vergleichbaren NFL-Offiziellen“, macht Patel auf eine weitere Besonderheit aufmerksam. Und an den Seitenlinien stehen kleine blaue Rollwagen in denen sich Tablets für die Schiedsrichter vor Ort befinden. Auf diesen können sie unklare Spielsituationen per VR/AR genauer analysieren und sich in Echtzeit mit den Kollegen in New York beraten.

Ebenfalls an den Seitenlinien befinden sich IP-Telefone, die über einen Cisco Call Manager gesteuert werden. Mit diesen können die Trainer der Mannschaften Kontakt zu den Taktikern und anderen Experten im Backend aufnehmen.

Core-Netz und Edge-Computing

Für eine eigene NFL-Infrastruktur spricht aber noch ein anderer Grund: die Security. „Wir brauchen ein eigenes Core-Netz, das auch dann noch funktioniert, wenn wir IT-technisch von der Außenwelt abgeschnitten sind, um den reibungslosen Spielbetrieb zu gewährleisten“, unterstreicht Netzdesigner Patel.

Mobiles Data- und Network-Center der NFL im Rechenzentrum der Allianz Arena.
Hill

Hierzu verfolgt der Netzspezialist einen Edge-Computing-Ansatz. Im Kern das Netz für den eigentlichen Spielbetrieb mit kleinem mobilen Data Center. Im Edge laufen dann alle anderen Services wie die TV-Übertragungen etc.

Strikte Security-Policies

„Dazu haben wir das Netz bereits auf dem physikalischen Layer vom Rest der Infrastruktur getrennt“, ergänzt er. Zudem soll das Netz frei von Störungen und unerwarteten Auslastung-Peaks funktionieren. Schließlich misst die NFL in den Gäste-WLANs teileweise Lasten von bis zu 20 Gbit/s im Stadium.

Ferner findet im Core-Netz eine strikte Endpoint-Kontrolle statt. Und Devices können sich nur per Zwei-Faktor Authentifizierung einbuchen.

Sicherheit aus der Cloud

Wie wichtig diese strikte Security-Policy ist, verdeutlich Deputy CIO Amendolia am Beispiel des Super Bowl im Februar: „Damals blockierten wir erfolgreich 39.000 sicherheitsrelevante Ereignisse und 354.000 Verbindungen in oder aus Gebieten der Welt, die auf der schwarzen Liste stehen.“

Dabei verlässt sich Amendolia wiederum auf Partner Cisco und dessen Cloud-basiertes Security-Portfolio. Zum Einsatz kommen etwa Cisco Umbrella, Cisco XDR, Cisco Firepower and Cisco Secure Malware Analytics.   

Behind the scenes: Die IT der NFL​ Weiterlesen »

UEM-Lösungen und -Anbieter: Der Unified-Endpoint-Management-Ratgeber​

Allgemein

Dank Notebook und Smartphone können Mitarbeiter auch unterwegs auf Firmendaten und -anwendungen zugreifen. UEM hilft, diese Geräte zu verwalten und zu schützen. Foto: SmartPhotoLab – shutterstock.com Vernetzte, datenintensive und allgegenwärtige Endgeräte – von PCs und Smartphones bis hin zu IoT-Devices (Internet der Dinge) – gehören zu den wertvollsten IT-Assets, die ein Unternehmen besitzen kann. Für immer mehr Unternehmen ist Unified Endpoint Management (UEM) dabei die Plattform der Wahl, um Endgeräte zu verwalten und zu verhindern, dass sie zu einem Risiko für Sicherheit, Datenschutz und Compliance werden. Was ist Unified Endpoint Management? UEM-Plattformen sind Software-Suiten, die eine einheitliche Verwaltungsoberfläche für die Überwachung der Endgeräte in einem Unternehmen bieten. Diese Systeme haben sich aus Lösungen für das Mobile Device Management (MDM) und das Enterprise Mobility Management (EMM) entwickelt und ersetzen diese in vielen Fällen. So kontrollieren MDM-Tools die Funktionalität mobiler Geräte und bieten Funktionen wie Geräteregistrierung, Fernsteuerung, Gerätesperrung und Standortverfolgung. EMM-Plattformen bieten diese Funktionen – und zusätzlich noch Mobile Information Management, Mobile Application Management und Mobile Content Management. UEM wiederum geht noch einen Schritt weiter und erweitert das Spektrum von EMM, indem es nicht nur mobile Geräte, sondern auch Desktop- und Laptop-Computer, Drucker, Wearables und IoT-Geräte über eine einzige Managementkonsole einbezieht. Warum brauchen Unternehmen UEM? Es steht außer Frage, dass Unternehmen Endgeräte verwalten und schützen müssen. So greifen die Nutzer mit immer mehr Geräten auf Unternehmensnetzwerke und -daten zu: Windows-PCs, Macs, Chromebooks, iOS- und Android-Telefone und –Tablets und sogar AR/VR-Headsets wie das Quest 3 von Meta und das Vision Pro von Apple. Hinzu kommt, dass immer mehr Menschen zumindest teilweise mobil oder von zu Hause aus arbeiten und in vielen Fällen ihre persönlichen Geräte nutzen. Darüber hinaus starten viele Unternehmen IoT– und Edge-Computing-Initiativen. Diese Endgeräte stellen ein erhebliches Sicherheitsrisiko dar, insbesondere, wenn Mitarbeiter ihre eigenen Geräte für die Arbeit nutzen. Dies ist einer der Hauptgründe, warum die Verwaltung der großen und wachsenden Anzahl von Endgeräten für Unternehmen so wichtig ist. UEM-Plattformen wurden entwickelt, um das Gerätemanagement zu vereinfachen und die Sicherheit in heterogenen Umgebungen zu erhöhen. “Die modernen Device-Management-Prinzipien von UEM sind auf die sich verändernde Arbeitswelt ausgerichtet, in der Mitarbeiter remote oder hybrid arbeiten und ihre Geräte über längere Zeiträume nicht mit dem Firmennetz verbunden sind”, erklärt Phil Hochmuth, Program Vice President Enterprise Mobility, beim Marktforschungsunternehmen IDC. Einer der Hauptvorteile von UEM für Unternehmen besteht darin, dass es besser ist als eine Vielzahl unterschiedlicher Mobility-Management-Tools, die die Kosten in die Höhe treiben und die Effizienz verringern können. Mit einem einzigen System lässt sich auch leichter sicherstellen, dass Sicherheits-, Datenschutz- und Data-Governance-Richtlinien über verschiedene Plattformen und Arbeitsumgebungen hinweg einheitlich angewendet werden. “UEM verspricht, mehrere Management-Systeme, Teams und Richtlinien zu konsolidieren, um das Endpoint Management effizienter zu gestalten und die Produktivität der Mitarbeiter/innen zu steigern”, erläutert Hochmuth. Auswahlkriterien für UEM-Lösungen Die UEM-Plattformen der führenden Anbieter haben viele Gemeinsamkeiten, aber natürlich ist kein Angebot wie das andere. IT-Verantwortliche müssen die Optionen auf dem Markt genau prüfen. Es empfiehlt sich dabei, einen Proof of Concept oder einen Pilottest durchzuführen, bevor eine Plattform auf breiter Basis eingeführt wird – ein späterer Plattformwechsel ist schwierig und kann auch schnell kostspielig werden. Ein Pilotprogramm ist auch eine gute Möglichkeit, um herauszufinden, welche Funktionen und Möglichkeiten das Unternehmen am meisten benötigt. Bei der Evaluierung von UEM-Optionen sollte den folgenden Schlüsselfaktoren besondere Aufmerksamkeit geschenkt werden: Unterstützung von Betriebssystemen: Um Mitarbeitern eine gewisse Auswahl zu bieten, sollte eine UEM-Plattform eine Vielzahl von Betriebssystemen unterstützen, darunter Windows, macOS, ChromeOS, iOS und Android. Allerdings konzentrieren sich einige Plattformen speziell auf einen bestimmten Gerätehersteller oder ein bestimmtes Betriebssystem, zum Beispiel Apple, und unterstützen andere Betriebssysteme nicht so ausgeprägt. Integration mit anderen IT-Produkten: Wie gut arbeitet die UEM-Plattform mit anderen IT-Komponenten wie Ticketing-Systemen und Security-Tools zusammen? Ob ein Anbieter Partnerschaften mit anderen IT-Plattformen unterhält, ist laut IDC-Analyst Hochmuth ein wichtiges Kriterium. IT-Sicherheitsrichtlinien für die Geräte: Unternehmen müssen in der Lage sein, Richtlinien für Jailbreaking, Root-Erkennung, Passwortvergabe, mobile Bedrohungserkennung, Malware-Erkennung, Phishing-Schutz und Ähnliches zu definieren. “Da sich viele Unternehmensdaten außerhalb der Firewall befinden, ist die Gewährleistung der Sicherheit mobiler Geräte von entscheidender Bedeutung”, erklärt Andrew Hewitt, Principal Analyst bei Forrester. “Darüber hinaus brauchen Plattformen integrierte Templates für Policies, um allgemeine Sicherheitsgrundsätze durchzusetzen”, ergänzt Tom Cipolla, Senior Director Analyst bei Gartner. Dies vereinfache Security-Entscheidungen und mache die Einhaltung etablierter Standards überprüfbar. “Viele UEM-Tools bieten jetzt die Möglichkeit, Sicherheitsrichtlinien direkt auf ein Gerät oder eine Gruppe von Geräten anzuwenden”, sagt er. “Damit ist sichergestellt, dass die Geräte des Unternehmens auch dann geschützt sind, wenn sich die Baseline ändert.” Automatisierung: Unternehmen sind ständig auf der Suche nach Möglichkeiten, die Kosten für die Bereitstellung von Geräten zu senken. Laut Hewitt ermöglichen diese Funktionen ein schnelles, vollautomatisches Deployment. Auf diese Weise erhalten die Mitarbeiter schneller ihre Geräte und die Administratoren müssen weniger Zeit für die Bereitstellung aufwenden. Erfassung von Telemetriedaten in Echtzeit: “UEM-Lösungen sollten in der Lage sein, die Nutzererfahrung zu erfassen, Probleme automatisch zu beheben und die Ursachenanalyse zu verbessern”, erklärt Hewitt. Dem Forrester-Analysten zufolge handelt es sich bei der Erfassung von Echtzeitdaten, insbesondere von DEX-Daten um einen neuen Trend im UEM-Bereich. “Mit dem Aufkommen von KI benötigen diese Tools so viele Daten wie möglich, um die Automatisierung im gesamten Stack voranzutreiben.” Preisgestaltung: Die Kosten von Technologieinvestitionen stehen in der Kriterienliste von IT- und Geschäftsleitern immer ganz oben – und UEM-Plattformen sollten da keine Ausnahme bilden. “Einige UEM-Plattformen sind relativ kostengünstig, wenn sie mit anderen Produkten des Anbieters gebündelt werden”, empfiehlt IDC-Mann Hochmuth. Er empfiehlt, nach einem Preismodell pro Nutzer und nicht pro Gerät zu suchen, da die meisten Anwender mit mehr als nur einem Device arbeiten. Zertifizierung zur Einhaltung gesetzlicher Vorschriften: Viele Unternehmen, insbesondere solche, die in der öffentlichen Verwaltung oder in regulierten Branchen tätig sind, müssen eine Reihe von Vorschriften zu Themen wie Datenschutz und Sicherheit einhalten. UEM-Plattformen, die im Rahmen des Federal Risk and Authorization Management Program (FedRAMP) oder anderer Zertifizierungsinitiativen zertifiziert sind, können sicherstellen, dass alle Geräte in einer Organisation auf dem neuesten Stand sind und den geltenden Vorschriften entsprechen. Conditional Access: Ein weiterer wichtiger Faktor ist, ob die UEM-Plattform in der Lage ist, bedingte Zugriffsrichtlinien für alle Geräte, Anwendungen, Netzwerke usw. durchzusetzen. Laut Hewitt sollte der bedingte Zugriff, neudeutsch Conditional Access, die Grundlage einer Mobilitätsstrategie für Unternehmen sein: Wird eine der Richtlinien, etwa aktuelle Software oder eine sichere PIN, nicht erfüllt, wird der Zugriff auf bestimmte Ressourcen gesperrt. Unterstützung von Remote-Umgebungen: Da hybride Arbeitsumgebungen zur Norm geworden sind, werden viele Mitarbeiter zumindest einen Teil ihrer Zeit aus der Ferne arbeiten. Daher ist es wichtig, dass IT-Administratoren in der Lage sind, Probleme mit Endgeräten sowohl vor Ort als auch an entfernten Standorten zu beheben, um die Benutzerfreundlichkeit zu verbessern und Ausfallzeiten zu minimieren, so Hewitt. Aktuelle oder zukünftige AEM-Funktionen: Überprüfen Sie die Roadmap eines Anbieters, um zu sehen, ob er neue Funktionen für das autonome Endpoint Management anbietet, empfiehlt Cipolla von Gartner. Dazu gehören: Automatische Erkennung der Patch-Verfügbarkeit durch KI Die Fähigkeit, die Wahrscheinlichkeit eines erfolgreichen Rollouts und die Auswirkungen auf die Leistung auf der Grundlage bewährter externer und interner Erfolgsindikatoren vorherzusagen. Die Fähigkeit, die Leistung der Geräte und die Stimmung der Mitarbeiter nach dem Patching zu überwachen, um die Auswirkungen zu bewerten. Eine anpassbare Steuerung der Automatisierung, um das gewünschte Maß an Kontrolle zu erreichen. 13 führende UEM-Anbieter Die Hauptakteure auf dem UEM-Markt sind größtenteils dieselben Unternehmen, die auch im MDM/EMM-Segment führend sind. Hier als Ausgangspunkt für eine intensivere Recherche eine kurze Beschreibung der wichtigsten Betriebssystem- und herstellerunabhängigen UEM-Plattformen. 42Gears 42Gears UEM unterstützt Android, iOS, macOS, Windows und Linux und wurde entwickelt, um Unternehmen die Migration von älteren Plattformen wie Windows 7 auf eine EMM-kompatible Version wie Windows 10 zu erleichtern. Es bietet eine einheitliche Plattform für die Verwaltung aller Endgeräte, einschließlich Desktops/Laptops, mitarbeitereigener Geräte, IoT-Geräte, Sensoren und Gateways, robuster Geräte, tragbarer Geräte und Drucker. BlackBerry BlackBerry UEM ist ein plattformübergreifendes System, das Geräte-, App- und Content-Management mit integrierter Sicherheit und Konnektivität bietet und Unternehmen bei der Verwaltung von iOS-, macOS-, Android-, Windows– und ChromeOS-Geräten unterstützt. Zu den wichtigsten Funktionen gehören eine einzige Benutzeroberfläche, sichere IP-Konnektivität, Benutzer-Selfservice, rollenbasierte Verwaltung und Integration mit dem Unternehmensverzeichnis. Cisco Meraki Systems Manager, die Cloud-basierte UEM-Plattform von Meraki, ermöglicht die zentrale Bereitstellung, Überwachung und Sicherung aller Endgeräte in einem Unternehmen und hält das Unternehmensnetzwerk über die sich ständig ändernden Geräte auf dem Laufenden. Die Plattform unterstützt das Management von iOS-, Android-, Windows-, macOS- und ChromeOS-Umgebungen. Das Meraki Cloud Dashboard ermöglicht die Konfiguration und Überwachung über eine einzige Konsole. Google Endpoint Management (Teil der Workspace Suite) funktioniert auf Android-, iOS-, ChromeOS-, macOS- und Windows-Geräten. Administratoren können Richtlinien sowohl für Android als auch für iOS durchsetzen und Apps von der Admin-Konsole aus über Google Play oder den App Store von Apple verteilen. Der Zugriff von jedem Windows-, macOS-, Chrome OS- und Linux-Gerät wird protokolliert und kann bei Bedarf gesperrt werden. Einige erweiterte Funktionen sind nur mit Business- und Enterprise-Lizenzen verfügbar. HCL Technologies HCL BigFix Endpoint Management ermöglicht es Unternehmen, die Erkennung, Verwaltung und Behebung von Endpunktproblemen unabhängig von Standort und Konnektivität vollständig zu automatisieren. Zu den Funktionen gehören BigFix Insights, mit dem Unternehmen Risiken und Kosten schnell visualisieren können, und Multi-Cloud-Management, das Administratoren eine 360-Grad-Sicht, Kontrolle und Compliance-Durchsetzung von Endpunkten in der Cloud und vor Ort ermöglicht. IBM IBM Security MaaS360 ist eine Cloud-basierte UEM-Plattform, die es Unternehmen ermöglicht, Smartphones, Tablets, Laptops, Desktops, Wearables und IoT-Geräte zu sichern. KI und prädiktive Analysen warnen vor potenziellen Endpunktbedrohungen und bieten Abhilfemaßnahmen, um Sicherheitsverletzungen und Störungen zu vermeiden. MaaS360 schützt Anwendungen, Inhalte und Daten. Die Plattform unterstützt Windows, macOS, ChromeOS, Linux, Android, iOS und weitere Betriebssysteme. Ivanti Ivanti Unified Endpoint Manager wurde entwickelt, um die Unternehmensmobilität zu vereinfachen und Richtlinien und Personalisierung auf alle Geräte anzuwenden. Unternehmen können die künstliche Intelligenz des Systems nutzen, um zu bestimmen, welche Benutzer und Geräte welche Art von Zugriff erhalten. Die Plattform unterstützt Windows, macOS, ChromeOS, Linux, iOS, Android und viele weitere Betriebssysteme. Administratoren können detaillierte Gerätedaten erfassen, die Bereitstellung von Software und Betriebssystemen automatisieren, Arbeitsumgebungen personalisieren und Benutzerprobleme lösen. ManageEngine ManageEngine Desktop Central, eine UEM-Plattform der IT-Management-Abteilung von Zoho Corp, hilft Unternehmen, Server, Laptops, Desktops, Smartphones und Tablets von einem zentralen Ort aus zu verwalten. Unternehmen können die Verwaltung von Endgeräten wie die Installation von Patches, die Bereitstellung von Software sowie die Sicherung und Bereitstellung von Betriebssystemen automatisieren. Die Plattform ermöglicht auch die Verwaltung von IT-Assets und Softwarelizenzen, die Fernsteuerung von Desktops und die Überwachung der Softwarenutzung. Als Betriebssysteme werden unter anderem Windows, macOS, Linux, ChromeOS, Android und iOS unterstützt. Matrix42 Matrix42 Unified Endpoint Management unterstützt Windows, macOS, ChromeOS, Android, iOS und iPadOS und kann in der Cloud, vor Ort oder in einer hybriden Umgebung eingesetzt werden. Die Plattform bietet eine automatische Bereitstellung von Geräten und Anwendungen, Echtzeitberichte und Nutzungsanalysen sowie Zugriffskontrolle für Anwendungen und sensible Daten. Daten werden auf mobilen Geräten verschlüsselt und persönliche und geschäftliche Daten auf BYOD-Geräten getrennt. Microsoft Microsoft Intune ist ein Cloud-natives Verwaltungs-Tool für Windows-, macOS-, Linux-, iOS- und Android-Devices und umfasst auch den Microsoft Configuration Manager für lokale Endgeräte. Unternehmen können bestimmte Richtlinien konfigurieren, um Anwendungen zu kontrollieren. Auf diese Weise lässt sich etwa verhindern, dass E-Mails an Personen außerhalb des Unternehmens gesendet werden. Auf privaten Geräten sorgt Intune dafür, dass Unternehmensdaten geschützt bleiben und kann Unternehmensdaten von persönlichen Daten trennen. Sophos Sophos Mobile unterstützt das Management von Windows-, macOS-, iOS- und Android-Geräten und bietet Konfiguration und Richtlinien, Inventar- und Asset-Management sowie detaillierte Berichte zur Gerätenutzung. Unternehmen können Apps installieren, entfernen und anzeigen, Container zur Verwaltung von Inhalten nutzen, Compliance-Regeln und Abhilfemaßnahmen implementieren und sich vor Bedrohungen wie Malware und Phishing schützen. SOTI Die SOTI ONE Plattform ermöglicht es Unternehmen, jedes Gerät oder Endgerät, einschließlich IoT-Geräte, mit jedem Formfaktor während des gesamten Lebenszyklus sicher zu verwalten. Zu den unterstützten Betriebssystemen gehören Windows, macOS, Linux, Android, iOS, iPadOS, Zebra und andere. Die Plattform beinhaltet SOTI XSight, ein diagnostisches Helpdesk-Tool, mit dem Techniker Probleme mit mobilen Geräten und Anwendungen jederzeit und überall analysieren, beheben und lösen können. VMware VMware Workspace ONE ist eine Cloud-basierte Plattform für das Management von Desktop-, mobilen, robusten, tragbaren und IoT-Geräten. Sie unterstützt Betriebsumgebungen wie Android, iOS, Windows, macOS, ChromeOS und Linux. Die Plattform bietet Datenschutz gegen Sicherheitsbedrohungen mit Zugriffskontrolle und Compliance-Richtlinien und verfügt über eine Privacy Guard-Funktion zur Verwaltung von Datenschutzrichtlinien. VMware war einer der ersten UEM-Anbieter, der GenAI-basierte Scripting-Funktionen anbot. Im Jahr 2023 wurde VMware von Broadcom übernommen und steht kurz vor dem Verkauf an die Investmentgesellschaft KKR. (mb) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

UEM-Lösungen und -Anbieter: Der Unified-Endpoint-Management-Ratgeber​ Dank Notebook und Smartphone können Mitarbeiter auch unterwegs auf Firmendaten und -anwendungen zugreifen. UEM hilft, diese Geräte zu verwalten und zu schützen.
Foto: SmartPhotoLab – shutterstock.com

Vernetzte, datenintensive und allgegenwärtige Endgeräte – von PCs und Smartphones bis hin zu IoT-Devices (Internet der Dinge) – gehören zu den wertvollsten IT-Assets, die ein Unternehmen besitzen kann. Für immer mehr Unternehmen ist Unified Endpoint Management (UEM) dabei die Plattform der Wahl, um Endgeräte zu verwalten und zu verhindern, dass sie zu einem Risiko für Sicherheit, Datenschutz und Compliance werden.

Was ist Unified Endpoint Management?

UEM-Plattformen sind Software-Suiten, die eine einheitliche Verwaltungsoberfläche für die Überwachung der Endgeräte in einem Unternehmen bieten. Diese Systeme haben sich aus Lösungen für das Mobile Device Management (MDM) und das Enterprise Mobility Management (EMM) entwickelt und ersetzen diese in vielen Fällen.

So kontrollieren MDM-Tools die Funktionalität mobiler Geräte und bieten Funktionen wie Geräteregistrierung, Fernsteuerung, Gerätesperrung und Standortverfolgung. EMM-Plattformen bieten diese Funktionen – und zusätzlich noch Mobile Information Management, Mobile Application Management und Mobile Content Management.

UEM wiederum geht noch einen Schritt weiter und erweitert das Spektrum von EMM, indem es nicht nur mobile Geräte, sondern auch Desktop- und Laptop-Computer, Drucker, Wearables und IoT-Geräte über eine einzige Managementkonsole einbezieht.

Warum brauchen Unternehmen UEM?

Es steht außer Frage, dass Unternehmen Endgeräte verwalten und schützen müssen. So greifen die Nutzer mit immer mehr Geräten auf Unternehmensnetzwerke und -daten zu: Windows-PCs, Macs, Chromebooks, iOS- und Android-Telefone und –Tablets und sogar AR/VR-Headsets wie das Quest 3 von Meta und das Vision Pro von Apple. Hinzu kommt, dass immer mehr Menschen zumindest teilweise mobil oder von zu Hause aus arbeiten und in vielen Fällen ihre persönlichen Geräte nutzen. Darüber hinaus starten viele Unternehmen IoT– und Edge-Computing-Initiativen.

Diese Endgeräte stellen ein erhebliches Sicherheitsrisiko dar, insbesondere, wenn Mitarbeiter ihre eigenen Geräte für die Arbeit nutzen. Dies ist einer der Hauptgründe, warum die Verwaltung der großen und wachsenden Anzahl von Endgeräten für Unternehmen so wichtig ist. UEM-Plattformen wurden entwickelt, um das Gerätemanagement zu vereinfachen und die Sicherheit in heterogenen Umgebungen zu erhöhen.

“Die modernen Device-Management-Prinzipien von UEM sind auf die sich verändernde Arbeitswelt ausgerichtet, in der Mitarbeiter remote oder hybrid arbeiten und ihre Geräte über längere Zeiträume nicht mit dem Firmennetz verbunden sind”, erklärt Phil Hochmuth, Program Vice President Enterprise Mobility, beim Marktforschungsunternehmen IDC.

Einer der Hauptvorteile von UEM für Unternehmen besteht darin, dass es besser ist als eine Vielzahl unterschiedlicher Mobility-Management-Tools, die die Kosten in die Höhe treiben und die Effizienz verringern können. Mit einem einzigen System lässt sich auch leichter sicherstellen, dass Sicherheits-, Datenschutz- und Data-Governance-Richtlinien über verschiedene Plattformen und Arbeitsumgebungen hinweg einheitlich angewendet werden. “UEM verspricht, mehrere Management-Systeme, Teams und Richtlinien zu konsolidieren, um das Endpoint Management effizienter zu gestalten und die Produktivität der Mitarbeiter/innen zu steigern”, erläutert Hochmuth.

Auswahlkriterien für UEM-Lösungen

Die UEM-Plattformen der führenden Anbieter haben viele Gemeinsamkeiten, aber natürlich ist kein Angebot wie das andere. IT-Verantwortliche müssen die Optionen auf dem Markt genau prüfen. Es empfiehlt sich dabei, einen Proof of Concept oder einen Pilottest durchzuführen, bevor eine Plattform auf breiter Basis eingeführt wird – ein späterer Plattformwechsel ist schwierig und kann auch schnell kostspielig werden.

Ein Pilotprogramm ist auch eine gute Möglichkeit, um herauszufinden, welche Funktionen und Möglichkeiten das Unternehmen am meisten benötigt. Bei der Evaluierung von UEM-Optionen sollte den folgenden Schlüsselfaktoren besondere Aufmerksamkeit geschenkt werden:

Unterstützung von Betriebssystemen: Um Mitarbeitern eine gewisse Auswahl zu bieten, sollte eine UEM-Plattform eine Vielzahl von Betriebssystemen unterstützen, darunter Windows, macOS, ChromeOS, iOS und Android. Allerdings konzentrieren sich einige Plattformen speziell auf einen bestimmten Gerätehersteller oder ein bestimmtes Betriebssystem, zum Beispiel Apple, und unterstützen andere Betriebssysteme nicht so ausgeprägt.

Integration mit anderen IT-Produkten: Wie gut arbeitet die UEM-Plattform mit anderen IT-Komponenten wie Ticketing-Systemen und Security-Tools zusammen? Ob ein Anbieter Partnerschaften mit anderen IT-Plattformen unterhält, ist laut IDC-Analyst Hochmuth ein wichtiges Kriterium.

IT-Sicherheitsrichtlinien für die Geräte: Unternehmen müssen in der Lage sein, Richtlinien für Jailbreaking, Root-Erkennung, Passwortvergabe, mobile Bedrohungserkennung, Malware-Erkennung, Phishing-Schutz und Ähnliches zu definieren. “Da sich viele Unternehmensdaten außerhalb der Firewall befinden, ist die Gewährleistung der Sicherheit mobiler Geräte von entscheidender Bedeutung”, erklärt Andrew Hewitt, Principal Analyst bei Forrester. “Darüber hinaus brauchen Plattformen integrierte Templates für Policies, um allgemeine Sicherheitsgrundsätze durchzusetzen”, ergänzt Tom Cipolla, Senior Director Analyst bei Gartner. Dies vereinfache Security-Entscheidungen und mache die Einhaltung etablierter Standards überprüfbar. “Viele UEM-Tools bieten jetzt die Möglichkeit, Sicherheitsrichtlinien direkt auf ein Gerät oder eine Gruppe von Geräten anzuwenden”, sagt er. “Damit ist sichergestellt, dass die Geräte des Unternehmens auch dann geschützt sind, wenn sich die Baseline ändert.”

Automatisierung: Unternehmen sind ständig auf der Suche nach Möglichkeiten, die Kosten für die Bereitstellung von Geräten zu senken. Laut Hewitt ermöglichen diese Funktionen ein schnelles, vollautomatisches Deployment. Auf diese Weise erhalten die Mitarbeiter schneller ihre Geräte und die Administratoren müssen weniger Zeit für die Bereitstellung aufwenden.

Erfassung von Telemetriedaten in Echtzeit: “UEM-Lösungen sollten in der Lage sein, die Nutzererfahrung zu erfassen, Probleme automatisch zu beheben und die Ursachenanalyse zu verbessern”, erklärt Hewitt. Dem Forrester-Analysten zufolge handelt es sich bei der Erfassung von Echtzeitdaten, insbesondere von DEX-Daten um einen neuen Trend im UEM-Bereich. “Mit dem Aufkommen von KI benötigen diese Tools so viele Daten wie möglich, um die Automatisierung im gesamten Stack voranzutreiben.”

Preisgestaltung: Die Kosten von Technologieinvestitionen stehen in der Kriterienliste von IT- und Geschäftsleitern immer ganz oben – und UEM-Plattformen sollten da keine Ausnahme bilden. “Einige UEM-Plattformen sind relativ kostengünstig, wenn sie mit anderen Produkten des Anbieters gebündelt werden”, empfiehlt IDC-Mann Hochmuth. Er empfiehlt, nach einem Preismodell pro Nutzer und nicht pro Gerät zu suchen, da die meisten Anwender mit mehr als nur einem Device arbeiten.

Zertifizierung zur Einhaltung gesetzlicher Vorschriften: Viele Unternehmen, insbesondere solche, die in der öffentlichen Verwaltung oder in regulierten Branchen tätig sind, müssen eine Reihe von Vorschriften zu Themen wie Datenschutz und Sicherheit einhalten. UEM-Plattformen, die im Rahmen des Federal Risk and Authorization Management Program (FedRAMP) oder anderer Zertifizierungsinitiativen zertifiziert sind, können sicherstellen, dass alle Geräte in einer Organisation auf dem neuesten Stand sind und den geltenden Vorschriften entsprechen.

Conditional Access: Ein weiterer wichtiger Faktor ist, ob die UEM-Plattform in der Lage ist, bedingte Zugriffsrichtlinien für alle Geräte, Anwendungen, Netzwerke usw. durchzusetzen. Laut Hewitt sollte der bedingte Zugriff, neudeutsch Conditional Access, die Grundlage einer Mobilitätsstrategie für Unternehmen sein: Wird eine der Richtlinien, etwa aktuelle Software oder eine sichere PIN, nicht erfüllt, wird der Zugriff auf bestimmte Ressourcen gesperrt.

Unterstützung von Remote-Umgebungen: Da hybride Arbeitsumgebungen zur Norm geworden sind, werden viele Mitarbeiter zumindest einen Teil ihrer Zeit aus der Ferne arbeiten. Daher ist es wichtig, dass IT-Administratoren in der Lage sind, Probleme mit Endgeräten sowohl vor Ort als auch an entfernten Standorten zu beheben, um die Benutzerfreundlichkeit zu verbessern und Ausfallzeiten zu minimieren, so Hewitt.

Aktuelle oder zukünftige AEM-Funktionen: Überprüfen Sie die Roadmap eines Anbieters, um zu sehen, ob er neue Funktionen für das autonome Endpoint Management anbietet, empfiehlt Cipolla von Gartner. Dazu gehören:

Automatische Erkennung der Patch-Verfügbarkeit durch KI

Die Fähigkeit, die Wahrscheinlichkeit eines erfolgreichen Rollouts und die Auswirkungen auf die Leistung auf der Grundlage bewährter externer und interner Erfolgsindikatoren vorherzusagen.

Die Fähigkeit, die Leistung der Geräte und die Stimmung der Mitarbeiter nach dem Patching zu überwachen, um die Auswirkungen zu bewerten.

Eine anpassbare Steuerung der Automatisierung, um das gewünschte Maß an Kontrolle zu erreichen.

13 führende UEM-Anbieter

Die Hauptakteure auf dem UEM-Markt sind größtenteils dieselben Unternehmen, die auch im MDM/EMM-Segment führend sind. Hier als Ausgangspunkt für eine intensivere Recherche eine kurze Beschreibung der wichtigsten Betriebssystem- und herstellerunabhängigen UEM-Plattformen.

42Gears

42Gears UEM unterstützt Android, iOS, macOS, Windows und Linux und wurde entwickelt, um Unternehmen die Migration von älteren Plattformen wie Windows 7 auf eine EMM-kompatible Version wie Windows 10 zu erleichtern. Es bietet eine einheitliche Plattform für die Verwaltung aller Endgeräte, einschließlich Desktops/Laptops, mitarbeitereigener Geräte, IoT-Geräte, Sensoren und Gateways, robuster Geräte, tragbarer Geräte und Drucker.

BlackBerry

BlackBerry UEM ist ein plattformübergreifendes System, das Geräte-, App- und Content-Management mit integrierter Sicherheit und Konnektivität bietet und Unternehmen bei der Verwaltung von iOS-, macOS-, Android-, Windows– und ChromeOS-Geräten unterstützt. Zu den wichtigsten Funktionen gehören eine einzige Benutzeroberfläche, sichere IP-Konnektivität, Benutzer-Selfservice, rollenbasierte Verwaltung und Integration mit dem Unternehmensverzeichnis.

Cisco Meraki

Systems Manager, die Cloud-basierte UEM-Plattform von Meraki, ermöglicht die zentrale Bereitstellung, Überwachung und Sicherung aller Endgeräte in einem Unternehmen und hält das Unternehmensnetzwerk über die sich ständig ändernden Geräte auf dem Laufenden. Die Plattform unterstützt das Management von iOS-, Android-, Windows-, macOS- und ChromeOS-Umgebungen. Das Meraki Cloud Dashboard ermöglicht die Konfiguration und Überwachung über eine einzige Konsole.

Google

Endpoint Management (Teil der Workspace Suite) funktioniert auf Android-, iOS-, ChromeOS-, macOS- und Windows-Geräten. Administratoren können Richtlinien sowohl für Android als auch für iOS durchsetzen und Apps von der Admin-Konsole aus über Google Play oder den App Store von Apple verteilen. Der Zugriff von jedem Windows-, macOS-, Chrome OS- und Linux-Gerät wird protokolliert und kann bei Bedarf gesperrt werden. Einige erweiterte Funktionen sind nur mit Business- und Enterprise-Lizenzen verfügbar.

HCL Technologies

HCL BigFix Endpoint Management ermöglicht es Unternehmen, die Erkennung, Verwaltung und Behebung von Endpunktproblemen unabhängig von Standort und Konnektivität vollständig zu automatisieren. Zu den Funktionen gehören BigFix Insights, mit dem Unternehmen Risiken und Kosten schnell visualisieren können, und Multi-Cloud-Management, das Administratoren eine 360-Grad-Sicht, Kontrolle und Compliance-Durchsetzung von Endpunkten in der Cloud und vor Ort ermöglicht.

IBM

IBM Security MaaS360 ist eine Cloud-basierte UEM-Plattform, die es Unternehmen ermöglicht, Smartphones, Tablets, Laptops, Desktops, Wearables und IoT-Geräte zu sichern. KI und prädiktive Analysen warnen vor potenziellen Endpunktbedrohungen und bieten Abhilfemaßnahmen, um Sicherheitsverletzungen und Störungen zu vermeiden. MaaS360 schützt Anwendungen, Inhalte und Daten. Die Plattform unterstützt Windows, macOS, ChromeOS, Linux, Android, iOS und weitere Betriebssysteme.

Ivanti

Ivanti Unified Endpoint Manager wurde entwickelt, um die Unternehmensmobilität zu vereinfachen und Richtlinien und Personalisierung auf alle Geräte anzuwenden. Unternehmen können die künstliche Intelligenz des Systems nutzen, um zu bestimmen, welche Benutzer und Geräte welche Art von Zugriff erhalten. Die Plattform unterstützt Windows, macOS, ChromeOS, Linux, iOS, Android und viele weitere Betriebssysteme. Administratoren können detaillierte Gerätedaten erfassen, die Bereitstellung von Software und Betriebssystemen automatisieren, Arbeitsumgebungen personalisieren und Benutzerprobleme lösen.

ManageEngine

ManageEngine Desktop Central, eine UEM-Plattform der IT-Management-Abteilung von Zoho Corp, hilft Unternehmen, Server, Laptops, Desktops, Smartphones und Tablets von einem zentralen Ort aus zu verwalten. Unternehmen können die Verwaltung von Endgeräten wie die Installation von Patches, die Bereitstellung von Software sowie die Sicherung und Bereitstellung von Betriebssystemen automatisieren. Die Plattform ermöglicht auch die Verwaltung von IT-Assets und Softwarelizenzen, die Fernsteuerung von Desktops und die Überwachung der Softwarenutzung. Als Betriebssysteme werden unter anderem Windows, macOS, Linux, ChromeOS, Android und iOS unterstützt.

Matrix42

Matrix42 Unified Endpoint Management unterstützt Windows, macOS, ChromeOS, Android, iOS und iPadOS und kann in der Cloud, vor Ort oder in einer hybriden Umgebung eingesetzt werden. Die Plattform bietet eine automatische Bereitstellung von Geräten und Anwendungen, Echtzeitberichte und Nutzungsanalysen sowie Zugriffskontrolle für Anwendungen und sensible Daten. Daten werden auf mobilen Geräten verschlüsselt und persönliche und geschäftliche Daten auf BYOD-Geräten getrennt.

Microsoft

Microsoft Intune ist ein Cloud-natives Verwaltungs-Tool für Windows-, macOS-, Linux-, iOS- und Android-Devices und umfasst auch den Microsoft Configuration Manager für lokale Endgeräte. Unternehmen können bestimmte Richtlinien konfigurieren, um Anwendungen zu kontrollieren. Auf diese Weise lässt sich etwa verhindern, dass E-Mails an Personen außerhalb des Unternehmens gesendet werden. Auf privaten Geräten sorgt Intune dafür, dass Unternehmensdaten geschützt bleiben und kann Unternehmensdaten von persönlichen Daten trennen.

Sophos

Sophos Mobile unterstützt das Management von Windows-, macOS-, iOS- und Android-Geräten und bietet Konfiguration und Richtlinien, Inventar- und Asset-Management sowie detaillierte Berichte zur Gerätenutzung. Unternehmen können Apps installieren, entfernen und anzeigen, Container zur Verwaltung von Inhalten nutzen, Compliance-Regeln und Abhilfemaßnahmen implementieren und sich vor Bedrohungen wie Malware und Phishing schützen.

SOTI

Die SOTI ONE Plattform ermöglicht es Unternehmen, jedes Gerät oder Endgerät, einschließlich IoT-Geräte, mit jedem Formfaktor während des gesamten Lebenszyklus sicher zu verwalten. Zu den unterstützten Betriebssystemen gehören Windows, macOS, Linux, Android, iOS, iPadOS, Zebra und andere. Die Plattform beinhaltet SOTI XSight, ein diagnostisches Helpdesk-Tool, mit dem Techniker Probleme mit mobilen Geräten und Anwendungen jederzeit und überall analysieren, beheben und lösen können.

VMware

VMware Workspace ONE ist eine Cloud-basierte Plattform für das Management von Desktop-, mobilen, robusten, tragbaren und IoT-Geräten. Sie unterstützt Betriebsumgebungen wie Android, iOS, Windows, macOS, ChromeOS und Linux. Die Plattform bietet Datenschutz gegen Sicherheitsbedrohungen mit Zugriffskontrolle und Compliance-Richtlinien und verfügt über eine Privacy Guard-Funktion zur Verwaltung von Datenschutzrichtlinien. VMware war einer der ersten UEM-Anbieter, der GenAI-basierte Scripting-Funktionen anbot. Im Jahr 2023 wurde VMware von Broadcom übernommen und steht kurz vor dem Verkauf an die Investmentgesellschaft KKR. (mb)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

UEM-Lösungen und -Anbieter: Der Unified-Endpoint-Management-Ratgeber​ Weiterlesen »

Wie wird man innovativ?​

Allgemein

Christoph Brabandt ist als Head of Digital Product Discovery beim Digitallabor von Boehringer-Ingelheim auf der Suche nach innovativen Lösungen. Boehringer-Ingelheim Der Begriff Innovation wird heutzutage inflationär gebraucht. Es gibt wohl kaum einen Manager oder ein Unternehmen, das sich nicht mit diesem Attribut schmückt. Doch wie wird man innovativ? Antworten darauf gibt in dieser Folge von TechTalk, dem Podcast von Computerwoche, CIO und CSO, Christoph Brabandt. Er ist Head of Digital Product Discovery bei BI X, dem Digitallabor von Boehringer-Ingelheim. Brabandt erklärt, wie das Team von BI X nach neuen Technologien, Produkten und Dienstleistungen sucht, um das Pharmaunternehmen bei der digitalen Transformation zu unterstützen.  Das Team agiere dabei an der Spitze der Unternehmensstrategie und beeinflusse diese aktiv, indem es neue Themen und Trends identifiziert, beschreibt er die Rolle seiner Organisation.   Experimentieren und schnell scheitern Der Fokus liegt auf Partnerschaften und Co-Development mit Startups, um schnell innovative Lösungen zu entwickeln und ins Unternehmen zu integrieren. Das Besondere sei, so Brabandt: „Wir dürfen ganz viel experimentieren. Wir haben unsere Ressourcen zur Verfügung, um mal Dinge auszuprobieren, um früh schnell zu scheitern.”  Ein Ziel ist jedoch vorgegeben: Das Leben der Patienten zu verbessern, sowohl durch neue Medikamente als auch durch digitale Lösungen, die den Patienten im gesamten Krankheitsverlauf unterstützen.  „Und das machen wir auf der einen Seite natürlich mit unserem Kerngeschäft, indem wir neue innovative Produkte entwickeln, Medikamente entwickeln“, erklärt Brabandt, „auf der anderen Seite schauen wir aber immer: ‚in welchem Rahmen bewegt sich der Patient?.“  Welche Erfolgsfaktoren für den Aufbau eines Innovationsnetzwerks wichtig sind und wie sich das Engagement auch auf andere Bereiche auswirkt, das und andere spannende Dinge erfahren Sie in dieser Podcast-Episode.  width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/1xglya8gNHW5bYwiNahhIH?utm_source=oembed”> 

Wie wird man innovativ?​ Christoph Brabandt ist als Head of Digital Product Discovery beim Digitallabor von Boehringer-Ingelheim auf der Suche nach innovativen Lösungen. Boehringer-Ingelheim

Der Begriff Innovation wird heutzutage inflationär gebraucht. Es gibt wohl kaum einen Manager oder ein Unternehmen, das sich nicht mit diesem Attribut schmückt. Doch wie wird man innovativ? Antworten darauf gibt in dieser Folge von TechTalk, dem Podcast von Computerwoche, CIO und CSO, Christoph Brabandt. Er ist Head of Digital Product Discovery bei BI X, dem Digitallabor von Boehringer-Ingelheim. Brabandt erklärt, wie das Team von BI X nach neuen Technologien, Produkten und Dienstleistungen sucht, um das Pharmaunternehmen bei der digitalen Transformation zu unterstützen. 

Das Team agiere dabei an der Spitze der Unternehmensstrategie und beeinflusse diese aktiv, indem es neue Themen und Trends identifiziert, beschreibt er die Rolle seiner Organisation.  

Experimentieren und schnell scheitern

Der Fokus liegt auf Partnerschaften und Co-Development mit Startups, um schnell innovative Lösungen zu entwickeln und ins Unternehmen zu integrieren. Das Besondere sei, so Brabandt: „Wir dürfen ganz viel experimentieren. Wir haben unsere Ressourcen zur Verfügung, um mal Dinge auszuprobieren, um früh schnell zu scheitern.” 

Ein Ziel ist jedoch vorgegeben: Das Leben der Patienten zu verbessern, sowohl durch neue Medikamente als auch durch digitale Lösungen, die den Patienten im gesamten Krankheitsverlauf unterstützen.  „Und das machen wir auf der einen Seite natürlich mit unserem Kerngeschäft, indem wir neue innovative Produkte entwickeln, Medikamente entwickeln“, erklärt Brabandt, „auf der anderen Seite schauen wir aber immer: ‚in welchem Rahmen bewegt sich der Patient?.“ 

Welche Erfolgsfaktoren für den Aufbau eines Innovationsnetzwerks wichtig sind und wie sich das Engagement auch auf andere Bereiche auswirkt, das und andere spannende Dinge erfahren Sie in dieser Podcast-Episode. 

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/1xglya8gNHW5bYwiNahhIH?utm_source=oembed”>

Wie wird man innovativ?​ Weiterlesen »

Die größten Lügen im Lebenslauf​

Allgemein

Von wegen Schreibmaschine – Heutzutage erstellen Bewerber ihren Lebenslauf mit KI, was entsprechende Vorteile, aber auch Risiken birgt.Werner Rebel / Shutterstock.com Unangenehme Lücken in der Vita füllen, das frühere Gehalt etwas anheben oder fiktive Referenzen und Qualifikationen hinzufügen – es gilt eine Vielzahl von Möglichkeiten, um sich beim Lebenslauf aus der Masse der Bewerber auf einen interessanten Job hervorzuheben. Diese werden laut einer Umfrage des Anbieters cvapp.de auch fleißig genutzt. In einer Befragung von 3.000 Menschen in Deutschland gaben drei von fünf (58,6 Prozent) Teilnehmenden zu, in ihrem Lebenslauf gelogen zu haben. Eher Regel als Ausnahme Über alle Branchen und Geschlechter hinweg wurde laut Studie am häufigsten bei den eigenen Fähigkeiten (79 Prozent), dem vorherigen Gehalt (74 Prozent) und der früheren Stellenbezeichnung (58 Prozent) gelogen. KategorieProzentanteil der BefragtenÜber Fähigkeiten/Kompetenzen gelogen79 ProzentÜber Gehalt gelogen74 ProzentÜber Stellenbezeichnung gelogen58 ProzentÜber persönliche Interessen gelogen56 ProzentÜber Bildungsabschluss gelogen52 ProzentÜber Anfangs-/Enddaten bei früheren Stellen gelogen51 ProzentÜber Referenzen gelogen49 ProzentÜber Alter gelogen13 ProzentÜber anderes gelogen5 Prozent Im Detail finden sich dabei jedoch einige interessante Ausreißer: So schummelten Männer mit 71 Prozent deutlich häufiger als Frauen (46 Prozent), während sich bei der Branchenzugehörigkeit – wenig überraschend – Vertreter der Künstler- und Designbranche mit einem Anteil von 77 Prozent als besonders kreativ erwiesen. Von den Bewerbern aus der IT-Branche logen dagegen „nur“ 56 Prozent, während der Schummler-Anteil im Gesundheitsbereich und dem Gastgewerbe sogar unter 50 Prozent lag. 70 Prozent der Bewerber in Bremen logen im Lebenslauf, gefolgt von Bayern (69 Prozent) und Berlinern (67 Prozent) Interessant in diesem Zusammenhang ist außerdem, dass laut cvapp.de knapp die Hälfte der Deutschen (48 Prozent) KI einsetzen, um ihren Lebenslauf zu erstellen. 38,5 Prozent der Befragten gaben an, dass sie KI nutzen, um ihre Fähigkeiten und ihr Wissen zu bearbeiten. Strafbare Lügen im Lebenslauf Normalerweise ist es erlaubt, den Lebenslauf leicht anzupassen, um sich selbst und die eigenen Leistungen hervorzuheben. Wird jedoch ein Studienabschluss oder eine frühere Beschäftigung hinzugedichtet, kann dies auch Jahre nach der Einstellung ein Kündigungsgrund sein. Außerdem sollte man sich bewusst sein, dass einige Änderungenals kriminellangesehen werden können. Das ist etwa der Fall, wenn für die Bewerbungsunterlagen Zeugnisse oder Abschlüsse gefälscht oder bearbeitet werden. Dass solche Aktionen dennoch nicht abwegig sind, zeigt ein weiteres Ergebnis der Umfrage. Demnach gaben 30 Prozent der Befragten an, sie hätten KI verwendet, um Qualifikationen in ihrem Lebenslauf zu erstellen. 39 Prozent ließen sich im Bereich Fähigkeiten und Wissen von der KI unterstützen, 19 Prozent bei den Hobbys und sieben Prozent im Abschnitt Berufserfahrung. 

Die größten Lügen im Lebenslauf​ Von wegen Schreibmaschine – Heutzutage erstellen Bewerber ihren Lebenslauf mit KI, was entsprechende Vorteile, aber auch Risiken birgt.Werner Rebel / Shutterstock.com

Unangenehme Lücken in der Vita füllen, das frühere Gehalt etwas anheben oder fiktive Referenzen und Qualifikationen hinzufügen – es gilt eine Vielzahl von Möglichkeiten, um sich beim Lebenslauf aus der Masse der Bewerber auf einen interessanten Job hervorzuheben. Diese werden laut einer Umfrage des Anbieters cvapp.de auch fleißig genutzt. In einer Befragung von 3.000 Menschen in Deutschland gaben drei von fünf (58,6 Prozent) Teilnehmenden zu, in ihrem Lebenslauf gelogen zu haben.

Eher Regel als Ausnahme

Über alle Branchen und Geschlechter hinweg wurde laut Studie am häufigsten bei den eigenen Fähigkeiten (79 Prozent), dem vorherigen Gehalt (74 Prozent) und der früheren Stellenbezeichnung (58 Prozent) gelogen.

KategorieProzentanteil der BefragtenÜber Fähigkeiten/Kompetenzen gelogen79 ProzentÜber Gehalt gelogen74 ProzentÜber Stellenbezeichnung gelogen58 ProzentÜber persönliche Interessen gelogen56 ProzentÜber Bildungsabschluss gelogen52 ProzentÜber Anfangs-/Enddaten bei früheren Stellen gelogen51 ProzentÜber Referenzen gelogen49 ProzentÜber Alter gelogen13 ProzentÜber anderes gelogen5 Prozent

Im Detail finden sich dabei jedoch einige interessante Ausreißer:

So schummelten Männer mit 71 Prozent deutlich häufiger als Frauen (46 Prozent),

während sich bei der Branchenzugehörigkeit – wenig überraschend – Vertreter der Künstler- und Designbranche mit einem Anteil von 77 Prozent als besonders kreativ erwiesen.

Von den Bewerbern aus der IT-Branche logen dagegen „nur“ 56 Prozent,

während der Schummler-Anteil im Gesundheitsbereich und dem Gastgewerbe sogar unter 50 Prozent lag.

70 Prozent der Bewerber in Bremen logen im Lebenslauf, gefolgt von Bayern (69 Prozent) und Berlinern (67 Prozent)

Interessant in diesem Zusammenhang ist außerdem, dass laut cvapp.de knapp die Hälfte der Deutschen (48 Prozent) KI einsetzen, um ihren Lebenslauf zu erstellen. 38,5 Prozent der Befragten gaben an, dass sie KI nutzen, um ihre Fähigkeiten und ihr Wissen zu bearbeiten.

Strafbare Lügen im Lebenslauf

Normalerweise ist es erlaubt, den Lebenslauf leicht anzupassen, um sich selbst und die eigenen Leistungen hervorzuheben. Wird jedoch ein Studienabschluss oder eine frühere Beschäftigung hinzugedichtet, kann dies auch Jahre nach der Einstellung ein Kündigungsgrund sein. Außerdem sollte man sich bewusst sein, dass einige Änderungenals kriminellangesehen werden können. Das ist etwa der Fall, wenn für die Bewerbungsunterlagen Zeugnisse oder Abschlüsse gefälscht oder bearbeitet werden.

Dass solche Aktionen dennoch nicht abwegig sind, zeigt ein weiteres Ergebnis der Umfrage. Demnach gaben 30 Prozent der Befragten an, sie hätten KI verwendet, um Qualifikationen in ihrem Lebenslauf zu erstellen. 39 Prozent ließen sich im Bereich Fähigkeiten und Wissen von der KI unterstützen, 19 Prozent bei den Hobbys und sieben Prozent im Abschnitt Berufserfahrung.

Die größten Lügen im Lebenslauf​ Weiterlesen »

VMware Workstation Pro: Secure Boot für VMs nachträglich aktivieren​

Allgemein

Virtuelle Maschine herunterfahren Thomas Rieske Lösung: Die entsprechende Option lässt sich bequem über die grafische Benutzeroberfläche erreichen, ist allerdings ein wenig versteckt untergebracht. Außerdem müssen Sie die virtuelle Maschine zuvor beenden. Bei einer Windows-VM beispielsweise klicken Sie dazu auf den Start-Button (1), dann auf das Netzschaltersymbol (2) und schließlich auf Herunterfahren (3). Einstellungen öffnen Thomas Rieske Nachdem Sie die virtuelle Maschine beendet haben, finden Sie auf dem Tab der VM unterhalb von deren Namen zwei Links. Klicken Sie hier auf Edit virtual machine settings. Der Settings-Dialog Thomas Rieske Anschließend öffnet sich ein neues Fenster mit dem Titel Virtual Machine Settings. Wechseln Sie nun zunächst zur Registerkarte Options. Erweiterte Optionen aufrufen Thomas Rieske Danach klicken Sie in der Spalte Settings auf den Eintrag Advanced. Secure Boot einschalten Thomas Rieske Weiter geht’s im rechten Teil des Fensters. Dort finden Sie relativ weit unten im Abschnitt Firmware type bei aktiviertem UEFI die Checkbox Enable secure boot. Setzen Sie ein Häkchen davor, und übernehmen Sie die Einstellung mit einem Klick auf den OK-Button. Erfolgskontrolle Thomas Rieske Ob Windows die Änderung erkennt, lässt sich zum Beispiel mit dem bordeigenen Tool Systeminformationen überprüfen. Sie können es in der virtuellen Maschine einfach per Suche über dessen Namen oder durch Aufruf von msinfo32.exe im Ausführen-Dialog (Windows-Taste + R) starten. Wenn unter Systemübersicht rechts der Eintrag Sicherer Startzustand mit dem Wert Ein angezeigt wird, ist Secure Boot aktiviert. Produkte: Der Trick funktioniert mit allen aktuellen Versionen von VMware Workstation Pro für Windows. 

VMware Workstation Pro: Secure Boot für VMs nachträglich aktivieren​ Virtuelle Maschine herunterfahren

Thomas Rieske

Lösung: Die entsprechende Option lässt sich bequem über die grafische Benutzeroberfläche erreichen, ist allerdings ein wenig versteckt untergebracht. Außerdem müssen Sie die virtuelle Maschine zuvor beenden. Bei einer Windows-VM beispielsweise klicken Sie dazu auf den Start-Button (1), dann auf das Netzschaltersymbol (2) und schließlich auf Herunterfahren (3).

Einstellungen öffnen

Thomas Rieske

Nachdem Sie die virtuelle Maschine beendet haben, finden Sie auf dem Tab der VM unterhalb von deren Namen zwei Links. Klicken Sie hier auf Edit virtual machine settings.

Der Settings-Dialog

Thomas Rieske

Anschließend öffnet sich ein neues Fenster mit dem Titel Virtual Machine Settings. Wechseln Sie nun zunächst zur Registerkarte Options.

Erweiterte Optionen aufrufen

Thomas Rieske

Danach klicken Sie in der Spalte Settings auf den Eintrag Advanced.

Secure Boot einschalten

Thomas Rieske

Weiter geht’s im rechten Teil des Fensters. Dort finden Sie relativ weit unten im Abschnitt Firmware type bei aktiviertem UEFI die Checkbox Enable secure boot. Setzen Sie ein Häkchen davor, und übernehmen Sie die Einstellung mit einem Klick auf den OK-Button.

Erfolgskontrolle

Thomas Rieske

Ob Windows die Änderung erkennt, lässt sich zum Beispiel mit dem bordeigenen Tool Systeminformationen überprüfen. Sie können es in der virtuellen Maschine einfach per Suche über dessen Namen oder durch Aufruf von msinfo32.exe im Ausführen-Dialog (Windows-Taste + R) starten. Wenn unter Systemübersicht rechts der Eintrag Sicherer Startzustand mit dem Wert Ein angezeigt wird, ist Secure Boot aktiviert.

Produkte: Der Trick funktioniert mit allen aktuellen Versionen von VMware Workstation Pro für Windows.

VMware Workstation Pro: Secure Boot für VMs nachträglich aktivieren​ Weiterlesen »

Entwickler gehören nicht ans Fließband!​

Allgemein

Alles ganz modern? Everett Collection | shutterstock.com Seitdem im Jahr 1946 der Großrechner ENIAC an die US-Armee ausgeliefert wurde, ringen Unternehmen und Organisationen damit, die Softwareentwicklung effektiv zu managen. Das Problem ist aus dem militärischen Bereich bekannt: Bei der Vorbereitung auf künftige Konflikte wird vor allem über die bereits ausgetragenen nachgedacht. Das kann dazu führen, dass Technologien und Strategien angewendet werden, die in der Vergangenheit zwar effektiv waren – mit Blick auf die Zukunft allerdings nicht dasselbe versprechen. Früher wurden die Mitarbeiter in Fabriken dazu aufgefordert, die Stechuhr zu drücken – und von durch die Flure wandernden Managern kontrolliert. Das machte auch Sinn, wenn es beispielsweise darum ging, Verschlusskappen auf Rasierschaumdosen zu setzen. Die Leistung der Arbeiter war einfach zu erfassen, ihre Anzahl ein guter Erfolgsindikator: Je mehr Füße am Fließband standen, desto mehr wurde produziert. Leider wurde dieses Konzept auch für die Softwareentwicklung übernommen. Nur, dass Füße und Fließband dabei durch „Hintern“ und „Stühle“ ersetzt wurden. Mehr Hintern, mehr Software? Das ist umso erstaunlicher, weil die meisten nicht-technischen Führungskräfte gar nicht beurteilen können, was Developer eigentlich tun – geschweige denn, wie gut und ob das in angemessener Geschwindigkeit abläuft. Das macht es quasi unmöglich, die Produktivität einzelner Softwareentwickler zu messen. Die „Zauberformel“ vieler Manager scheint sich deshalb am Rasierschaumdosen-Beispiel zu orientieren: Je länger diese Menschen auf ihren Tastaturen herumhämmern, desto mehr muss am Ende auch produziert werden – was auch immer das genau sein mag. Mit Blick auf die Praxis zeigt sich, wie realitätsfern diese Sichtweise ist. Etwa, wenn ein Entwickler 1.300 Zeilen Spaghetti-Code eliminiert und sie durch 200 deutlich elegantere und effizientere Code-Zeilen ersetzt. Oder wenn Developer eine Woche damit verbringen, ein Projekt ordentlich aufzusetzen, um damit dem Team unzählige Arbeitsstunden zu sparen. Manager verspüren eben oft nur den Drang, etwas zu messen. Das ist in der Regel die für einen Task aufgewendete Zeit. Deswegen sind nicht wenige Dev-Teams dazu angehalten, die Zeit für jede einzelne Aufgabe wie etwa die Fehlerbehebung zu erfassen. Schlimmer wird es dann nur noch, wenn die erfassten Zeiten auch noch miteinander verglichen werden, um ein Maß für Produktivität und Erfolg zu bestimmen.    Die schlimmste Kennzahl überhaupt Eine minutiöse Zeiterfassung im Softwareentwicklungsumfeld ist aus verschiedenen Gründen kontraproduktiv: Geht es darum, Software zu schreiben, gleicht kein Fehler dem anderen. Unerfahrene Entwickler sind vielleicht in der Lage, schnell Lösungen für viele einfache Fehler zu finden. Erfahrenere Entwickler, die sich im Allgemeinen  anspruchsvolleren Problemen widmen, brauchen entsprechend länger. Und was, wenn einem Junior-Entwickler ein Fehler zugewiesen wird, den er nicht bewältigen kann? Die Zeit für einzelne Tasks erfassen zu müssen, könnte manche Devs dazu ermutigen, das System zu manipulieren. Das führt dann dazu, dass bestimmte Aufgaben bewusst gemieden werden, weil sie vermutlich länger dauern werden als vorab geschätzt – und damit „unproduktive Tätigkeiten“ sind. Auf der anderen Seite kann eine minutiöse Zeiterfassung im Dev-Umfeld auch dazu beitragen, dass manche Entwickler bestimmte Tasks meiden – getrieben von der Angst, diese nicht in der dafür vorgesehenen Zeit lösen zu können und einen schlechten Eindruck zu hinterlassen. Fakt ist: Niemand kann mit Sicherheit vorhersagen, wie lange es dauern wird, einen (nicht-trivialen) Fehler zu beheben oder eine neue Funktion zu implementieren. Anzunehmen, dass die Softwareentwicklung mit denselben Methoden gemanagt werden kann, wie zu Zeiten der industriellen Revolution, ist grundlegend falsch. Und Entwickler dazu zu zwingen, die Zeit für Aufgaben zu erfassen, die nicht pauschal in Stunden, Minuten und Sekunden gepresst werden können, bringt nur Nachteile. Glücklicherweise erkennen das auch manche Unternehmen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Entwickler gehören nicht ans Fließband!​ Alles ganz modern?
Everett Collection | shutterstock.com

Seitdem im Jahr 1946 der Großrechner ENIAC an die US-Armee ausgeliefert wurde, ringen Unternehmen und Organisationen damit, die Softwareentwicklung effektiv zu managen. Das Problem ist aus dem militärischen Bereich bekannt: Bei der Vorbereitung auf künftige Konflikte wird vor allem über die bereits ausgetragenen nachgedacht. Das kann dazu führen, dass Technologien und Strategien angewendet werden, die in der Vergangenheit zwar effektiv waren – mit Blick auf die Zukunft allerdings nicht dasselbe versprechen.

Früher wurden die Mitarbeiter in Fabriken dazu aufgefordert, die Stechuhr zu drücken – und von durch die Flure wandernden Managern kontrolliert. Das machte auch Sinn, wenn es beispielsweise darum ging, Verschlusskappen auf Rasierschaumdosen zu setzen. Die Leistung der Arbeiter war einfach zu erfassen, ihre Anzahl ein guter Erfolgsindikator: Je mehr Füße am Fließband standen, desto mehr wurde produziert. Leider wurde dieses Konzept auch für die Softwareentwicklung übernommen. Nur, dass Füße und Fließband dabei durch „Hintern“ und „Stühle“ ersetzt wurden.

Mehr Hintern, mehr Software?

Das ist umso erstaunlicher, weil die meisten nicht-technischen Führungskräfte gar nicht beurteilen können, was Developer eigentlich tun – geschweige denn, wie gut und ob das in angemessener Geschwindigkeit abläuft. Das macht es quasi unmöglich, die Produktivität einzelner Softwareentwickler zu messen. Die „Zauberformel“ vieler Manager scheint sich deshalb am Rasierschaumdosen-Beispiel zu orientieren: Je länger diese Menschen auf ihren Tastaturen herumhämmern, desto mehr muss am Ende auch produziert werden – was auch immer das genau sein mag.

Mit Blick auf die Praxis zeigt sich, wie realitätsfern diese Sichtweise ist. Etwa, wenn ein Entwickler 1.300 Zeilen Spaghetti-Code eliminiert und sie durch 200 deutlich elegantere und effizientere Code-Zeilen ersetzt. Oder wenn Developer eine Woche damit verbringen, ein Projekt ordentlich aufzusetzen, um damit dem Team unzählige Arbeitsstunden zu sparen. Manager verspüren eben oft nur den Drang, etwas zu messen. Das ist in der Regel die für einen Task aufgewendete Zeit. Deswegen sind nicht wenige Dev-Teams dazu angehalten, die Zeit für jede einzelne Aufgabe wie etwa die Fehlerbehebung zu erfassen. Schlimmer wird es dann nur noch, wenn die erfassten Zeiten auch noch miteinander verglichen werden, um ein Maß für Produktivität und Erfolg zu bestimmen.   

Die schlimmste Kennzahl überhaupt

Eine minutiöse Zeiterfassung im Softwareentwicklungsumfeld ist aus verschiedenen Gründen kontraproduktiv:

Geht es darum, Software zu schreiben, gleicht kein Fehler dem anderen. Unerfahrene Entwickler sind vielleicht in der Lage, schnell Lösungen für viele einfache Fehler zu finden. Erfahrenere Entwickler, die sich im Allgemeinen  anspruchsvolleren Problemen widmen, brauchen entsprechend länger. Und was, wenn einem Junior-Entwickler ein Fehler zugewiesen wird, den er nicht bewältigen kann?

Die Zeit für einzelne Tasks erfassen zu müssen, könnte manche Devs dazu ermutigen, das System zu manipulieren. Das führt dann dazu, dass bestimmte Aufgaben bewusst gemieden werden, weil sie vermutlich länger dauern werden als vorab geschätzt – und damit „unproduktive Tätigkeiten“ sind.

Auf der anderen Seite kann eine minutiöse Zeiterfassung im Dev-Umfeld auch dazu beitragen, dass manche Entwickler bestimmte Tasks meiden – getrieben von der Angst, diese nicht in der dafür vorgesehenen Zeit lösen zu können und einen schlechten Eindruck zu hinterlassen.

Fakt ist: Niemand kann mit Sicherheit vorhersagen, wie lange es dauern wird, einen (nicht-trivialen) Fehler zu beheben oder eine neue Funktion zu implementieren. Anzunehmen, dass die Softwareentwicklung mit denselben Methoden gemanagt werden kann, wie zu Zeiten der industriellen Revolution, ist grundlegend falsch. Und Entwickler dazu zu zwingen, die Zeit für Aufgaben zu erfassen, die nicht pauschal in Stunden, Minuten und Sekunden gepresst werden können, bringt nur Nachteile. Glücklicherweise erkennen das auch manche Unternehmen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Entwickler gehören nicht ans Fließband!​ Weiterlesen »

Trojaner erkennen: Sind Ihre Systeme unterwandert?​

Allgemein

Trojaner unterwandern IT-Systeme und können erheblichen Schaden anrichten. Diese 17 schadhaften Ausformungen sollten Sie kennen. Foto: Skilful – shutterstock.com Ähnlich wie das berühmte hölzerne Pferd aus der Ilias lassen Trojaner die User über ihre eigentlichen Absichten im Unklaren. Die bösartige Software muss vom Opfer – oder durch ein anderes Schadprogramm – aktiviert werden. Üblicherweise schleicht sich der Schadcode unter dem Deckmantel eines nützlichen Tools in das Zielsystem. Einmal eingeschleust, soll er: Benutzer- oder Systemdaten löschen, ändern, kopieren oder verschlüsseln; Daten empfangen und verschicken; Computer oder Netzwerke verlangsamen; Trojaner erkennen – 17 Typen Trojaner haben mit der Zeit immer komplexere Formen angenommen, zum Beispiel Backdoors, die Fernzugriff auf Rechner erlauben, oder Downloader, die andere Schadprogramme herunterladen und installieren können. Vor den folgenden Trojaner-Typen sollten Sie sich in Acht nehmen. 1. ArcBombs ArcBombs sind spezielle Archive, die sich beim Entpacken durch den User ungewöhnlich verhalten. Dabei frieren sie das infizierte System entweder ganz ein oder verlangsamen es erheblich. Um ihr Ziel zu erreichen, nutzen sie oft manipulierte Header oder beschädigte Daten, die eine Fehlfunktion beim Archivprogramm oder dem Entpackungs-Algorithmus auslösen. Sie können auch Objekte enthalten, die aus sich wiederholenden Datensätzen bestehen und in ein kleines Archiv gepackt werden. Beispielsweise komprimieren die Angreifer 10GB an Daten in ein 400KB großes Archiv. 2. Backdoors Backdoors erlauben es Kriminellen, einen Rechner aus der Ferne zu kontrollieren. Die Angreifer können so eine Vielzahl der Funktionen des infizierten Computers nutzen, um zum Beispiel Daten zu empfangen, zu senden, zu löschen oder auszuführen. Des Weiteren können sie Warnungen auf dem Bildschirm anzeigen oder den PC rebooten. Auch Third-Party-Code kann via Backdoor in das betroffene Gerät eingeschleust werden. Auf diese Weise lassen sich etwa Tastatureingaben aufzeichnen (wenn der Schadcode als Keylogger agiert) sowie Kamera und Mikrofon nach Belieben ein- und ausschalten. Manchmal werden Backdoors zur Verwaltung mehrerer infizierter Rechner (oder IoT-Devices) herangezogen, welche dann wiederum in ein Botnet eingebunden sind. Ein anderer Backdoor-Typus kann sich, ähnlich wie ein Wurm, über das gesamte Netzwerk ausbreiten – allerdings nicht automatisch, sondern nur auf Befehl der Angreifer. 3. Banking-Trojaner Banking-Trojaner sollen vertrauliche Daten wie Login-Informationen, Passwörter, SMS-Authentifizierungen oder Bankkarteninformationen abschöpfen. Der 2014 entdeckte Trojaner Emotet sollte ursprünglich Bankdaten stehlen. In späteren Versionen kamen Spam-Funktionen und Optionen zum Download von Malware hinzu. Der im Jahr 2016 programmierte Trickbot ist immer noch aktiv. Neben Bankdaten soll er auch Kryptowährungen und speziell BitCoin Wallets kompromittieren. Der Trojaner besteht aus diversen Modulen, die an eine Konfigurationsdatei gekoppelt sind. Die Module haben jeweils spezielle Aufgaben wie Anmeldeinformationen zu stehlen oder Daten zu verschlüsseln. Gehackte WLAN-Router werden dabei als Command-and-Control-Server verwendet. 4. Clicker Diese Trojaner dienen dem Zugriff auf Internetseiten und Server. Wenn Clicker im Hintergrund Befehle an den Browser senden, fällt das dem User in der Regel nicht auf. Diese Art von Trojaner kann Windows-Host-Files ersetzen, in denen Standardadressen abgelegt sind. Konkret werden sie verwendet, um: Webseiten-Traffic zu erhöhen und mehr Werbeeinnahmen zu generieren, DDoS-Angriffe einzuleiten sowie mögliche Opfer auf Seiten weiterzuleiten, die Malware enthalten. 5. DDoS-Trojaner Mit DDoS-Trojanern soll eine Denial-of-Service-Attacke angestoßen werden, die auf die IP-Adresse des Opfers abzielt. Während einer solchen Attacke wird der Zielrechner mit einer Anfragenflut überschwemmt und so seine Funktionalität gestört. Um eine erfolgreiche DDoS-Attacke auszuführen, müssen Cyberkriminelle eine Vielzahl von Geräten mit dem Trojaner infizieren. Das wird häufig mit Hilfe von Spam oder Phishing bewerkstelligt. Sobald dazu ein Botnet bereitsteht, können die Opfer simultan ins Visier genommen werden. 6. Downloader Downloader laden Schadsoftware, inklusive anderer Trojaner, herunter und führen sie aus. Informationen über den Standort und Namen der herunterzuladenden Software wird entweder im Trojaner selbst gespeichert oder aber von den Servern bezogen, über die der Angreifer operiert. Downloader werden oft genutzt, um einen Fuß in die Tür zu bekommen. Ahnungslose User werden dazu oft auf Websites gelotst, die Exploits enthalten. Diese schleusen wiederum die Downloader ein, die weiterem Schadcode Tür und Tor öffnen. 7. Dropper Diese Trojaner installieren Malware heimlich. Die Schadsoftware ist dazu tief im Code des Droppers versteckt. Das soll Antivirusprogramme in die Irre führen, da diese oft nicht den gesamten Dropper analysieren können. Diese Art von Trojaner wird normalerweise im temporären Windows-Verzeichnis gespeichert und ohne Benachrichtigung des Opfers aktiviert. 8. FakeAV-Trojaner FakeAV imitiert Antivirus-Tools und zeigt den Benutzern falsche Sicherheitswarnungen an. Um die vermeintliche Sicherheitslücke zu beheben, muss ein Geldbetrag bezahlt werden. Unerfahrene Opfer werden zudem dazu verleitet, Vollversionen der FakeAVs herunterzuladen und so die nicht-existente Bedrohung “abzuwehren”. 9. Game Thieves Ähnlich wie Banktrojaner wollen Game Thieves vertrauliche Informationen abgreifen. Dabei geht es ihnen weniger um Finanzinformationen als um Online-Gaming-Accounts. Hat der Trojaner die gewünschten Daten, leitet er sie mittels E-Mail, FTP oder anderer Transfermethoden an die Hacker weiter. 10. Instant-Messaging-Trojaner IM-Trojaner stehlen Login-Daten zu Instant-Messaging-Applikationen wie Skype oder WhatsApp. Wie bei Game Thieves werden die Infos via E-Mail, FTP oder Webrequests exportiert. 11. Loader Bei einem Loader handelt es sich um ein kleines Stück Software, das zur Installation eines vollwertigen Virusprogramms benötigt wird. Loader können ein System auf verschiedene Weisen infiltrieren, etwa wenn das Opfer eine infizierte Bilddatei betrachtet. Während dieses Vorgangs verbindet sich der Trojaner mit einem Server, was den Download aller verbleibenden Viruskomponenten initiiert. 12. Mailfinder Mailfinder stehlen E-Mail-Adressen, die Hackern als Datenbasis für Spam- und Phishing-Kampagnen dienen. 13. Notifier Diese Art von Trojaner sendet Informationen über den Status infizierter Geräte an die Angreifer. Die Daten können beispielsweise Informationen über offene Ports, installierte Software oder ausgeführte Applikationen enthalten. Notifier sind oft Teil komplexer Angriffe mit Mehrkomponenten-Malware. Die Voraussetzung für “Erfolg” ist, dass die Angreifer alle Teile ihrer Schadsoftware erfolgreich installieren. 14. Proxies Proxies erlauben kriminellen Hackern, unbemerkt über einen infizierten Rechner Zugriff auf eine Website zu erhalten. Oft werden über die IP-Adresse des Opferrechners Spam-Mails verschickt. 15. Passwordstealing-Ware Passwordstealing-Ware ist speziell darauf konzipiert, Passwörter zu stehlen. Diese Trojaner können gezielt nach Login-Informationen suchen, die User in Dateien oder Webbrowsern abgespeichert haben. Manche Varianten sind sogar dazu in der Lage, Softwarelizenzen oder Systempasswörter abzugreifen. 16. Ransom-Trojaner Erpressungstrojaner können Daten verschlüsseln, den Zugriff auf einen Rechner blockieren und diesen so unbrauchbar machen. Die Angreifer bieten ihrem Opfer an, die Verschlüsselung gegen die Zahlung eines Lösegeldes wieder rückgängig zu machen. Solche Trojaner erfreuen sich weiterhin großer Beliebtheit – kein Wunder, schließlich erbeuten Cyberkriminelle auf diesem Weg regelmäßig Millionenbeträge. 17. SMS-Trojaner Diese Programme senden SMS-Nachrichten an kostenpflichtige Rufnummern. Manchmal kommen SMS-Trojaner auch zum Einsatz, um Zwei-Faktor-Authentifizierungen auszuhebeln. Trojaner finden – Symptome & Schutzmaßnahmen Alle Trojaner bestehen aus einem Server und einem Client. Der Client verbindet sich mit dem Server mit Hilfe eines TCP/IP-Protokolls. Außerdem kann der Client unter Umständen über ein User Interface sowie einige Input-Felder oder Buttons zur Fernverwaltung verfügen. Der Serverteil wird dann auf dem Zielrechner installiert, führt die Befehle des Clients aus und transferiert verschiedene Daten. Ist der Trojaner eingeschleust, wartet der Server auf Befehle von einem speziellen Port, den der Angreifer anpingt. Wenn der Serverteil erfolgreich installiert wurde, antwortet er mit der IP-Adresse des Computers sowie dessen Netzwerknamen. Misstrauisch sollten Sie werden, wenn Sie folgende Symptome an Ihrem Rechner feststellen: neue Applikation erscheinen im Start-Menü falsche Sicherheitswarnungen “informieren” über Viren, Porno-Downloads, etc. unerwartete Screenshots Sound- oder Fotodateien werden “ungefragt” abgespielt plötzliche Boot-Vorgänge Die meisten Trojaner bedürfen einer Form der User-Interaktion, beispielsweise auf einen E-Mail-Anhang zu klicken oder Macros in Office-Dokumenten zuzulassen. Der beste Schutz ist also, das eigene Klickverhalten zu hinterfragen. Darüber hinaus sollte Ihre Software immer auf dem neuesten Stand sein, insbesondere Systemsoftware, Antivirusprogramme und Webbrowser. Oft versuchen Cyberkriminelle, Sicherheitslücken in diesen Programmen auszunutzen. Verwenden Sie außerdem Firewalls, um eine sichere Internetverbindung aufbauen zu können. Viele Firewalls sind zudem in der Lage, bösartigen Traffic auszusortieren. Angesichts der Vielzahl von Trojaner-Typen kann es keine Patentlösung in Sachen Sicherheit geben. Im ersten Schritt sollten Sie temporäre Ordner bereinigen, bösartige Einträge in der Registry aufspüren und diese im abgesicherten Modus manuell entfernen. Die besten Antivirus-Tools können Trojaner automatisch aufstöbern. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Trojaner erkennen: Sind Ihre Systeme unterwandert?​ Trojaner unterwandern IT-Systeme und können erheblichen Schaden anrichten. Diese 17 schadhaften Ausformungen sollten Sie kennen.
Foto: Skilful – shutterstock.com

Ähnlich wie das berühmte hölzerne Pferd aus der Ilias lassen Trojaner die User über ihre eigentlichen Absichten im Unklaren. Die bösartige Software muss vom Opfer – oder durch ein anderes Schadprogramm – aktiviert werden. Üblicherweise schleicht sich der Schadcode unter dem Deckmantel eines nützlichen Tools in das Zielsystem. Einmal eingeschleust, soll er:

Benutzer- oder Systemdaten löschen, ändern, kopieren oder verschlüsseln;

Daten empfangen und verschicken;

Computer oder Netzwerke verlangsamen;

Trojaner erkennen – 17 Typen

Trojaner haben mit der Zeit immer komplexere Formen angenommen, zum Beispiel Backdoors, die Fernzugriff auf Rechner erlauben, oder Downloader, die andere Schadprogramme herunterladen und installieren können. Vor den folgenden Trojaner-Typen sollten Sie sich in Acht nehmen.

1. ArcBombs

ArcBombs sind spezielle Archive, die sich beim Entpacken durch den User ungewöhnlich verhalten. Dabei frieren sie das infizierte System entweder ganz ein oder verlangsamen es erheblich. Um ihr Ziel zu erreichen, nutzen sie oft manipulierte Header oder beschädigte Daten, die eine Fehlfunktion beim Archivprogramm oder dem Entpackungs-Algorithmus auslösen. Sie können auch Objekte enthalten, die aus sich wiederholenden Datensätzen bestehen und in ein kleines Archiv gepackt werden. Beispielsweise komprimieren die Angreifer 10GB an Daten in ein 400KB großes Archiv.

2. Backdoors

Backdoors erlauben es Kriminellen, einen Rechner aus der Ferne zu kontrollieren. Die Angreifer können so eine Vielzahl der Funktionen des infizierten Computers nutzen, um zum Beispiel Daten zu empfangen, zu senden, zu löschen oder auszuführen. Des Weiteren können sie Warnungen auf dem Bildschirm anzeigen oder den PC rebooten. Auch Third-Party-Code kann via Backdoor in das betroffene Gerät eingeschleust werden. Auf diese Weise lassen sich etwa Tastatureingaben aufzeichnen (wenn der Schadcode als Keylogger agiert) sowie Kamera und Mikrofon nach Belieben ein- und ausschalten. Manchmal werden Backdoors zur Verwaltung mehrerer infizierter Rechner (oder IoT-Devices) herangezogen, welche dann wiederum in ein Botnet eingebunden sind.

Ein anderer Backdoor-Typus kann sich, ähnlich wie ein Wurm, über das gesamte Netzwerk ausbreiten – allerdings nicht automatisch, sondern nur auf Befehl der Angreifer.

3. Banking-Trojaner

Banking-Trojaner sollen vertrauliche Daten wie Login-Informationen, Passwörter, SMS-Authentifizierungen oder Bankkarteninformationen abschöpfen.

Der 2014 entdeckte Trojaner Emotet sollte ursprünglich Bankdaten stehlen. In späteren Versionen kamen Spam-Funktionen und Optionen zum Download von Malware hinzu.

Der im Jahr 2016 programmierte Trickbot ist immer noch aktiv. Neben Bankdaten soll er auch Kryptowährungen und speziell BitCoin Wallets kompromittieren. Der Trojaner besteht aus diversen Modulen, die an eine Konfigurationsdatei gekoppelt sind. Die Module haben jeweils spezielle Aufgaben wie Anmeldeinformationen zu stehlen oder Daten zu verschlüsseln. Gehackte WLAN-Router werden dabei als Command-and-Control-Server verwendet.

4. Clicker

Diese Trojaner dienen dem Zugriff auf Internetseiten und Server. Wenn Clicker im Hintergrund Befehle an den Browser senden, fällt das dem User in der Regel nicht auf. Diese Art von Trojaner kann Windows-Host-Files ersetzen, in denen Standardadressen abgelegt sind. Konkret werden sie verwendet, um:

Webseiten-Traffic zu erhöhen und mehr Werbeeinnahmen zu generieren,

DDoS-Angriffe einzuleiten sowie

mögliche Opfer auf Seiten weiterzuleiten, die Malware enthalten.

5. DDoS-Trojaner

Mit DDoS-Trojanern soll eine Denial-of-Service-Attacke angestoßen werden, die auf die IP-Adresse des Opfers abzielt. Während einer solchen Attacke wird der Zielrechner mit einer Anfragenflut überschwemmt und so seine Funktionalität gestört. Um eine erfolgreiche DDoS-Attacke auszuführen, müssen Cyberkriminelle eine Vielzahl von Geräten mit dem Trojaner infizieren. Das wird häufig mit Hilfe von Spam oder Phishing bewerkstelligt. Sobald dazu ein Botnet bereitsteht, können die Opfer simultan ins Visier genommen werden.

6. Downloader

Downloader laden Schadsoftware, inklusive anderer Trojaner, herunter und führen sie aus. Informationen über den Standort und Namen der herunterzuladenden Software wird entweder im Trojaner selbst gespeichert oder aber von den Servern bezogen, über die der Angreifer operiert. Downloader werden oft genutzt, um einen Fuß in die Tür zu bekommen. Ahnungslose User werden dazu oft auf Websites gelotst, die Exploits enthalten. Diese schleusen wiederum die Downloader ein, die weiterem Schadcode Tür und Tor öffnen.

7. Dropper

Diese Trojaner installieren Malware heimlich. Die Schadsoftware ist dazu tief im Code des Droppers versteckt. Das soll Antivirusprogramme in die Irre führen, da diese oft nicht den gesamten Dropper analysieren können. Diese Art von Trojaner wird normalerweise im temporären Windows-Verzeichnis gespeichert und ohne Benachrichtigung des Opfers aktiviert.

8. FakeAV-Trojaner

FakeAV imitiert Antivirus-Tools und zeigt den Benutzern falsche Sicherheitswarnungen an. Um die vermeintliche Sicherheitslücke zu beheben, muss ein Geldbetrag bezahlt werden. Unerfahrene Opfer werden zudem dazu verleitet, Vollversionen der FakeAVs herunterzuladen und so die nicht-existente Bedrohung “abzuwehren”.

9. Game Thieves

Ähnlich wie Banktrojaner wollen Game Thieves vertrauliche Informationen abgreifen. Dabei geht es ihnen weniger um Finanzinformationen als um Online-Gaming-Accounts. Hat der Trojaner die gewünschten Daten, leitet er sie mittels E-Mail, FTP oder anderer Transfermethoden an die Hacker weiter.

10. Instant-Messaging-Trojaner

IM-Trojaner stehlen Login-Daten zu Instant-Messaging-Applikationen wie Skype oder WhatsApp. Wie bei Game Thieves werden die Infos via E-Mail, FTP oder Webrequests exportiert.

11. Loader

Bei einem Loader handelt es sich um ein kleines Stück Software, das zur Installation eines vollwertigen Virusprogramms benötigt wird. Loader können ein System auf verschiedene Weisen infiltrieren, etwa wenn das Opfer eine infizierte Bilddatei betrachtet. Während dieses Vorgangs verbindet sich der Trojaner mit einem Server, was den Download aller verbleibenden Viruskomponenten initiiert.

12. Mailfinder

Mailfinder stehlen E-Mail-Adressen, die Hackern als Datenbasis für Spam- und Phishing-Kampagnen dienen.

13. Notifier

Diese Art von Trojaner sendet Informationen über den Status infizierter Geräte an die Angreifer. Die Daten können beispielsweise Informationen über offene Ports, installierte Software oder ausgeführte Applikationen enthalten. Notifier sind oft Teil komplexer Angriffe mit Mehrkomponenten-Malware. Die Voraussetzung für “Erfolg” ist, dass die Angreifer alle Teile ihrer Schadsoftware erfolgreich installieren.

14. Proxies

Proxies erlauben kriminellen Hackern, unbemerkt über einen infizierten Rechner Zugriff auf eine Website zu erhalten. Oft werden über die IP-Adresse des Opferrechners Spam-Mails verschickt.

15. Passwordstealing-Ware

Passwordstealing-Ware ist speziell darauf konzipiert, Passwörter zu stehlen. Diese Trojaner können gezielt nach Login-Informationen suchen, die User in Dateien oder Webbrowsern abgespeichert haben. Manche Varianten sind sogar dazu in der Lage, Softwarelizenzen oder Systempasswörter abzugreifen.

16. Ransom-Trojaner

Erpressungstrojaner können Daten verschlüsseln, den Zugriff auf einen Rechner blockieren und diesen so unbrauchbar machen. Die Angreifer bieten ihrem Opfer an, die Verschlüsselung gegen die Zahlung eines Lösegeldes wieder rückgängig zu machen. Solche Trojaner erfreuen sich weiterhin großer Beliebtheit – kein Wunder, schließlich erbeuten Cyberkriminelle auf diesem Weg regelmäßig Millionenbeträge.

17. SMS-Trojaner

Diese Programme senden SMS-Nachrichten an kostenpflichtige Rufnummern. Manchmal kommen SMS-Trojaner auch zum Einsatz, um Zwei-Faktor-Authentifizierungen auszuhebeln.

Trojaner finden – Symptome & Schutzmaßnahmen

Alle Trojaner bestehen aus einem Server und einem Client. Der Client verbindet sich mit dem Server mit Hilfe eines TCP/IP-Protokolls. Außerdem kann der Client unter Umständen über ein User Interface sowie einige Input-Felder oder Buttons zur Fernverwaltung verfügen.

Der Serverteil wird dann auf dem Zielrechner installiert, führt die Befehle des Clients aus und transferiert verschiedene Daten. Ist der Trojaner eingeschleust, wartet der Server auf Befehle von einem speziellen Port, den der Angreifer anpingt. Wenn der Serverteil erfolgreich installiert wurde, antwortet er mit der IP-Adresse des Computers sowie dessen Netzwerknamen.

Misstrauisch sollten Sie werden, wenn Sie folgende Symptome an Ihrem Rechner feststellen:

neue Applikation erscheinen im Start-Menü

falsche Sicherheitswarnungen “informieren” über Viren, Porno-Downloads, etc.

unerwartete Screenshots

Sound- oder Fotodateien werden “ungefragt” abgespielt

plötzliche Boot-Vorgänge

Die meisten Trojaner bedürfen einer Form der User-Interaktion, beispielsweise auf einen E-Mail-Anhang zu klicken oder Macros in Office-Dokumenten zuzulassen. Der beste Schutz ist also, das eigene Klickverhalten zu hinterfragen.

Darüber hinaus sollte Ihre Software immer auf dem neuesten Stand sein, insbesondere Systemsoftware, Antivirusprogramme und Webbrowser. Oft versuchen Cyberkriminelle, Sicherheitslücken in diesen Programmen auszunutzen. Verwenden Sie außerdem Firewalls, um eine sichere Internetverbindung aufbauen zu können. Viele Firewalls sind zudem in der Lage, bösartigen Traffic auszusortieren.

Angesichts der Vielzahl von Trojaner-Typen kann es keine Patentlösung in Sachen Sicherheit geben. Im ersten Schritt sollten Sie temporäre Ordner bereinigen, bösartige Einträge in der Registry aufspüren und diese im abgesicherten Modus manuell entfernen. Die besten Antivirus-Tools können Trojaner automatisch aufstöbern.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Trojaner erkennen: Sind Ihre Systeme unterwandert?​ Weiterlesen »

8 Maßnahmen gegen lahme Browser unter Windows​

Allgemein

Wenn das Browsing-Erlebnis zu wünschen übrig lässt, helfen diese Tipps.Antonio Guillem | shutterstock.com In einer Welt, in der Websites immer umfangreicher zu werden scheinen, wird die Browser-Performance immer wichtiger. Das sorgt nicht nur für verkürzte Ladezeiten und damit ein besseres Surf-Erlebnis, sondern ist auch der Leistung und gegebenenfalls der Akkulaufzeit zuträglich. Die folgenden acht Maßnahmen können Sie dabei unterstützen, das Maximum an Leistung aus Ihrem Browser unter Windows herauszuholen. Dabei fokussieren wir uns in erster Linie auf Chrome, Edge und Firefox – die Tipps sind jedoch auch auf alle anderen Browser unter Windows anwendbar. 1. Extensions loswerden Wenn Ihr Browser unter Windows aus unerklärlichen Gründen erlahmt, sollten Sie im ersten Schritt (nach dem obligatorischen Neustart) ihre Extensions unter die Lupe nehmen. Installierte Add-Ons zu entfernen, kann die Last für den Browser erheblich reduzieren – schließlich laufen die Erweiterungen unter Umständen kontinuierlich im Hintergrund oder führen auf Webseiten Code aus. Rufen Sie dazu die Liste Ihrer Erweiterungen über das Menü Ihres Browsers auf. Hier können Sie diese deaktivieren oder entfernen. Dabei empfiehlt es sich, zunächst testweise einige Add-Ons zu deaktivieren. Falls sich der Browser Ihrer Wahl anschließend nicht schneller anfühlt, können Sie die Erweiterungen direkt wieder aktivieren – und die nächste Maßnahme versuchen.   2. Tabs “einschläfern” So gut wie alle modernen Webbrowser – einschließlich Chrome, Edge und Firefox – bieten die Möglichkeit, einzelne Tabs in den Ruhezustand zu versetzen, um Systemressourcen zu sparen. Auch das kann das Browser-Erlebnis beschleunigen. Allerdings können inaktive Tabs auch das Gegenteil bewirken. Nämlich, wenn Tabs im Schlafmodus wieder aktiviert und dann neu geladen werden. Insbesondere, wenn Sie einen leistungsstarken Rechner mit viel RAM und einer schnellen CPU haben, sollten Sie dieses Feature deaktivieren. Darüber hinaus ist es auch möglich, nur bestimmte Websites, respektive Browser-Tabs nicht mehr in den Ruhezustand zu versetzen. So versetzen Sie Tabs in den Sleep-Modus: In Google Chrome rufen Sie in den Einstellungen den Bereich „Leistung“ auf. Unter dem Punkt „Speicher“ finden Sie den Schieberegler für den „Arbeitsspeicher-Sparmodus“. Bei Microsofts Edge finden Sie in den Einstellungen den Menüpunkt „System und Leistung“. Wenn Sie nach unten scrollen, sehen Sie die Option „Ressourcen sparen mit Tabs im Ruhezustand“ inklusive Schieberegler. Im Fall von Mozilla Firefox ist diese Funktion immer aktiviert. Wie Sie sie deaktivieren, lesen Sie hier. 3. Seiten vorab laden Website Preloading gehört heute ebenfalls zum Standardumfang moderner Webbrowser. Dabei werden die Seiten im Hintergrund geladen, wenn der Browser davon „ausgeht“, dass Sie diese besuchen werden. Da der Browser über diese Funktion möglicherweise Links aufruft, die Sie nicht angeklickt hätten, hat diese Funktion unter Umständen Auswirkungen auf den Datenschutz. Wenn Ihr Ziel jedoch maximale Geschwindigkeit ist, sollten Sie diese Option aktivieren. So geht‘s: Bei Google Chrome rufen Sie die Einstellungen und anschließend den Bereich „Leistung“ auf. Scrollen Sie nach unten zur Option „Seiten vorab laden“. Hier finden Sie den Punkt „Geschwindigkeit“ und dort die verfügbaren Optionen, um Seiten vorab zu laden. Bei Microsoft Edge navigieren Sie in den Einstellungen zum Bereich „Cookies und Website-Berechtigungen“. Unter „Verwalten und Löschen von Cookies und Websitedaten“ finden Sie den Schieberegler, um Seiten vorab zu laden. Bei Mozilla Firefox ist auch Website Preloading standardmäßig aktiviert. Falls Sie sich die Mühe machen wollen, das zu ändern, lesen Sie hier, wie das geht. 4. Task-Manager checken Sämtliche modernen Browser auf Chromium-Basis (und auch Firefox) bieten inzwischen einen integrierten Task-Manager, der Aufschluss darüber gibt, wie viel RAM, beziehungsweise CPU-Leistung einzelne Webseiten, Erweiterungen und andere Komponenten beanspruchen. Um diesen aufzurufen, genügt ein Rechtsklick auf eine leere Stelle in der Registerkartenleiste. Möglicherweise reicht das bereits, um die Ursache für das Erlahmungs-Übel zu Tage zu fördern. Falls Sie Firefox nutzen, können Sie auf eine ganz ähnliche Funktion zugreifen. Dazu geben Sie about:processes in die Adressleiste ein – oder nutzen die Tastenkombination Shift+Esc. 5. Cache leeren Ihr Webbrowser legt die von Ihnen besuchten Seiten, deren Informationen und Cookies in seinem Cache ab. Diesen regelmäßig zu leeren, kann gegen einen lahmenden Browser helfen – zumindest ist es einen Versuch wert. Den Browser-Cache zu häufig zu löschen, kann jedoch auch kontraproduktiv sein. Schließlich dient er grundsätzlich dazu, Ladezeiten zu beschleunigen. Um den Cache Ihres Webbrowsers zu leeren, rufen Sie dessen Einstellungen auf. Oder Sie nutzen die Tastenkombination  Strg+Shift+Entf. 6. Malware-Scan anstoßen Eine weitere Basismaßnahme, wenn Ihr Rechner plötzlich underperformt, ist ein Malware-Scan. Das erledigen Sie mit dem Security-Tool Ihrer Wahl. Im Fall von Windows ist die naheliegendste Option Microsoft Defender. Es kann sich jedoch lohnen, ein weiteres Tool hinzuziehen, um auf Nummer Sicher zu gehen. Eine gute, kostenlose und populäre Lösung bietet beispielsweise Malwarebytes. 7. Ad-Blocker wechseln Auch Ad-Blocker sind mit Blick auf die Browser-Performance ein zweischneidiges Schwert. Der Beschleunigungseffekt liegt auf der Hand: Werbeblocker reduzieren die Datenlast, indem sie Werbemittel auf Webseiten blockieren. Schneller ladende Seiten sind das Ergebnis – im Regelfall. Denn Ad-Blocker können auch Code auf den von Ihnen besuchten Seiten ausführen, was den Speicherverbrauch erhöht und die Ladezeiten verlängert. Falls Letzteres der Fall ist, könnte ein Wechsel zu einem anderen Werbeblocker das Problem lösen. 8. Browser-Profil auffrischen Wenn ein Device nicht mehr funktioniert, wie es soll, kann es helfen, dieses auf die Werkseinstellungen zurückzusetzen. Das lässt sich auch auf Browser übertragen. Denn die verfügen heute in vielen Fällen über integrierte „Neustart“-Tools, die das Nutzerprofil sowie sämtliche Einstellungen, Erweiterungen und zwischengespeicherte Dateien löschen. Wenn Sie wollen, dass Ihr Browser wie am ersten Tag performt, ist diese Option einen Versuch wert. So funktioniert’s: In Google Chrome finden Sie unter den Einstellungen den Bereich „Einstellungen zurücksetzen“. Microsoft Edge hält diese Funktion ebenfalls in den Einstellungen unter „Einstellungen auf Standardwerte zurücksetzen“ bereit. Mozilla Firefox bietet im Menü unter Hilfe die Option „Fehlerbehebungsmodus“. Im Dialogfeld das sich anschließend öffnet, wählen Sie „Firefox aktualisieren“. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

8 Maßnahmen gegen lahme Browser unter Windows​ Wenn das Browsing-Erlebnis zu wünschen übrig lässt, helfen diese Tipps.Antonio Guillem | shutterstock.com

In einer Welt, in der Websites immer umfangreicher zu werden scheinen, wird die Browser-Performance immer wichtiger. Das sorgt nicht nur für verkürzte Ladezeiten und damit ein besseres Surf-Erlebnis, sondern ist auch der Leistung und gegebenenfalls der Akkulaufzeit zuträglich.

Die folgenden acht Maßnahmen können Sie dabei unterstützen, das Maximum an Leistung aus Ihrem Browser unter Windows herauszuholen. Dabei fokussieren wir uns in erster Linie auf Chrome, Edge und Firefox – die Tipps sind jedoch auch auf alle anderen Browser unter Windows anwendbar.

1. Extensions loswerden

Wenn Ihr Browser unter Windows aus unerklärlichen Gründen erlahmt, sollten Sie im ersten Schritt (nach dem obligatorischen Neustart) ihre Extensions unter die Lupe nehmen. Installierte Add-Ons zu entfernen, kann die Last für den Browser erheblich reduzieren – schließlich laufen die Erweiterungen unter Umständen kontinuierlich im Hintergrund oder führen auf Webseiten Code aus.

Rufen Sie dazu die Liste Ihrer Erweiterungen über das Menü Ihres Browsers auf. Hier können Sie diese deaktivieren oder entfernen. Dabei empfiehlt es sich, zunächst testweise einige Add-Ons zu deaktivieren. Falls sich der Browser Ihrer Wahl anschließend nicht schneller anfühlt, können Sie die Erweiterungen direkt wieder aktivieren – und die nächste Maßnahme versuchen.  

2. Tabs “einschläfern”

So gut wie alle modernen Webbrowser – einschließlich Chrome, Edge und Firefox – bieten die Möglichkeit, einzelne Tabs in den Ruhezustand zu versetzen, um Systemressourcen zu sparen. Auch das kann das Browser-Erlebnis beschleunigen. Allerdings können inaktive Tabs auch das Gegenteil bewirken. Nämlich, wenn Tabs im Schlafmodus wieder aktiviert und dann neu geladen werden. Insbesondere, wenn Sie einen leistungsstarken Rechner mit viel RAM und einer schnellen CPU haben, sollten Sie dieses Feature deaktivieren. Darüber hinaus ist es auch möglich, nur bestimmte Websites, respektive Browser-Tabs nicht mehr in den Ruhezustand zu versetzen.

So versetzen Sie Tabs in den Sleep-Modus:

In Google Chrome rufen Sie in den Einstellungen den Bereich „Leistung“ auf. Unter dem Punkt „Speicher“ finden Sie den Schieberegler für den „Arbeitsspeicher-Sparmodus“.

Bei Microsofts Edge finden Sie in den Einstellungen den Menüpunkt „System und Leistung“. Wenn Sie nach unten scrollen, sehen Sie die Option „Ressourcen sparen mit Tabs im Ruhezustand“ inklusive Schieberegler.

Im Fall von Mozilla Firefox ist diese Funktion immer aktiviert. Wie Sie sie deaktivieren, lesen Sie hier.

3. Seiten vorab laden

Website Preloading gehört heute ebenfalls zum Standardumfang moderner Webbrowser. Dabei werden die Seiten im Hintergrund geladen, wenn der Browser davon „ausgeht“, dass Sie diese besuchen werden. Da der Browser über diese Funktion möglicherweise Links aufruft, die Sie nicht angeklickt hätten, hat diese Funktion unter Umständen Auswirkungen auf den Datenschutz. Wenn Ihr Ziel jedoch maximale Geschwindigkeit ist, sollten Sie diese Option aktivieren.

So geht‘s:

Bei Google Chrome rufen Sie die Einstellungen und anschließend den Bereich „Leistung“ auf. Scrollen Sie nach unten zur Option „Seiten vorab laden“. Hier finden Sie den Punkt „Geschwindigkeit“ und dort die verfügbaren Optionen, um Seiten vorab zu laden.

Bei Microsoft Edge navigieren Sie in den Einstellungen zum Bereich „Cookies und Website-Berechtigungen“. Unter „Verwalten und Löschen von Cookies und Websitedaten“ finden Sie den Schieberegler, um Seiten vorab zu laden.

Bei Mozilla Firefox ist auch Website Preloading standardmäßig aktiviert. Falls Sie sich die Mühe machen wollen, das zu ändern, lesen Sie hier, wie das geht.

4. Task-Manager checken

Sämtliche modernen Browser auf Chromium-Basis (und auch Firefox) bieten inzwischen einen integrierten Task-Manager, der Aufschluss darüber gibt, wie viel RAM, beziehungsweise CPU-Leistung einzelne Webseiten, Erweiterungen und andere Komponenten beanspruchen. Um diesen aufzurufen, genügt ein Rechtsklick auf eine leere Stelle in der Registerkartenleiste. Möglicherweise reicht das bereits, um die Ursache für das Erlahmungs-Übel zu Tage zu fördern.

Falls Sie Firefox nutzen, können Sie auf eine ganz ähnliche Funktion zugreifen. Dazu geben Sie about:processes in die Adressleiste ein – oder nutzen die Tastenkombination Shift+Esc.

5. Cache leeren

Ihr Webbrowser legt die von Ihnen besuchten Seiten, deren Informationen und Cookies in seinem Cache ab. Diesen regelmäßig zu leeren, kann gegen einen lahmenden Browser helfen – zumindest ist es einen Versuch wert.

Den Browser-Cache zu häufig zu löschen, kann jedoch auch kontraproduktiv sein. Schließlich dient er grundsätzlich dazu, Ladezeiten zu beschleunigen.

Um den Cache Ihres Webbrowsers zu leeren, rufen Sie dessen Einstellungen auf. Oder Sie nutzen die Tastenkombination  Strg+Shift+Entf.

6. Malware-Scan anstoßen

Eine weitere Basismaßnahme, wenn Ihr Rechner plötzlich underperformt, ist ein Malware-Scan. Das erledigen Sie mit dem Security-Tool Ihrer Wahl. Im Fall von Windows ist die naheliegendste Option Microsoft Defender.

Es kann sich jedoch lohnen, ein weiteres Tool hinzuziehen, um auf Nummer Sicher zu gehen. Eine gute, kostenlose und populäre Lösung bietet beispielsweise Malwarebytes.

7. Ad-Blocker wechseln

Auch Ad-Blocker sind mit Blick auf die Browser-Performance ein zweischneidiges Schwert.

Der Beschleunigungseffekt liegt auf der Hand: Werbeblocker reduzieren die Datenlast, indem sie Werbemittel auf Webseiten blockieren. Schneller ladende Seiten sind das Ergebnis – im Regelfall. Denn Ad-Blocker können auch Code auf den von Ihnen besuchten Seiten ausführen, was den Speicherverbrauch erhöht und die Ladezeiten verlängert.

Falls Letzteres der Fall ist, könnte ein Wechsel zu einem anderen Werbeblocker das Problem lösen.

8. Browser-Profil auffrischen

Wenn ein Device nicht mehr funktioniert, wie es soll, kann es helfen, dieses auf die Werkseinstellungen zurückzusetzen. Das lässt sich auch auf Browser übertragen.

Denn die verfügen heute in vielen Fällen über integrierte „Neustart“-Tools, die das Nutzerprofil sowie sämtliche Einstellungen, Erweiterungen und zwischengespeicherte Dateien löschen. Wenn Sie wollen, dass Ihr Browser wie am ersten Tag performt, ist diese Option einen Versuch wert.

So funktioniert’s:

In Google Chrome finden Sie unter den Einstellungen den Bereich „Einstellungen zurücksetzen“.

Microsoft Edge hält diese Funktion ebenfalls in den Einstellungen unter „Einstellungen auf Standardwerte zurücksetzen“ bereit.

Mozilla Firefox bietet im Menü unter Hilfe die Option „Fehlerbehebungsmodus“. Im Dialogfeld das sich anschließend öffnet, wählen Sie „Firefox aktualisieren“.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

8 Maßnahmen gegen lahme Browser unter Windows​ Weiterlesen »

Diese unbekannten Tipps für Windows 11 müssen Sie kennen​

Allgemein

Rokas Tenys/Shutterstock.com Setzen Sie auf Windows 11, können Sie mit den Tipps aus diesem Artikel Ihren PC oder Ihr Notebook sicherer und schneller nutzen. Außerdem können Sie zusätzliche Funktionen einsetzen, die Sie bisher vielleicht noch nicht kannten. Auch bei Abstürzen helfen die Tipps. Tipp 1: Windows 11 ohne Microsoft-Konto nutzen Microsoft macht es Nutzern immer schwerer, das Betriebssystem ohne Microsoft-Konto zu nutzen. Das gilt auch bei der neuen Version 24H2. Wir haben uns bereits in einem eigenen Artikel mit dem Thema auseinandergesetzt. Bei Windows 11 ist es möglich, mit der Tastenkombination UMSCHALT+F10 eine Befehlszeile zu starten. Durch Eingabe von “oobebypassnro” umgeht Windows 11 den Online-Zwang. Nach der Eingabe des Befehls startet die Installation neu. Funktioniert das nicht, testen Sie das Tool Rufus, um einen Installationsdatenträger zu erstellen, der lokale Benutzerkonten zulässt. Ein weiterer Trick, der allerdings nicht mit allen Installationsdateien funktioniert, ist das Angeben einer nicht existierenden E-Mail-Adresse. Windows 11 Pro und Enterprise sind bei der Verwendung lokaler Konten etwas flexibler als Windows 11 Home. Hier erscheint während der Installation die Meldung “Für Arbeit oder Schule/Uni einrichten“. Danach können Sie die Option “Anmeldeoptionen” und schließlich “Stattdessen der Domäne beitreten” auswählen. Im Anschluss können Sie in Windows 11 Pro/Enterprise ein lokales Benutzerkonto nutzen, eine Windows-Domäne/Active Directory ist dabei nicht notwendig. Tipp 2: Dev-Drive kann den Zugriff auf Datenträger beschleunigen Wer etwas erfahrener ist, und den Zugriff auf Datenträger deutlich beschleunigen will, kann ein Dev-Drive in Windows 11 einrichten. Dabei kommt das Dateisystem ReFS zum Einsatz. Durch systeminterne Einstellungen steigert ein Dev-Drive den Zugriff auf Daten teilweise deutlich, was von der jeweiligen Umgebung abhängt. Um ein Dev Drive-Laufwerk in Windows 11 einzurichten, sind mindestens 8 GB RAM (besser 16 GB RAM) und 50 GB freier Speicherplatz erforderlich. Ob die installierte Version von Windows 11 das Dev Drive-Laufwerk bereits unterstützt, lässt sich in den Einstellungen bei „System -> Speicher -> Erweiterte Speichereinstellungen“ überprüfen. Hier ist bei „Datenträger und Volumes“ die Option „Ein Entwicklerlaufwerk erstellen“ zu sehen. Thomas Joos Entwickler-Laufwerke sind vor allem für fortgeschrittene Nutzer interessant und nicht nur für Entwickler. Tipp 3: Windows 11 einfach über das Netzwerk per PXE und iVentoy installieren Mit dem kleinen und kostenlosen Tool iVentoy können Sie über das Netzwerk auf mehreren PCs einfach Windows 11 installieren. Dazu booten Sie den entsprechenden PC im Netzwerkmodus und nutzen PXE. PXE (Preboot Execution Environment) ermöglicht es Privatanwendern und kleinen Büros, Betriebssysteme wie Windows 11 direkt über das Netzwerk auf einem PC zu installieren, ohne ein physisches Installationsmedium wie USB-Sticks oder DVDs zu benötigen. Dafür wird ein PXE-Server im Heimnetzwerk eingerichtet, der dem Client-Rechner beim Start über das Netzwerk das Installationsimage von Windows 11 bereitstellt. Zum Einsatz kommt dabei iVentoy, das einfach auf einem Windows-Rechner gestartet werden muss. Diese Methode spart Zeit, wenn mehrere Rechner gleichzeitig installiert werden sollen, und vereinfacht den Prozess, da keine physischen Medien verteilt werden müssen. Besonders bei kleinen Büros mit mehreren Geräten bietet PXE eine effiziente Lösung für die zentrale Verwaltung von Betriebssysteminstallationen. Der PC sucht im Netzwerk nach einem passenden Server und findet iVentoy, wenn das Tool gestartet ist. Danach können Sie die Installationsdateien über das Netzwerk auf den neuen PCs übertragen und Windows 11 installieren. Das Tool unterstützt übrigens auch dabei, Linux über das Netzwerk per PXE zu installieren. Thomas Joos Mit iVentoy können Sie auch zu Hause experimentieren. Das Tool ist nicht sehr komplex in der Bedienung, braucht aber etwas Einarbeitung. Tipp 4: Programme, die hängen, einfacher beenden Es passiert immer mal wieder, dass ein Programm nicht mehr reagiert. In den meisten Fällen erfolgt dann ein Wechsel in den Task-Manager, was aber nicht immer gelingt. Vor allem, wenn sich Spiele oder andere Programme im Vollbildmodus befinden, ist der Task-Manager nicht immer einfach zu erreichen. Normalerweise geht man über das Kontextmenü der Taskleiste oder nutzt die Tastenkombination Shift+Strg+Esc. Noch einfacher ist es in Windows 11, die Option „Task beenden“ bei „System -> Für Entwickler“ zu aktivieren. Danach steht bei allen Programmen in der Taskleiste der neue Befehl „Task beenden“ zur Verfügung. Dieser ist sehr viel schneller erreichbar, als der Umweg über den Task-Manager. Thomas Joos Tipp 5: Bloatware bei Neuinstallationen von Windows 11 verhindern Leider installiert Microsoft mit Windows 11 immer häufiger Bloatware auf Ihrem Rechner. Bloatware bezeichnet vorinstallierte Software auf Geräten, die oft unnötig ist und Systemressourcen beansprucht. Bei Windows 11 fällt auf, dass viele neue Geräte mit zusätzlichen Programmen ausgeliefert werden, die der Nutzer nicht angefordert hat. Diese Bloatware kann die Leistung des Systems beeinträchtigen, Speicherplatz belegen und die Benutzererfahrung negativ beeinflussen. Während einige dieser Programme nützlich sein können, empfinden viele Anwender sie als überflüssig und deinstallieren sie, um das System zu optimieren und unnötige Hintergrundprozesse zu eliminieren. Wählen Sie bei einer Neuinstallation von Windows 11 auf der Seite der „Spracheinstellungen auswählen“ die Option „Englisch (Welt)“  bei „Zeit- und Währungsformat“ aus. In diesem Fall installiert Windows 11 keinerlei Bloatware. Tipp 6: Notfall-Neustart auslösen Funktioniert Windows nicht mehr ordnungsgemäß, drücken Sie die Tastenkombination Strg+Alt+Entf. Unten rechts finden Sie das Icon zum Ausschalten des PCs. Halten Sie die Strg-Taste gedrückt, wenn Sie auf das Ausschalten-Icon drücken, erscheint die Option „Sofortiger Neustart (für Notfälle)“. Der Neustart geht schneller und funktioniert auch dann, wenn andere Möglichkeiten zum Neustart nicht mehr funktionieren. Windows 11 wartet auf keinerlei Programme oder Dienste. Tipp 7: Windows reagiert nicht mehr oder es ist nur ein schwarzer Bildschirm zu sehen Die Tastenkombination Windows+Strg+Shift+B startet den Prozess der kompletten Anzeige neu, sodass sich diese neu aufbauen kann. Windows lässt sich dadurch wieder in Gang setzen, wenn die Anzeige hängt. Teilweise startet Windows dabei den Treiber der Grafikkarte neu, aber nur, wenn es nicht anders geht. Tipp 8: Soundmixer nutzen Über das Lautstärke-Symbol und die Auswahl des kleinen Icons rechts neben der Lautstärke-Leiste, rufen Sie die Lautstärkemixer auf. Dadurch können Sie gezielt die Lautstärke einzelner Programme, zum Beispiel von Spielen, anpassen. Das Öffnen geht auch über die Tastenkombination Windows+Strg+V. Tipp 9: Ansicht der Prozesse im Task-Manager pausieren Wenn Sie den Task-Manager aufgerufen haben, zum Beispiel über das Kontextmenü der Taskleiste oder mit der Tastenkombination Strg+Shift+Esc, können Sie die Ansicht von Prozessen etwa nach CPU-Verbrauch anzeigen lassen. Dabei springen die Prozesse aufgrund des wechselnden Ressourcenverbrauchs hin und her. Mit der Strg-Taste pausieren Sie die Ansicht, sodass Sie aufgehängte Prozesse schneller beenden können. Dadurch können Sie und einfacher überprüfen, wie die Auslastung einzelner Programme in Windows 11 ist. Thomas Joos Tipp 10: Tastenkombinationen zum Öffnen von Office-Programmen und LinkedIn Strg+Shift+Alt+Windows+W öffnet Word, wenn Sie Microsoft 365 installiert haben. Mit Strg+Shift+Alt+Windows+P öffnen Sie Powerpoint, mit Strg+Shift+Alt+Windows+O starten Sie Outlook und mit Strg+Shift+Alt+Windows+L öffnen Sie die LinkedIn-Startseite. Excel öffnen Sie übrigens mit Strg+Shift+Alt+Windows+X. Tipp 11: Gibt es Updates für installierte Programme? Das lässt sich in der Befehlszeile herausfinden Geben Sie in der Befehlszeile den Befehl „winget upgrade“ ein, zeigt Windows die Versionen der installierten Programme an und gleichzeitig, ob es neue Versionen der Programme gibt. Das gilt aber nur für Programme, die sich auch per Winget installieren lassen. Sie müssen dazu die Programme aber nicht per Winget installiert haben. Wollen Sie jetzt alle Programme aktualisieren, verwenden Sie „winget update -h -all“. Thomas Joos (PC-Welt) 

Diese unbekannten Tipps für Windows 11 müssen Sie kennen​ Rokas Tenys/Shutterstock.com

Setzen Sie auf Windows 11, können Sie mit den Tipps aus diesem Artikel Ihren PC oder Ihr Notebook sicherer und schneller nutzen. Außerdem können Sie zusätzliche Funktionen einsetzen, die Sie bisher vielleicht noch nicht kannten. Auch bei Abstürzen helfen die Tipps.

Tipp 1: Windows 11 ohne Microsoft-Konto nutzen

Microsoft macht es Nutzern immer schwerer, das Betriebssystem ohne Microsoft-Konto zu nutzen. Das gilt auch bei der neuen Version 24H2. Wir haben uns bereits in einem eigenen Artikel mit dem Thema auseinandergesetzt.

Bei Windows 11 ist es möglich, mit der Tastenkombination UMSCHALT+F10 eine Befehlszeile zu starten. Durch Eingabe von “oobebypassnro” umgeht Windows 11 den Online-Zwang. Nach der Eingabe des Befehls startet die Installation neu. Funktioniert das nicht, testen Sie das Tool Rufus, um einen Installationsdatenträger zu erstellen, der lokale Benutzerkonten zulässt.

Ein weiterer Trick, der allerdings nicht mit allen Installationsdateien funktioniert, ist das Angeben einer nicht existierenden E-Mail-Adresse.

Windows 11 Pro und Enterprise sind bei der Verwendung lokaler Konten etwas flexibler als Windows 11 Home. Hier erscheint während der Installation die Meldung “Für Arbeit oder Schule/Uni einrichten“. Danach können Sie die Option “Anmeldeoptionen” und schließlich “Stattdessen der Domäne beitreten” auswählen. Im Anschluss können Sie in Windows 11 Pro/Enterprise ein lokales Benutzerkonto nutzen, eine Windows-Domäne/Active Directory ist dabei nicht notwendig.

Tipp 2: Dev-Drive kann den Zugriff auf Datenträger beschleunigen

Wer etwas erfahrener ist, und den Zugriff auf Datenträger deutlich beschleunigen will, kann ein Dev-Drive in Windows 11 einrichten. Dabei kommt das Dateisystem ReFS zum Einsatz. Durch systeminterne Einstellungen steigert ein Dev-Drive den Zugriff auf Daten teilweise deutlich, was von der jeweiligen Umgebung abhängt.

Um ein Dev Drive-Laufwerk in Windows 11 einzurichten, sind mindestens 8 GB RAM (besser 16 GB RAM) und 50 GB freier Speicherplatz erforderlich. Ob die installierte Version von Windows 11 das Dev Drive-Laufwerk bereits unterstützt, lässt sich in den Einstellungen bei „System -> Speicher -> Erweiterte Speichereinstellungen“ überprüfen. Hier ist bei „Datenträger und Volumes“ die Option „Ein Entwicklerlaufwerk erstellen“ zu sehen.

Thomas Joos

Entwickler-Laufwerke sind vor allem für fortgeschrittene Nutzer interessant und nicht nur für Entwickler.

Tipp 3: Windows 11 einfach über das Netzwerk per PXE und iVentoy installieren

Mit dem kleinen und kostenlosen Tool iVentoy können Sie über das Netzwerk auf mehreren PCs einfach Windows 11 installieren. Dazu booten Sie den entsprechenden PC im Netzwerkmodus und nutzen PXE.

PXE (Preboot Execution Environment) ermöglicht es Privatanwendern und kleinen Büros, Betriebssysteme wie Windows 11 direkt über das Netzwerk auf einem PC zu installieren, ohne ein physisches Installationsmedium wie USB-Sticks oder DVDs zu benötigen.

Dafür wird ein PXE-Server im Heimnetzwerk eingerichtet, der dem Client-Rechner beim Start über das Netzwerk das Installationsimage von Windows 11 bereitstellt. Zum Einsatz kommt dabei iVentoy, das einfach auf einem Windows-Rechner gestartet werden muss. Diese Methode spart Zeit, wenn mehrere Rechner gleichzeitig installiert werden sollen, und vereinfacht den Prozess, da keine physischen Medien verteilt werden müssen. Besonders bei kleinen Büros mit mehreren Geräten bietet PXE eine effiziente Lösung für die zentrale Verwaltung von Betriebssysteminstallationen.

Der PC sucht im Netzwerk nach einem passenden Server und findet iVentoy, wenn das Tool gestartet ist. Danach können Sie die Installationsdateien über das Netzwerk auf den neuen PCs übertragen und Windows 11 installieren. Das Tool unterstützt übrigens auch dabei, Linux über das Netzwerk per PXE zu installieren.

Thomas Joos

Mit iVentoy können Sie auch zu Hause experimentieren. Das Tool ist nicht sehr komplex in der Bedienung, braucht aber etwas Einarbeitung.

Tipp 4: Programme, die hängen, einfacher beenden

Es passiert immer mal wieder, dass ein Programm nicht mehr reagiert. In den meisten Fällen erfolgt dann ein Wechsel in den Task-Manager, was aber nicht immer gelingt. Vor allem, wenn sich Spiele oder andere Programme im Vollbildmodus befinden, ist der Task-Manager nicht immer einfach zu erreichen. Normalerweise geht man über das Kontextmenü der Taskleiste oder nutzt die Tastenkombination Shift+Strg+Esc.

Noch einfacher ist es in Windows 11, die Option „Task beenden“ bei „System -> Für Entwickler“ zu aktivieren. Danach steht bei allen Programmen in der Taskleiste der neue Befehl „Task beenden“ zur Verfügung. Dieser ist sehr viel schneller erreichbar, als der Umweg über den Task-Manager.

Thomas Joos

Tipp 5: Bloatware bei Neuinstallationen von Windows 11 verhindern

Leider installiert Microsoft mit Windows 11 immer häufiger Bloatware auf Ihrem Rechner. Bloatware bezeichnet vorinstallierte Software auf Geräten, die oft unnötig ist und Systemressourcen beansprucht. Bei Windows 11 fällt auf, dass viele neue Geräte mit zusätzlichen Programmen ausgeliefert werden, die der Nutzer nicht angefordert hat. Diese Bloatware kann die Leistung des Systems beeinträchtigen, Speicherplatz belegen und die Benutzererfahrung negativ beeinflussen.

Während einige dieser Programme nützlich sein können, empfinden viele Anwender sie als überflüssig und deinstallieren sie, um das System zu optimieren und unnötige Hintergrundprozesse zu eliminieren.

Wählen Sie bei einer Neuinstallation von Windows 11 auf der Seite der „Spracheinstellungen auswählen“ die Option „Englisch (Welt)“  bei „Zeit- und Währungsformat“ aus. In diesem Fall installiert Windows 11 keinerlei Bloatware.

Tipp 6: Notfall-Neustart auslösen

Funktioniert Windows nicht mehr ordnungsgemäß, drücken Sie die Tastenkombination Strg+Alt+Entf. Unten rechts finden Sie das Icon zum Ausschalten des PCs. Halten Sie die Strg-Taste gedrückt, wenn Sie auf das Ausschalten-Icon drücken, erscheint die Option „Sofortiger Neustart (für Notfälle)“.

Der Neustart geht schneller und funktioniert auch dann, wenn andere Möglichkeiten zum Neustart nicht mehr funktionieren. Windows 11 wartet auf keinerlei Programme oder Dienste.

Tipp 7: Windows reagiert nicht mehr oder es ist nur ein schwarzer Bildschirm zu sehen

Die Tastenkombination Windows+Strg+Shift+B startet den Prozess der kompletten Anzeige neu, sodass sich diese neu aufbauen kann. Windows lässt sich dadurch wieder in Gang setzen, wenn die Anzeige hängt. Teilweise startet Windows dabei den Treiber der Grafikkarte neu, aber nur, wenn es nicht anders geht.

Tipp 8: Soundmixer nutzen

Über das Lautstärke-Symbol und die Auswahl des kleinen Icons rechts neben der Lautstärke-Leiste, rufen Sie die Lautstärkemixer auf. Dadurch können Sie gezielt die Lautstärke einzelner Programme, zum Beispiel von Spielen, anpassen. Das Öffnen geht auch über die Tastenkombination Windows+Strg+V.

Tipp 9: Ansicht der Prozesse im Task-Manager pausieren

Wenn Sie den Task-Manager aufgerufen haben, zum Beispiel über das Kontextmenü der Taskleiste oder mit der Tastenkombination Strg+Shift+Esc, können Sie die Ansicht von Prozessen etwa nach CPU-Verbrauch anzeigen lassen. Dabei springen die Prozesse aufgrund des wechselnden Ressourcenverbrauchs hin und her. Mit der Strg-Taste pausieren Sie die Ansicht, sodass Sie aufgehängte Prozesse schneller beenden können.

Dadurch können Sie und einfacher überprüfen, wie die Auslastung einzelner Programme in Windows 11 ist.

Thomas Joos

Tipp 10: Tastenkombinationen zum Öffnen von Office-Programmen und LinkedIn

Strg+Shift+Alt+Windows+W öffnet Word, wenn Sie Microsoft 365 installiert haben. Mit Strg+Shift+Alt+Windows+P öffnen Sie Powerpoint, mit Strg+Shift+Alt+Windows+O starten Sie Outlook und mit Strg+Shift+Alt+Windows+L öffnen Sie die LinkedIn-Startseite. Excel öffnen Sie übrigens mit Strg+Shift+Alt+Windows+X.

Tipp 11: Gibt es Updates für installierte Programme? Das lässt sich in der Befehlszeile herausfinden

Geben Sie in der Befehlszeile den Befehl „winget upgrade“ ein, zeigt Windows die Versionen der installierten Programme an und gleichzeitig, ob es neue Versionen der Programme gibt.

Das gilt aber nur für Programme, die sich auch per Winget installieren lassen. Sie müssen dazu die Programme aber nicht per Winget installiert haben. Wollen Sie jetzt alle Programme aktualisieren, verwenden Sie „winget update -h -all“.

Thomas Joos

(PC-Welt)

Diese unbekannten Tipps für Windows 11 müssen Sie kennen​ Weiterlesen »

Diese 20 Tastenkombinationen für Windows 11 müssen Sie kennen​

Allgemein

Chris Hoffman / IDG Als langjähriger Windows-Freak liebe ich Tastenkombinationen. Diese Hotkeys sind wie eine Sammlung geheimer Handzeichen, mit denen Sie schnell nützliche Aufgaben ausführen und die Arbeit an Ihrem PC erheblich beschleunigen können. Und ja, Tastenkombinationen sind ziemlich geheim. Windows bietet Ihnen keinen Coach, der Sie durch die Hunderte von Hotkeys führt, die Sie nützlich finden könnten. Sie sind einfach da und warten im Hintergrund darauf, aktiviert zu werden. Wir zeigen Ihnen die besten und praktischsten Tastaturkürzel, die Sie mit Sicherheit zukünftig nutzen werden. 1. Datei-Explorer starten Wenn Sie so arbeiten wie ich, werden Sie den Datei-Explorer von Windows wahrscheinlich häufig aufrufen. Mit einem Tastaturkürzel haben Sie ihn immer griffbereit. Drücken Sie einfach die Windows-Taste + E, um ein neues Datei-Explorer-Fenster zu öffnen, wann immer Sie es benötigen. 2. Direkt zum Task-Manager wechseln Wahrscheinlich kennen Sie die Tastenkombination Strg + Alt + Entf, aber wenn Sie damit den Task-Manager öffnen wollen, gibt es einen besseren Weg: Verwenden Sie stattdessen die Tastenkombination Strg + Umschalt + Esc. 3. Öffnen Sie die Einstellungen-App Sie möchten eine Einstellung des Betriebssystems ändern? Normalerweise erledigen Sie das über die Einstellungen-App. Anstatt das Startmenü zu durchsuchen, können Sie auch eine Tastenkombination verwenden: Windows-Taste+ I. Dann können Sie direkt in der Einstellungen-App nach dem suchen, was Sie brauchen. 4. Durchsuchen Sie den Verlauf der Zwischenablage Wussten Sie, dass Windows jedes Mal, wenn Sie ein Bild oder einen Text in die Zwischenablage kopieren, einen Verlauf speichert? Die übliche Tastenkombination Strg+V fügt nur das ein, was Sie zuletzt kopiert haben. Wollen Sie etwas einfügen, das Sie viel früher kopiert haben, können Sie das ebenfalls tun! Chris Hoffman / IDG Sie müssen nur den Verlauf der Zwischenablage mit dem Tastaturkürzel Windows-Taste + V aufrufen. Beachten Sie: Wenn Sie die Zwischenablage noch nie geöffnet haben, werden Sie um Erlaubnis gebeten, die Funktion zu aktivieren. Das Schöne am Verlauf der Zwischenablage ist, dass Sie bestimmte kopierte Objekte sogar an das Bedienfeld anheften können, damit Sie sie in Zukunft schnell wiederfinden. 5. Emojis überall einfügen Ob Sie sie lieben oder hassen, Emojis sind Teil der modernen Kommunikation geworden − und Microsoft weiß das. Deshalb macht es Ihnen Windows leicht, Emojis in fast jeder Anwendung einzugeben. Chris Hoffman / IDG Alles, was Sie tun müssen, ist, die Tastenkombinationen Windows-Taste + Punkt oder Windows-Taste + Semikolon zu drücken. Verwenden Sie dann das Suchfeld, um das gewünschte Emoji zu finden (oder blättern Sie einfach durch). 6. Tippen Sie mit Ihrer Stimme Chris Hoffman / IDG Mit Windows können Sie in fast jeder Anwendung Text mit Ihrer Stimme eingeben. Um die Oberfläche für die Spracheingabe aufzurufen, drücken Sie einfach die Windows-Taste + H. Sie sehen dann ein schwebendes Fenster (bei Windows 11) oder eine Leiste (bei Windows 10). Diese Funktion nennt sich Spracheingabe. Über das Einstellungsmenü in dem Fenster/der Leiste können Sie Funktionen wie die automatische Zeichensetzung aktivieren. In der Standardeinstellung müssen Sie Wörter wie “Punkt” sprechen, während Sie den Text diktieren. Mit Windows können Sie in fast jeder Anwendung Text mit Ihrer Stimme eingeben. Um die Oberfläche für die Spracheingabe aufzurufen, drücken Sie einfach die Windows-Taste + H. Sie sehen dann ein schwebendes Fenster (bei Windows 11) oder eine Leiste (bei Windows 10). Diese Funktion nennt sich Spracheingabe. Über das Einstellungsmenü in dem Fenster/der Leiste können Sie Funktionen wie die automatische Zeichensetzung aktivieren. In der Standardeinstellung müssen Sie Wörter wie “Punkt” sprechen, während Sie den Text diktieren. 8. Sperren Sie Ihren Computer Um Ihren Computer vor unbefugtem Zugriff zu schützen – vor allem in einer Umgebung wie einem Büro oder auf dem Campus – sollten Sie Ihren Computer sperren, sobald Sie sich entfernen. Um Ihren PC schnell zu sperren, drücken Sie einfach das Tastaturkürzel Windows-Taste + L. 9. Sound-Einstellungen kontrollieren Wenn Sie mehrere Tonausgabegeräte wie Lautsprecher, Kopfhörer und drahtlose Ohrhörer oder mehrere Toneingabegeräte wie Laptop-Mikrofon, Headset und externes Mikrofon besitzen, wechseln Sie wahrscheinlich häufig zwischen diesen Geräten. Chris Hoffman / IDG Nun, Sie müssen nicht tief in die Einstellungen-App gehen, um zwischen ihnen zu wechseln. Sie können auch einfach die Tastenkombination Strg+Windows-Taste+V drücken, um das Menü für die Soundeinstellungen aufzurufen. Es ist auch eine Abkürzung zum Anpassen der Systemlautstärke und der Lautstärke pro Anwendung (mit den Schiebereglern) und eine schnelle Möglichkeit, den Abschnitt Sound in der Einstellungen-App zu öffnen (indem Sie auf Weitere Lautstärkeeinstellungen klicken). Diese Funktion ist neu in Windows 11 und daher in Windows 10 nicht verfügbar. 10. Fenster anheften Die Snap-Funktion ist ein wichtiges Fensterverwaltungs-Tool für das Multitasking in Windows 11. Sie können App-Fenster ganz einfach mithilfe Ihrer Tastatur an den Bildschirmrändern einrasten. Chris Hoffman / IDG Verwenden Sie zunächst die Windows-Taste + Pfeil nach links und die Windows-Taste + Pfeil nach rechts, um das aktuell fokussierte Fenster entweder in der linken oder in der rechten Hälfte des Bildschirms auszurichten. Ähnlich verfahren Sie mit der Windows-Taste + Alt + Pfeil + nach oben und der Windows-Taste + Alt + Pfeil nach unten, um Fenster in der oberen beziehungsweise unteren Hälfte des Bildschirms zu platzieren. Sie können auch Tastenkombinationen verwenden, um Fenster in Quadranten des Bildschirms zu verschieben. Wenn Sie zum Beispiel ein Fenster in der linken Hälfte des Bildschirms einrasten lassen (mit der oben genannten Tastenkombination), halten Sie die Windows-Taste gedrückt und tippen Sie auf den Pfeil nach oben, um es im linken oberen Quadranten einzurasten. 11. Snap Layouts aktivieren Als ob das Einrasten selbst nicht schon nützlich genug wäre, verfügt Windows 11 auch über eine zusätzliche Funktion zum Einrasten von Layouts, die das Einrasten von Fenstern in verschiedenen Konfigurationen erleichtert. Chris Hoffman / IDG Um Snap Layouts zu aktivieren, verwenden Sie das Tastaturkürzel Windows-Taste + Z. Sie sehen ein Pop-up-Fenster mit nummerierten Optionen. Drücken Sie einfach die entsprechende Zifferntaste, um das entsprechende Fensterlayout auszuwählen. Sie können die Snap-Layouts auch anzeigen, indem Sie den Mauszeiger über die Schaltfläche Maximieren eines Fensters bewegen. Oder ziehen Sie ein beliebiges Fenster an den oberen Rand des Bildschirms, um die Optionen für das Snap-Layout anzuzeigen. 12. Umschalten zwischen Fenster- und Vollbildmodus in PC-Spielen Viele PC-Spiele bieten sowohl den Fenster- als auch den Vollbildmodus. Wenn Sie zwischen diesen beiden Modi umschalten möchten, kann es ziemlich mühsam sein, zum Einstellungsmenü des Spiels zu navigieren – vor allem, wenn Sie dies häufig tun. Hier ist ein schnellerer Weg, um in vielen PC-Spielen zwischen dem Fenster- und dem Vollbildmodus zu wechseln: Drücken Sie einfach Alt + Enter. Das funktioniert nicht bei jedem Spiel, aber bei vielen. Ich versuche es immer als Erstes, wenn ich zwischen dem Vollbild- und dem Fenstermodus wechseln möchte. 13. Zwischen virtuellen Desktops springen Windows 11 verfügt über eine Funktion namens Task View, mit der Sie “virtuelle Desktops” erstellen, zwischen denen Sie wechseln können. Ein virtueller Desktop ist wie eine separate Instanz des Desktops. Jeder virtuelle Desktop kann eine eigene Gruppe von laufenden Anwendungsfenstern enthalten. Chris Hoffman / IDG Es gibt mehrere Tastenkombinationen für die Task-Ansicht, wie die Windows-Taste + Tab, mit der Sie leicht neue virtuelle Desktops erstellen, bestehende löschen und zwischen ihnen wechseln können. Wenn Sie jedoch einige virtuelle Desktops erstellt haben, können Sie noch einfacher zwischen ihnen wechseln, indem Sie die Tastenkombinationen Windows-Taste + Strg + Pfeil nach links und Windows-Taste + Strg + Pfeil nach rechts verwenden. 14. Fenster zwischen Monitoren verschieben Haben Sie einen weitläufigen Arbeitsplatz mit mehreren Monitoren? Sie können Fenster von einem Bildschirm zum nächsten verschieben, indem Sie die Windows-Taste + Umschaltpfeil nach links (um das aktuell fokussierte Fenster auf den linken Bildschirm zu verschieben) oder die Windows-Taste + Umschaltpfeil nach rechts (um das aktuell fokussierte Fenster auf den rechten Bildschirm zu verschieben) drücken. 15. Öffnen Sie sofort das klassische Datei-Explorer-Kontextmenü In Windows 11 hat sich der Datei-Explorer im Vergleich zu früher stark verändert, insbesondere durch ein optimiertes Kontextmenü. Einige Optionen sind jedoch nur in diesem klassischen, altmodischen Kontextmenü zu finden. Chris Hoffman / IDG Anstatt erst das Kontextmenü zu öffnen und dann die Option Weitere Optionen anzeigen zu wählen (oder sogar die Windows-Registry bearbeiten), können Sie auch einfach eine Tastenkombination verwenden, um das alte Kontextmenü sofort zu öffnen: Halten Sie die Umschalttaste gedrückt, während Sie im Datei-Explorer mit der rechten Maustaste klicken, um das klassische Kontextmenü zu sehen. Diese Funktion ist neu in Windows 11 und steht daher in Windows 10 nicht zur Verfügung. 16. Schnelleres Bearbeiten von Text Die Strg-Taste ist eine meiner Lieblingstasten, wenn es um die schnelle Textbearbeitung geht. Kurz gesagt, wenn Sie die Strg-Taste gedrückt halten, wirken die meisten Tasten auf ganze Wörter und nicht auf einzelne Zeichen. Die Rücktaste zum Beispiel löscht das vorherige Zeichen, aber Strg + Rücktaste löscht das vorherige Wort. Ein anderes Beispiel: Pfeil nach links und Pfeil nach rechts bewegen den Cursor um ein Zeichen, aber Strg + Pfeil nach links und Strg + Pfeil nach rechts bewegen den Cursor von Wort zu Wort. Und das funktioniert auch mit der Umschalttaste. Wenn Sie die Umschalttaste gedrückt halten, können Sie Text markieren, während sich der Cursor bewegt. Wenn Sie also schnell mehrere Wörter in einer Reihe markieren möchten, halten Sie einfach die Umschalttaste gedrückt und tippen Sie dann auf die Pfeile nach links und rechts. Versuchen Sie einmal, die Umschalttaste zusammen mit der Start- und Endtaste gedrückt zu halten, um ganze Textzeilen mit nur wenigen Tastenanschlägen zu markieren! 17. Eine geschlossene Browser-Registerkarte wieder öffnen Alle modernen Webbrowser − einschließlich Chrome, Firefox, Opera und Edge − ermöglichen es Ihnen, geschlossene Registerkarten schnell wieder zu öffnen. Das ist auch leicht zu merken: Wenn Sie mit der Tastenkombination Strg + T eine neue Registerkarte erstellen, können Sie mit der Tastenkombination Strg + Umschalt + T die zuletzt geschlossene Registerkarte wieder öffnen. 18. Alt + Tab in umgekehrter Reihenfolge Alt + Tab ist eine der kultigsten Windows-Tastenkombinationen. Wenn Sie jedoch viele Fenster geöffnet haben, die Sie durchlaufen müssen, kann es manchmal sinnvoller sein, den Zyklus umzukehren. In diesem Fall drücken Sie einfach Shift + Alt + Tab, um rückwärts durch die Liste der geöffneten Fenster zu gehen. Und das ist noch nicht alles: Während das Dialogfeld Alt + Tab geöffnet ist, können Sie auch die Pfeiltasten verwenden, um sofort zum Fenster der ausgewählten Miniaturansicht zu springen. 19. Dateien schnell umbenennen Sie möchten eine Datei schnell umbenennen? Wenn Sie eine Datei im Datei-Explorer ausgewählt haben, drücken Sie einfach F2, geben den Namen ein und drücken die Eingabetaste. Ich navigiere gerne mit den Pfeiltasten zwischen den Dateien und benutze dann die F2-Taste, um sie schnell umzubenennen. Oder noch besser: Nachdem Sie F2 gedrückt und einen Dateinamen eingegeben haben, drücken Sie die Tabulatortaste (statt der Eingabetaste), um sofort mit der Umbenennung der nächsten Datei im Ordner zu beginnen. 20. Speichern Sie Screenshots als Datei Die in Windows integrierten Screenshot-Tools sind immer besser geworden, aber manchmal möchten Sie die Tools überspringen und sofort den Screen als Bilddatei speichern. Chris Hoffman / IDG Um einen Screenshot ohne die ganzen Zwischenschritte auf der Festplatte zu speichern, drücken Sie die Windows-Taste + Bildschirm drucken. Ihr Bildschirm wird blinken, während Windows den Screenshot speichert. Danach finden Sie den Screenshot im Ordner “Bilder – Screenshots” Ihres Benutzerkontos. (PC-Welt) 

Diese 20 Tastenkombinationen für Windows 11 müssen Sie kennen​ Chris Hoffman / IDG

Als langjähriger Windows-Freak liebe ich Tastenkombinationen. Diese Hotkeys sind wie eine Sammlung geheimer Handzeichen, mit denen Sie schnell nützliche Aufgaben ausführen und die Arbeit an Ihrem PC erheblich beschleunigen können.

Und ja, Tastenkombinationen sind ziemlich geheim. Windows bietet Ihnen keinen Coach, der Sie durch die Hunderte von Hotkeys führt, die Sie nützlich finden könnten. Sie sind einfach da und warten im Hintergrund darauf, aktiviert zu werden.

Wir zeigen Ihnen die besten und praktischsten Tastaturkürzel, die Sie mit Sicherheit zukünftig nutzen werden.

1. Datei-Explorer starten

Wenn Sie so arbeiten wie ich, werden Sie den Datei-Explorer von Windows wahrscheinlich häufig aufrufen. Mit einem Tastaturkürzel haben Sie ihn immer griffbereit. Drücken Sie einfach die Windows-Taste + E, um ein neues Datei-Explorer-Fenster zu öffnen, wann immer Sie es benötigen.

2. Direkt zum Task-Manager wechseln

Wahrscheinlich kennen Sie die Tastenkombination Strg + Alt + Entf, aber wenn Sie damit den Task-Manager öffnen wollen, gibt es einen besseren Weg: Verwenden Sie stattdessen die Tastenkombination Strg + Umschalt + Esc.

3. Öffnen Sie die Einstellungen-App

Sie möchten eine Einstellung des Betriebssystems ändern? Normalerweise erledigen Sie das über die Einstellungen-App. Anstatt das Startmenü zu durchsuchen, können Sie auch eine Tastenkombination verwenden: Windows-Taste+ I. Dann können Sie direkt in der Einstellungen-App nach dem suchen, was Sie brauchen.

4. Durchsuchen Sie den Verlauf der Zwischenablage

Wussten Sie, dass Windows jedes Mal, wenn Sie ein Bild oder einen Text in die Zwischenablage kopieren, einen Verlauf speichert? Die übliche Tastenkombination Strg+V fügt nur das ein, was Sie zuletzt kopiert haben. Wollen Sie etwas einfügen, das Sie viel früher kopiert haben, können Sie das ebenfalls tun!

Chris Hoffman / IDG

Sie müssen nur den Verlauf der Zwischenablage mit dem Tastaturkürzel Windows-Taste + V aufrufen. Beachten Sie: Wenn Sie die Zwischenablage noch nie geöffnet haben, werden Sie um Erlaubnis gebeten, die Funktion zu aktivieren.

Das Schöne am Verlauf der Zwischenablage ist, dass Sie bestimmte kopierte Objekte sogar an das Bedienfeld anheften können, damit Sie sie in Zukunft schnell wiederfinden.

5. Emojis überall einfügen

Ob Sie sie lieben oder hassen, Emojis sind Teil der modernen Kommunikation geworden − und Microsoft weiß das. Deshalb macht es Ihnen Windows leicht, Emojis in fast jeder Anwendung einzugeben.

Chris Hoffman / IDG

Alles, was Sie tun müssen, ist, die Tastenkombinationen Windows-Taste + Punkt oder Windows-Taste + Semikolon zu drücken. Verwenden Sie dann das Suchfeld, um das gewünschte Emoji zu finden (oder blättern Sie einfach durch).

6. Tippen Sie mit Ihrer Stimme

Chris Hoffman / IDG

Mit Windows können Sie in fast jeder Anwendung Text mit Ihrer Stimme eingeben. Um die Oberfläche für die Spracheingabe aufzurufen, drücken Sie einfach die Windows-Taste + H. Sie sehen dann ein schwebendes Fenster (bei Windows 11) oder eine Leiste (bei Windows 10).

Diese Funktion nennt sich Spracheingabe. Über das Einstellungsmenü in dem Fenster/der Leiste können Sie Funktionen wie die automatische Zeichensetzung aktivieren. In der Standardeinstellung müssen Sie Wörter wie “Punkt” sprechen, während Sie den Text diktieren.

Mit Windows können Sie in fast jeder Anwendung Text mit Ihrer Stimme eingeben. Um die Oberfläche für die Spracheingabe aufzurufen, drücken Sie einfach die Windows-Taste + H. Sie sehen dann ein schwebendes Fenster (bei Windows 11) oder eine Leiste (bei Windows 10).

Diese Funktion nennt sich Spracheingabe. Über das Einstellungsmenü in dem Fenster/der Leiste können Sie Funktionen wie die automatische Zeichensetzung aktivieren. In der Standardeinstellung müssen Sie Wörter wie “Punkt” sprechen, während Sie den Text diktieren.

8. Sperren Sie Ihren Computer

Um Ihren Computer vor unbefugtem Zugriff zu schützen – vor allem in einer Umgebung wie einem Büro oder auf dem Campus – sollten Sie Ihren Computer sperren, sobald Sie sich entfernen. Um Ihren PC schnell zu sperren, drücken Sie einfach das Tastaturkürzel Windows-Taste + L.

9. Sound-Einstellungen kontrollieren

Wenn Sie mehrere Tonausgabegeräte wie Lautsprecher, Kopfhörer und drahtlose Ohrhörer oder mehrere Toneingabegeräte wie Laptop-Mikrofon, Headset und externes Mikrofon besitzen, wechseln Sie wahrscheinlich häufig zwischen diesen Geräten.

Chris Hoffman / IDG

Nun, Sie müssen nicht tief in die Einstellungen-App gehen, um zwischen ihnen zu wechseln. Sie können auch einfach die Tastenkombination Strg+Windows-Taste+V drücken, um das Menü für die Soundeinstellungen aufzurufen.

Es ist auch eine Abkürzung zum Anpassen der Systemlautstärke und der Lautstärke pro Anwendung (mit den Schiebereglern) und eine schnelle Möglichkeit, den Abschnitt Sound in der Einstellungen-App zu öffnen (indem Sie auf Weitere Lautstärkeeinstellungen klicken).

Diese Funktion ist neu in Windows 11 und daher in Windows 10 nicht verfügbar.

10. Fenster anheften

Die Snap-Funktion ist ein wichtiges Fensterverwaltungs-Tool für das Multitasking in Windows 11. Sie können App-Fenster ganz einfach mithilfe Ihrer Tastatur an den Bildschirmrändern einrasten.

Chris Hoffman / IDG

Verwenden Sie zunächst die Windows-Taste + Pfeil nach links und die Windows-Taste + Pfeil nach rechts, um das aktuell fokussierte Fenster entweder in der linken oder in der rechten Hälfte des Bildschirms auszurichten. Ähnlich verfahren Sie mit der Windows-Taste + Alt + Pfeil + nach oben und der Windows-Taste + Alt + Pfeil nach unten, um Fenster in der oberen beziehungsweise unteren Hälfte des Bildschirms zu platzieren.

Sie können auch Tastenkombinationen verwenden, um Fenster in Quadranten des Bildschirms zu verschieben. Wenn Sie zum Beispiel ein Fenster in der linken Hälfte des Bildschirms einrasten lassen (mit der oben genannten Tastenkombination), halten Sie die Windows-Taste gedrückt und tippen Sie auf den Pfeil nach oben, um es im linken oberen Quadranten einzurasten.

11. Snap Layouts aktivieren

Als ob das Einrasten selbst nicht schon nützlich genug wäre, verfügt Windows 11 auch über eine zusätzliche Funktion zum Einrasten von Layouts, die das Einrasten von Fenstern in verschiedenen Konfigurationen erleichtert.

Chris Hoffman / IDG

Um Snap Layouts zu aktivieren, verwenden Sie das Tastaturkürzel Windows-Taste + Z. Sie sehen ein Pop-up-Fenster mit nummerierten Optionen. Drücken Sie einfach die entsprechende Zifferntaste, um das entsprechende Fensterlayout auszuwählen.

Sie können die Snap-Layouts auch anzeigen, indem Sie den Mauszeiger über die Schaltfläche Maximieren eines Fensters bewegen. Oder ziehen Sie ein beliebiges Fenster an den oberen Rand des Bildschirms, um die Optionen für das Snap-Layout anzuzeigen.

12. Umschalten zwischen Fenster- und Vollbildmodus in PC-Spielen

Viele PC-Spiele bieten sowohl den Fenster- als auch den Vollbildmodus. Wenn Sie zwischen diesen beiden Modi umschalten möchten, kann es ziemlich mühsam sein, zum Einstellungsmenü des Spiels zu navigieren – vor allem, wenn Sie dies häufig tun.

Hier ist ein schnellerer Weg, um in vielen PC-Spielen zwischen dem Fenster- und dem Vollbildmodus zu wechseln: Drücken Sie einfach Alt + Enter. Das funktioniert nicht bei jedem Spiel, aber bei vielen. Ich versuche es immer als Erstes, wenn ich zwischen dem Vollbild- und dem Fenstermodus wechseln möchte.

13. Zwischen virtuellen Desktops springen

Windows 11 verfügt über eine Funktion namens Task View, mit der Sie “virtuelle Desktops” erstellen, zwischen denen Sie wechseln können. Ein virtueller Desktop ist wie eine separate Instanz des Desktops. Jeder virtuelle Desktop kann eine eigene Gruppe von laufenden Anwendungsfenstern enthalten.

Chris Hoffman / IDG

Es gibt mehrere Tastenkombinationen für die Task-Ansicht, wie die Windows-Taste + Tab, mit der Sie leicht neue virtuelle Desktops erstellen, bestehende löschen und zwischen ihnen wechseln können.

Wenn Sie jedoch einige virtuelle Desktops erstellt haben, können Sie noch einfacher zwischen ihnen wechseln, indem Sie die Tastenkombinationen Windows-Taste + Strg + Pfeil nach links und Windows-Taste + Strg + Pfeil nach rechts verwenden.

14. Fenster zwischen Monitoren verschieben

Haben Sie einen weitläufigen Arbeitsplatz mit mehreren Monitoren? Sie können Fenster von einem Bildschirm zum nächsten verschieben, indem Sie die Windows-Taste + Umschaltpfeil nach links (um das aktuell fokussierte Fenster auf den linken Bildschirm zu verschieben) oder die Windows-Taste + Umschaltpfeil nach rechts (um das aktuell fokussierte Fenster auf den rechten Bildschirm zu verschieben) drücken.

15. Öffnen Sie sofort das klassische Datei-Explorer-Kontextmenü

In Windows 11 hat sich der Datei-Explorer im Vergleich zu früher stark verändert, insbesondere durch ein optimiertes Kontextmenü. Einige Optionen sind jedoch nur in diesem klassischen, altmodischen Kontextmenü zu finden.

Chris Hoffman / IDG

Anstatt erst das Kontextmenü zu öffnen und dann die Option Weitere Optionen anzeigen zu wählen (oder sogar die Windows-Registry bearbeiten), können Sie auch einfach eine Tastenkombination verwenden, um das alte Kontextmenü sofort zu öffnen: Halten Sie die Umschalttaste gedrückt, während Sie im Datei-Explorer mit der rechten Maustaste klicken, um das klassische Kontextmenü zu sehen.

Diese Funktion ist neu in Windows 11 und steht daher in Windows 10 nicht zur Verfügung.

16. Schnelleres Bearbeiten von Text

Die Strg-Taste ist eine meiner Lieblingstasten, wenn es um die schnelle Textbearbeitung geht. Kurz gesagt, wenn Sie die Strg-Taste gedrückt halten, wirken die meisten Tasten auf ganze Wörter und nicht auf einzelne Zeichen.

Die Rücktaste zum Beispiel löscht das vorherige Zeichen, aber Strg + Rücktaste löscht das vorherige Wort. Ein anderes Beispiel: Pfeil nach links und Pfeil nach rechts bewegen den Cursor um ein Zeichen, aber Strg + Pfeil nach links und Strg + Pfeil nach rechts bewegen den Cursor von Wort zu Wort.

Und das funktioniert auch mit der Umschalttaste. Wenn Sie die Umschalttaste gedrückt halten, können Sie Text markieren, während sich der Cursor bewegt. Wenn Sie also schnell mehrere Wörter in einer Reihe markieren möchten, halten Sie einfach die Umschalttaste gedrückt und tippen Sie dann auf die Pfeile nach links und rechts. Versuchen Sie einmal, die Umschalttaste zusammen mit der Start- und Endtaste gedrückt zu halten, um ganze Textzeilen mit nur wenigen Tastenanschlägen zu markieren!

17. Eine geschlossene Browser-Registerkarte wieder öffnen

Alle modernen Webbrowser − einschließlich Chrome, Firefox, Opera und Edge − ermöglichen es Ihnen, geschlossene Registerkarten schnell wieder zu öffnen. Das ist auch leicht zu merken: Wenn Sie mit der Tastenkombination Strg + T eine neue Registerkarte erstellen, können Sie mit der Tastenkombination Strg + Umschalt + T die zuletzt geschlossene Registerkarte wieder öffnen.

18. Alt + Tab in umgekehrter Reihenfolge

Alt + Tab ist eine der kultigsten Windows-Tastenkombinationen. Wenn Sie jedoch viele Fenster geöffnet haben, die Sie durchlaufen müssen, kann es manchmal sinnvoller sein, den Zyklus umzukehren. In diesem Fall drücken Sie einfach Shift + Alt + Tab, um rückwärts durch die Liste der geöffneten Fenster zu gehen.

Und das ist noch nicht alles: Während das Dialogfeld Alt + Tab geöffnet ist, können Sie auch die Pfeiltasten verwenden, um sofort zum Fenster der ausgewählten Miniaturansicht zu springen.

19. Dateien schnell umbenennen

Sie möchten eine Datei schnell umbenennen? Wenn Sie eine Datei im Datei-Explorer ausgewählt haben, drücken Sie einfach F2, geben den Namen ein und drücken die Eingabetaste.

Ich navigiere gerne mit den Pfeiltasten zwischen den Dateien und benutze dann die F2-Taste, um sie schnell umzubenennen. Oder noch besser: Nachdem Sie F2 gedrückt und einen Dateinamen eingegeben haben, drücken Sie die Tabulatortaste (statt der Eingabetaste), um sofort mit der Umbenennung der nächsten Datei im Ordner zu beginnen.

20. Speichern Sie Screenshots als Datei

Die in Windows integrierten Screenshot-Tools sind immer besser geworden, aber manchmal möchten Sie die Tools überspringen und sofort den Screen als Bilddatei speichern.

Chris Hoffman / IDG

Um einen Screenshot ohne die ganzen Zwischenschritte auf der Festplatte zu speichern, drücken Sie die Windows-Taste + Bildschirm drucken. Ihr Bildschirm wird blinken, während Windows den Screenshot speichert. Danach finden Sie den Screenshot im Ordner “Bilder – Screenshots” Ihres Benutzerkontos.

(PC-Welt)

Diese 20 Tastenkombinationen für Windows 11 müssen Sie kennen​ Weiterlesen »

Windows: Benutzerordner auf andere Laufwerke verschieben​

Allgemein

Gewünschten Ordner auswählen Thomas Rieske Lösung: Um einen der von Windows per Default angelegten Benutzerordner zu verschieben, starten Sie als Erstes den bordeigenen Datei-Explorer. Navigieren Sie dann am besten zum Bereich Schnellzugriff. Hier finden Sie alle Standardordner beziehungsweise -verzeichnisse, die sich auf die beschriebene Weise umziehen lassen, angepinnt auf einen Blick. Unter Windows 11 handelt es sich um Desktop, Downloads, Dokumente, Bilder, Musik und Videos. Ordner-Eigenschaften öffnen Thomas Rieske Nun klicken Sie mit der rechten Maustaste auf den betreffenden Ordner. Im Kontextmenü, das anschließend erscheint, wählen Sie den Punkt Eigenschaften. Alternativ kommen Sie nach der Auswahl eines Ordners auch mit der Tastenkombination Alt + Enter ans Ziel. Zur Registerkarte „Pfad“ wechseln Thomas Rieske Nun öffnet sich ein neues Fenster. Darin landen Sie standardmäßig auf der Registerkarte Allgemein. Für alle nachfolgenden Aktionen müssen Sie deshalb erst einmal zum Tab Pfad wechseln. Standard-Pfadangabe Thomas Rieske Sie sehen jetzt im unteren Bereich des Dialogs ein Feld mit der aktuellen Pfadangabe. Hierfür verwendet Windows wie in der Eingabeaufforderung die englischen Bezeichnungen, also etwa C:UsersTRPictures anstatt C:BenutzerTRBilder. Die Anpassung an die jeweilige Systemsprache gilt nur für die Darstellung auf der grafischen Benutzeroberfläche. Pfadangabe ändern Thomas Rieske Geben Sie nun den Pfad zum gewünschten neuen Speicherort ein. Dann bestätigen Sie die Aktion mit einem Klick auf OK. Sie können stattdessen auch auf den Verschieben-Button klicken und anschließend über den bekannten Explorer-Dialog einen vorhandenen Ordner auswählen. Nicht vorhandenen Ordner anlegen Thomas Rieske Sollten Sie über die direkte Pfadangabe einen Ordner festgelegt haben, der noch nicht existiert, erfolgt ein entsprechender Hinweis. Wählen Sie in diesem Dialog Ja, damit Windows den jeweiligen Ordner erstellt. Verschieben bestätigen Thomas Rieske Bevor Windows den Umzug durchführt, werden Sie abschließend gefragt, ob Sie tatsächlich alle Dateien an den neuen Ort verschieben möchten. Klicken Sie auf den Ja-Button, wenn Sie sicher sind und die Aktion starten wollen. Produkte: Der Trick funktioniert mit allen aktuellen Versionen von Windows 10 und Windows 11. 

Windows: Benutzerordner auf andere Laufwerke verschieben​ Gewünschten Ordner auswählen

Thomas Rieske

Lösung: Um einen der von Windows per Default angelegten Benutzerordner zu verschieben, starten Sie als Erstes den bordeigenen Datei-Explorer. Navigieren Sie dann am besten zum Bereich Schnellzugriff. Hier finden Sie alle Standardordner beziehungsweise -verzeichnisse, die sich auf die beschriebene Weise umziehen lassen, angepinnt auf einen Blick. Unter Windows 11 handelt es sich um Desktop, Downloads, Dokumente, Bilder, Musik und Videos.

Ordner-Eigenschaften öffnen

Thomas Rieske

Nun klicken Sie mit der rechten Maustaste auf den betreffenden Ordner. Im Kontextmenü, das anschließend erscheint, wählen Sie den Punkt Eigenschaften. Alternativ kommen Sie nach der Auswahl eines Ordners auch mit der Tastenkombination Alt + Enter ans Ziel.

Zur Registerkarte „Pfad“ wechseln

Thomas Rieske

Nun öffnet sich ein neues Fenster. Darin landen Sie standardmäßig auf der Registerkarte Allgemein. Für alle nachfolgenden Aktionen müssen Sie deshalb erst einmal zum Tab Pfad wechseln.

Standard-Pfadangabe

Thomas Rieske

Sie sehen jetzt im unteren Bereich des Dialogs ein Feld mit der aktuellen Pfadangabe. Hierfür verwendet Windows wie in der Eingabeaufforderung die englischen Bezeichnungen, also etwa C:UsersTRPictures anstatt C:BenutzerTRBilder. Die Anpassung an die jeweilige Systemsprache gilt nur für die Darstellung auf der grafischen Benutzeroberfläche.

Pfadangabe ändern

Thomas Rieske

Geben Sie nun den Pfad zum gewünschten neuen Speicherort ein. Dann bestätigen Sie die Aktion mit einem Klick auf OK. Sie können stattdessen auch auf den Verschieben-Button klicken und anschließend über den bekannten Explorer-Dialog einen vorhandenen Ordner auswählen.

Nicht vorhandenen Ordner anlegen

Thomas Rieske

Sollten Sie über die direkte Pfadangabe einen Ordner festgelegt haben, der noch nicht existiert, erfolgt ein entsprechender Hinweis. Wählen Sie in diesem Dialog Ja, damit Windows den jeweiligen Ordner erstellt.

Verschieben bestätigen

Thomas Rieske

Bevor Windows den Umzug durchführt, werden Sie abschließend gefragt, ob Sie tatsächlich alle Dateien an den neuen Ort verschieben möchten. Klicken Sie auf den Ja-Button, wenn Sie sicher sind und die Aktion starten wollen.

Produkte: Der Trick funktioniert mit allen aktuellen Versionen von Windows 10 und Windows 11.

Windows: Benutzerordner auf andere Laufwerke verschieben​ Weiterlesen »

Windows 11 24H2: Verschwundenen Mauszeiger zurückholen​

Allgemein

Systemsteuerung aufrufen Thomas Rieske Lösung: Der Fehler bewirkt, dass der Mauszeiger in Texteingabefeldern bestimmter Programme unsichtbar wird. Davon betroffen sind Chromium-basierte Anwendungen, wie Google Chrome, die aufgrund eines Kompatibilitätsproblems den Cursor nicht mehr anzeigen. Wenn der Bug bei Ihnen auftritt, öffnen Sie zunächst die von älteren Windows-Versionen bekannte – und immer noch vorhandene – Systemsteuerung. Hierzu tippen Sie deren Namen in das Windows-Suchfeld ein und klicken auf den entsprechenden Treffer. Navigation in der Kategorieansicht Thomas Rieske Achten Sie darauf, dass im Fenster der Systemsteuerung oben rechts als Ansicht Kategorie eingestellt ist. Dann wechseln Sie zum Punkt Hardware und Sound. Mauseigenschaften öffnen Thomas Rieske Auf der nächsten Seite finden Sie diverse Subkategorien mit verschiedenen Unterpunkten. Klicken Sie hier unter Geräte und Drucker auf den Eintrag Maus. Dialogbox „Eigenschaften von Maus“ Thomas Rieske Anschließend öffnet sich ein kleines Fenster mit fest vorgegebener Größe. Wechseln Sie darin zur Registerkarte Zeiger, und scrollen Sie dann unter Anpassen nach unten bis zum Punkt Textauswahl. Textauswahl-Cursor anpassen Thomas Rieske Nachdem Sie den Eintrag Textauswahl markiert haben, klicken Sie auf den Durchsuchen-Button. Cursor-Datei auswählen Thomas Rieske Anschließend öffnet sich ein neues Fenster mit dem Titel Durchsuchen. Wählen Sie aus der Liste die Datei beam_r.cur (hierbei handelt es sich um das Standard-Icon für den Mauszeiger), und klicken Sie auf die Schaltfläche Öffnen. Alternativ doppelklicken Sie auf das File. Danach können Sie das Fenster mit den Mauseigenschaften per OK-Button wieder schließen und die Systemsteuerung verlassen. Nun sollte der Maus-Cursor wieder überall angezeigt werden. Produkte: Der Trick funktioniert mit Windows 11 24H2. 

Windows 11 24H2: Verschwundenen Mauszeiger zurückholen​ Systemsteuerung aufrufen

Thomas Rieske

Lösung: Der Fehler bewirkt, dass der Mauszeiger in Texteingabefeldern bestimmter Programme unsichtbar wird. Davon betroffen sind Chromium-basierte Anwendungen, wie Google Chrome, die aufgrund eines Kompatibilitätsproblems den Cursor nicht mehr anzeigen.

Wenn der Bug bei Ihnen auftritt, öffnen Sie zunächst die von älteren Windows-Versionen bekannte – und immer noch vorhandene – Systemsteuerung. Hierzu tippen Sie deren Namen in das Windows-Suchfeld ein und klicken auf den entsprechenden Treffer.

Navigation in der Kategorieansicht

Thomas Rieske

Achten Sie darauf, dass im Fenster der Systemsteuerung oben rechts als Ansicht Kategorie eingestellt ist. Dann wechseln Sie zum Punkt Hardware und Sound.

Mauseigenschaften öffnen

Thomas Rieske

Auf der nächsten Seite finden Sie diverse Subkategorien mit verschiedenen Unterpunkten. Klicken Sie hier unter Geräte und Drucker auf den Eintrag Maus.

Dialogbox „Eigenschaften von Maus“

Thomas Rieske

Anschließend öffnet sich ein kleines Fenster mit fest vorgegebener Größe. Wechseln Sie darin zur Registerkarte Zeiger, und scrollen Sie dann unter Anpassen nach unten bis zum Punkt Textauswahl.

Textauswahl-Cursor anpassen

Thomas Rieske

Nachdem Sie den Eintrag Textauswahl markiert haben, klicken Sie auf den Durchsuchen-Button.

Cursor-Datei auswählen

Thomas Rieske

Anschließend öffnet sich ein neues Fenster mit dem Titel Durchsuchen. Wählen Sie aus der Liste die Datei beam_r.cur (hierbei handelt es sich um das Standard-Icon für den Mauszeiger), und klicken Sie auf die Schaltfläche Öffnen. Alternativ doppelklicken Sie auf das File.

Danach können Sie das Fenster mit den Mauseigenschaften per OK-Button wieder schließen und die Systemsteuerung verlassen. Nun sollte der Maus-Cursor wieder überall angezeigt werden.

Produkte: Der Trick funktioniert mit Windows 11 24H2.

Windows 11 24H2: Verschwundenen Mauszeiger zurückholen​ Weiterlesen »

iPhone 16 Pro vs. Galaxy S24 Ultra: Wer gewinnt das Duell?​

Allgemein

Foundry Das iPhone 16 Pro und das Galaxy S24 Ultra repräsentieren die Spitze der Smartphone-Technologie aus zwei verschiedenen Welten. Während Apple mit seinem neuen iPhone 16 Pro ein mächtiges, durchdachtes Upgrade liefert, setzt Samsung mit dem Galaxy S24 Ultra weiter auf pure Hardware-Power und KI-gestützte Features. Beide Modelle haben ihre Stärken und Schwächen – doch welches Flaggschiff ist letztlich besser? Design Beim Design zeigen sich die typischen Unterschiede zwischen Apple und Samsung: Das iPhone 16 Pro bleibt bei der bewährten, minimalistischen Ästhetik mit einem Titanrahmen. Es ist elegant wie immer, handlich und mit 199 Gramm leichter als das S24 Ultra. Für viele wird es angenehm zu halten sein, auch weil es kompakter ist. Das Design-Highlight der neuen Serie dürfte zweifellos die ungewöhnliche, aber auffällige Farbe “Titan Wüstensand” sein. Das Galaxy S24 Ultra setzt hingegen auf ein größeres und schwereres Design. Mit einem 6,8-Zoll-Display und 233 Gramm ist es eines der schwersten Nicht-Falt-Smartphones auf dem Markt. Samsung nutzt ebenfalls einen Titanrahmen und eine matte Rückseite, die resistent gegen Fingerabdrücke ist. Trotz des massiven Designs fühlt es sich durchdacht und hochwertig an, ist aber sicher nicht für jeden ideal in der Handhabung. Wer jedoch ein größeres Display bevorzugt, wird mit dem S24 Ultra zufriedener sein. Aktuell bester Preis: Apple iPhone 16 Pro Display In Sachen Display ist das Galaxy S24 Ultra klar im Vorteil. Das LTPO-AMOLED-Display mit einer beeindruckenden Spitzenhelligkeit von 2.600 Nits und einer dynamischen Bildwiederholrate zwischen 1 und 120 Hertz lässt keine Wünsche offen. Egal, ob beim Streamen, Spielen oder unter direktem Sonnenlicht – das Display liefert eine herausragende Qualität. Apple stattet das iPhone 16 Pro ebenfalls mit einem beeindruckenden OLED-Display aus, das jedoch “nur” 2.000 Nits erreicht. Die Bildwiederholrate liegt ebenfalls bei 120 Hertz. Während beide Displays exzellent sind, spielt das Samsung-Modell in einer eigenen Liga, besonders für diejenigen, die Wert auf Multimedia und visuelle Darstellung legen. Beim iPhone bleibt dafür die Helligkeit im Innenbereich etwas besser regulierbar, was den Akku schont und den täglichen Gebrauch angenehm macht. Performance Sowohl Apple als auch Samsung haben ihre Modelle mit unglaublicher Performance ausgestattet, jedoch auf unterschiedlichen Wegen. Der A18-Chip des iPhone 16 Pro liefert, wie erwartet, extreme Leistung. Bei Alltagsaufgaben und grafikintensiven Anwendungen glänzt es dank seiner 30 Prozent schnelleren CPU und 40 Prozent stärkeren GPU-Leistung im Vergleich zum Vorgänger. Außerdem punktet Apple mit 8 GB RAM und der Unterstützung von Apple Intelligence, einer KI-Funktion, die allerdings erst ab 2025 in vollem Umfang nutzbar sein wird. Samsung setzt hingegen auf den Snapdragon 8 Gen 3 oder Exynos 2400 (je nach Markt), der ebenfalls für beeindruckende Geschwindigkeit sorgt, vordergründig bei Spielen und KI-gestützten Anwendungen. Besonders das Multitasking und Gaming laufen reibungslos, auch wenn der Exynos in Benchmarks leicht hinter dem A18-Chip liegt. Die KI-Funktionen von Samsung sind schon heute weiter entwickelt und bieten praktische Anwendungen im Alltag, wie die Live-Übersetzung und KI-basierte Fotobearbeitung. Aktuell bester Preis: Samsung Galaxy S24 Ultra Kameras Beide Smartphones bieten beeindruckende Kamera-Set-ups, doch die Ansätze sind verschieden. Das iPhone 16 Pro setzt auf bewährte Qualität mit einer 48-Megapixel-Hauptkamera und neu eingeführter Kamerasteuerung, die präzisere Einstellungen ermöglicht. Besonders für professionelle Anwender, die Fotos manuell bearbeiten und anpassen möchten, bietet diese neue Funktion mehr Kontrolle. Das Galaxy S24 Ultra hingegen übertrifft das iPhone mit einer Vielzahl an Funktionen und einem herausragenden 200-Megapixel-Hauptsensor. Besonders bei Zoom-Aufnahmen zeigt sich das S24 Ultra überlegen. Während Apple weiterhin auf einen 2-fach-Digitalzoom setzt, bietet Samsung einen 5-fach-optischen Zoom, der nicht nur flexibler, sondern auch detailreicher ist. Für Fotos bei schlechten Lichtverhältnissen oder mit viel Zoom ist das Samsung-Modell die bessere Wahl, während das iPhone eine konsistente Leistung in nahezu allen Situationen bietet. Akkulaufzeit In puncto Akkulaufzeit hat das Galaxy S24 Ultra klar die Nase vorn. Mit seinem 5.000-mAh-Akku liefert es beeindruckende Ausdauer, selbst bei intensiver Nutzung. Der Akku hält problemlos einen vollen Tag und kann bei moderater Nutzung bis zu zwei Tage durchhalten. Apple hat beim iPhone 16 Pro zwar ebenfalls nachgebessert, doch der 3.500-mAh-Akku reicht nicht ganz an die Ausdauer des Samsung-Konkurrenten heran. Ein Vorteil des iPhones liegt jedoch im Bereich des kabellosen Ladens, das mit MagSafe schneller und effizienter funktioniert als das 15-Watt-Laden des S24 Ultra. Preis Die beiden Modelle sind preislich nahezu auf Augenhöhe. Das iPhone 16 Pro startet im Apple Store bei 1.199 Euro für die 128-GB-Version, während das Galaxy S24 Ultra ab 1.189 Euro erhältlich ist. Wer mehr Speicher benötigt, kann bei beiden auf bis zu 1 TB aufrüsten, allerdings sind die größeren Varianten des iPhones teurer als das Samsung-Pendant – insbesondere weil das S24 Ultra bei Amazon teilweise viel günstiger erhältlich ist. Technische Daten im Vergleich KategorieiPhone 16 ProSamsung Galaxy S24 UltraDisplay6,3 Zoll Super Retina XDR, OLED6,8 Zoll AMOLED, LTPOAuflösung2.622 × 1.206 Pixel, 460 ppi3.120 × 1.440 Pixel, 500 ppiHelligkeit2.000 Nits (Spitzenhelligkeit)2.600 Nits (Spitzenhelligkeit)ProzessorA18 ProSnapdragon 8 Gen 3 (in Deutschland)RAM8 GB12 GBSpeicheroptionen128 GB, 256 GB, 512 GB, 1 TB256 GB, 512 GB, 1 TBHauptkamera48 MP (Weitwinkel), 12 MP (Ultraweit), 12 MP (Tele)200 MP (Weitwinkel), 12 MP (Ultraweit), 50 MP (5x Tele)Frontkamera12 MP12 MPZoom2-fach-optischer Zoom5-fach-optischer Zoom, 100-fach Space ZoomAkkukapazität3.521 mAh5.000 mAhAkku-LaufzeitBis zu 27 Stunden VideowiedergabeBis zu 20 Stunden intensive NutzungKabelloses LadenMagSafe und QiQi, kein Qi2Kabelloses SchnellladenUnterstützt, bis zu 50 % in 30 Minuten45W, bis zu 50 % in 30 MinutenBetriebssystemiOS 17Android 14, One UI 6.1S-PenNeinJa, integriertSIM-KartenNano-SIM, eSIMDual-SIM, eSIMWasser-/StaubschutzIP68IP68Gewicht199 g233 gFarbenTitan Schwarz, Titan Weiß, Titan Natur, Titan WüstensandPhantom Black, Cream, Sky Blue, Lime, GraphitePreis (offiziell)ab 1.199 Euroab 1.189 Euro Fazit Das Galaxy S24 Ultra hat uns beim Display und der Kamera-Ausstattung am meisten überzeugt. Mit der hohen Helligkeit, der überlegenen Zoom-Funktion und dem größeren Bildschirm eignet es sich besonders für Multimedia-Liebhaber und Fotografen. Beim iPhone 16 Pro punktet vorrangig die Performance, die nahtlose Integration ins Apple-Ökosystem und die innovative Kamerasteuerung. Auch im Hinblick auf Handlichkeit liegt das iPhone ganz klar vorn, da es leichter und kompakter ist. Preislich sind beide Modelle fast identisch, doch wer nach dem besten Preis-Leistungs-Verhältnis sucht, könnte beim Galaxy S24 Ultra mehr geboten bekommen. (PC-Welt) 

iPhone 16 Pro vs. Galaxy S24 Ultra: Wer gewinnt das Duell?​ Foundry

Das iPhone 16 Pro und das Galaxy S24 Ultra repräsentieren die Spitze der Smartphone-Technologie aus zwei verschiedenen Welten. Während Apple mit seinem neuen iPhone 16 Pro ein mächtiges, durchdachtes Upgrade liefert, setzt Samsung mit dem Galaxy S24 Ultra weiter auf pure Hardware-Power und KI-gestützte Features. Beide Modelle haben ihre Stärken und Schwächen – doch welches Flaggschiff ist letztlich besser?

Design

Beim Design zeigen sich die typischen Unterschiede zwischen Apple und Samsung: Das iPhone 16 Pro bleibt bei der bewährten, minimalistischen Ästhetik mit einem Titanrahmen. Es ist elegant wie immer, handlich und mit 199 Gramm leichter als das S24 Ultra.

Für viele wird es angenehm zu halten sein, auch weil es kompakter ist. Das Design-Highlight der neuen Serie dürfte zweifellos die ungewöhnliche, aber auffällige Farbe “Titan Wüstensand” sein.

Das Galaxy S24 Ultra setzt hingegen auf ein größeres und schwereres Design. Mit einem 6,8-Zoll-Display und 233 Gramm ist es eines der schwersten Nicht-Falt-Smartphones auf dem Markt. Samsung nutzt ebenfalls einen Titanrahmen und eine matte Rückseite, die resistent gegen Fingerabdrücke ist.

Trotz des massiven Designs fühlt es sich durchdacht und hochwertig an, ist aber sicher nicht für jeden ideal in der Handhabung. Wer jedoch ein größeres Display bevorzugt, wird mit dem S24 Ultra zufriedener sein.

Aktuell bester Preis: Apple iPhone 16 Pro

Display

In Sachen Display ist das Galaxy S24 Ultra klar im Vorteil. Das LTPO-AMOLED-Display mit einer beeindruckenden Spitzenhelligkeit von 2.600 Nits und einer dynamischen Bildwiederholrate zwischen 1 und 120 Hertz lässt keine Wünsche offen. Egal, ob beim Streamen, Spielen oder unter direktem Sonnenlicht – das Display liefert eine herausragende Qualität.

Apple stattet das iPhone 16 Pro ebenfalls mit einem beeindruckenden OLED-Display aus, das jedoch “nur” 2.000 Nits erreicht. Die Bildwiederholrate liegt ebenfalls bei 120 Hertz.

Während beide Displays exzellent sind, spielt das Samsung-Modell in einer eigenen Liga, besonders für diejenigen, die Wert auf Multimedia und visuelle Darstellung legen. Beim iPhone bleibt dafür die Helligkeit im Innenbereich etwas besser regulierbar, was den Akku schont und den täglichen Gebrauch angenehm macht.

Performance

Sowohl Apple als auch Samsung haben ihre Modelle mit unglaublicher Performance ausgestattet, jedoch auf unterschiedlichen Wegen. Der A18-Chip des iPhone 16 Pro liefert, wie erwartet, extreme Leistung. Bei Alltagsaufgaben und grafikintensiven Anwendungen glänzt es dank seiner 30 Prozent schnelleren CPU und 40 Prozent stärkeren GPU-Leistung im Vergleich zum Vorgänger.

Außerdem punktet Apple mit 8 GB RAM und der Unterstützung von Apple Intelligence, einer KI-Funktion, die allerdings erst ab 2025 in vollem Umfang nutzbar sein wird.

Samsung setzt hingegen auf den Snapdragon 8 Gen 3 oder Exynos 2400 (je nach Markt), der ebenfalls für beeindruckende Geschwindigkeit sorgt, vordergründig bei Spielen und KI-gestützten Anwendungen.

Besonders das Multitasking und Gaming laufen reibungslos, auch wenn der Exynos in Benchmarks leicht hinter dem A18-Chip liegt. Die KI-Funktionen von Samsung sind schon heute weiter entwickelt und bieten praktische Anwendungen im Alltag, wie die Live-Übersetzung und KI-basierte Fotobearbeitung.

Aktuell bester Preis: Samsung Galaxy S24 Ultra

Kameras

Beide Smartphones bieten beeindruckende Kamera-Set-ups, doch die Ansätze sind verschieden. Das iPhone 16 Pro setzt auf bewährte Qualität mit einer 48-Megapixel-Hauptkamera und neu eingeführter Kamerasteuerung, die präzisere Einstellungen ermöglicht. Besonders für professionelle Anwender, die Fotos manuell bearbeiten und anpassen möchten, bietet diese neue Funktion mehr Kontrolle.

Das Galaxy S24 Ultra hingegen übertrifft das iPhone mit einer Vielzahl an Funktionen und einem herausragenden 200-Megapixel-Hauptsensor. Besonders bei Zoom-Aufnahmen zeigt sich das S24 Ultra überlegen.

Während Apple weiterhin auf einen 2-fach-Digitalzoom setzt, bietet Samsung einen 5-fach-optischen Zoom, der nicht nur flexibler, sondern auch detailreicher ist. Für Fotos bei schlechten Lichtverhältnissen oder mit viel Zoom ist das Samsung-Modell die bessere Wahl, während das iPhone eine konsistente Leistung in nahezu allen Situationen bietet.

Akkulaufzeit

In puncto Akkulaufzeit hat das Galaxy S24 Ultra klar die Nase vorn. Mit seinem 5.000-mAh-Akku liefert es beeindruckende Ausdauer, selbst bei intensiver Nutzung. Der Akku hält problemlos einen vollen Tag und kann bei moderater Nutzung bis zu zwei Tage durchhalten. Apple hat beim iPhone 16 Pro zwar ebenfalls nachgebessert, doch der 3.500-mAh-Akku reicht nicht ganz an die Ausdauer des Samsung-Konkurrenten heran. Ein Vorteil des iPhones liegt jedoch im Bereich des kabellosen Ladens, das mit MagSafe schneller und effizienter funktioniert als das 15-Watt-Laden des S24 Ultra.

Preis

Die beiden Modelle sind preislich nahezu auf Augenhöhe. Das iPhone 16 Pro startet im Apple Store bei 1.199 Euro für die 128-GB-Version, während das Galaxy S24 Ultra ab 1.189 Euro erhältlich ist. Wer mehr Speicher benötigt, kann bei beiden auf bis zu 1 TB aufrüsten, allerdings sind die größeren Varianten des iPhones teurer als das Samsung-Pendant – insbesondere weil das S24 Ultra bei Amazon teilweise viel günstiger erhältlich ist.

Technische Daten im Vergleich

KategorieiPhone 16 ProSamsung Galaxy S24 UltraDisplay6,3 Zoll Super Retina XDR, OLED6,8 Zoll AMOLED, LTPOAuflösung2.622 × 1.206 Pixel, 460 ppi3.120 × 1.440 Pixel, 500 ppiHelligkeit2.000 Nits (Spitzenhelligkeit)2.600 Nits (Spitzenhelligkeit)ProzessorA18 ProSnapdragon 8 Gen 3 (in Deutschland)RAM8 GB12 GBSpeicheroptionen128 GB, 256 GB, 512 GB, 1 TB256 GB, 512 GB, 1 TBHauptkamera48 MP (Weitwinkel), 12 MP (Ultraweit), 12 MP (Tele)200 MP (Weitwinkel), 12 MP (Ultraweit), 50 MP (5x Tele)Frontkamera12 MP12 MPZoom2-fach-optischer Zoom5-fach-optischer Zoom, 100-fach Space ZoomAkkukapazität3.521 mAh5.000 mAhAkku-LaufzeitBis zu 27 Stunden VideowiedergabeBis zu 20 Stunden intensive NutzungKabelloses LadenMagSafe und QiQi, kein Qi2Kabelloses SchnellladenUnterstützt, bis zu 50 % in 30 Minuten45W, bis zu 50 % in 30 MinutenBetriebssystemiOS 17Android 14, One UI 6.1S-PenNeinJa, integriertSIM-KartenNano-SIM, eSIMDual-SIM, eSIMWasser-/StaubschutzIP68IP68Gewicht199 g233 gFarbenTitan Schwarz, Titan Weiß, Titan Natur, Titan WüstensandPhantom Black, Cream, Sky Blue, Lime, GraphitePreis (offiziell)ab 1.199 Euroab 1.189 Euro

Fazit

Das Galaxy S24 Ultra hat uns beim Display und der Kamera-Ausstattung am meisten überzeugt. Mit der hohen Helligkeit, der überlegenen Zoom-Funktion und dem größeren Bildschirm eignet es sich besonders für Multimedia-Liebhaber und Fotografen.

Beim iPhone 16 Pro punktet vorrangig die Performance, die nahtlose Integration ins Apple-Ökosystem und die innovative Kamerasteuerung. Auch im Hinblick auf Handlichkeit liegt das iPhone ganz klar vorn, da es leichter und kompakter ist. Preislich sind beide Modelle fast identisch, doch wer nach dem besten Preis-Leistungs-Verhältnis sucht, könnte beim Galaxy S24 Ultra mehr geboten bekommen.

(PC-Welt)

iPhone 16 Pro vs. Galaxy S24 Ultra: Wer gewinnt das Duell?​ Weiterlesen »

HP Laptop 14 im Test: Eleganter und portabler Laptop zum günstigen Einstiegspreis​

Allgemein

Mattias Inghe Auf einen Blick Pro Kompakt und gut konstruiert Ausgezeichnete Tastatur und Maus Gute Akkulaufzeit Kontra Rechenleistung könnte besser sein Nicht der beste Bildschirm Geräuschvolle Kühlung Fazit Ein stilvolles Design, ein komfortables Layout und eine akzeptable Qualität in den meisten Bereichen sind die Haupteindrücke des HP Laptop 14. Allerdings gibt es auch Nachteile, wie schwache Multitasking-Fähigkeiten, eine lästige Lüfterkühlung und ein Bildschirm, der besser hätte sein können. HP hat viele verschiedene Marken für Computer. Für professionelle und Business-Laptops gibt es Z, Probook, Elitebook und Dragonfly. Für Spiele gibt es Omen und Victus. Für Verbraucher gibt es Spectre, Envy und Pavilion. Und dann gibt es noch HP. Das sind die einfachsten und günstigsten Geräte von HP. Mehr Auswahl finden Sie in unserem großen Vergleichs-Test “Die besten Laptops 2024 aller Klassen: Premium, Budget, Gaming und 2-in-1”. Sie suchen ein gutes Gaming-Notebook – dann schauen Sie in unserem Beitrag “Test: Die besten Gaming-Laptops im Vergleich” vorbei. Fürs Büro und Homeoffice haben wir ebenfalls einen spezialisierten Test am Start: “Die besten Business-Laptops im Vergleich“. Design & Verarbeitung Das von uns getestete Modell, ein 14-Zoll-Modell für knapp 500 Euro besitzt zwei Dinge, die als Bonus gelten. Erstens einen Fingerabdruckleser, der eine zuverlässige biometrische Anmeldung ermöglicht, und zweitens eine beleuchtete Tastatur. Ansonsten gibt es bei den Spezifikationen nichts Überraschendes. Ein einfacher Intel Core i3-Prozessor des stromsparenden und nicht allzu schnellen Typs, 8 GB Arbeitsspeicher, 512 GB SSD und eine kleine Reihe von USB-3-Anschlüssen, ein HDMI-Anschluss, eine Headset-Buchse und eine zuverlässig gute Netzwerkkonnektivität über WiFi 6. Mattias Inghe Das Gehäuse besteht größtenteils aus Kunststoff, wodurch die Wärme des Prozessors ausschließlich über die Lüfter abgeleitet wird. Die Lüfter laufen häufig, selbst bei geringer Last. Es gibt nur zwei Modi: halbschnell mit halblautem Lüftersurren und volle Pulle mit mehr Lärm. Das ist auf Dauer nervig. Ich kann keine Funktion oder Einstellung zur Steuerung der Kühlung finden, wie es bei vielen anderen Herstellern der Fall ist. Mattias Inghe Der HP-Laptop besticht durch sein stilvolles Design mit gedämpften dunkelblauen Oberflächen, einer stabilen Bildschirmabdeckung aus Metall und einer komfortablen Tastatur mit klarer Hintergrundbeleuchtung. Es ist ultra-leicht, dünn und hat sanft abgerundete Kanten – perfekt für den komfortablen Transport. Das Mauspad ist bequem und hochwertig. Display, Audio & Webcam Die matte Oberfläche des Bildschirms fängt Reflexionen ab. Das Display ist von guter Qualität für einen IPS-Bildschirm in einem günstigen Notebook. Der Kontrast ist akzeptabel und die Farben sind gleichmäßig und neutral. Bei einem zu engen Winkel kommt es zu deutlichen Kontrastverschiebungen und blassen schwarzen Bereichen. Das ist jedoch kein Problem, da ich dies nicht bemerke, wenn ich wie gewohnt am Computer sitze und arbeite. Das Display flackert leicht bei geringer Helligkeit. Dies ist ein deutlicher Hinweis darauf, dass er mit einfacher Pulsmodulation angesteuert wird. Ich kann verstehen, dass dies für manche Benutzer störend und ermüdend ist. Ich persönlich habe damit kein Problem. Was mich stört, ist die geringe Helligkeit und die kleine Farbskala. Dadurch wird das Bild blass und in zu heller Umgebung schwer erkennbar. Ein helles Fenster auf der Rückseite kann ausreichen, um das Bild schwer lesbar zu machen. In einer normalen Innenumgebung kann man sich jedoch kaum beschweren. Es sieht gut aus, wenn man mit Dokumenten und im Internet arbeitet, und es sieht gut aus, wenn man Filme streamt.Aus den im Gehäuse versteckten Lautsprechern kommt ein sauberer, klarer Sound. Sie liefern reichlich Lautstärke, verlieren aber an Fülle und Tiefe in den Mitten und Bässen. Das ist bei kleinen Lautsprechern in einem kleinen Notebook nicht verwunderlich, aber ich hoffe immer auf etwas mehr, wenn ich Computer teste. Manchmal können sie überraschen. HP hat eine eigene Soundkontroll-Software, mit der ich den Equalizer einstellen und auch einen effektiven Rauschfilter für das eingebaute Mikrofon einrichten kann. Das könnte notwendig sein, da es normalerweise ziemlich laut ist. Die Webcam hat eine Auflösung von 1080p. Allerdings sind die Farben blass und der Kontrast gering. Das ist keine professionelle Qualität, aber für eine Videokonferenz reicht es aus. Mattias Inghe Akkulaufzeit Die Akkulaufzeit ist im Vergleich zu ähnlichen Notebooks überdurchschnittlich. Ich kann den Computer über drei Stunden lang benutzen, und wenn ich ihn nicht zu sehr beanspruche, hält er sogar einen ganzen Arbeitstag durch (15:15 Stunden). Allerdings ist es besser, das kleine Ladegerät dabei zu haben, da man den Akku nicht über den USB-C-Anschluss aufladen kann, sondern nur über den speziellen runden Stecker des Ladegeräts. Leistung Dies ist ein Computer zum Surfen, für Büroarbeiten und vielleicht für einfache Bildbearbeitung. Mit ungewöhnlich wenigen Kernen für einen Intel Core-Prozessor der 13. Generation (insgesamt nur 6) ist er den Multitasking-Anforderungen eines Windows 11-PCs nicht gewachsen. Der kleinste Versuch eines aktiven Multitaskings hat Pausen zur Folge. Das zeigt sich in den Leistungsmessungen. Routinen, die die Leistung auf einem Kern messen, erzielen gute Ergebnisse, aber Multi-Core-Operationen sind deutlich langsamer als auf den meisten anderen Computern. Dazu gehören Dinge wie Datenbankaufträge, anspruchsvolles Multitasking und Videoexport. Mehr Arbeitsspeicher wäre auch in diesen Situationen gut gewesen, jetzt bekommen Sie 8 GB und keine Option zum Aufrüsten. Eine 512 GB SSD eines einigermaßen schnellen Typs ist auf jeden Fall positiv. Cinebench R23, CPU alle Kerne: 5.419 PunkteCinebench R23, Einzelkern-CPU: 1.617 PunkteGeekbench 6, CPU alle Kerne: 4.953 PunkteGeekbench 6, Einzelkern-CPU: 2.129 PunkteGeekbench 6, GPU: 9,731 PunkteSSD, Lesen: 3.623,99 MB/sSSD, Schreiben: 2.528,55 MB/s Fazit Der HP Laptop 14 ist ein elegantes Notebook mit einem komfortablen Layout. Für den günstigen Preis bekommen Sie sogar noch einen Fingerabdruckscanner zur Authentifizierung sowie eine beleuchtete Tastatur. Zu den Nachteilen des Laptops zählen die schwachen Multitasking-Fähigkeiten, der nervige Lüfter und der nur durchschnittliche Bildschirm. Technische Daten Produktname: HP Laptop 14 (ee0035ng) Modellnummer: 917W4EA Prozessor: Intel Core i3-1315U, 2 P-Kerne mit bis zu 4,5 GHz, 4 E-Kerne mit bis zu 3,3 GHz Grafik: Intel UHD Grafik 64 EU Arbeitsspeicher: 8 GB DDR4 Interner Speicher: 512 GB SSD Bildschirm: 14 Zoll IPS, 1.920 × 1.080 Pixel, 60 Hz Webcam: 1080p Anschlüsse: USB-C 3. Gen. 1, 2 × USB-A 3. Gen. 1, 1 × HDMI, 1 × Headset Drahtlos: Wifi 6, Bluetooth 5.3 Betriebssystem: Windows 11 Home Sonstiges: Fingerabdruckleser, hintergrundbeleuchtete Tastatur Geräuschpegel: 0 bis 40 dBa Akkulaufzeit: 3:10 Stunden (hohe Last, volle Helligkeit), 15:15 Stunden (niedrige Last, niedrige Helligkeit) Abmessungen: 32,4 × 21,5 × 1,7 cm (B × T× H) Gewicht: 1,4 kg (PC-Welt) 

HP Laptop 14 im Test: Eleganter und portabler Laptop zum günstigen Einstiegspreis​ Mattias Inghe

Auf einen Blick

Pro

Kompakt und gut konstruiert

Ausgezeichnete Tastatur und Maus

Gute Akkulaufzeit

Kontra

Rechenleistung könnte besser sein

Nicht der beste Bildschirm

Geräuschvolle Kühlung

Fazit

Ein stilvolles Design, ein komfortables Layout und eine akzeptable Qualität in den meisten Bereichen sind die Haupteindrücke des HP Laptop 14. Allerdings gibt es auch Nachteile, wie schwache Multitasking-Fähigkeiten, eine lästige Lüfterkühlung und ein Bildschirm, der besser hätte sein können.

HP hat viele verschiedene Marken für Computer. Für professionelle und Business-Laptops gibt es Z, Probook, Elitebook und Dragonfly. Für Spiele gibt es Omen und Victus. Für Verbraucher gibt es Spectre, Envy und Pavilion. Und dann gibt es noch HP. Das sind die einfachsten und günstigsten Geräte von HP.

Mehr Auswahl finden Sie in unserem großen Vergleichs-Test “Die besten Laptops 2024 aller Klassen: Premium, Budget, Gaming und 2-in-1”. Sie suchen ein gutes Gaming-Notebook – dann schauen Sie in unserem Beitrag “Test: Die besten Gaming-Laptops im Vergleich” vorbei. Fürs Büro und Homeoffice haben wir ebenfalls einen spezialisierten Test am Start: “Die besten Business-Laptops im Vergleich“.

Design & Verarbeitung

Das von uns getestete Modell, ein 14-Zoll-Modell für knapp 500 Euro besitzt zwei Dinge, die als Bonus gelten. Erstens einen Fingerabdruckleser, der eine zuverlässige biometrische Anmeldung ermöglicht, und zweitens eine beleuchtete Tastatur.

Ansonsten gibt es bei den Spezifikationen nichts Überraschendes. Ein einfacher Intel Core i3-Prozessor des stromsparenden und nicht allzu schnellen Typs, 8 GB Arbeitsspeicher, 512 GB SSD und eine kleine Reihe von USB-3-Anschlüssen, ein HDMI-Anschluss, eine Headset-Buchse und eine zuverlässig gute Netzwerkkonnektivität über WiFi 6.

Mattias Inghe

Das Gehäuse besteht größtenteils aus Kunststoff, wodurch die Wärme des Prozessors ausschließlich über die Lüfter abgeleitet wird. Die Lüfter laufen häufig, selbst bei geringer Last. Es gibt nur zwei Modi: halbschnell mit halblautem Lüftersurren und volle Pulle mit mehr Lärm. Das ist auf Dauer nervig. Ich kann keine Funktion oder Einstellung zur Steuerung der Kühlung finden, wie es bei vielen anderen Herstellern der Fall ist.

Mattias Inghe

Der HP-Laptop besticht durch sein stilvolles Design mit gedämpften dunkelblauen Oberflächen, einer stabilen Bildschirmabdeckung aus Metall und einer komfortablen Tastatur mit klarer Hintergrundbeleuchtung. Es ist ultra-leicht, dünn und hat sanft abgerundete Kanten – perfekt für den komfortablen Transport. Das Mauspad ist bequem und hochwertig.

Display, Audio & Webcam

Die matte Oberfläche des Bildschirms fängt Reflexionen ab. Das Display ist von guter Qualität für einen IPS-Bildschirm in einem günstigen Notebook. Der Kontrast ist akzeptabel und die Farben sind gleichmäßig und neutral. Bei einem zu engen Winkel kommt es zu deutlichen Kontrastverschiebungen und blassen schwarzen Bereichen. Das ist jedoch kein Problem, da ich dies nicht bemerke, wenn ich wie gewohnt am Computer sitze und arbeite.

Das Display flackert leicht bei geringer Helligkeit. Dies ist ein deutlicher Hinweis darauf, dass er mit einfacher Pulsmodulation angesteuert wird. Ich kann verstehen, dass dies für manche Benutzer störend und ermüdend ist. Ich persönlich habe damit kein Problem. Was mich stört, ist die geringe Helligkeit und die kleine Farbskala. Dadurch wird das Bild blass und in zu heller Umgebung schwer erkennbar. Ein helles Fenster auf der Rückseite kann ausreichen, um das Bild schwer lesbar zu machen. In einer normalen Innenumgebung kann man sich jedoch kaum beschweren. Es sieht gut aus, wenn man mit Dokumenten und im Internet arbeitet, und es sieht gut aus, wenn man Filme streamt.Aus den im Gehäuse versteckten Lautsprechern kommt ein sauberer, klarer Sound. Sie liefern reichlich Lautstärke, verlieren aber an Fülle und Tiefe in den Mitten und Bässen. Das ist bei kleinen Lautsprechern in einem kleinen Notebook nicht verwunderlich, aber ich hoffe immer auf etwas mehr, wenn ich Computer teste. Manchmal können sie überraschen. HP hat eine eigene Soundkontroll-Software, mit der ich den Equalizer einstellen und auch einen effektiven Rauschfilter für das eingebaute Mikrofon einrichten kann. Das könnte notwendig sein, da es normalerweise ziemlich laut ist.

Die Webcam hat eine Auflösung von 1080p. Allerdings sind die Farben blass und der Kontrast gering. Das ist keine professionelle Qualität, aber für eine Videokonferenz reicht es aus.

Mattias Inghe

Akkulaufzeit

Die Akkulaufzeit ist im Vergleich zu ähnlichen Notebooks überdurchschnittlich. Ich kann den Computer über drei Stunden lang benutzen, und wenn ich ihn nicht zu sehr beanspruche, hält er sogar einen ganzen Arbeitstag durch (15:15 Stunden). Allerdings ist es besser, das kleine Ladegerät dabei zu haben, da man den Akku nicht über den USB-C-Anschluss aufladen kann, sondern nur über den speziellen runden Stecker des Ladegeräts.

Leistung

Dies ist ein Computer zum Surfen, für Büroarbeiten und vielleicht für einfache Bildbearbeitung. Mit ungewöhnlich wenigen Kernen für einen Intel Core-Prozessor der 13. Generation (insgesamt nur 6) ist er den Multitasking-Anforderungen eines Windows 11-PCs nicht gewachsen. Der kleinste Versuch eines aktiven Multitaskings hat Pausen zur Folge.

Das zeigt sich in den Leistungsmessungen. Routinen, die die Leistung auf einem Kern messen, erzielen gute Ergebnisse, aber Multi-Core-Operationen sind deutlich langsamer als auf den meisten anderen Computern. Dazu gehören Dinge wie Datenbankaufträge, anspruchsvolles Multitasking und Videoexport. Mehr Arbeitsspeicher wäre auch in diesen Situationen gut gewesen, jetzt bekommen Sie 8 GB und keine Option zum Aufrüsten. Eine 512 GB SSD eines einigermaßen schnellen Typs ist auf jeden Fall positiv.

Cinebench R23, CPU alle Kerne: 5.419 PunkteCinebench R23, Einzelkern-CPU: 1.617 PunkteGeekbench 6, CPU alle Kerne: 4.953 PunkteGeekbench 6, Einzelkern-CPU: 2.129 PunkteGeekbench 6, GPU: 9,731 PunkteSSD, Lesen: 3.623,99 MB/sSSD, Schreiben: 2.528,55 MB/s

Fazit

Der HP Laptop 14 ist ein elegantes Notebook mit einem komfortablen Layout. Für den günstigen Preis bekommen Sie sogar noch einen Fingerabdruckscanner zur Authentifizierung sowie eine beleuchtete Tastatur. Zu den Nachteilen des Laptops zählen die schwachen Multitasking-Fähigkeiten, der nervige Lüfter und der nur durchschnittliche Bildschirm.

Technische Daten

Produktname: HP Laptop 14 (ee0035ng)

Modellnummer: 917W4EA

Prozessor: Intel Core i3-1315U, 2 P-Kerne mit bis zu 4,5 GHz, 4 E-Kerne mit bis zu 3,3 GHz

Grafik: Intel UHD Grafik 64 EU

Arbeitsspeicher: 8 GB DDR4

Interner Speicher: 512 GB SSD

Bildschirm: 14 Zoll IPS, 1.920 × 1.080 Pixel, 60 Hz

Webcam: 1080p

Anschlüsse: USB-C 3. Gen. 1, 2 × USB-A 3. Gen. 1, 1 × HDMI, 1 × Headset

Drahtlos: Wifi 6, Bluetooth 5.3

Betriebssystem: Windows 11 Home

Sonstiges: Fingerabdruckleser, hintergrundbeleuchtete Tastatur

Geräuschpegel: 0 bis 40 dBa

Akkulaufzeit: 3:10 Stunden (hohe Last, volle Helligkeit), 15:15 Stunden (niedrige Last, niedrige Helligkeit)

Abmessungen: 32,4 × 21,5 × 1,7 cm (B × T× H)

Gewicht: 1,4 kg

(PC-Welt)

HP Laptop 14 im Test: Eleganter und portabler Laptop zum günstigen Einstiegspreis​ Weiterlesen »

Wie Sie Mac und Android richtig verbinden​

Allgemein

Rokas Tenys / shutterstock.com Viele glauben, dass Android und Mac nicht wirklich kompatibel sind. Doch nach über einem Jahr mit beiden Systemen im Parallelgebrauch muss ich sagen: Es geht leichter, als ich dachte. Lesen Sie, welche Tools und Tipps die Zusammenarbeit zwischen Android und macOS erleichtern. Dateien zwischen Android und Mac übertragen Eines der wichtigsten Themen für die Nutzung von Android auf dem Mac ist die Übertragung von Dateien. Wie bekommt man Fotos, Videos und Dokumente vom Android-Smartphone auf den Mac? Ein einfaches und bewährtes Tool ist der Android File Transfer. Dieses Programm ist kostenlos und ermöglicht eine schnelle Übertragung von Dateien zwischen Android und macOS. Sobald Sie es installiert haben, verbinden Sie Ihr Android-Gerät per USB-Kabel mit dem Mac, und schon können Sie auf den internen Speicher Ihres Smartphones zugreifen. So funktioniert’s: Installieren Sie den Android File Transfer auf dem Mac. Schließen Sie das Android-Gerät per USB-Kabel an. Die App öffnet sich automatisch. Übertragen Sie die Dateien ganz simpel per Drag-and-drop. Eine Alternative zur Kabelverbindung bietet AirDroid, ein Tool, das auch kabellos funktioniert. Damit können Sie nicht nur Dateien übertragen, sondern auch Nachrichten senden und empfangen oder Ihr Android-Gerät vom Mac aus fernsteuern. AirDroid gibt es als kostenlose und kostenpflichtige Version. AirDroid-App auf dem Mac: Nach dem Verbinden des Android-Handys können Sie Dateien übertragen und sogar Nachrichten senden.Macwelt Auch Whatsapp oder andere Messenger können wichtige Links oder Dateien zwischen Android und Mac verschicken. Dazu müssen Sie sich einfach nur selbst eine Nachricht schicken und auf dem jeweiligen Gerät abrufen – zum Beispiel über Whatsapp Web oder eine entsprechende Messenger-App. Kontakte, Kalender und Notizen synchronisieren Die Synchronisation von Kontakten, Kalendern und Notizen zwischen Android und dem Mac löse ich über Cloud-Dienste wie Google. Da Android eng mit Google-Diensten verknüpft ist, ergibt es Sinn, Ihr Google-Konto auf dem Mac einzubinden. Die Daten werden so nahtlos synchronisiert. Für die Synchronisation von Kontakten und Kalendern: Richten Sie auf Ihrem Mac das entsprechende Google-Konto unter Systemeinstellungen > “Internetaccounts” ein. Wählen Sie die gewünschten Dienste zur Synchronisation aus (Kontakte, Kalender, Notizen). Stellen Sie sicher, dass die Kontakte- und Kalender-App neue Einträge automatisch in Ihrem Google-Konto speichert. Gehen Sie dafür in die Einstellungen der jeweiligen App, navigieren Sie zu „Allgemein“ und wählen Sie bei „Standardkalender“ beziehungsweise „Standardaccount“ Ihr Google-Konto aus. Ab diesem Zeitpunkt werden Ihre Kalender- und Kontaktdaten über Google synchronisiert, anstelle von Apples iCloud. Bereits bestehende Einträge können Sie bei Bedarf manuell in Ihr Google-Konto übertragen. Fügen Sie Ihr Google-Konto auf dem Mac hinzu, um ausgewählte Apps wie Kontakte oder Mail zu synchronisieren.Macwelt Android-Apps auf dem Mac nutzen – geht das? Ja, das geht – über sogenannte Android-Emulatoren. Diese Tools ermöglichen es Ihnen, Android-Apps auf Ihrem macOS-System zu installieren und zu verwenden, indem Sie den Mac als virtuelle Android-Umgebung emulieren. Hier sind zwei beliebte Emulator-Programme im Überblick: 1. BlueStacks BlueStacks ist der wohl bekannteste Android-Emulator für Mac und Windows. Er bietet eine benutzerfreundliche Oberfläche, die es einfach macht, Android-Apps auf dem Mac zu installieren. Der Emulator ist vor allem auf Gaming-Apps ausgerichtet, unterstützt aber auch alle anderen Arten von Android-Apps. Vorteile: Unterstützt Millionen von Apps aus dem Google Play Store Speziell optimiert für Gaming-Performance Einfach zu installieren und zu nutzen Installation: Laden Sie die BlueStacks-Software von der offiziellen Webseite herunter, installieren Sie sie auf Ihrem Mac und melden Sie sich mit Ihrem Google-Konto an, um Apps aus dem Play Store herunterzuladen. BlueStacks erlaubt es Ihnen, Android Apps auf dem Mac herunterzuladen.BlueStacks 2. NoxPlayer NoxPlayer ist eine weitere großartige Wahl für diejenigen, die Android-Apps auf dem Mac verwenden möchten. Dieser Emulator legt besonderen Wert auf flüssige Performance und Anpassungsmöglichkeiten, sodass er sich hervorragend für alle Arten von Apps eignet. Vorteile: Geringe Systemanforderungen und trotzdem leistungsstark Unterstützung für mehrere Steuerungseinstellungen (Tastatur, Maus, Gamepad) Geeignet für sowohl Gaming als auch produktive Apps Installation: Die Installation funktioniert ähnlich wie bei BlueStacks: Laden Sie NoxPlayer von der offiziellen Webseite herunter, installieren Sie es und richten Sie Ihr Google-Konto ein, um den Play Store zu nutzen. Daten-Backup und Cloud-Lösungen Eine der großen Herausforderungen für Nutzer, die Android und macOS kombinieren, ist die Sicherung und das Management von Daten über verschiedene Plattformen hinweg. Hier bieten Cloud-Dienste wie Google Drive oder Dropbox großartige Möglichkeiten, nahtlos auf Dokumente, Fotos und Videos zuzugreifen, egal ob auf dem Mac oder dem Android-Gerät. Tipp: Nutzen Sie Google Drive, um Ihre wichtigen Dateien zu sichern und überall zugänglich zu machen. Sie können Ihre Dokumente auf dem Android-Smartphone hochladen und auf dem Mac bearbeiten, ohne die Dateien lokal zu speichern. (Macwelt) 

Wie Sie Mac und Android richtig verbinden​ Rokas Tenys / shutterstock.com

Viele glauben, dass Android und Mac nicht wirklich kompatibel sind. Doch nach über einem Jahr mit beiden Systemen im Parallelgebrauch muss ich sagen: Es geht leichter, als ich dachte. Lesen Sie, welche Tools und Tipps die Zusammenarbeit zwischen Android und macOS erleichtern.

Dateien zwischen Android und Mac übertragen

Eines der wichtigsten Themen für die Nutzung von Android auf dem Mac ist die Übertragung von Dateien. Wie bekommt man Fotos, Videos und Dokumente vom Android-Smartphone auf den Mac?

Ein einfaches und bewährtes Tool ist der Android File Transfer. Dieses Programm ist kostenlos und ermöglicht eine schnelle Übertragung von Dateien zwischen Android und macOS. Sobald Sie es installiert haben, verbinden Sie Ihr Android-Gerät per USB-Kabel mit dem Mac, und schon können Sie auf den internen Speicher Ihres Smartphones zugreifen.

So funktioniert’s:

Installieren Sie den Android File Transfer auf dem Mac.

Schließen Sie das Android-Gerät per USB-Kabel an.

Die App öffnet sich automatisch. Übertragen Sie die Dateien ganz simpel per Drag-and-drop.

Eine Alternative zur Kabelverbindung bietet AirDroid, ein Tool, das auch kabellos funktioniert. Damit können Sie nicht nur Dateien übertragen, sondern auch Nachrichten senden und empfangen oder Ihr Android-Gerät vom Mac aus fernsteuern. AirDroid gibt es als kostenlose und kostenpflichtige Version.

AirDroid-App auf dem Mac: Nach dem Verbinden des Android-Handys können Sie Dateien übertragen und sogar Nachrichten senden.Macwelt

Auch Whatsapp oder andere Messenger können wichtige Links oder Dateien zwischen Android und Mac verschicken. Dazu müssen Sie sich einfach nur selbst eine Nachricht schicken und auf dem jeweiligen Gerät abrufen – zum Beispiel über Whatsapp Web oder eine entsprechende Messenger-App.

Kontakte, Kalender und Notizen synchronisieren

Die Synchronisation von Kontakten, Kalendern und Notizen zwischen Android und dem Mac löse ich über Cloud-Dienste wie Google. Da Android eng mit Google-Diensten verknüpft ist, ergibt es Sinn, Ihr Google-Konto auf dem Mac einzubinden. Die Daten werden so nahtlos synchronisiert.

Für die Synchronisation von Kontakten und Kalendern:

Richten Sie auf Ihrem Mac das entsprechende Google-Konto unter Systemeinstellungen > “Internetaccounts” ein.

Wählen Sie die gewünschten Dienste zur Synchronisation aus (Kontakte, Kalender, Notizen).

Stellen Sie sicher, dass die Kontakte- und Kalender-App neue Einträge automatisch in Ihrem Google-Konto speichert. Gehen Sie dafür in die Einstellungen der jeweiligen App, navigieren Sie zu „Allgemein“ und wählen Sie bei „Standardkalender“ beziehungsweise „Standardaccount“ Ihr Google-Konto aus.

Ab diesem Zeitpunkt werden Ihre Kalender- und Kontaktdaten über Google synchronisiert, anstelle von Apples iCloud. Bereits bestehende Einträge können Sie bei Bedarf manuell in Ihr Google-Konto übertragen.

Fügen Sie Ihr Google-Konto auf dem Mac hinzu, um ausgewählte Apps wie Kontakte oder Mail zu synchronisieren.Macwelt

Android-Apps auf dem Mac nutzen – geht das?

Ja, das geht – über sogenannte Android-Emulatoren. Diese Tools ermöglichen es Ihnen, Android-Apps auf Ihrem macOS-System zu installieren und zu verwenden, indem Sie den Mac als virtuelle Android-Umgebung emulieren. Hier sind zwei beliebte Emulator-Programme im Überblick:

1. BlueStacks

BlueStacks ist der wohl bekannteste Android-Emulator für Mac und Windows. Er bietet eine benutzerfreundliche Oberfläche, die es einfach macht, Android-Apps auf dem Mac zu installieren. Der Emulator ist vor allem auf Gaming-Apps ausgerichtet, unterstützt aber auch alle anderen Arten von Android-Apps.

Vorteile:

Unterstützt Millionen von Apps aus dem Google Play Store

Speziell optimiert für Gaming-Performance

Einfach zu installieren und zu nutzen

Installation: Laden Sie die BlueStacks-Software von der offiziellen Webseite herunter, installieren Sie sie auf Ihrem Mac und melden Sie sich mit Ihrem Google-Konto an, um Apps aus dem Play Store herunterzuladen.

BlueStacks erlaubt es Ihnen, Android Apps auf dem Mac herunterzuladen.BlueStacks

2. NoxPlayer

NoxPlayer ist eine weitere großartige Wahl für diejenigen, die Android-Apps auf dem Mac verwenden möchten. Dieser Emulator legt besonderen Wert auf flüssige Performance und Anpassungsmöglichkeiten, sodass er sich hervorragend für alle Arten von Apps eignet.

Vorteile:

Geringe Systemanforderungen und trotzdem leistungsstark

Unterstützung für mehrere Steuerungseinstellungen (Tastatur, Maus, Gamepad)

Geeignet für sowohl Gaming als auch produktive Apps

Installation: Die Installation funktioniert ähnlich wie bei BlueStacks: Laden Sie NoxPlayer von der offiziellen Webseite herunter, installieren Sie es und richten Sie Ihr Google-Konto ein, um den Play Store zu nutzen.

Daten-Backup und Cloud-Lösungen

Eine der großen Herausforderungen für Nutzer, die Android und macOS kombinieren, ist die Sicherung und das Management von Daten über verschiedene Plattformen hinweg. Hier bieten Cloud-Dienste wie Google Drive oder Dropbox großartige Möglichkeiten, nahtlos auf Dokumente, Fotos und Videos zuzugreifen, egal ob auf dem Mac oder dem Android-Gerät.

Tipp: Nutzen Sie Google Drive, um Ihre wichtigen Dateien zu sichern und überall zugänglich zu machen. Sie können Ihre Dokumente auf dem Android-Smartphone hochladen und auf dem Mac bearbeiten, ohne die Dateien lokal zu speichern.

(Macwelt)

Wie Sie Mac und Android richtig verbinden​ Weiterlesen »

Nach oben scrollen
×