Computerhaus Quickborn

November 2024

Dell Inspiron 14 Plus (2024) im Test: Nicht perfekt, aber starke Leistung zu dem Preis​

Dell Inspiron 14 Plus (2024) im Test: Nicht perfekt, aber starke Leistung zu dem Preis​

Allgemein

IDG / Mark Knapp Auf einen Blick Pro Starke Leistung trotz Drosselung Außergewöhnliche Akkulaufzeit Eine unverschämt gute Tastatur Überzeugendes Gesamtkonzept Kontra Fragwürdige Belüftung Drosselung bei anhaltender Belastung Keine Aufrüstung durch Nutzer möglich Fazit Das Dell Inspiron 14 Plus ist wahrlich nicht perfekt, und einige Ausstattungsmerkmale sind sogar ein wenig fragwürdig. Auf der anderen Seite können wir die Gesamtleistung nicht ignorieren, vor allem nicht zu dem Preis, den Dell für das Notebook aufruft.In jedem Bereich, in dem das Dell Inspiron 14 Plus offensichtliche Defizite aufweist, macht es diese auf andere Weise mehr als wett. In Anbetracht dieser Tatsache gibt es kaum einen Grund, der gegen einen Kauf des Notebooks spricht.Eine riesige Auswahl an empfehlenswerten Laptops liefert unser großer Vergleich: Die besten Laptops 2024 im Test. Es gibt einen Trend, die Notebooks der Mittelklasse aufzupeppen. HP, Acer und Asus haben es getan, und mit dem Inspiron 14 Plus 7440 zeigt auch Dell, dass es ein Händchen dafür hat. Während der Name Inspiron noch an triste Plastikmaschinen denken lässt, löst sich die neueste Version auf die richtige Art und Weise von ihren Wurzeln. Ein Hauch von Metall hier, ein bunteres Display dort und eine unerwartet starke Leistung und Akkulaufzeit – und das alles zu einem Preis von rund 1.000 Euro. Und wenn man etwas tiefer gräbt, wird klar, dass Dell damit Erfolg hat. Design & Verarbeitung Abgesehen von der Kunststoffunterseite besteht das Gehäuse des Dell Inspiron 14 Plus aus Aluminium, das sich wie polierter Stein anfühlt. Es weist eine geringe Reibung auf und hat geglättete Ecken und Kanten. Zwar wirken einige Designelemente etwas zusammengewürfelt, aber insgesamt bietet das Dell Inspiron 14 Plus etwas, was früheren Inspiron-Modellen fehlte. Diese Designoptimierungen sind wohl auch der Grund für das Plus im Namen, wobei die inneren Werte sicherlich auch eine Rolle spielen. IDG / Mark Knapp Für ein kompaktes Arbeitsgerät ist das Dell Inspiron 14 Plus sehr gut gekühlt. Zwar bin ich es gewohnt, bei solchen Geräten eine anständige Seitenbelüftung zu sehen. Allerdings war ich überrascht, noch mehr Lüftungsöffnungen auf der Rückseite zu finden. Sogar hinter den Displayscharnieren scheinen sich Lüftungsöffnungen zu verbergen. Bei näherem Hinsehen stellt sich jedoch heraus, dass es sich bei den meisten dieser Lüftungsöffnungen nur um punkiges Plastikgitter handelt, das wie Lüftungsöffnungen aussehen soll. Während das Dell Inspiron 14 Plus auf den ersten Blick eine bessere Kühlung zu bieten scheint als das Dell XPS 16 mit derselben CPU, scheint das Gegenteil der Fall zu sein. Der Rahmen ist um die Tastatur herum und in der Mitte des Displaydeckels etwas weich, fühlt sich aber steif genug an, um eine gewisse Beanspruchung auszuhalten. Die Tastatur gibt beim Tippen kaum nach. Dell ist es nicht gelungen, das Inspiron 14 Plus superschlank zu gestalten. Für ein Standard-Notebook ist es mit 1,6 Kilogramm recht schwer. Mit seinen Abmessungen von 314 × 226 × 15,9 bis 18,9 Millimeter (B × T × H) ist es aber noch einigermaßen tragbar. Tastatur & Trackpad Die Tastatur ist recht einfach gehalten. Die Tastenkappen sind einfach grau mit wenig oder gar keiner Kontur. Sie sind ein wenig knackig und glücklicherweise steifer als einige billigere Laptoptastaturen, so dass sie an den Ecken nicht so stark nachgeben. Das Ergebnis ist eine überraschend schnelle Tastatur. Innerhalb weniger Minuten hatte ich mich mit der Tastatur des Dell Inspiron 14 Plus so gut angefreundet, dass ich in Monkeytype mit einer Geschwindigkeit von 129 Wörtern pro Minute und einer Genauigkeit von 100 Prozent tippen konnte − eine persönliche Bestleistung. IDG / Mark Knapp Ein großer Teil dieser Tippleistung ist nicht nur auf die Tastatur zurückzuführen, die sich sehr gut anfühlt, sondern auch auf die komfortable Oberfläche des Laptops. Da ich mich nicht über eine große Fläche strecken muss oder mir eine scharfe Kante in die Handgelenke drückt, kann ich meine Handflächen bequem auflegen und präzise tippen. Das macht die fehlende Konturierung der Tasten wieder wett. Schade ist, dass es für die winzigen Pfeiltasten des Dell Inspiron 14 Plus keinen Ausgleich gibt. Die Tastatur ist mit einer einfachen weißen Hintergrundbeleuchtung ausgestattet, die in zwei Helligkeitsstufen zur Verfügung steht und ausreicht, um damit zu arbeiten. Das Trackpad hat bescheidene Proportionen. Es besteht aus Mylar, das leicht gleitet und sich gut an die Textur des Rahmens anpasst. Es hat einen etwas festen Klick, der sich weder übermäßig anfällig für Fehlklicks noch in irgendeiner Weise schwammig anfühlt. Mit Tastatur und Trackpad bietet das Dell Inspiron 14 Plus eine insgesamt gute Benutzeroberfläche, die kaum Wünsche offen lässt. Display & Audio Einer der vielleicht beeindruckendsten Aspekte des Dell Inspiron 14 Plus ist der insgesamt respektable Bildschirm. Die Auflösung von 2.240 × 1.400 Pixeln ist zwar etwas ungewöhnlich, aber das 14-Zoll-Display bietet eine solide Schärfe. Dank einer Spitzenhelligkeit von 418 nits und einer wirksamen Anti-Glare-Beschichtung ist das Display auch bei ungünstigen Lichtverhältnissen bemerkenswert gut ablesbar. IDG / Mark Knapp Dell hat den sRGB-Farbraum zu fast 100 Prozent abgedeckt, was zwar nicht ganz so lebhaft ist wie eine vollständige DCI-P3-Abdeckung, aber immer noch eine lebhafte Darstellung im Vergleich zu vielen einfachen Panels, die für billige Laptops erhältlich sind. Ich habe auch eine hohe Farbgenauigkeit gemessen, mit einem durchschnittlichen dE von 0,81 ohne jegliche Kalibrierung. Das Kontrastverhältnis liegt bei 1.680:1, was mehr ist, als ich von einem einfachen LED-Panel erwartet hätte. Die Pixelreaktion ist etwas langsam, was zu Geisterbildern bei bewegten Objekten führt, aber dies ist kein Gamer-Notebook. Der Bildschirm eignet sich hervorragend für Büroarbeiten und statische Bilder. Das Audioerlebnis ist ähnlich wie das Display: Die Lautsprecher liefern eine beeindruckende Lautstärke ohne gelegentliche, unbedeutende Verzerrungen. Bei maximaler Lautstärke können sie etwas knarzen, vor allem wenn man in der Nähe sitzt, aber sie sind knackig und klar. Abgesehen davon ist der Bass ein typischer Schwachpunkt bei Geräten dieser Art, und man kann nicht leugnen, dass er etwas fehlt. Zum Glück ist er nicht ganz verschwunden. Ob bei “Fugue State” von Vulpeck oder “My Trigger” von Miike Snow, der Bass ist deutlich vorhanden, aber er ist dünn und ein Teil der Energie wird von den höheren Registern absorbiert. Außerdem neigt der Bass zu Verzerrungen. IDG / Mark Knapp Webcam, Mikrofon, Biometrie Die Webcam des Dell Inspiron 14 Plus sieht recht gut aus und liefert recht flüssige, aber nicht besonders scharfe Videos. Selbst mit einem 1080p-Sensor ist die Schärfe nicht beeindruckend. Die Qualität wird eher durch die Helligkeitsregelung beeinträchtigt. Es neigt dazu, entweder zu hell oder zu dunkel zu sein. Allerdings gibt es auf dem Markt wesentlich schlechtere Webcams. Die Mikrofone nehmen meine Stimme gut auf, auch wenn es viele Hintergrundgeräusche gibt, wie z.B. das Surren eines Ventilators. Wenn ich jedoch während der Aufnahme auf meinem Laptop tippe, wird die Geräuschunterdrückung unterbrochen. Während die Webcam keine Gesichtserkennung bietet, befindet sich oben rechts auf der Tastatur ein Fingerabdruckscanner. Dieser bietet eine bequeme Möglichkeit, sich anzumelden, auch wenn die Registrierung des Fingerabdrucks regelmäßig mehrere Versuche erfordert. Konnektivität Das Dell Inspiron 14 Plus ist zwar klein, geizt aber nicht mit Anschlüssen. Auf der rechten Seite befinden sich eine 3,5-mm-Kopfhörerbuchse, ein MicroSD-Kartenleser und ein USB-A-Anschluss mit 5 Gbit/s. Ein Großteil dieser Kante wird von Lüftungsöffnungen eingenommen, daher ist es schön zu sehen, dass Dell noch einige Anschlüsse anbietet. Die linke Seite hat mit einem weiteren USB-A-Anschluss mit 5 Gbit/s, einem Thunderbolt- 4-Anschluss, einem DC-Ladeanschluss und einem HDMI-Port in voller Größe noch mehr zu bieten. Allerdings handelt es sich hierbei nur um einen HDMI 1.4-Anschluss mit einer maximalen Geschwindigkeit von 1080p/60Hz. Glücklicherweise bietet Thunderbolt 4 viel mehr Flexibilität für externe Displayanschlüsse. IDG / Mark Knapp Die drahtlose Konnektivität war in meiner Erfahrung mit dem Laptop konsistent. Angeschlossen an einen Wi-Fi 6-Router mit Gigabit-Verbindung hatte ich keine Probleme, selbst wenn einige Gipswände das Signal blockierten. Auch die Bluetooth-Verbindung funktionierte einwandfrei, so dass das Notebook mehrere Tage lang in einem belebten Café problemlos Audio an meine Kopfhörer übertrug. Leistung Bisher sieht es für das Dell Inspiron 14 Plus recht gut aus und in der Leistungsklasse bleibt es auch weitgehend gut. Das bedeutet, dass sich die von Dell gewählte Kühlung etwas rächt. Das Dell Inspiron 14 Plus schneidet im PCMark 10 Benchmark, der die Gesamtleistung des Systems bei einer Reihe von Büroanwendungen analysiert, außergewöhnlich gut ab, was für die Gesamtleistung des Notebooks spricht. Es schlägt ähnliche 14-Zoll-Notebooks wie das Acer Swift Go 14 und sogar das viel teurere Lenovo ThinkPad X1 Carbon, die beide den gleichen Intel Core i7 155H-Prozessor verwenden. Beeindruckenderweise schlägt es sogar das Dell XPS 16, das ich kürzlich getestet habe und das mit einem Ergebnis von 6.392 Punkten zurückgefallen ist. Foundry Bei der Dauerleistung der CPU muss das Dell Inspiron 14 Plus allerdings einen kleinen Dämpfer hinnehmen. Hier liegt es zwar immer noch vor seinen schlanken und leichten Konkurrenten, schneidet aber bei weitem nicht so gut ab, wie es vielleicht der Fall gewesen wäre, wenn die falschen Kühlöffnungen tatsächlich für Kühlung gesorgt hätten. Im Vergleich zu den 17.641 Punkten des Dell XPS 16 im Multithreading-Test des Cinebench R23 fällt das Inspiron 14 Plus weit zurück. Ein kurzer Blick auf HWInfo64 genügt, um zu sehen, dass der Test die CPU-Kerntemperaturen schnell auf 110 Grad Celsius ansteigen lässt, was zu thermischem Throttling führt. In den Back-to-Back-Tests fiel die Leistung weiter ab. Es ist dem Dell Inspiron 14 Plus hoch anzurechnen, dass es trotz des Throttling immer noch eine bessere Leistung liefert als die Hauptkonkurrenten in diesem Bereich. Foundry Trotz seiner thermischen Probleme weigert sich das Dell Inspiron 14 Plus, Boden auf seine unmittelbaren Konkurrenten gutzumachen. Es kann zwar nicht mit dem Dell XPS 16 und auch nicht mit modernen diskreten Grafikprozessoren mithalten, aber die Intel Arc Graphics in diesem System übertrifft immer noch die integrierte Grafik in den anderen Systemen. Foundry Während diese Leistungsergebnisse zum Teil auf thermisches Throttling zurückzuführen sind, sind einige dieser Benchmarks so konzipiert, dass sie ein System etwas mehr belasten als alltägliche Aufgaben. Es ist bemerkenswert, dass das Dell Inspiron 14 Plus so gut abschneidet. Abgesehen von längeren Phasen mit hoher CPU-Belastung ist das Dell Inspiron 14 Plus außergewöhnlich schnell und flott. Akkulaufzeit Das Dell Inspiron 14 Plus bietet eine wirklich bemerkenswerte Akkulaufzeit. In unserem Akkutest, bei dem ein 4K-Video wiederholt abgespielt wird und der Bildschirm zwischen 250 und 260 nits eingestellt ist, hält das Dell Inspiron 14 Plus erstaunliche 1.021 Minuten (etwas mehr als 17 Stunden) durch. Damit schlägt es die Konkurrenz locker und sogar das Dell XPS 16 (das allerdings den Nachteil hat, dass es OLED verwendet). Ich habe den Test sogar mit und ohne die intelligente Akkuverlängerung der My-Dell-Software durchgeführt, um sicher zu gehen, dass die Ergebnisse nicht verfälscht werden, und in beiden Fällen lief das System über 17 Stunden. Das ist eine Leistung, die sogar mit den besten MacBooks von Apple mithalten kann, die wir mit deutlich schwächeren 150 nits getestet haben. Foundry Fazit Hätte Dell eine weitere Heatpipe verbaut und das zusätzliche Lüftungsgitter auf der Rückseite als echte Abluftöffnung genutzt, um die CPU-Thermik in Schach zu halten, wäre noch mehr Leistung drin gewesen. Aber auch ohne dieses Zugeständnis ist das Dell Inspiron 14 Plus ein bemerkenswertes System. In so ziemlich jeder Kategorie ist es schlimmstenfalls Durchschnitt. Und in den meisten Bereichen ist es besser als die Konkurrenz. Es ist vielleicht nicht so schön wie ein ZenBook oder Pavilion Plus, aber es ist schneller und hält länger durch. Und obwohl es kein ThinkPad oder XPS ist, ist es viel preisgünstiger zu haben. Auch wenn das Acer Swift Go 14 viele der gleichen Aspekte bietet, würde ich die Tastatur des Dell Inspiron 14 Plus niemals gegen eine von Acer eintauschen. Technische Daten Name: Inspiron 14 Plus-Laptop (Intel) Modellnummer: cn74711sc CPU: Intel Core 7 Ultra 155H Arbeitsspeicher: 16 GB LPDDR5X-6400 Grafik/GPU: Intel Arc Bildschirm: 14-Zoll, 2.240 × 1.400 PIxel, WVA Speicher: 1 TB PCIe NVMe SSD Webcam: 1080p Konnektivität: 1 × Thunderbolt 4, 2 × USB-A 3.2 Gen 1, 1 × HDMI 1.4 (1080p/60 max), 1 × MicroSD-Kartenleser, 1 × 3.5mm Combo-Audio Vernetzung: WiFi 6E, Bluetooth 5.3 Biometrische Merkmale: Fingerabdruckleser Akku-Kapazität: 64 Wattstunden Abmessungen: 31,4 × 22,6 × 1,59 bis 1,89 cm (B × T × H) Gewicht: 1,6 kg 3 Jahre Premium Support kostenlos (PC-Welt) 

Dell Inspiron 14 Plus (2024) im Test: Nicht perfekt, aber starke Leistung zu dem Preis​ IDG / Mark Knapp

Auf einen Blick

Pro

Starke Leistung trotz Drosselung

Außergewöhnliche Akkulaufzeit

Eine unverschämt gute Tastatur

Überzeugendes Gesamtkonzept

Kontra

Fragwürdige Belüftung

Drosselung bei anhaltender Belastung

Keine Aufrüstung durch Nutzer möglich

Fazit

Das Dell Inspiron 14 Plus ist wahrlich nicht perfekt, und einige Ausstattungsmerkmale sind sogar ein wenig fragwürdig. Auf der anderen Seite können wir die Gesamtleistung nicht ignorieren, vor allem nicht zu dem Preis, den Dell für das Notebook aufruft.In jedem Bereich, in dem das Dell Inspiron 14 Plus offensichtliche Defizite aufweist, macht es diese auf andere Weise mehr als wett. In Anbetracht dieser Tatsache gibt es kaum einen Grund, der gegen einen Kauf des Notebooks spricht.Eine riesige Auswahl an empfehlenswerten Laptops liefert unser großer Vergleich: Die besten Laptops 2024 im Test.

Es gibt einen Trend, die Notebooks der Mittelklasse aufzupeppen. HP, Acer und Asus haben es getan, und mit dem Inspiron 14 Plus 7440 zeigt auch Dell, dass es ein Händchen dafür hat. Während der Name Inspiron noch an triste Plastikmaschinen denken lässt, löst sich die neueste Version auf die richtige Art und Weise von ihren Wurzeln. Ein Hauch von Metall hier, ein bunteres Display dort und eine unerwartet starke Leistung und Akkulaufzeit – und das alles zu einem Preis von rund 1.000 Euro. Und wenn man etwas tiefer gräbt, wird klar, dass Dell damit Erfolg hat.

Design & Verarbeitung

Abgesehen von der Kunststoffunterseite besteht das Gehäuse des Dell Inspiron 14 Plus aus Aluminium, das sich wie polierter Stein anfühlt. Es weist eine geringe Reibung auf und hat geglättete Ecken und Kanten. Zwar wirken einige Designelemente etwas zusammengewürfelt, aber insgesamt bietet das Dell Inspiron 14 Plus etwas, was früheren Inspiron-Modellen fehlte. Diese Designoptimierungen sind wohl auch der Grund für das Plus im Namen, wobei die inneren Werte sicherlich auch eine Rolle spielen.

IDG / Mark Knapp

Für ein kompaktes Arbeitsgerät ist das Dell Inspiron 14 Plus sehr gut gekühlt. Zwar bin ich es gewohnt, bei solchen Geräten eine anständige Seitenbelüftung zu sehen. Allerdings war ich überrascht, noch mehr Lüftungsöffnungen auf der Rückseite zu finden. Sogar hinter den Displayscharnieren scheinen sich Lüftungsöffnungen zu verbergen. Bei näherem Hinsehen stellt sich jedoch heraus, dass es sich bei den meisten dieser Lüftungsöffnungen nur um punkiges Plastikgitter handelt, das wie Lüftungsöffnungen aussehen soll. Während das Dell Inspiron 14 Plus auf den ersten Blick eine bessere Kühlung zu bieten scheint als das Dell XPS 16 mit derselben CPU, scheint das Gegenteil der Fall zu sein.

Der Rahmen ist um die Tastatur herum und in der Mitte des Displaydeckels etwas weich, fühlt sich aber steif genug an, um eine gewisse Beanspruchung auszuhalten. Die Tastatur gibt beim Tippen kaum nach.

Dell ist es nicht gelungen, das Inspiron 14 Plus superschlank zu gestalten. Für ein Standard-Notebook ist es mit 1,6 Kilogramm recht schwer. Mit seinen Abmessungen von 314 × 226 × 15,9 bis 18,9 Millimeter (B × T × H) ist es aber noch einigermaßen tragbar.

Tastatur & Trackpad

Die Tastatur ist recht einfach gehalten. Die Tastenkappen sind einfach grau mit wenig oder gar keiner Kontur. Sie sind ein wenig knackig und glücklicherweise steifer als einige billigere Laptoptastaturen, so dass sie an den Ecken nicht so stark nachgeben. Das Ergebnis ist eine überraschend schnelle Tastatur. Innerhalb weniger Minuten hatte ich mich mit der Tastatur des Dell Inspiron 14 Plus so gut angefreundet, dass ich in Monkeytype mit einer Geschwindigkeit von 129 Wörtern pro Minute und einer Genauigkeit von 100 Prozent tippen konnte − eine persönliche Bestleistung.

IDG / Mark Knapp

Ein großer Teil dieser Tippleistung ist nicht nur auf die Tastatur zurückzuführen, die sich sehr gut anfühlt, sondern auch auf die komfortable Oberfläche des Laptops. Da ich mich nicht über eine große Fläche strecken muss oder mir eine scharfe Kante in die Handgelenke drückt, kann ich meine Handflächen bequem auflegen und präzise tippen. Das macht die fehlende Konturierung der Tasten wieder wett. Schade ist, dass es für die winzigen Pfeiltasten des Dell Inspiron 14 Plus keinen Ausgleich gibt.

Die Tastatur ist mit einer einfachen weißen Hintergrundbeleuchtung ausgestattet, die in zwei Helligkeitsstufen zur Verfügung steht und ausreicht, um damit zu arbeiten.

Das Trackpad hat bescheidene Proportionen. Es besteht aus Mylar, das leicht gleitet und sich gut an die Textur des Rahmens anpasst. Es hat einen etwas festen Klick, der sich weder übermäßig anfällig für Fehlklicks noch in irgendeiner Weise schwammig anfühlt.

Mit Tastatur und Trackpad bietet das Dell Inspiron 14 Plus eine insgesamt gute Benutzeroberfläche, die kaum Wünsche offen lässt.

Display & Audio

Einer der vielleicht beeindruckendsten Aspekte des Dell Inspiron 14 Plus ist der insgesamt respektable Bildschirm. Die Auflösung von 2.240 × 1.400 Pixeln ist zwar etwas ungewöhnlich, aber das 14-Zoll-Display bietet eine solide Schärfe. Dank einer Spitzenhelligkeit von 418 nits und einer wirksamen Anti-Glare-Beschichtung ist das Display auch bei ungünstigen Lichtverhältnissen bemerkenswert gut ablesbar.

IDG / Mark Knapp

Dell hat den sRGB-Farbraum zu fast 100 Prozent abgedeckt, was zwar nicht ganz so lebhaft ist wie eine vollständige DCI-P3-Abdeckung, aber immer noch eine lebhafte Darstellung im Vergleich zu vielen einfachen Panels, die für billige Laptops erhältlich sind. Ich habe auch eine hohe Farbgenauigkeit gemessen, mit einem durchschnittlichen dE von 0,81 ohne jegliche Kalibrierung. Das Kontrastverhältnis liegt bei 1.680:1, was mehr ist, als ich von einem einfachen LED-Panel erwartet hätte. Die Pixelreaktion ist etwas langsam, was zu Geisterbildern bei bewegten Objekten führt, aber dies ist kein Gamer-Notebook. Der Bildschirm eignet sich hervorragend für Büroarbeiten und statische Bilder.

Das Audioerlebnis ist ähnlich wie das Display: Die Lautsprecher liefern eine beeindruckende Lautstärke ohne gelegentliche, unbedeutende Verzerrungen. Bei maximaler Lautstärke können sie etwas knarzen, vor allem wenn man in der Nähe sitzt, aber sie sind knackig und klar. Abgesehen davon ist der Bass ein typischer Schwachpunkt bei Geräten dieser Art, und man kann nicht leugnen, dass er etwas fehlt. Zum Glück ist er nicht ganz verschwunden. Ob bei “Fugue State” von Vulpeck oder “My Trigger” von Miike Snow, der Bass ist deutlich vorhanden, aber er ist dünn und ein Teil der Energie wird von den höheren Registern absorbiert. Außerdem neigt der Bass zu Verzerrungen.

IDG / Mark Knapp

Webcam, Mikrofon, Biometrie

Die Webcam des Dell Inspiron 14 Plus sieht recht gut aus und liefert recht flüssige, aber nicht besonders scharfe Videos. Selbst mit einem 1080p-Sensor ist die Schärfe nicht beeindruckend. Die Qualität wird eher durch die Helligkeitsregelung beeinträchtigt. Es neigt dazu, entweder zu hell oder zu dunkel zu sein. Allerdings gibt es auf dem Markt wesentlich schlechtere Webcams.

Die Mikrofone nehmen meine Stimme gut auf, auch wenn es viele Hintergrundgeräusche gibt, wie z.B. das Surren eines Ventilators. Wenn ich jedoch während der Aufnahme auf meinem Laptop tippe, wird die Geräuschunterdrückung unterbrochen.

Während die Webcam keine Gesichtserkennung bietet, befindet sich oben rechts auf der Tastatur ein Fingerabdruckscanner. Dieser bietet eine bequeme Möglichkeit, sich anzumelden, auch wenn die Registrierung des Fingerabdrucks regelmäßig mehrere Versuche erfordert.

Konnektivität

Das Dell Inspiron 14 Plus ist zwar klein, geizt aber nicht mit Anschlüssen. Auf der rechten Seite befinden sich eine 3,5-mm-Kopfhörerbuchse, ein MicroSD-Kartenleser und ein USB-A-Anschluss mit 5 Gbit/s. Ein Großteil dieser Kante wird von Lüftungsöffnungen eingenommen, daher ist es schön zu sehen, dass Dell noch einige Anschlüsse anbietet. Die linke Seite hat mit einem weiteren USB-A-Anschluss mit 5 Gbit/s, einem Thunderbolt- 4-Anschluss, einem DC-Ladeanschluss und einem HDMI-Port in voller Größe noch mehr zu bieten. Allerdings handelt es sich hierbei nur um einen HDMI 1.4-Anschluss mit einer maximalen Geschwindigkeit von 1080p/60Hz. Glücklicherweise bietet Thunderbolt 4 viel mehr Flexibilität für externe Displayanschlüsse.

IDG / Mark Knapp

Die drahtlose Konnektivität war in meiner Erfahrung mit dem Laptop konsistent. Angeschlossen an einen Wi-Fi 6-Router mit Gigabit-Verbindung hatte ich keine Probleme, selbst wenn einige Gipswände das Signal blockierten. Auch die Bluetooth-Verbindung funktionierte einwandfrei, so dass das Notebook mehrere Tage lang in einem belebten Café problemlos Audio an meine Kopfhörer übertrug.

Leistung

Bisher sieht es für das Dell Inspiron 14 Plus recht gut aus und in der Leistungsklasse bleibt es auch weitgehend gut. Das bedeutet, dass sich die von Dell gewählte Kühlung etwas rächt.

Das Dell Inspiron 14 Plus schneidet im PCMark 10 Benchmark, der die Gesamtleistung des Systems bei einer Reihe von Büroanwendungen analysiert, außergewöhnlich gut ab, was für die Gesamtleistung des Notebooks spricht. Es schlägt ähnliche 14-Zoll-Notebooks wie das Acer Swift Go 14 und sogar das viel teurere Lenovo ThinkPad X1 Carbon, die beide den gleichen Intel Core i7 155H-Prozessor verwenden. Beeindruckenderweise schlägt es sogar das Dell XPS 16, das ich kürzlich getestet habe und das mit einem Ergebnis von 6.392 Punkten zurückgefallen ist.

Foundry

Bei der Dauerleistung der CPU muss das Dell Inspiron 14 Plus allerdings einen kleinen Dämpfer hinnehmen. Hier liegt es zwar immer noch vor seinen schlanken und leichten Konkurrenten, schneidet aber bei weitem nicht so gut ab, wie es vielleicht der Fall gewesen wäre, wenn die falschen Kühlöffnungen tatsächlich für Kühlung gesorgt hätten. Im Vergleich zu den 17.641 Punkten des Dell XPS 16 im Multithreading-Test des Cinebench R23 fällt das Inspiron 14 Plus weit zurück. Ein kurzer Blick auf HWInfo64 genügt, um zu sehen, dass der Test die CPU-Kerntemperaturen schnell auf 110 Grad Celsius ansteigen lässt, was zu thermischem Throttling führt. In den Back-to-Back-Tests fiel die Leistung weiter ab. Es ist dem Dell Inspiron 14 Plus hoch anzurechnen, dass es trotz des Throttling immer noch eine bessere Leistung liefert als die Hauptkonkurrenten in diesem Bereich.

Foundry

Trotz seiner thermischen Probleme weigert sich das Dell Inspiron 14 Plus, Boden auf seine unmittelbaren Konkurrenten gutzumachen. Es kann zwar nicht mit dem Dell XPS 16 und auch nicht mit modernen diskreten Grafikprozessoren mithalten, aber die Intel Arc Graphics in diesem System übertrifft immer noch die integrierte Grafik in den anderen Systemen.

Foundry

Während diese Leistungsergebnisse zum Teil auf thermisches Throttling zurückzuführen sind, sind einige dieser Benchmarks so konzipiert, dass sie ein System etwas mehr belasten als alltägliche Aufgaben. Es ist bemerkenswert, dass das Dell Inspiron 14 Plus so gut abschneidet. Abgesehen von längeren Phasen mit hoher CPU-Belastung ist das Dell Inspiron 14 Plus außergewöhnlich schnell und flott.

Akkulaufzeit

Das Dell Inspiron 14 Plus bietet eine wirklich bemerkenswerte Akkulaufzeit. In unserem Akkutest, bei dem ein 4K-Video wiederholt abgespielt wird und der Bildschirm zwischen 250 und 260 nits eingestellt ist, hält das Dell Inspiron 14 Plus erstaunliche 1.021 Minuten (etwas mehr als 17 Stunden) durch. Damit schlägt es die Konkurrenz locker und sogar das Dell XPS 16 (das allerdings den Nachteil hat, dass es OLED verwendet). Ich habe den Test sogar mit und ohne die intelligente Akkuverlängerung der My-Dell-Software durchgeführt, um sicher zu gehen, dass die Ergebnisse nicht verfälscht werden, und in beiden Fällen lief das System über 17 Stunden. Das ist eine Leistung, die sogar mit den besten MacBooks von Apple mithalten kann, die wir mit deutlich schwächeren 150 nits getestet haben.

Foundry

Fazit

Hätte Dell eine weitere Heatpipe verbaut und das zusätzliche Lüftungsgitter auf der Rückseite als echte Abluftöffnung genutzt, um die CPU-Thermik in Schach zu halten, wäre noch mehr Leistung drin gewesen. Aber auch ohne dieses Zugeständnis ist das Dell Inspiron 14 Plus ein bemerkenswertes System. In so ziemlich jeder Kategorie ist es schlimmstenfalls Durchschnitt. Und in den meisten Bereichen ist es besser als die Konkurrenz. Es ist vielleicht nicht so schön wie ein ZenBook oder Pavilion Plus, aber es ist schneller und hält länger durch. Und obwohl es kein ThinkPad oder XPS ist, ist es viel preisgünstiger zu haben. Auch wenn das Acer Swift Go 14 viele der gleichen Aspekte bietet, würde ich die Tastatur des Dell Inspiron 14 Plus niemals gegen eine von Acer eintauschen.

Technische Daten

Name: Inspiron 14 Plus-Laptop (Intel)

Modellnummer: cn74711sc

CPU: Intel Core 7 Ultra 155H

Arbeitsspeicher: 16 GB LPDDR5X-6400

Grafik/GPU: Intel Arc

Bildschirm: 14-Zoll, 2.240 × 1.400 PIxel, WVA

Speicher: 1 TB PCIe NVMe SSD

Webcam: 1080p

Konnektivität: 1 × Thunderbolt 4, 2 × USB-A 3.2 Gen 1, 1 × HDMI 1.4 (1080p/60 max), 1 × MicroSD-Kartenleser, 1 × 3.5mm Combo-Audio

Vernetzung: WiFi 6E, Bluetooth 5.3

Biometrische Merkmale: Fingerabdruckleser

Akku-Kapazität: 64 Wattstunden

Abmessungen: 31,4 × 22,6 × 1,59 bis 1,89 cm (B × T × H)

Gewicht: 1,6 kg

3 Jahre Premium Support kostenlos

(PC-Welt)

Dell Inspiron 14 Plus (2024) im Test: Nicht perfekt, aber starke Leistung zu dem Preis​ Read More »

So teuer ist es, Ihr iPhone 16 zu laden – das Ergebnis ist erstaunlich​

So teuer ist es, Ihr iPhone 16 zu laden – das Ergebnis ist erstaunlich​

Allgemein

Foundry Seit Jahren klagen die Menschen über zu hohe Stromkosten. Auch Ende 2024 ist Strom noch teuer, laut Stromauskunft.de liegt der durchschnittliche Strompreis in der Grundversorgung bei üppigen 44,36 Cent pro kWh. (beim Stichtag 22. November 2024). Wie sieht es aber beim iPhone 16 oder iPhone 16 Pro Max mit den Stromkosten aus? Die Geräte werden immer leistungsfähiger, sie müssen fast täglich an die Steckdose und für kabelloses Aufladen empfiehlt Apple schließlich sogar ein Netzteil mit mindestens 30 Watt! Könnten nicht auch diese Kosten langfristig zum Ärgernis werden? Spoiler: Der Verbrauch kleinerer Gadgets wird oft überschätzt. Entscheidend für den Verbrauch ist die Leistung des Gerätes – und iPhones sind extrem effizient. Was kostet mich das iPhone-Aufladen? Es gibt nur einen einzigen Vorgang, bei dem das iPhone 16 Strom bezieht – beim Aufladen des Akkus. Um herauszufinden, was Sie das tägliche Aufladen kostet, ist die sinnvollste Methode, die Kapazität des Akkus als Grundlage zu nehmen. Apple gibt die Kapazität oft in Wh (Wattstunden) und mAh (Milliamperestunden) an, bei der Berechnung des Stromverbrauchs ist aber die Angabe in Wattstunden sinnvoller. Bei der Angabe in mAh müssen Sie nämlich die Spannung berücksichtigen. Um die Kosten für das Aufladen auszurechnen, müssen Sie im Grunde nur die Zahl der Wattstunden mit Ihrem Strompreis multiplizieren. Betrachten wir die Kosten pro Jahr, wird es aber kompliziert: Da nämlich jeder iPhone-Besitzer sein Apple-Handy unterschiedlich lange nutzt – es gibt ja Menschen, die mehrere Tage mit einer Akkuladung auskommen – gehen wir zur Vereinfachung von einer sehr intensiven Nutzung aus: also eine komplette Aufladung täglich bei 365 Tagen pro Jahr. Wenn Sie aber Ihr iPhone nur jeden zweiten Tag komplett aufladen müssen, können Sie unsere Kosten einfach halbieren. Wie oft Sie Ihren Akku aufladen, erfahren Sie übrigens über die Einstellung “Batterie”. Über die Grafik der 10-Tage-Übersicht können Sie die Zahl der Aufladungen ableiten. iPhone-ModellAkkukapazitätKosten pro AufladungKosten pro Jahr min / Kosten plus VerlustleistungeniPhone 16 13,839 Wh0,614 Cent2,24 € / 3,41 €iPhone 16 Plus 18,112 Wh0,804 Cent2,93 € / 4,31 €iPhone 16 Pro  13,942 Wh0,618 Cent2,26 € / 3,43 €iPhone 16 Pro Max 17,995 Wh0,798 Cent2,91 € / 4,29 € Für das iPhone 16 Pro ergibt dies: 44,36 Cent x 0,013942 kWh = 0,618 Cent pro Aufladung oder 2,26 Euro im Jahr! Wobei man sagen muss, dass die Rechnung eigentlich nicht ganz korrekt ist. Was Sie nämlich auch noch berücksichtigen müssen: Netzteile und Akkus arbeiten leider mit Verlust – es kommen nicht 100 Prozent der Leistung im Akku an. Bei einem iPhone können Sie von einem Wirkungsgrad von etwa 75 bis 70 Prozent ausgehen, von den von Ihnen voll zu bezahlenden 10 Wattstunden erreichen also nur 7 den Akku des iPhones. Wollen Sie Ihr iPhone 16 Pro komplett aufladen, benötigen Sie folglich 1,3 x 13,942 Wh = 18,1246 Wh. Ebenfalls nicht zu vergessen: Wenn Ihr USB-C-Ladegerät in der Steckdose steckt und nicht lädt, verbraucht es bereits Strom. Das sind aber nur etwa 0,1 Watt und entspricht etwa 50 Cent pro Jahr. Wir haben diese zweite Zahl inklusive Verlustleistungen in der Tabelle ebenfalls angegeben. Aber auch dann kostet Sie Ihr iPhone 16 Pro unter 4 Euro Stromkosten pro Jahr. Sonderfall: Aufladen per Magsafe Sie laden Ihr iPhone drahtlos auf? Das ist leider besonders ineffizient und der Stromverbrauch steigt wohl um etwa 60 Prozent. Nicht ohne Grund empfiehlt Apple für schnelles Aufladen mit Magsafe ein 30-Watt-Netzteil, während für das Laden per USB-C ein 20-Watt-Netzteil genügt. Sie müssen also dann den Preis um 60 Prozent erhöhen, Ihr iPhone 16 Pro kostet Sie dann statt 3,43 Euro schon 5,49 Euro. Warum sind die Stromkosten so niedrig? Die Stromkosten sind trotz der Verluste beim Laden aber erstaunlich niedrig. Der Grund dafür: Apples Smartphones sind sehr effizient und auf lange Batterielaufzeit ausgelegt. Das sorgt für niedrige Stromkosten. Die Bildschirme sind zwar hell, aber ebenfalls auf sehr niedrigen Stromverbrauch ausgelegt. Jedes Modul ist effizient und schaltet sich bei Nichtgebrauch sofort ab. Sehen Sie sich auf dem iPhone etwa ein Youtube-Video eine Stunde lang an, liegt der Stromverbrauch bei vielleicht einer Wattstunde – ein Fernseher verbraucht dagegen für die gleiche Aufgabe etwa 100 Wattstunden. Es sind schließlich andere Elektrogeräte, die Ihre Stromrechnung wirklich belasten: Der günstige Heizlüfter von Lidl beispielsweise, der bis zu 2.000 Watt verbraucht und im Betrieb etwa einen Euro pro Stunde verschlingt. Wirkliche Stromfresser sind alte Lampen oder Haushaltsgeräte wie Kühlschrank, Herd und Heizlüfter. Lidl (Macwelt) 

So teuer ist es, Ihr iPhone 16 zu laden – das Ergebnis ist erstaunlich​ Foundry

Seit Jahren klagen die Menschen über zu hohe Stromkosten. Auch Ende 2024 ist Strom noch teuer, laut Stromauskunft.de liegt der durchschnittliche Strompreis in der Grundversorgung bei üppigen 44,36 Cent pro kWh. (beim Stichtag 22. November 2024).

Wie sieht es aber beim iPhone 16 oder iPhone 16 Pro Max mit den Stromkosten aus? Die Geräte werden immer leistungsfähiger, sie müssen fast täglich an die Steckdose und für kabelloses Aufladen empfiehlt Apple schließlich sogar ein Netzteil mit mindestens 30 Watt! Könnten nicht auch diese Kosten langfristig zum Ärgernis werden?

Spoiler: Der Verbrauch kleinerer Gadgets wird oft überschätzt. Entscheidend für den Verbrauch ist die Leistung des Gerätes – und iPhones sind extrem effizient.

Was kostet mich das iPhone-Aufladen?

Es gibt nur einen einzigen Vorgang, bei dem das iPhone 16 Strom bezieht – beim Aufladen des Akkus. Um herauszufinden, was Sie das tägliche Aufladen kostet, ist die sinnvollste Methode, die Kapazität des Akkus als Grundlage zu nehmen.

Apple gibt die Kapazität oft in Wh (Wattstunden) und mAh (Milliamperestunden) an, bei der Berechnung des Stromverbrauchs ist aber die Angabe in Wattstunden sinnvoller. Bei der Angabe in mAh müssen Sie nämlich die Spannung berücksichtigen.

Um die Kosten für das Aufladen auszurechnen, müssen Sie im Grunde nur die Zahl der Wattstunden mit Ihrem Strompreis multiplizieren.

Betrachten wir die Kosten pro Jahr, wird es aber kompliziert: Da nämlich jeder iPhone-Besitzer sein Apple-Handy unterschiedlich lange nutzt – es gibt ja Menschen, die mehrere Tage mit einer Akkuladung auskommen – gehen wir zur Vereinfachung von einer sehr intensiven Nutzung aus: also eine komplette Aufladung täglich bei 365 Tagen pro Jahr.

Wenn Sie aber Ihr iPhone nur jeden zweiten Tag komplett aufladen müssen, können Sie unsere Kosten einfach halbieren. Wie oft Sie Ihren Akku aufladen, erfahren Sie übrigens über die Einstellung “Batterie”. Über die Grafik der 10-Tage-Übersicht können Sie die Zahl der Aufladungen ableiten.

iPhone-ModellAkkukapazitätKosten pro AufladungKosten pro Jahr min / Kosten plus VerlustleistungeniPhone 16 13,839 Wh0,614 Cent2,24 € / 3,41 €iPhone 16 Plus 18,112 Wh0,804 Cent2,93 € / 4,31 €iPhone 16 Pro  13,942 Wh0,618 Cent2,26 € / 3,43 €iPhone 16 Pro Max 17,995 Wh0,798 Cent2,91 € / 4,29 €

Für das iPhone 16 Pro ergibt dies: 44,36 Cent x 0,013942 kWh = 0,618 Cent pro Aufladung oder 2,26 Euro im Jahr!

Wobei man sagen muss, dass die Rechnung eigentlich nicht ganz korrekt ist. Was Sie nämlich auch noch berücksichtigen müssen: Netzteile und Akkus arbeiten leider mit Verlust – es kommen nicht 100 Prozent der Leistung im Akku an. Bei einem iPhone können Sie von einem Wirkungsgrad von etwa 75 bis 70 Prozent ausgehen, von den von Ihnen voll zu bezahlenden 10 Wattstunden erreichen also nur 7 den Akku des iPhones.

Wollen Sie Ihr iPhone 16 Pro komplett aufladen, benötigen Sie folglich 1,3 x 13,942 Wh = 18,1246 Wh. Ebenfalls nicht zu vergessen: Wenn Ihr USB-C-Ladegerät in der Steckdose steckt und nicht lädt, verbraucht es bereits Strom. Das sind aber nur etwa 0,1 Watt und entspricht etwa 50 Cent pro Jahr. Wir haben diese zweite Zahl inklusive Verlustleistungen in der Tabelle ebenfalls angegeben.

Aber auch dann kostet Sie Ihr iPhone 16 Pro unter 4 Euro Stromkosten pro Jahr.

Sonderfall: Aufladen per Magsafe

Sie laden Ihr iPhone drahtlos auf? Das ist leider besonders ineffizient und der Stromverbrauch steigt wohl um etwa 60 Prozent. Nicht ohne Grund empfiehlt Apple für schnelles Aufladen mit Magsafe ein 30-Watt-Netzteil, während für das Laden per USB-C ein 20-Watt-Netzteil genügt. Sie müssen also dann den Preis um 60 Prozent erhöhen, Ihr iPhone 16 Pro kostet Sie dann statt 3,43 Euro schon 5,49 Euro.

Warum sind die Stromkosten so niedrig?

Die Stromkosten sind trotz der Verluste beim Laden aber erstaunlich niedrig. Der Grund dafür: Apples Smartphones sind sehr effizient und auf lange Batterielaufzeit ausgelegt. Das sorgt für niedrige Stromkosten. Die Bildschirme sind zwar hell, aber ebenfalls auf sehr niedrigen Stromverbrauch ausgelegt. Jedes Modul ist effizient und schaltet sich bei Nichtgebrauch sofort ab.

Sehen Sie sich auf dem iPhone etwa ein Youtube-Video eine Stunde lang an, liegt der Stromverbrauch bei vielleicht einer Wattstunde – ein Fernseher verbraucht dagegen für die gleiche Aufgabe etwa 100 Wattstunden.

Es sind schließlich andere Elektrogeräte, die Ihre Stromrechnung wirklich belasten: Der günstige Heizlüfter von Lidl beispielsweise, der bis zu 2.000 Watt verbraucht und im Betrieb etwa einen Euro pro Stunde verschlingt. Wirkliche Stromfresser sind alte Lampen oder Haushaltsgeräte wie Kühlschrank, Herd und Heizlüfter.

Lidl

(Macwelt)

So teuer ist es, Ihr iPhone 16 zu laden – das Ergebnis ist erstaunlich​ Read More »

Android: Googles neuen Diebstahlschutz aktivieren​

Android: Googles neuen Diebstahlschutz aktivieren​

Allgemein

Einstellungen öffnen Thomas Rieske Lösung: Der Diebstahlschutz ist auf den meisten Geräten ab Android 10 über ein Update der Google Play Services verfügbar. Stellen Sie daher zunächst sicher, dass Sie die entsprechenden Aktualisierungen eingespielt haben. Außerdem führt Google die Features schrittweise ein. Um zu sehen, ob – und in welchem Umfang – Ihr Gerät derzeit unterstützt wird, öffnen Sie zunächst die Einstellungen. Dazu tippen Sie auf das Zahnrad-Icon, das die meisten Hersteller verwenden und im Allgemeinen auf einer Seite des Homescreens abgelegt ist. Suche statt Menü-Navigation Thomas Rieske Um sich das zeitaufwendige Navigieren durch Menüs und Untermenüs in den Einstellungen zu ersparen, empfiehlt sich die Suchfunktion. Geben Sie in das Suchfeld zeichenweise Diebstahlschutz (Groß- und Kleinschreibung spielt keine Rolle) ein, bis der passende Treffer angezeigt wird, und wählen Sie ihn dann aus. Diebstahl-Displaysperre aktivieren Thomas Rieske Sie gelangen nun zum Bereich Google / Alle Dienste / Diebstahlschutz. Auf dieser Seite finden sich mehrere Optionen, die standardmäßig ausgeschaltet sind. Die Funktion Diebstahl-Displaysperre zum Beispiel erkennt mithilfe von künstlicher Intelligenz (KI), den Gerätesensoren sowie WLAN und Bluetooth, wenn jemand Ihnen Ihr Gerät aus der Hand reißt und damit wegläuft. In dem Fall wird automatisch das Display gesperrt. Um das Feature zu aktivieren, tippen Sie auf den Schalter neben dieser Option. Diebstahl-Displaysperre: Aktivierung bestätigen Thomas Rieske Anschließend wird ein Bestätigungsdialog eingeblendet. Tippen Sie hier auf Aktivieren. Offline-Gerätesperre aktivieren Thomas Rieske Zusätzlichen Schutz verspricht die Offline-Gerätesperre. Diese Funktion sperrt automatisch den Bildschirm, nachdem Ihr Gerät eine bestimmte Zeit offline verwendet wurde. Das ist beispielsweise der Fall, wenn jemand Ihr Smartphone stiehlt und die Internetverbindung trennt, um Daten zu extrahieren oder eine Fernlöschung über die Funktion Mein Gerät finden zu verhindern. Um die Offline-Gerätesperre einzuschalten, gehen sie analog wie bei der Diebstahl-Displaysperre vor. Sperren per Fernzugriff nutzen Thomas Rieske Auf die gleiche Weise lässt sich auch die Fernsperre aktivieren. Wenn Sie nun Ihr Smartphone verlieren oder vermuten, dass es gestohlen wurde, rufen Sie über ein beliebiges Endgerät die Webseite android.com/lock auf. Dort geben Sie die Telefonnummer Ihres zu sperrenden Smartphones ein und klicken unten auf die Schaltfläche Gerät sperren. Sperranfrage senden Thomas Rieske Danach gilt es, erst noch eine reCAPTCHA-Aufgabe, etwa einen Bilderkennungstest, zu lösen. Damit will Google verhindern, dass die Handlung zum Beispiel automatisiert von Computerprogrammen beziehungsweise Bots vorgenommen wird. Sobald Sie den Test erfolgreich absolviert haben, wird die Anfrage abgeschickt und das entsprechende Gerät nach maximal einer Minute gesperrt. Produkte: Der Trick funktioniert auf den meisten Geräten ab Android 10. 

Android: Googles neuen Diebstahlschutz aktivieren​ Einstellungen öffnen

Thomas Rieske

Lösung: Der Diebstahlschutz ist auf den meisten Geräten ab Android 10 über ein Update der Google Play Services verfügbar. Stellen Sie daher zunächst sicher, dass Sie die entsprechenden Aktualisierungen eingespielt haben. Außerdem führt Google die Features schrittweise ein. Um zu sehen, ob – und in welchem Umfang – Ihr Gerät derzeit unterstützt wird, öffnen Sie zunächst die Einstellungen. Dazu tippen Sie auf das Zahnrad-Icon, das die meisten Hersteller verwenden und im Allgemeinen auf einer Seite des Homescreens abgelegt ist.

Suche statt Menü-Navigation

Thomas Rieske

Um sich das zeitaufwendige Navigieren durch Menüs und Untermenüs in den Einstellungen zu ersparen, empfiehlt sich die Suchfunktion. Geben Sie in das Suchfeld zeichenweise Diebstahlschutz (Groß- und Kleinschreibung spielt keine Rolle) ein, bis der passende Treffer angezeigt wird, und wählen Sie ihn dann aus.

Diebstahl-Displaysperre aktivieren

Thomas Rieske

Sie gelangen nun zum Bereich Google / Alle Dienste / Diebstahlschutz. Auf dieser Seite finden sich mehrere Optionen, die standardmäßig ausgeschaltet sind. Die Funktion Diebstahl-Displaysperre zum Beispiel erkennt mithilfe von künstlicher Intelligenz (KI), den Gerätesensoren sowie WLAN und Bluetooth, wenn jemand Ihnen Ihr Gerät aus der Hand reißt und damit wegläuft. In dem Fall wird automatisch das Display gesperrt. Um das Feature zu aktivieren, tippen Sie auf den Schalter neben dieser Option.

Diebstahl-Displaysperre: Aktivierung bestätigen

Thomas Rieske

Anschließend wird ein Bestätigungsdialog eingeblendet. Tippen Sie hier auf Aktivieren.

Offline-Gerätesperre aktivieren

Thomas Rieske

Zusätzlichen Schutz verspricht die Offline-Gerätesperre. Diese Funktion sperrt automatisch den Bildschirm, nachdem Ihr Gerät eine bestimmte Zeit offline verwendet wurde. Das ist beispielsweise der Fall, wenn jemand Ihr Smartphone stiehlt und die Internetverbindung trennt, um Daten zu extrahieren oder eine Fernlöschung über die Funktion Mein Gerät finden zu verhindern. Um die Offline-Gerätesperre einzuschalten, gehen sie analog wie bei der Diebstahl-Displaysperre vor.

Sperren per Fernzugriff nutzen

Thomas Rieske

Auf die gleiche Weise lässt sich auch die Fernsperre aktivieren. Wenn Sie nun Ihr Smartphone verlieren oder vermuten, dass es gestohlen wurde, rufen Sie über ein beliebiges Endgerät die Webseite android.com/lock auf. Dort geben Sie die Telefonnummer Ihres zu sperrenden Smartphones ein und klicken unten auf die Schaltfläche Gerät sperren.

Sperranfrage senden

Thomas Rieske

Danach gilt es, erst noch eine reCAPTCHA-Aufgabe, etwa einen Bilderkennungstest, zu lösen. Damit will Google verhindern, dass die Handlung zum Beispiel automatisiert von Computerprogrammen beziehungsweise Bots vorgenommen wird. Sobald Sie den Test erfolgreich absolviert haben, wird die Anfrage abgeschickt und das entsprechende Gerät nach maximal einer Minute gesperrt.

Produkte: Der Trick funktioniert auf den meisten Geräten ab Android 10.

Android: Googles neuen Diebstahlschutz aktivieren​ Read More »

Android-Smartphone als WLAN-Repeater konfigurieren: So geht’s​

Android-Smartphone als WLAN-Repeater konfigurieren: So geht’s​

Allgemein

AVM WLAN-Repeater verbessern die Internet- und Netzwerkübertragung im heimischen WLAN. Hierzu empfangen die Geräte das WLAN-Signal des Routers und geben es über ein zusätzliches Funknetz weiter. Platziert man den Repeater zwischen dem Router und dem Raum, in dem die Internetverbindung verbessert werden soll, dann verstärkt dies das Signal und erhöht so die Bandbreite. Doch statt sich ein weiteres Gerät zuzulegen, kann man hierfür auch ein (ausgedientes) Android-Smartphone verwenden. Benötigt man den Repeater auf Dauer, spart man sich also die Extraausgabe. Braucht man die Funktion lediglich temporär, ist der WLAN-Repeater im Nu eingerichtet und sofort startklar. So geht’s: Als einfachste Möglichkeit dient die Hotspot-Funktion. Denn sie spannt ein neues WLAN-Funknetz nicht nur auf, um über das Mobilfunknetz andere Geräte ebenfalls mit dem Internet zu verbinden. Sie funktioniert genauso, wenn das Telefon selbst per WLAN im Netz ist. Dazu platzieren Sie das Mobiltelefon so, dass es zuverlässig per WLAN mit dem Router verbunden ist. Wenn Sie die Hotspot-Funktion nicht nur für kurze Zeit benutzen möchten, empfiehlt es sich, das Telefon per Ladekabel an eine Steckdose anzuschließen. Android-Smartphones lassen sich über die Hotspot-Funktion einfach auch als WLAN-Repeater konfigurieren. Das funktioniert auch mit ausgedienten Geräten.IDG Als Nächstes öffnen Sie auf dem Android-Gerät die Einstellungen-App. Tippen Sie darin auf „Netzwerk & Internet“ – geräteabhängig heißen die Optionen auch etwas anders – und „Hotspot und Tethering“. Schalten Sie den WLAN-Hotspot ein, den Namen des Funknetzes und das Passwort können Sie beliebig festlegen. Falls möglich, aktivieren Sie als Frequenz 2,4 und 5 GHz. Im Anschluss daran verbinden Sie Ihre übrigen Geräte über das zusätzliche WLAN. Wenn Sie denselben Netzwerknamen und dasselbe Passwort wie beim ursprünglichen WLAN wählen, dann verbinden sich Ihre Geräte sogar automatisch. Verwenden Sie die Hotspot-Funktion für Gäste, etwa auf einer Gartenparty, nutzen Sie am Router das Gast-WLAN und verstärken dieses Netz. Hinweis: Einige Android-Smartphones bieten in den Entwickleroptionen darüber hinaus die Einstellung „Enable WLAN Coverage Extend Feature“ zum Verstärken des WLANs. Wie Sie die Entwickleroptionen aktivieren, lesen Sie in unserem Beitrag Geheime Entwickleroptionen in Android nutzen. (PC-Welt) 

Android-Smartphone als WLAN-Repeater konfigurieren: So geht’s​ AVM

WLAN-Repeater verbessern die Internet- und Netzwerkübertragung im heimischen WLAN. Hierzu empfangen die Geräte das WLAN-Signal des Routers und geben es über ein zusätzliches Funknetz weiter. Platziert man den Repeater zwischen dem Router und dem Raum, in dem die Internetverbindung verbessert werden soll, dann verstärkt dies das Signal und erhöht so die Bandbreite.

Doch statt sich ein weiteres Gerät zuzulegen, kann man hierfür auch ein (ausgedientes) Android-Smartphone verwenden. Benötigt man den Repeater auf Dauer, spart man sich also die Extraausgabe. Braucht man die Funktion lediglich temporär, ist der WLAN-Repeater im Nu eingerichtet und sofort startklar.

So geht’s: Als einfachste Möglichkeit dient die Hotspot-Funktion. Denn sie spannt ein neues WLAN-Funknetz nicht nur auf, um über das Mobilfunknetz andere Geräte ebenfalls mit dem Internet zu verbinden.

Sie funktioniert genauso, wenn das Telefon selbst per WLAN im Netz ist. Dazu platzieren Sie das Mobiltelefon so, dass es zuverlässig per WLAN mit dem Router verbunden ist. Wenn Sie die Hotspot-Funktion nicht nur für kurze Zeit benutzen möchten, empfiehlt es sich, das Telefon per Ladekabel an eine Steckdose anzuschließen.

Android-Smartphones lassen sich über die Hotspot-Funktion einfach auch als WLAN-Repeater konfigurieren. Das funktioniert auch mit ausgedienten Geräten.IDG

Als Nächstes öffnen Sie auf dem Android-Gerät die Einstellungen-App. Tippen Sie darin auf „Netzwerk & Internet“ – geräteabhängig heißen die Optionen auch etwas anders – und „Hotspot und Tethering“.

Schalten Sie den WLAN-Hotspot ein, den Namen des Funknetzes und das Passwort können Sie beliebig festlegen. Falls möglich, aktivieren Sie als Frequenz 2,4 und 5 GHz. Im Anschluss daran verbinden Sie Ihre übrigen Geräte über das zusätzliche WLAN.

Wenn Sie denselben Netzwerknamen und dasselbe Passwort wie beim ursprünglichen WLAN wählen, dann verbinden sich Ihre Geräte sogar automatisch. Verwenden Sie die Hotspot-Funktion für Gäste, etwa auf einer Gartenparty, nutzen Sie am Router das Gast-WLAN und verstärken dieses Netz.

Hinweis: Einige Android-Smartphones bieten in den Entwickleroptionen darüber hinaus die Einstellung „Enable WLAN Coverage Extend Feature“ zum Verstärken des WLANs. Wie Sie die Entwickleroptionen aktivieren, lesen Sie in unserem Beitrag Geheime Entwickleroptionen in Android nutzen.

(PC-Welt)

Android-Smartphone als WLAN-Repeater konfigurieren: So geht’s​ Read More »

Interview-Klassiker: Darum heißt Java Java​

Interview-Klassiker: Darum heißt Java Java​

Allgemein

Warum heißt Java eigentlich Java? Das ehemals verantwortliche Team bei Sun Microsystems kennt die Antwort(en). Foto: Tada Images – shutterstock.comAls das Time Magazine Java zu einem der 10 besten Produkte des Jahres 1995 kürte, war eine neue US-amerikanische Marketing-Legende geboren. Wer weiß, ob die Technologie von Sun Microsystems so gut abgeschnitten hätte, wäre ihr Name “Oak” oder “Greentalk” geblieben – zwei der frühen Namensoptionen.Die Grundlagen der Java-Erfolgsgeschichte sind bekannt: Verschenken Sie eine elegante, quelloffene Programmierumgebung und die Welt wird Ihnen zu Füßen liegen. Die Menschen, die damit beauftragt waren, eine Brand Identity für die Programmiersprache von Sun zu schaffen, entschieden sich für eine Kaffeemetapher, um bei den Anwendungsentwicklern der nächsten Generation im Gedächtnis zu bleiben.Dieses Gruppeninterview, das ursprünglich im Jahr 1996 von unserer damaligen US-Schwesterpublikation JavaWorld veröffentlicht wurde, bietet einen Rückblick darauf, wie Java zu seinem Namen kam – und was es mit dem Kaffee auf sich hat.Die damaligen Gesprächspartner:James Gosling, Erfinder von JavaKim Polese, Produktmanagerin bei Sun Microsystems Eric Schmidt, Chief Technology Officer bei Sun MicrosystemsArthur van Hoff, leitender Softwareingeniuer bei Sun MicrosystemsSami Shaio, Engineer bei Sun MicrosystemsTimothy Lindholm, Engineer bei Sun MicrosystemsChris Warth, Software Engineer bei Sun MicrosystemsFrank Yellin, leitender Softwareingenieur bei Sun MicrosystemsWie Java Java wurdeFrank Yellin: Unsere Anwälte hatten uns gesagt, dass wir den Namen ‘OAK’ nicht verwenden dürfen. Der war bereits von Oak Technologies patentiert worden. Also wurde eine Brainstorming-Sitzung abgehalten, um Ideen für einen neuen Namen zu sammeln. An dieser Sitzung nahmen alle Mitglieder der so genannten “Live Oak”-Gruppe teil, also alle, die aktiv an der neuen Sprache arbeiteten. Im Ergebnis wurden etwa zehn mögliche Namen ermittelt. Die wurden dann der Rechtsabteilung vorgelegt. Drei davon wurden für gut befunden: Java, DNA und Silk. Niemand kann sich daran erinnern, wer zuerst auf den Namen “Java” gekommen ist. Soweit ich weiß, hat nur eine Person öffentlich behauptet, der Namensgeber zu sein.Kim Polese: Ich habe Java benannt. Ich habe viel Zeit und Energie darauf verwendet, weil ich den perfekten Namen finden wollte. Etwas, das die Essenz der Technologie widerspiegelt: dynamisch, revolutionär, lebendig, lustig. Weil diese Programmiersprache so einzigartig ist, wollte ich unbedingt nerdige Namen vermeiden. Ich wollte auch nichts mit ‘net’ oder ‘web’, das wäre viel zu generisch gewesen. Mein Ziel war es etwas Cooles, Einzigartiges zu kreieren – leicht zu buchstabieren und auszusprechen. Ich versammelte das Team in einem Raum, schrieb einige Begriffe wie ‘dynamic’, ‘alive’, ‘jolt’, ‘impact’, ‘revolutionary’ usw. an die Tafel und leitete das Brainstorming. Der Name Java tauchte während dieser Sitzung auf. Andere Namen waren DNA, Silk, Ruby und WRL, für WebRunner Language – igitt!Sami Shaio: Schwer zu sagen, aus welcher Ecke der Name ‘Java’ zuerst kam, aber er landete auf der Liste der Kandidaten – zusammen mit Silk, Lyric, Pepper, NetProse, Neon und einer Reihe von anderen, die zu peinlich waren, um sie zu erwähnen.Chris Warth: Einige andere Kandidaten waren WebDancer und WebSpinner. Obwohl das Marketing einen Namen wollte, der eine Assoziation mit dem Web impliziert, denke ich, dass wir sehr gut daran getan haben, einen anderen Namen zu wählen. Java wird wahrscheinlich in Anwendungen fernab des Internets ein echtes Zuhause finden, daher ist es gut, dass es nicht schon früh in eine Schublade gesteckt wurde.James Gosling: Das Meeting, das von Kim Polese organisiert wurde, war im Grunde genommen kontinuierliches Chaos. Einige Teilnehmer schrien einfach nur Begriffe. Wer was genau zuerst gebrüllt hat, weiß man nicht – und es ist auch unwichtig. Ich hatte das Gefühl, dass mindestens das halbe Oxford Dictionary gebrüllt wurde. Außerdem wurde lebhaft über die Vor- und Nachteile einzelner Namen diskutiert. Am Ende haben wir uns auf ein Dutzend Namen beschränkt und sie unseren Anwälten übergeben.Timothy Lindholm: Wir waren wirklich angewidert und erschöpft von dem Marathon-Hacking, das wir zu der Zeit betrieben hatten. Aber wir standen unter Zeitdruck, einen Namen zu finden. Ich kann mich nicht erinnern, dass es einen Verfechter des Vorschlags ‘Java’ gab. Die Menschen, mit denen ich darüber gesprochen habe, sind davon überzeugt, dass der aus der Gruppendynamik heraus enstanden ist. Was es mit dem Kaffee auf sich hatArthur van Hoff: Ich glaube, der Name wurde zuerst von Chris Warth vorgeschlagen. Wir waren schon seit Stunden in diesem Meeting und während er eine Tasse Kaffe der Marke ‘Peet’s Java’ trank, wählte er ‘Java’ als Beispiel für einen weiteren Namen, der niemals funktionieren würde. Die ersten Reaktionen waren gemischt. Ich glaube aber, dass die endgültigen Kandidaten Silk, DNA und Java waren. Ich schlug Lingua Java vor, aber das hat nicht geklappt. Die anderen Namen konnten wir nicht als Markenzeichen schützen lassen, also fiel die Wahl auf Java. Schließlich segnete unsere Marketing-Beauftragte, Kim Polese, den neuen Namen ab.Polese: Ich habe die Namen auf Partys, bei Freunden und Familienmitgliedern testweise vermarktet. Und Java bekam von allen Kandidaten die meisten positiven Reaktionen. Da es nicht sicher war, dass wir diesen Namen markenrechtlich schützen lassen konnten, wählte ich drei oder vier Alternativen und arbeitete mit unserer Rechtsabteilung daran. Java hat bestanden und war mein Favorit, also habe ich die Sprache Java genannt und den Browser HotJava – übrigens ein viel besserer Name als ‘WebRunner’. Es fiel den Softwareingenieuren schwer, sich von ‘Oak’ zu trennen, aber schließlich gewöhnten sie sich daran. Ich war der Meinung, dass das Branding sehr wichtig war – ich wollte, dass Java zu einem Standard wird. Also habe ich mich darauf konzentriert, eine starke Marke aufzubauen.Yellin: Jeder konnte Java, DNA und Silk in der Reihenfolge seiner Präferenz einstufen. Der Name mit den meisten Ja-Stimmen erhielt gleichzeitig die meisten Nein-Stimmen. Also wurde er fallen gelassen. Von den verbleibenden zwei Namen erhielt Java die meisten Stimmen. So wurde er zum bevorzugten Kandidaten.Shaio: Es war ein Zweikampf zwischen Silk und Java, und Java hat sich durchgesetzt. James Gosling schien Java gegenüber Silk zu bevorzugen. Kim Polese hatte das letzte Wort über den Namen, da sie die Produktmanagerin war. Aber die meisten Entscheidungen wurden damals im Konsensverfahren getroffen.Eric Schmidt: Kim legte dar, dass wir einen neuen Namen wählen mussten, weil ‘Oak’ – an den wir alle gewöhnt waren – bereits vergeben war. Wenn ich mich recht erinnere, schlug sie zwei Namen vor, Java und Silk. Von den beiden bevorzugte sie Java und vertrat die Ansicht, dass das Live Oak-Team damit einverstanden war. Bert und ich beschlossen, ihrer Empfehlung zuzustimmen, und die Entscheidung war gefallen. Aus diesen Gründen halte ich es für richtig, Kim die Anerkennung für den Namen zu geben. Sie hat ihn uns präsentiert und verkauft und ihn dann entsprechend umgesetzt.Chris Warth: Aber ich glaube mich daran zu erinnern, dass Kim anfangs nicht begeistert von ‘Java’ war. Zu dieser Zeit versuchten wir auch, unseren Browser von WebRunner – der bereits von Taligent übernommen worden war – in etwas umzubenennen, das noch nicht als Marke geschützt war. Kim wollte Namen wie WebSpinner oder sogar WebDancer – etwas, das deutlich machen würde, dass es sich um ein World-Wide-Web-Produkt handelte. Die Markenrecherche wurde durchgeführt und nach einigen Wochen kam eine kurze Liste mit freigegebenen Namen zurück. Es schien eine endlose Reihe von Meetings und Genehmigungen erforderlich zu sein – als ob der Name tatsächlich von Bedeutung wäre. Kim wollte, dass wir die Freigabe aufschieben, damit wir etwas Besseres als Java finden, aber sie wurde von den Ingenieuren überstimmt – insbesondere von James und Arthur van Hoff und mir.Irgendwann sagte James, dass wir uns für Java und HotJava entscheiden würden, und Kim schickte eine E-Mail, in der sie uns bat, auf andere Namen zu warten, die sich anbieten würden. James lehnte ab und sagte ihr, dass wir mit dem arbeiten würden, was wir hatten. Wir haben dann einfach den Quellcode schnell umbenannt und die Version herausgegeben. Ich glaube, die Marketing-Experten und das Management hatten am Ende weit weniger mit der Namensgebung zu tun, als die Softwareingenieure, die unbedingt etwas herausbringen wollten. Ich glaube, Kim schreibt die Geschichte ein wenig um, wenn sie behauptet, diesen Namen aus Marketing-Gründen gewählt zu haben. Wir haben uns für ‘Java’ entschieden, weil uns die Möglichkeiten ausgingen und wir unser Produkt auf den Markt bringen wollten. Die Marketing-Rechtfertigungen kamen erst später hinzu.Schlaflos in Palo AltoWarth: Ich behaupte nicht, dass ich derjenige war, der den Namen als erster vorgeschlagen hat. Aber wir haben definitiv ‘Peet’s Java’ getrunken. Ich kann mich nicht mehr genau daran erinnern, wer es zuerst ausgesprochen hat. Ich und James und die anderen Engineers waren der Meinung, dass wir es ‘xyzzy’ nennen könnten und es trotzdem beliebt wäre. Letztendlich ist es egal, wer den Namen ursprünglich vorgeschlagen hat, denn es war letztlich eine Gruppenentscheidung – unterstützt von reichlich Koffein.Timothy Lindholm: Die Namensgebung von Java wurde nicht von einem Individuum vorgenommen, sondern war das Produkt einer kreativen und engagierten Truppe, die sich sehr bemühte, ihre Ziele zu erreichen. Lassen Sie sich nicht davon täuschen, wie Einzelpersonen und die Medien viele Elemente der Entstehung von Java im Nachhinein für ihre eigenen Zwecke gefiltert haben. (fm) Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation InfoWorld. 

Interview-Klassiker: Darum heißt Java Java​ Warum heißt Java eigentlich Java? Das ehemals verantwortliche Team bei Sun Microsystems kennt die Antwort(en).
Foto: Tada Images – shutterstock.comAls das Time Magazine Java zu einem der 10 besten Produkte des Jahres 1995 kürte, war eine neue US-amerikanische Marketing-Legende geboren. Wer weiß, ob die Technologie von Sun Microsystems so gut abgeschnitten hätte, wäre ihr Name “Oak” oder “Greentalk” geblieben – zwei der frühen Namensoptionen.Die Grundlagen der Java-Erfolgsgeschichte sind bekannt: Verschenken Sie eine elegante, quelloffene Programmierumgebung und die Welt wird Ihnen zu Füßen liegen. Die Menschen, die damit beauftragt waren, eine Brand Identity für die Programmiersprache von Sun zu schaffen, entschieden sich für eine Kaffeemetapher, um bei den Anwendungsentwicklern der nächsten Generation im Gedächtnis zu bleiben.Dieses Gruppeninterview, das ursprünglich im Jahr 1996 von unserer damaligen US-Schwesterpublikation JavaWorld veröffentlicht wurde, bietet einen Rückblick darauf, wie Java zu seinem Namen kam – und was es mit dem Kaffee auf sich hat.Die damaligen Gesprächspartner:James Gosling, Erfinder von JavaKim Polese, Produktmanagerin bei Sun Microsystems Eric Schmidt, Chief Technology Officer bei Sun MicrosystemsArthur van Hoff, leitender Softwareingeniuer bei Sun MicrosystemsSami Shaio, Engineer bei Sun MicrosystemsTimothy Lindholm, Engineer bei Sun MicrosystemsChris Warth, Software Engineer bei Sun MicrosystemsFrank Yellin, leitender Softwareingenieur bei Sun MicrosystemsWie Java Java wurdeFrank Yellin: Unsere Anwälte hatten uns gesagt, dass wir den Namen ‘OAK’ nicht verwenden dürfen. Der war bereits von Oak Technologies patentiert worden. Also wurde eine Brainstorming-Sitzung abgehalten, um Ideen für einen neuen Namen zu sammeln. An dieser Sitzung nahmen alle Mitglieder der so genannten “Live Oak”-Gruppe teil, also alle, die aktiv an der neuen Sprache arbeiteten. Im Ergebnis wurden etwa zehn mögliche Namen ermittelt. Die wurden dann der Rechtsabteilung vorgelegt. Drei davon wurden für gut befunden: Java, DNA und Silk. Niemand kann sich daran erinnern, wer zuerst auf den Namen “Java” gekommen ist. Soweit ich weiß, hat nur eine Person öffentlich behauptet, der Namensgeber zu sein.Kim Polese: Ich habe Java benannt. Ich habe viel Zeit und Energie darauf verwendet, weil ich den perfekten Namen finden wollte. Etwas, das die Essenz der Technologie widerspiegelt: dynamisch, revolutionär, lebendig, lustig. Weil diese Programmiersprache so einzigartig ist, wollte ich unbedingt nerdige Namen vermeiden. Ich wollte auch nichts mit ‘net’ oder ‘web’, das wäre viel zu generisch gewesen. Mein Ziel war es etwas Cooles, Einzigartiges zu kreieren – leicht zu buchstabieren und auszusprechen. Ich versammelte das Team in einem Raum, schrieb einige Begriffe wie ‘dynamic’, ‘alive’, ‘jolt’, ‘impact’, ‘revolutionary’ usw. an die Tafel und leitete das Brainstorming. Der Name Java tauchte während dieser Sitzung auf. Andere Namen waren DNA, Silk, Ruby und WRL, für WebRunner Language – igitt!Sami Shaio: Schwer zu sagen, aus welcher Ecke der Name ‘Java’ zuerst kam, aber er landete auf der Liste der Kandidaten – zusammen mit Silk, Lyric, Pepper, NetProse, Neon und einer Reihe von anderen, die zu peinlich waren, um sie zu erwähnen.Chris Warth: Einige andere Kandidaten waren WebDancer und WebSpinner. Obwohl das Marketing einen Namen wollte, der eine Assoziation mit dem Web impliziert, denke ich, dass wir sehr gut daran getan haben, einen anderen Namen zu wählen. Java wird wahrscheinlich in Anwendungen fernab des Internets ein echtes Zuhause finden, daher ist es gut, dass es nicht schon früh in eine Schublade gesteckt wurde.James Gosling: Das Meeting, das von Kim Polese organisiert wurde, war im Grunde genommen kontinuierliches Chaos. Einige Teilnehmer schrien einfach nur Begriffe. Wer was genau zuerst gebrüllt hat, weiß man nicht – und es ist auch unwichtig. Ich hatte das Gefühl, dass mindestens das halbe Oxford Dictionary gebrüllt wurde. Außerdem wurde lebhaft über die Vor- und Nachteile einzelner Namen diskutiert. Am Ende haben wir uns auf ein Dutzend Namen beschränkt und sie unseren Anwälten übergeben.Timothy Lindholm: Wir waren wirklich angewidert und erschöpft von dem Marathon-Hacking, das wir zu der Zeit betrieben hatten. Aber wir standen unter Zeitdruck, einen Namen zu finden. Ich kann mich nicht erinnern, dass es einen Verfechter des Vorschlags ‘Java’ gab. Die Menschen, mit denen ich darüber gesprochen habe, sind davon überzeugt, dass der aus der Gruppendynamik heraus enstanden ist.

Was es mit dem Kaffee auf sich hatArthur van Hoff: Ich glaube, der Name wurde zuerst von Chris Warth vorgeschlagen. Wir waren schon seit Stunden in diesem Meeting und während er eine Tasse Kaffe der Marke ‘Peet’s Java’ trank, wählte er ‘Java’ als Beispiel für einen weiteren Namen, der niemals funktionieren würde. Die ersten Reaktionen waren gemischt. Ich glaube aber, dass die endgültigen Kandidaten Silk, DNA und Java waren. Ich schlug Lingua Java vor, aber das hat nicht geklappt. Die anderen Namen konnten wir nicht als Markenzeichen schützen lassen, also fiel die Wahl auf Java. Schließlich segnete unsere Marketing-Beauftragte, Kim Polese, den neuen Namen ab.Polese: Ich habe die Namen auf Partys, bei Freunden und Familienmitgliedern testweise vermarktet. Und Java bekam von allen Kandidaten die meisten positiven Reaktionen. Da es nicht sicher war, dass wir diesen Namen markenrechtlich schützen lassen konnten, wählte ich drei oder vier Alternativen und arbeitete mit unserer Rechtsabteilung daran. Java hat bestanden und war mein Favorit, also habe ich die Sprache Java genannt und den Browser HotJava – übrigens ein viel besserer Name als ‘WebRunner’. Es fiel den Softwareingenieuren schwer, sich von ‘Oak’ zu trennen, aber schließlich gewöhnten sie sich daran. Ich war der Meinung, dass das Branding sehr wichtig war – ich wollte, dass Java zu einem Standard wird. Also habe ich mich darauf konzentriert, eine starke Marke aufzubauen.Yellin: Jeder konnte Java, DNA und Silk in der Reihenfolge seiner Präferenz einstufen. Der Name mit den meisten Ja-Stimmen erhielt gleichzeitig die meisten Nein-Stimmen. Also wurde er fallen gelassen. Von den verbleibenden zwei Namen erhielt Java die meisten Stimmen. So wurde er zum bevorzugten Kandidaten.Shaio: Es war ein Zweikampf zwischen Silk und Java, und Java hat sich durchgesetzt. James Gosling schien Java gegenüber Silk zu bevorzugen. Kim Polese hatte das letzte Wort über den Namen, da sie die Produktmanagerin war. Aber die meisten Entscheidungen wurden damals im Konsensverfahren getroffen.Eric Schmidt: Kim legte dar, dass wir einen neuen Namen wählen mussten, weil ‘Oak’ – an den wir alle gewöhnt waren – bereits vergeben war. Wenn ich mich recht erinnere, schlug sie zwei Namen vor, Java und Silk. Von den beiden bevorzugte sie Java und vertrat die Ansicht, dass das Live Oak-Team damit einverstanden war. Bert und ich beschlossen, ihrer Empfehlung zuzustimmen, und die Entscheidung war gefallen. Aus diesen Gründen halte ich es für richtig, Kim die Anerkennung für den Namen zu geben. Sie hat ihn uns präsentiert und verkauft und ihn dann entsprechend umgesetzt.Chris Warth: Aber ich glaube mich daran zu erinnern, dass Kim anfangs nicht begeistert von ‘Java’ war. Zu dieser Zeit versuchten wir auch, unseren Browser von WebRunner – der bereits von Taligent übernommen worden war – in etwas umzubenennen, das noch nicht als Marke geschützt war. Kim wollte Namen wie WebSpinner oder sogar WebDancer – etwas, das deutlich machen würde, dass es sich um ein World-Wide-Web-Produkt handelte. Die Markenrecherche wurde durchgeführt und nach einigen Wochen kam eine kurze Liste mit freigegebenen Namen zurück. Es schien eine endlose Reihe von Meetings und Genehmigungen erforderlich zu sein – als ob der Name tatsächlich von Bedeutung wäre. Kim wollte, dass wir die Freigabe aufschieben, damit wir etwas Besseres als Java finden, aber sie wurde von den Ingenieuren überstimmt – insbesondere von James und Arthur van Hoff und mir.Irgendwann sagte James, dass wir uns für Java und HotJava entscheiden würden, und Kim schickte eine E-Mail, in der sie uns bat, auf andere Namen zu warten, die sich anbieten würden. James lehnte ab und sagte ihr, dass wir mit dem arbeiten würden, was wir hatten. Wir haben dann einfach den Quellcode schnell umbenannt und die Version herausgegeben. Ich glaube, die Marketing-Experten und das Management hatten am Ende weit weniger mit der Namensgebung zu tun, als die Softwareingenieure, die unbedingt etwas herausbringen wollten. Ich glaube, Kim schreibt die Geschichte ein wenig um, wenn sie behauptet, diesen Namen aus Marketing-Gründen gewählt zu haben. Wir haben uns für ‘Java’ entschieden, weil uns die Möglichkeiten ausgingen und wir unser Produkt auf den Markt bringen wollten. Die Marketing-Rechtfertigungen kamen erst später hinzu.Schlaflos in Palo AltoWarth: Ich behaupte nicht, dass ich derjenige war, der den Namen als erster vorgeschlagen hat. Aber wir haben definitiv ‘Peet’s Java’ getrunken. Ich kann mich nicht mehr genau daran erinnern, wer es zuerst ausgesprochen hat. Ich und James und die anderen Engineers waren der Meinung, dass wir es ‘xyzzy’ nennen könnten und es trotzdem beliebt wäre. Letztendlich ist es egal, wer den Namen ursprünglich vorgeschlagen hat, denn es war letztlich eine Gruppenentscheidung – unterstützt von reichlich Koffein.Timothy Lindholm: Die Namensgebung von Java wurde nicht von einem Individuum vorgenommen, sondern war das Produkt einer kreativen und engagierten Truppe, die sich sehr bemühte, ihre Ziele zu erreichen. Lassen Sie sich nicht davon täuschen, wie Einzelpersonen und die Medien viele Elemente der Entstehung von Java im Nachhinein für ihre eigenen Zwecke gefiltert haben. (fm)

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation InfoWorld.

Interview-Klassiker: Darum heißt Java Java​ Read More »

Kann Wasm Container ersetzen?​

Kann Wasm Container ersetzen?​

Allgemein

loading=”lazy” width=”400px”>Container über Bord?Maxx-Studio | shutterstock.com Seit seiner Einführung hat WebAssembly – kurz Wasm – für Furore gesorgt. In der Webentwicklung hat sich die Assembler-ähnliche Programmiersprache längst etabliert – und auch außerhalb des Browsers steigen die Nutzungsraten der Technologie: Mit seiner Kompaktheit, Geschwindigkeit, Portabilität und Sicherheit kann Wasm Entwickler auch zunehmend im Server- und Client-Umfeld begeistern. Einige sehen in WebAssembly sogar großes Potenzial, Linux-Container künftig zu ersetzen und das heute etablierte Container-Ökosystem zu revolutionieren. Wer sich mit der Diskussion, die um das Thema „Wasm vs. Container“ tobt, schon ein wenig beschäftigt hat, kennt sicher den Tweet von Solomon Hykes, Mitbegründer von Docker, aus dem Jahr 2019: https://twitter.com/solomonstre/status/1111004913222324225 Was Hykes damit eigentlich ausdrücken wollte: Hätte es Wasm damals bereits gegeben, wäre kein akuter Bedarf für Container-Lösungen wie Docker entstanden. Bekanntermaßen ist das nicht geschehen – wir leben in einem Universum, in dem Docker-Container tonangebend sind. Darüber hinaus ist es auch keine triviale Angelegenheit, Linux-basierte Container zu substituieren. Um das transformative Potenzial von WebAssembly besser einschätzen zu können, werfen wir im Folgenden im Gespräch mit Experten einen Blick darauf, in welchen Bereichen Wasm Container übertreffen kann – und in welchen nicht. Wo WebAssembly Container schlägt Edge Computing Seine leichtgewichtige, Sandbox-artige Natur macht WebAssembly für Edge-Computing-Zwecke besonders interessant, wie Michael J. Yuan, Gründer des Wasm-Spezialisten Second State, erklärt: „Am Netzwerkrand benötigen wir isolierte Software, aber Container verbrauchen brauchen dabei viel zu viele Ressourcen. WebAssembly lässt sich auch nutzen, um Software zu isolieren und zu managen – überall dort, wo Container zu schwerfällig sind.“ Das liegt auch an der Größe von Wasm-Modulen, wie Bailey Hayes, CTO beim Plattformanbieter Cosmonic, deutlich macht: „Im Vergleich zu Containern sind .wasm-Dateien deutlich kleiner und Laufzeit-unabhängig. Die Portabilität von WebAssembly ermöglicht es, Workloads in heterogenen Umgebungen auszuführen – etwa in der Cloud, am Netzwerkrand oder sogar auf Devices mit eingeschränkten Ressourcen.“ So eignet sich Wasm für bestimmte Anwendungsfälle, die Einschränkungen aufwerfen – beispielsweise Embedded Devices. Ein IoT-Beispiel aus dem Manufacturing-Bereich: Der Analytics-Spezialist MachineMetrics nutzt wasmCloud in der Fabrikhalle, um Maschinendaten sicherer und effizienter zu managen. Leistungskritische Workloads Auch wenn es um Performance-kritische Workloads wie Serverless-Funktionen oder bestimmte KI-Anwendungen geht, hat Wasm eine klar definierte Rolle eingenommen. Luke Wagner, Distinguished Engineer beim Cloud-Plattformanbieter Fastly, spezifiziert: „Es gibt bestimmte Anwendungen, bei denen Wasm die erste Wahl ist – vor Containern. Im Fall von Serverless-Workloads ergeben sich Kosteneinsparungen sowie Kaltstart-Optimierungen. Wasm ist vor allem für Unternehmen attraktiv, die keinen Wert darauf legen, sich an die aktuellen, proprietären Serverless-Angebote zu binden.“ Im KI-Bereich eignet sich WebAssembly insbesondere für Plattform-übergreifende Inferenz auf heterogenen Devices, wie Yuan weiß: „Container sind sehr schwer und nicht GPU-übergreifend übertragbar. Das trägt dazu bei, dass sie für Anwendungen wie LlamaEdge, einen Wasm-basierten, lokalen Laufzeit- und API-Server für große Sprachmodelle (LLMs), ungeeignet sind.“ Komponenten-basierte Architekturen Einige Experten betrachten den Spezifikations-Vorschlag WebAssembly System Interface (WASI) als Grundlage für ein Ökosystem modularer Komponenten. Darunter auch Cosmonic-Managerin Hayes: „Wir werden miterleben, wie sich neue Arten von Architekturen entwickeln, die sich die Größe und Geschwindigkeit von Wasm-Komponenten zunutze machen werden.“ Darüber hinaus stellten laut der CTO auch die standardmäßigen Sicherheitseinstellungen von WebAssembly einen großen Vorteil gegenüber Containern dar: „Container gelten im Allgemeinen nicht als die richtige Wahl für sicheres Sandboxing und dafür, Benutzercode zu isolieren“. Laut Fastly-Engineer Wagner ist davon auszugehen, dass diverse Workloads künftig von Containern auf WebAssembly migriert werden: „Das gilt insbesondere für Greenfield-Workloads, bei denen das heute bereits geschieht. Die aktuellen Standardisierungsbemühungen rund um das WebAssembly-Komponentenmodell werden dazu führen, dass Unternehmen Wasm zunehmend als Möglichkeit entdecken, um ihre Services zu modularisieren und parallel den Overhead einer traditionellen Microservices-Architektur zu vermeiden.“ Das sieht Matt Butcher, Mitbegründer und CEO des Cloud-Anbieters Fermyon, ähnlich: “Wenn Wasm ausgereift ist, wird es Container vielleicht nicht Funktion für Funktion ersetzen. Aber es besteht durchaus das Potenzial, dass WebAssembly Container in bestimmten Bereichen künftig verdrängen. Einfach deswegen, weil diese keinen Mehrwert für komponentenbasierte Anwendungen bieten.“ Plug-ins für Server-seitige Apps „Plug-ins für bestehende Systeme sind ein weiterer starker Wasm-Use-Case“, meint Yuan. Plug-Ins, die für Server-seitige Applikationen innerhalb von Sandboxes gekapselt sind, wären ein weiterer. Tatsächlich haben sich Entwickler einiger Plug-in-Frameworks bereits für Wasm entschieden. Zum Beispiel: Istio, Shopify und Envoy. Webanwendungen und -Services Browser-basierte Webanwendungen sind für WebAssembly das „tägliche Brot“. Gleichzeitig bleiben Container in diesem Bereich außen vor. Wasm im Browser ist etabliert und bietet guten Support – die Eintrittsbarriere ist also niedrig. Kein Wunder, dass bereits diverse High-Performance-Applikationen WebAssembly als Grundlage nutzen. Zum Beispiel integriert Adobe Wasm (unter anderem) aktiv in die webbasierten Versionen von: Photoshop, Express, Lightroom und Acrobat. Colin Murphy, Senior Software Engineer bei Adobe, erklärt warum: „WebAssembly ist darauf ausgelegt, kurzlebige Programme möglichst schnell, effizient und sicher auszuführen. Mit zunehmender Reife wird es auch in anderen Bereichen wie bei Web Services immer häufiger eingesetzt werden.“ Wo Container Wasm schlagen Umfangreiche Serverprozesse „Für langlaufende Serverprozesse ist WebAssembly nicht ideal“, hält Fermyon-CEO Butcher fest. Er ergänzt: „Container werden hingegen idealerweise dazu eingesetzt, bestehende, langlaufende Server wie Postgres oder WordPress zu verpacken und auszuführen. In diesem Bereich sehe ich Wasm in den nächsten zehn Jahren nicht als Herausforderer.“ Letzteres führt der Manager auf einen Mangel an Threads, schwachen Socket-Support und die Tatsache zurück, dass viele der unterstützten Sprachen nicht für WebAssembly optimiert sind. Fastly-Chefentwickler Wagner ergänzt, dass containerisierte Workloads, die auf die Funktionen eines bestimmten Betriebssystems oder einer bestimmten CPU angewiesen sind, noch nicht von Wasm unterstützt werden. „Eine Substitution durch Wasm ist also nicht so einfach möglich. Dasselbe gilt, wenn der Workload eine Sprache verwendet, die nicht vollständig von WebAssembly unterstützt wird. Ich kann mir jedoch vorstellen, dass sich das mit zunehmender Reife des Wasm-Ökosystems ändert.“ Andere sind sich da nicht so sicher – etwa Butcher: „Das Sicherheitsmodell von Wasm gewährt keinen Zugriff auf viele der Low-Level-Betriebssystem-Primitive, auf die Serveranwendungen zugreifen. Und es gibt keinen Grund zu der Annahme, dass sich das ändern wird. Das Gros der großen Code-Basen lässt sich nicht einfach zu WebAssembly kompilieren. Der Code muss neu geschrieben werden.“ Entsprechend hoch ist die Wahrscheinlichkeit, dass Container auch in Zukunft mit anderen Entwicklungsansätzen koexistieren – und sich mit diesen ergänzen. Linux-basierte, Cloud-native Systeme „Wenn man darüber spricht, Container zu ersetzen, muss man auch darüber sprechen, Linux zu ersetzen “, postuliert Hykes. Er ergänzt erklärend: „Container sind heute ein Kernbestandteil von Linux. Nicht nur der Kernel, sondern auch die Betriebssystemebene, der Standard-Stack darum herum und die Standardmethode, mit der man Linux im Rechenzentrum in der Cloud ausführt. Container werden bleiben. Die Frage ist nur: Kommt eine Ebene darüber hinzu?“ Zwar könnten Container sicherlich Wasm-Komponenten hosten – dennoch hält es der Docker-Mitbegründer für schwer vorstellbar, dass WebAssembly sich zu einer universellen, im Server-Bereich dominanten Plattform entwickelt – so wie es Linux heute ist: „Im Moment sehe ich das nicht, weil es bislang keinen überzeugenden Grund gibt, massenhaft auf diese neue Plattform umzusteigen.“ Das sehen auch andere Experten so – etwa Second-State-Gründer Yuan: „Linux-Container sind für die meisten der heutigen Cloud-nativen Anwendungen die richtigen Tools und sollten nicht ersetzt werden. Wasm ist für neue Anwendungsfälle gedacht, die eine Isolierung erfordern, bei denen Container jedoch nicht eingesetzt werden können.“ Auch in anderen Situationen, in denen die Ausführungszeit minimiert werden muss, ist Wasm keine Option, wie Wagner abschließend ergänzt: „Im Vergleich zu nativem Code entsteht bei WebAssembly ein moderater Laufzeit-Overhead, der im Fall einiger Workloads inakzeptabel sein kann. In diesen Fällen wird Wasm Container nicht ersetzen.“ Die Wasm-Zukunft Einige Experten prophezeien, dass WebAssembly Container-basierte Runtimes bis zum Jahr 2030 ersetzen wird. Die meisten gehen jedoch von einem anderen Szenario aus, in dem Wasm das aktuelle Container-Paradigma ergänzt – statt es zu ersetzen. In diesem Zusammenhang entwickeln beispielsweise die Bytecode Alliance und die Cloud Native Computing Foundation (CNCF) Projekte, die es ermöglichen, Container und Wasm-Module nebeneinander im selben Cluster auszuführen. Andere sehen eine Zukunft, in der Docker Linux-, Windows- und Wasm-Container parallel ausführt. Auch Hykes hält das für realisierbar, räumt allerdings ein: „Die Nachfrage ist eher gering. Das liegt zum Teil auch daran, dass WebAssembly auf dem Server sich bislang noch nicht durchgesetzt hat. Bislang ist das ein Nischen-Use-Case.“ Auf lange Sicht dürften mit Wasm jedoch völlig neue Märkte und Paradigmen entstehen, ist Adobe-Entwickler Murphy überzeugt: „Viele der Silos zwischen Rechenzentrum, Edge Computing, Mobilgeräten und IoT dürften durch die Portabilität und Modularität, die WASI künftig ermöglicht, aufgebrochen werden.“ Dabei dürfte auch eine Rolle spielen, dass WebAssembly branchenübergreifend eingesetzt wird, wie Hayes konstatiert: „WasmCloud wird in einer Vielzahl von Anwendungsfällen im Bankwesen, in der Fertigung, in der Telekommunikation, bei digitalen Diensten, in der Spielebranche und in vielen weiteren Bereichen eingesetzt.“ Es ist davon auszugehen, dass kleinere und schnellere Wasm-Anwendungen Container bei einer wachsenden Zahl von Greenfield-Anwendungen verdrängen werden. Dass WebAssembly jedoch das bestehende Container-Ökosystem vollständig ersetzen kann, scheint etwas weit hergeholt. Wahrscheinlicher ist, dass sowohl Wasm als auch Container die kommenden Jahre im Cloud- und Enterprise-Umfeld prägen werden. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Kann Wasm Container ersetzen?​ loading=”lazy” width=”400px”>Container über Bord?Maxx-Studio | shutterstock.com

Seit seiner Einführung hat WebAssembly – kurz Wasm – für Furore gesorgt. In der Webentwicklung hat sich die Assembler-ähnliche Programmiersprache längst etabliert – und auch außerhalb des Browsers steigen die Nutzungsraten der Technologie: Mit seiner Kompaktheit, Geschwindigkeit, Portabilität und Sicherheit kann Wasm Entwickler auch zunehmend im Server- und Client-Umfeld begeistern.

Einige sehen in WebAssembly sogar großes Potenzial, Linux-Container künftig zu ersetzen und das heute etablierte Container-Ökosystem zu revolutionieren. Wer sich mit der Diskussion, die um das Thema „Wasm vs. Container“ tobt, schon ein wenig beschäftigt hat, kennt sicher den Tweet von Solomon Hykes, Mitbegründer von Docker, aus dem Jahr 2019:

https://twitter.com/solomonstre/status/1111004913222324225

Was Hykes damit eigentlich ausdrücken wollte: Hätte es Wasm damals bereits gegeben, wäre kein akuter Bedarf für Container-Lösungen wie Docker entstanden. Bekanntermaßen ist das nicht geschehen – wir leben in einem Universum, in dem Docker-Container tonangebend sind. Darüber hinaus ist es auch keine triviale Angelegenheit, Linux-basierte Container zu substituieren.

Um das transformative Potenzial von WebAssembly besser einschätzen zu können, werfen wir im Folgenden im Gespräch mit Experten einen Blick darauf, in welchen Bereichen Wasm Container übertreffen kann – und in welchen nicht.

Wo WebAssembly Container schlägt

Edge Computing

Seine leichtgewichtige, Sandbox-artige Natur macht WebAssembly für Edge-Computing-Zwecke besonders interessant, wie Michael J. Yuan, Gründer des Wasm-Spezialisten Second State, erklärt: „Am Netzwerkrand benötigen wir isolierte Software, aber Container verbrauchen brauchen dabei viel zu viele Ressourcen. WebAssembly lässt sich auch nutzen, um Software zu isolieren und zu managen – überall dort, wo Container zu schwerfällig sind.“

Das liegt auch an der Größe von Wasm-Modulen, wie Bailey Hayes, CTO beim Plattformanbieter Cosmonic, deutlich macht: „Im Vergleich zu Containern sind .wasm-Dateien deutlich kleiner und Laufzeit-unabhängig. Die Portabilität von WebAssembly ermöglicht es, Workloads in heterogenen Umgebungen auszuführen – etwa in der Cloud, am Netzwerkrand oder sogar auf Devices mit eingeschränkten Ressourcen.“

So eignet sich Wasm für bestimmte Anwendungsfälle, die Einschränkungen aufwerfen – beispielsweise Embedded Devices. Ein IoT-Beispiel aus dem Manufacturing-Bereich: Der Analytics-Spezialist MachineMetrics nutzt wasmCloud in der Fabrikhalle, um Maschinendaten sicherer und effizienter zu managen.

Leistungskritische Workloads

Auch wenn es um Performance-kritische Workloads wie Serverless-Funktionen oder bestimmte KI-Anwendungen geht, hat Wasm eine klar definierte Rolle eingenommen. Luke Wagner, Distinguished Engineer beim Cloud-Plattformanbieter Fastly, spezifiziert: „Es gibt bestimmte Anwendungen, bei denen Wasm die erste Wahl ist – vor Containern. Im Fall von Serverless-Workloads ergeben sich Kosteneinsparungen sowie Kaltstart-Optimierungen. Wasm ist vor allem für Unternehmen attraktiv, die keinen Wert darauf legen, sich an die aktuellen, proprietären Serverless-Angebote zu binden.“

Im KI-Bereich eignet sich WebAssembly insbesondere für Plattform-übergreifende Inferenz auf heterogenen Devices, wie Yuan weiß: „Container sind sehr schwer und nicht GPU-übergreifend übertragbar. Das trägt dazu bei, dass sie für Anwendungen wie LlamaEdge, einen Wasm-basierten, lokalen Laufzeit- und API-Server für große Sprachmodelle (LLMs), ungeeignet sind.“

Komponenten-basierte Architekturen

Einige Experten betrachten den Spezifikations-Vorschlag WebAssembly System Interface (WASI) als Grundlage für ein Ökosystem modularer Komponenten. Darunter auch Cosmonic-Managerin Hayes: „Wir werden miterleben, wie sich neue Arten von Architekturen entwickeln, die sich die Größe und Geschwindigkeit von Wasm-Komponenten zunutze machen werden.“

Darüber hinaus stellten laut der CTO auch die standardmäßigen Sicherheitseinstellungen von WebAssembly einen großen Vorteil gegenüber Containern dar: „Container gelten im Allgemeinen nicht als die richtige Wahl für sicheres Sandboxing und dafür, Benutzercode zu isolieren“.

Laut Fastly-Engineer Wagner ist davon auszugehen, dass diverse Workloads künftig von Containern auf WebAssembly migriert werden: „Das gilt insbesondere für Greenfield-Workloads, bei denen das heute bereits geschieht. Die aktuellen Standardisierungsbemühungen rund um das WebAssembly-Komponentenmodell werden dazu führen, dass Unternehmen Wasm zunehmend als Möglichkeit entdecken, um ihre Services zu modularisieren und parallel den Overhead einer traditionellen Microservices-Architektur zu vermeiden.“

Das sieht Matt Butcher, Mitbegründer und CEO des Cloud-Anbieters Fermyon, ähnlich: “Wenn Wasm ausgereift ist, wird es Container vielleicht nicht Funktion für Funktion ersetzen. Aber es besteht durchaus das Potenzial, dass WebAssembly Container in bestimmten Bereichen künftig verdrängen. Einfach deswegen, weil diese keinen Mehrwert für komponentenbasierte Anwendungen bieten.“

Plug-ins für Server-seitige Apps

„Plug-ins für bestehende Systeme sind ein weiterer starker Wasm-Use-Case“, meint Yuan. Plug-Ins, die für Server-seitige Applikationen innerhalb von Sandboxes gekapselt sind, wären ein weiterer.

Tatsächlich haben sich Entwickler einiger Plug-in-Frameworks bereits für Wasm entschieden. Zum Beispiel:

Istio,

Shopify und

Envoy.

Webanwendungen und -Services

Browser-basierte Webanwendungen sind für WebAssembly das „tägliche Brot“. Gleichzeitig bleiben Container in diesem Bereich außen vor. Wasm im Browser ist etabliert und bietet guten Support – die Eintrittsbarriere ist also niedrig. Kein Wunder, dass bereits diverse High-Performance-Applikationen WebAssembly als Grundlage nutzen. Zum Beispiel integriert Adobe Wasm (unter anderem) aktiv in die webbasierten Versionen von:

Photoshop,

Express,

Lightroom und

Acrobat.

Colin Murphy, Senior Software Engineer bei Adobe, erklärt warum: „WebAssembly ist darauf ausgelegt, kurzlebige Programme möglichst schnell, effizient und sicher auszuführen. Mit zunehmender Reife wird es auch in anderen Bereichen wie bei Web Services immer häufiger eingesetzt werden.“

Wo Container Wasm schlagen

Umfangreiche Serverprozesse

„Für langlaufende Serverprozesse ist WebAssembly nicht ideal“, hält Fermyon-CEO Butcher fest. Er ergänzt: „Container werden hingegen idealerweise dazu eingesetzt, bestehende, langlaufende Server wie Postgres oder WordPress zu verpacken und auszuführen. In diesem Bereich sehe ich Wasm in den nächsten zehn Jahren nicht als Herausforderer.“ Letzteres führt der Manager auf einen Mangel an Threads, schwachen Socket-Support und die Tatsache zurück, dass viele der unterstützten Sprachen nicht für WebAssembly optimiert sind.

Fastly-Chefentwickler Wagner ergänzt, dass containerisierte Workloads, die auf die Funktionen eines bestimmten Betriebssystems oder einer bestimmten CPU angewiesen sind, noch nicht von Wasm unterstützt werden. „Eine Substitution durch Wasm ist also nicht so einfach möglich. Dasselbe gilt, wenn der Workload eine Sprache verwendet, die nicht vollständig von WebAssembly unterstützt wird. Ich kann mir jedoch vorstellen, dass sich das mit zunehmender Reife des Wasm-Ökosystems ändert.“

Andere sind sich da nicht so sicher – etwa Butcher: „Das Sicherheitsmodell von Wasm gewährt keinen Zugriff auf viele der Low-Level-Betriebssystem-Primitive, auf die Serveranwendungen zugreifen. Und es gibt keinen Grund zu der Annahme, dass sich das ändern wird. Das Gros der großen Code-Basen lässt sich nicht einfach zu WebAssembly kompilieren. Der Code muss neu geschrieben werden.“

Entsprechend hoch ist die Wahrscheinlichkeit, dass Container auch in Zukunft mit anderen Entwicklungsansätzen koexistieren – und sich mit diesen ergänzen.

Linux-basierte, Cloud-native Systeme

„Wenn man darüber spricht, Container zu ersetzen, muss man auch darüber sprechen, Linux zu ersetzen “, postuliert Hykes. Er ergänzt erklärend: „Container sind heute ein Kernbestandteil von Linux. Nicht nur der Kernel, sondern auch die Betriebssystemebene, der Standard-Stack darum herum und die Standardmethode, mit der man Linux im Rechenzentrum in der Cloud ausführt. Container werden bleiben. Die Frage ist nur: Kommt eine Ebene darüber hinzu?“

Zwar könnten Container sicherlich Wasm-Komponenten hosten – dennoch hält es der Docker-Mitbegründer für schwer vorstellbar, dass WebAssembly sich zu einer universellen, im Server-Bereich dominanten Plattform entwickelt – so wie es Linux heute ist: „Im Moment sehe ich das nicht, weil es bislang keinen überzeugenden Grund gibt, massenhaft auf diese neue Plattform umzusteigen.“

Das sehen auch andere Experten so – etwa Second-State-Gründer Yuan: „Linux-Container sind für die meisten der heutigen Cloud-nativen Anwendungen die richtigen Tools und sollten nicht ersetzt werden. Wasm ist für neue Anwendungsfälle gedacht, die eine Isolierung erfordern, bei denen Container jedoch nicht eingesetzt werden können.“

Auch in anderen Situationen, in denen die Ausführungszeit minimiert werden muss, ist Wasm keine Option, wie Wagner abschließend ergänzt: „Im Vergleich zu nativem Code entsteht bei WebAssembly ein moderater Laufzeit-Overhead, der im Fall einiger Workloads inakzeptabel sein kann. In diesen Fällen wird Wasm Container nicht ersetzen.“

Die Wasm-Zukunft

Einige Experten prophezeien, dass WebAssembly Container-basierte Runtimes bis zum Jahr 2030 ersetzen wird. Die meisten gehen jedoch von einem anderen Szenario aus, in dem Wasm das aktuelle Container-Paradigma ergänzt – statt es zu ersetzen. In diesem Zusammenhang entwickeln beispielsweise die Bytecode Alliance und die Cloud Native Computing Foundation (CNCF) Projekte, die es ermöglichen, Container und Wasm-Module nebeneinander im selben Cluster auszuführen.

Andere sehen eine Zukunft, in der Docker Linux-, Windows- und Wasm-Container parallel ausführt. Auch Hykes hält das für realisierbar, räumt allerdings ein: „Die Nachfrage ist eher gering. Das liegt zum Teil auch daran, dass WebAssembly auf dem Server sich bislang noch nicht durchgesetzt hat. Bislang ist das ein Nischen-Use-Case.“

Auf lange Sicht dürften mit Wasm jedoch völlig neue Märkte und Paradigmen entstehen, ist Adobe-Entwickler Murphy überzeugt: „Viele der Silos zwischen Rechenzentrum, Edge Computing, Mobilgeräten und IoT dürften durch die Portabilität und Modularität, die WASI künftig ermöglicht, aufgebrochen werden.“

Dabei dürfte auch eine Rolle spielen, dass WebAssembly branchenübergreifend eingesetzt wird, wie Hayes konstatiert: „WasmCloud wird in einer Vielzahl von Anwendungsfällen im Bankwesen, in der Fertigung, in der Telekommunikation, bei digitalen Diensten, in der Spielebranche und in vielen weiteren Bereichen eingesetzt.“

Es ist davon auszugehen, dass kleinere und schnellere Wasm-Anwendungen Container bei einer wachsenden Zahl von Greenfield-Anwendungen verdrängen werden. Dass WebAssembly jedoch das bestehende Container-Ökosystem vollständig ersetzen kann, scheint etwas weit hergeholt. Wahrscheinlicher ist, dass sowohl Wasm als auch Container die kommenden Jahre im Cloud- und Enterprise-Umfeld prägen werden. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Kann Wasm Container ersetzen?​ Read More »

Windows 11 schneller machen​

Windows 11 schneller machen​

Allgemein

Windows 11 (ab Version 22H2) schneller machen: Mit diesen 13 Tipps klappt’s im Handumdrehen. Foto: Microsoft Im Vergleich zu Windows 10 hat Microsoft bei Windows 11 einige Maßnahmen ergriffen, um die PC-Performance zu optimieren. Das heißt allerdings nicht, dass es noch besser, beziehungsweise schneller geht. Zum Beispiel mit den folgenden, simplen Optimierungstipps. Sie zu befolgen kann übrigens auch gewährleisten, dass Ihre Windows-11-Maschine nicht im Laufe der Zeit erlahmt. 13 Tipps, um Windows 11 schneller zu machen Vorab noch ein Hinweis: Wir beziehen uns in diesem Artikel auf Windows 11 Version 22H2. Wenn Sie eine frühere Version von Windows 11 nutzen, stehen einige Features unter Umständen nicht zur Verfügung oder sehen anders aus. 1. Autostart deaktivieren Programme, die zwar im Hintergrund laufen, aber nur selten oder nie verwendet werden, können Ihren PC verlangsamen. Zu unterbinden, dass solche Applikationen zum Systemstart ausgeführt werden, kann Ihren Rechner entsprechend beschleunigen. Dazu rufen Sie zunächst den Windows Task Manager auf, indem Sie: entweder die Tastenkombination Strg + Alt + Entf eingeben oder den Task Manager über die Windows-Suchleiste starten. Im Task Manager klicken Sie rechts auf den Menüpunkt “Autostart von Apps“. Nun sehen Sie eine Liste der Programme und Dienste, die beim Start von Windows initiiert werden – inklusive der Info, wie sich die jeweilige App auf den Startprozess auswirkt (dieser Wert bezieht sich allerdings nur auf den Startvorgang, nicht den laufenden Windows-11-Betrieb). Um zu verhindern, dass eines der gelisteten Programme oder Dienste zusammen mit dem System gestartet wird, genügt ein Rechtsklick, die Auswahl von “Deaktivieren” sowie ein anschließender Neustart des Rechners. 2. Effizienzmodus verwenden Über den Task Manager initiieren Sie einen weiteren Trick, um Windows 11 schneller zu machen. Den mit Windows 11 22H2 eingeführten “Effizienzmodus“, der Ihren PC beschleunigen und zudem die Akkulaufzeit Ihres Laptops optimieren kann. Neben anderen Maßnahmen regelt der Effizienzmodus in Windows 11 zum Beispiel die Priorität von Prozessen und Anwendungen, die im Hintergrund laufen. Dabei ist der Begriff allerdings etwas irreführend, denn Sie können nicht Ihren gesamten Rechner in den Effizienzmodus versetzen – sondern lediglich einzelne Anwendungen und Prozesse. Der Haken dabei: Das funktioniert nur mit bestimmten. Rufen Sie den Task Manager (siehe oben) auf und wählen sie im Menü links den Punkt “Prozesse“. Rechts sehen Sie nun eine Liste der Anwendungen und Prozesse, die aktuell laufen. Wenn Sie einen der Listeneinträge auswählen, haben Sie oben rechts im Task Manager die Möglichkeit, den Effizienzmodus zu aktivieren. Ist die Schaltfläche ausgegraut, steht die Funktion für die ausgewählte App nicht zur Verfügung. Darüber hinaus wissenswert: Unter Windows 11 arbeiten einige Anwendungen standardmäßig im Effizienzmodus, ohne die Möglichkeit, diesen zu deaktivieren (etwa Microsoft Edge). 3. Automatisierte Wartung nutzen Windows 11 führt im Hintergrund kontinuierlich Wartungsmaßnahmen an Ihrem PC durch, beispielsweise Sicherheits-Scans und Systemdiagnosen. Das soll sicherstellen, dass alles auf dem neuesten Stand ist, eventuelle Probleme automatisch behoben werden und das Device mit optimaler Leistung läuft. Sie sollten deshalb sicherstellen, dass die automatische Wartung durch Windows aktiviert ist. Bei Bedarf können Sie diese Funktion auch manuell starten. Rufen Sie dazu die Systemsteuerung auf und wählen Sie dort System und Sicherheit -> Sicherheit und Wartung. Hier finden Sie den Abschnitt “Automatische Wartung“, inklusive der Option, diese direkt manuell zu starten. 4. Adware und Bloatware beseitigen Möglicherweise liegt es gar nicht an Windows 11, dass Ihr PC langsam startet. Eventuell beansprucht auch Bloat– oder Adware die Systemressourcen über Gebühr. Software dieser Art wird oft vom Hersteller Ihres PCs vorinstalliert – und in der Regel standardmäßig auch beim Systemstart aktiviert. Um das abzustellen, führen Sie zunächst einen System-Scan durch, um Adware und Malware aufzuspüren. Wenn Sie bereits eine Security-Suite installiert haben, können Sie diese dazu verwenden. Ansonsten empfiehlt sich für diese Aufgabe der in Windows 11 integrierte Defender. Um einen Scan zu starten, suchen Sie die App über das Windows-Suchfeld. Anschließend können Sie mit einem zweiten Tool auf Nummer sicher gehen – dazu empfiehlt sich zum Beispiel das kostenlose Tool von Malwarebytes. Anschließend geht es der Bloatware an den Kragen. Dazu empfehlen sich zwei Werkzeuge: Das kostenlose Anti-Blotware-Tool “Bulk Crap Uninstaller” und die Webseite “Should I Remove It?“. Letztere bietet nicht nur wertvolle Tipps zu installierter Software auf Ihrem System, sondern bietet auch diverse nützliche Inhalte, die Sie dabei unterstützt, Bloatware von den Systemen verschiedener spezifischer Hersteller zu entfernen. 5. Suchindizierung abschalten Die Windows-11-Suche führt im Hintergrund eine Indizierung der Festplattendaten durch, damit Sie Ihren PC schneller durchsuchen können. Die beschleunigten Suchvorgänge können allerdings zu einem langsameren Rechner führen, denn die Suchindizierung kostet Ressourcen. Dies gilt insbesondere für Systeme, die ohnehin etwas schwach auf der Brust sind. Bei ihnen kann es zu einem Geschwindigkeitsschub führen, die Suchindizierung abzuschalten. Um das zu bewerkstelligen, geben Sie services.msc in das Windows-Suchfeld ein und öffnen die Dienste-App. In der Auflistung scrollen Sie bis zum Eintrag “Windows Search” – und vollziehen einen Doppelklick. Im folgenden Fenster können Sie den Dienst stoppen und Ihren Rechner neu starten. Anschließend sind Ihre Suchvorgänge möglicherweise etwas langsamer, den Unterschied werden Sie allerdings kaum bemerken. Dafür sollten Sie den Geschwindigkeitszuwachs umso mehr spüren. Alternativ können Sie die Indizierung auch nur für Dateien an bestimmten Speicherorten deaktivieren, während Dateien und Ordner, in, beziehungsweise nach denen Sie häufig suchen, weiterhin indiziert werden. Dazu geben Sie im Windows-Suchfeld “index” ein und öffnen anschließend die App “Indizierungsoptionen“. Klicken Sie auf die Schaltfläche “Ändern“, und Sie sehen eine Liste der Speicherorte, die indiziert werden. Damit ein spezifischer Speicherport nicht mehr indiziert wird, deaktivieren Sie einfach das entsprechende Kontrollkästchen daneben. 6. Festplatte entrümpeln Eine überfüllte Festplatte mit Dateien, die nicht mehr benötigt werden, kann Ihren PC ausbremsen. Sich ein paar Minuten Zeit zu nehmen, um Ihre Festplatte aufzuräumen, kann in einen sofortigen Geschwindigkeitsschub resultieren. Dazu brauchen Sie nicht mehr als das Windows-11-Bord-Tool “Speicheroptimierung“. Dieses finden Sie über das Einstellungsmenü, unter dem Punkt System -> Speicher. Wenn Sie den Schieberegler bei Speicheroptimierung nach rechts schieben, überwacht Windows 11 Ihren PC kontinuierlich und löscht automatisiert temporäre oder alte Dateien. Dabei können Sie die Funktionsweise des Tools an Ihre Bedürfnisse anpassen. Sie können die Speicheroptimierung auch anweisen, Dateien in Ihrem Download-Ordner oder Ihrem Papierkorb nach einer bestimmten Frist zu löschen. 7. Schatten, Animationen und visuelle Effekte deaktivieren Auf schnellen, neueren PCs beeinträchtigen die visuellen Effekte von Windows 11 die PC-Leistung für gewöhnlich nicht. Auf älteren, langsameren Rechnern kann das anders aussehen. Sollte Ihr PC in letztgenannte Kategorie fallen, fahren Sie in der Regel besser, wenn Sie die visuellen Schmankerl von Windows 11 deaktivieren. Dazu geben Sie sysdm.cpl in das Windows-Suchfeld ein und starten das gleichnamige Systemsteuerungselement. Im folgenden Dialogfeld “Systemeigenschaften” navigieren Sie zur Registerkarte “Erweitert“. Anschließend klicken Sie auf die Schaltfläche “Eigenschaften” im Bereich “Leistung“. Sie sehen nun das Dialogfeld “Leistungsoptionen” mit einer langen Liste von Animationen und Spezialeffekten. Hier können Sie nach Belieben experimentieren. Wenn Sie einfach nur zielstrebig die größten Performance-Fresser entfernen möchten – das sind in der Regel die Optionen: Animation beim Minimieren und Maximieren von Fenstern; Animationen auf der Taskleiste; Fensterschatten anzeigen; Menüelemente nach Aufruf ausblenden; Menüs in Ansicht ein- oder ausblenden; Quickinfo in Ansicht ein- oder ausblenden; Steuerelemente und Elemente innerhalb von Fenstern animieren. Die einfachste Lösung: Wählen Sie oben im Dialogfeld die Option “Optimale Einstellung automatisch auswählen“. In diesem Fall deaktiviert Windows 11 automatisch die Effekte, die Ihr System verlangsamen. 8. Transparenz deaktivieren Ein weiterer Hebel, um Windows 11 schneller zu machen: Deaktivieren Sie auch die Transparenzeffekte in der Taskleiste und an anderen Stellen. Diese kosten erstaunlich viel Systemleistung. Klicken Sie sich dazu im Einstellungsmenü über “Personalisierung” bis zu “Farben” durch und schieben Sie den Schieberegler für die Transparenzeffekte auf Aus. 9. Energieeinstellungen anpassen Mit Hilfe der Energieeinstellungen Ihres Windows-11-PCs können Sie Energieeffizienz und Leistung in Einklang bringen. Ist auf Ihrem System ein Energiesparplan aktiviert, führt das also in jedem Fall zu Leistungseinbußen. Um das zu verhindern, rufen Sie die Systemsteuerung auf und wählen dann “Hardware und Sound“, gefolgt von “Energieoptionen“. Wählen Sie nun die gewünschte Einstellung. Für Desktop-Benutzer gibt es keinen Grund, die Option “Energiesparen” zu wählen – und selbst Laptop-Benutzer sollten die Option “Ausgewogen” in Betracht ziehen. 10. Windows-Tipps und -Tricks abschalten Windows 11 analysiert ständig, was Sie auf Ihrem PC tun, und gibt Ihnen an diversen Stellen Tipps, “um noch mehr zu machen”. Hilfreich sind die allerdings selten – und ein schlechtes Gefühl gibt’s inklusive, wenn Windows ständig über die Schulter schaut. Viel wichtiger ist aber, dass diese Art des Monitorings auch Ihr System verlangsamen kann. Um Windows 11 dazu zu bringen, die Ratschläge für sich zu behalten, öffnen Sie das Einstellungsmenü und wählen anschließend “System” und dann “Benachrichtigungen“. Hier scrollen Sie ganz nach unten, um unter dem Punkt “Zusätzliche Einstellungen” das Kontrollkästchen “Tipps und Vorschläge erhalten, wenn Windows verwendet wird“. 11. Spielmodus deaktivieren Der in Windows 11 integrierte Spielmodus ist sinnvoll, wenn Sie Games zocken. Sobald das System eines erkennt, verwendet es die Systemressourcen vorrangig dafür – zulasten aller anderen Anwendungen und Hintergrundprozesse. Wenn Sie allerdings gerade nicht, beziehungsweise nie spielen, kann der Spielmodus Ihr System verlangsamen, denn er hält einige Systemressourcen in Reserve – und führt gelegentlich auch zu Stabilitätsproblemen. Da der Spielmodus standardmäßig aktiviert ist, müssen Sie ihn abschalten. Dazu rufen Sie im Einstellungsmenü “Spiele” und anschließend “Spielemodus” auf und betätigen den Schieberegler entsprechend. 12. Treiber aktualisieren Veraltete Treiber können Ihren Windows-11-PC signifikant erlahmen lassen. Um zu verhindern, dass es soweit kommt, gehen Sie wie folgt vor: Rufen Sie die Windows-Einstellungen auf (Windows-Taste + I). Wählen Sie zunächst “Windows Update” im Menü links, anschließend im Hauptfenster zuerst “Erweiterte Optionen“, dann “Optionale Updates“. In der Treiberupdate-Auflistung dürfen Sie nun diejenigen auswählen, die Sie herunterladen und installieren möchten. 13. Windows neu starten Last, but not least eine echte Geheimwaffe aus den IT-Abteilungen dieser Welt: Wenn Ihr Rechner lahmt, starten Sie ihn neu. Das sorgt dafür, dass der Arbeitsspeicher wieder ins Reine kommt und nicht mehr benötigte Prozesse beendet werden. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Windows 11 schneller machen​ Windows 11 (ab Version 22H2) schneller machen: Mit diesen 13 Tipps klappt’s im Handumdrehen.
Foto: Microsoft

Im Vergleich zu Windows 10 hat Microsoft bei Windows 11 einige Maßnahmen ergriffen, um die PC-Performance zu optimieren. Das heißt allerdings nicht, dass es noch besser, beziehungsweise schneller geht. Zum Beispiel mit den folgenden, simplen Optimierungstipps. Sie zu befolgen kann übrigens auch gewährleisten, dass Ihre Windows-11-Maschine nicht im Laufe der Zeit erlahmt.

13 Tipps, um Windows 11 schneller zu machen

Vorab noch ein Hinweis: Wir beziehen uns in diesem Artikel auf Windows 11 Version 22H2. Wenn Sie eine frühere Version von Windows 11 nutzen, stehen einige Features unter Umständen nicht zur Verfügung oder sehen anders aus.

1. Autostart deaktivieren

Programme, die zwar im Hintergrund laufen, aber nur selten oder nie verwendet werden, können Ihren PC verlangsamen. Zu unterbinden, dass solche Applikationen zum Systemstart ausgeführt werden, kann Ihren Rechner entsprechend beschleunigen. Dazu rufen Sie zunächst den Windows Task Manager auf, indem Sie:

entweder die Tastenkombination Strg + Alt + Entf eingeben oder

den Task Manager über die Windows-Suchleiste starten.

Im Task Manager klicken Sie rechts auf den Menüpunkt “Autostart von Apps“. Nun sehen Sie eine Liste der Programme und Dienste, die beim Start von Windows initiiert werden – inklusive der Info, wie sich die jeweilige App auf den Startprozess auswirkt (dieser Wert bezieht sich allerdings nur auf den Startvorgang, nicht den laufenden Windows-11-Betrieb). Um zu verhindern, dass eines der gelisteten Programme oder Dienste zusammen mit dem System gestartet wird, genügt ein Rechtsklick, die Auswahl von “Deaktivieren” sowie ein anschließender Neustart des Rechners.

2. Effizienzmodus verwenden

Über den Task Manager initiieren Sie einen weiteren Trick, um Windows 11 schneller zu machen. Den mit Windows 11 22H2 eingeführten “Effizienzmodus“, der Ihren PC beschleunigen und zudem die Akkulaufzeit Ihres Laptops optimieren kann. Neben anderen Maßnahmen regelt der Effizienzmodus in Windows 11 zum Beispiel die Priorität von Prozessen und Anwendungen, die im Hintergrund laufen. Dabei ist der Begriff allerdings etwas irreführend, denn Sie können nicht Ihren gesamten Rechner in den Effizienzmodus versetzen – sondern lediglich einzelne Anwendungen und Prozesse. Der Haken dabei: Das funktioniert nur mit bestimmten.

Rufen Sie den Task Manager (siehe oben) auf und wählen sie im Menü links den Punkt “Prozesse“. Rechts sehen Sie nun eine Liste der Anwendungen und Prozesse, die aktuell laufen. Wenn Sie einen der Listeneinträge auswählen, haben Sie oben rechts im Task Manager die Möglichkeit, den Effizienzmodus zu aktivieren. Ist die Schaltfläche ausgegraut, steht die Funktion für die ausgewählte App nicht zur Verfügung. Darüber hinaus wissenswert: Unter Windows 11 arbeiten einige Anwendungen standardmäßig im Effizienzmodus, ohne die Möglichkeit, diesen zu deaktivieren (etwa Microsoft Edge).

3. Automatisierte Wartung nutzen

Windows 11 führt im Hintergrund kontinuierlich Wartungsmaßnahmen an Ihrem PC durch, beispielsweise Sicherheits-Scans und Systemdiagnosen. Das soll sicherstellen, dass alles auf dem neuesten Stand ist, eventuelle Probleme automatisch behoben werden und das Device mit optimaler Leistung läuft. Sie sollten deshalb sicherstellen, dass die automatische Wartung durch Windows aktiviert ist. Bei Bedarf können Sie diese Funktion auch manuell starten.

Rufen Sie dazu die Systemsteuerung auf und wählen Sie dort System und Sicherheit -> Sicherheit und Wartung. Hier finden Sie den Abschnitt “Automatische Wartung“, inklusive der Option, diese direkt manuell zu starten.

4. Adware und Bloatware beseitigen

Möglicherweise liegt es gar nicht an Windows 11, dass Ihr PC langsam startet. Eventuell beansprucht auch Bloat– oder Adware die Systemressourcen über Gebühr. Software dieser Art wird oft vom Hersteller Ihres PCs vorinstalliert – und in der Regel standardmäßig auch beim Systemstart aktiviert.

Um das abzustellen, führen Sie zunächst einen System-Scan durch, um Adware und Malware aufzuspüren. Wenn Sie bereits eine Security-Suite installiert haben, können Sie diese dazu verwenden. Ansonsten empfiehlt sich für diese Aufgabe der in Windows 11 integrierte Defender. Um einen Scan zu starten, suchen Sie die App über das Windows-Suchfeld. Anschließend können Sie mit einem zweiten Tool auf Nummer sicher gehen – dazu empfiehlt sich zum Beispiel das kostenlose Tool von Malwarebytes. Anschließend geht es der Bloatware an den Kragen. Dazu empfehlen sich zwei Werkzeuge:

Das kostenlose Anti-Blotware-Tool “Bulk Crap Uninstaller” und

die Webseite “Should I Remove It?“.

Letztere bietet nicht nur wertvolle Tipps zu installierter Software auf Ihrem System, sondern bietet auch diverse nützliche Inhalte, die Sie dabei unterstützt, Bloatware von den Systemen verschiedener spezifischer Hersteller zu entfernen.

5. Suchindizierung abschalten

Die Windows-11-Suche führt im Hintergrund eine Indizierung der Festplattendaten durch, damit Sie Ihren PC schneller durchsuchen können. Die beschleunigten Suchvorgänge können allerdings zu einem langsameren Rechner führen, denn die Suchindizierung kostet Ressourcen. Dies gilt insbesondere für Systeme, die ohnehin etwas schwach auf der Brust sind. Bei ihnen kann es zu einem Geschwindigkeitsschub führen, die Suchindizierung abzuschalten.

Um das zu bewerkstelligen, geben Sie services.msc in das Windows-Suchfeld ein und öffnen die Dienste-App. In der Auflistung scrollen Sie bis zum Eintrag “Windows Search” – und vollziehen einen Doppelklick. Im folgenden Fenster können Sie den Dienst stoppen und Ihren Rechner neu starten. Anschließend sind Ihre Suchvorgänge möglicherweise etwas langsamer, den Unterschied werden Sie allerdings kaum bemerken. Dafür sollten Sie den Geschwindigkeitszuwachs umso mehr spüren.

Alternativ können Sie die Indizierung auch nur für Dateien an bestimmten Speicherorten deaktivieren, während Dateien und Ordner, in, beziehungsweise nach denen Sie häufig suchen, weiterhin indiziert werden. Dazu geben Sie im Windows-Suchfeld “index” ein und öffnen anschließend die App “Indizierungsoptionen“. Klicken Sie auf die Schaltfläche “Ändern“, und Sie sehen eine Liste der Speicherorte, die indiziert werden. Damit ein spezifischer Speicherport nicht mehr indiziert wird, deaktivieren Sie einfach das entsprechende Kontrollkästchen daneben.

6. Festplatte entrümpeln

Eine überfüllte Festplatte mit Dateien, die nicht mehr benötigt werden, kann Ihren PC ausbremsen. Sich ein paar Minuten Zeit zu nehmen, um Ihre Festplatte aufzuräumen, kann in einen sofortigen Geschwindigkeitsschub resultieren. Dazu brauchen Sie nicht mehr als das Windows-11-Bord-Tool “Speicheroptimierung“.

Dieses finden Sie über das Einstellungsmenü, unter dem Punkt System -> Speicher. Wenn Sie den Schieberegler bei Speicheroptimierung nach rechts schieben, überwacht Windows 11 Ihren PC kontinuierlich und löscht automatisiert temporäre oder alte Dateien. Dabei können Sie die Funktionsweise des Tools an Ihre Bedürfnisse anpassen. Sie können die Speicheroptimierung auch anweisen, Dateien in Ihrem Download-Ordner oder Ihrem Papierkorb nach einer bestimmten Frist zu löschen.

7. Schatten, Animationen und visuelle Effekte deaktivieren

Auf schnellen, neueren PCs beeinträchtigen die visuellen Effekte von Windows 11 die PC-Leistung für gewöhnlich nicht. Auf älteren, langsameren Rechnern kann das anders aussehen. Sollte Ihr PC in letztgenannte Kategorie fallen, fahren Sie in der Regel besser, wenn Sie die visuellen Schmankerl von Windows 11 deaktivieren.

Dazu geben Sie sysdm.cpl in das Windows-Suchfeld ein und starten das gleichnamige Systemsteuerungselement. Im folgenden Dialogfeld “Systemeigenschaften” navigieren Sie zur Registerkarte “Erweitert“. Anschließend klicken Sie auf die Schaltfläche “Eigenschaften” im Bereich “Leistung“. Sie sehen nun das Dialogfeld “Leistungsoptionen” mit einer langen Liste von Animationen und Spezialeffekten. Hier können Sie nach Belieben experimentieren. Wenn Sie einfach nur zielstrebig die größten Performance-Fresser entfernen möchten – das sind in der Regel die Optionen:

Animation beim Minimieren und Maximieren von Fenstern;

Animationen auf der Taskleiste;

Fensterschatten anzeigen;

Menüelemente nach Aufruf ausblenden;

Menüs in Ansicht ein- oder ausblenden;

Quickinfo in Ansicht ein- oder ausblenden;

Steuerelemente und Elemente innerhalb von Fenstern animieren.

Die einfachste Lösung: Wählen Sie oben im Dialogfeld die Option “Optimale Einstellung automatisch auswählen“. In diesem Fall deaktiviert Windows 11 automatisch die Effekte, die Ihr System verlangsamen.

8. Transparenz deaktivieren

Ein weiterer Hebel, um Windows 11 schneller zu machen: Deaktivieren Sie auch die Transparenzeffekte in der Taskleiste und an anderen Stellen. Diese kosten erstaunlich viel Systemleistung. Klicken Sie sich dazu im Einstellungsmenü über “Personalisierung” bis zu “Farben” durch und schieben Sie den Schieberegler für die Transparenzeffekte auf Aus.

9. Energieeinstellungen anpassen

Mit Hilfe der Energieeinstellungen Ihres Windows-11-PCs können Sie Energieeffizienz und Leistung in Einklang bringen. Ist auf Ihrem System ein Energiesparplan aktiviert, führt das also in jedem Fall zu Leistungseinbußen.

Um das zu verhindern, rufen Sie die Systemsteuerung auf und wählen dann “Hardware und Sound“, gefolgt von “Energieoptionen“. Wählen Sie nun die gewünschte Einstellung. Für Desktop-Benutzer gibt es keinen Grund, die Option “Energiesparen” zu wählen – und selbst Laptop-Benutzer sollten die Option “Ausgewogen” in Betracht ziehen.

10. Windows-Tipps und -Tricks abschalten

Windows 11 analysiert ständig, was Sie auf Ihrem PC tun, und gibt Ihnen an diversen Stellen Tipps, “um noch mehr zu machen”. Hilfreich sind die allerdings selten – und ein schlechtes Gefühl gibt’s inklusive, wenn Windows ständig über die Schulter schaut. Viel wichtiger ist aber, dass diese Art des Monitorings auch Ihr System verlangsamen kann.

Um Windows 11 dazu zu bringen, die Ratschläge für sich zu behalten, öffnen Sie das Einstellungsmenü und wählen anschließend “System” und dann “Benachrichtigungen“. Hier scrollen Sie ganz nach unten, um unter dem Punkt “Zusätzliche Einstellungen” das Kontrollkästchen “Tipps und Vorschläge erhalten, wenn Windows verwendet wird“.

11. Spielmodus deaktivieren

Der in Windows 11 integrierte Spielmodus ist sinnvoll, wenn Sie Games zocken. Sobald das System eines erkennt, verwendet es die Systemressourcen vorrangig dafür – zulasten aller anderen Anwendungen und Hintergrundprozesse. Wenn Sie allerdings gerade nicht, beziehungsweise nie spielen, kann der Spielmodus Ihr System verlangsamen, denn er hält einige Systemressourcen in Reserve – und führt gelegentlich auch zu Stabilitätsproblemen.

Da der Spielmodus standardmäßig aktiviert ist, müssen Sie ihn abschalten. Dazu rufen Sie im Einstellungsmenü “Spiele” und anschließend “Spielemodus” auf und betätigen den Schieberegler entsprechend.

12. Treiber aktualisieren

Veraltete Treiber können Ihren Windows-11-PC signifikant erlahmen lassen. Um zu verhindern, dass es soweit kommt, gehen Sie wie folgt vor:

Rufen Sie die Windows-Einstellungen auf (Windows-Taste + I).

Wählen Sie zunächst “Windows Update” im Menü links, anschließend im Hauptfenster zuerst “Erweiterte Optionen“, dann “Optionale Updates“.

In der Treiberupdate-Auflistung dürfen Sie nun diejenigen auswählen, die Sie herunterladen und installieren möchten.

13. Windows neu starten

Last, but not least eine echte Geheimwaffe aus den IT-Abteilungen dieser Welt: Wenn Ihr Rechner lahmt, starten Sie ihn neu. Das sorgt dafür, dass der Arbeitsspeicher wieder ins Reine kommt und nicht mehr benötigte Prozesse beendet werden.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Windows 11 schneller machen​ Read More »

IT-Produkte der Woche​

IT-Produkte der Woche​

Allgemein

Shell und Moove optimieren Flottenmanagement  Shell Fleet Solutions kooperiert mit dem Telematikunternehmen Moove, um datengesteuertes Flottenmanagement zu verbessern. Der Fokus liegt darauf, Telematikdaten zu nutzen, die auf Energieverbrauch und Nachhaltigkeit ausgerichtet sind. Zusammen mit den Kraftstoffdaten von Shell soll die Lösung Einblicke in den Kraftstoff- und Energieverbrauch in Echtzeit sowie in der Retrospektive liefern. So könnten Flottenmanager nicht nur den Kraftstoffverbrauch der Fahrzeuge überwachen, sondern gezielt Maßnahmen zur Effizienzsteigerung ergreifen.   Geschäftskunden von Shell könnten so auch potenziellen Kraftstoffbetrug erkennen und frühzeitig gegensteuern. Besonders für Liefer- und Transportbetriebe sei dies von Vorteil, da finanzielle Verluste durch Missbrauch von Tankkarten reduziert werden können. In Zukunft soll das Zusatzfeature Shell Fleet Insights weitere neue Funktionalitäten in Verbindung mit der Shell Card bieten. Hier erfahren Sie mehr  Shell will seine Flottenmanagement-Lösung um Funktionen des Telematikunternehmens Moove erweitern. Screenshot / shell.com    Orange Business erweitert GenAI-Angebot “Live Intelligence”  Der französische Netzwerkintegrator Orange Business baut sein im März 2024 gestartetes Generative-AI-Angebot “Live Intelligence” weiter aus. Eine neue Multi-LLM-Lösung soll den Zugang zu GenAI demokratisieren und sogenannte Schatten-KI vermeiden, heißt es aus dem Unternehmen.   Über eine unkomplizierte Schnittstelle sollen Mitarbeitende Zugang zu einer Bibliothek mit voreingestellten Eingabeaufforderungen erhalten, um die häufigsten Anwendungsfälle zu bearbeiten: ein Dokument analysieren oder zusammenfassen, wichtige Informationen aus einer E-Mail-Kette extrahieren, ein Sitzungsprotokoll schreiben, eine Agenda entwerfen, Interviews vorbereiten oder Artikel bearbeiten. Die Daten werden in Europa gehostet, heißt es. Hier erfahren Sie mehr  Mit Pegasystems Legacy-Systeme analysieren  Pegasystems peppelt die Anfang 2024 gelaunchte KI-gestützte Workflow-Design-Plattform Pega GenAI Blueprint um Legacy-Discovery-Funktionen auf. Damit sollen IT-Teams ihre bestehenden Systeme schnell analysieren, Arbeitsabläufe neu zu gestalten und so Altsysteme schneller modernisieren können.   Mit den neuen Funktionen werden ineffiziente Systeme und Anwendungen in digitalen Transformationsprojekten identifiziert, überprüft und ersetzt werden, verspricht der Anbieter. Generative KI helfe dabei, vorhandene IT-Ressourcen zu analysieren und schnell einsatzbereite Cloud-native Applikations-Blueprints zu erstellen. Hier erfahren Sie mehr  Checkmarx erweitert Software Supply Chain Security  Der Cloud-Application Security-Anbieter Checkmarx baut seine Sicherheitslösung für die Software-Lieferkette aus.  Die neuen Lösungen Repository Health und Secrets Detection erweitern das Software-Supply-Chain-Security-Portfolio, bestehend aus Software Composition Analysis (SCA), Malicious Package Protection, AI Security und Container Security. Gemeinsam sollen sie jeden kritischen Aspekt der Software-Supply-Chain schützen sowie es Entwickler- und Sicherheitsteams ermöglichen, Risiken in jeder Phase des Entwicklungslebenszyklus zu identifizieren und zu minimieren. Hier erfahren Sie mehr  Repository Health bietet einen Echtzeit-Einblick in den Sicherheits- und Wartungsstatus von Code-Repositories und hilft Teams, Probleme proaktiv zu adressieren und sichere Entwicklungspraktiken zu befolgen Checkmarx   Backup-Software für Windows  Angesichts steigender Ransomware-Angriffe sollte eigentlich ein regelmäßiges Backup von Windows-Rechnern selbstverständlich sein. Dazu hat die O&O Software GmbH aus Berlin jetzt O&O DiskImage 20 Pro. Im Gegensatz zu zahlreichen anderen Lösungen handelt es sich dabei um kein Abo. Der Käufer erhält eine zeitlich unbegrenzt gültige Lizenz. Das Tool erlaubt es, gesamte Systeme oder ausgewählte Daten regelmäßig zu sichern. Ebenso besteht die Möglichkeit, forensische Images (Sicherung aller Sektoren) zu erstellen. Laut Anbieter lassen sich einzelne Dateien selbst aus beschädigten Sicherungen wiederherstellen. Ein vollständiger Überblick über alle Features ist hier zu finden.  Das neue Diskimage 20 Pro ist zum Einführungspreis von 17,46 Euro erhältlich. O&O Software GmbH Neue Version 6.3 der Open-Source-Software ROCm  AMD hat die neue Version 6.3 die seiner Open-Source-Software ROCm veröffentlicht. Laut AMD AMD wartet die Software mit zusätzlichen Werkzeugen auf, die die Entwicklung vereinfachen und gleichzeitig eine verbesserte Leistung und Skalierbarkeit für KI- und HPC-Workloads ermöglichen sollen.  Zu den wichtigsten Neuerungen in der Version 6.3 zählen laut AMD:  SGLang – Hierbei handelt es sich um eine Lösung zur Optimierung der Inferenz generativer Modelle wie LLMs und VLMs auf AMD Instinct GPUs. AMD verspricht einen bis zu sechsfach höheren Durchsatz bei der LLM-Inferenz.  Verbesserte Transformer-Optimierung – FlashAttention-2, optimiert für ROCm 6.3, beschleunigt das Training und die Inferenz von Transformer-Modellen.  AMD Fortran Compiler – Der Compiler vereinfacht AMD zufolge die GPU-Beschleunigung für bestehende HPC-Anwendungen durch direktes Offloading.  Neue Multi-Node FFT in rocFFT – Die Unterstützung von Multi-Node FFT ermöglicht FFT-Berechnungen auf größeren Datensätzen. Dies steigere die Effizienz und Entscheidungsfindung in Bereichen wie Öl- und Gasexploration sowie wissenschaftlicher Forschung.  Verbesserte Bildverarbeitungsbibliotheken – Die erweiterten Bibliotheken, einschließlich AV1 und rocJPEG, sollen Entwicklern die Erstellung fortschrittlicher KI-Lösungen für verschiedene Anwendungsfälle wie Videoanalyse und Datenanreicherung ermöglichen. Davon könnten die Medien. und Unterhaltungs-Branche profitieren, aber auch autonome Systeme.  Huawei Mate 70: Erstes Smartphone ohne Android  Huawei hat in China mit der Mate-70-Reihe sein erstes Smartphone mit dem hauseigenen Betriebssystem HarmonyOS Next präsentiert. Zu Erinnerung: 2019 hatte Präsident Trump Huawei auf die schwarze Liste der Unternehmen gesetzt, mit denen US-Companies ohne Genehmigung keine Geschäfte mehr machen dürfen. In der Folge entzog Google dem chinesischen Konzern die Lizenz zur Nutzung von Android. Deshalb musste Huawei ein eigenes Betriebssystem entwickeln, das ab 2025 auch auf Notebooks zum Einsatz kommen soll. Die Mate-70-Serie besteht aus den vier Modellen Mate 70, Mate 70 Pro, Mate 70 Pro+ und “Mate 70 RS Ultimate Design”, die in Größen von 6,7 und 6,9 Zoll verfügbar sein werden. Huawei positioniert die Modelle in der Smartphone-Oberklasse. Umgerechnet beginnen die Preise bei rund 720 Euro und reichen bis knapp 1120 Euro für das Topmodell. Ob der Konzern die Mate-70-Reihe auch außerhalb Chinas vermarkten wird, ist derzeit noch nicht bekannt.   Mit dem Mate 70 bringt Huawei sein erstes Smartphone mit dem eigenen Betriebssystem HarmonyOS Next.Huawei   

IT-Produkte der Woche​ Shell und Moove optimieren Flottenmanagement 

Shell Fleet Solutions kooperiert mit dem Telematikunternehmen Moove, um datengesteuertes Flottenmanagement zu verbessern. Der Fokus liegt darauf, Telematikdaten zu nutzen, die auf Energieverbrauch und Nachhaltigkeit ausgerichtet sind. Zusammen mit den Kraftstoffdaten von Shell soll die Lösung Einblicke in den Kraftstoff- und Energieverbrauch in Echtzeit sowie in der Retrospektive liefern. So könnten Flottenmanager nicht nur den Kraftstoffverbrauch der Fahrzeuge überwachen, sondern gezielt Maßnahmen zur Effizienzsteigerung ergreifen.  

Geschäftskunden von Shell könnten so auch potenziellen Kraftstoffbetrug erkennen und frühzeitig gegensteuern. Besonders für Liefer- und Transportbetriebe sei dies von Vorteil, da finanzielle Verluste durch Missbrauch von Tankkarten reduziert werden können. In Zukunft soll das Zusatzfeature Shell Fleet Insights weitere neue Funktionalitäten in Verbindung mit der Shell Card bieten. Hier erfahren Sie mehr 

Shell will seine Flottenmanagement-Lösung um Funktionen des Telematikunternehmens Moove erweitern. Screenshot / shell.com 

 

Orange Business erweitert GenAI-Angebot “Live Intelligence” 

Der französische Netzwerkintegrator Orange Business baut sein im März 2024 gestartetes Generative-AI-Angebot “Live Intelligence” weiter aus. Eine neue Multi-LLM-Lösung soll den Zugang zu GenAI demokratisieren und sogenannte Schatten-KI vermeiden, heißt es aus dem Unternehmen.  

Über eine unkomplizierte Schnittstelle sollen Mitarbeitende Zugang zu einer Bibliothek mit voreingestellten Eingabeaufforderungen erhalten, um die häufigsten Anwendungsfälle zu bearbeiten: ein Dokument analysieren oder zusammenfassen, wichtige Informationen aus einer E-Mail-Kette extrahieren, ein Sitzungsprotokoll schreiben, eine Agenda entwerfen, Interviews vorbereiten oder Artikel bearbeiten. Die Daten werden in Europa gehostet, heißt es. Hier erfahren Sie mehr 

Mit Pegasystems Legacy-Systeme analysieren 

Pegasystems peppelt die Anfang 2024 gelaunchte KI-gestützte Workflow-Design-Plattform Pega GenAI Blueprint um Legacy-Discovery-Funktionen auf. Damit sollen IT-Teams ihre bestehenden Systeme schnell analysieren, Arbeitsabläufe neu zu gestalten und so Altsysteme schneller modernisieren können.  

Mit den neuen Funktionen werden ineffiziente Systeme und Anwendungen in digitalen Transformationsprojekten identifiziert, überprüft und ersetzt werden, verspricht der Anbieter. Generative KI helfe dabei, vorhandene IT-Ressourcen zu analysieren und schnell einsatzbereite Cloud-native Applikations-Blueprints zu erstellen. Hier erfahren Sie mehr 

Checkmarx erweitert Software Supply Chain Security 

Der Cloud-Application Security-Anbieter Checkmarx baut seine Sicherheitslösung für die Software-Lieferkette aus.  Die neuen Lösungen Repository Health und Secrets Detection erweitern das Software-Supply-Chain-Security-Portfolio, bestehend aus Software Composition Analysis (SCA), Malicious Package Protection, AI Security und Container Security. Gemeinsam sollen sie jeden kritischen Aspekt der Software-Supply-Chain schützen sowie es Entwickler- und Sicherheitsteams ermöglichen, Risiken in jeder Phase des Entwicklungslebenszyklus zu identifizieren und zu minimieren. Hier erfahren Sie mehr 

Repository Health bietet einen Echtzeit-Einblick in den Sicherheits- und Wartungsstatus von Code-Repositories und hilft Teams, Probleme proaktiv zu adressieren und sichere Entwicklungspraktiken zu befolgen Checkmarx

 

Backup-Software für Windows 

Angesichts steigender Ransomware-Angriffe sollte eigentlich ein regelmäßiges Backup von Windows-Rechnern selbstverständlich sein. Dazu hat die O&O Software GmbH aus Berlin jetzt O&O DiskImage 20 Pro. Im Gegensatz zu zahlreichen anderen Lösungen handelt es sich dabei um kein Abo. Der Käufer erhält eine zeitlich unbegrenzt gültige Lizenz. Das Tool erlaubt es, gesamte Systeme oder ausgewählte Daten regelmäßig zu sichern. Ebenso besteht die Möglichkeit, forensische Images (Sicherung aller Sektoren) zu erstellen. Laut Anbieter lassen sich einzelne Dateien selbst aus beschädigten Sicherungen wiederherstellen. Ein vollständiger Überblick über alle Features ist hier zu finden. 

Das neue Diskimage 20 Pro ist zum Einführungspreis von 17,46 Euro erhältlich. O&O Software GmbH

Neue Version 6.3 der Open-Source-Software ROCm 

AMD hat die neue Version 6.3 die seiner Open-Source-Software ROCm veröffentlicht. Laut AMD AMD wartet die Software mit zusätzlichen Werkzeugen auf, die die Entwicklung vereinfachen und gleichzeitig eine verbesserte Leistung und Skalierbarkeit für KI- und HPC-Workloads ermöglichen sollen. 

Zu den wichtigsten Neuerungen in der Version 6.3 zählen laut AMD: 

SGLang – Hierbei handelt es sich um eine Lösung zur Optimierung der Inferenz generativer Modelle wie LLMs und VLMs auf AMD Instinct GPUs. AMD verspricht einen bis zu sechsfach höheren Durchsatz bei der LLM-Inferenz. 

Verbesserte Transformer-Optimierung – FlashAttention-2, optimiert für ROCm 6.3, beschleunigt das Training und die Inferenz von Transformer-Modellen. 

AMD Fortran Compiler – Der Compiler vereinfacht AMD zufolge die GPU-Beschleunigung für bestehende HPC-Anwendungen durch direktes Offloading. 

Neue Multi-Node FFT in rocFFT – Die Unterstützung von Multi-Node FFT ermöglicht FFT-Berechnungen auf größeren Datensätzen. Dies steigere die Effizienz und Entscheidungsfindung in Bereichen wie Öl- und Gasexploration sowie wissenschaftlicher Forschung. 

Verbesserte Bildverarbeitungsbibliotheken – Die erweiterten Bibliotheken, einschließlich AV1 und rocJPEG, sollen Entwicklern die Erstellung fortschrittlicher KI-Lösungen für verschiedene Anwendungsfälle wie Videoanalyse und Datenanreicherung ermöglichen. Davon könnten die Medien. und Unterhaltungs-Branche profitieren, aber auch autonome Systeme. 

Huawei Mate 70: Erstes Smartphone ohne Android 

Huawei hat in China mit der Mate-70-Reihe sein erstes Smartphone mit dem hauseigenen Betriebssystem HarmonyOS Next präsentiert. Zu Erinnerung: 2019 hatte Präsident Trump Huawei auf die schwarze Liste der Unternehmen gesetzt, mit denen US-Companies ohne Genehmigung keine Geschäfte mehr machen dürfen. In der Folge entzog Google dem chinesischen Konzern die Lizenz zur Nutzung von Android. Deshalb musste Huawei ein eigenes Betriebssystem entwickeln, das ab 2025 auch auf Notebooks zum Einsatz kommen soll. Die Mate-70-Serie besteht aus den vier Modellen Mate 70, Mate 70 Pro, Mate 70 Pro+ und “Mate 70 RS Ultimate Design”, die in Größen von 6,7 und 6,9 Zoll verfügbar sein werden. Huawei positioniert die Modelle in der Smartphone-Oberklasse. Umgerechnet beginnen die Preise bei rund 720 Euro und reichen bis knapp 1120 Euro für das Topmodell. Ob der Konzern die Mate-70-Reihe auch außerhalb Chinas vermarkten wird, ist derzeit noch nicht bekannt.  

Mit dem Mate 70 bringt Huawei sein erstes Smartphone mit dem eigenen Betriebssystem HarmonyOS Next.Huawei

 

IT-Produkte der Woche​ Read More »

KI: Roboter sollen künftig vom Menschen lernen​

KI: Roboter sollen künftig vom Menschen lernen​

Allgemein

Lernen statt Programmieren. Roboter sollen künftig, wie Menschen, einfach in neue Tätigkeiten eingelernt werden. Amadeus Bramsiepe, KIT Roboter für industrielle Tätigkeiten zu programmieren ist derzeit ein langwieriger Prozess. Auf das Schreiben des Codes folgt das Testen und darauf das Modifizieren des Programms. Dies geschieht so oft, bis die Maschine einen Prozess wirklich zuverlässig ausführt. Gleiches gilt für die Umrüstzeiten der Roboter, wenn diese neue Tätigkeiten ausführen sollen. Im Zeitalter der Smart Factories, die teilweise mit sehr kleinen Losgrößen arbeiten und deshalb auf eine schnelle Anpassungsfähigkeit angewiesen sind, dauern solche Prozesse schlicht zu lang. Kürzere Rüstzeiten für Roboter „Einen Roboter einsatzbereit zu machen, darf in Zukunft nicht mehr länger dauern, als einen neuen Mitarbeiter einzulernen“, fordert deshalb Edgar Welte, Doktorand am KIT. Gemeinsam mit Juniorprofessorin Rania Rayyes hat er das ICM-Zukunftslabor HaptXDeep am Institut für Fördertechnik und Logistik Systeme (IFL) des KIT aufgebaut. Dort will das Forscherduo ein Robotergreifsystem entwickeln, das menschliche Tätigkeiten durch Imitation erlernt. Stichwort: Human Robot Learning. Neben den Karlsruhern beteiligt sich an den Forschungsarbeiten auch das Institut für Automatisierungstechnik und Softwaresysteme (IAS) der Universität Stuttgart. Ziel: Flexiblere Roboter Per Virtual-Reality-Handschuh gibt der Operator dem Roboter die zu lernenden Arbeitsschritte vor. Amadeus Bramsiepe, KIT Ziel ist es, gemeinsam einen lernenden Roboter mit einem Greifsystem zu entwickeln, der schnell und flexibel aber auch zuverlässig und sicher auf veränderte Anforderungen, Produktdesigns oder Materialien reagieren kann. Dabei sollen die Robotergreifsysteme von Menschen lernen, neue Werkzeuge zu nutzen, unterschiedliche Materialien anzufassen, ganze Arbeitsschritte auszuführen und auf Veränderungen in Produktionsprozessen zu reagieren. „Dazu setzen wir für unser System autonomes Imitation Learning und Deep Reinforcement Learning ein“, erklärt Juniorprofessorin Rayyes, „so lernt der Roboter durch die Interaktion mit dem Menschen intuitiv und sofort.“ Der lernende Roboter Im Zukunftslabor HaptXDeep kommunizieren die Forschenden mit dem Roboter per Daten. So generiert Welte durch seine Bewegungen mit einem Virtual-Reality-Handschuh Daten und erklärt damit dem sechsachsigen Cobot, wie er sich drehen und Werkzeuge oder Werkstücke packen muss. Durch die 20 Stellmotoren kann die Cobot-Hand die menschlichen Greifbewegungen fast exakt nachbilden. Drucksensoren in den mechanischen Fingern geben dem Operator ein direktes Feedback. Der Operator spürt wiederum durch kleine Luftpolster im Handschuh, sobald das Gewicht zunimmt oder das Werkzeug falsch in der Hand liegt. Fehler per KI erkennen KI gestützt soll der Roboter künftig Fehler autonom erkennen und verbessern. Amadeus Bramsiepe, KIT Dann fasst er sofort nach und der Greifer tut es ihm gleich. Der Forscher korrigiert so den Fehler des Roboters in Echtzeit. Auch das wird eine wichtige Funktion, wenn die Maschine später – gestützt auf ihre Künstliche Intelligenz – selbstständig lernen kann. Im Rahmen von Kooperationsprojekten – so ist etwa Bosch AI mit im Boot – wollen die Forschenden Methoden entwickeln, um die Sicherheit und die Zuverlässigkeit des anpassungsfähigen Roboters zu gewährleisten. So werden etwa Fehlerinjektion über digitale Zwillinge als Testverfahren des Systems zum Einsatz kommen. Deep-Learning-Systeme sollen dem Roboter zudem helfen, Anomalien selbst zu erkennen und damit Fehler vorherzusagen. Auf Basis des Erlernten soll der Roboter dann künftig Fehler autonom korrigieren können. 

KI: Roboter sollen künftig vom Menschen lernen​ Lernen statt Programmieren. Roboter sollen künftig, wie Menschen, einfach in neue Tätigkeiten eingelernt werden.
Amadeus Bramsiepe, KIT

Roboter für industrielle Tätigkeiten zu programmieren ist derzeit ein langwieriger Prozess. Auf das Schreiben des Codes folgt das Testen und darauf das Modifizieren des Programms. Dies geschieht so oft, bis die Maschine einen Prozess wirklich zuverlässig ausführt.

Gleiches gilt für die Umrüstzeiten der Roboter, wenn diese neue Tätigkeiten ausführen sollen. Im Zeitalter der Smart Factories, die teilweise mit sehr kleinen Losgrößen arbeiten und deshalb auf eine schnelle Anpassungsfähigkeit angewiesen sind, dauern solche Prozesse schlicht zu lang.

Kürzere Rüstzeiten für Roboter

„Einen Roboter einsatzbereit zu machen, darf in Zukunft nicht mehr länger dauern, als einen neuen Mitarbeiter einzulernen“, fordert deshalb Edgar Welte, Doktorand am KIT. Gemeinsam mit Juniorprofessorin Rania Rayyes hat er das ICM-Zukunftslabor HaptXDeep am Institut für Fördertechnik und Logistik Systeme (IFL) des KIT aufgebaut.

Dort will das Forscherduo ein Robotergreifsystem entwickeln, das menschliche Tätigkeiten durch Imitation erlernt. Stichwort: Human Robot Learning. Neben den Karlsruhern beteiligt sich an den Forschungsarbeiten auch das Institut für Automatisierungstechnik und Softwaresysteme (IAS) der Universität Stuttgart.

Ziel: Flexiblere Roboter

Per Virtual-Reality-Handschuh gibt der Operator dem Roboter die zu lernenden Arbeitsschritte vor.
Amadeus Bramsiepe, KIT

Ziel ist es, gemeinsam einen lernenden Roboter mit einem Greifsystem zu entwickeln, der schnell und flexibel aber auch zuverlässig und sicher auf veränderte Anforderungen, Produktdesigns oder Materialien reagieren kann.

Dabei sollen die Robotergreifsysteme von Menschen lernen, neue Werkzeuge zu nutzen, unterschiedliche Materialien anzufassen, ganze Arbeitsschritte auszuführen und auf Veränderungen in Produktionsprozessen zu reagieren. „Dazu setzen wir für unser System autonomes Imitation Learning und Deep Reinforcement Learning ein“, erklärt Juniorprofessorin Rayyes, „so lernt der Roboter durch die Interaktion mit dem Menschen intuitiv und sofort.“

Der lernende Roboter

Im Zukunftslabor HaptXDeep kommunizieren die Forschenden mit dem Roboter per Daten. So generiert Welte durch seine Bewegungen mit einem Virtual-Reality-Handschuh Daten und erklärt damit dem sechsachsigen Cobot, wie er sich drehen und Werkzeuge oder Werkstücke packen muss.

Durch die 20 Stellmotoren kann die Cobot-Hand die menschlichen Greifbewegungen fast exakt nachbilden. Drucksensoren in den mechanischen Fingern geben dem Operator ein direktes Feedback. Der Operator spürt wiederum durch kleine Luftpolster im Handschuh, sobald das Gewicht zunimmt oder das Werkzeug falsch in der Hand liegt.

Fehler per KI erkennen

KI gestützt soll der Roboter künftig Fehler autonom erkennen und verbessern.
Amadeus Bramsiepe, KIT

Dann fasst er sofort nach und der Greifer tut es ihm gleich. Der Forscher korrigiert so den Fehler des Roboters in Echtzeit. Auch das wird eine wichtige Funktion, wenn die Maschine später – gestützt auf ihre Künstliche Intelligenz – selbstständig lernen kann.

Im Rahmen von Kooperationsprojekten – so ist etwa Bosch AI mit im Boot – wollen die Forschenden Methoden entwickeln, um die Sicherheit und die Zuverlässigkeit des anpassungsfähigen Roboters zu gewährleisten. So werden etwa Fehlerinjektion über digitale Zwillinge als Testverfahren des Systems zum Einsatz kommen.

Deep-Learning-Systeme sollen dem Roboter zudem helfen, Anomalien selbst zu erkennen und damit Fehler vorherzusagen. Auf Basis des Erlernten soll der Roboter dann künftig Fehler autonom korrigieren können.

KI: Roboter sollen künftig vom Menschen lernen​ Read More »

Das hilft gegen Black-Friday-Betrug​

Das hilft gegen Black-Friday-Betrug​

Allgemein

Rund um den Black Friday steigt die Gefahr, Spam- und Phishing-Angriffen auf den Leim zu gehen. Machen Sie es besser.wk1003mike | shutterstock.com Der Black Friday, beziehungsweise die Black Week, ist für Schnäppchenjäger das Weihnachten vor Weihnachten. Gleiches gilt allerdings für Internetbetrüger und kriminelle Hacker. Sie nehmen Deal-affine User zu dieser Gelegenheit verstärkt ins Visier. Das unterstreichen auch aktuelle Zahlen. Die Webmail-Anbieter Web.de und Gmx warnen etwa im Rahmen einer aktuellen Pressemitteilung vor einer Spam- und Phishing-Mail-Flut in den Wochen um den „Black Friday“. Demnach registrierten die Anbieter 2024 in diesem Zeitraum einen Anstieg der genannten Bedrohungen um zehn Prozent – was rund 2,1 Milliarden potenziell schadhafter Nachrichten pro Woche entspricht. Der sichere Weg zu den besten (Tech-)Black-Deals Arne Allisat, E-Mail-Security-Chef von Web.de und GMX, bringt das saisonale Problem auf den Punkt: „Alle sind jetzt auf der Jagd nach dem besten Angebot – niemand will ein Schnäppchen verpassen. Das erzeugt emotionalen Druck. In der Hektik werden die User unvorsichtig und schauen nicht so genau hin, bevor sie sich über eine E-Mail in ihr Shopping-Konto einloggen. Und dann schnappt die Falle zu.“ Laut E-Mail-Anbietern setzen Cyberkriminelle und Scammer bei ihren Betrugsversuchen aktuell vor allem auf: Fake-Gutscheine großer Onlinehändler wie Otto oder Zalando, sowie gefälschte Mails im Namen von Paketdienstleistern wie DHL, Hermes und DPD. Um sich vor solchen Scams (und weiteren potenziell unheilvollen Folgen – etwa Identitätsdiebstahl) zu schützen, helfen in erster Linie Security Best Practices (Absender prüfen, Links “hovern”, generell keine Links in Mails anklicken, etc.). Technik-affine Schnäppchenjäger können Betrug zudem hundertprozentig verhindern (und parallel einen wirklich guten Deal machen), indem sie die Black-Friday-Angebote nutzen, die unsere Macwelt- und PC-Welt-Kollegen für Sie zusammengestellt haben: PC-Welt – die besten Black-Friday-Deals Macwelt – die besten Black-Friday-Deals (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Das hilft gegen Black-Friday-Betrug​ Rund um den Black Friday steigt die Gefahr, Spam- und Phishing-Angriffen auf den Leim zu gehen. Machen Sie es besser.wk1003mike | shutterstock.com

Der Black Friday, beziehungsweise die Black Week, ist für Schnäppchenjäger das Weihnachten vor Weihnachten. Gleiches gilt allerdings für Internetbetrüger und kriminelle Hacker. Sie nehmen Deal-affine User zu dieser Gelegenheit verstärkt ins Visier.

Das unterstreichen auch aktuelle Zahlen. Die Webmail-Anbieter Web.de und Gmx warnen etwa im Rahmen einer aktuellen Pressemitteilung vor einer Spam- und Phishing-Mail-Flut in den Wochen um den „Black Friday“. Demnach registrierten die Anbieter 2024 in diesem Zeitraum einen Anstieg der genannten Bedrohungen um zehn Prozent – was rund 2,1 Milliarden potenziell schadhafter Nachrichten pro Woche entspricht.

Der sichere Weg zu den besten (Tech-)Black-Deals

Arne Allisat, E-Mail-Security-Chef von Web.de und GMX, bringt das saisonale Problem auf den Punkt: „Alle sind jetzt auf der Jagd nach dem besten Angebot – niemand will ein Schnäppchen verpassen. Das erzeugt emotionalen Druck. In der Hektik werden die User unvorsichtig und schauen nicht so genau hin, bevor sie sich über eine E-Mail in ihr Shopping-Konto einloggen. Und dann schnappt die Falle zu.“

Laut E-Mail-Anbietern setzen Cyberkriminelle und Scammer bei ihren Betrugsversuchen aktuell vor allem auf:

Fake-Gutscheine großer Onlinehändler wie Otto oder Zalando, sowie

gefälschte Mails im Namen von Paketdienstleistern wie DHL, Hermes und DPD.

Um sich vor solchen Scams (und weiteren potenziell unheilvollen Folgen – etwa Identitätsdiebstahl) zu schützen, helfen in erster Linie Security Best Practices (Absender prüfen, Links “hovern”, generell keine Links in Mails anklicken, etc.).

Technik-affine Schnäppchenjäger können Betrug zudem hundertprozentig verhindern (und parallel einen wirklich guten Deal machen), indem sie die Black-Friday-Angebote nutzen, die unsere Macwelt- und PC-Welt-Kollegen für Sie zusammengestellt haben:

PC-Welt – die besten Black-Friday-Deals

Macwelt – die besten Black-Friday-Deals

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Das hilft gegen Black-Friday-Betrug​ Read More »

5 Gründe, warum Sie einen vertikalen Monitor brauchen​

5 Gründe, warum Sie einen vertikalen Monitor brauchen​

Allgemein

Jon Martindale / IDG Nach langem hin und her habe ich mich tatsächlich dazu entschieden, einen vertikalen Monitor als zweiten Bildschirm einzusetzen, obwohl ich so noch nie gearbeitet habe. Der 28-Zoll-Monitor BenQ RD280U mit einem ungewöhnlichen Seitenverhältnis von 3:2 und einer Auflösung von 3840 x 2560 Pixeln wurde zwar nicht speziell als vertikaler Monitor konzipiert, aber er lässt sich leicht ins Hochformat drehen. Damit ist er vor allem für Programmierer, Autoren und Redakteure gedacht. Auch wenn es etwas gedauert hat, mich an dieses Modell zu gewöhnen, liebe ich es mittlerweile! Ein vertikaler Monitor bietet mehr nutzbare Bildschirmfläche Mein neuer vertikaler Monitor ist ein paar Zentimeter größer als mein vorheriger Monitor, doch viel mehr ist es wirklich die vertikale Ausrichtung, die mir viel mehr nutzbaren Platz auf dem Bildschirm verschafft hat. Ich scrolle eher von oben nach unten und nicht von links nach rechts, was bedeutet, dass ich jetzt problemlos ganze Webseiten oder Dokumente auf dem Bildschirm anzeigen kann. Ich kann leichter alle Inhalte auf einmal aufnehmen, um den Kontext dessen, was ich gerade lese oder durchstöbere, besser zu verstehen. Foundry Bei so viel vertikalem Platz habe ich festgestellt, dass es auch effizienter ist, mehrere schmale Fenster nebeneinander anzuordnen. Mein vertikaler Bildschirm kann ein Blatt mit D&D-Charakteren (Dungeons & Dragons), eine Reihe von Discord-Video-Feeds sowie Notizen für die Abenteuer anzeigen, was virtuelle D&D-Sitzungen viel angenehmer macht. Wenn ich an Spielentwicklungsprojekten arbeite, kann ich dank des zusätzlichen vertikalen Platzes ganze Skripte auf einmal sehen und es ist einfacher, Skripte zu vergleichen, ohne horizontal scrollen zu müssen. Ich kann auch ein Youtube-Bild-in-Bild-Video in der unteren Ecke abspielen lassen, um gelegentlich darauf zu verweisen, ohne dass es bei der Arbeit auf Augenhöhe im Weg ist. Ein vertikaler Monitor passt besser zum modernen App-Design Ob es sich um Social-Media-Feeds, Webartikel oder kurze Videoinhalte handelt, das moderne Internet ist mehr für mobile Geräte als für PCs konzipiert, und das bedeutet überall vertikale Seitenverhältnisse. Dank der zunehmenden mobilen Nutzung sind die meisten Apps und Websites jetzt standardmäßig auf schlankere Formate und Layouts ausgelegt. Der zusätzliche vertikale Platz ist wirklich praktisch, wenn ich Artikel mit festen Spaltenbreiten lese. Eine vertikale Ausrichtung ist auch perfekt für bildschirmfüllende Social-Media-Feeds und zum Anschauen großformatiger vertikaler Videos, wie sie von Smartphones und Tiktok verbreitet werden. Obwohl ich selbst kein Videofilmer bin, kann ich mir vorstellen, dass sich vertikale Monitore auch für vertikale Videos sehr gut eignen. Die Ausrichtung hilft bei der Vorschau von Filmmaterial auf einem Display, das zu der Art von Bildschirmen passt, für die Sie produzieren möchten. Gleiches gilt für mobile UX-Designer, die das Erlebnis eines mobilen Bildschirms nachahmen möchten. Ein vertikaler Monitor schafft Platz auf dem Schreibtisch Ein vertikaler 28-Zoll-Monitor bietet nicht nur mehr Platz auf dem Bildschirm, sondern auch am Arbeitsplatz. Mit der vertikalen Ausrichtung nimmt er weniger Platz auf dem Schreibtisch ein als ein kleineres horizontales 21-Zoll-Modell. Hier sehen Sie einen ähnlichen 28-Zoll-Monitor mit einem ähnlichen Seitenverhältnis in vertikaler Ausrichtung. Sehen Sie, wie viel Platz er auf dem Schreibtisch einnimmt.Matt Smith Ein vertikaler Monitor verbessert die Körperhaltung und die Belastung der Augen Duale und Ultraweit-Monitore eignen sich hervorragend für die Produktivität. Wenn Sie jedoch nicht weit genug hinten sitzen, müssen Sie Ihren Kopf häufiger drehen und Ihre Augen über längere horizontale Linien bewegen. Mit einem vertikalen Bildschirm ist das weniger problematisch und für den Nacken weniger belastend. Ich kann in der Regel alles, was ich brauche, mit leichten Augenbewegungen sehen, ohne den Kopf drehen zu müssen. Ich lese hauptsächlich von oben nach unten statt von links nach rechts, und das bedeutet auch an längeren Arbeitstagen weniger Augenbewegungen und letztlich weniger müde Augen. Ein vertikaler Monitor ist mehr als die Summe seiner Teile Ich habe festgestellt, dass mein vertikaler Bildschirm mehr als nur praktisch ist. Beim Arbeiten im Hochformat-Modus bin ich produktiver, arbeite weniger angestrengt und habe einen besseren Zugang zu Informationen als zuvor. Die vertikale Variante eignet sich tatsächlich besser für modernes App- und Webdesign als die horizontalen Displays, die ich jahrzehntelang verwendet habe. (PC-Welt) 

5 Gründe, warum Sie einen vertikalen Monitor brauchen​ Jon Martindale / IDG

Nach langem hin und her habe ich mich tatsächlich dazu entschieden, einen vertikalen Monitor als zweiten Bildschirm einzusetzen, obwohl ich so noch nie gearbeitet habe.

Der 28-Zoll-Monitor BenQ RD280U mit einem ungewöhnlichen Seitenverhältnis von 3:2 und einer Auflösung von 3840 x 2560 Pixeln wurde zwar nicht speziell als vertikaler Monitor konzipiert, aber er lässt sich leicht ins Hochformat drehen. Damit ist er vor allem für Programmierer, Autoren und Redakteure gedacht.

Auch wenn es etwas gedauert hat, mich an dieses Modell zu gewöhnen, liebe ich es mittlerweile!

Ein vertikaler Monitor bietet mehr nutzbare Bildschirmfläche

Mein neuer vertikaler Monitor ist ein paar Zentimeter größer als mein vorheriger Monitor, doch viel mehr ist es wirklich die vertikale Ausrichtung, die mir viel mehr nutzbaren Platz auf dem Bildschirm verschafft hat.

Ich scrolle eher von oben nach unten und nicht von links nach rechts, was bedeutet, dass ich jetzt problemlos ganze Webseiten oder Dokumente auf dem Bildschirm anzeigen kann. Ich kann leichter alle Inhalte auf einmal aufnehmen, um den Kontext dessen, was ich gerade lese oder durchstöbere, besser zu verstehen.

Foundry

Bei so viel vertikalem Platz habe ich festgestellt, dass es auch effizienter ist, mehrere schmale Fenster nebeneinander anzuordnen. Mein vertikaler Bildschirm kann ein Blatt mit D&D-Charakteren (Dungeons & Dragons), eine Reihe von Discord-Video-Feeds sowie Notizen für die Abenteuer anzeigen, was virtuelle D&D-Sitzungen viel angenehmer macht.

Wenn ich an Spielentwicklungsprojekten arbeite, kann ich dank des zusätzlichen vertikalen Platzes ganze Skripte auf einmal sehen und es ist einfacher, Skripte zu vergleichen, ohne horizontal scrollen zu müssen.

Ich kann auch ein Youtube-Bild-in-Bild-Video in der unteren Ecke abspielen lassen, um gelegentlich darauf zu verweisen, ohne dass es bei der Arbeit auf Augenhöhe im Weg ist.

Ein vertikaler Monitor passt besser zum modernen App-Design

Ob es sich um Social-Media-Feeds, Webartikel oder kurze Videoinhalte handelt, das moderne Internet ist mehr für mobile Geräte als für PCs konzipiert, und das bedeutet überall vertikale Seitenverhältnisse.

Dank der zunehmenden mobilen Nutzung sind die meisten Apps und Websites jetzt standardmäßig auf schlankere Formate und Layouts ausgelegt. Der zusätzliche vertikale Platz ist wirklich praktisch, wenn ich Artikel mit festen Spaltenbreiten lese. Eine vertikale Ausrichtung ist auch perfekt für bildschirmfüllende Social-Media-Feeds und zum Anschauen großformatiger vertikaler Videos, wie sie von Smartphones und Tiktok verbreitet werden.

Obwohl ich selbst kein Videofilmer bin, kann ich mir vorstellen, dass sich vertikale Monitore auch für vertikale Videos sehr gut eignen. Die Ausrichtung hilft bei der Vorschau von Filmmaterial auf einem Display, das zu der Art von Bildschirmen passt, für die Sie produzieren möchten. Gleiches gilt für mobile UX-Designer, die das Erlebnis eines mobilen Bildschirms nachahmen möchten.

Ein vertikaler Monitor schafft Platz auf dem Schreibtisch

Ein vertikaler 28-Zoll-Monitor bietet nicht nur mehr Platz auf dem Bildschirm, sondern auch am Arbeitsplatz. Mit der vertikalen Ausrichtung nimmt er weniger Platz auf dem Schreibtisch ein als ein kleineres horizontales 21-Zoll-Modell.

Hier sehen Sie einen ähnlichen 28-Zoll-Monitor mit einem ähnlichen Seitenverhältnis in vertikaler Ausrichtung. Sehen Sie, wie viel Platz er auf dem Schreibtisch einnimmt.Matt Smith

Ein vertikaler Monitor verbessert die Körperhaltung und die Belastung der Augen

Duale und Ultraweit-Monitore eignen sich hervorragend für die Produktivität. Wenn Sie jedoch nicht weit genug hinten sitzen, müssen Sie Ihren Kopf häufiger drehen und Ihre Augen über längere horizontale Linien bewegen. Mit einem vertikalen Bildschirm ist das weniger problematisch und für den Nacken weniger belastend.

Ich kann in der Regel alles, was ich brauche, mit leichten Augenbewegungen sehen, ohne den Kopf drehen zu müssen. Ich lese hauptsächlich von oben nach unten statt von links nach rechts, und das bedeutet auch an längeren Arbeitstagen weniger Augenbewegungen und letztlich weniger müde Augen.

Ein vertikaler Monitor ist mehr als die Summe seiner Teile

Ich habe festgestellt, dass mein vertikaler Bildschirm mehr als nur praktisch ist. Beim Arbeiten im Hochformat-Modus bin ich produktiver, arbeite weniger angestrengt und habe einen besseren Zugang zu Informationen als zuvor. Die vertikale Variante eignet sich tatsächlich besser für modernes App- und Webdesign als die horizontalen Displays, die ich jahrzehntelang verwendet habe.

(PC-Welt)

5 Gründe, warum Sie einen vertikalen Monitor brauchen​ Read More »

Das beste Macbook 2024: Welchen Apple-Laptop soll ich kaufen?​

Das beste Macbook 2024: Welchen Apple-Laptop soll ich kaufen?​

Allgemein

Foundry Apple stellt zwei Arten von Notebooks her: das Macbook Air und das Macbook Pro. Innerhalb dieser beiden Mac-Kategorien gibt es eine große Bandbreite. Die Kluft zwischen dem Einsteiger-Gerät Macbook Air und der High-End-Variante Macbook Pro mit 16 Zoll und dem Chip M4 Max ist riesig. Apple verkauft derzeit sieben Grundkonfigurationen des Macbook Air (M2 13 Zoll plus je drei des M3 in 13 und 15 Zoll) und zehn Macbook-Pro-Varianten in 14 Zoll (sechs) und 16 Zoll (vier). Wenn man all die Optionen berücksichtigt, die Sie der Bestellung auswählen können, sind es bedeutend mehr. Dazu gehören etwa zusätzlicher Arbeitsspeicher, ein anderes Netzteil, mehr Speicherplatz auf der SSD oder ein schnellerer Prozessor. Auf diese Weise lässt sich bei Bedarf ein noch leistungsfähigerer Mac zusammenstellen. Die Entscheidung, welches der insgesamt 17 Macbooks Sie kaufen sollten, kann dennoch schwerfallen – zumal von den Macbooks Pro mit M3-Chip aus dem Vorjahr immer etliche Varianten zu reduzierten Preisen im Handel zu bekommen sind. Selbst vom Macbook Air M1 aus dem Jahr 2020 findet sich noch das ein oder andere Angebot. Macbook jetzt kaufen oder warten? Bevor Sie ein Macbook kaufen, sollten Sie wissen, wann Apple seine Macbooks erneuert oder ob schon bald eine aktualisierte Variante auf den Markt kommt. Neu seit November 2024 sind die Macbooks Pro mit den drei Chip-Varianten der M4-Generation. Die Macbooks Air in 13 Zoll und 15 Zoll hatte Apple im Mai 2024 auf die M3-Generation gehoben. Macbooks mit M4-Chip erwarten wir für das Frühjahr 2025. Zuletzt hatte Apple diese Macbooks herausgebracht: 14-Zoll Macbook Pro (M4, M4 Pro & M4 Max): November 2024 16-Zoll-Macbook Pro (M4, M4 Pro & M4 Max): November 2024 13-Zoll-Macbook Air (M3): März 2024 15-Zoll Macbook Air (M3): März 2024 14-Zoll Macbook Pro (M3, M3 Pro & M3 Max): Oktober 2023 16-Zoll-Macbook Pro (M3, M3 Pro & M3 Max): Oktober 2023 Macbook Air in 13 und 15 Zoll, Macbook Pro in 14 und 16 Zoll Zu Beginn der Apple-SIlicon-Ära hatte Apple erst einmal auf bewährte Gehäuse gesetzt, das Macbook Air M1 und das Macbook Pro M1 13 Zoll glichen äußerlich ihren Intel-Vorgängern, das Macbook Pro hatte auch noch in der M2-Generation eine Touchbar. Mit dem M2 kam ein neues Design für das Macbook Air, später auch noch mit 15 Zoll eine zweite Größe. Ein Basismodell des Macbook Pro mit M4-Prozessor verkauft Apple weiterhin, es misst jetzt 14 Zoll in der Bildschirmdiagonale und gleicht äußerlich den Modellen mit M4 Max und M4 Pro – die Touchbar ist seit letztem Jahr Geschichte. War das Macbook Pro M3 in 14 Zoll vor einem Jahr noch ein wenig eingeschränkt, hat Apple diesen Umstand beim Sprung auf die M4-Generation geändert. So hat das kleinste Macbook Pro nun drei Thunderbolt-Buchsen und ist auch in Schwarz erhältlich. Zudem ist – wie beim Macbook Air M2 und M3 – der Arbeitsspeicher in der Grundversion auf 16 GB gestiegen – 8 GB waren 2023 ein schweres Manko. Die große Macbook-Kaufberatung Wir werfen einen Blick auf die verschiedenen MacBook-Modelle, die Apple aktuell anbietet, und geben Ihnen einen umfassenden Überblick über die Vor- und Nachteile jedes Geräts. So erfahren Sie, welches Modell am besten zu Ihren Bedürfnissen passt. Außerdem zeigen wir Ihnen, wo Sie Ihr MacBook zum besten Preis bekommen. Wir beleuchten auch die verschiedenen Komponenten und Funktionen der einzelnen MacBook-Modelle, damit Sie eine informierte Entscheidung treffen können. Erfahren Sie, wie viel Arbeitsspeicher Sie wirklich benötigen, welcher Chip die beste Leistung bietet, welche SSD-Größe ideal ist und welcher Preis für Sie am attraktivsten ist. 1. Macbook Air M2 13 Zoll (2022) Foundry Apples günstigstes Macbook gibt es im Handel teils schon unter 900 Euro, für die Basisversion mit 256 GB SSD und 8 GB RAM ruft Apple 1.199 Euro auf. Für viele Einsatzzwecke reicht das im Sommer 2022 herausgekommene Modell auch völlig aus, besonders die preisbewusste Kundschaft etwa in Behörden und Bildungseinrichtungen bekommt mit dem Macbook Air M2 immer noch ein gutes Gerät. Nachdem Apple im November 2020 mit dem MacBook Air und dem M1-Chip die Apple-Silicon-Ära eingeläutet hatte – wobei das Design des MacBook Air äußerlich unverändert blieb – wurde im Sommer 2022 das erste “echte” Apple-Silicon-MacBook Air mit dem M2-Chip vorgestellt. Das Design wurde etwas kantiger und orientiert sich stärker an den Linien von iPhone und iPad. Hinzu kam die vom iPhone bekannte Kerbe für die 1080p-Facetime-Kamera. Mit dieser Lösung gelingt es Apple, die Rahmen kleiner zu bekommen und damit den Bildschirm etwas größer. Das MacBook Air M2 ist in vier eleganten Farben erhältlich: Polarstern, Silber, Space Grau und Mitternacht. Der beliebte, schwarzblaue Ton ist besonders ansprechend, aber Achtung: Die Oberfläche ist sehr anfällig für Fingerabdrücke. Ein weiterer Kritikpunkt betrifft die Basisversionen: Vor Herbst 2023 verbauten die Modelle mit 256 GB SSD nur einen Speicherchip, was im Vergleich zu Varianten mit zwei Chips zu merklichen Geschwindigkeitseinbußen führen kann. Mit dem Macbook Air M3 hat Apple beide dieser Mankos behoben: Die schwarze Variante ist nun weniger anfällig gegenüber Fingerabdrücken und auch die 256-GB-Variante hat zwei Speicherchips. Eine Änderung Apples im Herbst 2024 sollte Sie beim Kauf zur Vorsicht gemahnen, auch beim Macbook Air M3. Die eher mickrigen 8 GB gemeinsamen Arbeitsspeicher hat Apple seither auf 16 GB in der Basisversion erhöht, dabei aber den Preis belassen. Im Handel kursieren aber immer noch die “alten” Varianten mit 8 GB – diese sind gewiss keine Schnäppchen. Im Sommer 2023 hatte Apple noch ein Macbook Air M2 mit 15-Zoll-Bildschirm herausgebracht, verkauft dieses seit Mai 2024 aber nicht mehr. Auch hiervon sind im Handel noch einzelne Exemplare zu bekommen, aber eben mit langsamer SSD und nur 8 GB Arbeitsspeicher in der Basisversion. 2. Macbook Air M3 13 Zoll (2024) Foundry Im März 2024 hat Apple den Umstieg von der zweiten auf die dritte Generation des Apple Silicon bei seinen Macbooks abgeschlossen, auch das Macbook Air bekommt in beiden Größen den neuen Chip, der im 3-nm-Verfahren gefertigt wird. Das ist nur ein Zwischenschritt: Mit den neuen Macbooks Pro M4 kam im November 2024 schon die vierte Generation der M-Chips heraus, gefertigt in einem verbesserten 3-nm-Verfahren. Das Macbook Air dürfte im kommenden Frühjahr nachziehen, Apple will dieses Mal auch alle seine Macs auf die gleiche Generation hieven, während es beim M3 den Mac Mini, Mac Studio und Mac Pro ausgelassen hatte. Das kleinere der beiden Macbooks Air muss sich gleich mit zwei aktuell verkauften Konkurrenten aus dem eigenen Haus messen, dem Macbook Air M2 13 Zoll und dem Macbook Pro M4 14 Zoll. Wobei es nur gegenüber dem jüngsten Pro-Modell deutlich schwächer abschneidet. Seinem Vorgänger Gegenüber hat das Macbook Air M3 aber etliche Vorteile zu bieten, welche die 100 Euro Aufpreis rechtfertigen. So ist nicht nur der M3-Chip in all unseren Tests merklich schneller, um etwa 20 Prozent, das Macbook Air M3 kann etwas, was die Vorgänger nicht beherrschen: zwei externe Monitore ansteuern, wenn auch bei geschlossenem Deckel. Das Macbook Pro M4 muss man dafür nicht mehr zuklappen. Wer zum schicken blauschwarzen Farbton Mitternacht tendiert, wird sich über die Nachricht freuen, dass eine neue Beschichtung das M3 resistenter gegenüber Fingerabdrücken macht als das M2. Noch etwas hat Apple im März 2024 geändert, rückwirkend aber auch für das Macbook Air M2: Greift man zu einer höheren Grundkonfiguration, hat man die freie Auswahl zwischen einem 35-W-Dual-Charger und einem 70-Watt-Ladegerät. Bei den Basiskonfigurationen verlangt Apple jeweils einen Aufpreis von 20 Euro, gibt man sich nicht mit dem etwas schwachen 30-Watt-Ladegerät zufrieden. Das Macbook Air M3 13 Zoll gibt es in drei Grundkonfigurationen, angefangen mit 8-Core GPU und 8-Core CPU in der Basisausstattung für 1.299 Euro. In der bekommt man 16 GB gemeinsamen Arbeitsspeicher und eine 256 GB fassende SSD. In der mittleren für 1.529 Euro ist eine 512 GB SSD an Bord und eine 10-Core GPU, in der höchsten für 1.759 Euro dazu noch 24 GB Arbeitsspeicher. 1 TB SSD kostet 230 Euro Aufpreis und 2 TB 690 Euro. Achtung: Im Handel sind derzeit noch Macbooks Air M2 und M3 unterwegs, die vor Ende Oktober in die Läden gingen, als Apple sie noch mit 8 GB oder 16 GB Arbeitsspeicher ausgeliefert hatte. Wenn deren Preise nicht deutlich unter denen der neueren Varianten liegen, sollte man davon Abstand halten. Apple Intelligence ist sehr speicherhungrig, 16 GB hält Apple mittlerweile für die Mindestanforderung für den Mac. 3. Macbook Air M3 15 Zoll (2023) Foundry Oder darf es ein wenig mehr sein, was den Bildschirm betrifft? Erst ein ganzes Jahr nach dem Macbook Air M2 13 Zoll hatte Apple die Variante mit 15-Zoll-Display herausgebracht, die im März 2024 aus dem Angebot gefallen ist. Denn beim Aufstieg in die M3-Liga aktualisierte Apple beide Größen gleichzeitig. Was für das 13-Zoll-Modell gilt, ist auch beim 15-Zoll-Air der Fall: Der M3-Chip ist etwa 20 Prozent schneller als der M2 und kann zwei externe Monitore ansteuern – bei zugeklappten Macbook. Und der Farbton Mitternacht ist einfach atemberaubend – wenngleich Polarstern, Silber und Space Grau auch nicht übel sind. Auch das Macbook Air M3 15 Zoll gibt es in drei Grundkonfigurationen, jeweils mit 8-Core GPU und 10-Core-CPU. Für 1.599 Euro bekommt man jetzt 16 GB gemeinsamen Arbeitsspeicher und eine 256 GB fassende SSD, in der mittleren für 1.829 Euro ist eine 512 GB SSD an Bord und in der höchsten für 2.059 Euro auch noch 24 GB Arbeitsspeicher. Auch hier kostet 1 TB SSD 230 Euro Aufpreis und 2 TB 690 Euro. Alle 15-Zöller kommen wahlweise mit einem 35-Watt-Dual-Charger oder einem 70-Watt-Ladegerät. Wie bei den Macbooks Air in 13 Zoll gilt auch hier: Im Handel sind noch die alten Varianten mit 8 GB respektive 16 GB Arbeitsspeicher unterwegs. 4. Macbook Pro M4 14 Zoll (2024) Foundry Schon ein Jahr, nachdem das Macbook Pro M3 mit 14-Zoll-Bildschirm das letzte Macbook Pro (M2, 13 Zoll) mit Touchbar auf das Abstellgleis schickte, legt Apple mit dem Macbook Pro M4 nach – das gegenüber seinem Vorgänger nochmal deutliche Verbesserungen bringt und gewiss kein Fall für das Zurückschicken mehr ist. Was sich verbessert hat – abgesehen vom M4-Chip, der einen weiteren Performancesprung von etwa 20 Prozent bietet? Der gemeinsame Arbeitsspeicher ist nun auch in der Basisversion auf 16 GB angewachsen, was für die meisten Anwendungen deutlich mehr Leistung bietet. Das MacBook Pro M4 unterstützt zudem die Möglichkeit, zwei externe Monitore anzuschließen, sodass Sie mit bis zu drei Bildschirmen gleichzeitig arbeiten können. Für diese erweiterte Multimonitor-Funktionalität hat das MacBook Pro M4 auch einen dritten Thunderbolt-Anschluss erhalten, jetzt mit Thunderbolt 4, der noch schnellere Datenübertragungsraten und mehr Flexibilität bietet. Wer unbedingt den schicken Farbton Space Schwarz auf dem Schreibtisch haben möchte, muss nicht mehr zur M4 Pro- oder M4 Max-Variante greifen. Das Beste kommt jedoch zum Schluss: Der Preis ist um 100 Euro gefallen und beginnt jetzt bei 1.899 Euro. Für nur 170 Euro mehr könnte man auf das Nanotexturglas upgraden, das weniger Spiegelungen verspricht. Dieses Upgrade ist bei allen MacBook Pro M4-Modellen, einschließlich der M4 Pro- und M4 Max-Varianten, zu diesem Preis verfügbar. Der Unterschied zwischen dem MacBook Air und dem MacBook Pro ist mittlerweile größer als je zuvor – und zwar nicht nur wegen der Chip-Generation. Das MacBook Air wird im kommenden Frühjahr auf den M4-Chip umsteigen, doch eine Lücke zum MacBook Pro bleibt bestehen. Der Preisunterschied ist deutlich: Die Basisversion des MacBook Pro M4 mit 14 Zoll kostet 600 Euro mehr als das MacBook Air M3 mit 13 Zoll. Allerdings ist im MacBook Pro bereits eine 512 GB SSD verbaut, was den effektiven Preisunterschied auf 370 Euro verringert. Die Leistung des M3 im lüfterlosen Air kann in vielen Bereichen jedoch gut mit der des gut gekühlten M4 im MacBook Pro 14 Zoll mithalten. Wie das MacBook Air M3 ist auch das MacBook Pro M3 14 Zoll in drei Grundkonfigurationen erhältlich. Allen gemeinsam ist der Chip mit 10-Core CPU und 10-Core GPU. Die Einstiegsversion für 1.899 Euro bietet 16 GB gemeinsamen Arbeitsspeicher und eine 512 GB SSD. Für 2.129 Euro erhält man eine 1-TB-SSD, und für 2.359 Euro bekommt man 24 GB Arbeitsspeicher. Upgrades sind ebenfalls verfügbar: 230 Euro kosten zusätzliche 8 GB RAM (auf 24 GB oder 32 GB), und eine 2-TB-SSD schlägt mit 460 Euro zu Buche. Ein Upgrade auf 1 TB SSD im Basismodell kostet 230 Euro. 5. Macbook Pro M4 Pro 14 Zoll (2024) Foundry Zeitgleich mit dem M4 14 Zoll Macbook Pro hat Apple auch die Chip-Varianten M4 Pro und M4 Max vorgestellt. Macbook Pro (14 und 16 Zoll) können Sie mit verschiedenen Konfigurationen dieser beiden Chips kaufen. Zwischen den beiden Display-Größen gibt es feine Unterschiede. Das 14 Zoll große Macbook Pro M4 Pro mit 14-Core-CPU, 20-Core-GPU, 24 GB Arbeitsspeicher und 1 TB SSD kostet 2.899 Euro im Vergleich zum fast identisch ausgestatteten 16-Zoll-Modell M4 Pro mit 14-Core-CPU, 20-Core-GPU, 24 GB Arbeitsspeicher und 512 GB SSD für ebenfalls 2.899 Euro. Sie zahlen also keinen Aufpreis für einen größeren Bildschirm, verlieren aber auch die Hälfte der SSD-Speichergröße. Wenn Sie eine äquivalente 1-TB-SSD im 16-Zoll-Modell haben möchten, kostet Sie das 230 Euro mehr. Andererseits ist der Preisunterschied viel größer, wenn Sie sich für den M4 Pro und nicht für den M4 in einem Macbook Pro entscheiden. Das 14-Zoll-Modell mit 10-Core-CPU und 10-Core-GPU M4, mit 16 GB RAM und 512 GB SSD kostet 1.899 Euro, während das M4 Pro mit 12-Core-CPU und 16-Core-GPU, 24 GB RAM und 512 GB SSD mit 2.399 Euro ganze 500 Euro mehr kostet. Der Sprung vom M4 zum M4 Pro ist zwar teuer, aber Sie bekommen viel für Ihr Geld: mehr Arbeitsspeicher, mehr Kerne; ein in jeder Hinsicht leistungsstärkeres Gerät. 6. Macbook Pro M4 Pro 16 Zoll (2024) Foundry Das Macbook Pro 16 Zoll bietet in seiner kleinsten Varianten im Wesentlichen die gleichen technischen Daten (14-Core-CPU, 20-Core-GPU, 24 GB Arbeitsspeicher) wie das 14-Zoll-Modell der Spitzenklasse für 2.899 Euro. Um jedoch auf den gleichen SSD-Speicher von 1 TB zu kommen, ist beim 16er ein Aufpreis von 230 Euro fällig, was angesichts des größeren Bildschirms und der längeren Batterielaufzeit nicht allzu hoch erscheint. Den 16-Zöller mit M4 Pro gibt es in zwei Grundvarianten, neben der erwähnten für 2.899 Euro bietet Apple noch eine mit 14-Core CPU, 20-Core CPU, 48 GB Arbeitsspeicher und 512 GB für 3.359 Euro SSD an. Ein Upgrade des Arbeitsspeichers ist hier überraschend nicht möglich, nur die SSD lässt mit 1 TB (+ 230 Euro), 2 TB (+ 690 Euro) und 4 TB (+ 1.380 Euro) ausstatten. Erfreulicherweise kostet Nanotexturglas auch bei den 16-Zöllern nur 170 Euro Aufpreis, nur beim 24-Zoll-iMac verlangt Apple mehr (230 Euro). 7. Macbook Pro M4 Max 14 Zoll (2024) Foundry Zurück zum 14-Zoll-Macbook-Pro: Was ist, wenn Sie ein noch leistungsstärkeres Gerät haben möchten? Der M4 Max-Chip bietet Ihnen genau das – und noch viel mehr. Der Preisunterschied zwischen dem M4 Pro und dem M4 Max ist jedoch beträchtlich: Im Standardmodell liegt der Aufpreis bei 1.400 Euro. Doch dieser Unterschied reduziert sich erheblich, wenn man die bessere Grundausstattung des M4 Max berücksichtigt – 1 TB SSD statt 512 GB und 36 GB Arbeitsspeicher statt 24 GB. Der Aufpreis für die 1-TB-SSD beträgt wie üblich 230 Euro, und das Upgrade auf 36 GB Arbeitsspeicher ist beim M4 Pro überhaupt nicht möglich. Bei diesem gibt es 48 GB, die übrigens 460 Euro mehr kosten. Wenn Sie besonders viel Arbeitsspeicher benötigen, ist der M4 Max die richtige Wahl. Aber nur, wenn Sie sich auch für die Version mit 16-Core-CPU und 40-Core-GPU entscheiden, die mit einem Aufpreis von 345 Euro daherkommt. In dieser Konfiguration erhalten Sie 48 GB RAM, mit der Möglichkeit, auf 64 GB (+ 230 Euro) oder sogar 128 GB RAM (+ 1.150 Euro) zu erweitern. Maximale Leistung hat ihren Preis. 8. Macbook Pro M4 Max 16 Zoll (2024) Foundry Aber es geht noch teurer: Ähnlich verhält es sich, wenn Sie sich für das 16 Zoll Macbook Pro entscheiden. Der Sprung vom M4 Pro zum M4 Max beträgt bei den Standardoptionen 1.200 Euro. Auch hier können Sie das Pro nur auf 48 GB RAM aufrüsten (+ 460 Euro), aber nicht auf 36 GB. Der SSD-Uprade auf 1 TB kostet auch hier 230 Euro. Maximal können Sie für das Macbook Pro 16 Zoll M4 Max bei Apple 9.128 Euro ausgeben. Dafür bekommen Sie das Dispaly mit Nanotextut, 128 GB gemeinsamen Arbeitsspeicher, 8 TB SSD und die beiden Profi-Programme Final Cut Pro und Logic Pro. Eine externe Tastatur oder bis zu drei externe Monitore müssen Sie freilich woanders dazu kaufen. Fazit: Welches Macbook soll ich kaufen? In Bezug auf das Preis-Leistungs-Verhältnis ist die Entscheidung ziemlich klar: Wenn Sie ein Macbook Air M2 für 1.199 Euro kaufen, bekommen Sie einen anständigen Mac-Laptop für relativ wenig Geld. Doch für nur 100 Euro mehr bekommen Sie ein Macbook Air M3 mit einer neuen Chip-Generation, die mehr leistet als die alte. Wenn es ein wenig größer sein darf, dann greifen Sie zum Macbook Air M3 mit 15-Zoll-Bildschirm, wenn Sie ein klein wenig mehr Leistung und Schnittstellen (HDMI-Anschluss, SDXC-Kartenslot) benötigen, greifen Sie zum Macbook Pro M4 14 Zoll. So ist der Schritt zum Macbook Pro M4 Pro in 14 Zoll von hier aus kein allzu großer mehr, Sie bekommen mehr Arbeitsspeicher und eine bessere Leistungsfähigkeit von GPU und CPU, der Aufpreis hält sich in Grenzen. Teuer wird es beim nächsten Schritt, auf 16-Zoll-Bildschirm oder gar auf eine der Max-Varianten mit 14 oder 16 Zoll. Doch auch hier sollten Sie sich genau ansehen, welche Konfiguration Sie benötigen, was beim Pro noch Aufpreis kostet, ist beim Max unter Umständen schon an Bord. > > > 

Das beste Macbook 2024: Welchen Apple-Laptop soll ich kaufen?​ Foundry

Apple stellt zwei Arten von Notebooks her: das Macbook Air und das Macbook Pro. Innerhalb dieser beiden Mac-Kategorien gibt es eine große Bandbreite. Die Kluft zwischen dem Einsteiger-Gerät Macbook Air und der High-End-Variante Macbook Pro mit 16 Zoll und dem Chip M4 Max ist riesig.

Apple verkauft derzeit sieben Grundkonfigurationen des Macbook Air (M2 13 Zoll plus je drei des M3 in 13 und 15 Zoll) und zehn Macbook-Pro-Varianten in 14 Zoll (sechs) und 16 Zoll (vier). Wenn man all die Optionen berücksichtigt, die Sie der Bestellung auswählen können, sind es bedeutend mehr. Dazu gehören etwa zusätzlicher Arbeitsspeicher, ein anderes Netzteil, mehr Speicherplatz auf der SSD oder ein schnellerer Prozessor. Auf diese Weise lässt sich bei Bedarf ein noch leistungsfähigerer Mac zusammenstellen.

Die Entscheidung, welches der insgesamt 17 Macbooks Sie kaufen sollten, kann dennoch schwerfallen – zumal von den Macbooks Pro mit M3-Chip aus dem Vorjahr immer etliche Varianten zu reduzierten Preisen im Handel zu bekommen sind. Selbst vom Macbook Air M1 aus dem Jahr 2020 findet sich noch das ein oder andere Angebot.

Macbook jetzt kaufen oder warten?

Bevor Sie ein Macbook kaufen, sollten Sie wissen, wann Apple seine Macbooks erneuert oder ob schon bald eine aktualisierte Variante auf den Markt kommt. Neu seit November 2024 sind die Macbooks Pro mit den drei Chip-Varianten der M4-Generation.

Die Macbooks Air in 13 Zoll und 15 Zoll hatte Apple im Mai 2024 auf die M3-Generation gehoben. Macbooks mit M4-Chip erwarten wir für das Frühjahr 2025. Zuletzt hatte Apple diese Macbooks herausgebracht:

14-Zoll Macbook Pro (M4, M4 Pro & M4 Max): November 2024

16-Zoll-Macbook Pro (M4, M4 Pro & M4 Max): November 2024

13-Zoll-Macbook Air (M3): März 2024

15-Zoll Macbook Air (M3): März 2024

14-Zoll Macbook Pro (M3, M3 Pro & M3 Max): Oktober 2023

16-Zoll-Macbook Pro (M3, M3 Pro & M3 Max): Oktober 2023

Macbook Air in 13 und 15 Zoll, Macbook Pro in 14 und 16 Zoll

Zu Beginn der Apple-SIlicon-Ära hatte Apple erst einmal auf bewährte Gehäuse gesetzt, das Macbook Air M1 und das Macbook Pro M1 13 Zoll glichen äußerlich ihren Intel-Vorgängern, das Macbook Pro hatte auch noch in der M2-Generation eine Touchbar. Mit dem M2 kam ein neues Design für das Macbook Air, später auch noch mit 15 Zoll eine zweite Größe.

Ein Basismodell des Macbook Pro mit M4-Prozessor verkauft Apple weiterhin, es misst jetzt 14 Zoll in der Bildschirmdiagonale und gleicht äußerlich den Modellen mit M4 Max und M4 Pro – die Touchbar ist seit letztem Jahr Geschichte.

War das Macbook Pro M3 in 14 Zoll vor einem Jahr noch ein wenig eingeschränkt, hat Apple diesen Umstand beim Sprung auf die M4-Generation geändert. So hat das kleinste Macbook Pro nun drei Thunderbolt-Buchsen und ist auch in Schwarz erhältlich. Zudem ist – wie beim Macbook Air M2 und M3 – der Arbeitsspeicher in der Grundversion auf 16 GB gestiegen – 8 GB waren 2023 ein schweres Manko.

Die große Macbook-Kaufberatung

Wir werfen einen Blick auf die verschiedenen MacBook-Modelle, die Apple aktuell anbietet, und geben Ihnen einen umfassenden Überblick über die Vor- und Nachteile jedes Geräts. So erfahren Sie, welches Modell am besten zu Ihren Bedürfnissen passt. Außerdem zeigen wir Ihnen, wo Sie Ihr MacBook zum besten Preis bekommen.

Wir beleuchten auch die verschiedenen Komponenten und Funktionen der einzelnen MacBook-Modelle, damit Sie eine informierte Entscheidung treffen können. Erfahren Sie, wie viel Arbeitsspeicher Sie wirklich benötigen, welcher Chip die beste Leistung bietet, welche SSD-Größe ideal ist und welcher Preis für Sie am attraktivsten ist.

1. Macbook Air M2 13 Zoll (2022)

Foundry

Apples günstigstes Macbook gibt es im Handel teils schon unter 900 Euro, für die Basisversion mit 256 GB SSD und 8 GB RAM ruft Apple 1.199 Euro auf. Für viele Einsatzzwecke reicht das im Sommer 2022 herausgekommene Modell auch völlig aus, besonders die preisbewusste Kundschaft etwa in Behörden und Bildungseinrichtungen bekommt mit dem Macbook Air M2 immer noch ein gutes Gerät.

Nachdem Apple im November 2020 mit dem MacBook Air und dem M1-Chip die Apple-Silicon-Ära eingeläutet hatte – wobei das Design des MacBook Air äußerlich unverändert blieb – wurde im Sommer 2022 das erste “echte” Apple-Silicon-MacBook Air mit dem M2-Chip vorgestellt. Das Design wurde etwas kantiger und orientiert sich stärker an den Linien von iPhone und iPad. Hinzu kam die vom iPhone bekannte Kerbe für die 1080p-Facetime-Kamera. Mit dieser Lösung gelingt es Apple, die Rahmen kleiner zu bekommen und damit den Bildschirm etwas größer.

Das MacBook Air M2 ist in vier eleganten Farben erhältlich: Polarstern, Silber, Space Grau und Mitternacht. Der beliebte, schwarzblaue Ton ist besonders ansprechend, aber Achtung: Die Oberfläche ist sehr anfällig für Fingerabdrücke. Ein weiterer Kritikpunkt betrifft die Basisversionen: Vor Herbst 2023 verbauten die Modelle mit 256 GB SSD nur einen Speicherchip, was im Vergleich zu Varianten mit zwei Chips zu merklichen Geschwindigkeitseinbußen führen kann.

Mit dem Macbook Air M3 hat Apple beide dieser Mankos behoben: Die schwarze Variante ist nun weniger anfällig gegenüber Fingerabdrücken und auch die 256-GB-Variante hat zwei Speicherchips.

Eine Änderung Apples im Herbst 2024 sollte Sie beim Kauf zur Vorsicht gemahnen, auch beim Macbook Air M3. Die eher mickrigen 8 GB gemeinsamen Arbeitsspeicher hat Apple seither auf 16 GB in der Basisversion erhöht, dabei aber den Preis belassen. Im Handel kursieren aber immer noch die “alten” Varianten mit 8 GB – diese sind gewiss keine Schnäppchen.

Im Sommer 2023 hatte Apple noch ein Macbook Air M2 mit 15-Zoll-Bildschirm herausgebracht, verkauft dieses seit Mai 2024 aber nicht mehr. Auch hiervon sind im Handel noch einzelne Exemplare zu bekommen, aber eben mit langsamer SSD und nur 8 GB Arbeitsspeicher in der Basisversion.

2. Macbook Air M3 13 Zoll (2024)

Foundry

Im März 2024 hat Apple den Umstieg von der zweiten auf die dritte Generation des Apple Silicon bei seinen Macbooks abgeschlossen, auch das Macbook Air bekommt in beiden Größen den neuen Chip, der im 3-nm-Verfahren gefertigt wird. Das ist nur ein Zwischenschritt: Mit den neuen Macbooks Pro M4 kam im November 2024 schon die vierte Generation der M-Chips heraus, gefertigt in einem verbesserten 3-nm-Verfahren.

Das Macbook Air dürfte im kommenden Frühjahr nachziehen, Apple will dieses Mal auch alle seine Macs auf die gleiche Generation hieven, während es beim M3 den Mac Mini, Mac Studio und Mac Pro ausgelassen hatte.

Das kleinere der beiden Macbooks Air muss sich gleich mit zwei aktuell verkauften Konkurrenten aus dem eigenen Haus messen, dem Macbook Air M2 13 Zoll und dem Macbook Pro M4 14 Zoll. Wobei es nur gegenüber dem jüngsten Pro-Modell deutlich schwächer abschneidet.

Seinem Vorgänger Gegenüber hat das Macbook Air M3 aber etliche Vorteile zu bieten, welche die 100 Euro Aufpreis rechtfertigen. So ist nicht nur der M3-Chip in all unseren Tests merklich schneller, um etwa 20 Prozent, das Macbook Air M3 kann etwas, was die Vorgänger nicht beherrschen: zwei externe Monitore ansteuern, wenn auch bei geschlossenem Deckel. Das Macbook Pro M4 muss man dafür nicht mehr zuklappen.

Wer zum schicken blauschwarzen Farbton Mitternacht tendiert, wird sich über die Nachricht freuen, dass eine neue Beschichtung das M3 resistenter gegenüber Fingerabdrücken macht als das M2.

Noch etwas hat Apple im März 2024 geändert, rückwirkend aber auch für das Macbook Air M2: Greift man zu einer höheren Grundkonfiguration, hat man die freie Auswahl zwischen einem 35-W-Dual-Charger und einem 70-Watt-Ladegerät. Bei den Basiskonfigurationen verlangt Apple jeweils einen Aufpreis von 20 Euro, gibt man sich nicht mit dem etwas schwachen 30-Watt-Ladegerät zufrieden.

Das Macbook Air M3 13 Zoll gibt es in drei Grundkonfigurationen, angefangen mit 8-Core GPU und 8-Core CPU in der Basisausstattung für 1.299 Euro. In der bekommt man 16 GB gemeinsamen Arbeitsspeicher und eine 256 GB fassende SSD. In der mittleren für 1.529 Euro ist eine 512 GB SSD an Bord und eine 10-Core GPU, in der höchsten für 1.759 Euro dazu noch 24 GB Arbeitsspeicher. 1 TB SSD kostet 230 Euro Aufpreis und 2 TB 690 Euro.

Achtung: Im Handel sind derzeit noch Macbooks Air M2 und M3 unterwegs, die vor Ende Oktober in die Läden gingen, als Apple sie noch mit 8 GB oder 16 GB Arbeitsspeicher ausgeliefert hatte.

Wenn deren Preise nicht deutlich unter denen der neueren Varianten liegen, sollte man davon Abstand halten. Apple Intelligence ist sehr speicherhungrig, 16 GB hält Apple mittlerweile für die Mindestanforderung für den Mac.

3. Macbook Air M3 15 Zoll (2023)

Foundry

Oder darf es ein wenig mehr sein, was den Bildschirm betrifft? Erst ein ganzes Jahr nach dem Macbook Air M2 13 Zoll hatte Apple die Variante mit 15-Zoll-Display herausgebracht, die im März 2024 aus dem Angebot gefallen ist. Denn beim Aufstieg in die M3-Liga aktualisierte Apple beide Größen gleichzeitig.

Was für das 13-Zoll-Modell gilt, ist auch beim 15-Zoll-Air der Fall: Der M3-Chip ist etwa 20 Prozent schneller als der M2 und kann zwei externe Monitore ansteuern – bei zugeklappten Macbook. Und der Farbton Mitternacht ist einfach atemberaubend – wenngleich Polarstern, Silber und Space Grau auch nicht übel sind.

Auch das Macbook Air M3 15 Zoll gibt es in drei Grundkonfigurationen, jeweils mit 8-Core GPU und 10-Core-CPU. Für 1.599 Euro bekommt man jetzt 16 GB gemeinsamen Arbeitsspeicher und eine 256 GB fassende SSD, in der mittleren für 1.829 Euro ist eine 512 GB SSD an Bord und in der höchsten für 2.059 Euro auch noch 24 GB Arbeitsspeicher. Auch hier kostet 1 TB SSD 230 Euro Aufpreis und 2 TB 690 Euro.

Alle 15-Zöller kommen wahlweise mit einem 35-Watt-Dual-Charger oder einem 70-Watt-Ladegerät. Wie bei den Macbooks Air in 13 Zoll gilt auch hier: Im Handel sind noch die alten Varianten mit 8 GB respektive 16 GB Arbeitsspeicher unterwegs.

4. Macbook Pro M4 14 Zoll (2024)

Foundry

Schon ein Jahr, nachdem das Macbook Pro M3 mit 14-Zoll-Bildschirm das letzte Macbook Pro (M2, 13 Zoll) mit Touchbar auf das Abstellgleis schickte, legt Apple mit dem Macbook Pro M4 nach – das gegenüber seinem Vorgänger nochmal deutliche Verbesserungen bringt und gewiss kein Fall für das Zurückschicken mehr ist.

Was sich verbessert hat – abgesehen vom M4-Chip, der einen weiteren Performancesprung von etwa 20 Prozent bietet? Der gemeinsame Arbeitsspeicher ist nun auch in der Basisversion auf 16 GB angewachsen, was für die meisten Anwendungen deutlich mehr Leistung bietet. Das MacBook Pro M4 unterstützt zudem die Möglichkeit, zwei externe Monitore anzuschließen, sodass Sie mit bis zu drei Bildschirmen gleichzeitig arbeiten können. Für diese erweiterte Multimonitor-Funktionalität hat das MacBook Pro M4 auch einen dritten Thunderbolt-Anschluss erhalten, jetzt mit Thunderbolt 4, der noch schnellere Datenübertragungsraten und mehr Flexibilität bietet.

Wer unbedingt den schicken Farbton Space Schwarz auf dem Schreibtisch haben möchte, muss nicht mehr zur M4 Pro- oder M4 Max-Variante greifen. Das Beste kommt jedoch zum Schluss: Der Preis ist um 100 Euro gefallen und beginnt jetzt bei 1.899 Euro. Für nur 170 Euro mehr könnte man auf das Nanotexturglas upgraden, das weniger Spiegelungen verspricht. Dieses Upgrade ist bei allen MacBook Pro M4-Modellen, einschließlich der M4 Pro- und M4 Max-Varianten, zu diesem Preis verfügbar.

Der Unterschied zwischen dem MacBook Air und dem MacBook Pro ist mittlerweile größer als je zuvor – und zwar nicht nur wegen der Chip-Generation. Das MacBook Air wird im kommenden Frühjahr auf den M4-Chip umsteigen, doch eine Lücke zum MacBook Pro bleibt bestehen. Der Preisunterschied ist deutlich: Die Basisversion des MacBook Pro M4 mit 14 Zoll kostet 600 Euro mehr als das MacBook Air M3 mit 13 Zoll.

Allerdings ist im MacBook Pro bereits eine 512 GB SSD verbaut, was den effektiven Preisunterschied auf 370 Euro verringert. Die Leistung des M3 im lüfterlosen Air kann in vielen Bereichen jedoch gut mit der des gut gekühlten M4 im MacBook Pro 14 Zoll mithalten.

Wie das MacBook Air M3 ist auch das MacBook Pro M3 14 Zoll in drei Grundkonfigurationen erhältlich. Allen gemeinsam ist der Chip mit 10-Core CPU und 10-Core GPU. Die Einstiegsversion für 1.899 Euro bietet 16 GB gemeinsamen Arbeitsspeicher und eine 512 GB SSD. Für 2.129 Euro erhält man eine 1-TB-SSD, und für 2.359 Euro bekommt man 24 GB Arbeitsspeicher.

Upgrades sind ebenfalls verfügbar: 230 Euro kosten zusätzliche 8 GB RAM (auf 24 GB oder 32 GB), und eine 2-TB-SSD schlägt mit 460 Euro zu Buche. Ein Upgrade auf 1 TB SSD im Basismodell kostet 230 Euro.

5. Macbook Pro M4 Pro 14 Zoll (2024)

Foundry

Zeitgleich mit dem M4 14 Zoll Macbook Pro hat Apple auch die Chip-Varianten M4 Pro und M4 Max vorgestellt. Macbook Pro (14 und 16 Zoll) können Sie mit verschiedenen Konfigurationen dieser beiden Chips kaufen.

Zwischen den beiden Display-Größen gibt es feine Unterschiede. Das 14 Zoll große Macbook Pro M4 Pro mit 14-Core-CPU, 20-Core-GPU, 24 GB Arbeitsspeicher und 1 TB SSD kostet 2.899 Euro im Vergleich zum fast identisch ausgestatteten 16-Zoll-Modell M4 Pro mit 14-Core-CPU, 20-Core-GPU, 24 GB Arbeitsspeicher und 512 GB SSD für ebenfalls 2.899 Euro.

Sie zahlen also keinen Aufpreis für einen größeren Bildschirm, verlieren aber auch die Hälfte der SSD-Speichergröße. Wenn Sie eine äquivalente 1-TB-SSD im 16-Zoll-Modell haben möchten, kostet Sie das 230 Euro mehr.

Andererseits ist der Preisunterschied viel größer, wenn Sie sich für den M4 Pro und nicht für den M4 in einem Macbook Pro entscheiden. Das 14-Zoll-Modell mit 10-Core-CPU und 10-Core-GPU M4, mit 16 GB RAM und 512 GB SSD kostet 1.899 Euro, während das M4 Pro mit 12-Core-CPU und 16-Core-GPU, 24 GB RAM und 512 GB SSD mit 2.399 Euro ganze 500 Euro mehr kostet.

Der Sprung vom M4 zum M4 Pro ist zwar teuer, aber Sie bekommen viel für Ihr Geld: mehr Arbeitsspeicher, mehr Kerne; ein in jeder Hinsicht leistungsstärkeres Gerät.

6. Macbook Pro M4 Pro 16 Zoll (2024)

Foundry

Das Macbook Pro 16 Zoll bietet in seiner kleinsten Varianten im Wesentlichen die gleichen technischen Daten (14-Core-CPU, 20-Core-GPU, 24 GB Arbeitsspeicher) wie das 14-Zoll-Modell der Spitzenklasse für 2.899 Euro. Um jedoch auf den gleichen SSD-Speicher von 1 TB zu kommen, ist beim 16er ein Aufpreis von 230 Euro fällig, was angesichts des größeren Bildschirms und der längeren Batterielaufzeit nicht allzu hoch erscheint.

Den 16-Zöller mit M4 Pro gibt es in zwei Grundvarianten, neben der erwähnten für 2.899 Euro bietet Apple noch eine mit 14-Core CPU, 20-Core CPU, 48 GB Arbeitsspeicher und 512 GB für 3.359 Euro SSD an.

Ein Upgrade des Arbeitsspeichers ist hier überraschend nicht möglich, nur die SSD lässt mit 1 TB (+ 230 Euro), 2 TB (+ 690 Euro) und 4 TB (+ 1.380 Euro) ausstatten. Erfreulicherweise kostet Nanotexturglas auch bei den 16-Zöllern nur 170 Euro Aufpreis, nur beim 24-Zoll-iMac verlangt Apple mehr (230 Euro).

7. Macbook Pro M4 Max 14 Zoll (2024)

Foundry

Zurück zum 14-Zoll-Macbook-Pro: Was ist, wenn Sie ein noch leistungsstärkeres Gerät haben möchten? Der M4 Max-Chip bietet Ihnen genau das – und noch viel mehr. Der Preisunterschied zwischen dem M4 Pro und dem M4 Max ist jedoch beträchtlich: Im Standardmodell liegt der Aufpreis bei 1.400 Euro. Doch dieser Unterschied reduziert sich erheblich, wenn man die bessere Grundausstattung des M4 Max berücksichtigt – 1 TB SSD statt 512 GB und 36 GB Arbeitsspeicher statt 24 GB. Der Aufpreis für die 1-TB-SSD beträgt wie üblich 230 Euro, und das Upgrade auf 36 GB Arbeitsspeicher ist beim M4 Pro überhaupt nicht möglich. Bei diesem gibt es 48 GB, die übrigens 460 Euro mehr kosten.

Wenn Sie besonders viel Arbeitsspeicher benötigen, ist der M4 Max die richtige Wahl. Aber nur, wenn Sie sich auch für die Version mit 16-Core-CPU und 40-Core-GPU entscheiden, die mit einem Aufpreis von 345 Euro daherkommt. In dieser Konfiguration erhalten Sie 48 GB RAM, mit der Möglichkeit, auf 64 GB (+ 230 Euro) oder sogar 128 GB RAM (+ 1.150 Euro) zu erweitern. Maximale Leistung hat ihren Preis.

8. Macbook Pro M4 Max 16 Zoll (2024)

Foundry

Aber es geht noch teurer: Ähnlich verhält es sich, wenn Sie sich für das 16 Zoll Macbook Pro entscheiden. Der Sprung vom M4 Pro zum M4 Max beträgt bei den Standardoptionen 1.200 Euro. Auch hier können Sie das Pro nur auf 48 GB RAM aufrüsten (+ 460 Euro), aber nicht auf 36 GB. Der SSD-Uprade auf 1 TB kostet auch hier 230 Euro.

Maximal können Sie für das Macbook Pro 16 Zoll M4 Max bei Apple 9.128 Euro ausgeben. Dafür bekommen Sie das Dispaly mit Nanotextut, 128 GB gemeinsamen Arbeitsspeicher, 8 TB SSD und die beiden Profi-Programme Final Cut Pro und Logic Pro. Eine externe Tastatur oder bis zu drei externe Monitore müssen Sie freilich woanders dazu kaufen.

Fazit: Welches Macbook soll ich kaufen?

In Bezug auf das Preis-Leistungs-Verhältnis ist die Entscheidung ziemlich klar:

Wenn Sie ein Macbook Air M2 für 1.199 Euro kaufen, bekommen Sie einen anständigen Mac-Laptop für relativ wenig Geld. Doch für nur 100 Euro mehr bekommen Sie ein Macbook Air M3 mit einer neuen Chip-Generation, die mehr leistet als die alte.

Wenn es ein wenig größer sein darf, dann greifen Sie zum Macbook Air M3 mit 15-Zoll-Bildschirm, wenn Sie ein klein wenig mehr Leistung und Schnittstellen (HDMI-Anschluss, SDXC-Kartenslot) benötigen, greifen Sie zum Macbook Pro M4 14 Zoll.

So ist der Schritt zum Macbook Pro M4 Pro in 14 Zoll von hier aus kein allzu großer mehr, Sie bekommen mehr Arbeitsspeicher und eine bessere Leistungsfähigkeit von GPU und CPU, der Aufpreis hält sich in Grenzen.

Teuer wird es beim nächsten Schritt, auf 16-Zoll-Bildschirm oder gar auf eine der Max-Varianten mit 14 oder 16 Zoll. Doch auch hier sollten Sie sich genau ansehen, welche Konfiguration Sie benötigen, was beim Pro noch Aufpreis kostet, ist beim Max unter Umständen schon an Bord.

>

>

>

Das beste Macbook 2024: Welchen Apple-Laptop soll ich kaufen?​ Read More »

Automatisierung ist für Arbeitgeber Pflicht​

Automatisierung ist für Arbeitgeber Pflicht​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?quality=50&strip=all 7133w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Die Automatisierung in der IT bietet weit mehr als nur die Einsparung von Kosten und Zeit. Sie schafft ein Arbeitsumfeld, das für IT-Fachkräfte attraktiver wird, indem sie sich auf ihre Kernkompetenzen konzentrieren. SuPatMaN – Shutterstock Unsere Arbeitswelt steht vor einer fundamentalen Transformation – und im Zentrum dieser Veränderung die IT-Automatisierung. Gerade für IT-Fachkräfte erleichtern die jüngsten Entwicklungen den Arbeitsalltag spürbar. Aufgaben, die Teams früher viel Zeit und Mühe kosteten, lassen sich jetzt automatisiert erledigen, was nicht nur die Effizienz steigert, sondern auch den Arbeitsdruck senkt.    Laut einer aktuellen Bitkom-Studie fehlen in Deutschland rund 137.000 IT-Fachkräfte, bis 2040 sollen es über 660.000 sein – Zahlen, die den Druck auf Unternehmen massiv erhöhen. IT-Positionen bleiben im Durchschnitt mehr als sieben Monate unbesetzt, was den Geschäftsbetrieb vieler Firmen stark beeinträchtigt. Betrachtet man die Möglichkeiten außerhalb der Politik, also alles, was Unternehmen selbst tun können, liegt die Lösung, um diesen Mangel zu bewältigen und gleichzeitig das Arbeitsumfeld für IT-Experten attraktiver zu gestalten, auch in der IT-Automatisierung.  Automatisierung von Routineaufgaben IT-Fachkräfte stehen vor der Herausforderung, neben strategischen Projekten auch den Alltagsbetrieb der IT zu gewährleisten. Gerade hier kann das Auslagern repetitiver Aufgaben wie das Zurücksetzen von Passwörtern oder das Bearbeiten von einfachen Support-Tickets eine enorme Entlastung bedeuten. Unternehmen können spezialisierte Dienstleister oder automatisierte Tools einsetzen, um die Wartung und das Troubleshooting zu übernehmen.  Prozesse wie das On- und Offboarding von Mitarbeitenden, bei denen Geräte eingerichtet, Zugriffsrechte verwaltet und Software installiert werden müssen, lassen sich heutzutage durch moderne IT-Tools effizient und zuverlässig automatisieren, zum Beispiel durch automatisierte Gerätebereitstellung, zentrale Software-Deployments und ein reibungsloses IT-Management.   Ein solcher Ansatz bietet den Vorteil, dass IT-Fachkräfte ihre Expertise auf Projekte wie die Entwicklung und Optimierung der IT-Infrastruktur konzentrieren und sich um Innovationen oder die Verbesserung der Sicherheitsarchitektur kümmern können.      Mehr Effizienz, weniger Frustration Die Automatisierung und das Outsourcing repetitiver Aufgaben sparen Zeit und verbessern nachweislich die Arbeitszufriedenheit. Viele IT-Fachkräfte klagen über die Frustration, ständig für die gleichen, trivialen Aufgaben verantwortlich zu sein, anstatt an Projekten zu arbeiten, die ihre Fähigkeiten herausfordern und das Unternehmen voranbringen. Automatisierung sorgt hier für Abhilfe.  IT-Mitarbeiter können sich wieder auf das konzentrieren, was sie am besten können: Lösungen für komplexe Herausforderungen finden, die IT-Infrastruktur weiterentwickeln und innovative Projekte realisieren. So wird der Beruf für IT-Fachkräfte attraktiver und der Fachkräftemangel langfristig entschärft. Denn ein attraktiver Arbeitsplatz, der Möglichkeiten zur Weiterentwicklung bietet, zieht talentierte Fachkräfte an.     Automatisierung als Sicherheitsfaktor Neben Effizienz und Entlastung bringt die Automatisierung auch erhebliche Sicherheitsvorteile mit sich. Automatisierte Prozesse gewährleisten, dass sich Sicherheitsupdates, Patches und Compliance-Anforderungen regelmäßig und ohne manuelle Eingriffe ausführen lassen. Dies reduziert das Risiko menschlicher Fehler, die oft zu Sicherheitslücken führen. Die Automatisierung stellt sicher, dass alle Systeme stets auf dem neuesten Stand sind, was angesichts der steigenden Cyber-Bedrohungen unverzichtbar ist.   IT-Automatisierung als Wettbewerbsvorteil für Startups  Besonders Startups profitieren von der IT-Automatisierung. Während größere Unternehmen meist über umfangreiche interne IT-Abteilungen verfügen, fehlen bei jungen Unternehmen häufig die Ressourcen, um eine eigene IT-Infrastruktur aufzubauen und zu warten. Oft werden Office Manager oder CEOs versehentlich zu IT-Verantwortlichen und verharren in dieser Position über Jahre.   Hier helfen moderne SaaS-Lösungen (Software-as-a-Service). Noch einen Schritt weiter geht “Service-as-a-Software” im IT-Bereich. Lösungen dieser Art bieten Startups die Möglichkeit, IT-Prozesse zu automatisieren und gleichzeitig flexibel zu skalieren, ohne dass erhebliche Investitionen in Personal oder Tools erforderlich sind. Im Vergleich zu traditionellen IT-Dienstleistern, die oft umfangreiche, aber teurere – und nur teilweise automatisierte Lösungen anbieten, setzen Startups zunehmend auf standardisierte, Cloud-basierende Tools, um effizient zu arbeiten und ihre Wettbewerbsfähigkeit zu steigern.   Der Vorteil liegt hier auch in der Flexibilität: Anstatt eine große, interne IT-Abteilung mit redundanten Aufgaben unnötig auszulasten, können Unternehmen Tools je nach Bedarf einkaufen und so auf aktuelle Anforderungen reagieren. So werden interne Ressourcen freigehalten, die sich wiederum auf unternehmensspezifische Projekte fokussieren.    Konzentration auf Kernkompetenzen  Die Automatisierung in der IT bietet weit mehr als nur die Einsparung von Kosten und Zeit. Sie schafft ein Arbeitsumfeld, das für IT-Fachkräfte attraktiver wird, indem sie sich auf ihre Kernkompetenzen konzentrieren. Unternehmen, die ihre IT-Prozesse automatisieren, haben einen Wettbewerbsvorteil durch gesteigerte Effizienz und schaffen dadurch eine Arbeitskultur, die den IT-Fachkräftemangel langfristig abmildert.  Die IT-Welt von morgen wird geprägt sein von Automatisierung, Effizienz und einem klaren Fokus auf strategische Innovationen. Unternehmen, die diesen Trend frühzeitig erkennen und ihre IT-Prozesse entsprechend anpassen, werden nicht nur ihre internen Abläufe optimieren, sondern auch die besten Talente anziehen.  Um den Fachkräftemangel endgültig in den Griff zu bekommen, müssen Unternehmen und politische Akteure gemeinsam daran arbeiten, entsprechende Rahmenbedingungen zu schaffen. Diese große Aufgabe betrifft uns alle.   

Automatisierung ist für Arbeitgeber Pflicht​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?quality=50&strip=all 7133w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Die Automatisierung in der IT bietet weit mehr als nur die Einsparung von Kosten und Zeit. Sie schafft ein Arbeitsumfeld, das für IT-Fachkräfte attraktiver wird, indem sie sich auf ihre Kernkompetenzen konzentrieren. SuPatMaN – Shutterstock

Unsere Arbeitswelt steht vor einer fundamentalen Transformation – und im Zentrum dieser Veränderung die IT-Automatisierung. Gerade für IT-Fachkräfte erleichtern die jüngsten Entwicklungen den Arbeitsalltag spürbar. Aufgaben, die Teams früher viel Zeit und Mühe kosteten, lassen sich jetzt automatisiert erledigen, was nicht nur die Effizienz steigert, sondern auch den Arbeitsdruck senkt.   

Laut einer aktuellen Bitkom-Studie fehlen in Deutschland rund 137.000 IT-Fachkräfte, bis 2040 sollen es über 660.000 sein – Zahlen, die den Druck auf Unternehmen massiv erhöhen. IT-Positionen bleiben im Durchschnitt mehr als sieben Monate unbesetzt, was den Geschäftsbetrieb vieler Firmen stark beeinträchtigt. Betrachtet man die Möglichkeiten außerhalb der Politik, also alles, was Unternehmen selbst tun können, liegt die Lösung, um diesen Mangel zu bewältigen und gleichzeitig das Arbeitsumfeld für IT-Experten attraktiver zu gestalten, auch in der IT-Automatisierung. 

Automatisierung von Routineaufgaben

IT-Fachkräfte stehen vor der Herausforderung, neben strategischen Projekten auch den Alltagsbetrieb der IT zu gewährleisten. Gerade hier kann das Auslagern repetitiver Aufgaben wie das Zurücksetzen von Passwörtern oder das Bearbeiten von einfachen Support-Tickets eine enorme Entlastung bedeuten. Unternehmen können spezialisierte Dienstleister oder automatisierte Tools einsetzen, um die Wartung und das Troubleshooting zu übernehmen. 

Prozesse wie das On- und Offboarding von Mitarbeitenden, bei denen Geräte eingerichtet, Zugriffsrechte verwaltet und Software installiert werden müssen, lassen sich heutzutage durch moderne IT-Tools effizient und zuverlässig automatisieren, zum Beispiel durch automatisierte Gerätebereitstellung, zentrale Software-Deployments und ein reibungsloses IT-Management.  

Ein solcher Ansatz bietet den Vorteil, dass IT-Fachkräfte ihre Expertise auf Projekte wie die Entwicklung und Optimierung der IT-Infrastruktur konzentrieren und sich um Innovationen oder die Verbesserung der Sicherheitsarchitektur kümmern können.   

 

Mehr Effizienz, weniger Frustration

Die Automatisierung und das Outsourcing repetitiver Aufgaben sparen Zeit und verbessern nachweislich die Arbeitszufriedenheit. Viele IT-Fachkräfte klagen über die Frustration, ständig für die gleichen, trivialen Aufgaben verantwortlich zu sein, anstatt an Projekten zu arbeiten, die ihre Fähigkeiten herausfordern und das Unternehmen voranbringen. Automatisierung sorgt hier für Abhilfe. 

IT-Mitarbeiter können sich wieder auf das konzentrieren, was sie am besten können: Lösungen für komplexe Herausforderungen finden, die IT-Infrastruktur weiterentwickeln und innovative Projekte realisieren. So wird der Beruf für IT-Fachkräfte attraktiver und der Fachkräftemangel langfristig entschärft. Denn ein attraktiver Arbeitsplatz, der Möglichkeiten zur Weiterentwicklung bietet, zieht talentierte Fachkräfte an.  

 

Automatisierung als Sicherheitsfaktor

Neben Effizienz und Entlastung bringt die Automatisierung auch erhebliche Sicherheitsvorteile mit sich. Automatisierte Prozesse gewährleisten, dass sich Sicherheitsupdates, Patches und Compliance-Anforderungen regelmäßig und ohne manuelle Eingriffe ausführen lassen. Dies reduziert das Risiko menschlicher Fehler, die oft zu Sicherheitslücken führen. Die Automatisierung stellt sicher, dass alle Systeme stets auf dem neuesten Stand sind, was angesichts der steigenden Cyber-Bedrohungen unverzichtbar ist.  

IT-Automatisierung als Wettbewerbsvorteil für Startups 

Besonders Startups profitieren von der IT-Automatisierung. Während größere Unternehmen meist über umfangreiche interne IT-Abteilungen verfügen, fehlen bei jungen Unternehmen häufig die Ressourcen, um eine eigene IT-Infrastruktur aufzubauen und zu warten. Oft werden Office Manager oder CEOs versehentlich zu IT-Verantwortlichen und verharren in dieser Position über Jahre.  

Hier helfen moderne SaaS-Lösungen (Software-as-a-Service). Noch einen Schritt weiter geht “Service-as-a-Software” im IT-Bereich. Lösungen dieser Art bieten Startups die Möglichkeit, IT-Prozesse zu automatisieren und gleichzeitig flexibel zu skalieren, ohne dass erhebliche Investitionen in Personal oder Tools erforderlich sind. Im Vergleich zu traditionellen IT-Dienstleistern, die oft umfangreiche, aber teurere – und nur teilweise automatisierte Lösungen anbieten, setzen Startups zunehmend auf standardisierte, Cloud-basierende Tools, um effizient zu arbeiten und ihre Wettbewerbsfähigkeit zu steigern.  

Der Vorteil liegt hier auch in der Flexibilität: Anstatt eine große, interne IT-Abteilung mit redundanten Aufgaben unnötig auszulasten, können Unternehmen Tools je nach Bedarf einkaufen und so auf aktuelle Anforderungen reagieren. So werden interne Ressourcen freigehalten, die sich wiederum auf unternehmensspezifische Projekte fokussieren. 

 

Konzentration auf Kernkompetenzen 

Die Automatisierung in der IT bietet weit mehr als nur die Einsparung von Kosten und Zeit. Sie schafft ein Arbeitsumfeld, das für IT-Fachkräfte attraktiver wird, indem sie sich auf ihre Kernkompetenzen konzentrieren. Unternehmen, die ihre IT-Prozesse automatisieren, haben einen Wettbewerbsvorteil durch gesteigerte Effizienz und schaffen dadurch eine Arbeitskultur, die den IT-Fachkräftemangel langfristig abmildert. 

Die IT-Welt von morgen wird geprägt sein von Automatisierung, Effizienz und einem klaren Fokus auf strategische Innovationen. Unternehmen, die diesen Trend frühzeitig erkennen und ihre IT-Prozesse entsprechend anpassen, werden nicht nur ihre internen Abläufe optimieren, sondern auch die besten Talente anziehen. 

Um den Fachkräftemangel endgültig in den Griff zu bekommen, müssen Unternehmen und politische Akteure gemeinsam daran arbeiten, entsprechende Rahmenbedingungen zu schaffen. Diese große Aufgabe betrifft uns alle.  

Automatisierung ist für Arbeitgeber Pflicht​ Read More »

Wie Sie Ihre Cloud-Daten mit Microsoft Azure optimal schützen​

Wie Sie Ihre Cloud-Daten mit Microsoft Azure optimal schützen​

Allgemein

Mehr als die Hälfte der Unternehmen in Deutschland plant laut dem „Cloud Report 2024“ des Digitalverbandes Bitkom (54 Prozent) in diesem Jahr in die Cloud zu investieren. 33 Prozent wollen dabei ihre Ausgaben gegenüber dem Vorjahr erhöhen. Immerhin ein Fünftel (21 Prozent) gibt hingegen an, diese reduzieren zu wollen. Dabei spielen Sicherheitsgründe nach wie vor eine entscheidende Rolle: Für 64 Prozent der befragten Firmen ist die Sorge vor unberechtigtem Zugriff auf sensible Daten das zweit wichtigste Hemmnis bei der Umsetzung von Cloud-Projekten – gleich nach dem Fehlen von qualifiziertem Personal (76). Auch Angst vor Datenverlust spielt bei mehr als der Hälfte der befragten hierbei eine Rolle (52 Prozent). Dabei bietet sich gerade beim Wechsel in die Cloud die Chance, Sicherheitsstrukturen und -konzepte auf ein modernes, effektives und zukunftssicheres Niveau zu heben. Microsoft Azure stellt hierfür beispielsweise eine Vielzahl leistungsstarker Sicherheitsmechanismen bereit, die Ihren Cloud-Betrieb optimal absichern können. Experten von Scheer haben sich der Thematik angenommen und intelligente Managed-Services-Lösungen entwickelt, welche die Security-Features von Azure optimal integrieren. Auf diese Weise lassen sich Bedrohungen schneller erkennen, gezielt bearbeiten und das volle Potenzial der Cloud-Sicherheitsmaßnahmen lässt sich optimal ausschöpfen. Welche Sicherheitslösungen Microsoft Azure bietet und welche Vorteile diese bieten, zeigt ein CIO-Webcast in Zusammenarbeit mit Scheer. Andreas Tyroller von Scheer wird erklären, wie Sie Ihren Betrieb optimal aufstellen, um maximale Sicherheit für Ihre SAP-Landschaft zu gewährleisten. Sie erfahren außerdem, wie Sie durch den gezielten Einsatz von Cloud-Sicherheitslösungen Risiken minimieren, Compliance sicherstellen und Ihre Geschäftsprozesse bestmöglich unterstützen. Der Fachjournalist Dr. Oliver Janzen wird den Webcast moderieren. Registrieren Sie sich jetzt 

Wie Sie Ihre Cloud-Daten mit Microsoft Azure optimal schützen​ Mehr als die Hälfte der Unternehmen in Deutschland plant laut dem „Cloud Report 2024“ des Digitalverbandes Bitkom (54 Prozent) in diesem Jahr in die Cloud zu investieren. 33 Prozent wollen dabei ihre Ausgaben gegenüber dem Vorjahr erhöhen. Immerhin ein Fünftel (21 Prozent) gibt hingegen an, diese reduzieren zu wollen. Dabei spielen Sicherheitsgründe nach wie vor eine entscheidende Rolle: Für 64 Prozent der befragten Firmen ist die Sorge vor unberechtigtem Zugriff auf sensible Daten das zweit wichtigste Hemmnis bei der Umsetzung von Cloud-Projekten – gleich nach dem Fehlen von qualifiziertem Personal (76). Auch Angst vor Datenverlust spielt bei mehr als der Hälfte der befragten hierbei eine Rolle (52 Prozent).

Dabei bietet sich gerade beim Wechsel in die Cloud die Chance, Sicherheitsstrukturen und -konzepte auf ein modernes, effektives und zukunftssicheres Niveau zu heben. Microsoft Azure stellt hierfür beispielsweise eine Vielzahl leistungsstarker Sicherheitsmechanismen bereit, die Ihren Cloud-Betrieb optimal absichern können. Experten von Scheer haben sich der Thematik angenommen und intelligente Managed-Services-Lösungen entwickelt, welche die Security-Features von Azure optimal integrieren. Auf diese Weise lassen sich Bedrohungen schneller erkennen, gezielt bearbeiten und das volle Potenzial der Cloud-Sicherheitsmaßnahmen lässt sich optimal ausschöpfen.

Welche Sicherheitslösungen Microsoft Azure bietet und welche Vorteile diese bieten, zeigt ein CIO-Webcast in Zusammenarbeit mit Scheer. Andreas Tyroller von Scheer wird erklären, wie Sie Ihren Betrieb optimal aufstellen, um maximale Sicherheit für Ihre SAP-Landschaft zu gewährleisten. Sie erfahren außerdem, wie Sie durch den gezielten Einsatz von Cloud-Sicherheitslösungen Risiken minimieren, Compliance sicherstellen und Ihre Geschäftsprozesse bestmöglich unterstützen. Der Fachjournalist Dr. Oliver Janzen wird den Webcast moderieren.

Registrieren Sie sich jetzt

Wie Sie Ihre Cloud-Daten mit Microsoft Azure optimal schützen​ Read More »

3 Dinge, die Senior Developer auszeichnen​

3 Dinge, die Senior Developer auszeichnen​

Allgemein

Junior Developer mit Karriere-Ambitionen sollten auf diese vier Hard Skills hinarbeiten. Foto: DC Studio – shutterstock.comDiverse Onlinebeiträge geben darüber Auskunft, welche Voraussetzungen für eine Rolle als Senior Developer erfüllt sein müssen. Dabei drehen sich die meisten allerdings um das Thema Soft Skills.Die sind ohne Frage ebenfalls wichtig – der wesentliche Unterschied zwischen Junior- und Senior-Entwicklern liegt allerdings in der Berufserfahrung – und den in diesem Rahmen gelernten Lektionen. Vor diesem Hintergrund haben wir drei Hard Skills identifiziert, die für Senior-Entwickler – und damit auch für Junior Developer mit Aufstiegsambitionen – zum A und O gehören (sollten).1. Klaren Code schreibenEs mag sich ziemlich offensichtlich lesen, aber lesbaren Code schreiben zu können, gehört zu den wichtigsten Skills von erfahrenen Entwicklern – oder sollte es zumindest. Leider existiert und entsteht jedoch immer noch jede Menge Code, bei dem dieser Grundsatz mit Füßen getreten und kein Gedanke daran verschwendet wird, dass irgendein armer Tropf das Ganze am Ende auch lesen (können) muss. Und klarer Code ist nicht nur mit Blick auf die Lesbarkeit zu empfehlen, sondern auch wenn es um Debugging geht. Dieser Prozess beschreibt im Wesentlichen, den Zustand einer laufenden Applikation zu einem definierten Zeitpunkt zu verstehen. Sind Funktionen, Klassen und so weiter klar deklariert (während der Code läuft), tut sich der Debugger leichter – und der Code wird gleichzeitig besser lesbar.Davon abgesehen, gewinnt Programmcode auch an Klarheit, wenn er keine Kommentare enthält, beziehungsweise benötigt. Ein Entwickler, der das Bedürfnis verspürt, seinen Code zu kommentieren, sollte diesen stattdessen lieber umschreiben. Oder ihn idealerweise direkt so erstellen, dass Kommentare überflüssig sind. Dieser Punkt ist allerdings umstritten – es gibt auch Organisationen, die explizit Wert darauf legen, dass jede ihrer Codezeilen einen Kommentar enthält.2. Komplexität vermeidenKomplexität zu vermeiden, ist entscheidend für guten Code – und lässt sich auch ganz einfach bewerkstelligen: Hören Sie einfach auf damit, mehrere Fliegen mit einer Klappe schlagen zu wollen. Wenn jede Entität in Ihrer Codebasis nur eine einzige Aufgabe erfüllt, ist sie im Fall von Problemen auch einfacher zu warten, beziehungsweise zu fixen.Deswegen sollte nichts – weder Klassen, noch Methoden oder Funktionen – jemals mehr als einen Task erfüllen. Dabei ist es wichtig zu verstehen, dass sich nicht komplexer Code und komplexe Systeme nicht ausschließen. Stellen Sie sich die Softwareentwicklungsarbeit einfach wie eine hochwertige mechanische Uhr vor: Das Gesamtwerk ist ein hochkomplexes Gerät, das aus relativ simplen Komponenten – im Wesentlichen Zahnräder und Federn – besteht. Diese Komponenten arbeiten zusammen und erzeugen somit die Komplexität.3. Nichts überstürzen“In der Ruhe liegt die Kraft” ist ein Sprichwort, das viele weniger erfahrene Developer im ersten Moment möglicherweise als kontraintuitiv empfinden. Allerdings macht dieses Mantra durchaus auch im Dev-Umfeld Sinn, wie erfahrene Softwareentwickler wissen.Schließlich sorgt Zeitdruck in aller Regel für erhöhte Fehlerquoten. Diese Bugs anschließend zu beheben, kostet wiederum enorm viel Zeit. Ein gewissenhaftes, langsameres Vorgehen kann hingegen Fehler reduzieren und am Ende dafür sorgen, dass der Gesamtprozess deutlich schneller abläuft. Code, der von Anfang an gewissenhaft und vorausschauend aufgesetzt wird, bringt also nicht nur bessere Ergebnisse, sondern ist auch einfacher zu pflegen. (fm) https://twitter.com/MobirevoHQ/status/1772914965696921826?ref_src=twsrc%5Etfw 

3 Dinge, die Senior Developer auszeichnen​ Junior Developer mit Karriere-Ambitionen sollten auf diese vier Hard Skills hinarbeiten.
Foto: DC Studio – shutterstock.comDiverse Onlinebeiträge geben darüber Auskunft, welche Voraussetzungen für eine Rolle als Senior Developer erfüllt sein müssen. Dabei drehen sich die meisten allerdings um das Thema Soft Skills.Die sind ohne Frage ebenfalls wichtig – der wesentliche Unterschied zwischen Junior- und Senior-Entwicklern liegt allerdings in der Berufserfahrung – und den in diesem Rahmen gelernten Lektionen. Vor diesem Hintergrund haben wir drei Hard Skills identifiziert, die für Senior-Entwickler – und damit auch für Junior Developer mit Aufstiegsambitionen – zum A und O gehören (sollten).1. Klaren Code schreibenEs mag sich ziemlich offensichtlich lesen, aber lesbaren Code schreiben zu können, gehört zu den wichtigsten Skills von erfahrenen Entwicklern – oder sollte es zumindest. Leider existiert und entsteht jedoch immer noch jede Menge Code, bei dem dieser Grundsatz mit Füßen getreten und kein Gedanke daran verschwendet wird, dass irgendein armer Tropf das Ganze am Ende auch lesen (können) muss. Und klarer Code ist nicht nur mit Blick auf die Lesbarkeit zu empfehlen, sondern auch wenn es um Debugging geht. Dieser Prozess beschreibt im Wesentlichen, den Zustand einer laufenden Applikation zu einem definierten Zeitpunkt zu verstehen. Sind Funktionen, Klassen und so weiter klar deklariert (während der Code läuft), tut sich der Debugger leichter – und der Code wird gleichzeitig besser lesbar.Davon abgesehen, gewinnt Programmcode auch an Klarheit, wenn er keine Kommentare enthält, beziehungsweise benötigt. Ein Entwickler, der das Bedürfnis verspürt, seinen Code zu kommentieren, sollte diesen stattdessen lieber umschreiben. Oder ihn idealerweise direkt so erstellen, dass Kommentare überflüssig sind. Dieser Punkt ist allerdings umstritten – es gibt auch Organisationen, die explizit Wert darauf legen, dass jede ihrer Codezeilen einen Kommentar enthält.2. Komplexität vermeidenKomplexität zu vermeiden, ist entscheidend für guten Code – und lässt sich auch ganz einfach bewerkstelligen: Hören Sie einfach auf damit, mehrere Fliegen mit einer Klappe schlagen zu wollen. Wenn jede Entität in Ihrer Codebasis nur eine einzige Aufgabe erfüllt, ist sie im Fall von Problemen auch einfacher zu warten, beziehungsweise zu fixen.Deswegen sollte nichts – weder Klassen, noch Methoden oder Funktionen – jemals mehr als einen Task erfüllen. Dabei ist es wichtig zu verstehen, dass sich nicht komplexer Code und komplexe Systeme nicht ausschließen. Stellen Sie sich die Softwareentwicklungsarbeit einfach wie eine hochwertige mechanische Uhr vor: Das Gesamtwerk ist ein hochkomplexes Gerät, das aus relativ simplen Komponenten – im Wesentlichen Zahnräder und Federn – besteht. Diese Komponenten arbeiten zusammen und erzeugen somit die Komplexität.3. Nichts überstürzen“In der Ruhe liegt die Kraft” ist ein Sprichwort, das viele weniger erfahrene Developer im ersten Moment möglicherweise als kontraintuitiv empfinden. Allerdings macht dieses Mantra durchaus auch im Dev-Umfeld Sinn, wie erfahrene Softwareentwickler wissen.Schließlich sorgt Zeitdruck in aller Regel für erhöhte Fehlerquoten. Diese Bugs anschließend zu beheben, kostet wiederum enorm viel Zeit. Ein gewissenhaftes, langsameres Vorgehen kann hingegen Fehler reduzieren und am Ende dafür sorgen, dass der Gesamtprozess deutlich schneller abläuft. Code, der von Anfang an gewissenhaft und vorausschauend aufgesetzt wird, bringt also nicht nur bessere Ergebnisse, sondern ist auch einfacher zu pflegen. (fm)

https://twitter.com/MobirevoHQ/status/1772914965696921826?ref_src=twsrc%5Etfw

3 Dinge, die Senior Developer auszeichnen​ Read More »

Was ist Scraping?​

Was ist Scraping?​

Allgemein

Vorsicht Scraper: Einmal im Web veröffentlicht, können Informationen eingesammelt und missbraucht werden. Foto: Shutterstock – hmorena Mittlerweile ist es fast schon Gewohnheit, dass durch Hacks und Datenpannen bei Online-Diensten regelmäßig Millionen von Nutzerdaten in falsche Hände geraten. So tauchten etwa im April 2021 die Daten von mehr als 553 Millionen Facebook-Nutzern, 500 Millionen LinkedIn-Accounts und 1,3 Millionen Clubhouse-Nutzer im Web auf. Eher ungewöhnlich ist jedoch, dass alle drei Betreiber der Dienste bestritten, Opfer eines Hacks geworden zu sein. Es habe sich vielmehr um Scraping gehandelt, hieß es, wobei Daten abgegriffen wurden, die von den Nutzern selbst veröffentlicht wurden und von anderen Mitgliedern oder zumindest ihren Kontakten einsehbar seien, wie vollständiger Namen, Telefonnummer etc. Doch was ist Scraping, wie funktioniert es und wie kann man sich davor schützen? Scraping – Definition Scraping als Kurzform von Screen Scraping oder Web Scraping ist eine Funktion, bei der eine Anwendung oder ein Script Informationen von einer Website oder einem Online-Dienst ausliest und speichert – also die Information vom Bildschirm “kratzt”. Bekannte Anwendungsfälle dieser Technik sind etwa Bots von Suchmaschinen wie Google, die kontinuierlich im Internet unterwegs sind, um Websites zu indizieren (Crawling). Aber auch Vergleichsportale nutzen die Methode, um Unmengen an Daten zu sammeln und dann auszuwerten. In vielen Fällen ist eine derartige Praxis auch im Sinne der Website-Betreiber, da sie dank einer solchen Indexierung möglicherweise eine höhere Reichweite oder mehr Umsatz für ihre Produkte und Services erzielen. Die Technik kann allerdings auch missbräuchlich genutzt werden. Unternehmen sind etwa mittels Scraping in der Lage, die Webshops der Konkurrenz automatisch zu durchforsten. Im Anschluss können sie dann beispielsweise ihre Preise so anpassen, dass sie immer etwas billiger ist (Preis-Grabbing). Oder sie übernehmen deren Produktbeschreibungen und -bilder (Content-Grabbing) beziehungsweise gleich die ganze Webshop-Konstruktion und sparen sich viel Zeit und Geld. Die auf Facebook eingesammelten Telefonnummern und E-Mail-Adressen werden außerdem in direktem Zusammenhang mit darauffolgenden “Smishing“- und Phishing-Wellen gebracht. Web Scraping – FunktionsweiseDer Scraping-Prozess besteht im Großen und Ganzen aus zwei Teilen, nämlich dem Aufrufen der gewünschten Web-Seiten (statische und dynamisch erzeugte) und der anschließenden Extraktion der Daten. Es ist eine Vielzahl von Scraping-Tools verfügbar, allein auf Github finden sich zahlreiche Lösungen und Toolkits für die verschiedensten Einsatzgebiete.Im Fall des Facebook-Scraps, wo auch als privat gekennzeichnete Daten abgesaugt wurden, gehen die Betreiber von einer speziellen Methode aus, die sich eine Ende 2019 geschlossene Lücke in der Kontaktimport-Funktion der Plattform zunutze machte. Dieses Feature soll es Nutzern ermöglichen, Freunde und Bekannte auf Facebook zu identifizieren, indem sie ihr Telefonbuch hochladen. Laut Facebook nutzten die Angreifer diese Funktionalität im großen Stil, um ein Set an Benutzerprofilen abzufragen und dann Informationen über diese erhalten, die in ihren öffentlichen Profilen enthalten sind.Noch leistungsfähiger dank (generativer) KIMit dem Aufkommen von mehr und mehr GenAI-Tools und LLMs erreicht Scraping inzwischen ganz andere Dimensionen. Nicht genug damit, dass generative künstliche Intelligenz selbst jede Menge Trainingsdaten benötigt und sich Crawler von Google, OpenAI & Co. dazu fleißig auf Websites bedienen – sofern sie nicht ausgesperrt werden. LLMs sind auch in der Lage, ein breiteres Spektrum von Datensätzen sowie Websites zu erkunden und per Prompts gezielt spezielle Daten zu extrahieren, in Tabellen einzutragen und auszuwerten. Neben dem Erkennen von Text in Bildern via OCR ist mit GenAI auch die Beschreibung von Bildern in Textform kein Problem mehr. Scraping – legal oder illegal?Die Antwort lautet: Es kommt darauf an. Werden zum Scraping keine technischen Schutzvorrichtungen überwunden, ist die Handlung selbst nicht illegal – es werden schließlich nur Informationen eingesammelt, die ohnehin öffentlich zugänglich sind. Allerdings kann das, was Sie anschließend mit den Daten anstellen, nachdem diese “gescraped” wurden, illegal sein. Werden etwa Bilder, Artikel und Ähnliches abgegriffen und anderswo ohne Erlaubnis publiziert, handelt es sich klar um einen Verstoß gegen das Copyright. Dass die Nutzung der Datensätze zum Phishing und ähnlichen Aktivitäten nicht legal sind, dürfte ebenfalls klar sein.Noch eindeutiger ist das Urteil beim Scraping von persönlichen Daten. So haben DSGVO und andere Datenschutzgesetze klare Vorgaben, wenn es um das Sammeln und Speichern persönlicher Daten geht. Sie müssen nämlich einen rechtmäßigen Grund dafür haben, etwa die ausdrückliche Zustimmung oder ein legitimes Interesse am Sammeln und Speichern der personenbezogenen Daten. Die GDPR verlangt zudem, dass nur so viele Daten verarbeitet werden, wie zur Erfüllung einer Aufgabe notwendig sind (Datensparsamkeit).Die meisten Betreiber von sozialen Netzwerken schließen außerdem Scraping in ihren Geschäftsbedingungen aus. Dass es wie im Fall von Facebook, LinkedIn und Clubhouse offenbar kaum weitere Kontrollinstanzen zu geben scheint, wirft ein schlechtes Licht auf ihre Sicherheitseinstellungen.Data Scraping – AbwehrmaßnahmenAuf Seiten des Website-Betreibers gibt es verschiedene Möglichkeiten, sich vor Scrapern zu schützen. Häufig eingesetzte Methoden sind etwa die Verwendung von Captcha-Abfragen oder einer robots.txt-Datei, um Web-Crawler den Zugang zu verwehren. Außerdem sind Web Application Firewalls meist in der Lage, verdächtige Aktivitäten eines Scrapers zu entdecken.Zudem sollte man es den automatisierten Datensammlern nicht zu einfach machen. Im Fall Clubhouse sieht es danach aus, dass bei der Erstellung von Benutzerprofilen in der SQL-Datenbank eine fortlaufende Nummerierung verwendet wurde. Die ermöglich Scrapern einen relativ einfachen Zugriff: Ein einfaches Skript, das den Profil-Links eine Nummer hinzufügt, genügt für massenhaftes Data Scraping.Und auf Anwenderseite? “Nutzer müssen sich darüber im Klaren sein, dass man bei jeder Information, die öffentlich im Weg zugänglich ist, auch Gefahr läuft, Opfer von Scrapern zu werden, egal ob Facebook, LinkedIn, Clubhouse oder sonstwo”, erklären auch die Sicherheitsexperten von Avast: Einmal veröffentlicht, könnten die Informationen eingesammelt werden und man hat keine Kontrolle darüber, wer die Daten kopiert und was damit in den Weiten des Internets angestellt wird.Die einzige Möglichkeit zu verhindern, dass öffentliche Informationen eingesammelt und auf nicht gewünschte Weise verwendet werden sei entsprechend, dass man sie nicht öffentlich macht. Auch Facebook empfiehlt allen Nutzern, ihre Datenschutzeinstellungen regelmäßig zu überprüfen, um sie fortlaufend an ihre aktuellen Präferenzen anzupassen. 

Was ist Scraping?​ Vorsicht Scraper: Einmal im Web veröffentlicht, können Informationen eingesammelt und missbraucht werden.
Foto: Shutterstock – hmorena

Mittlerweile ist es fast schon Gewohnheit, dass durch Hacks und Datenpannen bei Online-Diensten regelmäßig Millionen von Nutzerdaten in falsche Hände geraten. So tauchten etwa im April 2021 die Daten von mehr als 553 Millionen Facebook-Nutzern, 500 Millionen LinkedIn-Accounts und 1,3 Millionen Clubhouse-Nutzer im Web auf.

Eher ungewöhnlich ist jedoch, dass alle drei Betreiber der Dienste bestritten, Opfer eines Hacks geworden zu sein. Es habe sich vielmehr um Scraping gehandelt, hieß es, wobei Daten abgegriffen wurden, die von den Nutzern selbst veröffentlicht wurden und von anderen Mitgliedern oder zumindest ihren Kontakten einsehbar seien, wie vollständiger Namen, Telefonnummer etc. Doch was ist Scraping, wie funktioniert es und wie kann man sich davor schützen?

Scraping – Definition

Scraping als Kurzform von Screen Scraping oder Web Scraping ist eine Funktion, bei der eine Anwendung oder ein Script Informationen von einer Website oder einem Online-Dienst ausliest und speichert – also die Information vom Bildschirm “kratzt”. Bekannte Anwendungsfälle dieser Technik sind etwa Bots von Suchmaschinen wie Google, die kontinuierlich im Internet unterwegs sind, um Websites zu indizieren (Crawling). Aber auch Vergleichsportale nutzen die Methode, um Unmengen an Daten zu sammeln und dann auszuwerten.

In vielen Fällen ist eine derartige Praxis auch im Sinne der Website-Betreiber, da sie dank einer solchen Indexierung möglicherweise eine höhere Reichweite oder mehr Umsatz für ihre Produkte und Services erzielen. Die Technik kann allerdings auch missbräuchlich genutzt werden. Unternehmen sind etwa mittels Scraping in der Lage, die Webshops der Konkurrenz automatisch zu durchforsten.

Im Anschluss können sie dann beispielsweise ihre Preise so anpassen, dass sie immer etwas billiger ist (Preis-Grabbing). Oder sie übernehmen deren Produktbeschreibungen und -bilder (Content-Grabbing) beziehungsweise gleich die ganze Webshop-Konstruktion und sparen sich viel Zeit und Geld. Die auf Facebook eingesammelten Telefonnummern und E-Mail-Adressen werden außerdem in direktem Zusammenhang mit darauffolgenden “Smishing“- und Phishing-Wellen gebracht.

Web Scraping – FunktionsweiseDer Scraping-Prozess besteht im Großen und Ganzen aus zwei Teilen, nämlich dem Aufrufen der gewünschten Web-Seiten (statische und dynamisch erzeugte) und der anschließenden Extraktion der Daten. Es ist eine Vielzahl von Scraping-Tools verfügbar, allein auf Github finden sich zahlreiche Lösungen und Toolkits für die verschiedensten Einsatzgebiete.Im Fall des Facebook-Scraps, wo auch als privat gekennzeichnete Daten abgesaugt wurden, gehen die Betreiber von einer speziellen Methode aus, die sich eine Ende 2019 geschlossene Lücke in der Kontaktimport-Funktion der Plattform zunutze machte. Dieses Feature soll es Nutzern ermöglichen, Freunde und Bekannte auf Facebook zu identifizieren, indem sie ihr Telefonbuch hochladen. Laut Facebook nutzten die Angreifer diese Funktionalität im großen Stil, um ein Set an Benutzerprofilen abzufragen und dann Informationen über diese erhalten, die in ihren öffentlichen Profilen enthalten sind.Noch leistungsfähiger dank (generativer) KIMit dem Aufkommen von mehr und mehr GenAI-Tools und LLMs erreicht Scraping inzwischen ganz andere Dimensionen. Nicht genug damit, dass generative künstliche Intelligenz selbst jede Menge Trainingsdaten benötigt und sich Crawler von Google, OpenAI & Co. dazu fleißig auf Websites bedienen – sofern sie nicht ausgesperrt werden. LLMs sind auch in der Lage, ein breiteres Spektrum von Datensätzen sowie Websites zu erkunden und per Prompts gezielt spezielle Daten zu extrahieren, in Tabellen einzutragen und auszuwerten. Neben dem Erkennen von Text in Bildern via OCR ist mit GenAI auch die Beschreibung von Bildern in Textform kein Problem mehr. Scraping – legal oder illegal?Die Antwort lautet: Es kommt darauf an. Werden zum Scraping keine technischen Schutzvorrichtungen überwunden, ist die Handlung selbst nicht illegal – es werden schließlich nur Informationen eingesammelt, die ohnehin öffentlich zugänglich sind. Allerdings kann das, was Sie anschließend mit den Daten anstellen, nachdem diese “gescraped” wurden, illegal sein. Werden etwa Bilder, Artikel und Ähnliches abgegriffen und anderswo ohne Erlaubnis publiziert, handelt es sich klar um einen Verstoß gegen das Copyright. Dass die Nutzung der Datensätze zum Phishing und ähnlichen Aktivitäten nicht legal sind, dürfte ebenfalls klar sein.Noch eindeutiger ist das Urteil beim Scraping von persönlichen Daten. So haben DSGVO und andere Datenschutzgesetze klare Vorgaben, wenn es um das Sammeln und Speichern persönlicher Daten geht. Sie müssen nämlich einen rechtmäßigen Grund dafür haben, etwa die ausdrückliche Zustimmung oder ein legitimes Interesse am Sammeln und Speichern der personenbezogenen Daten. Die GDPR verlangt zudem, dass nur so viele Daten verarbeitet werden, wie zur Erfüllung einer Aufgabe notwendig sind (Datensparsamkeit).Die meisten Betreiber von sozialen Netzwerken schließen außerdem Scraping in ihren Geschäftsbedingungen aus. Dass es wie im Fall von Facebook, LinkedIn und Clubhouse offenbar kaum weitere Kontrollinstanzen zu geben scheint, wirft ein schlechtes Licht auf ihre Sicherheitseinstellungen.Data Scraping – AbwehrmaßnahmenAuf Seiten des Website-Betreibers gibt es verschiedene Möglichkeiten, sich vor Scrapern zu schützen. Häufig eingesetzte Methoden sind etwa die Verwendung von Captcha-Abfragen oder einer robots.txt-Datei, um Web-Crawler den Zugang zu verwehren. Außerdem sind Web Application Firewalls meist in der Lage, verdächtige Aktivitäten eines Scrapers zu entdecken.Zudem sollte man es den automatisierten Datensammlern nicht zu einfach machen. Im Fall Clubhouse sieht es danach aus, dass bei der Erstellung von Benutzerprofilen in der SQL-Datenbank eine fortlaufende Nummerierung verwendet wurde. Die ermöglich Scrapern einen relativ einfachen Zugriff: Ein einfaches Skript, das den Profil-Links eine Nummer hinzufügt, genügt für massenhaftes Data Scraping.Und auf Anwenderseite? “Nutzer müssen sich darüber im Klaren sein, dass man bei jeder Information, die öffentlich im Weg zugänglich ist, auch Gefahr läuft, Opfer von Scrapern zu werden, egal ob Facebook, LinkedIn, Clubhouse oder sonstwo”, erklären auch die Sicherheitsexperten von Avast: Einmal veröffentlicht, könnten die Informationen eingesammelt werden und man hat keine Kontrolle darüber, wer die Daten kopiert und was damit in den Weiten des Internets angestellt wird.Die einzige Möglichkeit zu verhindern, dass öffentliche Informationen eingesammelt und auf nicht gewünschte Weise verwendet werden sei entsprechend, dass man sie nicht öffentlich macht. Auch Facebook empfiehlt allen Nutzern, ihre Datenschutzeinstellungen regelmäßig zu überprüfen, um sie fortlaufend an ihre aktuellen Präferenzen anzupassen.

Was ist Scraping?​ Read More »

DXC Technology und ServiceNow starten „GenAI-Hub“​

DXC Technology und ServiceNow starten „GenAI-Hub“​

Allgemein

„Unternehmen wollen ihr Geschäft mit KI transformieren“ sagt Howard Boville, DXC Executive Vice President (EVP), Consulting und Engineering Services DXC Technology Unternehmen investieren global in KI, um schneller Gewinne zu erzielen. Das ist an sich nichts Neues, da Künstliche Intelligenz doch seit geraumer Zeit das Hype-Thema schlechthin ist. Modernisierung und Optimierung Jetzt haben DXC und ServiceNow ein „GenAI Center of Excellence“ gegründet. Dessen Ziel ist es, Kunden dabei zu unterstützen, ihre Systeme zu modernisieren und ihre Technologie-Performance zu optimieren. Die beiden Partner bündeln hierbei ihre Expertise, um Unternehmen dabei unter die Arme zu greifen, wenn sie KI für Geschäftstransformation und Produktivitätssteigerung verwenden wollen. Laut Howard Boville, EVP bei DXC, liegt der Fokus darauf, KI-Anwendungsfälle unter höchsten Standards für Datenschutz, Governance und Compliance umzusetzen. Erica Volini von ServiceNow betont zudem, dass das neue Center of Excellence die Branchenkompetenz von DXC mit den GenAI-Funktionen von „Now Assist“ kombiniert. Das soll KI breiter zugänglich machen und nachhaltige Geschäftserfolge fördern. Auch in Deutschland tut sich was Mit ihrem Vorhaben, ein GenAI-Hub aufzubauen, stehen die beiden Firmen nicht allein da. Auch SAP bietet bereits einen solchen integriert in seinen Cloud Service an und das Fraunhofer-Institut hat einen Innovation Hub zu dem Thema ins Leben gerufen. Zugleich spaltet die Technologie die Unternehmenswelt: Die Hälfte aller Unternehmen steht KI weiterhin skeptisch gegenüber, wie Deloitte noch im Oktober 2024 herausfand. 

DXC Technology und ServiceNow starten „GenAI-Hub“​ „Unternehmen wollen ihr Geschäft mit KI transformieren“ sagt Howard Boville, DXC Executive Vice President (EVP), Consulting und Engineering Services
DXC Technology

Unternehmen investieren global in KI, um schneller Gewinne zu erzielen. Das ist an sich nichts Neues, da Künstliche Intelligenz doch seit geraumer Zeit das Hype-Thema schlechthin ist.

Modernisierung und Optimierung

Jetzt haben DXC und ServiceNow ein „GenAI Center of Excellence“ gegründet. Dessen Ziel ist es, Kunden dabei zu unterstützen, ihre Systeme zu modernisieren und ihre Technologie-Performance zu optimieren. Die beiden Partner bündeln hierbei ihre Expertise, um Unternehmen dabei unter die Arme zu greifen, wenn sie KI für Geschäftstransformation und Produktivitätssteigerung verwenden wollen.

Laut Howard Boville, EVP bei DXC, liegt der Fokus darauf, KI-Anwendungsfälle unter höchsten Standards für Datenschutz, Governance und Compliance umzusetzen.

Erica Volini von ServiceNow betont zudem, dass das neue Center of Excellence die Branchenkompetenz von DXC mit den GenAI-Funktionen von „Now Assist“ kombiniert. Das soll KI breiter zugänglich machen und nachhaltige Geschäftserfolge fördern.

Auch in Deutschland tut sich was

Mit ihrem Vorhaben, ein GenAI-Hub aufzubauen, stehen die beiden Firmen nicht allein da. Auch SAP bietet bereits einen solchen integriert in seinen Cloud Service an und das Fraunhofer-Institut hat einen Innovation Hub zu dem Thema ins Leben gerufen.

Zugleich spaltet die Technologie die Unternehmenswelt: Die Hälfte aller Unternehmen steht KI weiterhin skeptisch gegenüber, wie Deloitte noch im Oktober 2024 herausfand.

DXC Technology und ServiceNow starten „GenAI-Hub“​ Read More »

So sieht Mercedes die Autozukunft​

So sieht Mercedes die Autozukunft​

Allgemein

Die Zukunft des Autos in den Smart Cities von morgen. Mercedes-Benz Die deutschen Autobauer gelten im Urteil vieler Kritiker als hoffnungslos rückständig. Auch angesichts sinkender Umsätze und wenig erfolgreicher Elektromodelle. Sie hätten die Zeichen der Zeit schlicht nicht erkannt, so ein oft geäußerter Vorwurf. Dem will jetzt Mercedes-Benz entgegenwirken und gewährt dazu Einblicke in seine Forschungsaktivitäten. Mit digitaler Technik wie Augmented Reality (AR) und Mixed Reality (MR) sowie Neuromorphic Computing wollen die Stuttgarter in Zukunft das Zeitalter des hyperpersonalisierten Fahrens einläuten. Hyperpersonalisierte Autos Doch um was geht es bei diesem Buzzword konkret? In der Vision der Schwaben sollen künftige Modelle ihren Besitzern ein ganzheitliches und nahtloses digitales Erlebnis bieten, das ihr Leben einfacher und komfortabler gestaltet. So soll das Auto der Zukunft die Gewohnheiten, Gemütszustände und Bedürfnisse der User erkennen. Mercedes will AR-Brillen im Auto integrieren. Mercedes-Benz Wie das konkret aussehen könnte, verdeutlicht der Autobauer an einem Beispiel: Die Autobesitzer trinkt morgens nach dem Aufstehen einen Kaffee und bereitet sich mit einem Mixed-Reality-Headset auf den Arbeitstag vor. Dazu gehört unter anderem ein Blick auf die Termine im Kalender. Zum richtigen Zeitpunkt fährt dann das Fahrzeug autonom aus der Garage. Der Innenraum ist dabei bereits exakt den aktuellen Bedürfnissen wie Temperatur, Radiosender oder Lautstärke entsprechend konfiguriert. Nach dem Einsteigen schlägt ein KI-gesteuerter Assistent die vorgeschlagene Route ins Büro vor. Da unser Beispiel-User seinen Kaffee bereits zu Hause getrunken hat, führt die Route nicht über den sonst so beliebten Drive-Through-Coffeeshop. Virtuell Navigieren per AR Durch eine AR-Brille sieht der Fahrer die Navigation als virtuelle Anzeige in der Außenwelt – genau an den Stellen, wo sich wichtige Weg- und Abbiegepunkte befinden. Möchte die Person am Steuer sich lieber anderen Aktivitäten widmen, schaltet sie einfach in den autonomen Fahrmodus. Das Fahrzeug macht dann Vorschläge für erweiterte Aufgaben und Erlebnisse entsprechend den bekannten, individuellen Präferenzen. Dazu gehört etwa, eine entspannte Sitzhaltung einzunehmen oder Aufgaben, fortzuführen die zu Hause begonnen und noch nicht fertiggestellt wurden. Die AR-Brille zeigt den Weg. Mercedes-Benz Langfristig will das Unternehmen seinen Kunden mit AR-Brillen ein neuartiges Benutzererlebnis bieten. Dabei verfolgt der Konzern den Ansatz „Bring Your Own Device” (BYOD). Sprich, der Benutzer bringt seine eigene AR-Brille mit, die individuell auf Sehstärke und persönliches Umfeld angepasst ist. Darüber hinaus könnte die Verknüpfung mit der fahrzeugseitigen Sensorik und Aktorik neue Möglichkeiten eröffnen, um Entertainment-, Wellness- und Komforterlebnisse auf ein immersiveres Niveau zu heben.  Mixed Reality Ein weiteres Anwendungsgebiet sieht Mercedes-Benz in immersiveren Markenerlebnissen für potenzielle Käufer. Mit Hilfe von MR-Brillen (Mixed Reality) könnten diese in Echtzeit virtuelle Fahrzeugmodelle interaktiv erleben und individuell anpassen. Das könnte das physische Kundenerlebnis im Retail ergänzen. Derzeit nutzt der Autobauer hierzu Echtzeit-Game-Engines in Verbindung mit der Apple Vision Pro. Fahrzeuge per Mixed Reality konfigurieren. Mercedes-Benz Dabei beschränken sich die Ideen des Autobauers nicht nur auf den Verkauf. Mittels MR will man auch die Collaboration der eigenen Mitarbeiter verbessern. Diese könnten mit Hilfe der Technologie künftig über Ländergrenzen und Zeitzonen hinweg simultan an virtuellen Fahrzeugen arbeiten. So ließen sich in Zukunft mit Blick durch die MR-Brille verschiedene Fahrzeugtypen mit realen Fahrzeugabmessungen schnell und kostengünstig miteinander vergleichen. Auch neue Ideen könnten schneller erlebbar dargestellt und virtuell erprobt werden. Neuromorphic Computing Auch in Sachen KI will der Autobauer neue Weg einschlagen, um – gerade bei elektrischen Fahrzeugen wichtig – Energie einzusparen. Um dies zu realisieren, setzen die Stuttgarter auf neuronale Netze, sprich Neuromorphic Computing. Hierzu hat das Unternehmen unlängst eine Forschungskooperation mit der kanadischen University of Waterloo angekündigt. Mit Neuromorphic Computing soll das autonome Fahren der Zukunft energieeffizienter werden. Mercedes-Benz Neuromorphic Computing ahmt die Funktionsweise des menschlichen Gehirns nach. Dadurch könnten KI-Berechnungen deutlich energieeffizienter und schneller erfolgen. In der Praxis, so der Autobauer, wäre ein solches Fahrzeug in der Lage, Verkehrsschilder, Fahrspuren und andere Verkehrsteilnehmer auch bei schlechter Sicht viel besser zu erkennen und schneller darauf zu reagieren. Dabei wäre es zehnmal effizienter als aktuelle Systeme, so die Stuttgarter. Gleichzeitig habe Neuromorphic Computing das Potenzial, den Energiebedarf für die Datenverarbeitung beim autonomen Fahren im Vergleich zu heutigen Systemen um 90 Prozent zu senken. Neuromorphic-Systeme sind zehnmal effizienter als heutige KI-Lösungen. Mercedes-Benz Intelligente Autos für die Smart Cities der Zukunft In Sachen Digitalisierung arbeitet der Autobauer nicht nur an seinen eigenen Produkten, sondern entwickelt auch eine Vision für die Smart Cities der Zukunft. Klares Ziel dabei: Der heute von interessierter Seite so stark kritisierte Individualverkehr soll auch in Zukunft seinen Platz und seine Berechtigung haben. Dazu haben die Stuttgarter unter dem Label “2040+” drei Szenarien für Los Angeles, London und Shenzhen entwickelt. Wir beschränken uns an dieser Stelle auf das Beispiel Shenzhen, da die südchinesische Metropole in Sachen digitaler Transformation zu einer der führenden Städte zählt. So könnte dort ab 2040 das Verkehrsmanagement mit Hilfe künstlicher Intelligenz, Vernetzung und digitaler Infrastruktur erfolgen. Auf separaten Konvoi-Spuren wären dann viele automatisierte Fahrzeuge unterwegs, vernetzt über eine integrierte „Vehicle-Road-Cloud“. Aufgrund der dichten Bebauung wären verschiedene vertikale Verkehrsebenen vorstellbar. Zukunftsvision für Shenzhen. Mercedes-Benz Dabei könnte Vehicle-2-X-Kommunikation (V2X) zum Standard werden, während die Logistik automatisiert mit Robotern und Drohnen funktionieren. In der Vision für Shenzhen haben alle Fahrzeuge einen elektrischen oder elektrifizierten Antrieb und erzeugen über Solarmodule einen Teil ihres eigenen Stroms. Radfahrer haben separate Fahrspuren und Fußgänger klar gekennzeichnete Wege. Der Warentransport und die Personenbeförderung in umliegende Städte könnte mit Hochgeschwindigkeitszügen und VTOLs (Vertical Take Off and Landing) erfolgen. Für gute Luftqualität und eine geringe Aufheizung im Sommer sorgen zahlreiche Parks und eine grüne Infrastruktur. Wie die Vision von Mercedes-Benz für Los Angeles und London aussieht, erkunden Sie hier. 

So sieht Mercedes die Autozukunft​ Die Zukunft des Autos in den Smart Cities von morgen.
Mercedes-Benz

Die deutschen Autobauer gelten im Urteil vieler Kritiker als hoffnungslos rückständig. Auch angesichts sinkender Umsätze und wenig erfolgreicher Elektromodelle. Sie hätten die Zeichen der Zeit schlicht nicht erkannt, so ein oft geäußerter Vorwurf.

Dem will jetzt Mercedes-Benz entgegenwirken und gewährt dazu Einblicke in seine Forschungsaktivitäten. Mit digitaler Technik wie Augmented Reality (AR) und Mixed Reality (MR) sowie Neuromorphic Computing wollen die Stuttgarter in Zukunft das Zeitalter des hyperpersonalisierten Fahrens einläuten.

Hyperpersonalisierte Autos

Doch um was geht es bei diesem Buzzword konkret? In der Vision der Schwaben sollen künftige Modelle ihren Besitzern ein ganzheitliches und nahtloses digitales Erlebnis bieten, das ihr Leben einfacher und komfortabler gestaltet. So soll das Auto der Zukunft die Gewohnheiten, Gemütszustände und Bedürfnisse der User erkennen.

Mercedes will AR-Brillen im Auto integrieren.
Mercedes-Benz

Wie das konkret aussehen könnte, verdeutlicht der Autobauer an einem Beispiel: Die Autobesitzer trinkt morgens nach dem Aufstehen einen Kaffee und bereitet sich mit einem Mixed-Reality-Headset auf den Arbeitstag vor. Dazu gehört unter anderem ein Blick auf die Termine im Kalender.

Zum richtigen Zeitpunkt fährt dann das Fahrzeug autonom aus der Garage. Der Innenraum ist dabei bereits exakt den aktuellen Bedürfnissen wie Temperatur, Radiosender oder Lautstärke entsprechend konfiguriert.

Nach dem Einsteigen schlägt ein KI-gesteuerter Assistent die vorgeschlagene Route ins Büro vor. Da unser Beispiel-User seinen Kaffee bereits zu Hause getrunken hat, führt die Route nicht über den sonst so beliebten Drive-Through-Coffeeshop.

Virtuell Navigieren per AR

Durch eine AR-Brille sieht der Fahrer die Navigation als virtuelle Anzeige in der Außenwelt – genau an den Stellen, wo sich wichtige Weg- und Abbiegepunkte befinden. Möchte die Person am Steuer sich lieber anderen Aktivitäten widmen, schaltet sie einfach in den autonomen Fahrmodus.

Das Fahrzeug macht dann Vorschläge für erweiterte Aufgaben und Erlebnisse entsprechend den bekannten, individuellen Präferenzen. Dazu gehört etwa, eine entspannte Sitzhaltung einzunehmen oder Aufgaben, fortzuführen die zu Hause begonnen und noch nicht fertiggestellt wurden.

Die AR-Brille zeigt den Weg.
Mercedes-Benz

Langfristig will das Unternehmen seinen Kunden mit AR-Brillen ein neuartiges Benutzererlebnis bieten. Dabei verfolgt der Konzern den Ansatz „Bring Your Own Device” (BYOD). Sprich, der Benutzer bringt seine eigene AR-Brille mit, die individuell auf Sehstärke und persönliches Umfeld angepasst ist. Darüber hinaus könnte die Verknüpfung mit der fahrzeugseitigen Sensorik und Aktorik neue Möglichkeiten eröffnen, um Entertainment-, Wellness- und Komforterlebnisse auf ein immersiveres Niveau zu heben. 

Mixed Reality

Ein weiteres Anwendungsgebiet sieht Mercedes-Benz in immersiveren Markenerlebnissen für potenzielle Käufer. Mit Hilfe von MR-Brillen (Mixed Reality) könnten diese in Echtzeit virtuelle Fahrzeugmodelle interaktiv erleben und individuell anpassen. Das könnte das physische Kundenerlebnis im Retail ergänzen. Derzeit nutzt der Autobauer hierzu Echtzeit-Game-Engines in Verbindung mit der Apple Vision Pro.

Fahrzeuge per Mixed Reality konfigurieren.
Mercedes-Benz

Dabei beschränken sich die Ideen des Autobauers nicht nur auf den Verkauf. Mittels MR will man auch die Collaboration der eigenen Mitarbeiter verbessern. Diese könnten mit Hilfe der Technologie künftig über Ländergrenzen und Zeitzonen hinweg simultan an virtuellen Fahrzeugen arbeiten.

So ließen sich in Zukunft mit Blick durch die MR-Brille verschiedene Fahrzeugtypen mit realen Fahrzeugabmessungen schnell und kostengünstig miteinander vergleichen. Auch neue Ideen könnten schneller erlebbar dargestellt und virtuell erprobt werden.

Neuromorphic Computing

Auch in Sachen KI will der Autobauer neue Weg einschlagen, um – gerade bei elektrischen Fahrzeugen wichtig – Energie einzusparen. Um dies zu realisieren, setzen die Stuttgarter auf neuronale Netze, sprich Neuromorphic Computing. Hierzu hat das Unternehmen unlängst eine Forschungskooperation mit der kanadischen University of Waterloo angekündigt.

Mit Neuromorphic Computing soll das autonome Fahren der Zukunft energieeffizienter werden.
Mercedes-Benz

Neuromorphic Computing ahmt die Funktionsweise des menschlichen Gehirns nach. Dadurch könnten KI-Berechnungen deutlich energieeffizienter und schneller erfolgen.

In der Praxis, so der Autobauer, wäre ein solches Fahrzeug in der Lage, Verkehrsschilder, Fahrspuren und andere Verkehrsteilnehmer auch bei schlechter Sicht viel besser zu erkennen und schneller darauf zu reagieren. Dabei wäre es zehnmal effizienter als aktuelle Systeme, so die Stuttgarter. Gleichzeitig habe Neuromorphic Computing das Potenzial, den Energiebedarf für die Datenverarbeitung beim autonomen Fahren im Vergleich zu heutigen Systemen um 90 Prozent zu senken.

Neuromorphic-Systeme sind zehnmal effizienter als heutige KI-Lösungen.
Mercedes-Benz

Intelligente Autos für die Smart Cities der Zukunft

In Sachen Digitalisierung arbeitet der Autobauer nicht nur an seinen eigenen Produkten, sondern entwickelt auch eine Vision für die Smart Cities der Zukunft. Klares Ziel dabei: Der heute von interessierter Seite so stark kritisierte Individualverkehr soll auch in Zukunft seinen Platz und seine Berechtigung haben.

Dazu haben die Stuttgarter unter dem Label “2040+” drei Szenarien für Los Angeles, London und Shenzhen entwickelt. Wir beschränken uns an dieser Stelle auf das Beispiel Shenzhen, da die südchinesische Metropole in Sachen digitaler Transformation zu einer der führenden Städte zählt.

So könnte dort ab 2040 das Verkehrsmanagement mit Hilfe künstlicher Intelligenz, Vernetzung und digitaler Infrastruktur erfolgen. Auf separaten Konvoi-Spuren wären dann viele automatisierte Fahrzeuge unterwegs, vernetzt über eine integrierte „Vehicle-Road-Cloud“. Aufgrund der dichten Bebauung wären verschiedene vertikale Verkehrsebenen vorstellbar.

Zukunftsvision für Shenzhen.
Mercedes-Benz

Dabei könnte Vehicle-2-X-Kommunikation (V2X) zum Standard werden, während die Logistik automatisiert mit Robotern und Drohnen funktionieren. In der Vision für Shenzhen haben alle Fahrzeuge einen elektrischen oder elektrifizierten Antrieb und erzeugen über Solarmodule einen Teil ihres eigenen Stroms.

Radfahrer haben separate Fahrspuren und Fußgänger klar gekennzeichnete Wege. Der Warentransport und die Personenbeförderung in umliegende Städte könnte mit Hochgeschwindigkeitszügen und VTOLs (Vertical Take Off and Landing) erfolgen. Für gute Luftqualität und eine geringe Aufheizung im Sommer sorgen zahlreiche Parks und eine grüne Infrastruktur.

Wie die Vision von Mercedes-Benz für Los Angeles und London aussieht, erkunden Sie hier.

So sieht Mercedes die Autozukunft​ Read More »

JavaScript-Trademark – der Druck auf Oracle wächst​

JavaScript-Trademark – der Druck auf Oracle wächst​

Allgemein

width=”6016″ height=”3384″ sizes=”(max-width: 6016px) 100vw, 6016px”>Bigc Studio – shutterstock.com Die Entwickler der Deno-Laufzeitumgebung haben beim US-Patentamt (USPTO) einen Antrag eingereicht, der zum Ziel hat, Oracle die Rechte für das JavaScript-Trademark zu entziehen. Die Argumentation dahinter: Oracle habe das Warenzeichen längst aufgegeben, schließlich habe der Konzern seit dem Erwerb der Marke im Jahr 2009 (im Zuge der Übernahme von Sun Microsystems) keine JavaScript-Produkte oder -Services mehr angeboten. Vorausgegangen war dem Antrag, der Ende November 2024 eingereicht wurde, ein offener Brief mit dem Titel “Oracle, it’s time to free JavaScript”. Dieser wurde von insgesamt 14.000 Mitgliedern der JavaScript-Community unterzeichnet – darunter auch prominente Vertreter wie Node.js- und Deno-Erfinder Ryan Dahl und JavaScript-Urvater Brendan Eich.   “JavaScript gehört der Allgemeinheit” „Unser Ziel ist es, Oracle dazu zu bewegen, einzulenken und das Trademark widerspruchslos aufzugeben“, schreibt Dahl in einem ausführlichen Blogbeitrag und fügt hinzu: „Sollten sie sich dafür entscheiden zu kämpfen, sind wir bestens darauf vorbereitet nachzuweisen, dass ‚JavaScript‘ ein allgemeiner Begriff ist, der von Entwicklern und Organisationen weltweit verwendet wird – ohne einen Bezug zu Oracle.“ Dass das JavaScript-Warenzeichen im Besitz von Oracle ist, habe „für Verwirrung und unnötige Hindernisse“ gesorgt, so Dahl weiter. Unter anderem seien Organisationen für die Verwendung des Begriffs ‚JavaScript‘ abgemahnt worden. Der Antrag beim US-Patentamt sei laut dem Manager ein „entscheidender Schritt, um JavaScript von rechtlichen Verstrickungen zu befreien“.   Allerdings wird Oracle im Rahmen des Antrags auch vorgeworfen, sein JavaScript-Trademark im Jahr 2019 mit betrügerischen Methoden verlängert zu haben – indem es dazu Screenshots der Node.js-Webseite eingereicht habe. Node.js stehe nicht mit Oracle in Verbindung, insofern bilde seine Webseite auch keine Verwendung der JavaScript-Markenrechte durch Oracle ab, heißt es in dem USPTO-Antrag. Die Initiatoren resümieren: „Der Begriff ‘JavaScript‘ gehört der Allgemeinheit, nicht einem einzelnen Unternehmen. Dass Oracle die Rechte an der Marke besitzt, sorgt für Verwirrung am Markt, behindert zielgerichtetes Marketing und erschwert die Zusammenarbeit innerhalb der JavaScript-Community.“ Oracle hat nun bis zum 4. Januar 2025 Zeit, um auf den Antrag zu reagieren. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

JavaScript-Trademark – der Druck auf Oracle wächst​ width=”6016″ height=”3384″ sizes=”(max-width: 6016px) 100vw, 6016px”>Bigc Studio – shutterstock.com

Die Entwickler der Deno-Laufzeitumgebung haben beim US-Patentamt (USPTO) einen Antrag eingereicht, der zum Ziel hat, Oracle die Rechte für das JavaScript-Trademark zu entziehen. Die Argumentation dahinter: Oracle habe das Warenzeichen längst aufgegeben, schließlich habe der Konzern seit dem Erwerb der Marke im Jahr 2009 (im Zuge der Übernahme von Sun Microsystems) keine JavaScript-Produkte oder -Services mehr angeboten.

Vorausgegangen war dem Antrag, der Ende November 2024 eingereicht wurde, ein offener Brief mit dem Titel “Oracle, it’s time to free JavaScript”. Dieser wurde von insgesamt 14.000 Mitgliedern der JavaScript-Community unterzeichnet – darunter auch prominente Vertreter wie Node.js- und Deno-Erfinder Ryan Dahl und JavaScript-Urvater Brendan Eich.  

“JavaScript gehört der Allgemeinheit”

„Unser Ziel ist es, Oracle dazu zu bewegen, einzulenken und das Trademark widerspruchslos aufzugeben“, schreibt Dahl in einem ausführlichen Blogbeitrag und fügt hinzu: „Sollten sie sich dafür entscheiden zu kämpfen, sind wir bestens darauf vorbereitet nachzuweisen, dass ‚JavaScript‘ ein allgemeiner Begriff ist, der von Entwicklern und Organisationen weltweit verwendet wird – ohne einen Bezug zu Oracle.“

Dass das JavaScript-Warenzeichen im Besitz von Oracle ist, habe „für Verwirrung und unnötige Hindernisse“ gesorgt, so Dahl weiter. Unter anderem seien Organisationen für die Verwendung des Begriffs ‚JavaScript‘ abgemahnt worden. Der Antrag beim US-Patentamt sei laut dem Manager ein „entscheidender Schritt, um JavaScript von rechtlichen Verstrickungen zu befreien“.  

Allerdings wird Oracle im Rahmen des Antrags auch vorgeworfen, sein JavaScript-Trademark im Jahr 2019 mit betrügerischen Methoden verlängert zu haben – indem es dazu Screenshots der Node.js-Webseite eingereicht habe. Node.js stehe nicht mit Oracle in Verbindung, insofern bilde seine Webseite auch keine Verwendung der JavaScript-Markenrechte durch Oracle ab, heißt es in dem USPTO-Antrag.

Die Initiatoren resümieren: „Der Begriff ‘JavaScript‘ gehört der Allgemeinheit, nicht einem einzelnen Unternehmen. Dass Oracle die Rechte an der Marke besitzt, sorgt für Verwirrung am Markt, behindert zielgerichtetes Marketing und erschwert die Zusammenarbeit innerhalb der JavaScript-Community.“

Oracle hat nun bis zum 4. Januar 2025 Zeit, um auf den Antrag zu reagieren. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

JavaScript-Trademark – der Druck auf Oracle wächst​ Read More »

Fugatto – Nvidias neue KI-Messlatte?​

Fugatto – Nvidias neue KI-Messlatte?​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?quality=50&strip=all 1505w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=300%2C159&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=768%2C408&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=1024%2C544&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=1240%2C659&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=150%2C80&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=854%2C454&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=640%2C340&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=444%2C236&quality=50&strip=all 444w” width=”1024″ height=”544″ sizes=”(max-width: 1024px) 100vw, 1024px”>Fugatto transformiert potenziell auch Katzengejammer in Audio-Genüsse. NVIDIA KI-Krösus Nvidia hat mit dem “Foundational Generative Audio Transformer Opus 1” – kurz Fugatto – ein neues KI-Modell vorgestellt. Dieses soll in der Lage sein, mit seinen rund 2,5 Milliarden Parametern jede Art von Geräusch, Stimme oder Musik aus Text- und Audio-Prompts zu erzeugen. KI-Entertainment Das ermöglicht laut Nvidia beispielsweise: Musik-Snippets aus einfachem Text zu erstellen, bestimmte Instrumente aus Songs zu entfernen, oder den Akzent und die Emotion von Stimmen zu verändern. Trainiert wurde Nvidias Fugatto mit Open-Source-Daten. Ein konkreter Veröffentlichungstermin ist bislang nicht bekannt. In der Zukunft soll das KI-Modell – wenn es nach Nvidia geht – vor allem im Rahmen von Musik-, Film- und Games-Produktionen zum Einsatz kommen. Das nachfolgende Youtube-Video zeigt, was Nvidias neuester GenAI-Streich zu bieten hat: (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Fugatto – Nvidias neue KI-Messlatte?​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?quality=50&strip=all 1505w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=300%2C159&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=768%2C408&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=1024%2C544&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=1240%2C659&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=150%2C80&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=854%2C454&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=640%2C340&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=444%2C236&quality=50&strip=all 444w” width=”1024″ height=”544″ sizes=”(max-width: 1024px) 100vw, 1024px”>Fugatto transformiert potenziell auch Katzengejammer in Audio-Genüsse. NVIDIA

KI-Krösus Nvidia hat mit dem “Foundational Generative Audio Transformer Opus 1” – kurz Fugatto – ein neues KI-Modell vorgestellt. Dieses soll in der Lage sein, mit seinen rund 2,5 Milliarden Parametern jede Art von Geräusch, Stimme oder Musik aus Text- und Audio-Prompts zu erzeugen.

KI-Entertainment

Das ermöglicht laut Nvidia beispielsweise:

Musik-Snippets aus einfachem Text zu erstellen,

bestimmte Instrumente aus Songs zu entfernen, oder

den Akzent und die Emotion von Stimmen zu verändern.

Trainiert wurde Nvidias Fugatto mit Open-Source-Daten. Ein konkreter Veröffentlichungstermin ist bislang nicht bekannt. In der Zukunft soll das KI-Modell – wenn es nach Nvidia geht – vor allem im Rahmen von Musik-, Film- und Games-Produktionen zum Einsatz kommen.

Das nachfolgende Youtube-Video zeigt, was Nvidias neuester GenAI-Streich zu bieten hat:

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Fugatto – Nvidias neue KI-Messlatte?​ Read More »

Nach oben scrollen