Computerhaus Quickborn

November 2024

Dell Inspiron 14 Plus (2024) im Test: Nicht perfekt, aber starke Leistung zu dem Preis​

Allgemein

IDG / Mark Knapp Auf einen Blick Pro Starke Leistung trotz Drosselung Außergewöhnliche Akkulaufzeit Eine unverschämt gute Tastatur Überzeugendes Gesamtkonzept Kontra Fragwürdige Belüftung Drosselung bei anhaltender Belastung Keine Aufrüstung durch Nutzer möglich Fazit Das Dell Inspiron 14 Plus ist wahrlich nicht perfekt, und einige Ausstattungsmerkmale sind sogar ein wenig fragwürdig. Auf der anderen Seite können wir die Gesamtleistung nicht ignorieren, vor allem nicht zu dem Preis, den Dell für das Notebook aufruft.In jedem Bereich, in dem das Dell Inspiron 14 Plus offensichtliche Defizite aufweist, macht es diese auf andere Weise mehr als wett. In Anbetracht dieser Tatsache gibt es kaum einen Grund, der gegen einen Kauf des Notebooks spricht.Eine riesige Auswahl an empfehlenswerten Laptops liefert unser großer Vergleich: Die besten Laptops 2024 im Test. Es gibt einen Trend, die Notebooks der Mittelklasse aufzupeppen. HP, Acer und Asus haben es getan, und mit dem Inspiron 14 Plus 7440 zeigt auch Dell, dass es ein Händchen dafür hat. Während der Name Inspiron noch an triste Plastikmaschinen denken lässt, löst sich die neueste Version auf die richtige Art und Weise von ihren Wurzeln. Ein Hauch von Metall hier, ein bunteres Display dort und eine unerwartet starke Leistung und Akkulaufzeit – und das alles zu einem Preis von rund 1.000 Euro. Und wenn man etwas tiefer gräbt, wird klar, dass Dell damit Erfolg hat. Design & Verarbeitung Abgesehen von der Kunststoffunterseite besteht das Gehäuse des Dell Inspiron 14 Plus aus Aluminium, das sich wie polierter Stein anfühlt. Es weist eine geringe Reibung auf und hat geglättete Ecken und Kanten. Zwar wirken einige Designelemente etwas zusammengewürfelt, aber insgesamt bietet das Dell Inspiron 14 Plus etwas, was früheren Inspiron-Modellen fehlte. Diese Designoptimierungen sind wohl auch der Grund für das Plus im Namen, wobei die inneren Werte sicherlich auch eine Rolle spielen. IDG / Mark Knapp Für ein kompaktes Arbeitsgerät ist das Dell Inspiron 14 Plus sehr gut gekühlt. Zwar bin ich es gewohnt, bei solchen Geräten eine anständige Seitenbelüftung zu sehen. Allerdings war ich überrascht, noch mehr Lüftungsöffnungen auf der Rückseite zu finden. Sogar hinter den Displayscharnieren scheinen sich Lüftungsöffnungen zu verbergen. Bei näherem Hinsehen stellt sich jedoch heraus, dass es sich bei den meisten dieser Lüftungsöffnungen nur um punkiges Plastikgitter handelt, das wie Lüftungsöffnungen aussehen soll. Während das Dell Inspiron 14 Plus auf den ersten Blick eine bessere Kühlung zu bieten scheint als das Dell XPS 16 mit derselben CPU, scheint das Gegenteil der Fall zu sein. Der Rahmen ist um die Tastatur herum und in der Mitte des Displaydeckels etwas weich, fühlt sich aber steif genug an, um eine gewisse Beanspruchung auszuhalten. Die Tastatur gibt beim Tippen kaum nach. Dell ist es nicht gelungen, das Inspiron 14 Plus superschlank zu gestalten. Für ein Standard-Notebook ist es mit 1,6 Kilogramm recht schwer. Mit seinen Abmessungen von 314 × 226 × 15,9 bis 18,9 Millimeter (B × T × H) ist es aber noch einigermaßen tragbar. Tastatur & Trackpad Die Tastatur ist recht einfach gehalten. Die Tastenkappen sind einfach grau mit wenig oder gar keiner Kontur. Sie sind ein wenig knackig und glücklicherweise steifer als einige billigere Laptoptastaturen, so dass sie an den Ecken nicht so stark nachgeben. Das Ergebnis ist eine überraschend schnelle Tastatur. Innerhalb weniger Minuten hatte ich mich mit der Tastatur des Dell Inspiron 14 Plus so gut angefreundet, dass ich in Monkeytype mit einer Geschwindigkeit von 129 Wörtern pro Minute und einer Genauigkeit von 100 Prozent tippen konnte − eine persönliche Bestleistung. IDG / Mark Knapp Ein großer Teil dieser Tippleistung ist nicht nur auf die Tastatur zurückzuführen, die sich sehr gut anfühlt, sondern auch auf die komfortable Oberfläche des Laptops. Da ich mich nicht über eine große Fläche strecken muss oder mir eine scharfe Kante in die Handgelenke drückt, kann ich meine Handflächen bequem auflegen und präzise tippen. Das macht die fehlende Konturierung der Tasten wieder wett. Schade ist, dass es für die winzigen Pfeiltasten des Dell Inspiron 14 Plus keinen Ausgleich gibt. Die Tastatur ist mit einer einfachen weißen Hintergrundbeleuchtung ausgestattet, die in zwei Helligkeitsstufen zur Verfügung steht und ausreicht, um damit zu arbeiten. Das Trackpad hat bescheidene Proportionen. Es besteht aus Mylar, das leicht gleitet und sich gut an die Textur des Rahmens anpasst. Es hat einen etwas festen Klick, der sich weder übermäßig anfällig für Fehlklicks noch in irgendeiner Weise schwammig anfühlt. Mit Tastatur und Trackpad bietet das Dell Inspiron 14 Plus eine insgesamt gute Benutzeroberfläche, die kaum Wünsche offen lässt. Display & Audio Einer der vielleicht beeindruckendsten Aspekte des Dell Inspiron 14 Plus ist der insgesamt respektable Bildschirm. Die Auflösung von 2.240 × 1.400 Pixeln ist zwar etwas ungewöhnlich, aber das 14-Zoll-Display bietet eine solide Schärfe. Dank einer Spitzenhelligkeit von 418 nits und einer wirksamen Anti-Glare-Beschichtung ist das Display auch bei ungünstigen Lichtverhältnissen bemerkenswert gut ablesbar. IDG / Mark Knapp Dell hat den sRGB-Farbraum zu fast 100 Prozent abgedeckt, was zwar nicht ganz so lebhaft ist wie eine vollständige DCI-P3-Abdeckung, aber immer noch eine lebhafte Darstellung im Vergleich zu vielen einfachen Panels, die für billige Laptops erhältlich sind. Ich habe auch eine hohe Farbgenauigkeit gemessen, mit einem durchschnittlichen dE von 0,81 ohne jegliche Kalibrierung. Das Kontrastverhältnis liegt bei 1.680:1, was mehr ist, als ich von einem einfachen LED-Panel erwartet hätte. Die Pixelreaktion ist etwas langsam, was zu Geisterbildern bei bewegten Objekten führt, aber dies ist kein Gamer-Notebook. Der Bildschirm eignet sich hervorragend für Büroarbeiten und statische Bilder. Das Audioerlebnis ist ähnlich wie das Display: Die Lautsprecher liefern eine beeindruckende Lautstärke ohne gelegentliche, unbedeutende Verzerrungen. Bei maximaler Lautstärke können sie etwas knarzen, vor allem wenn man in der Nähe sitzt, aber sie sind knackig und klar. Abgesehen davon ist der Bass ein typischer Schwachpunkt bei Geräten dieser Art, und man kann nicht leugnen, dass er etwas fehlt. Zum Glück ist er nicht ganz verschwunden. Ob bei “Fugue State” von Vulpeck oder “My Trigger” von Miike Snow, der Bass ist deutlich vorhanden, aber er ist dünn und ein Teil der Energie wird von den höheren Registern absorbiert. Außerdem neigt der Bass zu Verzerrungen. IDG / Mark Knapp Webcam, Mikrofon, Biometrie Die Webcam des Dell Inspiron 14 Plus sieht recht gut aus und liefert recht flüssige, aber nicht besonders scharfe Videos. Selbst mit einem 1080p-Sensor ist die Schärfe nicht beeindruckend. Die Qualität wird eher durch die Helligkeitsregelung beeinträchtigt. Es neigt dazu, entweder zu hell oder zu dunkel zu sein. Allerdings gibt es auf dem Markt wesentlich schlechtere Webcams. Die Mikrofone nehmen meine Stimme gut auf, auch wenn es viele Hintergrundgeräusche gibt, wie z.B. das Surren eines Ventilators. Wenn ich jedoch während der Aufnahme auf meinem Laptop tippe, wird die Geräuschunterdrückung unterbrochen. Während die Webcam keine Gesichtserkennung bietet, befindet sich oben rechts auf der Tastatur ein Fingerabdruckscanner. Dieser bietet eine bequeme Möglichkeit, sich anzumelden, auch wenn die Registrierung des Fingerabdrucks regelmäßig mehrere Versuche erfordert. Konnektivität Das Dell Inspiron 14 Plus ist zwar klein, geizt aber nicht mit Anschlüssen. Auf der rechten Seite befinden sich eine 3,5-mm-Kopfhörerbuchse, ein MicroSD-Kartenleser und ein USB-A-Anschluss mit 5 Gbit/s. Ein Großteil dieser Kante wird von Lüftungsöffnungen eingenommen, daher ist es schön zu sehen, dass Dell noch einige Anschlüsse anbietet. Die linke Seite hat mit einem weiteren USB-A-Anschluss mit 5 Gbit/s, einem Thunderbolt- 4-Anschluss, einem DC-Ladeanschluss und einem HDMI-Port in voller Größe noch mehr zu bieten. Allerdings handelt es sich hierbei nur um einen HDMI 1.4-Anschluss mit einer maximalen Geschwindigkeit von 1080p/60Hz. Glücklicherweise bietet Thunderbolt 4 viel mehr Flexibilität für externe Displayanschlüsse. IDG / Mark Knapp Die drahtlose Konnektivität war in meiner Erfahrung mit dem Laptop konsistent. Angeschlossen an einen Wi-Fi 6-Router mit Gigabit-Verbindung hatte ich keine Probleme, selbst wenn einige Gipswände das Signal blockierten. Auch die Bluetooth-Verbindung funktionierte einwandfrei, so dass das Notebook mehrere Tage lang in einem belebten Café problemlos Audio an meine Kopfhörer übertrug. Leistung Bisher sieht es für das Dell Inspiron 14 Plus recht gut aus und in der Leistungsklasse bleibt es auch weitgehend gut. Das bedeutet, dass sich die von Dell gewählte Kühlung etwas rächt. Das Dell Inspiron 14 Plus schneidet im PCMark 10 Benchmark, der die Gesamtleistung des Systems bei einer Reihe von Büroanwendungen analysiert, außergewöhnlich gut ab, was für die Gesamtleistung des Notebooks spricht. Es schlägt ähnliche 14-Zoll-Notebooks wie das Acer Swift Go 14 und sogar das viel teurere Lenovo ThinkPad X1 Carbon, die beide den gleichen Intel Core i7 155H-Prozessor verwenden. Beeindruckenderweise schlägt es sogar das Dell XPS 16, das ich kürzlich getestet habe und das mit einem Ergebnis von 6.392 Punkten zurückgefallen ist. Foundry Bei der Dauerleistung der CPU muss das Dell Inspiron 14 Plus allerdings einen kleinen Dämpfer hinnehmen. Hier liegt es zwar immer noch vor seinen schlanken und leichten Konkurrenten, schneidet aber bei weitem nicht so gut ab, wie es vielleicht der Fall gewesen wäre, wenn die falschen Kühlöffnungen tatsächlich für Kühlung gesorgt hätten. Im Vergleich zu den 17.641 Punkten des Dell XPS 16 im Multithreading-Test des Cinebench R23 fällt das Inspiron 14 Plus weit zurück. Ein kurzer Blick auf HWInfo64 genügt, um zu sehen, dass der Test die CPU-Kerntemperaturen schnell auf 110 Grad Celsius ansteigen lässt, was zu thermischem Throttling führt. In den Back-to-Back-Tests fiel die Leistung weiter ab. Es ist dem Dell Inspiron 14 Plus hoch anzurechnen, dass es trotz des Throttling immer noch eine bessere Leistung liefert als die Hauptkonkurrenten in diesem Bereich. Foundry Trotz seiner thermischen Probleme weigert sich das Dell Inspiron 14 Plus, Boden auf seine unmittelbaren Konkurrenten gutzumachen. Es kann zwar nicht mit dem Dell XPS 16 und auch nicht mit modernen diskreten Grafikprozessoren mithalten, aber die Intel Arc Graphics in diesem System übertrifft immer noch die integrierte Grafik in den anderen Systemen. Foundry Während diese Leistungsergebnisse zum Teil auf thermisches Throttling zurückzuführen sind, sind einige dieser Benchmarks so konzipiert, dass sie ein System etwas mehr belasten als alltägliche Aufgaben. Es ist bemerkenswert, dass das Dell Inspiron 14 Plus so gut abschneidet. Abgesehen von längeren Phasen mit hoher CPU-Belastung ist das Dell Inspiron 14 Plus außergewöhnlich schnell und flott. Akkulaufzeit Das Dell Inspiron 14 Plus bietet eine wirklich bemerkenswerte Akkulaufzeit. In unserem Akkutest, bei dem ein 4K-Video wiederholt abgespielt wird und der Bildschirm zwischen 250 und 260 nits eingestellt ist, hält das Dell Inspiron 14 Plus erstaunliche 1.021 Minuten (etwas mehr als 17 Stunden) durch. Damit schlägt es die Konkurrenz locker und sogar das Dell XPS 16 (das allerdings den Nachteil hat, dass es OLED verwendet). Ich habe den Test sogar mit und ohne die intelligente Akkuverlängerung der My-Dell-Software durchgeführt, um sicher zu gehen, dass die Ergebnisse nicht verfälscht werden, und in beiden Fällen lief das System über 17 Stunden. Das ist eine Leistung, die sogar mit den besten MacBooks von Apple mithalten kann, die wir mit deutlich schwächeren 150 nits getestet haben. Foundry Fazit Hätte Dell eine weitere Heatpipe verbaut und das zusätzliche Lüftungsgitter auf der Rückseite als echte Abluftöffnung genutzt, um die CPU-Thermik in Schach zu halten, wäre noch mehr Leistung drin gewesen. Aber auch ohne dieses Zugeständnis ist das Dell Inspiron 14 Plus ein bemerkenswertes System. In so ziemlich jeder Kategorie ist es schlimmstenfalls Durchschnitt. Und in den meisten Bereichen ist es besser als die Konkurrenz. Es ist vielleicht nicht so schön wie ein ZenBook oder Pavilion Plus, aber es ist schneller und hält länger durch. Und obwohl es kein ThinkPad oder XPS ist, ist es viel preisgünstiger zu haben. Auch wenn das Acer Swift Go 14 viele der gleichen Aspekte bietet, würde ich die Tastatur des Dell Inspiron 14 Plus niemals gegen eine von Acer eintauschen. Technische Daten Name: Inspiron 14 Plus-Laptop (Intel) Modellnummer: cn74711sc CPU: Intel Core 7 Ultra 155H Arbeitsspeicher: 16 GB LPDDR5X-6400 Grafik/GPU: Intel Arc Bildschirm: 14-Zoll, 2.240 × 1.400 PIxel, WVA Speicher: 1 TB PCIe NVMe SSD Webcam: 1080p Konnektivität: 1 × Thunderbolt 4, 2 × USB-A 3.2 Gen 1, 1 × HDMI 1.4 (1080p/60 max), 1 × MicroSD-Kartenleser, 1 × 3.5mm Combo-Audio Vernetzung: WiFi 6E, Bluetooth 5.3 Biometrische Merkmale: Fingerabdruckleser Akku-Kapazität: 64 Wattstunden Abmessungen: 31,4 × 22,6 × 1,59 bis 1,89 cm (B × T × H) Gewicht: 1,6 kg 3 Jahre Premium Support kostenlos (PC-Welt) 

Dell Inspiron 14 Plus (2024) im Test: Nicht perfekt, aber starke Leistung zu dem Preis​ IDG / Mark Knapp

Auf einen Blick

Pro

Starke Leistung trotz Drosselung

Außergewöhnliche Akkulaufzeit

Eine unverschämt gute Tastatur

Überzeugendes Gesamtkonzept

Kontra

Fragwürdige Belüftung

Drosselung bei anhaltender Belastung

Keine Aufrüstung durch Nutzer möglich

Fazit

Das Dell Inspiron 14 Plus ist wahrlich nicht perfekt, und einige Ausstattungsmerkmale sind sogar ein wenig fragwürdig. Auf der anderen Seite können wir die Gesamtleistung nicht ignorieren, vor allem nicht zu dem Preis, den Dell für das Notebook aufruft.In jedem Bereich, in dem das Dell Inspiron 14 Plus offensichtliche Defizite aufweist, macht es diese auf andere Weise mehr als wett. In Anbetracht dieser Tatsache gibt es kaum einen Grund, der gegen einen Kauf des Notebooks spricht.Eine riesige Auswahl an empfehlenswerten Laptops liefert unser großer Vergleich: Die besten Laptops 2024 im Test.

Es gibt einen Trend, die Notebooks der Mittelklasse aufzupeppen. HP, Acer und Asus haben es getan, und mit dem Inspiron 14 Plus 7440 zeigt auch Dell, dass es ein Händchen dafür hat. Während der Name Inspiron noch an triste Plastikmaschinen denken lässt, löst sich die neueste Version auf die richtige Art und Weise von ihren Wurzeln. Ein Hauch von Metall hier, ein bunteres Display dort und eine unerwartet starke Leistung und Akkulaufzeit – und das alles zu einem Preis von rund 1.000 Euro. Und wenn man etwas tiefer gräbt, wird klar, dass Dell damit Erfolg hat.

Design & Verarbeitung

Abgesehen von der Kunststoffunterseite besteht das Gehäuse des Dell Inspiron 14 Plus aus Aluminium, das sich wie polierter Stein anfühlt. Es weist eine geringe Reibung auf und hat geglättete Ecken und Kanten. Zwar wirken einige Designelemente etwas zusammengewürfelt, aber insgesamt bietet das Dell Inspiron 14 Plus etwas, was früheren Inspiron-Modellen fehlte. Diese Designoptimierungen sind wohl auch der Grund für das Plus im Namen, wobei die inneren Werte sicherlich auch eine Rolle spielen.

IDG / Mark Knapp

Für ein kompaktes Arbeitsgerät ist das Dell Inspiron 14 Plus sehr gut gekühlt. Zwar bin ich es gewohnt, bei solchen Geräten eine anständige Seitenbelüftung zu sehen. Allerdings war ich überrascht, noch mehr Lüftungsöffnungen auf der Rückseite zu finden. Sogar hinter den Displayscharnieren scheinen sich Lüftungsöffnungen zu verbergen. Bei näherem Hinsehen stellt sich jedoch heraus, dass es sich bei den meisten dieser Lüftungsöffnungen nur um punkiges Plastikgitter handelt, das wie Lüftungsöffnungen aussehen soll. Während das Dell Inspiron 14 Plus auf den ersten Blick eine bessere Kühlung zu bieten scheint als das Dell XPS 16 mit derselben CPU, scheint das Gegenteil der Fall zu sein.

Der Rahmen ist um die Tastatur herum und in der Mitte des Displaydeckels etwas weich, fühlt sich aber steif genug an, um eine gewisse Beanspruchung auszuhalten. Die Tastatur gibt beim Tippen kaum nach.

Dell ist es nicht gelungen, das Inspiron 14 Plus superschlank zu gestalten. Für ein Standard-Notebook ist es mit 1,6 Kilogramm recht schwer. Mit seinen Abmessungen von 314 × 226 × 15,9 bis 18,9 Millimeter (B × T × H) ist es aber noch einigermaßen tragbar.

Tastatur & Trackpad

Die Tastatur ist recht einfach gehalten. Die Tastenkappen sind einfach grau mit wenig oder gar keiner Kontur. Sie sind ein wenig knackig und glücklicherweise steifer als einige billigere Laptoptastaturen, so dass sie an den Ecken nicht so stark nachgeben. Das Ergebnis ist eine überraschend schnelle Tastatur. Innerhalb weniger Minuten hatte ich mich mit der Tastatur des Dell Inspiron 14 Plus so gut angefreundet, dass ich in Monkeytype mit einer Geschwindigkeit von 129 Wörtern pro Minute und einer Genauigkeit von 100 Prozent tippen konnte − eine persönliche Bestleistung.

IDG / Mark Knapp

Ein großer Teil dieser Tippleistung ist nicht nur auf die Tastatur zurückzuführen, die sich sehr gut anfühlt, sondern auch auf die komfortable Oberfläche des Laptops. Da ich mich nicht über eine große Fläche strecken muss oder mir eine scharfe Kante in die Handgelenke drückt, kann ich meine Handflächen bequem auflegen und präzise tippen. Das macht die fehlende Konturierung der Tasten wieder wett. Schade ist, dass es für die winzigen Pfeiltasten des Dell Inspiron 14 Plus keinen Ausgleich gibt.

Die Tastatur ist mit einer einfachen weißen Hintergrundbeleuchtung ausgestattet, die in zwei Helligkeitsstufen zur Verfügung steht und ausreicht, um damit zu arbeiten.

Das Trackpad hat bescheidene Proportionen. Es besteht aus Mylar, das leicht gleitet und sich gut an die Textur des Rahmens anpasst. Es hat einen etwas festen Klick, der sich weder übermäßig anfällig für Fehlklicks noch in irgendeiner Weise schwammig anfühlt.

Mit Tastatur und Trackpad bietet das Dell Inspiron 14 Plus eine insgesamt gute Benutzeroberfläche, die kaum Wünsche offen lässt.

Display & Audio

Einer der vielleicht beeindruckendsten Aspekte des Dell Inspiron 14 Plus ist der insgesamt respektable Bildschirm. Die Auflösung von 2.240 × 1.400 Pixeln ist zwar etwas ungewöhnlich, aber das 14-Zoll-Display bietet eine solide Schärfe. Dank einer Spitzenhelligkeit von 418 nits und einer wirksamen Anti-Glare-Beschichtung ist das Display auch bei ungünstigen Lichtverhältnissen bemerkenswert gut ablesbar.

IDG / Mark Knapp

Dell hat den sRGB-Farbraum zu fast 100 Prozent abgedeckt, was zwar nicht ganz so lebhaft ist wie eine vollständige DCI-P3-Abdeckung, aber immer noch eine lebhafte Darstellung im Vergleich zu vielen einfachen Panels, die für billige Laptops erhältlich sind. Ich habe auch eine hohe Farbgenauigkeit gemessen, mit einem durchschnittlichen dE von 0,81 ohne jegliche Kalibrierung. Das Kontrastverhältnis liegt bei 1.680:1, was mehr ist, als ich von einem einfachen LED-Panel erwartet hätte. Die Pixelreaktion ist etwas langsam, was zu Geisterbildern bei bewegten Objekten führt, aber dies ist kein Gamer-Notebook. Der Bildschirm eignet sich hervorragend für Büroarbeiten und statische Bilder.

Das Audioerlebnis ist ähnlich wie das Display: Die Lautsprecher liefern eine beeindruckende Lautstärke ohne gelegentliche, unbedeutende Verzerrungen. Bei maximaler Lautstärke können sie etwas knarzen, vor allem wenn man in der Nähe sitzt, aber sie sind knackig und klar. Abgesehen davon ist der Bass ein typischer Schwachpunkt bei Geräten dieser Art, und man kann nicht leugnen, dass er etwas fehlt. Zum Glück ist er nicht ganz verschwunden. Ob bei “Fugue State” von Vulpeck oder “My Trigger” von Miike Snow, der Bass ist deutlich vorhanden, aber er ist dünn und ein Teil der Energie wird von den höheren Registern absorbiert. Außerdem neigt der Bass zu Verzerrungen.

IDG / Mark Knapp

Webcam, Mikrofon, Biometrie

Die Webcam des Dell Inspiron 14 Plus sieht recht gut aus und liefert recht flüssige, aber nicht besonders scharfe Videos. Selbst mit einem 1080p-Sensor ist die Schärfe nicht beeindruckend. Die Qualität wird eher durch die Helligkeitsregelung beeinträchtigt. Es neigt dazu, entweder zu hell oder zu dunkel zu sein. Allerdings gibt es auf dem Markt wesentlich schlechtere Webcams.

Die Mikrofone nehmen meine Stimme gut auf, auch wenn es viele Hintergrundgeräusche gibt, wie z.B. das Surren eines Ventilators. Wenn ich jedoch während der Aufnahme auf meinem Laptop tippe, wird die Geräuschunterdrückung unterbrochen.

Während die Webcam keine Gesichtserkennung bietet, befindet sich oben rechts auf der Tastatur ein Fingerabdruckscanner. Dieser bietet eine bequeme Möglichkeit, sich anzumelden, auch wenn die Registrierung des Fingerabdrucks regelmäßig mehrere Versuche erfordert.

Konnektivität

Das Dell Inspiron 14 Plus ist zwar klein, geizt aber nicht mit Anschlüssen. Auf der rechten Seite befinden sich eine 3,5-mm-Kopfhörerbuchse, ein MicroSD-Kartenleser und ein USB-A-Anschluss mit 5 Gbit/s. Ein Großteil dieser Kante wird von Lüftungsöffnungen eingenommen, daher ist es schön zu sehen, dass Dell noch einige Anschlüsse anbietet. Die linke Seite hat mit einem weiteren USB-A-Anschluss mit 5 Gbit/s, einem Thunderbolt- 4-Anschluss, einem DC-Ladeanschluss und einem HDMI-Port in voller Größe noch mehr zu bieten. Allerdings handelt es sich hierbei nur um einen HDMI 1.4-Anschluss mit einer maximalen Geschwindigkeit von 1080p/60Hz. Glücklicherweise bietet Thunderbolt 4 viel mehr Flexibilität für externe Displayanschlüsse.

IDG / Mark Knapp

Die drahtlose Konnektivität war in meiner Erfahrung mit dem Laptop konsistent. Angeschlossen an einen Wi-Fi 6-Router mit Gigabit-Verbindung hatte ich keine Probleme, selbst wenn einige Gipswände das Signal blockierten. Auch die Bluetooth-Verbindung funktionierte einwandfrei, so dass das Notebook mehrere Tage lang in einem belebten Café problemlos Audio an meine Kopfhörer übertrug.

Leistung

Bisher sieht es für das Dell Inspiron 14 Plus recht gut aus und in der Leistungsklasse bleibt es auch weitgehend gut. Das bedeutet, dass sich die von Dell gewählte Kühlung etwas rächt.

Das Dell Inspiron 14 Plus schneidet im PCMark 10 Benchmark, der die Gesamtleistung des Systems bei einer Reihe von Büroanwendungen analysiert, außergewöhnlich gut ab, was für die Gesamtleistung des Notebooks spricht. Es schlägt ähnliche 14-Zoll-Notebooks wie das Acer Swift Go 14 und sogar das viel teurere Lenovo ThinkPad X1 Carbon, die beide den gleichen Intel Core i7 155H-Prozessor verwenden. Beeindruckenderweise schlägt es sogar das Dell XPS 16, das ich kürzlich getestet habe und das mit einem Ergebnis von 6.392 Punkten zurückgefallen ist.

Foundry

Bei der Dauerleistung der CPU muss das Dell Inspiron 14 Plus allerdings einen kleinen Dämpfer hinnehmen. Hier liegt es zwar immer noch vor seinen schlanken und leichten Konkurrenten, schneidet aber bei weitem nicht so gut ab, wie es vielleicht der Fall gewesen wäre, wenn die falschen Kühlöffnungen tatsächlich für Kühlung gesorgt hätten. Im Vergleich zu den 17.641 Punkten des Dell XPS 16 im Multithreading-Test des Cinebench R23 fällt das Inspiron 14 Plus weit zurück. Ein kurzer Blick auf HWInfo64 genügt, um zu sehen, dass der Test die CPU-Kerntemperaturen schnell auf 110 Grad Celsius ansteigen lässt, was zu thermischem Throttling führt. In den Back-to-Back-Tests fiel die Leistung weiter ab. Es ist dem Dell Inspiron 14 Plus hoch anzurechnen, dass es trotz des Throttling immer noch eine bessere Leistung liefert als die Hauptkonkurrenten in diesem Bereich.

Foundry

Trotz seiner thermischen Probleme weigert sich das Dell Inspiron 14 Plus, Boden auf seine unmittelbaren Konkurrenten gutzumachen. Es kann zwar nicht mit dem Dell XPS 16 und auch nicht mit modernen diskreten Grafikprozessoren mithalten, aber die Intel Arc Graphics in diesem System übertrifft immer noch die integrierte Grafik in den anderen Systemen.

Foundry

Während diese Leistungsergebnisse zum Teil auf thermisches Throttling zurückzuführen sind, sind einige dieser Benchmarks so konzipiert, dass sie ein System etwas mehr belasten als alltägliche Aufgaben. Es ist bemerkenswert, dass das Dell Inspiron 14 Plus so gut abschneidet. Abgesehen von längeren Phasen mit hoher CPU-Belastung ist das Dell Inspiron 14 Plus außergewöhnlich schnell und flott.

Akkulaufzeit

Das Dell Inspiron 14 Plus bietet eine wirklich bemerkenswerte Akkulaufzeit. In unserem Akkutest, bei dem ein 4K-Video wiederholt abgespielt wird und der Bildschirm zwischen 250 und 260 nits eingestellt ist, hält das Dell Inspiron 14 Plus erstaunliche 1.021 Minuten (etwas mehr als 17 Stunden) durch. Damit schlägt es die Konkurrenz locker und sogar das Dell XPS 16 (das allerdings den Nachteil hat, dass es OLED verwendet). Ich habe den Test sogar mit und ohne die intelligente Akkuverlängerung der My-Dell-Software durchgeführt, um sicher zu gehen, dass die Ergebnisse nicht verfälscht werden, und in beiden Fällen lief das System über 17 Stunden. Das ist eine Leistung, die sogar mit den besten MacBooks von Apple mithalten kann, die wir mit deutlich schwächeren 150 nits getestet haben.

Foundry

Fazit

Hätte Dell eine weitere Heatpipe verbaut und das zusätzliche Lüftungsgitter auf der Rückseite als echte Abluftöffnung genutzt, um die CPU-Thermik in Schach zu halten, wäre noch mehr Leistung drin gewesen. Aber auch ohne dieses Zugeständnis ist das Dell Inspiron 14 Plus ein bemerkenswertes System. In so ziemlich jeder Kategorie ist es schlimmstenfalls Durchschnitt. Und in den meisten Bereichen ist es besser als die Konkurrenz. Es ist vielleicht nicht so schön wie ein ZenBook oder Pavilion Plus, aber es ist schneller und hält länger durch. Und obwohl es kein ThinkPad oder XPS ist, ist es viel preisgünstiger zu haben. Auch wenn das Acer Swift Go 14 viele der gleichen Aspekte bietet, würde ich die Tastatur des Dell Inspiron 14 Plus niemals gegen eine von Acer eintauschen.

Technische Daten

Name: Inspiron 14 Plus-Laptop (Intel)

Modellnummer: cn74711sc

CPU: Intel Core 7 Ultra 155H

Arbeitsspeicher: 16 GB LPDDR5X-6400

Grafik/GPU: Intel Arc

Bildschirm: 14-Zoll, 2.240 × 1.400 PIxel, WVA

Speicher: 1 TB PCIe NVMe SSD

Webcam: 1080p

Konnektivität: 1 × Thunderbolt 4, 2 × USB-A 3.2 Gen 1, 1 × HDMI 1.4 (1080p/60 max), 1 × MicroSD-Kartenleser, 1 × 3.5mm Combo-Audio

Vernetzung: WiFi 6E, Bluetooth 5.3

Biometrische Merkmale: Fingerabdruckleser

Akku-Kapazität: 64 Wattstunden

Abmessungen: 31,4 × 22,6 × 1,59 bis 1,89 cm (B × T × H)

Gewicht: 1,6 kg

3 Jahre Premium Support kostenlos

(PC-Welt)

Dell Inspiron 14 Plus (2024) im Test: Nicht perfekt, aber starke Leistung zu dem Preis​ Weiterlesen »

So teuer ist es, Ihr iPhone 16 zu laden – das Ergebnis ist erstaunlich​

Allgemein

Foundry Seit Jahren klagen die Menschen über zu hohe Stromkosten. Auch Ende 2024 ist Strom noch teuer, laut Stromauskunft.de liegt der durchschnittliche Strompreis in der Grundversorgung bei üppigen 44,36 Cent pro kWh. (beim Stichtag 22. November 2024). Wie sieht es aber beim iPhone 16 oder iPhone 16 Pro Max mit den Stromkosten aus? Die Geräte werden immer leistungsfähiger, sie müssen fast täglich an die Steckdose und für kabelloses Aufladen empfiehlt Apple schließlich sogar ein Netzteil mit mindestens 30 Watt! Könnten nicht auch diese Kosten langfristig zum Ärgernis werden? Spoiler: Der Verbrauch kleinerer Gadgets wird oft überschätzt. Entscheidend für den Verbrauch ist die Leistung des Gerätes – und iPhones sind extrem effizient. Was kostet mich das iPhone-Aufladen? Es gibt nur einen einzigen Vorgang, bei dem das iPhone 16 Strom bezieht – beim Aufladen des Akkus. Um herauszufinden, was Sie das tägliche Aufladen kostet, ist die sinnvollste Methode, die Kapazität des Akkus als Grundlage zu nehmen. Apple gibt die Kapazität oft in Wh (Wattstunden) und mAh (Milliamperestunden) an, bei der Berechnung des Stromverbrauchs ist aber die Angabe in Wattstunden sinnvoller. Bei der Angabe in mAh müssen Sie nämlich die Spannung berücksichtigen. Um die Kosten für das Aufladen auszurechnen, müssen Sie im Grunde nur die Zahl der Wattstunden mit Ihrem Strompreis multiplizieren. Betrachten wir die Kosten pro Jahr, wird es aber kompliziert: Da nämlich jeder iPhone-Besitzer sein Apple-Handy unterschiedlich lange nutzt – es gibt ja Menschen, die mehrere Tage mit einer Akkuladung auskommen – gehen wir zur Vereinfachung von einer sehr intensiven Nutzung aus: also eine komplette Aufladung täglich bei 365 Tagen pro Jahr. Wenn Sie aber Ihr iPhone nur jeden zweiten Tag komplett aufladen müssen, können Sie unsere Kosten einfach halbieren. Wie oft Sie Ihren Akku aufladen, erfahren Sie übrigens über die Einstellung “Batterie”. Über die Grafik der 10-Tage-Übersicht können Sie die Zahl der Aufladungen ableiten. iPhone-ModellAkkukapazitätKosten pro AufladungKosten pro Jahr min / Kosten plus VerlustleistungeniPhone 16 13,839 Wh0,614 Cent2,24 € / 3,41 €iPhone 16 Plus 18,112 Wh0,804 Cent2,93 € / 4,31 €iPhone 16 Pro  13,942 Wh0,618 Cent2,26 € / 3,43 €iPhone 16 Pro Max 17,995 Wh0,798 Cent2,91 € / 4,29 € Für das iPhone 16 Pro ergibt dies: 44,36 Cent x 0,013942 kWh = 0,618 Cent pro Aufladung oder 2,26 Euro im Jahr! Wobei man sagen muss, dass die Rechnung eigentlich nicht ganz korrekt ist. Was Sie nämlich auch noch berücksichtigen müssen: Netzteile und Akkus arbeiten leider mit Verlust – es kommen nicht 100 Prozent der Leistung im Akku an. Bei einem iPhone können Sie von einem Wirkungsgrad von etwa 75 bis 70 Prozent ausgehen, von den von Ihnen voll zu bezahlenden 10 Wattstunden erreichen also nur 7 den Akku des iPhones. Wollen Sie Ihr iPhone 16 Pro komplett aufladen, benötigen Sie folglich 1,3 x 13,942 Wh = 18,1246 Wh. Ebenfalls nicht zu vergessen: Wenn Ihr USB-C-Ladegerät in der Steckdose steckt und nicht lädt, verbraucht es bereits Strom. Das sind aber nur etwa 0,1 Watt und entspricht etwa 50 Cent pro Jahr. Wir haben diese zweite Zahl inklusive Verlustleistungen in der Tabelle ebenfalls angegeben. Aber auch dann kostet Sie Ihr iPhone 16 Pro unter 4 Euro Stromkosten pro Jahr. Sonderfall: Aufladen per Magsafe Sie laden Ihr iPhone drahtlos auf? Das ist leider besonders ineffizient und der Stromverbrauch steigt wohl um etwa 60 Prozent. Nicht ohne Grund empfiehlt Apple für schnelles Aufladen mit Magsafe ein 30-Watt-Netzteil, während für das Laden per USB-C ein 20-Watt-Netzteil genügt. Sie müssen also dann den Preis um 60 Prozent erhöhen, Ihr iPhone 16 Pro kostet Sie dann statt 3,43 Euro schon 5,49 Euro. Warum sind die Stromkosten so niedrig? Die Stromkosten sind trotz der Verluste beim Laden aber erstaunlich niedrig. Der Grund dafür: Apples Smartphones sind sehr effizient und auf lange Batterielaufzeit ausgelegt. Das sorgt für niedrige Stromkosten. Die Bildschirme sind zwar hell, aber ebenfalls auf sehr niedrigen Stromverbrauch ausgelegt. Jedes Modul ist effizient und schaltet sich bei Nichtgebrauch sofort ab. Sehen Sie sich auf dem iPhone etwa ein Youtube-Video eine Stunde lang an, liegt der Stromverbrauch bei vielleicht einer Wattstunde – ein Fernseher verbraucht dagegen für die gleiche Aufgabe etwa 100 Wattstunden. Es sind schließlich andere Elektrogeräte, die Ihre Stromrechnung wirklich belasten: Der günstige Heizlüfter von Lidl beispielsweise, der bis zu 2.000 Watt verbraucht und im Betrieb etwa einen Euro pro Stunde verschlingt. Wirkliche Stromfresser sind alte Lampen oder Haushaltsgeräte wie Kühlschrank, Herd und Heizlüfter. Lidl (Macwelt) 

So teuer ist es, Ihr iPhone 16 zu laden – das Ergebnis ist erstaunlich​ Foundry

Seit Jahren klagen die Menschen über zu hohe Stromkosten. Auch Ende 2024 ist Strom noch teuer, laut Stromauskunft.de liegt der durchschnittliche Strompreis in der Grundversorgung bei üppigen 44,36 Cent pro kWh. (beim Stichtag 22. November 2024).

Wie sieht es aber beim iPhone 16 oder iPhone 16 Pro Max mit den Stromkosten aus? Die Geräte werden immer leistungsfähiger, sie müssen fast täglich an die Steckdose und für kabelloses Aufladen empfiehlt Apple schließlich sogar ein Netzteil mit mindestens 30 Watt! Könnten nicht auch diese Kosten langfristig zum Ärgernis werden?

Spoiler: Der Verbrauch kleinerer Gadgets wird oft überschätzt. Entscheidend für den Verbrauch ist die Leistung des Gerätes – und iPhones sind extrem effizient.

Was kostet mich das iPhone-Aufladen?

Es gibt nur einen einzigen Vorgang, bei dem das iPhone 16 Strom bezieht – beim Aufladen des Akkus. Um herauszufinden, was Sie das tägliche Aufladen kostet, ist die sinnvollste Methode, die Kapazität des Akkus als Grundlage zu nehmen.

Apple gibt die Kapazität oft in Wh (Wattstunden) und mAh (Milliamperestunden) an, bei der Berechnung des Stromverbrauchs ist aber die Angabe in Wattstunden sinnvoller. Bei der Angabe in mAh müssen Sie nämlich die Spannung berücksichtigen.

Um die Kosten für das Aufladen auszurechnen, müssen Sie im Grunde nur die Zahl der Wattstunden mit Ihrem Strompreis multiplizieren.

Betrachten wir die Kosten pro Jahr, wird es aber kompliziert: Da nämlich jeder iPhone-Besitzer sein Apple-Handy unterschiedlich lange nutzt – es gibt ja Menschen, die mehrere Tage mit einer Akkuladung auskommen – gehen wir zur Vereinfachung von einer sehr intensiven Nutzung aus: also eine komplette Aufladung täglich bei 365 Tagen pro Jahr.

Wenn Sie aber Ihr iPhone nur jeden zweiten Tag komplett aufladen müssen, können Sie unsere Kosten einfach halbieren. Wie oft Sie Ihren Akku aufladen, erfahren Sie übrigens über die Einstellung “Batterie”. Über die Grafik der 10-Tage-Übersicht können Sie die Zahl der Aufladungen ableiten.

iPhone-ModellAkkukapazitätKosten pro AufladungKosten pro Jahr min / Kosten plus VerlustleistungeniPhone 16 13,839 Wh0,614 Cent2,24 € / 3,41 €iPhone 16 Plus 18,112 Wh0,804 Cent2,93 € / 4,31 €iPhone 16 Pro  13,942 Wh0,618 Cent2,26 € / 3,43 €iPhone 16 Pro Max 17,995 Wh0,798 Cent2,91 € / 4,29 €

Für das iPhone 16 Pro ergibt dies: 44,36 Cent x 0,013942 kWh = 0,618 Cent pro Aufladung oder 2,26 Euro im Jahr!

Wobei man sagen muss, dass die Rechnung eigentlich nicht ganz korrekt ist. Was Sie nämlich auch noch berücksichtigen müssen: Netzteile und Akkus arbeiten leider mit Verlust – es kommen nicht 100 Prozent der Leistung im Akku an. Bei einem iPhone können Sie von einem Wirkungsgrad von etwa 75 bis 70 Prozent ausgehen, von den von Ihnen voll zu bezahlenden 10 Wattstunden erreichen also nur 7 den Akku des iPhones.

Wollen Sie Ihr iPhone 16 Pro komplett aufladen, benötigen Sie folglich 1,3 x 13,942 Wh = 18,1246 Wh. Ebenfalls nicht zu vergessen: Wenn Ihr USB-C-Ladegerät in der Steckdose steckt und nicht lädt, verbraucht es bereits Strom. Das sind aber nur etwa 0,1 Watt und entspricht etwa 50 Cent pro Jahr. Wir haben diese zweite Zahl inklusive Verlustleistungen in der Tabelle ebenfalls angegeben.

Aber auch dann kostet Sie Ihr iPhone 16 Pro unter 4 Euro Stromkosten pro Jahr.

Sonderfall: Aufladen per Magsafe

Sie laden Ihr iPhone drahtlos auf? Das ist leider besonders ineffizient und der Stromverbrauch steigt wohl um etwa 60 Prozent. Nicht ohne Grund empfiehlt Apple für schnelles Aufladen mit Magsafe ein 30-Watt-Netzteil, während für das Laden per USB-C ein 20-Watt-Netzteil genügt. Sie müssen also dann den Preis um 60 Prozent erhöhen, Ihr iPhone 16 Pro kostet Sie dann statt 3,43 Euro schon 5,49 Euro.

Warum sind die Stromkosten so niedrig?

Die Stromkosten sind trotz der Verluste beim Laden aber erstaunlich niedrig. Der Grund dafür: Apples Smartphones sind sehr effizient und auf lange Batterielaufzeit ausgelegt. Das sorgt für niedrige Stromkosten. Die Bildschirme sind zwar hell, aber ebenfalls auf sehr niedrigen Stromverbrauch ausgelegt. Jedes Modul ist effizient und schaltet sich bei Nichtgebrauch sofort ab.

Sehen Sie sich auf dem iPhone etwa ein Youtube-Video eine Stunde lang an, liegt der Stromverbrauch bei vielleicht einer Wattstunde – ein Fernseher verbraucht dagegen für die gleiche Aufgabe etwa 100 Wattstunden.

Es sind schließlich andere Elektrogeräte, die Ihre Stromrechnung wirklich belasten: Der günstige Heizlüfter von Lidl beispielsweise, der bis zu 2.000 Watt verbraucht und im Betrieb etwa einen Euro pro Stunde verschlingt. Wirkliche Stromfresser sind alte Lampen oder Haushaltsgeräte wie Kühlschrank, Herd und Heizlüfter.

Lidl

(Macwelt)

So teuer ist es, Ihr iPhone 16 zu laden – das Ergebnis ist erstaunlich​ Weiterlesen »

Android: Googles neuen Diebstahlschutz aktivieren​

Allgemein

Einstellungen öffnen Thomas Rieske Lösung: Der Diebstahlschutz ist auf den meisten Geräten ab Android 10 über ein Update der Google Play Services verfügbar. Stellen Sie daher zunächst sicher, dass Sie die entsprechenden Aktualisierungen eingespielt haben. Außerdem führt Google die Features schrittweise ein. Um zu sehen, ob – und in welchem Umfang – Ihr Gerät derzeit unterstützt wird, öffnen Sie zunächst die Einstellungen. Dazu tippen Sie auf das Zahnrad-Icon, das die meisten Hersteller verwenden und im Allgemeinen auf einer Seite des Homescreens abgelegt ist. Suche statt Menü-Navigation Thomas Rieske Um sich das zeitaufwendige Navigieren durch Menüs und Untermenüs in den Einstellungen zu ersparen, empfiehlt sich die Suchfunktion. Geben Sie in das Suchfeld zeichenweise Diebstahlschutz (Groß- und Kleinschreibung spielt keine Rolle) ein, bis der passende Treffer angezeigt wird, und wählen Sie ihn dann aus. Diebstahl-Displaysperre aktivieren Thomas Rieske Sie gelangen nun zum Bereich Google / Alle Dienste / Diebstahlschutz. Auf dieser Seite finden sich mehrere Optionen, die standardmäßig ausgeschaltet sind. Die Funktion Diebstahl-Displaysperre zum Beispiel erkennt mithilfe von künstlicher Intelligenz (KI), den Gerätesensoren sowie WLAN und Bluetooth, wenn jemand Ihnen Ihr Gerät aus der Hand reißt und damit wegläuft. In dem Fall wird automatisch das Display gesperrt. Um das Feature zu aktivieren, tippen Sie auf den Schalter neben dieser Option. Diebstahl-Displaysperre: Aktivierung bestätigen Thomas Rieske Anschließend wird ein Bestätigungsdialog eingeblendet. Tippen Sie hier auf Aktivieren. Offline-Gerätesperre aktivieren Thomas Rieske Zusätzlichen Schutz verspricht die Offline-Gerätesperre. Diese Funktion sperrt automatisch den Bildschirm, nachdem Ihr Gerät eine bestimmte Zeit offline verwendet wurde. Das ist beispielsweise der Fall, wenn jemand Ihr Smartphone stiehlt und die Internetverbindung trennt, um Daten zu extrahieren oder eine Fernlöschung über die Funktion Mein Gerät finden zu verhindern. Um die Offline-Gerätesperre einzuschalten, gehen sie analog wie bei der Diebstahl-Displaysperre vor. Sperren per Fernzugriff nutzen Thomas Rieske Auf die gleiche Weise lässt sich auch die Fernsperre aktivieren. Wenn Sie nun Ihr Smartphone verlieren oder vermuten, dass es gestohlen wurde, rufen Sie über ein beliebiges Endgerät die Webseite android.com/lock auf. Dort geben Sie die Telefonnummer Ihres zu sperrenden Smartphones ein und klicken unten auf die Schaltfläche Gerät sperren. Sperranfrage senden Thomas Rieske Danach gilt es, erst noch eine reCAPTCHA-Aufgabe, etwa einen Bilderkennungstest, zu lösen. Damit will Google verhindern, dass die Handlung zum Beispiel automatisiert von Computerprogrammen beziehungsweise Bots vorgenommen wird. Sobald Sie den Test erfolgreich absolviert haben, wird die Anfrage abgeschickt und das entsprechende Gerät nach maximal einer Minute gesperrt. Produkte: Der Trick funktioniert auf den meisten Geräten ab Android 10. 

Android: Googles neuen Diebstahlschutz aktivieren​ Einstellungen öffnen

Thomas Rieske

Lösung: Der Diebstahlschutz ist auf den meisten Geräten ab Android 10 über ein Update der Google Play Services verfügbar. Stellen Sie daher zunächst sicher, dass Sie die entsprechenden Aktualisierungen eingespielt haben. Außerdem führt Google die Features schrittweise ein. Um zu sehen, ob – und in welchem Umfang – Ihr Gerät derzeit unterstützt wird, öffnen Sie zunächst die Einstellungen. Dazu tippen Sie auf das Zahnrad-Icon, das die meisten Hersteller verwenden und im Allgemeinen auf einer Seite des Homescreens abgelegt ist.

Suche statt Menü-Navigation

Thomas Rieske

Um sich das zeitaufwendige Navigieren durch Menüs und Untermenüs in den Einstellungen zu ersparen, empfiehlt sich die Suchfunktion. Geben Sie in das Suchfeld zeichenweise Diebstahlschutz (Groß- und Kleinschreibung spielt keine Rolle) ein, bis der passende Treffer angezeigt wird, und wählen Sie ihn dann aus.

Diebstahl-Displaysperre aktivieren

Thomas Rieske

Sie gelangen nun zum Bereich Google / Alle Dienste / Diebstahlschutz. Auf dieser Seite finden sich mehrere Optionen, die standardmäßig ausgeschaltet sind. Die Funktion Diebstahl-Displaysperre zum Beispiel erkennt mithilfe von künstlicher Intelligenz (KI), den Gerätesensoren sowie WLAN und Bluetooth, wenn jemand Ihnen Ihr Gerät aus der Hand reißt und damit wegläuft. In dem Fall wird automatisch das Display gesperrt. Um das Feature zu aktivieren, tippen Sie auf den Schalter neben dieser Option.

Diebstahl-Displaysperre: Aktivierung bestätigen

Thomas Rieske

Anschließend wird ein Bestätigungsdialog eingeblendet. Tippen Sie hier auf Aktivieren.

Offline-Gerätesperre aktivieren

Thomas Rieske

Zusätzlichen Schutz verspricht die Offline-Gerätesperre. Diese Funktion sperrt automatisch den Bildschirm, nachdem Ihr Gerät eine bestimmte Zeit offline verwendet wurde. Das ist beispielsweise der Fall, wenn jemand Ihr Smartphone stiehlt und die Internetverbindung trennt, um Daten zu extrahieren oder eine Fernlöschung über die Funktion Mein Gerät finden zu verhindern. Um die Offline-Gerätesperre einzuschalten, gehen sie analog wie bei der Diebstahl-Displaysperre vor.

Sperren per Fernzugriff nutzen

Thomas Rieske

Auf die gleiche Weise lässt sich auch die Fernsperre aktivieren. Wenn Sie nun Ihr Smartphone verlieren oder vermuten, dass es gestohlen wurde, rufen Sie über ein beliebiges Endgerät die Webseite android.com/lock auf. Dort geben Sie die Telefonnummer Ihres zu sperrenden Smartphones ein und klicken unten auf die Schaltfläche Gerät sperren.

Sperranfrage senden

Thomas Rieske

Danach gilt es, erst noch eine reCAPTCHA-Aufgabe, etwa einen Bilderkennungstest, zu lösen. Damit will Google verhindern, dass die Handlung zum Beispiel automatisiert von Computerprogrammen beziehungsweise Bots vorgenommen wird. Sobald Sie den Test erfolgreich absolviert haben, wird die Anfrage abgeschickt und das entsprechende Gerät nach maximal einer Minute gesperrt.

Produkte: Der Trick funktioniert auf den meisten Geräten ab Android 10.

Android: Googles neuen Diebstahlschutz aktivieren​ Weiterlesen »

Android-Smartphone als WLAN-Repeater konfigurieren: So geht’s​

Allgemein

AVM WLAN-Repeater verbessern die Internet- und Netzwerkübertragung im heimischen WLAN. Hierzu empfangen die Geräte das WLAN-Signal des Routers und geben es über ein zusätzliches Funknetz weiter. Platziert man den Repeater zwischen dem Router und dem Raum, in dem die Internetverbindung verbessert werden soll, dann verstärkt dies das Signal und erhöht so die Bandbreite. Doch statt sich ein weiteres Gerät zuzulegen, kann man hierfür auch ein (ausgedientes) Android-Smartphone verwenden. Benötigt man den Repeater auf Dauer, spart man sich also die Extraausgabe. Braucht man die Funktion lediglich temporär, ist der WLAN-Repeater im Nu eingerichtet und sofort startklar. So geht’s: Als einfachste Möglichkeit dient die Hotspot-Funktion. Denn sie spannt ein neues WLAN-Funknetz nicht nur auf, um über das Mobilfunknetz andere Geräte ebenfalls mit dem Internet zu verbinden. Sie funktioniert genauso, wenn das Telefon selbst per WLAN im Netz ist. Dazu platzieren Sie das Mobiltelefon so, dass es zuverlässig per WLAN mit dem Router verbunden ist. Wenn Sie die Hotspot-Funktion nicht nur für kurze Zeit benutzen möchten, empfiehlt es sich, das Telefon per Ladekabel an eine Steckdose anzuschließen. Android-Smartphones lassen sich über die Hotspot-Funktion einfach auch als WLAN-Repeater konfigurieren. Das funktioniert auch mit ausgedienten Geräten.IDG Als Nächstes öffnen Sie auf dem Android-Gerät die Einstellungen-App. Tippen Sie darin auf „Netzwerk & Internet“ – geräteabhängig heißen die Optionen auch etwas anders – und „Hotspot und Tethering“. Schalten Sie den WLAN-Hotspot ein, den Namen des Funknetzes und das Passwort können Sie beliebig festlegen. Falls möglich, aktivieren Sie als Frequenz 2,4 und 5 GHz. Im Anschluss daran verbinden Sie Ihre übrigen Geräte über das zusätzliche WLAN. Wenn Sie denselben Netzwerknamen und dasselbe Passwort wie beim ursprünglichen WLAN wählen, dann verbinden sich Ihre Geräte sogar automatisch. Verwenden Sie die Hotspot-Funktion für Gäste, etwa auf einer Gartenparty, nutzen Sie am Router das Gast-WLAN und verstärken dieses Netz. Hinweis: Einige Android-Smartphones bieten in den Entwickleroptionen darüber hinaus die Einstellung „Enable WLAN Coverage Extend Feature“ zum Verstärken des WLANs. Wie Sie die Entwickleroptionen aktivieren, lesen Sie in unserem Beitrag Geheime Entwickleroptionen in Android nutzen. (PC-Welt) 

Android-Smartphone als WLAN-Repeater konfigurieren: So geht’s​ AVM

WLAN-Repeater verbessern die Internet- und Netzwerkübertragung im heimischen WLAN. Hierzu empfangen die Geräte das WLAN-Signal des Routers und geben es über ein zusätzliches Funknetz weiter. Platziert man den Repeater zwischen dem Router und dem Raum, in dem die Internetverbindung verbessert werden soll, dann verstärkt dies das Signal und erhöht so die Bandbreite.

Doch statt sich ein weiteres Gerät zuzulegen, kann man hierfür auch ein (ausgedientes) Android-Smartphone verwenden. Benötigt man den Repeater auf Dauer, spart man sich also die Extraausgabe. Braucht man die Funktion lediglich temporär, ist der WLAN-Repeater im Nu eingerichtet und sofort startklar.

So geht’s: Als einfachste Möglichkeit dient die Hotspot-Funktion. Denn sie spannt ein neues WLAN-Funknetz nicht nur auf, um über das Mobilfunknetz andere Geräte ebenfalls mit dem Internet zu verbinden.

Sie funktioniert genauso, wenn das Telefon selbst per WLAN im Netz ist. Dazu platzieren Sie das Mobiltelefon so, dass es zuverlässig per WLAN mit dem Router verbunden ist. Wenn Sie die Hotspot-Funktion nicht nur für kurze Zeit benutzen möchten, empfiehlt es sich, das Telefon per Ladekabel an eine Steckdose anzuschließen.

Android-Smartphones lassen sich über die Hotspot-Funktion einfach auch als WLAN-Repeater konfigurieren. Das funktioniert auch mit ausgedienten Geräten.IDG

Als Nächstes öffnen Sie auf dem Android-Gerät die Einstellungen-App. Tippen Sie darin auf „Netzwerk & Internet“ – geräteabhängig heißen die Optionen auch etwas anders – und „Hotspot und Tethering“.

Schalten Sie den WLAN-Hotspot ein, den Namen des Funknetzes und das Passwort können Sie beliebig festlegen. Falls möglich, aktivieren Sie als Frequenz 2,4 und 5 GHz. Im Anschluss daran verbinden Sie Ihre übrigen Geräte über das zusätzliche WLAN.

Wenn Sie denselben Netzwerknamen und dasselbe Passwort wie beim ursprünglichen WLAN wählen, dann verbinden sich Ihre Geräte sogar automatisch. Verwenden Sie die Hotspot-Funktion für Gäste, etwa auf einer Gartenparty, nutzen Sie am Router das Gast-WLAN und verstärken dieses Netz.

Hinweis: Einige Android-Smartphones bieten in den Entwickleroptionen darüber hinaus die Einstellung „Enable WLAN Coverage Extend Feature“ zum Verstärken des WLANs. Wie Sie die Entwickleroptionen aktivieren, lesen Sie in unserem Beitrag Geheime Entwickleroptionen in Android nutzen.

(PC-Welt)

Android-Smartphone als WLAN-Repeater konfigurieren: So geht’s​ Weiterlesen »

Kann Wasm Container ersetzen?​

Allgemein

loading=”lazy” width=”400px”>Container über Bord?Maxx-Studio | shutterstock.com Seit seiner Einführung hat WebAssembly – kurz Wasm – für Furore gesorgt. In der Webentwicklung hat sich die Assembler-ähnliche Programmiersprache längst etabliert – und auch außerhalb des Browsers steigen die Nutzungsraten der Technologie: Mit seiner Kompaktheit, Geschwindigkeit, Portabilität und Sicherheit kann Wasm Entwickler auch zunehmend im Server- und Client-Umfeld begeistern. Einige sehen in WebAssembly sogar großes Potenzial, Linux-Container künftig zu ersetzen und das heute etablierte Container-Ökosystem zu revolutionieren. Wer sich mit der Diskussion, die um das Thema „Wasm vs. Container“ tobt, schon ein wenig beschäftigt hat, kennt sicher den Tweet von Solomon Hykes, Mitbegründer von Docker, aus dem Jahr 2019: https://twitter.com/solomonstre/status/1111004913222324225 Was Hykes damit eigentlich ausdrücken wollte: Hätte es Wasm damals bereits gegeben, wäre kein akuter Bedarf für Container-Lösungen wie Docker entstanden. Bekanntermaßen ist das nicht geschehen – wir leben in einem Universum, in dem Docker-Container tonangebend sind. Darüber hinaus ist es auch keine triviale Angelegenheit, Linux-basierte Container zu substituieren. Um das transformative Potenzial von WebAssembly besser einschätzen zu können, werfen wir im Folgenden im Gespräch mit Experten einen Blick darauf, in welchen Bereichen Wasm Container übertreffen kann – und in welchen nicht. Wo WebAssembly Container schlägt Edge Computing Seine leichtgewichtige, Sandbox-artige Natur macht WebAssembly für Edge-Computing-Zwecke besonders interessant, wie Michael J. Yuan, Gründer des Wasm-Spezialisten Second State, erklärt: „Am Netzwerkrand benötigen wir isolierte Software, aber Container verbrauchen brauchen dabei viel zu viele Ressourcen. WebAssembly lässt sich auch nutzen, um Software zu isolieren und zu managen – überall dort, wo Container zu schwerfällig sind.“ Das liegt auch an der Größe von Wasm-Modulen, wie Bailey Hayes, CTO beim Plattformanbieter Cosmonic, deutlich macht: „Im Vergleich zu Containern sind .wasm-Dateien deutlich kleiner und Laufzeit-unabhängig. Die Portabilität von WebAssembly ermöglicht es, Workloads in heterogenen Umgebungen auszuführen – etwa in der Cloud, am Netzwerkrand oder sogar auf Devices mit eingeschränkten Ressourcen.“ So eignet sich Wasm für bestimmte Anwendungsfälle, die Einschränkungen aufwerfen – beispielsweise Embedded Devices. Ein IoT-Beispiel aus dem Manufacturing-Bereich: Der Analytics-Spezialist MachineMetrics nutzt wasmCloud in der Fabrikhalle, um Maschinendaten sicherer und effizienter zu managen. Leistungskritische Workloads Auch wenn es um Performance-kritische Workloads wie Serverless-Funktionen oder bestimmte KI-Anwendungen geht, hat Wasm eine klar definierte Rolle eingenommen. Luke Wagner, Distinguished Engineer beim Cloud-Plattformanbieter Fastly, spezifiziert: „Es gibt bestimmte Anwendungen, bei denen Wasm die erste Wahl ist – vor Containern. Im Fall von Serverless-Workloads ergeben sich Kosteneinsparungen sowie Kaltstart-Optimierungen. Wasm ist vor allem für Unternehmen attraktiv, die keinen Wert darauf legen, sich an die aktuellen, proprietären Serverless-Angebote zu binden.“ Im KI-Bereich eignet sich WebAssembly insbesondere für Plattform-übergreifende Inferenz auf heterogenen Devices, wie Yuan weiß: „Container sind sehr schwer und nicht GPU-übergreifend übertragbar. Das trägt dazu bei, dass sie für Anwendungen wie LlamaEdge, einen Wasm-basierten, lokalen Laufzeit- und API-Server für große Sprachmodelle (LLMs), ungeeignet sind.“ Komponenten-basierte Architekturen Einige Experten betrachten den Spezifikations-Vorschlag WebAssembly System Interface (WASI) als Grundlage für ein Ökosystem modularer Komponenten. Darunter auch Cosmonic-Managerin Hayes: „Wir werden miterleben, wie sich neue Arten von Architekturen entwickeln, die sich die Größe und Geschwindigkeit von Wasm-Komponenten zunutze machen werden.“ Darüber hinaus stellten laut der CTO auch die standardmäßigen Sicherheitseinstellungen von WebAssembly einen großen Vorteil gegenüber Containern dar: „Container gelten im Allgemeinen nicht als die richtige Wahl für sicheres Sandboxing und dafür, Benutzercode zu isolieren“. Laut Fastly-Engineer Wagner ist davon auszugehen, dass diverse Workloads künftig von Containern auf WebAssembly migriert werden: „Das gilt insbesondere für Greenfield-Workloads, bei denen das heute bereits geschieht. Die aktuellen Standardisierungsbemühungen rund um das WebAssembly-Komponentenmodell werden dazu führen, dass Unternehmen Wasm zunehmend als Möglichkeit entdecken, um ihre Services zu modularisieren und parallel den Overhead einer traditionellen Microservices-Architektur zu vermeiden.“ Das sieht Matt Butcher, Mitbegründer und CEO des Cloud-Anbieters Fermyon, ähnlich: “Wenn Wasm ausgereift ist, wird es Container vielleicht nicht Funktion für Funktion ersetzen. Aber es besteht durchaus das Potenzial, dass WebAssembly Container in bestimmten Bereichen künftig verdrängen. Einfach deswegen, weil diese keinen Mehrwert für komponentenbasierte Anwendungen bieten.“ Plug-ins für Server-seitige Apps „Plug-ins für bestehende Systeme sind ein weiterer starker Wasm-Use-Case“, meint Yuan. Plug-Ins, die für Server-seitige Applikationen innerhalb von Sandboxes gekapselt sind, wären ein weiterer. Tatsächlich haben sich Entwickler einiger Plug-in-Frameworks bereits für Wasm entschieden. Zum Beispiel: Istio, Shopify und Envoy. Webanwendungen und -Services Browser-basierte Webanwendungen sind für WebAssembly das „tägliche Brot“. Gleichzeitig bleiben Container in diesem Bereich außen vor. Wasm im Browser ist etabliert und bietet guten Support – die Eintrittsbarriere ist also niedrig. Kein Wunder, dass bereits diverse High-Performance-Applikationen WebAssembly als Grundlage nutzen. Zum Beispiel integriert Adobe Wasm (unter anderem) aktiv in die webbasierten Versionen von: Photoshop, Express, Lightroom und Acrobat. Colin Murphy, Senior Software Engineer bei Adobe, erklärt warum: „WebAssembly ist darauf ausgelegt, kurzlebige Programme möglichst schnell, effizient und sicher auszuführen. Mit zunehmender Reife wird es auch in anderen Bereichen wie bei Web Services immer häufiger eingesetzt werden.“ Wo Container Wasm schlagen Umfangreiche Serverprozesse „Für langlaufende Serverprozesse ist WebAssembly nicht ideal“, hält Fermyon-CEO Butcher fest. Er ergänzt: „Container werden hingegen idealerweise dazu eingesetzt, bestehende, langlaufende Server wie Postgres oder WordPress zu verpacken und auszuführen. In diesem Bereich sehe ich Wasm in den nächsten zehn Jahren nicht als Herausforderer.“ Letzteres führt der Manager auf einen Mangel an Threads, schwachen Socket-Support und die Tatsache zurück, dass viele der unterstützten Sprachen nicht für WebAssembly optimiert sind. Fastly-Chefentwickler Wagner ergänzt, dass containerisierte Workloads, die auf die Funktionen eines bestimmten Betriebssystems oder einer bestimmten CPU angewiesen sind, noch nicht von Wasm unterstützt werden. „Eine Substitution durch Wasm ist also nicht so einfach möglich. Dasselbe gilt, wenn der Workload eine Sprache verwendet, die nicht vollständig von WebAssembly unterstützt wird. Ich kann mir jedoch vorstellen, dass sich das mit zunehmender Reife des Wasm-Ökosystems ändert.“ Andere sind sich da nicht so sicher – etwa Butcher: „Das Sicherheitsmodell von Wasm gewährt keinen Zugriff auf viele der Low-Level-Betriebssystem-Primitive, auf die Serveranwendungen zugreifen. Und es gibt keinen Grund zu der Annahme, dass sich das ändern wird. Das Gros der großen Code-Basen lässt sich nicht einfach zu WebAssembly kompilieren. Der Code muss neu geschrieben werden.“ Entsprechend hoch ist die Wahrscheinlichkeit, dass Container auch in Zukunft mit anderen Entwicklungsansätzen koexistieren – und sich mit diesen ergänzen. Linux-basierte, Cloud-native Systeme „Wenn man darüber spricht, Container zu ersetzen, muss man auch darüber sprechen, Linux zu ersetzen “, postuliert Hykes. Er ergänzt erklärend: „Container sind heute ein Kernbestandteil von Linux. Nicht nur der Kernel, sondern auch die Betriebssystemebene, der Standard-Stack darum herum und die Standardmethode, mit der man Linux im Rechenzentrum in der Cloud ausführt. Container werden bleiben. Die Frage ist nur: Kommt eine Ebene darüber hinzu?“ Zwar könnten Container sicherlich Wasm-Komponenten hosten – dennoch hält es der Docker-Mitbegründer für schwer vorstellbar, dass WebAssembly sich zu einer universellen, im Server-Bereich dominanten Plattform entwickelt – so wie es Linux heute ist: „Im Moment sehe ich das nicht, weil es bislang keinen überzeugenden Grund gibt, massenhaft auf diese neue Plattform umzusteigen.“ Das sehen auch andere Experten so – etwa Second-State-Gründer Yuan: „Linux-Container sind für die meisten der heutigen Cloud-nativen Anwendungen die richtigen Tools und sollten nicht ersetzt werden. Wasm ist für neue Anwendungsfälle gedacht, die eine Isolierung erfordern, bei denen Container jedoch nicht eingesetzt werden können.“ Auch in anderen Situationen, in denen die Ausführungszeit minimiert werden muss, ist Wasm keine Option, wie Wagner abschließend ergänzt: „Im Vergleich zu nativem Code entsteht bei WebAssembly ein moderater Laufzeit-Overhead, der im Fall einiger Workloads inakzeptabel sein kann. In diesen Fällen wird Wasm Container nicht ersetzen.“ Die Wasm-Zukunft Einige Experten prophezeien, dass WebAssembly Container-basierte Runtimes bis zum Jahr 2030 ersetzen wird. Die meisten gehen jedoch von einem anderen Szenario aus, in dem Wasm das aktuelle Container-Paradigma ergänzt – statt es zu ersetzen. In diesem Zusammenhang entwickeln beispielsweise die Bytecode Alliance und die Cloud Native Computing Foundation (CNCF) Projekte, die es ermöglichen, Container und Wasm-Module nebeneinander im selben Cluster auszuführen. Andere sehen eine Zukunft, in der Docker Linux-, Windows- und Wasm-Container parallel ausführt. Auch Hykes hält das für realisierbar, räumt allerdings ein: „Die Nachfrage ist eher gering. Das liegt zum Teil auch daran, dass WebAssembly auf dem Server sich bislang noch nicht durchgesetzt hat. Bislang ist das ein Nischen-Use-Case.“ Auf lange Sicht dürften mit Wasm jedoch völlig neue Märkte und Paradigmen entstehen, ist Adobe-Entwickler Murphy überzeugt: „Viele der Silos zwischen Rechenzentrum, Edge Computing, Mobilgeräten und IoT dürften durch die Portabilität und Modularität, die WASI künftig ermöglicht, aufgebrochen werden.“ Dabei dürfte auch eine Rolle spielen, dass WebAssembly branchenübergreifend eingesetzt wird, wie Hayes konstatiert: „WasmCloud wird in einer Vielzahl von Anwendungsfällen im Bankwesen, in der Fertigung, in der Telekommunikation, bei digitalen Diensten, in der Spielebranche und in vielen weiteren Bereichen eingesetzt.“ Es ist davon auszugehen, dass kleinere und schnellere Wasm-Anwendungen Container bei einer wachsenden Zahl von Greenfield-Anwendungen verdrängen werden. Dass WebAssembly jedoch das bestehende Container-Ökosystem vollständig ersetzen kann, scheint etwas weit hergeholt. Wahrscheinlicher ist, dass sowohl Wasm als auch Container die kommenden Jahre im Cloud- und Enterprise-Umfeld prägen werden. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Kann Wasm Container ersetzen?​ loading=”lazy” width=”400px”>Container über Bord?Maxx-Studio | shutterstock.com

Seit seiner Einführung hat WebAssembly – kurz Wasm – für Furore gesorgt. In der Webentwicklung hat sich die Assembler-ähnliche Programmiersprache längst etabliert – und auch außerhalb des Browsers steigen die Nutzungsraten der Technologie: Mit seiner Kompaktheit, Geschwindigkeit, Portabilität und Sicherheit kann Wasm Entwickler auch zunehmend im Server- und Client-Umfeld begeistern.

Einige sehen in WebAssembly sogar großes Potenzial, Linux-Container künftig zu ersetzen und das heute etablierte Container-Ökosystem zu revolutionieren. Wer sich mit der Diskussion, die um das Thema „Wasm vs. Container“ tobt, schon ein wenig beschäftigt hat, kennt sicher den Tweet von Solomon Hykes, Mitbegründer von Docker, aus dem Jahr 2019:

https://twitter.com/solomonstre/status/1111004913222324225

Was Hykes damit eigentlich ausdrücken wollte: Hätte es Wasm damals bereits gegeben, wäre kein akuter Bedarf für Container-Lösungen wie Docker entstanden. Bekanntermaßen ist das nicht geschehen – wir leben in einem Universum, in dem Docker-Container tonangebend sind. Darüber hinaus ist es auch keine triviale Angelegenheit, Linux-basierte Container zu substituieren.

Um das transformative Potenzial von WebAssembly besser einschätzen zu können, werfen wir im Folgenden im Gespräch mit Experten einen Blick darauf, in welchen Bereichen Wasm Container übertreffen kann – und in welchen nicht.

Wo WebAssembly Container schlägt

Edge Computing

Seine leichtgewichtige, Sandbox-artige Natur macht WebAssembly für Edge-Computing-Zwecke besonders interessant, wie Michael J. Yuan, Gründer des Wasm-Spezialisten Second State, erklärt: „Am Netzwerkrand benötigen wir isolierte Software, aber Container verbrauchen brauchen dabei viel zu viele Ressourcen. WebAssembly lässt sich auch nutzen, um Software zu isolieren und zu managen – überall dort, wo Container zu schwerfällig sind.“

Das liegt auch an der Größe von Wasm-Modulen, wie Bailey Hayes, CTO beim Plattformanbieter Cosmonic, deutlich macht: „Im Vergleich zu Containern sind .wasm-Dateien deutlich kleiner und Laufzeit-unabhängig. Die Portabilität von WebAssembly ermöglicht es, Workloads in heterogenen Umgebungen auszuführen – etwa in der Cloud, am Netzwerkrand oder sogar auf Devices mit eingeschränkten Ressourcen.“

So eignet sich Wasm für bestimmte Anwendungsfälle, die Einschränkungen aufwerfen – beispielsweise Embedded Devices. Ein IoT-Beispiel aus dem Manufacturing-Bereich: Der Analytics-Spezialist MachineMetrics nutzt wasmCloud in der Fabrikhalle, um Maschinendaten sicherer und effizienter zu managen.

Leistungskritische Workloads

Auch wenn es um Performance-kritische Workloads wie Serverless-Funktionen oder bestimmte KI-Anwendungen geht, hat Wasm eine klar definierte Rolle eingenommen. Luke Wagner, Distinguished Engineer beim Cloud-Plattformanbieter Fastly, spezifiziert: „Es gibt bestimmte Anwendungen, bei denen Wasm die erste Wahl ist – vor Containern. Im Fall von Serverless-Workloads ergeben sich Kosteneinsparungen sowie Kaltstart-Optimierungen. Wasm ist vor allem für Unternehmen attraktiv, die keinen Wert darauf legen, sich an die aktuellen, proprietären Serverless-Angebote zu binden.“

Im KI-Bereich eignet sich WebAssembly insbesondere für Plattform-übergreifende Inferenz auf heterogenen Devices, wie Yuan weiß: „Container sind sehr schwer und nicht GPU-übergreifend übertragbar. Das trägt dazu bei, dass sie für Anwendungen wie LlamaEdge, einen Wasm-basierten, lokalen Laufzeit- und API-Server für große Sprachmodelle (LLMs), ungeeignet sind.“

Komponenten-basierte Architekturen

Einige Experten betrachten den Spezifikations-Vorschlag WebAssembly System Interface (WASI) als Grundlage für ein Ökosystem modularer Komponenten. Darunter auch Cosmonic-Managerin Hayes: „Wir werden miterleben, wie sich neue Arten von Architekturen entwickeln, die sich die Größe und Geschwindigkeit von Wasm-Komponenten zunutze machen werden.“

Darüber hinaus stellten laut der CTO auch die standardmäßigen Sicherheitseinstellungen von WebAssembly einen großen Vorteil gegenüber Containern dar: „Container gelten im Allgemeinen nicht als die richtige Wahl für sicheres Sandboxing und dafür, Benutzercode zu isolieren“.

Laut Fastly-Engineer Wagner ist davon auszugehen, dass diverse Workloads künftig von Containern auf WebAssembly migriert werden: „Das gilt insbesondere für Greenfield-Workloads, bei denen das heute bereits geschieht. Die aktuellen Standardisierungsbemühungen rund um das WebAssembly-Komponentenmodell werden dazu führen, dass Unternehmen Wasm zunehmend als Möglichkeit entdecken, um ihre Services zu modularisieren und parallel den Overhead einer traditionellen Microservices-Architektur zu vermeiden.“

Das sieht Matt Butcher, Mitbegründer und CEO des Cloud-Anbieters Fermyon, ähnlich: “Wenn Wasm ausgereift ist, wird es Container vielleicht nicht Funktion für Funktion ersetzen. Aber es besteht durchaus das Potenzial, dass WebAssembly Container in bestimmten Bereichen künftig verdrängen. Einfach deswegen, weil diese keinen Mehrwert für komponentenbasierte Anwendungen bieten.“

Plug-ins für Server-seitige Apps

„Plug-ins für bestehende Systeme sind ein weiterer starker Wasm-Use-Case“, meint Yuan. Plug-Ins, die für Server-seitige Applikationen innerhalb von Sandboxes gekapselt sind, wären ein weiterer.

Tatsächlich haben sich Entwickler einiger Plug-in-Frameworks bereits für Wasm entschieden. Zum Beispiel:

Istio,

Shopify und

Envoy.

Webanwendungen und -Services

Browser-basierte Webanwendungen sind für WebAssembly das „tägliche Brot“. Gleichzeitig bleiben Container in diesem Bereich außen vor. Wasm im Browser ist etabliert und bietet guten Support – die Eintrittsbarriere ist also niedrig. Kein Wunder, dass bereits diverse High-Performance-Applikationen WebAssembly als Grundlage nutzen. Zum Beispiel integriert Adobe Wasm (unter anderem) aktiv in die webbasierten Versionen von:

Photoshop,

Express,

Lightroom und

Acrobat.

Colin Murphy, Senior Software Engineer bei Adobe, erklärt warum: „WebAssembly ist darauf ausgelegt, kurzlebige Programme möglichst schnell, effizient und sicher auszuführen. Mit zunehmender Reife wird es auch in anderen Bereichen wie bei Web Services immer häufiger eingesetzt werden.“

Wo Container Wasm schlagen

Umfangreiche Serverprozesse

„Für langlaufende Serverprozesse ist WebAssembly nicht ideal“, hält Fermyon-CEO Butcher fest. Er ergänzt: „Container werden hingegen idealerweise dazu eingesetzt, bestehende, langlaufende Server wie Postgres oder WordPress zu verpacken und auszuführen. In diesem Bereich sehe ich Wasm in den nächsten zehn Jahren nicht als Herausforderer.“ Letzteres führt der Manager auf einen Mangel an Threads, schwachen Socket-Support und die Tatsache zurück, dass viele der unterstützten Sprachen nicht für WebAssembly optimiert sind.

Fastly-Chefentwickler Wagner ergänzt, dass containerisierte Workloads, die auf die Funktionen eines bestimmten Betriebssystems oder einer bestimmten CPU angewiesen sind, noch nicht von Wasm unterstützt werden. „Eine Substitution durch Wasm ist also nicht so einfach möglich. Dasselbe gilt, wenn der Workload eine Sprache verwendet, die nicht vollständig von WebAssembly unterstützt wird. Ich kann mir jedoch vorstellen, dass sich das mit zunehmender Reife des Wasm-Ökosystems ändert.“

Andere sind sich da nicht so sicher – etwa Butcher: „Das Sicherheitsmodell von Wasm gewährt keinen Zugriff auf viele der Low-Level-Betriebssystem-Primitive, auf die Serveranwendungen zugreifen. Und es gibt keinen Grund zu der Annahme, dass sich das ändern wird. Das Gros der großen Code-Basen lässt sich nicht einfach zu WebAssembly kompilieren. Der Code muss neu geschrieben werden.“

Entsprechend hoch ist die Wahrscheinlichkeit, dass Container auch in Zukunft mit anderen Entwicklungsansätzen koexistieren – und sich mit diesen ergänzen.

Linux-basierte, Cloud-native Systeme

„Wenn man darüber spricht, Container zu ersetzen, muss man auch darüber sprechen, Linux zu ersetzen “, postuliert Hykes. Er ergänzt erklärend: „Container sind heute ein Kernbestandteil von Linux. Nicht nur der Kernel, sondern auch die Betriebssystemebene, der Standard-Stack darum herum und die Standardmethode, mit der man Linux im Rechenzentrum in der Cloud ausführt. Container werden bleiben. Die Frage ist nur: Kommt eine Ebene darüber hinzu?“

Zwar könnten Container sicherlich Wasm-Komponenten hosten – dennoch hält es der Docker-Mitbegründer für schwer vorstellbar, dass WebAssembly sich zu einer universellen, im Server-Bereich dominanten Plattform entwickelt – so wie es Linux heute ist: „Im Moment sehe ich das nicht, weil es bislang keinen überzeugenden Grund gibt, massenhaft auf diese neue Plattform umzusteigen.“

Das sehen auch andere Experten so – etwa Second-State-Gründer Yuan: „Linux-Container sind für die meisten der heutigen Cloud-nativen Anwendungen die richtigen Tools und sollten nicht ersetzt werden. Wasm ist für neue Anwendungsfälle gedacht, die eine Isolierung erfordern, bei denen Container jedoch nicht eingesetzt werden können.“

Auch in anderen Situationen, in denen die Ausführungszeit minimiert werden muss, ist Wasm keine Option, wie Wagner abschließend ergänzt: „Im Vergleich zu nativem Code entsteht bei WebAssembly ein moderater Laufzeit-Overhead, der im Fall einiger Workloads inakzeptabel sein kann. In diesen Fällen wird Wasm Container nicht ersetzen.“

Die Wasm-Zukunft

Einige Experten prophezeien, dass WebAssembly Container-basierte Runtimes bis zum Jahr 2030 ersetzen wird. Die meisten gehen jedoch von einem anderen Szenario aus, in dem Wasm das aktuelle Container-Paradigma ergänzt – statt es zu ersetzen. In diesem Zusammenhang entwickeln beispielsweise die Bytecode Alliance und die Cloud Native Computing Foundation (CNCF) Projekte, die es ermöglichen, Container und Wasm-Module nebeneinander im selben Cluster auszuführen.

Andere sehen eine Zukunft, in der Docker Linux-, Windows- und Wasm-Container parallel ausführt. Auch Hykes hält das für realisierbar, räumt allerdings ein: „Die Nachfrage ist eher gering. Das liegt zum Teil auch daran, dass WebAssembly auf dem Server sich bislang noch nicht durchgesetzt hat. Bislang ist das ein Nischen-Use-Case.“

Auf lange Sicht dürften mit Wasm jedoch völlig neue Märkte und Paradigmen entstehen, ist Adobe-Entwickler Murphy überzeugt: „Viele der Silos zwischen Rechenzentrum, Edge Computing, Mobilgeräten und IoT dürften durch die Portabilität und Modularität, die WASI künftig ermöglicht, aufgebrochen werden.“

Dabei dürfte auch eine Rolle spielen, dass WebAssembly branchenübergreifend eingesetzt wird, wie Hayes konstatiert: „WasmCloud wird in einer Vielzahl von Anwendungsfällen im Bankwesen, in der Fertigung, in der Telekommunikation, bei digitalen Diensten, in der Spielebranche und in vielen weiteren Bereichen eingesetzt.“

Es ist davon auszugehen, dass kleinere und schnellere Wasm-Anwendungen Container bei einer wachsenden Zahl von Greenfield-Anwendungen verdrängen werden. Dass WebAssembly jedoch das bestehende Container-Ökosystem vollständig ersetzen kann, scheint etwas weit hergeholt. Wahrscheinlicher ist, dass sowohl Wasm als auch Container die kommenden Jahre im Cloud- und Enterprise-Umfeld prägen werden. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Kann Wasm Container ersetzen?​ Weiterlesen »

KI: Roboter sollen künftig vom Menschen lernen​

Allgemein

Lernen statt Programmieren. Roboter sollen künftig, wie Menschen, einfach in neue Tätigkeiten eingelernt werden. Amadeus Bramsiepe, KIT Roboter für industrielle Tätigkeiten zu programmieren ist derzeit ein langwieriger Prozess. Auf das Schreiben des Codes folgt das Testen und darauf das Modifizieren des Programms. Dies geschieht so oft, bis die Maschine einen Prozess wirklich zuverlässig ausführt. Gleiches gilt für die Umrüstzeiten der Roboter, wenn diese neue Tätigkeiten ausführen sollen. Im Zeitalter der Smart Factories, die teilweise mit sehr kleinen Losgrößen arbeiten und deshalb auf eine schnelle Anpassungsfähigkeit angewiesen sind, dauern solche Prozesse schlicht zu lang. Kürzere Rüstzeiten für Roboter „Einen Roboter einsatzbereit zu machen, darf in Zukunft nicht mehr länger dauern, als einen neuen Mitarbeiter einzulernen“, fordert deshalb Edgar Welte, Doktorand am KIT. Gemeinsam mit Juniorprofessorin Rania Rayyes hat er das ICM-Zukunftslabor HaptXDeep am Institut für Fördertechnik und Logistik Systeme (IFL) des KIT aufgebaut. Dort will das Forscherduo ein Robotergreifsystem entwickeln, das menschliche Tätigkeiten durch Imitation erlernt. Stichwort: Human Robot Learning. Neben den Karlsruhern beteiligt sich an den Forschungsarbeiten auch das Institut für Automatisierungstechnik und Softwaresysteme (IAS) der Universität Stuttgart. Ziel: Flexiblere Roboter Per Virtual-Reality-Handschuh gibt der Operator dem Roboter die zu lernenden Arbeitsschritte vor. Amadeus Bramsiepe, KIT Ziel ist es, gemeinsam einen lernenden Roboter mit einem Greifsystem zu entwickeln, der schnell und flexibel aber auch zuverlässig und sicher auf veränderte Anforderungen, Produktdesigns oder Materialien reagieren kann. Dabei sollen die Robotergreifsysteme von Menschen lernen, neue Werkzeuge zu nutzen, unterschiedliche Materialien anzufassen, ganze Arbeitsschritte auszuführen und auf Veränderungen in Produktionsprozessen zu reagieren. „Dazu setzen wir für unser System autonomes Imitation Learning und Deep Reinforcement Learning ein“, erklärt Juniorprofessorin Rayyes, „so lernt der Roboter durch die Interaktion mit dem Menschen intuitiv und sofort.“ Der lernende Roboter Im Zukunftslabor HaptXDeep kommunizieren die Forschenden mit dem Roboter per Daten. So generiert Welte durch seine Bewegungen mit einem Virtual-Reality-Handschuh Daten und erklärt damit dem sechsachsigen Cobot, wie er sich drehen und Werkzeuge oder Werkstücke packen muss. Durch die 20 Stellmotoren kann die Cobot-Hand die menschlichen Greifbewegungen fast exakt nachbilden. Drucksensoren in den mechanischen Fingern geben dem Operator ein direktes Feedback. Der Operator spürt wiederum durch kleine Luftpolster im Handschuh, sobald das Gewicht zunimmt oder das Werkzeug falsch in der Hand liegt. Fehler per KI erkennen KI gestützt soll der Roboter künftig Fehler autonom erkennen und verbessern. Amadeus Bramsiepe, KIT Dann fasst er sofort nach und der Greifer tut es ihm gleich. Der Forscher korrigiert so den Fehler des Roboters in Echtzeit. Auch das wird eine wichtige Funktion, wenn die Maschine später – gestützt auf ihre Künstliche Intelligenz – selbstständig lernen kann. Im Rahmen von Kooperationsprojekten – so ist etwa Bosch AI mit im Boot – wollen die Forschenden Methoden entwickeln, um die Sicherheit und die Zuverlässigkeit des anpassungsfähigen Roboters zu gewährleisten. So werden etwa Fehlerinjektion über digitale Zwillinge als Testverfahren des Systems zum Einsatz kommen. Deep-Learning-Systeme sollen dem Roboter zudem helfen, Anomalien selbst zu erkennen und damit Fehler vorherzusagen. Auf Basis des Erlernten soll der Roboter dann künftig Fehler autonom korrigieren können. 

KI: Roboter sollen künftig vom Menschen lernen​ Lernen statt Programmieren. Roboter sollen künftig, wie Menschen, einfach in neue Tätigkeiten eingelernt werden.
Amadeus Bramsiepe, KIT

Roboter für industrielle Tätigkeiten zu programmieren ist derzeit ein langwieriger Prozess. Auf das Schreiben des Codes folgt das Testen und darauf das Modifizieren des Programms. Dies geschieht so oft, bis die Maschine einen Prozess wirklich zuverlässig ausführt.

Gleiches gilt für die Umrüstzeiten der Roboter, wenn diese neue Tätigkeiten ausführen sollen. Im Zeitalter der Smart Factories, die teilweise mit sehr kleinen Losgrößen arbeiten und deshalb auf eine schnelle Anpassungsfähigkeit angewiesen sind, dauern solche Prozesse schlicht zu lang.

Kürzere Rüstzeiten für Roboter

„Einen Roboter einsatzbereit zu machen, darf in Zukunft nicht mehr länger dauern, als einen neuen Mitarbeiter einzulernen“, fordert deshalb Edgar Welte, Doktorand am KIT. Gemeinsam mit Juniorprofessorin Rania Rayyes hat er das ICM-Zukunftslabor HaptXDeep am Institut für Fördertechnik und Logistik Systeme (IFL) des KIT aufgebaut.

Dort will das Forscherduo ein Robotergreifsystem entwickeln, das menschliche Tätigkeiten durch Imitation erlernt. Stichwort: Human Robot Learning. Neben den Karlsruhern beteiligt sich an den Forschungsarbeiten auch das Institut für Automatisierungstechnik und Softwaresysteme (IAS) der Universität Stuttgart.

Ziel: Flexiblere Roboter

Per Virtual-Reality-Handschuh gibt der Operator dem Roboter die zu lernenden Arbeitsschritte vor.
Amadeus Bramsiepe, KIT

Ziel ist es, gemeinsam einen lernenden Roboter mit einem Greifsystem zu entwickeln, der schnell und flexibel aber auch zuverlässig und sicher auf veränderte Anforderungen, Produktdesigns oder Materialien reagieren kann.

Dabei sollen die Robotergreifsysteme von Menschen lernen, neue Werkzeuge zu nutzen, unterschiedliche Materialien anzufassen, ganze Arbeitsschritte auszuführen und auf Veränderungen in Produktionsprozessen zu reagieren. „Dazu setzen wir für unser System autonomes Imitation Learning und Deep Reinforcement Learning ein“, erklärt Juniorprofessorin Rayyes, „so lernt der Roboter durch die Interaktion mit dem Menschen intuitiv und sofort.“

Der lernende Roboter

Im Zukunftslabor HaptXDeep kommunizieren die Forschenden mit dem Roboter per Daten. So generiert Welte durch seine Bewegungen mit einem Virtual-Reality-Handschuh Daten und erklärt damit dem sechsachsigen Cobot, wie er sich drehen und Werkzeuge oder Werkstücke packen muss.

Durch die 20 Stellmotoren kann die Cobot-Hand die menschlichen Greifbewegungen fast exakt nachbilden. Drucksensoren in den mechanischen Fingern geben dem Operator ein direktes Feedback. Der Operator spürt wiederum durch kleine Luftpolster im Handschuh, sobald das Gewicht zunimmt oder das Werkzeug falsch in der Hand liegt.

Fehler per KI erkennen

KI gestützt soll der Roboter künftig Fehler autonom erkennen und verbessern.
Amadeus Bramsiepe, KIT

Dann fasst er sofort nach und der Greifer tut es ihm gleich. Der Forscher korrigiert so den Fehler des Roboters in Echtzeit. Auch das wird eine wichtige Funktion, wenn die Maschine später – gestützt auf ihre Künstliche Intelligenz – selbstständig lernen kann.

Im Rahmen von Kooperationsprojekten – so ist etwa Bosch AI mit im Boot – wollen die Forschenden Methoden entwickeln, um die Sicherheit und die Zuverlässigkeit des anpassungsfähigen Roboters zu gewährleisten. So werden etwa Fehlerinjektion über digitale Zwillinge als Testverfahren des Systems zum Einsatz kommen.

Deep-Learning-Systeme sollen dem Roboter zudem helfen, Anomalien selbst zu erkennen und damit Fehler vorherzusagen. Auf Basis des Erlernten soll der Roboter dann künftig Fehler autonom korrigieren können.

KI: Roboter sollen künftig vom Menschen lernen​ Weiterlesen »

Das hilft gegen Black-Friday-Betrug​

Allgemein

Rund um den Black Friday steigt die Gefahr, Spam- und Phishing-Angriffen auf den Leim zu gehen. Machen Sie es besser.wk1003mike | shutterstock.com Der Black Friday, beziehungsweise die Black Week, ist für Schnäppchenjäger das Weihnachten vor Weihnachten. Gleiches gilt allerdings für Internetbetrüger und kriminelle Hacker. Sie nehmen Deal-affine User zu dieser Gelegenheit verstärkt ins Visier. Das unterstreichen auch aktuelle Zahlen. Die Webmail-Anbieter Web.de und Gmx warnen etwa im Rahmen einer aktuellen Pressemitteilung vor einer Spam- und Phishing-Mail-Flut in den Wochen um den „Black Friday“. Demnach registrierten die Anbieter 2024 in diesem Zeitraum einen Anstieg der genannten Bedrohungen um zehn Prozent – was rund 2,1 Milliarden potenziell schadhafter Nachrichten pro Woche entspricht. Der sichere Weg zu den besten (Tech-)Black-Deals Arne Allisat, E-Mail-Security-Chef von Web.de und GMX, bringt das saisonale Problem auf den Punkt: „Alle sind jetzt auf der Jagd nach dem besten Angebot – niemand will ein Schnäppchen verpassen. Das erzeugt emotionalen Druck. In der Hektik werden die User unvorsichtig und schauen nicht so genau hin, bevor sie sich über eine E-Mail in ihr Shopping-Konto einloggen. Und dann schnappt die Falle zu.“ Laut E-Mail-Anbietern setzen Cyberkriminelle und Scammer bei ihren Betrugsversuchen aktuell vor allem auf: Fake-Gutscheine großer Onlinehändler wie Otto oder Zalando, sowie gefälschte Mails im Namen von Paketdienstleistern wie DHL, Hermes und DPD. Um sich vor solchen Scams (und weiteren potenziell unheilvollen Folgen – etwa Identitätsdiebstahl) zu schützen, helfen in erster Linie Security Best Practices (Absender prüfen, Links “hovern”, generell keine Links in Mails anklicken, etc.). Technik-affine Schnäppchenjäger können Betrug zudem hundertprozentig verhindern (und parallel einen wirklich guten Deal machen), indem sie die Black-Friday-Angebote nutzen, die unsere Macwelt- und PC-Welt-Kollegen für Sie zusammengestellt haben: PC-Welt – die besten Black-Friday-Deals Macwelt – die besten Black-Friday-Deals (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Das hilft gegen Black-Friday-Betrug​ Rund um den Black Friday steigt die Gefahr, Spam- und Phishing-Angriffen auf den Leim zu gehen. Machen Sie es besser.wk1003mike | shutterstock.com

Der Black Friday, beziehungsweise die Black Week, ist für Schnäppchenjäger das Weihnachten vor Weihnachten. Gleiches gilt allerdings für Internetbetrüger und kriminelle Hacker. Sie nehmen Deal-affine User zu dieser Gelegenheit verstärkt ins Visier.

Das unterstreichen auch aktuelle Zahlen. Die Webmail-Anbieter Web.de und Gmx warnen etwa im Rahmen einer aktuellen Pressemitteilung vor einer Spam- und Phishing-Mail-Flut in den Wochen um den „Black Friday“. Demnach registrierten die Anbieter 2024 in diesem Zeitraum einen Anstieg der genannten Bedrohungen um zehn Prozent – was rund 2,1 Milliarden potenziell schadhafter Nachrichten pro Woche entspricht.

Der sichere Weg zu den besten (Tech-)Black-Deals

Arne Allisat, E-Mail-Security-Chef von Web.de und GMX, bringt das saisonale Problem auf den Punkt: „Alle sind jetzt auf der Jagd nach dem besten Angebot – niemand will ein Schnäppchen verpassen. Das erzeugt emotionalen Druck. In der Hektik werden die User unvorsichtig und schauen nicht so genau hin, bevor sie sich über eine E-Mail in ihr Shopping-Konto einloggen. Und dann schnappt die Falle zu.“

Laut E-Mail-Anbietern setzen Cyberkriminelle und Scammer bei ihren Betrugsversuchen aktuell vor allem auf:

Fake-Gutscheine großer Onlinehändler wie Otto oder Zalando, sowie

gefälschte Mails im Namen von Paketdienstleistern wie DHL, Hermes und DPD.

Um sich vor solchen Scams (und weiteren potenziell unheilvollen Folgen – etwa Identitätsdiebstahl) zu schützen, helfen in erster Linie Security Best Practices (Absender prüfen, Links “hovern”, generell keine Links in Mails anklicken, etc.).

Technik-affine Schnäppchenjäger können Betrug zudem hundertprozentig verhindern (und parallel einen wirklich guten Deal machen), indem sie die Black-Friday-Angebote nutzen, die unsere Macwelt- und PC-Welt-Kollegen für Sie zusammengestellt haben:

PC-Welt – die besten Black-Friday-Deals

Macwelt – die besten Black-Friday-Deals

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Das hilft gegen Black-Friday-Betrug​ Weiterlesen »

5 Gründe, warum Sie einen vertikalen Monitor brauchen​

Allgemein

Jon Martindale / IDG Nach langem hin und her habe ich mich tatsächlich dazu entschieden, einen vertikalen Monitor als zweiten Bildschirm einzusetzen, obwohl ich so noch nie gearbeitet habe. Der 28-Zoll-Monitor BenQ RD280U mit einem ungewöhnlichen Seitenverhältnis von 3:2 und einer Auflösung von 3840 x 2560 Pixeln wurde zwar nicht speziell als vertikaler Monitor konzipiert, aber er lässt sich leicht ins Hochformat drehen. Damit ist er vor allem für Programmierer, Autoren und Redakteure gedacht. Auch wenn es etwas gedauert hat, mich an dieses Modell zu gewöhnen, liebe ich es mittlerweile! Ein vertikaler Monitor bietet mehr nutzbare Bildschirmfläche Mein neuer vertikaler Monitor ist ein paar Zentimeter größer als mein vorheriger Monitor, doch viel mehr ist es wirklich die vertikale Ausrichtung, die mir viel mehr nutzbaren Platz auf dem Bildschirm verschafft hat. Ich scrolle eher von oben nach unten und nicht von links nach rechts, was bedeutet, dass ich jetzt problemlos ganze Webseiten oder Dokumente auf dem Bildschirm anzeigen kann. Ich kann leichter alle Inhalte auf einmal aufnehmen, um den Kontext dessen, was ich gerade lese oder durchstöbere, besser zu verstehen. Foundry Bei so viel vertikalem Platz habe ich festgestellt, dass es auch effizienter ist, mehrere schmale Fenster nebeneinander anzuordnen. Mein vertikaler Bildschirm kann ein Blatt mit D&D-Charakteren (Dungeons & Dragons), eine Reihe von Discord-Video-Feeds sowie Notizen für die Abenteuer anzeigen, was virtuelle D&D-Sitzungen viel angenehmer macht. Wenn ich an Spielentwicklungsprojekten arbeite, kann ich dank des zusätzlichen vertikalen Platzes ganze Skripte auf einmal sehen und es ist einfacher, Skripte zu vergleichen, ohne horizontal scrollen zu müssen. Ich kann auch ein Youtube-Bild-in-Bild-Video in der unteren Ecke abspielen lassen, um gelegentlich darauf zu verweisen, ohne dass es bei der Arbeit auf Augenhöhe im Weg ist. Ein vertikaler Monitor passt besser zum modernen App-Design Ob es sich um Social-Media-Feeds, Webartikel oder kurze Videoinhalte handelt, das moderne Internet ist mehr für mobile Geräte als für PCs konzipiert, und das bedeutet überall vertikale Seitenverhältnisse. Dank der zunehmenden mobilen Nutzung sind die meisten Apps und Websites jetzt standardmäßig auf schlankere Formate und Layouts ausgelegt. Der zusätzliche vertikale Platz ist wirklich praktisch, wenn ich Artikel mit festen Spaltenbreiten lese. Eine vertikale Ausrichtung ist auch perfekt für bildschirmfüllende Social-Media-Feeds und zum Anschauen großformatiger vertikaler Videos, wie sie von Smartphones und Tiktok verbreitet werden. Obwohl ich selbst kein Videofilmer bin, kann ich mir vorstellen, dass sich vertikale Monitore auch für vertikale Videos sehr gut eignen. Die Ausrichtung hilft bei der Vorschau von Filmmaterial auf einem Display, das zu der Art von Bildschirmen passt, für die Sie produzieren möchten. Gleiches gilt für mobile UX-Designer, die das Erlebnis eines mobilen Bildschirms nachahmen möchten. Ein vertikaler Monitor schafft Platz auf dem Schreibtisch Ein vertikaler 28-Zoll-Monitor bietet nicht nur mehr Platz auf dem Bildschirm, sondern auch am Arbeitsplatz. Mit der vertikalen Ausrichtung nimmt er weniger Platz auf dem Schreibtisch ein als ein kleineres horizontales 21-Zoll-Modell. Hier sehen Sie einen ähnlichen 28-Zoll-Monitor mit einem ähnlichen Seitenverhältnis in vertikaler Ausrichtung. Sehen Sie, wie viel Platz er auf dem Schreibtisch einnimmt.Matt Smith Ein vertikaler Monitor verbessert die Körperhaltung und die Belastung der Augen Duale und Ultraweit-Monitore eignen sich hervorragend für die Produktivität. Wenn Sie jedoch nicht weit genug hinten sitzen, müssen Sie Ihren Kopf häufiger drehen und Ihre Augen über längere horizontale Linien bewegen. Mit einem vertikalen Bildschirm ist das weniger problematisch und für den Nacken weniger belastend. Ich kann in der Regel alles, was ich brauche, mit leichten Augenbewegungen sehen, ohne den Kopf drehen zu müssen. Ich lese hauptsächlich von oben nach unten statt von links nach rechts, und das bedeutet auch an längeren Arbeitstagen weniger Augenbewegungen und letztlich weniger müde Augen. Ein vertikaler Monitor ist mehr als die Summe seiner Teile Ich habe festgestellt, dass mein vertikaler Bildschirm mehr als nur praktisch ist. Beim Arbeiten im Hochformat-Modus bin ich produktiver, arbeite weniger angestrengt und habe einen besseren Zugang zu Informationen als zuvor. Die vertikale Variante eignet sich tatsächlich besser für modernes App- und Webdesign als die horizontalen Displays, die ich jahrzehntelang verwendet habe. (PC-Welt) 

5 Gründe, warum Sie einen vertikalen Monitor brauchen​ Jon Martindale / IDG

Nach langem hin und her habe ich mich tatsächlich dazu entschieden, einen vertikalen Monitor als zweiten Bildschirm einzusetzen, obwohl ich so noch nie gearbeitet habe.

Der 28-Zoll-Monitor BenQ RD280U mit einem ungewöhnlichen Seitenverhältnis von 3:2 und einer Auflösung von 3840 x 2560 Pixeln wurde zwar nicht speziell als vertikaler Monitor konzipiert, aber er lässt sich leicht ins Hochformat drehen. Damit ist er vor allem für Programmierer, Autoren und Redakteure gedacht.

Auch wenn es etwas gedauert hat, mich an dieses Modell zu gewöhnen, liebe ich es mittlerweile!

Ein vertikaler Monitor bietet mehr nutzbare Bildschirmfläche

Mein neuer vertikaler Monitor ist ein paar Zentimeter größer als mein vorheriger Monitor, doch viel mehr ist es wirklich die vertikale Ausrichtung, die mir viel mehr nutzbaren Platz auf dem Bildschirm verschafft hat.

Ich scrolle eher von oben nach unten und nicht von links nach rechts, was bedeutet, dass ich jetzt problemlos ganze Webseiten oder Dokumente auf dem Bildschirm anzeigen kann. Ich kann leichter alle Inhalte auf einmal aufnehmen, um den Kontext dessen, was ich gerade lese oder durchstöbere, besser zu verstehen.

Foundry

Bei so viel vertikalem Platz habe ich festgestellt, dass es auch effizienter ist, mehrere schmale Fenster nebeneinander anzuordnen. Mein vertikaler Bildschirm kann ein Blatt mit D&D-Charakteren (Dungeons & Dragons), eine Reihe von Discord-Video-Feeds sowie Notizen für die Abenteuer anzeigen, was virtuelle D&D-Sitzungen viel angenehmer macht.

Wenn ich an Spielentwicklungsprojekten arbeite, kann ich dank des zusätzlichen vertikalen Platzes ganze Skripte auf einmal sehen und es ist einfacher, Skripte zu vergleichen, ohne horizontal scrollen zu müssen.

Ich kann auch ein Youtube-Bild-in-Bild-Video in der unteren Ecke abspielen lassen, um gelegentlich darauf zu verweisen, ohne dass es bei der Arbeit auf Augenhöhe im Weg ist.

Ein vertikaler Monitor passt besser zum modernen App-Design

Ob es sich um Social-Media-Feeds, Webartikel oder kurze Videoinhalte handelt, das moderne Internet ist mehr für mobile Geräte als für PCs konzipiert, und das bedeutet überall vertikale Seitenverhältnisse.

Dank der zunehmenden mobilen Nutzung sind die meisten Apps und Websites jetzt standardmäßig auf schlankere Formate und Layouts ausgelegt. Der zusätzliche vertikale Platz ist wirklich praktisch, wenn ich Artikel mit festen Spaltenbreiten lese. Eine vertikale Ausrichtung ist auch perfekt für bildschirmfüllende Social-Media-Feeds und zum Anschauen großformatiger vertikaler Videos, wie sie von Smartphones und Tiktok verbreitet werden.

Obwohl ich selbst kein Videofilmer bin, kann ich mir vorstellen, dass sich vertikale Monitore auch für vertikale Videos sehr gut eignen. Die Ausrichtung hilft bei der Vorschau von Filmmaterial auf einem Display, das zu der Art von Bildschirmen passt, für die Sie produzieren möchten. Gleiches gilt für mobile UX-Designer, die das Erlebnis eines mobilen Bildschirms nachahmen möchten.

Ein vertikaler Monitor schafft Platz auf dem Schreibtisch

Ein vertikaler 28-Zoll-Monitor bietet nicht nur mehr Platz auf dem Bildschirm, sondern auch am Arbeitsplatz. Mit der vertikalen Ausrichtung nimmt er weniger Platz auf dem Schreibtisch ein als ein kleineres horizontales 21-Zoll-Modell.

Hier sehen Sie einen ähnlichen 28-Zoll-Monitor mit einem ähnlichen Seitenverhältnis in vertikaler Ausrichtung. Sehen Sie, wie viel Platz er auf dem Schreibtisch einnimmt.Matt Smith

Ein vertikaler Monitor verbessert die Körperhaltung und die Belastung der Augen

Duale und Ultraweit-Monitore eignen sich hervorragend für die Produktivität. Wenn Sie jedoch nicht weit genug hinten sitzen, müssen Sie Ihren Kopf häufiger drehen und Ihre Augen über längere horizontale Linien bewegen. Mit einem vertikalen Bildschirm ist das weniger problematisch und für den Nacken weniger belastend.

Ich kann in der Regel alles, was ich brauche, mit leichten Augenbewegungen sehen, ohne den Kopf drehen zu müssen. Ich lese hauptsächlich von oben nach unten statt von links nach rechts, und das bedeutet auch an längeren Arbeitstagen weniger Augenbewegungen und letztlich weniger müde Augen.

Ein vertikaler Monitor ist mehr als die Summe seiner Teile

Ich habe festgestellt, dass mein vertikaler Bildschirm mehr als nur praktisch ist. Beim Arbeiten im Hochformat-Modus bin ich produktiver, arbeite weniger angestrengt und habe einen besseren Zugang zu Informationen als zuvor. Die vertikale Variante eignet sich tatsächlich besser für modernes App- und Webdesign als die horizontalen Displays, die ich jahrzehntelang verwendet habe.

(PC-Welt)

5 Gründe, warum Sie einen vertikalen Monitor brauchen​ Weiterlesen »

Das beste Macbook 2024: Welchen Apple-Laptop soll ich kaufen?​

Allgemein

Foundry Apple stellt zwei Arten von Notebooks her: das Macbook Air und das Macbook Pro. Innerhalb dieser beiden Mac-Kategorien gibt es eine große Bandbreite. Die Kluft zwischen dem Einsteiger-Gerät Macbook Air und der High-End-Variante Macbook Pro mit 16 Zoll und dem Chip M4 Max ist riesig. Apple verkauft derzeit sieben Grundkonfigurationen des Macbook Air (M2 13 Zoll plus je drei des M3 in 13 und 15 Zoll) und zehn Macbook-Pro-Varianten in 14 Zoll (sechs) und 16 Zoll (vier). Wenn man all die Optionen berücksichtigt, die Sie der Bestellung auswählen können, sind es bedeutend mehr. Dazu gehören etwa zusätzlicher Arbeitsspeicher, ein anderes Netzteil, mehr Speicherplatz auf der SSD oder ein schnellerer Prozessor. Auf diese Weise lässt sich bei Bedarf ein noch leistungsfähigerer Mac zusammenstellen. Die Entscheidung, welches der insgesamt 17 Macbooks Sie kaufen sollten, kann dennoch schwerfallen – zumal von den Macbooks Pro mit M3-Chip aus dem Vorjahr immer etliche Varianten zu reduzierten Preisen im Handel zu bekommen sind. Selbst vom Macbook Air M1 aus dem Jahr 2020 findet sich noch das ein oder andere Angebot. Macbook jetzt kaufen oder warten? Bevor Sie ein Macbook kaufen, sollten Sie wissen, wann Apple seine Macbooks erneuert oder ob schon bald eine aktualisierte Variante auf den Markt kommt. Neu seit November 2024 sind die Macbooks Pro mit den drei Chip-Varianten der M4-Generation. Die Macbooks Air in 13 Zoll und 15 Zoll hatte Apple im Mai 2024 auf die M3-Generation gehoben. Macbooks mit M4-Chip erwarten wir für das Frühjahr 2025. Zuletzt hatte Apple diese Macbooks herausgebracht: 14-Zoll Macbook Pro (M4, M4 Pro & M4 Max): November 2024 16-Zoll-Macbook Pro (M4, M4 Pro & M4 Max): November 2024 13-Zoll-Macbook Air (M3): März 2024 15-Zoll Macbook Air (M3): März 2024 14-Zoll Macbook Pro (M3, M3 Pro & M3 Max): Oktober 2023 16-Zoll-Macbook Pro (M3, M3 Pro & M3 Max): Oktober 2023 Macbook Air in 13 und 15 Zoll, Macbook Pro in 14 und 16 Zoll Zu Beginn der Apple-SIlicon-Ära hatte Apple erst einmal auf bewährte Gehäuse gesetzt, das Macbook Air M1 und das Macbook Pro M1 13 Zoll glichen äußerlich ihren Intel-Vorgängern, das Macbook Pro hatte auch noch in der M2-Generation eine Touchbar. Mit dem M2 kam ein neues Design für das Macbook Air, später auch noch mit 15 Zoll eine zweite Größe. Ein Basismodell des Macbook Pro mit M4-Prozessor verkauft Apple weiterhin, es misst jetzt 14 Zoll in der Bildschirmdiagonale und gleicht äußerlich den Modellen mit M4 Max und M4 Pro – die Touchbar ist seit letztem Jahr Geschichte. War das Macbook Pro M3 in 14 Zoll vor einem Jahr noch ein wenig eingeschränkt, hat Apple diesen Umstand beim Sprung auf die M4-Generation geändert. So hat das kleinste Macbook Pro nun drei Thunderbolt-Buchsen und ist auch in Schwarz erhältlich. Zudem ist – wie beim Macbook Air M2 und M3 – der Arbeitsspeicher in der Grundversion auf 16 GB gestiegen – 8 GB waren 2023 ein schweres Manko. Die große Macbook-Kaufberatung Wir werfen einen Blick auf die verschiedenen MacBook-Modelle, die Apple aktuell anbietet, und geben Ihnen einen umfassenden Überblick über die Vor- und Nachteile jedes Geräts. So erfahren Sie, welches Modell am besten zu Ihren Bedürfnissen passt. Außerdem zeigen wir Ihnen, wo Sie Ihr MacBook zum besten Preis bekommen. Wir beleuchten auch die verschiedenen Komponenten und Funktionen der einzelnen MacBook-Modelle, damit Sie eine informierte Entscheidung treffen können. Erfahren Sie, wie viel Arbeitsspeicher Sie wirklich benötigen, welcher Chip die beste Leistung bietet, welche SSD-Größe ideal ist und welcher Preis für Sie am attraktivsten ist. 1. Macbook Air M2 13 Zoll (2022) Foundry Apples günstigstes Macbook gibt es im Handel teils schon unter 900 Euro, für die Basisversion mit 256 GB SSD und 8 GB RAM ruft Apple 1.199 Euro auf. Für viele Einsatzzwecke reicht das im Sommer 2022 herausgekommene Modell auch völlig aus, besonders die preisbewusste Kundschaft etwa in Behörden und Bildungseinrichtungen bekommt mit dem Macbook Air M2 immer noch ein gutes Gerät. Nachdem Apple im November 2020 mit dem MacBook Air und dem M1-Chip die Apple-Silicon-Ära eingeläutet hatte – wobei das Design des MacBook Air äußerlich unverändert blieb – wurde im Sommer 2022 das erste “echte” Apple-Silicon-MacBook Air mit dem M2-Chip vorgestellt. Das Design wurde etwas kantiger und orientiert sich stärker an den Linien von iPhone und iPad. Hinzu kam die vom iPhone bekannte Kerbe für die 1080p-Facetime-Kamera. Mit dieser Lösung gelingt es Apple, die Rahmen kleiner zu bekommen und damit den Bildschirm etwas größer. Das MacBook Air M2 ist in vier eleganten Farben erhältlich: Polarstern, Silber, Space Grau und Mitternacht. Der beliebte, schwarzblaue Ton ist besonders ansprechend, aber Achtung: Die Oberfläche ist sehr anfällig für Fingerabdrücke. Ein weiterer Kritikpunkt betrifft die Basisversionen: Vor Herbst 2023 verbauten die Modelle mit 256 GB SSD nur einen Speicherchip, was im Vergleich zu Varianten mit zwei Chips zu merklichen Geschwindigkeitseinbußen führen kann. Mit dem Macbook Air M3 hat Apple beide dieser Mankos behoben: Die schwarze Variante ist nun weniger anfällig gegenüber Fingerabdrücken und auch die 256-GB-Variante hat zwei Speicherchips. Eine Änderung Apples im Herbst 2024 sollte Sie beim Kauf zur Vorsicht gemahnen, auch beim Macbook Air M3. Die eher mickrigen 8 GB gemeinsamen Arbeitsspeicher hat Apple seither auf 16 GB in der Basisversion erhöht, dabei aber den Preis belassen. Im Handel kursieren aber immer noch die “alten” Varianten mit 8 GB – diese sind gewiss keine Schnäppchen. Im Sommer 2023 hatte Apple noch ein Macbook Air M2 mit 15-Zoll-Bildschirm herausgebracht, verkauft dieses seit Mai 2024 aber nicht mehr. Auch hiervon sind im Handel noch einzelne Exemplare zu bekommen, aber eben mit langsamer SSD und nur 8 GB Arbeitsspeicher in der Basisversion. 2. Macbook Air M3 13 Zoll (2024) Foundry Im März 2024 hat Apple den Umstieg von der zweiten auf die dritte Generation des Apple Silicon bei seinen Macbooks abgeschlossen, auch das Macbook Air bekommt in beiden Größen den neuen Chip, der im 3-nm-Verfahren gefertigt wird. Das ist nur ein Zwischenschritt: Mit den neuen Macbooks Pro M4 kam im November 2024 schon die vierte Generation der M-Chips heraus, gefertigt in einem verbesserten 3-nm-Verfahren. Das Macbook Air dürfte im kommenden Frühjahr nachziehen, Apple will dieses Mal auch alle seine Macs auf die gleiche Generation hieven, während es beim M3 den Mac Mini, Mac Studio und Mac Pro ausgelassen hatte. Das kleinere der beiden Macbooks Air muss sich gleich mit zwei aktuell verkauften Konkurrenten aus dem eigenen Haus messen, dem Macbook Air M2 13 Zoll und dem Macbook Pro M4 14 Zoll. Wobei es nur gegenüber dem jüngsten Pro-Modell deutlich schwächer abschneidet. Seinem Vorgänger Gegenüber hat das Macbook Air M3 aber etliche Vorteile zu bieten, welche die 100 Euro Aufpreis rechtfertigen. So ist nicht nur der M3-Chip in all unseren Tests merklich schneller, um etwa 20 Prozent, das Macbook Air M3 kann etwas, was die Vorgänger nicht beherrschen: zwei externe Monitore ansteuern, wenn auch bei geschlossenem Deckel. Das Macbook Pro M4 muss man dafür nicht mehr zuklappen. Wer zum schicken blauschwarzen Farbton Mitternacht tendiert, wird sich über die Nachricht freuen, dass eine neue Beschichtung das M3 resistenter gegenüber Fingerabdrücken macht als das M2. Noch etwas hat Apple im März 2024 geändert, rückwirkend aber auch für das Macbook Air M2: Greift man zu einer höheren Grundkonfiguration, hat man die freie Auswahl zwischen einem 35-W-Dual-Charger und einem 70-Watt-Ladegerät. Bei den Basiskonfigurationen verlangt Apple jeweils einen Aufpreis von 20 Euro, gibt man sich nicht mit dem etwas schwachen 30-Watt-Ladegerät zufrieden. Das Macbook Air M3 13 Zoll gibt es in drei Grundkonfigurationen, angefangen mit 8-Core GPU und 8-Core CPU in der Basisausstattung für 1.299 Euro. In der bekommt man 16 GB gemeinsamen Arbeitsspeicher und eine 256 GB fassende SSD. In der mittleren für 1.529 Euro ist eine 512 GB SSD an Bord und eine 10-Core GPU, in der höchsten für 1.759 Euro dazu noch 24 GB Arbeitsspeicher. 1 TB SSD kostet 230 Euro Aufpreis und 2 TB 690 Euro. Achtung: Im Handel sind derzeit noch Macbooks Air M2 und M3 unterwegs, die vor Ende Oktober in die Läden gingen, als Apple sie noch mit 8 GB oder 16 GB Arbeitsspeicher ausgeliefert hatte. Wenn deren Preise nicht deutlich unter denen der neueren Varianten liegen, sollte man davon Abstand halten. Apple Intelligence ist sehr speicherhungrig, 16 GB hält Apple mittlerweile für die Mindestanforderung für den Mac. 3. Macbook Air M3 15 Zoll (2023) Foundry Oder darf es ein wenig mehr sein, was den Bildschirm betrifft? Erst ein ganzes Jahr nach dem Macbook Air M2 13 Zoll hatte Apple die Variante mit 15-Zoll-Display herausgebracht, die im März 2024 aus dem Angebot gefallen ist. Denn beim Aufstieg in die M3-Liga aktualisierte Apple beide Größen gleichzeitig. Was für das 13-Zoll-Modell gilt, ist auch beim 15-Zoll-Air der Fall: Der M3-Chip ist etwa 20 Prozent schneller als der M2 und kann zwei externe Monitore ansteuern – bei zugeklappten Macbook. Und der Farbton Mitternacht ist einfach atemberaubend – wenngleich Polarstern, Silber und Space Grau auch nicht übel sind. Auch das Macbook Air M3 15 Zoll gibt es in drei Grundkonfigurationen, jeweils mit 8-Core GPU und 10-Core-CPU. Für 1.599 Euro bekommt man jetzt 16 GB gemeinsamen Arbeitsspeicher und eine 256 GB fassende SSD, in der mittleren für 1.829 Euro ist eine 512 GB SSD an Bord und in der höchsten für 2.059 Euro auch noch 24 GB Arbeitsspeicher. Auch hier kostet 1 TB SSD 230 Euro Aufpreis und 2 TB 690 Euro. Alle 15-Zöller kommen wahlweise mit einem 35-Watt-Dual-Charger oder einem 70-Watt-Ladegerät. Wie bei den Macbooks Air in 13 Zoll gilt auch hier: Im Handel sind noch die alten Varianten mit 8 GB respektive 16 GB Arbeitsspeicher unterwegs. 4. Macbook Pro M4 14 Zoll (2024) Foundry Schon ein Jahr, nachdem das Macbook Pro M3 mit 14-Zoll-Bildschirm das letzte Macbook Pro (M2, 13 Zoll) mit Touchbar auf das Abstellgleis schickte, legt Apple mit dem Macbook Pro M4 nach – das gegenüber seinem Vorgänger nochmal deutliche Verbesserungen bringt und gewiss kein Fall für das Zurückschicken mehr ist. Was sich verbessert hat – abgesehen vom M4-Chip, der einen weiteren Performancesprung von etwa 20 Prozent bietet? Der gemeinsame Arbeitsspeicher ist nun auch in der Basisversion auf 16 GB angewachsen, was für die meisten Anwendungen deutlich mehr Leistung bietet. Das MacBook Pro M4 unterstützt zudem die Möglichkeit, zwei externe Monitore anzuschließen, sodass Sie mit bis zu drei Bildschirmen gleichzeitig arbeiten können. Für diese erweiterte Multimonitor-Funktionalität hat das MacBook Pro M4 auch einen dritten Thunderbolt-Anschluss erhalten, jetzt mit Thunderbolt 4, der noch schnellere Datenübertragungsraten und mehr Flexibilität bietet. Wer unbedingt den schicken Farbton Space Schwarz auf dem Schreibtisch haben möchte, muss nicht mehr zur M4 Pro- oder M4 Max-Variante greifen. Das Beste kommt jedoch zum Schluss: Der Preis ist um 100 Euro gefallen und beginnt jetzt bei 1.899 Euro. Für nur 170 Euro mehr könnte man auf das Nanotexturglas upgraden, das weniger Spiegelungen verspricht. Dieses Upgrade ist bei allen MacBook Pro M4-Modellen, einschließlich der M4 Pro- und M4 Max-Varianten, zu diesem Preis verfügbar. Der Unterschied zwischen dem MacBook Air und dem MacBook Pro ist mittlerweile größer als je zuvor – und zwar nicht nur wegen der Chip-Generation. Das MacBook Air wird im kommenden Frühjahr auf den M4-Chip umsteigen, doch eine Lücke zum MacBook Pro bleibt bestehen. Der Preisunterschied ist deutlich: Die Basisversion des MacBook Pro M4 mit 14 Zoll kostet 600 Euro mehr als das MacBook Air M3 mit 13 Zoll. Allerdings ist im MacBook Pro bereits eine 512 GB SSD verbaut, was den effektiven Preisunterschied auf 370 Euro verringert. Die Leistung des M3 im lüfterlosen Air kann in vielen Bereichen jedoch gut mit der des gut gekühlten M4 im MacBook Pro 14 Zoll mithalten. Wie das MacBook Air M3 ist auch das MacBook Pro M3 14 Zoll in drei Grundkonfigurationen erhältlich. Allen gemeinsam ist der Chip mit 10-Core CPU und 10-Core GPU. Die Einstiegsversion für 1.899 Euro bietet 16 GB gemeinsamen Arbeitsspeicher und eine 512 GB SSD. Für 2.129 Euro erhält man eine 1-TB-SSD, und für 2.359 Euro bekommt man 24 GB Arbeitsspeicher. Upgrades sind ebenfalls verfügbar: 230 Euro kosten zusätzliche 8 GB RAM (auf 24 GB oder 32 GB), und eine 2-TB-SSD schlägt mit 460 Euro zu Buche. Ein Upgrade auf 1 TB SSD im Basismodell kostet 230 Euro. 5. Macbook Pro M4 Pro 14 Zoll (2024) Foundry Zeitgleich mit dem M4 14 Zoll Macbook Pro hat Apple auch die Chip-Varianten M4 Pro und M4 Max vorgestellt. Macbook Pro (14 und 16 Zoll) können Sie mit verschiedenen Konfigurationen dieser beiden Chips kaufen. Zwischen den beiden Display-Größen gibt es feine Unterschiede. Das 14 Zoll große Macbook Pro M4 Pro mit 14-Core-CPU, 20-Core-GPU, 24 GB Arbeitsspeicher und 1 TB SSD kostet 2.899 Euro im Vergleich zum fast identisch ausgestatteten 16-Zoll-Modell M4 Pro mit 14-Core-CPU, 20-Core-GPU, 24 GB Arbeitsspeicher und 512 GB SSD für ebenfalls 2.899 Euro. Sie zahlen also keinen Aufpreis für einen größeren Bildschirm, verlieren aber auch die Hälfte der SSD-Speichergröße. Wenn Sie eine äquivalente 1-TB-SSD im 16-Zoll-Modell haben möchten, kostet Sie das 230 Euro mehr. Andererseits ist der Preisunterschied viel größer, wenn Sie sich für den M4 Pro und nicht für den M4 in einem Macbook Pro entscheiden. Das 14-Zoll-Modell mit 10-Core-CPU und 10-Core-GPU M4, mit 16 GB RAM und 512 GB SSD kostet 1.899 Euro, während das M4 Pro mit 12-Core-CPU und 16-Core-GPU, 24 GB RAM und 512 GB SSD mit 2.399 Euro ganze 500 Euro mehr kostet. Der Sprung vom M4 zum M4 Pro ist zwar teuer, aber Sie bekommen viel für Ihr Geld: mehr Arbeitsspeicher, mehr Kerne; ein in jeder Hinsicht leistungsstärkeres Gerät. 6. Macbook Pro M4 Pro 16 Zoll (2024) Foundry Das Macbook Pro 16 Zoll bietet in seiner kleinsten Varianten im Wesentlichen die gleichen technischen Daten (14-Core-CPU, 20-Core-GPU, 24 GB Arbeitsspeicher) wie das 14-Zoll-Modell der Spitzenklasse für 2.899 Euro. Um jedoch auf den gleichen SSD-Speicher von 1 TB zu kommen, ist beim 16er ein Aufpreis von 230 Euro fällig, was angesichts des größeren Bildschirms und der längeren Batterielaufzeit nicht allzu hoch erscheint. Den 16-Zöller mit M4 Pro gibt es in zwei Grundvarianten, neben der erwähnten für 2.899 Euro bietet Apple noch eine mit 14-Core CPU, 20-Core CPU, 48 GB Arbeitsspeicher und 512 GB für 3.359 Euro SSD an. Ein Upgrade des Arbeitsspeichers ist hier überraschend nicht möglich, nur die SSD lässt mit 1 TB (+ 230 Euro), 2 TB (+ 690 Euro) und 4 TB (+ 1.380 Euro) ausstatten. Erfreulicherweise kostet Nanotexturglas auch bei den 16-Zöllern nur 170 Euro Aufpreis, nur beim 24-Zoll-iMac verlangt Apple mehr (230 Euro). 7. Macbook Pro M4 Max 14 Zoll (2024) Foundry Zurück zum 14-Zoll-Macbook-Pro: Was ist, wenn Sie ein noch leistungsstärkeres Gerät haben möchten? Der M4 Max-Chip bietet Ihnen genau das – und noch viel mehr. Der Preisunterschied zwischen dem M4 Pro und dem M4 Max ist jedoch beträchtlich: Im Standardmodell liegt der Aufpreis bei 1.400 Euro. Doch dieser Unterschied reduziert sich erheblich, wenn man die bessere Grundausstattung des M4 Max berücksichtigt – 1 TB SSD statt 512 GB und 36 GB Arbeitsspeicher statt 24 GB. Der Aufpreis für die 1-TB-SSD beträgt wie üblich 230 Euro, und das Upgrade auf 36 GB Arbeitsspeicher ist beim M4 Pro überhaupt nicht möglich. Bei diesem gibt es 48 GB, die übrigens 460 Euro mehr kosten. Wenn Sie besonders viel Arbeitsspeicher benötigen, ist der M4 Max die richtige Wahl. Aber nur, wenn Sie sich auch für die Version mit 16-Core-CPU und 40-Core-GPU entscheiden, die mit einem Aufpreis von 345 Euro daherkommt. In dieser Konfiguration erhalten Sie 48 GB RAM, mit der Möglichkeit, auf 64 GB (+ 230 Euro) oder sogar 128 GB RAM (+ 1.150 Euro) zu erweitern. Maximale Leistung hat ihren Preis. 8. Macbook Pro M4 Max 16 Zoll (2024) Foundry Aber es geht noch teurer: Ähnlich verhält es sich, wenn Sie sich für das 16 Zoll Macbook Pro entscheiden. Der Sprung vom M4 Pro zum M4 Max beträgt bei den Standardoptionen 1.200 Euro. Auch hier können Sie das Pro nur auf 48 GB RAM aufrüsten (+ 460 Euro), aber nicht auf 36 GB. Der SSD-Uprade auf 1 TB kostet auch hier 230 Euro. Maximal können Sie für das Macbook Pro 16 Zoll M4 Max bei Apple 9.128 Euro ausgeben. Dafür bekommen Sie das Dispaly mit Nanotextut, 128 GB gemeinsamen Arbeitsspeicher, 8 TB SSD und die beiden Profi-Programme Final Cut Pro und Logic Pro. Eine externe Tastatur oder bis zu drei externe Monitore müssen Sie freilich woanders dazu kaufen. Fazit: Welches Macbook soll ich kaufen? In Bezug auf das Preis-Leistungs-Verhältnis ist die Entscheidung ziemlich klar: Wenn Sie ein Macbook Air M2 für 1.199 Euro kaufen, bekommen Sie einen anständigen Mac-Laptop für relativ wenig Geld. Doch für nur 100 Euro mehr bekommen Sie ein Macbook Air M3 mit einer neuen Chip-Generation, die mehr leistet als die alte. Wenn es ein wenig größer sein darf, dann greifen Sie zum Macbook Air M3 mit 15-Zoll-Bildschirm, wenn Sie ein klein wenig mehr Leistung und Schnittstellen (HDMI-Anschluss, SDXC-Kartenslot) benötigen, greifen Sie zum Macbook Pro M4 14 Zoll. So ist der Schritt zum Macbook Pro M4 Pro in 14 Zoll von hier aus kein allzu großer mehr, Sie bekommen mehr Arbeitsspeicher und eine bessere Leistungsfähigkeit von GPU und CPU, der Aufpreis hält sich in Grenzen. Teuer wird es beim nächsten Schritt, auf 16-Zoll-Bildschirm oder gar auf eine der Max-Varianten mit 14 oder 16 Zoll. Doch auch hier sollten Sie sich genau ansehen, welche Konfiguration Sie benötigen, was beim Pro noch Aufpreis kostet, ist beim Max unter Umständen schon an Bord. > > > 

Das beste Macbook 2024: Welchen Apple-Laptop soll ich kaufen?​ Foundry

Apple stellt zwei Arten von Notebooks her: das Macbook Air und das Macbook Pro. Innerhalb dieser beiden Mac-Kategorien gibt es eine große Bandbreite. Die Kluft zwischen dem Einsteiger-Gerät Macbook Air und der High-End-Variante Macbook Pro mit 16 Zoll und dem Chip M4 Max ist riesig.

Apple verkauft derzeit sieben Grundkonfigurationen des Macbook Air (M2 13 Zoll plus je drei des M3 in 13 und 15 Zoll) und zehn Macbook-Pro-Varianten in 14 Zoll (sechs) und 16 Zoll (vier). Wenn man all die Optionen berücksichtigt, die Sie der Bestellung auswählen können, sind es bedeutend mehr. Dazu gehören etwa zusätzlicher Arbeitsspeicher, ein anderes Netzteil, mehr Speicherplatz auf der SSD oder ein schnellerer Prozessor. Auf diese Weise lässt sich bei Bedarf ein noch leistungsfähigerer Mac zusammenstellen.

Die Entscheidung, welches der insgesamt 17 Macbooks Sie kaufen sollten, kann dennoch schwerfallen – zumal von den Macbooks Pro mit M3-Chip aus dem Vorjahr immer etliche Varianten zu reduzierten Preisen im Handel zu bekommen sind. Selbst vom Macbook Air M1 aus dem Jahr 2020 findet sich noch das ein oder andere Angebot.

Macbook jetzt kaufen oder warten?

Bevor Sie ein Macbook kaufen, sollten Sie wissen, wann Apple seine Macbooks erneuert oder ob schon bald eine aktualisierte Variante auf den Markt kommt. Neu seit November 2024 sind die Macbooks Pro mit den drei Chip-Varianten der M4-Generation.

Die Macbooks Air in 13 Zoll und 15 Zoll hatte Apple im Mai 2024 auf die M3-Generation gehoben. Macbooks mit M4-Chip erwarten wir für das Frühjahr 2025. Zuletzt hatte Apple diese Macbooks herausgebracht:

14-Zoll Macbook Pro (M4, M4 Pro & M4 Max): November 2024

16-Zoll-Macbook Pro (M4, M4 Pro & M4 Max): November 2024

13-Zoll-Macbook Air (M3): März 2024

15-Zoll Macbook Air (M3): März 2024

14-Zoll Macbook Pro (M3, M3 Pro & M3 Max): Oktober 2023

16-Zoll-Macbook Pro (M3, M3 Pro & M3 Max): Oktober 2023

Macbook Air in 13 und 15 Zoll, Macbook Pro in 14 und 16 Zoll

Zu Beginn der Apple-SIlicon-Ära hatte Apple erst einmal auf bewährte Gehäuse gesetzt, das Macbook Air M1 und das Macbook Pro M1 13 Zoll glichen äußerlich ihren Intel-Vorgängern, das Macbook Pro hatte auch noch in der M2-Generation eine Touchbar. Mit dem M2 kam ein neues Design für das Macbook Air, später auch noch mit 15 Zoll eine zweite Größe.

Ein Basismodell des Macbook Pro mit M4-Prozessor verkauft Apple weiterhin, es misst jetzt 14 Zoll in der Bildschirmdiagonale und gleicht äußerlich den Modellen mit M4 Max und M4 Pro – die Touchbar ist seit letztem Jahr Geschichte.

War das Macbook Pro M3 in 14 Zoll vor einem Jahr noch ein wenig eingeschränkt, hat Apple diesen Umstand beim Sprung auf die M4-Generation geändert. So hat das kleinste Macbook Pro nun drei Thunderbolt-Buchsen und ist auch in Schwarz erhältlich. Zudem ist – wie beim Macbook Air M2 und M3 – der Arbeitsspeicher in der Grundversion auf 16 GB gestiegen – 8 GB waren 2023 ein schweres Manko.

Die große Macbook-Kaufberatung

Wir werfen einen Blick auf die verschiedenen MacBook-Modelle, die Apple aktuell anbietet, und geben Ihnen einen umfassenden Überblick über die Vor- und Nachteile jedes Geräts. So erfahren Sie, welches Modell am besten zu Ihren Bedürfnissen passt. Außerdem zeigen wir Ihnen, wo Sie Ihr MacBook zum besten Preis bekommen.

Wir beleuchten auch die verschiedenen Komponenten und Funktionen der einzelnen MacBook-Modelle, damit Sie eine informierte Entscheidung treffen können. Erfahren Sie, wie viel Arbeitsspeicher Sie wirklich benötigen, welcher Chip die beste Leistung bietet, welche SSD-Größe ideal ist und welcher Preis für Sie am attraktivsten ist.

1. Macbook Air M2 13 Zoll (2022)

Foundry

Apples günstigstes Macbook gibt es im Handel teils schon unter 900 Euro, für die Basisversion mit 256 GB SSD und 8 GB RAM ruft Apple 1.199 Euro auf. Für viele Einsatzzwecke reicht das im Sommer 2022 herausgekommene Modell auch völlig aus, besonders die preisbewusste Kundschaft etwa in Behörden und Bildungseinrichtungen bekommt mit dem Macbook Air M2 immer noch ein gutes Gerät.

Nachdem Apple im November 2020 mit dem MacBook Air und dem M1-Chip die Apple-Silicon-Ära eingeläutet hatte – wobei das Design des MacBook Air äußerlich unverändert blieb – wurde im Sommer 2022 das erste “echte” Apple-Silicon-MacBook Air mit dem M2-Chip vorgestellt. Das Design wurde etwas kantiger und orientiert sich stärker an den Linien von iPhone und iPad. Hinzu kam die vom iPhone bekannte Kerbe für die 1080p-Facetime-Kamera. Mit dieser Lösung gelingt es Apple, die Rahmen kleiner zu bekommen und damit den Bildschirm etwas größer.

Das MacBook Air M2 ist in vier eleganten Farben erhältlich: Polarstern, Silber, Space Grau und Mitternacht. Der beliebte, schwarzblaue Ton ist besonders ansprechend, aber Achtung: Die Oberfläche ist sehr anfällig für Fingerabdrücke. Ein weiterer Kritikpunkt betrifft die Basisversionen: Vor Herbst 2023 verbauten die Modelle mit 256 GB SSD nur einen Speicherchip, was im Vergleich zu Varianten mit zwei Chips zu merklichen Geschwindigkeitseinbußen führen kann.

Mit dem Macbook Air M3 hat Apple beide dieser Mankos behoben: Die schwarze Variante ist nun weniger anfällig gegenüber Fingerabdrücken und auch die 256-GB-Variante hat zwei Speicherchips.

Eine Änderung Apples im Herbst 2024 sollte Sie beim Kauf zur Vorsicht gemahnen, auch beim Macbook Air M3. Die eher mickrigen 8 GB gemeinsamen Arbeitsspeicher hat Apple seither auf 16 GB in der Basisversion erhöht, dabei aber den Preis belassen. Im Handel kursieren aber immer noch die “alten” Varianten mit 8 GB – diese sind gewiss keine Schnäppchen.

Im Sommer 2023 hatte Apple noch ein Macbook Air M2 mit 15-Zoll-Bildschirm herausgebracht, verkauft dieses seit Mai 2024 aber nicht mehr. Auch hiervon sind im Handel noch einzelne Exemplare zu bekommen, aber eben mit langsamer SSD und nur 8 GB Arbeitsspeicher in der Basisversion.

2. Macbook Air M3 13 Zoll (2024)

Foundry

Im März 2024 hat Apple den Umstieg von der zweiten auf die dritte Generation des Apple Silicon bei seinen Macbooks abgeschlossen, auch das Macbook Air bekommt in beiden Größen den neuen Chip, der im 3-nm-Verfahren gefertigt wird. Das ist nur ein Zwischenschritt: Mit den neuen Macbooks Pro M4 kam im November 2024 schon die vierte Generation der M-Chips heraus, gefertigt in einem verbesserten 3-nm-Verfahren.

Das Macbook Air dürfte im kommenden Frühjahr nachziehen, Apple will dieses Mal auch alle seine Macs auf die gleiche Generation hieven, während es beim M3 den Mac Mini, Mac Studio und Mac Pro ausgelassen hatte.

Das kleinere der beiden Macbooks Air muss sich gleich mit zwei aktuell verkauften Konkurrenten aus dem eigenen Haus messen, dem Macbook Air M2 13 Zoll und dem Macbook Pro M4 14 Zoll. Wobei es nur gegenüber dem jüngsten Pro-Modell deutlich schwächer abschneidet.

Seinem Vorgänger Gegenüber hat das Macbook Air M3 aber etliche Vorteile zu bieten, welche die 100 Euro Aufpreis rechtfertigen. So ist nicht nur der M3-Chip in all unseren Tests merklich schneller, um etwa 20 Prozent, das Macbook Air M3 kann etwas, was die Vorgänger nicht beherrschen: zwei externe Monitore ansteuern, wenn auch bei geschlossenem Deckel. Das Macbook Pro M4 muss man dafür nicht mehr zuklappen.

Wer zum schicken blauschwarzen Farbton Mitternacht tendiert, wird sich über die Nachricht freuen, dass eine neue Beschichtung das M3 resistenter gegenüber Fingerabdrücken macht als das M2.

Noch etwas hat Apple im März 2024 geändert, rückwirkend aber auch für das Macbook Air M2: Greift man zu einer höheren Grundkonfiguration, hat man die freie Auswahl zwischen einem 35-W-Dual-Charger und einem 70-Watt-Ladegerät. Bei den Basiskonfigurationen verlangt Apple jeweils einen Aufpreis von 20 Euro, gibt man sich nicht mit dem etwas schwachen 30-Watt-Ladegerät zufrieden.

Das Macbook Air M3 13 Zoll gibt es in drei Grundkonfigurationen, angefangen mit 8-Core GPU und 8-Core CPU in der Basisausstattung für 1.299 Euro. In der bekommt man 16 GB gemeinsamen Arbeitsspeicher und eine 256 GB fassende SSD. In der mittleren für 1.529 Euro ist eine 512 GB SSD an Bord und eine 10-Core GPU, in der höchsten für 1.759 Euro dazu noch 24 GB Arbeitsspeicher. 1 TB SSD kostet 230 Euro Aufpreis und 2 TB 690 Euro.

Achtung: Im Handel sind derzeit noch Macbooks Air M2 und M3 unterwegs, die vor Ende Oktober in die Läden gingen, als Apple sie noch mit 8 GB oder 16 GB Arbeitsspeicher ausgeliefert hatte.

Wenn deren Preise nicht deutlich unter denen der neueren Varianten liegen, sollte man davon Abstand halten. Apple Intelligence ist sehr speicherhungrig, 16 GB hält Apple mittlerweile für die Mindestanforderung für den Mac.

3. Macbook Air M3 15 Zoll (2023)

Foundry

Oder darf es ein wenig mehr sein, was den Bildschirm betrifft? Erst ein ganzes Jahr nach dem Macbook Air M2 13 Zoll hatte Apple die Variante mit 15-Zoll-Display herausgebracht, die im März 2024 aus dem Angebot gefallen ist. Denn beim Aufstieg in die M3-Liga aktualisierte Apple beide Größen gleichzeitig.

Was für das 13-Zoll-Modell gilt, ist auch beim 15-Zoll-Air der Fall: Der M3-Chip ist etwa 20 Prozent schneller als der M2 und kann zwei externe Monitore ansteuern – bei zugeklappten Macbook. Und der Farbton Mitternacht ist einfach atemberaubend – wenngleich Polarstern, Silber und Space Grau auch nicht übel sind.

Auch das Macbook Air M3 15 Zoll gibt es in drei Grundkonfigurationen, jeweils mit 8-Core GPU und 10-Core-CPU. Für 1.599 Euro bekommt man jetzt 16 GB gemeinsamen Arbeitsspeicher und eine 256 GB fassende SSD, in der mittleren für 1.829 Euro ist eine 512 GB SSD an Bord und in der höchsten für 2.059 Euro auch noch 24 GB Arbeitsspeicher. Auch hier kostet 1 TB SSD 230 Euro Aufpreis und 2 TB 690 Euro.

Alle 15-Zöller kommen wahlweise mit einem 35-Watt-Dual-Charger oder einem 70-Watt-Ladegerät. Wie bei den Macbooks Air in 13 Zoll gilt auch hier: Im Handel sind noch die alten Varianten mit 8 GB respektive 16 GB Arbeitsspeicher unterwegs.

4. Macbook Pro M4 14 Zoll (2024)

Foundry

Schon ein Jahr, nachdem das Macbook Pro M3 mit 14-Zoll-Bildschirm das letzte Macbook Pro (M2, 13 Zoll) mit Touchbar auf das Abstellgleis schickte, legt Apple mit dem Macbook Pro M4 nach – das gegenüber seinem Vorgänger nochmal deutliche Verbesserungen bringt und gewiss kein Fall für das Zurückschicken mehr ist.

Was sich verbessert hat – abgesehen vom M4-Chip, der einen weiteren Performancesprung von etwa 20 Prozent bietet? Der gemeinsame Arbeitsspeicher ist nun auch in der Basisversion auf 16 GB angewachsen, was für die meisten Anwendungen deutlich mehr Leistung bietet. Das MacBook Pro M4 unterstützt zudem die Möglichkeit, zwei externe Monitore anzuschließen, sodass Sie mit bis zu drei Bildschirmen gleichzeitig arbeiten können. Für diese erweiterte Multimonitor-Funktionalität hat das MacBook Pro M4 auch einen dritten Thunderbolt-Anschluss erhalten, jetzt mit Thunderbolt 4, der noch schnellere Datenübertragungsraten und mehr Flexibilität bietet.

Wer unbedingt den schicken Farbton Space Schwarz auf dem Schreibtisch haben möchte, muss nicht mehr zur M4 Pro- oder M4 Max-Variante greifen. Das Beste kommt jedoch zum Schluss: Der Preis ist um 100 Euro gefallen und beginnt jetzt bei 1.899 Euro. Für nur 170 Euro mehr könnte man auf das Nanotexturglas upgraden, das weniger Spiegelungen verspricht. Dieses Upgrade ist bei allen MacBook Pro M4-Modellen, einschließlich der M4 Pro- und M4 Max-Varianten, zu diesem Preis verfügbar.

Der Unterschied zwischen dem MacBook Air und dem MacBook Pro ist mittlerweile größer als je zuvor – und zwar nicht nur wegen der Chip-Generation. Das MacBook Air wird im kommenden Frühjahr auf den M4-Chip umsteigen, doch eine Lücke zum MacBook Pro bleibt bestehen. Der Preisunterschied ist deutlich: Die Basisversion des MacBook Pro M4 mit 14 Zoll kostet 600 Euro mehr als das MacBook Air M3 mit 13 Zoll.

Allerdings ist im MacBook Pro bereits eine 512 GB SSD verbaut, was den effektiven Preisunterschied auf 370 Euro verringert. Die Leistung des M3 im lüfterlosen Air kann in vielen Bereichen jedoch gut mit der des gut gekühlten M4 im MacBook Pro 14 Zoll mithalten.

Wie das MacBook Air M3 ist auch das MacBook Pro M3 14 Zoll in drei Grundkonfigurationen erhältlich. Allen gemeinsam ist der Chip mit 10-Core CPU und 10-Core GPU. Die Einstiegsversion für 1.899 Euro bietet 16 GB gemeinsamen Arbeitsspeicher und eine 512 GB SSD. Für 2.129 Euro erhält man eine 1-TB-SSD, und für 2.359 Euro bekommt man 24 GB Arbeitsspeicher.

Upgrades sind ebenfalls verfügbar: 230 Euro kosten zusätzliche 8 GB RAM (auf 24 GB oder 32 GB), und eine 2-TB-SSD schlägt mit 460 Euro zu Buche. Ein Upgrade auf 1 TB SSD im Basismodell kostet 230 Euro.

5. Macbook Pro M4 Pro 14 Zoll (2024)

Foundry

Zeitgleich mit dem M4 14 Zoll Macbook Pro hat Apple auch die Chip-Varianten M4 Pro und M4 Max vorgestellt. Macbook Pro (14 und 16 Zoll) können Sie mit verschiedenen Konfigurationen dieser beiden Chips kaufen.

Zwischen den beiden Display-Größen gibt es feine Unterschiede. Das 14 Zoll große Macbook Pro M4 Pro mit 14-Core-CPU, 20-Core-GPU, 24 GB Arbeitsspeicher und 1 TB SSD kostet 2.899 Euro im Vergleich zum fast identisch ausgestatteten 16-Zoll-Modell M4 Pro mit 14-Core-CPU, 20-Core-GPU, 24 GB Arbeitsspeicher und 512 GB SSD für ebenfalls 2.899 Euro.

Sie zahlen also keinen Aufpreis für einen größeren Bildschirm, verlieren aber auch die Hälfte der SSD-Speichergröße. Wenn Sie eine äquivalente 1-TB-SSD im 16-Zoll-Modell haben möchten, kostet Sie das 230 Euro mehr.

Andererseits ist der Preisunterschied viel größer, wenn Sie sich für den M4 Pro und nicht für den M4 in einem Macbook Pro entscheiden. Das 14-Zoll-Modell mit 10-Core-CPU und 10-Core-GPU M4, mit 16 GB RAM und 512 GB SSD kostet 1.899 Euro, während das M4 Pro mit 12-Core-CPU und 16-Core-GPU, 24 GB RAM und 512 GB SSD mit 2.399 Euro ganze 500 Euro mehr kostet.

Der Sprung vom M4 zum M4 Pro ist zwar teuer, aber Sie bekommen viel für Ihr Geld: mehr Arbeitsspeicher, mehr Kerne; ein in jeder Hinsicht leistungsstärkeres Gerät.

6. Macbook Pro M4 Pro 16 Zoll (2024)

Foundry

Das Macbook Pro 16 Zoll bietet in seiner kleinsten Varianten im Wesentlichen die gleichen technischen Daten (14-Core-CPU, 20-Core-GPU, 24 GB Arbeitsspeicher) wie das 14-Zoll-Modell der Spitzenklasse für 2.899 Euro. Um jedoch auf den gleichen SSD-Speicher von 1 TB zu kommen, ist beim 16er ein Aufpreis von 230 Euro fällig, was angesichts des größeren Bildschirms und der längeren Batterielaufzeit nicht allzu hoch erscheint.

Den 16-Zöller mit M4 Pro gibt es in zwei Grundvarianten, neben der erwähnten für 2.899 Euro bietet Apple noch eine mit 14-Core CPU, 20-Core CPU, 48 GB Arbeitsspeicher und 512 GB für 3.359 Euro SSD an.

Ein Upgrade des Arbeitsspeichers ist hier überraschend nicht möglich, nur die SSD lässt mit 1 TB (+ 230 Euro), 2 TB (+ 690 Euro) und 4 TB (+ 1.380 Euro) ausstatten. Erfreulicherweise kostet Nanotexturglas auch bei den 16-Zöllern nur 170 Euro Aufpreis, nur beim 24-Zoll-iMac verlangt Apple mehr (230 Euro).

7. Macbook Pro M4 Max 14 Zoll (2024)

Foundry

Zurück zum 14-Zoll-Macbook-Pro: Was ist, wenn Sie ein noch leistungsstärkeres Gerät haben möchten? Der M4 Max-Chip bietet Ihnen genau das – und noch viel mehr. Der Preisunterschied zwischen dem M4 Pro und dem M4 Max ist jedoch beträchtlich: Im Standardmodell liegt der Aufpreis bei 1.400 Euro. Doch dieser Unterschied reduziert sich erheblich, wenn man die bessere Grundausstattung des M4 Max berücksichtigt – 1 TB SSD statt 512 GB und 36 GB Arbeitsspeicher statt 24 GB. Der Aufpreis für die 1-TB-SSD beträgt wie üblich 230 Euro, und das Upgrade auf 36 GB Arbeitsspeicher ist beim M4 Pro überhaupt nicht möglich. Bei diesem gibt es 48 GB, die übrigens 460 Euro mehr kosten.

Wenn Sie besonders viel Arbeitsspeicher benötigen, ist der M4 Max die richtige Wahl. Aber nur, wenn Sie sich auch für die Version mit 16-Core-CPU und 40-Core-GPU entscheiden, die mit einem Aufpreis von 345 Euro daherkommt. In dieser Konfiguration erhalten Sie 48 GB RAM, mit der Möglichkeit, auf 64 GB (+ 230 Euro) oder sogar 128 GB RAM (+ 1.150 Euro) zu erweitern. Maximale Leistung hat ihren Preis.

8. Macbook Pro M4 Max 16 Zoll (2024)

Foundry

Aber es geht noch teurer: Ähnlich verhält es sich, wenn Sie sich für das 16 Zoll Macbook Pro entscheiden. Der Sprung vom M4 Pro zum M4 Max beträgt bei den Standardoptionen 1.200 Euro. Auch hier können Sie das Pro nur auf 48 GB RAM aufrüsten (+ 460 Euro), aber nicht auf 36 GB. Der SSD-Uprade auf 1 TB kostet auch hier 230 Euro.

Maximal können Sie für das Macbook Pro 16 Zoll M4 Max bei Apple 9.128 Euro ausgeben. Dafür bekommen Sie das Dispaly mit Nanotextut, 128 GB gemeinsamen Arbeitsspeicher, 8 TB SSD und die beiden Profi-Programme Final Cut Pro und Logic Pro. Eine externe Tastatur oder bis zu drei externe Monitore müssen Sie freilich woanders dazu kaufen.

Fazit: Welches Macbook soll ich kaufen?

In Bezug auf das Preis-Leistungs-Verhältnis ist die Entscheidung ziemlich klar:

Wenn Sie ein Macbook Air M2 für 1.199 Euro kaufen, bekommen Sie einen anständigen Mac-Laptop für relativ wenig Geld. Doch für nur 100 Euro mehr bekommen Sie ein Macbook Air M3 mit einer neuen Chip-Generation, die mehr leistet als die alte.

Wenn es ein wenig größer sein darf, dann greifen Sie zum Macbook Air M3 mit 15-Zoll-Bildschirm, wenn Sie ein klein wenig mehr Leistung und Schnittstellen (HDMI-Anschluss, SDXC-Kartenslot) benötigen, greifen Sie zum Macbook Pro M4 14 Zoll.

So ist der Schritt zum Macbook Pro M4 Pro in 14 Zoll von hier aus kein allzu großer mehr, Sie bekommen mehr Arbeitsspeicher und eine bessere Leistungsfähigkeit von GPU und CPU, der Aufpreis hält sich in Grenzen.

Teuer wird es beim nächsten Schritt, auf 16-Zoll-Bildschirm oder gar auf eine der Max-Varianten mit 14 oder 16 Zoll. Doch auch hier sollten Sie sich genau ansehen, welche Konfiguration Sie benötigen, was beim Pro noch Aufpreis kostet, ist beim Max unter Umständen schon an Bord.

>

>

>

Das beste Macbook 2024: Welchen Apple-Laptop soll ich kaufen?​ Weiterlesen »

Automatisierung ist für Arbeitgeber Pflicht​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?quality=50&strip=all 7133w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Die Automatisierung in der IT bietet weit mehr als nur die Einsparung von Kosten und Zeit. Sie schafft ein Arbeitsumfeld, das für IT-Fachkräfte attraktiver wird, indem sie sich auf ihre Kernkompetenzen konzentrieren. SuPatMaN – Shutterstock Unsere Arbeitswelt steht vor einer fundamentalen Transformation – und im Zentrum dieser Veränderung die IT-Automatisierung. Gerade für IT-Fachkräfte erleichtern die jüngsten Entwicklungen den Arbeitsalltag spürbar. Aufgaben, die Teams früher viel Zeit und Mühe kosteten, lassen sich jetzt automatisiert erledigen, was nicht nur die Effizienz steigert, sondern auch den Arbeitsdruck senkt.    Laut einer aktuellen Bitkom-Studie fehlen in Deutschland rund 137.000 IT-Fachkräfte, bis 2040 sollen es über 660.000 sein – Zahlen, die den Druck auf Unternehmen massiv erhöhen. IT-Positionen bleiben im Durchschnitt mehr als sieben Monate unbesetzt, was den Geschäftsbetrieb vieler Firmen stark beeinträchtigt. Betrachtet man die Möglichkeiten außerhalb der Politik, also alles, was Unternehmen selbst tun können, liegt die Lösung, um diesen Mangel zu bewältigen und gleichzeitig das Arbeitsumfeld für IT-Experten attraktiver zu gestalten, auch in der IT-Automatisierung.  Automatisierung von Routineaufgaben IT-Fachkräfte stehen vor der Herausforderung, neben strategischen Projekten auch den Alltagsbetrieb der IT zu gewährleisten. Gerade hier kann das Auslagern repetitiver Aufgaben wie das Zurücksetzen von Passwörtern oder das Bearbeiten von einfachen Support-Tickets eine enorme Entlastung bedeuten. Unternehmen können spezialisierte Dienstleister oder automatisierte Tools einsetzen, um die Wartung und das Troubleshooting zu übernehmen.  Prozesse wie das On- und Offboarding von Mitarbeitenden, bei denen Geräte eingerichtet, Zugriffsrechte verwaltet und Software installiert werden müssen, lassen sich heutzutage durch moderne IT-Tools effizient und zuverlässig automatisieren, zum Beispiel durch automatisierte Gerätebereitstellung, zentrale Software-Deployments und ein reibungsloses IT-Management.   Ein solcher Ansatz bietet den Vorteil, dass IT-Fachkräfte ihre Expertise auf Projekte wie die Entwicklung und Optimierung der IT-Infrastruktur konzentrieren und sich um Innovationen oder die Verbesserung der Sicherheitsarchitektur kümmern können.      Mehr Effizienz, weniger Frustration Die Automatisierung und das Outsourcing repetitiver Aufgaben sparen Zeit und verbessern nachweislich die Arbeitszufriedenheit. Viele IT-Fachkräfte klagen über die Frustration, ständig für die gleichen, trivialen Aufgaben verantwortlich zu sein, anstatt an Projekten zu arbeiten, die ihre Fähigkeiten herausfordern und das Unternehmen voranbringen. Automatisierung sorgt hier für Abhilfe.  IT-Mitarbeiter können sich wieder auf das konzentrieren, was sie am besten können: Lösungen für komplexe Herausforderungen finden, die IT-Infrastruktur weiterentwickeln und innovative Projekte realisieren. So wird der Beruf für IT-Fachkräfte attraktiver und der Fachkräftemangel langfristig entschärft. Denn ein attraktiver Arbeitsplatz, der Möglichkeiten zur Weiterentwicklung bietet, zieht talentierte Fachkräfte an.     Automatisierung als Sicherheitsfaktor Neben Effizienz und Entlastung bringt die Automatisierung auch erhebliche Sicherheitsvorteile mit sich. Automatisierte Prozesse gewährleisten, dass sich Sicherheitsupdates, Patches und Compliance-Anforderungen regelmäßig und ohne manuelle Eingriffe ausführen lassen. Dies reduziert das Risiko menschlicher Fehler, die oft zu Sicherheitslücken führen. Die Automatisierung stellt sicher, dass alle Systeme stets auf dem neuesten Stand sind, was angesichts der steigenden Cyber-Bedrohungen unverzichtbar ist.   IT-Automatisierung als Wettbewerbsvorteil für Startups  Besonders Startups profitieren von der IT-Automatisierung. Während größere Unternehmen meist über umfangreiche interne IT-Abteilungen verfügen, fehlen bei jungen Unternehmen häufig die Ressourcen, um eine eigene IT-Infrastruktur aufzubauen und zu warten. Oft werden Office Manager oder CEOs versehentlich zu IT-Verantwortlichen und verharren in dieser Position über Jahre.   Hier helfen moderne SaaS-Lösungen (Software-as-a-Service). Noch einen Schritt weiter geht “Service-as-a-Software” im IT-Bereich. Lösungen dieser Art bieten Startups die Möglichkeit, IT-Prozesse zu automatisieren und gleichzeitig flexibel zu skalieren, ohne dass erhebliche Investitionen in Personal oder Tools erforderlich sind. Im Vergleich zu traditionellen IT-Dienstleistern, die oft umfangreiche, aber teurere – und nur teilweise automatisierte Lösungen anbieten, setzen Startups zunehmend auf standardisierte, Cloud-basierende Tools, um effizient zu arbeiten und ihre Wettbewerbsfähigkeit zu steigern.   Der Vorteil liegt hier auch in der Flexibilität: Anstatt eine große, interne IT-Abteilung mit redundanten Aufgaben unnötig auszulasten, können Unternehmen Tools je nach Bedarf einkaufen und so auf aktuelle Anforderungen reagieren. So werden interne Ressourcen freigehalten, die sich wiederum auf unternehmensspezifische Projekte fokussieren.    Konzentration auf Kernkompetenzen  Die Automatisierung in der IT bietet weit mehr als nur die Einsparung von Kosten und Zeit. Sie schafft ein Arbeitsumfeld, das für IT-Fachkräfte attraktiver wird, indem sie sich auf ihre Kernkompetenzen konzentrieren. Unternehmen, die ihre IT-Prozesse automatisieren, haben einen Wettbewerbsvorteil durch gesteigerte Effizienz und schaffen dadurch eine Arbeitskultur, die den IT-Fachkräftemangel langfristig abmildert.  Die IT-Welt von morgen wird geprägt sein von Automatisierung, Effizienz und einem klaren Fokus auf strategische Innovationen. Unternehmen, die diesen Trend frühzeitig erkennen und ihre IT-Prozesse entsprechend anpassen, werden nicht nur ihre internen Abläufe optimieren, sondern auch die besten Talente anziehen.  Um den Fachkräftemangel endgültig in den Griff zu bekommen, müssen Unternehmen und politische Akteure gemeinsam daran arbeiten, entsprechende Rahmenbedingungen zu schaffen. Diese große Aufgabe betrifft uns alle.   

Automatisierung ist für Arbeitgeber Pflicht​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?quality=50&strip=all 7133w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Automatisierung.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Die Automatisierung in der IT bietet weit mehr als nur die Einsparung von Kosten und Zeit. Sie schafft ein Arbeitsumfeld, das für IT-Fachkräfte attraktiver wird, indem sie sich auf ihre Kernkompetenzen konzentrieren. SuPatMaN – Shutterstock

Unsere Arbeitswelt steht vor einer fundamentalen Transformation – und im Zentrum dieser Veränderung die IT-Automatisierung. Gerade für IT-Fachkräfte erleichtern die jüngsten Entwicklungen den Arbeitsalltag spürbar. Aufgaben, die Teams früher viel Zeit und Mühe kosteten, lassen sich jetzt automatisiert erledigen, was nicht nur die Effizienz steigert, sondern auch den Arbeitsdruck senkt.   

Laut einer aktuellen Bitkom-Studie fehlen in Deutschland rund 137.000 IT-Fachkräfte, bis 2040 sollen es über 660.000 sein – Zahlen, die den Druck auf Unternehmen massiv erhöhen. IT-Positionen bleiben im Durchschnitt mehr als sieben Monate unbesetzt, was den Geschäftsbetrieb vieler Firmen stark beeinträchtigt. Betrachtet man die Möglichkeiten außerhalb der Politik, also alles, was Unternehmen selbst tun können, liegt die Lösung, um diesen Mangel zu bewältigen und gleichzeitig das Arbeitsumfeld für IT-Experten attraktiver zu gestalten, auch in der IT-Automatisierung. 

Automatisierung von Routineaufgaben

IT-Fachkräfte stehen vor der Herausforderung, neben strategischen Projekten auch den Alltagsbetrieb der IT zu gewährleisten. Gerade hier kann das Auslagern repetitiver Aufgaben wie das Zurücksetzen von Passwörtern oder das Bearbeiten von einfachen Support-Tickets eine enorme Entlastung bedeuten. Unternehmen können spezialisierte Dienstleister oder automatisierte Tools einsetzen, um die Wartung und das Troubleshooting zu übernehmen. 

Prozesse wie das On- und Offboarding von Mitarbeitenden, bei denen Geräte eingerichtet, Zugriffsrechte verwaltet und Software installiert werden müssen, lassen sich heutzutage durch moderne IT-Tools effizient und zuverlässig automatisieren, zum Beispiel durch automatisierte Gerätebereitstellung, zentrale Software-Deployments und ein reibungsloses IT-Management.  

Ein solcher Ansatz bietet den Vorteil, dass IT-Fachkräfte ihre Expertise auf Projekte wie die Entwicklung und Optimierung der IT-Infrastruktur konzentrieren und sich um Innovationen oder die Verbesserung der Sicherheitsarchitektur kümmern können.   

 

Mehr Effizienz, weniger Frustration

Die Automatisierung und das Outsourcing repetitiver Aufgaben sparen Zeit und verbessern nachweislich die Arbeitszufriedenheit. Viele IT-Fachkräfte klagen über die Frustration, ständig für die gleichen, trivialen Aufgaben verantwortlich zu sein, anstatt an Projekten zu arbeiten, die ihre Fähigkeiten herausfordern und das Unternehmen voranbringen. Automatisierung sorgt hier für Abhilfe. 

IT-Mitarbeiter können sich wieder auf das konzentrieren, was sie am besten können: Lösungen für komplexe Herausforderungen finden, die IT-Infrastruktur weiterentwickeln und innovative Projekte realisieren. So wird der Beruf für IT-Fachkräfte attraktiver und der Fachkräftemangel langfristig entschärft. Denn ein attraktiver Arbeitsplatz, der Möglichkeiten zur Weiterentwicklung bietet, zieht talentierte Fachkräfte an.  

 

Automatisierung als Sicherheitsfaktor

Neben Effizienz und Entlastung bringt die Automatisierung auch erhebliche Sicherheitsvorteile mit sich. Automatisierte Prozesse gewährleisten, dass sich Sicherheitsupdates, Patches und Compliance-Anforderungen regelmäßig und ohne manuelle Eingriffe ausführen lassen. Dies reduziert das Risiko menschlicher Fehler, die oft zu Sicherheitslücken führen. Die Automatisierung stellt sicher, dass alle Systeme stets auf dem neuesten Stand sind, was angesichts der steigenden Cyber-Bedrohungen unverzichtbar ist.  

IT-Automatisierung als Wettbewerbsvorteil für Startups 

Besonders Startups profitieren von der IT-Automatisierung. Während größere Unternehmen meist über umfangreiche interne IT-Abteilungen verfügen, fehlen bei jungen Unternehmen häufig die Ressourcen, um eine eigene IT-Infrastruktur aufzubauen und zu warten. Oft werden Office Manager oder CEOs versehentlich zu IT-Verantwortlichen und verharren in dieser Position über Jahre.  

Hier helfen moderne SaaS-Lösungen (Software-as-a-Service). Noch einen Schritt weiter geht “Service-as-a-Software” im IT-Bereich. Lösungen dieser Art bieten Startups die Möglichkeit, IT-Prozesse zu automatisieren und gleichzeitig flexibel zu skalieren, ohne dass erhebliche Investitionen in Personal oder Tools erforderlich sind. Im Vergleich zu traditionellen IT-Dienstleistern, die oft umfangreiche, aber teurere – und nur teilweise automatisierte Lösungen anbieten, setzen Startups zunehmend auf standardisierte, Cloud-basierende Tools, um effizient zu arbeiten und ihre Wettbewerbsfähigkeit zu steigern.  

Der Vorteil liegt hier auch in der Flexibilität: Anstatt eine große, interne IT-Abteilung mit redundanten Aufgaben unnötig auszulasten, können Unternehmen Tools je nach Bedarf einkaufen und so auf aktuelle Anforderungen reagieren. So werden interne Ressourcen freigehalten, die sich wiederum auf unternehmensspezifische Projekte fokussieren. 

 

Konzentration auf Kernkompetenzen 

Die Automatisierung in der IT bietet weit mehr als nur die Einsparung von Kosten und Zeit. Sie schafft ein Arbeitsumfeld, das für IT-Fachkräfte attraktiver wird, indem sie sich auf ihre Kernkompetenzen konzentrieren. Unternehmen, die ihre IT-Prozesse automatisieren, haben einen Wettbewerbsvorteil durch gesteigerte Effizienz und schaffen dadurch eine Arbeitskultur, die den IT-Fachkräftemangel langfristig abmildert. 

Die IT-Welt von morgen wird geprägt sein von Automatisierung, Effizienz und einem klaren Fokus auf strategische Innovationen. Unternehmen, die diesen Trend frühzeitig erkennen und ihre IT-Prozesse entsprechend anpassen, werden nicht nur ihre internen Abläufe optimieren, sondern auch die besten Talente anziehen. 

Um den Fachkräftemangel endgültig in den Griff zu bekommen, müssen Unternehmen und politische Akteure gemeinsam daran arbeiten, entsprechende Rahmenbedingungen zu schaffen. Diese große Aufgabe betrifft uns alle.  

Automatisierung ist für Arbeitgeber Pflicht​ Weiterlesen »

Wie Sie Ihre Cloud-Daten mit Microsoft Azure optimal schützen​

Allgemein

Mehr als die Hälfte der Unternehmen in Deutschland plant laut dem „Cloud Report 2024“ des Digitalverbandes Bitkom (54 Prozent) in diesem Jahr in die Cloud zu investieren. 33 Prozent wollen dabei ihre Ausgaben gegenüber dem Vorjahr erhöhen. Immerhin ein Fünftel (21 Prozent) gibt hingegen an, diese reduzieren zu wollen. Dabei spielen Sicherheitsgründe nach wie vor eine entscheidende Rolle: Für 64 Prozent der befragten Firmen ist die Sorge vor unberechtigtem Zugriff auf sensible Daten das zweit wichtigste Hemmnis bei der Umsetzung von Cloud-Projekten – gleich nach dem Fehlen von qualifiziertem Personal (76). Auch Angst vor Datenverlust spielt bei mehr als der Hälfte der befragten hierbei eine Rolle (52 Prozent). Dabei bietet sich gerade beim Wechsel in die Cloud die Chance, Sicherheitsstrukturen und -konzepte auf ein modernes, effektives und zukunftssicheres Niveau zu heben. Microsoft Azure stellt hierfür beispielsweise eine Vielzahl leistungsstarker Sicherheitsmechanismen bereit, die Ihren Cloud-Betrieb optimal absichern können. Experten von Scheer haben sich der Thematik angenommen und intelligente Managed-Services-Lösungen entwickelt, welche die Security-Features von Azure optimal integrieren. Auf diese Weise lassen sich Bedrohungen schneller erkennen, gezielt bearbeiten und das volle Potenzial der Cloud-Sicherheitsmaßnahmen lässt sich optimal ausschöpfen. Welche Sicherheitslösungen Microsoft Azure bietet und welche Vorteile diese bieten, zeigt ein CIO-Webcast in Zusammenarbeit mit Scheer. Andreas Tyroller von Scheer wird erklären, wie Sie Ihren Betrieb optimal aufstellen, um maximale Sicherheit für Ihre SAP-Landschaft zu gewährleisten. Sie erfahren außerdem, wie Sie durch den gezielten Einsatz von Cloud-Sicherheitslösungen Risiken minimieren, Compliance sicherstellen und Ihre Geschäftsprozesse bestmöglich unterstützen. Der Fachjournalist Dr. Oliver Janzen wird den Webcast moderieren. Registrieren Sie sich jetzt 

Wie Sie Ihre Cloud-Daten mit Microsoft Azure optimal schützen​ Mehr als die Hälfte der Unternehmen in Deutschland plant laut dem „Cloud Report 2024“ des Digitalverbandes Bitkom (54 Prozent) in diesem Jahr in die Cloud zu investieren. 33 Prozent wollen dabei ihre Ausgaben gegenüber dem Vorjahr erhöhen. Immerhin ein Fünftel (21 Prozent) gibt hingegen an, diese reduzieren zu wollen. Dabei spielen Sicherheitsgründe nach wie vor eine entscheidende Rolle: Für 64 Prozent der befragten Firmen ist die Sorge vor unberechtigtem Zugriff auf sensible Daten das zweit wichtigste Hemmnis bei der Umsetzung von Cloud-Projekten – gleich nach dem Fehlen von qualifiziertem Personal (76). Auch Angst vor Datenverlust spielt bei mehr als der Hälfte der befragten hierbei eine Rolle (52 Prozent).

Dabei bietet sich gerade beim Wechsel in die Cloud die Chance, Sicherheitsstrukturen und -konzepte auf ein modernes, effektives und zukunftssicheres Niveau zu heben. Microsoft Azure stellt hierfür beispielsweise eine Vielzahl leistungsstarker Sicherheitsmechanismen bereit, die Ihren Cloud-Betrieb optimal absichern können. Experten von Scheer haben sich der Thematik angenommen und intelligente Managed-Services-Lösungen entwickelt, welche die Security-Features von Azure optimal integrieren. Auf diese Weise lassen sich Bedrohungen schneller erkennen, gezielt bearbeiten und das volle Potenzial der Cloud-Sicherheitsmaßnahmen lässt sich optimal ausschöpfen.

Welche Sicherheitslösungen Microsoft Azure bietet und welche Vorteile diese bieten, zeigt ein CIO-Webcast in Zusammenarbeit mit Scheer. Andreas Tyroller von Scheer wird erklären, wie Sie Ihren Betrieb optimal aufstellen, um maximale Sicherheit für Ihre SAP-Landschaft zu gewährleisten. Sie erfahren außerdem, wie Sie durch den gezielten Einsatz von Cloud-Sicherheitslösungen Risiken minimieren, Compliance sicherstellen und Ihre Geschäftsprozesse bestmöglich unterstützen. Der Fachjournalist Dr. Oliver Janzen wird den Webcast moderieren.

Registrieren Sie sich jetzt

Wie Sie Ihre Cloud-Daten mit Microsoft Azure optimal schützen​ Weiterlesen »

Was ist Scraping?​

Allgemein

Vorsicht Scraper: Einmal im Web veröffentlicht, können Informationen eingesammelt und missbraucht werden. Foto: Shutterstock – hmorena Mittlerweile ist es fast schon Gewohnheit, dass durch Hacks und Datenpannen bei Online-Diensten regelmäßig Millionen von Nutzerdaten in falsche Hände geraten. So tauchten etwa im April 2021 die Daten von mehr als 553 Millionen Facebook-Nutzern, 500 Millionen LinkedIn-Accounts und 1,3 Millionen Clubhouse-Nutzer im Web auf. Eher ungewöhnlich ist jedoch, dass alle drei Betreiber der Dienste bestritten, Opfer eines Hacks geworden zu sein. Es habe sich vielmehr um Scraping gehandelt, hieß es, wobei Daten abgegriffen wurden, die von den Nutzern selbst veröffentlicht wurden und von anderen Mitgliedern oder zumindest ihren Kontakten einsehbar seien, wie vollständiger Namen, Telefonnummer etc. Doch was ist Scraping, wie funktioniert es und wie kann man sich davor schützen? Scraping – Definition Scraping als Kurzform von Screen Scraping oder Web Scraping ist eine Funktion, bei der eine Anwendung oder ein Script Informationen von einer Website oder einem Online-Dienst ausliest und speichert – also die Information vom Bildschirm “kratzt”. Bekannte Anwendungsfälle dieser Technik sind etwa Bots von Suchmaschinen wie Google, die kontinuierlich im Internet unterwegs sind, um Websites zu indizieren (Crawling). Aber auch Vergleichsportale nutzen die Methode, um Unmengen an Daten zu sammeln und dann auszuwerten. In vielen Fällen ist eine derartige Praxis auch im Sinne der Website-Betreiber, da sie dank einer solchen Indexierung möglicherweise eine höhere Reichweite oder mehr Umsatz für ihre Produkte und Services erzielen. Die Technik kann allerdings auch missbräuchlich genutzt werden. Unternehmen sind etwa mittels Scraping in der Lage, die Webshops der Konkurrenz automatisch zu durchforsten. Im Anschluss können sie dann beispielsweise ihre Preise so anpassen, dass sie immer etwas billiger ist (Preis-Grabbing). Oder sie übernehmen deren Produktbeschreibungen und -bilder (Content-Grabbing) beziehungsweise gleich die ganze Webshop-Konstruktion und sparen sich viel Zeit und Geld. Die auf Facebook eingesammelten Telefonnummern und E-Mail-Adressen werden außerdem in direktem Zusammenhang mit darauffolgenden “Smishing“- und Phishing-Wellen gebracht. Web Scraping – FunktionsweiseDer Scraping-Prozess besteht im Großen und Ganzen aus zwei Teilen, nämlich dem Aufrufen der gewünschten Web-Seiten (statische und dynamisch erzeugte) und der anschließenden Extraktion der Daten. Es ist eine Vielzahl von Scraping-Tools verfügbar, allein auf Github finden sich zahlreiche Lösungen und Toolkits für die verschiedensten Einsatzgebiete.Im Fall des Facebook-Scraps, wo auch als privat gekennzeichnete Daten abgesaugt wurden, gehen die Betreiber von einer speziellen Methode aus, die sich eine Ende 2019 geschlossene Lücke in der Kontaktimport-Funktion der Plattform zunutze machte. Dieses Feature soll es Nutzern ermöglichen, Freunde und Bekannte auf Facebook zu identifizieren, indem sie ihr Telefonbuch hochladen. Laut Facebook nutzten die Angreifer diese Funktionalität im großen Stil, um ein Set an Benutzerprofilen abzufragen und dann Informationen über diese erhalten, die in ihren öffentlichen Profilen enthalten sind.Noch leistungsfähiger dank (generativer) KIMit dem Aufkommen von mehr und mehr GenAI-Tools und LLMs erreicht Scraping inzwischen ganz andere Dimensionen. Nicht genug damit, dass generative künstliche Intelligenz selbst jede Menge Trainingsdaten benötigt und sich Crawler von Google, OpenAI & Co. dazu fleißig auf Websites bedienen – sofern sie nicht ausgesperrt werden. LLMs sind auch in der Lage, ein breiteres Spektrum von Datensätzen sowie Websites zu erkunden und per Prompts gezielt spezielle Daten zu extrahieren, in Tabellen einzutragen und auszuwerten. Neben dem Erkennen von Text in Bildern via OCR ist mit GenAI auch die Beschreibung von Bildern in Textform kein Problem mehr. Scraping – legal oder illegal?Die Antwort lautet: Es kommt darauf an. Werden zum Scraping keine technischen Schutzvorrichtungen überwunden, ist die Handlung selbst nicht illegal – es werden schließlich nur Informationen eingesammelt, die ohnehin öffentlich zugänglich sind. Allerdings kann das, was Sie anschließend mit den Daten anstellen, nachdem diese “gescraped” wurden, illegal sein. Werden etwa Bilder, Artikel und Ähnliches abgegriffen und anderswo ohne Erlaubnis publiziert, handelt es sich klar um einen Verstoß gegen das Copyright. Dass die Nutzung der Datensätze zum Phishing und ähnlichen Aktivitäten nicht legal sind, dürfte ebenfalls klar sein.Noch eindeutiger ist das Urteil beim Scraping von persönlichen Daten. So haben DSGVO und andere Datenschutzgesetze klare Vorgaben, wenn es um das Sammeln und Speichern persönlicher Daten geht. Sie müssen nämlich einen rechtmäßigen Grund dafür haben, etwa die ausdrückliche Zustimmung oder ein legitimes Interesse am Sammeln und Speichern der personenbezogenen Daten. Die GDPR verlangt zudem, dass nur so viele Daten verarbeitet werden, wie zur Erfüllung einer Aufgabe notwendig sind (Datensparsamkeit).Die meisten Betreiber von sozialen Netzwerken schließen außerdem Scraping in ihren Geschäftsbedingungen aus. Dass es wie im Fall von Facebook, LinkedIn und Clubhouse offenbar kaum weitere Kontrollinstanzen zu geben scheint, wirft ein schlechtes Licht auf ihre Sicherheitseinstellungen.Data Scraping – AbwehrmaßnahmenAuf Seiten des Website-Betreibers gibt es verschiedene Möglichkeiten, sich vor Scrapern zu schützen. Häufig eingesetzte Methoden sind etwa die Verwendung von Captcha-Abfragen oder einer robots.txt-Datei, um Web-Crawler den Zugang zu verwehren. Außerdem sind Web Application Firewalls meist in der Lage, verdächtige Aktivitäten eines Scrapers zu entdecken.Zudem sollte man es den automatisierten Datensammlern nicht zu einfach machen. Im Fall Clubhouse sieht es danach aus, dass bei der Erstellung von Benutzerprofilen in der SQL-Datenbank eine fortlaufende Nummerierung verwendet wurde. Die ermöglich Scrapern einen relativ einfachen Zugriff: Ein einfaches Skript, das den Profil-Links eine Nummer hinzufügt, genügt für massenhaftes Data Scraping.Und auf Anwenderseite? “Nutzer müssen sich darüber im Klaren sein, dass man bei jeder Information, die öffentlich im Weg zugänglich ist, auch Gefahr läuft, Opfer von Scrapern zu werden, egal ob Facebook, LinkedIn, Clubhouse oder sonstwo”, erklären auch die Sicherheitsexperten von Avast: Einmal veröffentlicht, könnten die Informationen eingesammelt werden und man hat keine Kontrolle darüber, wer die Daten kopiert und was damit in den Weiten des Internets angestellt wird.Die einzige Möglichkeit zu verhindern, dass öffentliche Informationen eingesammelt und auf nicht gewünschte Weise verwendet werden sei entsprechend, dass man sie nicht öffentlich macht. Auch Facebook empfiehlt allen Nutzern, ihre Datenschutzeinstellungen regelmäßig zu überprüfen, um sie fortlaufend an ihre aktuellen Präferenzen anzupassen. 

Was ist Scraping?​ Vorsicht Scraper: Einmal im Web veröffentlicht, können Informationen eingesammelt und missbraucht werden.
Foto: Shutterstock – hmorena

Mittlerweile ist es fast schon Gewohnheit, dass durch Hacks und Datenpannen bei Online-Diensten regelmäßig Millionen von Nutzerdaten in falsche Hände geraten. So tauchten etwa im April 2021 die Daten von mehr als 553 Millionen Facebook-Nutzern, 500 Millionen LinkedIn-Accounts und 1,3 Millionen Clubhouse-Nutzer im Web auf.

Eher ungewöhnlich ist jedoch, dass alle drei Betreiber der Dienste bestritten, Opfer eines Hacks geworden zu sein. Es habe sich vielmehr um Scraping gehandelt, hieß es, wobei Daten abgegriffen wurden, die von den Nutzern selbst veröffentlicht wurden und von anderen Mitgliedern oder zumindest ihren Kontakten einsehbar seien, wie vollständiger Namen, Telefonnummer etc. Doch was ist Scraping, wie funktioniert es und wie kann man sich davor schützen?

Scraping – Definition

Scraping als Kurzform von Screen Scraping oder Web Scraping ist eine Funktion, bei der eine Anwendung oder ein Script Informationen von einer Website oder einem Online-Dienst ausliest und speichert – also die Information vom Bildschirm “kratzt”. Bekannte Anwendungsfälle dieser Technik sind etwa Bots von Suchmaschinen wie Google, die kontinuierlich im Internet unterwegs sind, um Websites zu indizieren (Crawling). Aber auch Vergleichsportale nutzen die Methode, um Unmengen an Daten zu sammeln und dann auszuwerten.

In vielen Fällen ist eine derartige Praxis auch im Sinne der Website-Betreiber, da sie dank einer solchen Indexierung möglicherweise eine höhere Reichweite oder mehr Umsatz für ihre Produkte und Services erzielen. Die Technik kann allerdings auch missbräuchlich genutzt werden. Unternehmen sind etwa mittels Scraping in der Lage, die Webshops der Konkurrenz automatisch zu durchforsten.

Im Anschluss können sie dann beispielsweise ihre Preise so anpassen, dass sie immer etwas billiger ist (Preis-Grabbing). Oder sie übernehmen deren Produktbeschreibungen und -bilder (Content-Grabbing) beziehungsweise gleich die ganze Webshop-Konstruktion und sparen sich viel Zeit und Geld. Die auf Facebook eingesammelten Telefonnummern und E-Mail-Adressen werden außerdem in direktem Zusammenhang mit darauffolgenden “Smishing“- und Phishing-Wellen gebracht.

Web Scraping – FunktionsweiseDer Scraping-Prozess besteht im Großen und Ganzen aus zwei Teilen, nämlich dem Aufrufen der gewünschten Web-Seiten (statische und dynamisch erzeugte) und der anschließenden Extraktion der Daten. Es ist eine Vielzahl von Scraping-Tools verfügbar, allein auf Github finden sich zahlreiche Lösungen und Toolkits für die verschiedensten Einsatzgebiete.Im Fall des Facebook-Scraps, wo auch als privat gekennzeichnete Daten abgesaugt wurden, gehen die Betreiber von einer speziellen Methode aus, die sich eine Ende 2019 geschlossene Lücke in der Kontaktimport-Funktion der Plattform zunutze machte. Dieses Feature soll es Nutzern ermöglichen, Freunde und Bekannte auf Facebook zu identifizieren, indem sie ihr Telefonbuch hochladen. Laut Facebook nutzten die Angreifer diese Funktionalität im großen Stil, um ein Set an Benutzerprofilen abzufragen und dann Informationen über diese erhalten, die in ihren öffentlichen Profilen enthalten sind.Noch leistungsfähiger dank (generativer) KIMit dem Aufkommen von mehr und mehr GenAI-Tools und LLMs erreicht Scraping inzwischen ganz andere Dimensionen. Nicht genug damit, dass generative künstliche Intelligenz selbst jede Menge Trainingsdaten benötigt und sich Crawler von Google, OpenAI & Co. dazu fleißig auf Websites bedienen – sofern sie nicht ausgesperrt werden. LLMs sind auch in der Lage, ein breiteres Spektrum von Datensätzen sowie Websites zu erkunden und per Prompts gezielt spezielle Daten zu extrahieren, in Tabellen einzutragen und auszuwerten. Neben dem Erkennen von Text in Bildern via OCR ist mit GenAI auch die Beschreibung von Bildern in Textform kein Problem mehr. Scraping – legal oder illegal?Die Antwort lautet: Es kommt darauf an. Werden zum Scraping keine technischen Schutzvorrichtungen überwunden, ist die Handlung selbst nicht illegal – es werden schließlich nur Informationen eingesammelt, die ohnehin öffentlich zugänglich sind. Allerdings kann das, was Sie anschließend mit den Daten anstellen, nachdem diese “gescraped” wurden, illegal sein. Werden etwa Bilder, Artikel und Ähnliches abgegriffen und anderswo ohne Erlaubnis publiziert, handelt es sich klar um einen Verstoß gegen das Copyright. Dass die Nutzung der Datensätze zum Phishing und ähnlichen Aktivitäten nicht legal sind, dürfte ebenfalls klar sein.Noch eindeutiger ist das Urteil beim Scraping von persönlichen Daten. So haben DSGVO und andere Datenschutzgesetze klare Vorgaben, wenn es um das Sammeln und Speichern persönlicher Daten geht. Sie müssen nämlich einen rechtmäßigen Grund dafür haben, etwa die ausdrückliche Zustimmung oder ein legitimes Interesse am Sammeln und Speichern der personenbezogenen Daten. Die GDPR verlangt zudem, dass nur so viele Daten verarbeitet werden, wie zur Erfüllung einer Aufgabe notwendig sind (Datensparsamkeit).Die meisten Betreiber von sozialen Netzwerken schließen außerdem Scraping in ihren Geschäftsbedingungen aus. Dass es wie im Fall von Facebook, LinkedIn und Clubhouse offenbar kaum weitere Kontrollinstanzen zu geben scheint, wirft ein schlechtes Licht auf ihre Sicherheitseinstellungen.Data Scraping – AbwehrmaßnahmenAuf Seiten des Website-Betreibers gibt es verschiedene Möglichkeiten, sich vor Scrapern zu schützen. Häufig eingesetzte Methoden sind etwa die Verwendung von Captcha-Abfragen oder einer robots.txt-Datei, um Web-Crawler den Zugang zu verwehren. Außerdem sind Web Application Firewalls meist in der Lage, verdächtige Aktivitäten eines Scrapers zu entdecken.Zudem sollte man es den automatisierten Datensammlern nicht zu einfach machen. Im Fall Clubhouse sieht es danach aus, dass bei der Erstellung von Benutzerprofilen in der SQL-Datenbank eine fortlaufende Nummerierung verwendet wurde. Die ermöglich Scrapern einen relativ einfachen Zugriff: Ein einfaches Skript, das den Profil-Links eine Nummer hinzufügt, genügt für massenhaftes Data Scraping.Und auf Anwenderseite? “Nutzer müssen sich darüber im Klaren sein, dass man bei jeder Information, die öffentlich im Weg zugänglich ist, auch Gefahr läuft, Opfer von Scrapern zu werden, egal ob Facebook, LinkedIn, Clubhouse oder sonstwo”, erklären auch die Sicherheitsexperten von Avast: Einmal veröffentlicht, könnten die Informationen eingesammelt werden und man hat keine Kontrolle darüber, wer die Daten kopiert und was damit in den Weiten des Internets angestellt wird.Die einzige Möglichkeit zu verhindern, dass öffentliche Informationen eingesammelt und auf nicht gewünschte Weise verwendet werden sei entsprechend, dass man sie nicht öffentlich macht. Auch Facebook empfiehlt allen Nutzern, ihre Datenschutzeinstellungen regelmäßig zu überprüfen, um sie fortlaufend an ihre aktuellen Präferenzen anzupassen.

Was ist Scraping?​ Weiterlesen »

DXC Technology und ServiceNow starten „GenAI-Hub“​

Allgemein

„Unternehmen wollen ihr Geschäft mit KI transformieren“ sagt Howard Boville, DXC Executive Vice President (EVP), Consulting und Engineering Services DXC Technology Unternehmen investieren global in KI, um schneller Gewinne zu erzielen. Das ist an sich nichts Neues, da Künstliche Intelligenz doch seit geraumer Zeit das Hype-Thema schlechthin ist. Modernisierung und Optimierung Jetzt haben DXC und ServiceNow ein „GenAI Center of Excellence“ gegründet. Dessen Ziel ist es, Kunden dabei zu unterstützen, ihre Systeme zu modernisieren und ihre Technologie-Performance zu optimieren. Die beiden Partner bündeln hierbei ihre Expertise, um Unternehmen dabei unter die Arme zu greifen, wenn sie KI für Geschäftstransformation und Produktivitätssteigerung verwenden wollen. Laut Howard Boville, EVP bei DXC, liegt der Fokus darauf, KI-Anwendungsfälle unter höchsten Standards für Datenschutz, Governance und Compliance umzusetzen. Erica Volini von ServiceNow betont zudem, dass das neue Center of Excellence die Branchenkompetenz von DXC mit den GenAI-Funktionen von „Now Assist“ kombiniert. Das soll KI breiter zugänglich machen und nachhaltige Geschäftserfolge fördern. Auch in Deutschland tut sich was Mit ihrem Vorhaben, ein GenAI-Hub aufzubauen, stehen die beiden Firmen nicht allein da. Auch SAP bietet bereits einen solchen integriert in seinen Cloud Service an und das Fraunhofer-Institut hat einen Innovation Hub zu dem Thema ins Leben gerufen. Zugleich spaltet die Technologie die Unternehmenswelt: Die Hälfte aller Unternehmen steht KI weiterhin skeptisch gegenüber, wie Deloitte noch im Oktober 2024 herausfand. 

DXC Technology und ServiceNow starten „GenAI-Hub“​ „Unternehmen wollen ihr Geschäft mit KI transformieren“ sagt Howard Boville, DXC Executive Vice President (EVP), Consulting und Engineering Services
DXC Technology

Unternehmen investieren global in KI, um schneller Gewinne zu erzielen. Das ist an sich nichts Neues, da Künstliche Intelligenz doch seit geraumer Zeit das Hype-Thema schlechthin ist.

Modernisierung und Optimierung

Jetzt haben DXC und ServiceNow ein „GenAI Center of Excellence“ gegründet. Dessen Ziel ist es, Kunden dabei zu unterstützen, ihre Systeme zu modernisieren und ihre Technologie-Performance zu optimieren. Die beiden Partner bündeln hierbei ihre Expertise, um Unternehmen dabei unter die Arme zu greifen, wenn sie KI für Geschäftstransformation und Produktivitätssteigerung verwenden wollen.

Laut Howard Boville, EVP bei DXC, liegt der Fokus darauf, KI-Anwendungsfälle unter höchsten Standards für Datenschutz, Governance und Compliance umzusetzen.

Erica Volini von ServiceNow betont zudem, dass das neue Center of Excellence die Branchenkompetenz von DXC mit den GenAI-Funktionen von „Now Assist“ kombiniert. Das soll KI breiter zugänglich machen und nachhaltige Geschäftserfolge fördern.

Auch in Deutschland tut sich was

Mit ihrem Vorhaben, ein GenAI-Hub aufzubauen, stehen die beiden Firmen nicht allein da. Auch SAP bietet bereits einen solchen integriert in seinen Cloud Service an und das Fraunhofer-Institut hat einen Innovation Hub zu dem Thema ins Leben gerufen.

Zugleich spaltet die Technologie die Unternehmenswelt: Die Hälfte aller Unternehmen steht KI weiterhin skeptisch gegenüber, wie Deloitte noch im Oktober 2024 herausfand.

DXC Technology und ServiceNow starten „GenAI-Hub“​ Weiterlesen »

So sieht Mercedes die Autozukunft​

Allgemein

Die Zukunft des Autos in den Smart Cities von morgen. Mercedes-Benz Die deutschen Autobauer gelten im Urteil vieler Kritiker als hoffnungslos rückständig. Auch angesichts sinkender Umsätze und wenig erfolgreicher Elektromodelle. Sie hätten die Zeichen der Zeit schlicht nicht erkannt, so ein oft geäußerter Vorwurf. Dem will jetzt Mercedes-Benz entgegenwirken und gewährt dazu Einblicke in seine Forschungsaktivitäten. Mit digitaler Technik wie Augmented Reality (AR) und Mixed Reality (MR) sowie Neuromorphic Computing wollen die Stuttgarter in Zukunft das Zeitalter des hyperpersonalisierten Fahrens einläuten. Hyperpersonalisierte Autos Doch um was geht es bei diesem Buzzword konkret? In der Vision der Schwaben sollen künftige Modelle ihren Besitzern ein ganzheitliches und nahtloses digitales Erlebnis bieten, das ihr Leben einfacher und komfortabler gestaltet. So soll das Auto der Zukunft die Gewohnheiten, Gemütszustände und Bedürfnisse der User erkennen. Mercedes will AR-Brillen im Auto integrieren. Mercedes-Benz Wie das konkret aussehen könnte, verdeutlicht der Autobauer an einem Beispiel: Die Autobesitzer trinkt morgens nach dem Aufstehen einen Kaffee und bereitet sich mit einem Mixed-Reality-Headset auf den Arbeitstag vor. Dazu gehört unter anderem ein Blick auf die Termine im Kalender. Zum richtigen Zeitpunkt fährt dann das Fahrzeug autonom aus der Garage. Der Innenraum ist dabei bereits exakt den aktuellen Bedürfnissen wie Temperatur, Radiosender oder Lautstärke entsprechend konfiguriert. Nach dem Einsteigen schlägt ein KI-gesteuerter Assistent die vorgeschlagene Route ins Büro vor. Da unser Beispiel-User seinen Kaffee bereits zu Hause getrunken hat, führt die Route nicht über den sonst so beliebten Drive-Through-Coffeeshop. Virtuell Navigieren per AR Durch eine AR-Brille sieht der Fahrer die Navigation als virtuelle Anzeige in der Außenwelt – genau an den Stellen, wo sich wichtige Weg- und Abbiegepunkte befinden. Möchte die Person am Steuer sich lieber anderen Aktivitäten widmen, schaltet sie einfach in den autonomen Fahrmodus. Das Fahrzeug macht dann Vorschläge für erweiterte Aufgaben und Erlebnisse entsprechend den bekannten, individuellen Präferenzen. Dazu gehört etwa, eine entspannte Sitzhaltung einzunehmen oder Aufgaben, fortzuführen die zu Hause begonnen und noch nicht fertiggestellt wurden. Die AR-Brille zeigt den Weg. Mercedes-Benz Langfristig will das Unternehmen seinen Kunden mit AR-Brillen ein neuartiges Benutzererlebnis bieten. Dabei verfolgt der Konzern den Ansatz „Bring Your Own Device” (BYOD). Sprich, der Benutzer bringt seine eigene AR-Brille mit, die individuell auf Sehstärke und persönliches Umfeld angepasst ist. Darüber hinaus könnte die Verknüpfung mit der fahrzeugseitigen Sensorik und Aktorik neue Möglichkeiten eröffnen, um Entertainment-, Wellness- und Komforterlebnisse auf ein immersiveres Niveau zu heben.  Mixed Reality Ein weiteres Anwendungsgebiet sieht Mercedes-Benz in immersiveren Markenerlebnissen für potenzielle Käufer. Mit Hilfe von MR-Brillen (Mixed Reality) könnten diese in Echtzeit virtuelle Fahrzeugmodelle interaktiv erleben und individuell anpassen. Das könnte das physische Kundenerlebnis im Retail ergänzen. Derzeit nutzt der Autobauer hierzu Echtzeit-Game-Engines in Verbindung mit der Apple Vision Pro. Fahrzeuge per Mixed Reality konfigurieren. Mercedes-Benz Dabei beschränken sich die Ideen des Autobauers nicht nur auf den Verkauf. Mittels MR will man auch die Collaboration der eigenen Mitarbeiter verbessern. Diese könnten mit Hilfe der Technologie künftig über Ländergrenzen und Zeitzonen hinweg simultan an virtuellen Fahrzeugen arbeiten. So ließen sich in Zukunft mit Blick durch die MR-Brille verschiedene Fahrzeugtypen mit realen Fahrzeugabmessungen schnell und kostengünstig miteinander vergleichen. Auch neue Ideen könnten schneller erlebbar dargestellt und virtuell erprobt werden. Neuromorphic Computing Auch in Sachen KI will der Autobauer neue Weg einschlagen, um – gerade bei elektrischen Fahrzeugen wichtig – Energie einzusparen. Um dies zu realisieren, setzen die Stuttgarter auf neuronale Netze, sprich Neuromorphic Computing. Hierzu hat das Unternehmen unlängst eine Forschungskooperation mit der kanadischen University of Waterloo angekündigt. Mit Neuromorphic Computing soll das autonome Fahren der Zukunft energieeffizienter werden. Mercedes-Benz Neuromorphic Computing ahmt die Funktionsweise des menschlichen Gehirns nach. Dadurch könnten KI-Berechnungen deutlich energieeffizienter und schneller erfolgen. In der Praxis, so der Autobauer, wäre ein solches Fahrzeug in der Lage, Verkehrsschilder, Fahrspuren und andere Verkehrsteilnehmer auch bei schlechter Sicht viel besser zu erkennen und schneller darauf zu reagieren. Dabei wäre es zehnmal effizienter als aktuelle Systeme, so die Stuttgarter. Gleichzeitig habe Neuromorphic Computing das Potenzial, den Energiebedarf für die Datenverarbeitung beim autonomen Fahren im Vergleich zu heutigen Systemen um 90 Prozent zu senken. Neuromorphic-Systeme sind zehnmal effizienter als heutige KI-Lösungen. Mercedes-Benz Intelligente Autos für die Smart Cities der Zukunft In Sachen Digitalisierung arbeitet der Autobauer nicht nur an seinen eigenen Produkten, sondern entwickelt auch eine Vision für die Smart Cities der Zukunft. Klares Ziel dabei: Der heute von interessierter Seite so stark kritisierte Individualverkehr soll auch in Zukunft seinen Platz und seine Berechtigung haben. Dazu haben die Stuttgarter unter dem Label “2040+” drei Szenarien für Los Angeles, London und Shenzhen entwickelt. Wir beschränken uns an dieser Stelle auf das Beispiel Shenzhen, da die südchinesische Metropole in Sachen digitaler Transformation zu einer der führenden Städte zählt. So könnte dort ab 2040 das Verkehrsmanagement mit Hilfe künstlicher Intelligenz, Vernetzung und digitaler Infrastruktur erfolgen. Auf separaten Konvoi-Spuren wären dann viele automatisierte Fahrzeuge unterwegs, vernetzt über eine integrierte „Vehicle-Road-Cloud“. Aufgrund der dichten Bebauung wären verschiedene vertikale Verkehrsebenen vorstellbar. Zukunftsvision für Shenzhen. Mercedes-Benz Dabei könnte Vehicle-2-X-Kommunikation (V2X) zum Standard werden, während die Logistik automatisiert mit Robotern und Drohnen funktionieren. In der Vision für Shenzhen haben alle Fahrzeuge einen elektrischen oder elektrifizierten Antrieb und erzeugen über Solarmodule einen Teil ihres eigenen Stroms. Radfahrer haben separate Fahrspuren und Fußgänger klar gekennzeichnete Wege. Der Warentransport und die Personenbeförderung in umliegende Städte könnte mit Hochgeschwindigkeitszügen und VTOLs (Vertical Take Off and Landing) erfolgen. Für gute Luftqualität und eine geringe Aufheizung im Sommer sorgen zahlreiche Parks und eine grüne Infrastruktur. Wie die Vision von Mercedes-Benz für Los Angeles und London aussieht, erkunden Sie hier. 

So sieht Mercedes die Autozukunft​ Die Zukunft des Autos in den Smart Cities von morgen.
Mercedes-Benz

Die deutschen Autobauer gelten im Urteil vieler Kritiker als hoffnungslos rückständig. Auch angesichts sinkender Umsätze und wenig erfolgreicher Elektromodelle. Sie hätten die Zeichen der Zeit schlicht nicht erkannt, so ein oft geäußerter Vorwurf.

Dem will jetzt Mercedes-Benz entgegenwirken und gewährt dazu Einblicke in seine Forschungsaktivitäten. Mit digitaler Technik wie Augmented Reality (AR) und Mixed Reality (MR) sowie Neuromorphic Computing wollen die Stuttgarter in Zukunft das Zeitalter des hyperpersonalisierten Fahrens einläuten.

Hyperpersonalisierte Autos

Doch um was geht es bei diesem Buzzword konkret? In der Vision der Schwaben sollen künftige Modelle ihren Besitzern ein ganzheitliches und nahtloses digitales Erlebnis bieten, das ihr Leben einfacher und komfortabler gestaltet. So soll das Auto der Zukunft die Gewohnheiten, Gemütszustände und Bedürfnisse der User erkennen.

Mercedes will AR-Brillen im Auto integrieren.
Mercedes-Benz

Wie das konkret aussehen könnte, verdeutlicht der Autobauer an einem Beispiel: Die Autobesitzer trinkt morgens nach dem Aufstehen einen Kaffee und bereitet sich mit einem Mixed-Reality-Headset auf den Arbeitstag vor. Dazu gehört unter anderem ein Blick auf die Termine im Kalender.

Zum richtigen Zeitpunkt fährt dann das Fahrzeug autonom aus der Garage. Der Innenraum ist dabei bereits exakt den aktuellen Bedürfnissen wie Temperatur, Radiosender oder Lautstärke entsprechend konfiguriert.

Nach dem Einsteigen schlägt ein KI-gesteuerter Assistent die vorgeschlagene Route ins Büro vor. Da unser Beispiel-User seinen Kaffee bereits zu Hause getrunken hat, führt die Route nicht über den sonst so beliebten Drive-Through-Coffeeshop.

Virtuell Navigieren per AR

Durch eine AR-Brille sieht der Fahrer die Navigation als virtuelle Anzeige in der Außenwelt – genau an den Stellen, wo sich wichtige Weg- und Abbiegepunkte befinden. Möchte die Person am Steuer sich lieber anderen Aktivitäten widmen, schaltet sie einfach in den autonomen Fahrmodus.

Das Fahrzeug macht dann Vorschläge für erweiterte Aufgaben und Erlebnisse entsprechend den bekannten, individuellen Präferenzen. Dazu gehört etwa, eine entspannte Sitzhaltung einzunehmen oder Aufgaben, fortzuführen die zu Hause begonnen und noch nicht fertiggestellt wurden.

Die AR-Brille zeigt den Weg.
Mercedes-Benz

Langfristig will das Unternehmen seinen Kunden mit AR-Brillen ein neuartiges Benutzererlebnis bieten. Dabei verfolgt der Konzern den Ansatz „Bring Your Own Device” (BYOD). Sprich, der Benutzer bringt seine eigene AR-Brille mit, die individuell auf Sehstärke und persönliches Umfeld angepasst ist. Darüber hinaus könnte die Verknüpfung mit der fahrzeugseitigen Sensorik und Aktorik neue Möglichkeiten eröffnen, um Entertainment-, Wellness- und Komforterlebnisse auf ein immersiveres Niveau zu heben. 

Mixed Reality

Ein weiteres Anwendungsgebiet sieht Mercedes-Benz in immersiveren Markenerlebnissen für potenzielle Käufer. Mit Hilfe von MR-Brillen (Mixed Reality) könnten diese in Echtzeit virtuelle Fahrzeugmodelle interaktiv erleben und individuell anpassen. Das könnte das physische Kundenerlebnis im Retail ergänzen. Derzeit nutzt der Autobauer hierzu Echtzeit-Game-Engines in Verbindung mit der Apple Vision Pro.

Fahrzeuge per Mixed Reality konfigurieren.
Mercedes-Benz

Dabei beschränken sich die Ideen des Autobauers nicht nur auf den Verkauf. Mittels MR will man auch die Collaboration der eigenen Mitarbeiter verbessern. Diese könnten mit Hilfe der Technologie künftig über Ländergrenzen und Zeitzonen hinweg simultan an virtuellen Fahrzeugen arbeiten.

So ließen sich in Zukunft mit Blick durch die MR-Brille verschiedene Fahrzeugtypen mit realen Fahrzeugabmessungen schnell und kostengünstig miteinander vergleichen. Auch neue Ideen könnten schneller erlebbar dargestellt und virtuell erprobt werden.

Neuromorphic Computing

Auch in Sachen KI will der Autobauer neue Weg einschlagen, um – gerade bei elektrischen Fahrzeugen wichtig – Energie einzusparen. Um dies zu realisieren, setzen die Stuttgarter auf neuronale Netze, sprich Neuromorphic Computing. Hierzu hat das Unternehmen unlängst eine Forschungskooperation mit der kanadischen University of Waterloo angekündigt.

Mit Neuromorphic Computing soll das autonome Fahren der Zukunft energieeffizienter werden.
Mercedes-Benz

Neuromorphic Computing ahmt die Funktionsweise des menschlichen Gehirns nach. Dadurch könnten KI-Berechnungen deutlich energieeffizienter und schneller erfolgen.

In der Praxis, so der Autobauer, wäre ein solches Fahrzeug in der Lage, Verkehrsschilder, Fahrspuren und andere Verkehrsteilnehmer auch bei schlechter Sicht viel besser zu erkennen und schneller darauf zu reagieren. Dabei wäre es zehnmal effizienter als aktuelle Systeme, so die Stuttgarter. Gleichzeitig habe Neuromorphic Computing das Potenzial, den Energiebedarf für die Datenverarbeitung beim autonomen Fahren im Vergleich zu heutigen Systemen um 90 Prozent zu senken.

Neuromorphic-Systeme sind zehnmal effizienter als heutige KI-Lösungen.
Mercedes-Benz

Intelligente Autos für die Smart Cities der Zukunft

In Sachen Digitalisierung arbeitet der Autobauer nicht nur an seinen eigenen Produkten, sondern entwickelt auch eine Vision für die Smart Cities der Zukunft. Klares Ziel dabei: Der heute von interessierter Seite so stark kritisierte Individualverkehr soll auch in Zukunft seinen Platz und seine Berechtigung haben.

Dazu haben die Stuttgarter unter dem Label “2040+” drei Szenarien für Los Angeles, London und Shenzhen entwickelt. Wir beschränken uns an dieser Stelle auf das Beispiel Shenzhen, da die südchinesische Metropole in Sachen digitaler Transformation zu einer der führenden Städte zählt.

So könnte dort ab 2040 das Verkehrsmanagement mit Hilfe künstlicher Intelligenz, Vernetzung und digitaler Infrastruktur erfolgen. Auf separaten Konvoi-Spuren wären dann viele automatisierte Fahrzeuge unterwegs, vernetzt über eine integrierte „Vehicle-Road-Cloud“. Aufgrund der dichten Bebauung wären verschiedene vertikale Verkehrsebenen vorstellbar.

Zukunftsvision für Shenzhen.
Mercedes-Benz

Dabei könnte Vehicle-2-X-Kommunikation (V2X) zum Standard werden, während die Logistik automatisiert mit Robotern und Drohnen funktionieren. In der Vision für Shenzhen haben alle Fahrzeuge einen elektrischen oder elektrifizierten Antrieb und erzeugen über Solarmodule einen Teil ihres eigenen Stroms.

Radfahrer haben separate Fahrspuren und Fußgänger klar gekennzeichnete Wege. Der Warentransport und die Personenbeförderung in umliegende Städte könnte mit Hochgeschwindigkeitszügen und VTOLs (Vertical Take Off and Landing) erfolgen. Für gute Luftqualität und eine geringe Aufheizung im Sommer sorgen zahlreiche Parks und eine grüne Infrastruktur.

Wie die Vision von Mercedes-Benz für Los Angeles und London aussieht, erkunden Sie hier.

So sieht Mercedes die Autozukunft​ Weiterlesen »

JavaScript-Trademark – der Druck auf Oracle wächst​

Allgemein

width=”6016″ height=”3384″ sizes=”(max-width: 6016px) 100vw, 6016px”>Bigc Studio – shutterstock.com Die Entwickler der Deno-Laufzeitumgebung haben beim US-Patentamt (USPTO) einen Antrag eingereicht, der zum Ziel hat, Oracle die Rechte für das JavaScript-Trademark zu entziehen. Die Argumentation dahinter: Oracle habe das Warenzeichen längst aufgegeben, schließlich habe der Konzern seit dem Erwerb der Marke im Jahr 2009 (im Zuge der Übernahme von Sun Microsystems) keine JavaScript-Produkte oder -Services mehr angeboten. Vorausgegangen war dem Antrag, der Ende November 2024 eingereicht wurde, ein offener Brief mit dem Titel “Oracle, it’s time to free JavaScript”. Dieser wurde von insgesamt 14.000 Mitgliedern der JavaScript-Community unterzeichnet – darunter auch prominente Vertreter wie Node.js- und Deno-Erfinder Ryan Dahl und JavaScript-Urvater Brendan Eich.   “JavaScript gehört der Allgemeinheit” „Unser Ziel ist es, Oracle dazu zu bewegen, einzulenken und das Trademark widerspruchslos aufzugeben“, schreibt Dahl in einem ausführlichen Blogbeitrag und fügt hinzu: „Sollten sie sich dafür entscheiden zu kämpfen, sind wir bestens darauf vorbereitet nachzuweisen, dass ‚JavaScript‘ ein allgemeiner Begriff ist, der von Entwicklern und Organisationen weltweit verwendet wird – ohne einen Bezug zu Oracle.“ Dass das JavaScript-Warenzeichen im Besitz von Oracle ist, habe „für Verwirrung und unnötige Hindernisse“ gesorgt, so Dahl weiter. Unter anderem seien Organisationen für die Verwendung des Begriffs ‚JavaScript‘ abgemahnt worden. Der Antrag beim US-Patentamt sei laut dem Manager ein „entscheidender Schritt, um JavaScript von rechtlichen Verstrickungen zu befreien“.   Allerdings wird Oracle im Rahmen des Antrags auch vorgeworfen, sein JavaScript-Trademark im Jahr 2019 mit betrügerischen Methoden verlängert zu haben – indem es dazu Screenshots der Node.js-Webseite eingereicht habe. Node.js stehe nicht mit Oracle in Verbindung, insofern bilde seine Webseite auch keine Verwendung der JavaScript-Markenrechte durch Oracle ab, heißt es in dem USPTO-Antrag. Die Initiatoren resümieren: „Der Begriff ‘JavaScript‘ gehört der Allgemeinheit, nicht einem einzelnen Unternehmen. Dass Oracle die Rechte an der Marke besitzt, sorgt für Verwirrung am Markt, behindert zielgerichtetes Marketing und erschwert die Zusammenarbeit innerhalb der JavaScript-Community.“ Oracle hat nun bis zum 4. Januar 2025 Zeit, um auf den Antrag zu reagieren. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

JavaScript-Trademark – der Druck auf Oracle wächst​ width=”6016″ height=”3384″ sizes=”(max-width: 6016px) 100vw, 6016px”>Bigc Studio – shutterstock.com

Die Entwickler der Deno-Laufzeitumgebung haben beim US-Patentamt (USPTO) einen Antrag eingereicht, der zum Ziel hat, Oracle die Rechte für das JavaScript-Trademark zu entziehen. Die Argumentation dahinter: Oracle habe das Warenzeichen längst aufgegeben, schließlich habe der Konzern seit dem Erwerb der Marke im Jahr 2009 (im Zuge der Übernahme von Sun Microsystems) keine JavaScript-Produkte oder -Services mehr angeboten.

Vorausgegangen war dem Antrag, der Ende November 2024 eingereicht wurde, ein offener Brief mit dem Titel “Oracle, it’s time to free JavaScript”. Dieser wurde von insgesamt 14.000 Mitgliedern der JavaScript-Community unterzeichnet – darunter auch prominente Vertreter wie Node.js- und Deno-Erfinder Ryan Dahl und JavaScript-Urvater Brendan Eich.  

“JavaScript gehört der Allgemeinheit”

„Unser Ziel ist es, Oracle dazu zu bewegen, einzulenken und das Trademark widerspruchslos aufzugeben“, schreibt Dahl in einem ausführlichen Blogbeitrag und fügt hinzu: „Sollten sie sich dafür entscheiden zu kämpfen, sind wir bestens darauf vorbereitet nachzuweisen, dass ‚JavaScript‘ ein allgemeiner Begriff ist, der von Entwicklern und Organisationen weltweit verwendet wird – ohne einen Bezug zu Oracle.“

Dass das JavaScript-Warenzeichen im Besitz von Oracle ist, habe „für Verwirrung und unnötige Hindernisse“ gesorgt, so Dahl weiter. Unter anderem seien Organisationen für die Verwendung des Begriffs ‚JavaScript‘ abgemahnt worden. Der Antrag beim US-Patentamt sei laut dem Manager ein „entscheidender Schritt, um JavaScript von rechtlichen Verstrickungen zu befreien“.  

Allerdings wird Oracle im Rahmen des Antrags auch vorgeworfen, sein JavaScript-Trademark im Jahr 2019 mit betrügerischen Methoden verlängert zu haben – indem es dazu Screenshots der Node.js-Webseite eingereicht habe. Node.js stehe nicht mit Oracle in Verbindung, insofern bilde seine Webseite auch keine Verwendung der JavaScript-Markenrechte durch Oracle ab, heißt es in dem USPTO-Antrag.

Die Initiatoren resümieren: „Der Begriff ‘JavaScript‘ gehört der Allgemeinheit, nicht einem einzelnen Unternehmen. Dass Oracle die Rechte an der Marke besitzt, sorgt für Verwirrung am Markt, behindert zielgerichtetes Marketing und erschwert die Zusammenarbeit innerhalb der JavaScript-Community.“

Oracle hat nun bis zum 4. Januar 2025 Zeit, um auf den Antrag zu reagieren. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

JavaScript-Trademark – der Druck auf Oracle wächst​ Weiterlesen »

Fugatto – Nvidias neue KI-Messlatte?​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?quality=50&strip=all 1505w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=300%2C159&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=768%2C408&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=1024%2C544&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=1240%2C659&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=150%2C80&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=854%2C454&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=640%2C340&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=444%2C236&quality=50&strip=all 444w” width=”1024″ height=”544″ sizes=”(max-width: 1024px) 100vw, 1024px”>Fugatto transformiert potenziell auch Katzengejammer in Audio-Genüsse. NVIDIA KI-Krösus Nvidia hat mit dem “Foundational Generative Audio Transformer Opus 1” – kurz Fugatto – ein neues KI-Modell vorgestellt. Dieses soll in der Lage sein, mit seinen rund 2,5 Milliarden Parametern jede Art von Geräusch, Stimme oder Musik aus Text- und Audio-Prompts zu erzeugen. KI-Entertainment Das ermöglicht laut Nvidia beispielsweise: Musik-Snippets aus einfachem Text zu erstellen, bestimmte Instrumente aus Songs zu entfernen, oder den Akzent und die Emotion von Stimmen zu verändern. Trainiert wurde Nvidias Fugatto mit Open-Source-Daten. Ein konkreter Veröffentlichungstermin ist bislang nicht bekannt. In der Zukunft soll das KI-Modell – wenn es nach Nvidia geht – vor allem im Rahmen von Musik-, Film- und Games-Produktionen zum Einsatz kommen. Das nachfolgende Youtube-Video zeigt, was Nvidias neuester GenAI-Streich zu bieten hat: (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Fugatto – Nvidias neue KI-Messlatte?​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?quality=50&strip=all 1505w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=300%2C159&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=768%2C408&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=1024%2C544&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=1240%2C659&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=150%2C80&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=854%2C454&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=640%2C340&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Nvidia_fugatto.jpg?resize=444%2C236&quality=50&strip=all 444w” width=”1024″ height=”544″ sizes=”(max-width: 1024px) 100vw, 1024px”>Fugatto transformiert potenziell auch Katzengejammer in Audio-Genüsse. NVIDIA

KI-Krösus Nvidia hat mit dem “Foundational Generative Audio Transformer Opus 1” – kurz Fugatto – ein neues KI-Modell vorgestellt. Dieses soll in der Lage sein, mit seinen rund 2,5 Milliarden Parametern jede Art von Geräusch, Stimme oder Musik aus Text- und Audio-Prompts zu erzeugen.

KI-Entertainment

Das ermöglicht laut Nvidia beispielsweise:

Musik-Snippets aus einfachem Text zu erstellen,

bestimmte Instrumente aus Songs zu entfernen, oder

den Akzent und die Emotion von Stimmen zu verändern.

Trainiert wurde Nvidias Fugatto mit Open-Source-Daten. Ein konkreter Veröffentlichungstermin ist bislang nicht bekannt. In der Zukunft soll das KI-Modell – wenn es nach Nvidia geht – vor allem im Rahmen von Musik-, Film- und Games-Produktionen zum Einsatz kommen.

Das nachfolgende Youtube-Video zeigt, was Nvidias neuester GenAI-Streich zu bieten hat:

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Fugatto – Nvidias neue KI-Messlatte?​ Weiterlesen »

Zero Trust, SASE und Cloud: So sichert Clariant sein Netz​

Allgemein

Die digitale Transformation stellt Unternehmen vor etliche Herausforderungen von den Kosten über das fehlende Personal und die Komplexität bis hin zu Fragen der Sicherheit und Compliance. Um effizienter zu arbeiten und zu wirtschaften, suchte der Schweizer Konzern für Spezialchemie Clariant nach einem Weg, seine 130 Standorte, darunter 50 Produktionsstätten, mit mehr als 11.000 Mitarbeitern in 40 Ländern so zu vernetzen, dass die Kosten nicht explodieren, keine Sicherheitsrisiken entstehen und die gesetzlichen Vorschriften an allen Standorten eingehalten werden. Dazu benötigte das Unternehmen eine Lösung, um die auf verschiedene Standorte verteilten Cloud-Rechtenzentren zu verbinden. Gleichzeitig sollte die Internetleistung höchsten Standards – ähnlich wie die von MPLS – genügen. Wie es gelang, die Herausforderung zu meistern und zusammen mit den Projektbeteiligten Tata Communications und Fortinet eine passende Lösung zu finden, erläutert Oscar Martinez, IT Senior Architect bei Clariant SE, in einem CIO Webcast. Erfahren Sie von dem Clariant-Experten, welche Erfahrungen das Unternehmen bei der Migration seiner IT-Infrastruktur in die Cloud bisher gemacht hat und welche Vorteile bereits jetzt ersichtlich sind. Oscar Martinez wird außerdem aufzeigen, was das Unternehmen für die Zukunft plant und welche Rolle Themen wie Zero Trust und SASE dabei spielen. Roland Zigerli von Fortinet und Atilla Akyel von Tata werden in den Webcast einführen und kurz darstellen, was international tätige Großunternehmen bei der digitalen Transformation am meisten ausbremst und welche Herangehensweise Clariant gewählt hat, um die Herausforderungen zu bewältigen. Der Webcast wird auf Englisch durchgefühft, der Fachjournalist Dr. Thomas Hafen wird den Webcast moderieren. Registrieren Sie sich jetzt 

Zero Trust, SASE und Cloud: So sichert Clariant sein Netz​ Die digitale Transformation stellt Unternehmen vor etliche Herausforderungen von den Kosten über das fehlende Personal und die Komplexität bis hin zu Fragen der Sicherheit und Compliance. Um effizienter zu arbeiten und zu wirtschaften, suchte der Schweizer Konzern für Spezialchemie Clariant nach einem Weg, seine 130 Standorte, darunter 50 Produktionsstätten, mit mehr als 11.000 Mitarbeitern in 40 Ländern so zu vernetzen, dass die Kosten nicht explodieren, keine Sicherheitsrisiken entstehen und die gesetzlichen Vorschriften an allen Standorten eingehalten werden. Dazu benötigte das Unternehmen eine Lösung, um die auf verschiedene Standorte verteilten Cloud-Rechtenzentren zu verbinden. Gleichzeitig sollte die Internetleistung höchsten Standards – ähnlich wie die von MPLS – genügen.

Wie es gelang, die Herausforderung zu meistern und zusammen mit den Projektbeteiligten Tata Communications und Fortinet eine passende Lösung zu finden, erläutert Oscar Martinez, IT Senior Architect bei Clariant SE, in einem CIO Webcast. Erfahren Sie von dem Clariant-Experten, welche Erfahrungen das Unternehmen bei der Migration seiner IT-Infrastruktur in die Cloud bisher gemacht hat und welche Vorteile bereits jetzt ersichtlich sind. Oscar Martinez wird außerdem aufzeigen, was das Unternehmen für die Zukunft plant und welche Rolle Themen wie Zero Trust und SASE dabei spielen.

Roland Zigerli von Fortinet und Atilla Akyel von Tata werden in den Webcast einführen und kurz darstellen, was international tätige Großunternehmen bei der digitalen Transformation am meisten ausbremst und welche Herangehensweise Clariant gewählt hat, um die Herausforderungen zu bewältigen. Der Webcast wird auf Englisch durchgefühft, der Fachjournalist Dr. Thomas Hafen wird den Webcast moderieren.

Registrieren Sie sich jetzt

Zero Trust, SASE und Cloud: So sichert Clariant sein Netz​ Weiterlesen »

IT/OT-Konvergenz – leichter gesagt als getan​

Allgemein

loading=”lazy” width=”400px”>IT-Konzepte und -Technologien können auch im OT-Bereich deutliche Vorteile bringen. Gorodenkoff – shutterstock.com Die Marktforscher von IoT Analytics gehen in ihrem IT/OT Convergence Insights Report 2024 (Bezahlschranke) davon aus, dass der kombinierte Markt für (IT)-Software, Operational-Technology- (OT)-Software und OT-Hardware – drei Technologien, die von der IT/OT-Konvergenz betroffen sind – zusammen bis 2030 jährlich um rund 8,5 Prozent wachsen wird. Ausgehend von geschätzten 720 Milliarden Dollar im Jahr 2023 soll der Markt 2027 die Marke von einer Billion Dollar überschreiten und bis zum Ende des Jahrzehnts auf 1,3 Billionen Dollar ansteigen. Dabei wachsen nicht nur die einzelnen Segmente, so die Auguren, sondern die IT/OT-Konvergenz wird zu einem wichtigen Treiber für jede dieser Technologien. Datenaustausch und Sicherheit im Fokus Der Wunsch nach mehr Konvergenz zwischen IT- und OT-Systemen liegt auf der Hand: IT-Systeme managen geschäftskritische Abläufe, während OT-Systeme physische Prozesse steuern und wichtige Betriebsdaten generieren. Die Unternehmen erkennen, dass die engere Verzahnung dieser beiden Bereiche unerlässlich wird, wenn sie ihren Betrieb effizienter gestalten und ihre digitalen Fähigkeiten verbessern wollen, erklären die Analysten. Eine verbesserte IT/OT-Konvergenz ermöglicht ihnen laut IoT Analytics entsprechend: Initiativen zur digitalen Transformation zu skalieren. Mit einer skalierbaren und flexiblen OT-Infrastruktur, die auf fortschrittlicher Datenverarbeitung, Cloud-Anwendungen und der Abstimmung mit IT-Praktiken basiert, können Unternehmen den gestiegenen betrieblichen Anforderungen gerecht werden. Sie eröffnet auch ein größeres Potenzial für KI und eine verbesserte Zusammenarbeit. Robuster Datenaustausch zwischen IT- und OT-Systemen. Protokollkonverter, DataOps und IoT-Datenintegrationsplattformen helfen den IT- und OT-Systemen von Unternehmen bei der Kommunikation und stellen sicher, dass nachgelagerte Anwendungen OT-Daten nutzen können. Sichere Kommunikation in einer weiterentwickelten IT/OT-Architektur: Da immer mehr OT-Systeme mit dem Internet verbunden sind, gibt es mehr Angriffsflächen für Cyber-Bedrohungen. Von der IT getriebene Cybersicherheitsstandards anzuwenden, hilft Unternehmen, sich gegen solche Bedrohungen zu schützen. Soweit die Theorie, in der Praxis gibt es jedoch einige Herausforderungen, die die Konvergenz von IT und OT erschweren. Die beiden wichtigsten sind dabei laut IoT-Analytics-Studie unterschiedliche Verantwortlichkeiten und Ziele von IT- und OT-Teams veraltete OT-Systeme. Während IT-Teams beispielsweise häufig agil arbeiten, indem sie Systeme häufig aktualisieren, liege bei OT-Teams häufig die Priorität auf unterbrechungsfreien Prozessen mit Schwerpunkt auf Zuverlässigkeit, erklären die Analysten. Darüber hinaus seien viele Altsysteme nicht mit Blick auf die IT-Integration entwickelt worden und verfügten derzeit nicht über die erforderlichen Schnittstellen, um Daten an IT-Systeme weiterzuleiten. Die wichtigsten IT/OT-Baustellen IoT Analytics Insgesamt führt IoT Analytics in seiner Studie 27 Themen aus sieben Kategorien auf, an denen gearbeitet wird, damit Informationstechnologie und operative Technologie besser ineinandergreifen. Die meisten Kategorien fallen unter IT-Prinzipien und -Technologien, die in die OT einfließen, während die anderen entweder IT/OT-Anwendungen, Daten, Fähigkeiten oder OT-Hardware widerspiegeln, die IT-ähnlich werden. IT-Konzepte und -Technologien hätten großen Einfluss auf die OT, während die OT nur geringe Auswirkungen auf die IT habe, so die Analysten. Wichtige IT-gesteuerte Verfahren wie etwa Agile/DevOps, Modularität und As-a-Service-Modelle, Technologien wie Containerisierung und Virtualisierung sowie Konzepte wie Marktplätze zunehmend würden zu einem integralen Bestandteil der OT-Landschaft. Die Marktexperten weisen außerdem darauf hin, dass mittlerweile auch in der OT-Branche Programmiersprachen auf hohem Niveau wie Python eingesetzt werden, um die Kompatibilität mit IT-Systemen und die Bereitstellungseffizienz zu verbessern. Selbst in Bereichen wie der Cybersicherheit verlasse sich die OT-Branche auf etablierte IT-Strategien, um sich vor neu auftretenden Bedrohungen zu schützen. Zu den anhaltenden Hürden zählen laut IoT Analytics veraltete OT-Systeme, deren Lebenszyklen oft mehr als 20 Jahre betragen. Sie sind meist nicht mit modernen IT-Tools und -Technologien kompatibel und dadurch schwieriger zu integrieren. Sie erschwerten den Zugriff auf wichtige Maschinendaten, umdie betriebliche Effizienz, Entscheidungsfindung und Innovation voranzutreiben. Aus diesem Grund drehen sich viele Konvergenzthemen darum, Daten zu erfassen, zu verarbeiten und zu nutzen, erklären die Marktforscher. So sorgten beispielsweise industrielle DataOps und IoT-Datenintegrationsplattformen für einen nahtlosen Datenfluss zwischen IT- und OT-Umgebungen. Das zahle auf Digitale Zwillinge ein, die auf Echtzeitdaten angewiesen sind, um physische Prozesse zu simulieren, vorherzusagen und zu optimieren. Als Schlüsselfaktor für eine erfolgreiche Konvergenz sehen die Experten zudem die Bildung von kollaborativen IT-OT-Teams, in denen Fachleute aus beiden Bereichen gemeinsam auf gemeinsame Ziele hinarbeiten. Dieses menschliche Element, die kollaborative Denkweise und das funktionsübergreifende Fachwissen, verbinde die technischen und betrieblichen Aspekte der IT/OT-Konvergenz und mache die Menschen zum Bindeglied dieser Transformation, so IoT Analytics. 

IT/OT-Konvergenz – leichter gesagt als getan​ loading=”lazy” width=”400px”>IT-Konzepte und -Technologien können auch im OT-Bereich deutliche Vorteile bringen. Gorodenkoff – shutterstock.com

Die Marktforscher von IoT Analytics gehen in ihrem IT/OT Convergence Insights Report 2024 (Bezahlschranke) davon aus, dass der kombinierte Markt für (IT)-Software, Operational-Technology- (OT)-Software und OT-Hardware – drei Technologien, die von der IT/OT-Konvergenz betroffen sind – zusammen bis 2030 jährlich um rund 8,5 Prozent wachsen wird.

Ausgehend von geschätzten 720 Milliarden Dollar im Jahr 2023 soll der Markt 2027 die Marke von einer Billion Dollar überschreiten und bis zum Ende des Jahrzehnts auf 1,3 Billionen Dollar ansteigen. Dabei wachsen nicht nur die einzelnen Segmente, so die Auguren, sondern die IT/OT-Konvergenz wird zu einem wichtigen Treiber für jede dieser Technologien.

Datenaustausch und Sicherheit im Fokus

Der Wunsch nach mehr Konvergenz zwischen IT- und OT-Systemen liegt auf der Hand: IT-Systeme managen geschäftskritische Abläufe, während OT-Systeme physische Prozesse steuern und wichtige Betriebsdaten generieren. Die Unternehmen erkennen, dass die engere Verzahnung dieser beiden Bereiche unerlässlich wird, wenn sie ihren Betrieb effizienter gestalten und ihre digitalen Fähigkeiten verbessern wollen, erklären die Analysten.

Eine verbesserte IT/OT-Konvergenz ermöglicht ihnen laut IoT Analytics entsprechend:

Initiativen zur digitalen Transformation zu skalieren. Mit einer skalierbaren und flexiblen OT-Infrastruktur, die auf fortschrittlicher Datenverarbeitung, Cloud-Anwendungen und der Abstimmung mit IT-Praktiken basiert, können Unternehmen den gestiegenen betrieblichen Anforderungen gerecht werden. Sie eröffnet auch ein größeres Potenzial für KI und eine verbesserte Zusammenarbeit.

Robuster Datenaustausch zwischen IT- und OT-Systemen. Protokollkonverter, DataOps und IoT-Datenintegrationsplattformen helfen den IT- und OT-Systemen von Unternehmen bei der Kommunikation und stellen sicher, dass nachgelagerte Anwendungen OT-Daten nutzen können.

Sichere Kommunikation in einer weiterentwickelten IT/OT-Architektur: Da immer mehr OT-Systeme mit dem Internet verbunden sind, gibt es mehr Angriffsflächen für Cyber-Bedrohungen. Von der IT getriebene Cybersicherheitsstandards anzuwenden, hilft Unternehmen, sich gegen solche Bedrohungen zu schützen.

Soweit die Theorie, in der Praxis gibt es jedoch einige Herausforderungen, die die Konvergenz von IT und OT erschweren. Die beiden wichtigsten sind dabei laut IoT-Analytics-Studie

unterschiedliche Verantwortlichkeiten und Ziele von IT- und OT-Teams

veraltete OT-Systeme.

Während IT-Teams beispielsweise häufig agil arbeiten, indem sie Systeme häufig aktualisieren, liege bei OT-Teams häufig die Priorität auf unterbrechungsfreien Prozessen mit Schwerpunkt auf Zuverlässigkeit, erklären die Analysten. Darüber hinaus seien viele Altsysteme nicht mit Blick auf die IT-Integration entwickelt worden und verfügten derzeit nicht über die erforderlichen Schnittstellen, um Daten an IT-Systeme weiterzuleiten.

Die wichtigsten IT/OT-Baustellen

IoT Analytics

Insgesamt führt IoT Analytics in seiner Studie 27 Themen aus sieben Kategorien auf, an denen gearbeitet wird, damit Informationstechnologie und operative Technologie besser ineinandergreifen. Die meisten Kategorien fallen unter IT-Prinzipien und -Technologien, die in die OT einfließen, während die anderen entweder IT/OT-Anwendungen, Daten, Fähigkeiten oder OT-Hardware widerspiegeln, die IT-ähnlich werden.

IT-Konzepte und -Technologien hätten großen Einfluss auf die OT, während die OT nur geringe Auswirkungen auf die IT habe, so die Analysten. Wichtige IT-gesteuerte Verfahren wie etwa Agile/DevOps, Modularität und As-a-Service-Modelle, Technologien wie Containerisierung und Virtualisierung sowie Konzepte wie Marktplätze zunehmend würden zu einem integralen Bestandteil der OT-Landschaft.

Die Marktexperten weisen außerdem darauf hin, dass mittlerweile auch in der OT-Branche Programmiersprachen auf hohem Niveau wie Python eingesetzt werden, um die Kompatibilität mit IT-Systemen und die Bereitstellungseffizienz zu verbessern. Selbst in Bereichen wie der Cybersicherheit verlasse sich die OT-Branche auf etablierte IT-Strategien, um sich vor neu auftretenden Bedrohungen zu schützen.

Zu den anhaltenden Hürden zählen laut IoT Analytics veraltete OT-Systeme, deren Lebenszyklen oft mehr als 20 Jahre betragen. Sie sind meist nicht mit modernen IT-Tools und -Technologien kompatibel und dadurch schwieriger zu integrieren. Sie erschwerten den Zugriff auf wichtige Maschinendaten, umdie betriebliche Effizienz, Entscheidungsfindung und Innovation voranzutreiben.

Aus diesem Grund drehen sich viele Konvergenzthemen darum, Daten zu erfassen, zu verarbeiten und zu nutzen, erklären die Marktforscher. So sorgten beispielsweise industrielle DataOps und IoT-Datenintegrationsplattformen für einen nahtlosen Datenfluss zwischen IT- und OT-Umgebungen. Das zahle auf Digitale Zwillinge ein, die auf Echtzeitdaten angewiesen sind, um physische Prozesse zu simulieren, vorherzusagen und zu optimieren.

Als Schlüsselfaktor für eine erfolgreiche Konvergenz sehen die Experten zudem die Bildung von kollaborativen IT-OT-Teams, in denen Fachleute aus beiden Bereichen gemeinsam auf gemeinsame Ziele hinarbeiten. Dieses menschliche Element, die kollaborative Denkweise und das funktionsübergreifende Fachwissen, verbinde die technischen und betrieblichen Aspekte der IT/OT-Konvergenz und mache die Menschen zum Bindeglied dieser Transformation, so IoT Analytics.

IT/OT-Konvergenz – leichter gesagt als getan​ Weiterlesen »

Podcast: Fit für KI​

Allgemein

Benedikt Höck, Head of AI und Partner bei KPMG DeutschlandKPMG In der neuesten Folge von TechTalk, dem Podcast von Computerwoche, CIO Magazin und CSO online, spricht Jürgen Hill, Chefreporter Future Technologies, mit Benedikt Höck, Head of AI und Partner bei KPMG Deutschland. Höck ist Experte für die interne KI-Nutzung bei KPMG und begleitet Unternehmen bei ihrer KI-Transformation. Im Gespräch beleuchtet er die aktuellen Herausforderungen deutscher Unternehmen im Umgang mit KI und gibt konkrete Handlungsempfehlungen. Ein zentrales Thema der Folge ist dabei der Reifegrad deutscher Unternehmen in Bezug auf KI. So erkennen viele die Relevanz der Technologie und haben erste Ideen für Anwendungsfälle. Häufig fehlt die Strategie Häufig mangelt es dann allerdings an einer klaren Strategie und an der Umsetzungskompetenz. Höck betont, dass KI kein Hype-Thema sein sollte, das alle Digitalisierungsprobleme löst, sondern in eine ganzheitliche Digitalisierungsstrategie integriert werden muss. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/5jjCHjUMlsNleoZ8eZoNie?si=0X4bOrc4TIa2MGFXYfgS9Q&utm_source=oembed”> Ein besonders spannendes Thema ist dabei die Einbindung der Mitarbeiter in die KI-Transformation. Höck plädiert für ein schrittweises Vorgehen, bei dem die Mitarbeiter von Anfang an eingebunden und im KI-Umgang geschult werden. Er rät Unternehmen dazu, kleine, pragmatische Projekte zu starten, um erste Erfolge zu erzielen und die Akzeptanz für KI zu fördern. Realistische Ziele definieren Letztlich ist es auch wichtig, realistische Ziele zu definieren und sich auf die Anwendungsfälle zu fokussieren, die einen echten Mehrwert für das Unternehmen schaffen. Und nicht zu vergessen: Mut und Experimentierfreude gehören bei der Implementierung von KI-Lösungen ebenfalls dazu. Aber hören Sie selbst. Den Tech-Talk-Podcast „Fit für KI“ finden Sie auf allen gängigen Podcast-Plattformen. 

Podcast: Fit für KI​ Benedikt Höck, Head of AI und Partner bei KPMG DeutschlandKPMG

In der neuesten Folge von TechTalk, dem Podcast von Computerwoche, CIO Magazin und CSO online, spricht Jürgen Hill, Chefreporter Future Technologies, mit Benedikt Höck, Head of AI und Partner bei KPMG Deutschland. Höck ist Experte für die interne KI-Nutzung bei KPMG und begleitet Unternehmen bei ihrer KI-Transformation. Im Gespräch beleuchtet er die aktuellen Herausforderungen deutscher Unternehmen im Umgang mit KI und gibt konkrete Handlungsempfehlungen.

Ein zentrales Thema der Folge ist dabei der Reifegrad deutscher Unternehmen in Bezug auf KI. So erkennen viele die Relevanz der Technologie und haben erste Ideen für Anwendungsfälle.

Häufig fehlt die Strategie

Häufig mangelt es dann allerdings an einer klaren Strategie und an der Umsetzungskompetenz. Höck betont, dass KI kein Hype-Thema sein sollte, das alle Digitalisierungsprobleme löst, sondern in eine ganzheitliche Digitalisierungsstrategie integriert werden muss.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/5jjCHjUMlsNleoZ8eZoNie?si=0X4bOrc4TIa2MGFXYfgS9Q&utm_source=oembed”>

Ein besonders spannendes Thema ist dabei die Einbindung der Mitarbeiter in die KI-Transformation. Höck plädiert für ein schrittweises Vorgehen, bei dem die Mitarbeiter von Anfang an eingebunden und im KI-Umgang geschult werden. Er rät Unternehmen dazu, kleine, pragmatische Projekte zu starten, um erste Erfolge zu erzielen und die Akzeptanz für KI zu fördern.

Realistische Ziele definieren

Letztlich ist es auch wichtig, realistische Ziele zu definieren und sich auf die Anwendungsfälle zu fokussieren, die einen echten Mehrwert für das Unternehmen schaffen. Und nicht zu vergessen: Mut und Experimentierfreude gehören bei der Implementierung von KI-Lösungen ebenfalls dazu.

Aber hören Sie selbst. Den Tech-Talk-Podcast „Fit für KI“ finden Sie auf allen gängigen Podcast-Plattformen.

Podcast: Fit für KI​ Weiterlesen »

Wie Chefs das Netzwerken der Mitarbeiter fördern​

Allgemein

Aktiv Wissen zu teilen, Ratschläge zu geben und andere zu unterstützen, führt im Gegenzug oft dazu, selbst auf ein starkes Netzwerk zurückgreifen zu können.nepool – Shutterstock Im globalen Wettbewerb braucht es neue Formen der Zusammenarbeit, um sich entscheidende Vorteile zu verschaffen: Zum Beispiel übergreifende Netzwerke. Und je flexibler und ortsungebundener Menschen arbeiten, desto wichtiger werden übergreifende Netzwerke über Abteilungs- und Unternehmensgrenzen hinweg. In Netzwerken schließen sich Menschen partnerschaftlich zusammen, tauschen sich aus und generieren zusätzliches Wissen. Je mehr Partner und Interaktionen, desto größer der „Netzwerkeffekt“.   Er beschreibt das Phänomen, dass der Wert eines Produkts oder einer Dienstleistung mit der Anzahl der Nutzer steigt. Im übertragenen Sinne ist der offene Diskurs in einem Netzwerk umso wertvoller für jeden Einzelnen, je mehr Menschen sich mit ihren verschiedenen Perspektiven und Erfahrungen daran beteiligen. Denn dann ist der Zugang zu Ressourcen größer und es entstehen mehr kreative Ideen und innovative Lösungen. Dies macht das Netzwerk wiederum attraktiver und führt zu einer selbstverstärkenden Dynamik.  Starkes Zusammengehörigkeitsgefühl  Unternehmen können solche Netzwerke für sich nutzen. Durch die geänderten Bedürfnisse der Mitarbeiter an Arbeits- und Lebensmodelle schaffen Netzwerke ein starkes Zusammengehörigkeitsgefühl aller am Netzwerk beteiligten Personen und somit auch das Commitment hinsichtlich der Organisation.   „Im Idealfall stellen Unternehmen die Netzwerke unabhängig vom Alter, der Position oder dem fachlichen Background zusammen. Je heterogener das Netzwerk, umso besser die Arbeitsergebnisse“, sagt Sarah Lange, Manager People & Organizational Development bei der IT- und Managementberatung MHP. Sie unterstützt Kunden bei der Organisations- und Personalentwicklung und beschäftigt sich mit der Arbeitswelt von morgen.  Ein gutes Beispiel stellt Catena-X dar – ein offenes, kollaboratives und inter-operables Industrie-Ökosystem für die Automobilbranche. Darin arbeiten 28 Konzerne mit unterschiedlichen Kulturen und Interessen an Zielen wie CO2-Reduktion, Zirkulärwirtschaft oder Lieferkettenstabilität zusammen. Der Schlüssel für die erfolgreiche Zusammenarbeit sind komplementäre Werte der Partner im Ökosystem. So können selbst Konkurrenten gegenseitig Werte füreinander schaffen.   Hinzu kommt eine klare gemeinsame Vision beziehungsweise Mission, die alle Partner mittragen und für die es sich zu kämpfen lohnt. Das Ökosystem besteht aus großen und kleinen Unternehmen, OEMs und direkten Zulieferern, jene am Anfang oder Ende der Wertschöpfungskette, Recycler, Software-Anbieter und die Wissenschaft.   Sie alle bündeln ihre Kompetenzen und tauschen gezielt Wissen, Daten und Ressourcen aus. Jedes Unternehmen kann jede Rolle einnehmen und die „Spielregeln“ mitentscheiden; der Fokus liegt auf einem agilen Vorgehen und einem agilen Arbeitsmodell. Diese gleichgewichtige Kräfteverteilung ermöglicht es erst, große und anspruchsvolle Industrieprobleme gemeinsam zu lösen.    Die Kunst der Netzwerkbildung Netzwerke bilden sich nicht von allein und es gibt einige Faktoren, die über den Erfolg der Netzwerkbildung entscheiden. Zuallererst: die Haltung. Wer neugierig und offen für neue Menschen, Perspektiven und Ideen ist, tut sich leichter, andere in bestimmten Momenten hinzuzuziehen und ein übergreifendes Netzwerk zu initiieren. Dazu kommt der Grundsatz des Gebens und Nehmens. Aktiv Wissen zu teilen, Ratschläge zu geben und andere zu unterstützen, führt im Gegenzug oft dazu, selbst auf ein starkes Netzwerk zurückgreifen zu können.   Wichtig ist auch, echte, vertrauensvolle Beziehungen in Sachen Netzwerken aufzubauen, nicht nur oberflächliche Kontakte zu knüpfen. „Wer achtsam mit sich und anderen umgeht, ist authentischer, empathischer, verständnisvoller und interessierter. So können auch im beruflichen Kontext langfristig wertvolle Verbindungen entstehen, die robust und widerstandsfähig sind“, zeigt sich Lange überzeugt.     Nicht jeder Mensch ist proaktiv und tut sich leicht mit neuen Formen der Zusammenarbeit. Die gute Nachricht: Achtsam zu sein und zu netzwerken kann man lernen! „Kontrolliertes Atmen, Meditation und Achtsamkeitsübungen sowie achtsamkeitsbasierte Präsenztrainings fördern eine Haltung, die beim Netzwerken nützlich sein kann“, so Lange. Hinzu komme das Vorleben durch die Führungskraft. Sie kann im Team „ein gemeinsames Mindset und eine Netzwerkkultur schaffen sowie Netzwerke gestalten.“ Das können zum Beispiel fachliche Kooperationen, Communities, Hackathons oder abteilungsübergreifende Zusammenarbeitsmodelle sein.  Sarah Lange, MHP-Personalexpertin: „Gerade für Führungskräfte bietet sich die Rolle des ‚Netzwerktreibers‘ an. Sie können dazu ermutigen, Ideen, Bedenken und Herausforderungen im Team zu besprechen und Aufgaben gemeinsam zu erledigen.”Sarah Lange – IT- und Managementberatung MHP   So erhalten Sie Netzwerke Wie Netzwerke gebildet, aktiv genutzt und erhalten werden, kann man zusammen mit erfahrenen Beratern in Workshops und Trainings erarbeiten. Hier geht es um Aspekte wie gemeinsame Werte, kulturelle oder länderspezifische Unterschiede, eine offene und transparente Kommunikation, einen respektvollen Umgang, den Aufbau eines Safe Spaces, in dem sich alle Netzwerkmitglieder wohlfühlen. So lässt sich Vertrauen aufbauen. Wichtig ist in dem Zuge auch die Rollenklärung: also wer im Netzwerk am liebsten als „Netzwerktreiber“, „Koordinator“ oder „Entscheidungsträger“ agiert.  „Gerade für Führungskräfte bietet sich die Rolle des ‚Netzwerktreibers‘ an. Sie können dazu ermutigen, Ideen, Bedenken und Herausforderungen im Team zu besprechen und Aufgaben gemeinsam zu erledigen“, meint die MHP-Personalexpertin.   Ohne eine klare Ausrichtung verlieren Netzwerke an Bedeutung und die Menschen driften auseinander. Daher sollte auch im weiteren Verlauf an der Vision und konkret formulierten Zielen festgehalten und beides regelmäßig überprüft, angepasst und kommuniziert werden. Wichtig ist, dass Vision und Ziele mit Emotionen verbunden und für alle Beteiligten von Nutzen sind. Erst wenn einem regelrecht das Herz aufgeht, allein bei dem Gedanken, die Vision eines Tages erreicht zu haben, dann ist sie genau richtig! Dies führt automatisch zu mehr Motivation, Engagement und Mitverantwortung.    Voraussetzungen für Netzwerke schaffen Unternehmen sollten bestimmte Voraussetzungen für Netzwerke schaffen: klare organisatorische Rahmenbedingungen, personelle Ressourcen und gegebenenfalls finanzielle Ressourcen, etwa für die Einführung von Netzwerk-Plattformen und Datenökosystemen.  Wichtig ist auch: Die Definition von organisationsübergreifenden Visionen und Zielen, an denen sich die einzelnen Netzwerke orientieren, sowie den Aufbau eines lean-agilen Organisationsmodells (wie das „Scaled Agile Framework“), das auf gemeinsame Prinzipien und Methoden der Zusammenarbeit basiert. Dazu gehören gemeinsam festgelegte Rollen, Prozesse und Routinen.   Entscheidungen werden dezentral dort getroffen, wo die Wertschöpfung entsteht und das entsprechende Expertenwissen vorhanden ist. Den Mitarbeitenden im gesamten Netzwerk wird damit ein hoher Grad an Autonomie und Selbstbestimmung ermöglicht. „Agile Prinzipien und Praktiken lassen sich über Grenzen hinweg skalieren und eignen sich daher bestens für ein einheitliches digitales Zusammenarbeitsmodell, das agil und anpassungsfähig zugleich ist“, weiß Lange.   Nutzen organisatorischer Netzwerke entsteht auf folgenden drei Ebenen:   unternehmensübergreifend,   abteilungsübergreifend und   im Team.   Eine zielgerichtete netzwerkbasierte Zusammenarbeit hat damit das Potenzial, im Unternehmen Innovationskraft, Effizienz und Produktivität zu steigern und somit Wettbewerbsvorteile zu erzielen.  

Wie Chefs das Netzwerken der Mitarbeiter fördern​ Aktiv Wissen zu teilen, Ratschläge zu geben und andere zu unterstützen, führt im Gegenzug oft dazu, selbst auf ein starkes Netzwerk zurückgreifen zu können.nepool – Shutterstock

Im globalen Wettbewerb braucht es neue Formen der Zusammenarbeit, um sich entscheidende Vorteile zu verschaffen: Zum Beispiel übergreifende Netzwerke. Und je flexibler und ortsungebundener Menschen arbeiten, desto wichtiger werden übergreifende Netzwerke über Abteilungs- und Unternehmensgrenzen hinweg. In Netzwerken schließen sich Menschen partnerschaftlich zusammen, tauschen sich aus und generieren zusätzliches Wissen. Je mehr Partner und Interaktionen, desto größer der „Netzwerkeffekt“.  

Er beschreibt das Phänomen, dass der Wert eines Produkts oder einer Dienstleistung mit der Anzahl der Nutzer steigt. Im übertragenen Sinne ist der offene Diskurs in einem Netzwerk umso wertvoller für jeden Einzelnen, je mehr Menschen sich mit ihren verschiedenen Perspektiven und Erfahrungen daran beteiligen. Denn dann ist der Zugang zu Ressourcen größer und es entstehen mehr kreative Ideen und innovative Lösungen. Dies macht das Netzwerk wiederum attraktiver und führt zu einer selbstverstärkenden Dynamik. 

Starkes Zusammengehörigkeitsgefühl 

Unternehmen können solche Netzwerke für sich nutzen. Durch die geänderten Bedürfnisse der Mitarbeiter an Arbeits- und Lebensmodelle schaffen Netzwerke ein starkes Zusammengehörigkeitsgefühl aller am Netzwerk beteiligten Personen und somit auch das Commitment hinsichtlich der Organisation.  

„Im Idealfall stellen Unternehmen die Netzwerke unabhängig vom Alter, der Position oder dem fachlichen Background zusammen. Je heterogener das Netzwerk, umso besser die Arbeitsergebnisse“, sagt Sarah Lange, Manager People & Organizational Development bei der IT- und Managementberatung MHP. Sie unterstützt Kunden bei der Organisations- und Personalentwicklung und beschäftigt sich mit der Arbeitswelt von morgen. 

Ein gutes Beispiel stellt Catena-X dar – ein offenes, kollaboratives und inter-operables Industrie-Ökosystem für die Automobilbranche. Darin arbeiten 28 Konzerne mit unterschiedlichen Kulturen und Interessen an Zielen wie CO2-Reduktion, Zirkulärwirtschaft oder Lieferkettenstabilität zusammen. Der Schlüssel für die erfolgreiche Zusammenarbeit sind komplementäre Werte der Partner im Ökosystem. So können selbst Konkurrenten gegenseitig Werte füreinander schaffen.  

Hinzu kommt eine klare gemeinsame Vision beziehungsweise Mission, die alle Partner mittragen und für die es sich zu kämpfen lohnt. Das Ökosystem besteht aus großen und kleinen Unternehmen, OEMs und direkten Zulieferern, jene am Anfang oder Ende der Wertschöpfungskette, Recycler, Software-Anbieter und die Wissenschaft.  

Sie alle bündeln ihre Kompetenzen und tauschen gezielt Wissen, Daten und Ressourcen aus. Jedes Unternehmen kann jede Rolle einnehmen und die „Spielregeln“ mitentscheiden; der Fokus liegt auf einem agilen Vorgehen und einem agilen Arbeitsmodell. Diese gleichgewichtige Kräfteverteilung ermöglicht es erst, große und anspruchsvolle Industrieprobleme gemeinsam zu lösen. 

 

Die Kunst der Netzwerkbildung

Netzwerke bilden sich nicht von allein und es gibt einige Faktoren, die über den Erfolg der Netzwerkbildung entscheiden. Zuallererst: die Haltung. Wer neugierig und offen für neue Menschen, Perspektiven und Ideen ist, tut sich leichter, andere in bestimmten Momenten hinzuzuziehen und ein übergreifendes Netzwerk zu initiieren. Dazu kommt der Grundsatz des Gebens und Nehmens. Aktiv Wissen zu teilen, Ratschläge zu geben und andere zu unterstützen, führt im Gegenzug oft dazu, selbst auf ein starkes Netzwerk zurückgreifen zu können.  

Wichtig ist auch, echte, vertrauensvolle Beziehungen in Sachen Netzwerken aufzubauen, nicht nur oberflächliche Kontakte zu knüpfen. „Wer achtsam mit sich und anderen umgeht, ist authentischer, empathischer, verständnisvoller und interessierter. So können auch im beruflichen Kontext langfristig wertvolle Verbindungen entstehen, die robust und widerstandsfähig sind“, zeigt sich Lange überzeugt.    

Nicht jeder Mensch ist proaktiv und tut sich leicht mit neuen Formen der Zusammenarbeit. Die gute Nachricht: Achtsam zu sein und zu netzwerken kann man lernen! „Kontrolliertes Atmen, Meditation und Achtsamkeitsübungen sowie achtsamkeitsbasierte Präsenztrainings fördern eine Haltung, die beim Netzwerken nützlich sein kann“, so Lange. Hinzu komme das Vorleben durch die Führungskraft. Sie kann im Team „ein gemeinsames Mindset und eine Netzwerkkultur schaffen sowie Netzwerke gestalten.“ Das können zum Beispiel fachliche Kooperationen, Communities, Hackathons oder abteilungsübergreifende Zusammenarbeitsmodelle sein. 

Sarah Lange, MHP-Personalexpertin: „Gerade für Führungskräfte bietet sich die Rolle des ‚Netzwerktreibers‘ an. Sie können dazu ermutigen, Ideen, Bedenken und Herausforderungen im Team zu besprechen und Aufgaben gemeinsam zu erledigen.”Sarah Lange – IT- und Managementberatung MHP

 

So erhalten Sie Netzwerke

Wie Netzwerke gebildet, aktiv genutzt und erhalten werden, kann man zusammen mit erfahrenen Beratern in Workshops und Trainings erarbeiten. Hier geht es um Aspekte wie gemeinsame Werte, kulturelle oder länderspezifische Unterschiede, eine offene und transparente Kommunikation, einen respektvollen Umgang, den Aufbau eines Safe Spaces, in dem sich alle Netzwerkmitglieder wohlfühlen. So lässt sich Vertrauen aufbauen. Wichtig ist in dem Zuge auch die Rollenklärung: also wer im Netzwerk am liebsten als „Netzwerktreiber“, „Koordinator“ oder „Entscheidungsträger“ agiert. 

„Gerade für Führungskräfte bietet sich die Rolle des ‚Netzwerktreibers‘ an. Sie können dazu ermutigen, Ideen, Bedenken und Herausforderungen im Team zu besprechen und Aufgaben gemeinsam zu erledigen“, meint die MHP-Personalexpertin.  

Ohne eine klare Ausrichtung verlieren Netzwerke an Bedeutung und die Menschen driften auseinander. Daher sollte auch im weiteren Verlauf an der Vision und konkret formulierten Zielen festgehalten und beides regelmäßig überprüft, angepasst und kommuniziert werden. Wichtig ist, dass Vision und Ziele mit Emotionen verbunden und für alle Beteiligten von Nutzen sind. Erst wenn einem regelrecht das Herz aufgeht, allein bei dem Gedanken, die Vision eines Tages erreicht zu haben, dann ist sie genau richtig! Dies führt automatisch zu mehr Motivation, Engagement und Mitverantwortung. 

 

Voraussetzungen für Netzwerke schaffen

Unternehmen sollten bestimmte Voraussetzungen für Netzwerke schaffen: klare organisatorische Rahmenbedingungen, personelle Ressourcen und gegebenenfalls finanzielle Ressourcen, etwa für die Einführung von Netzwerk-Plattformen und Datenökosystemen. 

Wichtig ist auch: Die Definition von organisationsübergreifenden Visionen und Zielen, an denen sich die einzelnen Netzwerke orientieren, sowie den Aufbau eines lean-agilen Organisationsmodells (wie das „Scaled Agile Framework“), das auf gemeinsame Prinzipien und Methoden der Zusammenarbeit basiert. Dazu gehören gemeinsam festgelegte Rollen, Prozesse und Routinen.  

Entscheidungen werden dezentral dort getroffen, wo die Wertschöpfung entsteht und das entsprechende Expertenwissen vorhanden ist. Den Mitarbeitenden im gesamten Netzwerk wird damit ein hoher Grad an Autonomie und Selbstbestimmung ermöglicht. „Agile Prinzipien und Praktiken lassen sich über Grenzen hinweg skalieren und eignen sich daher bestens für ein einheitliches digitales Zusammenarbeitsmodell, das agil und anpassungsfähig zugleich ist“, weiß Lange.  

Nutzen organisatorischer Netzwerke entsteht auf folgenden drei Ebenen: 

 unternehmensübergreifend,  

abteilungsübergreifend und  

im Team.  

Eine zielgerichtete netzwerkbasierte Zusammenarbeit hat damit das Potenzial, im Unternehmen Innovationskraft, Effizienz und Produktivität zu steigern und somit Wettbewerbsvorteile zu erzielen. 

Wie Chefs das Netzwerken der Mitarbeiter fördern​ Weiterlesen »

Nach oben scrollen
×