Computerhaus Quickborn

August 2024

Samsung Galaxy Book4 Edge Test: Dünn, leicht und ausdauernd​

Samsung Galaxy Book4 Edge Test: Dünn, leicht und ausdauernd​

Allgemein

IDG / Chris Hoffman Auf einen Blick Pro Sehr dünn und leicht für ein 16-Zoll-Notebook Lange Akkulaufzeit Schönes OLED-Display Schnellste verfügbare Snapdragon X Elite-Hardware Kontra Keine Anmeldung per Gesichtserkennung eUFS-Speicher ist auf der Hauptplatine verlötet Begrenzt auf 16 Gigabyte RAM Teuer im Vergleich zu anderen Laptops mit Snapdragon-Prozessor Die Spitzenhardware des Snapdragon X Elite ist nicht so schnell wie gedacht FazitDas Samsung Galaxy Book4 Edge ist ein hervorragendes Notebook mit einem schönen Display, einer langen Akkulaufzeit und einer hervorragenden Verarbeitungsqualität. Die verbaute High-End-Hardware Snapdragon X Elite bietet aber leider nicht den großen Leistungssprung, den Sie vielleicht erwarten. Das Samsung Galaxy Book4 Edge ist Teil der ersten Welle von Copilot+ PCs mit dem Snapdragon X Elite. Das von uns getestete 16-Zoll-Modell ist etwas Besonderes, denn es ist das einzige Notebook, das mit dem leistungsstärksten Snapdragon-Chip X Elite X1E-84-100 ausgestattet ist. Dieses Modell verfügt über eine schnellere CPU-Leistung als die anderen, aber es ist auch die einzige Snapdragon X Elite-Variante mit einer verbesserten GPU. Samsung bietet hier ein großartiges Notebook an: Es ist erstaunlich dünn und leicht, hat eine lange Akkulaufzeit und ein schönes OLED-Display. Aber das bieten viele Laptops mit Snapdragon X Elite. Und dieses Samsung-Gerät ist im Vergleich zu den Alternativen recht teuer. Einen Teil des Preises zahlen Sie für die exklusive Top-End-Hardware des Snapdragon X Elite. Und ich will ehrlich sein: Der Unterschied ist zwar spürbar, aber Sie werden mit jedem Snapdragon X Elite-Laptop gut zurechtkommen. Die High-End-Hardware hebt sich hier nicht genug ab. Wie andere Copilot+ PCs mit Snapdragon X Elite-Hardware ist auch das Samsung Galaxy Book4 Edge ein ARM-basiertes Notebook. Wie in unseren Tests des Surface Laptop und Surface Pro beschrieben, ist die Anwendungskompatibilität gut, aber nicht perfekt. Während die meisten Anwendungen problemlos laufen, kann es sein, dass einige Anwendungen gar nicht oder mit schlechter Leistung starten. Die Situation verbessert sich jedoch kontinuierlich. Was die künstliche Intelligenz angeht, so sind die exklusiven Copilot+ PC-KI-Funktionen nicht besonders interessant. Technische Daten IDG / Chris Hoffman Das Samsung Galaxy Book4 Edge ist Teil der ersten Welle von Copilot+ PCs, die mit ARM-basierten Qualcomm Snapdragon X Elite-Chips ausgestattet sind. Sie bieten eine neuronale Verarbeitungseinheit (NPU), die 40 Billionen Operationen pro Sekunde (TOPS) ausführen kann. Dazu kommt eine Qualcomm Adreno GPU. Zum Verkaufsstart gibt es vier Snapdragon X-Pakete: Der Snapdragon X Plus X1P-64-100 ohne “Elite” mit nur 10 Kerne Der Snapdragon X Elite X1E-78-100 bietet 12 Kerne Der Snapdragon X Elite X1E-80-100 hat ebenfalls 12 Kerne, verfügt aber über eine “Dual Core Boost”-Funktion, mit der die CPU bei Bedarf auf bis zu 4,0 Gigahertz hochtakten kann Der Snapdragon X Elite X1E-84-100 in diesem Gerät hat 12 Kerne, aber sein Dual Core Boost geht bis zu 4,2 Gigahertz, außerdem bietet er eine schnellere Multi-Thread-CPU-Leistung und eine leistungsstarke Qualcomm Adreno GPU. Qualcomm Die 16-Zoll-Version des Samsung Galaxy Book4 Edge verfügt zwar über die hochwertigste Snapdragon X Elite-Hardware, aber es geht nicht nur um diese Spezifikation. Auch andere Komponenten sind wichtig. Wenn ein Laptop zum Beispiel nicht genügend Kühlung für eine hohe Leistung bietet, kann es sein, dass die Hardware gedrosselt wird und nicht die höheren Geschwindigkeiten liefert, die Sie vielleicht erwarten. Leider bietet Samsung dieses Notebook nur mit 16 Gigabyte RAM an. Sie können dieses Gerät nicht mit 32 Gigabyte RAM kaufen, was bei einigen anderen Laptops möglich ist. Selbst die schnellste Snapdragon X Elite-Hardware kann nicht mit 32 Gigabyte Arbeitsspeicher kombiniert werden. Das fühlt sich wie eine verpasste Chance an. Es gibt noch eine weitere Überraschung bei den technischen Daten: Samsung hat sich für die Verwendung von eUFS-Speicher anstelle der PCIe Gen4 SSD-Technologie entschieden, mit der andere Hersteller ihre Copilot+ Laptops ausliefern. Diese Art von Speicher wird häufiger in Smartphones und anderen mobilen Geräten verwendet. Der Speicher ist mit der Hauptplatine des Laptops verlötet, sodass Sie ihn nicht austauschen oder aufrüsten können. Theoretisch hat diese Schnittstelle einen langsameren Durchsatz als eine NVMe-SSD. Andererseits verbraucht sie weniger Strom und erhöht somit die Akkulaufzeit des Laptops. In der Praxis scheint die SSD-Hardware auf den anderen Snapdragon X Elite-PCs jedenfalls nicht an die Grenzen der Schnittstelle zu stoßen. Der eUFS-Speicher funktionierte im täglichen Einsatz einwandfrei. Ich konnte keinen spürbaren Unterschied in der Speicherleistung im Vergleich zu den anderen Snapdragon X Elite-Laptops feststellen. Abschließend sei darauf hingewiesen, dass die High-End-Hardware Qualcomm Snapdragon X Elite X1E-84-100 nur für die 16-Zoll-Version verfügbar ist. Die preisgünstigere 14-Zoll-Version kommt ohne diese Option, und sie hat einige andere Schwächen: Keinen microSD-Leser, ein etwas kleinerer Akku, im Gegenzug wiegt sie fast ein halbes Kilo weniger. CPU: Qualcomm Snapdragon X Elite X1E-84-100 Speicher: 16 Gigabyte RAM Grafik/GPU: Qualcomm Adreno Anzeige: 16-Zoll 2.880 x 1.800 AMOLED-Display mit 120 Hertz Bildwiederholrate und Touchscreen Speicher: 1 Terabyte eUFS-Speicher (auf der Hauptplatine verlötet) Webcam: 1080p-Webcam Konnektivität: 2x USB Typ-C (USB4), 1x USB Typ-A (USB 3.2), 1x HDMI 2.1, 1x Combo-Kopfhöreranschluss, 1x microSD-Leser Vernetzung: Wi-Fi 7, Bluetooth 5.3 Biometrische Daten: Fingerabdruckleser Akku-Kapazität: 61,8 Wattstunden Abmessungen: 35,5 x 1,2 x 25,0 Zentimeter Gewicht: 2,55 Kilogramm UVP: 2.099 Euro im Test (1.550 Euro Startpreis für die 14-Zoll-Version) Design und Verarbeitungsqualität IDG / Chris Hoffman Das Samsung Galaxy Book4 Edge ist nur in einer Farbe erhältlich, die Samsung als “Saphirblau” bezeichnet. Meiner Meinung nach wirkt die Farbgebung eher wie ein Silber oder Grau mit einem Hauch von Blau. Das 16-Zoll-Notebook besteht aus Aluminium und ist sehr dünn. Mit einem Gewicht von 1,55 Kilogramm und einer Dicke von 1,2 Zentimetern ist das Gerät beeindruckend schlank und leicht. Das Design wirkt aufgeräumt und einfach. Auf dem Laptop-Deckel finden sich unauffällige Samsung-Logos. Die schwarzen Ränder rund um das AMOLED-Display passen gut zu dem dunklen Standard-Desktop-Hintergrund. Das Scharnier funktioniert einwandfrei, und es gibt eine Lasche zum Festhalten des Bildschirms beim Öffnen. Dank des soliden Aluminiumgehäuses und des geringen Gewichts können Sie das Notebook problemlos auch an einer Ecke festhalten, ohne dass es sich biegt. Dieses Samsung-Notebook wird wahrscheinlich diejenigen ansprechen, die schon Samsung Galaxy-Smartphones und -Tablets verwenden. Samsung hat eine Quick Share-Anwendung zum Teilen von Dateien standardmäßig an die Taskleiste angeheftet – zusammen mit einer Second Screen-App, mit der Sie ein Samsung-Tablet als zweites Display für Ihren Laptop verwenden können. Tastatur und Trackpad IDG / Chris Hoffman Das 16-Zoll-Modell des Samsung Galaxy Book4 Edge verfügt über einen vollständigen Nummernblock auf der rechten Seite. Die Tastatur hat eine weiße Hintergrundbeleuchtung und ist gut zum Tippen geeignet. Sie fühlt sich für mich etwas schwammig an – nicht so flink und reaktionsschnell wie die Tastatur des Lenovo Yoga Slim 7x. Das ist kein Problem, aber es ist wahrscheinlich auch nicht das absolut beste Tipperlebnis auf einem Snapdragon X Elite-Laptop. Das Trackpad ist das erste, was ins Auge fällt, wenn Sie dieses Notebook aufklappen. Es ist riesig – ich weiß nicht, ob ich jemals zuvor ein so großes Trackpad auf einem Laptop verwendet habe. Es funktioniert gut, egal ob Sie Gesten verwenden oder nur mit dem Finger darüber streichen. Die Klickfunktion ist gut, fühlt sich aber nicht so hochwertig an wie das haptische Touchpad des Microsoft Surface Laptop. Die Kombination aus dem massiven Touchpad und dem Nummernblock drängt die Standardtastatur in die obere linke Ecke des Tastaturdecks. Dieses Layout kam mir anfangs etwas seltsam vor. Aber ich habe mich schnell daran gewöhnt, während ich dieses Notebook benutzte. Display und Lautsprecher IDG / Chris Hoffman Das Samsung Galaxy Book4 Edge hat ein wunderschönes Display. Der 16-Zoll-OLED-Bildschirm mit einer Auflösung von 2.880 x 1.800 Pixeln liefert dunkle Schwarztöne und leuchtende Farben mit einer hohen Helligkeit und einer Bildwiederholfrequenz von 120 Hertz. Es ist gleichzeitig auch ein Touchscreen. Das Display ist ein echter Hingucker und ein großes Upgrade gegenüber dem IPS-Screen des Surface Laptop. Die Lautsprecher sind an der Unterseite des Laptops angebracht. Sie liefern eine solide Audioqualität mit ordentlicher Lautstärke. Wie immer fehlen allerdings die Bässe im Vergleich zu einem guten Paar externer Lautsprecher. Mit dem schönen 16-Zoll-Display und den Lautsprechern konnte ich auf einer Dienstreise in einem Hotelzimmer sehr gut Serien und Filme schauen. Webcam, Mikrofon, biometrische Funktionen Das Samsung Galaxy Book4 Edge verfügt über eine 1080p-Webcam, die eine gute Videoqualität bietet. Da es sich gleichzeitig aber auch um ein Copilot+ Notebook handelt, haben Sie auch Zugriff auf Windows Studio Effects. Damit können Sie beispielsweise den Augenkontakt aufrecht erhalten und Ihren Hintergrund in jeder Anwendung unscharf machen. Das Mikrofon ist ebenfalls in Ordnung und leistet in Online-Meetings gute Arbeit. Es hat meine Stimme mit angemessener Audioqualität aufgenommen, sogar mit einigen Hintergrundgeräuschen. Die biometrischen Funktionen sind hingegen ein wenig enttäuschend. Samsung hat sich dafür entschieden, nur einen Fingerabdruckleser für Windows Hello zu integrieren. Er ist in die Einschalttaste in der oberen rechten Ecke der Tastatur integriert. Sie können Ihren Finger darauf legen, um sich anzumelden. Für einen Fingerabdrucksensor funktioniert er sehr gut – ich hatte nie Probleme, und er war immer schnell. Allerdings hätte mir die IR-Kamera für Windows Hello besser gefallen, da sie Sie sofort anmelden kann, sobald Sie Ihren Laptop öffnen. Diese fehlt leider. Konnektivität IDG / Chris Hoffman Das Samsung Galaxy Book4 Edge hat eine vernünftige Auswahl an Anschlüssen. Auf der linken Seite finden Sie zwei USB Typ-C-Anschlüsse (USB4) und einen HDMI 2.1-Ausgang. Dieses Notebook wird über USB-C aufgeladen, also werden Sie das Ladegerät zum Aufladen an einen dieser Anschlüsse anschließen müssen. Auf der rechten Seite finden Sie einen Kombi-Audioanschluss für Headsets, einen USB Typ-A-Anschluss (USB 3.2) und einen microSD-Kartenleser. Der Steckplatz für den microSD-Leser ist nur beim 16-Zoll-Modell vorhanden und nicht beim 14-Zoll-Modell. Das ist eine ordentliche Anzahl von Anschlüssen, vor allem für ein so dünnes Notebook. Wie andere Qualcomm Snapdragon X Elite-Laptops verfügt auch das Samsung Galaxy Book4 Edge über Wi-Fi 7-Unterstützung und Bluetooth 5.4. Samsung gibt dies auf dem Datenblatt als Bluetooth 5.3 an, da Windows noch nicht mit Bluetooth 5.4 kompatibel ist. Die WLAN-Leistung des Laptops war gut, obwohl ich noch kein Wi-Fi 7-Netzwerk habe, um den neuesten Standard zu testen. Leistung Wie andere Copilot+ PCs mit Qualcomm Snapdragon X Elite lieferte auch das Samsung Galaxy Book4 Edge im Akkubetrieb eine flotte Alltagsleistung. Gängige Produktivitätsanwendungen wie Webbrowser, die Microsoft Office-Suite und Slack liefen ohne Probleme. Die Lüfter waren im täglichen Gebrauch kaum zu hören und wurden nur dann lauter, wenn das Notebook wirklich gefordert wurde, wie bei unseren Benchmarks. Wie immer haben wir das Samsung Galaxy Book4 Edge durch unsere Standard-Benchmarks laufen lassen. IDG / Chris Hoffman Zunächst haben wir einen CPU-Benchmark mit Geekbench 6 durchgeführt. Normalerweise verwenden wir den PCMark 10, aber er läuft nicht auf ARM-Rechnern wie diesem. Geekbench 6 läuft nativ auf ARM, so dass wir uns ein Bild von der CPU-Leistung dieses Geräts machen können, wenn nativer ARM-Code ausgeführt wird, ohne dass die Prism-Übersetzungsschicht von Microsoft eine Rolle spielt. Das Samsung Galaxy Book4 Edge erzielte einen Geekbench 6 Multi-Thread-Score von 15.493 und schlägt damit das Microsoft Surface Laptop und das Lenovo Yoga Slim 7x. Wir sehen hier die Vorteile des Spitzenmodells Snapdragon X Elite X1E-84-100 und seiner höheren Leistung. Die Lüfter blieben während dieses Benchmarks angenehm leise. Meiner Erfahrung nach laufen diese Geräte am heißesten und lautesten, wenn sie schwere Arbeitslasten mit x86-Code über die Prism-Übersetzungsschicht ausführen. IDG / Chris Hoffman Als nächstes führen wir Cinebench R24 aus. Cinebench R24 hat eine native ARM-Version, dadurch läuft er nicht über die Prism-Übersetzungsschicht. Bei Cinebench handelt es sich um einen stark multithreading-basierten Benchmark, der sich auf die Gesamtleistung der CPU konzentriert. Die Lüfter liefen auf Hochtouren, während der Multi-Thread-Cinebench-Benchmark arbeitete – sie schalten sich ein, um bei intensiven Arbeitslasten wie in diesem Test für zusätzliche Kühlung zu sorgen. Mit einem Multi-Thread-Ergebnis von 883 war das Samsung Galaxy Book4 Edge nicht viel schneller als das Microsoft Surface Pro und blieb hinter den Ergebnissen zurück, die ich vom Lenovo Yoga Slim 7x kenne. Das zeigt, dass die Unterschiede zwischen den verschiedenen Snapdragon X Elite-Hardware-Varianten nicht sehr groß sind. Vielleicht lässt Samsung die Hardware auch etwas langsamer laufen oder die Kühlung ist ein begrenzender Faktor – bei einem so dünnen Laptop-Gehäuse gibt es vielleicht einfach nicht genug Kühlmöglichkeiten, um diese CPU mit der schnellstmöglichen Geschwindigkeit zu betreiben. IDG / Chris Hoffman Als nächstes führen wir einen grafischen Benchmark durch. Obwohl Qualcomm viel über die Spieleleistung referiert, handelt es sich nicht wirklich um ein Gaming-Notebook. Wir raten vom Kauf eines Snapdragon X Elite-Notebooks für Spiele ab. Dennoch führen wir wie immer 3DMark Time Spy durch, einen Grafik-Benchmark, der sich auf die GPU-Leistung konzentriert. Wir haben auch mit 3DMark Night Raid einen Testlauf gestartet. Time Spy wird über die Prism-Übersetzungsschicht ausgeführt, während Night Raid nativ auf ARM läuft. Die beiden Ergebnisse zeigen den Unterschied zwischen dem mit Prism übersetzten x86-Code und dem nativen ARM-Code. Mit einer Time Spy Punktzahl von 2.146 demonstriert das Samsung Galaxy Book4 Edge die Vorteile seiner schnelleren GPU und schlägt andere Snapdragon X Elite-Laptops bei der Ausführung des Codes durch Prism. Bei der Ausführung typischer x86-Spiele war die integrierte Arc-Grafik von Intel jedoch schneller. IDG / Chris Hoffman Beim Night Raid Benchmark, der nativ auf ARM-Hardware läuft, zeigt die Qualcomm Adreno GPU, dass sie bei der Ausführung von nativem Code leistungsfähiger ist als die Grafikeinheiten von Intel. Das Samsung Galaxy Book4 Edge lieferte mit einer Punktzahl von 27.821 eine schnellere Leistung als die integrierte Grafik von Intel. Auch wenn Prism gut funktioniert, ist es klar, dass diese Geräte am besten abschneiden, wenn sie nativen ARM-Code ausführen. Insgesamt zeigt der Snapdragon X Elite im Samsung Galaxy Book4 Edge eine gute Leistung. Aber im Großen und Ganzen ist die Leistung ähnlich wie bei anderen mit Snapdragon X Elite ausgestatteten Systemen. Sie müssen nicht viel mehr Geld für den Qualcomm Snapdragon X Elite X1E-84-100 ausgeben. Auch für deutlich weniger Geld erhalten Sie eine ähnliche CPU-Leistung. Wenn Sie sich eher auf die GPU-Leistung konzentrieren, erhalten Sie von diesem System eine stärkere GPU-Leistung als von allen anderen Snapdragon X Elite-betriebenen Laptops. Wenn die GPU-Leistung für Sie hingegen oberste Priorität hat, sind Sie mit einem traditionelleren Gaming-Laptop wahrscheinlich besser bedient. Akkulaufzeit Snapdragon X Elite-betriebene Laptops sollten in unseren Benchmarks enorme Werte für die Akkulaufzeit erzielen. Mit einem Snapdragon X Elite-Chip und einem 61,8-Wattstunden-Akku ist das genau das, was wir vom Galaxy Book4 Edge erwarten würden. Glücklicherweise fielen die Ergebnisse wie erwartet aus. Die Zahlen sind unglaublich für ein 16-Zoll-Notebook mit einem OLED-Bildschirm. IDG / Chris Hoffman Um die Akkulaufzeit zu testen, spielen wir eine 4K-Kopie von “Tears of Steel” mit aktiviertem Flugzeugmodus so lange ab, bis sich das Notebook selbst ausschaltet. Dies ist ein optimales Szenario für jedes Notebook, da die lokale Videowiedergabe sehr effizient ist und die tatsächliche Akkulaufzeit im täglichen Gebrauch immer unter diesem Wert liegen wird. Für unsere Akku-Benchmarks haben wir die Helligkeit des Bildschirms auf 250 Nits eingestellt. Es ist erwähnenswert, dass das OLED-Display des Galaxy Book4 Edge einen kleinen Vorteil hat, da OLED-Bildschirme weniger Strom für die Anzeige der schwarzen Balken um das Video herum benötigen. Das Samsung Galaxy Book4 Edge hat in unserem Test durchschnittlich 1.242 Minuten durchgehalten. Das sind fast 21 Stunden. Diese Akkulaufzeit erreichen Sie zwar nicht, wenn Sie das Notebook normal verwenden. Aber es ist ein enormer Wert und etwas, das wir nicht oft sehen, vor allem nicht bei einem 16-Zoll-Notebook mit OLED-Display, da diese in der Regel stromhungriger sind. Der eUFS-Speicher ist zwar eine umstrittene Wahl für einen Laptop, aber er könnte dem Galaxy Book4 Edge hier einen Vorsprung verschaffen. Preis und Verfügbarkeit Das Samsung Galaxy Book4 Edge wird mit kleinerem 14-Zoll-Bildschirm bei Amazon ab 1.629 Euro angeboten. Das. 16-Zoll-Modell beginnt bei 1.589 Euro, hat aber nur 512 GB Speicher und einen langsameren Snapdragon X Elite verbaut. Für 1.995 Euro ist bei Amazon hingegen das 16-Zoll-Modell mit einem Terabyte Speicherplatz und Snapdragon X Elite X1E-80-100 erhältlich. Das Spitzenmodell mit Snapdragon X Elite X1E-84-100 gibt es hingegen nur direkt beim Hersteller für 2.099 Euro. Fazit Das Samsung Galaxy Book4 Edge ist ein großartiges Notebook, daran gibt es keinen Zweifel. Das Display ist wunderschön, das Design aus Aluminium ist robust, und es ist extrem dünn und leicht. Dank der Snapdragon X Elite-Hardware kann dieses Notebooksehr lange mit einer Akkuladung durchhalten, obwohl es ein stromhungrigeres OLED-Display verwendet. Das große Problem sind die Anschaffungskosten: Mit einem Preis von 2.099 Euro zahlen Sie einen ordentlichen Aufpreis für die beste Snapdragon X Elite-Hardware, die allerdings keinen großen Unterschied macht. Und da dieses Notebook nur mit 16 Gigabyte Arbeitsspeicher erhältlich ist, könnten einige Arbeitslasten auf einem Snapdragon X Elite-Notebook mit 32 Gigabyte Arbeitsspeicher schneller ausgeführt werden. Sie können zudem bei der Konkurrenz ein besseres Angebot finden. Das Lenovo Yoga Slim 7x mit einem Terabyte Speicherplatz und 32 Gigabyte RAM kostet bei Amazon nur 1.599 Euro. Das ist viel weniger Geld für doppelt so viel RAM. Ja, das Lenovo Yoga Slim 7x ist etwas kleiner und verfügt über einen weniger leistungsfähigen Snapdragon X Elite. Aber beide Geräte sind von der Leistung her vergleichbar. Wenn Sie dieses Notebook zu einem besonders günstigen Preis ergattern können und das aktuelle Windows on ARM Ihren Bedürfnissen entspricht, bin ich zuversichtlich, dass Sie mit dem Gerät zufrieden sein werden. Es ist nur schade, dass dieses Notebook die Leistung der exklusiven High-End-Snapdragon-Hardware nicht wirklich zur Geltung bringt. Die Kühlung scheint nicht gut genug zu sein, um die CPU wirklich auszulasten, der Arbeitsspeicher ist auf 16 Gigabyte begrenzt, und der eUFS-Speicher ist sicherlich nicht die schnellste Wahl. Nichts davon ist schlecht – das Gerät ist gut und bietet eine vergleichbare Leistung wie andere Copilot+ Laptops – aber es ist ihnen nicht so stark voraus, wie die technischen Daten vielleicht vermuten lassen. 

Samsung Galaxy Book4 Edge Test: Dünn, leicht und ausdauernd​ IDG / Chris Hoffman

Auf einen Blick

Pro

Sehr dünn und leicht für ein 16-Zoll-Notebook

Lange Akkulaufzeit

Schönes OLED-Display

Schnellste verfügbare Snapdragon X Elite-Hardware

Kontra

Keine Anmeldung per Gesichtserkennung

eUFS-Speicher ist auf der Hauptplatine verlötet

Begrenzt auf 16 Gigabyte RAM

Teuer im Vergleich zu anderen Laptops mit Snapdragon-Prozessor

Die Spitzenhardware des Snapdragon X Elite ist nicht so schnell wie gedacht

FazitDas Samsung Galaxy Book4 Edge ist ein hervorragendes Notebook mit einem schönen Display, einer langen Akkulaufzeit und einer hervorragenden Verarbeitungsqualität. Die verbaute High-End-Hardware Snapdragon X Elite bietet aber leider nicht den großen Leistungssprung, den Sie vielleicht erwarten.

Das Samsung Galaxy Book4 Edge ist Teil der ersten Welle von Copilot+ PCs mit dem Snapdragon X Elite. Das von uns getestete 16-Zoll-Modell ist etwas Besonderes, denn es ist das einzige Notebook, das mit dem leistungsstärksten Snapdragon-Chip X Elite X1E-84-100 ausgestattet ist. Dieses Modell verfügt über eine schnellere CPU-Leistung als die anderen, aber es ist auch die einzige Snapdragon X Elite-Variante mit einer verbesserten GPU.

Samsung bietet hier ein großartiges Notebook an: Es ist erstaunlich dünn und leicht, hat eine lange Akkulaufzeit und ein schönes OLED-Display. Aber das bieten viele Laptops mit Snapdragon X Elite. Und dieses Samsung-Gerät ist im Vergleich zu den Alternativen recht teuer.

Einen Teil des Preises zahlen Sie für die exklusive Top-End-Hardware des Snapdragon X Elite. Und ich will ehrlich sein: Der Unterschied ist zwar spürbar, aber Sie werden mit jedem Snapdragon X Elite-Laptop gut zurechtkommen. Die High-End-Hardware hebt sich hier nicht genug ab.

Wie andere Copilot+ PCs mit Snapdragon X Elite-Hardware ist auch das Samsung Galaxy Book4 Edge ein ARM-basiertes Notebook. Wie in unseren Tests des Surface Laptop und Surface Pro beschrieben, ist die Anwendungskompatibilität gut, aber nicht perfekt. Während die meisten Anwendungen problemlos laufen, kann es sein, dass einige Anwendungen gar nicht oder mit schlechter Leistung starten. Die Situation verbessert sich jedoch kontinuierlich. Was die künstliche Intelligenz angeht, so sind die exklusiven Copilot+ PC-KI-Funktionen nicht besonders interessant.

Technische Daten

IDG / Chris Hoffman

Das Samsung Galaxy Book4 Edge ist Teil der ersten Welle von Copilot+ PCs, die mit ARM-basierten Qualcomm Snapdragon X Elite-Chips ausgestattet sind. Sie bieten eine neuronale Verarbeitungseinheit (NPU), die 40 Billionen Operationen pro Sekunde (TOPS) ausführen kann. Dazu kommt eine Qualcomm Adreno GPU.

Zum Verkaufsstart gibt es vier Snapdragon X-Pakete:

Der Snapdragon X Plus X1P-64-100 ohne “Elite” mit nur 10 Kerne

Der Snapdragon X Elite X1E-78-100 bietet 12 Kerne

Der Snapdragon X Elite X1E-80-100 hat ebenfalls 12 Kerne, verfügt aber über eine “Dual Core Boost”-Funktion, mit der die CPU bei Bedarf auf bis zu 4,0 Gigahertz hochtakten kann

Der Snapdragon X Elite X1E-84-100 in diesem Gerät hat 12 Kerne, aber sein Dual Core Boost geht bis zu 4,2 Gigahertz, außerdem bietet er eine schnellere Multi-Thread-CPU-Leistung und eine leistungsstarke Qualcomm Adreno GPU.

Qualcomm

Die 16-Zoll-Version des Samsung Galaxy Book4 Edge verfügt zwar über die hochwertigste Snapdragon X Elite-Hardware, aber es geht nicht nur um diese Spezifikation. Auch andere Komponenten sind wichtig. Wenn ein Laptop zum Beispiel nicht genügend Kühlung für eine hohe Leistung bietet, kann es sein, dass die Hardware gedrosselt wird und nicht die höheren Geschwindigkeiten liefert, die Sie vielleicht erwarten.

Leider bietet Samsung dieses Notebook nur mit 16 Gigabyte RAM an. Sie können dieses Gerät nicht mit 32 Gigabyte RAM kaufen, was bei einigen anderen Laptops möglich ist. Selbst die schnellste Snapdragon X Elite-Hardware kann nicht mit 32 Gigabyte Arbeitsspeicher kombiniert werden. Das fühlt sich wie eine verpasste Chance an.

Es gibt noch eine weitere Überraschung bei den technischen Daten: Samsung hat sich für die Verwendung von eUFS-Speicher anstelle der PCIe Gen4 SSD-Technologie entschieden, mit der andere Hersteller ihre Copilot+ Laptops ausliefern. Diese Art von Speicher wird häufiger in Smartphones und anderen mobilen Geräten verwendet. Der Speicher ist mit der Hauptplatine des Laptops verlötet, sodass Sie ihn nicht austauschen oder aufrüsten können.

Theoretisch hat diese Schnittstelle einen langsameren Durchsatz als eine NVMe-SSD. Andererseits verbraucht sie weniger Strom und erhöht somit die Akkulaufzeit des Laptops. In der Praxis scheint die SSD-Hardware auf den anderen Snapdragon X Elite-PCs jedenfalls nicht an die Grenzen der Schnittstelle zu stoßen.

Der eUFS-Speicher funktionierte im täglichen Einsatz einwandfrei. Ich konnte keinen spürbaren Unterschied in der Speicherleistung im Vergleich zu den anderen Snapdragon X Elite-Laptops feststellen.

Abschließend sei darauf hingewiesen, dass die High-End-Hardware Qualcomm Snapdragon X Elite X1E-84-100 nur für die 16-Zoll-Version verfügbar ist. Die preisgünstigere 14-Zoll-Version kommt ohne diese Option, und sie hat einige andere Schwächen: Keinen microSD-Leser, ein etwas kleinerer Akku, im Gegenzug wiegt sie fast ein halbes Kilo weniger.

CPU: Qualcomm Snapdragon X Elite X1E-84-100

Speicher: 16 Gigabyte RAM

Grafik/GPU: Qualcomm Adreno

Anzeige: 16-Zoll 2.880 x 1.800 AMOLED-Display mit 120 Hertz Bildwiederholrate und Touchscreen

Speicher: 1 Terabyte eUFS-Speicher (auf der Hauptplatine verlötet)

Webcam: 1080p-Webcam

Konnektivität: 2x USB Typ-C (USB4), 1x USB Typ-A (USB 3.2), 1x HDMI 2.1, 1x Combo-Kopfhöreranschluss, 1x microSD-Leser

Vernetzung: Wi-Fi 7, Bluetooth 5.3

Biometrische Daten: Fingerabdruckleser

Akku-Kapazität: 61,8 Wattstunden

Abmessungen: 35,5 x 1,2 x 25,0 Zentimeter

Gewicht: 2,55 Kilogramm

UVP: 2.099 Euro im Test (1.550 Euro Startpreis für die 14-Zoll-Version)

Design und Verarbeitungsqualität

IDG / Chris Hoffman

Das Samsung Galaxy Book4 Edge ist nur in einer Farbe erhältlich, die Samsung als “Saphirblau” bezeichnet. Meiner Meinung nach wirkt die Farbgebung eher wie ein Silber oder Grau mit einem Hauch von Blau. Das 16-Zoll-Notebook besteht aus Aluminium und ist sehr dünn. Mit einem Gewicht von 1,55 Kilogramm und einer Dicke von 1,2 Zentimetern ist das Gerät beeindruckend schlank und leicht.

Das Design wirkt aufgeräumt und einfach. Auf dem Laptop-Deckel finden sich unauffällige Samsung-Logos. Die schwarzen Ränder rund um das AMOLED-Display passen gut zu dem dunklen Standard-Desktop-Hintergrund.

Das Scharnier funktioniert einwandfrei, und es gibt eine Lasche zum Festhalten des Bildschirms beim Öffnen. Dank des soliden Aluminiumgehäuses und des geringen Gewichts können Sie das Notebook problemlos auch an einer Ecke festhalten, ohne dass es sich biegt.

Dieses Samsung-Notebook wird wahrscheinlich diejenigen ansprechen, die schon Samsung Galaxy-Smartphones und -Tablets verwenden. Samsung hat eine Quick Share-Anwendung zum Teilen von Dateien standardmäßig an die Taskleiste angeheftet – zusammen mit einer Second Screen-App, mit der Sie ein Samsung-Tablet als zweites Display für Ihren Laptop verwenden können.

Tastatur und Trackpad

IDG / Chris Hoffman

Das 16-Zoll-Modell des Samsung Galaxy Book4 Edge verfügt über einen vollständigen Nummernblock auf der rechten Seite.

Die Tastatur hat eine weiße Hintergrundbeleuchtung und ist gut zum Tippen geeignet. Sie fühlt sich für mich etwas schwammig an – nicht so flink und reaktionsschnell wie die Tastatur des Lenovo Yoga Slim 7x. Das ist kein Problem, aber es ist wahrscheinlich auch nicht das absolut beste Tipperlebnis auf einem Snapdragon X Elite-Laptop.

Das Trackpad ist das erste, was ins Auge fällt, wenn Sie dieses Notebook aufklappen. Es ist riesig – ich weiß nicht, ob ich jemals zuvor ein so großes Trackpad auf einem Laptop verwendet habe. Es funktioniert gut, egal ob Sie Gesten verwenden oder nur mit dem Finger darüber streichen. Die Klickfunktion ist gut, fühlt sich aber nicht so hochwertig an wie das haptische Touchpad des Microsoft Surface Laptop.

Die Kombination aus dem massiven Touchpad und dem Nummernblock drängt die Standardtastatur in die obere linke Ecke des Tastaturdecks. Dieses Layout kam mir anfangs etwas seltsam vor. Aber ich habe mich schnell daran gewöhnt, während ich dieses Notebook benutzte.

Display und Lautsprecher

IDG / Chris Hoffman

Das Samsung Galaxy Book4 Edge hat ein wunderschönes Display. Der 16-Zoll-OLED-Bildschirm mit einer Auflösung von 2.880 x 1.800 Pixeln liefert dunkle Schwarztöne und leuchtende Farben mit einer hohen Helligkeit und einer Bildwiederholfrequenz von 120 Hertz. Es ist gleichzeitig auch ein Touchscreen. Das Display ist ein echter Hingucker und ein großes Upgrade gegenüber dem IPS-Screen des Surface Laptop.

Die Lautsprecher sind an der Unterseite des Laptops angebracht. Sie liefern eine solide Audioqualität mit ordentlicher Lautstärke. Wie immer fehlen allerdings die Bässe im Vergleich zu einem guten Paar externer Lautsprecher. Mit dem schönen 16-Zoll-Display und den Lautsprechern konnte ich auf einer Dienstreise in einem Hotelzimmer sehr gut Serien und Filme schauen.

Webcam, Mikrofon, biometrische Funktionen

Das Samsung Galaxy Book4 Edge verfügt über eine 1080p-Webcam, die eine gute Videoqualität bietet. Da es sich gleichzeitig aber auch um ein Copilot+ Notebook handelt, haben Sie auch Zugriff auf Windows Studio Effects. Damit können Sie beispielsweise den Augenkontakt aufrecht erhalten und Ihren Hintergrund in jeder Anwendung unscharf machen.

Das Mikrofon ist ebenfalls in Ordnung und leistet in Online-Meetings gute Arbeit. Es hat meine Stimme mit angemessener Audioqualität aufgenommen, sogar mit einigen Hintergrundgeräuschen.

Die biometrischen Funktionen sind hingegen ein wenig enttäuschend. Samsung hat sich dafür entschieden, nur einen Fingerabdruckleser für Windows Hello zu integrieren. Er ist in die Einschalttaste in der oberen rechten Ecke der Tastatur integriert. Sie können Ihren Finger darauf legen, um sich anzumelden. Für einen Fingerabdrucksensor funktioniert er sehr gut – ich hatte nie Probleme, und er war immer schnell.

Allerdings hätte mir die IR-Kamera für Windows Hello besser gefallen, da sie Sie sofort anmelden kann, sobald Sie Ihren Laptop öffnen. Diese fehlt leider.

Konnektivität

IDG / Chris Hoffman

Das Samsung Galaxy Book4 Edge hat eine vernünftige Auswahl an Anschlüssen. Auf der linken Seite finden Sie zwei USB Typ-C-Anschlüsse (USB4) und einen HDMI 2.1-Ausgang. Dieses Notebook wird über USB-C aufgeladen, also werden Sie das Ladegerät zum Aufladen an einen dieser Anschlüsse anschließen müssen.

Auf der rechten Seite finden Sie einen Kombi-Audioanschluss für Headsets, einen USB Typ-A-Anschluss (USB 3.2) und einen microSD-Kartenleser. Der Steckplatz für den microSD-Leser ist nur beim 16-Zoll-Modell vorhanden und nicht beim 14-Zoll-Modell.

Das ist eine ordentliche Anzahl von Anschlüssen, vor allem für ein so dünnes Notebook.

Wie andere Qualcomm Snapdragon X Elite-Laptops verfügt auch das Samsung Galaxy Book4 Edge über Wi-Fi 7-Unterstützung und Bluetooth 5.4. Samsung gibt dies auf dem Datenblatt als Bluetooth 5.3 an, da Windows noch nicht mit Bluetooth 5.4 kompatibel ist. Die WLAN-Leistung des Laptops war gut, obwohl ich noch kein Wi-Fi 7-Netzwerk habe, um den neuesten Standard zu testen.

Leistung

Wie andere Copilot+ PCs mit Qualcomm Snapdragon X Elite lieferte auch das Samsung Galaxy Book4 Edge im Akkubetrieb eine flotte Alltagsleistung. Gängige Produktivitätsanwendungen wie Webbrowser, die Microsoft Office-Suite und Slack liefen ohne Probleme. Die Lüfter waren im täglichen Gebrauch kaum zu hören und wurden nur dann lauter, wenn das Notebook wirklich gefordert wurde, wie bei unseren Benchmarks.

Wie immer haben wir das Samsung Galaxy Book4 Edge durch unsere Standard-Benchmarks laufen lassen.

IDG / Chris Hoffman

Zunächst haben wir einen CPU-Benchmark mit Geekbench 6 durchgeführt. Normalerweise verwenden wir den PCMark 10, aber er läuft nicht auf ARM-Rechnern wie diesem. Geekbench 6 läuft nativ auf ARM, so dass wir uns ein Bild von der CPU-Leistung dieses Geräts machen können, wenn nativer ARM-Code ausgeführt wird, ohne dass die Prism-Übersetzungsschicht von Microsoft eine Rolle spielt.

Das Samsung Galaxy Book4 Edge erzielte einen Geekbench 6 Multi-Thread-Score von 15.493 und schlägt damit das Microsoft Surface Laptop und das Lenovo Yoga Slim 7x. Wir sehen hier die Vorteile des Spitzenmodells Snapdragon X Elite X1E-84-100 und seiner höheren Leistung.

Die Lüfter blieben während dieses Benchmarks angenehm leise. Meiner Erfahrung nach laufen diese Geräte am heißesten und lautesten, wenn sie schwere Arbeitslasten mit x86-Code über die Prism-Übersetzungsschicht ausführen.

IDG / Chris Hoffman

Als nächstes führen wir Cinebench R24 aus. Cinebench R24 hat eine native ARM-Version, dadurch läuft er nicht über die Prism-Übersetzungsschicht. Bei Cinebench handelt es sich um einen stark multithreading-basierten Benchmark, der sich auf die Gesamtleistung der CPU konzentriert. Die Lüfter liefen auf Hochtouren, während der Multi-Thread-Cinebench-Benchmark arbeitete – sie schalten sich ein, um bei intensiven Arbeitslasten wie in diesem Test für zusätzliche Kühlung zu sorgen.

Mit einem Multi-Thread-Ergebnis von 883 war das Samsung Galaxy Book4 Edge nicht viel schneller als das Microsoft Surface Pro und blieb hinter den Ergebnissen zurück, die ich vom Lenovo Yoga Slim 7x kenne. Das zeigt, dass die Unterschiede zwischen den verschiedenen Snapdragon X Elite-Hardware-Varianten nicht sehr groß sind.

Vielleicht lässt Samsung die Hardware auch etwas langsamer laufen oder die Kühlung ist ein begrenzender Faktor – bei einem so dünnen Laptop-Gehäuse gibt es vielleicht einfach nicht genug Kühlmöglichkeiten, um diese CPU mit der schnellstmöglichen Geschwindigkeit zu betreiben.

IDG / Chris Hoffman

Als nächstes führen wir einen grafischen Benchmark durch. Obwohl Qualcomm viel über die Spieleleistung referiert, handelt es sich nicht wirklich um ein Gaming-Notebook. Wir raten vom Kauf eines Snapdragon X Elite-Notebooks für Spiele ab. Dennoch führen wir wie immer 3DMark Time Spy durch, einen Grafik-Benchmark, der sich auf die GPU-Leistung konzentriert. Wir haben auch mit 3DMark Night Raid einen Testlauf gestartet.

Time Spy wird über die Prism-Übersetzungsschicht ausgeführt, während Night Raid nativ auf ARM läuft. Die beiden Ergebnisse zeigen den Unterschied zwischen dem mit Prism übersetzten x86-Code und dem nativen ARM-Code.

Mit einer Time Spy Punktzahl von 2.146 demonstriert das Samsung Galaxy Book4 Edge die Vorteile seiner schnelleren GPU und schlägt andere Snapdragon X Elite-Laptops bei der Ausführung des Codes durch Prism. Bei der Ausführung typischer x86-Spiele war die integrierte Arc-Grafik von Intel jedoch schneller.

IDG / Chris Hoffman

Beim Night Raid Benchmark, der nativ auf ARM-Hardware läuft, zeigt die Qualcomm Adreno GPU, dass sie bei der Ausführung von nativem Code leistungsfähiger ist als die Grafikeinheiten von Intel. Das Samsung Galaxy Book4 Edge lieferte mit einer Punktzahl von 27.821 eine schnellere Leistung als die integrierte Grafik von Intel.

Auch wenn Prism gut funktioniert, ist es klar, dass diese Geräte am besten abschneiden, wenn sie nativen ARM-Code ausführen.

Insgesamt zeigt der Snapdragon X Elite im Samsung Galaxy Book4 Edge eine gute Leistung. Aber im Großen und Ganzen ist die Leistung ähnlich wie bei anderen mit Snapdragon X Elite ausgestatteten Systemen. Sie müssen nicht viel mehr Geld für den Qualcomm Snapdragon X Elite X1E-84-100 ausgeben. Auch für deutlich weniger Geld erhalten Sie eine ähnliche CPU-Leistung.

Wenn Sie sich eher auf die GPU-Leistung konzentrieren, erhalten Sie von diesem System eine stärkere GPU-Leistung als von allen anderen Snapdragon X Elite-betriebenen Laptops. Wenn die GPU-Leistung für Sie hingegen oberste Priorität hat, sind Sie mit einem traditionelleren Gaming-Laptop wahrscheinlich besser bedient.

Akkulaufzeit

Snapdragon X Elite-betriebene Laptops sollten in unseren Benchmarks enorme Werte für die Akkulaufzeit erzielen. Mit einem Snapdragon X Elite-Chip und einem 61,8-Wattstunden-Akku ist das genau das, was wir vom Galaxy Book4 Edge erwarten würden. Glücklicherweise fielen die Ergebnisse wie erwartet aus. Die Zahlen sind unglaublich für ein 16-Zoll-Notebook mit einem OLED-Bildschirm.

IDG / Chris Hoffman

Um die Akkulaufzeit zu testen, spielen wir eine 4K-Kopie von “Tears of Steel” mit aktiviertem Flugzeugmodus so lange ab, bis sich das Notebook selbst ausschaltet. Dies ist ein optimales Szenario für jedes Notebook, da die lokale Videowiedergabe sehr effizient ist und die tatsächliche Akkulaufzeit im täglichen Gebrauch immer unter diesem Wert liegen wird.

Für unsere Akku-Benchmarks haben wir die Helligkeit des Bildschirms auf 250 Nits eingestellt. Es ist erwähnenswert, dass das OLED-Display des Galaxy Book4 Edge einen kleinen Vorteil hat, da OLED-Bildschirme weniger Strom für die Anzeige der schwarzen Balken um das Video herum benötigen.

Das Samsung Galaxy Book4 Edge hat in unserem Test durchschnittlich 1.242 Minuten durchgehalten. Das sind fast 21 Stunden. Diese Akkulaufzeit erreichen Sie zwar nicht, wenn Sie das Notebook normal verwenden. Aber es ist ein enormer Wert und etwas, das wir nicht oft sehen, vor allem nicht bei einem 16-Zoll-Notebook mit OLED-Display, da diese in der Regel stromhungriger sind. Der eUFS-Speicher ist zwar eine umstrittene Wahl für einen Laptop, aber er könnte dem Galaxy Book4 Edge hier einen Vorsprung verschaffen.

Preis und Verfügbarkeit

Das Samsung Galaxy Book4 Edge wird mit kleinerem 14-Zoll-Bildschirm bei Amazon ab 1.629 Euro angeboten. Das. 16-Zoll-Modell beginnt bei 1.589 Euro, hat aber nur 512 GB Speicher und einen langsameren Snapdragon X Elite verbaut. Für 1.995 Euro ist bei Amazon hingegen das 16-Zoll-Modell mit einem Terabyte Speicherplatz und Snapdragon X Elite X1E-80-100 erhältlich. Das Spitzenmodell mit Snapdragon X Elite X1E-84-100 gibt es hingegen nur direkt beim Hersteller für 2.099 Euro.

Fazit

Das Samsung Galaxy Book4 Edge ist ein großartiges Notebook, daran gibt es keinen Zweifel. Das Display ist wunderschön, das Design aus Aluminium ist robust, und es ist extrem dünn und leicht. Dank der Snapdragon X Elite-Hardware kann dieses Notebooksehr lange mit einer Akkuladung durchhalten, obwohl es ein stromhungrigeres OLED-Display verwendet.

Das große Problem sind die Anschaffungskosten: Mit einem Preis von 2.099 Euro zahlen Sie einen ordentlichen Aufpreis für die beste Snapdragon X Elite-Hardware, die allerdings keinen großen Unterschied macht. Und da dieses Notebook nur mit 16 Gigabyte Arbeitsspeicher erhältlich ist, könnten einige Arbeitslasten auf einem Snapdragon X Elite-Notebook mit 32 Gigabyte Arbeitsspeicher schneller ausgeführt werden.

Sie können zudem bei der Konkurrenz ein besseres Angebot finden. Das Lenovo Yoga Slim 7x mit einem Terabyte Speicherplatz und 32 Gigabyte RAM kostet bei Amazon nur 1.599 Euro. Das ist viel weniger Geld für doppelt so viel RAM. Ja, das Lenovo Yoga Slim 7x ist etwas kleiner und verfügt über einen weniger leistungsfähigen Snapdragon X Elite. Aber beide Geräte sind von der Leistung her vergleichbar.

Wenn Sie dieses Notebook zu einem besonders günstigen Preis ergattern können und das aktuelle Windows on ARM Ihren Bedürfnissen entspricht, bin ich zuversichtlich, dass Sie mit dem Gerät zufrieden sein werden. Es ist nur schade, dass dieses Notebook die Leistung der exklusiven High-End-Snapdragon-Hardware nicht wirklich zur Geltung bringt.

Die Kühlung scheint nicht gut genug zu sein, um die CPU wirklich auszulasten, der Arbeitsspeicher ist auf 16 Gigabyte begrenzt, und der eUFS-Speicher ist sicherlich nicht die schnellste Wahl. Nichts davon ist schlecht – das Gerät ist gut und bietet eine vergleichbare Leistung wie andere Copilot+ Laptops – aber es ist ihnen nicht so stark voraus, wie die technischen Daten vielleicht vermuten lassen.

Samsung Galaxy Book4 Edge Test: Dünn, leicht und ausdauernd​ Read More »

Google-Spiele: Die besten Doodle Games​

Google-Spiele: Die besten Doodle Games​

Allgemein

Wenn im Office mal wieder viel zu viel auf einmal – oder gar nichts – läuft, kann eine Partie Pac-Man im Browser Wunder wirken. Foto: Dean Drobot – shutterstock.comEin paar Mal im Jahr tüftelt das Google-Doodle-Team hochwertige Spiele aus, um Jahrestage und besondere Ereignisse zu feiern oder um auf ein aktuelles Thema aufmerksam zu machen. In der Regel dauern diese Games zwischen zwei und zwanzig Minuten – einige können aber auch mehr als eine Stunde in Anspruch nehmen. Wir haben eine Auswahl der besten Google-Doodle-Spiele für Sie zusammengestellt.Die besten Google-Doodle-SpielePac-ManGeht es um Arcade-Klassiker aus den 1980er-Jahren, führt kein Weg an “Pac-Man” vorbei. Am 21. Mai 2010 veröffentlichte Google das weltberühmte Spiel als Doodle Game, um das 30-jährige Jubiläum des gelben Vielfraßes zu feiern. Erleben Sie pure Nostalgie, während Sie gelbe Punkte, verschiedene Früchte und vielleicht sogar den ein oder anderen Geist verschlingen.Pac-Man fesselt auch mehr als 41 Jahre nach seinem Spielhallen-Debüt. Foto: GoogleZiel des Spiels ist es, alle Punkte auf dem Spielfeld abzuräumen und dabei den Geistern auszuweichen. Wird man von einem Geist berührt, heißt es “Game Over”. Pac-Man lässt sich mit den Pfeiltasten auf der Tastatur steuern. Auch eine Partie zu zweit ist möglich: Klicken Sie zweimal auf “Münze einwerfen” und Ms. Pac-Man kommt als spielbarer Charakter dazu. Pacmans Liebste wird mit den Tasten A, S, D und W gesteuert.Google Maps SnakeÜber den Game-Klassiker Snake muss man nicht mehr viele Worte verlieren. Google hat seine Interpretation des Spiels bereits 2019 veröffentlicht. Am Spielprinzip hat sich dabei trotz neuem Leveldesign nichts geändert: Sie bewegen die Schlange in Form eines Transportmittels über Google-Karten im Pixel-Style und sammeln sowohl Passagiere als auch Bonus-Items in Form verschiedener Wahrzeichen, Kulturgüter oder Attraktionen ein (etwa die Golden Gate Bridge oder Fish and Chips). Sobald Ihre “Schlange” sich selbst oder den Rand des Screens berührt, heißt es Game Over. Snake entfaltet auch in Zusammenspiel mit Google Maps und etliche Jahrzehnte nach seinem Debüt erhebliches Suchtpotenzial. Celebrating PizzaPizza-Enthusiasten mit Spieltrieb dürften mit dem Google Doodle Game “Celebrating Pizza” aus dem Jahr 2021 Speichelfluss-geschwängerten Spielspaß finden. Das Spielprinzip ist dabei schnell erklärt: Sie müssen Pizzas mit diversen Belägen entsprechend der Bestellungen der Kunden zuschneiden. Dabei werden die Aufgaben zunehmend diffizil – etwa weil Sie auf die Positionierung bestimmter Zutaten achten müssen, um den Task perfekt zu erfüllen.Pani Puri Das in Südostasien populäre Street Food Panipuri bezeichnet eine frittierte Teighülle, die mit diversen Chutneys, Saucen und Zutaten gefüllt werden. Das verspricht vielfältige, kulinarische Gaumenfreuden – insofern die Teiglinge direkt nach der Herstellung verzehrt werden. Wie sich das aus Perspektive eines Street-Food-Händlers anfühlt, dürfen Sie mit diesem Google Doodle spielerisch nachempfinden. Dazu müssen Sie “lediglich” die richtige Anzahl von Bestellungen auswählen, bevor die hungrigen Kunden unleidig werden. Der Schwierigkeitsgrad beziehungswiese die Komplexität der Bestellungen steigt dabei kontinuierlich an. Gerald Lawson Das Konzept modulbasierter Spielekonsolen wie Atari VCS, Nintendo Entertainment System oder Sega Mega Drive geht auf Gerald “Jerry” Lawson zurück, der bei Fairchild Semiconductor in den 1970er Jahren an der Entwicklung der Spielekonsole Channel F beteiligt war. Lawsons Beitrag zum künftigen Erfolg der Videospielindustrie fand erst späte Würdigung: 2011 wurde er von der International Game Developers Association geehrt. Er wurde zudem in die World Video Game Hall of Fame aufgenommen. Im Google Doodle Game zu seinen Ehren dürfen Sie seinen Karriereweg spielerisch erkunden. Great Ghoul Duel Anlässlich des Halloween-Festes 2022 hat Google ein Online-Multiplayer-Spiel an den Start gebracht, in dem die Benutzer in Viererteams gegeneinander antreten, um “Geisterflammen” zu sammeln und in die eigene “Homebase” zu transportieren – ohne dabei dem gegnerischen Team die Möglichkeit zu geben, diese zu klauen. Das versprüht nicht nur auf dem Papier “Capture the Flag”-Wettbewerbsflair, der sich per QR-Code auch mit Freunden oder Familie erleben lässt. Oder Sie spielen dank Google-Cloud-Support einfach gegen zufällig ausgewählte Spieler auf der ganzen Welt. BaseballPünktlich zum amerikanischen Unabhängigkeitstag am 4. Juli 2021 veröffentlichte Google Doodle “Baseball“, um seine Nutzer den Tag mit einer Partie des für Europäer meist undurchsichtigen Ballspiels feiern zu lassen. Um die Sache noch amerikanischer zu machen, spielen Sie als verschiedenartig ausgestaltetes Junk Food, das für Baseball-Happenings typisch ist – etwa Hotdogs oder Nachos mit Käse. Das gegnerische Team besteht übrigens aus Erdnüssen.Wenn Sie das Spiel beginnen, kommt ein zufälliger Snack auf das Spielfeld. Nun müssen Sie die Leertaste drücken, um Ihren Schläger zu schwingen, sobald der Pitcher den Ball wirft. Ballgeschwindigkeit und Wurfstil des Pitchers verändern sich hierbei, je mehr Punkte bereits erzielt wurden. Das Spiel endet, wenn dem Pitcher ein Strikeout gelingt, Sie also dreimal daneben geschlagen haben. Wie viele Punkte können Sie erzielen?BasketballWir bleiben in der Welt des Sports: “Basketball” ist ein Einzelspieler-Zeitvertreib, bei dem Sie digitale Körbe werfen können. Das Spiel war Teil einer viertägigen Google-Doodle-Aktion, bei dem Sie auch Ihre Fähigkeiten im Fußball und Slalomkanu testen konnten. Laut Ryan Germick, dem Leiter von Google Doodle, wurden diese vier Spiele innerhalb von vier Tagen über eine Milliarde Mal gespielt.Die Spielmechanik ist einfach: Halten Sie die Leertaste gedrückt, um Kraft aufzubauen und lassen Sie sie dann los, um den Ball zu werfen. Wird zu viel oder zu wenig Kraft aufgebaut, geht der Wurf daneben. Finden Sie heraus, wie viele Bälle Sie innerhalb von 30 Sekunden im Netz versenken können.Schuppentier-Spiel im Sonic-StyleDas Schuppentier ist das meist gehandelte Tier der Welt und vom Aussterben bedroht. Um das Bewusstsein für dieses Problem zu schärfen, hat Google am Valentinstag 2017 ein Doodle zu Ehren der gefährdeten Tierart veröffentlicht.Das Schuppentier-Doodle-Spiel ist ein Side-Scroller, der an Segas Sonic Games erinnert. Statt eines blauen Igels bewegen Sie hier ein Schuppentier mit der linken und rechten Pfeiltaste und lassen es mit der Leertaste über Hindernisse springen. Die Aufgabe: Sammeln Sie so viele Gegenstände wie möglich ein und schaffen Sie es bis zur Ziellinie, bevor die Zeit abläuft.Coding für KarottenAnlässlich des 50-jährigen Jubiläums von Kids Coding hat das Google Doodle-Team “Coding for Carrots” veröffentlicht. Dieses einfache “Drag-and-Drop”-Spiel für Kinder führt in das Konzept des Programmierens ein. Das Prinzip ist einfach: Sie müssen ein Kaninchen zu den Karotten schicken, die auf dem Spielfeld verteilt sind.Dazu gilt es, Codeblöcke mit der Richtungsangabe für den nächsten Sprung (links, rechts, oben, unten) in eine Leiste zu ziehen. Stimmt die Sequenz der Codeblöcke, landet das Kaninchen bei der Karotte. Das Level ist geschafft, wenn alle Karotten eingesammelt wurden, wobei die erforderliche Sequenz mit jedem Level komplizierter wird.Insel der Champions“Insel der Champions” ist mit zwei Stunden Spielzeit eines der umfangreichsten Google-Doodle-Spiele. Ursprünglich sollte es anlässlich der Olympischen Sommerspiele 2020 veröffentlicht werden – aufgrund der pandemiebedingten Verschiebung nahm sich das Google-Doodle-Team die Zeit, weiter am Spiel zu arbeiten. Das hat sich ausgezahlt. Champion Island ist das mit Abstand umfangreichste Doodle-Spiel und bietet gelungene Retro-Optik. Foto: GoogleMit den Pfeiltasten bewegen Sie Ihren Charakter über die Weltkarte und nehmen Herausforderungen der Inselbewohner an. Die Steuerung ist bei jeder Mission anders, daher sollten Sie die jeweiligen Anweisungen sorgfältig lesen. Nehmen Sie an allen Wettbewerben teil, um zu erfahren, ob Sie es an die Spitze der Rangliste schaffen.ZauberwürfelZauberwürfel (auch Rubik’s Cube), die aus sechs Farben, sechs Seiten und 54 Quadraten bestehen, gibt es bereits seit 1974. Im Jahr 2014 veröffentlichte Google das “Rubik’s Cube“-Doodle zur Feier von 40 Jahren, in denen die farbigen Würfel Menschen auf der ganzen Welt frustriert haben.Ziel des Spiels ist es, durch Drehen und Wenden der Blöcke jede Seite des Zauberwürfels auf eine einheitliche Farbe zu bringen. Um die Google-Doodle-Version zu spielen, klicken und ziehen Sie Ihren Cursor, um den Würfel zu drehen. Frustfreies Gelingen!Ein Hoch auf GartenzwergeHaben Sie schon einmal den Drang verspürt, Gartenzwerge mit einem Katapult durch den Garten zu schleudern? So oder so: Jetzt haben Sie die Gelegenheit. Um die geschichtsträchtigen kleinen Statuen – der heute übliche Gartenzwerg entstand im 19. Jahrhundert in Thüringen – zu ehren, präsentierte Google Doodle im Juni 2018 “The Garden Gnomes“.Ziel des Spiels ist es, möglichst viele Blumen zu pflanzen, indem Sie die Gartenzwerge so weit wie möglich katapultieren. Zum Spielen brauchen Sie nur die Leertaste: Mit dem ersten Tastendruck setzt sich das Katapult in Bewegung, mit dem zweiten wird der Gartenzwerg abgeworfen. Je besser das Timing beim Loslassen, desto weiter die Flugbahn des Zwergs und desto mehr Saatgut in der Erde.Loteria“Loteria” ist ein traditionelles mexikanisches Kartenspiel, das oft auch als mexikanisches Bingo bezeichnet wird. Der Ansager zeigt eine Karte an und wenn der Spieler die gleiche Karte auf seinem Spielbrett hat, darf er eine Bohne darauflegen. Hat er die Karte nicht auf seinem Spielbrett, muss er auf die nächste warten. Jede Runde erfordert ein bestimmtes Bohnen-Muster, um zu gewinnen.Neben Pac-Man ist Loteria ein weiteres Google-Doodle-Spiel, bei dem Sie gemeinsam mit anderen Spielern Ihr Glück versuchen dürfen.Meow-loween“Meow-loween” wurde anlässlich von Halloween 2016 entwickelt. In diesem Doodle Game steuern Sie eine schwarze Katze namens Momo, die ihre Zauberschule vor anstürmenden Gespenstern retten muss.Jedes Gespenst weist dabei ein Symbol auf, das über seinem Kopf erscheint. Um den Geist ins Reich der Dunkelheit zu verbannen, müssen Sie das Symbol mithilfe der Maus auf den Bildschirm zeichnen. Dabei ist Schnelligkeit gefragt, denn im Laufe der Zeit erscheinen immer mehr Geister mit immer längeren Symbolkombinationen.ScovilleVermutlich haben auch Sie schon einmal den Fehler begangen, eine vermeintlich milde Chili am Stück in den Mund zu stecken. Wenn Sie dann voller Reue versucht haben, das Gefühl von Höllenfeuer schnellstmöglich loszuwerden, konnten Sie hoffentlich auf das Wissen von Wilbur Scoville zurückgreifen und es mit der lindernden Wirkung von Milch bekämpfen. Scoville führte auch ein Messverfahren für die Schärfe von Chilischoten ein. Zu Ehren des 151. Geburtstags des Pharmakologen bietet das “Scoville”-Doodle-Spiel die Möglichkeit, verschiedenen Chilisorten zu zeigen, wer der Boss ist.Dank Scoville wissen wir: Wenn es nach dem Chili-Genuss brennt, helfen Milchprodukte. Foto: GoogleDer virtuelle Scoville probiert in seinem Labor nacheinander verschiedene Chilisorten und arbeitet sich so die Scoville-Skala nach oben. Nachdem er eine Schote gegessen hat, reicht man ihm zur Schmerzlinderung ein Eis. Hier kommen Sie ins Spiel: Am unteren Spielfeldrand gibt es einen Balken mit einem Kreis, der sich schnell hin und her bewegt. Um die Schote mit der Eiskugel zu treffen, muss man den Kreis so nah wie möglich an der Balkenmitte stoppen – entweder mit der Leertaste oder per Mausklick. Je weiter Sie kommen, desto schärfer werden die Gegner. 

Google-Spiele: Die besten Doodle Games​ Wenn im Office mal wieder viel zu viel auf einmal – oder gar nichts – läuft, kann eine Partie Pac-Man im Browser Wunder wirken.
Foto: Dean Drobot – shutterstock.comEin paar Mal im Jahr tüftelt das Google-Doodle-Team hochwertige Spiele aus, um Jahrestage und besondere Ereignisse zu feiern oder um auf ein aktuelles Thema aufmerksam zu machen. In der Regel dauern diese Games zwischen zwei und zwanzig Minuten – einige können aber auch mehr als eine Stunde in Anspruch nehmen. Wir haben eine Auswahl der besten Google-Doodle-Spiele für Sie zusammengestellt.Die besten Google-Doodle-SpielePac-ManGeht es um Arcade-Klassiker aus den 1980er-Jahren, führt kein Weg an “Pac-Man” vorbei. Am 21. Mai 2010 veröffentlichte Google das weltberühmte Spiel als Doodle Game, um das 30-jährige Jubiläum des gelben Vielfraßes zu feiern. Erleben Sie pure Nostalgie, während Sie gelbe Punkte, verschiedene Früchte und vielleicht sogar den ein oder anderen Geist verschlingen.Pac-Man fesselt auch mehr als 41 Jahre nach seinem Spielhallen-Debüt.
Foto: GoogleZiel des Spiels ist es, alle Punkte auf dem Spielfeld abzuräumen und dabei den Geistern auszuweichen. Wird man von einem Geist berührt, heißt es “Game Over”. Pac-Man lässt sich mit den Pfeiltasten auf der Tastatur steuern. Auch eine Partie zu zweit ist möglich: Klicken Sie zweimal auf “Münze einwerfen” und Ms. Pac-Man kommt als spielbarer Charakter dazu. Pacmans Liebste wird mit den Tasten A, S, D und W gesteuert.Google Maps SnakeÜber den Game-Klassiker Snake muss man nicht mehr viele Worte verlieren. Google hat seine Interpretation des Spiels bereits 2019 veröffentlicht. Am Spielprinzip hat sich dabei trotz neuem Leveldesign nichts geändert: Sie bewegen die Schlange in Form eines Transportmittels über Google-Karten im Pixel-Style und sammeln sowohl Passagiere als auch Bonus-Items in Form verschiedener Wahrzeichen, Kulturgüter oder Attraktionen ein (etwa die Golden Gate Bridge oder Fish and Chips). Sobald Ihre “Schlange” sich selbst oder den Rand des Screens berührt, heißt es Game Over. Snake entfaltet auch in Zusammenspiel mit Google Maps und etliche Jahrzehnte nach seinem Debüt erhebliches Suchtpotenzial. Celebrating PizzaPizza-Enthusiasten mit Spieltrieb dürften mit dem Google Doodle Game “Celebrating Pizza” aus dem Jahr 2021 Speichelfluss-geschwängerten Spielspaß finden. Das Spielprinzip ist dabei schnell erklärt: Sie müssen Pizzas mit diversen Belägen entsprechend der Bestellungen der Kunden zuschneiden. Dabei werden die Aufgaben zunehmend diffizil – etwa weil Sie auf die Positionierung bestimmter Zutaten achten müssen, um den Task perfekt zu erfüllen.Pani Puri Das in Südostasien populäre Street Food Panipuri bezeichnet eine frittierte Teighülle, die mit diversen Chutneys, Saucen und Zutaten gefüllt werden. Das verspricht vielfältige, kulinarische Gaumenfreuden – insofern die Teiglinge direkt nach der Herstellung verzehrt werden. Wie sich das aus Perspektive eines Street-Food-Händlers anfühlt, dürfen Sie mit diesem Google Doodle spielerisch nachempfinden. Dazu müssen Sie “lediglich” die richtige Anzahl von Bestellungen auswählen, bevor die hungrigen Kunden unleidig werden. Der Schwierigkeitsgrad beziehungswiese die Komplexität der Bestellungen steigt dabei kontinuierlich an. Gerald Lawson Das Konzept modulbasierter Spielekonsolen wie Atari VCS, Nintendo Entertainment System oder Sega Mega Drive geht auf Gerald “Jerry” Lawson zurück, der bei Fairchild Semiconductor in den 1970er Jahren an der Entwicklung der Spielekonsole Channel F beteiligt war. Lawsons Beitrag zum künftigen Erfolg der Videospielindustrie fand erst späte Würdigung: 2011 wurde er von der International Game Developers Association geehrt. Er wurde zudem in die World Video Game Hall of Fame aufgenommen. Im Google Doodle Game zu seinen Ehren dürfen Sie seinen Karriereweg spielerisch erkunden. Great Ghoul Duel Anlässlich des Halloween-Festes 2022 hat Google ein Online-Multiplayer-Spiel an den Start gebracht, in dem die Benutzer in Viererteams gegeneinander antreten, um “Geisterflammen” zu sammeln und in die eigene “Homebase” zu transportieren – ohne dabei dem gegnerischen Team die Möglichkeit zu geben, diese zu klauen. Das versprüht nicht nur auf dem Papier “Capture the Flag”-Wettbewerbsflair, der sich per QR-Code auch mit Freunden oder Familie erleben lässt. Oder Sie spielen dank Google-Cloud-Support einfach gegen zufällig ausgewählte Spieler auf der ganzen Welt. BaseballPünktlich zum amerikanischen Unabhängigkeitstag am 4. Juli 2021 veröffentlichte Google Doodle “Baseball“, um seine Nutzer den Tag mit einer Partie des für Europäer meist undurchsichtigen Ballspiels feiern zu lassen. Um die Sache noch amerikanischer zu machen, spielen Sie als verschiedenartig ausgestaltetes Junk Food, das für Baseball-Happenings typisch ist – etwa Hotdogs oder Nachos mit Käse. Das gegnerische Team besteht übrigens aus Erdnüssen.Wenn Sie das Spiel beginnen, kommt ein zufälliger Snack auf das Spielfeld. Nun müssen Sie die Leertaste drücken, um Ihren Schläger zu schwingen, sobald der Pitcher den Ball wirft. Ballgeschwindigkeit und Wurfstil des Pitchers verändern sich hierbei, je mehr Punkte bereits erzielt wurden. Das Spiel endet, wenn dem Pitcher ein Strikeout gelingt, Sie also dreimal daneben geschlagen haben. Wie viele Punkte können Sie erzielen?BasketballWir bleiben in der Welt des Sports: “Basketball” ist ein Einzelspieler-Zeitvertreib, bei dem Sie digitale Körbe werfen können. Das Spiel war Teil einer viertägigen Google-Doodle-Aktion, bei dem Sie auch Ihre Fähigkeiten im Fußball und Slalomkanu testen konnten. Laut Ryan Germick, dem Leiter von Google Doodle, wurden diese vier Spiele innerhalb von vier Tagen über eine Milliarde Mal gespielt.Die Spielmechanik ist einfach: Halten Sie die Leertaste gedrückt, um Kraft aufzubauen und lassen Sie sie dann los, um den Ball zu werfen. Wird zu viel oder zu wenig Kraft aufgebaut, geht der Wurf daneben. Finden Sie heraus, wie viele Bälle Sie innerhalb von 30 Sekunden im Netz versenken können.Schuppentier-Spiel im Sonic-StyleDas Schuppentier ist das meist gehandelte Tier der Welt und vom Aussterben bedroht. Um das Bewusstsein für dieses Problem zu schärfen, hat Google am Valentinstag 2017 ein Doodle zu Ehren der gefährdeten Tierart veröffentlicht.Das Schuppentier-Doodle-Spiel ist ein Side-Scroller, der an Segas Sonic Games erinnert. Statt eines blauen Igels bewegen Sie hier ein Schuppentier mit der linken und rechten Pfeiltaste und lassen es mit der Leertaste über Hindernisse springen. Die Aufgabe: Sammeln Sie so viele Gegenstände wie möglich ein und schaffen Sie es bis zur Ziellinie, bevor die Zeit abläuft.Coding für KarottenAnlässlich des 50-jährigen Jubiläums von Kids Coding hat das Google Doodle-Team “Coding for Carrots” veröffentlicht. Dieses einfache “Drag-and-Drop”-Spiel für Kinder führt in das Konzept des Programmierens ein. Das Prinzip ist einfach: Sie müssen ein Kaninchen zu den Karotten schicken, die auf dem Spielfeld verteilt sind.Dazu gilt es, Codeblöcke mit der Richtungsangabe für den nächsten Sprung (links, rechts, oben, unten) in eine Leiste zu ziehen. Stimmt die Sequenz der Codeblöcke, landet das Kaninchen bei der Karotte. Das Level ist geschafft, wenn alle Karotten eingesammelt wurden, wobei die erforderliche Sequenz mit jedem Level komplizierter wird.Insel der Champions“Insel der Champions” ist mit zwei Stunden Spielzeit eines der umfangreichsten Google-Doodle-Spiele. Ursprünglich sollte es anlässlich der Olympischen Sommerspiele 2020 veröffentlicht werden – aufgrund der pandemiebedingten Verschiebung nahm sich das Google-Doodle-Team die Zeit, weiter am Spiel zu arbeiten. Das hat sich ausgezahlt. Champion Island ist das mit Abstand umfangreichste Doodle-Spiel und bietet gelungene Retro-Optik.
Foto: GoogleMit den Pfeiltasten bewegen Sie Ihren Charakter über die Weltkarte und nehmen Herausforderungen der Inselbewohner an. Die Steuerung ist bei jeder Mission anders, daher sollten Sie die jeweiligen Anweisungen sorgfältig lesen. Nehmen Sie an allen Wettbewerben teil, um zu erfahren, ob Sie es an die Spitze der Rangliste schaffen.ZauberwürfelZauberwürfel (auch Rubik’s Cube), die aus sechs Farben, sechs Seiten und 54 Quadraten bestehen, gibt es bereits seit 1974. Im Jahr 2014 veröffentlichte Google das “Rubik’s Cube“-Doodle zur Feier von 40 Jahren, in denen die farbigen Würfel Menschen auf der ganzen Welt frustriert haben.Ziel des Spiels ist es, durch Drehen und Wenden der Blöcke jede Seite des Zauberwürfels auf eine einheitliche Farbe zu bringen. Um die Google-Doodle-Version zu spielen, klicken und ziehen Sie Ihren Cursor, um den Würfel zu drehen. Frustfreies Gelingen!Ein Hoch auf GartenzwergeHaben Sie schon einmal den Drang verspürt, Gartenzwerge mit einem Katapult durch den Garten zu schleudern? So oder so: Jetzt haben Sie die Gelegenheit. Um die geschichtsträchtigen kleinen Statuen – der heute übliche Gartenzwerg entstand im 19. Jahrhundert in Thüringen – zu ehren, präsentierte Google Doodle im Juni 2018 “The Garden Gnomes“.Ziel des Spiels ist es, möglichst viele Blumen zu pflanzen, indem Sie die Gartenzwerge so weit wie möglich katapultieren. Zum Spielen brauchen Sie nur die Leertaste: Mit dem ersten Tastendruck setzt sich das Katapult in Bewegung, mit dem zweiten wird der Gartenzwerg abgeworfen. Je besser das Timing beim Loslassen, desto weiter die Flugbahn des Zwergs und desto mehr Saatgut in der Erde.Loteria“Loteria” ist ein traditionelles mexikanisches Kartenspiel, das oft auch als mexikanisches Bingo bezeichnet wird. Der Ansager zeigt eine Karte an und wenn der Spieler die gleiche Karte auf seinem Spielbrett hat, darf er eine Bohne darauflegen. Hat er die Karte nicht auf seinem Spielbrett, muss er auf die nächste warten. Jede Runde erfordert ein bestimmtes Bohnen-Muster, um zu gewinnen.Neben Pac-Man ist Loteria ein weiteres Google-Doodle-Spiel, bei dem Sie gemeinsam mit anderen Spielern Ihr Glück versuchen dürfen.Meow-loween“Meow-loween” wurde anlässlich von Halloween 2016 entwickelt. In diesem Doodle Game steuern Sie eine schwarze Katze namens Momo, die ihre Zauberschule vor anstürmenden Gespenstern retten muss.Jedes Gespenst weist dabei ein Symbol auf, das über seinem Kopf erscheint. Um den Geist ins Reich der Dunkelheit zu verbannen, müssen Sie das Symbol mithilfe der Maus auf den Bildschirm zeichnen. Dabei ist Schnelligkeit gefragt, denn im Laufe der Zeit erscheinen immer mehr Geister mit immer längeren Symbolkombinationen.ScovilleVermutlich haben auch Sie schon einmal den Fehler begangen, eine vermeintlich milde Chili am Stück in den Mund zu stecken. Wenn Sie dann voller Reue versucht haben, das Gefühl von Höllenfeuer schnellstmöglich loszuwerden, konnten Sie hoffentlich auf das Wissen von Wilbur Scoville zurückgreifen und es mit der lindernden Wirkung von Milch bekämpfen. Scoville führte auch ein Messverfahren für die Schärfe von Chilischoten ein. Zu Ehren des 151. Geburtstags des Pharmakologen bietet das “Scoville”-Doodle-Spiel die Möglichkeit, verschiedenen Chilisorten zu zeigen, wer der Boss ist.Dank Scoville wissen wir: Wenn es nach dem Chili-Genuss brennt, helfen Milchprodukte.
Foto: GoogleDer virtuelle Scoville probiert in seinem Labor nacheinander verschiedene Chilisorten und arbeitet sich so die Scoville-Skala nach oben. Nachdem er eine Schote gegessen hat, reicht man ihm zur Schmerzlinderung ein Eis. Hier kommen Sie ins Spiel: Am unteren Spielfeldrand gibt es einen Balken mit einem Kreis, der sich schnell hin und her bewegt. Um die Schote mit der Eiskugel zu treffen, muss man den Kreis so nah wie möglich an der Balkenmitte stoppen – entweder mit der Leertaste oder per Mausklick. Je weiter Sie kommen, desto schärfer werden die Gegner.

Google-Spiele: Die besten Doodle Games​ Read More »

YouTube: Sprache ändern​

YouTube: Sprache ändern​

Allgemein

Auf der YouTube-Website anmelden Thomas Rieske Lösung: Um die Sprache umzustellen, öffnen Sie auf dem Desktop mit einem Browser die YouTube-Website. Falls Sie nicht automatisch eingeloggt werden, klicken Sie oben rechts auf den Anmelden-Button. Angabe von E-Mail oder Telefonnummer Thomas Rieske Nun tragen Sie die E-Mail-Adresse beziehungsweise Telefonnummer für Ihr Konto ein und klicken auf Weiter. Passworteingabe Thomas Rieske Danach tippen Sie das zugehörige Passwort ein und schließen mit einem erneuten Klick auf den Weiter-Button das Login ab. Verwaltungsmenü öffnen Thomas Rieske Klicken Sie nun oben rechts auf Ihr Profilbild. Im Menü, das sich anschließend öffnet, wechseln Sie zur Option Sprache. Sprache ändern Thomas Rieske Dann wählen Sie in der Liste die gewünschte Sprache aus. Die neue Einstellung wird automatisch übernommen, sodass Sie nichts separat speichern müssen. Android-App: Einstellungen öffnen Thomas Rieske Wenn Sie die YouTube-App für Android nutzen, tippen Sie in der untersten Bildschirmzeile auf Mein YouTube und im Anschluss oben rechts auf das Zahnrad-Icon. Allgemeine Optionen aufrufen Thomas Rieske Als Nächstes wechseln Sie zum Bereich Allgemein. App-Sprache Thomas Rieske Tippen Sie im nächsten Dialog auf den Eintrag App-Sprache. Darunter ist die aktuelle Sprache angegeben. Sprachumstellung Thomas Rieske Im Overlay-Fenster können Sie jetzt Ihre bevorzugte Sprache festlegen. Änderung bestätigen Thomas Rieske Zum Schluss werden Sie aufgefordert, die neue Spracheinstellung zu bestätigen. Tippen Sie hierzu auf Ändern. Produkte: Der Trick funktioniert über die Website von YouTube und mit der YouTube-App für Android. 

YouTube: Sprache ändern​ Auf der YouTube-Website anmelden

Thomas Rieske

Lösung: Um die Sprache umzustellen, öffnen Sie auf dem Desktop mit einem Browser die YouTube-Website. Falls Sie nicht automatisch eingeloggt werden, klicken Sie oben rechts auf den Anmelden-Button.

Angabe von E-Mail oder Telefonnummer

Thomas Rieske

Nun tragen Sie die E-Mail-Adresse beziehungsweise Telefonnummer für Ihr Konto ein und klicken auf Weiter.

Passworteingabe

Thomas Rieske

Danach tippen Sie das zugehörige Passwort ein und schließen mit einem erneuten Klick auf den Weiter-Button das Login ab.

Verwaltungsmenü öffnen

Thomas Rieske

Klicken Sie nun oben rechts auf Ihr Profilbild. Im Menü, das sich anschließend öffnet, wechseln Sie zur Option Sprache.

Sprache ändern

Thomas Rieske

Dann wählen Sie in der Liste die gewünschte Sprache aus. Die neue Einstellung wird automatisch übernommen, sodass Sie nichts separat speichern müssen.

Android-App: Einstellungen öffnen

Thomas Rieske

Wenn Sie die YouTube-App für Android nutzen, tippen Sie in der untersten Bildschirmzeile auf Mein YouTube und im Anschluss oben rechts auf das Zahnrad-Icon.

Allgemeine Optionen aufrufen

Thomas Rieske

Als Nächstes wechseln Sie zum Bereich Allgemein.

App-Sprache

Thomas Rieske

Tippen Sie im nächsten Dialog auf den Eintrag App-Sprache. Darunter ist die aktuelle Sprache angegeben.

Sprachumstellung

Thomas Rieske

Im Overlay-Fenster können Sie jetzt Ihre bevorzugte Sprache festlegen.

Änderung bestätigen

Thomas Rieske

Zum Schluss werden Sie aufgefordert, die neue Spracheinstellung zu bestätigen. Tippen Sie hierzu auf Ändern.

Produkte: Der Trick funktioniert über die Website von YouTube und mit der YouTube-App für Android.

YouTube: Sprache ändern​ Read More »

Vertikale Maus, beste Maus!​

Vertikale Maus, beste Maus!​

Allgemein

Wenn Sie sich erst einmal an eine vertikale Maus gewöhnt haben, wollen Sie nichts anderes mehr. Unser Autor gibt Ihnen darauf sein Wort. UnderhilStudio | shutterstock.com Angesichts der Tatsache, dass wir rund ein Drittel unseres menschlichen Daseins mit Schlafen verbringen, macht es Sinn, Geld in eine ordentliche Matratze zu investieren. Ähnlich verhält es sich mit Blick auf den Arbeitsalltag: Wenn Sie das Gros des Tages damit verbringen, am Rechner zu sitzen, sollten Sie: in Sachen Maus(-Komfort) nicht geizen und einer vertikalen Maus zumindest eine Chance geben. Die kann dank ihrer Ergonomie dazu beitragen, durch „traditionelle“ Mäuse hervorgerufene Belastungserscheinungen zu reduzieren. Wie sich der Umstieg auf eine Vertical Mouse anfühlt und warum diese Art der Peripherie – auch objektiv betrachtet – die beste ist, lesen Sie in diesem Meinungsbeitrag. Vertikale Integration Vertikale Mäuse waren für mich bis vor ungefähr zehn Jahren absolutes Neuland. Dann sorgte der Zufall dafür, dass ich ein Exemplar zu Testzwecken in die Hand bekam. Wie bei jedem Peripherie-Gerätewechsel stand anschließend zuerst eine gewisse Eingewöhnungsphase an. Genauer gesagt eine sehr unbeholfene Woche. In der habe ich mich intensiv mit der Vertikalmaus auseinandergesetzt und dabei etliche Male danebengegriffen oder sie umgestoßen. Nach dieser extrem frustrierenden Woche bemerkte ich jedoch langsam, wie sich traditionelle Mäuse immer seltsamer in meiner Hand anfühlten. Vertikale Mäuse sind nicht nur der Handgelenk- und Armgesundheit zuträglich, sondern auch einer allgemein gesünderen Haltung, wenn man am Rechner sitzt. Im Laufe der nächsten zehn Jahre habe ich meine vertikale Maus ununterbrochen genutzt. Solange, bis die Tasten nicht mehr richtig funktionierten und die Außenhaut reif für die Müllhalde war. Im Jahr 2022 habe ich sie schließlich ersetzt – durch ein neueres, ebenfalls vertikal ausgerichtetes – aber preisgünstigeres – Modell eines anderen Herstellers. Nach meinen Vertical-Mouse-Erfahrungen habe ich bei Kollegen und Freunden intensiv dafür geworben, es mir gleichzutun und dem vertikalen Maus-Typ eine Chance zu geben. Diejenigen, die sich dafür offen gezeigt haben, haben es nicht bereut. So konnte eine Bekannte von mir mit dem Umstieg auf eine Vertical Mouse ihre Karpaltunnelprobleme fast vollständig loswerden.  Das Beste: Mäuse mit vertikalem Formfaktor sind längst keine teuren Kuriositäten mehr. Nahezu jeder Peripheriehersteller hat in diesem Bereich etwas anzubieten – vom Budget- bis zum Premium-Produkt. Also: Probieren Sie es einfach mal aus. Wenn Sie einmal die Vorzüge einer vertikalen Maus am eigenen Leib spüren, wollen Sie nie wieder zurück. Versprochen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Vertikale Maus, beste Maus!​ Wenn Sie sich erst einmal an eine vertikale Maus gewöhnt haben, wollen Sie nichts anderes mehr. Unser Autor gibt Ihnen darauf sein Wort.
UnderhilStudio | shutterstock.com

Angesichts der Tatsache, dass wir rund ein Drittel unseres menschlichen Daseins mit Schlafen verbringen, macht es Sinn, Geld in eine ordentliche Matratze zu investieren. Ähnlich verhält es sich mit Blick auf den Arbeitsalltag: Wenn Sie das Gros des Tages damit verbringen, am Rechner zu sitzen, sollten Sie:

in Sachen Maus(-Komfort) nicht geizen und

einer vertikalen Maus zumindest eine Chance geben.

Die kann dank ihrer Ergonomie dazu beitragen, durch „traditionelle“ Mäuse hervorgerufene Belastungserscheinungen zu reduzieren.

Wie sich der Umstieg auf eine Vertical Mouse anfühlt und warum diese Art der Peripherie – auch objektiv betrachtet – die beste ist, lesen Sie in diesem Meinungsbeitrag.

Vertikale Integration

Vertikale Mäuse waren für mich bis vor ungefähr zehn Jahren absolutes Neuland. Dann sorgte der Zufall dafür, dass ich ein Exemplar zu Testzwecken in die Hand bekam.

Wie bei jedem Peripherie-Gerätewechsel stand anschließend zuerst eine gewisse Eingewöhnungsphase an. Genauer gesagt eine sehr unbeholfene Woche. In der habe ich mich intensiv mit der Vertikalmaus auseinandergesetzt und dabei etliche Male danebengegriffen oder sie umgestoßen. Nach dieser extrem frustrierenden Woche bemerkte ich jedoch langsam, wie sich traditionelle Mäuse immer seltsamer in meiner Hand anfühlten. Vertikale Mäuse sind nicht nur der Handgelenk- und Armgesundheit zuträglich, sondern auch einer allgemein gesünderen Haltung, wenn man am Rechner sitzt.

Im Laufe der nächsten zehn Jahre habe ich meine vertikale Maus ununterbrochen genutzt. Solange, bis die Tasten nicht mehr richtig funktionierten und die Außenhaut reif für die Müllhalde war. Im Jahr 2022 habe ich sie schließlich ersetzt – durch ein neueres, ebenfalls vertikal ausgerichtetes – aber preisgünstigeres – Modell eines anderen Herstellers.

Nach meinen Vertical-Mouse-Erfahrungen habe ich bei Kollegen und Freunden intensiv dafür geworben, es mir gleichzutun und dem vertikalen Maus-Typ eine Chance zu geben. Diejenigen, die sich dafür offen gezeigt haben, haben es nicht bereut. So konnte eine Bekannte von mir mit dem Umstieg auf eine Vertical Mouse ihre Karpaltunnelprobleme fast vollständig loswerden. 

Das Beste: Mäuse mit vertikalem Formfaktor sind längst keine teuren Kuriositäten mehr. Nahezu jeder Peripheriehersteller hat in diesem Bereich etwas anzubieten – vom Budget- bis zum Premium-Produkt. Also: Probieren Sie es einfach mal aus. Wenn Sie einmal die Vorzüge einer vertikalen Maus am eigenen Leib spüren, wollen Sie nie wieder zurück. Versprochen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Vertikale Maus, beste Maus!​ Read More »

So geht Dev-Container​

So geht Dev-Container​

Allgemein

Container sind auch gute Entwicklungs-Tools. urzine | shutterstock.com Container stellen für moderne Applikationsplattformen eine Schlüsselkomponente dar. Sie isolieren Anwendungen und verwandeln das „Userland“ gleichzeitig in eine portable Laufzeitumgebung. Container ermöglichen auch, alle notwendigen Code-Abhängigkeiten sowohl zu „verpacken“ als auch auszuführen – während Entwickler parallel Ressourcen managen und Services nach oben oder unten skalieren. Sieht man einmal von Tools wie Github Codespaces ab, spielt die Container-Technologie im Bereich der Softwareentwicklung bisher allerdings nur selten eine Rolle. Das ist verwunderlich, schließlich bieten sie eine ideale Möglichkeit, ganze Entwicklungsumgebungen zu verpacken – inklusive sämtlicher Services, die nötig sind, um Code zu erstellen und zu testen. Günstiger Weise sind die Tools, die zum Einsatz kommen, um Codespaces-Container zu managen, allgemein verfügbar. Das können Sie nutzen, um Ihre eigenen Dev-Container zu erstellen und zu verwalten – in der Public Cloud oder On-Premises. Wie das geht, lesen Sie in diesem Artikel.   IDEs teilen per Container Die Idee hinter Dev-Containern ist simpel: Alle Services, die für die Anwendungsentwicklung wichtig sind, wandern in einen Docker-Container. Der lässt sich dann über eine virtuelle Maschine ausführen, der Code über Remote-Development- und -Debugging-Tools verwalten. Beherbergen kann dieser Container alles Mögliche, von Datenbanken über Mock-API-Endpunkte bis hin zu den benötigten Runtimes und Bibliotheken. Das Risiko von Interferenzen mit anderen Anwendungen wird dabei durch die Isolierung des Containers minimiert.  Für Entwickler bringt das in erster Linie den Vorteil, Ihre Rechner nicht mehr konfigurieren zu müssen. Sie laden einfach den Dev-Container zum Projekt herunter und mounten diesen, schon kann die Programmierarbeit losgehen. Das spart nicht nur massiv Zeit, sondern unterstützt auch leitende Developer dabei, sicherzustellen, dass alle Projektbeteiligten auf dem gleichen Stand bleiben. Und sollte doch einmal etwas schiefgehen, ist es ohne Weiteres möglich, die aktuelle Umgebung zu verwerfen, einen neuen Dev-Container herunterzuladen, das betreffende Git-Repository zu klonen – um anschließend genau dort weiterzuarbeiten, wo das Malheur aufgetreten ist. In der Microsoft-Welt kommen Dev-Container inzwischen immer häufiger zur Anwendung. Das liegt auch daran, dass der Windows-Konzern das Open-Source-Projekt sponsert, beispielsweise in Form mehrerer GitHub-Repositories. Das Azure SQL-Team hat vor kurzem zudem eine Reihe vordefinierter, vorkonfigurierter Templates angekündigt, die Sie verwenden können, um Ihre eigenen Dev-Conatiner aufzusetzen. Die Templates bieten Support für gängige Entwicklungs-Tools und eine schlüsselfertige Datenbank. Und obwohl es eher eine Worst Practice darstellt, Daten in Container zu integrieren – in diesem Fall werden sie als Entwicklungsumgebung und nicht als zustandslose Userspace Runtime genutzt. Falls Sie Windows für die Anwendungsentwicklung nutzen, profitieren Dev-Container zudem von Visual Studio Code und der integrierten, virtuellen Maschine Windows Subsystem for Linux (WSL). Damit haben Sie bereits alles was Sie brauchen, um Dev-Container kostenlos zu erstellen und zu betreiben. Dev-Container erstellen Die ursprüngliche Dev-Container-Spezifikation beschreibt ein strukturiertes JSON-Format, in dem die Grundkonfiguration eines Dev-Containers gespeichert wird – devcontainer.json. Zusätzliche Informationen werden in Image Labels und speziellen Skripten namens Dev Container Features (dazu gleich mehr) festgehalten. Das Resultat sollte alle Tools beschreiben, die nötig sind, um den Application Development Lifecycle zu unterstützen. Das Setup eines Dev-Containers muss dabei wiederholbar sein, damit gewährleistet ist, dass jedes Mal das gleiche Ergebnis unter dem Strich steht, wenn ein Dev-Container über eine Beschreibung erstellt wird. Jeder, der Code innerhalb eines solchen Containers erstellt, erhält so denselben Output, wenn der Branch getestet wird – was Merges und Pull Requests vereinfacht. Es ist zwar möglich, eine Containerdefinition von Grund auf neu zu erstellen, aber deutlich einfacher, die Visual-Studio-Code-Erweiterung „Dev Containers“ (Teil des Remote Development Extension Pack) zu verwenden, um Container zu erstellen und zu verwalten. Noch simpler ist es, einfach das Image einer Entwicklungsumgebung aus Microsofts Dev-Container-Repository herunterzuladen und anschließend eigene Anpassungen vorzunehmen. Weitere Optionen sind beispielsweise Port Forwarding, so dass Sie Applikations-Outputs auf Ihrem Host-Rechner testen und debuggen können. Dev Containers Features bieten eine praktische Möglichkeit, einem Container vordefinierte Anwendungen und Tools hinzuzufügen. Diese wiederverwendbaren Codeschnipsel können einer bestehenden Dev-Container-Definition hinzugefügt werden, um das per Code beschriebene Tool zu inkludieren. Sie werden in Form eines Ordners verteilt, der eine devcontainer-feature.json-Definition sowie ein Installationsskript und alle notwendigen Dateien enthält. Dev-Container nutzen Sobald Sie Dev-Container im Rahmen Ihrer Standard-Toolchain verwenden, können Sie eine Feature-Bibliothek erstellen, die sich schnell und einfach Ihren Container-Definitionen hinzufügen lässt. Sie können Container von der Stange anpassen oder schnell eine neue Definition für ein neues Projekt erstellen, indem Sie die Funktionen als Bausteine behandeln, die auf einem Standard-Basiscontainer aufsetzen, der für einen bestimmten Stack definiert wurde. Der grundlegende Prozess, um einen Dev-Container zu erstellen, ist ein Top-Down-Ansatz. Dieser sollte damit beginnen, dass sich Softwarearchitekten und leitende Entwickler auf einen Projekt-Stack einigen. Anschließend gilt es, ein geeignetes Basisplattform-Image in der VS-Code-Containergalerie zu finden – zum Beispiel .NET. Dieses kann anschließend auf das jeweilige Projekt angepasst und um neue Tools ergänzt werden, indem Sie devcontainer.json in VS Code bearbeiten und vordefinierte Funktionen hinzufügen. Sobald der Container einsatzbereit ist, verteilen Sie ihn und die erforderlichen VS-Code-Tools an Ihr Dev-Team. Auf Ihrem lokalen Container-Host muss Docker laufen – oder zumindest ein Docker-kompatibles CLI installiert sein. Die Befehlszeilenschnittstelle ist in letzterem Fall der Schlüssel, weil der Dev-Container dann über diese arbeitet und keinen direkten Zugriff auf den Container-Host benötigt. Das ist sowohl von Vor- als auch von Nachteil: Zwar bestehen dann keine Abhängigkeiten zu APIs oder Docker selbst. Unterstützt jedoch die Container-Umgebung das Docker-CLI nicht, entstehen Probleme – zum Beispiel, wenn Sie alternative Container-Engines wie Podman verwenden. Die gute Nachricht: Dev-Container sind ein Open-Source-Projekt. Es wird also laufend daran gearbeitet, weitere Container-Engines zu unterstützen. Zudem ist es möglich, über Github Anfragen zu stellen – oder selbst Code einzureichen.  Sobald ein Container auf einer lokalen Docker-Instanz (Hyper-V oder in WSL) läuft, können Sie die Remote-Tools von VS Code verwenden, um sich zunächst mit Ihrem Container zu verbinden und anschließend eine VS-Code-Umgebung zu installieren. Dadurch wird Ihr lokaler VS Code für die Benutzeroberfläche verwendet und die Erweiterungen, die Sie in Ihrer devcontainer.json beschrieben haben, werden in der Remote-Instanz installiert. Das gewährleistet, dass Ihre persönliche Auswahl an Extensions in Ihrer lokalen Entwicklungsumgebung bleibt – getrennt von denen in Ihrem Dev-Container. Obwohl Sie nichts daran hindert, Erweiterungen über die bereitgestellten hinaus hinzuzufügen. Über Dev Container Features Tools zu einem Container hinzuzufügen, der Ihren Runtime-Stack enthält, eröffnet Ihnen eine neue Möglichkeit, Ihren Code im Rahmen Ihres CI/CD-Prozesses zu testen: Sie können Ihren Dev-Container in Github Action oder eine Azure-Devops-Pipeline integrieren. Oder Sie nutzen einen Runtime-Container als Host, um Code in einer Kubernetes-Produktionsumgebung auszuliefern. Wenn Sie mit der Entwicklung in einem Container beginnen, bleibt der Code während seines gesamten Lebenszyklus in derselben Umgebung. Das hilft Devs dabei, die Einschränkungen und Vorteile zu verstehen, die mit Cloud-nativen Anwendungen einhergehen. Dev-Container können Teams darüber hinaus dabei unterstützen, sich auf eine konsistente Grundlage für ein Projekt zu fokussieren, die bei Bedarf schnell zurückgesetzt und neu geladen werden kann. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

So geht Dev-Container​ Container sind auch gute Entwicklungs-Tools.
urzine | shutterstock.com

Container stellen für moderne Applikationsplattformen eine Schlüsselkomponente dar. Sie isolieren Anwendungen und verwandeln das „Userland“ gleichzeitig in eine portable Laufzeitumgebung. Container ermöglichen auch, alle notwendigen Code-Abhängigkeiten sowohl zu „verpacken“ als auch auszuführen – während Entwickler parallel Ressourcen managen und Services nach oben oder unten skalieren.

Sieht man einmal von Tools wie Github Codespaces ab, spielt die Container-Technologie im Bereich der Softwareentwicklung bisher allerdings nur selten eine Rolle. Das ist verwunderlich, schließlich bieten sie eine ideale Möglichkeit, ganze Entwicklungsumgebungen zu verpacken – inklusive sämtlicher Services, die nötig sind, um Code zu erstellen und zu testen.

Günstiger Weise sind die Tools, die zum Einsatz kommen, um Codespaces-Container zu managen, allgemein verfügbar. Das können Sie nutzen, um Ihre eigenen Dev-Container zu erstellen und zu verwalten – in der Public Cloud oder On-Premises. Wie das geht, lesen Sie in diesem Artikel.  

IDEs teilen per Container

Die Idee hinter Dev-Containern ist simpel: Alle Services, die für die Anwendungsentwicklung wichtig sind, wandern in einen Docker-Container. Der lässt sich dann über eine virtuelle Maschine ausführen, der Code über Remote-Development- und -Debugging-Tools verwalten. Beherbergen kann dieser Container alles Mögliche, von Datenbanken über Mock-API-Endpunkte bis hin zu den benötigten Runtimes und Bibliotheken. Das Risiko von Interferenzen mit anderen Anwendungen wird dabei durch die Isolierung des Containers minimiert. 

Für Entwickler bringt das in erster Linie den Vorteil, Ihre Rechner nicht mehr konfigurieren zu müssen. Sie laden einfach den Dev-Container zum Projekt herunter und mounten diesen, schon kann die Programmierarbeit losgehen. Das spart nicht nur massiv Zeit, sondern unterstützt auch leitende Developer dabei, sicherzustellen, dass alle Projektbeteiligten auf dem gleichen Stand bleiben. Und sollte doch einmal etwas schiefgehen, ist es ohne Weiteres möglich, die aktuelle Umgebung zu verwerfen, einen neuen Dev-Container herunterzuladen, das betreffende Git-Repository zu klonen – um anschließend genau dort weiterzuarbeiten, wo das Malheur aufgetreten ist.

In der Microsoft-Welt kommen Dev-Container inzwischen immer häufiger zur Anwendung. Das liegt auch daran, dass der Windows-Konzern das Open-Source-Projekt sponsert, beispielsweise in Form mehrerer GitHub-Repositories. Das Azure SQL-Team hat vor kurzem zudem eine Reihe vordefinierter, vorkonfigurierter Templates angekündigt, die Sie verwenden können, um Ihre eigenen Dev-Conatiner aufzusetzen. Die Templates bieten Support für gängige Entwicklungs-Tools und eine schlüsselfertige Datenbank. Und obwohl es eher eine Worst Practice darstellt, Daten in Container zu integrieren – in diesem Fall werden sie als Entwicklungsumgebung und nicht als zustandslose Userspace Runtime genutzt.

Falls Sie Windows für die Anwendungsentwicklung nutzen, profitieren Dev-Container zudem von Visual Studio Code und der integrierten, virtuellen Maschine Windows Subsystem for Linux (WSL). Damit haben Sie bereits alles was Sie brauchen, um Dev-Container kostenlos zu erstellen und zu betreiben.

Dev-Container erstellen

Die ursprüngliche Dev-Container-Spezifikation beschreibt ein strukturiertes JSON-Format, in dem die Grundkonfiguration eines Dev-Containers gespeichert wird – devcontainer.json. Zusätzliche Informationen werden in Image Labels und speziellen Skripten namens Dev Container Features (dazu gleich mehr) festgehalten. Das Resultat sollte alle Tools beschreiben, die nötig sind, um den Application Development Lifecycle zu unterstützen.

Das Setup eines Dev-Containers muss dabei wiederholbar sein, damit gewährleistet ist, dass jedes Mal das gleiche Ergebnis unter dem Strich steht, wenn ein Dev-Container über eine Beschreibung erstellt wird. Jeder, der Code innerhalb eines solchen Containers erstellt, erhält so denselben Output, wenn der Branch getestet wird – was Merges und Pull Requests vereinfacht.

Es ist zwar möglich, eine Containerdefinition von Grund auf neu zu erstellen, aber deutlich einfacher, die Visual-Studio-Code-Erweiterung „Dev Containers“ (Teil des Remote Development Extension Pack) zu verwenden, um Container zu erstellen und zu verwalten. Noch simpler ist es, einfach das Image einer Entwicklungsumgebung aus Microsofts Dev-Container-Repository herunterzuladen und anschließend eigene Anpassungen vorzunehmen. Weitere Optionen sind beispielsweise Port Forwarding, so dass Sie Applikations-Outputs auf Ihrem Host-Rechner testen und debuggen können.

Dev Containers Features bieten eine praktische Möglichkeit, einem Container vordefinierte Anwendungen und Tools hinzuzufügen. Diese wiederverwendbaren Codeschnipsel können einer bestehenden Dev-Container-Definition hinzugefügt werden, um das per Code beschriebene Tool zu inkludieren. Sie werden in Form eines Ordners verteilt, der eine devcontainer-feature.json-Definition sowie ein Installationsskript und alle notwendigen Dateien enthält.

Dev-Container nutzen

Sobald Sie Dev-Container im Rahmen Ihrer Standard-Toolchain verwenden, können Sie eine Feature-Bibliothek erstellen, die sich schnell und einfach Ihren Container-Definitionen hinzufügen lässt. Sie können Container von der Stange anpassen oder schnell eine neue Definition für ein neues Projekt erstellen, indem Sie die Funktionen als Bausteine behandeln, die auf einem Standard-Basiscontainer aufsetzen, der für einen bestimmten Stack definiert wurde.

Der grundlegende Prozess, um einen Dev-Container zu erstellen, ist ein Top-Down-Ansatz. Dieser sollte damit beginnen, dass sich Softwarearchitekten und leitende Entwickler auf einen Projekt-Stack einigen. Anschließend gilt es, ein geeignetes Basisplattform-Image in der VS-Code-Containergalerie zu finden – zum Beispiel .NET. Dieses kann anschließend auf das jeweilige Projekt angepasst und um neue Tools ergänzt werden, indem Sie devcontainer.json in VS Code bearbeiten und vordefinierte Funktionen hinzufügen. Sobald der Container einsatzbereit ist, verteilen Sie ihn und die erforderlichen VS-Code-Tools an Ihr Dev-Team.

Auf Ihrem lokalen Container-Host muss Docker laufen – oder zumindest ein Docker-kompatibles CLI installiert sein. Die Befehlszeilenschnittstelle ist in letzterem Fall der Schlüssel, weil der Dev-Container dann über diese arbeitet und keinen direkten Zugriff auf den Container-Host benötigt. Das ist sowohl von Vor- als auch von Nachteil: Zwar bestehen dann keine Abhängigkeiten zu APIs oder Docker selbst. Unterstützt jedoch die Container-Umgebung das Docker-CLI nicht, entstehen Probleme – zum Beispiel, wenn Sie alternative Container-Engines wie Podman verwenden. Die gute Nachricht: Dev-Container sind ein Open-Source-Projekt. Es wird also laufend daran gearbeitet, weitere Container-Engines zu unterstützen. Zudem ist es möglich, über Github Anfragen zu stellen – oder selbst Code einzureichen. 

Sobald ein Container auf einer lokalen Docker-Instanz (Hyper-V oder in WSL) läuft, können Sie die Remote-Tools von VS Code verwenden, um sich zunächst mit Ihrem Container zu verbinden und anschließend eine VS-Code-Umgebung zu installieren. Dadurch wird Ihr lokaler VS Code für die Benutzeroberfläche verwendet und die Erweiterungen, die Sie in Ihrer devcontainer.json beschrieben haben, werden in der Remote-Instanz installiert. Das gewährleistet, dass Ihre persönliche Auswahl an Extensions in Ihrer lokalen Entwicklungsumgebung bleibt – getrennt von denen in Ihrem Dev-Container. Obwohl Sie nichts daran hindert, Erweiterungen über die bereitgestellten hinaus hinzuzufügen.

Über Dev Container Features Tools zu einem Container hinzuzufügen, der Ihren Runtime-Stack enthält, eröffnet Ihnen eine neue Möglichkeit, Ihren Code im Rahmen Ihres CI/CD-Prozesses zu testen: Sie können Ihren Dev-Container in Github Action oder eine Azure-Devops-Pipeline integrieren. Oder Sie nutzen einen Runtime-Container als Host, um Code in einer Kubernetes-Produktionsumgebung auszuliefern.

Wenn Sie mit der Entwicklung in einem Container beginnen, bleibt der Code während seines gesamten Lebenszyklus in derselben Umgebung. Das hilft Devs dabei, die Einschränkungen und Vorteile zu verstehen, die mit Cloud-nativen Anwendungen einhergehen. Dev-Container können Teams darüber hinaus dabei unterstützen, sich auf eine konsistente Grundlage für ein Projekt zu fokussieren, die bei Bedarf schnell zurückgesetzt und neu geladen werden kann. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

So geht Dev-Container​ Read More »

Zahlt sich Microsofts KI-Einsatz aus?​

Zahlt sich Microsofts KI-Einsatz aus?​

Allgemein

Die Wall Street liebt Gewinner – und zwar Gewinner einer ganz besonderen Art. Gewinner, die die kurzfristigen Profitprognosen übertreffen und mit den besten Quartalsberichten punkten können. Dabei steigt der Aktienkurs eher, wenn die Quartalsgewinne eines Unternehmens unerwartet anziehen. Langfristige, strategische Pläne, die sich erst in ein paar Jahren auszahlen, kommen bei Investoren hingegen meist weniger gut an. Das ist die Lehre aus der Reaktion der Börse auf Microsofts Quartalsbericht Ende Juli. Die große Neuigkeit für die Anleger? Dass Microsofts Cloud-basiertes Azure-Geschäft im Quartal „nur“ um 30 Prozent gewachsen ist, einen einzigen Prozentpunkt weniger als die 31 Prozent, die das Unternehmen prognostiziert hatte.  Börse straft Microsoft ab Am nächsten Tag bestraften die Investoren Microsoft. Während der Gesamtmarkt stieg – der S&P-Index legte beispielsweise im selben Zeitraum um volle 86 Punkte zu – fiel die Aktie von Microsoft um mehr als vier Prozentpunkte.. Und das, obwohl  das Unternehmen einen Umsatzanstieg von 15 Prozent und einen Anstieg des Nettogewinns von 10 Prozent vermelden konnte. Gähnen über Microsofts KI-Neuigkeiten Die weitaus wichtigere Neuigkeit aus  dem jüngsten Bericht  – dass Microsoft voll auf künstliche Intelligenz (KI) setzt und langfristig massiv in Infrastruktur investiert, die sich möglicherweise erst nach Jahren amortisiert – schien an der Wall Street kein Gehör zu finden, zumindest gemessen am Aktienkurs des Unternehmens.  Laut Amy Hood, Finanzvorstand von Microsoft, entfallen die Investitionen des Unternehmens in Höhe von 19 Milliarden Dollar fast ausschließlich auf KI und die Cloud. Das ist mehr als doppelt so viel wie vor zwei Jahren, bevor der KI-Boom richtig begann. All diese Ausgaben störten die Wall Street. Auch wenn sie notwendig sind, wenn Microsoft den KI-Markt weiterhin dominieren und in Zukunft Milliardengewinne daraus ziehen will. Hood hat die Anleger wahrscheinlich verschreckt, als sie erklärte, dass die hohen Ausgaben „die Monetarisierung in den nächsten 15 Jahren und darüber hinaus unterstützen werden“. Denn für die Wall Street sind 15 Jahre eher 15 Äonen. Rechnet sich Microsofts KI-Wette? Es gibt einen Grund, warum die Finanzmärkte Unternehmen gegenüber misstrauisch sind, die große Investitionen in Technologien tätigen, die sich erst nach Jahren auszahlen: Sie könnten sich überhaupt nicht auszahlen. Was heute nach einer sicheren Wette aussieht, kann sich morgen als großer Fehlschlag erweisen. Beispiele dafür gibt es in der Technologie-Historie diverse– man denke nur an den Hype um Virtual Reality (VR). Dieses Schicksal wird KI wohl nicht ereilen. Es sieht eher danach aus, dass der Gewinn umso größer ist, je größer der Einsatz ist. Schließlich hat VR noch nie bedeutende Umsätze eingebracht. Bei KI ist das durchaus der Fall, und die Technologie steckt immer noch in den Kinderschuhen. Nachfrage übersteigt Kapazitäten Tatsächlich wurden die Gewinne von Microsoft im letzten Quartal beeinträchtigt, weil das Unternehmen mit der Nachfrage nach seinen KI-Diensten nicht Schritt halten konnte. Microsoft-CEO Nadella und CFO Hood sagten bei der Vorstellung der Ergebnisse, dass Microsoft in diesem Quartal mehr KI-Dienste hätte verkaufen können, wenn in den Rechenzentren die Kapazität dazu vorhanden gewesen wäre. Diese Einschränkungen bei Microsofts KI-Services werden voraussichtlich noch bis Ende des Jahres anhalten. Doch dank der neuen Investitionen sei laut Hood für das Jahr 2025 Besserung in Sicht. Die Managerin erwartet, dass die Cloud-Umsätze, getrieben durch die KI-Nachfrage,  im ersten Quartal des Geschäftsjahres 2025 um 28 bis 29 Prozent wachsen werden.  Shooting Star Copilot Und das ist erst der Anfang. Nadella drückte es so aus: „Das sind Dinge, die ganze Generationen prägen, wenn sie erst einmal in Gang gekommen sind.“ Und er merkte an, dass Copilot Generative AI (GenAI), das Begleitprogramm des Unternehmens zu Microsoft 365  (früher Microsoft Office), „schneller wächst als jede andere Softwaregeneration, die wir zuvor für die Office-Suite auf den Markt gebracht haben“. 

Zahlt sich Microsofts KI-Einsatz aus?​ Die Wall Street liebt Gewinner – und zwar Gewinner einer ganz besonderen Art. Gewinner, die die kurzfristigen Profitprognosen übertreffen und mit den besten Quartalsberichten punkten können. Dabei steigt der Aktienkurs eher, wenn die Quartalsgewinne eines Unternehmens unerwartet anziehen. Langfristige, strategische Pläne, die sich erst in ein paar Jahren auszahlen, kommen bei Investoren hingegen meist weniger gut an.

Das ist die Lehre aus der Reaktion der Börse auf Microsofts Quartalsbericht Ende Juli. Die große Neuigkeit für die Anleger? Dass Microsofts Cloud-basiertes Azure-Geschäft im Quartal „nur“ um 30 Prozent gewachsen ist, einen einzigen Prozentpunkt weniger als die 31 Prozent, die das Unternehmen prognostiziert hatte. 

Börse straft Microsoft ab

Am nächsten Tag bestraften die Investoren Microsoft. Während der Gesamtmarkt stieg – der S&P-Index legte beispielsweise im selben Zeitraum um volle 86 Punkte zu – fiel die Aktie von Microsoft um mehr als vier Prozentpunkte.. Und das, obwohl  das Unternehmen einen Umsatzanstieg von 15 Prozent und einen Anstieg des Nettogewinns von 10 Prozent vermelden konnte.

Gähnen über Microsofts KI-Neuigkeiten

Die weitaus wichtigere Neuigkeit aus  dem jüngsten Bericht  – dass Microsoft voll auf künstliche Intelligenz (KI) setzt und langfristig massiv in Infrastruktur investiert, die sich möglicherweise erst nach Jahren amortisiert – schien an der Wall Street kein Gehör zu finden, zumindest gemessen am Aktienkurs des Unternehmens. 

Laut Amy Hood, Finanzvorstand von Microsoft, entfallen die Investitionen des Unternehmens in Höhe von 19 Milliarden Dollar fast ausschließlich auf KI und die Cloud. Das ist mehr als doppelt so viel wie vor zwei Jahren, bevor der KI-Boom richtig begann.

All diese Ausgaben störten die Wall Street. Auch wenn sie notwendig sind, wenn Microsoft den KI-Markt weiterhin dominieren und in Zukunft Milliardengewinne daraus ziehen will. Hood hat die Anleger wahrscheinlich verschreckt, als sie erklärte, dass die hohen Ausgaben „die Monetarisierung in den nächsten 15 Jahren und darüber hinaus unterstützen werden“. Denn für die Wall Street sind 15 Jahre eher 15 Äonen.

Rechnet sich Microsofts KI-Wette?

Es gibt einen Grund, warum die Finanzmärkte Unternehmen gegenüber misstrauisch sind, die große Investitionen in Technologien tätigen, die sich erst nach Jahren auszahlen: Sie könnten sich überhaupt nicht auszahlen. Was heute nach einer sicheren Wette aussieht, kann sich morgen als großer Fehlschlag erweisen. Beispiele dafür gibt es in der Technologie-Historie diverse– man denke nur an den Hype um Virtual Reality (VR).

Dieses Schicksal wird KI wohl nicht ereilen. Es sieht eher danach aus, dass der Gewinn umso größer ist, je größer der Einsatz ist. Schließlich hat VR noch nie bedeutende Umsätze eingebracht. Bei KI ist das durchaus der Fall, und die Technologie steckt immer noch in den Kinderschuhen.

Nachfrage übersteigt Kapazitäten

Tatsächlich wurden die Gewinne von Microsoft im letzten Quartal beeinträchtigt, weil das Unternehmen mit der Nachfrage nach seinen KI-Diensten nicht Schritt halten konnte. Microsoft-CEO Nadella und CFO Hood sagten bei der Vorstellung der Ergebnisse, dass Microsoft in diesem Quartal mehr KI-Dienste hätte verkaufen können, wenn in den Rechenzentren die Kapazität dazu vorhanden gewesen wäre.

Diese Einschränkungen bei Microsofts KI-Services werden voraussichtlich noch bis Ende des Jahres anhalten. Doch dank der neuen Investitionen sei laut Hood für das Jahr 2025 Besserung in Sicht. Die Managerin erwartet, dass die Cloud-Umsätze, getrieben durch die KI-Nachfrage,  im ersten Quartal des Geschäftsjahres 2025 um 28 bis 29 Prozent wachsen werden. 

Shooting Star Copilot

Und das ist erst der Anfang. Nadella drückte es so aus: „Das sind Dinge, die ganze Generationen prägen, wenn sie erst einmal in Gang gekommen sind.“ Und er merkte an, dass Copilot Generative AI (GenAI), das Begleitprogramm des Unternehmens zu Microsoft 365  (früher Microsoft Office), „schneller wächst als jede andere Softwaregeneration, die wir zuvor für die Office-Suite auf den Markt gebracht haben“.

Zahlt sich Microsofts KI-Einsatz aus?​ Read More »

VMware Cloud Foundation erhält KI-Modellspeicher​

VMware Cloud Foundation erhält KI-Modellspeicher​

Allgemein

Unternehmensinterne Querelen wie etwa bei OpenAI im letzten Herbst, Sicherheitsbedenken, regulatorische Bestimmungen – all dies sind Gründe, warum Unternehmen ihre KI in lokalen Rechenzentren oder in privaten Clouds unter ihrer vollständigen Kontrolle ausführen wollen. Neuer Speicher für VMware Private AI Oder nach Plattformen von Drittanbietern suchen, um sich nicht an einen bestimmten KI- oder Cloud-Anbieter zu binden. Eine dieser Alternativen könnte VMware sein, das mittlerweile zu Broadcom gehört. Um die Attraktivität des eigenen Angebots zu erhöhen, hat Broadcom auf der VMware Explore die Unterstützung eines neuen Modellspeichers für die VMware Private AI Foundation mit Nvidia-Add-on angekündigt. Das Ganze soll auf der VMware-Cloud-Foundation-9-Plattform laufen. Die gemeinsame Plattform von VMware und Nvidia ist seit Mai dieses Jahres verfügbar. Sie unterstützt die KI-Modelle, Tools und Frameworks von Nvidia. Bei ihrer Erstveröffentlichung ermöglichte die gemeinsame Plattform Unternehmen den Einsatz generativer KI-Anwendungen und enthielt eine Vektordatenbank, sodass Unternehmen mithilfe von Retrieval Augmented Generation (RAG) ihre generative KI dazu bringen konnten, genauere und aktuellere Antworten zu liefern. Auswahl an KI-Modellen Mit dem jetzt angekündigten Modell-Store-Manager können Unternehmen ihren Entwicklern eine kuratierte Auswahl an KI-Modellen zur Verfügung stellen und Zugriffskontrollen für diese Modelle einrichten. Auf diese Weise könnten Unternehmen sicherstellen, dass Mitarbeiter nicht einfach allgemeine Large Language Models (LLMs) verwenden, die von Unternehmensseite nicht unterstützt werden. Unterstützte KI-Modelle VMware-Anwender können die KI-Modelle von Nvidia sowie Modelle von Hugging Face und anderen Partnern nutzen, darunter das Llama-3-Modell von Meta sowie Modelle von Google und Mistral. Zu den weiteren neuen Funktionen gehören neben dem Modellspeicher Tools, um Modelle mit integrierten Zugriffskontrollen abzusichern. Ferner werde der Bereitstellungsworkflow optimiert und zusätzlich gebe es Referenz-KI-Workflows für spezielle Anwendungsfälle wie Kundenservice, Arzneimittelforschung und PDF-Datenextraktion, so Broadcom. Weitere Verbesserungen Zu den weiteren Verbesserungen der VMware Cloud Foundation gehören: Die Anzahl der Managementkonsolen für Provisioning Services wurde von über einem Dutzend auf jeweils nur eine einzige Konsole für Betrieb und Automatisierung reduziert. Eine neue Memory-Tiering-Funktion soll datenintensive Anwendungen wie KI, Datenbanken und Echtzeitanalysen beschleunigen. Verbesserte Sicherheitsfunktionen, beispielsweise ein einheitliches Sicherheitsmanagement über mehrere VMware-Cloud-Foundation-Deployments hinweg. Angaben dazu, wann die neuen Features in VMware Cloud Foundation 9 zur Verfügung stehen, machte Broadcom nicht. 

VMware Cloud Foundation erhält KI-Modellspeicher​ Unternehmensinterne Querelen wie etwa bei OpenAI im letzten Herbst, Sicherheitsbedenken, regulatorische Bestimmungen – all dies sind Gründe, warum Unternehmen ihre KI in lokalen Rechenzentren oder in privaten Clouds unter ihrer vollständigen Kontrolle ausführen wollen.

Neuer Speicher für VMware Private AI

Oder nach Plattformen von Drittanbietern suchen, um sich nicht an einen bestimmten KI- oder Cloud-Anbieter zu binden. Eine dieser Alternativen könnte VMware sein, das mittlerweile zu Broadcom gehört. Um die Attraktivität des eigenen Angebots zu erhöhen, hat Broadcom auf der VMware Explore die Unterstützung eines neuen Modellspeichers für die VMware Private AI Foundation mit Nvidia-Add-on angekündigt. Das Ganze soll auf der VMware-Cloud-Foundation-9-Plattform laufen.

Die gemeinsame Plattform von VMware und Nvidia ist seit Mai dieses Jahres verfügbar. Sie unterstützt die KI-Modelle, Tools und Frameworks von Nvidia. Bei ihrer Erstveröffentlichung ermöglichte die gemeinsame Plattform Unternehmen den Einsatz generativer KI-Anwendungen und enthielt eine Vektordatenbank, sodass Unternehmen mithilfe von Retrieval Augmented Generation (RAG) ihre generative KI dazu bringen konnten, genauere und aktuellere Antworten zu liefern.

Auswahl an KI-Modellen

Mit dem jetzt angekündigten Modell-Store-Manager können Unternehmen ihren Entwicklern eine kuratierte Auswahl an KI-Modellen zur Verfügung stellen und Zugriffskontrollen für diese Modelle einrichten. Auf diese Weise könnten Unternehmen sicherstellen, dass Mitarbeiter nicht einfach allgemeine Large Language Models (LLMs) verwenden, die von Unternehmensseite nicht unterstützt werden.

Unterstützte KI-Modelle

VMware-Anwender können die KI-Modelle von Nvidia sowie Modelle von Hugging Face und anderen Partnern nutzen, darunter das Llama-3-Modell von Meta sowie Modelle von Google und Mistral.

Zu den weiteren neuen Funktionen gehören neben dem Modellspeicher Tools, um Modelle mit integrierten Zugriffskontrollen abzusichern. Ferner werde der Bereitstellungsworkflow optimiert und zusätzlich gebe es Referenz-KI-Workflows für spezielle Anwendungsfälle wie Kundenservice, Arzneimittelforschung und PDF-Datenextraktion, so Broadcom.

Weitere Verbesserungen

Zu den weiteren Verbesserungen der VMware Cloud Foundation gehören:

Die Anzahl der Managementkonsolen für Provisioning Services wurde von über einem Dutzend auf jeweils nur eine einzige Konsole für Betrieb und Automatisierung reduziert.

Eine neue Memory-Tiering-Funktion soll datenintensive Anwendungen wie KI, Datenbanken und Echtzeitanalysen beschleunigen.

Verbesserte Sicherheitsfunktionen, beispielsweise ein einheitliches Sicherheitsmanagement über mehrere VMware-Cloud-Foundation-Deployments hinweg.

Angaben dazu, wann die neuen Features in VMware Cloud Foundation 9 zur Verfügung stehen, machte Broadcom nicht.

VMware Cloud Foundation erhält KI-Modellspeicher​ Read More »

Klarna lässt mit KI Köpfe rollen​

Klarna lässt mit KI Köpfe rollen​

Allgemein

Klarna verfolgt mit Blick auf den internen KI-Einsatz offenbar ein recht eigenwilliges „Buy now, pay later“-Konzept. Mats Wiklund | shutterstock.com Laut einem Bericht der BBC will der schwedische Finanzdienstleister Klarna in den kommenden Jahren die Hälfte seiner Mitarbeiter loswerden. Ursächlich dafür seien Effizienzsteigerungen, die sich aus den KI-Investitionen des Unternehmens ergeben. Demnach habe Klarna seine Belegschaft bereits von rund 5.000 auf 3.800 Mitarbeiter reduziert. Durch den Einsatz von künstlicher Intelligenz (KI) in den Bereichen Marketing und Kundenservice soll der Headcount künftig auf 2.000 sinken, wie die BBC berichtet. Sebastian Siemiatkowski, CEO und Mitbegründer des schwedischen Fintechs, fokussierte sich im Interview mit der BBC hingegen darauf, die positiven Seiten der Personalpläne herauszustellen: Diese ermöglichten Klarna, den verbleibenden Mitarbeitern höhere Gehälter zu bezahlen.  KI-Beinschuss mit Ankündigung? Überraschen sollten die Pläne von Klarna allerdings niemanden. Schließlich war der schwedische BNPL- („Buy now, pay later“) -Anbieter eines der ersten Unternehmen, das im November 2022 ein Chat-GPT-Plugin nutzte. Wer Klarnas Customer-Success-Story auf der OpenAI-Webseite einmal genau gelesen hat, konnte bereits erahnen, wo die Reise hingeht: „Klarna exploriert weiter Anwendungen für die Technologie von OpenAI – es besteht das Potenzial, das Unternehmen zu neuen Höhen zu führen“, verkündet CEO Siemiatkowski an dieser Stelle stolz. Wie diese neuen Höhen konkret aussehen können, scheint in der Sucess Story ebenfalls bereits durch. Demnach habe ChatGPT bereits im ersten Monat seines Einsatzes zwei Drittel aller Klarna-Kundenkonversationen geführt und damit die Arbeit von 700 Vollzeit-Mitarbeitern erledigt. Dabei liege das KI-Tool in Sachen Kundenzufriedenheit mit menschlichen Agenten auf Augenhöhe, so Klarna. Terra Higginson, Principal Research Director bei der Info-Tech Research Group, hat zu den Plänen des schwedischen Finanzdienstleisters eine klare Meinung: „KI sollte Mitarbeiter befähigen und nicht überflüssig machen. Unternehmen, die über drastische Einschnitte dieser Art nachdenken, sollten sich mit dem Produktivitätsparadoxon auseinandersetzen – und müssen mit erheblichem Gegenwind rechnen.“ Doch damit nicht genug: Eine aktuelle Studie des Harvard Business Review (HBR) kommt zu dem Ergebnis, dass der Einsatz von künstlicher Intelligenz zu beruflichen Zwecken nachhaltige, negative Auswirkungen auf die mentale Gesundheit der Mitarbeiter haben kann – wenn der Fokus falsch gesetzt wird: „Viele Unternehmen haben ihr wichtigstes Kapital aus den Augen verloren – die Menschen, deren Arbeit in zunehmend automatisierte Tasks aufgesplittet wird“, konstatieren die Studienautoren und fügen hinzu: „Aus einer menschenzentrierten Perspektive ist das ein besorgniserregender Trend, da ein primärer Fokus auf Technologie unerwünschte menschliche Kosten mit sich bringen kann. Etwa eine Verringerung der Arbeitszufriedenheit, der Motivation und des psychischen Wohlbefindens.“ Das Fazit der HBR-Studie scheint ein direkter Appell an Klarna und andere Unternehmen, die in eine ähnliche Kerbe schlagen: „Wenn Sie KI-Projekte erfolgreich und lebensfähig gestalten wollen, müssen Sie zuerst die Menschen fokussieren.“ Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Klarna lässt mit KI Köpfe rollen​ Klarna verfolgt mit Blick auf den internen KI-Einsatz offenbar ein recht eigenwilliges „Buy now, pay later“-Konzept.
Mats Wiklund | shutterstock.com

Laut einem Bericht der BBC will der schwedische Finanzdienstleister Klarna in den kommenden Jahren die Hälfte seiner Mitarbeiter loswerden. Ursächlich dafür seien Effizienzsteigerungen, die sich aus den KI-Investitionen des Unternehmens ergeben. Demnach habe Klarna seine Belegschaft bereits von rund 5.000 auf 3.800 Mitarbeiter reduziert. Durch den Einsatz von künstlicher Intelligenz (KI) in den Bereichen Marketing und Kundenservice soll der Headcount künftig auf 2.000 sinken, wie die BBC berichtet.

Sebastian Siemiatkowski, CEO und Mitbegründer des schwedischen Fintechs, fokussierte sich im Interview mit der BBC hingegen darauf, die positiven Seiten der Personalpläne herauszustellen: Diese ermöglichten Klarna, den verbleibenden Mitarbeitern höhere Gehälter zu bezahlen. 

KI-Beinschuss mit Ankündigung?

Überraschen sollten die Pläne von Klarna allerdings niemanden. Schließlich war der schwedische BNPL- („Buy now, pay later“) -Anbieter eines der ersten Unternehmen, das im November 2022 ein Chat-GPT-Plugin nutzte. Wer Klarnas Customer-Success-Story auf der OpenAI-Webseite einmal genau gelesen hat, konnte bereits erahnen, wo die Reise hingeht: „Klarna exploriert weiter Anwendungen für die Technologie von OpenAI – es besteht das Potenzial, das Unternehmen zu neuen Höhen zu führen“, verkündet CEO Siemiatkowski an dieser Stelle stolz.

Wie diese neuen Höhen konkret aussehen können, scheint in der Sucess Story ebenfalls bereits durch. Demnach habe ChatGPT bereits im ersten Monat seines Einsatzes zwei Drittel aller Klarna-Kundenkonversationen geführt und damit die Arbeit von 700 Vollzeit-Mitarbeitern erledigt. Dabei liege das KI-Tool in Sachen Kundenzufriedenheit mit menschlichen Agenten auf Augenhöhe, so Klarna.

Terra Higginson, Principal Research Director bei der Info-Tech Research Group, hat zu den Plänen des schwedischen Finanzdienstleisters eine klare Meinung: „KI sollte Mitarbeiter befähigen und nicht überflüssig machen. Unternehmen, die über drastische Einschnitte dieser Art nachdenken, sollten sich mit dem Produktivitätsparadoxon auseinandersetzen – und müssen mit erheblichem Gegenwind rechnen.“

Doch damit nicht genug: Eine aktuelle Studie des Harvard Business Review (HBR) kommt zu dem Ergebnis, dass der Einsatz von künstlicher Intelligenz zu beruflichen Zwecken nachhaltige, negative Auswirkungen auf die mentale Gesundheit der Mitarbeiter haben kann – wenn der Fokus falsch gesetzt wird: „Viele Unternehmen haben ihr wichtigstes Kapital aus den Augen verloren – die Menschen, deren Arbeit in zunehmend automatisierte Tasks aufgesplittet wird“, konstatieren die Studienautoren und fügen hinzu: „Aus einer menschenzentrierten Perspektive ist das ein besorgniserregender Trend, da ein primärer Fokus auf Technologie unerwünschte menschliche Kosten mit sich bringen kann. Etwa eine Verringerung der Arbeitszufriedenheit, der Motivation und des psychischen Wohlbefindens.“

Das Fazit der HBR-Studie scheint ein direkter Appell an Klarna und andere Unternehmen, die in eine ähnliche Kerbe schlagen: „Wenn Sie KI-Projekte erfolgreich und lebensfähig gestalten wollen, müssen Sie zuerst die Menschen fokussieren.“

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Klarna lässt mit KI Köpfe rollen​ Read More »

Causa Durov schürt Datenschutz-Ängste​

Causa Durov schürt Datenschutz-Ängste​

Allgemein

Nachdem gegen Telegram-Gründer und CEO Pavel Durov in Frankreich offiziell ein Ermittlungsverfahren eingeleitet wurde, versucht die Tech-Branche zu durchdringen, was das für die Encryption-Zukunft bedeutet. Muhammad Alimaki | shutterstock.com Die Unterstützer von Durov – darunter Krypto-Enthusiasten sowie ein ganzer Reigen politisch motivierter Opportunisten – sehen den Telegram-CEO in erster Linie als Opfer und die Meinungsfreiheit bedroht. Die französische Staatsanwaltschaft vertritt eine eher konträre Auffassung, wie sie bereits mit ihrer initialen Pressemitteilung (PDF) deutlich machte. Demnach soll sich der Manager unter anderem Verbrechen wie Drogenhandel, Betrug, der Verbreitung kinderpornografischer Inhalte und Geldwäsche (mit)schuldig gemacht haben. Es gibt jedoch noch eine dritte, nuanciertere Perspektive. Aus dieser ist Pavel Durov ein weiterer, wohlhabender “Tech-Bro”, der sich hinter Begriffen wie “Freiheit” versteckt, um ein Geschäftsmodell zu betreiben, das zugunsten des eigenen Profits keinerlei Grenzen kennt. Was die Vertreter dieser Perspektive weit mehr beunruhigt als das persönliche Schicksal des Telegram-CEO, ist die Frage, wohin sich die Regierungen liberaler Demokratien in Zukunft bewegen werden, wenn es darum geht, die digitale Privatsphäre ihrer Bürger einzuschränken. Ende-zu-Ende vor dem Ende? Diese Frage steht in Zusammenhang mit einer breiter angelegten und zunehmend angespannten Debatte über den Status der Ende-zu-Ende-Verschlüsselung (End-to-End Encryption; E2EE). Das durchaus umstrittene Verfahren wurde bereits vor einigen Jahren bei verschiedenen Apps wie WhatsApp oder Signal standardmäßig eingeführt. Dazu speichern diese Apps Decryption-Keys ausschließlich auf den Geräten selbst. Regierungen haben also keine Chance, diese über die Dienstanbieter zu erlangen. Wenig überraschend hält sich die Zahl der E2EE-Fans in Regierungsinstitutionen in Grenzen. In einigen Ländern, etwa den USA und Großbritannien, spielte man bereits mit dem Gedanken, das Verfahren komplett zu verbannen. Telegram nutzt ironischerweise standardmäßig keine Ende-zu-Ende-Verschlüsselung, sondern verlässt sich auf traditionelle, serverseitige Encryption. Es ist zwar möglich, auch bei Telegram E2EE zu aktivieren, allerdings ist das eher umständlich über sogenannte “Secret Chats” zu bewerkstelligen. Ansonsten ist die Plattform in Besitz der entsprechenden Decryption Keys und kann standardmäßig einsehen, was kommuniziert wird. Laut den französischen Behörden hat sich das Unternehmen allerdings geweigert, im Rahmen polizeilicher Ermittlungen zu kooperieren. Das Problem im Fall von Telegram ist also nicht die E2EE-Option, sondern die Tatsache, dass dieses Verfahren standardmäßig nicht aktiviert ist und die Verantwortlichen sich trotzdem weigern, die Behörden bei ihren Ermittlungen zu unterstützen. Unter Datenschützern schürt Durovs Verhaftung Sorgen und Ängste. Zum Beispiel bei Professor Alan Woodward, Sicherheitsexperte an der britischen Universität von Surrey: “Ich bin kein Fan von Telegram. Die Plattform wird von vielen Schurken genutzt. Besonders besorgniserregend ist aber, was die Verhaftung von Durov für andere Plattformen bedeuten könnte. Zum Beispiel Signal oder WhatsApp, die standardmäßig Ende-zu-Ende verschlüsselt sind?” Nach Einschätzung Woodwards wären die Executives dieser Plattformen ebenfalls nicht vor ähnlichen Aktionen sicher – auch wenn die Kommunikationsinhalte nicht einsehbar seien. Das könne möglicherweise so weit gehen, dass die Betreiber solcher Plattformen generell haftbar gemacht werden, wenn sie ihre E2EE-Funktionen nicht abschalten, meint der Professor. Der unabhängige Cybersecurity-Spezialist Graham Cluley ist mit Blick auf die Zukunft der Ende-zu-Ende-Verschlüsselung weniger besorgt. Aus seiner Sicht ist den Behörden im Fall Telegram schlicht die Geduld ausgegangen: “Telegram erweckt den Eindruck, dass es sich nicht um Monitoring kümmert, selbst wenn Missbrauch und kriminelle Handlungen gemeldet werden. Das ist kaum zu rechtfertigen – insbesondere, wenn die betreffenden Kommunikationsinhalte nicht verschlüsselt sind.” Der Zeitpunkt der Verhaftung des Telegram-CEO sei jedoch wahrscheinlich eher opportunistisch vonstattengegangen als geplant gewesen: “Er wäre vielleicht gut damit beraten, sich nicht mit Influencern herumzutreiben, die nicht widerstehen können, ihre Reisen auf Instagram breitzutreten”, spielt der Sicherheitsexperte auf Medienberichte an, die nahelegen, dass Durovs weibliche Begleitung den Behörden die Reiseroute per Social Media “geliefert” haben könnte. Wie die Nachrichtenagentur Reuters berichtet, hat ein französischer Richter inzwischen ein offizielles Ermittlungsverfahren gegen Durov eingeleitet. Der CEO wurde dem Bericht zufolge zwar gegen eine Kaution von rund fünf Millionen Euro auf freien Fuß gesetzt, muss jedoch zweimal wöchentlich bei der französischen Polizei vorstellig werden und darf Frankreich nicht verlassen. Das Ermittlungsverfahren könnte noch Jahre dauern – im Falle einer Anklage und Verurteilung könnten dem Telegram-CEO mehr als zehn Jahre Haft drohen. Unabhängig davon, wie die Episode um Durov ausgeht, könnte sie mit Blick auf die Zukunft dafür sorgen, dass Social-Media- beziehungsweise Messaging-Plattformbetreiber zu einer deutlich aktiveren Rolle in Sachen Moderation verpflichtet werden – auch solche, bei denen die Inhalte dank E2EE verborgen bleiben. “Das Besorgniserregende ist, dass die französischen Behörden einen Präzedenzfall schaffen. Das könnte der Anfang vom Ende für die Ende-zu-Ende-Verschlüsselung sein”, konstatiert Woodward. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Causa Durov schürt Datenschutz-Ängste​ Nachdem gegen Telegram-Gründer und CEO Pavel Durov in Frankreich offiziell ein Ermittlungsverfahren eingeleitet wurde, versucht die Tech-Branche zu durchdringen, was das für die Encryption-Zukunft bedeutet.
Muhammad Alimaki | shutterstock.com

Die Unterstützer von Durov – darunter Krypto-Enthusiasten sowie ein ganzer Reigen politisch motivierter Opportunisten – sehen den Telegram-CEO in erster Linie als Opfer und die Meinungsfreiheit bedroht. Die französische Staatsanwaltschaft vertritt eine eher konträre Auffassung, wie sie bereits mit ihrer initialen Pressemitteilung (PDF) deutlich machte. Demnach soll sich der Manager unter anderem Verbrechen wie Drogenhandel, Betrug, der Verbreitung kinderpornografischer Inhalte und Geldwäsche (mit)schuldig gemacht haben.

Es gibt jedoch noch eine dritte, nuanciertere Perspektive. Aus dieser ist Pavel Durov ein weiterer, wohlhabender “Tech-Bro”, der sich hinter Begriffen wie “Freiheit” versteckt, um ein Geschäftsmodell zu betreiben, das zugunsten des eigenen Profits keinerlei Grenzen kennt. Was die Vertreter dieser Perspektive weit mehr beunruhigt als das persönliche Schicksal des Telegram-CEO, ist die Frage, wohin sich die Regierungen liberaler Demokratien in Zukunft bewegen werden, wenn es darum geht, die digitale Privatsphäre ihrer Bürger einzuschränken.

Ende-zu-Ende vor dem Ende?

Diese Frage steht in Zusammenhang mit einer breiter angelegten und zunehmend angespannten Debatte über den Status der Ende-zu-Ende-Verschlüsselung (End-to-End Encryption; E2EE). Das durchaus umstrittene Verfahren wurde bereits vor einigen Jahren bei verschiedenen Apps wie WhatsApp oder Signal standardmäßig eingeführt. Dazu speichern diese Apps Decryption-Keys ausschließlich auf den Geräten selbst. Regierungen haben also keine Chance, diese über die Dienstanbieter zu erlangen. Wenig überraschend hält sich die Zahl der E2EE-Fans in Regierungsinstitutionen in Grenzen. In einigen Ländern, etwa den USA und Großbritannien, spielte man bereits mit dem Gedanken, das Verfahren komplett zu verbannen.

Telegram nutzt ironischerweise standardmäßig keine Ende-zu-Ende-Verschlüsselung, sondern verlässt sich auf traditionelle, serverseitige Encryption. Es ist zwar möglich, auch bei Telegram E2EE zu aktivieren, allerdings ist das eher umständlich über sogenannte “Secret Chats” zu bewerkstelligen. Ansonsten ist die Plattform in Besitz der entsprechenden Decryption Keys und kann standardmäßig einsehen, was kommuniziert wird. Laut den französischen Behörden hat sich das Unternehmen allerdings geweigert, im Rahmen polizeilicher Ermittlungen zu kooperieren. Das Problem im Fall von Telegram ist also nicht die E2EE-Option, sondern die Tatsache, dass dieses Verfahren standardmäßig nicht aktiviert ist und die Verantwortlichen sich trotzdem weigern, die Behörden bei ihren Ermittlungen zu unterstützen.

Unter Datenschützern schürt Durovs Verhaftung Sorgen und Ängste. Zum Beispiel bei Professor Alan Woodward, Sicherheitsexperte an der britischen Universität von Surrey: “Ich bin kein Fan von Telegram. Die Plattform wird von vielen Schurken genutzt. Besonders besorgniserregend ist aber, was die Verhaftung von Durov für andere Plattformen bedeuten könnte. Zum Beispiel Signal oder WhatsApp, die standardmäßig Ende-zu-Ende verschlüsselt sind?”

Nach Einschätzung Woodwards wären die Executives dieser Plattformen ebenfalls nicht vor ähnlichen Aktionen sicher – auch wenn die Kommunikationsinhalte nicht einsehbar seien. Das könne möglicherweise so weit gehen, dass die Betreiber solcher Plattformen generell haftbar gemacht werden, wenn sie ihre E2EE-Funktionen nicht abschalten, meint der Professor.

Der unabhängige Cybersecurity-Spezialist Graham Cluley ist mit Blick auf die Zukunft der Ende-zu-Ende-Verschlüsselung weniger besorgt. Aus seiner Sicht ist den Behörden im Fall Telegram schlicht die Geduld ausgegangen: “Telegram erweckt den Eindruck, dass es sich nicht um Monitoring kümmert, selbst wenn Missbrauch und kriminelle Handlungen gemeldet werden. Das ist kaum zu rechtfertigen – insbesondere, wenn die betreffenden Kommunikationsinhalte nicht verschlüsselt sind.”

Der Zeitpunkt der Verhaftung des Telegram-CEO sei jedoch wahrscheinlich eher opportunistisch vonstattengegangen als geplant gewesen: “Er wäre vielleicht gut damit beraten, sich nicht mit Influencern herumzutreiben, die nicht widerstehen können, ihre Reisen auf Instagram breitzutreten”, spielt der Sicherheitsexperte auf Medienberichte an, die nahelegen, dass Durovs weibliche Begleitung den Behörden die Reiseroute per Social Media “geliefert” haben könnte.

Wie die Nachrichtenagentur Reuters berichtet, hat ein französischer Richter inzwischen ein offizielles Ermittlungsverfahren gegen Durov eingeleitet. Der CEO wurde dem Bericht zufolge zwar gegen eine Kaution von rund fünf Millionen Euro auf freien Fuß gesetzt, muss jedoch zweimal wöchentlich bei der französischen Polizei vorstellig werden und darf Frankreich nicht verlassen. Das Ermittlungsverfahren könnte noch Jahre dauern – im Falle einer Anklage und Verurteilung könnten dem Telegram-CEO mehr als zehn Jahre Haft drohen.

Unabhängig davon, wie die Episode um Durov ausgeht, könnte sie mit Blick auf die Zukunft dafür sorgen, dass Social-Media- beziehungsweise Messaging-Plattformbetreiber zu einer deutlich aktiveren Rolle in Sachen Moderation verpflichtet werden – auch solche, bei denen die Inhalte dank E2EE verborgen bleiben. “Das Besorgniserregende ist, dass die französischen Behörden einen Präzedenzfall schaffen. Das könnte der Anfang vom Ende für die Ende-zu-Ende-Verschlüsselung sein”, konstatiert Woodward.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Causa Durov schürt Datenschutz-Ängste​ Read More »

Datenbank-How-to für App-Entwickler​

Datenbank-How-to für App-Entwickler​

Allgemein

Erfolgreiche Apps brauchen die richtige Datenbank. dotshock | shutterstock.com App-Entwickler können sich bei der Datenbankwahl auf möglicherweise Bias-behaftete Empfehlungen von Anbietern verlassen oder einfach auf eine zufällig bereits existierende Lösung zurückzugreifen. Zielführender ist es allerdings, zunächst einen Blick auf den angestrebten Zweck und die grundlegenden Anforderungen an den Datenspeicher zu werfen. Dazu sollten sich Developer die folgenden 13 Fragen stellen – und diese möglichst ehrlich beantworten. Anderenfalls riskieren sie, ihr Projekt mit einer ungeeigneten und/oder überteuerten Datenbanklösung anzugehen. Das kann sich in vielfacher Hinsicht negativ auswirken, zum Beispiel auf die App-Performance und -Programmierbarkeit.  1. Welche Datenmengen wollen Sie speichern? Wenn Sie Daten im Gigabyte-Umfang (oder weniger) speichern möchten, können Sie nahezu jede Datenbank (DB) einsetzen, um Ihre Informationen zu verarbeiten – im Regelfall auch In-Memory-DBs. Selbst wenn Sie sich eher im Terabyte-Bereich bewegen, stehen Ihnen diverse Datenbankoptionen offen. Geht es hingegen um Petabytes (oder mehr), schwindet die Optionsvielfalt – und Sie dürfen mit erheblichen Storage-Kosten rechnen (entweder für On-Premises-Lösungen oder für den Betrieb einer Cloud-Lösung). Wenn Sie sich in diesen Größenordnungen bewegen, empfiehlt sich ein Stufen-basiertes Storage-Modell, das ermöglicht, „Live“-Daten zu Gunsten der Geschwindigkeit über In-Memory-Lösungen oder lokale SSDs abzufragen. Der vollständige Datensatz liegt dabei aus wirtschaftlichen Gründen auf gewöhnlichen Festplatten. Falls Sie mit einem Datenvolumen von mehreren hundert Petabytes oder etlichen Exabytes planen, stehen Ihnen nur noch wenige, (brauchbare) Datenbankoptionen offen. Deshalb ist es umso wichtiger, Lösungen für den Exabyte-Bereich besonders gründlich zu evaluieren. Sie bringen enorme finanzielle Verpflichtungen mit sich und können nur noch schwer verändert werden, wenn die Daten einmal eingeladen sind.    Einige Unternehmen kombinieren Data-Lake- (für alle Daten) mit Data-Warehouse-Lösungen (für Teilmengen der Daten) – andere setzen auf eine Data-Lakehouse-Architektur, wie sie Databricks oder Dremio anbieten. Wieder andere verwenden Datenbanken, die aus dem ursprünglichen Google-Spanner-Whitepaper (PDF) abgeleitet wurden. Dazu zählen beispielsweise: Google Cloud Spanner (SQL und NoSQL), HBase (NoSQL), Cassandra (NoSQL), DataStax (NoSQL), ScyllaDB (NoSQL), CockroachDB (SQL) oder auch „Sharded Extensions“ von SQL-Datenbanken wie Vitess und PlanetScale. 2. Wie viele User sollen simultan bedient werden? Die Last einzuschätzen, die durch viele simultane Benutzer entsteht, wird in vielen Fällen als „Server Sizing Exercise“ betrachtet, der kurz vor der Installation der Produktionsdatenbank Rechnung getragen wird. Unglücklicherweise sind viele Datenbanken aufgrund von Skalierungsproblemen nicht dazu in der Lage, Tausende von Benutzern zu händeln, die Daten in Teraybyte- oder Petabyte-Umfang abfragen. Im Fall einer nicht-öffentlichen, internen Datenbank, die von Mitarbeitern eines Unternehmens genutzt wird, ist es wesentlich einfacher, die Zahl der parallelen Benutzer einzuschätzen. Öffentlich zugängliche DBs sollten zudem bei unerwarteten Lastspitzen über mehrere Server skalieren. Leider unterstützen nicht alle Datenbanklösungen eine horizontale Skalierung ohne (zeitaufwändiges) manuelles Sharding großer Tabellen. Datenbankindizes mit Read/Write-Zugriff können die Anzahl gleichzeitiger Abfragen in transaktionalen SQL-Datenbanken begrenzen. In einigen Fällen werden transaktionale DBs auch mit analytischen kombiniert, um dieses Problem zu umgehen (mehr dazu unter Punkt 7). 3. Wie sehen Ihre Anforderungen aus? Zu den Anforderungsbereichen gehören: Verfügbarkeit, Skalierbarkeit, Latenz, Durchsatz und Datenkonsistenz. Im Folgenden betrachten wir diese im Einzelnen. Die Verfügbarkeit ist oft ein Schlüsselkriterium für transaktionale Datenbanken – insbesondere, wenn die zugrunde liegende Applikation rund um die Uhr (stabil) laufen soll. Einige wenige Cloud-Datenbanken können eine Availability von 99,999 Prozent realisieren – sofern sie in mehreren Verfügbarkeitszonen betrieben werden. In der Vergangenheit war Skalierbarkeit – insbesondere auf horizontaler Ebene – eher eine Sache für NoSQL-DBs. Inzwischen holen SQL-Datenbanken in diesem Bereich auf. Dynamisch zu skalieren, lässt sich innerhalb einer Cloud-Umgebung deutlich einfacher bewerkstelligen und gewährleistet, den Durchsatz auf die Anzahl der parallelen Nutzer abzustimmen. Die Latenz(zeit) bezieht sich sowohl darauf, wie lange die Datenbank braucht um zu antworten, als auch auf die „End-to-End“-Antwortzeit der Applikation. Idealerweise bewegen sich die Antwortzeiten bei User-Interaktionen in einem Bereich von unter einer Sekunde. Die DB muss einfache Transaktionen also in weniger als 100 Millisekunden beantworten. Analytische Abfragen können hingegen oft mehrere Sekunden oder Minuten in Anspruch nehmen. Das lässt sich abmildern, indem komplexe Queries im Hintergrund abgearbeitet werden. Der Durchsatz wird im Fall einer OLTP-Datenbank normalerweise in Transaktionen pro Sekunde gemessen. Je höher der Throughput einer Datenbank, desto mehr User können parallel bedient werden. Die Datenkonsistenz ist bei SQL-Datenbanken in der Regel „strong“, was bedeutet, dass alle Lesevorgänge aktuelle Daten zurückgeben. Bei NoSQL-Datenbanken kann die Datenkonsistenz zwischen „eventual“ und „strong“ variieren. Ist sie weniger ausgeprägt, kann das in geringeren Latenzzeiten resultieren. Dann besteht allerdings auch das Risiko, dass veraltete Daten zurückgegeben werden.  4. Wie stabil sind Ihre Datenbankschemata? SQL-Datenbanken sind eine gute Wahl, wenn es eher unwahrscheinlich ist, dass sich Ihre Datenbankschemata im Laufe der Zeit verändern. Und Sie Wert darauf legen, dass die Mehrzahl der Felder konsistente Typen aufweist.  Anderenfalls fahren Sie möglicherweise mit einer Lösung aus dem NoSQL-Bereich besser. Diese Datenbanken unterstützen in manchen Fällen gar keine Schemata. Wie immer bestätigen auch hier Ausnahmen die Regel: So ermöglicht etwa die Datenbanklösung Rockset SQL-Abfragen, ohne den importierten Daten ein festes Schema oder konsistente Typen aufzuerlegen. 5. Wie sind die User geografisch verteilt? Wenn Ihre Datenbankbenutzer über die ganze Welt verteilt sind, kann bereits das Netzwerk zu Verzögerungen im Bereich von mehreren Hundert Millisekunden führen. Es sei denn, Sie stellen zusätzliche Server in den entsprechenden Regionen bereit. Dieser Aspekt erschwert es (zusätzlich), eine Balance zwischen Konsistenz und Latenz zu finden. Einige Datenbanken bieten Support für Read-Write-Server, andere offerieren verteilte Read-Only-Server, bei der alle Schreibvorgänge über einen Master Server laufen. Das Gros der DBs, die global verteilte Knoten und ausgeprägte Konsistenz unterstützen, nutzt Consensus Groups, um Schreibvorgänge zu beschleunigen, ohne dabei die Konsistenz maßgeblich zu beeinträchtigen. Dabei kommt im Regelfall der Paxos– (PDF) oder Raft-Algorithmus zur Anwendung.  Verteilte NoSQL-Datenbanken, deren Konsistenz „eventual“ ist, verwenden in der Regel eine Peer-to-Peer-Replikation ohne Konsensverfahren. Das kann zu Konflikten führen, wenn zwei Replikate gleichzeitig Schreibzugriff auf denselben Datensatz erhalten, wobei diese in der Regel heuristisch gelöst werden. 6. Wie sieht Ihr Data Shape aus? SQL-Datenbanken speichern traditionellerweise stark typisierte Daten in Tabellen mit Zeilen und Spalten. Dabei: stützen sie sich auf definierte Beziehungen zwischen Tabellen, verwenden Indizes, um ausgewählte Abfragen zu beschleunigen, und nutzen JOINS, um mehrere Tabellen gleichzeitig abzufragen. Im NoSQL-Bereich speichern Dokumentdatenbanken in der Regel schwach typisierte JSON-Daten, die Arrays und verschachtelte Dokumente enthalten können. Graph-Datenbanken speichern entweder Vertexes, Edges, Triples oder Quads. Weitere NoSQL-Datenbankkategorien sind Key-Value- und Columnar-Stores. Manchmal werden die Daten in einer Form generiert, die auch für Analysezwecke geeignet ist. Wenn nicht, müssen sie transformiert werden. Dabei ist wichtig zu wissen, dass manche Datenbanken auf anderen aufbauen. Key-Value-Stores können beispielsweise nahezu jeder Art von Datenbank zugrunde liegen. 7. OLTP, OLAP – oder beides? Um diese Frage beantworten zu können, sollten Sie wissen, ob Ihre Applikation eine Datenbank für Echtzeit-Transaktionen (OLTP), für Datenanalysen (OLAP) oder für beides benötigt. Dabei gilt es zu berücksichtigen:  Schnelle Transaktionen bedeuten eine hohe Schreibgeschwindigkeit und minimale Indizes. Datenanalysen benötigen eine hohe Lesegeschwindigkeit und eine Vielzahl von Indizes. Hybride Systeme versuchen durch verschiedene Tricks beide Anforderungen zu erfüllen – beispielsweise mit primären Transaktionsspeichern, die per Datenreplikation einen sekundären Analysespeicher speisen. 8. Welche Read/Write-Ratio erwarten Sie? Einige Datenbanken performen besser bei Lesevorgängen und Queries, andere bei Write-Prozessen. Sie tun deshalb gut daran, Ihre Auswahlkriterien in Sachen Datenbank um das Read/Write-Verhältnis zu erweitern, dass Sie für Ihre Anwendung erwarten. Geht es um die Wahl des optimalen Index Type, kommt es darauf an, ob Ihre Applikation besonders lese- (im Regelfall ein B-Tree) oder schreibintensiv (oft ein LSM-Tree) ist.  9. Geografische oder Full-Text-Queries? Wenn Sie geografische oder geometrische Daten effizient abfragen wollen, um Objekte innerhalb eines definierten Bereichs zu finden, benötigen Sie andere Indizes als bei „typischen“, relationalen Daten. Die bevorzugte Wahl für Geospatial-Daten ist im Regelfall ein R-Tree. Es stehen jedoch mehrere andere Datenstrukturen für räumliche Indizes zur Verfügung. Unterstützt werden sie von ein paar Dutzend Datenbanken – in den allermeisten Fällen spielt dabei der Standard des Open Geospatial Consortium eine Rolle. Auch eine effiziente Volltextsuche in Textfeldern erfordert „andere“ Indizes. In der Regel wird dazu ein invertierter Listenindex mit tokenisierten Wörtern erstellt und durchsucht, um einen kostenintensiven Tabellenscan zu vermeiden. 10. Welche Programmiersprachen bevorzugen Sie? Zwar unterstützen die allermeisten Datenbanken diverse Programmiersprachen über APIs. Dennoch kann die von Ihnen bevorzugte Sprache die Wahl der Datenbank beeinflussen. JSON ist zum Beispiel das natürliche Datenformat für JavaScript. Für eine JavaScript-Anwendung sollten Sie demnach möglichst eine Datenbank wählen, die den JSON-Datentyp unterstützt. Wenn Sie eine stark typisierte Programmiersprache nutzen, sollten Sie entsprechend auch eine stark typisierte Datenbank wählen. 11. Gibt es budgetäre Beschränkungen Das Preisspektrum bei Datenbanken reicht von kostenlos bis extrem teuer und deckt diverse Versionen und verschiedene Serviceausprägungen ab.  Falls Ihre Wahl auf eine kostenlose Open-Source-Datenbank fällt, sollten Sie sich bewusst sein, dass Sie möglicherweise auf (Anbieter-)Support verzichten müssen. Sie sollten das hierfür nötige Knowhow also selbst mitbringen. Auf der anderen Seite kann es sich mit Blick auf die Produktivität als förderlich erweisen, sich auf die Anwendung zu fokussieren und Datenbank-Management- sowie -Wartungsaufgaben einem (Cloud-)Anbieter zu überlassen. 12. Gibt es rechtliche Einschränkungen? Geht es um Datenschutz und Datensicherheit, kommen diverse Gesetze zur Anwendung. In Europa hat in erster Linie die Datenschutzgrundverordnung (DSGVO/GDPR) weitreichende Auswirkungen, in den USA beispielsweise HIPAA, GLBA oder CCPA.   Diverse Datenbanklösungen versprechen, Daten so zu verarbeiten, dass einige oder auch alle dieser Regelwerke eingehalten werden (wenn bestimmte Best Practices zur Anwendung kommen). Andere DBs weisen Sicherheitslücken auf, die sie für die Arbeit mit personenbezogenen Daten unbrauchbar machen. 13. SQL oder NoSQL? Um diese Frage zu beantworten, werfen wir einen Blick auf zwei (extreme) Beispielfälle: Sie benötigen sehr niedrige Latenzzeiten und einen hohen Durchsatz, die kurzfristige Konsistenz ist Ihnen egal, solange die Daten nach ein paar Minuten konsistent aussehen. Ihre Daten werden durch Key-Value-Datensätze angemessen repräsentiert und Sie legen Wert auf umfassende, horizontale Skalierbarkeit. In diesem Fall steht außer Zweifel, dass Sie auf eine NoSQL-Key-Value-Datenbank setzen sollten. Sie tracken Finanztransaktionen und müssen die ACID-Eigenschaften für alle Transaktionen gewährleisten, selbst wenn diese mehrere Tabellen in geografisch verteilten Regionen betreffen. Alle anderen Überlegungen, wie niedrige Latenzzeiten und hoher Durchsatz, sind schön und gut, aber mit Blick auf zuverlässige, genaue Transaktionen zweitrangig. In diesem Fall sollten Sie auf eine – vorzugsweise verteilte – SQL-Datenbank zurückgreifen. Natürlich gibt es diverse Fälle, die zwischen diesen Extrembeispielen liegen – zu viele, um sie in diesem Rahmen aufzuführen. Welche Datenbank für Ihre Fälle die Richtige ist, ergibt sich im Wesentlichen aus Ihren Antworten auf die vorangegangenen zwölf Fragen. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld. 

Datenbank-How-to für App-Entwickler​ Erfolgreiche Apps brauchen die richtige Datenbank.
dotshock | shutterstock.com

App-Entwickler können sich bei der Datenbankwahl auf möglicherweise Bias-behaftete Empfehlungen von Anbietern verlassen oder einfach auf eine zufällig bereits existierende Lösung zurückzugreifen. Zielführender ist es allerdings, zunächst einen Blick auf den angestrebten Zweck und die grundlegenden Anforderungen an den Datenspeicher zu werfen.

Dazu sollten sich Developer die folgenden 13 Fragen stellen – und diese möglichst ehrlich beantworten. Anderenfalls riskieren sie, ihr Projekt mit einer ungeeigneten und/oder überteuerten Datenbanklösung anzugehen. Das kann sich in vielfacher Hinsicht negativ auswirken, zum Beispiel auf die App-Performance und -Programmierbarkeit. 

1. Welche Datenmengen wollen Sie speichern?

Wenn Sie Daten im Gigabyte-Umfang (oder weniger) speichern möchten, können Sie nahezu jede Datenbank (DB) einsetzen, um Ihre Informationen zu verarbeiten – im Regelfall auch In-Memory-DBs. Selbst wenn Sie sich eher im Terabyte-Bereich bewegen, stehen Ihnen diverse Datenbankoptionen offen.

Geht es hingegen um Petabytes (oder mehr), schwindet die Optionsvielfalt – und Sie dürfen mit erheblichen Storage-Kosten rechnen (entweder für On-Premises-Lösungen oder für den Betrieb einer Cloud-Lösung). Wenn Sie sich in diesen Größenordnungen bewegen, empfiehlt sich ein Stufen-basiertes Storage-Modell, das ermöglicht, „Live“-Daten zu Gunsten der Geschwindigkeit über In-Memory-Lösungen oder lokale SSDs abzufragen. Der vollständige Datensatz liegt dabei aus wirtschaftlichen Gründen auf gewöhnlichen Festplatten.

Falls Sie mit einem Datenvolumen von mehreren hundert Petabytes oder etlichen Exabytes planen, stehen Ihnen nur noch wenige, (brauchbare) Datenbankoptionen offen. Deshalb ist es umso wichtiger, Lösungen für den Exabyte-Bereich besonders gründlich zu evaluieren. Sie bringen enorme finanzielle Verpflichtungen mit sich und können nur noch schwer verändert werden, wenn die Daten einmal eingeladen sind.   

Einige Unternehmen kombinieren Data-Lake- (für alle Daten) mit Data-Warehouse-Lösungen (für Teilmengen der Daten) – andere setzen auf eine Data-Lakehouse-Architektur, wie sie Databricks oder Dremio anbieten. Wieder andere verwenden Datenbanken, die aus dem ursprünglichen Google-Spanner-Whitepaper (PDF) abgeleitet wurden. Dazu zählen beispielsweise:

Google Cloud Spanner (SQL und NoSQL),

HBase (NoSQL),

Cassandra (NoSQL),

DataStax (NoSQL),

ScyllaDB (NoSQL),

CockroachDB (SQL) oder auch

„Sharded Extensions“ von SQL-Datenbanken wie Vitess und PlanetScale.

2. Wie viele User sollen simultan bedient werden?

Die Last einzuschätzen, die durch viele simultane Benutzer entsteht, wird in vielen Fällen als „Server Sizing Exercise“ betrachtet, der kurz vor der Installation der Produktionsdatenbank Rechnung getragen wird. Unglücklicherweise sind viele Datenbanken aufgrund von Skalierungsproblemen nicht dazu in der Lage, Tausende von Benutzern zu händeln, die Daten in Teraybyte- oder Petabyte-Umfang abfragen.

Im Fall einer nicht-öffentlichen, internen Datenbank, die von Mitarbeitern eines Unternehmens genutzt wird, ist es wesentlich einfacher, die Zahl der parallelen Benutzer einzuschätzen. Öffentlich zugängliche DBs sollten zudem bei unerwarteten Lastspitzen über mehrere Server skalieren. Leider unterstützen nicht alle Datenbanklösungen eine horizontale Skalierung ohne (zeitaufwändiges) manuelles Sharding großer Tabellen.

Datenbankindizes mit Read/Write-Zugriff können die Anzahl gleichzeitiger Abfragen in transaktionalen SQL-Datenbanken begrenzen. In einigen Fällen werden transaktionale DBs auch mit analytischen kombiniert, um dieses Problem zu umgehen (mehr dazu unter Punkt 7).

3. Wie sehen Ihre Anforderungen aus?

Zu den Anforderungsbereichen gehören:

Verfügbarkeit,

Skalierbarkeit,

Latenz,

Durchsatz und

Datenkonsistenz.

Im Folgenden betrachten wir diese im Einzelnen.

Die Verfügbarkeit ist oft ein Schlüsselkriterium für transaktionale Datenbanken – insbesondere, wenn die zugrunde liegende Applikation rund um die Uhr (stabil) laufen soll. Einige wenige Cloud-Datenbanken können eine Availability von 99,999 Prozent realisieren – sofern sie in mehreren Verfügbarkeitszonen betrieben werden.

In der Vergangenheit war Skalierbarkeit – insbesondere auf horizontaler Ebene – eher eine Sache für NoSQL-DBs. Inzwischen holen SQL-Datenbanken in diesem Bereich auf. Dynamisch zu skalieren, lässt sich innerhalb einer Cloud-Umgebung deutlich einfacher bewerkstelligen und gewährleistet, den Durchsatz auf die Anzahl der parallelen Nutzer abzustimmen.

Die Latenz(zeit) bezieht sich sowohl darauf, wie lange die Datenbank braucht um zu antworten, als auch auf die „End-to-End“-Antwortzeit der Applikation. Idealerweise bewegen sich die Antwortzeiten bei User-Interaktionen in einem Bereich von unter einer Sekunde. Die DB muss einfache Transaktionen also in weniger als 100 Millisekunden beantworten. Analytische Abfragen können hingegen oft mehrere Sekunden oder Minuten in Anspruch nehmen. Das lässt sich abmildern, indem komplexe Queries im Hintergrund abgearbeitet werden.

Der Durchsatz wird im Fall einer OLTP-Datenbank normalerweise in Transaktionen pro Sekunde gemessen. Je höher der Throughput einer Datenbank, desto mehr User können parallel bedient werden.

Die Datenkonsistenz ist bei SQL-Datenbanken in der Regel „strong“, was bedeutet, dass alle Lesevorgänge aktuelle Daten zurückgeben. Bei NoSQL-Datenbanken kann die Datenkonsistenz zwischen „eventual“ und „strong“ variieren. Ist sie weniger ausgeprägt, kann das in geringeren Latenzzeiten resultieren. Dann besteht allerdings auch das Risiko, dass veraltete Daten zurückgegeben werden. 

4. Wie stabil sind Ihre Datenbankschemata?

SQL-Datenbanken sind eine gute Wahl, wenn es eher unwahrscheinlich ist, dass sich Ihre Datenbankschemata im Laufe der Zeit verändern. Und Sie Wert darauf legen, dass die Mehrzahl der Felder konsistente Typen aufweist. 

Anderenfalls fahren Sie möglicherweise mit einer Lösung aus dem NoSQL-Bereich besser. Diese Datenbanken unterstützen in manchen Fällen gar keine Schemata. Wie immer bestätigen auch hier Ausnahmen die Regel: So ermöglicht etwa die Datenbanklösung Rockset SQL-Abfragen, ohne den importierten Daten ein festes Schema oder konsistente Typen aufzuerlegen.

5. Wie sind die User geografisch verteilt?

Wenn Ihre Datenbankbenutzer über die ganze Welt verteilt sind, kann bereits das Netzwerk zu Verzögerungen im Bereich von mehreren Hundert Millisekunden führen. Es sei denn, Sie stellen zusätzliche Server in den entsprechenden Regionen bereit. Dieser Aspekt erschwert es (zusätzlich), eine Balance zwischen Konsistenz und Latenz zu finden. Einige Datenbanken bieten Support für Read-Write-Server, andere offerieren verteilte Read-Only-Server, bei der alle Schreibvorgänge über einen Master Server laufen.

Das Gros der DBs, die global verteilte Knoten und ausgeprägte Konsistenz unterstützen, nutzt Consensus Groups, um Schreibvorgänge zu beschleunigen, ohne dabei die Konsistenz maßgeblich zu beeinträchtigen. Dabei kommt im Regelfall der Paxos– (PDF) oder Raft-Algorithmus zur Anwendung. 

Verteilte NoSQL-Datenbanken, deren Konsistenz „eventual“ ist, verwenden in der Regel eine Peer-to-Peer-Replikation ohne Konsensverfahren. Das kann zu Konflikten führen, wenn zwei Replikate gleichzeitig Schreibzugriff auf denselben Datensatz erhalten, wobei diese in der Regel heuristisch gelöst werden.

6. Wie sieht Ihr Data Shape aus?

SQL-Datenbanken speichern traditionellerweise stark typisierte Daten in Tabellen mit Zeilen und Spalten. Dabei:

stützen sie sich auf definierte Beziehungen zwischen Tabellen,

verwenden Indizes, um ausgewählte Abfragen zu beschleunigen, und

nutzen JOINS, um mehrere Tabellen gleichzeitig abzufragen.

Im NoSQL-Bereich speichern Dokumentdatenbanken in der Regel schwach typisierte JSON-Daten, die Arrays und verschachtelte Dokumente enthalten können. Graph-Datenbanken speichern entweder Vertexes, Edges, Triples oder Quads. Weitere NoSQL-Datenbankkategorien sind Key-Value- und Columnar-Stores.

Manchmal werden die Daten in einer Form generiert, die auch für Analysezwecke geeignet ist. Wenn nicht, müssen sie transformiert werden. Dabei ist wichtig zu wissen, dass manche Datenbanken auf anderen aufbauen. Key-Value-Stores können beispielsweise nahezu jeder Art von Datenbank zugrunde liegen.

7. OLTP, OLAP – oder beides?

Um diese Frage beantworten zu können, sollten Sie wissen, ob Ihre Applikation eine Datenbank für Echtzeit-Transaktionen (OLTP), für Datenanalysen (OLAP) oder für beides benötigt. Dabei gilt es zu berücksichtigen: 

Schnelle Transaktionen bedeuten eine hohe Schreibgeschwindigkeit und minimale Indizes.

Datenanalysen benötigen eine hohe Lesegeschwindigkeit und eine Vielzahl von Indizes.

Hybride Systeme versuchen durch verschiedene Tricks beide Anforderungen zu erfüllen – beispielsweise mit primären Transaktionsspeichern, die per Datenreplikation einen sekundären Analysespeicher speisen.

8. Welche Read/Write-Ratio erwarten Sie?

Einige Datenbanken performen besser bei Lesevorgängen und Queries, andere bei Write-Prozessen. Sie tun deshalb gut daran, Ihre Auswahlkriterien in Sachen Datenbank um das Read/Write-Verhältnis zu erweitern, dass Sie für Ihre Anwendung erwarten.

Geht es um die Wahl des optimalen Index Type, kommt es darauf an, ob Ihre Applikation besonders lese- (im Regelfall ein B-Tree) oder schreibintensiv (oft ein LSM-Tree) ist. 

9. Geografische oder Full-Text-Queries?

Wenn Sie geografische oder geometrische Daten effizient abfragen wollen, um Objekte innerhalb eines definierten Bereichs zu finden, benötigen Sie andere Indizes als bei „typischen“, relationalen Daten. Die bevorzugte Wahl für Geospatial-Daten ist im Regelfall ein R-Tree. Es stehen jedoch mehrere andere Datenstrukturen für räumliche Indizes zur Verfügung. Unterstützt werden sie von ein paar Dutzend Datenbanken – in den allermeisten Fällen spielt dabei der Standard des Open Geospatial Consortium eine Rolle.

Auch eine effiziente Volltextsuche in Textfeldern erfordert „andere“ Indizes. In der Regel wird dazu ein invertierter Listenindex mit tokenisierten Wörtern erstellt und durchsucht, um einen kostenintensiven Tabellenscan zu vermeiden.

10. Welche Programmiersprachen bevorzugen Sie?

Zwar unterstützen die allermeisten Datenbanken diverse Programmiersprachen über APIs. Dennoch kann die von Ihnen bevorzugte Sprache die Wahl der Datenbank beeinflussen.

JSON ist zum Beispiel das natürliche Datenformat für JavaScript. Für eine JavaScript-Anwendung sollten Sie demnach möglichst eine Datenbank wählen, die den JSON-Datentyp unterstützt. Wenn Sie eine stark typisierte Programmiersprache nutzen, sollten Sie entsprechend auch eine stark typisierte Datenbank wählen.

11. Gibt es budgetäre Beschränkungen

Das Preisspektrum bei Datenbanken reicht von kostenlos bis extrem teuer und deckt diverse Versionen und verschiedene Serviceausprägungen ab. 

Falls Ihre Wahl auf eine kostenlose Open-Source-Datenbank fällt, sollten Sie sich bewusst sein, dass Sie möglicherweise auf (Anbieter-)Support verzichten müssen. Sie sollten das hierfür nötige Knowhow also selbst mitbringen.

Auf der anderen Seite kann es sich mit Blick auf die Produktivität als förderlich erweisen, sich auf die Anwendung zu fokussieren und Datenbank-Management- sowie -Wartungsaufgaben einem (Cloud-)Anbieter zu überlassen.

12. Gibt es rechtliche Einschränkungen?

Geht es um Datenschutz und Datensicherheit, kommen diverse Gesetze zur Anwendung. In Europa hat in erster Linie die Datenschutzgrundverordnung (DSGVO/GDPR) weitreichende Auswirkungen, in den USA beispielsweise HIPAA, GLBA oder CCPA.  

Diverse Datenbanklösungen versprechen, Daten so zu verarbeiten, dass einige oder auch alle dieser Regelwerke eingehalten werden (wenn bestimmte Best Practices zur Anwendung kommen). Andere DBs weisen Sicherheitslücken auf, die sie für die Arbeit mit personenbezogenen Daten unbrauchbar machen.

13. SQL oder NoSQL?

Um diese Frage zu beantworten, werfen wir einen Blick auf zwei (extreme) Beispielfälle:

Sie benötigen sehr niedrige Latenzzeiten und einen hohen Durchsatz, die kurzfristige Konsistenz ist Ihnen egal, solange die Daten nach ein paar Minuten konsistent aussehen. Ihre Daten werden durch Key-Value-Datensätze angemessen repräsentiert und Sie legen Wert auf umfassende, horizontale Skalierbarkeit. In diesem Fall steht außer Zweifel, dass Sie auf eine NoSQL-Key-Value-Datenbank setzen sollten.

Sie tracken Finanztransaktionen und müssen die ACID-Eigenschaften für alle Transaktionen gewährleisten, selbst wenn diese mehrere Tabellen in geografisch verteilten Regionen betreffen. Alle anderen Überlegungen, wie niedrige Latenzzeiten und hoher Durchsatz, sind schön und gut, aber mit Blick auf zuverlässige, genaue Transaktionen zweitrangig. In diesem Fall sollten Sie auf eine – vorzugsweise verteilte – SQL-Datenbank zurückgreifen.

Natürlich gibt es diverse Fälle, die zwischen diesen Extrembeispielen liegen – zu viele, um sie in diesem Rahmen aufzuführen. Welche Datenbank für Ihre Fälle die Richtige ist, ergibt sich im Wesentlichen aus Ihren Antworten auf die vorangegangenen zwölf Fragen.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.

Datenbank-How-to für App-Entwickler​ Read More »

Wenn der GenAI-Blues zuschlägt​

Wenn der GenAI-Blues zuschlägt​

Allgemein

GenAI-Begeisterungsstürme, anyone? sophiecat | shutterstock.com Auf den ersten Blick wirken ChatGPT, Gemini und Konsorten hilfreich und liefern plausible Antworten. Auf den zweiten Blick wird klar, dass den KI-Tools der Tiefgang fehlt. Und zwar nicht zu knapp. Nehmen wir das Beispiel Linux und Open Source Software. Je tiefer man in das Thema abtaucht, desto dürftiger und zweifelhafter werden die Informationen, die die generative KI dazu ausspuckt. Wenn man sich wenigstens darauf verlassen könnte, dass die Antworten zwar medioker aber grundsätzlich richtig sind, wäre das schon ein Fortschritt. Die Realität sieht leider ganz anders aus – und nicht nur aus meiner persönlichen Perspektive. Wie „Business Insider“ vor einiger Zeit berichtete, empfinden viele GPT-4-Nutzer die Software zunehmend als „fauler“ und „dümmer“. Ein ähnliches Sentiment macht sich auch auf Reddit breit: Comment byu/pigeon57434 from discussion inOpenAI Inzwischen geht es (aus meiner Sicht) selbst mit dem bislang besten GenAI-Chatbot – Perplexity – bergab. Das Tool konnte mich zuvor insbesondere mit seinen Quellenangaben begeistern. Allerdings sind die seit einiger Zeit deutlich weniger zuverlässig. Daran scheitern GenAI-Tools Für diese Entwicklung sind aus meiner (Nicht-KI-Entwickler-)Sicht zwei Aspekte ursächlich. 1. Die Qualität der Inhalte Die Inhalte, die dazu verwendet werden, Large Language Models (LLMs) zu trainieren, waren qualitativ noch nie besonders hervorragend. Das liegt auch daran, dass viele Inhalte von „Qualitäts“-Websites wie Twitter, Reddit oder auch 4Chan einfließen. Welche Resultate das zutage fördern kann, hat zum Beispiel das „MIT Technology Review“ für einen Beitrag mit Blick auf Googles (in den USA bereits verfügbare) KI-Suchvorschläge herausgefunden. „Zu den Vorschlägen der KI gehörte, Pizza mit Klebstoff zu bestreichen oder einen kleinen Stein pro Tag zu essen. Außerdem dichtete das System Ex-US-Präsident Andrew Johnson mehrere Universitätsabschlüsse zwischen 1947 und 2012 an, obwohl er bereits 1875 verstorben ist“, schreibt MIT-Journalistin Rhiannon Williams. Solche KI-Outputs kann man eventuell mit Humor nehmen – solange man nicht auf korrekte Antworten angewiesen ist. Das dürfte allerdings auf jeden KI-Nutzer zutreffen, der die Technologie geschäftlich respektive beruflich nutzen möchte. Und weil der Datenhunger der GenAI-Giganten immer weiter wächst, wird das Problem auch nicht kleiner. Im Gegenteil: Eine Studie des Research-Unternehmens Epoch AI kommt zum Ergebnis, dass schon im Jahr 2026 keine hochwertigen Daten für LLMs mehr zur Verfügung stehen werden. 2. Die selbstverstärkende Qualitätsminderung Was uns zum zweiten Problem führt. KI-generierte Inhalte ersetzen manuell produzierte zusehends. Das führt nicht nur dazu, dass schlechte Informationen die guten verdrängen. In einem aktuellen Beitrag veranschaulichen Wissenschaftler, dass es zum „KI-Modellkollaps“ kommt, wenn KI-Modelle wahllos auf Daten trainiert werden, die ebenfalls KI-generiert sind. Die Wahrscheinlichkeit, dass Unternehmen künftig davon absehen werden, GenAI-Tools einzusetzen, ist leider verschwindend gering. Die Qualität der Tools wird also sehr wahrscheinlich noch weiter absinken. Es könnte meiner Meinung nach sogar sein, dass wir in Sachen Qualität bereits den KI-Klimax erreicht haben. Ein beängstigender Gedanke. Verstehen Sie mich bitte richtig: Es gibt diverse Einsatzgebiete für Generative-AI-Tools, die großen Nutzwert versprechen – beispielsweise im Healthcare-Bereich oder auch im Gaming-Sektor. Unternehmen sind allerdings vor allem darauf erpicht, Wissensarbeiter durch KI zu ersetzen. Das wird nicht funktionieren. Mit einer Ausnahme vielleicht: dem CEO. Die meisten Mitarbeiter würden sicher keinen Unterschied bemerken, das Unternehmen aber massiv Geld einsparen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Wenn der GenAI-Blues zuschlägt​ GenAI-Begeisterungsstürme, anyone?
sophiecat | shutterstock.com

Auf den ersten Blick wirken ChatGPT, Gemini und Konsorten hilfreich und liefern plausible Antworten. Auf den zweiten Blick wird klar, dass den KI-Tools der Tiefgang fehlt. Und zwar nicht zu knapp. Nehmen wir das Beispiel Linux und Open Source Software. Je tiefer man in das Thema abtaucht, desto dürftiger und zweifelhafter werden die Informationen, die die generative KI dazu ausspuckt.

Wenn man sich wenigstens darauf verlassen könnte, dass die Antworten zwar medioker aber grundsätzlich richtig sind, wäre das schon ein Fortschritt. Die Realität sieht leider ganz anders aus – und nicht nur aus meiner persönlichen Perspektive. Wie „Business Insider“ vor einiger Zeit berichtete, empfinden viele GPT-4-Nutzer die Software zunehmend als „fauler“ und „dümmer“. Ein ähnliches Sentiment macht sich auch auf Reddit breit:

Comment byu/pigeon57434 from discussion inOpenAI

Inzwischen geht es (aus meiner Sicht) selbst mit dem bislang besten GenAI-Chatbot – Perplexity – bergab. Das Tool konnte mich zuvor insbesondere mit seinen Quellenangaben begeistern. Allerdings sind die seit einiger Zeit deutlich weniger zuverlässig.

Daran scheitern GenAI-Tools

Für diese Entwicklung sind aus meiner (Nicht-KI-Entwickler-)Sicht zwei Aspekte ursächlich.

1. Die Qualität der Inhalte

Die Inhalte, die dazu verwendet werden, Large Language Models (LLMs) zu trainieren, waren qualitativ noch nie besonders hervorragend. Das liegt auch daran, dass viele Inhalte von „Qualitäts“-Websites wie Twitter, Reddit oder auch 4Chan einfließen.

Welche Resultate das zutage fördern kann, hat zum Beispiel das „MIT Technology Review“ für einen Beitrag mit Blick auf Googles (in den USA bereits verfügbare) KI-Suchvorschläge herausgefunden. „Zu den Vorschlägen der KI gehörte, Pizza mit Klebstoff zu bestreichen oder einen kleinen Stein pro Tag zu essen. Außerdem dichtete das System Ex-US-Präsident Andrew Johnson mehrere Universitätsabschlüsse zwischen 1947 und 2012 an, obwohl er bereits 1875 verstorben ist“, schreibt MIT-Journalistin Rhiannon Williams.

Solche KI-Outputs kann man eventuell mit Humor nehmen – solange man nicht auf korrekte Antworten angewiesen ist. Das dürfte allerdings auf jeden KI-Nutzer zutreffen, der die Technologie geschäftlich respektive beruflich nutzen möchte. Und weil der Datenhunger der GenAI-Giganten immer weiter wächst, wird das Problem auch nicht kleiner. Im Gegenteil: Eine Studie des Research-Unternehmens Epoch AI kommt zum Ergebnis, dass schon im Jahr 2026 keine hochwertigen Daten für LLMs mehr zur Verfügung stehen werden.

2. Die selbstverstärkende Qualitätsminderung

Was uns zum zweiten Problem führt. KI-generierte Inhalte ersetzen manuell produzierte zusehends. Das führt nicht nur dazu, dass schlechte Informationen die guten verdrängen. In einem aktuellen Beitrag veranschaulichen Wissenschaftler, dass es zum „KI-Modellkollaps“ kommt, wenn KI-Modelle wahllos auf Daten trainiert werden, die ebenfalls KI-generiert sind.

Die Wahrscheinlichkeit, dass Unternehmen künftig davon absehen werden, GenAI-Tools einzusetzen, ist leider verschwindend gering. Die Qualität der Tools wird also sehr wahrscheinlich noch weiter absinken. Es könnte meiner Meinung nach sogar sein, dass wir in Sachen Qualität bereits den KI-Klimax erreicht haben. Ein beängstigender Gedanke.

Verstehen Sie mich bitte richtig: Es gibt diverse Einsatzgebiete für Generative-AI-Tools, die großen Nutzwert versprechen – beispielsweise im Healthcare-Bereich oder auch im Gaming-Sektor. Unternehmen sind allerdings vor allem darauf erpicht, Wissensarbeiter durch KI zu ersetzen. Das wird nicht funktionieren. Mit einer Ausnahme vielleicht: dem CEO. Die meisten Mitarbeiter würden sicher keinen Unterschied bemerken, das Unternehmen aber massiv Geld einsparen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Wenn der GenAI-Blues zuschlägt​ Read More »

Cisco kauft KI-Security-Player Robust Intelligence​

Cisco kauft KI-Security-Player Robust Intelligence​

Allgemein

Cisco will das Security-Startup Robust Intelligence kaufen. Das Unternehmen aus San Francisco hat eine Plattform entwickelt, um KI-Modelle und -Daten während ihres gesamten Lebenszyklus zu schützen. Zum Kaufpreis machten beide Unternehmen keine Angaben. Cisco hatte aber bereits zuvor über Portfolio Cisco Investments in die Firma investiert. KI-Modelle absichern Laut Tom Gillis, Senior Vice President und General Manager der Security Business Group von Cisco, ergänzt die Expertise von Robust Intelligence in den Bereichen Sicherheit und Governance von KI-Modellen Ciscos eigene Produkte.  So will man unter anderem die KI-Security-Plattform von Robust Intelligence in die Cisco Security Cloud integrieren. Die Integration der Technologien ermöglicht Gillis zufolge einen besseren Einblick in den KI-Datenverkehr und soll Anwender dabei unterstützen, KI-Anwendungen zu entwickeln, abzusichern und bereitzustellen. Zudem werde auch der Schutz vor Bedrohungen für KI-Anwendungen und -Modelle verbessert, so der Cisco-Manager. „Dies beinhaltet die Abschwächung von Risiken wie Prompt Injection, Data Poisoning, Jailbreaking und unbeabsichtigten Modellergebnissen“, geht Gillis ins Detail. Alle Erkennungen und Tests würden sich dabei an Branchen- und Regulierungsstandards wie OWASP und MITRE ATLAS orientieren. Einfachere Konfiguration Zu den Vorteilen der Robust-Intelligence-Plattform gehören laut Cisco: eine vereinfachte Konfiguration, Angriffsvorhersage, adaptive Richtliniendurchsetzung und Benutzerfreundlichkeit. In operativer Hinsicht soll Robust Intelligence seine automatisierte Modellbewertung und proaktiven KI-Risikominderungsfähigkeiten in die Cisco Security Cloud einbringen. Auf diese Weise will man den Anwendern einen einheitlichen Ansatz ermöglichen, um ihr Netzwerk, ihre KI-Anwendungen und ihre Benutzer an einem Ort schützen zu können. 

Cisco kauft KI-Security-Player Robust Intelligence​ Cisco will das Security-Startup Robust Intelligence kaufen. Das Unternehmen aus San Francisco hat eine Plattform entwickelt, um KI-Modelle und -Daten während ihres gesamten Lebenszyklus zu schützen.

Zum Kaufpreis machten beide Unternehmen keine Angaben. Cisco hatte aber bereits zuvor über Portfolio Cisco Investments in die Firma investiert.

KI-Modelle absichern

Laut Tom Gillis, Senior Vice President und General Manager der Security Business Group von Cisco, ergänzt die Expertise von Robust Intelligence in den Bereichen Sicherheit und Governance von KI-Modellen Ciscos eigene Produkte. 

So will man unter anderem die KI-Security-Plattform von Robust Intelligence in die Cisco Security Cloud integrieren.

Die Integration der Technologien ermöglicht Gillis zufolge einen besseren Einblick in den KI-Datenverkehr und soll Anwender dabei unterstützen, KI-Anwendungen zu entwickeln, abzusichern und bereitzustellen. Zudem werde auch der Schutz vor Bedrohungen für KI-Anwendungen und -Modelle verbessert, so der Cisco-Manager.

„Dies beinhaltet die Abschwächung von Risiken wie Prompt Injection, Data Poisoning, Jailbreaking und unbeabsichtigten Modellergebnissen“, geht Gillis ins Detail. Alle Erkennungen und Tests würden sich dabei an Branchen- und Regulierungsstandards wie OWASP und MITRE ATLAS orientieren.

Einfachere Konfiguration

Zu den Vorteilen der Robust-Intelligence-Plattform gehören laut Cisco:

eine vereinfachte Konfiguration,

Angriffsvorhersage,

adaptive Richtliniendurchsetzung und

Benutzerfreundlichkeit.

In operativer Hinsicht soll Robust Intelligence seine automatisierte Modellbewertung und proaktiven KI-Risikominderungsfähigkeiten in die Cisco Security Cloud einbringen. Auf diese Weise will man den Anwendern einen einheitlichen Ansatz ermöglichen, um ihr Netzwerk, ihre KI-Anwendungen und ihre Benutzer an einem Ort schützen zu können.

Cisco kauft KI-Security-Player Robust Intelligence​ Read More »

IBM Z-Mainframes: Neuer Telum-II-Chip als KI-Turbo​

IBM Z-Mainframes: Neuer Telum-II-Chip als KI-Turbo​

Allgemein

Auf der Konferenz “Hot Chips 2024“ hat IBM Details zur Architektur des neuen Telum-II-Prozessors sowie dem Spyre Accelerator bekanntgegeben. Mit den Chips will das Unternehmen die Verarbeitungskapazität der Z-Mainframe-Systeme der nächsten Generation erheblich skalieren. Auf diese Weise will man den Einsatz von traditionellen KI-Modellen und solchen auf Large-Language-Model-Basis beschleunigen. Schneller und mehr Speicher Im Gegensatz zur Vorgängergeneration Telum I arbeitet der Prozessor mit einer höheren Frequenz (acht Kerne mit 5,5 Ghz). Zudem besitzt er eine höhere Speicherkapazität, einen um 40 Prozent größeren Cache und einen integrierten KI-Accelerator sowie eine kohärent verbundene Datenverarbeitungseinheit (DPU). Eingebauter KI-Beschleuninger Der integrierte KI-Accelerator ermöglicht laut IBM KI-Inferenz mit niedriger Latenz und hohem Durchsatz während der Transaktion. Dies helfe etwa dabei, die Betrugserkennung bei Finanztransaktionen zu verbessern. Dabei sei die Rechenkapazität pro Chip im Vergleich zur vorherigen Generation um das Vierfache gesteigert worden.  Laut Christian Jacobi, IBM Fellow and CTO von IBM Systems Development, entspricht das einer Leistung von jeweils 24 TOPS. Verbesserte DPU Zudem erhält der Prozessor eine neue Datenverarbeitungseinheit (DPU). Die “IO Acceleration Unit” soll komplexe I/O-Protokolle für Netzwerkverbindungen und Speicher auf dem Mainframe beschleunigen. Dazu warte sie mit einer um 50 Prozent erhöhten I/O-Dichte auf. Diese Weiterentwicklung verbessere die Skalierbarkeit von IBM Z, wodurch sich der Mainframe besser für die Handhabung großer KI-Workloads und datenintensive Anwendungen eigne, so der Konzern. AI-Accelerator Spyre Ist zusätzliche KI-Rechenleistung gefragt, so kann der Telum II um den IBM Spyre Accelerator ergänzt werden. Gemeinsam bilden die Chips eine skalierbare Architektur zur Unterstützung von Ensemble–Methoden der KI-Modellierung – die Praxis, mehrerer KI-Modelle für maschinelles Lernen oder Deep Learning mit Encode-LLMs zu kombinieren.   Der Chip wird als Zusatzoption geliefert und verfügt über bis zu 1 TB Speicher. Jeder Accelerator-Chip wird über einen 75-Watt-PCIe-Adapter angeschlossen. Er ist so aufgebaut, dass er über die acht Karten eines regulären I/O-Einschubs zusammenarbeitet, was KI-Modell-Workloads auf dem gesamten Mainframe unterstützt. Typische Anwendungsfälle für das Chip-Duo sieht IBM in generativen KI-Anwendungsfällen wie: Betrugserkennung bei Versicherungsansprüchen; Verbesserte Geldwäschebekämpfung (AML); KI-Assistenten; Beschleunigung des Lebenszyklus von Anwendungen; Transfer von Wissen und Expertise oder Code-Erläuterungen und –Umwandlungen. Wie andere PCIe-Karten ist auch der Spyre Accelerator skalierbar und kann an die Kunden-Bedürfnisse angepasst werden. Skalierbarkeit Künftige IBM Z-Systeme können in der Maximalkonfiguration mit bis zu 32 Telum-II-Prozessoren und zwölf IO-Käfigen ausgestattet werden. Jeder Käfig kann bis zu 16 PCIe-Steckplätze aufnehmen, so dass das System bis zu 192 PCIe-Karten unterstützt. Der Telum II wird voraussichtlich 2025 für IBM-Z- und LinuxONE-Kunden verfügbar sein. Der IBM Spyre Accelerator, der sich derzeit in der technischen Preview befindet, dürfte ebenfalls 2025 erhältlich sein. 

IBM Z-Mainframes: Neuer Telum-II-Chip als KI-Turbo​ Auf der Konferenz “Hot Chips 2024“ hat IBM Details zur Architektur des neuen Telum-II-Prozessors sowie dem Spyre Accelerator bekanntgegeben. Mit den Chips will das Unternehmen die Verarbeitungskapazität der Z-Mainframe-Systeme der nächsten Generation erheblich skalieren. Auf diese Weise will man den Einsatz von traditionellen KI-Modellen und solchen auf Large-Language-Model-Basis beschleunigen.

Schneller und mehr Speicher

Im Gegensatz zur Vorgängergeneration Telum I arbeitet der Prozessor mit einer höheren Frequenz (acht Kerne mit 5,5 Ghz). Zudem besitzt er eine höhere Speicherkapazität, einen um 40 Prozent größeren Cache und einen integrierten KI-Accelerator sowie eine kohärent verbundene Datenverarbeitungseinheit (DPU).

Eingebauter KI-Beschleuninger

Der integrierte KI-Accelerator ermöglicht laut IBM KI-Inferenz mit niedriger Latenz und hohem Durchsatz während der Transaktion. Dies helfe etwa dabei, die Betrugserkennung bei Finanztransaktionen zu verbessern. Dabei sei die Rechenkapazität pro Chip im Vergleich zur vorherigen Generation um das Vierfache gesteigert worden.  Laut Christian Jacobi, IBM Fellow and CTO von IBM Systems Development, entspricht das einer Leistung von jeweils 24 TOPS.

Verbesserte DPU

Zudem erhält der Prozessor eine neue Datenverarbeitungseinheit (DPU). Die “IO Acceleration Unit” soll komplexe I/O-Protokolle für Netzwerkverbindungen und Speicher auf dem Mainframe beschleunigen. Dazu warte sie mit einer um 50 Prozent erhöhten I/O-Dichte auf. Diese Weiterentwicklung verbessere die Skalierbarkeit von IBM Z, wodurch sich der Mainframe besser für die Handhabung großer KI-Workloads und datenintensive Anwendungen eigne, so der Konzern.

AI-Accelerator Spyre

Ist zusätzliche KI-Rechenleistung gefragt, so kann der Telum II um den IBM Spyre Accelerator ergänzt werden. Gemeinsam bilden die Chips eine skalierbare Architektur zur Unterstützung von Ensemble–Methoden der KI-Modellierung – die Praxis, mehrerer KI-Modelle für maschinelles Lernen oder Deep Learning mit Encode-LLMs zu kombinieren.  

Der Chip wird als Zusatzoption geliefert und verfügt über bis zu 1 TB Speicher. Jeder Accelerator-Chip wird über einen 75-Watt-PCIe-Adapter angeschlossen. Er ist so aufgebaut, dass er über die acht Karten eines regulären I/O-Einschubs zusammenarbeitet, was KI-Modell-Workloads auf dem gesamten Mainframe unterstützt.

Typische Anwendungsfälle für das Chip-Duo sieht IBM in generativen KI-Anwendungsfällen wie:

Betrugserkennung bei Versicherungsansprüchen;

Verbesserte Geldwäschebekämpfung (AML);

KI-Assistenten;

Beschleunigung des Lebenszyklus von Anwendungen;

Transfer von Wissen und Expertise oder

Code-Erläuterungen und –Umwandlungen.

Wie andere PCIe-Karten ist auch der Spyre Accelerator skalierbar und kann an die Kunden-Bedürfnisse angepasst werden.

Skalierbarkeit

Künftige IBM Z-Systeme können in der Maximalkonfiguration mit bis zu 32 Telum-II-Prozessoren und zwölf IO-Käfigen ausgestattet werden. Jeder Käfig kann bis zu 16 PCIe-Steckplätze aufnehmen, so dass das System bis zu 192 PCIe-Karten unterstützt.

Der Telum II wird voraussichtlich 2025 für IBM-Z- und LinuxONE-Kunden verfügbar sein. Der IBM Spyre Accelerator, der sich derzeit in der technischen Preview befindet, dürfte ebenfalls 2025 erhältlich sein.

IBM Z-Mainframes: Neuer Telum-II-Chip als KI-Turbo​ Read More »

Sony baut eigene Blockchain​

Sony baut eigene Blockchain​

Allgemein

Mit Soneium will die Sony Group eine eigene Layer-2-Blockchain aufbauen, die Web3-Applikationen massentauglich machen soll. VAlex | shutterstock.com Die Sony Group hat angekündigt, ein eigenes Layer-2-Netzwerk auf Basis der Ethereum-Blockchain auf die Beine zu stellen. Die öffentliche Sony-Blockchain heißt Soneium und ist als offene, vielseitige Allzwecklösung gedacht, die eine “entwicklerfreundliche Umgebung auf Grundlage skalierbarer Technologie” zur Verfügung stellen soll. Das Projekt läuft unter der Ägide des Sony Block Solutions Labs (SBSL), einem Joint Venture, das der japanische Elektronikriese mit dem in Singapur ansässigen Blockchain-Spezialisten Startale auf die Beine gestellt hat. Das Ziel: Web3-Initiativen voranzutreiben und in den Mainstream zu überführen. Introducing #Soneium by #Sony Block Solutions Labs building a public Ethereum layer 2 next-generation blockchain ecosystem designed to invoke emotion and empower creativity.Soneium aims to connect Web3 with everyday internet services, making blockchain technology more… pic.twitter.com/I7zAIbB5Td— Soneium 💿 (@soneium) August 23, 2024 Mit Soneium zum Durchbruch? “Die Entwicklung einer umfassenden Web3-Lösung ist unserer Meinung nach ein sehr bedeutender Schritt für die Sony Group”, wird SBSL-Vorstand Jun Watanabe im Rahmen der Pressemitteilung zum Projekt zitiert. Der Manager verspricht für die Zukunft neue Web3-Anwendungsfälle, die “Customer Value” liefern und die Blockchain-Technologie ein Stück Mainstream-tauglicher machen sollen: “Der Launch einer Ethereum-Layer-2-Lösung in Kooperation mit Startale ist ein Wendepunkt für die Web3-Industrie. Die Sony Group verfügt über starke Distributionskanäle in verschiedenen Branchen und eine umfassende User-Basis.”   Die Soneium-Blockchain wird zunächst mit dem Launch eines Testnetzes für Developer starten. In diesem Rahmen will Sony auch Entwicklungs-Tools und SDKs zur Verfügung stellen, um sowohl mit seinen internen als auch externen Entwicklern Applikationen zu kreieren. Die sollen in Zukunft neben bereits existierenden (kompatiblen) Web3-Apps auf dem Layer-2-Netzwerk laufen – von Games über NFT-Marktplätze bis hin zu diversen, anderen Services. Dabei möchte der Konzern nach eigener Aussage neue Use Cases schaffen, die „bei Menschen Interesse wecken, die nie zuvor Web3-Services genutzt haben“. Wirklich konkret wird Sony in seiner Ankündigung zu Soneium jedoch nicht – lediglich an einer Stelle spezifiziert der Konzern, was er (unter anderem) mit seiner Blockchain im Sinn hat: „Insbesondere werden wir im Bereich des Urheberrechts nach neuen Wegen und Mechanismen suchen, um Inhalte zu schützen und die Künstler an den Einnahmen zu beteiligen.“  Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Sony baut eigene Blockchain​ Mit Soneium will die Sony Group eine eigene Layer-2-Blockchain aufbauen, die Web3-Applikationen massentauglich machen soll.
VAlex | shutterstock.com

Die Sony Group hat angekündigt, ein eigenes Layer-2-Netzwerk auf Basis der Ethereum-Blockchain auf die Beine zu stellen. Die öffentliche Sony-Blockchain heißt Soneium und ist als offene, vielseitige Allzwecklösung gedacht, die eine “entwicklerfreundliche Umgebung auf Grundlage skalierbarer Technologie” zur Verfügung stellen soll.

Das Projekt läuft unter der Ägide des Sony Block Solutions Labs (SBSL), einem Joint Venture, das der japanische Elektronikriese mit dem in Singapur ansässigen Blockchain-Spezialisten Startale auf die Beine gestellt hat. Das Ziel: Web3-Initiativen voranzutreiben und in den Mainstream zu überführen.

Introducing #Soneium by #Sony Block Solutions Labs building a public Ethereum layer 2 next-generation blockchain ecosystem designed to invoke emotion and empower creativity.Soneium aims to connect Web3 with everyday internet services, making blockchain technology more… pic.twitter.com/I7zAIbB5Td— Soneium 💿 (@soneium) August 23, 2024

Mit Soneium zum Durchbruch?

“Die Entwicklung einer umfassenden Web3-Lösung ist unserer Meinung nach ein sehr bedeutender Schritt für die Sony Group”, wird SBSL-Vorstand Jun Watanabe im Rahmen der Pressemitteilung zum Projekt zitiert. Der Manager verspricht für die Zukunft neue Web3-Anwendungsfälle, die “Customer Value” liefern und die Blockchain-Technologie ein Stück Mainstream-tauglicher machen sollen: “Der Launch einer Ethereum-Layer-2-Lösung in Kooperation mit Startale ist ein Wendepunkt für die Web3-Industrie. Die Sony Group verfügt über starke Distributionskanäle in verschiedenen Branchen und eine umfassende User-Basis.”  

Die Soneium-Blockchain wird zunächst mit dem Launch eines Testnetzes für Developer starten. In diesem Rahmen will Sony auch Entwicklungs-Tools und SDKs zur Verfügung stellen, um sowohl mit seinen internen als auch externen Entwicklern Applikationen zu kreieren. Die sollen in Zukunft neben bereits existierenden (kompatiblen) Web3-Apps auf dem Layer-2-Netzwerk laufen – von Games über NFT-Marktplätze bis hin zu diversen, anderen Services. Dabei möchte der Konzern nach eigener Aussage neue Use Cases schaffen, die „bei Menschen Interesse wecken, die nie zuvor Web3-Services genutzt haben“.

Wirklich konkret wird Sony in seiner Ankündigung zu Soneium jedoch nicht – lediglich an einer Stelle spezifiziert der Konzern, was er (unter anderem) mit seiner Blockchain im Sinn hat: „Insbesondere werden wir im Bereich des Urheberrechts nach neuen Wegen und Mechanismen suchen, um Inhalte zu schützen und die Künstler an den Einnahmen zu beteiligen.“ 

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Sony baut eigene Blockchain​ Read More »

COMPUTERWOCHE startet mit neuem Web-Auftritt durch​

COMPUTERWOCHE startet mit neuem Web-Auftritt durch​

Allgemein

Dafür haben wir nicht nur unsere User Experience modernisiert, sondern unter der Haube auch ein neues Content Management System (CMS) eingeführt, dass uns als Redaktion das richtige Werkzeug an die Hand gibt, Sie noch besser und umfassender mit allen für Sie relevanten Informationen zu versorgen. Mit dem neuen, weltweit einheitlichen CMS schaffen wir darüber hinaus die Voraussetzung, die globale Zusammenarbeit mit den anderen Redaktionen im Foundry-Kosmos weiter zu intensivieren. Die Marke COMPUTERWORLD erreicht weltweit 12 Millionen IT-Manager in 47 Ländern. Über den Globus verteilt arbeitet unser News-Team, das laufend alle aktuellen Entwicklungen und Ereignisse aufgreift und für unsere bekannten Marken bearbeitet. Dazu zählen neben der COMPUTERWOCHE/COMPUTERWORLD die CIO, CSO, InfoWorld, NetworkWorld wie auch die B2C-Marken PCWelt/PCWorld und Macworld. Die gesammelte Kompetenz all dieser Redaktionen fließt gebündelt im neuen CMS zusammen und kommt damit letztendlich in allererster Linie Ihnen, liebe Leserinnen und Leser, zugute. Jetzt darf ich Sie einladen, unseren neuen Web-Auftritt zu erkunden und auszuprobieren. Stöbern Sie durch die Rubriken, verschaffen Sie sich schnell einen Überblick, was draußen in der weltweiten IT-Branche passiert, und lesen Sie spannende Hintergrundberichte und Analysen zu neuen Technologien und Produkten. Ich hoffe, Ihnen gefällt das neue Look and Feel der COMPUTERWOCHE, und ich würde mich sehr freuen, wenn Sie gemeinsam mit uns in das nächste aufregende Kapitel der IT-Berichterstattung starten – bleiben Sie uns gewogen, auch in den nächsten 50 Jahren COMPUTERWOCHE. Schicken Sie mir gerne Ihr Feedback, wie Ihnen unser neuer Online-Auftritt gefällt: martin.bayer@foundryco.com Ich wünsche Ihnen viel Spaß und vor allem gute Information mit der neuen COMPUTERWOCHE. Ihr Martin BayerEditor in Chief B2B Foundry 

COMPUTERWOCHE startet mit neuem Web-Auftritt durch​ Dafür haben wir nicht nur unsere User Experience modernisiert, sondern unter der Haube auch ein neues Content Management System (CMS) eingeführt, dass uns als Redaktion das richtige Werkzeug an die Hand gibt, Sie noch besser und umfassender mit allen für Sie relevanten Informationen zu versorgen. Mit dem neuen, weltweit einheitlichen CMS schaffen wir darüber hinaus die Voraussetzung, die globale Zusammenarbeit mit den anderen Redaktionen im Foundry-Kosmos weiter zu intensivieren.

Die Marke COMPUTERWORLD erreicht weltweit 12 Millionen IT-Manager in 47 Ländern. Über den Globus verteilt arbeitet unser News-Team, das laufend alle aktuellen Entwicklungen und Ereignisse aufgreift und für unsere bekannten Marken bearbeitet. Dazu zählen neben der COMPUTERWOCHE/COMPUTERWORLD die CIO, CSO, InfoWorld, NetworkWorld wie auch die B2C-Marken PCWelt/PCWorld und Macworld. Die gesammelte Kompetenz all dieser Redaktionen fließt gebündelt im neuen CMS zusammen und kommt damit letztendlich in allererster Linie Ihnen, liebe Leserinnen und Leser, zugute.

Jetzt darf ich Sie einladen, unseren neuen Web-Auftritt zu erkunden und auszuprobieren. Stöbern Sie durch die Rubriken, verschaffen Sie sich schnell einen Überblick, was draußen in der weltweiten IT-Branche passiert, und lesen Sie spannende Hintergrundberichte und Analysen zu neuen Technologien und Produkten. Ich hoffe, Ihnen gefällt das neue Look and Feel der COMPUTERWOCHE, und ich würde mich sehr freuen, wenn Sie gemeinsam mit uns in das nächste aufregende Kapitel der IT-Berichterstattung starten – bleiben Sie uns gewogen, auch in den nächsten 50 Jahren COMPUTERWOCHE.

Schicken Sie mir gerne Ihr Feedback, wie Ihnen unser neuer Online-Auftritt gefällt: martin.bayer@foundryco.com

Ich wünsche Ihnen viel Spaß und vor allem gute Information mit der neuen COMPUTERWOCHE. Ihr Martin BayerEditor in Chief B2B Foundry

COMPUTERWOCHE startet mit neuem Web-Auftritt durch​ Read More »

Vodafone: Infoservice bei Störungen einrichten​

Vodafone: Infoservice bei Störungen einrichten​

Allgemein

>Bei Vodafone anmelden Bei Vodafone anmelden Thomas Rieske Lösung: Um möglichst frühzeitig über etwaige Störungen unterrichtet zu werden, können Sie bei Vodafone den kostenlosen Infoservice buchen. Dazu öffnen Sie die Seite des Service-Portals, geben Ihren Benutzernamen (1) samt Passwort (2) ein und klicken auf den Login-Button (3). Falls Sie noch nicht für MeinVodafone registriert sind, können Sie dies auf der Seite nachholen. Vertrag und Produkt auswählen Thomas Rieske Nachdem Sie sich eingeloggt haben, öffnen Sie den Bereich mit Ihrem Vertrag. Wenn er aufgeklappt ist, finden Sie in dem Abschnitt verschiedene Optionen. Dann klicken Sie unterhalb von Deine Vodafone-Produkte auf das jeweilige Produkt, zum Beispiel Kabel Internet & Festnetz. Zum Infoservice navigieren Thomas Rieske Anschließend müssen Sie wahrscheinlich erst horizontal scrollen, bis Sie den Button Infoservice bei Störungen sehen. Klicken Sie nun auf diesen Button. Infoservice-Einstellungen Thomas Rieske Auf der folgenden Seite aktivieren Sie die Checkbox Ich möchte benachrichtigt werden, wenn es eine Störung gibt (1). Danach legen Sie fest, ob Sie entsprechend Ihren hinterlegten Kontaktdaten per E-Mail oder SMS benachrichtigt werden möchten (2). Mit einem Klick auf die Schaltfläche Speichern (3) schließen Sie den Vorgang ab. Bestätigung Thomas Rieske Im letzten Dialog bestätigt Vodafone, dass der Infoservice aktiviert ist und Sie bei Störungen an Ihrem Anschluss informiert werden. Produkte: Der Trick funktioniert auf der Vodafone-Webseite. 

Vodafone: Infoservice bei Störungen einrichten​ >Bei Vodafone anmelden

Bei Vodafone anmelden

Thomas Rieske

Lösung: Um möglichst frühzeitig über etwaige Störungen unterrichtet zu werden, können Sie bei Vodafone den kostenlosen Infoservice buchen. Dazu öffnen Sie die Seite des Service-Portals, geben Ihren Benutzernamen (1) samt Passwort (2) ein und klicken auf den Login-Button (3). Falls Sie noch nicht für MeinVodafone registriert sind, können Sie dies auf der Seite nachholen.

Vertrag und Produkt auswählen

Thomas Rieske

Nachdem Sie sich eingeloggt haben, öffnen Sie den Bereich mit Ihrem Vertrag. Wenn er aufgeklappt ist, finden Sie in dem Abschnitt verschiedene Optionen. Dann klicken Sie unterhalb von Deine Vodafone-Produkte auf das jeweilige Produkt, zum Beispiel Kabel Internet & Festnetz.

Zum Infoservice navigieren

Thomas Rieske

Anschließend müssen Sie wahrscheinlich erst horizontal scrollen, bis Sie den Button Infoservice bei Störungen sehen. Klicken Sie nun auf diesen Button.

Infoservice-Einstellungen

Thomas Rieske

Auf der folgenden Seite aktivieren Sie die Checkbox Ich möchte benachrichtigt werden, wenn es eine Störung gibt (1). Danach legen Sie fest, ob Sie entsprechend Ihren hinterlegten Kontaktdaten per E-Mail oder SMS benachrichtigt werden möchten (2). Mit einem Klick auf die Schaltfläche Speichern (3) schließen Sie den Vorgang ab.

Bestätigung

Thomas Rieske

Im letzten Dialog bestätigt Vodafone, dass der Infoservice aktiviert ist und Sie bei Störungen an Ihrem Anschluss informiert werden.

Produkte: Der Trick funktioniert auf der Vodafone-Webseite.

Vodafone: Infoservice bei Störungen einrichten​ Read More »

Digitale Dokumentenprozesse: Weniger Papier – mehr Effizienz​

Digitale Dokumentenprozesse: Weniger Papier – mehr Effizienz​

Allgemein

Um Arbeitszeit und andere Ressourcen einzusparen, hat die digitale Transformation verschiedene Lösungen hervorgebracht. Eine der wichtigsten ist die Umstellung von papierbasierten Prozessen auf digitale Workflows. Folgerichtig arbeiten heute drei von vier deutschen Unternehmen papierreduziert. Und für 89 Prozent hat papiersparendes Arbeiten einen hohen Stellenwert. Zu diesem Ergebnis kommt eine lesenswerte Studie von Statista im Auftrag von Adobe. Sie zeigt aber auch, dass es noch viel zu tun gibt, denn die Hürden bei der Digitalisierung der Zettelwirtschaft sind komplex. Vom Papierberg zum digitalen Workflow Es klingt absurd: Wir digitalisieren Geschäftsprozesse und automatisieren den Arbeitsalltag, verbrauchen und bedrucken aber immer noch durchschnittlich 211,6 kg Papier pro Kopf. Dabei kann die Umstellung auf papierlose Arbeitsabläufe nicht nur Zeit und Geld sparen, sondern auch die Mitarbeiterzufriedenheit erhöhen und für mehr Kundenorientierung sorgen. Hinzu kommt die Zunahme hybrider Arbeitsmodelle: Die Integration von Arbeit außerhalb des Büros erfordert eine Modernisierung der digitalen Infrastruktur weg vom Papier. Darüber hinaus können Unternehmen ihren ökologischen Fußabdruck verringern und einen positiven Beitrag zum Umweltschutz leisten. Das spricht für papierarme Abläufe: Unternehmen sparen Papier, Druckkosten und Lagerplatz. Adobe Die Studie belegt das enorme Potenzial: 94 Prozent der Unternehmen in Deutschland, die papierreduziert arbeiten, berichten von hohen bis sehr hohen Effizienzsteigerungen. Die größten Einsparpotenziale sehen die Marktforscher bei den Betriebskosten (63 Prozent), Lagerflächen (43 Prozent) und CO2-Emissionen (40 Prozent). Wer ohnehin wenig Platz zur Verfügung hat, freut sich, wenn er dank digitaler Prozesse keine Regale mehr mit Aktenordnern füllen muss. Weniger Papier, mehr Zukunft Weitere Vorteile papierreduzierter Arbeitsabläufe sind der ortsunabhängige Zugriff auf Dokumente in der Cloud (46 Prozent) sowie Verbesserungen bei Sicherheit und Datenschutz (42 Prozent). Sensible Informationen sind in digitaler Form oft besser geschützt als auf Papier, da man die Daten sichern und verschlüsseln und den Zugriff kontrollieren kann. Nichts kann mehr verloren gehen oder versehentlich ganz gelöscht werden. Die Zahlen aus der Studie verdeutlichen, wie zentral papierlose Prozesse für die digitale Entwicklung sind. Unternehmen, die weiterhin am Papier festhalten, schmälern ihre eigenen Erfolgschancen und verringern ihre Wettbewerbsfähigkeit. Was papierarme Prozesse bremst Sich digital auszurichten und auf papierloses Arbeiten umzustellen, ist für jedes Unternehmen sinnvoll – unabhängig von Branche, Größe oder Standort. Gut: Die Umstellung auf papierlose Prozesse ist weniger kompliziert als oft angenommen. Die Macht der Gewohnheit ist die größte Herausforderung beim Übergang zum papierarmen Unternehmen. Mitarbeiter*innen und Teams ändern ihre Arbeitsabläufe nur ungern. Oft fällt es ihnen zunächst schwer, Gewohntes zugunsten moderner Prozesse aufzugeben – das sagen 46 Prozent der Studienteilnehmer*innen. Hinzu kommen Herausforderungen bei der sicheren Verwaltung und Organisation digitaler Dokumente (33 Prozent). Mitunter fehlt es auch an technischem Know-how, wie genau sich Unternehmen flexibel an moderne Geschäftsanforderungen anpassen können (32 Prozent). Gewohnheiten sind die zentrale Herausforderung auf dem Weg zu papierlosen Geschäftsprozessen. Adobe Implementierungskosten im Blick Das papierreduzierte Büro ist zunächst mit Initialkosten für digitale Technologien verbunden. Diese können gut eingeplant werden. Die Integration in bestehende Systeme reduziert den Aufwand und vereinfacht die Handhabung. Die Umstellung amortisiert sich durch eine deutliche Effizienzsteigerung aller Arbeitsabläufe. Sie führt zu erheblichen Kosteneinsparungen und trägt zur positiven Entwicklung des Unternehmens auf dem Weg in eine digitale und nachhaltigere Zukunft bei. Unternehmen stehen zahlreiche Werkzeuge zur Verfügung, um auf digitale Workflows umzustellen. Eine führende Komplettlösung für produktive Dokumentenprozesse bietet Adobe mit Adobe Acrobat Pro. Die Plattform setzt mit dem bewährten PDF-Format den Standard für Dokumentenaustausch, Teamarbeit und Archivierung. Smarte Lösung für Dokumente Acrobat Pro zeigt, wie einfach der Umgang mit digitalen Dokumenten sein kann. Mit einem einzigen Allround-Programm können Sie Dokumente erstellen, unterzeichnen und elektronische Signaturen einholen. Bearbeiten Sie PDF-Dateien und stimmen Sie sich mit anderen ab – egal, wo Sie sind. Abos sind bereits ab 15,46 Euro pro Monat verfügbar. Und Acrobat Pro läuft auf Ihren Endgeräten vom Desktop über das Smartphone und Tablet bis hin zum Browser. Damit ist es ein maßgebliches Werkzeug, um den Übergang zum papierlosen Büro nahtlos und effizient zu gestalten. Mit nur wenigen Klicks können Sie Text zu einer PDF-Datei hinzufügen, Bilder austauschen und Formulare erstellen. Über den PDF-Standard arbeitet Acrobat Pro mit führenden Office- und Unternehmensanwendungen zusammen. Das macht die Software zum Dreh- und Angelpunkt papierloser Arbeitsabläufe. Effizienz und Umweltbewusstsein vereint: Acrobat Pro ist Ihr zuverlässiger Partner für die digitale Dokumentenverwaltung. Adobe Acrobat Pro jetzt ausprobieren 

Digitale Dokumentenprozesse: Weniger Papier – mehr Effizienz​ Um Arbeitszeit und andere Ressourcen einzusparen, hat die digitale Transformation verschiedene Lösungen hervorgebracht. Eine der wichtigsten ist die Umstellung von papierbasierten Prozessen auf digitale Workflows. Folgerichtig arbeiten heute drei von vier deutschen Unternehmen papierreduziert. Und für 89 Prozent hat papiersparendes Arbeiten einen hohen Stellenwert. Zu diesem Ergebnis kommt eine lesenswerte Studie von Statista im Auftrag von Adobe. Sie zeigt aber auch, dass es noch viel zu tun gibt, denn die Hürden bei der Digitalisierung der Zettelwirtschaft sind komplex.

Vom Papierberg zum digitalen Workflow

Es klingt absurd: Wir digitalisieren Geschäftsprozesse und automatisieren den Arbeitsalltag, verbrauchen und bedrucken aber immer noch durchschnittlich 211,6 kg Papier pro Kopf. Dabei kann die Umstellung auf papierlose Arbeitsabläufe nicht nur Zeit und Geld sparen, sondern auch die Mitarbeiterzufriedenheit erhöhen und für mehr Kundenorientierung sorgen. Hinzu kommt die Zunahme hybrider Arbeitsmodelle: Die Integration von Arbeit außerhalb des Büros erfordert eine Modernisierung der digitalen Infrastruktur weg vom Papier. Darüber hinaus können Unternehmen ihren ökologischen Fußabdruck verringern und einen positiven Beitrag zum Umweltschutz leisten.

Das spricht für papierarme Abläufe: Unternehmen sparen Papier, Druckkosten und Lagerplatz.
Adobe

Die Studie belegt das enorme Potenzial: 94 Prozent der Unternehmen in Deutschland, die papierreduziert arbeiten, berichten von hohen bis sehr hohen Effizienzsteigerungen. Die größten Einsparpotenziale sehen die Marktforscher bei den Betriebskosten (63 Prozent), Lagerflächen (43 Prozent) und CO2-Emissionen (40 Prozent). Wer ohnehin wenig Platz zur Verfügung hat, freut sich, wenn er dank digitaler Prozesse keine Regale mehr mit Aktenordnern füllen muss.

Weniger Papier, mehr Zukunft

Weitere Vorteile papierreduzierter Arbeitsabläufe sind der ortsunabhängige Zugriff auf Dokumente in der Cloud (46 Prozent) sowie Verbesserungen bei Sicherheit und Datenschutz (42 Prozent). Sensible Informationen sind in digitaler Form oft besser geschützt als auf Papier, da man die Daten sichern und verschlüsseln und den Zugriff kontrollieren kann. Nichts kann mehr verloren gehen oder versehentlich ganz gelöscht werden.

Die Zahlen aus der Studie verdeutlichen, wie zentral papierlose Prozesse für die digitale Entwicklung sind. Unternehmen, die weiterhin am Papier festhalten, schmälern ihre eigenen Erfolgschancen und verringern ihre Wettbewerbsfähigkeit.

Was papierarme Prozesse bremst

Sich digital auszurichten und auf papierloses Arbeiten umzustellen, ist für jedes Unternehmen sinnvoll – unabhängig von Branche, Größe oder Standort. Gut: Die Umstellung auf papierlose Prozesse ist weniger kompliziert als oft angenommen. Die Macht der Gewohnheit ist die größte Herausforderung beim Übergang zum papierarmen Unternehmen. Mitarbeiter*innen und Teams ändern ihre Arbeitsabläufe nur ungern. Oft fällt es ihnen zunächst schwer, Gewohntes zugunsten moderner Prozesse aufzugeben – das sagen 46 Prozent der Studienteilnehmer*innen. Hinzu kommen Herausforderungen bei der sicheren Verwaltung und Organisation digitaler Dokumente (33 Prozent). Mitunter fehlt es auch an technischem Know-how, wie genau sich Unternehmen flexibel an moderne Geschäftsanforderungen anpassen können (32 Prozent).

Gewohnheiten sind die zentrale Herausforderung auf dem Weg zu papierlosen Geschäftsprozessen.
Adobe

Implementierungskosten im Blick

Das papierreduzierte Büro ist zunächst mit Initialkosten für digitale Technologien verbunden. Diese können gut eingeplant werden. Die Integration in bestehende Systeme reduziert den Aufwand und vereinfacht die Handhabung. Die Umstellung amortisiert sich durch eine deutliche Effizienzsteigerung aller Arbeitsabläufe. Sie führt zu erheblichen Kosteneinsparungen und trägt zur positiven Entwicklung des Unternehmens auf dem Weg in eine digitale und nachhaltigere Zukunft bei.

Unternehmen stehen zahlreiche Werkzeuge zur Verfügung, um auf digitale Workflows umzustellen. Eine führende Komplettlösung für produktive Dokumentenprozesse bietet Adobe mit Adobe Acrobat Pro. Die Plattform setzt mit dem bewährten PDF-Format den Standard für Dokumentenaustausch, Teamarbeit und Archivierung.

Smarte Lösung für Dokumente

Acrobat Pro zeigt, wie einfach der Umgang mit digitalen Dokumenten sein kann. Mit einem einzigen Allround-Programm können Sie Dokumente erstellen, unterzeichnen und elektronische Signaturen einholen. Bearbeiten Sie PDF-Dateien und stimmen Sie sich mit anderen ab – egal, wo Sie sind. Abos sind bereits ab 15,46 Euro pro Monat verfügbar. Und Acrobat Pro läuft auf Ihren Endgeräten vom Desktop über das Smartphone und Tablet bis hin zum Browser. Damit ist es ein maßgebliches Werkzeug, um den Übergang zum papierlosen Büro nahtlos und effizient zu gestalten.

Mit nur wenigen Klicks können Sie Text zu einer PDF-Datei hinzufügen, Bilder austauschen und Formulare erstellen. Über den PDF-Standard arbeitet Acrobat Pro mit führenden Office- und Unternehmensanwendungen zusammen. Das macht die Software zum Dreh- und Angelpunkt papierloser Arbeitsabläufe.

Effizienz und Umweltbewusstsein vereint: Acrobat Pro ist Ihr zuverlässiger Partner für die digitale Dokumentenverwaltung.

Adobe Acrobat Pro jetzt ausprobieren

Digitale Dokumentenprozesse: Weniger Papier – mehr Effizienz​ Read More »

Für wen lohnt sich das CMF Phone 1 von Nothing? Die Antwort!​

Für wen lohnt sich das CMF Phone 1 von Nothing? Die Antwort!​

Allgemein

Nothing Der Smartphone-Markt ist in den vergangenen Jahren ziemlich langweilig geworden. Immer ähnlichere Designs und minimale Upgrades bei der Hardware haben dazu geführt, dass KI im Moment der große Trend ist. Hersteller Nothing stellt sich dieser Entwicklung nun entgegen. Nothing ist ein noch relativ junges Unternehmen, das gilt erst recht für die Untermarke CMF. Dessen erstes Smartphone ist nun endlich erhältlich und soll nun den Markt aufzurütteln. Konkret soll das Budget-Segment angegriffen werden, welches normalerweise nur recht langweilige Geräte hervorbringt. Nothing Das CMF Phone 1 fällt schon durch sein Design auf und das nicht nur, weil es leuchtend orange ist. Es ist eine Reminiszenz an die früheren Tage der Mobiltelefone, als man diese noch auseinandernehmen und individuell gestalten konnte – das spricht den Tüftler in mir sehr an. Die Schrauben aus rostfreiem Stahl sind nicht nur zur Zierde angebracht. Genau wie früher können Sie die Schrauben entfernen (ein kleiner Schraubenzieher ist im Lieferumfang enthalten), die hintere Abdeckung entfernen und eine andere anbringen. Es gibt insgesamt vier Farben: orange, schwarz, blau und hellgrün – alle für 35 Euro. Der Spaß hört damit nicht auf: Der geheimnisvolle Drehknopf an der Ecke des Geräts dient zum Anbringen unterschiedlicher Zubehörteile. Schrauben Sie den Drehknopf ab, können Sie Zubehör wie einen Ständer oder ein Schlüsselband anbringen. Einfach, aber effektiv und witzig. Beide Zubehörteile sind für 25 Euro erhältlich, allerdings nur in Orange. Haben Sie eine hellgrüne Rückseitenabdeckung gewählt, könnte diese Farbe vielleicht weniger gut passen. Das derzeit letzte Zubehörteil ist ein Kartenhalter, der aus einer Platte besteht, die mit den kleineren Schrauben befestigt wird. Das Gegenstück bildet die Brieftasche, die mit Magneten auf eine an Apples MagSafe-angelehnte Weise befestigt wird. Auch der Kartenhalter kostet 25 Euro und ist zum Start nur in Orange erhältlich. Nothing Damit bietet das CMF Phone 1 etwas ganz anderes als die Konkurrenz. Der Preis des Budget-Smartphones startet bei 269 Euro. Auch bei den technischen Daten braucht sich das CMF Phone 1 nicht vor der Einsteiger-Konkurrenz verstecken: ein 6,7-Zoll-Super-AMOLED-Display mit 120 Hertz, eine 50-Megapixel-Rückkamera, ein MediaTek Dimensity 7.300-Chipsatz, ein 5.000-Milliamperestunden-Akku und eine 33-Watt-Schnellladefunktion. Damit ist es dem Nothing Phone (2a) sehr ähnlich. Die abnehmbare Rückabdeckung ist jedoch nicht wasserdicht, sondern nur spritzwassergeschützt. Dazu ist der Akku leider nicht wie beim Nokia 3210 herausnehmbar – obwohl er viel einfacher zu ersetzen sein sollte als bei den meisten modernen Smartphones. Es gibt auch kein NFC. Dennoch könnte das CMF Phone 1 das beste Budget-Smartphone des Jahres 2024 werden. Dies kann jedoch erst der Testbericht genau klären. 

Für wen lohnt sich das CMF Phone 1 von Nothing? Die Antwort!​ Nothing

Der Smartphone-Markt ist in den vergangenen Jahren ziemlich langweilig geworden. Immer ähnlichere Designs und minimale Upgrades bei der Hardware haben dazu geführt, dass KI im Moment der große Trend ist. Hersteller Nothing stellt sich dieser Entwicklung nun entgegen.

Nothing ist ein noch relativ junges Unternehmen, das gilt erst recht für die Untermarke CMF. Dessen erstes Smartphone ist nun endlich erhältlich und soll nun den Markt aufzurütteln. Konkret soll das Budget-Segment angegriffen werden, welches normalerweise nur recht langweilige Geräte hervorbringt.

Nothing

Das CMF Phone 1 fällt schon durch sein Design auf und das nicht nur, weil es leuchtend orange ist. Es ist eine Reminiszenz an die früheren Tage der Mobiltelefone, als man diese noch auseinandernehmen und individuell gestalten konnte – das spricht den Tüftler in mir sehr an.

Die Schrauben aus rostfreiem Stahl sind nicht nur zur Zierde angebracht. Genau wie früher können Sie die Schrauben entfernen (ein kleiner Schraubenzieher ist im Lieferumfang enthalten), die hintere Abdeckung entfernen und eine andere anbringen. Es gibt insgesamt vier Farben: orange, schwarz, blau und hellgrün – alle für 35 Euro.

Der Spaß hört damit nicht auf: Der geheimnisvolle Drehknopf an der Ecke des Geräts dient zum Anbringen unterschiedlicher Zubehörteile.

Schrauben Sie den Drehknopf ab, können Sie Zubehör wie einen Ständer oder ein Schlüsselband anbringen. Einfach, aber effektiv und witzig. Beide Zubehörteile sind für 25 Euro erhältlich, allerdings nur in Orange. Haben Sie eine hellgrüne Rückseitenabdeckung gewählt, könnte diese Farbe vielleicht weniger gut passen.

Das derzeit letzte Zubehörteil ist ein Kartenhalter, der aus einer Platte besteht, die mit den kleineren Schrauben befestigt wird. Das Gegenstück bildet die Brieftasche, die mit Magneten auf eine an Apples MagSafe-angelehnte Weise befestigt wird.

Auch der Kartenhalter kostet 25 Euro und ist zum Start nur in Orange erhältlich.

Nothing

Damit bietet das CMF Phone 1 etwas ganz anderes als die Konkurrenz. Der Preis des Budget-Smartphones startet bei 269 Euro.

Auch bei den technischen Daten braucht sich das CMF Phone 1 nicht vor der Einsteiger-Konkurrenz verstecken: ein 6,7-Zoll-Super-AMOLED-Display mit 120 Hertz, eine 50-Megapixel-Rückkamera, ein MediaTek Dimensity 7.300-Chipsatz, ein 5.000-Milliamperestunden-Akku und eine 33-Watt-Schnellladefunktion. Damit ist es dem Nothing Phone (2a) sehr ähnlich.

Die abnehmbare Rückabdeckung ist jedoch nicht wasserdicht, sondern nur spritzwassergeschützt. Dazu ist der Akku leider nicht wie beim Nokia 3210 herausnehmbar – obwohl er viel einfacher zu ersetzen sein sollte als bei den meisten modernen Smartphones.

Es gibt auch kein NFC. Dennoch könnte das CMF Phone 1 das beste Budget-Smartphone des Jahres 2024 werden. Dies kann jedoch erst der Testbericht genau klären.

Für wen lohnt sich das CMF Phone 1 von Nothing? Die Antwort!​ Read More »

Digital unterschreiben: diese kostenlosen Möglichkeiten gibt es​

Digital unterschreiben: diese kostenlosen Möglichkeiten gibt es​

Allgemein

ImYanis/Shutterstock.com Kleiner Schriftzug mit großer Wirkung: Eine Unterschrift setzt man (wie es ja schon im Namen steckt) unter einen Text, um damit den Inhalt anzuerkennen. Eine Signatur soll den Aussteller von Urkunden ausweisen, Echtheit bezeugen und wird gesetzlich in vielen Bereichen vorgeschrieben. Weil wir es heute oft mit Anschreiben, Verträgen oder Bewerbungen zu tun haben, die man übers Internet austauscht, wird auch das digitale Signieren immer wichtiger. Damit muss man Dokumente nicht erst umständlich ausdrucken, händisch unterschreiben und dann zum Weiterleiten wieder einscannen – mit ein paar Klicks oder Wischgesten ist alles erledigt. Digital signieren – wichtige Unterschiede Beim digitalen Signieren ist Unterschrift aber nicht gleich Unterschrift. Man unterscheidet drei grundsätzliche Möglichkeiten: die „einfache elektronische Signatur“ (EES), die „fortgeschrittene elektronische Signatur“ (FES) und die „qualifizierte elektronische Signatur“ (QES). In diesem Beitrag konzentrieren wir uns auf die einfache und kostenlose EES. Die reicht für die meisten Anwendungen privater Nutzer aus, bringt aber weniger Rechtssicherheit mit, als die mit Kosten verbundenen Schwestermodelle FES und QES, auf die wir in diesem Beitrag nur am Rande eingehen. Besonders einfach: PDFs am PC unterschreiben mit Adobe Acrobat Reader (EES) Foundry Der Adobe Acrobat Reader steht kostenlos zur Verfügung und wird vom Anbieter ständig weiterentwickelt. Für viele Nutzer gehört die Gratis-Software auf dem PC oder dem Smartphone längst zur Grundausstattung. Zum Signieren kann man damit einfach einen entsprechenden Schriftzug im PDF ablegen. Beim Speichern werden solche Signaturen dann ein fester Bestandteil des Dokuments – genau wie beim klassischen Unterschreiben mit Stift auf Papier. Und so geht’s: Adobe Acrobat Reader starten und damit das entsprechende Dokument öffnen. Bei passender Datei-Zuordnung genügt auch ein Doppelklick auf das PDF im Windows Explorer. Oben links finden wir den Tab „Alle Tools“, der beim Anklicken eine Reihe von Werkzeugen preisgibt. Dort klicken wir jetzt auf „Ausfüllen und Signieren“ (siehe Screenshot). Als Alternative steht im kleinen Werkzeug-Fenster auch das Symbol einer Füllfeder zur Verfügung. Im linken Seitenfenster können wir jetzt eine Signatur oder Initialen hinzufügen, dabei stehen auch ein paar unterschiedliche Schriftarten zur Verfügung. Hat man den eigenen Namen (oder die Initialen) einmal eingegeben, speichert der Acrobat Reader die Signatur und man kann sie beim nächsten Mal gleich wieder auswählen. Hinweis: Wenn Sie Ihre Signatur nach der Eingabe im Reader nicht speichern können, dann starten Sie Acrobat Reader neu: per Rechtsklick auf die Programmverknüpfung und dann über das Feld „Als Administrator ausführen“. Jetzt sollte das Speichern problemlos klappen. Sobald Sie die Eingabe mit Enter bestätigt haben, wird Ihre neue Signatur direkt ausgewählt und an den Mauszeiger geheftet. Jetzt müssen Sie Ihre Unterschrift nur noch die passende Stelle im Dokument bewegen und per Linksklick ablegen. Die Signatur wird im Dokument verankert. Standardmäßig ist die Signaturfarbe Schwarz ausgewählt, das kann im Werkzeugfenster über den kleinen Farbpunkt am unteren Rand aber auch geändert werden. Tipp: Dokumente kann man mit dem Adobe Acrobat Reader auch an andere Personen schicken und den Empfänger um eine Signatur bitten. Das gelingt ebenfalls über das Feld „Ausfüllen und Signieren“ im Tool-Bereich. Gratis-Nutzern steht diese Funktion aber nur eingeschränkt zur Verfügung. Digital signieren am Android-Smartphone (mit roter Farbe) Foundry Auch unterwegs lassen sich digitale Dokumente im Handumdrehen unterzeichnen – das klappt ebenfalls kostenlos und besonders einfach mit dem „PDF Reader – PDF Viewer“. Das Tool können Sie im Play Store gratis für Android herunterladen. Und so gelingt die Signatur am Handy: Öffnen Sie das PDF, das Sie unterschreiben möchten, mit dem PDF Reader. Im rechten unteren Bildrand wechseln Sie über das rote Stift-Symbol in den Bearbeitungsmodus. Schreiben Sie Ihre Signatur mit dem Finger an die gewünschte Stelle. Tipp: Vorher mit Wischgesten großzügig ins Dokument hinein zoomen. Wenn Sie mit dem Ergebnis nicht zufrieden sind, können Sie Eingaben über den Zurück-Button oben rechts wieder rückgängig machen. Speichern Sie das Dokument mit dem roten Häkchen rechts unten ab. Hinweis: Der kostenlose PDF-Reader ist ziemlich funktional und kann PDFs auch zusammenführen, wieder teilen, bearbeiten oder sperren. Signaturen sind hier aber nur in roter Farbe möglich. Digital unterschreiben in Android oder iOS (beliebige Farbe) Wer Dokumente lieber klassisch in Schwarz unterzeichnen möchte, der greift am mobilen Gerät ebenfalls zum Acrobat Reader, der ist aber (in der kostenlosen Version) weniger funktional als der oben vorgestellte PDF-Reader. Dafür steht er auch für iOS zur Verfügung. Hier geht’s zum Download: (Android | iOS). Und so klappt die digitale Unterschrift: Nach der Installation die App starten und mit einem kostenlosen Account bei Adobe anmelden. Das gewünschte Dokument mit dem Adobe Acrobat Reader öffnen. Möglichkeit 1: Unten auf „Zeichnen“ tippen und die Unterschrift mit dem Finger direkt ins Dokument schreiben (klappt in beliebigen Farben), abspeichern und fertig. Möglichkeit 2: In der Werkzeugleiste unten das Feld „Ausfüllen und Signieren“ antippen und anschließend (wie am PC) über das Füllfeder-Symbol eine Signatur oder Initialen hinterlegen und einfügen. Dokument speichern und weiterverwenden. Digital unterschreiben: für iOS-Nutzer auch ohne zusätzliche Software möglich Mit der Dateien-App können Sie am iPhone oder iPad auch ohne Drittanbieter-Software PDFs unterschreiben. Das klappt so: Ein PDF mit der Dateien-App öffnen. Auf das Stift-Symbol tippen. Jetzt auf das Plus-Symbol tippen und dann „Unterschrift“ auswählen. Direkt mit dem Finger an der gewünschten Stelle die Signatur ins Dokument schreiben und abspeichern. Weitere Möglichkeiten Auch Microsoft Word bietet mit der Stiftfunktion die Möglichkeit für Unterschriften. Zudem können Sie ein Bild mit Ihrer Unterschrift in ein Dokument einfügen und so gewissermaßen digital unterschreiben. Ebenso besteht die Möglichkeit, dass Sie ein PDF ausdrucken, es unterschreiben und das Ganze dann mit dem Smartphone abfotografieren. Unterschreiben mit EES, FES und QES – was sind die Unterschiede und wofür braucht man das? Mit der eIDAS-Verordnung regelt die EU die sogenannten „E-Signature-Standards“, das betrifft auch die digitalen Signaturen EES, FES und QES. Rechtsgültigkeit, Beweisbarkeit und der Aufwand solcher Signaturen sind nämlich unterschiedlich, sie werden deshalb auch in unterschiedlichen Bereichen eingesetzt. Grundsätzlich gilt: Einfache elektronische Signatur (EES): Das sind die Signaturen, die wir in diesem Beitrag vorgestellt haben. Dazu gehören auch eingescannte Unterschriften oder eben solche, die man per Touchscreen in digitale Dokumente schreibt. Sie haben den Vorteil, dass man sie schnell und kostenlos anfertigen kann, bringen vor Gericht aber nur eine geringe Beweiskraft mit, denn sie können relativ leicht gefälscht werden. Man kann damit beispielsweise formfreie Vereinbarungen signieren, AGBs zustimmen oder Kostenvoranschläge und Aufträge quittieren. Fortgeschrittene elektronische Signatur (FES): Mit der FES kann man Verträge ohne Formvorschrift rechtssicher unterzeichnen. Mithilfe von Sicherheitsschlüsseln werden solche Signaturen auf den Urheber zurückgeführt, womit auch der Zeitpunkt des Unterschreibens nachvollziehbar wird. Damit kann man dann bereits SEPA-Mandate unterzeichnen, Arbeitsverträge oder einen Mietvertrag. Um diese Form der Unterschrift zu nutzen, sind aber zusätzliche Dienstleister und Tools notwendig, beispielsweise Acrobat Sign von Adobe. Qualifizierte elektronische Signatur (QES): Die oben beschriebene FES ist für die meisten Vertragsformen und Dokumente bereits ausreichend. Wenn der Gesetzgeber für einen Vertrag aber explizit die Schriftform vorschreibt, kommt die QES ins Spiel. Sie bietet die höchste Rechtssicherheit, verlangt aber auch nach dem größten Aufwand und hat strenge Anforderungen. Dafür kann eine QES die handschriftliche Unterschrift aber fast immer ersetzen. Sie ist nur in Verbindung mit einem qualifizierten digitalen Zertifikat gültig und bedarf einer nachvollziehbaren Identitätsprüfung. Nutzen kann man die QES deshalb nur mithilfe eines Anbieters für E-Signaturen wie Skribble, FP Sign oder InSign. Die QES kommt beispielsweise bei befristeten Arbeitsverträgen oder bei befristeten Mietverträgen zum Einsatz. Es gibt aber auch Dokumente, bei denen die elektronische Form (und damit auch die elektronische Unterschrift) generell noch nicht zulässig sind: etwa bei der Kündigung eines Arbeitsverhältnisses. 

Digital unterschreiben: diese kostenlosen Möglichkeiten gibt es​ ImYanis/Shutterstock.com

Kleiner Schriftzug mit großer Wirkung: Eine Unterschrift setzt man (wie es ja schon im Namen steckt) unter einen Text, um damit den Inhalt anzuerkennen. Eine Signatur soll den Aussteller von Urkunden ausweisen, Echtheit bezeugen und wird gesetzlich in vielen Bereichen vorgeschrieben.

Weil wir es heute oft mit Anschreiben, Verträgen oder Bewerbungen zu tun haben, die man übers Internet austauscht, wird auch das digitale Signieren immer wichtiger. Damit muss man Dokumente nicht erst umständlich ausdrucken, händisch unterschreiben und dann zum Weiterleiten wieder einscannen – mit ein paar Klicks oder Wischgesten ist alles erledigt.

Digital signieren – wichtige Unterschiede

Beim digitalen Signieren ist Unterschrift aber nicht gleich Unterschrift. Man unterscheidet drei grundsätzliche Möglichkeiten:

die „einfache elektronische Signatur“ (EES),

die „fortgeschrittene elektronische Signatur“ (FES)

und die „qualifizierte elektronische Signatur“ (QES).

In diesem Beitrag konzentrieren wir uns auf die einfache und kostenlose EES. Die reicht für die meisten Anwendungen privater Nutzer aus, bringt aber weniger Rechtssicherheit mit, als die mit Kosten verbundenen Schwestermodelle FES und QES, auf die wir in diesem Beitrag nur am Rande eingehen.

Besonders einfach: PDFs am PC unterschreiben mit Adobe Acrobat Reader (EES)

Foundry

Der Adobe Acrobat Reader steht kostenlos zur Verfügung und wird vom Anbieter ständig weiterentwickelt. Für viele Nutzer gehört die Gratis-Software auf dem PC oder dem Smartphone längst zur Grundausstattung.

Zum Signieren kann man damit einfach einen entsprechenden Schriftzug im PDF ablegen. Beim Speichern werden solche Signaturen dann ein fester Bestandteil des Dokuments – genau wie beim klassischen Unterschreiben mit Stift auf Papier. Und so geht’s:

Adobe Acrobat Reader starten und damit das entsprechende Dokument öffnen. Bei passender Datei-Zuordnung genügt auch ein Doppelklick auf das PDF im Windows Explorer.

Oben links finden wir den Tab „Alle Tools“, der beim Anklicken eine Reihe von Werkzeugen preisgibt. Dort klicken wir jetzt auf „Ausfüllen und Signieren“ (siehe Screenshot). Als Alternative steht im kleinen Werkzeug-Fenster auch das Symbol einer Füllfeder zur Verfügung.

Im linken Seitenfenster können wir jetzt eine Signatur oder Initialen hinzufügen, dabei stehen auch ein paar unterschiedliche Schriftarten zur Verfügung. Hat man den eigenen Namen (oder die Initialen) einmal eingegeben, speichert der Acrobat Reader die Signatur und man kann sie beim nächsten Mal gleich wieder auswählen.

Hinweis: Wenn Sie Ihre Signatur nach der Eingabe im Reader nicht speichern können, dann starten Sie Acrobat Reader neu: per Rechtsklick auf die Programmverknüpfung und dann über das Feld „Als Administrator ausführen“. Jetzt sollte das Speichern problemlos klappen.

Sobald Sie die Eingabe mit Enter bestätigt haben, wird Ihre neue Signatur direkt ausgewählt und an den Mauszeiger geheftet. Jetzt müssen Sie Ihre Unterschrift nur noch die passende Stelle im Dokument bewegen und per Linksklick ablegen. Die Signatur wird im Dokument verankert.

Standardmäßig ist die Signaturfarbe Schwarz ausgewählt, das kann im Werkzeugfenster über den kleinen Farbpunkt am unteren Rand aber auch geändert werden.

Tipp: Dokumente kann man mit dem Adobe Acrobat Reader auch an andere Personen schicken und den Empfänger um eine Signatur bitten. Das gelingt ebenfalls über das Feld „Ausfüllen und Signieren“ im Tool-Bereich. Gratis-Nutzern steht diese Funktion aber nur eingeschränkt zur Verfügung.

Digital signieren am Android-Smartphone (mit roter Farbe)

Foundry

Auch unterwegs lassen sich digitale Dokumente im Handumdrehen unterzeichnen – das klappt ebenfalls kostenlos und besonders einfach mit dem „PDF Reader – PDF Viewer“. Das Tool können Sie im Play Store gratis für Android herunterladen. Und so gelingt die Signatur am Handy:

Öffnen Sie das PDF, das Sie unterschreiben möchten, mit dem PDF Reader.

Im rechten unteren Bildrand wechseln Sie über das rote Stift-Symbol in den Bearbeitungsmodus.

Schreiben Sie Ihre Signatur mit dem Finger an die gewünschte Stelle. Tipp: Vorher mit Wischgesten großzügig ins Dokument hinein zoomen.

Wenn Sie mit dem Ergebnis nicht zufrieden sind, können Sie Eingaben über den Zurück-Button oben rechts wieder rückgängig machen.

Speichern Sie das Dokument mit dem roten Häkchen rechts unten ab.

Hinweis: Der kostenlose PDF-Reader ist ziemlich funktional und kann PDFs auch zusammenführen, wieder teilen, bearbeiten oder sperren. Signaturen sind hier aber nur in roter Farbe möglich.

Digital unterschreiben in Android oder iOS (beliebige Farbe)

Wer Dokumente lieber klassisch in Schwarz unterzeichnen möchte, der greift am mobilen Gerät ebenfalls zum Acrobat Reader, der ist aber (in der kostenlosen Version) weniger funktional als der oben vorgestellte PDF-Reader. Dafür steht er auch für iOS zur Verfügung. Hier geht’s zum Download: (Android | iOS). Und so klappt die digitale Unterschrift:

Nach der Installation die App starten und mit einem kostenlosen Account bei Adobe anmelden.

Das gewünschte Dokument mit dem Adobe Acrobat Reader öffnen.

Möglichkeit 1: Unten auf „Zeichnen“ tippen und die Unterschrift mit dem Finger direkt ins Dokument schreiben (klappt in beliebigen Farben), abspeichern und fertig.

Möglichkeit 2: In der Werkzeugleiste unten das Feld „Ausfüllen und Signieren“ antippen und anschließend (wie am PC) über das Füllfeder-Symbol eine Signatur oder Initialen hinterlegen und einfügen. Dokument speichern und weiterverwenden.

Digital unterschreiben: für iOS-Nutzer auch ohne zusätzliche Software möglich

Mit der Dateien-App können Sie am iPhone oder iPad auch ohne Drittanbieter-Software PDFs unterschreiben. Das klappt so:

Ein PDF mit der Dateien-App öffnen.

Auf das Stift-Symbol tippen.

Jetzt auf das Plus-Symbol tippen und dann „Unterschrift“ auswählen.

Direkt mit dem Finger an der gewünschten Stelle die Signatur ins Dokument schreiben und abspeichern.

Weitere Möglichkeiten

Auch Microsoft Word bietet mit der Stiftfunktion die Möglichkeit für Unterschriften. Zudem können Sie ein Bild mit Ihrer Unterschrift in ein Dokument einfügen und so gewissermaßen digital unterschreiben. Ebenso besteht die Möglichkeit, dass Sie ein PDF ausdrucken, es unterschreiben und das Ganze dann mit dem Smartphone abfotografieren.

Unterschreiben mit EES, FES und QES – was sind die Unterschiede und wofür braucht man das?

Mit der eIDAS-Verordnung regelt die EU die sogenannten „E-Signature-Standards“, das betrifft auch die digitalen Signaturen EES, FES und QES. Rechtsgültigkeit, Beweisbarkeit und der Aufwand solcher Signaturen sind nämlich unterschiedlich, sie werden deshalb auch in unterschiedlichen Bereichen eingesetzt. Grundsätzlich gilt:

Einfache elektronische Signatur (EES): Das sind die Signaturen, die wir in diesem Beitrag vorgestellt haben. Dazu gehören auch eingescannte Unterschriften oder eben solche, die man per Touchscreen in digitale Dokumente schreibt.

Sie haben den Vorteil, dass man sie schnell und kostenlos anfertigen kann, bringen vor Gericht aber nur eine geringe Beweiskraft mit, denn sie können relativ leicht gefälscht werden. Man kann damit beispielsweise formfreie Vereinbarungen signieren, AGBs zustimmen oder Kostenvoranschläge und Aufträge quittieren.

Fortgeschrittene elektronische Signatur (FES): Mit der FES kann man Verträge ohne Formvorschrift rechtssicher unterzeichnen. Mithilfe von Sicherheitsschlüsseln werden solche Signaturen auf den Urheber zurückgeführt, womit auch der Zeitpunkt des Unterschreibens nachvollziehbar wird. Damit kann man dann bereits SEPA-Mandate unterzeichnen, Arbeitsverträge oder einen Mietvertrag.

Um diese Form der Unterschrift zu nutzen, sind aber zusätzliche Dienstleister und Tools notwendig, beispielsweise Acrobat Sign von Adobe.

Qualifizierte elektronische Signatur (QES): Die oben beschriebene FES ist für die meisten Vertragsformen und Dokumente bereits ausreichend. Wenn der Gesetzgeber für einen Vertrag aber explizit die Schriftform vorschreibt, kommt die QES ins Spiel. Sie bietet die höchste Rechtssicherheit, verlangt aber auch nach dem größten Aufwand und hat strenge Anforderungen.

Dafür kann eine QES die handschriftliche Unterschrift aber fast immer ersetzen. Sie ist nur in Verbindung mit einem qualifizierten digitalen Zertifikat gültig und bedarf einer nachvollziehbaren Identitätsprüfung. Nutzen kann man die QES deshalb nur mithilfe eines Anbieters für E-Signaturen wie Skribble, FP Sign oder InSign.

Die QES kommt beispielsweise bei befristeten Arbeitsverträgen oder bei befristeten Mietverträgen zum Einsatz. Es gibt aber auch Dokumente, bei denen die elektronische Form (und damit auch die elektronische Unterschrift) generell noch nicht zulässig sind: etwa bei der Kündigung eines Arbeitsverhältnisses.

Digital unterschreiben: diese kostenlosen Möglichkeiten gibt es​ Read More »

Microsoft Excel – Spalten per Maus verschieben​

Microsoft Excel – Spalten per Maus verschieben​

Allgemein

Spalte auswählen Lösung: Um eine Spalte in Ihrer Excel-Tabelle mit der Maus zu verschieben, klicken Sie zunächst im Spaltenkopf auf den zugehörigen Buchstaben. Anschließend wird die gesamte Spalte markiert. Thomas Rieske Spalte nach links verschieben Thomas Rieske Wenn Sie eine Spalte nach links verschieben möchten, bewegen Sie den Cursor auf den linken Rand der Markierung, sodass unter dem Cursor ein Kreuz mit vier Pfeilen erscheint. Dann ziehen Sie die Auswahl mit gedrückter Shift-Taste an die gewünschte Position. Spalte links platzieren Thomas Rieske An der entsprechenden Stelle lassen Sie dann Maus- und Shift-Taste wieder los. Sollten Formeln enthalten sein, werden diese automatisch angepasst. Spalte nach rechts verschieben Thomas Rieske Um eine Spalte nach rechts zu verschieben, gehen Sie analog vor, bewegen den Mauszeiger aber über den rechten Rand der Markierung, bis unter dem Cursor das Steuerkreuz sichtbar wird. Spalte rechts platzieren IDG Nachdem Sie die Spalte an die gewünschte Position gezogen haben, lassen Sie wie bei der Verschiebung nach links die Maus- und Shift-Taste wieder los. Produkte: Der Trick funktioniert mit allen aktuellen Versionen von Microsoft Excel für Windows. In anderen Umgebungen kann die Vorgehensweise abweichen. 

Microsoft Excel – Spalten per Maus verschieben​ Spalte auswählen

Lösung: Um eine Spalte in Ihrer Excel-Tabelle mit der Maus zu verschieben, klicken Sie zunächst im Spaltenkopf auf den zugehörigen Buchstaben. Anschließend wird die gesamte Spalte markiert.

Thomas Rieske

Spalte nach links verschieben

Thomas Rieske

Wenn Sie eine Spalte nach links verschieben möchten, bewegen Sie den Cursor auf den linken Rand der Markierung, sodass unter dem Cursor ein Kreuz mit vier Pfeilen erscheint. Dann ziehen Sie die Auswahl mit gedrückter Shift-Taste an die gewünschte Position.

Spalte links platzieren

Thomas Rieske

An der entsprechenden Stelle lassen Sie dann Maus- und Shift-Taste wieder los. Sollten Formeln enthalten sein, werden diese automatisch angepasst.

Spalte nach rechts verschieben

Thomas Rieske

Um eine Spalte nach rechts zu verschieben, gehen Sie analog vor, bewegen den Mauszeiger aber über den rechten Rand der Markierung, bis unter dem Cursor das Steuerkreuz sichtbar wird.

Spalte rechts platzieren

IDG

Nachdem Sie die Spalte an die gewünschte Position gezogen haben, lassen Sie wie bei der Verschiebung nach links die Maus- und Shift-Taste wieder los.

Produkte: Der Trick funktioniert mit allen aktuellen Versionen von Microsoft Excel für Windows. In anderen Umgebungen kann die Vorgehensweise abweichen.

Microsoft Excel – Spalten per Maus verschieben​ Read More »

Nach oben scrollen