Computerhaus Quickborn

Mai 2025

Brauchen Sie wirklich ein LLM?​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?quality=50&strip=all 5980w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>LLMs wegen der besseren Außenwirkung einzusetzen, ist nicht zielführend – meint auch unsere Autorin.Tada Images | shutterstock.com Als Director of Data Management beschäftige ich mit intensiv mit sämtlichen Aspekten von Datenstrategien, Governance und Analytics – von der Definition der Daten-Vision bis hin zum Aufbau performanter Teams in diesem Bereich. Dabei behalte ich auch das Thema Nachhaltigkeit stets im Hinterkopf, wie Sie auch in diesem Artikel bemerken werden. Der Hype, der derzeit rund um Large Language Models (LLMs; große Sprachmodelle) tobt, ist angesichts ihres nahezu grenzenlosen Potenzials nachvollziehbar:   Rund um Analytics ermöglichen große Sprachmodelle Datenanalysen auf Basis natürliche Sprache, automatisieren Reportings und interpretieren Daten-Nuancen. Im Bereich der wissenschaftlichen Forschung können LLMs Berge von Forschungsarbeiten analysieren – zum Beispiel, um die Arzneimittelforschung erheblich zu beschleunigen. In der Einzelhandelsbranche können LLMs Produktempfehlungen personalisieren und Marketingkampagnen optimieren. Anwendungsfälle wie diese sind ohne Zweifel transformativ. Mit Blick auf den Unternehmensalltag stellt sich jedoch aus meiner Sicht immer öfter die Frage: Brauchen Unternehmen für grundlegende Analytics-Use-Cases wirklich ein Large Language Model? Oder kommt es nur zum Einsatz, weil es eben gerade en vogue ist?   Von Spatzen und Kanonen Aus meiner Erfahrung läuft es mit Blick auf Analytics-Initiativen in Unternehmen im Regelfall auf folgenden Kernanforderungen hinaus: klare Datenvisualisierungen, solide, deskriptive Analysen (Trends, KPIs), zuverlässige prädiktive Analysen, und benutzerfreundliche Dashboards. Anders ausgedrückt: Es geht in der Praxis in erster Linie darum, zuverlässige, umsetzbare Insights zu generieren. Und dafür haben wir bereits diverse, qualitativ hochwertige Tools – etwa Tableau, Qlik oder Power BI, wenn es um interaktive Dashboards und Visualisierungen geht. Oder SQL, um Zahlen auszuwerten. Selbst einfache Prediction-Modelle lassen sich mit Hilfe von Programmiersprachen wie Python oder R und Machine Learning erstellen. Ebenso können Wissenschaftler auf simple Statistik-Software zurückgreifen, um Patientendaten zu analysieren oder Retail-Händler auf Standard-Datenbanktechnologien, um ihren Bestand zu tracken. Diese traditionellen Tools sind oft mehr als ausreichend, um die grundlegenden Analytics-Bedürfnisse der meisten Unternehmen zu erfüllen. Chitra Sundaram ist Practice Director of Data Management bei Cleartelligence.Chitra Sundaram Schließlich sind LLMs vor allem auch ressourcenintensiv: Die großen Sprachmodelle zu trainieren und zu betreiben, verlangt enorme Rechenleistung – und sorgt für einen erheblichen CO₂-Fußabdruck. Das steht den Prinzipien einer nachhaltigen IT entgegen, die die Ressourcennutzung optimieren, Ausschuss reduzieren und Lösungen in angemessener Größe fördern will. Ein Large Language Model zu nutzen, um einen einfachen Durchschnittswert zu ermitteln, ist vor diesem Hintergrund kontraproduktiv. Man könnte auch sagen, das wäre wie mit Kanonen auf Spatzen zu schießen. Leider erlebt man genau das in der Praxis regelmäßig. Zum Beispiel bei einem Kunden aus der Luxus-Möbelbranche. Dieser war versucht, für Stimmungsanalysen seiner Kunden die neuesten KI-Technologien einzusetzen. Nach einem gründlichen Assessment haben wir ihm jedoch einen praktischeren Ansatz empfohlen: Mit Hilfe bestehender Bibliotheken für Natural Language Processing konnten wir die gewünschten Sentiment-Analysen in einer Python-Umgebung realisieren – und zwar mit einem Bruchteil der Rechenressourcen, die für KI nötig gewesen wären. So konnten wir nicht nur die Kosten, sondern parallel auch die Umweltbelastung erheblich reduzieren. Das wesentliche Problem besteht einfach darin, dass die Begeisterung für neue Technologien dazu führen kann, dass man blind wird für einfache, naheliegende und praktische Problemlösungen. Wo LLMs Sinn machen Große Sprachmodelle sind eine Überlegung wert, wenn Sie mit wirklich komplexen, unstrukturierten (oder einem Mix aus strukturierten und unstrukturierten) Daten arbeiten. Sie sind außerdem nützlich für dynamische Situationen, in denen sich Daten und Anforderungen kontinuierlich ändern. Und last but not least natürlich auch, um die User Experience zu optimieren (Stichwort natürlichsprachliche Abfragen). Hier können LLMs wirklich glänzen – und machen Sinn (insofern die Outputs auch strategisch eingesetzt werden). Ich rate meinen Kunden regelmäßig, auf einen hybriden Ansatz zu setzen: Nutzen Sie traditionelle Tools für strukturierte Daten und reservieren Sie LLMs für wirklich komplexe Aufgaben. So können Sie die Stärken beider Welten nutzen, die Effizienz maximieren und den Ressourcenverbrauch minimieren. Im Kern geht es darum, die richtige Balance zwischen Leistungsfähigkeit und Praktikabilität zu finden. Anders ausgedrückt: Nachhaltig geht Analytics, wenn das richtige Tool für die richtige Aufgabe gewählt wird – statt einfach blind einem gerade aktuellen Trend zu folgen. Vergessen Sie also bei allem „KI-Wettrüsten“ nicht, dass einfache Lösungen oft die nachhaltigsten sind. Sehen Sie davon ab, Kanonen auf Spatzen zu richten und hören Sie auf die Stimme der Vernunft: Nicht Hype sollte über Technologieentscheidungen bestimmen, sondern Business-Anforderungen und Nachhaltigkeitsaspekte. Nur so lässt sich Datenpotenzial heben, während parallel die Umweltauswirkungen minimiert werden. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Brauchen Sie wirklich ein LLM?​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?quality=50&strip=all 5980w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>LLMs wegen der besseren Außenwirkung einzusetzen, ist nicht zielführend – meint auch unsere Autorin.Tada Images | shutterstock.com

Als Director of Data Management beschäftige ich mit intensiv mit sämtlichen Aspekten von Datenstrategien, Governance und Analytics – von der Definition der Daten-Vision bis hin zum Aufbau performanter Teams in diesem Bereich. Dabei behalte ich auch das Thema Nachhaltigkeit stets im Hinterkopf, wie Sie auch in diesem Artikel bemerken werden.

Der Hype, der derzeit rund um Large Language Models (LLMs; große Sprachmodelle) tobt, ist angesichts ihres nahezu grenzenlosen Potenzials nachvollziehbar:  

Rund um Analytics ermöglichen große Sprachmodelle Datenanalysen auf Basis natürliche Sprache, automatisieren Reportings und interpretieren Daten-Nuancen.

Im Bereich der wissenschaftlichen Forschung können LLMs Berge von Forschungsarbeiten analysieren – zum Beispiel, um die Arzneimittelforschung erheblich zu beschleunigen.

In der Einzelhandelsbranche können LLMs Produktempfehlungen personalisieren und Marketingkampagnen optimieren.

Anwendungsfälle wie diese sind ohne Zweifel transformativ. Mit Blick auf den Unternehmensalltag stellt sich jedoch aus meiner Sicht immer öfter die Frage: Brauchen Unternehmen für grundlegende Analytics-Use-Cases wirklich ein Large Language Model? Oder kommt es nur zum Einsatz, weil es eben gerade en vogue ist?  

Von Spatzen und Kanonen

Aus meiner Erfahrung läuft es mit Blick auf Analytics-Initiativen in Unternehmen im Regelfall auf folgenden Kernanforderungen hinaus:

klare Datenvisualisierungen,

solide, deskriptive Analysen (Trends, KPIs),

zuverlässige prädiktive Analysen, und

benutzerfreundliche Dashboards.

Anders ausgedrückt: Es geht in der Praxis in erster Linie darum, zuverlässige, umsetzbare Insights zu generieren. Und dafür haben wir bereits diverse, qualitativ hochwertige Tools – etwa Tableau, Qlik oder Power BI, wenn es um interaktive Dashboards und Visualisierungen geht. Oder SQL, um Zahlen auszuwerten. Selbst einfache Prediction-Modelle lassen sich mit Hilfe von Programmiersprachen wie Python oder R und Machine Learning erstellen. Ebenso können Wissenschaftler auf simple Statistik-Software zurückgreifen, um Patientendaten zu analysieren oder Retail-Händler auf Standard-Datenbanktechnologien, um ihren Bestand zu tracken. Diese traditionellen Tools sind oft mehr als ausreichend, um die grundlegenden Analytics-Bedürfnisse der meisten Unternehmen zu erfüllen.

Chitra Sundaram ist Practice Director of Data Management bei Cleartelligence.Chitra Sundaram

Schließlich sind LLMs vor allem auch ressourcenintensiv: Die großen Sprachmodelle zu trainieren und zu betreiben, verlangt enorme Rechenleistung – und sorgt für einen erheblichen CO₂-Fußabdruck. Das steht den Prinzipien einer nachhaltigen IT entgegen, die die Ressourcennutzung optimieren, Ausschuss reduzieren und Lösungen in angemessener Größe fördern will. Ein Large Language Model zu nutzen, um einen einfachen Durchschnittswert zu ermitteln, ist vor diesem Hintergrund kontraproduktiv. Man könnte auch sagen, das wäre wie mit Kanonen auf Spatzen zu schießen. Leider erlebt man genau das in der Praxis regelmäßig.

Zum Beispiel bei einem Kunden aus der Luxus-Möbelbranche. Dieser war versucht, für Stimmungsanalysen seiner Kunden die neuesten KI-Technologien einzusetzen. Nach einem gründlichen Assessment haben wir ihm jedoch einen praktischeren Ansatz empfohlen: Mit Hilfe bestehender Bibliotheken für Natural Language Processing konnten wir die gewünschten Sentiment-Analysen in einer Python-Umgebung realisieren – und zwar mit einem Bruchteil der Rechenressourcen, die für KI nötig gewesen wären. So konnten wir nicht nur die Kosten, sondern parallel auch die Umweltbelastung erheblich reduzieren.

Das wesentliche Problem besteht einfach darin, dass die Begeisterung für neue Technologien dazu führen kann, dass man blind wird für einfache, naheliegende und praktische Problemlösungen.

Wo LLMs Sinn machen

Große Sprachmodelle sind eine Überlegung wert, wenn Sie mit wirklich komplexen, unstrukturierten (oder einem Mix aus strukturierten und unstrukturierten) Daten arbeiten. Sie sind außerdem nützlich für dynamische Situationen, in denen sich Daten und Anforderungen kontinuierlich ändern. Und last but not least natürlich auch, um die User Experience zu optimieren (Stichwort natürlichsprachliche Abfragen). Hier können LLMs wirklich glänzen – und machen Sinn (insofern die Outputs auch strategisch eingesetzt werden).

Ich rate meinen Kunden regelmäßig, auf einen hybriden Ansatz zu setzen: Nutzen Sie traditionelle Tools für strukturierte Daten und reservieren Sie LLMs für wirklich komplexe Aufgaben. So können Sie die Stärken beider Welten nutzen, die Effizienz maximieren und den Ressourcenverbrauch minimieren. Im Kern geht es darum, die richtige Balance zwischen Leistungsfähigkeit und Praktikabilität zu finden.

Anders ausgedrückt: Nachhaltig geht Analytics, wenn das richtige Tool für die richtige Aufgabe gewählt wird – statt einfach blind einem gerade aktuellen Trend zu folgen. Vergessen Sie also bei allem „KI-Wettrüsten“ nicht, dass einfache Lösungen oft die nachhaltigsten sind. Sehen Sie davon ab, Kanonen auf Spatzen zu richten und hören Sie auf die Stimme der Vernunft: Nicht Hype sollte über Technologieentscheidungen bestimmen, sondern Business-Anforderungen und Nachhaltigkeitsaspekte. Nur so lässt sich Datenpotenzial heben, während parallel die Umweltauswirkungen minimiert werden. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Brauchen Sie wirklich ein LLM?​ Weiterlesen »

Die besten Android Launcher​

Allgemein

Mit dem richtigen Launcher bringen Sie Ihre Smartphone-Produktivität auf das nächste Level. Foto: Zmiter – shutterstock.com Der Home Screen Ihres Smartphones ist das Herzstück der mobilen Technologieerfahrung und bildet quasi die Startrampe für alle Aktivitäten. Dabei haben Android– gegenüber iOS-Nutzern einen wesentlichen Vorteil: Sie können ihren Startbildschirm individueller anpassen. Oder sie übernehmen die volle Kontrolle und verwandeln den Home Screen ihres Android-Telefons in eine persönliche Produktivitätszentrale. Dabei geht es nicht nur darum, ein paar extravagante Widgets einzustreuen: Mit Hilfe von Launcher-Programmen für Android können Sie alle möglichen benutzerdefinierten Aktionen, Schnittstellen und Verknüpfungen erstellen. Diese Maßnahme kann nicht nur aktuelle Smartphones mit erhöhtem Nutzwert ausstatten, sondern auch alte Android-Telefone mit neuem, effizienterem Leben füllen. Android Launcher: Top 7 Im Google Play Store stehen Ihnen diverse empfehlenswerte Launcher-Optionen zur Verfügung. Um herauszufinden, welche Option dabei für Sie am meisten Sinn macht, sollten Sie sich die Frage stellen, welche Ziele Sie erreichen möchten – beziehungsweise, welche Art der Interaktion Sie bevorzugen. Niagara Launcher “Weniger ist mehr” lautet das Motto beim Niagara Launcher. Er verspricht, alle überflüssigen Elemente Ihres Android-Startbildschirms zu entfernen und sie durch schnelle und unkomplizierte Tools zu ersetzen, damit Sie Ihre Ziele schneller erreichen. Dreh- und Angelpunkt des Niagara Home Screen ist ein vertikales Menü, dass Ihre meistgenutzten Apps beinhaltet. Dabei steckt mehr unter der Haube, als man auf den ersten Blick denkt: Jeder Shortcut auf dem Startbildschirm lässt sich nicht nur traditionell nutzen, sondern auch mit umfassenderen Ordnern verknüpfen, die sowohl Apps als auch Widgets enthalten können. Niagara verfügt über viele weitere durchdachte, auf Effizienz ausgerichtete Funktionen. Zum Beispiel: eine Option, um aktive Benachrichtigungen neben dem Symbol der entsprechenden App auf dem Startbildschirm anzuzeigen oder auch direkt darauf zu reagieren; die Möglichkeit, mehrere Android-Widgets innerhalb des Startbildschirms zu “stapeln”, um alle wichtigen Informationen auf einen Blick zu erhalten; ein intelligentes Suchsystem, auf das Sie mit einer Wischbewegung nach oben überall auf Ihrem Startbildschirm zugreifen können. Preisgefüge: Niagara Launcher ist kostenlos. Das Upgrade auf die Premium-Version Niagara Pro kostet 9,99 Euro pro Jahr – oder einmalig 29,99 Euro mit unbegrenzter Nutzungsdauer. Smart Launcher 6 Wenn Ihnen die Idee gefällt, sich relativ mühelos zu organisieren, Sie dabei aber Wert auf eine traditionellere, rasterbasierte (An-)Ordnung auf Ihrem Home Screen legen, könnte Smart Launcher 6 eine interessante Option für Sie sein. Der Android Launcher organisiert und optimiert Ihren Startbildschirm kontinuierlich – ohne dass Sie sich darüber Gedanken machen müssen. Den Smart Launcher zu konfigurieren, ist hingegen eher unkonventionell – obwohl die Software im Laufe der Jahre erheblich flexibler geworden ist. Sie ist immer noch auf Übersichtlichkeit gebürstet und ordnet Ihre meistgenutzten Apps am unteren Rand des Home Screens an. Inzwischen können Sie sich bei Bedarf aber auch von dieser Struktur lösen. Apropos Widgets: Smart Launcher stellt mehrere davon exklusiv zur Verfügung (darunter ein simples Notiz- und Kompass-Widget sowie ein entsprechendes Framework, um eigene Widget-Stapel zu erstellen). The wait is over. Smart Launcher 6.5 arrives tomorrow for most of you! We’ve already started rolling it out, so keep an eye on your updates. “Everything blurs when the focus is you.” Enjoy the new features and let us know what you think once it reaches you![image or embed]— Smart Launcher (@smartlauncher.bsky.social) 4. Dezember 2024 um 17:16 Darüber hinaus enthält der Launcher auch eine Suchfunktion, auf die Sie entweder durch Tippen auf die Leiste am unteren Rand des Hauptbildschirms oder durch Wischen nach oben im Bereich des Startbildschirms zugreifen können. Sie kann sowohl für Apps, als auch für Kontakte oder Web-Informationen zum Einsatz kommen. Standardmäßig bietet Smart Launcher 6 zudem eine Integration der News-Plattform von Microsoft (deaktivierbar). Preisgefüge: Smart Launcher 6 ist kostenlos. Ein optionales Pro-Upgrade kostet 12 Dollar (Lifetime-Lizenz). Microsoft Launcher Android ist in der Regel eine Google-zentrische Angelegenheit. Inzwischen hat Microsoft allerdings sein eigenes Sub-Ökosystem innerhalb der Mobile-Plattform aufgebaut. Das Herzstück dieser Bemühungen: der Microsoft Launcher. Mit dem Microsoft Launcher rücken Bing, Outlook und Co. in den Fokus. Foto: JR Raphael / Foundry Dieser sorgt dafür, dass Sie direkt das Gefühl bekommen, ein Microsoft Android-Gerät und kein Google-Produkt zu verwenden: Das Feed-ähnliche Panel des Android Launchers zeigt Ihnen auf einen Blick Outlook-Kalenderinformationen, Posteingangs-Tasks und eine Liste Ihrer zuletzt verwendeten Dokumente. Zudem stützt sich der Microsoft Launcher auf die News-Plattform des Konzerns und in Sachen Suchsystem auf Bing. Abgesehen von den Microsoft-spezifischen Elementen vereint dieser Launcher schlichte Ordnung mit fortgeschrittenen Organisationsoptionen. Preisgefüge: Die App ist kostenlos. Square Home Alle Android-Nutzer die Windows Phone vermissen, können sich das zugehörige Kacheldesign mit Square Home jetzt auf ihr Smartphone holen. Doch selbst wenn Sie nie ein Windows Phone genutzt haben, könnten Sie Square Home als erfrischenden Weg empfinden, Ihre Workflows zu optimieren. Die Kacheln, die der Launcher auf Ihrem Home Screen platziert, sind anpassbar und können eine App-Verknüpfung, ein Widget oder andere Aktionen beherbergen. Sie haben sogar die Möglichkeit, die Kacheln als dreidimensionale Würfel zu befüllen. Darüber hinaus dürfen Sie bei diesem Android Launcher auch Textgrößen, Farben und Hintergründe sowie eigene Tastenkombinationen und Wischgesten konfigurieren. Android-Nutzer mit Hang zu Windows-Phone-Nostalgie – oder Geometrie – dürfen sich mit Square Home austoben. Foto: JR Raphael / Foundry Preisgefüge: Square Home ist kostenlos. Erweiterte Funktionen ermöglicht ein Upgrade auf die Premium-Version für 5 Dollar (Lifetime-Lizenz). Lynx Launcher Lynx Launcher ist ein relativ neuer Anwärter unter den Android-Launchern, der sich durch seinen Ansatz von der Konkurrenz abhebt. Lynx Launcher soll von der Linux-basierten Gnome-Desktop-Oberfläche “inspiriert” sein. Im Kern bietet die Software ein primäres Startbildschirm-Panel mit einem einfachen integrierten Uhr-Widget oben und einer Reihe von Lieblingsanwendungen auf der rechten Seite. Diesen Hauptbereich dürfen Sie um zusätzliche Verknüpfungen und Widgets ergänzen. Der Lynx Launcher zeigt sich von Linux inspiriert und bietet eine besonders effektive App-Übersicht. Foto: JR Raphael / Foundry Der Home Screen wirkt auf den ersten Blick etwas leer und verwaist, hält auf den zweiten Blick aber weitere Elemente bereit: Eine Wischbewegung nach rechts – oder ein Tipp auf das Punkte-Symbol – führt Sie zu einer alphabetisch geordneten App-Liste. Eine Wischbewegung nach links öffnet den sich selbst befüllenden Favoriten-Bildschirm. Hier werden Ihre am häufigsten verwendeten Apps und Kontakte vorgehalten, damit Sie schnell darauf zugreifen können. Eine Wischbewegung nach unten – oder ein Tipp auf das Suchfeld oben auf dem Startbildschirm – startet die Suchfunktion des Android Launchers: Ein oder zwei Buchstaben einzugeben, genügt dabei, um Apps, Kontakte oder Informationen im Web zielstrebig zu finden. Ein Wisch nach oben über einen beliebigen Bereich Ihres Startbildschirms ruft den “Desktop”-Bereich von Lynx auf. Dabei handelt es sich im Grunde um ein zusätzliches On-Demand-Panel für den Startbildschirm, in dem Sie eine beliebige Kombination von Verknüpfungen und Widgets ablegen können. Lynx bietet noch weitere Optionen für Anpassungen: Zum Beispiel die Möglichkeit, benutzerdefinierte Gesten einzurichten. Preisgefüge: Lynx ist in der Grundversion kostenlos. Ein optionales Pro-Upgrade für 4 Dollar erschließt erweiterte Anpassungsmöglichkeiten. Before Launcher Verbringen Sie zu viel Zeit mit Ihrem Smartphone? Die Entwickler von Before Launcher versprechen, dass Sie Ihre Nutzungszeit mit Hilfe ihrer Software um ganze 40 Prozent reduzieren können. Dazu setzt der Android Launcher in erster Linie auf schnörkellose und ablenkungsfreie Produktivität. Entsprechend asketisch kommt der primäre Home Screen des Before Launcher ums Eck: Es handelt sich im Grunde lediglich um eine textbasierte Auflistung der Anwendungen, die Sie am häufigsten nutzen. Eine Wischbewegung nach links öffnet eine vollständige Auflistung aller installierten Apps – ein Fingerstreich in die andere Richtung führt zu einer (filterbaren) Benachrichtigungszentrale. Darüber hinaus bietet der Android Launcher einige minimalistische Optionen, um das Aussehen des Startbildschirms zu verändern und benutzerdefinierte Gesten aufzusetzen. Preisgefüge: Before Launcher ist kostenlos – bietet jedoch auch ein optionales, kostenpflichtiges (6 Dollar) Pro-Upgrade, das weitere Features hinzufügt. Nova Launcher Dieser Android Launcher gehört seit einigen Jahren zu den Favoriten von Android-Power-Usern. Das liegt auch daran, dass dieser Launcher es ermöglicht, so gut wie jede nur erdenkliche Kleinigkeit zu konfigurieren beziehungsweise zu personalisieren – von der Größe der Schriftarten über den Transparenzgrad von Hintergründen bis hin zur Geschwindigkeit von Animationen. Sie können auch eine Vielzahl benutzerdefinierter Gesten für den schnellen Zugriff auf Apps oder Aktionen erstellen. Mit dem Nova Launcher dürfen Sie auch eine Vielzahl benutzerdefinierter Gesten für den schnellen Zugriff auf Apps oder Aktionen erstellen. Foto: JR Raphael / Foundry Der Nova Launcher ist davon abgesehen auch für seine zeitnahen und regelmäßigen Updates bekannt. Wenn Sie Wert darauf legen, die vollständige Kontrolle über jedes Element Ihres Homescreens zu haben, fahren Sie mit diesem Android Launcher am besten. Preisgefüge: Nova Launcher ist kostenlos. Ein optionales, kostenpflichtiges Upgrade (5 Dollar) erschließt weitere, erweiterte Funktionen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die besten Android Launcher​ Mit dem richtigen Launcher bringen Sie Ihre Smartphone-Produktivität auf das nächste Level.
Foto: Zmiter – shutterstock.com

Der Home Screen Ihres Smartphones ist das Herzstück der mobilen Technologieerfahrung und bildet quasi die Startrampe für alle Aktivitäten. Dabei haben Android– gegenüber iOS-Nutzern einen wesentlichen Vorteil: Sie können ihren Startbildschirm individueller anpassen. Oder sie übernehmen die volle Kontrolle und verwandeln den Home Screen ihres Android-Telefons in eine persönliche Produktivitätszentrale.

Dabei geht es nicht nur darum, ein paar extravagante Widgets einzustreuen: Mit Hilfe von Launcher-Programmen für Android können Sie alle möglichen benutzerdefinierten Aktionen, Schnittstellen und Verknüpfungen erstellen. Diese Maßnahme kann nicht nur aktuelle Smartphones mit erhöhtem Nutzwert ausstatten, sondern auch alte Android-Telefone mit neuem, effizienterem Leben füllen.

Android Launcher: Top 7

Im Google Play Store stehen Ihnen diverse empfehlenswerte Launcher-Optionen zur Verfügung. Um herauszufinden, welche Option dabei für Sie am meisten Sinn macht, sollten Sie sich die Frage stellen, welche Ziele Sie erreichen möchten – beziehungsweise, welche Art der Interaktion Sie bevorzugen.

Niagara Launcher

“Weniger ist mehr” lautet das Motto beim Niagara Launcher. Er verspricht, alle überflüssigen Elemente Ihres Android-Startbildschirms zu entfernen und sie durch schnelle und unkomplizierte Tools zu ersetzen, damit Sie Ihre Ziele schneller erreichen.

Dreh- und Angelpunkt des Niagara Home Screen ist ein vertikales Menü, dass Ihre meistgenutzten Apps beinhaltet. Dabei steckt mehr unter der Haube, als man auf den ersten Blick denkt: Jeder Shortcut auf dem Startbildschirm lässt sich nicht nur traditionell nutzen, sondern auch mit umfassenderen Ordnern verknüpfen, die sowohl Apps als auch Widgets enthalten können.

Niagara verfügt über viele weitere durchdachte, auf Effizienz ausgerichtete Funktionen. Zum Beispiel:

eine Option, um aktive Benachrichtigungen neben dem Symbol der entsprechenden App auf dem Startbildschirm anzuzeigen oder auch direkt darauf zu reagieren;

die Möglichkeit, mehrere Android-Widgets innerhalb des Startbildschirms zu “stapeln”, um alle wichtigen Informationen auf einen Blick zu erhalten;

ein intelligentes Suchsystem, auf das Sie mit einer Wischbewegung nach oben überall auf Ihrem Startbildschirm zugreifen können.

Preisgefüge: Niagara Launcher ist kostenlos. Das Upgrade auf die Premium-Version Niagara Pro kostet 9,99 Euro pro Jahr – oder einmalig 29,99 Euro mit unbegrenzter Nutzungsdauer.

Smart Launcher 6

Wenn Ihnen die Idee gefällt, sich relativ mühelos zu organisieren, Sie dabei aber Wert auf eine traditionellere, rasterbasierte (An-)Ordnung auf Ihrem Home Screen legen, könnte Smart Launcher 6 eine interessante Option für Sie sein. Der Android Launcher organisiert und optimiert Ihren Startbildschirm kontinuierlich – ohne dass Sie sich darüber Gedanken machen müssen.

Den Smart Launcher zu konfigurieren, ist hingegen eher unkonventionell – obwohl die Software im Laufe der Jahre erheblich flexibler geworden ist. Sie ist immer noch auf Übersichtlichkeit gebürstet und ordnet Ihre meistgenutzten Apps am unteren Rand des Home Screens an. Inzwischen können Sie sich bei Bedarf aber auch von dieser Struktur lösen. Apropos Widgets: Smart Launcher stellt mehrere davon exklusiv zur Verfügung (darunter ein simples Notiz- und Kompass-Widget sowie ein entsprechendes Framework, um eigene Widget-Stapel zu erstellen).

The wait is over. Smart Launcher 6.5 arrives tomorrow for most of you!

We’ve already started rolling it out, so keep an eye on your updates.

“Everything blurs when the focus is you.”

Enjoy the new features and let us know what you think once it reaches you![image or embed]— Smart Launcher (@smartlauncher.bsky.social) 4. Dezember 2024 um 17:16

Darüber hinaus enthält der Launcher auch eine Suchfunktion, auf die Sie entweder durch Tippen auf die Leiste am unteren Rand des Hauptbildschirms oder durch Wischen nach oben im Bereich des Startbildschirms zugreifen können. Sie kann sowohl für Apps, als auch für Kontakte oder Web-Informationen zum Einsatz kommen. Standardmäßig bietet Smart Launcher 6 zudem eine Integration der News-Plattform von Microsoft (deaktivierbar).

Preisgefüge: Smart Launcher 6 ist kostenlos. Ein optionales Pro-Upgrade kostet 12 Dollar (Lifetime-Lizenz).

Microsoft Launcher

Android ist in der Regel eine Google-zentrische Angelegenheit. Inzwischen hat Microsoft allerdings sein eigenes Sub-Ökosystem innerhalb der Mobile-Plattform aufgebaut. Das Herzstück dieser Bemühungen: der Microsoft Launcher.

Mit dem Microsoft Launcher rücken Bing, Outlook und Co. in den Fokus.
Foto: JR Raphael / Foundry

Dieser sorgt dafür, dass Sie direkt das Gefühl bekommen, ein Microsoft Android-Gerät und kein Google-Produkt zu verwenden: Das Feed-ähnliche Panel des Android Launchers zeigt Ihnen auf einen Blick Outlook-Kalenderinformationen, Posteingangs-Tasks und eine Liste Ihrer zuletzt verwendeten Dokumente. Zudem stützt sich der Microsoft Launcher auf die News-Plattform des Konzerns und in Sachen Suchsystem auf Bing.

Abgesehen von den Microsoft-spezifischen Elementen vereint dieser Launcher schlichte Ordnung mit fortgeschrittenen Organisationsoptionen.

Preisgefüge: Die App ist kostenlos.

Square Home

Alle Android-Nutzer die Windows Phone vermissen, können sich das zugehörige Kacheldesign mit Square Home jetzt auf ihr Smartphone holen. Doch selbst wenn Sie nie ein Windows Phone genutzt haben, könnten Sie Square Home als erfrischenden Weg empfinden, Ihre Workflows zu optimieren.

Die Kacheln, die der Launcher auf Ihrem Home Screen platziert, sind anpassbar und können eine App-Verknüpfung, ein Widget oder andere Aktionen beherbergen. Sie haben sogar die Möglichkeit, die Kacheln als dreidimensionale Würfel zu befüllen. Darüber hinaus dürfen Sie bei diesem Android Launcher auch Textgrößen, Farben und Hintergründe sowie eigene Tastenkombinationen und Wischgesten konfigurieren.

Android-Nutzer mit Hang zu Windows-Phone-Nostalgie – oder Geometrie – dürfen sich mit Square Home austoben.
Foto: JR Raphael / Foundry

Preisgefüge: Square Home ist kostenlos. Erweiterte Funktionen ermöglicht ein Upgrade auf die Premium-Version für 5 Dollar (Lifetime-Lizenz).

Lynx Launcher

Lynx Launcher ist ein relativ neuer Anwärter unter den Android-Launchern, der sich durch seinen Ansatz von der Konkurrenz abhebt.

Lynx Launcher soll von der Linux-basierten Gnome-Desktop-Oberfläche “inspiriert” sein. Im Kern bietet die Software ein primäres Startbildschirm-Panel mit einem einfachen integrierten Uhr-Widget oben und einer Reihe von Lieblingsanwendungen auf der rechten Seite. Diesen Hauptbereich dürfen Sie um zusätzliche Verknüpfungen und Widgets ergänzen.

Der Lynx Launcher zeigt sich von Linux inspiriert und bietet eine besonders effektive App-Übersicht.
Foto: JR Raphael / Foundry

Der Home Screen wirkt auf den ersten Blick etwas leer und verwaist, hält auf den zweiten Blick aber weitere Elemente bereit:

Eine Wischbewegung nach rechts – oder ein Tipp auf das Punkte-Symbol – führt Sie zu einer alphabetisch geordneten App-Liste.

Eine Wischbewegung nach links öffnet den sich selbst befüllenden Favoriten-Bildschirm. Hier werden Ihre am häufigsten verwendeten Apps und Kontakte vorgehalten, damit Sie schnell darauf zugreifen können.

Eine Wischbewegung nach unten – oder ein Tipp auf das Suchfeld oben auf dem Startbildschirm – startet die Suchfunktion des Android Launchers: Ein oder zwei Buchstaben einzugeben, genügt dabei, um Apps, Kontakte oder Informationen im Web zielstrebig zu finden.

Ein Wisch nach oben über einen beliebigen Bereich Ihres Startbildschirms ruft den “Desktop”-Bereich von Lynx auf. Dabei handelt es sich im Grunde um ein zusätzliches On-Demand-Panel für den Startbildschirm, in dem Sie eine beliebige Kombination von Verknüpfungen und Widgets ablegen können.

Lynx bietet noch weitere Optionen für Anpassungen: Zum Beispiel die Möglichkeit, benutzerdefinierte Gesten einzurichten.

Preisgefüge: Lynx ist in der Grundversion kostenlos. Ein optionales Pro-Upgrade für 4 Dollar erschließt erweiterte Anpassungsmöglichkeiten.

Before Launcher

Verbringen Sie zu viel Zeit mit Ihrem Smartphone? Die Entwickler von Before Launcher versprechen, dass Sie Ihre Nutzungszeit mit Hilfe ihrer Software um ganze 40 Prozent reduzieren können. Dazu setzt der Android Launcher in erster Linie auf schnörkellose und ablenkungsfreie Produktivität.

Entsprechend asketisch kommt der primäre Home Screen des Before Launcher ums Eck: Es handelt sich im Grunde lediglich um eine textbasierte Auflistung der Anwendungen, die Sie am häufigsten nutzen. Eine Wischbewegung nach links öffnet eine vollständige Auflistung aller installierten Apps – ein Fingerstreich in die andere Richtung führt zu einer (filterbaren) Benachrichtigungszentrale. Darüber hinaus bietet der Android Launcher einige minimalistische Optionen, um das Aussehen des Startbildschirms zu verändern und benutzerdefinierte Gesten aufzusetzen.

Preisgefüge: Before Launcher ist kostenlos – bietet jedoch auch ein optionales, kostenpflichtiges (6 Dollar) Pro-Upgrade, das weitere Features hinzufügt.

Nova Launcher

Dieser Android Launcher gehört seit einigen Jahren zu den Favoriten von Android-Power-Usern. Das liegt auch daran, dass dieser Launcher es ermöglicht, so gut wie jede nur erdenkliche Kleinigkeit zu konfigurieren beziehungsweise zu personalisieren – von der Größe der Schriftarten über den Transparenzgrad von Hintergründen bis hin zur Geschwindigkeit von Animationen. Sie können auch eine Vielzahl benutzerdefinierter Gesten für den schnellen Zugriff auf Apps oder Aktionen erstellen.

Mit dem Nova Launcher dürfen Sie auch eine Vielzahl benutzerdefinierter Gesten für den schnellen Zugriff auf Apps oder Aktionen erstellen.
Foto: JR Raphael / Foundry

Der Nova Launcher ist davon abgesehen auch für seine zeitnahen und regelmäßigen Updates bekannt. Wenn Sie Wert darauf legen, die vollständige Kontrolle über jedes Element Ihres Homescreens zu haben, fahren Sie mit diesem Android Launcher am besten.

Preisgefüge: Nova Launcher ist kostenlos. Ein optionales, kostenpflichtiges Upgrade (5 Dollar) erschließt weitere, erweiterte Funktionen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die besten Android Launcher​ Weiterlesen »

Microsoft-Fails: Das schlimmste Windows aller Zeiten​

Allgemein

Die schlimmste Windows-Version aller Zeiten? Wir haben da drei Kandidaten… Foto: Lars Poyansky – shutterstock.com Knapp 25 Jahre sind vergangen, seit Microsoft mit Windows Me eine absolute Stinkbombe in Betriebssystemform abgesondert hat. Instabil, ungeliebt und unbenutzbar wären die drei Eigenschaften, die das Millenium-Windows am treffendsten beschreiben. Die Frage ist nur: War Windows Me wirklich das schlimmste Windows aller Zeiten? Schließlich gibt es noch einige andere Flops aus Redmond, die mit der Millenium Edition um die goldene Himbeere der Betriebssysteme konkurrieren. Windows Me Im September des Jahres 2000 warf Microsoft eilig Windows Me auf den Markt – obwohl nur sieben Monate zuvor bereits Windows 2000 vorgestellt wurde. Der Grund: Windows 2000 war ursprünglich für Privat- und Geschäftsnutzer gedacht, wurde letztendlich aber eine reine Business-Version auf Windows-NT-Basis. Microsoft wollte aber auch Consumern eine eigene Millenium-Version von Windows bieten. Das hätte man sich getrost sparen können: Windows Me war eine grausige Ansammlung von Schludrigkeiten und in vielen Fällen sowohl mit Hard- als auch mit Software inkompatibel. Oft kam man nicht einmal über den Installationsprozess hinaus – eigentlich schon ein relativ starkes Signal, von diesem Betriebssystem Abstand zu nehmen. Unvergessen auch die konstanten Weigerungen von Windows-Me-Systemen, herunterzufahren: Ein Vorgang, der viel gemein hatte mit einem Zweijährigen, der lieber einen fortlaufenden Wutanfall durchlebt, als schlafen zu gehen. Und nicht zu vergessen der Internet Explorer – der sich kontinuierlich weigerte, Web-Seiten zu laden. Wie langsam und vor allem unsicher Windows Millenium Edition war, verdeutlicht auch das Debüt der System-Restore-Funktion. Diese ermöglichte es erstmals, das System mit Hilfe eines Wiederherstellungspunktes bei Problemen zurückzusetzen. War das System allerdings zum Widerherstellungszeitpunkt mit einem Virus infiziert, wurde auch dieser Befall wiederhergestellt. Es gäbe viele weitere Kleinigkeiten, die den Status von Windows Me als eines der schlimmsten Betriebssystem-Machwerke untermauern. Stattdessen schließen wir dieses Kapitel mit dem “Fun Fact”, dass Windows Me auch als Windows Mistake Edition traurige Berühmtheit erlangte. Windows Vista Für viele Windows-Nutzer ist Vista wohl das größte OS-Verbrechen aller Zeiten. Fünf Jahre nach Windows XP wurde Vista 2006 auf den Markt gebracht und schon die Entwicklung stand unter keinem guten Stern. Die Arbeiten an Vista begannen bereits fünf Monate vor der Veröffentlichung von XP, eigentlich war Vista nur als kleineres Update von XP für das Jahr 2003 geplant – als Zwischenschritt vor einer neuen, großen Windows-Version mit dem Codenamen “Blackcomb“. Wie das im Entwicklerumfeld eben so ist, wurden viele neue Technologien und Features für “Blackcomb” plötzlich auch für Vista interessant. Die Folge: Das gesamte Projekt stürzte ins Chaos. Der damalige Windows-Chef Jim Allchin gab in einem Interview mit dem Wall Street Journal im Jahr 2005 zu, dass die Entwicklung von Vista “gegen die Wand gefahren ist”. Ein Jahr später wurde schließlich auch offensichtlich, wie verheerend dieser Crash wirklich war. Um alle Features und Unwägbarkeiten von Vista aufzuzählen, müsste man sich einer romanartigen Abhandlung widmen – deswegen konzentrieren wir uns auf einige ausgesuchte Beispiele. User Access Control (UAC) war mit Abstand eines der nervigsten Features von Vista und zwang die Nutzer, bei jeder Änderung an den Einstellungen oder dem Aufrufen eines Programms, ihre Wahl nochmals zu bestätigen. Auch die simpelsten Tasks wurden so zu nervigen, zeitraubenden Ablenkungen. Darüber hinaus war Vista auch berüchtigt für seine Instabilität: Zahllose Peripheriegeräte (darunter auch zahlreiche Drucker namhafter Hersteller) funktionierten schlicht nicht. All diese Probleme verblassen allerdings beim Blick auf die noch größeren Hardware-Probleme, denn Vista lief auf vielen Rechnern grundsätzlich nicht oder nur sehr schlecht. Dabei handelte es sich allerdings nicht um alte Modelle, sondern erschreckenderweise auch damalige Neugeräte, die teilweise mit vorinstalliertem Vista ausgestattet waren. Es gab verschiedene Versionen von Vista. Das Release der Consumer-Variante wurde auf den Januar 2007 verschoben, um das Weihnachtsgeschäft mit XP-Rechnern nicht zu gefährden. Um den Kunden einen Anreiz zu geben, trotz der nahenden Vista-Veröffentlichung XP-Maschinen zu kaufen, entschied sich Microsoft dafür, die XP-Rechner mit “Windows Vista Capable”-Stickern zu versehen. Das Problem war dabei nur, dass das nicht der Wahrheit entsprach, was die Microsoft-Verantwortlichen auch wussten, wie in der folgenden Sammelklage bekannt wurde: Zahlreiche E-Mails belegten, dass die Top-Entscheider die Kunden bewusst hinters Licht führten. “Sogar ein Stück Müll wäre qualifiziert um Windows Vista Capable zu sein”, war nur die Spitze des internen E-Mail-Eisberges. Windows 8 Trotz dieses epischen Debakels schaffte es Microsoft, noch einen drauf zu legen. Windows 8 war das bislang größte Debakel für den Redmonder Konzern: Es wurde von Privat- wie Geschäftskunden gleichermaßen abgelehnt und hat Microsofts Geschäftspläne um Jahre zurückgeworfen. Bei Windows 8 lief so vieles schief – man weiß eigentlich gar nicht, womit man beginnen soll. Der Fakt, dass es sich im Grunde nicht um ein, sondern um zwei verschiedene Betriebssysteme handelte, die richtig schlecht miteinander kombiniert wurden, war dennoch wohl das grundlegendste Problem. Eine Hälfte von Windows 8 war für mobile Geräte gedacht und nicht dafür vorgesehen, Desktop Apps auszuführen. Stattdessen sollten hier ausschließlich Metro Apps (später Universal Windows Apps und Windows Store Apps) zur Anwendung kommen. Dieser Teil des Betriebssystems wurde von Grund auf neugestaltet und auf die Nutzung mit Touchscreens optimiert. Der andere Teil des Betriebssystems bestand aus der gewohnten Desktop-Oberfläche und konnte wie gewohnt Desktop-Applikationen ausführen. Das war auch der Teil von Windows 8, den so gut wie jeder nutzte, weil Windows Tablets zum Zeitpunkt der Veröffentlichung im Jahr 2012 noch ein Nischendasein fristeten. Dennoch zwang Microsoft allen Nutzern ein für mobile Geräte optimiertes OS auf. Viele Probleme von Windows 8 hängen mit der Entscheidung Microsofts zusammen, das Betriebssystem als Brechstange zu nutzen, die Zugang zum Mobile-Markt verschafft. Zu diesem Zeitpunkt befand sich Windows Phone bereits auf dem absteigenden Ast und Microsoft wollte das dringend mit einem Fokus auf den Tablet-Markt ausgleichen. Dieser All-In-Mobile-Ansatz führte auch zum Kauf von Nokias Handy-Sparte für knapp 7,2 Milliarden Dollar – einer der größten Flops in der Geschichte der Redmonder. Erst mit Satya Nadella als CEO und einem neuen Fokus auf die Cloud schaffte es Microsoft, sich vom Windows-8-Debakel zu erholen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Microsoft-Fails: Das schlimmste Windows aller Zeiten​ Die schlimmste Windows-Version aller Zeiten? Wir haben da drei Kandidaten…
Foto: Lars Poyansky – shutterstock.com

Knapp 25 Jahre sind vergangen, seit Microsoft mit Windows Me eine absolute Stinkbombe in Betriebssystemform abgesondert hat. Instabil, ungeliebt und unbenutzbar wären die drei Eigenschaften, die das Millenium-Windows am treffendsten beschreiben. Die Frage ist nur: War Windows Me wirklich das schlimmste Windows aller Zeiten? Schließlich gibt es noch einige andere Flops aus Redmond, die mit der Millenium Edition um die goldene Himbeere der Betriebssysteme konkurrieren.

Windows Me

Im September des Jahres 2000 warf Microsoft eilig Windows Me auf den Markt – obwohl nur sieben Monate zuvor bereits Windows 2000 vorgestellt wurde. Der Grund: Windows 2000 war ursprünglich für Privat- und Geschäftsnutzer gedacht, wurde letztendlich aber eine reine Business-Version auf Windows-NT-Basis. Microsoft wollte aber auch Consumern eine eigene Millenium-Version von Windows bieten.

Das hätte man sich getrost sparen können: Windows Me war eine grausige Ansammlung von Schludrigkeiten und in vielen Fällen sowohl mit Hard- als auch mit Software inkompatibel. Oft kam man nicht einmal über den Installationsprozess hinaus – eigentlich schon ein relativ starkes Signal, von diesem Betriebssystem Abstand zu nehmen. Unvergessen auch die konstanten Weigerungen von Windows-Me-Systemen, herunterzufahren: Ein Vorgang, der viel gemein hatte mit einem Zweijährigen, der lieber einen fortlaufenden Wutanfall durchlebt, als schlafen zu gehen. Und nicht zu vergessen der Internet Explorer – der sich kontinuierlich weigerte, Web-Seiten zu laden.

Wie langsam und vor allem unsicher Windows Millenium Edition war, verdeutlicht auch das Debüt der System-Restore-Funktion. Diese ermöglichte es erstmals, das System mit Hilfe eines Wiederherstellungspunktes bei Problemen zurückzusetzen. War das System allerdings zum Widerherstellungszeitpunkt mit einem Virus infiziert, wurde auch dieser Befall wiederhergestellt.

Es gäbe viele weitere Kleinigkeiten, die den Status von Windows Me als eines der schlimmsten Betriebssystem-Machwerke untermauern. Stattdessen schließen wir dieses Kapitel mit dem “Fun Fact”, dass Windows Me auch als Windows Mistake Edition traurige Berühmtheit erlangte.

Windows Vista

Für viele Windows-Nutzer ist Vista wohl das größte OS-Verbrechen aller Zeiten. Fünf Jahre nach Windows XP wurde Vista 2006 auf den Markt gebracht und schon die Entwicklung stand unter keinem guten Stern. Die Arbeiten an Vista begannen bereits fünf Monate vor der Veröffentlichung von XP, eigentlich war Vista nur als kleineres Update von XP für das Jahr 2003 geplant – als Zwischenschritt vor einer neuen, großen Windows-Version mit dem Codenamen “Blackcomb“.

Wie das im Entwicklerumfeld eben so ist, wurden viele neue Technologien und Features für “Blackcomb” plötzlich auch für Vista interessant. Die Folge: Das gesamte Projekt stürzte ins Chaos. Der damalige Windows-Chef Jim Allchin gab in einem Interview mit dem Wall Street Journal im Jahr 2005 zu, dass die Entwicklung von Vista “gegen die Wand gefahren ist”. Ein Jahr später wurde schließlich auch offensichtlich, wie verheerend dieser Crash wirklich war.

Um alle Features und Unwägbarkeiten von Vista aufzuzählen, müsste man sich einer romanartigen Abhandlung widmen – deswegen konzentrieren wir uns auf einige ausgesuchte Beispiele. User Access Control (UAC) war mit Abstand eines der nervigsten Features von Vista und zwang die Nutzer, bei jeder Änderung an den Einstellungen oder dem Aufrufen eines Programms, ihre Wahl nochmals zu bestätigen. Auch die simpelsten Tasks wurden so zu nervigen, zeitraubenden Ablenkungen. Darüber hinaus war Vista auch berüchtigt für seine Instabilität: Zahllose Peripheriegeräte (darunter auch zahlreiche Drucker namhafter Hersteller) funktionierten schlicht nicht.

All diese Probleme verblassen allerdings beim Blick auf die noch größeren Hardware-Probleme, denn Vista lief auf vielen Rechnern grundsätzlich nicht oder nur sehr schlecht. Dabei handelte es sich allerdings nicht um alte Modelle, sondern erschreckenderweise auch damalige Neugeräte, die teilweise mit vorinstalliertem Vista ausgestattet waren.

Es gab verschiedene Versionen von Vista. Das Release der Consumer-Variante wurde auf den Januar 2007 verschoben, um das Weihnachtsgeschäft mit XP-Rechnern nicht zu gefährden. Um den Kunden einen Anreiz zu geben, trotz der nahenden Vista-Veröffentlichung XP-Maschinen zu kaufen, entschied sich Microsoft dafür, die XP-Rechner mit “Windows Vista Capable”-Stickern zu versehen. Das Problem war dabei nur, dass das nicht der Wahrheit entsprach, was die Microsoft-Verantwortlichen auch wussten, wie in der folgenden Sammelklage bekannt wurde: Zahlreiche E-Mails belegten, dass die Top-Entscheider die Kunden bewusst hinters Licht führten. “Sogar ein Stück Müll wäre qualifiziert um Windows Vista Capable zu sein”, war nur die Spitze des internen E-Mail-Eisberges.

Windows 8

Trotz dieses epischen Debakels schaffte es Microsoft, noch einen drauf zu legen. Windows 8 war das bislang größte Debakel für den Redmonder Konzern: Es wurde von Privat- wie Geschäftskunden gleichermaßen abgelehnt und hat Microsofts Geschäftspläne um Jahre zurückgeworfen.

Bei Windows 8 lief so vieles schief – man weiß eigentlich gar nicht, womit man beginnen soll. Der Fakt, dass es sich im Grunde nicht um ein, sondern um zwei verschiedene Betriebssysteme handelte, die richtig schlecht miteinander kombiniert wurden, war dennoch wohl das grundlegendste Problem. Eine Hälfte von Windows 8 war für mobile Geräte gedacht und nicht dafür vorgesehen, Desktop Apps auszuführen. Stattdessen sollten hier ausschließlich Metro Apps (später Universal Windows Apps und Windows Store Apps) zur Anwendung kommen. Dieser Teil des Betriebssystems wurde von Grund auf neugestaltet und auf die Nutzung mit Touchscreens optimiert.

Der andere Teil des Betriebssystems bestand aus der gewohnten Desktop-Oberfläche und konnte wie gewohnt Desktop-Applikationen ausführen. Das war auch der Teil von Windows 8, den so gut wie jeder nutzte, weil Windows Tablets zum Zeitpunkt der Veröffentlichung im Jahr 2012 noch ein Nischendasein fristeten. Dennoch zwang Microsoft allen Nutzern ein für mobile Geräte optimiertes OS auf.

Viele Probleme von Windows 8 hängen mit der Entscheidung Microsofts zusammen, das Betriebssystem als Brechstange zu nutzen, die Zugang zum Mobile-Markt verschafft. Zu diesem Zeitpunkt befand sich Windows Phone bereits auf dem absteigenden Ast und Microsoft wollte das dringend mit einem Fokus auf den Tablet-Markt ausgleichen. Dieser All-In-Mobile-Ansatz führte auch zum Kauf von Nokias Handy-Sparte für knapp 7,2 Milliarden Dollar – einer der größten Flops in der Geschichte der Redmonder.

Erst mit Satya Nadella als CEO und einem neuen Fokus auf die Cloud schaffte es Microsoft, sich vom Windows-8-Debakel zu erholen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Microsoft-Fails: Das schlimmste Windows aller Zeiten​ Weiterlesen »

Agiles Theater: 7 Anzeichen für DevOps-Schwindel​

Allgemein

Diese Anzeichen können Ihnen verraten, ob Ihre DevOps-Initiative mehr Schein als Sein ist. Foto: laksena – shutterstock.com Kein Zweifel: DevOps hat vielen IT-Organisationen dabei geholfen, Anwendungen und Services schneller zu entwickeln und bereitzustellen. Allerdings kommt es nicht selten vor, dass IT-Führungskräfte in den höchsten Tönen von DevOps schwärmen, während sich ihre Teams in eine völlig falsche Richtung bewegen und auf unausgegorene oder völlig unzureichende Tools oder Praktiken setzen. Sicherzustellen, dass die Entwicklungsteams nicht (absichtlich oder unabsichtlich) vom Pfad der DevOps-Tugend abkommen, liegt in der Verantwortung des CIO. Die folgenden sieben Warnzeichen können darauf hindeuten, dass Ihre DevOps-Initiative nicht mehr als Schall und Rauch ist. 1. DevOps im Silo Das erste Anzeichen für eine Fake-DevOps-Implementierung lässt sich mit einem Blick aufs Organigramm erkennen, weiß Fernando Cuadra, Principal Consultant beim Beratungsunternehmen ISG: “Wenn DevOps in einem eigenen Silo untergebracht ist, getrennt von Technik und Betrieb, ist das ein erstes Anzeichen dafür, dass keine Verantwortlichkeit für diesen Bereich gegeben ist. CIOs, die ein separates DevOps-Team schaffen, erzeugen eine weitere Komplexitätsebene, die es zu managen gilt.” Stattdessen sollte das Organigramm so designt sein, das die Teams in der Lage sind, Probleme ganzheitlich über alle relevanten Bereiche hinweg zu lösen. “Entscheiden Sie sich für den Aufbau funktionsübergreifender Teams, vom Design bis hin zum Betrieb”, rät Cuadra. “Bei DevOps geht es nicht um Pipelines und CI/CD, sondern darum, die Wertschöpfung mit minimalen Reibungsverlusten im gesamten Unternehmen selbst zu steuern.” 2. Tool- statt Menschenfokus Unternehmen, die sich zu sehr auf die Tool- und technologieorientierte Seite der DevOps-Kultur konzentrieren und Menschen und Prozesse außen vor lassen, können aus dem Gleichgewicht geraten. “Es ist wichtig, die aktuellen Business-Praktiken und -Bedürfnisse zu bewerten”, meint Mohan Kumar, Senior Architect bei TEKsystems. Er empfiehlt: “Verankern Sie die DevOps-Kultur in Kommunikation, Zusammenarbeit, Feedbackerfassung und Datenanalysen.” Eine experimentierfreudige Umgebung, die es Entwicklern erlaube, zu scheitern und zu lernen, schaffe eine von Schuldzuweisungen innerhalb des Unternehmens befreite Kultur, so der Experte. “Nutzen Sie die kollektive Intelligenz der Teams, um einen Strom kreativer Ideen zu fördern”, fügt er hinzu. Die Einführung von DevOps sei ein iterativer Prozess, weshalb der CIO zunächst den aktuellen Zustand des Entwicklungsteams bewertet und dann schrittweise eine Strategie der kontinuierlichen Verbesserung aufbaut, die Menschen, Prozesse und Tools einbezieht. “Letztlich ist Kreativität ein Muskel, der ständig trainiert werden muss, um sich weiterzuentwickeln”, so Kumar. 3. Zu wenig Automatisierung Auch Teamleiter, die Automatisierungsmentalität vermissen lassen, können zu DevOps-Schwindel beitragen. dies gilt insbesondere für solche, die daran scheitern, Zeit und Ressourcen in den Aufbau einer starken Architektur mit automatisierter Code Delivery zu stecken. Bevor Sie eine Automatisierungsinitiative in Angriff nehmen, sollten Sie daher den Entwicklungsbedarf, die bestehenden Verträge und die aktuellen Projektteams sorgfältig begutachten, wie Ian Fogarty, Managing Director of Technology and Operations beim Beratungsunternehmen Accenture Federal Services, empfiehlt: “Prüfen Sie, ob die Fähigkeiten der Organisation so weit entwickelt sind, dass Sie die Infrastruktur automatisieren können.” Wie Kumar anmerkt, kann Automatisierung jedoch ein zweischneidiges Schwert sein. Es sei allzu leicht, unbeabsichtigt von fehlerhaften manuellen zu fehlerhaften automatisierten Prozessen überzugehen. “Widerstehen Sie dem Drang, so viel wie möglich zu automatisieren, und beschränken Sie Ihre Initiative auf sinnvolle Punkte. Das ultimative Ziel sollte sein, Software-Releases in einen wiederholbaren, zuverlässigen und automatisierten Bereitstellungsprozess zu verwandeln.” 4. Planlose Automatisierung Automatisierung kann wie eben gelesen von großem Nutzen sein. Allerdings stürzen sich immer noch viele Unternehmen ohne ausreichende Analyse und Planung in die DevOps-Automatisierung. Aaron Oh, Managing Director DevSecOps bei Deloitte Risk & Financial Advisory, plaudert aus dem Nähkästchen: “Wir haben Unternehmen erlebt, die der Automatisierung Priorität einräumen, ohne andere Aspekte wie Governance, Mitarbeiter, Prozesse und Technologie zu berücksichtigen. Solche Unternehmen verschwenden in der Regel viel Zeit mit der Überprüfung und Korrektur von Automatisierungsaufgaben.” Statt sich direkt in die Automatisierung zu stürzen, empfiehlt Oh die Einführung einer starken Governance und die Standardisierung von Anforderungen und Prozessen: “Die Zusammenarbeit zwischen den einzelnen Geschäftsbereichen ist ein wesentlicher Bestandteil von DevOps. Dabei sollten eventuell vorhandene organisatorische Hindernisse beseitigt werden – es ist wichtig, dass die Führungsebene hier den Ton angibt. Außerdem sollten intelligente Orchestrierungs-Tools zum Einsatz kommen, um Silos zu beseitigen und eine effiziente Kommunikation zu ermöglichen.” 5. Unrealistische Erwartungen Führungskräfte im Technologiebereich sollten sich auf ein Engagement konzentrieren, das über die bloße Einführung neuer technologischer Tools und Verfahren hinausgeht. “Sie müssen der Veränderung der Unternehmenskultur und der Denkweise der Mitarbeiter Vorrang einräumen”, appelliert Tim Potter, Principal bei Deloitte Consulting, und ergänzt: “Sie müssen außerdem auch realistische Fristen setzen, damit die Transformation im Unternehmen Fuß fassen kann. Ein Unternehmen, das einfach nur mehr automatisierte Tools einsetzt und bestehende Anwendungsteams, die sich von Anfang bis Ende um Produktionsprobleme kümmern, ‘DevOps-Teams’ nennt – wird von den erzielten Ergebnissen sehr wahrscheinlich enttäuscht sein.” Zudem sollten sich IT- und Tech-Entscheider laut dem Deloitte-Mann darauf einstellen, dass sich die Performance nach der Umstellung auf DevOps zunächst verschlechtert, bevor sie sich verbessert: “Sie müssen darauf vorbereitet sein, ihre Anwendungsteams zu unterstützen, damit sie testen und lernen und sich mit dem neuen Modell vertraut machen können. Unangemessene Erwartungen und ein unzureichender Zeitrahmen für die Umstellung können zu Fake-DevOps-Initiativen führen.” 6. Teams, die in der Vergangenheit leben Alte Gewohnheiten lassen sich bekanntlich nur schwer ablegen. Jahrzehntelang folgte die Softwareentwicklung der traditionellen Wasserfallmethodik, einem Prozess, bei dem es darum ging, Anforderungen im Voraus zu sammeln, Funktionen zu entwickeln und die Ergebnisse schließlich zur Freigabe an die Qualitätssicherung und andere Teams zu übergeben. Das hatte Folgen, wie auch Ashish Kakran, Principal bei der IT-Risikokapitalgesellschaft Thomvest Ventures, weiß: “Früher hat es Monate gedauert, bis die Kunden neue Funktionen zu sehen bekamen.” Wenn es den Entwicklungsteams nicht gelinge, sich vollständig vom Wasserfallmodell zu lösen, könne es zu seltsamen Kombinationen von Prozessen kommen, warnt Kakran und schlägt vor, die DevOps “Epics” und “Stories” eines Teams zu analysieren, um sich ein Bild von dessen Status zu machen: “Der gesamte Kontext eines laufenden Projekts wird oft in diesen Aufgaben erfasst. Wenn bereits ein einmonatiges Projekt in Aufgaben mit wenig oder gar keinem kontinuierlichen Kunden-Feedback aufgeteilt ist, ist das ein Zeichen dafür, dass das Team sich selbst zum Scheitern verurteilt – sei es durch das versäumte Deadlines oder die Bereitstellung von User Experiences, die den Namen nicht verdienen.” 7. Flexibilitätsmängel DevOps ist keine One-Size-fits-All-Methodologie. Um maximale Effektivität zu erzielen, sollten DevOps-Workflows und -Tools auf die spezifischen Anforderungen des Unternehmens abgestimmt werden. Diese können je nach Größe, Anwendungstyp und Entwicklungskompetenz sehr unterschiedlich ausfallen. Dabei sollte DevOps niemals statisch sein: Die Prozesse und Tools müssen angepasst werden, wenn das Unternehmen wächst und sein Streben nach kontinuierlicher Verbesserung verfolgt. Das erfordert nach Meinung von Wing To, Vice President of Engineering bei Digital.ai, flexible Tools und die Fähigkeit, KPIs zu analysieren. Er ergänzt: “IT-Führungskräfte sollten auch den Kulturwandel berücksichtigen, der erforderlich ist, um Entwicklungs- und Betriebsteams zusammenzubringen. Anstatt eine separate DevOps-Abteilung einzurichten, die ein weiteres Silo und noch mehr Prozessengpässe schafft, sollte die Methodik in jeden Geschäftsbereich integriert werden.” (fm) DevOps is trending… Let’s recap what’s a DevOps for the sake of it… #jk #devops meme pic.twitter.com/mSpoz3jT06— MarkoNtech (@markontechcom) November 2, 2021 Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Agiles Theater: 7 Anzeichen für DevOps-Schwindel​ Diese Anzeichen können Ihnen verraten, ob Ihre DevOps-Initiative mehr Schein als Sein ist.
Foto: laksena – shutterstock.com

Kein Zweifel: DevOps hat vielen IT-Organisationen dabei geholfen, Anwendungen und Services schneller zu entwickeln und bereitzustellen. Allerdings kommt es nicht selten vor, dass IT-Führungskräfte in den höchsten Tönen von DevOps schwärmen, während sich ihre Teams in eine völlig falsche Richtung bewegen und auf unausgegorene oder völlig unzureichende Tools oder Praktiken setzen.

Sicherzustellen, dass die Entwicklungsteams nicht (absichtlich oder unabsichtlich) vom Pfad der DevOps-Tugend abkommen, liegt in der Verantwortung des CIO. Die folgenden sieben Warnzeichen können darauf hindeuten, dass Ihre DevOps-Initiative nicht mehr als Schall und Rauch ist.

1. DevOps im Silo

Das erste Anzeichen für eine Fake-DevOps-Implementierung lässt sich mit einem Blick aufs Organigramm erkennen, weiß Fernando Cuadra, Principal Consultant beim Beratungsunternehmen ISG: “Wenn DevOps in einem eigenen Silo untergebracht ist, getrennt von Technik und Betrieb, ist das ein erstes Anzeichen dafür, dass keine Verantwortlichkeit für diesen Bereich gegeben ist. CIOs, die ein separates DevOps-Team schaffen, erzeugen eine weitere Komplexitätsebene, die es zu managen gilt.”

Stattdessen sollte das Organigramm so designt sein, das die Teams in der Lage sind, Probleme ganzheitlich über alle relevanten Bereiche hinweg zu lösen. “Entscheiden Sie sich für den Aufbau funktionsübergreifender Teams, vom Design bis hin zum Betrieb”, rät Cuadra. “Bei DevOps geht es nicht um Pipelines und CI/CD, sondern darum, die Wertschöpfung mit minimalen Reibungsverlusten im gesamten Unternehmen selbst zu steuern.”

2. Tool- statt Menschenfokus

Unternehmen, die sich zu sehr auf die Tool- und technologieorientierte Seite der DevOps-Kultur konzentrieren und Menschen und Prozesse außen vor lassen, können aus dem Gleichgewicht geraten. “Es ist wichtig, die aktuellen Business-Praktiken und -Bedürfnisse zu bewerten”, meint Mohan Kumar, Senior Architect bei TEKsystems. Er empfiehlt: “Verankern Sie die DevOps-Kultur in Kommunikation, Zusammenarbeit, Feedbackerfassung und Datenanalysen.”

Eine experimentierfreudige Umgebung, die es Entwicklern erlaube, zu scheitern und zu lernen, schaffe eine von Schuldzuweisungen innerhalb des Unternehmens befreite Kultur, so der Experte. “Nutzen Sie die kollektive Intelligenz der Teams, um einen Strom kreativer Ideen zu fördern”, fügt er hinzu. Die Einführung von DevOps sei ein iterativer Prozess, weshalb der CIO zunächst den aktuellen Zustand des Entwicklungsteams bewertet und dann schrittweise eine Strategie der kontinuierlichen Verbesserung aufbaut, die Menschen, Prozesse und Tools einbezieht. “Letztlich ist Kreativität ein Muskel, der ständig trainiert werden muss, um sich weiterzuentwickeln”, so Kumar.

3. Zu wenig Automatisierung

Auch Teamleiter, die Automatisierungsmentalität vermissen lassen, können zu DevOps-Schwindel beitragen. dies gilt insbesondere für solche, die daran scheitern, Zeit und Ressourcen in den Aufbau einer starken Architektur mit automatisierter Code Delivery zu stecken.

Bevor Sie eine Automatisierungsinitiative in Angriff nehmen, sollten Sie daher den Entwicklungsbedarf, die bestehenden Verträge und die aktuellen Projektteams sorgfältig begutachten, wie Ian Fogarty, Managing Director of Technology and Operations beim Beratungsunternehmen Accenture Federal Services, empfiehlt: “Prüfen Sie, ob die Fähigkeiten der Organisation so weit entwickelt sind, dass Sie die Infrastruktur automatisieren können.”

Wie Kumar anmerkt, kann Automatisierung jedoch ein zweischneidiges Schwert sein. Es sei allzu leicht, unbeabsichtigt von fehlerhaften manuellen zu fehlerhaften automatisierten Prozessen überzugehen. “Widerstehen Sie dem Drang, so viel wie möglich zu automatisieren, und beschränken Sie Ihre Initiative auf sinnvolle Punkte. Das ultimative Ziel sollte sein, Software-Releases in einen wiederholbaren, zuverlässigen und automatisierten Bereitstellungsprozess zu verwandeln.”

4. Planlose Automatisierung

Automatisierung kann wie eben gelesen von großem Nutzen sein. Allerdings stürzen sich immer noch viele Unternehmen ohne ausreichende Analyse und Planung in die DevOps-Automatisierung.

Aaron Oh, Managing Director DevSecOps bei Deloitte Risk & Financial Advisory, plaudert aus dem Nähkästchen: “Wir haben Unternehmen erlebt, die der Automatisierung Priorität einräumen, ohne andere Aspekte wie Governance, Mitarbeiter, Prozesse und Technologie zu berücksichtigen. Solche Unternehmen verschwenden in der Regel viel Zeit mit der Überprüfung und Korrektur von Automatisierungsaufgaben.”

Statt sich direkt in die Automatisierung zu stürzen, empfiehlt Oh die Einführung einer starken Governance und die Standardisierung von Anforderungen und Prozessen: “Die Zusammenarbeit zwischen den einzelnen Geschäftsbereichen ist ein wesentlicher Bestandteil von DevOps. Dabei sollten eventuell vorhandene organisatorische Hindernisse beseitigt werden – es ist wichtig, dass die Führungsebene hier den Ton angibt. Außerdem sollten intelligente Orchestrierungs-Tools zum Einsatz kommen, um Silos zu beseitigen und eine effiziente Kommunikation zu ermöglichen.”

5. Unrealistische Erwartungen

Führungskräfte im Technologiebereich sollten sich auf ein Engagement konzentrieren, das über die bloße Einführung neuer technologischer Tools und Verfahren hinausgeht. “Sie müssen der Veränderung der Unternehmenskultur und der Denkweise der Mitarbeiter Vorrang einräumen”, appelliert Tim Potter, Principal bei Deloitte Consulting, und ergänzt: “Sie müssen außerdem auch realistische Fristen setzen, damit die Transformation im Unternehmen Fuß fassen kann. Ein Unternehmen, das einfach nur mehr automatisierte Tools einsetzt und bestehende Anwendungsteams, die sich von Anfang bis Ende um Produktionsprobleme kümmern, ‘DevOps-Teams’ nennt – wird von den erzielten Ergebnissen sehr wahrscheinlich enttäuscht sein.”

Zudem sollten sich IT- und Tech-Entscheider laut dem Deloitte-Mann darauf einstellen, dass sich die Performance nach der Umstellung auf DevOps zunächst verschlechtert, bevor sie sich verbessert: “Sie müssen darauf vorbereitet sein, ihre Anwendungsteams zu unterstützen, damit sie testen und lernen und sich mit dem neuen Modell vertraut machen können. Unangemessene Erwartungen und ein unzureichender Zeitrahmen für die Umstellung können zu Fake-DevOps-Initiativen führen.”

6. Teams, die in der Vergangenheit leben

Alte Gewohnheiten lassen sich bekanntlich nur schwer ablegen. Jahrzehntelang folgte die Softwareentwicklung der traditionellen Wasserfallmethodik, einem Prozess, bei dem es darum ging, Anforderungen im Voraus zu sammeln, Funktionen zu entwickeln und die Ergebnisse schließlich zur Freigabe an die Qualitätssicherung und andere Teams zu übergeben. Das hatte Folgen, wie auch Ashish Kakran, Principal bei der IT-Risikokapitalgesellschaft Thomvest Ventures, weiß: “Früher hat es Monate gedauert, bis die Kunden neue Funktionen zu sehen bekamen.”

Wenn es den Entwicklungsteams nicht gelinge, sich vollständig vom Wasserfallmodell zu lösen, könne es zu seltsamen Kombinationen von Prozessen kommen, warnt Kakran und schlägt vor, die DevOps “Epics” und “Stories” eines Teams zu analysieren, um sich ein Bild von dessen Status zu machen: “Der gesamte Kontext eines laufenden Projekts wird oft in diesen Aufgaben erfasst. Wenn bereits ein einmonatiges Projekt in Aufgaben mit wenig oder gar keinem kontinuierlichen Kunden-Feedback aufgeteilt ist, ist das ein Zeichen dafür, dass das Team sich selbst zum Scheitern verurteilt – sei es durch das versäumte Deadlines oder die Bereitstellung von User Experiences, die den Namen nicht verdienen.”

7. Flexibilitätsmängel

DevOps ist keine One-Size-fits-All-Methodologie. Um maximale Effektivität zu erzielen, sollten DevOps-Workflows und -Tools auf die spezifischen Anforderungen des Unternehmens abgestimmt werden. Diese können je nach Größe, Anwendungstyp und Entwicklungskompetenz sehr unterschiedlich ausfallen.

Dabei sollte DevOps niemals statisch sein: Die Prozesse und Tools müssen angepasst werden, wenn das Unternehmen wächst und sein Streben nach kontinuierlicher Verbesserung verfolgt. Das erfordert nach Meinung von Wing To, Vice President of Engineering bei Digital.ai, flexible Tools und die Fähigkeit, KPIs zu analysieren. Er ergänzt: “IT-Führungskräfte sollten auch den Kulturwandel berücksichtigen, der erforderlich ist, um Entwicklungs- und Betriebsteams zusammenzubringen. Anstatt eine separate DevOps-Abteilung einzurichten, die ein weiteres Silo und noch mehr Prozessengpässe schafft, sollte die Methodik in jeden Geschäftsbereich integriert werden.” (fm)

DevOps is trending… Let’s recap what’s a DevOps for the sake of it… #jk #devops meme pic.twitter.com/mSpoz3jT06— MarkoNtech (@markontechcom) November 2, 2021

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Agiles Theater: 7 Anzeichen für DevOps-Schwindel​ Weiterlesen »

Warum Apple das iPhone 16e besser nicht jährlich aktualisieren sollte​

Allgemein

David Price / Foundry Apple hält sich mit den Verkaufszahlen einzelner Produkte bedeckt, wir müssen uns mit Umsatzzahlen für komplette Kategorien begnügen. Aber selbst mit diesen vagen Zahlen sind sich die meisten Analysten einig, dass das diesjährige iPhone 16e deutlich mehr Einheiten verkauft als das iPhone SE der 3. Generation, das es (mehr oder weniger) ersetzt hat. In der neuesten Ausgabe seines Newsletters Power On erklärt der viel beachtete Bloomberg-Reporter Mark Gurman, warum ihn das nicht überrascht hat. „Für die Fans des SE“, führt er aus, „war der Sprung von der zweiten zur dritten Generation minimal [das ist eine höfliche Formulierung], weshalb es weniger Gründe für ein Upgrade gab. Das iPhone 16e – auch wenn es im Grunde ein abgespecktes iPhone 16 ist – ist ein bedeutendes Redesign des SE 3.“ Gurman fügt hinzu, dass Apple das 16e auf eine intelligentere und ansprechendere Weise vermarktet hat als die 2022er-Iteration des SE. Indem das Unternehmen es mit den Premium-Smartphones der 16er-Serie und nicht mit der preisgünstigen SE-Linie verband, konnte es auf Märkten wie China „ein wenig mehr Anziehungskraft“ entwickeln. Das sind alles gute Nachrichten für Apple, aber Gurman ist mehr an einer anderen Frage interessiert: Ob Apple die „e“-Linie der iPhones einmal im Jahr aktualisieren wird, so wie es bei den Flaggschiff-Geräten der Fall ist. Die SE-Linie hat Apple dagegen recht sporadisch aktualisiert: Die drei Generationen kamen 2016, 2020 und 2022 auf den Markt, bevor das 16e im Jahr 2025 debütierte. David Price / Foundry Gurman ist sich nicht sicher, ob die „e“-iPhones in einem jährlichen Rhythmus auf den Markt kommen werden, denn Apple habe selbst noch keine endgültige Entscheidung getroffen. Er weist jedoch darauf hin, dass konkurrierende Unternehmen wie Samsung und Google ein oder mehrere Male pro Jahr neue günstige Smartphones auf den Markt bringen und folgert daraus, dass ein jährlicher Upgrade-Zyklus für das iPhone 16e und seine Nachfolger „sehr sinnvoll ist“. Warum ein 17e eine schlechte Idee wäre Aber ich bin nicht überzeugt, dass es so ist. Nach Gurmans eigener Logik wurde das iPhone 16e vorwiegend deshalb so positiv aufgenommen, weil es ein bedeutendes Upgrade und eine große Veränderung gegenüber dem SE der dritten Generation bedeutete, einem Gerät, das weit weniger kostete und drei Jahre zuvor auf den Markt kam. Das wäre absolut nicht der Fall, wenn Apple im April 2026 ein iPhone 17e auf den Markt bringen würde, das auf einer Reihe von Geräten der 17er-Reihe basiert, die kommenden September auf den Markt kommen. Ein solches iPhone würde wahrscheinlich dem 16e recht ähnlich sein, und obwohl das die Besitzer des iPhone 13 oder 14 ansprechen könnte, wäre es keine so spektakuläre Neuerung, die dem 16e einen so offensichtlichen kommerziellen Erfolg beschert hat. Das Problem ist, dass man entweder regelmäßig neue Geräte auf den Markt bringen kann oder Smartphones, die eine große Verbesserung gegenüber ihren Vorgängern darstellen, aber nicht beides. Oder besser gesagt: Es geht, aber Apple tut es nicht gerne, weil regelmäßige nennenswerte Verbesserungen die Gewinnspannen schmälern und zukünftige Markteinführungen schwieriger zu steuern sind. Alles in allem denke ich, dass es wahrscheinlich sinnvoll ist, einen vorhersehbaren jährlichen Rhythmus für die Einführung der „e“-Linie festzulegen, damit die Kunden lernen, jedes Frühjahr ein neues Mittelklasse-Handy zu erwarten und ihre Kaufpläne entsprechend anzupassen. Aber das würde nicht jedes Jahr einen Riesenerfolg garantieren, wie es bei der restlichen iPhone-Reihe der Fall ist. Ich bin sicher, dass Apple bei seiner Entscheidung die Wahrscheinlichkeit berücksichtigt, dass ein 17e im April 2026 für die Kunden weitaus weniger interessant sein wird als das 16e in diesem April. Aber hier ist noch ein letzter Punkt. Apple könnte den 17e sofort attraktiv machen, indem es einige der extremen Kompromisse rückgängig macht, die es eingegangen ist, um sicherzustellen, dass das 16e Apple Intelligence unterstützt. Um dies zu erreichen, wurde das 16e mit einem A18-Chip und 8 GB RAM ausgestattet, einer weitaus leistungsfähigeren (und teureren) Ausstattung, als es eigentlich nötig gewesen wäre. Aber jetzt, da die Messlatte gesenkt wurde, müssen sich diese primären Spezifikationen 2026 nicht mehr ändern. Apple könnte ein 17e mit demselben Chip und demselben Arbeitsspeicher auf den Markt bringen und seine Ressourcen auf die Wiedereinführung von Magsafe konzentrieren. Oder ein zweites Kameraobjektiv einbauen. Oder sogar von der Notch zur Dynamic Island wechseln. Diese Änderungen, wenn sie logistisch machbar sind, würden eine zweite erfolgreiche „e“-Einführung sicherstellen. Aber diese Strategie hat nur eine begrenzte Lebensdauer, denn das 18e müsste noch besser werden. Und letztlich bedeutet die Umstellung auf eine langfristige jährliche Veröffentlichungsstrategie, dass Sie akzeptieren müssen, dass viele Ihrer Produkte mit einem Gähnen und nicht mit einem Schreien aufgenommen werden. (Mackwelt) 

Warum Apple das iPhone 16e besser nicht jährlich aktualisieren sollte​ David Price / Foundry

Apple hält sich mit den Verkaufszahlen einzelner Produkte bedeckt, wir müssen uns mit Umsatzzahlen für komplette Kategorien begnügen. Aber selbst mit diesen vagen Zahlen sind sich die meisten Analysten einig, dass das diesjährige iPhone 16e deutlich mehr Einheiten verkauft als das iPhone SE der 3. Generation, das es (mehr oder weniger) ersetzt hat.

In der neuesten Ausgabe seines Newsletters Power On erklärt der viel beachtete Bloomberg-Reporter Mark Gurman, warum ihn das nicht überrascht hat.

„Für die Fans des SE“, führt er aus, „war der Sprung von der zweiten zur dritten Generation minimal [das ist eine höfliche Formulierung], weshalb es weniger Gründe für ein Upgrade gab. Das iPhone 16e – auch wenn es im Grunde ein abgespecktes iPhone 16 ist – ist ein bedeutendes Redesign des SE 3.“

Gurman fügt hinzu, dass Apple das 16e auf eine intelligentere und ansprechendere Weise vermarktet hat als die 2022er-Iteration des SE. Indem das Unternehmen es mit den Premium-Smartphones der 16er-Serie und nicht mit der preisgünstigen SE-Linie verband, konnte es auf Märkten wie China „ein wenig mehr Anziehungskraft“ entwickeln.

Das sind alles gute Nachrichten für Apple, aber Gurman ist mehr an einer anderen Frage interessiert: Ob Apple die „e“-Linie der iPhones einmal im Jahr aktualisieren wird, so wie es bei den Flaggschiff-Geräten der Fall ist. Die SE-Linie hat Apple dagegen recht sporadisch aktualisiert: Die drei Generationen kamen 2016, 2020 und 2022 auf den Markt, bevor das 16e im Jahr 2025 debütierte.

David Price / Foundry

Gurman ist sich nicht sicher, ob die „e“-iPhones in einem jährlichen Rhythmus auf den Markt kommen werden, denn Apple habe selbst noch keine endgültige Entscheidung getroffen. Er weist jedoch darauf hin, dass konkurrierende Unternehmen wie Samsung und Google ein oder mehrere Male pro Jahr neue günstige Smartphones auf den Markt bringen und folgert daraus, dass ein jährlicher Upgrade-Zyklus für das iPhone 16e und seine Nachfolger „sehr sinnvoll ist“.

Warum ein 17e eine schlechte Idee wäre

Aber ich bin nicht überzeugt, dass es so ist. Nach Gurmans eigener Logik wurde das iPhone 16e vorwiegend deshalb so positiv aufgenommen, weil es ein bedeutendes Upgrade und eine große Veränderung gegenüber dem SE der dritten Generation bedeutete, einem Gerät, das weit weniger kostete und drei Jahre zuvor auf den Markt kam.

Das wäre absolut nicht der Fall, wenn Apple im April 2026 ein iPhone 17e auf den Markt bringen würde, das auf einer Reihe von Geräten der 17er-Reihe basiert, die kommenden September auf den Markt kommen. Ein solches iPhone würde wahrscheinlich dem 16e recht ähnlich sein, und obwohl das die Besitzer des iPhone 13 oder 14 ansprechen könnte, wäre es keine so spektakuläre Neuerung, die dem 16e einen so offensichtlichen kommerziellen Erfolg beschert hat.

Das Problem ist, dass man entweder regelmäßig neue Geräte auf den Markt bringen kann oder Smartphones, die eine große Verbesserung gegenüber ihren Vorgängern darstellen, aber nicht beides. Oder besser gesagt: Es geht, aber Apple tut es nicht gerne, weil regelmäßige nennenswerte Verbesserungen die Gewinnspannen schmälern und zukünftige Markteinführungen schwieriger zu steuern sind.

Alles in allem denke ich, dass es wahrscheinlich sinnvoll ist, einen vorhersehbaren jährlichen Rhythmus für die Einführung der „e“-Linie festzulegen, damit die Kunden lernen, jedes Frühjahr ein neues Mittelklasse-Handy zu erwarten und ihre Kaufpläne entsprechend anzupassen. Aber das würde nicht jedes Jahr einen Riesenerfolg garantieren, wie es bei der restlichen iPhone-Reihe der Fall ist. Ich bin sicher, dass Apple bei seiner Entscheidung die Wahrscheinlichkeit berücksichtigt, dass ein 17e im April 2026 für die Kunden weitaus weniger interessant sein wird als das 16e in diesem April.

Aber hier ist noch ein letzter Punkt. Apple könnte den 17e sofort attraktiv machen, indem es einige der extremen Kompromisse rückgängig macht, die es eingegangen ist, um sicherzustellen, dass das 16e Apple Intelligence unterstützt. Um dies zu erreichen, wurde das 16e mit einem A18-Chip und 8 GB RAM ausgestattet, einer weitaus leistungsfähigeren (und teureren) Ausstattung, als es eigentlich nötig gewesen wäre.

Aber jetzt, da die Messlatte gesenkt wurde, müssen sich diese primären Spezifikationen 2026 nicht mehr ändern. Apple könnte ein 17e mit demselben Chip und demselben Arbeitsspeicher auf den Markt bringen und seine Ressourcen auf die Wiedereinführung von Magsafe konzentrieren. Oder ein zweites Kameraobjektiv einbauen. Oder sogar von der Notch zur Dynamic Island wechseln.

Diese Änderungen, wenn sie logistisch machbar sind, würden eine zweite erfolgreiche „e“-Einführung sicherstellen. Aber diese Strategie hat nur eine begrenzte Lebensdauer, denn das 18e müsste noch besser werden. Und letztlich bedeutet die Umstellung auf eine langfristige jährliche Veröffentlichungsstrategie, dass Sie akzeptieren müssen, dass viele Ihrer Produkte mit einem Gähnen und nicht mit einem Schreien aufgenommen werden.

(Mackwelt)

Warum Apple das iPhone 16e besser nicht jährlich aktualisieren sollte​ Weiterlesen »

So verlängert der Stromsparmodus die Akkulaufzeit Ihres Macbooks​

Allgemein

Apple Macbooks mit Apple-Chip sind stromsparender als die älteren Macbooks mit Intel-Prozessor, sodass sie sich wesentlich länger im Batteriemodus betreiben lassen. So stieg insbesondere die Laufzeit im Batteriemodus beim Macbook Air 13-Zoll laut Apples technischen Angaben von 12 Stunden beim Macbook Air 2020 mit Intel-Prozessor auf 18 Stunden beim Macbook Air mit M1-Chip. Gleichzeitig hat sich auch die Leistung deutlich erhöht. Bei den späteren Modellen des Macbook Air mit M2-, M3- und M4-Chip ist Apple bei der Angabe von 18 Stunden Laufzeit im Batteriemodus geblieben. In dieser Zeit hat sich die Leistung der Chips von Generation zu Generation weiter erhöht, während der Akku weitgehend gleich geblieben ist. Sie bekommen also mehr Leistung bei gleichem Energieverbrauch. Der Stromsparmodus Alle Macbooks mit Apple-Chip können Sie alternativ in einem stromsparenden Modus betreiben. Dabei wird die maximal mögliche Taktrate der Kerne vermindert, was zu einem niedrigeren Energiebedarf führt. Das bedeutet natürlich, dass die Leistung dann geringer ist. Für viele Aufgaben reicht aber diese Leistung aus. Wenn Sie etwa Texte bearbeiten, im Internet surfen oder einen Film anschauen, werden Sie die geringere Leistung in der Regel gar nicht bemerken. Zudem müssen die Lüfter, sofern vorhanden, wegen der niedrigeren Energieaufnahme weniger oder gar nicht arbeiten. Und beim Macbook Air muss das System bei hohen Außentemperaturen nicht oder kaum die Leistung drosseln. Wir haben uns den Stromsparmodus auf zwei Macbooks näher angesehen. Das eine ist ein Macbook Pro mit M3-Pro-Chip, und zwar in der abgespeckten Version mit 11 CPU-Kernen und 14 GPU-Kernen. Das andere Testgerät ist ein Macbook Air 15 Zoll mit M4-Chip. Dieser hat 10 CPU-Kerne und 10 GPU-Kerne. Bei beiden Modellen hat die CPU sechs Effizienzkerne und beim Macbook Pro fünf und beim Macbook Air vier Leistungskerne. Für den Test verwenden wir die Programme Cinebench 2024 und Geekbench 6.4 unter macOS 15 Sequoia. Das sind zwar Leistungstests, es ist aber gut zu sehen, wie die Leistung und der Energieverbrauch zwischen dem normalen Arbeitsmodus und dem Stromsparmodus variieren. Beim Macbook Air und beim Macbook Pro mit dem normalen M-Chip gibt es vier Optionen für den Stromsparmodus. Thomas Armbrüster Unterschiede zwischen M3 und M4 Bei der CPU wird bei beiden Macbooks die Maximalfrequenz der Leistungskerne begrenzt. Dabei fällt bei Cinebench 2024 auf, dass die CPU des M4 deutlich stärker in der Leistung gedrosselt wird als die der M3. Beim M4 messen wir knapp 50 Prozent der Leistung gegenüber dem Normalmodus, und zwar sowohl bei den Werten für einen Kern als auch denjenigen für alle Kerne. Gleichzeitig messen wir mit dem Terminalprogramm Asitop den Energieverbrauch der CPU. Dieser sinkt dabei auf etwa 25 Prozent. Im Stromsparmodus sinkt die Leistung beim Macbook Air M4 in Cinebench auf etwa 50 Prozent, bei deutlich geringerem Stromverbrauch.Thomas Armbrüster Der M3 reduziert die Leistung wesentlich moderater, und zwar auf 65 Prozent im Einzelkernmodus und auf 86 Prozent im Mehrkernmodus. Der Stromverbrauch vermindert sich auf 40 Prozent beziehungsweise 53 Prozent. Beim GPU-Test von Cinebench sinkt die Leistung beim M3 dagegen nicht und der Verbrauch nur minimal, während der M4 auf gute 60 Prozent bei der Leistung reduziert, beim Verbrauch aber ebenfalls auf etwa 25 Prozent. Bei den Tests mit Geekbench 6.4 sieht es bei der Leistungsreduzierung der CPU ähnlich aus, nur dass beim M4 der Stromverbrauch nicht ganz so stark sinkt wie beim Cinebench-Test. Hier sehen wir eine Reduzierung beim M4 auf 40 Prozent. Der M3 reduziert im Mehrkerntest etwas stärker als beim Test mit Cinebench, und zwar sowohl bei der Leistung als auch beim Stromverbrauch. Beim GPU-Test mit Geekbench wird der M3 wiederum nicht gebremst, der M4 dagegen auf etwa 75 Prozent bei einem halbierten Stromverbrauch. Beide Chips arbeiten also mit einem unterschiedlichen Stromsparmodus. Stromsparmodus aktivieren Die Einstellungen für den Stromsparmodus finden Sie in der Systemeinstellung „Batterie“. Dabei gibt es einen Unterschied zwischen den verschiedenen Modellen. Sofern sie ein Macbook Pro mit einem M4 Pro oder M4 Max haben, ein Macbook Pro 16-Zoll mit M1 Max, M2 Max oder M3 Max oder ein Macbook Pro 14-Zoll mit M3 Max, unterstützt der Chip nicht nur einen stromsparenden Modus, sondern auch einen Hochleistungsmodus. Bei letzterem werden die Kerne aber nicht höher getaktet, sondern nur die Lüfter stärker eingesetzt, um den Chip über längere Zeit kühl zu halten. Das verhindert, dass die Kerne gedrosselt werden müssen und dadurch mehr Leistung erbringen können. Bei diesen Macbooks gibt es in der Systemeinstellung „Batterie“ eine Abteilung „Energiemodus“. Hier können sie in einem Aufklappmenü für den Batteriebetrieb und für den Betrieb mit Netzteil jeweils drei Einstellungen vornehmen: „Geringe Ladung“, „Automatisch“ oder „Hohe Leistung“. „Geringe Ladung“ ist etwas unglücklich übersetzt und meint geringerer Stromverbrauch (Low Power), „Automatisch“ ist der normale Modus. Bei Macbooks, die die leistungsfähigen Pro- und Mac-Chips haben, gibt es auch eine Einstellung für hohe Leistung.Thomas Armbrüster Bei den anderen Macbooks finden Sie oben in der Systemeinstellung die Abteilung „Stromsparmodus“. Im Aufklappmenü stellen Sie ein, ob dieser Modus nie, nur im Batterie- oder nur im Netzbetrieb oder immer aktiviert werden soll. Lassen Sie sich den Batteriestatus in der Menüleiste anzeigen (das aktivieren Sie in der Systemeinstellung „Kontrollzentrum“), färbt macOS Sequoia 15.4 das Symbol gelb ein, wenn der Stromsparmodus aktiviert ist. Und klicken Sie das Symbol an, wir der aktuelle Energiemodus angezeigt. Auch hier bedeutet „Geringe Ladung“, dass der Stromsparmodus aktiv ist. Um diesen zu beenden, genügt ein Klick auf diesen Menüeintrag. Um den Stromsparmodus wieder zu aktivieren, müssen Sie die Systemeinstellung „Batterie“ öffnen. Im Menü wird zudem angezeigt, ob eine App gerade besonders viel Leistung benötigt. Das Menüsymbol ist im Stromsparmodus gelb, und im Menü wird der Stromsparmodus angezeigt.Thomas Armbrüster (Macwelt) 

So verlängert der Stromsparmodus die Akkulaufzeit Ihres Macbooks​ Apple

Macbooks mit Apple-Chip sind stromsparender als die älteren Macbooks mit Intel-Prozessor, sodass sie sich wesentlich länger im Batteriemodus betreiben lassen. So stieg insbesondere die Laufzeit im Batteriemodus beim Macbook Air 13-Zoll laut Apples technischen Angaben von 12 Stunden beim Macbook Air 2020 mit Intel-Prozessor auf 18 Stunden beim Macbook Air mit M1-Chip.

Gleichzeitig hat sich auch die Leistung deutlich erhöht. Bei den späteren Modellen des Macbook Air mit M2-, M3- und M4-Chip ist Apple bei der Angabe von 18 Stunden Laufzeit im Batteriemodus geblieben. In dieser Zeit hat sich die Leistung der Chips von Generation zu Generation weiter erhöht, während der Akku weitgehend gleich geblieben ist. Sie bekommen also mehr Leistung bei gleichem Energieverbrauch.

Der Stromsparmodus

Alle Macbooks mit Apple-Chip können Sie alternativ in einem stromsparenden Modus betreiben. Dabei wird die maximal mögliche Taktrate der Kerne vermindert, was zu einem niedrigeren Energiebedarf führt. Das bedeutet natürlich, dass die Leistung dann geringer ist. Für viele Aufgaben reicht aber diese Leistung aus. Wenn Sie etwa Texte bearbeiten, im Internet surfen oder einen Film anschauen, werden Sie die geringere Leistung in der Regel gar nicht bemerken.

Zudem müssen die Lüfter, sofern vorhanden, wegen der niedrigeren Energieaufnahme weniger oder gar nicht arbeiten. Und beim Macbook Air muss das System bei hohen Außentemperaturen nicht oder kaum die Leistung drosseln.

Wir haben uns den Stromsparmodus auf zwei Macbooks näher angesehen. Das eine ist ein Macbook Pro mit M3-Pro-Chip, und zwar in der abgespeckten Version mit 11 CPU-Kernen und 14 GPU-Kernen. Das andere Testgerät ist ein Macbook Air 15 Zoll mit M4-Chip. Dieser hat 10 CPU-Kerne und 10 GPU-Kerne. Bei beiden Modellen hat die CPU sechs Effizienzkerne und beim Macbook Pro fünf und beim Macbook Air vier Leistungskerne.

Für den Test verwenden wir die Programme Cinebench 2024 und Geekbench 6.4 unter macOS 15 Sequoia. Das sind zwar Leistungstests, es ist aber gut zu sehen, wie die Leistung und der Energieverbrauch zwischen dem normalen Arbeitsmodus und dem Stromsparmodus variieren.

Beim Macbook Air und beim Macbook Pro mit dem normalen M-Chip gibt es vier Optionen für den Stromsparmodus. Thomas Armbrüster

Unterschiede zwischen M3 und M4

Bei der CPU wird bei beiden Macbooks die Maximalfrequenz der Leistungskerne begrenzt. Dabei fällt bei Cinebench 2024 auf, dass die CPU des M4 deutlich stärker in der Leistung gedrosselt wird als die der M3. Beim M4 messen wir knapp 50 Prozent der Leistung gegenüber dem Normalmodus, und zwar sowohl bei den Werten für einen Kern als auch denjenigen für alle Kerne. Gleichzeitig messen wir mit dem Terminalprogramm Asitop den Energieverbrauch der CPU. Dieser sinkt dabei auf etwa 25 Prozent.

Im Stromsparmodus sinkt die Leistung beim Macbook Air M4 in Cinebench auf etwa 50 Prozent, bei deutlich geringerem Stromverbrauch.Thomas Armbrüster

Der M3 reduziert die Leistung wesentlich moderater, und zwar auf 65 Prozent im Einzelkernmodus und auf 86 Prozent im Mehrkernmodus. Der Stromverbrauch vermindert sich auf 40 Prozent beziehungsweise 53 Prozent. Beim GPU-Test von Cinebench sinkt die Leistung beim M3 dagegen nicht und der Verbrauch nur minimal, während der M4 auf gute 60 Prozent bei der Leistung reduziert, beim Verbrauch aber ebenfalls auf etwa 25 Prozent.

Bei den Tests mit Geekbench 6.4 sieht es bei der Leistungsreduzierung der CPU ähnlich aus, nur dass beim M4 der Stromverbrauch nicht ganz so stark sinkt wie beim Cinebench-Test. Hier sehen wir eine Reduzierung beim M4 auf 40 Prozent. Der M3 reduziert im Mehrkerntest etwas stärker als beim Test mit Cinebench, und zwar sowohl bei der Leistung als auch beim Stromverbrauch.

Beim GPU-Test mit Geekbench wird der M3 wiederum nicht gebremst, der M4 dagegen auf etwa 75 Prozent bei einem halbierten Stromverbrauch. Beide Chips arbeiten also mit einem unterschiedlichen Stromsparmodus.

Stromsparmodus aktivieren

Die Einstellungen für den Stromsparmodus finden Sie in der Systemeinstellung „Batterie“. Dabei gibt es einen Unterschied zwischen den verschiedenen Modellen. Sofern sie ein Macbook Pro mit einem M4 Pro oder M4 Max haben, ein Macbook Pro 16-Zoll mit M1 Max, M2 Max oder M3 Max oder ein Macbook Pro 14-Zoll mit M3 Max, unterstützt der Chip nicht nur einen stromsparenden Modus, sondern auch einen Hochleistungsmodus.

Bei letzterem werden die Kerne aber nicht höher getaktet, sondern nur die Lüfter stärker eingesetzt, um den Chip über längere Zeit kühl zu halten. Das verhindert, dass die Kerne gedrosselt werden müssen und dadurch mehr Leistung erbringen können.

Bei diesen Macbooks gibt es in der Systemeinstellung „Batterie“ eine Abteilung „Energiemodus“. Hier können sie in einem Aufklappmenü für den Batteriebetrieb und für den Betrieb mit Netzteil jeweils drei Einstellungen vornehmen: „Geringe Ladung“, „Automatisch“ oder „Hohe Leistung“. „Geringe Ladung“ ist etwas unglücklich übersetzt und meint geringerer Stromverbrauch (Low Power), „Automatisch“ ist der normale Modus.

Bei Macbooks, die die leistungsfähigen Pro- und Mac-Chips haben, gibt es auch eine Einstellung für hohe Leistung.Thomas Armbrüster

Bei den anderen Macbooks finden Sie oben in der Systemeinstellung die Abteilung „Stromsparmodus“. Im Aufklappmenü stellen Sie ein, ob dieser Modus nie, nur im Batterie- oder nur im Netzbetrieb oder immer aktiviert werden soll. Lassen Sie sich den Batteriestatus in der Menüleiste anzeigen (das aktivieren Sie in der Systemeinstellung „Kontrollzentrum“), färbt macOS Sequoia 15.4 das Symbol gelb ein, wenn der Stromsparmodus aktiviert ist. Und klicken Sie das Symbol an, wir der aktuelle Energiemodus angezeigt.

Auch hier bedeutet „Geringe Ladung“, dass der Stromsparmodus aktiv ist. Um diesen zu beenden, genügt ein Klick auf diesen Menüeintrag. Um den Stromsparmodus wieder zu aktivieren, müssen Sie die Systemeinstellung „Batterie“ öffnen. Im Menü wird zudem angezeigt, ob eine App gerade besonders viel Leistung benötigt.

Das Menüsymbol ist im Stromsparmodus gelb, und im Menü wird der Stromsparmodus angezeigt.Thomas Armbrüster

(Macwelt)

So verlängert der Stromsparmodus die Akkulaufzeit Ihres Macbooks​ Weiterlesen »

Reusable-Code-Richtlinien: 8 Wege zu wiederverwendbarem Java-Code​

Allgemein

Reusable Code macht nicht nur Java-Entwicklern das Leben leichter. Foto: Roman Samborskyi – shutterstock.com Wiederverwendbaren (Reusable) Code schreiben zu können, stellt für jeden Softwareentwickler eine wichtige Fähigkeit dar. Denn Developer, die Reusable Code einsetzen, kommen in den Genuss zahlreicher Vorteile. Zum Beispiel: optimierte Code-Qualität, reduzierte Redundanzen, höhere Produktivität, verbesserte Zusammenarbeit, kürzere Entwicklungszyklen, schnellere Projekt-Iterationen, einfachere Wartung und die Fähigkeit, existierende Lösungen (besser) weiterzuentwickeln. Letztlich ermöglicht maximal wiederverwendbarer Code den Entwicklern, skalierbare, flexible und damit zukunftssichere Softwaresysteme zu entwickeln. Außerdem erfordern Fehlerbehebung oder das Hinzufügen neuer Funktionen erheblich mehr Aufwand und Zeit, wenn Ihr Code nicht von Grund auf auf Wiederverwendbarkeit ausgelegt und gut geschrieben ist. Im Extremfall kann es dazu kommen, dass komplette Code-Basen entsorgt werden müssen – und das Projekt noch einmal bei Null beginnen muss. Das kann nicht nur Zeit und Geld, sondern möglicherweise auch Jobs kosten. Um das zu verhindern und effiziente, wartbare Systeme zu entwickeln, lohnt es sich, die wichtigsten Reusable-Code-Prinzipien zu verinnerlichen – und sie in der Praxis anzuwenden. Dieser Artikel stellt acht praxiserprobte Guidelines vor, um wiederverwendbaren Code in Java zu schreiben. 1. Code-Regeln definieren Die erste Maßnahme, um wiederverwendbaren Code zu schreiben: Legen Sie gemeinsam mit Ihrem Developer-Team Code-Standards fest. Ansonsten droht das Chaos – und sinnlose Diskussionen über Implementierungen, die ohne Abstimmung stattfinden. Sinn macht darüber hinaus, ein grundlegendes Code-Design für die Probleme zu bestimmen, die die Software lösen soll. Ist das erledigt, beginnt die wirkliche Arbeit: Richtlinien für Ihren Code definieren. Diese bestimmen die Regeln für Ihren Code in verschiedener Hinsicht: Benennung des Codes Anzahl der Klassen- und Methodenzeilen Behandlung von Ausnahmen Package-Struktur Programmiersprache und Version Frameworks, Tools und Bibliotheken Code-Testing-Standards Code-Layer (Controller, Service, Repository, Domain etc.) Sobald Sie sich auf die Regeln für Ihren Code geeinigt haben, kann die Verantwortung für die Code Reviews auf das gesamte Team verteilt werden. Das sollte sicherstellen, dass der Code gut, respektive wiederverwendbar geschrieben wird. Gibt es hinsichtlich der Code-Regeln keine Einigung innerhalb des Teams, wird aus Reusable Code nichts. 2. APIs dokumentieren Bei der Kreation von Services und deren Offenlegung als API sollte letztere so dokumentiert werden, dass sie auch für Entwickler, die neu ins Team kommen, leicht zu verstehen und zu verwenden ist. Gerade in Microservices-Architekturen kommen häufig APIs zum Einsatz. In diesen Fällen müssen andere Teams, die nicht viel über das initiale Projekt wissen, die API-Dokumentation lesen und verstehen können. Ist das nicht der Fall, wird der Code mit hoher Wahrscheinlichkeit noch einmal neu geschrieben. APIs ordentlich zu dokumentieren, ist also sehr wichtig. Auf der anderen Seite ist ein Hang zur Mikrodokumentation ebensowenig hilfreich. Konzentrieren Sie sich deshalb auf das Wesentliche und erläutern Sie beispielsweise die Geschäftsprozesse in der API, ihre Parameter oder Rückgabeobjekte. 3. Namenskonventionen folgen Simple, beschreibende Codenamen sind mysteriösen Akronymen unter allen Umständen vorzuziehen. Schreiben Sie also Customer und nicht Ctr, um klar und aussagekräftig zu bleiben. Schließlich könnte die Abkürzung für andere Entwickler etwas ganz anderes bedeuten. Achten Sie außerdem darauf, den Namenskonventionen Ihrer Programmiersprache zu folgen. Für Java gibt es beispielsweise die JavaBeans-Namenskonvention. Sie ist einfach zu verstehen und definiert, wie Klassen, Methoden, Variablen und Pakete in Java benannt werden: Klassen: customerContract Methoden und Variablen: customerContract Packages: service 4. “Cohesive” coden Zusammenhängender (Cohesive) Code ist zwar ein einfaches Konzept, doch auch erfahrene Entwickler halten sich nicht immer daran. Das führt zu Klassen, die “ultra-responsible” (auch: God Classes) sind. Einfach ausgedrückt: Sie tun zu viele Dinge. Um Ihren Code “cohesive” zu gestalten, müssen Sie ihn so aufteilen, dass jeder Klasse und Methode nur eine Aufgabe zukommt. Eine Methode mit dem Namen saveCustomer sollte also nur zum Einsatz kommen, um die Daten eines Kunden zu speichern – nicht, um diese zu aktualisieren oder zu löschen. Ebenso sollte eine Klasse mit dem Namen CustomerService nur Funktionen aufweisen, die “zum Kunden” gehören. Eine Methode innerhalb der Klasse CustomerService, die Prozesse innerhalb der Produktdomäne übernimmt, sollte in die Klasse ProductService verschoben werden. Um das Konzept besser durchdringen zu können, zunächst ein Beispiel für eine nicht-zusammenhängende Klasse: public class CustomerPurchaseService { public void saveCustomerPurchase(CustomerPurchase customerPurchase) { // Does operations with customer registerProduct(customerPurchase.getProduct()); // update customer // delete customer } private void registerProduct(Product product) { // Performs logic for product in the domain of the customer… } } Die Probleme mit dieser Klasse kurz und bündig zusammengefasst: Die saveCustomerPurchase-Methode registriert das Produkt, aktualisiert und löscht den Kunden. Diese Methode hat also zu viele Aufgaben. Die registerProduct-Methode ist schwer zu finden. Deshalb ist die Wahrscheinlichkeit groß, dass ein Entwickler die Methode dupliziert. Die registerProduct-Methode liegt in der falschen Domäne. CustomerPurchaseService sollte keine Produkte registrieren. Die saveCustomerPurchase-Methode ruft eine private Methode auf, anstatt eine externe Klasse für die Produktprozesse zu verwenden. Da wir die Probleme des Codes nun ermittelt haben, können wir ihn im Sinne der “Cohesiveness” umschreiben. Dazu verschieben wir die registerProduct-Methode in ihre richtige Domäne (ProductService). Das sorgt dafür, dass sich der Code viel einfacher durchsuchen und wiederverwenden lässt: public class CustomerPurchaseService { private ProductService productService; public CustomerPurchaseService(ProductService productService) { this.productService = productService; } public void saveCustomerPurchase(CustomerPurchase customerPurchase) { // Does operations with customer productService.registerProduct(customerPurchase.getProduct()); } } public class ProductService { public void registerProduct(Product product) { // Performs logic for product in the domain of the customer… } } In diesem Beispiel hat saveCustomerPurchase ausschließlich eine Aufgabe: den Kauf des Kunden zu speichern. Zudem haben wir die Verantwortung für registerProduct an die ProductService-Klasse delegiert – was dazu führt dass beide Klassen “cohesive” sind und das tun, was man von ihnen erwartet. 5. Klassen entkoppeln Stark gekoppelter Code weist zu viele Abhängigkeiten auf, was es erschwert, ihn zu warten. Je mehr Abhängigkeiten eine Klasse aufweist, desto stärker ist sie gekoppelt. Dieses Konzept der Kopplung wird auch im Zusammenhang mit der Softwarearchitektur verwendet. Die Microservices-Architektur etwa verfolgt das Ziel, Services zu entkoppeln. Wenn ein Microservice eine Verbindung zu vielen anderen Microservices aufweisen würde, wäre er stark gekoppelt. Der beste Weg zu wiederverwendbarem Code besteht folglich darin, Systeme und Code so wenig wie möglich voneinander abhängig zu machen. Natürlich wird dabei immer ein gewisses Maß an Kopplung bestehen, weil Services und Quellcode miteinander kommunizieren müssen. Der Schlüssel liegt also darin, diese Dienste so unabhängig wie möglich zu gestalten. Zunächst ein Beispiel für eine stark gekoppelte Klasse: public class CustomerOrderService { private ProductService productService; private OrderService orderService; private CustomerPaymentRepository customerPaymentRepository; private CustomerDiscountRepository customerDiscountRepository; private CustomerContractRepository customerContractRepository; private CustomerOrderRepository customerOrderRepository; private CustomerGiftCardRepository customerGiftCardRepository; // Other methods… } In diesem Beispiel ist die CustomerService-Klasse in hohem Maße mit vielen anderen Dienstklassen gekoppelt. Die vielen Abhängigkeiten führen dazu, dass die Klasse viele Codezeilen benötigt, was zu Erschwernissen in Sachen Testing und Wartung führt. Der bessere Ansatz wäre, die Klasse in Services mit weniger Abhängigkeiten aufzuteilen. Ganz konkret verringern wir die Kopplung, indem wir die CustomerService-Klasse in separate Dienste aufteilen: public class CustomerOrderService { private OrderService orderService; private CustomerPaymentService customerPaymentService; private CustomerDiscountService customerDiscountService; // Omitted other methods… } public class CustomerPaymentService { private ProductService productService; private CustomerPaymentRepository customerPaymentRepository; private CustomerContractRepository customerContractRepository; // Omitted other methods… } public class CustomerDiscountService { private CustomerDiscountRepository customerDiscountRepository; private CustomerGiftCardRepository customerGiftCardRepository; // Omitted other methods… } Nach dem Refactoring sind CustomerService und andere Klassen wesentlich einfacher zu testen und auch leichter zu warten. Je spezialisierter und übersichtlicher Ihre Klasse ist, desto einfacher gestaltet es sich auch, neue Funktionen zu implementieren. Auch wenn es Bugs geben sollte, sind diese leichter zu beheben. 6. SOLID befolgen Das Akronym SOLID steht für die fünf Design-Prinzipien der objektorientierten Programmierung. Diese zielen darauf ab, Softwaresysteme wartbarer, flexibler und verständlicher zu gestalten. Im Folgenden eine kurze Erläuterung: Single-Responsibility-Prinzip: Eine Klasse sollte einen einzigen Zweck haben, beziehungsweise eine Verantwortung aufweisen und diese “kapseln”. Dieses Prinzip fördert Cohesive Code und hilft dabei, Klassen überschaubar zu halten. Open-Closed-Prinzip: Softwareeinheiten (Klassen, Module, Methoden etc.) sollten offen für Erweiterungen, aber geschlossen für Änderungen sein. Im Klartext: Sie sollten Ihren Code so gestalten, dass Sie neue Funktionen hinzufügen können, ohne den bestehenden Code zu ändern. Das verringert den Impact von Änderungen fördert wiederverwendbaren Code. Liskovsches Substitutionsprinzip: Objekte einer Oberklasse sollten durch Objekte ihrer Unterklassen ersetzt werden können, ohne die Korrektheit des Programms zu beeinträchtigen. Mit anderen Worten: Jede Instanz einer Basisklasse sollte durch jede Instanz ihrer abgeleiteten Klassen ersetzbar sein, um sicherzustellen, dass das Applikationsverhalten konsistent bleibt. Interface-Segregation-Prinzip: Clients sollten nicht von Schnittstellen abhängig sein, die sie nicht benutzen. Umfassende Interfaces sollten in kleinere und spezifischere Schnittstellen aufgeteilt werden, damit Clients nur von den für sie relevanten abhängig sind. Das fördert eine lose Kopplung und vermeidet unnötige Dependencies. Dependency-Inversion-Prinzip: High-Level-Module sollten nicht von Low-Level-Modulen abhängig sein – stattdessen sollten beide von Abstraktionen abhängen. Dieses Prinzip fördert die Verwendung von Abstraktionen, um High-Level-Module von Low-Level-Implementierungsdetails zu entkoppeln. Das macht die Systeme flexibler und erleichtert Testing und Wartung. Indem sie die SOLID-Grundsätze befolgen, kommen Developer zu modulare(re)m, wartbarem und erweiterbarem Code, der leichter zu verstehen ist. Das führt wiederum zu robusteren, flexibleren Softwaresystemen. 7. Design Patterns nutzen Design Patterns (Entwurfsmuster) werden von erfahrenen Entwicklern erstellt und helfen – wenn sie richtig eingesetzt werden – dabei, Code wiederzuverwenden. Developer, die Design Patterns verstehen, beziehungsweise erkennen, weisen im Regelfall auch optimierte Skills auf, wenn es ganz allgemein darum geht, Code zu lesen und zu verstehen. Selbst Code aus dem Java Development Kit wirkt klarer, wenn Sie das zugrundeliegende Design Pattern erkennen. Entwurfsmuster sind äußerst leistungsfähig, aber kein Allheilmittel – auch wenn diese zum Einsatz kommen, müssen Softwareentwickler genau darauf achten, wie sie diese verwenden. Es wäre zum Beispiel ein Fehler, ein Design Pattern zu verwenden, nur weil es bereits bekannt ist. Kommen die Muster in der falschen Situation zum Einsatz, können Sie den Code komplexer machen. Es kommt in Sachen Design Patterns insbesondere darauf an, sie für die richtigen Use Cases zu nutzen, um den Code flexibler für Erweiterungen zu gestalten. Im Folgenden eine kurze Zusammenfassung der Design Patterns in der objektorientierten Programmierung. Erzeugungsmuster (Creational Patterns): Einzelstück (Singleton): Stellt sicher, dass eine Klasse nur eine Instanz hat und bietet auf diese globalen Zugriff. Fabrikmethode (Factory Method): Definiert eine Schnittstelle, um Objekte zu erstellen, überlässt es aber den Unterklassen, welche Klasse instanziiert wird. Abstrakte Fabrik (Abstract Factory): Bietet ein Interface, um Familien von verwandten oder abhängigen Objekten zu erstellen. Erbauer (Builder): Trennt die Konstruktion von komplexen Objekten von ihrer Darstellung. Prototyp (Prototype): Erzeugt neue Objekte, indem es bestehende klont. Strukturmuster (Structural Patterns): Adapter: Konvertiert die Schnittstelle einer Klasse in eine andere, die die Kunden erwarten. Dekorator (Decorator): Fügt einem Objekt dynamisch Verhalten hinzu. Proxy: Stellt ein Surrogat oder einen Platzhalter für ein anderes Objekt zur Verfügung, um den Zugriff darauf zu kontrollieren. Kompositum (Composite): Behandelt eine Gruppe von Objekten als ein einziges Objekt. Brücke (Bridge): Entkoppelt eine Abstraktion von ihrer Implementierung. Verhaltensmuster (Behavioral Patterns): Beobachter (Observer): Definiert eine Eins-zu-viele-Abhängigkeit zwischen Objekten. Wenn sich der Zustand eines Objekts ändert, werden alle von ihm abhängigen Objekte benachrichtigt und automatisch aktualisiert. Strategie (Strategy): Kapselt verwandte Algorithmen und ermöglicht deren Auswahl zur Laufzeit. Schablonenmethode (Template Method): Definiert das Grundgerüst eines Algorithmus in einer Basisklasse und ermöglicht es Unterklassen, spezifische Implementierungsdetails bereitzustellen. Kommando (Command): Kapselt eine Anfrage als Objekt, so dass Clients mit verschiedenen Anfragen parametrisiert werden können. Zustand (State): Ermöglicht es einem Objekt, sein Verhalten zu ändern, wenn sich sein interner Zustand ändert. Iterator: Ermöglicht den sequentiellen Zugriff auf die Elemente eines Aggregatobjekts, ohne dessen zugrundeliegende Darstellung offenzulegen. Zuständigkeitskette (Chain of Responsibility): Ermöglicht es einem Objekt, eine Anfrage entlang einer Kette von potenziellen Bearbeitern weiterzuleiten, bis die Anfrage bearbeitet ist. Vermittler (Mediator): Definiert ein Objekt, das kapselt, wie eine Gruppe von Objekten interagiert, und fördert die lose Kopplung zwischen ihnen. Besucher (Visitor): Trennt einen Algorithmus von den Objekten, auf denen er arbeitet, indem der Algorithmus in separate Besucherobjekte ausgelagert wird. Es besteht keine Notwendigkeit, all diese Design Patterns auswendig zu lernen. Es reicht, wenn Sie wissen, dass es diese Muster gibt – und was sie bewirken. 8. Rad nicht neu erfinden In vielen Unternehmen ist es immer noch Standard, ohne triftigen Grund auf intern entwickelte Frameworks zu setzen. Das ist in den allermeisten Fällen sinnlos – es sei denn, Ihr Unternehmen heißt Google oder Microsoft. Kleine oder auch mittlere Unternehmen sind nicht in der Lage, mit eigenen Lösungen in diesem Bereich zu konkurrieren. Anstatt also das Softwarerad neu erfinden zu wollen und damit Arbeit zu verursachen, die es nicht braucht, sollten Sie besser einfach die vorhandenen Tools verwenden. Das ist auch für Softwareentwickler eine Wohltat, weil es ihnen erspart, ein Framework erlernen zu müssen, das außerhalb des eigenen Unternehmens keinerlei Rolle spielt. Nutzen Sie also die auf dem Markt weithin verfügbaren und populären Technologien und Tools. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Reusable-Code-Richtlinien: 8 Wege zu wiederverwendbarem Java-Code​ Reusable Code macht nicht nur Java-Entwicklern das Leben leichter.
Foto: Roman Samborskyi – shutterstock.com

Wiederverwendbaren (Reusable) Code schreiben zu können, stellt für jeden Softwareentwickler eine wichtige Fähigkeit dar. Denn Developer, die Reusable Code einsetzen, kommen in den Genuss zahlreicher Vorteile. Zum Beispiel:

optimierte Code-Qualität,

reduzierte Redundanzen,

höhere Produktivität,

verbesserte Zusammenarbeit,

kürzere Entwicklungszyklen,

schnellere Projekt-Iterationen,

einfachere Wartung und

die Fähigkeit, existierende Lösungen (besser) weiterzuentwickeln.

Letztlich ermöglicht maximal wiederverwendbarer Code den Entwicklern, skalierbare, flexible und damit zukunftssichere Softwaresysteme zu entwickeln. Außerdem erfordern Fehlerbehebung oder das Hinzufügen neuer Funktionen erheblich mehr Aufwand und Zeit, wenn Ihr Code nicht von Grund auf auf Wiederverwendbarkeit ausgelegt und gut geschrieben ist. Im Extremfall kann es dazu kommen, dass komplette Code-Basen entsorgt werden müssen – und das Projekt noch einmal bei Null beginnen muss. Das kann nicht nur Zeit und Geld, sondern möglicherweise auch Jobs kosten.

Um das zu verhindern und effiziente, wartbare Systeme zu entwickeln, lohnt es sich, die wichtigsten Reusable-Code-Prinzipien zu verinnerlichen – und sie in der Praxis anzuwenden. Dieser Artikel stellt acht praxiserprobte Guidelines vor, um wiederverwendbaren Code in Java zu schreiben.

1. Code-Regeln definieren

Die erste Maßnahme, um wiederverwendbaren Code zu schreiben: Legen Sie gemeinsam mit Ihrem Developer-Team Code-Standards fest. Ansonsten droht das Chaos – und sinnlose Diskussionen über Implementierungen, die ohne Abstimmung stattfinden. Sinn macht darüber hinaus, ein grundlegendes Code-Design für die Probleme zu bestimmen, die die Software lösen soll. Ist das erledigt, beginnt die wirkliche Arbeit: Richtlinien für Ihren Code definieren. Diese bestimmen die Regeln für Ihren Code in verschiedener Hinsicht:

Benennung des Codes

Anzahl der Klassen- und Methodenzeilen

Behandlung von Ausnahmen

Package-Struktur

Programmiersprache und Version

Frameworks, Tools und Bibliotheken

Code-Testing-Standards

Code-Layer (Controller, Service, Repository, Domain etc.)

Sobald Sie sich auf die Regeln für Ihren Code geeinigt haben, kann die Verantwortung für die Code Reviews auf das gesamte Team verteilt werden. Das sollte sicherstellen, dass der Code gut, respektive wiederverwendbar geschrieben wird. Gibt es hinsichtlich der Code-Regeln keine Einigung innerhalb des Teams, wird aus Reusable Code nichts.

2. APIs dokumentieren

Bei der Kreation von Services und deren Offenlegung als API sollte letztere so dokumentiert werden, dass sie auch für Entwickler, die neu ins Team kommen, leicht zu verstehen und zu verwenden ist.

Gerade in Microservices-Architekturen kommen häufig APIs zum Einsatz. In diesen Fällen müssen andere Teams, die nicht viel über das initiale Projekt wissen, die API-Dokumentation lesen und verstehen können. Ist das nicht der Fall, wird der Code mit hoher Wahrscheinlichkeit noch einmal neu geschrieben. APIs ordentlich zu dokumentieren, ist also sehr wichtig.

Auf der anderen Seite ist ein Hang zur Mikrodokumentation ebensowenig hilfreich. Konzentrieren Sie sich deshalb auf das Wesentliche und erläutern Sie beispielsweise die Geschäftsprozesse in der API, ihre Parameter oder Rückgabeobjekte.

3. Namenskonventionen folgen

Simple, beschreibende Codenamen sind mysteriösen Akronymen unter allen Umständen vorzuziehen. Schreiben Sie also Customer und nicht Ctr, um klar und aussagekräftig zu bleiben. Schließlich könnte die Abkürzung für andere Entwickler etwas ganz anderes bedeuten.

Achten Sie außerdem darauf, den Namenskonventionen Ihrer Programmiersprache zu folgen. Für Java gibt es beispielsweise die JavaBeans-Namenskonvention. Sie ist einfach zu verstehen und definiert, wie Klassen, Methoden, Variablen und Pakete in Java benannt werden:

Klassen: customerContract

Methoden und Variablen: customerContract

Packages: service

4. “Cohesive” coden

Zusammenhängender (Cohesive) Code ist zwar ein einfaches Konzept, doch auch erfahrene Entwickler halten sich nicht immer daran. Das führt zu Klassen, die “ultra-responsible” (auch: God Classes) sind. Einfach ausgedrückt: Sie tun zu viele Dinge. Um Ihren Code “cohesive” zu gestalten, müssen Sie ihn so aufteilen, dass jeder Klasse und Methode nur eine Aufgabe zukommt. Eine Methode mit dem Namen saveCustomer sollte also nur zum Einsatz kommen, um die Daten eines Kunden zu speichern – nicht, um diese zu aktualisieren oder zu löschen.

Ebenso sollte eine Klasse mit dem Namen CustomerService nur Funktionen aufweisen, die “zum Kunden” gehören. Eine Methode innerhalb der Klasse CustomerService, die Prozesse innerhalb der Produktdomäne übernimmt, sollte in die Klasse ProductService verschoben werden.

Um das Konzept besser durchdringen zu können, zunächst ein Beispiel für eine nicht-zusammenhängende Klasse:

public class CustomerPurchaseService {

public void saveCustomerPurchase(CustomerPurchase customerPurchase) {

// Does operations with customer

registerProduct(customerPurchase.getProduct());

// update customer

// delete customer

}

private void registerProduct(Product product) {

// Performs logic for product in the domain of the customer…

}

}

Die Probleme mit dieser Klasse kurz und bündig zusammengefasst:

Die saveCustomerPurchase-Methode registriert das Produkt, aktualisiert und löscht den Kunden. Diese Methode hat also zu viele Aufgaben.

Die registerProduct-Methode ist schwer zu finden. Deshalb ist die Wahrscheinlichkeit groß, dass ein Entwickler die Methode dupliziert.

Die registerProduct-Methode liegt in der falschen Domäne. CustomerPurchaseService sollte keine Produkte registrieren.

Die saveCustomerPurchase-Methode ruft eine private Methode auf, anstatt eine externe Klasse für die Produktprozesse zu verwenden.

Da wir die Probleme des Codes nun ermittelt haben, können wir ihn im Sinne der “Cohesiveness” umschreiben. Dazu verschieben wir die registerProduct-Methode in ihre richtige Domäne (ProductService). Das sorgt dafür, dass sich der Code viel einfacher durchsuchen und wiederverwenden lässt:

public class CustomerPurchaseService {

private ProductService productService;

public CustomerPurchaseService(ProductService productService) {

this.productService = productService;

}

public void saveCustomerPurchase(CustomerPurchase customerPurchase) {

// Does operations with customer

productService.registerProduct(customerPurchase.getProduct());

}

}

public class ProductService {

public void registerProduct(Product product) {

// Performs logic for product in the domain of the customer…

}

}

In diesem Beispiel hat saveCustomerPurchase ausschließlich eine Aufgabe: den Kauf des Kunden zu speichern. Zudem haben wir die Verantwortung für registerProduct an die ProductService-Klasse delegiert – was dazu führt dass beide Klassen “cohesive” sind und das tun, was man von ihnen erwartet.

5. Klassen entkoppeln

Stark gekoppelter Code weist zu viele Abhängigkeiten auf, was es erschwert, ihn zu warten. Je mehr Abhängigkeiten eine Klasse aufweist, desto stärker ist sie gekoppelt. Dieses Konzept der Kopplung wird auch im Zusammenhang mit der Softwarearchitektur verwendet. Die Microservices-Architektur etwa verfolgt das Ziel, Services zu entkoppeln. Wenn ein Microservice eine Verbindung zu vielen anderen Microservices aufweisen würde, wäre er stark gekoppelt.

Der beste Weg zu wiederverwendbarem Code besteht folglich darin, Systeme und Code so wenig wie möglich voneinander abhängig zu machen. Natürlich wird dabei immer ein gewisses Maß an Kopplung bestehen, weil Services und Quellcode miteinander kommunizieren müssen. Der Schlüssel liegt also darin, diese Dienste so unabhängig wie möglich zu gestalten. Zunächst ein Beispiel für eine stark gekoppelte Klasse:

public class CustomerOrderService {

private ProductService productService;

private OrderService orderService;

private CustomerPaymentRepository customerPaymentRepository;

private CustomerDiscountRepository customerDiscountRepository;

private CustomerContractRepository customerContractRepository;

private CustomerOrderRepository customerOrderRepository;

private CustomerGiftCardRepository customerGiftCardRepository;

// Other methods…

}

In diesem Beispiel ist die CustomerService-Klasse in hohem Maße mit vielen anderen Dienstklassen gekoppelt. Die vielen Abhängigkeiten führen dazu, dass die Klasse viele Codezeilen benötigt, was zu Erschwernissen in Sachen Testing und Wartung führt.

Der bessere Ansatz wäre, die Klasse in Services mit weniger Abhängigkeiten aufzuteilen. Ganz konkret verringern wir die Kopplung, indem wir die CustomerService-Klasse in separate Dienste aufteilen:

public class CustomerOrderService {

private OrderService orderService;

private CustomerPaymentService customerPaymentService;

private CustomerDiscountService customerDiscountService;

// Omitted other methods…

}

public class CustomerPaymentService {

private ProductService productService;

private CustomerPaymentRepository customerPaymentRepository;

private CustomerContractRepository customerContractRepository;

// Omitted other methods…

}

public class CustomerDiscountService {

private CustomerDiscountRepository customerDiscountRepository;

private CustomerGiftCardRepository customerGiftCardRepository;

// Omitted other methods…

}

Nach dem Refactoring sind CustomerService und andere Klassen wesentlich einfacher zu testen und auch leichter zu warten. Je spezialisierter und übersichtlicher Ihre Klasse ist, desto einfacher gestaltet es sich auch, neue Funktionen zu implementieren. Auch wenn es Bugs geben sollte, sind diese leichter zu beheben.

6. SOLID befolgen

Das Akronym SOLID steht für die fünf Design-Prinzipien der objektorientierten Programmierung. Diese zielen darauf ab, Softwaresysteme wartbarer, flexibler und verständlicher zu gestalten. Im Folgenden eine kurze Erläuterung:

Single-Responsibility-Prinzip: Eine Klasse sollte einen einzigen Zweck haben, beziehungsweise eine Verantwortung aufweisen und diese “kapseln”. Dieses Prinzip fördert Cohesive Code und hilft dabei, Klassen überschaubar zu halten.

Open-Closed-Prinzip: Softwareeinheiten (Klassen, Module, Methoden etc.) sollten offen für Erweiterungen, aber geschlossen für Änderungen sein. Im Klartext: Sie sollten Ihren Code so gestalten, dass Sie neue Funktionen hinzufügen können, ohne den bestehenden Code zu ändern. Das verringert den Impact von Änderungen fördert wiederverwendbaren Code.

Liskovsches Substitutionsprinzip: Objekte einer Oberklasse sollten durch Objekte ihrer Unterklassen ersetzt werden können, ohne die Korrektheit des Programms zu beeinträchtigen. Mit anderen Worten: Jede Instanz einer Basisklasse sollte durch jede Instanz ihrer abgeleiteten Klassen ersetzbar sein, um sicherzustellen, dass das Applikationsverhalten konsistent bleibt.

Interface-Segregation-Prinzip: Clients sollten nicht von Schnittstellen abhängig sein, die sie nicht benutzen. Umfassende Interfaces sollten in kleinere und spezifischere Schnittstellen aufgeteilt werden, damit Clients nur von den für sie relevanten abhängig sind. Das fördert eine lose Kopplung und vermeidet unnötige Dependencies.

Dependency-Inversion-Prinzip: High-Level-Module sollten nicht von Low-Level-Modulen abhängig sein – stattdessen sollten beide von Abstraktionen abhängen. Dieses Prinzip fördert die Verwendung von Abstraktionen, um High-Level-Module von Low-Level-Implementierungsdetails zu entkoppeln. Das macht die Systeme flexibler und erleichtert Testing und Wartung.

Indem sie die SOLID-Grundsätze befolgen, kommen Developer zu modulare(re)m, wartbarem und erweiterbarem Code, der leichter zu verstehen ist. Das führt wiederum zu robusteren, flexibleren Softwaresystemen.

7. Design Patterns nutzen

Design Patterns (Entwurfsmuster) werden von erfahrenen Entwicklern erstellt und helfen – wenn sie richtig eingesetzt werden – dabei, Code wiederzuverwenden. Developer, die Design Patterns verstehen, beziehungsweise erkennen, weisen im Regelfall auch optimierte Skills auf, wenn es ganz allgemein darum geht, Code zu lesen und zu verstehen. Selbst Code aus dem Java Development Kit wirkt klarer, wenn Sie das zugrundeliegende Design Pattern erkennen.

Entwurfsmuster sind äußerst leistungsfähig, aber kein Allheilmittel – auch wenn diese zum Einsatz kommen, müssen Softwareentwickler genau darauf achten, wie sie diese verwenden. Es wäre zum Beispiel ein Fehler, ein Design Pattern zu verwenden, nur weil es bereits bekannt ist. Kommen die Muster in der falschen Situation zum Einsatz, können Sie den Code komplexer machen. Es kommt in Sachen Design Patterns insbesondere darauf an, sie für die richtigen Use Cases zu nutzen, um den Code flexibler für Erweiterungen zu gestalten. Im Folgenden eine kurze Zusammenfassung der Design Patterns in der objektorientierten Programmierung.

Erzeugungsmuster (Creational Patterns):

Einzelstück (Singleton): Stellt sicher, dass eine Klasse nur eine Instanz hat und bietet auf diese globalen Zugriff.

Fabrikmethode (Factory Method): Definiert eine Schnittstelle, um Objekte zu erstellen, überlässt es aber den Unterklassen, welche Klasse instanziiert wird.

Abstrakte Fabrik (Abstract Factory): Bietet ein Interface, um Familien von verwandten oder abhängigen Objekten zu erstellen.

Erbauer (Builder): Trennt die Konstruktion von komplexen Objekten von ihrer Darstellung.

Prototyp (Prototype): Erzeugt neue Objekte, indem es bestehende klont.

Strukturmuster (Structural Patterns):

Adapter: Konvertiert die Schnittstelle einer Klasse in eine andere, die die Kunden erwarten.

Dekorator (Decorator): Fügt einem Objekt dynamisch Verhalten hinzu.

Proxy: Stellt ein Surrogat oder einen Platzhalter für ein anderes Objekt zur Verfügung, um den Zugriff darauf zu kontrollieren.

Kompositum (Composite): Behandelt eine Gruppe von Objekten als ein einziges Objekt.

Brücke (Bridge): Entkoppelt eine Abstraktion von ihrer Implementierung.

Verhaltensmuster (Behavioral Patterns):

Beobachter (Observer): Definiert eine Eins-zu-viele-Abhängigkeit zwischen Objekten. Wenn sich der Zustand eines Objekts ändert, werden alle von ihm abhängigen Objekte benachrichtigt und automatisch aktualisiert.

Strategie (Strategy): Kapselt verwandte Algorithmen und ermöglicht deren Auswahl zur Laufzeit.

Schablonenmethode (Template Method): Definiert das Grundgerüst eines Algorithmus in einer Basisklasse und ermöglicht es Unterklassen, spezifische Implementierungsdetails bereitzustellen.

Kommando (Command): Kapselt eine Anfrage als Objekt, so dass Clients mit verschiedenen Anfragen parametrisiert werden können.

Zustand (State): Ermöglicht es einem Objekt, sein Verhalten zu ändern, wenn sich sein interner Zustand ändert.

Iterator: Ermöglicht den sequentiellen Zugriff auf die Elemente eines Aggregatobjekts, ohne dessen zugrundeliegende Darstellung offenzulegen.

Zuständigkeitskette (Chain of Responsibility): Ermöglicht es einem Objekt, eine Anfrage entlang einer Kette von potenziellen Bearbeitern weiterzuleiten, bis die Anfrage bearbeitet ist.

Vermittler (Mediator): Definiert ein Objekt, das kapselt, wie eine Gruppe von Objekten interagiert, und fördert die lose Kopplung zwischen ihnen.

Besucher (Visitor): Trennt einen Algorithmus von den Objekten, auf denen er arbeitet, indem der Algorithmus in separate Besucherobjekte ausgelagert wird.

Es besteht keine Notwendigkeit, all diese Design Patterns auswendig zu lernen. Es reicht, wenn Sie wissen, dass es diese Muster gibt – und was sie bewirken.

8. Rad nicht neu erfinden

In vielen Unternehmen ist es immer noch Standard, ohne triftigen Grund auf intern entwickelte Frameworks zu setzen. Das ist in den allermeisten Fällen sinnlos – es sei denn, Ihr Unternehmen heißt Google oder Microsoft. Kleine oder auch mittlere Unternehmen sind nicht in der Lage, mit eigenen Lösungen in diesem Bereich zu konkurrieren. Anstatt also das Softwarerad neu erfinden zu wollen und damit Arbeit zu verursachen, die es nicht braucht, sollten Sie besser einfach die vorhandenen Tools verwenden.

Das ist auch für Softwareentwickler eine Wohltat, weil es ihnen erspart, ein Framework erlernen zu müssen, das außerhalb des eigenen Unternehmens keinerlei Rolle spielt. Nutzen Sie also die auf dem Markt weithin verfügbaren und populären Technologien und Tools. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Reusable-Code-Richtlinien: 8 Wege zu wiederverwendbarem Java-Code​ Weiterlesen »

FAQ Mitarbeiterüberwachung: Was Firmen dürfen – und was nicht​

Allgemein

In Sachen Mitarbeiterüberwachung hängt in Deutschland vieles davon ab, ob Gerichte Unternehmen als Telekommunikationsdienste-Anbieter einstufen. Foto: elnur -shutterstock.com Videoüberwachung? Emotionserkennung am Arbeitsplatz? E-Mails mitlesen? Unzulässige Überwachungsmaßnahmen am Arbeitsplatz sorgen immer wieder für Schlagzeilen. Dabei stellt sich mit Blick auf das Datenschutzrecht die Frage, wann und in welchem Umfang Arbeitgeberinnen und Arbeitgeber ihre Beschäftigten überwachen dürfen. Grundsätzlich haben Unternehmen ein schutzwürdiges Interesse daran, das Verhalten und die Leistung ihres Personals zu kontrollieren. Dem steht jedoch das allgemeine Persönlichkeitsrecht der Arbeitnehmerinnen und Arbeitnehmer gegenüber – insbesondere das Recht auf informationelle Selbstbestimmung. Diese widersprüchlichen Interessen gleicht das Datenschutzrecht aus. Da es viele Möglichkeiten gibt, die Belegschaft zu überwachen, muss jede Maßnahme einzeln bewertet werden. Es gilt, hinsichtlich der Zulässigkeit zwischen den einzelnen Maßnahmen zu differenzieren. Ein spezielles Beschäftigtendatengesetz, das Klarheit schaffen könnte, existiert (noch) nicht. In der folgenden FAQ beantworten wir die wichtigsten Fragen. 1. Dürfen Betriebe ihr Personal mittels Videoaufnahmen überwachen? Es kommt darauf an. Die Videoüberwachung ist in Deutschland nicht grundsätzlich unzulässig. Wegen des erheblichen Eingriffs in die Persönlichkeitsrechte der Arbeitnehmer:innen ist die Videoüberwachung jedoch an strenge Zulässigkeitsvoraussetzungen geknüpft. So sind z. B. besonders sensible Bereiche wie Umkleide- oder Pausenräume immer von der Videoüberwachung ausgenommen. Ansonsten ist zu unterscheiden, ob die Videoüberwachung in einem öffentlich zugänglichen Raum stattfindet und ob sie offen oder verdeckt erfolgt. Die offene Videoüberwachung öffentlich zugänglicher Räume ist insbesondere in der Datenschutz-Grundverordnung (DSGVO) und im Bundesdatenschutzgesetz (BDSG) geregelt (Siehe auch: Deutschlands schlimmste DSGVO-Sünder). Sie ist zulässig, wenn sie entweder für die Aufgabenerfüllung öffentlicher Stellen, die Wahrnehmung des Hausrechts oder die Wahrnehmung berechtigter Interessen für konkret festgelegte Zwecke erforderlich ist. Zudem darf kein Anhaltspunkt dahingehend bestehen, dass schutzwürdige Interessen der betroffenen Person überwiegen. Eine verdeckte Videoüberwachung ist nur unter sehr engen Voraussetzungen möglich, wenn der Anfangsverdacht einer strafbaren Handlung oder einer sonstigen schweren Pflichtverletzung besteht und weniger einschneidende Mittel zur Aufklärung des Verdachts nicht möglich sind. Arbeitgeberinnen und Arbeitgeber müssen die Überwachung außerdem zeitlich und räumlich auf das notwendige Minimum beschränken. 2. Dürfen Unternehmen Telefongespräche heimlich abhören? Nein. Das heimliche Abhören oder Aufzeichnen von Telefongesprächen ist – abgesehen von extremen Ausnahmefällen, insbesondere im Zusammenhang mit der Aufdeckung von Straftaten – verboten. 3. Dürfen Unternehmen Telefongespräche offen abhören? Es kommt darauf an. Zu Schulungszwecken, zum Beispiel im Call-Center, dürfen Arbeitgeberinnen und Arbeitgeber in zeitlich begrenztem Umfang dienstliche Telefongespräche aufzeichnen. Bei einer ausschließlich dienstlichen Nutzung der Telefonanlage dürfen Betriebe die Telefonverbindungsdaten (Dauer, Beginn und Ende des Telefonats oder die ersten Ziffern der Telefonnummer) zur Kostenkontrolle sowie zur Überprüfung des Verbots der Privatnutzung auswerten. Soweit den Beschäftigten die private Nutzung der Telefonanlage gestattet ist, sind die Kontrollrechte von Unternehmen dagegen eingeschränkt. In diesen Fällen sind Arbeitgeberinnen und Arbeitgeber nach bislang vertretener Ansicht der deutschen Datenschutzbehörden als Telekommunikationsdienste-Anbieter im Sinne des Telekommunikationsgesetzes (TKG) anzusehen und müssen das Fernmeldegeheimnis beachten. Eine Verletzung kann zu einer Strafbarkeit nach § 206 StGB führen. Einige Gerichte, vor allem Arbeitsgerichte, gehen hingegen davon aus, dass entsprechende Betriebe keine Telekommunikationsdienstleister sind. Das sah auch die Landesdatenschutzbeauftragte NRW (LDI NRW) in ihrem Tätigkeitsbericht für das Jahr 2024 genauso. Demnach gilt das Fernmeldegeheimnis nach §  3 Telekommunikation-Digitale-Dienste-Gesetz (TDDDG) auch dann nicht für Arbeitgeberinnen und Arbeitgeber, wenn diese die private Nutzung von E-Mail und Telekommunikationsdiensten erlauben. Eine Abhörung ist dennoch nur dann zulässig, wenn die betroffenen Beschäftigten jeweils zugestimmt haben. Aufgrund der rechtlichen Unsicherheiten ist dringend zu empfehlen, klare Regelungen zu treffen und sich als Arbeitgeber abzusichern. 4. Dürfen Unternehmen E-Mails des Personals einsehen? Es kommt darauf an. Wie bei der Nutzung der Telefonanlage ist für die Zugriffsrechte von Unternehmen entscheidend, ob den Beschäftigten die private Nutzung gestattet ist oder nicht. Ist diese verboten, können Arbeitgeberinnen und Arbeitgeber im Gegensatz zu Telefongesprächen auch den Inhalt von E-Mails überwachen. Ist die private Nutzung hingegen erlaubt, werden die Zugriffsrechte durch den Beschäftigtendatenschutz eingeschränkt. Erfolgt eine Einstufung als Telekommunikationsdienste-Anbieter, greift das Fernmeldegeheimnis und ein Zugriff auf die E-Mails wäre nach der Einschätzung der deutschen Datenschutzbehörden grundsätzlich unzulässig. Das Landgericht Erfurt (Urt. v. 28.04.2021, Az.: 1 HK O 43/20) hat dagegen in einem Fall – zum alten TKG – entschieden, dass Arbeitgeber keine Telekommunikationsdienste-Anbieter seien und das Fernmeldegeheimnis daher nicht anwendbar sei. Dem schloss sich die Berufungsinstanz des OLG Jena (c – 7 U 521/21 (LG Erfurt); rechtskräftig) jedoch nicht an. Arbeitgeber seien Telekommunikationsdienste-Anbieter und damit wäre ein Zugriff auf den E-Mail-Account regelmäßig nicht zulässig. Die LDI NRW empfiehlt den Unternehmen daher wie bislang, über die betriebliche und/oder private Nutzung des Internets und des betrieblichen E-Mail-Accounts eine schriftliche Regelung zu treffen und sich so diesbezüglich abzusichern. In dieser Regelung sollen der Zugriff, die Protokollierung, die Auswertung und die Durchführung von Kontrollen eindeutig geklärt werden. Außerdem sollte über mögliche Überwachungsmaßnahmen und Sanktionen informiert werden. 5. Dürfen Arbeitgeber die Internetnutzung kontrollieren? Es kommt darauf an. Wurde die private Nutzung des Internetzugangs verboten, ist eine umfassende Kontrolle der Internetnutzung zur Überprüfung des Verbots zulässig. Arbeitgeber können hierzu regelmäßige und fortlaufende Stichprobenkontrollen oder anlassbezogene Vollkontrollen durchführen. Dabei dürfen aber nur die für die im Rahmen der Stichprobenkontrollen notwendigen Daten erhoben werden, wie Webadresse und Abrufdatum. Auch wenn die private Nutzung erlaubt ist, handelt es sich nach Auffassung der LDI NRW, wie oben dargestellt, um keine Telekommunikationsdienstleistung. Unabhängig davon, ob Betriebe als Telekommunikationsanbieter qualifiziert werden, können sie  ohne Verletzung des Fernmeldegeheimnisses Sperren für bestimmte Internetseiten einrichten, da in diesen Fällen eine mögliche Kommunikation bereits im Vorfeld unterbunden wird. 6. Dürfen Betriebe einen Keylogger einsetzen? Nein. Das Bundesarbeitsgericht (Urt. v. 27.07.2017, Az.: 2 AZR 681/16) hat entschieden, dass der Einsatz von sogenannter Keylogger-Software, die sämtliche Tastatureingaben aufzeichnet, unzulässig ist, wenn kein auf Arbeitnehmerinnen und Arbeitnehmer bezogener, durch konkrete Tatsachen begründeter Verdacht einer Straftat oder einer anderen schwerwiegenden Pflichtverletzung besteht. 7. Dürfen Arbeitgeber auf dem Dienstrechner gespeicherte Dateien einsehen? Ja. Nach Auffassung des Bundesarbeitsgerichts (Urt. v. 31.01.2019, Az.: 2 AZR 426/18) dürfen die Firmen auf diese Dateien zugreifen, wenn die Überprüfung aus einem nicht willkürlichen Anlass erfolgt, wobei ein durch Tatsachen begründeter Verdacht einer Pflichtverletzung nicht erforderlich ist. Darüber hinaus muss die Überprüfung offen erfolgen und den Beschäftigten vorher angekündigt werden. Außerdem müssen Arbeitnehmerinnen und Arbeitnehmer zuvor darauf hingewiesen worden sein, dass sie Ordner und Dateien durch Kennzeichnung als „privat“ von einer Überprüfung ohne begründeten Anlass ausnehmen können. 8. Dürfen Unternehmen ihre Mitarbeitenden orten? Es kommt darauf an. Eine Ortung mittels GPS oder anderen technischen Hilfsmitteln ist nur in wenigen Ausnahmefällen nach Art. 6 Abs. 1 DSGVO zulässig. Das kann etwa der Fall sein, wenn die Ortung dem Schutz von Arbeitnehmerinnen und Arbeitnehmern – zum Beispiel der Fahrerin oder dem Fahrer eines Geldtransporters – dient oder wenn das Eigentum des Unternehmens geschützt werden soll. In jedem Fall muss der Zweck der Ortung vorab klar dokumentiert und den Arbeitnehmern mitgeteilt werden. 9. Welche Besonderheiten bestehen zum Schutz von Plattform-Arbeiterinnen und -Arbeitern? Die Richtlinie (EU) 2024/2831 (Plattformarbeits-RL) enthält eine Vielzahl datenschutzrechtlicher Vorgaben, die über die Anforderungen der DSGVO hinausgehen. Auch wenn die Plattformarbeits-RL erst im Jahr 2026 in deutsches Recht umgesetzt sein muss, sollten Unternehmen schon heute prüfen, ob sie die Vorgaben einhalten. Die Plattformarbeit-RL definiert Plattformarbeit als jegliche Tätigkeit, die über eine digitale Arbeitsplattform organisiert wird und von einer Person innerhalb der EU erbracht wird. Dies betrifft vor allem diverse Lieferdienste und Bestellservices.   Die Plattformarbeits-RL verbietet die Verarbeitung bestimmter sensibler Daten mittels automatisierter Beobachtungssysteme oder automatisierter Entscheidungssysteme. Über die Anforderungen der DSGVO hinausgehend lassen sich diese Verarbeitungen auch nicht durch die Einwilligung der Plattform-Arbeiterinnen und -Arbeitern legitimieren. Umfasst sind unter anderem Daten über den emotionalen oder psychischen Zustand, Daten über private Gespräche sowie Daten zu sensiblen personenbezogenen Merkmalen der Plattform-Arbeiterinnen und -Arbeiter. Denkbar ist, dass auch Freitext-Bewertungen, die von Kunden auf einschlägigen Bewertungsportalen abgegeben werden, umfasst sind. Hier können beispielsweise emotionale Zustände oder sensible personenbezogene Merkmale preisgegeben werden. Der rechtmäßige Einsatz von algorithmischen Beobachtungssystemen ist indes nicht minder reguliert. Die Plattformarbeitgeber müssen Transparenz, menschliche Aufsicht und die Sicherheit der algorithmischen Beobachtungssysteme gewährleisten. 10. Gibt es Besonderheiten im Bereich der Künstlichen Intelligenz? Ja. Im Bereich der Künstlichen Intelligenz gibt es ebenfalls Besonderheiten. Wichtig ist zu wissen, dass gewisse Überwachungstechniken, die mithilfe von Künstlicher Intelligenz ausgeführt werden, seit dem 2. Februar 2025 verboten sind. Das betrifft insbesondere die Emotionserkennnungssysteme am Arbeitsplatz. Eine Ausnahme gilt jedoch, wenn „die Verwendung des KI-Systems […] aus medizinischen Gründen oder Sicherheitsgründen eingeführt“ wird. Dies ist beispielsweise bei einer Müdigkeitserkennung bei Personen in besonders gefährdeten Tätigkeiten der Fall, zum Beispiel LKW-Fahrende.   Ist ein Emotionserkennnungssystem am Arbeitsplatz ausnahmsweise zulässig gilt es als „Hochrisiko-KI-System“. Ab dem 2. August 2026 gelten für solche Hochrisiko-KI-Systeme strenge Compliance-Pflichten, die sowohl die Anbietenden als auch die nutzenden Unternehmen („Betreiber“ nach der KI-VO) eines solchen KI-Systems betreffen. Die KI-VO verbietet den Einsatz solcher Hochrisiko-KI-Systeme zwar nicht, setzt aber hohe Hürden für ihren rechtskonformen Einsatz im Unternehmen. Hinzu kommt: Die Einstufung als beispielsweise weniger hochriskant nach der KI-VO führt nicht dazu, dass der Einsatz eines solchen KI-Systems immer rechtmäßig ist. Insoweit stellt die KI-VO selbst klar, dass der rechtmäßige Einsatz eines entsprechenden KI-Systems nicht abschließend durch die KI-VO bestimmt wird. Die strengen Anforderungen an den Datenschutz oder aus dem Arbeitsrecht gelten weiterhin. Fazit Die Überwachung am Arbeitsplatz ist in Deutschland zugunsten des Personals stark reglementiert. Die Praxis zeigt, dass es dennoch immer wieder zu unzulässigen Überwachungen kommt. Beschäftigte und Unternehmen sind sich der rechtlichen Rahmenbedingungen oft nicht bewusst. Dabei kann eine unzulässige Überwachung gravierende Folgen haben: Unzulässige Maßnahmen von Arbeitgebern können nach der DSGVO mit hohen Bußgeldern geahndet werden (wie beispielsweise bei H&M geschehen) und gegebenenfalls auch Schadensersatzansprüche der Betroffenen begründen. Zu beachten ist aus arbeitsrechtlicher Sicht auch, dass bei Vorhandensein eines Betriebsrats dieser stets einzubeziehen ist. Der Schutz der betroffenen Arbeitnehmerinnen und Arbeitnehmer ist also nicht nur im Datenschutzrecht verankert. (ba) https://youtu.be/gfG6jzY7rvs?rel=0 

FAQ Mitarbeiterüberwachung: Was Firmen dürfen – und was nicht​ In Sachen Mitarbeiterüberwachung hängt in Deutschland vieles davon ab, ob Gerichte Unternehmen als Telekommunikationsdienste-Anbieter einstufen.
Foto: elnur -shutterstock.com

Videoüberwachung? Emotionserkennung am Arbeitsplatz? E-Mails mitlesen? Unzulässige Überwachungsmaßnahmen am Arbeitsplatz sorgen immer wieder für Schlagzeilen. Dabei stellt sich mit Blick auf das Datenschutzrecht die Frage, wann und in welchem Umfang Arbeitgeberinnen und Arbeitgeber ihre Beschäftigten überwachen dürfen.

Grundsätzlich haben Unternehmen ein schutzwürdiges Interesse daran, das Verhalten und die Leistung ihres Personals zu kontrollieren. Dem steht jedoch das allgemeine Persönlichkeitsrecht der Arbeitnehmerinnen und Arbeitnehmer gegenüber – insbesondere das Recht auf informationelle Selbstbestimmung. Diese widersprüchlichen Interessen gleicht das Datenschutzrecht aus. Da es viele Möglichkeiten gibt, die Belegschaft zu überwachen, muss jede Maßnahme einzeln bewertet werden. Es gilt, hinsichtlich der Zulässigkeit zwischen den einzelnen Maßnahmen zu differenzieren. Ein spezielles Beschäftigtendatengesetz, das Klarheit schaffen könnte, existiert (noch) nicht. In der folgenden FAQ beantworten wir die wichtigsten Fragen.

1. Dürfen Betriebe ihr Personal mittels Videoaufnahmen überwachen?

Es kommt darauf an. Die Videoüberwachung ist in Deutschland nicht grundsätzlich unzulässig. Wegen des erheblichen Eingriffs in die Persönlichkeitsrechte der Arbeitnehmer:innen ist die Videoüberwachung jedoch an strenge Zulässigkeitsvoraussetzungen geknüpft. So sind z. B. besonders sensible Bereiche wie Umkleide- oder Pausenräume immer von der Videoüberwachung ausgenommen.

Ansonsten ist zu unterscheiden, ob die Videoüberwachung in einem öffentlich zugänglichen Raum stattfindet und ob sie offen oder verdeckt erfolgt. Die offene Videoüberwachung öffentlich zugänglicher Räume ist insbesondere in der Datenschutz-Grundverordnung (DSGVO) und im Bundesdatenschutzgesetz (BDSG) geregelt (Siehe auch: Deutschlands schlimmste DSGVO-Sünder). Sie ist zulässig, wenn sie entweder für die Aufgabenerfüllung öffentlicher Stellen, die Wahrnehmung des Hausrechts oder die Wahrnehmung berechtigter Interessen für konkret festgelegte Zwecke erforderlich ist. Zudem darf kein Anhaltspunkt dahingehend bestehen, dass schutzwürdige Interessen der betroffenen Person überwiegen.

Eine verdeckte Videoüberwachung ist nur unter sehr engen Voraussetzungen möglich, wenn der Anfangsverdacht einer strafbaren Handlung oder einer sonstigen schweren Pflichtverletzung besteht und weniger einschneidende Mittel zur Aufklärung des Verdachts nicht möglich sind. Arbeitgeberinnen und Arbeitgeber müssen die Überwachung außerdem zeitlich und räumlich auf das notwendige Minimum beschränken.

2. Dürfen Unternehmen Telefongespräche heimlich abhören?

Nein. Das heimliche Abhören oder Aufzeichnen von Telefongesprächen ist – abgesehen von extremen Ausnahmefällen, insbesondere im Zusammenhang mit der Aufdeckung von Straftaten – verboten.

3. Dürfen Unternehmen Telefongespräche offen abhören?

Es kommt darauf an. Zu Schulungszwecken, zum Beispiel im Call-Center, dürfen Arbeitgeberinnen und Arbeitgeber in zeitlich begrenztem Umfang dienstliche Telefongespräche aufzeichnen. Bei einer ausschließlich dienstlichen Nutzung der Telefonanlage dürfen Betriebe die Telefonverbindungsdaten (Dauer, Beginn und Ende des Telefonats oder die ersten Ziffern der Telefonnummer) zur Kostenkontrolle sowie zur Überprüfung des Verbots der Privatnutzung auswerten.

Soweit den Beschäftigten die private Nutzung der Telefonanlage gestattet ist, sind die Kontrollrechte von Unternehmen dagegen eingeschränkt. In diesen Fällen sind Arbeitgeberinnen und Arbeitgeber nach bislang vertretener Ansicht der deutschen Datenschutzbehörden als Telekommunikationsdienste-Anbieter im Sinne des Telekommunikationsgesetzes (TKG) anzusehen und müssen das Fernmeldegeheimnis beachten. Eine Verletzung kann zu einer Strafbarkeit nach § 206 StGB führen. Einige Gerichte, vor allem Arbeitsgerichte, gehen hingegen davon aus, dass entsprechende Betriebe keine Telekommunikationsdienstleister sind.

Das sah auch die Landesdatenschutzbeauftragte NRW (LDI NRW) in ihrem Tätigkeitsbericht für das Jahr 2024 genauso. Demnach gilt das Fernmeldegeheimnis nach §  3 Telekommunikation-Digitale-Dienste-Gesetz (TDDDG) auch dann nicht für Arbeitgeberinnen und Arbeitgeber, wenn diese die private Nutzung von E-Mail und Telekommunikationsdiensten erlauben. Eine Abhörung ist dennoch nur dann zulässig, wenn die betroffenen Beschäftigten jeweils zugestimmt haben. Aufgrund der rechtlichen Unsicherheiten ist dringend zu empfehlen, klare Regelungen zu treffen und sich als Arbeitgeber abzusichern.

4. Dürfen Unternehmen E-Mails des Personals einsehen?

Es kommt darauf an. Wie bei der Nutzung der Telefonanlage ist für die Zugriffsrechte von Unternehmen entscheidend, ob den Beschäftigten die private Nutzung gestattet ist oder nicht. Ist diese verboten, können Arbeitgeberinnen und Arbeitgeber im Gegensatz zu Telefongesprächen auch den Inhalt von E-Mails überwachen. Ist die private Nutzung hingegen erlaubt, werden die Zugriffsrechte durch den Beschäftigtendatenschutz eingeschränkt.

Erfolgt eine Einstufung als Telekommunikationsdienste-Anbieter, greift das Fernmeldegeheimnis und ein Zugriff auf die E-Mails wäre nach der Einschätzung der deutschen Datenschutzbehörden grundsätzlich unzulässig. Das Landgericht Erfurt (Urt. v. 28.04.2021, Az.: 1 HK O 43/20) hat dagegen in einem Fall – zum alten TKG – entschieden, dass Arbeitgeber keine Telekommunikationsdienste-Anbieter seien und das Fernmeldegeheimnis daher nicht anwendbar sei.

Dem schloss sich die Berufungsinstanz des OLG Jena (c – 7 U 521/21 (LG Erfurt); rechtskräftig) jedoch nicht an. Arbeitgeber seien Telekommunikationsdienste-Anbieter und damit wäre ein Zugriff auf den E-Mail-Account regelmäßig nicht zulässig. Die LDI NRW empfiehlt den Unternehmen daher wie bislang, über die betriebliche und/oder private Nutzung des Internets und des betrieblichen E-Mail-Accounts eine schriftliche Regelung zu treffen und sich so diesbezüglich abzusichern. In dieser Regelung sollen der Zugriff, die Protokollierung, die Auswertung und die Durchführung von Kontrollen eindeutig geklärt werden. Außerdem sollte über mögliche Überwachungsmaßnahmen und Sanktionen informiert werden.

5. Dürfen Arbeitgeber die Internetnutzung kontrollieren?

Es kommt darauf an. Wurde die private Nutzung des Internetzugangs verboten, ist eine umfassende Kontrolle der Internetnutzung zur Überprüfung des Verbots zulässig. Arbeitgeber können hierzu regelmäßige und fortlaufende Stichprobenkontrollen oder anlassbezogene Vollkontrollen durchführen. Dabei dürfen aber nur die für die im Rahmen der Stichprobenkontrollen notwendigen Daten erhoben werden, wie Webadresse und Abrufdatum.

Auch wenn die private Nutzung erlaubt ist, handelt es sich nach Auffassung der LDI NRW, wie oben dargestellt, um keine Telekommunikationsdienstleistung. Unabhängig davon, ob Betriebe als Telekommunikationsanbieter qualifiziert werden, können sie  ohne Verletzung des Fernmeldegeheimnisses Sperren für bestimmte Internetseiten einrichten, da in diesen Fällen eine mögliche Kommunikation bereits im Vorfeld unterbunden wird.

6. Dürfen Betriebe einen Keylogger einsetzen?

Nein. Das Bundesarbeitsgericht (Urt. v. 27.07.2017, Az.: 2 AZR 681/16) hat entschieden, dass der Einsatz von sogenannter Keylogger-Software, die sämtliche Tastatureingaben aufzeichnet, unzulässig ist, wenn kein auf Arbeitnehmerinnen und Arbeitnehmer bezogener, durch konkrete Tatsachen begründeter Verdacht einer Straftat oder einer anderen schwerwiegenden Pflichtverletzung besteht.

7. Dürfen Arbeitgeber auf dem Dienstrechner gespeicherte Dateien einsehen?

Ja. Nach Auffassung des Bundesarbeitsgerichts (Urt. v. 31.01.2019, Az.: 2 AZR 426/18) dürfen die Firmen auf diese Dateien zugreifen, wenn die Überprüfung aus einem nicht willkürlichen Anlass erfolgt, wobei ein durch Tatsachen begründeter Verdacht einer Pflichtverletzung nicht erforderlich ist. Darüber hinaus muss die Überprüfung offen erfolgen und den Beschäftigten vorher angekündigt werden. Außerdem müssen Arbeitnehmerinnen und Arbeitnehmer zuvor darauf hingewiesen worden sein, dass sie Ordner und Dateien durch Kennzeichnung als „privat“ von einer Überprüfung ohne begründeten Anlass ausnehmen können.

8. Dürfen Unternehmen ihre Mitarbeitenden orten?

Es kommt darauf an. Eine Ortung mittels GPS oder anderen technischen Hilfsmitteln ist nur in wenigen Ausnahmefällen nach Art. 6 Abs. 1 DSGVO zulässig. Das kann etwa der Fall sein, wenn die Ortung dem Schutz von Arbeitnehmerinnen und Arbeitnehmern – zum Beispiel der Fahrerin oder dem Fahrer eines Geldtransporters – dient oder wenn das Eigentum des Unternehmens geschützt werden soll. In jedem Fall muss der Zweck der Ortung vorab klar dokumentiert und den Arbeitnehmern mitgeteilt werden.

9. Welche Besonderheiten bestehen zum Schutz von Plattform-Arbeiterinnen und -Arbeitern?

Die Richtlinie (EU) 2024/2831 (Plattformarbeits-RL) enthält eine Vielzahl datenschutzrechtlicher Vorgaben, die über die Anforderungen der DSGVO hinausgehen. Auch wenn die Plattformarbeits-RL erst im Jahr 2026 in deutsches Recht umgesetzt sein muss, sollten Unternehmen schon heute prüfen, ob sie die Vorgaben einhalten. Die Plattformarbeit-RL definiert Plattformarbeit als jegliche Tätigkeit, die über eine digitale Arbeitsplattform organisiert wird und von einer Person innerhalb der EU erbracht wird. Dies betrifft vor allem diverse Lieferdienste und Bestellservices.  

Die Plattformarbeits-RL verbietet die Verarbeitung bestimmter sensibler Daten mittels automatisierter Beobachtungssysteme oder automatisierter Entscheidungssysteme. Über die Anforderungen der DSGVO hinausgehend lassen sich diese Verarbeitungen auch nicht durch die Einwilligung der Plattform-Arbeiterinnen und -Arbeitern legitimieren. Umfasst sind unter anderem Daten über den emotionalen oder psychischen Zustand, Daten über private Gespräche sowie Daten zu sensiblen personenbezogenen Merkmalen der Plattform-Arbeiterinnen und -Arbeiter. Denkbar ist, dass auch Freitext-Bewertungen, die von Kunden auf einschlägigen Bewertungsportalen abgegeben werden, umfasst sind. Hier können beispielsweise emotionale Zustände oder sensible personenbezogene Merkmale preisgegeben werden.

Der rechtmäßige Einsatz von algorithmischen Beobachtungssystemen ist indes nicht minder reguliert. Die Plattformarbeitgeber müssen Transparenz, menschliche Aufsicht und die Sicherheit der algorithmischen Beobachtungssysteme gewährleisten.

10. Gibt es Besonderheiten im Bereich der Künstlichen Intelligenz?

Ja. Im Bereich der Künstlichen Intelligenz gibt es ebenfalls Besonderheiten. Wichtig ist zu wissen, dass gewisse Überwachungstechniken, die mithilfe von Künstlicher Intelligenz ausgeführt werden, seit dem 2. Februar 2025 verboten sind. Das betrifft insbesondere die Emotionserkennnungssysteme am Arbeitsplatz. Eine Ausnahme gilt jedoch, wenn „die Verwendung des KI-Systems aus medizinischen Gründen oder Sicherheitsgründen eingeführt“ wird. Dies ist beispielsweise bei einer Müdigkeitserkennung bei Personen in besonders gefährdeten Tätigkeiten der Fall, zum Beispiel LKW-Fahrende.  

Ist ein Emotionserkennnungssystem am Arbeitsplatz ausnahmsweise zulässig gilt es als „Hochrisiko-KI-System“. Ab dem 2. August 2026 gelten für solche Hochrisiko-KI-Systeme strenge Compliance-Pflichten, die sowohl die Anbietenden als auch die nutzenden Unternehmen („Betreiber“ nach der KI-VO) eines solchen KI-Systems betreffen. Die KI-VO verbietet den Einsatz solcher Hochrisiko-KI-Systeme zwar nicht, setzt aber hohe Hürden für ihren rechtskonformen Einsatz im Unternehmen.

Hinzu kommt: Die Einstufung als beispielsweise weniger hochriskant nach der KI-VO führt nicht dazu, dass der Einsatz eines solchen KI-Systems immer rechtmäßig ist. Insoweit stellt die KI-VO selbst klar, dass der rechtmäßige Einsatz eines entsprechenden KI-Systems nicht abschließend durch die KI-VO bestimmt wird. Die strengen Anforderungen an den Datenschutz oder aus dem Arbeitsrecht gelten weiterhin.

Fazit

Die Überwachung am Arbeitsplatz ist in Deutschland zugunsten des Personals stark reglementiert. Die Praxis zeigt, dass es dennoch immer wieder zu unzulässigen Überwachungen kommt. Beschäftigte und Unternehmen sind sich der rechtlichen Rahmenbedingungen oft nicht bewusst. Dabei kann eine unzulässige Überwachung gravierende Folgen haben: Unzulässige Maßnahmen von Arbeitgebern können nach der DSGVO mit hohen Bußgeldern geahndet werden (wie beispielsweise bei H&M geschehen) und gegebenenfalls auch Schadensersatzansprüche der Betroffenen begründen.

Zu beachten ist aus arbeitsrechtlicher Sicht auch, dass bei Vorhandensein eines Betriebsrats dieser stets einzubeziehen ist. Der Schutz der betroffenen Arbeitnehmerinnen und Arbeitnehmer ist also nicht nur im Datenschutzrecht verankert. (ba)

https://youtu.be/gfG6jzY7rvs?rel=0

FAQ Mitarbeiterüberwachung: Was Firmen dürfen – und was nicht​ Weiterlesen »

Samsung Galaxy A16 im Test: Budget-Smartphone mit toller Akkulaufzeit​

Allgemein

Connor Jewiss / Foundry Auf einen Blick Pro Ausgezeichnete Akkulaufzeit Wasserdicht nach IP54 6 Jahre Software-Unterstützung Kontra Mittelmäßige Leistung Schwache Kameras Begrenzter Arbeitsspeicher beim 128-GB-Modell Fazit Das Samsung Galaxy A16 ist ein gut verarbeitetes, preisgünstiges Handy mit einem fantastischen Display, langer Akkulaufzeit und zukunftssicherer Softwareunterstützung. Es ist jedoch nicht sehr leistungsstark, hat nur mittelmäßige Kameras und lässt wichtige Funktionen wie Stereolautsprecher und 4K-Videoaufzeichnungen vermissen. Für diejenigen, die ein langlebiges Gerät mit jahrelangen Updates suchen, ist es eine gute Wahl. Wer jedoch zum gleichen Preis mehr Leistung und Ausstattung erwartet, sollte sich nach anderen Modellen umsehen. Das Samsung Galaxy A16 ist ein kleines Upgrade gegenüber dem A15 vom letzten Jahr. Es bietet ein größeres 6,7-Zoll-AMOLED-Display, grundlegende Wasser- und Staubresistenz nach IP54 und eine solide Akkulaufzeit. Trotz dieser kleinen Verbesserungen bleibt die Hardware jedoch weitgehend unverändert. Es läuft immer noch mit dem MediaTek Helio G99 Chipsatz, der im Vergleich zu neueren Budget-Prozessoren schwächelt. Die Kameras bleiben einfach, mit einem schwachen 5-Megapixel-Ultraweitwinkelsensor und einem unnötigen 2-Megapixel-Makrosensor. Das Fehlen von Stereolautsprechern, 4K-Videoaufnahmen und einer Videostabilisierung benachteiligt es gegenüber Konkurrenten wie dem Redmi Note 13, dem Poco X6 und sogar dem etwas besser ausgestatteten Galaxy A16 5G von Samsung, die zu den aktuell besten Budget-Handys gehören. Letztlich bietet das A16 zwar ein ausgefeiltes Software-Erlebnis und eine großartige Akkulaufzeit, aber es fühlt sich an wie ein Smartphone aus dem letzten Jahr, das nicht mit der Konkurrenz mithalten kann. Design & Verarbeitung Größerer Formfaktor, mit IP54-zertifiziertem Spritzwasserschutz Kunststoffrückseite fühlt sich robust an und ist unempfindlich gegen Fingerabdrücke Keine Stereolautsprecher Keine hochwertigen Materialien Samsung hat das Design im Vergleich zum Galaxy A15 nicht grundlegend verändert. Das Galaxy A16 ist durch den größeren 6,7-Zoll-Bildschirm jedoch etwas größer. Die matte Kunststoffrückseite fühlt sich gut an und ist besser gegen Fingerabdrücke geschützt als glänzende Oberflächen. Besonders gut hat mir die Farbe “Light Green” gefallen, in der mein Gerät geliefert wurde. Es sieht fast wie Minze aus und schimmert leicht. Es steht außerdem eine dunkelblaue und eine graue Farboption zur Auswahl. Connor Jewiss / Foundry Das A16 behält Samsungs charakteristisches schwebendes Kameradesign bei, bei dem die drei rückwärtigen Linsen vertikal gestapelt sind. Der Rahmen ist flach und minimalistisch, die Power- und Lautstärke-Tasten sind erhöht. Ich mag diese Design-Entscheidung nicht besonders. Es gibt keinen wirklichen funktionalen Grund dafür, und es sieht auch nicht gut aus. Connor Jewiss / Foundry Die größte Neuerung ist der Spritzwasserschutz nach IP54. Das Smartphone hält also leichtem Regen stand und ist gegen das Eindringen von Staub geschützt. Das bedeutet jedoch nicht, dass es wasserdicht ist – erwarten Sie also nicht, dass es ein Eintauchen ins Wasser überlebt. Die matte Kunststoffrückseite fühlt sich gut an und widersteht Fingerabdrücken besser als glänzende Oberflächen. Mit 200 Gramm ist das Handy ziemlich schwer. Die Gewichtsverteilung ist gut ausbalanciert, sodass Sie es auch über längere Zeit bequem halten können. Allerdings gibt es keine Stereolautsprecher – ein großes Manko im Jahr 2025. Smartphones wie das Redmi Note 13 und das Poco X6 bieten zwei Lautsprecher und eignen sich daher besser für den Medienkonsum. Bildschirm & Sound 6,7-Zoll-Super-AMOLED-Display liefert leuchtende Farben und tiefe Schwarztöne 800 Nits Spitzenhelligkeit sorgt für gute Sichtbarkeit im Freien Keine HDR-Unterstützung und nur ein einziger, nach unten gerichteter Lautsprecher Das Display des A16 ist nach der hervorragenden Akkulaufzeit seine zweitstärkste Eigenschaft. Der 6,7 Zoll große Super AMOLED-Bildschirm bietet eine großartige Farbwiedergabe, tiefe Schwarztöne und einen exzellenten Kontrast. Mit einer Full-HD-Auflösung (1.080 × 2.340 Pixel) ist das Display knackig und scharf – perfekt für Streaming, Spiele und zum Lesen. Connor Jewiss / Foundry Die Bildwiederholfrequenz von 90 Hertz sorgt für einen flüssigen Bildlauf, aber im Gegensatz zu einigen Konkurrenten ist sie nicht adaptiv. Damit kann sich die Bildwiederholfrequenz nicht dynamisch an die jeweiligen Inhalte anpassen, was sich negativ auf die Akkulaufzeit auswirkt. Die Helligkeit ist für ein Budget-Handy beeindruckend. Mit einer gemessenen Spitzenhelligkeit von 808 Nits ist das Display auch im Freien und bei hellem Sonnenlicht noch gut zu erkennen. Allerdings fehlt HDR-Unterstützung. Das Display des A16 ist nach der hervorragenden Akkulaufzeit sein zweitstärkstes Merkmal. Das größte Manko ist der Sound. Mit nur einem einzigen Lautsprecher an der Unterseite fehlt es dem Klang an Tiefe, Bass und Stereotrennung. Im Gegensatz dazu bieten die ähnlich teuren Konkurrenten von Xiaomi und Poco zwei Lautsprecher und eignen sich daher besser für Videos und für Spiele. Spezifikationen & Leistung Die Chipsätze sind energieeffizient und bewältigen grundlegende Aufgaben gut, sind aber veraltet Erweiterbarer Speicher über microSD-Karte Langsamer als vergleichbar teure Handys wie das Poco X6 Samsung hat mit dem Galaxy A16 einen ungewöhnlichen Ansatz gewählt und das Smartphone je nach Region mit zwei verschiedenen Chipsätzen ausgestattet. Einige Modelle laufen mit dem MediaTek Helio G99 ausgestattet, andere mit dem Samsung-eigenen Exynos 1280. Obwohl es sich bei beiden um Mittelklasse-Prozessoren handelt, variiert ihre Leistung im realen Einsatz erheblich. In Deutschland kommt der Exynos 1280 zum Einsatz. Insgesamt ist die Leistung des Galaxy A16 im Jahr 2025 nicht überzeugend, insbesondere im Vergleich zu ähnlich teuren Konkurrenten. Der Helio G99 ist ein 6-Nanometer-Chip mit einer Octa-Core-CPU (2x Cortex-A76 bei 2,2 Gigahertz und 6x Cortex-A55 bei 2 Gigahertz), gepaart mit einer Mali-G57 MC2 GPU. Für alltägliche Aufgaben wie Messaging, Webbrowsing und soziale Medien ist er gut geeignet, aber bei intensivem Multitasking hat er Probleme. Der Exynos 1280 ist ein 5-Nanometer-Prozessor mit einem energieeffizienteren Design und einer etwas stärkeren Mali-G68 MP4 GPU, die ihm einen leichten Vorteil bei der Grafikleistung und der Akkulaufzeit verschafft. In Benchmarks schneidet der Exynos 1280 bei CPU-lastigen Aufgaben durchweg besser ab als der Helio G99, bleibt aber immer noch hinter modernen Mittelklasse-Prozessoren wie dem Snapdragon 7s Gen 2 zurück. Die Mali-G68 GPU übertrifft die Mali-G57 MC2 und bietet in einigen Fällen flüssigeres Gameplay. Beide Chipsätze sind jedoch nicht ideal für Spiele geeignet, da es bei anspruchsvollen Titeln häufig zu Framerate-Einbrüchen kommt. Arbeitsspeicher und Speicherplatz schränken das Potenzial des Smartphones weiter ein. Das Basismodell wird mit 4 Gigabyte RAM und 128 Gigabyte UFS 2.2-Speicher ausgeliefert, der sich im Vergleich zum UFS 3.1-Speicher einiger Konkurrenten träge anfühlt. Die Version mit 256 Gigabyte internem Speicher bietet 8 Gigabyte RAM. Das hilft beim Multitasking. Samsungs RAM-Plus-Funktion (virtueller Arbeitsspeicher) trägt kaum zur Verbesserung der Leistung bei. Connor Jewiss / Foundry Insgesamt ist die Leistung des Galaxy A16 im Jahr 2025 nicht überzeugend, besonders im Vergleich zu ähnlich teuren Konkurrenten wie dem Redmi Note 13 oder dem Poco X6. Beide laufen mit neueren und leistungsfähigeren Chipsätzen. Mit einem Geekbench 6 Multi-Core-Ergebnis von 1.920 liegt das Gerät weit hinter dem Poco X6, das den Snapdragon 7s Gen Chip verwendet und ein Multi-Core-Ergebnis von 3.480 liefert. Das Galaxy A16 schneidet sogar rund 100 Punkte schlechter ab als sein 5G-Pendant. Im Alltag ist die Leistung für Aufgaben wie Webbrowsing, soziale Medien und Streaming in der Regel in Ordnung. Bei anspruchsvolleren Apps werden Sie aber eine Verlangsamung feststellen. Es gab einige Szenarien, bei denen sich die grundlegenden Aufgaben langsam anfühlten. Spiele sind auf niedrige bis mittlere Einstellungen beschränkt, und das Smartphone hat Probleme mit anspruchsvollem Multitasking. Sogar bei einem relativ zahmen Titel wie “Plants vs. Zombies” wurde das Handy langsam und heiß. Die Exynos 1280-Variante ist zwar geringfügig besser, aber auch diese Version kann nicht wirklich überzeugen. 4 Gigabyte RAM sind zwar okay, aber die 8-Gigabyte-RAM-Version ist die bessere Wahl für Langlebigkeit. Der Speicher kann per microSD-Karte erweitert werden, was ein willkommenes Feature ist. Samsung Galaxy A16 Benchmarks Akkulaufzeit & Aufladen 5.000-mAh-Akku mit zwei Tagen Laufzeit Langsames 25-Watt-Laden Kein drahtloses oder umgekehrtes Laden Samsung liefert weiterhin hervorragende Akkulaufzeiten für seine Budget-Handys. Das Galaxy A16 bildet da keine Ausnahme. Sein 5.000-Milliamperestunden-Akku, kombiniert mit einem energieeffizienten Chipsatz, ermöglicht eine Nutzung von mindestens zwei vollen Tagen mit einer einzigen Aufladung. Bei leichter bis mittlerer Nutzung (soziale Medien, Messaging und Videostreaming) ist es möglich, die Akkulaufzeit auf über 48 Stunden zu verlängern. Selbst bei intensiver Nutzung, einschließlich Spielen und GPS-Navigation, hält das Smartphone bequem einen ganzen Tag durch. Connor Jewiss / Foundry Die Exynos 1280-Variante ist dank ihrer 5-Nanometer-Architektur etwas energieeffizienter als die Helio G99-Version. Deutsche Nutzer bekommen also eine längere Akkulaufzeit als Nutzer in anderen Regionen. Der Unterschied ist jedoch nicht groß, und beide Versionen des A16 4G bieten eine der besten Ausdauerleistungen in dieser Preisklasse. Das Ladeerlebnis ist weniger beeindruckend. Samsung unterstützt das kabelgebundene Laden mit 25 Watt, aber es ist kein Ladegerät im Lieferumfang enthalten. Mit Samsungs offiziellem 25-Watt-Ladegerät erreicht das Handy in 30 Minuten etwa 50 Prozent und benötigt etwa 80 Minuten für eine vollständige Ladung. Das ist nicht langsam, aber es liegt hinter Konkurrenten wie dem Poco M6 Pro (67 Watt) und dem OnePlus Nord CE4 (100 Watt) zurück, die deutlich schneller laden. Connor Jewiss / Foundry Samsung liefert weiterhin hervorragende Akkulaufzeiten bei seinen Budget-Handys. Das Galaxy A16 ist da keine Ausnahme. Im Gegensatz zu einigen Konkurrenten bietet das A16 weder kabelloses Aufladen noch Rückwärtsaufladen. Während kabelloses Laden in dieser Preisklasse selten ist, bieten einige preisgünstige Modelle von Xiaomi und Motorola die Möglichkeit des kabelgebundenen Rückwärtsladens, sodass Sie den Akku Ihres Smartphones mit Zubehör oder anderen Geräten teilen können. Letztlich ist die Akkulaufzeit eine der größten Stärken des A16, aber die langsamen Ladegeschwindigkeiten und das Fehlen eines mitgelieferten Ladegeräts beeinträchtigen seine Wettbewerbsfähigkeit. Kameras Anständige Hauptkamera, aber schwache sekundäre Sensoren Schlechte Leistung bei schlechten Lichtverhältnissen, sogar im speziellen Nachtmodus Begrenzte Videofunktionen Das Galaxy A16 verfügt über die gleiche Dreifach-Kamera wie sein Vorgänger: einen 50-Megapixel-Hauptsensor, ein 5-Megapixel-Ultraweitwinkelobjektiv und eine 2-Megapixel-Makrokamera. Während der Hauptsensor bei Tageslicht gute Ergebnisse liefert, wirken die Sekundärkameras wie eine nachträgliche Idee. Die Tageslichtaufnahmen der Hauptkamera sind scharf und lebendig, mit der von Samsung gewohnten kräftigen Farbabstimmung, die Blautöne und Grüntöne hervorhebt. Der Dynamikumfang ist ordentlich, aber nicht so stark wie bei den höherwertigen Geräten von Samsung. Bei guter Beleuchtung bleiben Details gut erhalten und das Rauschen ist minimal. Es sind nicht die schärfsten Aufnahmen, aber sie reichen aus. Beim Zoomen erhalten Sie ziemlich körnige Ergebnisse – sogar beim zweifachen Zoom. Bei höheren Zoomstufen sind die Fotos weitgehend unbrauchbar. Die Leistung bei schlechten Lichtverhältnissen ist allerdings ein Schwachpunkt. Ohne optische Bildstabilisierung (OIS) hat das A16 mit Bewegungsunschärfe und Rauschen in dunkleren Umgebungen zu kämpfen. Der Nachtmodus von Samsung hilft, die Bilder aufzuhellen und den Dynamikbereich zu verbessern, aber die Details bleiben weich und die Glanzlichter sind oft überstrahlt. Konkurrierende Handys wie das Redmi Note 13 und das OnePlus Nord CE4 bieten dank besserer Bildverarbeitung und Stabilisierung eine bessere Leistung bei schlechten Lichtverhältnissen. Die 5-Megapixel-Ultrawide-Kamera ist enttäuschend und liefert weiche, detailarme Bilder mit geringem Dynamikumfang. Die Farben stimmen nicht immer mit denen der Hauptkamera überein, und an den Rändern der Aufnahmen ist eine Verzerrung sichtbar. Die 2-Megapixel-Makrokamera ist noch schwächer und erfordert perfekte Lichtverhältnisse, um auch nur annähernd brauchbare Aufnahmen zu machen. Der Porträtmodus ist noch schwächer. Die Kantenerkennung ist miserabel. Während der 50-Megapixel-Hauptsensor des Dreifach-Kamera-Moduls bei Tageslicht gute Ergebnisse liefert, wirken die Sekundärkameras wie ein nachträglicher Einfall. Die Videoaufzeichnung ist auf 1080p bei 30 Bildern pro Sekunde beschränkt, kein 4K, keine 60 Bilder pro Sekunde und keine elektronische Stabilisierung. Das macht die Videos wackelig und detailarm und lässt sie weit hinter der Videoleistung der Konkurrenz zurück. Für Gelegenheitsnutzer ist die Hauptkamera für alltägliche Aufnahmen gut geeignet, aber das Fehlen einer starken Sekundärkamera, der unzureichende Nachtmodus und die schwachen Videofunktionen machen sie zu einer schlechten Wahl für Fotografie-Enthusiasten. Software & Funktionen Unerreichte Softwareunterstützung zu diesem Preis, mit sechs Jahren versprochener Android-Updates One UI 6.1 ist reich an Funktionen, aber träge Fehlende Premium-Funktionen von Samsung Ein weiterer großer Vorteil des Galaxy A16 ist seine Softwareunterstützung. Samsung verspricht sechs große Android-Updates, was bedeutet, dass das Gerät bis Android 20 Updates erhalten wird – ein Supportniveau, das von keinem anderen Budget-Handy erreicht wird. Connor Jewiss / Foundry One UI 6.1 ist zwar sehr funktionsreich, leidet aber unter gelegentlichen Verzögerungen. Hier findet sich außerdem recht viel vorinstallierte Bloatware. Das ist viel weniger schlimm als bei anderen Herstellern von günstigen Handys. Auch das Fehlen von Premium-Funktionen wie Always-On Display und Samsung DeX lässt die Software im Vergleich zu teureren Samsung-Geräten künstlich eingeschränkt erscheinen. Ein weiteres großes Manko ist die fehlende Galaxy-AI. Das bedeutet, dass Sie keinen Zugriff auf Funktionen wie Live Translate, Circle to Search und den Rest haben. Sie können jedoch Apps wie Google Gemini herunterladen. Samsung verspricht sechs große Android-Updates, was bedeutet, dass das A16 bis Android 20 Updates erhalten wird. Insgesamt bietet Samsung einen hervorragenden Langzeit-Support – die Software läuft im Budget-Bereich jedoch nicht ganz reibungslos. Preis und Verfügbarkeit Das Samsung Galaxy A16 ist im Online-Shop von Samsung ab 174,90 Euro erhältlich. Dafür bekommen Sie 128 Gigabyte Speicher und 4 Gigabyte RAM. Es gibt zusätzlich eine Version mit 8 Gigabyte RAM und 256 Gigabyte Speicher. Diese wird derzeit aber leider nicht im Samsung-Online-Shop angeboten. Deutlich günstiger geht es bei Online-Händler Amazon. Hier ist die 128-Gigabyte-Version bereits ab 132 Euro erhältlich. Beachten Sie jedoch, dass das Galaxy A16 nicht mit dem Galaxy A16 5G identisch ist, das über einen anderen Chipsatz und bessere Konnektivitätsoptionen verfügt. Sollten Sie das Samsung Galaxy A16 kaufen? Connor Jewiss / Foundry Das Samsung Galaxy A16 ist ein solides, aber uninspiriertes Budget-Smartphone. Seine stärksten Verkaufsargumente sind die Akkulaufzeit und die langfristige Softwareunterstützung, die die meisten Konkurrenten in den Schatten stellen. Der 5.000-Milliamperestunden-Akku garantiert eine Laufzeit von mindestens zwei Tagen. Das Versprechen von Samsung, sechs Jahre lang Android-Updates zu liefern, ist in diesem Preissegment eine Seltenheit. Diese positiven Eigenschaften gehen jedoch mit großen Kompromissen einher. Die Leistung ist bestenfalls mittelmäßig, und beide Chipsatz-Modelle haben mit neueren Mittelklasse-Konkurrenten zu kämpfen. Die Spielleistung ist schwach, die Ladezeiten von Apps sind langsam und die 4 Gigabyte RAM des Basismodells führen zu häufigen Rucklern. Das Display ist zwar ein ordentliches AMOLED-Panel, aber es fehlen HDR-Unterstützung und dynamische Bildwiederholfrequenz, wodurch es sich veraltet anfühlt. Die Kameras sind ein weiterer Schwachpunkt, denn nur der 50-Megapixel-Hauptsensor liefert anständige Ergebnisse. Das Galaxy A16 ist zwar kein schlechtes Handy, aber es gelingt ihm nicht, sich in einem zunehmend wettbewerbsintensiven Preissegment abzuheben. Andere Handys zu diesem Preis bieten eine bessere Leistung, bessere Displays und bessere Kamerasysteme. Wenn Ihnen Software-Updates und Akkulaufzeit wichtiger sind als alles andere, ist das A16 4G eine vernünftige Option. Aber für die meisten Nutzer gibt es für das gleiche Geld bessere Geräte. Spezifikationen Bildschirm: 6,7-Zoll Super AMOLED, 1.080 × 2.340 Pixel, 90 Hz Bildwiederholrate Prozessor: Exynos 1280 Arbeitsspeicher: 4 / 8 GB RAM Speicher: 128 / 256 GB, microSD-Unterstützung Rückwärtige Kameras: 50 MP (f/1,8, PDAF), 5 MP Ultrawide (f/2,2), 2 MP Makro (f/2,4) Frontkamera: 13 MP (f/2,0) Akku: 5.000 mAh, 25 W kabelgebundenes Laden Software: Android 14 mit One UI 6.1, bis zu 6 OS-Updates Abmessungen: 164,6 × 77,9 × 7,9 mm, 200 g (PC-Welt) 

Samsung Galaxy A16 im Test: Budget-Smartphone mit toller Akkulaufzeit​ Connor Jewiss / Foundry

Auf einen Blick

Pro

Ausgezeichnete Akkulaufzeit

Wasserdicht nach IP54

6 Jahre Software-Unterstützung

Kontra

Mittelmäßige Leistung

Schwache Kameras

Begrenzter Arbeitsspeicher beim 128-GB-Modell

Fazit

Das Samsung Galaxy A16 ist ein gut verarbeitetes, preisgünstiges Handy mit einem fantastischen Display, langer Akkulaufzeit und zukunftssicherer Softwareunterstützung. Es ist jedoch nicht sehr leistungsstark, hat nur mittelmäßige Kameras und lässt wichtige Funktionen wie Stereolautsprecher und 4K-Videoaufzeichnungen vermissen. Für diejenigen, die ein langlebiges Gerät mit jahrelangen Updates suchen, ist es eine gute Wahl. Wer jedoch zum gleichen Preis mehr Leistung und Ausstattung erwartet, sollte sich nach anderen Modellen umsehen.

Das Samsung Galaxy A16 ist ein kleines Upgrade gegenüber dem A15 vom letzten Jahr. Es bietet ein größeres 6,7-Zoll-AMOLED-Display, grundlegende Wasser- und Staubresistenz nach IP54 und eine solide Akkulaufzeit.

Trotz dieser kleinen Verbesserungen bleibt die Hardware jedoch weitgehend unverändert. Es läuft immer noch mit dem MediaTek Helio G99 Chipsatz, der im Vergleich zu neueren Budget-Prozessoren schwächelt. Die Kameras bleiben einfach, mit einem schwachen 5-Megapixel-Ultraweitwinkelsensor und einem unnötigen 2-Megapixel-Makrosensor.

Das Fehlen von Stereolautsprechern, 4K-Videoaufnahmen und einer Videostabilisierung benachteiligt es gegenüber Konkurrenten wie dem Redmi Note 13, dem Poco X6 und sogar dem etwas besser ausgestatteten Galaxy A16 5G von Samsung, die zu den aktuell besten Budget-Handys gehören.

Letztlich bietet das A16 zwar ein ausgefeiltes Software-Erlebnis und eine großartige Akkulaufzeit, aber es fühlt sich an wie ein Smartphone aus dem letzten Jahr, das nicht mit der Konkurrenz mithalten kann.

Design & Verarbeitung

Größerer Formfaktor, mit IP54-zertifiziertem Spritzwasserschutz

Kunststoffrückseite fühlt sich robust an und ist unempfindlich gegen Fingerabdrücke

Keine Stereolautsprecher

Keine hochwertigen Materialien

Samsung hat das Design im Vergleich zum Galaxy A15 nicht grundlegend verändert. Das Galaxy A16 ist durch den größeren 6,7-Zoll-Bildschirm jedoch etwas größer. Die matte Kunststoffrückseite fühlt sich gut an und ist besser gegen Fingerabdrücke geschützt als glänzende Oberflächen.

Besonders gut hat mir die Farbe “Light Green” gefallen, in der mein Gerät geliefert wurde. Es sieht fast wie Minze aus und schimmert leicht. Es steht außerdem eine dunkelblaue und eine graue Farboption zur Auswahl.

Connor Jewiss / Foundry

Das A16 behält Samsungs charakteristisches schwebendes Kameradesign bei, bei dem die drei rückwärtigen Linsen vertikal gestapelt sind. Der Rahmen ist flach und minimalistisch, die Power- und Lautstärke-Tasten sind erhöht. Ich mag diese Design-Entscheidung nicht besonders. Es gibt keinen wirklichen funktionalen Grund dafür, und es sieht auch nicht gut aus.

Connor Jewiss / Foundry

Die größte Neuerung ist der Spritzwasserschutz nach IP54. Das Smartphone hält also leichtem Regen stand und ist gegen das Eindringen von Staub geschützt. Das bedeutet jedoch nicht, dass es wasserdicht ist – erwarten Sie also nicht, dass es ein Eintauchen ins Wasser überlebt.

Die matte Kunststoffrückseite fühlt sich gut an und widersteht Fingerabdrücken besser als glänzende Oberflächen.

Mit 200 Gramm ist das Handy ziemlich schwer. Die Gewichtsverteilung ist gut ausbalanciert, sodass Sie es auch über längere Zeit bequem halten können. Allerdings gibt es keine Stereolautsprecher – ein großes Manko im Jahr 2025. Smartphones wie das Redmi Note 13 und das Poco X6 bieten zwei Lautsprecher und eignen sich daher besser für den Medienkonsum.

Bildschirm & Sound

6,7-Zoll-Super-AMOLED-Display liefert leuchtende Farben und tiefe Schwarztöne

800 Nits Spitzenhelligkeit sorgt für gute Sichtbarkeit im Freien

Keine HDR-Unterstützung und nur ein einziger, nach unten gerichteter Lautsprecher

Das Display des A16 ist nach der hervorragenden Akkulaufzeit seine zweitstärkste Eigenschaft. Der 6,7 Zoll große Super AMOLED-Bildschirm bietet eine großartige Farbwiedergabe, tiefe Schwarztöne und einen exzellenten Kontrast. Mit einer Full-HD-Auflösung (1.080 × 2.340 Pixel) ist das Display knackig und scharf – perfekt für Streaming, Spiele und zum Lesen.

Connor Jewiss / Foundry

Die Bildwiederholfrequenz von 90 Hertz sorgt für einen flüssigen Bildlauf, aber im Gegensatz zu einigen Konkurrenten ist sie nicht adaptiv. Damit kann sich die Bildwiederholfrequenz nicht dynamisch an die jeweiligen Inhalte anpassen, was sich negativ auf die Akkulaufzeit auswirkt.

Die Helligkeit ist für ein Budget-Handy beeindruckend. Mit einer gemessenen Spitzenhelligkeit von 808 Nits ist das Display auch im Freien und bei hellem Sonnenlicht noch gut zu erkennen. Allerdings fehlt HDR-Unterstützung.

Das Display des A16 ist nach der hervorragenden Akkulaufzeit sein zweitstärkstes Merkmal.

Das größte Manko ist der Sound. Mit nur einem einzigen Lautsprecher an der Unterseite fehlt es dem Klang an Tiefe, Bass und Stereotrennung. Im Gegensatz dazu bieten die ähnlich teuren Konkurrenten von Xiaomi und Poco zwei Lautsprecher und eignen sich daher besser für Videos und für Spiele.

Spezifikationen & Leistung

Die Chipsätze sind energieeffizient und bewältigen grundlegende Aufgaben gut, sind aber veraltet

Erweiterbarer Speicher über microSD-Karte

Langsamer als vergleichbar teure Handys wie das Poco X6

Samsung hat mit dem Galaxy A16 einen ungewöhnlichen Ansatz gewählt und das Smartphone je nach Region mit zwei verschiedenen Chipsätzen ausgestattet. Einige Modelle laufen mit dem MediaTek Helio G99 ausgestattet, andere mit dem Samsung-eigenen Exynos 1280. Obwohl es sich bei beiden um Mittelklasse-Prozessoren handelt, variiert ihre Leistung im realen Einsatz erheblich. In Deutschland kommt der Exynos 1280 zum Einsatz.

Insgesamt ist die Leistung des Galaxy A16 im Jahr 2025 nicht überzeugend, insbesondere im Vergleich zu ähnlich teuren Konkurrenten.

Der Helio G99 ist ein 6-Nanometer-Chip mit einer Octa-Core-CPU (2x Cortex-A76 bei 2,2 Gigahertz und 6x Cortex-A55 bei 2 Gigahertz), gepaart mit einer Mali-G57 MC2 GPU. Für alltägliche Aufgaben wie Messaging, Webbrowsing und soziale Medien ist er gut geeignet, aber bei intensivem Multitasking hat er Probleme.

Der Exynos 1280 ist ein 5-Nanometer-Prozessor mit einem energieeffizienteren Design und einer etwas stärkeren Mali-G68 MP4 GPU, die ihm einen leichten Vorteil bei der Grafikleistung und der Akkulaufzeit verschafft.

In Benchmarks schneidet der Exynos 1280 bei CPU-lastigen Aufgaben durchweg besser ab als der Helio G99, bleibt aber immer noch hinter modernen Mittelklasse-Prozessoren wie dem Snapdragon 7s Gen 2 zurück. Die Mali-G68 GPU übertrifft die Mali-G57 MC2 und bietet in einigen Fällen flüssigeres Gameplay. Beide Chipsätze sind jedoch nicht ideal für Spiele geeignet, da es bei anspruchsvollen Titeln häufig zu Framerate-Einbrüchen kommt.

Arbeitsspeicher und Speicherplatz schränken das Potenzial des Smartphones weiter ein. Das Basismodell wird mit 4 Gigabyte RAM und 128 Gigabyte UFS 2.2-Speicher ausgeliefert, der sich im Vergleich zum UFS 3.1-Speicher einiger Konkurrenten träge anfühlt. Die Version mit 256 Gigabyte internem Speicher bietet 8 Gigabyte RAM. Das hilft beim Multitasking. Samsungs RAM-Plus-Funktion (virtueller Arbeitsspeicher) trägt kaum zur Verbesserung der Leistung bei.

Connor Jewiss / Foundry

Insgesamt ist die Leistung des Galaxy A16 im Jahr 2025 nicht überzeugend, besonders im Vergleich zu ähnlich teuren Konkurrenten wie dem Redmi Note 13 oder dem Poco X6. Beide laufen mit neueren und leistungsfähigeren Chipsätzen. Mit einem Geekbench 6 Multi-Core-Ergebnis von 1.920 liegt das Gerät weit hinter dem Poco X6, das den Snapdragon 7s Gen Chip verwendet und ein Multi-Core-Ergebnis von 3.480 liefert. Das Galaxy A16 schneidet sogar rund 100 Punkte schlechter ab als sein 5G-Pendant.

Im Alltag ist die Leistung für Aufgaben wie Webbrowsing, soziale Medien und Streaming in der Regel in Ordnung. Bei anspruchsvolleren Apps werden Sie aber eine Verlangsamung feststellen. Es gab einige Szenarien, bei denen sich die grundlegenden Aufgaben langsam anfühlten. Spiele sind auf niedrige bis mittlere Einstellungen beschränkt, und das Smartphone hat Probleme mit anspruchsvollem Multitasking. Sogar bei einem relativ zahmen Titel wie “Plants vs. Zombies” wurde das Handy langsam und heiß.

Die Exynos 1280-Variante ist zwar geringfügig besser, aber auch diese Version kann nicht wirklich überzeugen. 4 Gigabyte RAM sind zwar okay, aber die 8-Gigabyte-RAM-Version ist die bessere Wahl für Langlebigkeit. Der Speicher kann per microSD-Karte erweitert werden, was ein willkommenes Feature ist.

Samsung Galaxy A16 Benchmarks

Akkulaufzeit & Aufladen

5.000-mAh-Akku mit zwei Tagen Laufzeit

Langsames 25-Watt-Laden

Kein drahtloses oder umgekehrtes Laden

Samsung liefert weiterhin hervorragende Akkulaufzeiten für seine Budget-Handys. Das Galaxy A16 bildet da keine Ausnahme. Sein 5.000-Milliamperestunden-Akku, kombiniert mit einem energieeffizienten Chipsatz, ermöglicht eine Nutzung von mindestens zwei vollen Tagen mit einer einzigen Aufladung. Bei leichter bis mittlerer Nutzung (soziale Medien, Messaging und Videostreaming) ist es möglich, die Akkulaufzeit auf über 48 Stunden zu verlängern. Selbst bei intensiver Nutzung, einschließlich Spielen und GPS-Navigation, hält das Smartphone bequem einen ganzen Tag durch.

Connor Jewiss / Foundry

Die Exynos 1280-Variante ist dank ihrer 5-Nanometer-Architektur etwas energieeffizienter als die Helio G99-Version. Deutsche Nutzer bekommen also eine längere Akkulaufzeit als Nutzer in anderen Regionen. Der Unterschied ist jedoch nicht groß, und beide Versionen des A16 4G bieten eine der besten Ausdauerleistungen in dieser Preisklasse.

Das Ladeerlebnis ist weniger beeindruckend. Samsung unterstützt das kabelgebundene Laden mit 25 Watt, aber es ist kein Ladegerät im Lieferumfang enthalten. Mit Samsungs offiziellem 25-Watt-Ladegerät erreicht das Handy in 30 Minuten etwa 50 Prozent und benötigt etwa 80 Minuten für eine vollständige Ladung. Das ist nicht langsam, aber es liegt hinter Konkurrenten wie dem Poco M6 Pro (67 Watt) und dem OnePlus Nord CE4 (100 Watt) zurück, die deutlich schneller laden.

Connor Jewiss / Foundry

Samsung liefert weiterhin hervorragende Akkulaufzeiten bei seinen Budget-Handys. Das Galaxy A16 ist da keine Ausnahme.

Im Gegensatz zu einigen Konkurrenten bietet das A16 weder kabelloses Aufladen noch Rückwärtsaufladen. Während kabelloses Laden in dieser Preisklasse selten ist, bieten einige preisgünstige Modelle von Xiaomi und Motorola die Möglichkeit des kabelgebundenen Rückwärtsladens, sodass Sie den Akku Ihres Smartphones mit Zubehör oder anderen Geräten teilen können.

Letztlich ist die Akkulaufzeit eine der größten Stärken des A16, aber die langsamen Ladegeschwindigkeiten und das Fehlen eines mitgelieferten Ladegeräts beeinträchtigen seine Wettbewerbsfähigkeit.

Kameras

Anständige Hauptkamera, aber schwache sekundäre Sensoren

Schlechte Leistung bei schlechten Lichtverhältnissen, sogar im speziellen Nachtmodus

Begrenzte Videofunktionen

Das Galaxy A16 verfügt über die gleiche Dreifach-Kamera wie sein Vorgänger: einen 50-Megapixel-Hauptsensor, ein 5-Megapixel-Ultraweitwinkelobjektiv und eine 2-Megapixel-Makrokamera. Während der Hauptsensor bei Tageslicht gute Ergebnisse liefert, wirken die Sekundärkameras wie eine nachträgliche Idee.

Die Tageslichtaufnahmen der Hauptkamera sind scharf und lebendig, mit der von Samsung gewohnten kräftigen Farbabstimmung, die Blautöne und Grüntöne hervorhebt.

Der Dynamikumfang ist ordentlich, aber nicht so stark wie bei den höherwertigen Geräten von Samsung. Bei guter Beleuchtung bleiben Details gut erhalten und das Rauschen ist minimal. Es sind nicht die schärfsten Aufnahmen, aber sie reichen aus.

Beim Zoomen erhalten Sie ziemlich körnige Ergebnisse – sogar beim zweifachen Zoom. Bei höheren Zoomstufen sind die Fotos weitgehend unbrauchbar.

Die Leistung bei schlechten Lichtverhältnissen ist allerdings ein Schwachpunkt. Ohne optische Bildstabilisierung (OIS) hat das A16 mit Bewegungsunschärfe und Rauschen in dunkleren Umgebungen zu kämpfen.

Der Nachtmodus von Samsung hilft, die Bilder aufzuhellen und den Dynamikbereich zu verbessern, aber die Details bleiben weich und die Glanzlichter sind oft überstrahlt. Konkurrierende Handys wie das Redmi Note 13 und das OnePlus Nord CE4 bieten dank besserer Bildverarbeitung und Stabilisierung eine bessere Leistung bei schlechten Lichtverhältnissen.

Die 5-Megapixel-Ultrawide-Kamera ist enttäuschend und liefert weiche, detailarme Bilder mit geringem Dynamikumfang. Die Farben stimmen nicht immer mit denen der Hauptkamera überein, und an den Rändern der Aufnahmen ist eine Verzerrung sichtbar.

Die 2-Megapixel-Makrokamera ist noch schwächer und erfordert perfekte Lichtverhältnisse, um auch nur annähernd brauchbare Aufnahmen zu machen. Der Porträtmodus ist noch schwächer. Die Kantenerkennung ist miserabel.

Während der 50-Megapixel-Hauptsensor des Dreifach-Kamera-Moduls bei Tageslicht gute Ergebnisse liefert, wirken die Sekundärkameras wie ein nachträglicher Einfall.

Die Videoaufzeichnung ist auf 1080p bei 30 Bildern pro Sekunde beschränkt, kein 4K, keine 60 Bilder pro Sekunde und keine elektronische Stabilisierung. Das macht die Videos wackelig und detailarm und lässt sie weit hinter der Videoleistung der Konkurrenz zurück.

Für Gelegenheitsnutzer ist die Hauptkamera für alltägliche Aufnahmen gut geeignet, aber das Fehlen einer starken Sekundärkamera, der unzureichende Nachtmodus und die schwachen Videofunktionen machen sie zu einer schlechten Wahl für Fotografie-Enthusiasten.

Software & Funktionen

Unerreichte Softwareunterstützung zu diesem Preis, mit sechs Jahren versprochener Android-Updates

One UI 6.1 ist reich an Funktionen, aber träge

Fehlende Premium-Funktionen von Samsung

Ein weiterer großer Vorteil des Galaxy A16 ist seine Softwareunterstützung. Samsung verspricht sechs große Android-Updates, was bedeutet, dass das Gerät bis Android 20 Updates erhalten wird – ein Supportniveau, das von keinem anderen Budget-Handy erreicht wird.

Connor Jewiss / Foundry

One UI 6.1 ist zwar sehr funktionsreich, leidet aber unter gelegentlichen Verzögerungen. Hier findet sich außerdem recht viel vorinstallierte Bloatware. Das ist viel weniger schlimm als bei anderen Herstellern von günstigen Handys. Auch das Fehlen von Premium-Funktionen wie Always-On Display und Samsung DeX lässt die Software im Vergleich zu teureren Samsung-Geräten künstlich eingeschränkt erscheinen.

Ein weiteres großes Manko ist die fehlende Galaxy-AI. Das bedeutet, dass Sie keinen Zugriff auf Funktionen wie Live Translate, Circle to Search und den Rest haben. Sie können jedoch Apps wie Google Gemini herunterladen.

Samsung verspricht sechs große Android-Updates, was bedeutet, dass das A16 bis Android 20 Updates erhalten wird.

Insgesamt bietet Samsung einen hervorragenden Langzeit-Support – die Software läuft im Budget-Bereich jedoch nicht ganz reibungslos.

Preis und Verfügbarkeit

Das Samsung Galaxy A16 ist im Online-Shop von Samsung ab 174,90 Euro erhältlich. Dafür bekommen Sie 128 Gigabyte Speicher und 4 Gigabyte RAM. Es gibt zusätzlich eine Version mit 8 Gigabyte RAM und 256 Gigabyte Speicher. Diese wird derzeit aber leider nicht im Samsung-Online-Shop angeboten. Deutlich günstiger geht es bei Online-Händler Amazon. Hier ist die 128-Gigabyte-Version bereits ab 132 Euro erhältlich.

Beachten Sie jedoch, dass das Galaxy A16 nicht mit dem Galaxy A16 5G identisch ist, das über einen anderen Chipsatz und bessere Konnektivitätsoptionen verfügt.

Sollten Sie das Samsung Galaxy A16 kaufen?

Connor Jewiss / Foundry

Das Samsung Galaxy A16 ist ein solides, aber uninspiriertes Budget-Smartphone. Seine stärksten Verkaufsargumente sind die Akkulaufzeit und die langfristige Softwareunterstützung, die die meisten Konkurrenten in den Schatten stellen. Der 5.000-Milliamperestunden-Akku garantiert eine Laufzeit von mindestens zwei Tagen. Das Versprechen von Samsung, sechs Jahre lang Android-Updates zu liefern, ist in diesem Preissegment eine Seltenheit. Diese positiven Eigenschaften gehen jedoch mit großen Kompromissen einher.

Die Leistung ist bestenfalls mittelmäßig, und beide Chipsatz-Modelle haben mit neueren Mittelklasse-Konkurrenten zu kämpfen. Die Spielleistung ist schwach, die Ladezeiten von Apps sind langsam und die 4 Gigabyte RAM des Basismodells führen zu häufigen Rucklern.

Das Display ist zwar ein ordentliches AMOLED-Panel, aber es fehlen HDR-Unterstützung und dynamische Bildwiederholfrequenz, wodurch es sich veraltet anfühlt. Die Kameras sind ein weiterer Schwachpunkt, denn nur der 50-Megapixel-Hauptsensor liefert anständige Ergebnisse.

Das Galaxy A16 ist zwar kein schlechtes Handy, aber es gelingt ihm nicht, sich in einem zunehmend wettbewerbsintensiven Preissegment abzuheben. Andere Handys zu diesem Preis bieten eine bessere Leistung, bessere Displays und bessere Kamerasysteme.

Wenn Ihnen Software-Updates und Akkulaufzeit wichtiger sind als alles andere, ist das A16 4G eine vernünftige Option. Aber für die meisten Nutzer gibt es für das gleiche Geld bessere Geräte.

Spezifikationen

Bildschirm: 6,7-Zoll Super AMOLED, 1.080 × 2.340 Pixel, 90 Hz Bildwiederholrate

Prozessor: Exynos 1280

Arbeitsspeicher: 4 / 8 GB RAM

Speicher: 128 / 256 GB, microSD-Unterstützung

Rückwärtige Kameras: 50 MP (f/1,8, PDAF), 5 MP Ultrawide (f/2,2), 2 MP Makro (f/2,4)

Frontkamera: 13 MP (f/2,0)

Akku: 5.000 mAh, 25 W kabelgebundenes Laden

Software: Android 14 mit One UI 6.1, bis zu 6 OS-Updates

Abmessungen: 164,6 × 77,9 × 7,9 mm, 200 g

(PC-Welt)

Samsung Galaxy A16 im Test: Budget-Smartphone mit toller Akkulaufzeit​ Weiterlesen »

USB-Stick vor dem Aus? Diese Alternativen gibt es​

Allgemein

CameraCraft Wann haben Sie zuletzt einen USB-Stick benutzt? Ich selbst musste kurz überlegen – und ehrlich gesagt, ich weiß es nicht mehr genau. Dabei war der USB-Stick jahrelang das Mittel der Wahl, wenn es um schnellen und unkomplizierten Datentransfer ging. Was ist der Grund, dass diese praktischen Speicherhelfer heute kaum noch eine Rolle spielen, und stehen sie womöglich sogar kurz vor dem Aus? Ein Blick auf die aktuellen Entwicklungen gibt Aufschluss. Warum USB-Sticks nicht mehr zeitgemäß sind So kompakt und handlich sie auch sind: USB-Sticks haben in den letzten Jahren deutlich an Relevanz verloren. Einer der Hauptgründe ist ihre vergleichsweise geringe Speicherkapazität. Viele handelsübliche Modelle enden bei 256 oder 512 GB, wodurch sich große Datenmengen wie 4K-Videos, komplette Fotoarchive oder System-Backups nur eingeschränkt transportieren lassen. Zwar gibt es vereinzelt auch High-End-Sticks mit bis zu 2 Terabyte Speicher, doch für solche Kapazitäten greifen viele lieber direkt zur SSD. Der Grund: SSDs verwenden in der Regel leistungsfähigere Flash-Chips, die für höhere Datentransferraten und eine längere Lebensdauer sorgen. Ein weiteres Problem: Der klassische USB-A-Anschluss passt kaum noch zu modernen Geräten. Die meisten Laptops und Tablets setzen auf USB-C, Smartphones sowieso. Apple spielt sogar mit dem Gedanken, komplett auf physische Anschlüsse zu verzichten und nur noch drahtlose Übertragung zu nutzen. Zwar gibt es mittlerweile sogenannte Dual-Sticks mit USB-A- und USB-C-Anschluss, doch in der Praxis handelt es sich dabei oft um einen Kompromiss. Viele dieser Modelle setzen auf einfache Controller und günstigere Flashspeicher, was sich in deutlich langsameren Übertragungsraten bemerkbar macht – insbesondere beim Schreiben großer Dateien. Moderne Alternativen zum USB-Stick Externe Festplatten: Viel Speicher für wenig Geld Externe Festplatten, zum Beispiel SSDs, sind robust und leistungsstark – mit deutlich mehr Speicherplatz als der durchschnittliche USB-Stick.SanDisk Externe Festplatten – ob als klassische HDD oder schnelle SSD – gehören zu den beliebtesten Alternativen zum USB-Stick. Sie bieten deutlich mehr Speicher (bis zu 4 TB und mehr) und vor allem SSDs überzeugen mit hoher Übertragungsgeschwindigkeit über USB-C oder Thunderbolt. Während HDDs günstig viel Platz bieten, sind SSDs die bessere Wahl für große Datenmengen, da sie schneller, robuster und in höheren Speicherklassen kaum teurer sind als vergleichbare USB-Sticks. Wie sich die Festplatten konkret voneinander unterscheiden, das erklärt Ihnen unser Ratgeber “HDD, SSD, M2, NVME etc. – Darauf kommt es bei Datenträgern an“. Außerdem finden Sie hier die wichtigsten SSD-Tipps, die jeder kennen sollte. Vorteile: Deutlich mehr Speicherplatz als USB-Sticks Stoßfest und langlebig, qualitativere Flash-Chips Für Backups oder große Datenmengen ideal Nachteile: Größer und schwerer als ein USB-Stick Teilweise teurer, besonders bei SSD-Modellen SD-Karten: Klein, schnell – aber nicht universell Mit SD-Speicherkarten lässt sich zum Beispiel der Handyspeicher erweitern.SanDisk Auch SD-Karten (oder microSDs mit Adapter) sind eine kompakte Alternative zum USB-Stick. Besonders bei Kameras, Drohnen oder mobilen Geräten sind sie Standard. In Kombination mit einem USB-C-Kartenleser lassen sich SD-Karten sogar als Mini-Speicherlaufwerk für Notebooks nutzen. Der Vorteil gegenüber klassischen USB-Sticks: SD-Karten sind in vielen Bereichen flexibler einsetzbar, oft günstiger pro Gigabyte und erreichen – je nach Klasse und Modell – ebenfalls hohe Übertragungsgeschwindigkeiten. Außerdem lassen sie sich leicht wechseln oder dauerhaft in Geräten integrieren, etwa in Kameras oder Laptops mit Kartenleser. Wer also ohnehin mit Speicherkarten arbeitet, kann sie problemlos als mobilen Datenträger nutzen (und spart sich den zusätzlichen Stick). Vorteile: Extrem klein und leicht Gute Geschwindigkeiten bei modernen UHS-II-Karten In vielen Geräten direkt nutzbar Nachteile: Anfällig für Verlust oder Beschädigung Für den Einsatz am PC meist ein Kartenleser nötig Cloud-Dienste: Speicherplatz immer dabei Die wohl modernste Alternative zum USB-Stick ist die Cloud. Dienste wie Google Drive, Dropbox, iCloud oder Onedrive bieten Speicherplatz im Internet, auf den Sie von jedem Gerät aus zugreifen können – ohne physischen Datenträger. Vorteile: Zugriff von überall mit Internetverbindung Ideal für Zusammenarbeit und geteilte Dateien Automatische Synchronisierung möglich Nachteile: Abhängig von einer stabilen Internetverbindung Begrenzter Gratisspeicher, danach kostenpflichtiges Abo Datenschutz und Verschlüsselung sind wichtige Themen Fazit: USB-Stick nur noch für Spezialfälle? Der USB-Stick hat seinen Platz noch nicht ganz verloren – für einfache Datenübertragungen, Firmware-Updates oder als Boot-Stick ist er nämlich durchaus gebräuchlich und ideal geeignet. Doch als Alltagslösung ist er längst überholt. Die Kombination aus begrenztem Speicher, sinkender Kompatibilität und wachsenden Anforderungen macht ihn zum Auslaufmodell. Moderne Alternativen wie SSDs, SD-Karten oder Cloud-Dienste bieten mehr Leistung, mehr Flexibilität und in vielen Fällen auch ein besseres Preis-Leistungs-Verhältnis. (PC-Welt) 

USB-Stick vor dem Aus? Diese Alternativen gibt es​ CameraCraft

Wann haben Sie zuletzt einen USB-Stick benutzt? Ich selbst musste kurz überlegen – und ehrlich gesagt, ich weiß es nicht mehr genau. Dabei war der USB-Stick jahrelang das Mittel der Wahl, wenn es um schnellen und unkomplizierten Datentransfer ging. Was ist der Grund, dass diese praktischen Speicherhelfer heute kaum noch eine Rolle spielen, und stehen sie womöglich sogar kurz vor dem Aus? Ein Blick auf die aktuellen Entwicklungen gibt Aufschluss.

Warum USB-Sticks nicht mehr zeitgemäß sind

So kompakt und handlich sie auch sind: USB-Sticks haben in den letzten Jahren deutlich an Relevanz verloren. Einer der Hauptgründe ist ihre vergleichsweise geringe Speicherkapazität. Viele handelsübliche Modelle enden bei 256 oder 512 GB, wodurch sich große Datenmengen wie 4K-Videos, komplette Fotoarchive oder System-Backups nur eingeschränkt transportieren lassen.

Zwar gibt es vereinzelt auch High-End-Sticks mit bis zu 2 Terabyte Speicher, doch für solche Kapazitäten greifen viele lieber direkt zur SSD. Der Grund: SSDs verwenden in der Regel leistungsfähigere Flash-Chips, die für höhere Datentransferraten und eine längere Lebensdauer sorgen.

Ein weiteres Problem: Der klassische USB-A-Anschluss passt kaum noch zu modernen Geräten. Die meisten Laptops und Tablets setzen auf USB-C, Smartphones sowieso. Apple spielt sogar mit dem Gedanken, komplett auf physische Anschlüsse zu verzichten und nur noch drahtlose Übertragung zu nutzen.

Zwar gibt es mittlerweile sogenannte Dual-Sticks mit USB-A- und USB-C-Anschluss, doch in der Praxis handelt es sich dabei oft um einen Kompromiss. Viele dieser Modelle setzen auf einfache Controller und günstigere Flashspeicher, was sich in deutlich langsameren Übertragungsraten bemerkbar macht – insbesondere beim Schreiben großer Dateien.

Moderne Alternativen zum USB-Stick

Externe Festplatten: Viel Speicher für wenig Geld

Externe Festplatten, zum Beispiel SSDs, sind robust und leistungsstark – mit deutlich mehr Speicherplatz als der durchschnittliche USB-Stick.SanDisk

Externe Festplatten – ob als klassische HDD oder schnelle SSD – gehören zu den beliebtesten Alternativen zum USB-Stick. Sie bieten deutlich mehr Speicher (bis zu 4 TB und mehr) und vor allem SSDs überzeugen mit hoher Übertragungsgeschwindigkeit über USB-C oder Thunderbolt. Während HDDs günstig viel Platz bieten, sind SSDs die bessere Wahl für große Datenmengen, da sie schneller, robuster und in höheren Speicherklassen kaum teurer sind als vergleichbare USB-Sticks.

Wie sich die Festplatten konkret voneinander unterscheiden, das erklärt Ihnen unser Ratgeber “HDD, SSD, M2, NVME etc. – Darauf kommt es bei Datenträgern an“. Außerdem finden Sie hier die wichtigsten SSD-Tipps, die jeder kennen sollte.

Vorteile:

Deutlich mehr Speicherplatz als USB-Sticks

Stoßfest und langlebig, qualitativere Flash-Chips

Für Backups oder große Datenmengen ideal

Nachteile:

Größer und schwerer als ein USB-Stick

Teilweise teurer, besonders bei SSD-Modellen

SD-Karten: Klein, schnell – aber nicht universell

Mit SD-Speicherkarten lässt sich zum Beispiel der Handyspeicher erweitern.SanDisk

Auch SD-Karten (oder microSDs mit Adapter) sind eine kompakte Alternative zum USB-Stick. Besonders bei Kameras, Drohnen oder mobilen Geräten sind sie Standard. In Kombination mit einem USB-C-Kartenleser lassen sich SD-Karten sogar als Mini-Speicherlaufwerk für Notebooks nutzen.

Der Vorteil gegenüber klassischen USB-Sticks: SD-Karten sind in vielen Bereichen flexibler einsetzbar, oft günstiger pro Gigabyte und erreichen – je nach Klasse und Modell – ebenfalls hohe Übertragungsgeschwindigkeiten. Außerdem lassen sie sich leicht wechseln oder dauerhaft in Geräten integrieren, etwa in Kameras oder Laptops mit Kartenleser. Wer also ohnehin mit Speicherkarten arbeitet, kann sie problemlos als mobilen Datenträger nutzen (und spart sich den zusätzlichen Stick).

Vorteile:

Extrem klein und leicht

Gute Geschwindigkeiten bei modernen UHS-II-Karten

In vielen Geräten direkt nutzbar

Nachteile:

Anfällig für Verlust oder Beschädigung

Für den Einsatz am PC meist ein Kartenleser nötig

Cloud-Dienste: Speicherplatz immer dabei

Die wohl modernste Alternative zum USB-Stick ist die Cloud. Dienste wie Google Drive, Dropbox, iCloud oder Onedrive bieten Speicherplatz im Internet, auf den Sie von jedem Gerät aus zugreifen können – ohne physischen Datenträger.

Vorteile:

Zugriff von überall mit Internetverbindung

Ideal für Zusammenarbeit und geteilte Dateien

Automatische Synchronisierung möglich

Nachteile:

Abhängig von einer stabilen Internetverbindung

Begrenzter Gratisspeicher, danach kostenpflichtiges Abo

Datenschutz und Verschlüsselung sind wichtige Themen

Fazit: USB-Stick nur noch für Spezialfälle?

Der USB-Stick hat seinen Platz noch nicht ganz verloren – für einfache Datenübertragungen, Firmware-Updates oder als Boot-Stick ist er nämlich durchaus gebräuchlich und ideal geeignet. Doch als Alltagslösung ist er längst überholt. Die Kombination aus begrenztem Speicher, sinkender Kompatibilität und wachsenden Anforderungen macht ihn zum Auslaufmodell. Moderne Alternativen wie SSDs, SD-Karten oder Cloud-Dienste bieten mehr Leistung, mehr Flexibilität und in vielen Fällen auch ein besseres Preis-Leistungs-Verhältnis.

(PC-Welt)

USB-Stick vor dem Aus? Diese Alternativen gibt es​ Weiterlesen »

Akkutausch: So klappt’s beim Smartphone und Notebook​

Allgemein

NONGASIMO / Shutterstock.com Bei einem aktuellen Smartphone hält der Akku trotz regelmäßiger Nutzung meist deutlich über einen Tag. Dies lässt jedoch von Jahr zu Jahr spürbar nach – bereits nach zwei Jahren muss das Gerät oftmals noch während des Tages an das Ladegerät. Ähnlich sieht es bei Notebooks aus: Hier sind zu Beginn bei leistungsstarken Akkus acht bis zehn Stunden Laufzeit keine Seltenheit. Dies reduziert sich aber bei intensiver Nutzung des Geräts schnell auf die Hälfte und weniger, abhängig von der Anzahl der Ladezyklen. Im schlimmsten Fall ist es dann an der Zeit, den Akku zu tauschen. Dazu müssen Sie jedoch zuerst herausfinden, ob sich der Akku überhaupt tauschen lässt, welcher Akku in Ihrem Gerät steckt und wie Sie Ersatz dafür finden. Smartphone und Notebook: Akkuangaben verstehen Ein Akkumulator – auch kurz Akku – ist ein wiederaufladbarer Speicher für elektrische Energie, zumeist auf der Basis eines elektrochemischen Systems. Das Prinzip ist bei sämtlichen Akkus gleich: Sie wandeln beim Aufladen elektrische Energie in chemische Energie um. Sobald der Akku dann zum Einsatz kommt, findet der umgekehrte Prozess statt, und aus der chemischen wird wieder elektrische Energie. Möchten Sie einen Notebook-Akku austauschen, hilft seine genaue Typenbezeichnung dabei, den richtigen Ersatzakku zu finden. Alternativ suchen Sie nach dem Notebook-Modell.IDG Bei PCs, Smartphones und Tablets kommt am häufigsten ein Lithium-Ionen- oder ein Lithium-Polymer-Akku zum Einsatz. Sie haben eine niedrige Selbstentladung von lediglich zwei bis acht Prozent pro Monat. Dazu ist der Temperaturbereich, in dem sich die Akkus einsetzen lassen, mit –20 Grad bis +60 Grad Celsius recht groß. Die zentralen Kennzahlen eines Akkus, die Hinweis auf die Leistungsfähigkeit geben, sind die Kapazität und die Entladespannung. Bei der Kapazität handelt es sich um die Ladungsmenge, die ein Akku speichern kann. Diese wird normalerweise in Milliamperestunden (mAh) oder Amperestunden (Ah) angegeben. Damit Sie die Leistungsfähigkeit des Akkus einschätzen können, ist als weitere Info die Entladespannung notwendig. Beispielsweise benötigen Smartphones in der Regel zwischen 3,7 und 4,4 Volt, ein Notebook meist 11 bis 15 Volt. Die Gesamtlaufzeit des Akkus lässt sich bei konstanter Leistungsaufnahme des Verbrauchers mit der folgenden Formel berechnen: (Nennkapazität Akku x Spannung Akku) / Leistungsaufnahme Verbraucher) * 60 Ein Notebook mit einer Leistungsaufnahme von 40 Watt und einem 7,2-Ah-Akku mit 11,1 Volt lässt sich damit also knapp 120 Minuten betreiben. In der Regel können aktuelle Notebooks allerdings durch diverse Stromsparmaßnahmen die Laufzeit verlängern. Alter Akku: Vor dem Tausch Infos lesen Wenn die Leistung eines Akkus nachlässt und Sie mit dem Gedanken spielen, diesen auszutauschen, kann es hilfreich sein, sich einige Informationen über den alten Akku zu beschaffen. Vor allem die bereits absolvierten Ladezyklen und die verbliebene Leistungsfähigkeit sind hier interessant, da Sie Auskunft über die Qualität des Stromspenders geben. Aber: Die Informationen lassen sich nicht bei allen Geräten auslesen. Deshalb können wir nicht garantieren, dass die vorgestellten Programme auch bei Ihnen funktionieren. Da die Tools jedoch kostenfrei sind, gehen Sie mit einem Versuch kein Risiko ein. Windows gibt Ihnen über einen Shell-Befehl verschiedene Infos zum verbauten Akku aus. So können Sie neben dem Hersteller und der Typenbezeichnung beispielsweise auch herausfinden, wie oft der Akku bereits geladen wurde.IDG Bei einem PC oder Notebook mit Windows 11 benötigen Sie nicht einmal ein Zusatzprogramm, um die Akkuinformationen zu ermitteln. Microsoft stellt Ihnen dazu die Funktion Battery Report zur Verfügung. Starten Sie hierfür mit der Tastenkombination Windows-X die „Windows PowerShell (Administrator)“, und geben Sie darin folgende Befehlszeile ein: powercfg /batteryreport /output “C:battery_report.html” Die Anwendung liest daraufhin die verfügbaren Daten des Akkus aus und speichert sie als HTML-Datei unter „C:WINDOWS system32battery_report.html“. Beim Öffnen mit dem Browser sehen Sie, welche Informationen verfügbar waren: Neben dem Hersteller sind dies unter anderem auch die Kapazität des Akkus sowie die Anzahl der Ladezyklen. Letzteres gibt allerdings nicht jeder Akku preis. Die kostenlose App aBattery gibt Ihnen unter anderem die Ladezyklen Ihres Android-Smartphones aus. Die Einrichtung ist zwar etwas umständlich. Anschließend stehen Ihnen aber einige wichtige Akkuinfos zur Verfügung.IDG Möchten Sie herausfinden, wie oft Sie Ihr Android-Smartphone bereits aufgeladen haben, empfiehlt sich die App aBattery – Battery Health. Sie benötigt eigentlich Root-Zugriff für die Anzeige aller Akkuangaben, allerdings können Sie dies mit der Installation einer weiteren App namens Shizuku umgehen. Um Shizuku mit aBattery zu verbinden, sind jedoch einige Schritte notwendig: Starten Sie zuerst Shizuku, und tippen Sie auf „Über Wireless-Debugging starten“ (ist ab Android 11 möglich) und „Kopplung“. Aktivieren Sie nun in den Entwickleroptionen Ihres Smartphones die Funktionen „USB Debugging“ und „Wireless Debugging“ per Schiebeschalter. Tippen Sie auf „Wireless Debugging“ und auf „Gerät über einen Kopplungscode koppeln“. Sie erhalten sofort einen Code sowie eine Kopplungsanfrage von Shizuku. Übertragen Sie den Code in das dafür vorgesehene Feld. Wechseln Sie dann zurück zu Shizuku und tippen Sie auf „Starten“. Sie erhalten eine Bestätigung und können nun aBattery starten. Nach einer kurzen Analyse haben Sie Zugriff auf alle Akkuangaben, inklusive der Ladezyklen. Smartphone: Akkutausch bei neuen Modellen oft knifflig Noch vor ein paar Jahren war es problemlos möglich, den Akku eines Smartphones selbst zu tauschen: Sie mussten dazu einfach die hintere Abdeckung abnehmen, um an das Akkufach zu kommen. Seit die Akkus spritzwassergeschützt oder teilweise sogar wasserdicht sind, geht dies nicht mehr. Heute ist es nur noch mit Spezialwerkzeug und handwerklichem Geschick möglich, den Akku Ihres Smartphones zu tauschen. Aber: Auf Youtube finden Sie zu fast jedem Gerät mehrere Videos, in denen der Austausch eines Akkus gezeigt wird. Auch bei einem Smartphone muss der Ersatzakku mit dem Gerät kompatibel sein. Neben der Kapazität, also der Ladungsmenge, muss der Stromspender auch die richtige Spannung liefern.IDG Und auch bei iFixit finden Sie eine Vielzahl von Reparaturanleitungen zu den gängigsten aktuellen, aber auch älteren Geräten. Interessant sind an dieser Stelle vor allem die Einschätzungen zum Schwierigkeitsgrad, zu den Kosten und der Reparaturzeit. Zusätzlich bekommen Sie eine Liste von Werkzeugen, die Sie für den Austausch des Akkus benötigen. Fehlt Ihnen davon eines, können Sie sie gleich über die Seite bestellen, ebenso den Ersatzakku. Aber auch bei Amazon finden sich komplette Austauschsets für gängige Smartphones, also inklusive Ersatzakku und dem zur Reparatur notwendigen Werkzeug. Dieses kostet etwa für das Samsung Galaxy S22 rund 30 Euro, für das neuere Samsung Galaxy S23 ist es sogar noch ein paar Euro günstiger. Haben Sie sich den Ersatzakku bereits auf anderem Wege beschafft, gibt es auch reine Werkzeugsets. Sie beginnen bei rund 10 Euro, das sehr gut bewertete „Essential Electronics Toolkit“ von iFixit kostet beispielsweise rund 30 Euro. iFixit ist wohl der Klassiker unter den Reparaturdiensten. Möchten Sie Ihrem Smartphone einen Ersatzakku spendieren, finden Sie auf der Seite diverse Anleitungen und können auch sämtliches Zubehör darüber bestellen.IDG Handyreparatur vom Spezialisten Wenn Sie noch nie zuvor einen Smartphoneakku selbst getauscht haben, sollten Sie sich immer der Risiken bewusst sein. Ein zu starker Druck, und die Rückseite des Gehäuses oder das Display bekommt einen Sprung – und das Smartphone wird zum wirtschaftlichen Totalschaden. Das Samsung Galaxy S20 wird beispielsweise als Gebrauchtgerät im Internet aktuell noch zwischen 100 und 180 Euro gehandelt. In einem solchen Fall kann man das Risiko eventuell eingehen. Bei einem Samsung Galaxy S22 mit einem Restwert ab 270 Euro sollten Sie die Reparatur eher einem Fachmann überlassen, also dem Reparaturservice um die Ecke oder einem Serviceanbieter im Internet. Die lokale Lösung finden Sie am besten über Google – ziehen Sie hier die Bewertungen für den jeweiligen Shop in Ihre Überlegungen mit ein. Die Kosten liegen meist auf einem ähnlichen Niveau wie bei der Selbstreparatur. IDG Empfehlenswerte Onlinereparaturdienste sind etwa www.myphonerepair.de, www.mcrepair.de oder handyreparatur123.de. Bei ihnen liegen beispielsweise die Preise für den Akkutausch des S22 zwischen 70 und 90 Euro inklusive Versandkosten. Ob das wirtschaftlich Sinn macht, müssen Sie natürlich dann selbst entscheiden. Sie erhalten auf die Reparatur zumindest von den Versandhändlern ein Jahr Garantie. Notebook: Ersatzakku per Spezialshops Auch hier ist die erste Frage im Zusammenhang mit einem neuen Akku: Lässt sich der Stromspender problemlos tauschen? Daran anschließend gibt es noch weitere Klärungspunkte, nämlich, ob es für das betreffende Gerät überhaupt noch einen Ersatzakku gibt, und falls ja, ob Sie den Tausch selbst vornehmen können. Bei vielen älteren Notebooks ist der Akku nicht fest verbaut und lässt sich sogar ohne Öffnen des Gehäuses wechseln. Dadurch kommen Sie auch direkt an die erste wichtige Information, nämlich die Typenbezeichnung. Über sie lassen sich bei Bedarf auch weitere Zusatzinformationen recherchieren, falls diese nicht auf dem Akku abgedruckt sind. Doch dazu später mehr. Vor allem können Sie jedoch nach der Typenbezeichnung im Internet suchen, um einen Ersatzakku aufzutreiben. Spezielle Akkushops wie Akku500.de (Bild) oder Akkushop.de sind eine optimale Anlaufstelle, wenn Sie einen neuen Akku für Ihr Notebook oder ein anderes Gerät suchen. Sie sollten jedoch genau wissen, welchen Akku Sie brauchen. Dazu gibt es Apps fürs Smartphone und Windows-Funktionen.IDG Für viele gängige Notebooks gibt es den Originalakku des Herstellers, aber auch (günstigere) Nachbauten von Drittanbietern. Diese sind in der Qualität jedoch oft sehr unterschiedlich, weswegen Sie hier die Bewertungen, falls vorhanden, genau lesen sollten. Falls Ihr Gerät einen fest verbauten Akku hat oder Sie die Typenbezeichnung Ihres Notebooks nicht genau kennen, nehmen Sie am besten den Umweg über die Windows-Systeminformationen. Diese rufen Sie über Ausführen (Windows-R) und die Eingabe msinfo32.exe auf. In der Übersicht sehen Sie unter „Systemmodell“ die Herstellernummer beziehungsweise die genaue Bezeichnung Ihres Notebooks und unter „System-SKU“ den Typennamen. Mit diesen Angaben suchen Sie nun in einem auf Akkus spezialisierten Onlineshop wie www.akku500.de oder www.akkushop.de Ihren Ersatzakku. Alternativ können Sie auch über den Hersteller und das Gerätemodell suchen. Fazit: Akkutausch oft sinnvoll Der Tausch eines Akkus lässt sich bei den meisten Smartphones und Notebooks problemlos bewerkstelligen. Geräte mit noch recht hohem Tageswert sollten Sie aber in jedem Fall von einem qualifizierten Betrieb reparieren lassen, da sonst das Risiko eines Totalschadens droht. Mit etwas handwerklichem Geschick lässt sich aber mit den nötigen Ersatzteilen und einer guten Anleitung aus dem Internet die Lebensdauer eines Geräts in jedem Fall um ein oder zwei Jahre verlängern. (PC-Welt) 

Akkutausch: So klappt’s beim Smartphone und Notebook​ NONGASIMO / Shutterstock.com

Bei einem aktuellen Smartphone hält der Akku trotz regelmäßiger Nutzung meist deutlich über einen Tag. Dies lässt jedoch von Jahr zu Jahr spürbar nach – bereits nach zwei Jahren muss das Gerät oftmals noch während des Tages an das Ladegerät.

Ähnlich sieht es bei Notebooks aus: Hier sind zu Beginn bei leistungsstarken Akkus acht bis zehn Stunden Laufzeit keine Seltenheit. Dies reduziert sich aber bei intensiver Nutzung des Geräts schnell auf die Hälfte und weniger, abhängig von der Anzahl der Ladezyklen.

Im schlimmsten Fall ist es dann an der Zeit, den Akku zu tauschen. Dazu müssen Sie jedoch zuerst herausfinden, ob sich der Akku überhaupt tauschen lässt, welcher Akku in Ihrem Gerät steckt und wie Sie Ersatz dafür finden.

Smartphone und Notebook: Akkuangaben verstehen

Ein Akkumulator – auch kurz Akku – ist ein wiederaufladbarer Speicher für elektrische Energie, zumeist auf der Basis eines elektrochemischen Systems.

Das Prinzip ist bei sämtlichen Akkus gleich: Sie wandeln beim Aufladen elektrische Energie in chemische Energie um. Sobald der Akku dann zum Einsatz kommt, findet der umgekehrte Prozess statt, und aus der chemischen wird wieder elektrische Energie.

Möchten Sie einen Notebook-Akku austauschen, hilft seine genaue Typenbezeichnung dabei, den richtigen Ersatzakku zu finden. Alternativ suchen Sie nach dem Notebook-Modell.IDG

Bei PCs, Smartphones und Tablets kommt am häufigsten ein Lithium-Ionen- oder ein Lithium-Polymer-Akku zum Einsatz. Sie haben eine niedrige Selbstentladung von lediglich zwei bis acht Prozent pro Monat. Dazu ist der Temperaturbereich, in dem sich die Akkus einsetzen lassen, mit –20 Grad bis +60 Grad Celsius recht groß.

Die zentralen Kennzahlen eines Akkus, die Hinweis auf die Leistungsfähigkeit geben, sind die Kapazität und die Entladespannung. Bei der Kapazität handelt es sich um die Ladungsmenge, die ein Akku speichern kann.

Diese wird normalerweise in Milliamperestunden (mAh) oder Amperestunden (Ah) angegeben. Damit Sie die Leistungsfähigkeit des Akkus einschätzen können, ist als weitere Info die Entladespannung notwendig.

Beispielsweise benötigen Smartphones in der Regel zwischen 3,7 und 4,4 Volt, ein Notebook meist 11 bis 15 Volt. Die Gesamtlaufzeit des Akkus lässt sich bei konstanter Leistungsaufnahme des Verbrauchers mit der folgenden Formel berechnen:

(Nennkapazität Akku x Spannung Akku) / Leistungsaufnahme Verbraucher) * 60

Ein Notebook mit einer Leistungsaufnahme von 40 Watt und einem 7,2-Ah-Akku mit 11,1 Volt lässt sich damit also knapp 120 Minuten betreiben. In der Regel können aktuelle Notebooks allerdings durch diverse Stromsparmaßnahmen die Laufzeit verlängern.

Alter Akku: Vor dem Tausch Infos lesen

Wenn die Leistung eines Akkus nachlässt und Sie mit dem Gedanken spielen, diesen auszutauschen, kann es hilfreich sein, sich einige Informationen über den alten Akku zu beschaffen.

Vor allem die bereits absolvierten Ladezyklen und die verbliebene Leistungsfähigkeit sind hier interessant, da Sie Auskunft über die Qualität des Stromspenders geben.

Aber: Die Informationen lassen sich nicht bei allen Geräten auslesen. Deshalb können wir nicht garantieren, dass die vorgestellten Programme auch bei Ihnen funktionieren. Da die Tools jedoch kostenfrei sind, gehen Sie mit einem Versuch kein Risiko ein.

Windows gibt Ihnen über einen Shell-Befehl verschiedene Infos zum verbauten Akku aus. So können Sie neben dem Hersteller und der Typenbezeichnung beispielsweise auch herausfinden, wie oft der Akku bereits geladen wurde.IDG

Bei einem PC oder Notebook mit Windows 11 benötigen Sie nicht einmal ein Zusatzprogramm, um die Akkuinformationen zu ermitteln.

Microsoft stellt Ihnen dazu die Funktion Battery Report zur Verfügung. Starten Sie hierfür mit der Tastenkombination Windows-X die „Windows PowerShell (Administrator)“, und geben Sie darin folgende Befehlszeile ein:

powercfg /batteryreport /output “C:battery_report.html”

Die Anwendung liest daraufhin die verfügbaren Daten des Akkus aus und speichert sie als HTML-Datei unter „C:WINDOWS system32battery_report.html“.

Beim Öffnen mit dem Browser sehen Sie, welche Informationen verfügbar waren: Neben dem Hersteller sind dies unter anderem auch die Kapazität des Akkus sowie die Anzahl der Ladezyklen. Letzteres gibt allerdings nicht jeder Akku preis.

Die kostenlose App aBattery gibt Ihnen unter anderem die Ladezyklen Ihres Android-Smartphones aus. Die Einrichtung ist zwar etwas umständlich. Anschließend stehen Ihnen aber einige wichtige Akkuinfos zur Verfügung.IDG

Möchten Sie herausfinden, wie oft Sie Ihr Android-Smartphone bereits aufgeladen haben, empfiehlt sich die App aBattery – Battery Health.

Sie benötigt eigentlich Root-Zugriff für die Anzeige aller Akkuangaben, allerdings können Sie dies mit der Installation einer weiteren App namens Shizuku umgehen.

Um Shizuku mit aBattery zu verbinden, sind jedoch einige Schritte notwendig: Starten Sie zuerst Shizuku, und tippen Sie auf „Über Wireless-Debugging starten“ (ist ab Android 11 möglich) und „Kopplung“.

Aktivieren Sie nun in den Entwickleroptionen Ihres Smartphones die Funktionen „USB Debugging“ und „Wireless Debugging“ per Schiebeschalter. Tippen Sie auf „Wireless Debugging“ und auf „Gerät über einen Kopplungscode koppeln“.

Sie erhalten sofort einen Code sowie eine Kopplungsanfrage von Shizuku. Übertragen Sie den Code in das dafür vorgesehene Feld. Wechseln Sie dann zurück zu Shizuku und tippen Sie auf „Starten“.

Sie erhalten eine Bestätigung und können nun aBattery starten. Nach einer kurzen Analyse haben Sie Zugriff auf alle Akkuangaben, inklusive der Ladezyklen.

Smartphone: Akkutausch bei neuen Modellen oft knifflig

Noch vor ein paar Jahren war es problemlos möglich, den Akku eines Smartphones selbst zu tauschen: Sie mussten dazu einfach die hintere Abdeckung abnehmen, um an das Akkufach zu kommen.

Seit die Akkus spritzwassergeschützt oder teilweise sogar wasserdicht sind, geht dies nicht mehr. Heute ist es nur noch mit Spezialwerkzeug und handwerklichem Geschick möglich, den Akku Ihres Smartphones zu tauschen.

Aber: Auf Youtube finden Sie zu fast jedem Gerät mehrere Videos, in denen der Austausch eines Akkus gezeigt wird.

Auch bei einem Smartphone muss der Ersatzakku mit dem Gerät kompatibel sein. Neben der Kapazität, also der Ladungsmenge, muss der Stromspender auch die richtige Spannung liefern.IDG

Und auch bei iFixit finden Sie eine Vielzahl von Reparaturanleitungen zu den gängigsten aktuellen, aber auch älteren Geräten. Interessant sind an dieser Stelle vor allem die Einschätzungen zum Schwierigkeitsgrad, zu den Kosten und der Reparaturzeit.

Zusätzlich bekommen Sie eine Liste von Werkzeugen, die Sie für den Austausch des Akkus benötigen. Fehlt Ihnen davon eines, können Sie sie gleich über die Seite bestellen, ebenso den Ersatzakku.

Aber auch bei Amazon finden sich komplette Austauschsets für gängige Smartphones, also inklusive Ersatzakku und dem zur Reparatur notwendigen Werkzeug.

Dieses kostet etwa für das Samsung Galaxy S22 rund 30 Euro, für das neuere Samsung Galaxy S23 ist es sogar noch ein paar Euro günstiger.

Haben Sie sich den Ersatzakku bereits auf anderem Wege beschafft, gibt es auch reine Werkzeugsets. Sie beginnen bei rund 10 Euro, das sehr gut bewertete „Essential Electronics Toolkit“ von iFixit kostet beispielsweise rund 30 Euro.

iFixit ist wohl der Klassiker unter den Reparaturdiensten. Möchten Sie Ihrem Smartphone einen Ersatzakku spendieren, finden Sie auf der Seite diverse Anleitungen und können auch sämtliches Zubehör darüber bestellen.IDG

Handyreparatur vom Spezialisten

Wenn Sie noch nie zuvor einen Smartphoneakku selbst getauscht haben, sollten Sie sich immer der Risiken bewusst sein. Ein zu starker Druck, und die Rückseite des Gehäuses oder das Display bekommt einen Sprung – und das Smartphone wird zum wirtschaftlichen Totalschaden.

Das Samsung Galaxy S20 wird beispielsweise als Gebrauchtgerät im Internet aktuell noch zwischen 100 und 180 Euro gehandelt.

In einem solchen Fall kann man das Risiko eventuell eingehen. Bei einem Samsung Galaxy S22 mit einem Restwert ab 270 Euro sollten Sie die Reparatur eher einem Fachmann überlassen, also dem Reparaturservice um die Ecke oder einem Serviceanbieter im Internet.

Die lokale Lösung finden Sie am besten über Google – ziehen Sie hier die Bewertungen für den jeweiligen Shop in Ihre Überlegungen mit ein. Die Kosten liegen meist auf einem ähnlichen Niveau wie bei der Selbstreparatur.

IDG

Empfehlenswerte Onlinereparaturdienste sind etwa www.myphonerepair.de, www.mcrepair.de oder handyreparatur123.de. Bei ihnen liegen beispielsweise die Preise für den Akkutausch des S22 zwischen 70 und 90 Euro inklusive Versandkosten.

Ob das wirtschaftlich Sinn macht, müssen Sie natürlich dann selbst entscheiden. Sie erhalten auf die Reparatur zumindest von den Versandhändlern ein Jahr Garantie.

Notebook: Ersatzakku per Spezialshops

Auch hier ist die erste Frage im Zusammenhang mit einem neuen Akku: Lässt sich der Stromspender problemlos tauschen?

Daran anschließend gibt es noch weitere Klärungspunkte, nämlich, ob es für das betreffende Gerät überhaupt noch einen Ersatzakku gibt, und falls ja, ob Sie den Tausch selbst vornehmen können.

Bei vielen älteren Notebooks ist der Akku nicht fest verbaut und lässt sich sogar ohne Öffnen des Gehäuses wechseln. Dadurch kommen Sie auch direkt an die erste wichtige Information, nämlich die Typenbezeichnung.

Über sie lassen sich bei Bedarf auch weitere Zusatzinformationen recherchieren, falls diese nicht auf dem Akku abgedruckt sind. Doch dazu später mehr. Vor allem können Sie jedoch nach der Typenbezeichnung im Internet suchen, um einen Ersatzakku aufzutreiben.

Spezielle Akkushops wie Akku500.de (Bild) oder Akkushop.de sind eine optimale Anlaufstelle, wenn Sie einen neuen Akku für Ihr Notebook oder ein anderes Gerät suchen. Sie sollten jedoch genau wissen, welchen Akku Sie brauchen. Dazu gibt es Apps fürs Smartphone und Windows-Funktionen.IDG

Für viele gängige Notebooks gibt es den Originalakku des Herstellers, aber auch (günstigere) Nachbauten von Drittanbietern. Diese sind in der Qualität jedoch oft sehr unterschiedlich, weswegen Sie hier die Bewertungen, falls vorhanden, genau lesen sollten.

Falls Ihr Gerät einen fest verbauten Akku hat oder Sie die Typenbezeichnung Ihres Notebooks nicht genau kennen, nehmen Sie am besten den Umweg über die Windows-Systeminformationen. Diese rufen Sie über Ausführen (Windows-R) und die Eingabe msinfo32.exe auf.

In der Übersicht sehen Sie unter „Systemmodell“ die Herstellernummer beziehungsweise die genaue Bezeichnung Ihres Notebooks und unter „System-SKU“ den Typennamen.

Mit diesen Angaben suchen Sie nun in einem auf Akkus spezialisierten Onlineshop wie www.akku500.de oder www.akkushop.de Ihren Ersatzakku.

Alternativ können Sie auch über den Hersteller und das Gerätemodell suchen.

Fazit: Akkutausch oft sinnvoll

Der Tausch eines Akkus lässt sich bei den meisten Smartphones und Notebooks problemlos bewerkstelligen. Geräte mit noch recht hohem Tageswert sollten Sie aber in jedem Fall von einem qualifizierten Betrieb reparieren lassen, da sonst das Risiko eines Totalschadens droht.

Mit etwas handwerklichem Geschick lässt sich aber mit den nötigen Ersatzteilen und einer guten Anleitung aus dem Internet die Lebensdauer eines Geräts in jedem Fall um ein oder zwei Jahre verlängern.

(PC-Welt)

Akkutausch: So klappt’s beim Smartphone und Notebook​ Weiterlesen »

Nach 12 Jahren Android nutze ich jetzt ein iPhone: Das habe ich dabei gelernt​

Allgemein

Anyron Copeman / Foundry Wenn ich sage, dass ich für meinen Lebensunterhalt Telefone teste und rezensiere, dann meine ich eigentlich, dass ich für meinen Lebensunterhalt Android-Handys rezensiere. Das sollte keine große Überraschung sein, denn es kommen jedes Jahr dutzende neue Geräte auf den Markt. Das soll nicht heißen, dass iPhones nicht wichtig sind, ganz im Gegenteil. Aber bei maximal fünf neuen Handys pro Jahr waren meine Chancen, als Junior-Redakteur eins zu testen, eher gering. Das änderte sich, als ich letztes Jahr Redakteur für Mobilgeräte wurde. Plötzlich wurde es für mich zur Priorität, herauszufinden, was in der geheimnisvollen Welt der Apple-Smartphones vor sich geht. Das habe ich also getan. Aber nachdem ich meine SIM-Karte in das iPhone 16 Pro eingelegt hatte (das erste iPhone, das ich seit dem iPhone 5 im Jahr 2012 als Haupthandy benutzte) war ich nicht darauf vorbereitet, wie anders es sein würde. In den zwei Wochen, die ich mit dem Gerät verbracht habe, habe ich viel über Apple und seine Herangehensweise an Telefonhardware und -software gelernt. Wenn Sie ein Android-Liebhaber sind und den Umstieg in Erwägung ziehen, sollten Sie auch diese 8 Dinge beachten. Whatsapp-Probleme Von allen Apps und Daten, die ich zwischen Android und iOS verschieben wollte, bereitete mir Whatsapp die meisten Kopfschmerzen. Ich bin es bereits gewohnt, meine Chats auf einem Telefon zu sichern und sie dann auf einem anderen neu zu registrieren und wiederherzustellen. Aber während Android Google Drive für Backups verwendet, verlässt sich das iPhone auf iCloud. DenPhotos / Shutterstock.com Bis 2022 gab es keine einfache Möglichkeit, Ihren Chatverlauf zu verschieben. Das hat sich inzwischen geändert, aber es hängt immer noch davon ab, dass Sie die App “Auf iOS übertragen” verwenden und sie transferieren, sobald Sie Ihr neues iPhone einrichten. Wenn Sie das vergessen, müssen Sie das Gerät zurücksetzen und von vorne beginnen. Glücklicherweise gibt es eine Alternative, die für meinen vorübergehenden Wechsel perfekt war. Ich fügte das iPhone 16 Pro einfach als “verknüpftes Gerät” hinzu (Sie können bis zu vier Geräte hinzufügen), sodass ich mein Android-Telefon als Hauptgerät behalten konnte. Für mich war das eine perfekte Lösung, denn es funktioniert auch, wenn das Hauptgerät ausgeschaltet ist. Allerdings müssen Sie sich mindestens einmal alle 14 Tage darauf anmelden. Mehr als bei jeder anderen App müssen Sie für Whatsapp also einen Plan haben, bevor Sie mit dem Wechsel beginnen. Was sind das für Tasten? Das hochwertige Design und die hervorragende Verarbeitungsqualität des iPhone 16 Pro haben mich nicht überrascht. Im Vergleich zum Pixel 9 Pro, das ich kurz zuvor getestet hatte, ist das 16 Pro bemerkenswert ähnlich. Beide Telefone haben 6,3-Zoll-Displays und wiegen 199 Gramm. Es dauerte jedoch nicht lange, bis ich einige wichtige Designunterschiede bemerkte. Vor allem die zusätzlichen Tasten an der Seite. Die meisten Android-Telefone haben nur eine Einschalttaste und eine Lautstärkewippe, aber das iPhone 16 Pro fügt zwei weitere hinzu, mit gemischten Ergebnissen. Nachdem ich mich an die Platzierung gewöhnt hatte, habe ich die Aktionstaste gerne benutzt. Sie war der perfekte Weg, um den Lautlos-Modus ein- und auszuschalten, kann aber auch zum Auslösen aller möglichen Funktionen verwendet werden, einschließlich des Öffnens einer beliebigen App. Das sollten sich Android-Telefone abschauen. Auf die Kamerasteuerungstaste würde ich allerdings lieber verzichten. Sie ist als Abkürzung für die wichtigsten Kamerafunktionen und als physische Auslösetaste gedacht, aber ich fand sie eher fummelig als funktional. Ich bin sicher, dass ich mich mit der Zeit daran gewöhnen würde, aber ich konnte keinen wirklichen Vorteil gegenüber dem Tippen auf das Display erkennen. Anyron Copeman / Foundry Die Position der Kamerasteuerungstaste verursacht ebenfalls Probleme. Bei Aufnahmen im Querformat ist sie zu weit oben auf dem Telefon, um leicht zugänglich zu sein, während sie im Hochformat praktisch nutzlos ist. Android-Nutzer, hier verpassen Sie wirklich nichts. Unglaubliche Videos Ist das iPhone wirklich das Beste, wenn es um Smartphone-Videos geht? Das iPhone 5 war für die Verhältnisse von 2012 beeindruckend, aber seitdem hat sich viel verändert. Die gute (oder schlechte, je nachdem, wie Sie es sehen) Nachricht ist, dass das iPhone immer noch die Nase vorn hat. Ich habe einige der besten Fotohandys getestet, darunter das Samsung Galaxy S25 und das Google Pixel 9 Pro XL. Aber keines kann es mit dem 16 Pro aufnehmen, wenn es um die Videoqualität geht. Die Aufnahmen des Hauptobjektivs sind atemberaubend und bieten die Art von gestochen scharfen Details, akkuraten Farben und fließenden Übergängen, die man normalerweise mit einer speziellen Kameraausrüstung verbindet. Anyron Copeman / Foundry Die meisten Android-Handys bieten zwar eine gute Videofunktion, aber wenn Sie Ihr Handy nicht nur für den gelegentlichen Gebrauch nutzen möchten, ist das iPhone immer noch die erste Wahl. Fantastische Gesichtserkennung In letzter Zeit haben einige Hersteller von Android-Telefonen endlich begonnen, mit Apples Face ID gleichzuziehen. Insbesondere die Pixel-Telefone von Google und die Honor Magic-Geräte ermöglichen es Ihnen, Ihr Gesicht zur Authentifizierung von Zahlungen und zur Anmeldung bei Banking-Apps zu verwenden. Aber Apple hat Face ID seit 2017 auf dem iPhone, und das merkt man. Auf dem 16 Pro ist es einfach ein bisschen schneller und zuverlässiger als alle Android-Konkurrenten. Es funktioniert bei praktisch allen Lichtverhältnissen und kann leicht so eingestellt werden, dass es sich entsperrt, während Sie eine Brille oder eine Maske tragen. Foundry Ein Fingerabdrucksensor unter dem Display wäre schön, aber die Tatsache, dass ich ihn überhaupt nicht vermisst habe, spricht Bände. Face ID ist eine weitere Sache, die Apple absolut perfekt hinbekommen hat. iMessage ist leider besser Bevor ich auf das 16 Pro umgestiegen bin, habe ich mich zunehmend über Apples wichtigste Messaging-App geärgert. Warum verwenden iPhone-Nutzer nicht einfach Whatsapp? Warum hat Apple so lange gebraucht, um die Android-SMS mit RCS zu verbessern? Und warum gibt es die blaue Blase/grüne Blase überhaupt? Dann habe ich angefangen, iMessage zu benutzen. iMessage (oder offiziell nur ‘Messages’, wie es auf dem iPhone heißt) ist zweifellos die beste Allround-Messaging-App auf jedem Telefon. Sie integriert SMS, MMS und iMessages in einer App und macht es ganz einfach, alles auf einen Blick zu sehen. Sie können es auch so einstellen, dass es alle Textbestätigungscodes automatisch löscht, sobald sie verwendet wurden. Und selbst wenn Sie keine Internetverbindung haben, können Sie immer noch mit dem gesamten Kontext der gleichen Konversation texten. Wenn Sie wieder online sind, wird alles automatisch gesichert und ist auf allen Ihren Apple-Geräten verfügbar. Apple Antworten auf Nachrichten werden besser gehandhabt als bei Whatsapp, denn es wird ein Thread erstellt, anstatt den Chat zu überladen. Sie können auch nahtlos zu einem FaceTime-Anruf übergehen, der in der Regel eine bessere Qualität als ein WhatsApp-Anruf bietet. Apples Bibliothek mit Reaktionen, Stickern und Animationen ist unübertroffen, und Links zu Video- und Audioinhalten werden direkt in der App abgespielt. In iMessage ist es diese Sammlung von kleinen Aufmerksamkeiten, die das Erlebnis noch ein bisschen besser machen. Ich hätte nie gedacht, dass ich das sagen würde, aber ich mag es vielleicht lieber als Whatsapp. Albtraum der Benachrichtigungen Mein größter Kritikpunkt am iPhone ist die Art und Weise, wie es mit Benachrichtigungen umgeht. Ich behaupte nicht, dass Android perfekt ist, wenn es um Benachrichtigungen geht, aber es ist iOS gefühlt Lichtjahre voraus. Aus irgendeinem Grund scheint Apple der Meinung zu sein, dass Benachrichtigungen permanent im Benachrichtigungscenter angezeigt werden sollten. Wenn Sie Ihr Telefon entsperren, verschwinden alle Benachrichtigungen vom Sperrbildschirm und erfordern eine halbe Wischbewegung nach oben, um sie aufzurufen. Das macht die Dinge nur unnötig kompliziert. Foundry Android macht den Prozess viel einfacher. Alle Ihre Benachrichtigungen werden durchgehend auf dem Sperrbildschirm angezeigt (wenn es zu viele sind, werden deren Symbole unten auf dem Bildschirm angezeigt), von wo aus Sie einfach auf eine tippen können, um sie zu öffnen oder wegzuwischen. Ich bin auch kein Fan von der Art und Weise, wie iOS Benachrichtigungen aus derselben App in “Stapeln” gruppiert. Sicher, das reduziert das Durcheinander, aber ich muss die Liste sowieso immer erweitern, um den Inhalt der Benachrichtigungen zu sehen. Bei Android liegt eine nützliche Vorschau direkt vor mir. Ich behaupte nicht, dass Android perfekt ist, wenn es um Benachrichtigungen geht, aber es fühlt sich um Lichtjahre besser an als iOS Nicht viel Kontrolle im Control Center Auch die Verwendung des iOS Control Centers war recht gewöhnungsbedürftig … und das nicht auf eine gute Art und Weise. Stellen Sie sich das Control Center wie das Schnelleinstellungsmenü von Android vor, nur schlimmer. Das Design ist kein Problem, ebenso wenig wie die Tatsache, dass Sie von der rechten oberen Ecke des Bildschirms nach unten wischen müssen (was Samsung jetzt kopiert hat). Stattdessen ist mein größtes Problem, dass das Antippen eines der Symbole nicht das tut, was Sie erwarten. Mindestens einmal am Tag möchte ich zum Beispiel das Wi-Fi ausschalten. In der Regel, wenn ich auf dem Weg nach draußen bin. Aber auf dem iPhone 16 Pro lässt sich das Wi-Fi durch Antippen des Symbols nicht vollständig deaktivieren. Anyron Copeman / Foundry Stattdessen erscheint die Meldung “Wi-Fi in der Nähe wird bis morgen getrennt”. Mit anderen Worten: das Wi-Fi wird am nächsten Tag automatisch wieder eingeschaltet. Das Gleiche gilt für Bluetooth. Traut Apple mir wirklich nicht zu, dass ich daran denke, Wi-Fi wieder zu aktivieren? Nennen Sie mich altmodisch, aber ich würde das gerne selbst steuern können, indem ich das ‘Control Center’ verwende. Schmerzhaft langes Aufladen Das ist kein Problem, das nur beim iPhone auftritt, aber es war ein ziemlicher Schock, als ich umstieg. Das iPhone 16 Pro ist ein Flaggschiff-Handy, das bei der Markteinführung mindestens 1199 Euro kostet, aber nur mit bis zu 25 W geladen werden kann. Wenn Sie schon einmal die Freuden einer echten Schnellladung erlebt haben, wissen Sie, wie frustrierend das ist. Selbst wenn Sie ein kompatibles Netzteil finden (es ist keines im Lieferumfang enthalten), dauert der Ladevorgang ewig. Anyron Copeman / Foundry Das magnetische Laden mit MagSafe ist cool, aber ich würde das sofort wieder aufgeben, wenn ich nur 45 W kabelgebundenes Laden hätte. Ich bin nur froh, dass ich das 16 Pro dank der langen Akkulaufzeit nicht so oft an die Steckdose anschließen muss. Mein Urteil über das iPhone 2025 Der Umstieg auf das iPhone 16 Pro brachte mehr Überraschungen mit sich, als ich erwartet hatte … im Guten wie im Schlechten. Obwohl sie sich ähnlicher sind als je zuvor, unterscheiden sich iOS und Android immer noch in einigen grundlegenden Punkten. Wenn Sie nicht mit beiden vertraut sind, ist der Umstieg in beiden Fällen mit einer erheblichen Lernkurve verbunden. Als jemand, der beruflich Telefone testet und hauptsächlich Google-Apps verwendet, ist Android für mich im Moment die bessere Wahl. Aber ich weiß einige der Möglichkeiten zu schätzen, mit denen Apple das iPhone zu einem so überzeugenden Gerät macht, insbesondere wenn Sie bereits andere Produkte des Unternehmens besitzen. Trotz des Vorwurfs mangelnder Innovation hat das iPhone in den 12 Jahren, die ich weg war, einen verdammt langen Weg zurückgelegt. Die neuesten Modelle sind zweifellos immer noch einige der besten Smartphones, die Sie kaufen können. (PC-Welt) 

Nach 12 Jahren Android nutze ich jetzt ein iPhone: Das habe ich dabei gelernt​ Anyron Copeman / Foundry

Wenn ich sage, dass ich für meinen Lebensunterhalt Telefone teste und rezensiere, dann meine ich eigentlich, dass ich für meinen Lebensunterhalt Android-Handys rezensiere. Das sollte keine große Überraschung sein, denn es kommen jedes Jahr dutzende neue Geräte auf den Markt.

Das soll nicht heißen, dass iPhones nicht wichtig sind, ganz im Gegenteil. Aber bei maximal fünf neuen Handys pro Jahr waren meine Chancen, als Junior-Redakteur eins zu testen, eher gering.

Das änderte sich, als ich letztes Jahr Redakteur für Mobilgeräte wurde. Plötzlich wurde es für mich zur Priorität, herauszufinden, was in der geheimnisvollen Welt der Apple-Smartphones vor sich geht. Das habe ich also getan.

Aber nachdem ich meine SIM-Karte in das iPhone 16 Pro eingelegt hatte (das erste iPhone, das ich seit dem iPhone 5 im Jahr 2012 als Haupthandy benutzte) war ich nicht darauf vorbereitet, wie anders es sein würde.

In den zwei Wochen, die ich mit dem Gerät verbracht habe, habe ich viel über Apple und seine Herangehensweise an Telefonhardware und -software gelernt. Wenn Sie ein Android-Liebhaber sind und den Umstieg in Erwägung ziehen, sollten Sie auch diese 8 Dinge beachten.

Whatsapp-Probleme

Von allen Apps und Daten, die ich zwischen Android und iOS verschieben wollte, bereitete mir Whatsapp die meisten Kopfschmerzen.

Ich bin es bereits gewohnt, meine Chats auf einem Telefon zu sichern und sie dann auf einem anderen neu zu registrieren und wiederherzustellen. Aber während Android Google Drive für Backups verwendet, verlässt sich das iPhone auf iCloud.

DenPhotos / Shutterstock.com

Bis 2022 gab es keine einfache Möglichkeit, Ihren Chatverlauf zu verschieben. Das hat sich inzwischen geändert, aber es hängt immer noch davon ab, dass Sie die App “Auf iOS übertragen” verwenden und sie transferieren, sobald Sie Ihr neues iPhone einrichten. Wenn Sie das vergessen, müssen Sie das Gerät zurücksetzen und von vorne beginnen.

Glücklicherweise gibt es eine Alternative, die für meinen vorübergehenden Wechsel perfekt war. Ich fügte das iPhone 16 Pro einfach als “verknüpftes Gerät” hinzu (Sie können bis zu vier Geräte hinzufügen), sodass ich mein Android-Telefon als Hauptgerät behalten konnte.

Für mich war das eine perfekte Lösung, denn es funktioniert auch, wenn das Hauptgerät ausgeschaltet ist. Allerdings müssen Sie sich mindestens einmal alle 14 Tage darauf anmelden.

Mehr als bei jeder anderen App müssen Sie für Whatsapp also einen Plan haben, bevor Sie mit dem Wechsel beginnen.

Was sind das für Tasten?

Das hochwertige Design und die hervorragende Verarbeitungsqualität des iPhone 16 Pro haben mich nicht überrascht. Im Vergleich zum Pixel 9 Pro, das ich kurz zuvor getestet hatte, ist das 16 Pro bemerkenswert ähnlich. Beide Telefone haben 6,3-Zoll-Displays und wiegen 199 Gramm.

Es dauerte jedoch nicht lange, bis ich einige wichtige Designunterschiede bemerkte. Vor allem die zusätzlichen Tasten an der Seite. Die meisten Android-Telefone haben nur eine Einschalttaste und eine Lautstärkewippe, aber das iPhone 16 Pro fügt zwei weitere hinzu, mit gemischten Ergebnissen.

Nachdem ich mich an die Platzierung gewöhnt hatte, habe ich die Aktionstaste gerne benutzt. Sie war der perfekte Weg, um den Lautlos-Modus ein- und auszuschalten, kann aber auch zum Auslösen aller möglichen Funktionen verwendet werden, einschließlich des Öffnens einer beliebigen App. Das sollten sich Android-Telefone abschauen.

Auf die Kamerasteuerungstaste würde ich allerdings lieber verzichten. Sie ist als Abkürzung für die wichtigsten Kamerafunktionen und als physische Auslösetaste gedacht, aber ich fand sie eher fummelig als funktional. Ich bin sicher, dass ich mich mit der Zeit daran gewöhnen würde, aber ich konnte keinen wirklichen Vorteil gegenüber dem Tippen auf das Display erkennen.

Anyron Copeman / Foundry

Die Position der Kamerasteuerungstaste verursacht ebenfalls Probleme. Bei Aufnahmen im Querformat ist sie zu weit oben auf dem Telefon, um leicht zugänglich zu sein, während sie im Hochformat praktisch nutzlos ist. Android-Nutzer, hier verpassen Sie wirklich nichts.

Unglaubliche Videos

Ist das iPhone wirklich das Beste, wenn es um Smartphone-Videos geht? Das iPhone 5 war für die Verhältnisse von 2012 beeindruckend, aber seitdem hat sich viel verändert.

Die gute (oder schlechte, je nachdem, wie Sie es sehen) Nachricht ist, dass das iPhone immer noch die Nase vorn hat. Ich habe einige der besten Fotohandys getestet, darunter das Samsung Galaxy S25 und das Google Pixel 9 Pro XL. Aber keines kann es mit dem 16 Pro aufnehmen, wenn es um die Videoqualität geht.

Die Aufnahmen des Hauptobjektivs sind atemberaubend und bieten die Art von gestochen scharfen Details, akkuraten Farben und fließenden Übergängen, die man normalerweise mit einer speziellen Kameraausrüstung verbindet.

Anyron Copeman / Foundry

Die meisten Android-Handys bieten zwar eine gute Videofunktion, aber wenn Sie Ihr Handy nicht nur für den gelegentlichen Gebrauch nutzen möchten, ist das iPhone immer noch die erste Wahl.

Fantastische Gesichtserkennung

In letzter Zeit haben einige Hersteller von Android-Telefonen endlich begonnen, mit Apples Face ID gleichzuziehen. Insbesondere die Pixel-Telefone von Google und die Honor Magic-Geräte ermöglichen es Ihnen, Ihr Gesicht zur Authentifizierung von Zahlungen und zur Anmeldung bei Banking-Apps zu verwenden.

Aber Apple hat Face ID seit 2017 auf dem iPhone, und das merkt man. Auf dem 16 Pro ist es einfach ein bisschen schneller und zuverlässiger als alle Android-Konkurrenten. Es funktioniert bei praktisch allen Lichtverhältnissen und kann leicht so eingestellt werden, dass es sich entsperrt, während Sie eine Brille oder eine Maske tragen.

Foundry

Ein Fingerabdrucksensor unter dem Display wäre schön, aber die Tatsache, dass ich ihn überhaupt nicht vermisst habe, spricht Bände. Face ID ist eine weitere Sache, die Apple absolut perfekt hinbekommen hat.

iMessage ist leider besser

Bevor ich auf das 16 Pro umgestiegen bin, habe ich mich zunehmend über Apples wichtigste Messaging-App geärgert. Warum verwenden iPhone-Nutzer nicht einfach Whatsapp? Warum hat Apple so lange gebraucht, um die Android-SMS mit RCS zu verbessern? Und warum gibt es die blaue Blase/grüne Blase überhaupt?

Dann habe ich angefangen, iMessage zu benutzen. iMessage (oder offiziell nur ‘Messages’, wie es auf dem iPhone heißt) ist zweifellos die beste Allround-Messaging-App auf jedem Telefon.

Sie integriert SMS, MMS und iMessages in einer App und macht es ganz einfach, alles auf einen Blick zu sehen. Sie können es auch so einstellen, dass es alle Textbestätigungscodes automatisch löscht, sobald sie verwendet wurden.

Und selbst wenn Sie keine Internetverbindung haben, können Sie immer noch mit dem gesamten Kontext der gleichen Konversation texten. Wenn Sie wieder online sind, wird alles automatisch gesichert und ist auf allen Ihren Apple-Geräten verfügbar.

Apple

Antworten auf Nachrichten werden besser gehandhabt als bei Whatsapp, denn es wird ein Thread erstellt, anstatt den Chat zu überladen. Sie können auch nahtlos zu einem FaceTime-Anruf übergehen, der in der Regel eine bessere Qualität als ein WhatsApp-Anruf bietet.

Apples Bibliothek mit Reaktionen, Stickern und Animationen ist unübertroffen, und Links zu Video- und Audioinhalten werden direkt in der App abgespielt.

In iMessage ist es diese Sammlung von kleinen Aufmerksamkeiten, die das Erlebnis noch ein bisschen besser machen. Ich hätte nie gedacht, dass ich das sagen würde, aber ich mag es vielleicht lieber als Whatsapp.

Albtraum der Benachrichtigungen

Mein größter Kritikpunkt am iPhone ist die Art und Weise, wie es mit Benachrichtigungen umgeht. Ich behaupte nicht, dass Android perfekt ist, wenn es um Benachrichtigungen geht, aber es ist iOS gefühlt Lichtjahre voraus.

Aus irgendeinem Grund scheint Apple der Meinung zu sein, dass Benachrichtigungen permanent im Benachrichtigungscenter angezeigt werden sollten. Wenn Sie Ihr Telefon entsperren, verschwinden alle Benachrichtigungen vom Sperrbildschirm und erfordern eine halbe Wischbewegung nach oben, um sie aufzurufen. Das macht die Dinge nur unnötig kompliziert.

Foundry

Android macht den Prozess viel einfacher. Alle Ihre Benachrichtigungen werden durchgehend auf dem Sperrbildschirm angezeigt (wenn es zu viele sind, werden deren Symbole unten auf dem Bildschirm angezeigt), von wo aus Sie einfach auf eine tippen können, um sie zu öffnen oder wegzuwischen.

Ich bin auch kein Fan von der Art und Weise, wie iOS Benachrichtigungen aus derselben App in “Stapeln” gruppiert. Sicher, das reduziert das Durcheinander, aber ich muss die Liste sowieso immer erweitern, um den Inhalt der Benachrichtigungen zu sehen. Bei Android liegt eine nützliche Vorschau direkt vor mir.

Ich behaupte nicht, dass Android perfekt ist, wenn es um Benachrichtigungen geht, aber es fühlt sich um Lichtjahre besser an als iOS

Nicht viel Kontrolle im Control Center

Auch die Verwendung des iOS Control Centers war recht gewöhnungsbedürftig … und das nicht auf eine gute Art und Weise. Stellen Sie sich das Control Center wie das Schnelleinstellungsmenü von Android vor, nur schlimmer.

Das Design ist kein Problem, ebenso wenig wie die Tatsache, dass Sie von der rechten oberen Ecke des Bildschirms nach unten wischen müssen (was Samsung jetzt kopiert hat). Stattdessen ist mein größtes Problem, dass das Antippen eines der Symbole nicht das tut, was Sie erwarten.

Mindestens einmal am Tag möchte ich zum Beispiel das Wi-Fi ausschalten. In der Regel, wenn ich auf dem Weg nach draußen bin. Aber auf dem iPhone 16 Pro lässt sich das Wi-Fi durch Antippen des Symbols nicht vollständig deaktivieren.

Anyron Copeman / Foundry

Stattdessen erscheint die Meldung “Wi-Fi in der Nähe wird bis morgen getrennt”. Mit anderen Worten: das Wi-Fi wird am nächsten Tag automatisch wieder eingeschaltet. Das Gleiche gilt für Bluetooth. Traut Apple mir wirklich nicht zu, dass ich daran denke, Wi-Fi wieder zu aktivieren? Nennen Sie mich altmodisch, aber ich würde das gerne selbst steuern können, indem ich das ‘Control Center’ verwende.

Schmerzhaft langes Aufladen

Das ist kein Problem, das nur beim iPhone auftritt, aber es war ein ziemlicher Schock, als ich umstieg. Das iPhone 16 Pro ist ein Flaggschiff-Handy, das bei der Markteinführung mindestens 1199 Euro kostet, aber nur mit bis zu 25 W geladen werden kann.

Wenn Sie schon einmal die Freuden einer echten Schnellladung erlebt haben, wissen Sie, wie frustrierend das ist. Selbst wenn Sie ein kompatibles Netzteil finden (es ist keines im Lieferumfang enthalten), dauert der Ladevorgang ewig.

Anyron Copeman / Foundry

Das magnetische Laden mit MagSafe ist cool, aber ich würde das sofort wieder aufgeben, wenn ich nur 45 W kabelgebundenes Laden hätte. Ich bin nur froh, dass ich das 16 Pro dank der langen Akkulaufzeit nicht so oft an die Steckdose anschließen muss.

Mein Urteil über das iPhone 2025

Der Umstieg auf das iPhone 16 Pro brachte mehr Überraschungen mit sich, als ich erwartet hatte … im Guten wie im Schlechten.

Obwohl sie sich ähnlicher sind als je zuvor, unterscheiden sich iOS und Android immer noch in einigen grundlegenden Punkten. Wenn Sie nicht mit beiden vertraut sind, ist der Umstieg in beiden Fällen mit einer erheblichen Lernkurve verbunden.

Als jemand, der beruflich Telefone testet und hauptsächlich Google-Apps verwendet, ist Android für mich im Moment die bessere Wahl. Aber ich weiß einige der Möglichkeiten zu schätzen, mit denen Apple das iPhone zu einem so überzeugenden Gerät macht, insbesondere wenn Sie bereits andere Produkte des Unternehmens besitzen.

Trotz des Vorwurfs mangelnder Innovation hat das iPhone in den 12 Jahren, die ich weg war, einen verdammt langen Weg zurückgelegt. Die neuesten Modelle sind zweifellos immer noch einige der besten Smartphones, die Sie kaufen können.

(PC-Welt)

Nach 12 Jahren Android nutze ich jetzt ein iPhone: Das habe ich dabei gelernt​ Weiterlesen »

Large Language Models erklärt: Was sind LLMs?​

Allgemein

Ohne Large Language Model kein Generative AI. Foto: A. Solano – shutterstock.com Seit der Veröffentlichung von ChatGPT im November 2022 geht Generative AI durch die Decke. Die Technologie wird dazu genutzt, Tasks zu automatisieren, bei Kreativaufgaben zu unterstützen oder auch um Software zu programmieren – um nur einige Anwendungsfälle zu nennen. Die Grundlage für KI-Chatbots wie ChatGPT oder Bard liefern Large Language Models (LLMs, auch: große Sprachmodelle). Sie verarbeiten natürlichsprachliche Inputs und sagen das nächstfolgende Wort auf der Grundlage historischer Daten vorher. Man könnte LLMs also – vereinfacht ausgedrückt – als “Textvorhersage-Maschinen” bezeichnen. Zu den derzeit populärsten großen Sprachmodellen gehören: GPT-3 und GPT-4 von Open AI LaMDA und PaLM von Google BLOOM und XLM-RoBERTa von Hugging Face und NeMO von Nvidia sowie XLNet, Co:here und GLM-130B. Seit der Veröffentlichung von Metas LLaMA im Februar 2023 gewinnen speziell Open-Source-LLMs zunehmend an Zugkraft, versprechen sie doch anpassungsfähigere Modelle zu geringeren Kosten. In diesem Artikel erfahren Sie, was Large Language Models sind und wie sie funktionieren. Large Language Model definiert Ein Large Language Model ist ein neuronales Netzwerk für maschinelles Lernen, das mit Daten-Inputs und -Outputs trainiert wird. Der zugrundeliegende Text ist dabei häufig unstrukturiert und das Modell nutzt Self-Supervised- oder Semi-Supervised-Lerntechniken. Informationen oder Inhalte werden in das LLM eingespeist – der Output ist das, was der Algorithmus als nächstes Wort vorhersagt. Die Inputs können aus Unternehmensdaten oder – wie im Fall von ChatGPT – aus Daten bestehen, die direkt aus dem Netz stammen. Um große Sprachmodelle zu trainieren, sind riesige Serverfarmen erforderlich, die ähnlich wie Supercomputer funktionieren. Gesteuert werden Large Language Models über Millionen, Milliarden oder sogar Billionen von Parametern. Die helfen dem Sprachmodell dabei, zwischen verschiedenen Antwortmöglichkeiten zu unterscheiden. So funktionieren LLMs Nehmen wir an, Sie übergeben folgende Frage als Input an ein LLM: “Was gab es heute zum Mittagessen?”. Das Large Language Model könnte die Frage mit “Zerealien”, “Reis” oder “Steak” beantworten. Dabei existiert keine 100-prozentig richtige Antwort – lediglich eine (trainings-)datenbasierte Wahrscheinlichkeit. Diejenige Antwortmöglichkeit, die auf Grundlage der vorhandenen beziehungsweise historischen Daten die wahrscheinlichste ist, wird das Large Language Model als Output wählen. Dabei gilt allerdings der Grundsatz “Junk in, Junk out”. Anders ausgedrückt: Füttern Sie ein großes Sprachmodell mit Bias-behafteten, unvollständigen oder anderweitig unzureichenden Informationen, dürfen Sie auch mit entsprechend unzuverlässigen, bizarren oder beleidigenden Ergebnissen rechnen. Wenn LLM-Outputs aus dem Ruder laufen, sprechen Datenanalysten auch von “Halluzinationen”. Jonathan Siddharth, CEO beim KI-Serviceanbieter Turing, erklärt: “Halluzinationen entstehen, weil LLMs in ihrer einfachsten Form keine interne Zustandsbeschreibung der Welt vorliegt. Das Konzept des Faktenwissens existiert hier nicht. Es geht ausschließlich um statistische Wahrscheinlichkeiten.” Insbesondere Bias kann in Zusammenhang mit LLMs gefährlich werden, wie Sayash Kapoor, Doktorand am Center for Information Technology Policy der Princeton University unterstreicht: “Kommen Bias-behaftete Sprachmodelle etwa bei Bewerbungsprozessen zum Einsatz, könnten sie zu geschlechtsspezifischer Voreingenommenheit in der realen Welt führen.” Weil sich einige Large Language Models mit Hilfe internetbasierter Daten selbst trainieren, können sie potenziell weit über das hinausgehen, wofür sie ursprünglich entwickelt wurden. Microsofts Bing zum Beispiel verwendet inzwischen Open AIs GPT-3-LLM als Grundlage, fragt parallel aber auch eine Suchmaschine ab. Die Plattform kombiniert also großes Sprachmodell und Internetsuche, um den Nutzern Antworten auf ihre Fragen zu liefern. “Wir beobachten, dass ein LLM auf eine Programmiersprache trainiert wird und dann automatisch Code in einer anderen Programmiersprache generiert, die es noch nie zuvor gesehen hat”, berichtet Siddharth. “Es ist fast so, als gäbe es ein emergentes Verhalten. Wir wissen nicht genau, wie diese neuronalen Netze funktionieren. Das ist beängstigend und aufregend zugleich.” In der Regel sind große Sprachmodelle – etwa Open AIs GPT-4 – mit riesigen Datenmengen vortrainiert. Allerdings können LLMs mit Hilfe von Prompt Engineering auch für den Einsatz in bestimmten Branchen oder Unternehmen trainiert werden. Yoon Kim, Machine-Learning-Spezialist und Assistenzprofessor am MIT, abstrahiert: “Beim Prompt Engineering geht es darum, zu entscheiden, womit wir den Algorithmus füttern, damit er das tut, was wir wollen. Ein Large Language Model plappert einfach ohne jeglichen Kontext und ist in gewissem Sinne bereits ein Chatbot.” Rund um Prompt Engineering wurden inzwischen bereits diverse Leitfäden und nützliche Stoffsammlungen veröffentlicht. Nach Meinung von Eno Reyes, Machine-Learning-Experte beim LLM-Anbieter Hugging Face, dürfte sich dieses Feld künftig zu einem gefragten Skill für Business- und IT-Experten entwickeln: “Prompt Engineers werden die künftigen, maßgeschneiderten Large Language Models für den Business-Einsatz liefern.” Large Language Models und der Datenschutz Italien hatte Anfang 2023 als erstes westliches Land den Zugang zu ChatGPT aufgrund von Datenschutzbedenken nach einem Data Breach gesperrt (und die Entscheidung später wieder revidiert). “Obwohl ChatGPT nach dem vorübergehenden Verbot durch Italien einige Verbesserungen vorgenommen hat, gibt es immer noch Luft nach oben”, mahnt Gabriele Kaveckyte, Datenschutzbeauftragte beim Cybersicherheitsunternehmen Surfshark, und fügt hinzu: “Diese potenziellen Datenschutzprobleme zu beheben, ist essenziell, um eine verantwortungsvolle und ethisch vertretbare Datennutzung zu gewährleisten, Vertrauen zu fördern und die Privatsphäre der Nutzer bei KI-Interaktionen zu schützen.” Die Datenschutzexpertin weiß, wovon sie spricht, hat sie doch die Datenerhebungspraktiken von ChatGPT analysiert und eine Liste mit potenziellen Schwachstellen in diesem Bereich erstellt. Demnach: sammle OpenAI möglicherweise ohne rechtliche Grundlage personenbezogene Daten in großem Umfang, um seine Sprachmodelle zu trainieren. habe das Unternehmen nicht alle betroffenen Dateneigentümer darüber unterrichtet, wie und wofür ihre Informationen verwendet werden. fehlten wirksame Tools zur Altersverifizierung, um den Jugendschutz zu gewährleisten. Neben den Problemstellungen im Bereich Datenschutz bereitet Experten in Zusammenhang mit Large Language Models auch das Thema Datensicherheit Kopfzerbrechen. Das wirft Hürden für den Einsatz in bestimmten Branchen auf, wie KI-Spezialist Siddharth erklärt: “Bevor ein Krankenhaus oder eine Bank LLMs einsetzen kann, sind Probleme in Sachen geistiges Eigentum, Sicherheit und Vertraulichkeit zu lösen. Für einige dieser Probleme gibt es bereits gute technische Lösungen und ich denke, die übrigen werden auch noch gelöst. Bis es soweit ist, ist an einen breiten Enterprise-Einsatz eher nicht zu denken. Unternehmen wollen ein Large Language Model sicher nicht in einem Kontext verwenden, in dem es die eigenen Daten nutzt, um der Konkurrenz bessere Ergebnisse zu liefern.” Angesichts der Risiken und Unsicherheiten befassen sich Regierungen rund um den Globus bereits mit dem Thema Generative AI, beziehungsweise dessen künftiger Regulierung: China hat bereits mehrere KI-Governance-Initiativen auf den Weg gebracht. Die US-Regierung hat im Oktober 2022 einen Entwurf für eine “AI Bill of Rights” vorgestellt. Die G7-Staaten verständigten sich im Mai 2023 darauf, eine Arbeitsgruppe einzusetzen, die sich mit Generative-AI-Lösungen befassen soll. Die Europäische Union arbeitet an einer Gesetzgebung zur KI-Regulierung – dem AI Act. Die “kleine” Zukunft großer Sprachmodelle Heute werden LLM-basierte Chatbots am häufigsten “out of the box” eingesetzt – als textbasierte Web-Chat-Schnittstellen. Dazu werden sie in Suchmaschinen wie Google (Bard) und Bing (ChatGPT) integriert und für die automatische Online-Kundenbetreuung eingesetzt. Wie bereits erwähnt, können Unternehmen ihre eigenen Datensätze einspeisen, um die Chatbots besser auf ihr jeweiliges Unternehmen abzustimmen. Allerdings kann die Genauigkeit dabei aufgrund von bereits eingespeisten Datenmengen leiden. Je nach Größe und Einsatzzweck kann es mehrere Millionen Dollar kosten, ein großes Sprachmodell für bestimmte Anwendungsfälle zu trainieren. “Wir beobachten immer häufiger, dass kleine Modelle, die man länger auf mehr Daten trainiert, das können, was große Modelle früher konnten”, resümierte Thomas Wolf, Mitbegründer und CSO von Hugging Face, auf einer MIT-Konferenz Anfang des Monats. Wenn LLMs ihre KI- und Rechenleistung auf kleinere Datensätze konzentrierten, schnitten sie dabei genauso gut oder besser als die riesigen Sprachmodelle ab, die sich auf massive, amorphe Datensätze stützten. Die kleineren Datensätze könnten zudem die von den Nutzern gesuchten Inhalte präziser erstellen – und seien wesentlich kostengünstiger zu trainieren, so der Experte. Eine Methode, um kleinere Large Language Models umzusetzen, nennt sich Sparse Expert Models (PDF) und wird nach Meinung von Experten künftig wesentlich dazu beitragen, die Trainings- und Computing-Kosten für LLMs zu reduzieren. So gehen etwa Forscher von Meta davon aus (PDF), dass Sparse Expert Models künftig eine ähnliche Performance wie ChatGPT realisieren, dazu aber nur den Bruchteil der bisherigen Rechenleistung benötigen. Diverse Anbieter stellen bereits kleinere Large Language Models zur Verfügung. Zum Beispiel: Aleph Alpha Databricks Fixie LightOn Stability AI und Open AI. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Large Language Models erklärt: Was sind LLMs?​ Ohne Large Language Model kein Generative AI.
Foto: A. Solano – shutterstock.com

Seit der Veröffentlichung von ChatGPT im November 2022 geht Generative AI durch die Decke. Die Technologie wird dazu genutzt, Tasks zu automatisieren, bei Kreativaufgaben zu unterstützen oder auch um Software zu programmieren – um nur einige Anwendungsfälle zu nennen.

Die Grundlage für KI-Chatbots wie ChatGPT oder Bard liefern Large Language Models (LLMs, auch: große Sprachmodelle). Sie verarbeiten natürlichsprachliche Inputs und sagen das nächstfolgende Wort auf der Grundlage historischer Daten vorher. Man könnte LLMs also – vereinfacht ausgedrückt – als “Textvorhersage-Maschinen” bezeichnen.

Zu den derzeit populärsten großen Sprachmodellen gehören:

GPT-3 und GPT-4 von Open AI

LaMDA und PaLM von Google

BLOOM und XLM-RoBERTa von Hugging Face und

NeMO von Nvidia sowie

XLNet, Co:here und GLM-130B.

Seit der Veröffentlichung von Metas LLaMA im Februar 2023 gewinnen speziell Open-Source-LLMs zunehmend an Zugkraft, versprechen sie doch anpassungsfähigere Modelle zu geringeren Kosten.

In diesem Artikel erfahren Sie, was Large Language Models sind und wie sie funktionieren.

Large Language Model definiert

Ein Large Language Model ist ein neuronales Netzwerk für maschinelles Lernen, das mit Daten-Inputs und -Outputs trainiert wird. Der zugrundeliegende Text ist dabei häufig unstrukturiert und das Modell nutzt Self-Supervised- oder Semi-Supervised-Lerntechniken. Informationen oder Inhalte werden in das LLM eingespeist – der Output ist das, was der Algorithmus als nächstes Wort vorhersagt. Die Inputs können aus Unternehmensdaten oder – wie im Fall von ChatGPT – aus Daten bestehen, die direkt aus dem Netz stammen.

Um große Sprachmodelle zu trainieren, sind riesige Serverfarmen erforderlich, die ähnlich wie Supercomputer funktionieren. Gesteuert werden Large Language Models über Millionen, Milliarden oder sogar Billionen von Parametern. Die helfen dem Sprachmodell dabei, zwischen verschiedenen Antwortmöglichkeiten zu unterscheiden.

So funktionieren LLMs

Nehmen wir an, Sie übergeben folgende Frage als Input an ein LLM: “Was gab es heute zum Mittagessen?”. Das Large Language Model könnte die Frage mit “Zerealien”, “Reis” oder “Steak” beantworten. Dabei existiert keine 100-prozentig richtige Antwort – lediglich eine (trainings-)datenbasierte Wahrscheinlichkeit. Diejenige Antwortmöglichkeit, die auf Grundlage der vorhandenen beziehungsweise historischen Daten die wahrscheinlichste ist, wird das Large Language Model als Output wählen.

Dabei gilt allerdings der Grundsatz “Junk in, Junk out”. Anders ausgedrückt: Füttern Sie ein großes Sprachmodell mit Bias-behafteten, unvollständigen oder anderweitig unzureichenden Informationen, dürfen Sie auch mit entsprechend unzuverlässigen, bizarren oder beleidigenden Ergebnissen rechnen. Wenn LLM-Outputs aus dem Ruder laufen, sprechen Datenanalysten auch von “Halluzinationen”.

Jonathan Siddharth, CEO beim KI-Serviceanbieter Turing, erklärt: “Halluzinationen entstehen, weil LLMs in ihrer einfachsten Form keine interne Zustandsbeschreibung der Welt vorliegt. Das Konzept des Faktenwissens existiert hier nicht. Es geht ausschließlich um statistische Wahrscheinlichkeiten.”

Insbesondere Bias kann in Zusammenhang mit LLMs gefährlich werden, wie Sayash Kapoor, Doktorand am Center for Information Technology Policy der Princeton University unterstreicht: “Kommen Bias-behaftete Sprachmodelle etwa bei Bewerbungsprozessen zum Einsatz, könnten sie zu geschlechtsspezifischer Voreingenommenheit in der realen Welt führen.”

Weil sich einige Large Language Models mit Hilfe internetbasierter Daten selbst trainieren, können sie potenziell weit über das hinausgehen, wofür sie ursprünglich entwickelt wurden. Microsofts Bing zum Beispiel verwendet inzwischen Open AIs GPT-3-LLM als Grundlage, fragt parallel aber auch eine Suchmaschine ab. Die Plattform kombiniert also großes Sprachmodell und Internetsuche, um den Nutzern Antworten auf ihre Fragen zu liefern.

“Wir beobachten, dass ein LLM auf eine Programmiersprache trainiert wird und dann automatisch Code in einer anderen Programmiersprache generiert, die es noch nie zuvor gesehen hat”, berichtet Siddharth. “Es ist fast so, als gäbe es ein emergentes Verhalten. Wir wissen nicht genau, wie diese neuronalen Netze funktionieren. Das ist beängstigend und aufregend zugleich.”

In der Regel sind große Sprachmodelle – etwa Open AIs GPT-4 – mit riesigen Datenmengen vortrainiert. Allerdings können LLMs mit Hilfe von Prompt Engineering auch für den Einsatz in bestimmten Branchen oder Unternehmen trainiert werden. Yoon Kim, Machine-Learning-Spezialist und Assistenzprofessor am MIT, abstrahiert: “Beim Prompt Engineering geht es darum, zu entscheiden, womit wir den Algorithmus füttern, damit er das tut, was wir wollen. Ein Large Language Model plappert einfach ohne jeglichen Kontext und ist in gewissem Sinne bereits ein Chatbot.”

Rund um Prompt Engineering wurden inzwischen bereits diverse Leitfäden und nützliche Stoffsammlungen veröffentlicht. Nach Meinung von Eno Reyes, Machine-Learning-Experte beim LLM-Anbieter Hugging Face, dürfte sich dieses Feld künftig zu einem gefragten Skill für Business- und IT-Experten entwickeln: “Prompt Engineers werden die künftigen, maßgeschneiderten Large Language Models für den Business-Einsatz liefern.”

Large Language Models und der Datenschutz

Italien hatte Anfang 2023 als erstes westliches Land den Zugang zu ChatGPT aufgrund von Datenschutzbedenken nach einem Data Breach gesperrt (und die Entscheidung später wieder revidiert).

“Obwohl ChatGPT nach dem vorübergehenden Verbot durch Italien einige Verbesserungen vorgenommen hat, gibt es immer noch Luft nach oben”, mahnt Gabriele Kaveckyte, Datenschutzbeauftragte beim Cybersicherheitsunternehmen Surfshark, und fügt hinzu: “Diese potenziellen Datenschutzprobleme zu beheben, ist essenziell, um eine verantwortungsvolle und ethisch vertretbare Datennutzung zu gewährleisten, Vertrauen zu fördern und die Privatsphäre der Nutzer bei KI-Interaktionen zu schützen.”

Die Datenschutzexpertin weiß, wovon sie spricht, hat sie doch die Datenerhebungspraktiken von ChatGPT analysiert und eine Liste mit potenziellen Schwachstellen in diesem Bereich erstellt. Demnach:

sammle OpenAI möglicherweise ohne rechtliche Grundlage personenbezogene Daten in großem Umfang, um seine Sprachmodelle zu trainieren.

habe das Unternehmen nicht alle betroffenen Dateneigentümer darüber unterrichtet, wie und wofür ihre Informationen verwendet werden.

fehlten wirksame Tools zur Altersverifizierung, um den Jugendschutz zu gewährleisten.

Neben den Problemstellungen im Bereich Datenschutz bereitet Experten in Zusammenhang mit Large Language Models auch das Thema Datensicherheit Kopfzerbrechen. Das wirft Hürden für den Einsatz in bestimmten Branchen auf, wie KI-Spezialist Siddharth erklärt: “Bevor ein Krankenhaus oder eine Bank LLMs einsetzen kann, sind Probleme in Sachen geistiges Eigentum, Sicherheit und Vertraulichkeit zu lösen. Für einige dieser Probleme gibt es bereits gute technische Lösungen und ich denke, die übrigen werden auch noch gelöst. Bis es soweit ist, ist an einen breiten Enterprise-Einsatz eher nicht zu denken. Unternehmen wollen ein Large Language Model sicher nicht in einem Kontext verwenden, in dem es die eigenen Daten nutzt, um der Konkurrenz bessere Ergebnisse zu liefern.”

Angesichts der Risiken und Unsicherheiten befassen sich Regierungen rund um den Globus bereits mit dem Thema Generative AI, beziehungsweise dessen künftiger Regulierung:

China hat bereits mehrere KI-Governance-Initiativen auf den Weg gebracht.

Die US-Regierung hat im Oktober 2022 einen Entwurf für eine “AI Bill of Rights” vorgestellt.

Die G7-Staaten verständigten sich im Mai 2023 darauf, eine Arbeitsgruppe einzusetzen, die sich mit Generative-AI-Lösungen befassen soll.

Die Europäische Union arbeitet an einer Gesetzgebung zur KI-Regulierung – dem AI Act.

Die “kleine” Zukunft großer Sprachmodelle

Heute werden LLM-basierte Chatbots am häufigsten “out of the box” eingesetzt – als textbasierte Web-Chat-Schnittstellen. Dazu werden sie in Suchmaschinen wie Google (Bard) und Bing (ChatGPT) integriert und für die automatische Online-Kundenbetreuung eingesetzt. Wie bereits erwähnt, können Unternehmen ihre eigenen Datensätze einspeisen, um die Chatbots besser auf ihr jeweiliges Unternehmen abzustimmen. Allerdings kann die Genauigkeit dabei aufgrund von bereits eingespeisten Datenmengen leiden. Je nach Größe und Einsatzzweck kann es mehrere Millionen Dollar kosten, ein großes Sprachmodell für bestimmte Anwendungsfälle zu trainieren.

“Wir beobachten immer häufiger, dass kleine Modelle, die man länger auf mehr Daten trainiert, das können, was große Modelle früher konnten”, resümierte Thomas Wolf, Mitbegründer und CSO von Hugging Face, auf einer MIT-Konferenz Anfang des Monats. Wenn LLMs ihre KI- und Rechenleistung auf kleinere Datensätze konzentrierten, schnitten sie dabei genauso gut oder besser als die riesigen Sprachmodelle ab, die sich auf massive, amorphe Datensätze stützten. Die kleineren Datensätze könnten zudem die von den Nutzern gesuchten Inhalte präziser erstellen – und seien wesentlich kostengünstiger zu trainieren, so der Experte.

Eine Methode, um kleinere Large Language Models umzusetzen, nennt sich Sparse Expert Models (PDF) und wird nach Meinung von Experten künftig wesentlich dazu beitragen, die Trainings- und Computing-Kosten für LLMs zu reduzieren. So gehen etwa Forscher von Meta davon aus (PDF), dass Sparse Expert Models künftig eine ähnliche Performance wie ChatGPT realisieren, dazu aber nur den Bruchteil der bisherigen Rechenleistung benötigen.

Diverse Anbieter stellen bereits kleinere Large Language Models zur Verfügung. Zum Beispiel:

Aleph Alpha

Databricks

Fixie

LightOn

Stability AI und

Open AI.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Large Language Models erklärt: Was sind LLMs?​ Weiterlesen »

Finnland als digitales Vorbild für die öffentliche Hand​

Allgemein

Mit zentralen Registern und klarer Digitalstrategie zeigt Finnland, wie eine erfolgreiche Verwaltungsdigitalisierung aussehen kann – ein Modell auch für Deutschland? Harvepino – shutterstock.com Die Digitalisierung des öffentlichen Sektors in Deutschland hinkt trotz gewisser Fortschritte hinterher. Veraltete IT, Bürokratie und Fachkräftemangel behindern die Entwicklung, während der Druck durch höhere Bürgererwartungen wächst. Cloud-Technologien bieten laut der aktuelle Lünendonk-Studie „Cloud-Transformation im öffentlichen Sektor – Neue Wege für digitale Fachverfahren und IT-Souveränität“ großes Potenzial zur Modernisierung. Die Studie basiert auf einer telefonischen Befragung von 57 verantwortlichen Personen aus dem öffentlichen Sektor. Knapp die Hälfte der Befragten sind IT-Leiter/CIOs, rund 40 Prozent sind Leiter von IT- und Digitalisierungsreferaten sowie Cloud- oder Infrastrukturverantwortliche. Rund zehn Prozent sind Business-Verantwortliche mit einem IT-Bezug. Laut Umfrage nutzen 71 Prozent der Teilnehmenden bereits erste Cloud-Services. 18 Prozent verfolgen bereits klare Strategien. ​Die Cloud-Transformation hat dabei für 80 Prozent der Befragten hohe Priorität. ​ Treiber sind vor allem KI-Lösungen (84 Prozent), IT-Sicherheit (79 Prozent) und die Skalierbarkeit von IT-Operations (76 Prozent). 60 Prozent der Teilnehmenden geben zudem an, dass der IT-Fachkräftemangel und demografische Wandel ein Treiber für die Cloud sind, um digitale Verwaltungsprozesse auch in Zukunft managen zu können. Bis 2028 sollen bis zu 54 Prozent der Fach- und IT-Anwendungen der öffentlichen Hand in der Cloud betrieben werden, hieß es. ​ Herausforderungen und Lösungsansätze ​ Als die größten Hürden für die digitale Transformation wurden hierbei regulatorische Anforderungen (77 Prozent), kulturelle und organisatorische Veränderungen (66 Prozent) sowie der mögliche Verlust der Datenhoheit (62 Prozent) genannt. Sicherheitsbedenken und Fachkräftemangel erschweren die Umsetzung zusätzlich. ​Um diese Herausforderungen zu bewältigen, setzen viele öffentliche Verwaltungen auf hybride und Multi-Cloud-Strategien, die Flexibilität und Sicherheit bieten. ​Souveräne Cloud-Angebote, die Datenschutz und Unabhängigkeit gewährleisten, gewinnen ebenfalls an Bedeutung. ​ Relevanz von Cloud-Modellen und Anbietern ​ Die Studie zeigt zudem, dass Software-as-a-Service (SaaS) für 95 Prozent der Befragten relevant ist. Zusätzlich für sie interessant sind Infrastructure-as-a-Service (IaaS) und virtuelle Serverlandschaften. Deutsche Cloud-Anbieter wie STACKIT und IONOS sowie Hyperscaler mit separatem EU-Betreiber spielen hierbei eine zentrale Rolle. Souveräne Cloud-Lösungen, die den Zugriff durch US-Behörden verhindern, sind allgemein besonders gefragt. Externe Unterstützung und strategische Ansätze ​ Da viele öffentliche Einrichtungen nicht über ausreichende IT-Expertise verfügen, arbeiten sie mit externen Dienstleistern zusammen. ​Besonders gefragt sind Partner für Cloud-Sicherheit, Entwicklung und Implementierung. Auch nationale IT-Dienstleister wie msg und Materna spielen eine wichtige Rolle. Die Entwicklung einer Cloud-Strategie sollte auf einer ganzheitlichen Betrachtung der IT-Landschaft basieren, um langfristige Abhängigkeiten zu vermeiden. ​ Internationale Perspektiven: Finnland als Vorbild Die Studienmacher nennen Finnland als Vorreiter in der Digitalisierung.​ Zentralisierte Basisregister und eine klare Strategie sind zwei Gründe hierfür, fördern sie doch die Interoperabilität und Effizienz. Laut Lünendonk könnte Deutschland auch von Finnlands pragmatischem Ansatz lernen. Konkret nennen die Experten, dass eine nationale digitale Identität eingeführt und der Datenaustauschs zwischen Behörden verbessert werden könnten.  ​ 

Finnland als digitales Vorbild für die öffentliche Hand​ Mit zentralen Registern und klarer Digitalstrategie zeigt Finnland, wie eine erfolgreiche Verwaltungsdigitalisierung aussehen kann – ein Modell auch für Deutschland?
Harvepino – shutterstock.com

Die Digitalisierung des öffentlichen Sektors in Deutschland hinkt trotz gewisser Fortschritte hinterher. Veraltete IT, Bürokratie und Fachkräftemangel behindern die Entwicklung, während der Druck durch höhere Bürgererwartungen wächst.

Cloud-Technologien bieten laut der aktuelle Lünendonk-Studie „Cloud-Transformation im öffentlichen Sektor – Neue Wege für digitale Fachverfahren und IT-Souveränität“ großes Potenzial zur Modernisierung. Die Studie basiert auf einer telefonischen Befragung von 57 verantwortlichen Personen aus dem öffentlichen Sektor. Knapp die Hälfte der Befragten sind IT-Leiter/CIOs, rund 40 Prozent sind Leiter von IT- und Digitalisierungsreferaten sowie Cloud- oder Infrastrukturverantwortliche. Rund zehn Prozent sind Business-Verantwortliche mit einem IT-Bezug.

Laut Umfrage nutzen 71 Prozent der Teilnehmenden bereits erste Cloud-Services. 18 Prozent verfolgen bereits klare Strategien. ​Die Cloud-Transformation hat dabei für 80 Prozent der Befragten hohe Priorität. ​

Treiber sind vor allem

KI-Lösungen (84 Prozent),

IT-Sicherheit (79 Prozent) und

die Skalierbarkeit von IT-Operations (76 Prozent).

60 Prozent der Teilnehmenden geben zudem an, dass der IT-Fachkräftemangel und demografische Wandel ein Treiber für die Cloud sind, um digitale Verwaltungsprozesse auch in Zukunft managen zu können.

Bis 2028 sollen bis zu 54 Prozent der Fach- und IT-Anwendungen der öffentlichen Hand in der Cloud betrieben werden, hieß es. ​

Herausforderungen und Lösungsansätze ​

Als die größten Hürden für die digitale Transformation wurden hierbei

regulatorische Anforderungen (77 Prozent),

kulturelle und organisatorische Veränderungen (66 Prozent) sowie

der mögliche Verlust der Datenhoheit (62 Prozent)

genannt.

Sicherheitsbedenken und Fachkräftemangel erschweren die Umsetzung zusätzlich. ​Um diese Herausforderungen zu bewältigen, setzen viele öffentliche Verwaltungen auf hybride und Multi-Cloud-Strategien, die Flexibilität und Sicherheit bieten. ​Souveräne Cloud-Angebote, die Datenschutz und Unabhängigkeit gewährleisten, gewinnen ebenfalls an Bedeutung. ​

Relevanz von Cloud-Modellen und Anbietern ​

Die Studie zeigt zudem, dass Software-as-a-Service (SaaS) für 95 Prozent der Befragten relevant ist. Zusätzlich für sie interessant sind Infrastructure-as-a-Service (IaaS) und virtuelle Serverlandschaften.

Deutsche Cloud-Anbieter wie STACKIT und IONOS sowie Hyperscaler mit separatem EU-Betreiber spielen hierbei eine zentrale Rolle. Souveräne Cloud-Lösungen, die den Zugriff durch US-Behörden verhindern, sind allgemein besonders gefragt.

Externe Unterstützung und strategische Ansätze ​

Da viele öffentliche Einrichtungen nicht über ausreichende IT-Expertise verfügen, arbeiten sie mit externen Dienstleistern zusammen. ​Besonders gefragt sind Partner für Cloud-Sicherheit, Entwicklung und Implementierung.

Auch nationale IT-Dienstleister wie msg und Materna spielen eine wichtige Rolle. Die Entwicklung einer Cloud-Strategie sollte auf einer ganzheitlichen Betrachtung der IT-Landschaft basieren, um langfristige Abhängigkeiten zu vermeiden. ​

Internationale Perspektiven: Finnland als Vorbild

Die Studienmacher nennen Finnland als Vorreiter in der Digitalisierung.​ Zentralisierte Basisregister und eine klare Strategie sind zwei Gründe hierfür, fördern sie doch die Interoperabilität und Effizienz.

Laut Lünendonk könnte Deutschland auch von Finnlands pragmatischem Ansatz lernen. Konkret nennen die Experten, dass

eine nationale digitale Identität eingeführt und

der Datenaustauschs zwischen Behörden verbessert

werden könnten.  ​

Finnland als digitales Vorbild für die öffentliche Hand​ Weiterlesen »

Shoppen mit ChatGPT​

Allgemein

ChatGPT soll zum digitalen Einkaufsberater werden – mit personalisierten Empfehlungen und transparenter Produktsuche. RSplaneta – shutterstock.com OpenAI kündigte am 28. April an, dass Nutzer bald in der Lage sein werden, Produkte über ChatGPT zu kaufen. Künftig würden Shopping-Buttons für KI-gestützte Suchanfragen für alle Nutzer verfügbar sein, unabhängig davon, ob sie angemeldet sind oder nicht. Innerhalb von ChatGPT zu bezahlen, werde allerdings nicht möglich sein; stattdessen würden die Shopper auf die jeweilige Website des Händlers weitergeleitet, um dort die Transaktion abzuschließen. ChatGPT als Shopping-Helfer OpenAI hat in einer Vorab-Demo dem Magazin WIRED gezeigt, wie ChatGPT künftig bei Produktsuchen unterstützen kann. Demonstriert wurde dies etwa beim Kauf von Espressomaschinen oder Bürostühlen. Die Empfehlungen basieren dabei auf Nutzerpräferenzen und Online-Bewertungen. Laut Adam Fry, Leiter des ChatGPT-Suchprodukts bei OpenAI, nutzten ChatGPT-User das Tool wöchentlich für über eine Milliarde Websuchen. Im Vordergrund stehen hierbei vor allem Bereiche wie Elektronik, Haushalt und Beauty. Quellen werden dabei transparent verlinkt. Redaktionen, die Lizenzvereinbarungen mit OpenAI eingegangen sind, sollen ihre Unabhängigkeit laut WIRED wahren können. Transparenz ohne Werbeeinflüsse Die neue Einkaufserfahrung in ChatGPT ähnelt Google Shopping, listet aber im Gegensatz zum Konkurrenten keine bezahlten Anzeigen, sondern ausschließlich organische Ergebnisse auf. Nutzer sehen bei Produktklicks Händler wie Amazon oder Walmart samt Kaufoptionen. Während Google Platzierungen teils durch Werbegelder und komplexe Algorithmen beeinflusst, soll ChatGPTs Produktsuche laut OpenAI transparent und werbefrei bleiben – zumindest vorerst. Personalisierte Produktempfehlungen statt klassische Algorithmen ChatGPT wählt OpenAI-Angaben zufolge Produktempfehlungen nicht auf Basis klassischer Algorithmus-Signale aus, sondern orientiert sich an einem dialogorientierten, personalisierten Ansatz. Im Mittelpunkt stehen statt Keywords dabei Nutzerpräferenzen, Bewertungen und Erfahrungsberichte. ChatGPT berücksichtigt dabei Inhalte aus verschiedenen Quellen – von Beiträgen aus Fachredaktionen bis hin zu Foren wie Reddit – und merkt sich persönliche Vorlieben für zukünftige Empfehlungen. Publisher fragen sich indes, wie Partnereinnahmen funktionieren werden, wenn ChatGPT künftig Produkte empfiehlt. Laut Fry will OpenAI mit verschiedenen Modellen experimentieren, legt aktuell aber den Fokus auf qualitativ hochwertige Produktempfehlungen. Konkrete Einnahmepläne gibt es bislang nicht. Langfristige Ziele von OpenAI OpenAI will sich bei ChatGPT Shopping zunächst auf das Nutzererlebnis konzentrieren und plant Weiterentwicklungen basierend auf Nutzerfeedback. Langfristig verfolgt das Unternehmen Umsatzziele von 125 Milliarden Dollar bis 2029 – 2024 waren es rund vier Milliarden. Ob Affiliate-Einnahmen dabei eine wesentliche Rolle spielen werden, ist noch offen. CEO Sam Altman sprach in einem Interview mit dem Stratechery-Newsletter-Autor Ben Thompson von einem potenziellen Beitrag für das eigene Geschäft. OpenAI hat 2025 bereits mehrere shoppingbezogene Funktionen vorgestellt, darunter den KI-Agenten „Operator“, der Nutzern beim Online-Einkauf helfen soll. Auch Konkurrenten wie Perplexity und Google integrieren zunehmend KI in ihre Einkaufserlebnisse, etwa durch direkte Kaufoptionen oder KI-generierte Produktempfehlungen. 

Shoppen mit ChatGPT​ ChatGPT soll zum digitalen Einkaufsberater werden – mit personalisierten Empfehlungen und transparenter Produktsuche.
RSplaneta – shutterstock.com

OpenAI kündigte am 28. April an, dass Nutzer bald in der Lage sein werden, Produkte über ChatGPT zu kaufen. Künftig würden Shopping-Buttons für KI-gestützte Suchanfragen für alle Nutzer verfügbar sein, unabhängig davon, ob sie angemeldet sind oder nicht. Innerhalb von ChatGPT zu bezahlen, werde allerdings nicht möglich sein; stattdessen würden die Shopper auf die jeweilige Website des Händlers weitergeleitet, um dort die Transaktion abzuschließen.

ChatGPT als Shopping-Helfer

OpenAI hat in einer Vorab-Demo dem Magazin WIRED gezeigt, wie ChatGPT künftig bei Produktsuchen unterstützen kann. Demonstriert wurde dies etwa beim Kauf von Espressomaschinen oder Bürostühlen. Die Empfehlungen basieren dabei auf Nutzerpräferenzen und Online-Bewertungen.

Laut Adam Fry, Leiter des ChatGPT-Suchprodukts bei OpenAI, nutzten ChatGPT-User das Tool wöchentlich für über eine Milliarde Websuchen. Im Vordergrund stehen hierbei vor allem Bereiche wie

Elektronik,

Haushalt und

Beauty.

Quellen werden dabei transparent verlinkt. Redaktionen, die Lizenzvereinbarungen mit OpenAI eingegangen sind, sollen ihre Unabhängigkeit laut WIRED wahren können.

Transparenz ohne Werbeeinflüsse

Die neue Einkaufserfahrung in ChatGPT ähnelt Google Shopping, listet aber im Gegensatz zum Konkurrenten keine bezahlten Anzeigen, sondern ausschließlich organische Ergebnisse auf. Nutzer sehen bei Produktklicks Händler wie Amazon oder Walmart samt Kaufoptionen.

Während Google Platzierungen teils durch Werbegelder und komplexe Algorithmen beeinflusst, soll ChatGPTs Produktsuche laut OpenAI transparent und werbefrei bleiben – zumindest vorerst.

Personalisierte Produktempfehlungen statt klassische Algorithmen

ChatGPT wählt OpenAI-Angaben zufolge Produktempfehlungen nicht auf Basis klassischer Algorithmus-Signale aus, sondern orientiert sich an einem dialogorientierten, personalisierten Ansatz. Im Mittelpunkt stehen statt Keywords dabei

Nutzerpräferenzen,

Bewertungen und

Erfahrungsberichte.

ChatGPT berücksichtigt dabei Inhalte aus verschiedenen Quellen – von Beiträgen aus Fachredaktionen bis hin zu Foren wie Reddit – und merkt sich persönliche Vorlieben für zukünftige Empfehlungen.

Publisher fragen sich indes, wie Partnereinnahmen funktionieren werden, wenn ChatGPT künftig Produkte empfiehlt. Laut Fry will OpenAI mit verschiedenen Modellen experimentieren, legt aktuell aber den Fokus auf qualitativ hochwertige Produktempfehlungen. Konkrete Einnahmepläne gibt es bislang nicht.

Langfristige Ziele von OpenAI

OpenAI will sich bei ChatGPT Shopping zunächst auf das Nutzererlebnis konzentrieren und plant Weiterentwicklungen basierend auf Nutzerfeedback. Langfristig verfolgt das Unternehmen Umsatzziele von 125 Milliarden Dollar bis 2029 – 2024 waren es rund vier Milliarden. Ob Affiliate-Einnahmen dabei eine wesentliche Rolle spielen werden, ist noch offen. CEO Sam Altman sprach in einem Interview mit dem Stratechery-Newsletter-Autor Ben Thompson von einem potenziellen Beitrag für das eigene Geschäft.

OpenAI hat 2025 bereits mehrere shoppingbezogene Funktionen vorgestellt, darunter den KI-Agenten „Operator“, der Nutzern beim Online-Einkauf helfen soll. Auch Konkurrenten wie Perplexity und Google integrieren zunehmend KI in ihre Einkaufserlebnisse, etwa durch direkte Kaufoptionen oder KI-generierte Produktempfehlungen.

Shoppen mit ChatGPT​ Weiterlesen »

Großraumbüros torpedieren Entwickler​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?quality=50&strip=all 4838w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Wenn Entwickler sich nicht konzentrieren können, hilft auch ein hippes Interieur wenig.dotshock | shutterstock.com Bislang habe ich noch keinen Softwareentwickler getroffen, der: Wert darauf legen würde, in einem Großraumbüro zu arbeiten, ein Einzelbüro verschmähen würde, oder kontinuierliche Ablenkungen und Unterbrechungen als produktivitätsfördernd empfindet. Auf der anderen Seite ist mir aber auch noch keine Führungskraft untergekommen, die absichtlich eine Arbeitsumgebung schaffen wollte, die die Konzentration behindert und damit potenziell dem Erfolg im Weg steht. Und doch gibt es genug Manager, die dennoch der Überzeugung sind, dass Softwareentwickler nicht mehr brauchen als einen Rechner, eine Netzwerkverbindung und ein paar Zentimeter Bewegungsfreiheit. Türen für Entwickler! Eigentlich sollte jeder Entwickler über ein eigenes Büro verfügen – und zwar eines mit einer Tür. Das muss kein ausuferndes Chefbüro sein: Es geht darum, den Devs die Möglichkeit zu geben, sich in einem persönlichen Raum auf ihre Aufgaben zu fokussieren. Die Realität sieht vielerorts völlig anders aus. In erster Linie, weil Einzelbüros – und in manchen Fällen sogar Raumtrenner – von vielen Unternehmen als zu teuer erachtet werden. Dass es auch anders, respektive besser geht, zeigt etwa das Beispiel von Fog Creek Software: Gründer Joel Spolsky (der auch Stack Overflow mitinitiiert hat) hat bereits vor mehr als zwanzig Jahren verstanden, wie der ideale Arbeitsplatz für Softwareentwickler aussehen sollte. Dabei könnte eine Rolle gespielt haben, dass Spolsky selbst Developer ist. Ein anderes Beispiel ist der ehemalige US-Softwareanbieter Borland (2009 von Micro Focus übernommen, das 2023 von OpenText geschluckt wurde). Das Unternehmen hatte auf dem Höhepunkt seines Erfolgs – in den 1980er Jahren (!) – einen beeindruckenden Campus in die kalifornische Landschaft gestellt, inklusive Büroräumen, die ausschließlich dem Development-Team vorbehalten waren. Die ungeschriebene Regel damals bei Borland: Wenn die Tür eines Entwicklers geschlossen war, wurde er in Ruhe gelassen. Stand sie offen, konnte man anklopfen – einen guten Grund vorausgesetzt. Das ist (beziehungsweise war) eine Kultur, die den Bedürfnissen von Entwicklern Rechnung trägt und ihre Produktivität fördert. Workspace-Cancel-Culture? Wie wir alle wissen, sind Großraumbüros jedoch inzwischen das „neue Normal“ – ihrer offensichtlichen Nachteile zum Trotz. Und als ob das nicht schon schlimm genug wäre, kamen dann noch einige Führungskräfte auf die Idee, auch Raumtrenner, Kabinen und Ähnliches zu beseitigen. Schließlich fördert das die Kollaboration ungemein und führt durch Zufall Menschen zusammen, die anschließend gemeinsam die wunderbarsten Ideen zu tragfähigen Konzepten spinnen. So zumindest die Annahme. Aus Entwicklerperspektive kann man da nur noch den Kopf schütteln. Die „Lösungen“ für solche Manager-gemachten Büroprobleme laufen dann im Regelfall auf den Vorschlag hinaus, doch einfach Kopfhörer mit Noise-Cancelling-Funktion zu nutzen. Das ist zwar grundsätzlich keine schlechte Idee, bekämpft aber nur die Symptome und nicht die Ursache. Wenn sich Entwickler per Headset abschotten müssen, um sich ansatzweise konzentrieren zu können, spricht das nicht unbedingt für ein modernes Büro-, beziehungsweise Arbeitsplatzkonzept. Eher für ein möglichst billiges. Das erscheint umso absurder, wenn man bedenkt, dass Softwareentwickler relativ hohe Gehälter beziehen und im Regelfall auch technisch höherwertiges Equipment benötigen. Auf der anderen Seite wird dann aber an ihren Arbeitsplätzen gespart und damit ihre Konzentrationsfähigkeit torpediert.   Um es auch für Manager und Führungskräfte auf den Punkt zu bringen: Man steckt Vollblüter nicht in einen Stall für Packesel. Wenn Sie also das nächste Mal ein Konzept für Entwickler-Arbeitsplätze erarbeiten, sollten Sie sich fragen, ob Sie auf Software Wert legen, die schnell und stabil läuft – oder auf einen Haufen Developer, der ganztags Kopfhörer trägt, so tut, als könne er sich auf seine Aufgaben konzentrieren – und heimlich Jobangebote sondiert. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Großraumbüros torpedieren Entwickler​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?quality=50&strip=all 4838w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Wenn Entwickler sich nicht konzentrieren können, hilft auch ein hippes Interieur wenig.dotshock | shutterstock.com

Bislang habe ich noch keinen Softwareentwickler getroffen, der:

Wert darauf legen würde, in einem Großraumbüro zu arbeiten,

ein Einzelbüro verschmähen würde, oder

kontinuierliche Ablenkungen und Unterbrechungen als produktivitätsfördernd empfindet.

Auf der anderen Seite ist mir aber auch noch keine Führungskraft untergekommen, die absichtlich eine Arbeitsumgebung schaffen wollte, die die Konzentration behindert und damit potenziell dem Erfolg im Weg steht. Und doch gibt es genug Manager, die dennoch der Überzeugung sind, dass Softwareentwickler nicht mehr brauchen als einen Rechner, eine Netzwerkverbindung und ein paar Zentimeter Bewegungsfreiheit.

Türen für Entwickler!

Eigentlich sollte jeder Entwickler über ein eigenes Büro verfügen – und zwar eines mit einer Tür. Das muss kein ausuferndes Chefbüro sein: Es geht darum, den Devs die Möglichkeit zu geben, sich in einem persönlichen Raum auf ihre Aufgaben zu fokussieren. Die Realität sieht vielerorts völlig anders aus. In erster Linie, weil Einzelbüros – und in manchen Fällen sogar Raumtrenner – von vielen Unternehmen als zu teuer erachtet werden.

Dass es auch anders, respektive besser geht, zeigt etwa das Beispiel von Fog Creek Software: Gründer Joel Spolsky (der auch Stack Overflow mitinitiiert hat) hat bereits vor mehr als zwanzig Jahren verstanden, wie der ideale Arbeitsplatz für Softwareentwickler aussehen sollte. Dabei könnte eine Rolle gespielt haben, dass Spolsky selbst Developer ist.

Ein anderes Beispiel ist der ehemalige US-Softwareanbieter Borland (2009 von Micro Focus übernommen, das 2023 von OpenText geschluckt wurde). Das Unternehmen hatte auf dem Höhepunkt seines Erfolgs – in den 1980er Jahren (!) – einen beeindruckenden Campus in die kalifornische Landschaft gestellt, inklusive Büroräumen, die ausschließlich dem Development-Team vorbehalten waren. Die ungeschriebene Regel damals bei Borland: Wenn die Tür eines Entwicklers geschlossen war, wurde er in Ruhe gelassen. Stand sie offen, konnte man anklopfen – einen guten Grund vorausgesetzt. Das ist (beziehungsweise war) eine Kultur, die den Bedürfnissen von Entwicklern Rechnung trägt und ihre Produktivität fördert.

Workspace-Cancel-Culture?

Wie wir alle wissen, sind Großraumbüros jedoch inzwischen das „neue Normal“ – ihrer offensichtlichen Nachteile zum Trotz. Und als ob das nicht schon schlimm genug wäre, kamen dann noch einige Führungskräfte auf die Idee, auch Raumtrenner, Kabinen und Ähnliches zu beseitigen. Schließlich fördert das die Kollaboration ungemein und führt durch Zufall Menschen zusammen, die anschließend gemeinsam die wunderbarsten Ideen zu tragfähigen Konzepten spinnen. So zumindest die Annahme. Aus Entwicklerperspektive kann man da nur noch den Kopf schütteln.

Die „Lösungen“ für solche Manager-gemachten Büroprobleme laufen dann im Regelfall auf den Vorschlag hinaus, doch einfach Kopfhörer mit Noise-Cancelling-Funktion zu nutzen. Das ist zwar grundsätzlich keine schlechte Idee, bekämpft aber nur die Symptome und nicht die Ursache. Wenn sich Entwickler per Headset abschotten müssen, um sich ansatzweise konzentrieren zu können, spricht das nicht unbedingt für ein modernes Büro-, beziehungsweise Arbeitsplatzkonzept. Eher für ein möglichst billiges. Das erscheint umso absurder, wenn man bedenkt, dass Softwareentwickler relativ hohe Gehälter beziehen und im Regelfall auch technisch höherwertiges Equipment benötigen. Auf der anderen Seite wird dann aber an ihren Arbeitsplätzen gespart und damit ihre Konzentrationsfähigkeit torpediert.  

Um es auch für Manager und Führungskräfte auf den Punkt zu bringen: Man steckt Vollblüter nicht in einen Stall für Packesel. Wenn Sie also das nächste Mal ein Konzept für Entwickler-Arbeitsplätze erarbeiten, sollten Sie sich fragen, ob Sie auf Software Wert legen, die schnell und stabil läuft – oder auf einen Haufen Developer, der ganztags Kopfhörer trägt, so tut, als könne er sich auf seine Aufgaben konzentrieren – und heimlich Jobangebote sondiert. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Großraumbüros torpedieren Entwickler​ Weiterlesen »

So geht DuckDB​

Allgemein

DuckDB ermöglicht Analytics-Deepdives ohne viel Aufwand. Foto: Evelyn Apinis | shutterstock.com Bei analytischen Datenbanken handelt es sich in der Regel um Applikationsungetüme. Systeme wie Snowflake, Redshift oder Postgres sind – selbst in ihrer Cloud-gehosteten Version – enorm einrichtungs- und wartungsintensiv. Für einzelne, kleinere Analytics-Tasks auf dem eigenen Desktop oder Laptop kommen solche Brummer einem Overkill gleich. Anders verhält es sich mit DuckDB, einer leichtgewichtigen aber performanten Datenbank-Engine für Analysezwecke, die in Form einer simplen Executable ums Eck kommt und entweder Standalone oder als Bibliothek im Rahmen eines Host-Prozesses läuft. In Sachen Setup und Wartung gibt sich DuckDB ähnlich asketisch wie SQLite. Konzipiert ist das Tool für schnelle, spaltenorientierte Queries. Dabei setzt DuckDB auf allseits bekannte SQL-Syntax und unterstützt Bibliotheken für alle relevanten Programmiersprachen. Sie können also mit der Sprache Ihrer Wahl programmatisch arbeiten – oder auch das Command Line Interface nutzen (auch im Rahmen einer Shell-Pipeline). Im Folgenden lesen Sie, wie Sie mit DuckDB arbeiten. Daten in DuckDB einladen Bei der Analysearbeit mit DuckDB stehen Ihnen zwei verschiedene Modi zur Verfügung: Im Persistent Mode werden die Daten auf die Festplatte geschrieben, um Workloads zu stemmen, die den Systemspeicher übersteigen. Dieser Modus kostet Geschwindigkeit. Im In-Memory Mode werden Datensätze vollständig im Speicher vorgehalten. Das sorgt für mehr Speed, allerdings ist nach Beendigung des Programms auch alles weg. DuckDB kann Daten aus einer Vielzahl von Quellen einlesen, CSV, JSON und Apache Parquet sind dabei die gängigsten. Im Fall von CSV und JSON versucht DuckDB standardmäßig, Spalten und Datentypen selbst zu ermitteln. Dieser Prozess kann bei Bedarf jedoch außer Kraft gesetzt werden, beispielsweise, um ein Format für die Datumsspalte zu spezifizieren. Darüber hinaus können auch andere Datenbanken wie MySQL oder Postgres als Datenquellen für DuckDB verwendet werden. Das funktioniert über Extensions (dazu später mehr). Um Daten aus einer externen Quelle in DuckDB zu laden, stehen Ihnen verschiedene Möglichkeiten zur Verfügung. Sie können einen SQL-String verwenden, der direkt an DuckDB übergeben wird: SELECT * FROM read_csv(‘data.csv’); Darüber hinaus können Sie auch Methoden für bestimmte Programmiersprachen über die DuckDB Interface Library nutzen. Mit der Python-Bibliothek für DuckDB sieht das Daten-Ingesting etwa wie folgt aus: import duckdb duckdb.read_csv(“data.csv”) Auch bestimmte Dateiformate wie beispielsweise Parquet direkt abzufragen, ist möglich: SELECT * FROM ‘test.parquet’; Um eine dauerhafte Datenansicht zu etablieren, die in Tabellenform für mehrere Queries verwendet werden, können Sie außerdem auf File Queries setzen: CREATE VIEW test_data AS SELECT * FROM read_parquet(‘test.parquet’); Weil DuckDB für die Arbeit mit Parquet-Dateien optimiert ist, liest es nur die Bestandteile der Datei, die es braucht. Davon abgesehen können auch andere Interfaces wie ADBC oder ODBC verwendet werden. Letzteres dient als Konnektor für Datenvisualisierungs-Tools wie Tableau. Wenn die in DuckDB importierten Daten exportiert werden sollen, ist das in diversen gängigen Dateiformaten möglich. Das macht DuckDB in Verarbeitungs-Pipelines auch zu einem nützlichen Datenkonvertierungs-Tool. Daten abfragen mit DuckDB Sobald Sie Daten in DuckDB eingeladen haben, können Sie sie mit Hilfe von SQL-Expressions abfragen. Das Format unterscheidet sich dabei nicht von “normalen” Abfragen: SELECT * FROM users WHERE ID>1000 ORDER BY Name DESC LIMIT 5; Wollen Sie für DuckDB-Queries eine Client-API nutzen, gibt es zwei Möglichkeiten: Sie können SQL-Strings über die API übergeben – oder die relationale Schnittstelle des Clients nutzen, um Datenabfragen programmatisch aufzubauen. Konkret könnte das in Python mit einer JSON-Datei wie folgt aussehen: import duckdb file = duckdb.read_json(“users.json”) file.select(“*”).filter(“ID>1000”).order(“Name”).limit(5) Im Fall von Python steht Ihnen außerdem auch die Option offen, die PySpark API zu nutzen, um DuckDB direkt abzufragen. Dabei ist anzumerken, dass die Implementierung (noch) nicht den vollen Funktionsumfang unterstützt. Der SQL-Dialekt von DuckDB enthält zudem einige Analytics-bezogene Zusatzelemente. Wollen Sie beispielsweise nur eine Teilmenge von Daten innerhalb einer Tabelle abfragen, funktioniert das über die SAMPLE Clause. Die resultierende Abfrage läuft deutlich schneller, ist aber möglicherweise auch weniger akkurat. Darüber hinaus unterstützt DuckDB unter anderem auch: das PIVOT-Keyword, um entsprechende Tabellen zu erstellen, Window-Funktionen sowie QUALIFY-Klauseln, um diese zu filtern. DuckDB Extensions Wie bereits erwähnt, ist DuckDB nicht auf die integrierten Datenformate und -verhaltensweisen beschränkt. Über die Extension API ist es auch möglich, verschiedene Addons einzubinden. Verfügbar sind zum Beispiel Extensions für: Amazon Web Services Apache Arrow Apache Iceberg Azure Excel JSON MySQL Parquet Postgres SQLite Vector Similarity Search Queries DuckDB is introducing support for vector similarity search through the new VSS extension.Read @Maxxen_‘s blog post for a sneak preview on the new extension’s capabilities: https://t.co/9qacS13wnm pic.twitter.com/rVaNcFkg1P— DuckDB (@duckdb) May 3, 2024 Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

So geht DuckDB​ DuckDB ermöglicht Analytics-Deepdives ohne viel Aufwand.
Foto: Evelyn Apinis | shutterstock.com

Bei analytischen Datenbanken handelt es sich in der Regel um Applikationsungetüme. Systeme wie Snowflake, Redshift oder Postgres sind – selbst in ihrer Cloud-gehosteten Version – enorm einrichtungs- und wartungsintensiv. Für einzelne, kleinere Analytics-Tasks auf dem eigenen Desktop oder Laptop kommen solche Brummer einem Overkill gleich.

Anders verhält es sich mit DuckDB, einer leichtgewichtigen aber performanten Datenbank-Engine für Analysezwecke, die in Form einer simplen Executable ums Eck kommt und entweder Standalone oder als Bibliothek im Rahmen eines Host-Prozesses läuft. In Sachen Setup und Wartung gibt sich DuckDB ähnlich asketisch wie SQLite. Konzipiert ist das Tool für schnelle, spaltenorientierte Queries. Dabei setzt DuckDB auf allseits bekannte SQL-Syntax und unterstützt Bibliotheken für alle relevanten Programmiersprachen. Sie können also mit der Sprache Ihrer Wahl programmatisch arbeiten – oder auch das Command Line Interface nutzen (auch im Rahmen einer Shell-Pipeline).

Im Folgenden lesen Sie, wie Sie mit DuckDB arbeiten.

Daten in DuckDB einladen

Bei der Analysearbeit mit DuckDB stehen Ihnen zwei verschiedene Modi zur Verfügung:

Im Persistent Mode werden die Daten auf die Festplatte geschrieben, um Workloads zu stemmen, die den Systemspeicher übersteigen. Dieser Modus kostet Geschwindigkeit.

Im In-Memory Mode werden Datensätze vollständig im Speicher vorgehalten. Das sorgt für mehr Speed, allerdings ist nach Beendigung des Programms auch alles weg.

DuckDB kann Daten aus einer Vielzahl von Quellen einlesen, CSV, JSON und Apache Parquet sind dabei die gängigsten. Im Fall von CSV und JSON versucht DuckDB standardmäßig, Spalten und Datentypen selbst zu ermitteln. Dieser Prozess kann bei Bedarf jedoch außer Kraft gesetzt werden, beispielsweise, um ein Format für die Datumsspalte zu spezifizieren. Darüber hinaus können auch andere Datenbanken wie MySQL oder Postgres als Datenquellen für DuckDB verwendet werden. Das funktioniert über Extensions (dazu später mehr).

Um Daten aus einer externen Quelle in DuckDB zu laden, stehen Ihnen verschiedene Möglichkeiten zur Verfügung. Sie können einen SQL-String verwenden, der direkt an DuckDB übergeben wird:

SELECT * FROM read_csv(‘data.csv’);

Darüber hinaus können Sie auch Methoden für bestimmte Programmiersprachen über die DuckDB Interface Library nutzen. Mit der Python-Bibliothek für DuckDB sieht das Daten-Ingesting etwa wie folgt aus:

import duckdb

duckdb.read_csv(“data.csv”)

Auch bestimmte Dateiformate wie beispielsweise Parquet direkt abzufragen, ist möglich:

SELECT * FROM ‘test.parquet’;

Um eine dauerhafte Datenansicht zu etablieren, die in Tabellenform für mehrere Queries verwendet werden, können Sie außerdem auf File Queries setzen:

CREATE VIEW test_data AS SELECT * FROM read_parquet(‘test.parquet’);

Weil DuckDB für die Arbeit mit Parquet-Dateien optimiert ist, liest es nur die Bestandteile der Datei, die es braucht. Davon abgesehen können auch andere Interfaces wie ADBC oder ODBC verwendet werden. Letzteres dient als Konnektor für Datenvisualisierungs-Tools wie Tableau.

Wenn die in DuckDB importierten Daten exportiert werden sollen, ist das in diversen gängigen Dateiformaten möglich. Das macht DuckDB in Verarbeitungs-Pipelines auch zu einem nützlichen Datenkonvertierungs-Tool.

Daten abfragen mit DuckDB

Sobald Sie Daten in DuckDB eingeladen haben, können Sie sie mit Hilfe von SQL-Expressions abfragen. Das Format unterscheidet sich dabei nicht von “normalen” Abfragen:

SELECT * FROM users WHERE ID>1000 ORDER BY Name DESC LIMIT 5;

Wollen Sie für DuckDB-Queries eine Client-API nutzen, gibt es zwei Möglichkeiten: Sie können SQL-Strings über die API übergeben – oder die relationale Schnittstelle des Clients nutzen, um Datenabfragen programmatisch aufzubauen. Konkret könnte das in Python mit einer JSON-Datei wie folgt aussehen:

import duckdb

file = duckdb.read_json(“users.json”)

file.select(“*”).filter(“ID>1000”).order(“Name”).limit(5)

Im Fall von Python steht Ihnen außerdem auch die Option offen, die PySpark API zu nutzen, um DuckDB direkt abzufragen. Dabei ist anzumerken, dass die Implementierung (noch) nicht den vollen Funktionsumfang unterstützt.

Der SQL-Dialekt von DuckDB enthält zudem einige Analytics-bezogene Zusatzelemente. Wollen Sie beispielsweise nur eine Teilmenge von Daten innerhalb einer Tabelle abfragen, funktioniert das über die SAMPLE Clause. Die resultierende Abfrage läuft deutlich schneller, ist aber möglicherweise auch weniger akkurat. Darüber hinaus unterstützt DuckDB unter anderem auch:

das PIVOT-Keyword, um entsprechende Tabellen zu erstellen,

Window-Funktionen sowie

QUALIFY-Klauseln, um diese zu filtern.

DuckDB Extensions

Wie bereits erwähnt, ist DuckDB nicht auf die integrierten Datenformate und -verhaltensweisen beschränkt. Über die Extension API ist es auch möglich, verschiedene Addons einzubinden. Verfügbar sind zum Beispiel Extensions für:

Amazon Web Services

Apache Arrow

Apache Iceberg

Azure

Excel

JSON

MySQL

Parquet

Postgres

SQLite

Vector Similarity Search Queries

DuckDB is introducing support for vector similarity search through the new VSS extension.Read @Maxxen_‘s blog post for a sneak preview on the new extension’s capabilities: https://t.co/9qacS13wnm pic.twitter.com/rVaNcFkg1P— DuckDB (@duckdb) May 3, 2024

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

So geht DuckDB​ Weiterlesen »

Künstliche Intelligenz programmieren: Die besten Coding-Sprachen für KI​

Allgemein

Wenn es darum geht, Künstliche Intelligenz zu programmieren, stehen Ihnen diverse Optionen zur Wahl. Wir zeigen Ihnen die besten KI-Programmiersprachen. Foto: Connect world – shutterstock.com Künstliche Intelligenz (KI) eröffnet Softwareentwicklern völlig neue Möglichkeiten: Mit Hilfe von Machine und Deep Learning lassen sich bessere Nutzerprofile und Empfehlungen, ein höherer Personalisierungsgrad, smartere Suchoptionen oder intelligentere Interfaces realisieren. Dabei stellt sich unweigerlich die Frage, welche Programmiersprache dafür zum Einsatz kommen soll. Die Anforderungen, denen eine KI-Coding-Sprache genügen muss, sind vielfältig: eine Vielzahl von Machine- und Deep-Learning-Bibliotheken sollten genauso vorhanden sein wie eine performante Laufzeitumgebung, ausgiebiger Tool Support, eine große Entwickler-Community und ein gesundes Ökosystem. Trotzdem dieser Anforderungskatalog umfassend ist, stehen Ihnen einige gute Optionen zur Wahl, wenn es darum geht, Künstliche Intelligenz zu programmieren. Wir zeigen Ihnen eine Auswahl der besten KI-Programmiersprachen. Python Wenn Sie als Developer mit künstlicher Intelligenz arbeiten, führt mit an Sicherheit grenzender Wahrscheinlichkeit kein Weg an Python vorbei. Inzwischen unterstützen auch so gut wie alle gängigen Bibliotheken Python 3.x – die Zeiten, in denen die Umstellung von Python 2.x auf 3.x Kompatibilitätsprobleme mit sich brachte, sind so gut wie vorbei. Mit anderen Worten: Sie können nun endlich auch in der Praxis von den zahlreichen neuen Features von Python 3.x profitieren. Was nicht heißen soll, dass die packaging-Hürden bei Python überhaupt keine Rolle mehr spielen – das Gros der Probleme lässt sich aber mit Hilfe von Anaconda umschiffen. Nichtsdestotrotz wäre es zu begrüßen, wenn die Python Community endlich voll und ganz von diesen Hürden befreit würde. Davon abgesehen sind die verfügbaren mathematischen und statistischen Bibliotheken von Python denen anderer Programmiersprachen weit voraus: NumPy ist inzwischen so allgegenwärtig, dass es beinahe als Standard-API für Tensor Operations bezeichnet werden kann, während Pandas die flexiblen Dataframes von R in die Python-Welt trägt. Geht es um Natural Language Processing (NLP) haben Sie die Wahl zwischen dem altehrwürdigen NLTK und dem superschnellen SpaCy, während sich für Machine-Learning-Zwecke das bewährte scikit-learn empfiehlt. Geht es hingegen um Deep Learning, sind alle aktuellen Bibliotheken (TensorFlow, PyTorch, Chainer, Apache MXNet, Theano, etc.) im Grunde “Python-first”-Projekte. Wenn Sie ein regelmäßiger Besucher von arXiv sind, wird Ihnen längst aufgefallen sein, dass die Mehrzahl der dortigen Deep-Learning-Forschungsprojekte, die Quellcode zur Verfügung stellen, dazu auf Python setzen. In Sachen Deployment-Modelle haben Microservice-Architekturen und -Technologien wie SeldonCore die Auslieferung von Python-Modellen in Produktivumgebungen wesentlich vereinfacht. Python ist zweifellos die Programmiersprache der Wahl, wenn es um KI-Forschung geht: Sie bietet die größte Auswahl an Machine und Deep Learning Frameworks und ist die Coding-Sprache, die innerhalb der KI-Welt tonangebend ist. C++ C++ ist aller Voraussicht nach nicht die erste Wahl für Ihr KI-Projekt. Allerdings wird Deep Learning im Edge-Bereich ein immer gängigeres Szenario. In diesem Fall müssen Sie Ihre Modelle auf Systemen zum Laufen bringen, die nur sehr begrenzte Ressourcen zur Verfügung haben. Um das letzte bisschen Performance aus dem System zu pressen, kann es nötig werden, noch einmal in die Untiefen der Pointer-Welt abzutauchen. Glücklicherweise kann moderner C++ Code aber tatsächlich angenehm zu schreiben sein. Hierfür stehen Ihnen mehrere Ansätze zur Wahl: Entweder Sie nutzen Bibliotheken wie Nvidias CUDA um ihren eigenen Programmcode zu schreiben, der direkt in die GPU fließt – oder Sie setzen wahlweise auf TensorFlow oder PyTorch, um Zugang zu flexiblen high-level APIs zu erlangen. Sowohl PyTorch als auch TensorFlow erlauben Ihnen, Modelle, die in Python geschrieben sind, in eine C++ Laufzeitumgebung zu integrieren. So rücken Sie deutlich näher an den Produktiveinsatz, bleiben dabei aber flexibel in der Entwicklung. Weil KI-Applikationen sich immer stärker über alle Devices – von Embedded Systems bis hin zu riesigen Clustern – hinweg ausbreiten, ist C++ ein wichtiger Bestandteil des KI-Coding-Toolkits. Um künstliche Intelligenz im Edge-Bereich zu realisieren, gilt es eben nicht nur akkurat zu programmieren, sondern auch qualitativ gut und schnell. Java und andere JVM-Sprachen Die Familie der JVM-Programmiersprachen (Java, Scala, Kotlin, Clojure, etc.) ist weiterhin eine gute Wahl, wenn es um die Entwicklung von KI-Applikationen geht. Eine reichhaltige Auswahl an Bibliotheken steht für nahezu alle Aspekte zur Auswahl – sei es Natural Language Processing (CoreNLP), Tensor Operations (ND4J) oder GPU-beschleunigtes Deep Learning (DL4J). Darüber hinaus gewährleisten diese Coding-Sprachen auch einfachen Zugang zu Big-Data-Plattformen wie Apache Spark und Apache Hadoop. Für die meisten Unternehmen ist Java die lingua franca – und mit Java 8 und neueren Versionen verliert auch die Erstellung von Java Code ihren Schrecken. Eine KI-Applikation in Java zu programmieren mag sich ein wenig langweilig anfühlen, sorgt aber in der Regel für zufriedenstellende Ergebnisse und ermöglicht Ihnen, alle existierenden Bestandteile einer Java-Infrastruktur für Entwicklung, Deployment und Monitoring einzusetzen. JavaScript JavaScript ausschließlich für die Entwicklung von KI-Applikationen zu erlernen, ist ein höchst unwahrscheinliches Szenario. Allerdings bietet Googles TensorFlow.js weiterhin eine gute Möglichkeit, Ihre Keras- und TensorFlow-Modelle über Browser oder Node.js auszuliefern. Dennoch ist der große Ansturm von JavaScript-Entwicklern im Bereich Künstliche Intelligenz bislang ausgeblieben. Das könnte daran liegen, dass das JavaScript-Ökosystem in Sachen verfügbare Bibliotheken bislang den nötigen Tiefgang vermissen lässt – zumindest im Vergleich zu Programmiersprachen wie Python. Darüber hinaus stehen auf Serverseite durch Deployment-Modelle mit Node.js (wiederum im Vergleich zu den Python-Optionen) keine wirklichen Vorteile in Aussicht. KI-Applikationen auf JavaScript-Basis dürften deshalb auch weiterhin auf Browser-Basis entstehen. Swift Swift for TensorFlow verbindet die neuesten und besten Features von TensorFlow mit den Vorteilen von Python-Bibliotheken, die sich problemlos einbinden lassen – ganz so als würden Sie Python selbst nutzen. Das fastai-Team werkelt derzeit an einer Swift-Version seiner populären Bibliothek – und stellt zahlreiche Optimierungen in Aussicht, gerade in Zusammenhang mit dem LLVM compiler. Von “production ready” kann zwar noch keine Rede sein, aber auf dieser Grundlage könnte die nächste Generation von Deep-Learning-Entwicklungsarbeit entstehen – Sie sollten Swift deshalb auf alle Fälle im Auge behalten. R R ist die Programmiersprache der Wahl für Data Scientists. Developer aus anderen Bereichen könnten die Coding-Sprache wegen ihres Dataframe-zentrischen Ansatzes hingegen als verwirrend empfinden. Für ein Team leidenschaftlicher R-Entwickler kann es durchaus Sinn machen, Integrationen mit TensorFlow, Keras oder H2O für Forschung und Prototyping einzusetzen. Hinsichtlich der Performance ist R für den Produktiveinsatz aber lediglich bedingt zu empfehlen. Zwar lässt sich performanter R Code durchaus produktiv zum Einsatz bringen, einfacher dürfte es aber in den allermeisten Fällen sein, den R-Prototypen in Java oder Python neu zu programmieren. KI programmieren – weitere Optionen Natürlich sind die vier genannten Programmiersprachen nicht die einzigen Optionen, um Künstliche Intelligenz zu programmieren. Die folgenden beiden Coding-Sprachen könnten – je nach Einsatzzweck – ebenfalls von Interesse für Ihre KI-Projekte sein: Lua Vor einigen Jahren wurde Lua als “next big thing” im Bereich der Künstlichen Intelligenz gehandelt. Das lag in erster Linie am Torch Framework – eine der populärsten Machine-Learning-Bibliotheken – sowohl für den produktiven Einsatz als auch für Forschungszwecke. Wenn Sie in ältere DeepLearning-Modelle abtauchen, finden sich oft zahlreiche Verweise auf Torch und Lua-Quellcode. Es könnte durchaus nützlich sein, sich etwas Knowhow über die Torch API anzueignen, die einige Ähnlichkeiten zur Basis-API von PyTorch aufweist. Wenn Sie allerdings kein gesteigertes Bedürfnis haben, für Ihre Applikationen in historische Forschung abzutauchen, können Sie auf Lua auch gut und gerne verzichten. Julia Bei Julia handelt es sich um eine High-Performance-Programmiersprache, die ihren Fokus auf numerische Berechnungen legt. Dadurch passt sie auch wunderbar in die mathematisch ausgerichtete Welt der Künstlichen Intelligenz. Julia mag derzeit nicht die populärste Coding-Sprache sein, allerdings bieten wrappers wie TensorFlow.jl und Mocha guten Deep Learning Support. Wenn das relativ kleine Ökosystem kein Ausschlusskriterium für Sie darstellt und Sie von Julias Fokus auf High-Performance-Berechnungen profitieren wollen, sollten Sie einen Blick riskieren. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Künstliche Intelligenz programmieren: Die besten Coding-Sprachen für KI​ Wenn es darum geht, Künstliche Intelligenz zu programmieren, stehen Ihnen diverse Optionen zur Wahl. Wir zeigen Ihnen die besten KI-Programmiersprachen.
Foto: Connect world – shutterstock.com

Künstliche Intelligenz (KI) eröffnet Softwareentwicklern völlig neue Möglichkeiten: Mit Hilfe von Machine und Deep Learning lassen sich bessere Nutzerprofile und Empfehlungen, ein höherer Personalisierungsgrad, smartere Suchoptionen oder intelligentere Interfaces realisieren. Dabei stellt sich unweigerlich die Frage, welche Programmiersprache dafür zum Einsatz kommen soll. Die Anforderungen, denen eine KI-Coding-Sprache genügen muss, sind vielfältig: eine Vielzahl von Machine- und Deep-Learning-Bibliotheken sollten genauso vorhanden sein wie eine performante Laufzeitumgebung, ausgiebiger Tool Support, eine große Entwickler-Community und ein gesundes Ökosystem.

Trotzdem dieser Anforderungskatalog umfassend ist, stehen Ihnen einige gute Optionen zur Wahl, wenn es darum geht, Künstliche Intelligenz zu programmieren. Wir zeigen Ihnen eine Auswahl der besten KI-Programmiersprachen.

Python

Wenn Sie als Developer mit künstlicher Intelligenz arbeiten, führt mit an Sicherheit grenzender Wahrscheinlichkeit kein Weg an Python vorbei. Inzwischen unterstützen auch so gut wie alle gängigen Bibliotheken Python 3.x – die Zeiten, in denen die Umstellung von Python 2.x auf 3.x Kompatibilitätsprobleme mit sich brachte, sind so gut wie vorbei. Mit anderen Worten: Sie können nun endlich auch in der Praxis von den zahlreichen neuen Features von Python 3.x profitieren. Was nicht heißen soll, dass die packaging-Hürden bei Python überhaupt keine Rolle mehr spielen – das Gros der Probleme lässt sich aber mit Hilfe von Anaconda umschiffen. Nichtsdestotrotz wäre es zu begrüßen, wenn die Python Community endlich voll und ganz von diesen Hürden befreit würde.

Davon abgesehen sind die verfügbaren mathematischen und statistischen Bibliotheken von Python denen anderer Programmiersprachen weit voraus: NumPy ist inzwischen so allgegenwärtig, dass es beinahe als Standard-API für Tensor Operations bezeichnet werden kann, während Pandas die flexiblen Dataframes von R in die Python-Welt trägt. Geht es um Natural Language Processing (NLP) haben Sie die Wahl zwischen dem altehrwürdigen NLTK und dem superschnellen SpaCy, während sich für Machine-Learning-Zwecke das bewährte scikit-learn empfiehlt. Geht es hingegen um Deep Learning, sind alle aktuellen Bibliotheken (TensorFlow, PyTorch, Chainer, Apache MXNet, Theano, etc.) im Grunde “Python-first”-Projekte.

Wenn Sie ein regelmäßiger Besucher von arXiv sind, wird Ihnen längst aufgefallen sein, dass die Mehrzahl der dortigen Deep-Learning-Forschungsprojekte, die Quellcode zur Verfügung stellen, dazu auf Python setzen. In Sachen Deployment-Modelle haben Microservice-Architekturen und -Technologien wie SeldonCore die Auslieferung von Python-Modellen in Produktivumgebungen wesentlich vereinfacht.

Python ist zweifellos die Programmiersprache der Wahl, wenn es um KI-Forschung geht: Sie bietet die größte Auswahl an Machine und Deep Learning Frameworks und ist die Coding-Sprache, die innerhalb der KI-Welt tonangebend ist.

C++

C++ ist aller Voraussicht nach nicht die erste Wahl für Ihr KI-Projekt. Allerdings wird Deep Learning im Edge-Bereich ein immer gängigeres Szenario. In diesem Fall müssen Sie Ihre Modelle auf Systemen zum Laufen bringen, die nur sehr begrenzte Ressourcen zur Verfügung haben. Um das letzte bisschen Performance aus dem System zu pressen, kann es nötig werden, noch einmal in die Untiefen der Pointer-Welt abzutauchen.

Glücklicherweise kann moderner C++ Code aber tatsächlich angenehm zu schreiben sein. Hierfür stehen Ihnen mehrere Ansätze zur Wahl: Entweder Sie nutzen Bibliotheken wie Nvidias CUDA um ihren eigenen Programmcode zu schreiben, der direkt in die GPU fließt – oder Sie setzen wahlweise auf TensorFlow oder PyTorch, um Zugang zu flexiblen high-level APIs zu erlangen. Sowohl PyTorch als auch TensorFlow erlauben Ihnen, Modelle, die in Python geschrieben sind, in eine C++ Laufzeitumgebung zu integrieren. So rücken Sie deutlich näher an den Produktiveinsatz, bleiben dabei aber flexibel in der Entwicklung.

Weil KI-Applikationen sich immer stärker über alle Devices – von Embedded Systems bis hin zu riesigen Clustern – hinweg ausbreiten, ist C++ ein wichtiger Bestandteil des KI-Coding-Toolkits. Um künstliche Intelligenz im Edge-Bereich zu realisieren, gilt es eben nicht nur akkurat zu programmieren, sondern auch qualitativ gut und schnell.

Java und andere JVM-Sprachen

Die Familie der JVM-Programmiersprachen (Java, Scala, Kotlin, Clojure, etc.) ist weiterhin eine gute Wahl, wenn es um die Entwicklung von KI-Applikationen geht. Eine reichhaltige Auswahl an Bibliotheken steht für nahezu alle Aspekte zur Auswahl – sei es Natural Language Processing (CoreNLP), Tensor Operations (ND4J) oder GPU-beschleunigtes Deep Learning (DL4J). Darüber hinaus gewährleisten diese Coding-Sprachen auch einfachen Zugang zu Big-Data-Plattformen wie Apache Spark und Apache Hadoop.

Für die meisten Unternehmen ist Java die lingua franca – und mit Java 8 und neueren Versionen verliert auch die Erstellung von Java Code ihren Schrecken. Eine KI-Applikation in Java zu programmieren mag sich ein wenig langweilig anfühlen, sorgt aber in der Regel für zufriedenstellende Ergebnisse und ermöglicht Ihnen, alle existierenden Bestandteile einer Java-Infrastruktur für Entwicklung, Deployment und Monitoring einzusetzen.

JavaScript

JavaScript ausschließlich für die Entwicklung von KI-Applikationen zu erlernen, ist ein höchst unwahrscheinliches Szenario. Allerdings bietet Googles TensorFlow.js weiterhin eine gute Möglichkeit, Ihre Keras- und TensorFlow-Modelle über Browser oder Node.js auszuliefern.

Dennoch ist der große Ansturm von JavaScript-Entwicklern im Bereich Künstliche Intelligenz bislang ausgeblieben. Das könnte daran liegen, dass das JavaScript-Ökosystem in Sachen verfügbare Bibliotheken bislang den nötigen Tiefgang vermissen lässt – zumindest im Vergleich zu Programmiersprachen wie Python. Darüber hinaus stehen auf Serverseite durch Deployment-Modelle mit Node.js (wiederum im Vergleich zu den Python-Optionen) keine wirklichen Vorteile in Aussicht. KI-Applikationen auf JavaScript-Basis dürften deshalb auch weiterhin auf Browser-Basis entstehen.

Swift

Swift for TensorFlow verbindet die neuesten und besten Features von TensorFlow mit den Vorteilen von Python-Bibliotheken, die sich problemlos einbinden lassen – ganz so als würden Sie Python selbst nutzen.

Das fastai-Team werkelt derzeit an einer Swift-Version seiner populären Bibliothek – und stellt zahlreiche Optimierungen in Aussicht, gerade in Zusammenhang mit dem LLVM compiler. Von “production ready” kann zwar noch keine Rede sein, aber auf dieser Grundlage könnte die nächste Generation von Deep-Learning-Entwicklungsarbeit entstehen – Sie sollten Swift deshalb auf alle Fälle im Auge behalten.

R

R ist die Programmiersprache der Wahl für Data Scientists. Developer aus anderen Bereichen könnten die Coding-Sprache wegen ihres Dataframe-zentrischen Ansatzes hingegen als verwirrend empfinden.

Für ein Team leidenschaftlicher R-Entwickler kann es durchaus Sinn machen, Integrationen mit TensorFlow, Keras oder H2O für Forschung und Prototyping einzusetzen. Hinsichtlich der Performance ist R für den Produktiveinsatz aber lediglich bedingt zu empfehlen. Zwar lässt sich performanter R Code durchaus produktiv zum Einsatz bringen, einfacher dürfte es aber in den allermeisten Fällen sein, den R-Prototypen in Java oder Python neu zu programmieren.

KI programmieren – weitere Optionen

Natürlich sind die vier genannten Programmiersprachen nicht die einzigen Optionen, um Künstliche Intelligenz zu programmieren. Die folgenden beiden Coding-Sprachen könnten – je nach Einsatzzweck – ebenfalls von Interesse für Ihre KI-Projekte sein:

Lua

Vor einigen Jahren wurde Lua als “next big thing” im Bereich der Künstlichen Intelligenz gehandelt. Das lag in erster Linie am Torch Framework – eine der populärsten Machine-Learning-Bibliotheken – sowohl für den produktiven Einsatz als auch für Forschungszwecke. Wenn Sie in ältere DeepLearning-Modelle abtauchen, finden sich oft zahlreiche Verweise auf Torch und Lua-Quellcode.

Es könnte durchaus nützlich sein, sich etwas Knowhow über die Torch API anzueignen, die einige Ähnlichkeiten zur Basis-API von PyTorch aufweist. Wenn Sie allerdings kein gesteigertes Bedürfnis haben, für Ihre Applikationen in historische Forschung abzutauchen, können Sie auf Lua auch gut und gerne verzichten.

Julia

Bei Julia handelt es sich um eine High-Performance-Programmiersprache, die ihren Fokus auf numerische Berechnungen legt. Dadurch passt sie auch wunderbar in die mathematisch ausgerichtete Welt der Künstlichen Intelligenz. Julia mag derzeit nicht die populärste Coding-Sprache sein, allerdings bieten wrappers wie TensorFlow.jl und Mocha guten Deep Learning Support. Wenn das relativ kleine Ökosystem kein Ausschlusskriterium für Sie darstellt und Sie von Julias Fokus auf High-Performance-Berechnungen profitieren wollen, sollten Sie einen Blick riskieren. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Künstliche Intelligenz programmieren: Die besten Coding-Sprachen für KI​ Weiterlesen »

Schwache Chefs kehren die Schwächen ihrer Mitarbeiter hervor​

Allgemein

Es sollte im Eigeninteresse der Führungskräfte liegen, die Entwicklung ihrer Mitarbeiter zu fördern und diese gemäß ihren Stärken einzusetzen. Mahmudul-Hassan – Shutterstock 2469113585 „Mein Mitarbeiter x ist extrem pedantisch.“ „Meine Mitarbeiterin y hat keinen Blick für das Nötige.“ Solche Aussagen hört man oft von Führungskräften, wenn man mit ihnen über ihre Mitarbeitenden spricht. Sehr detailliert listen sie dann häufig deren „Schwächen“ auf, dass man den Eindruck gewinnt, der Mitarbeiter hat mehr Schwächen als „Stärken“. Unweigerlich drängt sich die Frage auf: Warum hält der Arbeitgeber dann an dem Mitarbeiter fest?     Stärken sind für Führungskräfte oft nicht der Rede wert Entsprechend verhalten sich viele Führungskräfte – speziell, wenn sie selbst gestresst sind – auch in Mitarbeitergesprächen. Sie thematisieren in ihnen nach einigen einleitenden warmen Worten vor allem, was in der Vergangenheit nicht optimal verlief. Kaum Zeit verwenden sie jedoch darauf, mit dem Mitarbeitenden Folgendes zu erkunden:   Was lief gut?   Warum lief es gut?    Welche besonderen Fähigkeiten zeigte der Mitarbeiter dabei?   Unter welchen Voraussetzungen könnte er seine Stärken noch besser entfalten?   Diese Schieflage spüren auch die Mitarbeiter. Deshalb empfinden sie Mitarbeitergespräche häufig vor allem als Kritikgespräche. Folglich blicken sie ihnen auch eher mit Unbehagen entgegen, als sich auf sie zu freuen, weil sie wissen: In dem Gespräch suchen mein Chef und ich einen Weg, wie ich meine Fähigkeiten noch besser entfalten kann.      Stärken werden häufig als selbstverständlich erachtet Eine Ursache hierfür ist: Vieles, was wir selbst gut machen, erachten wir als selbstverständlich. So erfüllt es zum Beispiel manch guten Organisator nicht mit Stolz, dass er gut organisieren kann. Und viele exzellente Zuhörer sind nicht stolz darauf, gut zuhören zu können. Entweder, weil ihnen diese Fähigkeit nicht bewusst ist, oder weil sie dieses Können als selbstverständlich erachten.  Anders ist es mit den Denk- und Verhaltensmustern, an denen wir uns regelmäßig stoßen. Sei es, weil wir ein anderes Wunschbild von uns haben oder weil sie uns im Alltag tatsächlich häufig Probleme bereiten. Mit diesen unerwünschten Denk- und Verhaltensmustern beschäftigen sich viele Menschen tagein, tagaus. Und diese „Schwächen“ versuchen sie abzubauen, statt ihre Stärken auszubauen.    Stärken werden oft erst im Rückblick wertgeschätzt Ähnlich verhalten sich viele Führungskräfte. Auch sie erachten das, was ihre Mitarbeiter gut können und tun, oft als selbstverständlich. Sei es, dass sie alle Termine einhalten oder viel Eigeninitiative zeigen. Also verlieren sie hierüber keine großen Worte. Stattdessen wenden sie ihre Aufmerksamkeit den Verhaltensmustern zu, bei denen ihre „Untergebenen“ ihrem Wunschbild des „idealen“ Mitarbeiters nicht entsprechen – selbst, wenn diese für den Arbeitserfolg eine geringe Bedeutung haben.   Ein Umdenken erfolgt oft erst, wenn der Mitarbeiter den Betrieb verlässt und ein neuer seinen Platz einnimmt. Dann wird der Alte häufig glorifiziert und ist das, was zuvor selbstverständlich war, plötzlich nicht mehr selbstverständlich. Plötzlich werden die Stärken des Ex-Mitarbeiters gewürdigt und seine Schwächen sind nur noch ein Anlass für Anekdoten. Und alle beklagen, dass dieser „wertvolle Mitarbeiter“ den Betrieb verließ – nur weil er meinte, er könne in ihm seine Fähigkeiten nicht entfalten und sein Können werde in ihm nicht ausreichend „wertgeschätzt“.  Deshalb sollten Führungskräfte, wenn sie mit einem Mitarbeiter über dessen Arbeit und künftige Entwicklung sprechen, mit ihm vor allem erörtern:   Warum hat der Mitarbeiter diese und jene Aufgabe gut erledigt?   Welche wichtigen Fähigkeiten zeigte er dabei?   Wie sollte sein Arbeitsfeld künftig gestaltet sein, damit er sie noch stärker entfalten kann?   Denn aus den Mitarbeitern werden mit der Zeit nur Spitzenkönner, wenn diese ihre Zeit und Energie auf die Dinge verwenden, wo sie überdurchschnittliche Skills besitzen. Verwenden sie hingegen ihre Energien vor allem darauf, ihre „Schwächen“ zu beseitigen, statt ihre Talente zu schleifen, entwickeln sie sich nie über die Mittelmäßigkeit hinaus.     Führungskräfte profitieren vom Wachsen ihrer Mitarbeiter Das heißt wiederum für die Führungskräfte: Sie müssen das Tun ihrer Mitarbeiter regelmäßig kontrollieren – was alle nervt. Sie können ihnen zudem nicht mit der Zeit stets komplexere und schwierige Aufgaben übertragen – was letztlich auch zu einer Entlastung von ihnen selbst führen würde.   Deshalb sollte es im Eigeninteresse der Führungskräfte liegen, die Entwicklung ihrer Mitarbeiter zu fördern und diese gemäß ihren Stärken, also Fähigkeiten, einzusetzen. Denn nur dann kann sich letztlich auch das gesamte Team zu einem Hochleistungsteam entwickeln. Das wäre auch für ihr eigenes beruflichen Fortkommen förderlich, denn: Die Leistung einer Führungskraft wird stets an der Leistung ihres Teams gemessen.  

Schwache Chefs kehren die Schwächen ihrer Mitarbeiter hervor​ Es sollte im Eigeninteresse der Führungskräfte liegen, die Entwicklung ihrer Mitarbeiter zu fördern und diese gemäß ihren Stärken einzusetzen. Mahmudul-Hassan – Shutterstock 2469113585

„Mein Mitarbeiter x ist extrem pedantisch.“ „Meine Mitarbeiterin y hat keinen Blick für das Nötige.“ Solche Aussagen hört man oft von Führungskräften, wenn man mit ihnen über ihre Mitarbeitenden spricht. Sehr detailliert listen sie dann häufig deren „Schwächen“ auf, dass man den Eindruck gewinnt, der Mitarbeiter hat mehr Schwächen als „Stärken“. Unweigerlich drängt sich die Frage auf: Warum hält der Arbeitgeber dann an dem Mitarbeiter fest?  

 

Stärken sind für Führungskräfte oft nicht der Rede wert

Entsprechend verhalten sich viele Führungskräfte – speziell, wenn sie selbst gestresst sind – auch in Mitarbeitergesprächen. Sie thematisieren in ihnen nach einigen einleitenden warmen Worten vor allem, was in der Vergangenheit nicht optimal verlief. Kaum Zeit verwenden sie jedoch darauf, mit dem Mitarbeitenden Folgendes zu erkunden:  

Was lief gut?  

Warum lief es gut?   

Welche besonderen Fähigkeiten zeigte der Mitarbeiter dabei?  

Unter welchen Voraussetzungen könnte er seine Stärken noch besser entfalten?  

Diese Schieflage spüren auch die Mitarbeiter. Deshalb empfinden sie Mitarbeitergespräche häufig vor allem als Kritikgespräche. Folglich blicken sie ihnen auch eher mit Unbehagen entgegen, als sich auf sie zu freuen, weil sie wissen: In dem Gespräch suchen mein Chef und ich einen Weg, wie ich meine Fähigkeiten noch besser entfalten kann.  

  

Stärken werden häufig als selbstverständlich erachtet

Eine Ursache hierfür ist: Vieles, was wir selbst gut machen, erachten wir als selbstverständlich. So erfüllt es zum Beispiel manch guten Organisator nicht mit Stolz, dass er gut organisieren kann. Und viele exzellente Zuhörer sind nicht stolz darauf, gut zuhören zu können. Entweder, weil ihnen diese Fähigkeit nicht bewusst ist, oder weil sie dieses Können als selbstverständlich erachten. 

Anders ist es mit den Denk- und Verhaltensmustern, an denen wir uns regelmäßig stoßen. Sei es, weil wir ein anderes Wunschbild von uns haben oder weil sie uns im Alltag tatsächlich häufig Probleme bereiten. Mit diesen unerwünschten Denk- und Verhaltensmustern beschäftigen sich viele Menschen tagein, tagaus. Und diese „Schwächen“ versuchen sie abzubauen, statt ihre Stärken auszubauen. 

 

Stärken werden oft erst im Rückblick wertgeschätzt

Ähnlich verhalten sich viele Führungskräfte. Auch sie erachten das, was ihre Mitarbeiter gut können und tun, oft als selbstverständlich. Sei es, dass sie alle Termine einhalten oder viel Eigeninitiative zeigen. Also verlieren sie hierüber keine großen Worte. Stattdessen wenden sie ihre Aufmerksamkeit den Verhaltensmustern zu, bei denen ihre „Untergebenen“ ihrem Wunschbild des „idealen“ Mitarbeiters nicht entsprechen – selbst, wenn diese für den Arbeitserfolg eine geringe Bedeutung haben.  

Ein Umdenken erfolgt oft erst, wenn der Mitarbeiter den Betrieb verlässt und ein neuer seinen Platz einnimmt. Dann wird der Alte häufig glorifiziert und ist das, was zuvor selbstverständlich war, plötzlich nicht mehr selbstverständlich. Plötzlich werden die Stärken des Ex-Mitarbeiters gewürdigt und seine Schwächen sind nur noch ein Anlass für Anekdoten. Und alle beklagen, dass dieser „wertvolle Mitarbeiter“ den Betrieb verließ – nur weil er meinte, er könne in ihm seine Fähigkeiten nicht entfalten und sein Können werde in ihm nicht ausreichend „wertgeschätzt“. 

Deshalb sollten Führungskräfte, wenn sie mit einem Mitarbeiter über dessen Arbeit und künftige Entwicklung sprechen, mit ihm vor allem erörtern:  

Warum hat der Mitarbeiter diese und jene Aufgabe gut erledigt?  

Welche wichtigen Fähigkeiten zeigte er dabei?  

Wie sollte sein Arbeitsfeld künftig gestaltet sein, damit er sie noch stärker entfalten kann?  

Denn aus den Mitarbeitern werden mit der Zeit nur Spitzenkönner, wenn diese ihre Zeit und Energie auf die Dinge verwenden, wo sie überdurchschnittliche Skills besitzen. Verwenden sie hingegen ihre Energien vor allem darauf, ihre „Schwächen“ zu beseitigen, statt ihre Talente zu schleifen, entwickeln sie sich nie über die Mittelmäßigkeit hinaus.  

 

Führungskräfte profitieren vom Wachsen ihrer Mitarbeiter

Das heißt wiederum für die Führungskräfte: Sie müssen das Tun ihrer Mitarbeiter regelmäßig kontrollieren – was alle nervt. Sie können ihnen zudem nicht mit der Zeit stets komplexere und schwierige Aufgaben übertragen – was letztlich auch zu einer Entlastung von ihnen selbst führen würde.  

Deshalb sollte es im Eigeninteresse der Führungskräfte liegen, die Entwicklung ihrer Mitarbeiter zu fördern und diese gemäß ihren Stärken, also Fähigkeiten, einzusetzen. Denn nur dann kann sich letztlich auch das gesamte Team zu einem Hochleistungsteam entwickeln. Das wäre auch für ihr eigenes beruflichen Fortkommen förderlich, denn: Die Leistung einer Führungskraft wird stets an der Leistung ihres Teams gemessen. 

Schwache Chefs kehren die Schwächen ihrer Mitarbeiter hervor​ Weiterlesen »

Istio – Googles Service-Mesh-Plattform erklärt​

Allgemein

Googles quelloffene Service-Mesh-Plattform Istio verspricht Unterstützung bei übermäßig komplexen Microservices-Umgebungen. Foto: Studio concept | shutterstock.com Microservices-Architekturen lösen einige Problemstellungen auf, führen jedoch auch einige neue ein: Applikationen in unabhängige Services aufzusplitten, vereinfacht es zwar, diese zu entwickeln, zu aktualisieren und zu skalieren. Aber es müssen auch bedeutend mehr bewegliche Teile verbunden und abgesichert werden. Sämtliche Netzwerk-Services wie Load Balancing, Traffic Management, Authentifizierung und Autorisierung zu managen, kann sich deshalb äußerst komplex gestalten. Der vernetzte Raum zwischen den Services in Ihrem Kubernetes-Cluster hat auch einen Namen: Service Mesh. Ein solches stellt Google mit dem Open-Source-Projekt Istio zur Verfügung. Im Folgenden betrachten wir die Komponenten und Vorteile dieser quelloffenen Service-Mesh-Plattform. Zur Orientierung zunächst ein kurzes Erklärstück in Videoform: Istio Service Mesh – Komponenten Istio fungiert als Service Mesh, indem es zwei grundlegende Architekturkomponenten für Ihr Cluster bereitstellt: eine Data Plane (Datenebene) und eine Control Plane (Steuerungsebene). Die Data Plane wickelt den Netzwerkverkehr zwischen den Services im Mesh über eine Gruppe von Netzwerk-Proxies ab. Im Fall von Istio läuft das über das Open-Source-Projekt Envoy. Die Control Plane bildet ein Services namens Istiod. Dieser kann für Service-Discovery- und -Management-Zwecke eingesetzt werden und generiert zudem die Zertifikate, die für eine sichere Kommunikation auf dieser Ebene nötig sind. Eine relativ neue Istio-Funktion ist der sogenannte Ambient-Modus, der ein Istio-Deployment möglich macht, ohne jeder Kubernetes-App einen Envoy-Proxy zur Seite zu stellen. Darüber hinaus bietet Istio auch APIs, um diese Dienste zu steuern. Diese fallen in verschiedene Kategorien, die wir Ihnen nachfolgend vorstellen. Virtual Services ermöglichen es, Regeln dafür zu definieren, wie der Datenverkehr geroutet wird. Dabei kann jeder Virtual Service dazu genutzt werden, den Traffic an einen tatsächlichen Service im Mesh zu leiten. Wenn Sie beispielsweise zwei Implementierungen für eine bestimmte API im Rahmen eines A/B-Tests überprüfen wollen, können Sie jeweils eine Hälfte des Datenverkehrs an die unterschiedlichen API-Versionen weiterleiten. Destination Rules steuern, was mit dem Datenverkehr geschieht, nachdem er durch einen Virtual Service geleitet wurde. So lässt sich beispielsweise realisieren, dass Traffic der an unterschiedlichen Ports aufläuft auch unterschiedlichen Load-Balancing-Richtlinien unterliegt. Gateways managen den gesamten ein- und ausgehenden Traffic des Service Mesh – inklusive Load Balancing und L4-L6-Netzwerkprotokollierungsmaßnahmen. Es ist auch möglich, einen Virtual Service an ein Gateway zu koppen, um den Datenfluss zu kontrollieren. Als Ingress-Controller können in Istio der NGINX-Webserver und dessen Proxysystem verwendet werden. Auf diese Weise können die NGINX-Funktionen für erweitertes Load Balancing und Traffic Routing genutzt werden. Service Entries ermöglichen, die Registry von Istio um um bekannte Services zu erweitern. Ein registriertes Dienst wie eine externe API wird so wie ein Bestandteil des Istio-Mesh behandelt (auch wenn das eigentlich nicht der Fall ist). Sidecars unterstützen bei der Konfiguration von Istio, Beispielsweise wenn es um Envoy-Proxies geht, die standardmäßig so konfiguriert sind, dass sie eingehenden Traffic bei allen Ports und ausgehenden Traffic für jeden anderen Workload innerhalb des Mesh ermöglichen. Was das Istio Service Mesh bringt Mit seinem Open-Source-Projekt kann Google Anwenderunternehmen zahlreiche Benefits erschließen. Dazu zählen unter anderem: Abstraktion ist der wertvollste Benefit von Istio: Die quelloffene Lösung ermöglicht, die Komplexität eines Service Mesh “auf Distanz zu halten”. Sämtliche Änderungen am Mesh lassen sich programmatisch über entsprechende Befehle vornehmen – statt eine Vielzahl von Komponenten händisch zu konfigurieren und darauf zu hoffen, dass alles ordnungsgemäß abläuft. Mit dem Mesh verbundene Services müssen zudem nicht “von innen” umprogrammiert werden, um neuen Netzwerk-Richtlinien gerecht zu werden. Und auch die Bereiche zwischen den Diensten müssen nicht mehr direkt angefasst werden. Nicht-destruktive oder vorläufige Änderungen an der Netzwerkkonfiguration des Clusters vornehmen zu können, ist ein weiterer Vorteil: Wenn Sie ein neues Netzwerklayout ganz oder teilweise einführen möchten oder die aktuelle Konfiguration mit einer potenziellen zukünftigen vergleichen möchten, ist das mit Googles quelloffener Plattform möglich – und zwar top down. Sämtliche Änderungen lassen sich dabei auch wieder rückgängig machen, falls sie sich als untauglich erweisen. Observability zählt ebenfalls zu den Istio-Benefits: Die Plattform liefert detaillierte Statistiken und Reportings darüber, was zwischen Containern und Cluster-Knoten vor sich geht. Sollten dabei unvorhergesehene Probleme auftauchen, lässt sich das im Handumdrehen analysieren. Auch gängige Patterns lassen sich mit Googles Service-Mesh-Plattform umsetzen. Beispielsweise das Circuit-Breaker-Pattern – eine Methode, um zu verhindern, dass ein Service mit Anfragen bombardiert wird. Istio bietet dieses und andere Patterns im Rahmen seiner Standardbibliothek im Bereich Richtliniendurchsetzung. Davon abgesehen ist Istio dank offener Standards auch plattformunabhängig – obwohl es relativ eng mit Kubernetes integriert. Die Service-Mesh-Plattform kann als Standalone-Lösung auf individuellen Systemen oder auch auf Orchestrierungs-Lösungen wie Mesos und Nomad eingesetzt werden. Erste Schritte mit Googles Istio Falls Sie bereits einschlägige Kubernetes-Erfahrungen gesammelt haben, empfiehlt es sich, Istio mit einem (nicht produktiven) Cluster und Ihrer bevorzugten Bereitstellungsmethode zu testen. Damit können Sie eine Beispiel-Applikation erstellen, um gängige Funktionalitäten zu testen und grundlegende Erfahrungen mit der Service-Mesh-Plattform zu sammeln, bevor Sie sie in der Produktion einsetzen. Red Hat, das sich im Rahmen seines OpenShift-Projekts ebenfalls an Istio beteiligt hat, hat einige Tutorials im Angebot, die Sie durch gängige Deployment- und Management-Szenarien führen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Istio – Googles Service-Mesh-Plattform erklärt​ Googles quelloffene Service-Mesh-Plattform Istio verspricht Unterstützung bei übermäßig komplexen Microservices-Umgebungen.
Foto: Studio concept | shutterstock.com

Microservices-Architekturen lösen einige Problemstellungen auf, führen jedoch auch einige neue ein: Applikationen in unabhängige Services aufzusplitten, vereinfacht es zwar, diese zu entwickeln, zu aktualisieren und zu skalieren. Aber es müssen auch bedeutend mehr bewegliche Teile verbunden und abgesichert werden. Sämtliche Netzwerk-Services wie Load Balancing, Traffic Management, Authentifizierung und Autorisierung zu managen, kann sich deshalb äußerst komplex gestalten.

Der vernetzte Raum zwischen den Services in Ihrem Kubernetes-Cluster hat auch einen Namen: Service Mesh. Ein solches stellt Google mit dem Open-Source-Projekt Istio zur Verfügung. Im Folgenden betrachten wir die Komponenten und Vorteile dieser quelloffenen Service-Mesh-Plattform.

Zur Orientierung zunächst ein kurzes Erklärstück in Videoform:

Istio Service Mesh – Komponenten

Istio fungiert als Service Mesh, indem es zwei grundlegende Architekturkomponenten für Ihr Cluster bereitstellt: eine Data Plane (Datenebene) und eine Control Plane (Steuerungsebene).

Die Data Plane wickelt den Netzwerkverkehr zwischen den Services im Mesh über eine Gruppe von Netzwerk-Proxies ab. Im Fall von Istio läuft das über das Open-Source-Projekt Envoy.

Die Control Plane bildet ein Services namens Istiod. Dieser kann für Service-Discovery- und -Management-Zwecke eingesetzt werden und generiert zudem die Zertifikate, die für eine sichere Kommunikation auf dieser Ebene nötig sind.

Eine relativ neue Istio-Funktion ist der sogenannte Ambient-Modus, der ein Istio-Deployment möglich macht, ohne jeder Kubernetes-App einen Envoy-Proxy zur Seite zu stellen. Darüber hinaus bietet Istio auch APIs, um diese Dienste zu steuern. Diese fallen in verschiedene Kategorien, die wir Ihnen nachfolgend vorstellen.

Virtual Services ermöglichen es, Regeln dafür zu definieren, wie der Datenverkehr geroutet wird. Dabei kann jeder Virtual Service dazu genutzt werden, den Traffic an einen tatsächlichen Service im Mesh zu leiten. Wenn Sie beispielsweise zwei Implementierungen für eine bestimmte API im Rahmen eines A/B-Tests überprüfen wollen, können Sie jeweils eine Hälfte des Datenverkehrs an die unterschiedlichen API-Versionen weiterleiten.

Destination Rules steuern, was mit dem Datenverkehr geschieht, nachdem er durch einen Virtual Service geleitet wurde. So lässt sich beispielsweise realisieren, dass Traffic der an unterschiedlichen Ports aufläuft auch unterschiedlichen Load-Balancing-Richtlinien unterliegt.

Gateways managen den gesamten ein- und ausgehenden Traffic des Service Mesh – inklusive Load Balancing und L4-L6-Netzwerkprotokollierungsmaßnahmen. Es ist auch möglich, einen Virtual Service an ein Gateway zu koppen, um den Datenfluss zu kontrollieren. Als Ingress-Controller können in Istio der NGINX-Webserver und dessen Proxysystem verwendet werden. Auf diese Weise können die NGINX-Funktionen für erweitertes Load Balancing und Traffic Routing genutzt werden.

Service Entries ermöglichen, die Registry von Istio um um bekannte Services zu erweitern. Ein registriertes Dienst wie eine externe API wird so wie ein Bestandteil des Istio-Mesh behandelt (auch wenn das eigentlich nicht der Fall ist).

Sidecars unterstützen bei der Konfiguration von Istio, Beispielsweise wenn es um Envoy-Proxies geht, die standardmäßig so konfiguriert sind, dass sie eingehenden Traffic bei allen Ports und ausgehenden Traffic für jeden anderen Workload innerhalb des Mesh ermöglichen.

Was das Istio Service Mesh bringt

Mit seinem Open-Source-Projekt kann Google Anwenderunternehmen zahlreiche Benefits erschließen. Dazu zählen unter anderem:

Abstraktion ist der wertvollste Benefit von Istio: Die quelloffene Lösung ermöglicht, die Komplexität eines Service Mesh “auf Distanz zu halten”. Sämtliche Änderungen am Mesh lassen sich programmatisch über entsprechende Befehle vornehmen – statt eine Vielzahl von Komponenten händisch zu konfigurieren und darauf zu hoffen, dass alles ordnungsgemäß abläuft. Mit dem Mesh verbundene Services müssen zudem nicht “von innen” umprogrammiert werden, um neuen Netzwerk-Richtlinien gerecht zu werden. Und auch die Bereiche zwischen den Diensten müssen nicht mehr direkt angefasst werden.

Nicht-destruktive oder vorläufige Änderungen an der Netzwerkkonfiguration des Clusters vornehmen zu können, ist ein weiterer Vorteil: Wenn Sie ein neues Netzwerklayout ganz oder teilweise einführen möchten oder die aktuelle Konfiguration mit einer potenziellen zukünftigen vergleichen möchten, ist das mit Googles quelloffener Plattform möglich – und zwar top down. Sämtliche Änderungen lassen sich dabei auch wieder rückgängig machen, falls sie sich als untauglich erweisen.

Observability zählt ebenfalls zu den Istio-Benefits: Die Plattform liefert detaillierte Statistiken und Reportings darüber, was zwischen Containern und Cluster-Knoten vor sich geht. Sollten dabei unvorhergesehene Probleme auftauchen, lässt sich das im Handumdrehen analysieren.

Auch gängige Patterns lassen sich mit Googles Service-Mesh-Plattform umsetzen. Beispielsweise das Circuit-Breaker-Pattern – eine Methode, um zu verhindern, dass ein Service mit Anfragen bombardiert wird. Istio bietet dieses und andere Patterns im Rahmen seiner Standardbibliothek im Bereich Richtliniendurchsetzung.

Davon abgesehen ist Istio dank offener Standards auch plattformunabhängig – obwohl es relativ eng mit Kubernetes integriert. Die Service-Mesh-Plattform kann als Standalone-Lösung auf individuellen Systemen oder auch auf Orchestrierungs-Lösungen wie Mesos und Nomad eingesetzt werden.

Erste Schritte mit Googles Istio

Falls Sie bereits einschlägige Kubernetes-Erfahrungen gesammelt haben, empfiehlt es sich, Istio mit einem (nicht produktiven) Cluster und Ihrer bevorzugten Bereitstellungsmethode zu testen. Damit können Sie eine Beispiel-Applikation erstellen, um gängige Funktionalitäten zu testen und grundlegende Erfahrungen mit der Service-Mesh-Plattform zu sammeln, bevor Sie sie in der Produktion einsetzen.

Red Hat, das sich im Rahmen seines OpenShift-Projekts ebenfalls an Istio beteiligt hat, hat einige Tutorials im Angebot, die Sie durch gängige Deployment- und Management-Szenarien führen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Istio – Googles Service-Mesh-Plattform erklärt​ Weiterlesen »

Nach oben scrollen
×