Computerhaus Quickborn

Allgemein

SAP will KI allgegenwärtig machen​

Allgemein

width=”1888″ height=”1062″ sizes=”(max-width: 1888px) 100vw, 1888px”>KI soll die Art und Weise, wie Nutzerinnen und Nutzer mit SAP arbeiten, von Grund auf verändern.TenPixels – shutterstock.com „Wir machen wir KI für Unternehmen greifbar und treiben die digitale Transformation voran, damit unsere Kunden in einer zunehmend unberechenbaren Welt erfolgreich sein können“, verspricht SAP-Chef Christian Klein zur Eröffnung der diesjährigen Sapphire in Orlando, Florida. Der deutsche Softwarekonzern stellt dazu Erweiterungen von Joule, Partnerschaften mit anderen KI-Pionieren sowie neue Features für die Business Data Cloud und die Business Suite vor. „SAP kombiniert die weltweit leistungsfähigste Suite von Geschäftsanwendungen mit einer einzigartigen Datenvielfalt und den neuesten KI-Innovationen, um Mehrwerte für die Kunden zu schaffen“, so Klein.   KI greifbar machen und so die digitale Transformation vorantreiben – das ist der Plan, mit dem SAP-Chef Christian Klein seine Kunden überzeugen will.Christian Klein (SAP) / Supplied Sein Kollege Thomas Saueressig, als SAP-Vorstand verantwortlich für den Bereich Customer Services & Delivery, spricht zur diesjährigen Sapphire von einem regelrechten Feuerwerk an Innovationen. Der Blick des Managers richtet sich dabei vor allem auf SAPs Copiloten Joule und ein wachsendes Netz von KI-Agenten. Joule werde die Art und Weise verändern, wie Menschen arbeiten und Unternehmen funktionieren, stellt Saueressig seinen Kunden in Aussicht. 34.000 Betriebe würden bereits mit SAPs Business AI arbeiten. 230 AI-Szenarien seien heute schon fest im eigenen Softwarekosmos eingebettet – bis Ende 2025 sollen es über 400 sein. Joule soll User den ganzen Tag begleiten Joule soll als Begleiter der Anwenderinnen und Anwender allgegenwärtig werden, so der Plan der SAP-Verantwortlichen. Der KI-Assistent soll die User während ihres gesamten Tages begleiten können, sowohl innerhalb wie auch außerhalb des SAP-Anwendungsuniversums. Der Business-Copilot sei in der Lage, Daten zu finden, daraus Erkenntnisse in Echtzeit zu gewinnen und Arbeitsabläufe zu optimieren. Generative-AI-Funktionen: SAP stellt mit Joule einen eigenen KI-Bot vor Rund um Joule baut SAP zusätzliche Tools, um Anwendern die Nutzung des KI-Assistenten so komfortabel wie möglich zu machen. Beispielsweise soll es eine Art Aktionsleiste geben, die von SAP WalkMe angetrieben wird und das Nutzerverhalten über alle Anwendungen hinweg untersucht. Damit entwickle sich Joule zu einer proaktiven KI, die die Bedürfnisse der Nutzer vorhersehe, bevor sie entstehen, hieß es in einer Mitteilung des Softwarekonzerns. Zusätzlich will SAP seinen Kunden im Rahmen einer Partnerschaft mit Perplexity eine Business Answer Engine an die Hand geben. Damit könnten User auch außerhalb von SAP Fragen an Joule stellen. Anwender könnten eine Wirtschaftsmeldung auf einer Nachrichtenseite, beispielsweise zu neuen Zöllen, markieren und Joule direkt fragen, was dies für das eigene Business bedeute, beschreibt Saueressig ein mögliches Szenario. Der Copilot könne diese Meldung dann direkt mit Daten aus dem SAP-System verknüpfen und entsprechend Tipps geben, wie das Unternehmen angesichts der Veränderungen reagieren sollte. KI-Agenten unter Kontrolle Neben Joule arbeitet SAP eigenen Angaben zufolge mit Hochdruck am Bau weiterer KI-Agenten. Diese Agenten, die auf Geschäftsdaten aus der eigenen Business Data Cloud (BCD) basieren und von Joule orchestriert werden, sollen system- und bereichsübergreifend arbeiten können, um zu antizipieren, sich anzupassen und eigenständig zu handeln. Unternehmen könnten damit in einer sich schnell verändernden Welt agil bleiben, verspricht SAP. Zusätzlich kündigt SAP eine Art Betriebssystem für die KI-Entwicklung an. Die SAP AI Foundation biete Entwicklern Zugang zu allen Werkzeugen, die sie für den Aufbau, die Erweiterung und den Betrieb benutzerdefinierter KI-Lösungen benötigten. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/6v903pU89NSQ7NqzN8GPKx?utm_source=oembed”> Damit Anwenderunternehmen angesichts immer zahlreicherer KI-Agenten nicht den Überblick verlieren, hat SAP außerdem eine erweiterte Bibliothek von KI-Agenten vorgestellt. Darüber hinaus arbeitet SAP mit anderen KI-Anbietern zusammen, um ein Ökosystem interoperabler Agenten auf die Beine zu stellen, die End-to-End-Prozesse ausführen können. SAP-Manager Saueressig nennt an dieser Stelle Googles A2A-Initiative. Das Agent-to-Agent-Protocol soll plattformübergreifend Spezifikationen anbieten, damit KI-Agenten verschiedener Anbieter interagieren können. SAP kooperiert mit Palantir Für die Business Data Cloud (BDC) hat SAP außerdem neue intelligente Anwendungen sogenannte Insight Apps angekündigt. Diese Apps sollen Unternehmen helfen, Routinearbeiten durch eine Kombination aus Standardgeschäftskennzahlen, KI-Modellen und integrierten Planungsfunktionen zu optimieren. Der Softwarekonzern nennt als Beispiel die Anwendung People Intelligence. Diese verknüpft Daten zu Mitarbeitern und Fähigkeiten aus der SAP SuccessFactors HCM Suite für tiefere Einblicke in die Belegschaft. Mit Hilfe KI-gesteuerter Empfehlungen sollen Führungskräfte die Teamleistung optimieren, das Mitarbeiterwachstum fördern und die Einhaltung von Vorschriften gewährleisten können, hieß es. In Sachen Datenanalysen will SAP außerdem enger mit dem Analytics-Spezialisten Palantir zusammenarbeiten. Die Nutzung der entsprechenden Werkzeuge im SAP-Kontext sei jedoch optional, relativiert Saueressig und versucht so Bedenken hinsichtlich der Kooperation mit dem umstrittenen Softwareanbieter zu zerstreuen. Vor allem Kunden in den USA nutzten die Tools von Palantir, begründet der SAP-Manager die engere Zusammenarbeit. Wer hat S/4HANA gesehen? Den Schlussakkord in SAPs Dreiklang aus Geschäftsdaten, Business AI und Geschäftsanwendungen setzt die Business Suite. Zur Sapphire stellt der Softwarehersteller zusätzliche Pakete für dedizierte Anwendungsbereiche vor – beispielsweise Finance, Supply Chain Management (SCM), Human Capital Management (HCM), das Strategic Procurement und das Kundenmanagement. Unter dem im Februar dieses Jahres vorgestellten Label Business Suite, mit der der Konzern in alten On-Premises-Zeiten große Erfolge gefeiert hatte, versteht SAP ein modulares Set verschiedener miteinander integrierter Lösungen. Konkret nennt der Anbieter Cloud ERP, Business Applikationen, die Business Data Cloud und Business AI sowie als gemeinsame Basis die Business Technology Platform (BTP). Mit integriert ist außerdem SAP Build, um Kunden dabei zu helfen, ihre Anwendungen an individuelle Anforderungen anzupassen – ohne dabei allerdings in ein zu starkes Customizing abzudriften und immer einen „Clean Core“ zu behalten. SAP baut neue Business Suite in der Cloud Auffallend an dieser Stelle: SAP spricht im Zusammenhang mit Business-Anwendungen nur noch von Cloud ERP und der Business Suite. Der Name S/4HANA, der die Strategie der SAP im zurückliegenden Jahrzehnt maßgeblich bestimmt hat, fällt gar nicht mehr. In einem 26-seitigen Innovation-Guide, den SAP zu Sapphire 2025 veröffentlicht hat, wird S/4HANA kein einziges Mal erwähnt. Inwieweit damit ein regelrechter Strategiewechsel einhergeht oder ob es sich lediglich um ein Umlabeln handelt, ist noch nicht klar ersichtlich. Vielleicht möchte SAP an dieser Stelle auch einen Schlussstrich ziehen unter die ständigen Migrationsdiskussionen der vergangenen Jahre. Viele Unternehmen verbinden mit S/4HANA langwierige und kostenintensive Umstiegsprojekte und haben vielfach noch gar damit nicht angefangen, obwohl das Support-Ende für das Vorgänger-Release immer näher rückt. SAP verspricht einfachere Preis- und Lizenzmodelle SAP-Vorstand Saueressig verspricht seinen Kunden zur diesjährigen Sapphire jedenfalls, dass künftig vieles einfacher soll – angefangen von der Migration bis hin zu den Preis- und Lizenzmodellen. Die Transition Guidance soll Anwenderunternehmen dabei helfen, schneller in die Cloud zu wechseln. Mit Joule als Einstiegspunkt und auf der Grundlage von Erkenntnissen aus SAP-Lösungen wie SAP Signavio und SAP LeanIX liefere die App personalisierte Anleitungen und umsetzbare Empfehlungen, die auf die Transformationsziele eines Unternehmens zugeschnitten seien, versprechen die Walldorfer. width=”1600″ height=”900″ sizes=”(max-width: 1600px) 100vw, 1600px”>SAP-Vorstand Thomas Saueressig verspricht seinen Kunden, dass vieles im Umgang mit der SAP künftig einfacher werde – von der Migration bis hin zu Preis- und Lizenzmodellen.SAP Für die Business Suite in der Cloud soll es in Zukunft ein vereinfachtes Service- und Supportmodell in drei Stufen geben: Der Foundational Plan erweitert den Support, der mit jedem Cloud-Lizenz-Abonnement geliefert wird, um ein verbessertes Onboarding. Cloud-ERP-Privatkunden haben außerdem Zugang zu Services zur Vorbereitung der Transformation. Der Advanced Plan beinhaltet den Foundational Plan plus ein höheres Maß an fortlaufendem Service, Beratung, Anleitung und Lösungsaktivierung, um Kunden bei der Umstellung auf die Public Cloud und einen sauberen Kern zu unterstützen. Der Max Plan enthält alle Angebote des Basisplans und des erweiterten Plans sowie einen maßgeschneiderten Ansatz zur Begleitung komplexer, unternehmensweiter Transformationen. „Wir wollen näher am Kunden sein und deren Transformation begleiten“, verspricht Saueressig und verweist noch einmal auf den Dreiklang aus Daten, Applikationen und KI. Der Business Kontext mache den Unterschied. SAP sitze mit seinen Lösungen am richtigen Hebel. Der SAP-Mann gibt sich selbstbewusst: „Wir halten nicht nur Schritt mit den Entwicklungen, sondern wir sind Schrittmacher.“   

SAP will KI allgegenwärtig machen​ width=”1888″ height=”1062″ sizes=”(max-width: 1888px) 100vw, 1888px”>KI soll die Art und Weise, wie Nutzerinnen und Nutzer mit SAP arbeiten, von Grund auf verändern.TenPixels – shutterstock.com

„Wir machen wir KI für Unternehmen greifbar und treiben die digitale Transformation voran, damit unsere Kunden in einer zunehmend unberechenbaren Welt erfolgreich sein können“, verspricht SAP-Chef Christian Klein zur Eröffnung der diesjährigen Sapphire in Orlando, Florida. Der deutsche Softwarekonzern stellt dazu Erweiterungen von Joule, Partnerschaften mit anderen KI-Pionieren sowie neue Features für die Business Data Cloud und die Business Suite vor. „SAP kombiniert die weltweit leistungsfähigste Suite von Geschäftsanwendungen mit einer einzigartigen Datenvielfalt und den neuesten KI-Innovationen, um Mehrwerte für die Kunden zu schaffen“, so Klein.  

KI greifbar machen und so die digitale Transformation vorantreiben – das ist der Plan, mit dem SAP-Chef Christian Klein seine Kunden überzeugen will.Christian Klein (SAP) / Supplied

Sein Kollege Thomas Saueressig, als SAP-Vorstand verantwortlich für den Bereich Customer Services & Delivery, spricht zur diesjährigen Sapphire von einem regelrechten Feuerwerk an Innovationen. Der Blick des Managers richtet sich dabei vor allem auf SAPs Copiloten Joule und ein wachsendes Netz von KI-Agenten.

Joule werde die Art und Weise verändern, wie Menschen arbeiten und Unternehmen funktionieren, stellt Saueressig seinen Kunden in Aussicht. 34.000 Betriebe würden bereits mit SAPs Business AI arbeiten. 230 AI-Szenarien seien heute schon fest im eigenen Softwarekosmos eingebettet – bis Ende 2025 sollen es über 400 sein.

Joule soll User den ganzen Tag begleiten

Joule soll als Begleiter der Anwenderinnen und Anwender allgegenwärtig werden, so der Plan der SAP-Verantwortlichen. Der KI-Assistent soll die User während ihres gesamten Tages begleiten können, sowohl innerhalb wie auch außerhalb des SAP-Anwendungsuniversums. Der Business-Copilot sei in der Lage, Daten zu finden, daraus Erkenntnisse in Echtzeit zu gewinnen und Arbeitsabläufe zu optimieren.

Generative-AI-Funktionen: SAP stellt mit Joule einen eigenen KI-Bot vor

Rund um Joule baut SAP zusätzliche Tools, um Anwendern die Nutzung des KI-Assistenten so komfortabel wie möglich zu machen. Beispielsweise soll es eine Art Aktionsleiste geben, die von SAP WalkMe angetrieben wird und das Nutzerverhalten über alle Anwendungen hinweg untersucht. Damit entwickle sich Joule zu einer proaktiven KI, die die Bedürfnisse der Nutzer vorhersehe, bevor sie entstehen, hieß es in einer Mitteilung des Softwarekonzerns.

Zusätzlich will SAP seinen Kunden im Rahmen einer Partnerschaft mit Perplexity eine Business Answer Engine an die Hand geben. Damit könnten User auch außerhalb von SAP Fragen an Joule stellen. Anwender könnten eine Wirtschaftsmeldung auf einer Nachrichtenseite, beispielsweise zu neuen Zöllen, markieren und Joule direkt fragen, was dies für das eigene Business bedeute, beschreibt Saueressig ein mögliches Szenario. Der Copilot könne diese Meldung dann direkt mit Daten aus dem SAP-System verknüpfen und entsprechend Tipps geben, wie das Unternehmen angesichts der Veränderungen reagieren sollte.

KI-Agenten unter Kontrolle

Neben Joule arbeitet SAP eigenen Angaben zufolge mit Hochdruck am Bau weiterer KI-Agenten. Diese Agenten, die auf Geschäftsdaten aus der eigenen Business Data Cloud (BCD) basieren und von Joule orchestriert werden, sollen system- und bereichsübergreifend arbeiten können, um zu antizipieren, sich anzupassen und eigenständig zu handeln. Unternehmen könnten damit in einer sich schnell verändernden Welt agil bleiben, verspricht SAP.

Zusätzlich kündigt SAP eine Art Betriebssystem für die KI-Entwicklung an. Die SAP AI Foundation biete Entwicklern Zugang zu allen Werkzeugen, die sie für den Aufbau, die Erweiterung und den Betrieb benutzerdefinierter KI-Lösungen benötigten.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/6v903pU89NSQ7NqzN8GPKx?utm_source=oembed”>

Damit Anwenderunternehmen angesichts immer zahlreicherer KI-Agenten nicht den Überblick verlieren, hat SAP außerdem eine erweiterte Bibliothek von KI-Agenten vorgestellt. Darüber hinaus arbeitet SAP mit anderen KI-Anbietern zusammen, um ein Ökosystem interoperabler Agenten auf die Beine zu stellen, die End-to-End-Prozesse ausführen können. SAP-Manager Saueressig nennt an dieser Stelle Googles A2A-Initiative. Das Agent-to-Agent-Protocol soll plattformübergreifend Spezifikationen anbieten, damit KI-Agenten verschiedener Anbieter interagieren können.

SAP kooperiert mit Palantir

Für die Business Data Cloud (BDC) hat SAP außerdem neue intelligente Anwendungen sogenannte Insight Apps angekündigt. Diese Apps sollen Unternehmen helfen, Routinearbeiten durch eine Kombination aus Standardgeschäftskennzahlen, KI-Modellen und integrierten Planungsfunktionen zu optimieren. Der Softwarekonzern nennt als Beispiel die Anwendung People Intelligence. Diese verknüpft Daten zu Mitarbeitern und Fähigkeiten aus der SAP SuccessFactors HCM Suite für tiefere Einblicke in die Belegschaft. Mit Hilfe KI-gesteuerter Empfehlungen sollen Führungskräfte die Teamleistung optimieren, das Mitarbeiterwachstum fördern und die Einhaltung von Vorschriften gewährleisten können, hieß es.

In Sachen Datenanalysen will SAP außerdem enger mit dem Analytics-Spezialisten Palantir zusammenarbeiten. Die Nutzung der entsprechenden Werkzeuge im SAP-Kontext sei jedoch optional, relativiert Saueressig und versucht so Bedenken hinsichtlich der Kooperation mit dem umstrittenen Softwareanbieter zu zerstreuen. Vor allem Kunden in den USA nutzten die Tools von Palantir, begründet der SAP-Manager die engere Zusammenarbeit.

Wer hat S/4HANA gesehen?

Den Schlussakkord in SAPs Dreiklang aus Geschäftsdaten, Business AI und Geschäftsanwendungen setzt die Business Suite. Zur Sapphire stellt der Softwarehersteller zusätzliche Pakete für dedizierte Anwendungsbereiche vor – beispielsweise Finance, Supply Chain Management (SCM), Human Capital Management (HCM), das Strategic Procurement und das Kundenmanagement.

Unter dem im Februar dieses Jahres vorgestellten Label Business Suite, mit der der Konzern in alten On-Premises-Zeiten große Erfolge gefeiert hatte, versteht SAP ein modulares Set verschiedener miteinander integrierter Lösungen. Konkret nennt der Anbieter Cloud ERP, Business Applikationen, die Business Data Cloud und Business AI sowie als gemeinsame Basis die Business Technology Platform (BTP). Mit integriert ist außerdem SAP Build, um Kunden dabei zu helfen, ihre Anwendungen an individuelle Anforderungen anzupassen – ohne dabei allerdings in ein zu starkes Customizing abzudriften und immer einen „Clean Core“ zu behalten.

SAP baut neue Business Suite in der Cloud

Auffallend an dieser Stelle: SAP spricht im Zusammenhang mit Business-Anwendungen nur noch von Cloud ERP und der Business Suite. Der Name S/4HANA, der die Strategie der SAP im zurückliegenden Jahrzehnt maßgeblich bestimmt hat, fällt gar nicht mehr. In einem 26-seitigen Innovation-Guide, den SAP zu Sapphire 2025 veröffentlicht hat, wird S/4HANA kein einziges Mal erwähnt.

Inwieweit damit ein regelrechter Strategiewechsel einhergeht oder ob es sich lediglich um ein Umlabeln handelt, ist noch nicht klar ersichtlich. Vielleicht möchte SAP an dieser Stelle auch einen Schlussstrich ziehen unter die ständigen Migrationsdiskussionen der vergangenen Jahre. Viele Unternehmen verbinden mit S/4HANA langwierige und kostenintensive Umstiegsprojekte und haben vielfach noch gar damit nicht angefangen, obwohl das Support-Ende für das Vorgänger-Release immer näher rückt.

SAP verspricht einfachere Preis- und Lizenzmodelle

SAP-Vorstand Saueressig verspricht seinen Kunden zur diesjährigen Sapphire jedenfalls, dass künftig vieles einfacher soll – angefangen von der Migration bis hin zu den Preis- und Lizenzmodellen. Die Transition Guidance soll Anwenderunternehmen dabei helfen, schneller in die Cloud zu wechseln. Mit Joule als Einstiegspunkt und auf der Grundlage von Erkenntnissen aus SAP-Lösungen wie SAP Signavio und SAP LeanIX liefere die App personalisierte Anleitungen und umsetzbare Empfehlungen, die auf die Transformationsziele eines Unternehmens zugeschnitten seien, versprechen die Walldorfer.

width=”1600″ height=”900″ sizes=”(max-width: 1600px) 100vw, 1600px”>SAP-Vorstand Thomas Saueressig verspricht seinen Kunden, dass vieles im Umgang mit der SAP künftig einfacher werde – von der Migration bis hin zu Preis- und Lizenzmodellen.SAP

Für die Business Suite in der Cloud soll es in Zukunft ein vereinfachtes Service- und Supportmodell in drei Stufen geben:

Der Foundational Plan erweitert den Support, der mit jedem Cloud-Lizenz-Abonnement geliefert wird, um ein verbessertes Onboarding. Cloud-ERP-Privatkunden haben außerdem Zugang zu Services zur Vorbereitung der Transformation.

Der Advanced Plan beinhaltet den Foundational Plan plus ein höheres Maß an fortlaufendem Service, Beratung, Anleitung und Lösungsaktivierung, um Kunden bei der Umstellung auf die Public Cloud und einen sauberen Kern zu unterstützen.

Der Max Plan enthält alle Angebote des Basisplans und des erweiterten Plans sowie einen maßgeschneiderten Ansatz zur Begleitung komplexer, unternehmensweiter Transformationen.

„Wir wollen näher am Kunden sein und deren Transformation begleiten“, verspricht Saueressig und verweist noch einmal auf den Dreiklang aus Daten, Applikationen und KI. Der Business Kontext mache den Unterschied. SAP sitze mit seinen Lösungen am richtigen Hebel. Der SAP-Mann gibt sich selbstbewusst: „Wir halten nicht nur Schritt mit den Entwicklungen, sondern wir sind Schrittmacher.“  

SAP will KI allgegenwärtig machen​ Weiterlesen »

Abwärme aus Rechenzentren: Die Energiewende in Finnland​

Allgemein

Abwärme als Ressource: Googles Rechenzentrum in Hamina an der Ostseeküste soll ab Ende 2025 bis zu 80 Prozent des lokalen Fernwärmebedarfs abdecken. Google Während Deutschland noch über hohe Energiekosten und den Kurs der Energiewende diskutiert, realisieren die Finnen bereits ein Kreislaufmodell: Energie und Nebenprodukte aus einem Prozess werden zu wertvollen Inputs für einen anderen. „Abwärme ist kein energetischer Abfall, sondern eine wertvolle Ressource. Ihre konsequente Nutzung ist nicht nur ökologisch geboten, sondern ein entscheidender Faktor für wirtschaftliche Effizienz und Wettbewerbsfähigkeit in der Energiewende“, erklärt Helmi-Nelli Körkkö, Senior Advisor bei Business Finland, die Strategie. Und es scheint sich zu rechnen: Die finnischen Verbraucher zahlen laut Business Finland 4,6 Cent pro kWh Strom. Geschlossenes System In diesem ganzheitlichen Ansatz wird digitale Infrastruktur mit erneuerbaren Ressourcen und konsequenter Abwärme-Rückgewinnung zu einem geschlossenen System verbunden. Und noch etwas entscheidet Finnland von Deutschland. Hierzulande gibt es lediglich erste Pilotprojekt zur Nutzung der Abwärme von Rechenzentren. Und per Gesetz müssen neue Rechenzentren erst ab Juli 2026 zehn Prozent ihrer Abwärme nutzen. Finnland bindet dagegen den IT- und TK-Sektor konsequent in den Energiekreislauf ein. Server in Googles finnischen Rechenzentrum in Hamina. Ihr Abwärme heizt demnächst Wohnungen. Google So deckt beispielsweise Googles Rechenzentrum in der südostfinnischen Hafenstadt Hamina an der Ostseeküste ab Ende 2025 bis zu 80 Prozent des lokalen Fernwärmebedarfs. Und Microsoft kündigte in Kooperation mit dem Energieunternehmen Fortum an, die Abwärme seiner neuen Rechenzentren nach Fertigstellung zur Beheizung von Haushalten und Unternehmen zu nutzen. Auch die weltgrößte Anlage zur Wärmegewinnung aus gereinigtem Abwasser (die Wärmepumpenanlage Katri Vala des Energieunternehmens Helen) speist in Helsinki Wärme ins Netz ein. Innovative Speicher Innovative Speicher gleichen dabei die Schwankungen erneuerbarer Energien aus. Dazu zählen große Sandbatterien (Polar Night Energy), Europas größter saisonaler Kavernenwärmespeicher (Varanto-Speicher des Energieunternehmens Vantaan Energia) und Power-to-Heat-Lösungen (Elstor). Selbst Mobilfunk-Basisstationen werden zu virtuellen Kraftwerken gebündelt (Elisa), um das Netz zu stabilisieren. Damit das Zusammenspiel funktioniert, ist eine robuste und hochentwickelte digitale Infrastruktur erforderlich. Über sie werden Energieerzeugung, -verbrauch und -rückgewinnung in Echtzeit überwacht und gesteuert. „Der Schlüssel liegt in der intelligenten Verknüpfung von erneuerbaren Energien, Sektorenkopplung durch Abwärmenutzung und digitaler Steuerung“, geht Helmi-Nelli Körkkö ins Detail. „Dieses integrierte System schafft Transparenz, maximiert die Effizienz und zeigt einen gangbaren Weg auf, wie Industriestaaten ihre Energieversorgung sicher, sauber und kosteneffizient gestalten können.“ KI optimiert Energieverteilung So optimieren KI-gestützte Prognosetools wie VTT EnergyTeller beispielsweise die Speicherung und Verteilung von Energie. Das VTT-Tool nutzt Wetterdaten und andere relevante Informationen, um Energiebedarf und Marktentwicklungen präziser vorherzusagen. Bemühungen, die laut Business Finland bereits zu greifbaren Ergebnissen führten: In den vergangenen vier Jahren gelang es der verarbeitenden Industrie in Finnland, ihre Emissionen aus der eingekauften Energie um etwa 45 Prozent zu senken und gleichzeitig die Produktion um 43 Prozent zu steigern. 

Abwärme aus Rechenzentren: Die Energiewende in Finnland​ Abwärme als Ressource: Googles Rechenzentrum in Hamina an der Ostseeküste soll ab Ende 2025 bis zu 80 Prozent des lokalen Fernwärmebedarfs abdecken.
Google

Während Deutschland noch über hohe Energiekosten und den Kurs der Energiewende diskutiert, realisieren die Finnen bereits ein Kreislaufmodell: Energie und Nebenprodukte aus einem Prozess werden zu wertvollen Inputs für einen anderen.

„Abwärme ist kein energetischer Abfall, sondern eine wertvolle Ressource. Ihre konsequente Nutzung ist nicht nur ökologisch geboten, sondern ein entscheidender Faktor für wirtschaftliche Effizienz und Wettbewerbsfähigkeit in der Energiewende“, erklärt Helmi-Nelli Körkkö, Senior Advisor bei Business Finland, die Strategie. Und es scheint sich zu rechnen: Die finnischen Verbraucher zahlen laut Business Finland 4,6 Cent pro kWh Strom.

Geschlossenes System

In diesem ganzheitlichen Ansatz wird digitale Infrastruktur mit erneuerbaren Ressourcen und konsequenter Abwärme-Rückgewinnung zu einem geschlossenen System verbunden. Und noch etwas entscheidet Finnland von Deutschland. Hierzulande gibt es lediglich erste Pilotprojekt zur Nutzung der Abwärme von Rechenzentren. Und per Gesetz müssen neue Rechenzentren erst ab Juli 2026 zehn Prozent ihrer Abwärme nutzen. Finnland bindet dagegen den IT- und TK-Sektor konsequent in den Energiekreislauf ein.

Server in Googles finnischen Rechenzentrum in Hamina. Ihr Abwärme heizt demnächst Wohnungen.
Google

So deckt beispielsweise Googles Rechenzentrum in der südostfinnischen Hafenstadt Hamina an der Ostseeküste ab Ende 2025 bis zu 80 Prozent des lokalen Fernwärmebedarfs. Und Microsoft kündigte in Kooperation mit dem Energieunternehmen Fortum an, die Abwärme seiner neuen Rechenzentren nach Fertigstellung zur Beheizung von Haushalten und Unternehmen zu nutzen. Auch die weltgrößte Anlage zur Wärmegewinnung aus gereinigtem Abwasser (die Wärmepumpenanlage Katri Vala des Energieunternehmens Helen) speist in Helsinki Wärme ins Netz ein.

Innovative Speicher

Innovative Speicher gleichen dabei die Schwankungen erneuerbarer Energien aus. Dazu zählen große Sandbatterien (Polar Night Energy), Europas größter saisonaler Kavernenwärmespeicher (Varanto-Speicher des Energieunternehmens Vantaan Energia) und Power-to-Heat-Lösungen (Elstor). Selbst Mobilfunk-Basisstationen werden zu virtuellen Kraftwerken gebündelt (Elisa), um das Netz zu stabilisieren.

Damit das Zusammenspiel funktioniert, ist eine robuste und hochentwickelte digitale Infrastruktur erforderlich. Über sie werden Energieerzeugung, -verbrauch und -rückgewinnung in Echtzeit überwacht und gesteuert. „Der Schlüssel liegt in der intelligenten Verknüpfung von erneuerbaren Energien, Sektorenkopplung durch Abwärmenutzung und digitaler Steuerung“, geht Helmi-Nelli Körkkö ins Detail. „Dieses integrierte System schafft Transparenz, maximiert die Effizienz und zeigt einen gangbaren Weg auf, wie Industriestaaten ihre Energieversorgung sicher, sauber und kosteneffizient gestalten können.“

KI optimiert Energieverteilung

So optimieren KI-gestützte Prognosetools wie VTT EnergyTeller beispielsweise die Speicherung und Verteilung von Energie. Das VTT-Tool nutzt Wetterdaten und andere relevante Informationen, um Energiebedarf und Marktentwicklungen präziser vorherzusagen.

Bemühungen, die laut Business Finland bereits zu greifbaren Ergebnissen führten: In den vergangenen vier Jahren gelang es der verarbeitenden Industrie in Finnland, ihre Emissionen aus der eingekauften Energie um etwa 45 Prozent zu senken und gleichzeitig die Produktion um 43 Prozent zu steigern.

Abwärme aus Rechenzentren: Die Energiewende in Finnland​ Weiterlesen »

KI-Tutorial für bessere Helpdesks​

Allgemein

Helpdesks mit KI-Unterstützung arbeiten nicht nur schneller – sie tragen auch zur Kunden- und Mitarbeiterzufriedenheit bei.Jacob Lund | shutterstock.com Service-orientierte Unternehmen bearbeiten jeden Tag Tausende von Kunden-E-Mails. Das stellt für die IT-Helpdesks und Customer-Service-Organisationen, die diese Nachrichten lesen, priorisieren und beantworten müssen, eine erhebliche Belastung dar. In vielen Fällen bekommen Kunden deswegen (mindestens) verzögertes Feedback, was sich wiederum negativ auf die Kundenzufriedenheit und -bindung auswirkt.   Um die Reaktionszeit von (IT-)Helpdesks zu optimieren, ist es entscheidend, Anfragen präzise zu klassifizieren und priorisieren. Mit einer Kombination aus Textklassifizierung und Sentimentanalysen können Unternehmen noch einen Schritt weiter gehen und die E-Mail-Triage automatisieren. Das ermöglicht, den Helpdesk zu skalieren, zu optimieren und parallel die Betriebskosten zu senken. In diesem Tutorial lesen Sie, wie Sie das ganz konkret umsetzen. Helpdesk-Problem trifft Lösung Das Problem Bei der herkömmlichen E-Mail-Triage müssen menschliche Mitarbeiter E-Mails lesen, kategorisieren und priorisieren. Dieser Ansatz ist: langsam, weil die Mitarbeiter mit einer Flut von E-Mails konfrontiert sind. inkonsistent, weil die Möglichkeit besteht, dass verschiedene Mitarbeiter dieselbe Nachricht unterschiedlich klassifizieren. fehleranfällig, weil kritische Probleme in der Hektik unter den Tisch fallen können. Diese Ineffizienzen lassen sich KI-gestützt, beziehungsweise mit Machine Learning (ML) automatisieren. Der Lösungsansatz E-Mails, die beim Helpdesk auflaufen, lassen sich in der Regel in eine von sechs Kategorien einordnen. Sie beziehen sich in aller Regel auf: Anforderungen (Anfragen nach neuen Features oder Funktionen, die noch nicht vorhanden sind), Verbesserungen (Vorschläge, um bestehende Features oder Funktionen zu optimieren), Fehlermeldungen (Systemfehler, Ausfälle oder sonstiges, unerwartetes Verhalten), Sicherheitsprobleme (Sicherheitslücken, Breaches oder Datenlecks), Feedback (allgemeine positive und negative Vorschläge zum Produkt oder Service), oder Konfigurationsprobleme (Schwierigkeiten bei der Einrichtung von Systemen). Jenseits der Kategorisierung ist es mit Hilfe von Sentiment- beziehungsweise Stimmungsanalysen möglich, auch den emotionalen „Tonfall“ von E-Mails zu erfassen. Das kann zu einer besseren Priorisierung beitragen. Nachfolgend einige Beispiele, wie das mit unserer Lösung konkret aussehen soll.   Positives Sentiment: „Ich finde diese Funktion toll, aber können wir X hinzufügen?“. Diese Nachricht wird an das für Verbesserungen zuständige Team weitergeleitet und mit niedriger Priorität gekennzeichnet. Neutrales Sentiment: „Ich habe einen Fehler im Anmeldesystem gefunden“. Diese Nachricht wird an das Bug-Fixing-Team weitergereicht und mit mittlerer Priorität versehen. Negatives Sentiment: „Ihre App ist furchtbar und die Anmeldung funktioniert nicht!“. Diese E-Mail geht an das Team, das für kritische Fehler zuständig ist und wird mit hoher Priorität gekennzeichnet. Der Trainingsdatensatz Wir haben speziell für dieses Projekt einen Dummy-Datensatz erstellt, der Helpdesk-E-Mail-Inhalte simuliert und gelabelte Beispiele aus den oben aufgeführten Kategorien enthält. Jede E-Mail ist zudem mit einem Sentiment-Label ausgestattet, um damit sowohl die Kategorisierung als auch die Priorisierung zu unterstützen. Den Trainingsdatensatz können Sie direkt über dieses GitHub-Repository abrufen. Den vollständige Code für dieses Projekt finden Sie hier. KI-Helpdesk-Lösung umsetzen Im Folgenden lesen Sie, wie Sie die eben beschriebene Lösung ganz konkret in sechs Schritten realisieren. 1. Bibliotheken importieren Unsere Implementierung basiert auf folgenden Komponenten: Pandas für die Datenbearbeitung, NLTK für Natural Language Processing, SentimentIntensityAnalyzer für Sentimentanalysen und Scikit-learn für die Textklassifizierung (unter Verwendung des Multinomial-Naive-Bayes-Klassifikators). import pandas as pd import nltk from nltk.sentiment import SentimentIntensityAnalyzer from sklearn.naive_bayes import MultinomialNB 2. Trainingsdaten vorverarbeiten Indem wir Sonderzeichen, Bindewörter und Artikel entfernen und Wörter per Lemmatisierung auf ihre Grundform reduzieren, verarbeiten wir die Trainingsdaten vor. Diese Maßnahmen verbessern die Datenqualität und damit die Modell-Performance. nltk.download(‘stopwords’) nltk.download(‘wordnet’) nltk.download(‘vader_lexicon’) from nltk.corpus import stopwords from nltk.stem import WordNetLemmatizer #object of WordNetLemmatizer lm = WordNetLemmatizer() def text_transformation(df_col): corpus = [] for item in df_col: new_item = re.sub(‘[^a-zA-Z]’,’ ‘,str(item)) new_item = new_item.lower() new_item = new_item.split() new_item = [lm.lemmatize(word) for word in new_item if word not in set(stopwords.words(‘english’))] corpus.append(‘ ‘.join(str(x) for x in new_item)) return corpus corpus = text_transformation(df_train[‘text’]) Mit CountVectorizer (ebenfalls Bestandteil von Scikit-learn) wandeln wir die Textdaten nun zu Machine-Learning-Zwecken in numerische Daten um. cv = CountVectorizer(ngram_range=(1,2)) traindata = cv.fit_transform(corpus) X = traindata y = df_train.label In diesem Code-Snippet ist zu beachten, dass: CountVectorizer(ngram_range=(1, 2)) den vorverarbeiteten E-Mail-Text (aus dem Korpus) in eine Matrix mit Token-Zählungen umwandelt, die sowohl Unigramme (Einzelwörter) als auch Bigramme (Wortpaare) enthält. X die Feature-Matrix darstellt, die verwendet wird, um das Modell zu trainieren. y die Zielvariable verkörpert, die die E-Mail-Kategorien enthält. 3. Klassifizierungsmodell trainieren Wie bereits erwähnt, verwenden wir das Multinomial-Naïve-Bayes (MNB)-Modell. So können wir unsere Trainingsvektoren an die Werte der Zielvariablen anpassen. classifier = MultinomialNB() classifier.fit(X, y) Dieser probabilistische Algorithmus eignet sich besonders gut für Textklassifizierungsaufgaben, bei denen die Merkmale auf Wortzählungen oder -häufigkeiten basieren. Das passt besonders gut zu unseren Daten, weil: diese aus gelabelten E-Mail-Texten bestehen, deren Features (Wörter und Sätze) naturgemäß als diskrete Zählungen oder Häufigkeiten dargestellt werden. der Output von CountVectorizer oder TfidfVectorizer eine große Sparse-Matrix mit Wortvorkommen kreiert, die das MNB-Modell effizient und effektiv verarbeitet – ohne Overfitting. wir E-Mails in sechs verschiedene Klassen einordnen und MNB standardmäßig Multi-Class-Klassifizierung unterstützt. das MNB-Modell leichtgewichtig ist und ein besonders schnelles Modelltraining gewährleistet – was insbesondere hilfreich ist, wenn Sie Feature Engineering iterieren oder mit Dummy-Datensätzen arbeiten. MNB bei Textklassifizierungsaufgaben selbst mit minimaler Feinabstimmung in aller Regel gute Ergebnisse liefert. Multinomial Naïve Bayes ist ein simpler und effektiver Startpunkt – es ist jedoch ganz generell zu empfehlen, mehrere ML-Algorithmen zu testen. So können etwa auch das Regressionsmodell, Support Vector Machines, Entscheidungsbäume oder Deep-Learning-Modelle wie LSTM und BERT gute Textklassifizierungsergebnisse liefern. Um die Performanz verschiedener ML-Modelle miteinander zu vergleichen, kommen Bewertungs-Metriken zum Einsatz wie: Genauigkeit: Der Prozentsatz der insgesamt korrekten Vorhersagen. Die Genauigkeit ist am höchsten, wenn die Klassen ausgewogen sind. Präzision: Der Prozentsatz aller E-Mails, die das Modell einer bestimmte Kategorie korrekt zugeordnet hat. Recall: Der Prozentsatz aller vom Modell korrekt identifizierten und kategorisierten E-Mails. F1-Score: Der Mittelwert aus Präzision und Recall. Der F1-Score bietet ein ausgewogenes Maß für die Performance, wenn sowohl falsche Positive als auch falsche Negative eine Rolle spielen. Support: Gibt an, wie viele tatsächliche Beispiele für jede Klasse vorgelegen haben. Diese Metrik ist hilfreich, um die Klassenverteilung zu verstehen. 4. Klassifizierungsmodell testen und bewerten Im nachfolgende Code-Snippet werden in Kombination: Testdaten vorverarbeitet, Zielwerte aus den Testdaten vorhergesagt, sowie die Modellleistung durch die Confusion Matrix dargestellt und Genauigkeit, Präzision und Recall berechnet. Dann vergleicht die Confusion-Matrix die Vorhersagen des Modells mit den tatsächlichen Labels. Der folgende Klassifizierungs-Report fasst die Bewertungsmetriken für jede Klasse zusammen. #Reading Test Data test_df = pd.read_csv(test_Data.txt’,delimiter=’;’,names=[‘text’,’label’]) # Applying same transformation as on Train Data X_test,y_test = test_df.text,test_df.label #pre-processing of text test_corpus = text_transformation(X_test) #convert text data into vectors testdata = cv.transform(test_corpus) #predict the target predictions = clf.predict(testdata) #evaluating model performance parameters mlp.rcParams[‘figure.figsize’] = 10,5 plot_confusion_matrix(y_test,predictions) print(‘Accuracy_score: ‘, accuracy_score(y_test,predictions)) print(‘Precision_score: ‘, precision_score(y_test,predictions,average=’micro’)) print(‘Recall_score: ‘, recall_score(y_test,predictions,average=’micro’)) print(classification_report(y_test,predictions)) IDG IDG Die akzeptablen Schwellenwerte variieren zwar je nach Anwendungsfall, aber ein F1-Wert über 0,80 gilt im Allgemeinen als gut, wenn es um Multi-Class-Textklassifizierungen geht. Entsprechend demonstriert der F1-Wert von 0,8409, dass unser Modell in allen sechs E-Mail-Kategorien zuverlässig funktioniert. Folgende Faustregeln sollten Sie mit Blick auf die Performance-Metriken im Hinterkopf behalten: Wenn sowohl die Genauigkeit als auch der F1-Wert über 0,80 liegen, gilt das Modell für viele Business-Szenarien als produktionsreif. Wenn der Recall-Wert niedrig ist, entgehen dem Modell möglicherweise wichtige Fälle – was für E-Mail-Triage entscheidend ist. Wenn der Präzisionswert niedrig ist, flaggt das Modell möglicherweise bestimmte E-Mails falsch, was bei sensiblen Kategorien wie IT Security problematisch ist. 5. Sentimentanalyse integrieren Um E-Mails nach Sentiment zu bewerten, integrieren wir nun den SentimentIntensityAnalyzer von NLTK. Dabei setzen wir setzen die Priorität für negative Stimmung auf hoch, für neutrale auf mittel und für positive auf niedrig. sia = SentimentIntensityAnalyzer() def get_sentiment(text): # Predict Category (Ensure it is a string) category = clf.predict(cv.transform([text]))[0] # Extract first element # Sentiment Analysis sentiment_score = sia.polarity_scores(text)[‘compound’] if sentiment_score >= 0.05: sentiment = “Positive” elif sentiment_score 6. Testing Beispiel 1 email_sentiments = get_sentiment(‘Your app is terrible and not secure, login doesn’t work!’) print(email_sentiments) Output – { ‘Category’: ‘SecurityIssues’, ‘Sentiment’: ‘Negative’,’Priority’: ‘High’} Beispiel 2 email_sentiments = get_sentiment(‘Add advanced filtering and export options for reports’) print(email_sentiments) Output – { ‘Category’: ‘RequirementEnhancement’,’Sentiment’: ‘Positive’,’Priority’: ‘Low’ } (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

KI-Tutorial für bessere Helpdesks​ Helpdesks mit KI-Unterstützung arbeiten nicht nur schneller – sie tragen auch zur Kunden- und Mitarbeiterzufriedenheit bei.Jacob Lund | shutterstock.com

Service-orientierte Unternehmen bearbeiten jeden Tag Tausende von Kunden-E-Mails. Das stellt für die IT-Helpdesks und Customer-Service-Organisationen, die diese Nachrichten lesen, priorisieren und beantworten müssen, eine erhebliche Belastung dar. In vielen Fällen bekommen Kunden deswegen (mindestens) verzögertes Feedback, was sich wiederum negativ auf die Kundenzufriedenheit und -bindung auswirkt.  

Um die Reaktionszeit von (IT-)Helpdesks zu optimieren, ist es entscheidend, Anfragen präzise zu klassifizieren und priorisieren. Mit einer Kombination aus Textklassifizierung und Sentimentanalysen können Unternehmen noch einen Schritt weiter gehen und die E-Mail-Triage automatisieren. Das ermöglicht, den Helpdesk zu skalieren, zu optimieren und parallel die Betriebskosten zu senken. In diesem Tutorial lesen Sie, wie Sie das ganz konkret umsetzen.

Helpdesk-Problem trifft Lösung

Das Problem

Bei der herkömmlichen E-Mail-Triage müssen menschliche Mitarbeiter E-Mails lesen, kategorisieren und priorisieren. Dieser Ansatz ist:

langsam, weil die Mitarbeiter mit einer Flut von E-Mails konfrontiert sind.

inkonsistent, weil die Möglichkeit besteht, dass verschiedene Mitarbeiter dieselbe Nachricht unterschiedlich klassifizieren.

fehleranfällig, weil kritische Probleme in der Hektik unter den Tisch fallen können.

Diese Ineffizienzen lassen sich KI-gestützt, beziehungsweise mit Machine Learning (ML) automatisieren.

Der Lösungsansatz

E-Mails, die beim Helpdesk auflaufen, lassen sich in der Regel in eine von sechs Kategorien einordnen. Sie beziehen sich in aller Regel auf:

Anforderungen (Anfragen nach neuen Features oder Funktionen, die noch nicht vorhanden sind),

Verbesserungen (Vorschläge, um bestehende Features oder Funktionen zu optimieren),

Fehlermeldungen (Systemfehler, Ausfälle oder sonstiges, unerwartetes Verhalten),

Sicherheitsprobleme (Sicherheitslücken, Breaches oder Datenlecks),

Feedback (allgemeine positive und negative Vorschläge zum Produkt oder Service), oder

Konfigurationsprobleme (Schwierigkeiten bei der Einrichtung von Systemen).

Jenseits der Kategorisierung ist es mit Hilfe von Sentiment- beziehungsweise Stimmungsanalysen möglich, auch den emotionalen „Tonfall“ von E-Mails zu erfassen. Das kann zu einer besseren Priorisierung beitragen. Nachfolgend einige Beispiele, wie das mit unserer Lösung konkret aussehen soll.  

Positives Sentiment: „Ich finde diese Funktion toll, aber können wir X hinzufügen?“. Diese Nachricht wird an das für Verbesserungen zuständige Team weitergeleitet und mit niedriger Priorität gekennzeichnet.

Neutrales Sentiment: „Ich habe einen Fehler im Anmeldesystem gefunden“. Diese Nachricht wird an das Bug-Fixing-Team weitergereicht und mit mittlerer Priorität versehen.

Negatives Sentiment: „Ihre App ist furchtbar und die Anmeldung funktioniert nicht!“. Diese E-Mail geht an das Team, das für kritische Fehler zuständig ist und wird mit hoher Priorität gekennzeichnet.

Der Trainingsdatensatz

Wir haben speziell für dieses Projekt einen Dummy-Datensatz erstellt, der Helpdesk-E-Mail-Inhalte simuliert und gelabelte Beispiele aus den oben aufgeführten Kategorien enthält. Jede E-Mail ist zudem mit einem Sentiment-Label ausgestattet, um damit sowohl die Kategorisierung als auch die Priorisierung zu unterstützen. Den Trainingsdatensatz können Sie direkt über dieses GitHub-Repository abrufen. Den vollständige Code für dieses Projekt finden Sie hier.

KI-Helpdesk-Lösung umsetzen

Im Folgenden lesen Sie, wie Sie die eben beschriebene Lösung ganz konkret in sechs Schritten realisieren.

1. Bibliotheken importieren

Unsere Implementierung basiert auf folgenden Komponenten:

Pandas für die Datenbearbeitung,

NLTK für Natural Language Processing,

SentimentIntensityAnalyzer für Sentimentanalysen und

Scikit-learn für die Textklassifizierung (unter Verwendung des Multinomial-Naive-Bayes-Klassifikators).

import pandas as pd
import nltk
from nltk.sentiment import SentimentIntensityAnalyzer
from sklearn.naive_bayes import MultinomialNB

2. Trainingsdaten vorverarbeiten

Indem wir Sonderzeichen, Bindewörter und Artikel entfernen und Wörter per Lemmatisierung auf ihre Grundform reduzieren, verarbeiten wir die Trainingsdaten vor. Diese Maßnahmen verbessern die Datenqualität und damit die Modell-Performance.

nltk.download(‘stopwords’)
nltk.download(‘wordnet’)
nltk.download(‘vader_lexicon’)
from nltk.corpus import stopwords
from nltk.stem import WordNetLemmatizer

#object of WordNetLemmatizer
lm = WordNetLemmatizer()

def text_transformation(df_col):
corpus = []
for item in df_col:
new_item = re.sub(‘[^a-zA-Z]’,’ ‘,str(item))
new_item = new_item.lower()
new_item = new_item.split()
new_item = [lm.lemmatize(word) for word in new_item if word not in set(stopwords.words(‘english’))]
corpus.append(‘ ‘.join(str(x) for x in new_item))
return corpus

corpus = text_transformation(df_train[‘text’])

Mit CountVectorizer (ebenfalls Bestandteil von Scikit-learn) wandeln wir die Textdaten nun zu Machine-Learning-Zwecken in numerische Daten um.

cv = CountVectorizer(ngram_range=(1,2))
traindata = cv.fit_transform(corpus)
X = traindata
y = df_train.label

In diesem Code-Snippet ist zu beachten, dass:

CountVectorizer(ngram_range=(1, 2)) den vorverarbeiteten E-Mail-Text (aus dem Korpus) in eine Matrix mit Token-Zählungen umwandelt, die sowohl Unigramme (Einzelwörter) als auch Bigramme (Wortpaare) enthält.

X die Feature-Matrix darstellt, die verwendet wird, um das Modell zu trainieren.

y die Zielvariable verkörpert, die die E-Mail-Kategorien enthält.

3. Klassifizierungsmodell trainieren

Wie bereits erwähnt, verwenden wir das Multinomial-Naïve-Bayes (MNB)-Modell. So können wir unsere Trainingsvektoren an die Werte der Zielvariablen anpassen.

classifier = MultinomialNB()
classifier.fit(X, y)

Dieser probabilistische Algorithmus eignet sich besonders gut für Textklassifizierungsaufgaben, bei denen die Merkmale auf Wortzählungen oder -häufigkeiten basieren. Das passt besonders gut zu unseren Daten, weil:

diese aus gelabelten E-Mail-Texten bestehen, deren Features (Wörter und Sätze) naturgemäß als diskrete Zählungen oder Häufigkeiten dargestellt werden.

der Output von CountVectorizer oder TfidfVectorizer eine große Sparse-Matrix mit Wortvorkommen kreiert, die das MNB-Modell effizient und effektiv verarbeitet – ohne Overfitting.

wir E-Mails in sechs verschiedene Klassen einordnen und MNB standardmäßig Multi-Class-Klassifizierung unterstützt.

das MNB-Modell leichtgewichtig ist und ein besonders schnelles Modelltraining gewährleistet – was insbesondere hilfreich ist, wenn Sie Feature Engineering iterieren oder mit Dummy-Datensätzen arbeiten.

MNB bei Textklassifizierungsaufgaben selbst mit minimaler Feinabstimmung in aller Regel gute Ergebnisse liefert.

Multinomial Naïve Bayes ist ein simpler und effektiver Startpunkt – es ist jedoch ganz generell zu empfehlen, mehrere ML-Algorithmen zu testen. So können etwa auch das Regressionsmodell, Support Vector Machines, Entscheidungsbäume oder Deep-Learning-Modelle wie LSTM und BERT gute Textklassifizierungsergebnisse liefern. Um die Performanz verschiedener ML-Modelle miteinander zu vergleichen, kommen Bewertungs-Metriken zum Einsatz wie:

Genauigkeit: Der Prozentsatz der insgesamt korrekten Vorhersagen. Die Genauigkeit ist am höchsten, wenn die Klassen ausgewogen sind.

Präzision: Der Prozentsatz aller E-Mails, die das Modell einer bestimmte Kategorie korrekt zugeordnet hat.

Recall: Der Prozentsatz aller vom Modell korrekt identifizierten und kategorisierten E-Mails.

F1-Score: Der Mittelwert aus Präzision und Recall. Der F1-Score bietet ein ausgewogenes Maß für die Performance, wenn sowohl falsche Positive als auch falsche Negative eine Rolle spielen.

Support: Gibt an, wie viele tatsächliche Beispiele für jede Klasse vorgelegen haben. Diese Metrik ist hilfreich, um die Klassenverteilung zu verstehen.

4. Klassifizierungsmodell testen und bewerten

Im nachfolgende Code-Snippet werden in Kombination:

Testdaten vorverarbeitet,

Zielwerte aus den Testdaten vorhergesagt, sowie

die Modellleistung durch die Confusion Matrix dargestellt und Genauigkeit, Präzision und Recall berechnet.

Dann vergleicht die Confusion-Matrix die Vorhersagen des Modells mit den tatsächlichen Labels. Der folgende Klassifizierungs-Report fasst die Bewertungsmetriken für jede Klasse zusammen.

#Reading Test Data
test_df = pd.read_csv(test_Data.txt’,delimiter=’;’,names=[‘text’,’label’])
# Applying same transformation as on Train Data
X_test,y_test = test_df.text,test_df.label
#pre-processing of text
test_corpus = text_transformation(X_test)
#convert text data into vectors
testdata = cv.transform(test_corpus)
#predict the target
predictions = clf.predict(testdata)
#evaluating model performance parameters
mlp.rcParams[‘figure.figsize’] = 10,5
plot_confusion_matrix(y_test,predictions)
print(‘Accuracy_score: ‘, accuracy_score(y_test,predictions))
print(‘Precision_score: ‘, precision_score(y_test,predictions,average=’micro’))
print(‘Recall_score: ‘, recall_score(y_test,predictions,average=’micro’))
print(classification_report(y_test,predictions))

IDG

IDG

Die akzeptablen Schwellenwerte variieren zwar je nach Anwendungsfall, aber ein F1-Wert über 0,80 gilt im Allgemeinen als gut, wenn es um Multi-Class-Textklassifizierungen geht. Entsprechend demonstriert der F1-Wert von 0,8409, dass unser Modell in allen sechs E-Mail-Kategorien zuverlässig funktioniert.

Folgende Faustregeln sollten Sie mit Blick auf die Performance-Metriken im Hinterkopf behalten:

Wenn sowohl die Genauigkeit als auch der F1-Wert über 0,80 liegen, gilt das Modell für viele Business-Szenarien als produktionsreif.

Wenn der Recall-Wert niedrig ist, entgehen dem Modell möglicherweise wichtige Fälle – was für E-Mail-Triage entscheidend ist.

Wenn der Präzisionswert niedrig ist, flaggt das Modell möglicherweise bestimmte E-Mails falsch, was bei sensiblen Kategorien wie IT Security problematisch ist.

5. Sentimentanalyse integrieren

Um E-Mails nach Sentiment zu bewerten, integrieren wir nun den SentimentIntensityAnalyzer von NLTK. Dabei setzen wir setzen die Priorität für negative Stimmung auf hoch, für neutrale auf mittel und für positive auf niedrig.

sia = SentimentIntensityAnalyzer()
def get_sentiment(text):
# Predict Category (Ensure it is a string)
category = clf.predict(cv.transform([text]))[0] # Extract first element

# Sentiment Analysis
sentiment_score = sia.polarity_scores(text)[‘compound’]

if sentiment_score >= 0.05:
sentiment = “Positive”
elif sentiment_score

6. Testing

Beispiel 1

email_sentiments = get_sentiment(‘Your app is terrible and not secure, login doesn’t work!’)
print(email_sentiments)
Output –
{ ‘Category’: ‘SecurityIssues’, ‘Sentiment’: ‘Negative’,’Priority’: ‘High’}

Beispiel 2

email_sentiments = get_sentiment(‘Add advanced filtering and export options for reports’)
print(email_sentiments)
Output –
{
‘Category’: ‘RequirementEnhancement’,’Sentiment’: ‘Positive’,’Priority’: ‘Low’
}

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

KI-Tutorial für bessere Helpdesks​ Weiterlesen »

Alle Android-Versionen im Überblick​

Allgemein

Die Android-Versionshistorie ist – zumindest bis ins Jahr 2018 – mit süßen Versuchungen gepflastert. Foto: Olezzo – shutterstock.com Googles mobiles Betriebssystem Android blickt auf bescheidene Anfänge zurück und wurde über die Jahre immens weiterentwickelt – sowohl auf optischer als auch konzeptioneller und funktioneller Ebene. Im Folgenden haben wir alle jemals erschienenen (relevanten) Android-Versionen im Zeitverlauf für Sie zusammengestellt – inklusive ihrer jeweiligen Highlights. Android 1.0/1.1 Sein offizielles Debüt feierte Android mit Version 1.0 im Jahr 2008 – damals noch ohne aparten Codenamen mit Backwerk-Bezug. In der Smartphone-Frühzeit waren die Dinge bei Android vor allem eines: simpel. Der Homescreen von Android 1.0 – und sein rudimentärer Webbrowser. Foto: T-Mobile Dennoch konnte das Google-Betriebssystem bereits mit integrierten Apps aufwarten, etwa Gmail, Google Maps, Kalender oder Youtube. Ein krasser Gegensatz zum heute gängigen (und besser aktualisierbaren) Standalone-App-Modell. Android 1.5 Cupcake Mit dem Release von Android 1.5 begann Google, die Versionen seines Mobile OS nach teigigen Leckereien zu benennen. Eine Tradition, die über etliche Jahre Bestand haben sollte. Mit Cupcake hielten diverse Optimierungen der Benutzeroberfläche Einzug – unter anderem in Form der ersten virtuellen Bildschirmtastatur. Bei Android Cupcake rückte Google Widgets in den Fokus. Foto: Android Police Vor allem führte Google mit Cupcake aber das Framework für Drittanbieter-App-Widgets ein, was sich schnell zu einem Android-Alleinstellungsmerkmal entwickelte. Mit Android Version 1.5 war es außerdem erstmals möglich, auch Videoaufnahmen zu realisieren. Android 1.6 Donut Im Herbst 2009 erblickte Android Version 1.6 – Codename Donut – das Licht der Welt. Diese Android-Version optimierte Googles mobiles Betriebssystem weiter, zum Beispiel mit Support für diverse verschiedene Bildschirmauflösungen und -formate. Ein besonders zukunftskritisches Feature für Android hielt mit der Unterstützung des Mobilfunkstandards CDMA Einzug. Letzteres begünstigte die folgende explosionsartige Ausbreitung von Android. Die Universal Search Box hatte mit Android Version 1.6 ihren ersten Auftritt. Foto: Google Android 2.0/2.1 Eclair Nur sechs Wochen nach Donut ließ Google Android 2.0 mit dem Codenamen Eclair auf die Nutzer los – einige Monate später folgte das 2.1-Update. Das erste Smartphone, das diese Android-Version nutzte, war Motorolas Milestone. Das Smartphone wurde in den USA unter der Bezeichnung “Droid” vermarktet und sollte den technikaffinen Gegenpol zu Apples iPhone bilden – zumindest legte das die relativ aggressive Marketingkampagne in den USA nahe: Bei Apple dürfte jedoch vor allem für Verstimmung gesorgt haben, dass mit Eclair auch die bis dahin iOS-exklusive “Pinch-to-Zoom”-Funktionalität in Android eingeführt wurde. Die revolutionärsten Elemente dieser Android-Version waren jedoch sprachgesteuerte Turn-by-Turn-Navigation und Verkehrsinformationen in Echtzeit – bis dahin nicht realisierte Features in der Smartphone-Welt. Darüber hinaus hielten mit Eclair auch Live-Hintergrundbilder sowie die erste Speech-to-Text-Funktion Einzug. Die erste Navigations- und Diktierfunktion in Android 2.0. Foto: Google Android 2.2 Froyo Mit Android 2.2 widmete sich Google (vier Monate nach dem Release von Version 2.1) hauptsächlich Performance-Optimierungen unter der Haube. Android Froyo erweiterte jedoch die Benutzeroberfläche um einige praktische Funktionen – darunter das inzwischen zum Standard gewordene Dock am unteren Rand des Startbildschirms sowie die erste Version von Voice Actions. Letzteres erlaubte den Benutzern, einige grundlegende Funktionen wie Wegbeschreibungen oder Notizen abzurufen, indem sie ein Icon antippen und anschließend einen Sprachbefehl folgen lassen. Froyo brachte Sprachsteuerung erstmals in ernsthafter Form auf Android-Telefone. Foto: Google Bemerkenswert ist Android Version 2.2 vor allem auch deshalb, weil es den Android-Webbrowser mit Flash-Unterstützung ausstattete. Das war nicht nur wichtig, weil Flash damals im Web allgegenwärtig war, sondern auch weil Apple sich standhaft weigerte, das iPhone um Flash-Support zu erweitern. Das war eine ganze Zeit lang ein echter Vorteil für Android – bis sich die Flash-Dominanz schließlich in Luft auflöste. Android 2.3 Gingerbread Mit Gingerbread versuchte Google, Android im Jahr 2010 erstmals eine echte, “visuelle Identität” zu verleihen. Die Farbe des Android-Maskottchens breitete sich mit Android Version 2.3 über die gesamte Benutzeroberfläche aus. Der erste Schritt hin zu einer eigenständigen Designsprache. Mit Android Gingerbread nahm die Android-Designsprache ihren Anfang. Foto: JR Raphael | IDG Android 3.0/3.1/3.2 Honeycomb Die Android-Honeycomb-Ära markierte ab 2011 einen weiteren Umbruch: Android 3.0 war ein Tablet-exklusives Betriebssystem, das zum Marktstart des iPad-Konkurrenten Motorola Xoom veröffentlicht wurde. Auch die Point-Updates 3.1 und 3.2 waren exklusiv auf die zu dieser Zeit stark gefragten Tablets ausgelegt. Android Honeycomb sollte Tablets einen “Weltraum-ähnlichen”, “holografischen” Look verleihen. Foto: JR Raphael | IDG Zwar hatte das Konzept der Tablet-spezifischen Oberfläche schon nach kurzer Zeit wieder ausgedient – allerdings wurden mit Android 3.0 zahlreiche Ideen umgesetzt, die das heute bekannte Android definiert haben: Honeycomb war die erste Android-Version, die die Nutzer essenzielle Navigationsbefehle über virtuelle Bildschirmtasten erledigen ließ und führte das Konzept einer “Karten-basierten” UI ein. Android 4.0 Ice Cream Sandwich Während Honeycomb so etwas wie eine “Brückenversion” darstellte, bildete Android 4.0 – Codename Ice Cream Sandwich – den offiziellen Einstiegspunkt in die neue Android-Designwelt. Veröffentlicht wurde diese Version ebenfalls im Jahr 2011 – und verfeinerte in erster Linie die mit Honeycomb eingeführten, visuellen Konzepte. Zudem vereinheitlichte Google mit dieser Android-Version sein Betriebssystem für Mobiltelefone und Tablets. Mit Android 4.0 wurde zudem die Steuerung über Wischbewegungen als integrale Methode etabliert, um sich zurechtzufinden – eine damals weltbewegende Neuerung. Darüber hinaus markierte Ice Cream Sandwich auch den Beginn der Umstellung des Android-Ökosystems auf ein standardisiertes Design-Framework, auch bekannt als “Holo“. Homescreen und App Switching in Android 4.0. Foto: JR Raphael | IDG Android 4.1/4.2/4.3 Jelly Bean Die Jelly-Bean-Ära erstreckte sich über drei Android-Versionen und die Jahre 2012 und 2013. Dabei wurde das frische Fundament von Ice Cream Sandwich mit Bedacht, aber zielstrebig weiter optimiert und ausgebaut. Ergebnis war ein Android-Betriebssystem, das mit neuem Schwung und Glanz zunehmend auch Mobile-Durchschnittsbenutzer begeistern konnte. Abgesehen von der Optik brachte Jelly Bean auch einen ersten Vorgeschmack auf Google Now (das leider inzwischen zu einem zweitklassigen Newsfeed verkommen ist). Weitere Benefits, die mit Android Jelly Bean Einzug hielten, waren unter anderem ein erweitertes (sprachbasiertes) Suchsystem und Multi-User-Support. Letzteres stand allerdings nur auf Tablet-Geräten zur Verfügung. Davon abgesehen, gab auch das Quick Settings Panel in dieser Android-Version sein Debüt – genauso wie Widgets für den Sperrbildschirm. Quick Settings und der (kurzlebige) Widget-befüllte Lockscreen in Android Jelly Bean. Foto: JR Raphael | IDG Android 4.4 KitKat Mit Version 4.4 kam das Zeitalter der dunklen Farbgebung bei Android zu einem Ende. KitKat brachte Ende 2013 frischere, hellere Farben für Googles Betriebssystem und sorgte damit für eine umfassende, optische Modernisierung. Premiere feierte mit Android 4.4 außerdem das allseits bekannte “OK, Google”-Freihand-Feature (das damals nur funktionierte, wenn der Startbildschirm oder die Google-App bereits geöffnet war). Der Kitkat-Homescreen und das dedizierte Google-Now-Panel. Foto: JR Raphael | IDG Die Nutzer von Google-eigenen (Nexus-)Smartphones durften sich zudem erstmals an einem Startbildschirm-Panel erfreuen, das exklusiv für Google-Dienste reserviert war. Android 5.0/5.1 Lollipop Mit Lollipop führte Google im Herbst 2014 den bis heute gültigen Material-Design-Standard bei Android ein, der sich nicht nur auf das Betriebssystem selbst, sondern auch auf Apps und andere Google-Produkte auswirkte. Das kartenbasierte User Interface, das bislang punktuell in Android eingesetzt wurde, wurde mit Android 5.0 zum zentralen Designaspekt. Davon abgesehen, brachte Android Lollipop auch einige neue Funktionen in die Android-Welt – unter anderem den weiterentwickelten “Ok, Google”-Befehl, Multi-User-Support für Mobiltelefone sowie ein optimiertes Benachrichtigungsmanagement. Leider flossen mit Lollipop auch diverse Bugs ein, die in weiten Teilen erst mit der Android-Version 5.1 ab 2015 vollständig behoben werden konnten. Mit Lollipop nahm Androids Material Design seinen Anfang. Foto: JR Raphael | IDG Android 6.0 Marshmallow Im Großen und Ganzen war Marshmallow – ebenfalls im Jahr 2015 veröffentlicht – eine eher unbedeutende Android-Version, die mehr wie ein Point-Update wirkte. Allerdings setzte Marshmallow den Startpunkt dafür, dass Google jährlich eine große neue Android-Version veröffentlicht. Android Marshmallow und “Now on Tap” (RIP). Foto: JR Raphael | IDG Das auffälligste Marshmallow-Feature war die vielversprechende Bildschirmsuchfunktion “Now On Tap” – die leider nie weiterentwickelt und 2016 still und heimlich beerdigt wurde. Android 6.0 enthielt jedoch auch einige subtilere Neuerungen, etwa granularere App-Berechtigungen sowie Support für Fingerabdruckscanner und USB-C. Android 7.0/7.1 Nougat Die Android-Versionen mit dem Codenamen Nougat wurden 2016 veröffentlicht und ergänzten Googles Mobile OS um einen nativen Split-Screen-Modus, ein neues System, um Benachrichtigungen zu managen, und eine Data-Saver-Funktion. Darüber hinaus hatte Android 7.0 bis 7.1 auch einige kleinere, aber dennoch wichtige Features an Bord – beispielsweise einen Shortcut, um zwischen Apps zu wechseln. Der mit Nougat neu eingeführte, native Split-Screen-Modus. Foto: JR Raphael | IDG Die vielleicht wichtigste Neuerung von Android Nougat war jedoch die Möglichkeit, den Google Assistant zu integrieren, der etwa zwei Monate nach dem Nougat-Debüt (zusammen mit Google erstem Pixel-Smartphone) vorgestellt wurde. Der Assistant entwickelte sich in den kommenden Jahren zu einer wichtigen Android-Komponente (und den meisten anderen Google-Produkten). Android 8.0/8.1 Oreo Mit Version 8.0 und 8.1 – veröffentlicht im Jahr 2017 unter dem Codenamen Oreo – erhielt Android weitere Annehmlichkeiten. Unter anderem einen nativen Bild-in-Bild-Modus, eine Schlummerfunktion für Notifications sowie tiefgehendere Möglichkeiten, App-Benachrichtigungen zu kontrollieren. Darüber hinaus war diese Android-Version auch ein Versuch von Google, Android und Chrome OS näher zusammenzubringen und die Nutzung von Android-Apps auf Chromebooks zu optimieren. Davon abgesehen war Android 8 auch vom ehrgeizigen Bestreben geprägt, mit “Project Treble” eine modulare Basis für den Android-Quellcode zu schaffen. Die Hoffnung: Es den Geräteherstellern einfacher zu machen, zeitnah Software-Updates bereitzustellen. Android Oreo erweiterte Googles mobiles Betriebssystem um diverse bedeutende Funktionen. Foto: JR Raphael | IDG Android 9 Pie Android-Version 9, auch bekannt unter dem Codenamen Pie, brachte im August 2018 frischen Wind in Googles Mobile-Ökosystem. Die wesentlichste Änderung war dabei ein hybrides Gesten-Button-Navigationssystem, das die traditionellen Navigationstasten mit einem großen, multifunktionalen “Home Button” ersetzte. Alles neu machte Android 9 – zumindest in Sachen Bedienung. Foto: JR Raphael | IDG Android Pie enthielt allerdings auch einige bemerkenswerte neue Productivity-Funktionen, beispielsweise ein universelles System, um mit vorgeschlagenen Antworten auf Nachrichten zu reagieren oder ein intelligenteres Energiemanagement. Erwähnenswert sind bei dieser Android-Version zudem zahlreiche Optimierungen in Sachen Datenschutz und Sicherheit. Android Version 10 Im September 2019 ereilte der nächste Umschwung auch die Backwerk-affine Nomenklatur: Android 10 war die erste Version, die ausschließlich mit einer Zahl bezeichnet wird. Dazu passend brachte die Betriebssystem-Software auch eine völlig neu gestaltete Oberfläche mit sich, die ab diesem Zeitpunkt vollständig auf Wischbewegungen ausgelegt war. Zu den wichtigen Verbesserungen, die Android 10 darüber hinaus an Bord hatte, gehörten ein aktualisiertes App-Berechtigungssystem mit tioefergehenden Kontrollmöglichkeiten, eine “Darkmode”-Option, ein Fokusmodus sowie die Möglichkeit, abzuspielende Mediendateien automatisch mit Untertiteln zu versehen. Speziell in Sachen Standortdaten brachte Android 10 eine dringend nötige Nuancierung. Foto: JR Raphael | IDG Android Version 11 Mit Android Version 11 veröffentlichte Google im September 2020 ein umfassendes Software-Update, das zahlreiche Neuerungen brachte. Die wichtigste Änderung drehte sich um das Thema Datenschutz: Das mit Android 10 eingeführte Berechtigungssystem wurde um die Möglichkeit erweitert, Apps einmaligen Zugriff auf Standortdaten, Kamera oder Mikrofon zu gewähren. Mit Android 11 erschwerte Google außerdem, dass Apps den Standort der Nutzer im Hintergrund ermitteln können und führte eine Funktion ein, die Apps automatisch Berechtigungen entzieht, wenn diese für längere Zeit nicht genutzt wurden. Auf Interface-Ebene bot Android 11 außerdem einen vereinheitlichten Media Player, eine Benachrichtigungshistorie, die Möglichkeit, alle verbundenen Geräte in einer Übersicht anzuzeigen sowie eine native Screen-Recording-Funktion. Der neue Einheits-Media-Player in Android 11. Foto: JR Raphael | IDG Android Version 12 Die finale Version von Android 12 präsentierte Google pünktlich zur Markteinführung seiner Smartphones Pixel 6 und Pixel 6 Pro im Oktober 2021. Die wesentlichen Fortschritte waren bei dieser Android-Version direkt sichtbar: Sie bot die wohl größte Interface-Überarbeitung bei Android seit Lollipop und führte einen aktualisierten Design-Standard namens “Material You” ein. Das fußt auf der Idee, das Erscheinungsbild des Betriebssystems mit dynamisch generierten Themes an die individuelle “Farbwelt” des Benutzers anzupassen. Android 12 brachte einen völlig neuen frischen Look mit – dem “Material You”-Designstandard sei Dank. Foto: JR Raphael | IDG Davon abgesehen hatte Android 12 auch ein (lange überfälliges) neues Widget-System sowie eine Reihe grundlegender Verbesserungen in den Bereichen Leistung, Sicherheit und Datenschutz zu bieten. In diesem Zuge erweiterte Google sein Betriebssystem auch um einen isolierten Bereich, der KI-Funktionen auch ohne Netzwerkzugriff und Datenexposition ermöglicht. Android Version 13 Mit Android 13 veröffentlichte Google im August 2022 eine der bislang ungewöhnlichsten Android-Versionen: Sie ist eines der ehrgeizigsten Android-Updates überhaupt – beinhaltet gleichzeitig aber auch vornehmlich subtile Änderungen. Für das Nutzererlebnis spielte dabei auch eine tragende Rolle, auf welchem Device Android 13 installiert wurde. Für Tablets und faltbare Smartphones führte Android 13 ein gänzlich neues Interface-Design ein – mit dem Ziel, ein verbessertes Benutzererlebnis auf größeren Bildschirmen zu realisieren. Das schlug sich auch in einem auf Multitasking ausgelegten, aktualisierten Split-Screen-Modus und einer Taskbar im Chrome-OS-Stil nieder. Darüber hinaus schuf Android 13 auch die Vorraussetzung dafür, dass Pixel-Tablets als stationäres Smart Display fungieren konnten. Mit Blick auf Smartphones war der Release von Android 13 weit weniger bedeutsam. Neben einigen kleineren visuellen Optimierungen führte diese Android-Version ein erweitertes System für die Zwischenablage ein, eine native Funktion, um QR-Codes zu scannen, sowie weitere Optimierungen in den Bereichen Datenschutz, Sicherheit und Leistung. Android Version 14 Nach achtmonatiger Entwicklungsphase präsentierte Google Anfang Oktober 2023 Android 14 – zeitgleich zur Vorstellung seiner Pixel-8-Smartphones. Auch diese Android-Version kam eher subtil um die Ecke: Sie brachte zum Beispiel ein neues System zum Einsatz, um Text zwischen Apps im Drag-und-Drop-Verfahren auszutauschen, sowie native Anpassungsmöglichkeiten für den Android-Sperrbildschirm. Zudem durften die Nutzer mit Android 14 auf ein integriertes Dashboard zugreifen, um sämtliche ihrer Gesundheits- und Fitness-Daten zu managen. Darüber hinaus enthält diese Android-Version eine Reihe wichtiger Erweiterungen für die Barrierefreiheit – etwa eine On-Demand-Lupe, verbesserten Support für Hörgeräte sowie die Möglichkeit, eingehende Nachrichten über den Kamerablitz zu visualisieren. Die Benutzer von Pixel 8 und Pixel 8 Pro durften mit Android 14 auch erstmals und exklusiv Googles KI-basierten Wallpaper Creator austesten. Der KI-basierte Wallpaper Generator in Android 14 liefert interessante Ergebnisse. Foto: JR Raphael | IDG Android Version 15 Technisch betrachtet hat Google Android 15 bereits im September 2024 veröffentlicht – allerdings tauchte die neue Android-Version erst ab Mitte Oktober auf den hauseigenen Pixel-Geräten auf. Mit Android 15 hält eine ganze eine Reihe bemerkenswerter neuer Funktionen Einzug. Darunter eine „Private Space“-Option, die es ermöglicht, sensible Applikationen beziehungsweise Inhalte mit einer zusätzlichen Authentifizierungsebene auszustatten. Davon abgesehen verbessert Version 15 auch die mit Android 13 eingeführten Multitasking-Systeme weiter: Die Android Taskbar ist jetzt optional dauerhaft präsent. Außerdem lassen sich bestimmte App-Kombinationen ab Version 15 mit einem Fingertipp im Split-Screen-Modus aufrufen. Mit „Private Space“ sind bestimmte Apps ausschließlich über einen geschützten (und optional auch versteckten) Bereich abrufbar.JR Raphael / Foundry Weitere nennenswerte Neuerungen von Android 15 sind ein neu designtes Lautstärkeregelungs-Panel sowie ein (Pixel-exklusives) „Adaptive Vibration“-Feature, dass die Vibrationsintensität an der jeweils aktuellen Umgebung ausrichtet. Android Version 16 (Beta) Mit dem Jahr 2025 hat Google beschlossen, seinen bisherigen Android-Upgrade-Zyklus aufzubrechen: Beginnend mit der Veröffentlichung von Version 16 sollen künftig pro Jahr zwei Android-Versionen erscheinen. Den ersten Teil dieses Versprechens hat Google bereits mit der Veröffentlichung der Android-16-Beta Ende Januar 2025 umgesetzt. Die Vorabversion wird seitdem zielstrebig mit Updates auf ihren finalen Rollout – voraussichtlich im Frühjahr 2025 – vorbereitet. Zu den wichtigsten neuen Funktionen von Android 16 zählen (bislang) Live-Updates – eine neue Art von Benachrichtigungen, die ähnlich funktionieren wie die Live-Aktivitäten bei iOS. Darüber hinaus verspricht Version 16 des Google-Mobile-Betriebssystems auch eine Reihe von Verbesserungen für die Benutzeroberfläche, ein besseres Desktop-Erlebnis sowie Support für striktere Netzwerksicherheitsregeln.    Mit Android 16 sollen Android-Apps sich endlich auch im Großformat ordentlich präsentieren – statt etwa auf Tablets ein Smartphone zu „simulieren“.Google (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Alle Android-Versionen im Überblick​ Die Android-Versionshistorie ist – zumindest bis ins Jahr 2018 – mit süßen Versuchungen gepflastert.
Foto: Olezzo – shutterstock.com

Googles mobiles Betriebssystem Android blickt auf bescheidene Anfänge zurück und wurde über die Jahre immens weiterentwickelt – sowohl auf optischer als auch konzeptioneller und funktioneller Ebene. Im Folgenden haben wir alle jemals erschienenen (relevanten) Android-Versionen im Zeitverlauf für Sie zusammengestellt – inklusive ihrer jeweiligen Highlights.

Android 1.0/1.1

Sein offizielles Debüt feierte Android mit Version 1.0 im Jahr 2008 – damals noch ohne aparten Codenamen mit Backwerk-Bezug. In der Smartphone-Frühzeit waren die Dinge bei Android vor allem eines: simpel.

Der Homescreen von Android 1.0 – und sein rudimentärer Webbrowser.
Foto: T-Mobile

Dennoch konnte das Google-Betriebssystem bereits mit integrierten Apps aufwarten, etwa Gmail, Google Maps, Kalender oder Youtube. Ein krasser Gegensatz zum heute gängigen (und besser aktualisierbaren) Standalone-App-Modell.

Android 1.5 Cupcake

Mit dem Release von Android 1.5 begann Google, die Versionen seines Mobile OS nach teigigen Leckereien zu benennen. Eine Tradition, die über etliche Jahre Bestand haben sollte. Mit Cupcake hielten diverse Optimierungen der Benutzeroberfläche Einzug – unter anderem in Form der ersten virtuellen Bildschirmtastatur.

Bei Android Cupcake rückte Google Widgets in den Fokus.
Foto: Android Police

Vor allem führte Google mit Cupcake aber das Framework für Drittanbieter-App-Widgets ein, was sich schnell zu einem Android-Alleinstellungsmerkmal entwickelte. Mit Android Version 1.5 war es außerdem erstmals möglich, auch Videoaufnahmen zu realisieren.

Android 1.6 Donut

Im Herbst 2009 erblickte Android Version 1.6 – Codename Donut – das Licht der Welt. Diese Android-Version optimierte Googles mobiles Betriebssystem weiter, zum Beispiel mit Support für diverse verschiedene Bildschirmauflösungen und -formate. Ein besonders zukunftskritisches Feature für Android hielt mit der Unterstützung des Mobilfunkstandards CDMA Einzug. Letzteres begünstigte die folgende explosionsartige Ausbreitung von Android.

Die Universal Search Box hatte mit Android Version 1.6 ihren ersten Auftritt.
Foto: Google

Android 2.0/2.1 Eclair

Nur sechs Wochen nach Donut ließ Google Android 2.0 mit dem Codenamen Eclair auf die Nutzer los – einige Monate später folgte das 2.1-Update. Das erste Smartphone, das diese Android-Version nutzte, war Motorolas Milestone. Das Smartphone wurde in den USA unter der Bezeichnung “Droid” vermarktet und sollte den technikaffinen Gegenpol zu Apples iPhone bilden – zumindest legte das die relativ aggressive Marketingkampagne in den USA nahe:

Bei Apple dürfte jedoch vor allem für Verstimmung gesorgt haben, dass mit Eclair auch die bis dahin iOS-exklusive “Pinch-to-Zoom”-Funktionalität in Android eingeführt wurde. Die revolutionärsten Elemente dieser Android-Version waren jedoch sprachgesteuerte Turn-by-Turn-Navigation und Verkehrsinformationen in Echtzeit – bis dahin nicht realisierte Features in der Smartphone-Welt. Darüber hinaus hielten mit Eclair auch Live-Hintergrundbilder sowie die erste Speech-to-Text-Funktion Einzug.

Die erste Navigations- und Diktierfunktion in Android 2.0.
Foto: Google

Android 2.2 Froyo

Mit Android 2.2 widmete sich Google (vier Monate nach dem Release von Version 2.1) hauptsächlich Performance-Optimierungen unter der Haube. Android Froyo erweiterte jedoch die Benutzeroberfläche um einige praktische Funktionen – darunter das inzwischen zum Standard gewordene Dock am unteren Rand des Startbildschirms sowie die erste Version von Voice Actions. Letzteres erlaubte den Benutzern, einige grundlegende Funktionen wie Wegbeschreibungen oder Notizen abzurufen, indem sie ein Icon antippen und anschließend einen Sprachbefehl folgen lassen.

Froyo brachte Sprachsteuerung erstmals in ernsthafter Form auf Android-Telefone.
Foto: Google

Bemerkenswert ist Android Version 2.2 vor allem auch deshalb, weil es den Android-Webbrowser mit Flash-Unterstützung ausstattete. Das war nicht nur wichtig, weil Flash damals im Web allgegenwärtig war, sondern auch weil Apple sich standhaft weigerte, das iPhone um Flash-Support zu erweitern. Das war eine ganze Zeit lang ein echter Vorteil für Android – bis sich die Flash-Dominanz schließlich in Luft auflöste.

Android 2.3 Gingerbread

Mit Gingerbread versuchte Google, Android im Jahr 2010 erstmals eine echte, “visuelle Identität” zu verleihen. Die Farbe des Android-Maskottchens breitete sich mit Android Version 2.3 über die gesamte Benutzeroberfläche aus. Der erste Schritt hin zu einer eigenständigen Designsprache.

Mit Android Gingerbread nahm die Android-Designsprache ihren Anfang.
Foto: JR Raphael | IDG

Android 3.0/3.1/3.2 Honeycomb

Die Android-Honeycomb-Ära markierte ab 2011 einen weiteren Umbruch: Android 3.0 war ein Tablet-exklusives Betriebssystem, das zum Marktstart des iPad-Konkurrenten Motorola Xoom veröffentlicht wurde. Auch die Point-Updates 3.1 und 3.2 waren exklusiv auf die zu dieser Zeit stark gefragten Tablets ausgelegt.

Android Honeycomb sollte Tablets einen “Weltraum-ähnlichen”, “holografischen” Look verleihen.
Foto: JR Raphael | IDG

Zwar hatte das Konzept der Tablet-spezifischen Oberfläche schon nach kurzer Zeit wieder ausgedient – allerdings wurden mit Android 3.0 zahlreiche Ideen umgesetzt, die das heute bekannte Android definiert haben: Honeycomb war die erste Android-Version, die die Nutzer essenzielle Navigationsbefehle über virtuelle Bildschirmtasten erledigen ließ und führte das Konzept einer “Karten-basierten” UI ein.

Android 4.0 Ice Cream Sandwich

Während Honeycomb so etwas wie eine “Brückenversion” darstellte, bildete Android 4.0 – Codename Ice Cream Sandwich – den offiziellen Einstiegspunkt in die neue Android-Designwelt. Veröffentlicht wurde diese Version ebenfalls im Jahr 2011 – und verfeinerte in erster Linie die mit Honeycomb eingeführten, visuellen Konzepte. Zudem vereinheitlichte Google mit dieser Android-Version sein Betriebssystem für Mobiltelefone und Tablets.

Mit Android 4.0 wurde zudem die Steuerung über Wischbewegungen als integrale Methode etabliert, um sich zurechtzufinden – eine damals weltbewegende Neuerung. Darüber hinaus markierte Ice Cream Sandwich auch den Beginn der Umstellung des Android-Ökosystems auf ein standardisiertes Design-Framework, auch bekannt als “Holo“.

Homescreen und App Switching in Android 4.0.
Foto: JR Raphael | IDG

Android 4.1/4.2/4.3 Jelly Bean

Die Jelly-Bean-Ära erstreckte sich über drei Android-Versionen und die Jahre 2012 und 2013. Dabei wurde das frische Fundament von Ice Cream Sandwich mit Bedacht, aber zielstrebig weiter optimiert und ausgebaut. Ergebnis war ein Android-Betriebssystem, das mit neuem Schwung und Glanz zunehmend auch Mobile-Durchschnittsbenutzer begeistern konnte.

Abgesehen von der Optik brachte Jelly Bean auch einen ersten Vorgeschmack auf Google Now (das leider inzwischen zu einem zweitklassigen Newsfeed verkommen ist). Weitere Benefits, die mit Android Jelly Bean Einzug hielten, waren unter anderem ein erweitertes (sprachbasiertes) Suchsystem und Multi-User-Support. Letzteres stand allerdings nur auf Tablet-Geräten zur Verfügung. Davon abgesehen, gab auch das Quick Settings Panel in dieser Android-Version sein Debüt – genauso wie Widgets für den Sperrbildschirm.

Quick Settings und der (kurzlebige) Widget-befüllte Lockscreen in Android Jelly Bean.
Foto: JR Raphael | IDG

Android 4.4 KitKat

Mit Version 4.4 kam das Zeitalter der dunklen Farbgebung bei Android zu einem Ende. KitKat brachte Ende 2013 frischere, hellere Farben für Googles Betriebssystem und sorgte damit für eine umfassende, optische Modernisierung. Premiere feierte mit Android 4.4 außerdem das allseits bekannte “OK, Google”-Freihand-Feature (das damals nur funktionierte, wenn der Startbildschirm oder die Google-App bereits geöffnet war).

Der Kitkat-Homescreen und das dedizierte Google-Now-Panel.
Foto: JR Raphael | IDG

Die Nutzer von Google-eigenen (Nexus-)Smartphones durften sich zudem erstmals an einem Startbildschirm-Panel erfreuen, das exklusiv für Google-Dienste reserviert war.

Android 5.0/5.1 Lollipop

Mit Lollipop führte Google im Herbst 2014 den bis heute gültigen Material-Design-Standard bei Android ein, der sich nicht nur auf das Betriebssystem selbst, sondern auch auf Apps und andere Google-Produkte auswirkte. Das kartenbasierte User Interface, das bislang punktuell in Android eingesetzt wurde, wurde mit Android 5.0 zum zentralen Designaspekt.

Davon abgesehen, brachte Android Lollipop auch einige neue Funktionen in die Android-Welt – unter anderem den weiterentwickelten “Ok, Google”-Befehl, Multi-User-Support für Mobiltelefone sowie ein optimiertes Benachrichtigungsmanagement. Leider flossen mit Lollipop auch diverse Bugs ein, die in weiten Teilen erst mit der Android-Version 5.1 ab 2015 vollständig behoben werden konnten.

Mit Lollipop nahm Androids Material Design seinen Anfang.
Foto: JR Raphael | IDG

Android 6.0 Marshmallow

Im Großen und Ganzen war Marshmallow – ebenfalls im Jahr 2015 veröffentlicht – eine eher unbedeutende Android-Version, die mehr wie ein Point-Update wirkte. Allerdings setzte Marshmallow den Startpunkt dafür, dass Google jährlich eine große neue Android-Version veröffentlicht.

Android Marshmallow und “Now on Tap” (RIP).
Foto: JR Raphael | IDG

Das auffälligste Marshmallow-Feature war die vielversprechende Bildschirmsuchfunktion “Now On Tap” – die leider nie weiterentwickelt und 2016 still und heimlich beerdigt wurde. Android 6.0 enthielt jedoch auch einige subtilere Neuerungen, etwa granularere App-Berechtigungen sowie Support für Fingerabdruckscanner und USB-C.

Android 7.0/7.1 Nougat

Die Android-Versionen mit dem Codenamen Nougat wurden 2016 veröffentlicht und ergänzten Googles Mobile OS um einen nativen Split-Screen-Modus, ein neues System, um Benachrichtigungen zu managen, und eine Data-Saver-Funktion. Darüber hinaus hatte Android 7.0 bis 7.1 auch einige kleinere, aber dennoch wichtige Features an Bord – beispielsweise einen Shortcut, um zwischen Apps zu wechseln.

Der mit Nougat neu eingeführte, native Split-Screen-Modus.
Foto: JR Raphael | IDG

Die vielleicht wichtigste Neuerung von Android Nougat war jedoch die Möglichkeit, den Google Assistant zu integrieren, der etwa zwei Monate nach dem Nougat-Debüt (zusammen mit Google erstem Pixel-Smartphone) vorgestellt wurde. Der Assistant entwickelte sich in den kommenden Jahren zu einer wichtigen Android-Komponente (und den meisten anderen Google-Produkten).

Android 8.0/8.1 Oreo

Mit Version 8.0 und 8.1 – veröffentlicht im Jahr 2017 unter dem Codenamen Oreo – erhielt Android weitere Annehmlichkeiten. Unter anderem einen nativen Bild-in-Bild-Modus, eine Schlummerfunktion für Notifications sowie tiefgehendere Möglichkeiten, App-Benachrichtigungen zu kontrollieren.

Darüber hinaus war diese Android-Version auch ein Versuch von Google, Android und Chrome OS näher zusammenzubringen und die Nutzung von Android-Apps auf Chromebooks zu optimieren. Davon abgesehen war Android 8 auch vom ehrgeizigen Bestreben geprägt, mit “Project Treble” eine modulare Basis für den Android-Quellcode zu schaffen. Die Hoffnung: Es den Geräteherstellern einfacher zu machen, zeitnah Software-Updates bereitzustellen.

Android Oreo erweiterte Googles mobiles Betriebssystem um diverse bedeutende Funktionen.
Foto: JR Raphael | IDG

Android 9 Pie

Android-Version 9, auch bekannt unter dem Codenamen Pie, brachte im August 2018 frischen Wind in Googles Mobile-Ökosystem. Die wesentlichste Änderung war dabei ein hybrides Gesten-Button-Navigationssystem, das die traditionellen Navigationstasten mit einem großen, multifunktionalen “Home Button” ersetzte.

Alles neu machte Android 9 – zumindest in Sachen Bedienung.
Foto: JR Raphael | IDG

Android Pie enthielt allerdings auch einige bemerkenswerte neue Productivity-Funktionen, beispielsweise ein universelles System, um mit vorgeschlagenen Antworten auf Nachrichten zu reagieren oder ein intelligenteres Energiemanagement. Erwähnenswert sind bei dieser Android-Version zudem zahlreiche Optimierungen in Sachen Datenschutz und Sicherheit.

Android Version 10

Im September 2019 ereilte der nächste Umschwung auch die Backwerk-affine Nomenklatur: Android 10 war die erste Version, die ausschließlich mit einer Zahl bezeichnet wird. Dazu passend brachte die Betriebssystem-Software auch eine völlig neu gestaltete Oberfläche mit sich, die ab diesem Zeitpunkt vollständig auf Wischbewegungen ausgelegt war.

Zu den wichtigen Verbesserungen, die Android 10 darüber hinaus an Bord hatte, gehörten ein aktualisiertes App-Berechtigungssystem mit tioefergehenden Kontrollmöglichkeiten, eine “Darkmode”-Option, ein Fokusmodus sowie die Möglichkeit, abzuspielende Mediendateien automatisch mit Untertiteln zu versehen.

Speziell in Sachen Standortdaten brachte Android 10 eine dringend nötige Nuancierung.
Foto: JR Raphael | IDG

Android Version 11

Mit Android Version 11 veröffentlichte Google im September 2020 ein umfassendes Software-Update, das zahlreiche Neuerungen brachte. Die wichtigste Änderung drehte sich um das Thema Datenschutz: Das mit Android 10 eingeführte Berechtigungssystem wurde um die Möglichkeit erweitert, Apps einmaligen Zugriff auf Standortdaten, Kamera oder Mikrofon zu gewähren.

Mit Android 11 erschwerte Google außerdem, dass Apps den Standort der Nutzer im Hintergrund ermitteln können und führte eine Funktion ein, die Apps automatisch Berechtigungen entzieht, wenn diese für längere Zeit nicht genutzt wurden. Auf Interface-Ebene bot Android 11 außerdem einen vereinheitlichten Media Player, eine Benachrichtigungshistorie, die Möglichkeit, alle verbundenen Geräte in einer Übersicht anzuzeigen sowie eine native Screen-Recording-Funktion.

Der neue Einheits-Media-Player in Android 11.
Foto: JR Raphael | IDG

Android Version 12

Die finale Version von Android 12 präsentierte Google pünktlich zur Markteinführung seiner Smartphones Pixel 6 und Pixel 6 Pro im Oktober 2021. Die wesentlichen Fortschritte waren bei dieser Android-Version direkt sichtbar: Sie bot die wohl größte Interface-Überarbeitung bei Android seit Lollipop und führte einen aktualisierten Design-Standard namens “Material You” ein. Das fußt auf der Idee, das Erscheinungsbild des Betriebssystems mit dynamisch generierten Themes an die individuelle “Farbwelt” des Benutzers anzupassen.

Android 12 brachte einen völlig neuen frischen Look mit – dem “Material You”-Designstandard sei Dank.
Foto: JR Raphael | IDG

Davon abgesehen hatte Android 12 auch ein (lange überfälliges) neues Widget-System sowie eine Reihe grundlegender Verbesserungen in den Bereichen Leistung, Sicherheit und Datenschutz zu bieten. In diesem Zuge erweiterte Google sein Betriebssystem auch um einen isolierten Bereich, der KI-Funktionen auch ohne Netzwerkzugriff und Datenexposition ermöglicht.

Android Version 13

Mit Android 13 veröffentlichte Google im August 2022 eine der bislang ungewöhnlichsten Android-Versionen: Sie ist eines der ehrgeizigsten Android-Updates überhaupt – beinhaltet gleichzeitig aber auch vornehmlich subtile Änderungen. Für das Nutzererlebnis spielte dabei auch eine tragende Rolle, auf welchem Device Android 13 installiert wurde. Für Tablets und faltbare Smartphones führte Android 13 ein gänzlich neues Interface-Design ein – mit dem Ziel, ein verbessertes Benutzererlebnis auf größeren Bildschirmen zu realisieren. Das schlug sich auch in einem auf Multitasking ausgelegten, aktualisierten Split-Screen-Modus und einer Taskbar im Chrome-OS-Stil nieder. Darüber hinaus schuf Android 13 auch die Vorraussetzung dafür, dass Pixel-Tablets als stationäres Smart Display fungieren konnten.

Mit Blick auf Smartphones war der Release von Android 13 weit weniger bedeutsam. Neben einigen kleineren visuellen Optimierungen führte diese Android-Version ein erweitertes System für die Zwischenablage ein, eine native Funktion, um QR-Codes zu scannen, sowie weitere Optimierungen in den Bereichen Datenschutz, Sicherheit und Leistung.

Android Version 14

Nach achtmonatiger Entwicklungsphase präsentierte Google Anfang Oktober 2023 Android 14 – zeitgleich zur Vorstellung seiner Pixel-8-Smartphones. Auch diese Android-Version kam eher subtil um die Ecke: Sie brachte zum Beispiel ein neues System zum Einsatz, um Text zwischen Apps im Drag-und-Drop-Verfahren auszutauschen, sowie native Anpassungsmöglichkeiten für den Android-Sperrbildschirm. Zudem durften die Nutzer mit Android 14 auf ein integriertes Dashboard zugreifen, um sämtliche ihrer Gesundheits- und Fitness-Daten zu managen.

Darüber hinaus enthält diese Android-Version eine Reihe wichtiger Erweiterungen für die Barrierefreiheit – etwa eine On-Demand-Lupe, verbesserten Support für Hörgeräte sowie die Möglichkeit, eingehende Nachrichten über den Kamerablitz zu visualisieren. Die Benutzer von Pixel 8 und Pixel 8 Pro durften mit Android 14 auch erstmals und exklusiv Googles KI-basierten Wallpaper Creator austesten.

Der KI-basierte Wallpaper Generator in Android 14 liefert interessante Ergebnisse.
Foto: JR Raphael | IDG

Android Version 15

Technisch betrachtet hat Google Android 15 bereits im September 2024 veröffentlicht – allerdings tauchte die neue Android-Version erst ab Mitte Oktober auf den hauseigenen Pixel-Geräten auf.

Mit Android 15 hält eine ganze eine Reihe bemerkenswerter neuer Funktionen Einzug. Darunter eine „Private Space“-Option, die es ermöglicht, sensible Applikationen beziehungsweise Inhalte mit einer zusätzlichen Authentifizierungsebene auszustatten. Davon abgesehen verbessert Version 15 auch die mit Android 13 eingeführten Multitasking-Systeme weiter: Die Android Taskbar ist jetzt optional dauerhaft präsent. Außerdem lassen sich bestimmte App-Kombinationen ab Version 15 mit einem Fingertipp im Split-Screen-Modus aufrufen.

Mit „Private Space“ sind bestimmte Apps ausschließlich über einen geschützten (und optional auch versteckten) Bereich abrufbar.JR Raphael / Foundry

Weitere nennenswerte Neuerungen von Android 15 sind ein neu designtes Lautstärkeregelungs-Panel sowie ein (Pixel-exklusives) „Adaptive Vibration“-Feature, dass die Vibrationsintensität an der jeweils aktuellen Umgebung ausrichtet.

Android Version 16 (Beta)

Mit dem Jahr 2025 hat Google beschlossen, seinen bisherigen Android-Upgrade-Zyklus aufzubrechen: Beginnend mit der Veröffentlichung von Version 16 sollen künftig pro Jahr zwei Android-Versionen erscheinen. Den ersten Teil dieses Versprechens hat Google bereits mit der Veröffentlichung der Android-16-Beta Ende Januar 2025 umgesetzt. Die Vorabversion wird seitdem zielstrebig mit Updates auf ihren finalen Rollout – voraussichtlich im Frühjahr 2025 – vorbereitet.

Zu den wichtigsten neuen Funktionen von Android 16 zählen (bislang) Live-Updates – eine neue Art von Benachrichtigungen, die ähnlich funktionieren wie die Live-Aktivitäten bei iOS. Darüber hinaus verspricht Version 16 des Google-Mobile-Betriebssystems auch eine Reihe von Verbesserungen für die Benutzeroberfläche, ein besseres Desktop-Erlebnis sowie Support für striktere Netzwerksicherheitsregeln.   

Mit Android 16 sollen Android-Apps sich endlich auch im Großformat ordentlich präsentieren – statt etwa auf Tablets ein Smartphone zu „simulieren“.Google

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Alle Android-Versionen im Überblick​ Weiterlesen »

An der Beförderung arbeiten: Wie Sie den nächsten Karriereschritt machen​

Allgemein

Eine erfolgreiche Karriere erfordert eine gezielte Planung und Strategie sowie die richtige Einstellung und Motivation. Dazu gehört auch, sich regelmäßig weiterzubilden und das Netzwerk auszubauen. Mit den richtigen Werkzeugen und der entsprechenden Motivation können Sie Ihre Karriereziele erreichen und sich die nächste Beförderung sichern. Dazu sollten Sie folgende Tipps beachten: Wer eine höhere Position und mehr Verantwortung im Berufsleben anstrebt, kann mit viel Eigeninitiative dazubeitragen, die Weichen in Richtung Beförderung zu stellen. Foto: eamesBot – shutterstock.comTipp 1: Selbstreflexion und ZielsetzungBevor man sich auf den Weg macht, die nächste Beförderung zu erreichen, ist es wichtig, sich selbst zu reflektieren und sich klare Ziele zu setzen. Denn ohne Kenntnis, was man eigentlich will, wird man auch nicht wissen, wie man dorthin gelangt. Eine erfolgreiche Karriere erfordert ein gewisses Maß an Planung und Strategie.Daher empfiehlt es sich, sich folgende Fragen zu stellen: Was sind meine Stärken und Schwächen? Was sind meine Ziele im Beruf? Wo sehe ich mich in fünf Jahren? Eine ehrliche Selbstreflexion ermöglicht es, die eigenen Potenziale und Entwicklungsbereiche zu erkennen und gezielt daran zu arbeiten.Außerdem ist es wichtig, sich klare Ziele zu setzen. Was genau möchte man erreichen und in welchem Zeitrahmen? Die Ziele sollten bestenfalls spezifisch, messbar, attraktiv, relevant und terminiert beziehungsweise zeitgebunden sein – kurz gesagt: SMART. Eine klare Zielsetzung hilft dabei, den Fokus zu behalten und sich auf das Wesentliche zu konzentrieren.Tipp 2: Fachliche Kompetenz und WeiterbildungNatürlich spielt auch die fachliche Kompetenz eine wichtige Rolle bei der nächsten Beförderung. Wer sich für eine höhere Position empfehlen möchte, sollte in seinem Bereich über ein fundiertes Fachwissen verfügen. Hierzu gehört auch, sich regelmäßig weiterzubilden und auf dem aktuellen Stand zu bleiben. Das zeigt nicht nur, dass man sich für seinen Job engagiert, sondern auch, dass man bereit ist, Verantwortung zu übernehmen und neue Herausforderungen anzunehmen.Tipp 3: Netzwerken und Beziehungen pflegenEin weiterer wichtiger Faktor bei der Karriereentwicklung sind das Netzwerken und das Pflegen von Beziehungen. Dabei geht es nicht darum, sich anzubiedern oder zu schmeicheln, sondern um den Aufbau von gegenseitigem Vertrauen und Respekt. Wer ein gutes Netzwerk hat, kann von den Erfahrungen und dem Wissen anderer profitieren und wird schneller über interessante Stellenangebote informiert.Tipp 4: Sichtbarkeit erhöhenEine höhere Position bedeutet auch, dass man eine größere Sichtbarkeit im Unternehmen hat. Daher ist es wichtig, sich zu zeigen und sich aktiv einzubringen. Eine Möglichkeit dazu ist, sich an Projekten und Arbeitsgruppen zu beteiligen, Verantwortung zu übernehmen und Initiative zu zeigen. Wer sich engagiert und erfolgreich arbeitet, wird von Vorgesetzten und Kollegen wahrgenommen und hat bessere Chancen auf eine Beförderung.Dabei können sich eine gute Selbstreflexion und Kenntnis der eigenen Talente, Fähigkeiten, Werte und Überzeugungen als äußerst wertvoll erweisen. Indem man sich bewusst macht, was man kann, was einem wichtig ist und wofür man steht, kann man selbstbewusster und zielgerichteter auftreten. Gleichzeitig ermöglicht dies eine bessere Abstimmung mit dem Unternehmen, den Vorgesetzten und dem Team. Tipp 5: Kommunikation und Präsentation Neben der fachlichen Kompetenz spielt auch die Kommunikation und Präsentation eine wichtige Rolle. Wer seine Ideen und Visionen überzeugend präsentieren kann, wird eher Gehör finden und die Aufmerksamkeit der Entscheidungsträger auf sich ziehen. Auch hier gilt: Übung macht den Meister. Wer unsicher ist, kann sich in entsprechenden Kursen oder Trainings weiterbilden und seine Fähigkeiten verbessern.Tipp 6: Die richtige EinstellungEine positive Einstellung und eine hohe Motivation sind unerlässlich für eine erfolgreiche Karriere. Wer sich selbst und seinen Fähigkeiten vertraut, strahlt Selbstbewusstsein und Durchsetzungskraft aus. Das macht einen aufstrebenden Mitarbeiter für Vorgesetzte und Entscheidungsträger attraktiv und erhöht die Chancen auf eine Beförderung.Um die richtige Einstellung zu entwickeln, ist es hilfreich, sich an positiven Vorbildern zu orientieren und sich von deren Erfolgen inspirieren zu lassen. Auch eine positive Grundeinstellung gegenüber Veränderungen und Herausforderungen kann helfen, eine erfolgreiche Karriere zu gestalten.Tipp 7: Gesunder Lebensstil und Work-Life-BalanceLast but not least spielt neben den genannten Faktoren auch ein gesunder Lebensstil und eine ausgeglichene Work-Life-Balance eine wichtige Rolle bei der Karriereentwicklung. Denn wer sich körperlich und mental fit hält, kann auch im Job besser performen und seine Aufgaben erfolgreich meistern. Dazu gehört auch, sich ausreichend Zeit für Erholung und Entspannung zu gönnen. Denn nur wer auch mal abschalten und die Akkus aufladen kann, bleibt auf Dauer leistungsfähig und motiviert.Erfolgsfaktoren Motivation und KarriereplanungEine Beförderung ist für viele Arbeitnehmer ein wichtiger Schritt auf der Karriereleiter. Doch um sich erfolgreich durchzusetzen und die nächste Stufe zu erreichen, sind einige Faktoren entscheidend. Dazu gehören eine ehrliche Selbstreflexion und klare Zielsetzung, fachliche Kompetenz und Weiterbildung, Netzwerken und Beziehungen pflegen, Sichtbarkeit im Unternehmen, Kommunikations- und Präsentationsfähigkeiten, die richtige Einstellung sowie ein gesunder Lebensstil und eine ausgeglichene Work-Life-Balance.Ein Karriere-Coaching kann dabei helfen, die eigenen Potenziale zu erkennen, die Karriereziele zu definieren und eine erfolgreiche Strategie zu entwickeln. Mit den richtigen Werkzeugen und der entsprechenden Motivation können Arbeitnehmer Ihre Karriereziele erreichen und sich die nächste Beförderung sichern. (pg) Fachkarrieren als Erfolgsprojekt zur MitarbeiterbindungPraxistipps: Wie Sie Karrierekonzepte für Fachkräfte umsetzen Foto: Sergey Nivens – shutterstock.comFachkräfte sind für den Unternehmenserfolg unverzichtbar. Für Arbeitgeber ist es deshalb besonders sinnvoll, diesen Spezialisten von vorneherein Karrierechancen aufzuzeigen, ohne ihr Potenzial zwangsläufig in Führungspositionen zu vergeuden. HR- und Organisationsexpertin Regina Bergdolt gibt Tipps, wie der Projekte für Fachkarrieren erfolgreich geplant und umgesetzt werden. Projektplan festlegen Foto: Robert Kneschke – shutterstock.comDefinieren Sie klar verständliche Ziele und einen Projektplan mit Meilensteinen. Gerade Vorstände brauchen Systematik, um Fachkarrieren zu unterstützen und Ressourcen freizumachen.Stakeholder definieren Foto: Robert Kneschke – shutterstock.comKlären Sie in einer Stakeholderanalyse: Wer treibt die Fachkarriere mit Ihnen, ein Machtpromotor, Führungskräfte, Mitarbeiter, Bewerber?Projektleitung auswählen Foto: Matej Kastelic – shutterstock.comWählen Sie eine Projektleitung mit HR-Erfahrung und Standing. Nicht alle HR-Abteilungen sind schon erfahren im Projektmanagement; das können Sie ändern. Expertise sicherstellen Foto: Jacek Dudzinski – shutterstock.comHolen Sie sich die Expertise ins Projekt, die Sie benötigen, anstatt an kritischen Punkten hängen zu bleiben.Fachkarriere aktiv bewerben Foto: Andrey_Popov – shutterstock.comNutzen Sie die Fachkarriere schon im Projektstadium aktiv als Angebot des Unternehmens: auf der Karriereseite und im Gespräch mit Bewerbern. 

An der Beförderung arbeiten: Wie Sie den nächsten Karriereschritt machen​ Eine erfolgreiche Karriere erfordert eine gezielte Planung und Strategie sowie die richtige Einstellung und Motivation. Dazu gehört auch, sich regelmäßig weiterzubilden und das Netzwerk auszubauen. Mit den richtigen Werkzeugen und der entsprechenden Motivation können Sie Ihre Karriereziele erreichen und sich die nächste Beförderung sichern. Dazu sollten Sie folgende Tipps beachten: Wer eine höhere Position und mehr Verantwortung im Berufsleben anstrebt, kann mit viel Eigeninitiative dazubeitragen, die Weichen in Richtung Beförderung zu stellen.
Foto: eamesBot – shutterstock.comTipp 1: Selbstreflexion und ZielsetzungBevor man sich auf den Weg macht, die nächste Beförderung zu erreichen, ist es wichtig, sich selbst zu reflektieren und sich klare Ziele zu setzen. Denn ohne Kenntnis, was man eigentlich will, wird man auch nicht wissen, wie man dorthin gelangt. Eine erfolgreiche Karriere erfordert ein gewisses Maß an Planung und Strategie.Daher empfiehlt es sich, sich folgende Fragen zu stellen: Was sind meine Stärken und Schwächen? Was sind meine Ziele im Beruf? Wo sehe ich mich in fünf Jahren? Eine ehrliche Selbstreflexion ermöglicht es, die eigenen Potenziale und Entwicklungsbereiche zu erkennen und gezielt daran zu arbeiten.Außerdem ist es wichtig, sich klare Ziele zu setzen. Was genau möchte man erreichen und in welchem Zeitrahmen? Die Ziele sollten bestenfalls spezifisch, messbar, attraktiv, relevant und terminiert beziehungsweise zeitgebunden sein – kurz gesagt: SMART. Eine klare Zielsetzung hilft dabei, den Fokus zu behalten und sich auf das Wesentliche zu konzentrieren.Tipp 2: Fachliche Kompetenz und WeiterbildungNatürlich spielt auch die fachliche Kompetenz eine wichtige Rolle bei der nächsten Beförderung. Wer sich für eine höhere Position empfehlen möchte, sollte in seinem Bereich über ein fundiertes Fachwissen verfügen. Hierzu gehört auch, sich regelmäßig weiterzubilden und auf dem aktuellen Stand zu bleiben. Das zeigt nicht nur, dass man sich für seinen Job engagiert, sondern auch, dass man bereit ist, Verantwortung zu übernehmen und neue Herausforderungen anzunehmen.Tipp 3: Netzwerken und Beziehungen pflegenEin weiterer wichtiger Faktor bei der Karriereentwicklung sind das Netzwerken und das Pflegen von Beziehungen. Dabei geht es nicht darum, sich anzubiedern oder zu schmeicheln, sondern um den Aufbau von gegenseitigem Vertrauen und Respekt. Wer ein gutes Netzwerk hat, kann von den Erfahrungen und dem Wissen anderer profitieren und wird schneller über interessante Stellenangebote informiert.Tipp 4: Sichtbarkeit erhöhenEine höhere Position bedeutet auch, dass man eine größere Sichtbarkeit im Unternehmen hat. Daher ist es wichtig, sich zu zeigen und sich aktiv einzubringen. Eine Möglichkeit dazu ist, sich an Projekten und Arbeitsgruppen zu beteiligen, Verantwortung zu übernehmen und Initiative zu zeigen. Wer sich engagiert und erfolgreich arbeitet, wird von Vorgesetzten und Kollegen wahrgenommen und hat bessere Chancen auf eine Beförderung.Dabei können sich eine gute Selbstreflexion und Kenntnis der eigenen Talente, Fähigkeiten, Werte und Überzeugungen als äußerst wertvoll erweisen. Indem man sich bewusst macht, was man kann, was einem wichtig ist und wofür man steht, kann man selbstbewusster und zielgerichteter auftreten. Gleichzeitig ermöglicht dies eine bessere Abstimmung mit dem Unternehmen, den Vorgesetzten und dem Team. Tipp 5: Kommunikation und Präsentation Neben der fachlichen Kompetenz spielt auch die Kommunikation und Präsentation eine wichtige Rolle. Wer seine Ideen und Visionen überzeugend präsentieren kann, wird eher Gehör finden und die Aufmerksamkeit der Entscheidungsträger auf sich ziehen. Auch hier gilt: Übung macht den Meister. Wer unsicher ist, kann sich in entsprechenden Kursen oder Trainings weiterbilden und seine Fähigkeiten verbessern.Tipp 6: Die richtige EinstellungEine positive Einstellung und eine hohe Motivation sind unerlässlich für eine erfolgreiche Karriere. Wer sich selbst und seinen Fähigkeiten vertraut, strahlt Selbstbewusstsein und Durchsetzungskraft aus. Das macht einen aufstrebenden Mitarbeiter für Vorgesetzte und Entscheidungsträger attraktiv und erhöht die Chancen auf eine Beförderung.Um die richtige Einstellung zu entwickeln, ist es hilfreich, sich an positiven Vorbildern zu orientieren und sich von deren Erfolgen inspirieren zu lassen. Auch eine positive Grundeinstellung gegenüber Veränderungen und Herausforderungen kann helfen, eine erfolgreiche Karriere zu gestalten.Tipp 7: Gesunder Lebensstil und Work-Life-BalanceLast but not least spielt neben den genannten Faktoren auch ein gesunder Lebensstil und eine ausgeglichene Work-Life-Balance eine wichtige Rolle bei der Karriereentwicklung. Denn wer sich körperlich und mental fit hält, kann auch im Job besser performen und seine Aufgaben erfolgreich meistern. Dazu gehört auch, sich ausreichend Zeit für Erholung und Entspannung zu gönnen. Denn nur wer auch mal abschalten und die Akkus aufladen kann, bleibt auf Dauer leistungsfähig und motiviert.Erfolgsfaktoren Motivation und KarriereplanungEine Beförderung ist für viele Arbeitnehmer ein wichtiger Schritt auf der Karriereleiter. Doch um sich erfolgreich durchzusetzen und die nächste Stufe zu erreichen, sind einige Faktoren entscheidend. Dazu gehören eine ehrliche Selbstreflexion und klare Zielsetzung, fachliche Kompetenz und Weiterbildung, Netzwerken und Beziehungen pflegen, Sichtbarkeit im Unternehmen, Kommunikations- und Präsentationsfähigkeiten, die richtige Einstellung sowie ein gesunder Lebensstil und eine ausgeglichene Work-Life-Balance.Ein Karriere-Coaching kann dabei helfen, die eigenen Potenziale zu erkennen, die Karriereziele zu definieren und eine erfolgreiche Strategie zu entwickeln. Mit den richtigen Werkzeugen und der entsprechenden Motivation können Arbeitnehmer Ihre Karriereziele erreichen und sich die nächste Beförderung sichern. (pg)

Fachkarrieren als Erfolgsprojekt zur MitarbeiterbindungPraxistipps: Wie Sie Karrierekonzepte für Fachkräfte umsetzen
Foto: Sergey Nivens – shutterstock.comFachkräfte sind für den Unternehmenserfolg unverzichtbar. Für Arbeitgeber ist es deshalb besonders sinnvoll, diesen Spezialisten von vorneherein Karrierechancen aufzuzeigen, ohne ihr Potenzial zwangsläufig in Führungspositionen zu vergeuden. HR- und Organisationsexpertin Regina Bergdolt gibt Tipps, wie der Projekte für Fachkarrieren erfolgreich geplant und umgesetzt werden. Projektplan festlegen
Foto: Robert Kneschke – shutterstock.comDefinieren Sie klar verständliche Ziele und einen Projektplan mit Meilensteinen. Gerade Vorstände brauchen Systematik, um Fachkarrieren zu unterstützen und Ressourcen freizumachen.Stakeholder definieren
Foto: Robert Kneschke – shutterstock.comKlären Sie in einer Stakeholderanalyse: Wer treibt die Fachkarriere mit Ihnen, ein Machtpromotor, Führungskräfte, Mitarbeiter, Bewerber?Projektleitung auswählen
Foto: Matej Kastelic – shutterstock.comWählen Sie eine Projektleitung mit HR-Erfahrung und Standing. Nicht alle HR-Abteilungen sind schon erfahren im Projektmanagement; das können Sie ändern. Expertise sicherstellen
Foto: Jacek Dudzinski – shutterstock.comHolen Sie sich die Expertise ins Projekt, die Sie benötigen, anstatt an kritischen Punkten hängen zu bleiben.Fachkarriere aktiv bewerben
Foto: Andrey_Popov – shutterstock.comNutzen Sie die Fachkarriere schon im Projektstadium aktiv als Angebot des Unternehmens: auf der Karriereseite und im Gespräch mit Bewerbern.

An der Beförderung arbeiten: Wie Sie den nächsten Karriereschritt machen​ Weiterlesen »

PyScript-Einführung: Python im Browser ausführen​

Allgemein

PyScript bringt Python-Skripte direkt in den Browser – und erschließt Interaktionsmöglichkeiten zwischen Code und Webseite. Foto: VectorV | shutterstock.com PyScript wurde von einem Team um Peter Wang bei Anaconda Inc. entwickelt und im April 2022 veröffentlicht. Die Technologie macht die Python Runtime als Skriptsprache in WebAssembly-fähigen Browsern verfügbar. Dabei zielt das Framework darauf ab, eine vollständige Browser-Umgebung bereitzustellen, um Python als Web-Skriptsprache auszuführen. Zwar handelt es sich bei PyScript um ein experimentelles Projekt, das (noch) nicht für Produktionszwecke geeignet ist – allerdings lohnt es sich für Interessierte, mit den bislang verfügbaren Komponenten erste Python-trifft-JavaScript-im-Browser-Experimente zu realisieren. In diesem Artikel lesen Sie, wie das geht. Mit PyScript programmieren Im Kern besteht PyScript aus einem einzigen JavaScript-Include, das zu einer Webseite hinzugefügt wird. Dieser Include lädt die Basis-Runtime von PyScript und fügt automatisch Support für benutzerdefinierte Tags hinzu. Im Folgenden ein einfaches Beispiel für ein Hello-World-Projekt in PyScript: href=”https://pyscript.net/releases/2023.11.2/core.css” />from pyscript import displaydisplay(“Hello World!”)print(“Hello terminal!”) Das script-Tag im head des Dokuments lädt die Kernfunktionalität von PyScript. Das .css-Stylesheet ist optional, aber praktisch, weil es den Benutzern beim Laden der Seite unter anderem mitteilt, was gerade passiert. Über das Attribut type=”py” wird Python-Code in den script-Tag inkludiert. Dabei sollten Sie beachten, den Code gemäß den Python-Namenskonventionen zu formatieren. Ansonsten besteht die Gefahr, dass er nicht richtig ausgeführt werden kann. Insbesondere wenn Sie einen Editor verwenden, der HTML automatisch umformatiert, ist das relevant. Der Inhalt des script-Blocks könnte verfälscht werden. Sie können auch auf ein .py-File referieren, was sich einfacher gestalten kann, als das Script inline zu inkludieren. Sobald die PyScript-Komponenten fertig geladen sind, wird der Python-Code evaluiert. Dabei können Sie wählen, ob der Output an das DOM (mit pyscript.display) oder ein eingebettetes Terminal gesendet werden soll. Wenn Sie Letzteres verwenden wollen, müssen Sie terminal als Attribut in das script-Tag aufnehmen (dazu später mehr). Wenn das Skript in den Tags nach stdout schreibt (wie bei einem print-Statement), können Sie bestimmen, wo der Output auf der Seite angezeigt werden soll, indem Sie eine Property für output definieren. Im obenstehenden Beispiel wird stdout für das Skript an das div mit der ID von “out” weitergeleitet. Wenn Sie diesen Code in einer Datei speichern und erstmals im Webbrowser öffnen, sehen Sie zunächst einen “Lade”-Indikator. Der Browser ruft zunächst die PyScript-Laufzeit ab und richtet diese ein. Zukünftige Ladevorgänge sollten dank Zwischenspeicherung flotter ablaufen. Anschließend sollte Hello world zweifach auf der Seite erscheinen – einmal oben in HTML und einmal in einem schwarzen Fenster, dem Embedded Terminal. Von Standard-Bibliotheken importieren Skripte, die ausschließlich Python-Builtins verwenden, sind nur bedingt nützlich. Die Standardbibliothek von Python lässt sich in PyScript auf identische Weise wie bei “normalem” Python nutzen: Ein import-Befehl genügt. Entsprechend sollten Importe aus der Standardbibliothek einfach funktionieren. Wenn Sie den obigen Skriptblock ändern wollten, um die aktuelle Zeit anzuzeigen, würden Sie das wie von Python gewohnt erledigen: import datetimeprint (“Current date and time:”,datetime.datetime.now().strftime(“%Y/%m/%d %H:%M:%S”)) Bibliotheken über PyPI verwenden Mit PyScript können Sie Projektkonfigurationen, die von PyPI installiert werden sollen – einschließlich aller Drittanbieter-Packages – über eine .toml– oder .json-Datei im Projektverzeichnis angeben. Im Folgenden betrachten wir, wie das mit .toml funktioniert. Um die Projektkonfigurationsdatei zu verwenden, müssen Sie die config-Direktive in Ihr Skript-Tag einfügen: In der Datei pyscript.toml sind alle benötigten Packages aufgeführt: packages = [“package”,”another-package”] Dabei gilt es zu beachten, dass nicht alle Packages von PyPI installiert und ausgeführt werden können. Die meisten “reinen” Python-Pakete (etwa humanize) sollten problemlos laufen, genauso wie numpy, pandas, bokeh oder matplotlib. Anders sieht es bei Packages aus, die Netzwerkzugriff benötigen oder mit plattformspezifischen Elementen wie GUIs arbeiten. Sie werden höchstwahrscheinlich nicht funktionieren. Lokal importieren Ein weiteres gängiges Szenario: Andere Python-Skripte importieren, die sich im selben Verzeichnisbaum wie Ihre Webseite befinden. Importe zu verwenden, macht es einfacher mehr Python-Logik von der Webseite selbst auszulagern. Denn dort ist sie mit Ihrer Präsentation “vermischt”, was es schwierig machen könnte, damit zu arbeiten. Normalerweise nutzt Python andere, vorhandene .py-Files im Dateisystem, um anzuzeigen, was es importieren kann. PyScript arbeitet nicht auf diese Weise. Deswegen müssen Sie angeben, welche Dateien als importierbare Module verfügbar sein sollen. Dazu listen Sie die entsprechenden URLs in der Konfigurationsdatei Ihrer Anwendung in einem [files]-Block auf und definieren, wie Sie dem emulierten Dateisystem von PyScript zugeordnet werden sollen. Zum Beispiel: [files]”/module.py” = “./libs/module.py””https://mydata.com/data.csv” = “./data.csv” Jede Datei, die über die URL auf der linken Seite zugänglich ist, wird dem emulierten Dateisystem des Python-Interpreters über den Pfad auf der rechten Seite zur Verfügung gestellt. In diesem Fall ist die Datei, die Sie sehen würden, wenn Sie /module.py aufrufen würden, für Python als libs.module verfügbar. Zudem ist die Datei unter der URL https://mydata.com/data.csv im emulierten, aktuellen Arbeitsverzeichnis verfügbar. Das In-Browser-Terminal Python-Benutzer sollten mit REPL, der Konsolenschnittstelle zur Python-Laufzeitumgebung, vertraut sein. In PyScript können Sie diese in ein Live-Terminal in den Browser einbetten – oder einfach nur den Konsolen-Output Ihres Python-Programms. Um ein Terminal einzubetten, verwenden Sie ein Skript-Tag, das terminal als Attribut ausweist: Für Interaktivität müssen Sie das Attribut worker verwenden: name = input(“What is your name? “)print(f”Hello, {name}”) Der worker führt Ihr Programm in einem Web Worker aus, bei dem es sich im Wesentlichen um einen Unterprozess handelt. Zu beachten ist an dieser Stelle, dass Web Worker nicht für eine lokal geladene HTML-Datei verwendet werden können – Sie müssen sie von einem Webserver laden, der bestimmte Header bereitstellt. Wie das im Detail funktioniert, lesen Sie in der PyScript-Dokumentation. In einem PyScript-Terminal haben Sie größtenteils dieselben Möglichkeiten, wie in einer herkömmlichen Konsole – inklusive Farbgebung und Unicode. Mit DOM und JavaScript interagieren Weil PyScript auf Browser-Technologie basiert, verfügt es über Mechanismen zur DOM-Interaktion. Wenn Sie etwa den Wert eines Eingabefeldes auf einer Webseite abrufen und in Ihrem Python-Code verwenden möchten, gehen Sie folgendermaßen vor: from pyscript import window, documentinputbox = document.querySelector(“#my-input”)print(“Value of input:”, inputbox.value) PyScript enthält auch ein Modul namens pydom, das ermöglicht, Objekte auf der Seite dynamisch zu erstellen: from pyweb import pydomnew_div = pydom.create(“div”)new_div.content = “Hello World” Das erzeugt ein neues div-Element auf der Seite und befüllt es mit Text. Mit der pydom-Bibliothek sind die meisten Anpassungen, die mit DOM in JavaScript möglich sind, durchführbar. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

PyScript-Einführung: Python im Browser ausführen​ PyScript bringt Python-Skripte direkt in den Browser – und erschließt Interaktionsmöglichkeiten zwischen Code und Webseite.
Foto: VectorV | shutterstock.com

PyScript wurde von einem Team um Peter Wang bei Anaconda Inc. entwickelt und im April 2022 veröffentlicht. Die Technologie macht die Python Runtime als Skriptsprache in WebAssembly-fähigen Browsern verfügbar. Dabei zielt das Framework darauf ab, eine vollständige Browser-Umgebung bereitzustellen, um Python als Web-Skriptsprache auszuführen.

Zwar handelt es sich bei PyScript um ein experimentelles Projekt, das (noch) nicht für Produktionszwecke geeignet ist – allerdings lohnt es sich für Interessierte, mit den bislang verfügbaren Komponenten erste Python-trifft-JavaScript-im-Browser-Experimente zu realisieren.

In diesem Artikel lesen Sie, wie das geht.

Mit PyScript programmieren

Im Kern besteht PyScript aus einem einzigen JavaScript-Include, das zu einer Webseite hinzugefügt wird. Dieser Include lädt die Basis-Runtime von PyScript und fügt automatisch Support für benutzerdefinierte Tags hinzu. Im Folgenden ein einfaches Beispiel für ein Hello-World-Projekt in PyScript:

href=”https://pyscript.net/releases/2023.11.2/core.css” />from pyscript import displaydisplay(“Hello World!”)print(“Hello terminal!”)

Das script-Tag im head des Dokuments lädt die Kernfunktionalität von PyScript. Das .css-Stylesheet ist optional, aber praktisch, weil es den Benutzern beim Laden der Seite unter anderem mitteilt, was gerade passiert.

Über das Attribut type=”py” wird Python-Code in den script-Tag inkludiert. Dabei sollten Sie beachten, den Code gemäß den Python-Namenskonventionen zu formatieren. Ansonsten besteht die Gefahr, dass er nicht richtig ausgeführt werden kann. Insbesondere wenn Sie einen Editor verwenden, der HTML automatisch umformatiert, ist das relevant. Der Inhalt des script-Blocks könnte verfälscht werden. Sie können auch auf ein .py-File referieren, was sich einfacher gestalten kann, als das Script inline zu inkludieren.

Sobald die PyScript-Komponenten fertig geladen sind, wird der Python-Code evaluiert. Dabei können Sie wählen, ob der Output an das DOM (mit pyscript.display) oder ein eingebettetes Terminal gesendet werden soll. Wenn Sie Letzteres verwenden wollen, müssen Sie terminal als Attribut in das script-Tag aufnehmen (dazu später mehr).

Wenn das Skript in den Tags nach stdout schreibt (wie bei einem print-Statement), können Sie bestimmen, wo der Output auf der Seite angezeigt werden soll, indem Sie eine Property für output definieren. Im obenstehenden Beispiel wird stdout für das Skript an das div mit der ID von “out” weitergeleitet.

Wenn Sie diesen Code in einer Datei speichern und erstmals im Webbrowser öffnen, sehen Sie zunächst einen “Lade”-Indikator. Der Browser ruft zunächst die PyScript-Laufzeit ab und richtet diese ein. Zukünftige Ladevorgänge sollten dank Zwischenspeicherung flotter ablaufen. Anschließend sollte Hello world zweifach auf der Seite erscheinen – einmal oben in HTML und einmal in einem schwarzen Fenster, dem Embedded Terminal.

Von Standard-Bibliotheken importieren

Skripte, die ausschließlich Python-Builtins verwenden, sind nur bedingt nützlich. Die Standardbibliothek von Python lässt sich in PyScript auf identische Weise wie bei “normalem” Python nutzen: Ein import-Befehl genügt. Entsprechend sollten Importe aus der Standardbibliothek einfach funktionieren.

Wenn Sie den obigen Skriptblock ändern wollten, um die aktuelle Zeit anzuzeigen, würden Sie das wie von Python gewohnt erledigen:

import datetimeprint (“Current date and time:”,datetime.datetime.now().strftime(“%Y/%m/%d %H:%M:%S”))

Bibliotheken über PyPI verwenden

Mit PyScript können Sie Projektkonfigurationen, die von PyPI installiert werden sollen – einschließlich aller Drittanbieter-Packages – über eine .toml– oder .json-Datei im Projektverzeichnis angeben. Im Folgenden betrachten wir, wie das mit .toml funktioniert. Um die Projektkonfigurationsdatei zu verwenden, müssen Sie die config-Direktive in Ihr Skript-Tag einfügen:

In der Datei pyscript.toml sind alle benötigten Packages aufgeführt:

packages = [“package”,”another-package”]

Dabei gilt es zu beachten, dass nicht alle Packages von PyPI installiert und ausgeführt werden können. Die meisten “reinen” Python-Pakete (etwa humanize) sollten problemlos laufen, genauso wie numpy, pandas, bokeh oder matplotlib. Anders sieht es bei Packages aus, die Netzwerkzugriff benötigen oder mit plattformspezifischen Elementen wie GUIs arbeiten. Sie werden höchstwahrscheinlich nicht funktionieren.

Lokal importieren

Ein weiteres gängiges Szenario: Andere Python-Skripte importieren, die sich im selben Verzeichnisbaum wie Ihre Webseite befinden. Importe zu verwenden, macht es einfacher mehr Python-Logik von der Webseite selbst auszulagern. Denn dort ist sie mit Ihrer Präsentation “vermischt”, was es schwierig machen könnte, damit zu arbeiten.

Normalerweise nutzt Python andere, vorhandene .py-Files im Dateisystem, um anzuzeigen, was es importieren kann. PyScript arbeitet nicht auf diese Weise. Deswegen müssen Sie angeben, welche Dateien als importierbare Module verfügbar sein sollen.

Dazu listen Sie die entsprechenden URLs in der Konfigurationsdatei Ihrer Anwendung in einem [files]-Block auf und definieren, wie Sie dem emulierten Dateisystem von PyScript zugeordnet werden sollen. Zum Beispiel:

[files]”/module.py” = “./libs/module.py””https://mydata.com/data.csv” = “./data.csv”

Jede Datei, die über die URL auf der linken Seite zugänglich ist, wird dem emulierten Dateisystem des Python-Interpreters über den Pfad auf der rechten Seite zur Verfügung gestellt. In diesem Fall ist die Datei, die Sie sehen würden, wenn Sie /module.py aufrufen würden, für Python als libs.module verfügbar. Zudem ist die Datei unter der URL https://mydata.com/data.csv im emulierten, aktuellen Arbeitsverzeichnis verfügbar.

Das In-Browser-Terminal

Python-Benutzer sollten mit REPL, der Konsolenschnittstelle zur Python-Laufzeitumgebung, vertraut sein. In PyScript können Sie diese in ein Live-Terminal in den Browser einbetten – oder einfach nur den Konsolen-Output Ihres Python-Programms.

Um ein Terminal einzubetten, verwenden Sie ein Skript-Tag, das terminal als Attribut ausweist:

Für Interaktivität müssen Sie das Attribut worker verwenden:

name = input(“What is your name? “)print(f”Hello, {name}”)

Der worker führt Ihr Programm in einem Web Worker aus, bei dem es sich im Wesentlichen um einen Unterprozess handelt. Zu beachten ist an dieser Stelle, dass Web Worker nicht für eine lokal geladene HTML-Datei verwendet werden können – Sie müssen sie von einem Webserver laden, der bestimmte Header bereitstellt. Wie das im Detail funktioniert, lesen Sie in der PyScript-Dokumentation.

In einem PyScript-Terminal haben Sie größtenteils dieselben Möglichkeiten, wie in einer herkömmlichen Konsole – inklusive Farbgebung und Unicode.

Mit DOM und JavaScript interagieren

Weil PyScript auf Browser-Technologie basiert, verfügt es über Mechanismen zur DOM-Interaktion. Wenn Sie etwa den Wert eines Eingabefeldes auf einer Webseite abrufen und in Ihrem Python-Code verwenden möchten, gehen Sie folgendermaßen vor:

from pyscript import window, documentinputbox = document.querySelector(“#my-input”)print(“Value of input:”, inputbox.value)

PyScript enthält auch ein Modul namens pydom, das ermöglicht, Objekte auf der Seite dynamisch zu erstellen:

from pyweb import pydomnew_div = pydom.create(“div”)new_div.content = “Hello World”

Das erzeugt ein neues div-Element auf der Seite und befüllt es mit Text. Mit der pydom-Bibliothek sind die meisten Anpassungen, die mit DOM in JavaScript möglich sind, durchführbar. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

PyScript-Einführung: Python im Browser ausführen​ Weiterlesen »

Nutanix erweitert sein Ökosystem​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?quality=50&strip=all 8256w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Rajiv Ramaswami, President & CEO Nutanix, stellt in seiner Keynote die neuen Anforderungen an die Cloud-Infrastruktur vor.Nutanix Nutanix konnte zu seiner NEXT Konferenz in Washington, D.C., mehr als 5.000 Teilnehmer begrüßen. Eine der wichtigsten Neuigkeiten, die Nutanix Kubernetes Platform (NKP) hat dabei sogar deutsche Wurzeln. „Die Nutanix Kubernetes Platform (NKP) ist zwar neu, beruht aber auf unserer ausgereiften Technologie“, erklärt Tobi Knaup, VP und General Manager Cloud Native Nutanix stolz. Er begann seine berufliche Laufbahn als Assistent an der TU München, 2013 gründete er dann das Hamburger Start–up Mesosphere, das 2019 zu D2IQ umfirmierte und 2023 von Nutanix übernommen wurde. Mit der Umbenennung ging eine Abwendung von Apache Mesos und die volle Konzentration auf Kubernetes einher.   Nutanix Kubernetes Platform erhält neue Funktionen   Version 2.14 (März 2025) der Lösung erweitert die Anzahl der validierten und von NKP verwalteten Kubernetes-Services auf 13, indem es eine von Harbor betriebene, produktionsbereite Image-Registry hinzufügt, die es Kunden erlaubt, Kubernetes-Cluster in Unternehmensqualität zu betreiben. Darüber hinaus wurde die Integration mit der Nutanix- Objects- Storage-Lösung hinzugefügt, um ein breiteres Portfolio an Datendiensten für Kubernetes auf der Nutanix Cloud Platform (NCP) zu ermöglichen.  Außerdem bietet NKP jetzt einen Container Object Storage Interface (COSI)-Treiber für Nutanix Objects Storage, mit dem Benutzer deklarativ Nutanix- Objects- Storage-Buckets unter Verwendung von Kubernetes Custom Resource Definitions (CRDs) erstellen und verwalten können. Mit dieser Integration müssen Betreiber Storage-Buckets nicht mehr manuell erstellen und verwalten, was es viel einfacher macht, den Objektspeicher für Cloud-native Anwendungen zu nutzen.  Läuft NKP auf Nutanix Cloud Clusters (NC2), kann dies bei Anwendungen helfen, die in virtuellen Maschinen (VMs) laufen, und ebenso containerisierten Anwendungen auf Kubernetes. So unterstützen Kubernetes-Cluster standardmäßig nur 110 Pods pro Knoten. Beim Skalieren besteht die Gefahr, dass größere Knoten Ressourcen verschwenden. Es ist zwar möglich, die maximal unterstützte Anzahl von Pods pro Knoten zu ändern, doch erfordert dies Fachwissen, um sicherzustellen, dass es in der Produktion funktioniert. Außerdem kann eine Änderung der Pod-Obergrenze die Rückwärtskompatibilität und den Betrieb anderer Open-Source-Projekte beeinträchtigen.  Mit dem lokalen NVMe/SSD-Speicher auf NC2-Bare-Metal-Knoten kann NC2 für eine konsistente Leistung sorgen. Wenn containerisierte Anwendungen viele persistente Volumes mit garantiertem Durchsatz und IOPS benötigen, müssen Kunden mehr für Ihren Hyperscaler bezahlen.   Außerdem erhalten Worker Nodes die gleichen Leistungsvorteile, wenn sie Pods ausführen. Dies reduziert auch die Konfiguration für  containerisierte Anwendungen, da NC2 die Gesamtleistung des NC2-Clusters gemeinsam nutzen kann, anstatt sie auf Cloud-basierte Volumes aufzuteilen. Nutanix-Storage bietet darüber hinaus Enterprise-Funktionen wie Komprimierung und Erasure Encoding, die die Bare-Metal-Kosten vermindern.  Cloud Native AOS  Die auf der Nutanix NEXT vorgestellte Nutanix Cloud Native AOS (CN-AOS)-Lösung wird die im März 2024 veröffentlichte Lösung „Nutanix Data Services for Kubernetes“ (NDK) erweitern. Cloud Native AOS” baut auf NDK auf und adressiert zusätzlich containerisierte Workloads, ohne dass ein Hypervisor erforderlich ist. Es stellt Nutanix AOS Storage als eine Reihe von Microservices bereit, die innerhalb von Kubernetes laufen. Dadurch wird die Integration von Datendiensten in Anwendungen ermöglicht, die durch ein vollwertiges Enterprise-Storage-System unterstützt werden.  CN-AOS containerisiert Nutanix-Speicher und integriert so Enterprise Resiliency, Day-2-Operations und Sicherheit in heterogene Kubernetes-Cluster, die in öffentlichen Clouds oder auf Bare-Metal-Servern bereitgestellt werden.  Die Integration von persistenten Datendiensten in Cloud-Native-Anwendungsumgebungen kann nun auch ohne Hypervisor erfolgen. Dadurch wird eine nahtlose Verwaltung und Portabilität von containerisierten Anwendungen und deren Daten mit herkömmlichen virtualisierten Rechenzentren ermöglicht.  Datenpersistenz für Kubernetes  Containerisierte Anwendungen bestehen aus einer Sammlung von Microservices, die zusammenarbeiten und von Kubernetes orchestriert werden. Cloud-native Microservices sind in der Regel zustandslos und werden in kontrollierten, monolithischen Hyperscaler-Umgebungen mit einer separaten Datenpersistenzschicht bereitgestellt, die von jedem Hyperscaler bereitgestellt wird.  Die Bereitstellung von Containern in der Hybrid-Cloud, einschließlich Bare-Metal-Instanzen, erfordert einen neuen Ansatz für die Verwaltung persistenter Daten in verschiedenen Kubernetes-Umgebungen.  Anwendungen, die mit einem PaaS-Datenservice erstellt wurden, können in der Regel nur in der öffentlichen Cloud des jeweiligen Anbieters bereitgestellt werden. Wenn eine Anwendung aufgrund eines Ausfalls auf Ebene der Availability Zone (AZ), der Region oder sogar der Public Cloud nicht mehr verfügbar ist, muss die Datenpersistenzschicht auch am Zielstandort vorhanden sein, damit die Anwendung wiederhergestellt werden kann. Dies muss getrennt von der Kubernetes-Anwendung verwaltet werden, was das Risiko beim Failover im Katastrophenfall erhöhen kann.  Die Speicherung persistenter Daten innerhalb der Kubernetes-Anwendung selbst löst diese beiden Herausforderungen. Dadurch wird einer der Hauptvorteile von Microservices und Kubernetes erreicht: eine flexible Bereitstellung mit reduziertem Risiko.  Erweitertes Ökosystem  Nutanix vertieft seine Partnerschaft mit anderen Technologieanbietern. Dazu schließt sich das Unternehmen mit zahlreichen Cybersecurity-Partnern zusammen und passt sich an das NIST Cybersecurity Framework 2.0 an.   Besonderes Gewicht hat die neue Allianz mit Pure Storage: Im Rahmen dieser Zusammenarbeit wird die Nutanix Cloud Infrastructure, die auf dem Nutanix AHV Hypervisor und Nutanix Flow Virtual Networking und Security basiert, mit Pure Storage FlashArray über NVMe/TCP kombiniert. Die Lösung soll im Sommer als Early Access bereitstehen und bis Jahresende generell verfügbar sein.   Die Kooperation folgt einer ähnlichen Partnerschaft mit Dell Technologies: Im vergangenen Jahr angekündigt, ist die Integration der Dell PowerFlex mit der Nutanix Cloud Platform (NCP) jetzt allgemein verfügbar. Weitere Kooperationen sind in naher Zukunft zu erwarten, da Nutanix allgemein die Strategie verfolgt, mit den Anbietern von externer Storage zusammenzuarbeiten.  Nutanix bewährt sich als VMware-Alternative  Angesichts der Turbulenzen rund um Broadcom/VMware, das die Preise stark erhöht hat, positioniert sich Nutanix als attraktive und kostengünstige Alternative. Zwar greifen in ähnlicher Weise auch Red Hat mit Open Shift und Suse mit Rancher VMware an. Laut deutschen Nutanix-Partnern kann Nutanix einige entscheidende Vorteile in die Waagschale werfen. So räumt Hamza Nadi, Head of Solution Sales bei SVA, ein, dass Broadcom mit über 1.000 Kunden zwar ein wichtiger Partner für sein Unternehmen bleibe. Gleichzeitig habe man aber auch bereits über 200 Kunden erfolgreich zu Nutanix migriert und verfüge über mehr als 50 Spezialisten für den Anbieter. Die Stärken von Nutanix liegen laut Nadi in der Plattform und im Ökosystem. So habe SVA erst vor kurzem in einer Woche ein kleines Unternehmen mit 150 VMs migriert. „Bei größeren Kunden dauert es etwas länger, denn diese benötigen ein Wartungsfenster. Die Migration selbst ist hoch automatisiert mit Nutanix Move, das sehr stabil und umfangreich ist“, erklärt Nadi.   „Wir haben rund 70 Nutanix- Kunden und verabschieden uns gerade von VMware“, berichtet Martin Schor, CEO der Schweizer Axians Amanox AG. Es gebe am Markt ein großes Interesse an einer Migration weg von VMware, wobei die Kosten allein nicht der Grund seien, konstatiert er: „Der Mehrwert der Technologie ist der Schlüssel und hier hat Nutanix viel zu bieten. Wir sind auch Red-Hat-Partner, aber sehen es eher als Ergänzung.“  Johannes Hotz, Niederlassungsleiter Donau/ Iller bei Kramer & Crew, dem ältesten deutschen Partner von Nutanix, sieht das ähnlich: „Die Kunden wollen eine Alternative zu VMware und da ist einzig Nutanix sinnvoll. Es ist von der Handhabung einfacher zu installieren als die Linux Alternativen. Von einigen Softwareherstellern gibt es noch keine Freigaben, sonst gibt es keine technischen Probleme.“  Die manchmal erwähnten, langen Migrationszeiten kann Hotz nicht nachvollziehen. „Das Move Tool funktioniert sehr gut“, erklärt er. „Beispielsweise haben wir 150 VMs an einem Wochenende migriert, sonst dauert es oft mehrere Wochen.“  Aus Sicht von Michael Hillewaert, CEO der Metsi Group aus Belgien, ist die wichtigste Herausforderung, dass sich der Kunde auf eine andere Mentalität von Nutanix einlässt. Die Migration selbst sei leicht, die Änderung der Gewohnheiten jedoch schwieriger. Gleichzeitig weist er darauf hin, dass die Akzeptanz von Nutanix unterschätzt werde: „Die Motivation zum Umstieg ist zunächst finanziell. Aber wenn die Kunden das Werkzeug sehen, erkennen sie den Wert.“  Gute Bewertungen für Nutanix Cloud Platform (NCP)   Auch die Marktforscher von IDC geben Nutanix gute Noten. In einer Studie hat IDC untersucht, welche Vorteile der Einsatz der Nutanix Cloud Platform für Unternehmen bringt. Das Ergebnis: Den Analysten zufolge ermöglicht NCP ihnen eine verbesserte Skalierbarkeit, Zuverlässigkeit und Leistung, während die Unternehmen gleichzeitig Kosteneinsparungen durch eine bessere Ressourcennutzung und eine höhere Personaleffizienz erreichen.   So konnten die Unternehmen ihre Betriebskosten im Schnitt um 41 Prozent reduzieren, während sich der Return on Investment (ROI) über drei Jahre auf 391 Prozent belief. Die Investitionen in die Technologie zahlten sich laut IDC bereits nach sieben Monaten aus.   

Nutanix erweitert sein Ökosystem​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?quality=50&strip=all 8256w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Rajiv Ramaswami, President & CEO Nutanix, stellt in seiner Keynote die neuen Anforderungen an die Cloud-Infrastruktur vor.Nutanix

Nutanix konnte zu seiner NEXT Konferenz in Washington, D.C., mehr als 5.000 Teilnehmer begrüßen. Eine der wichtigsten Neuigkeiten, die Nutanix Kubernetes Platform (NKP) hat dabei sogar deutsche Wurzeln. „Die Nutanix Kubernetes Platform (NKP) ist zwar neu, beruht aber auf unserer ausgereiften Technologie“, erklärt Tobi Knaup, VP und General Manager Cloud Native Nutanix stolz. Er begann seine berufliche Laufbahn als Assistent an der TU München, 2013 gründete er dann das Hamburger Start–up Mesosphere, das 2019 zu D2IQ umfirmierte und 2023 von Nutanix übernommen wurde. Mit der Umbenennung ging eine Abwendung von Apache Mesos und die volle Konzentration auf Kubernetes einher.  

Nutanix Kubernetes Platform erhält neue Funktionen  

Version 2.14 (März 2025) der Lösung erweitert die Anzahl der validierten und von NKP verwalteten Kubernetes-Services auf 13, indem es eine von Harbor betriebene, produktionsbereite Image-Registry hinzufügt, die es Kunden erlaubt, Kubernetes-Cluster in Unternehmensqualität zu betreiben. Darüber hinaus wurde die Integration mit der Nutanix- Objects- Storage-Lösung hinzugefügt, um ein breiteres Portfolio an Datendiensten für Kubernetes auf der Nutanix Cloud Platform (NCP) zu ermöglichen. 

Außerdem bietet NKP jetzt einen Container Object Storage Interface (COSI)-Treiber für Nutanix Objects Storage, mit dem Benutzer deklarativ Nutanix- Objects- Storage-Buckets unter Verwendung von Kubernetes Custom Resource Definitions (CRDs) erstellen und verwalten können. Mit dieser Integration müssen Betreiber Storage-Buckets nicht mehr manuell erstellen und verwalten, was es viel einfacher macht, den Objektspeicher für Cloud-native Anwendungen zu nutzen. 

Läuft NKP auf Nutanix Cloud Clusters (NC2), kann dies bei Anwendungen helfen, die in virtuellen Maschinen (VMs) laufen, und ebenso containerisierten Anwendungen auf Kubernetes. So unterstützen Kubernetes-Cluster standardmäßig nur 110 Pods pro Knoten. Beim Skalieren besteht die Gefahr, dass größere Knoten Ressourcen verschwenden. Es ist zwar möglich, die maximal unterstützte Anzahl von Pods pro Knoten zu ändern, doch erfordert dies Fachwissen, um sicherzustellen, dass es in der Produktion funktioniert. Außerdem kann eine Änderung der Pod-Obergrenze die Rückwärtskompatibilität und den Betrieb anderer Open-Source-Projekte beeinträchtigen. 

Mit dem lokalen NVMe/SSD-Speicher auf NC2-Bare-Metal-Knoten kann NC2 für eine konsistente Leistung sorgen. Wenn containerisierte Anwendungen viele persistente Volumes mit garantiertem Durchsatz und IOPS benötigen, müssen Kunden mehr für Ihren Hyperscaler bezahlen.  

Außerdem erhalten Worker Nodes die gleichen Leistungsvorteile, wenn sie Pods ausführen. Dies reduziert auch die Konfiguration für  containerisierte Anwendungen, da NC2 die Gesamtleistung des NC2-Clusters gemeinsam nutzen kann, anstatt sie auf Cloud-basierte Volumes aufzuteilen. Nutanix-Storage bietet darüber hinaus Enterprise-Funktionen wie Komprimierung und Erasure Encoding, die die Bare-Metal-Kosten vermindern. 

Cloud Native AOS 

Die auf der Nutanix NEXT vorgestellte Nutanix Cloud Native AOS (CN-AOS)-Lösung wird die im März 2024 veröffentlichte Lösung „Nutanix Data Services for Kubernetes“ (NDK) erweitern. Cloud Native AOS” baut auf NDK auf und adressiert zusätzlich containerisierte Workloads, ohne dass ein Hypervisor erforderlich ist. Es stellt Nutanix AOS Storage als eine Reihe von Microservices bereit, die innerhalb von Kubernetes laufen. Dadurch wird die Integration von Datendiensten in Anwendungen ermöglicht, die durch ein vollwertiges Enterprise-Storage-System unterstützt werden. 

CN-AOS containerisiert Nutanix-Speicher und integriert so Enterprise Resiliency, Day-2-Operations und Sicherheit in heterogene Kubernetes-Cluster, die in öffentlichen Clouds oder auf Bare-Metal-Servern bereitgestellt werden. 

Die Integration von persistenten Datendiensten in Cloud-Native-Anwendungsumgebungen kann nun auch ohne Hypervisor erfolgen. Dadurch wird eine nahtlose Verwaltung und Portabilität von containerisierten Anwendungen und deren Daten mit herkömmlichen virtualisierten Rechenzentren ermöglicht. 

Datenpersistenz für Kubernetes 

Containerisierte Anwendungen bestehen aus einer Sammlung von Microservices, die zusammenarbeiten und von Kubernetes orchestriert werden. Cloud-native Microservices sind in der Regel zustandslos und werden in kontrollierten, monolithischen Hyperscaler-Umgebungen mit einer separaten Datenpersistenzschicht bereitgestellt, die von jedem Hyperscaler bereitgestellt wird. 

Die Bereitstellung von Containern in der Hybrid-Cloud, einschließlich Bare-Metal-Instanzen, erfordert einen neuen Ansatz für die Verwaltung persistenter Daten in verschiedenen Kubernetes-Umgebungen. 

Anwendungen, die mit einem PaaS-Datenservice erstellt wurden, können in der Regel nur in der öffentlichen Cloud des jeweiligen Anbieters bereitgestellt werden. Wenn eine Anwendung aufgrund eines Ausfalls auf Ebene der Availability Zone (AZ), der Region oder sogar der Public Cloud nicht mehr verfügbar ist, muss die Datenpersistenzschicht auch am Zielstandort vorhanden sein, damit die Anwendung wiederhergestellt werden kann. Dies muss getrennt von der Kubernetes-Anwendung verwaltet werden, was das Risiko beim Failover im Katastrophenfall erhöhen kann. 

Die Speicherung persistenter Daten innerhalb der Kubernetes-Anwendung selbst löst diese beiden Herausforderungen. Dadurch wird einer der Hauptvorteile von Microservices und Kubernetes erreicht: eine flexible Bereitstellung mit reduziertem Risiko. 

Erweitertes Ökosystem 

Nutanix vertieft seine Partnerschaft mit anderen Technologieanbietern. Dazu schließt sich das Unternehmen mit zahlreichen Cybersecurity-Partnern zusammen und passt sich an das NIST Cybersecurity Framework 2.0 an.  

Besonderes Gewicht hat die neue Allianz mit Pure Storage: Im Rahmen dieser Zusammenarbeit wird die Nutanix Cloud Infrastructure, die auf dem Nutanix AHV Hypervisor und Nutanix Flow Virtual Networking und Security basiert, mit Pure Storage FlashArray über NVMe/TCP kombiniert. Die Lösung soll im Sommer als Early Access bereitstehen und bis Jahresende generell verfügbar sein.  

Die Kooperation folgt einer ähnlichen Partnerschaft mit Dell Technologies: Im vergangenen Jahr angekündigt, ist die Integration der Dell PowerFlex mit der Nutanix Cloud Platform (NCP) jetzt allgemein verfügbar. Weitere Kooperationen sind in naher Zukunft zu erwarten, da Nutanix allgemein die Strategie verfolgt, mit den Anbietern von externer Storage zusammenzuarbeiten. 

Nutanix bewährt sich als VMware-Alternative 

Angesichts der Turbulenzen rund um Broadcom/VMware, das die Preise stark erhöht hat, positioniert sich Nutanix als attraktive und kostengünstige Alternative. Zwar greifen in ähnlicher Weise auch Red Hat mit Open Shift und Suse mit Rancher VMware an.

Laut deutschen Nutanix-Partnern kann Nutanix einige entscheidende Vorteile in die Waagschale werfen. So räumt Hamza Nadi, Head of Solution Sales bei SVA, ein, dass Broadcom mit über 1.000 Kunden zwar ein wichtiger Partner für sein Unternehmen bleibe. Gleichzeitig habe man aber auch bereits über 200 Kunden erfolgreich zu Nutanix migriert und verfüge über mehr als 50 Spezialisten für den Anbieter. Die Stärken von Nutanix liegen laut Nadi in der Plattform und im Ökosystem. So habe SVA erst vor kurzem in einer Woche ein kleines Unternehmen mit 150 VMs migriert. „Bei größeren Kunden dauert es etwas länger, denn diese benötigen ein Wartungsfenster. Die Migration selbst ist hoch automatisiert mit Nutanix Move, das sehr stabil und umfangreich ist“, erklärt Nadi.  

„Wir haben rund 70 Nutanix- Kunden und verabschieden uns gerade von VMware“, berichtet Martin Schor, CEO der Schweizer Axians Amanox AG. Es gebe am Markt ein großes Interesse an einer Migration weg von VMware, wobei die Kosten allein nicht der Grund seien, konstatiert er: „Der Mehrwert der Technologie ist der Schlüssel und hier hat Nutanix viel zu bieten. Wir sind auch Red-Hat-Partner, aber sehen es eher als Ergänzung.“ 

Johannes Hotz, Niederlassungsleiter Donau/ Iller bei Kramer & Crew, dem ältesten deutschen Partner von Nutanix, sieht das ähnlich: „Die Kunden wollen eine Alternative zu VMware und da ist einzig Nutanix sinnvoll. Es ist von der Handhabung einfacher zu installieren als die Linux Alternativen. Von einigen Softwareherstellern gibt es noch keine Freigaben, sonst gibt es keine technischen Probleme.“ 

Die manchmal erwähnten, langen Migrationszeiten kann Hotz nicht nachvollziehen. „Das Move Tool funktioniert sehr gut“, erklärt er. „Beispielsweise haben wir 150 VMs an einem Wochenende migriert, sonst dauert es oft mehrere Wochen.“ 

Aus Sicht von Michael Hillewaert, CEO der Metsi Group aus Belgien, ist die wichtigste Herausforderung, dass sich der Kunde auf eine andere Mentalität von Nutanix einlässt. Die Migration selbst sei leicht, die Änderung der Gewohnheiten jedoch schwieriger. Gleichzeitig weist er darauf hin, dass die Akzeptanz von Nutanix unterschätzt werde: „Die Motivation zum Umstieg ist zunächst finanziell. Aber wenn die Kunden das Werkzeug sehen, erkennen sie den Wert.“ 

Gute Bewertungen für Nutanix Cloud Platform (NCP)  

Auch die Marktforscher von IDC geben Nutanix gute Noten. In einer Studie hat IDC untersucht, welche Vorteile der Einsatz der Nutanix Cloud Platform für Unternehmen bringt. Das Ergebnis: Den Analysten zufolge ermöglicht NCP ihnen eine verbesserte Skalierbarkeit, Zuverlässigkeit und Leistung, während die Unternehmen gleichzeitig Kosteneinsparungen durch eine bessere Ressourcennutzung und eine höhere Personaleffizienz erreichen.  

So konnten die Unternehmen ihre Betriebskosten im Schnitt um 41 Prozent reduzieren, während sich der Return on Investment (ROI) über drei Jahre auf 391 Prozent belief. Die Investitionen in die Technologie zahlten sich laut IDC bereits nach sieben Monaten aus.  

Nutanix erweitert sein Ökosystem​ Weiterlesen »

Digitale Souveränität: KI-Chip Made in München​

Allgemein

Der neue KI-Chip AI Pro wird auf einer Leiterplatte montiert. Andreas Heddergott/TU Muenchen Digitale Souveränität in Sachen KI-Chips und die Dominanz von Nvidia und Co. brechen? Das lässt sich eventuell mit dem von Hussam Amrouch entwickelten Chip AI Pro realisieren. Der Professor der Technischen Universität München (TUM) hat einen KI-Chip entworfen, der über eine neuromorphe Architektur verfügt. Dies ermöglicht AI Pro, Berechnungen vor Ort und damit Cyber-sicher auszuführen. Zudem verbraucht er bis zu zehnmal weniger Energie als ein herkömmlicher KI-Chip. Anders als bei klassischen Chips liegen Rechen- und Speichereinheit beim AI Pro zusammen. Das ist möglich, da der Chip nach dem Prinzip des „hyperdimensional computing“ arbeitet: Das bedeutet, dass er Ähnlichkeiten und Muster erkennt, aber nicht Millionen von Datensätzen zum Lernen benötigt. KI-Chip kombiniert Informationen Statt unzählige Bilder von Autos gezeigt zu bekommen, wie beim Deep Learning, das bei herkömmlichen KI-Chips zum Einsatz kommt, kombiniert dieser Chip diverse Informationen. Etwa, dass ein Auto vier Räder hat, in der Regel auf der Straße fährt und unterschiedliche Formen haben kann. „Auch Menschen abstrahieren und lernen durch Ähnlichkeiten“, erläutert Amrouch. „Während Nvidia eine Plattform gebaut hat, die auf Cloud-Daten angewiesen ist und verspricht, jedes Problem zu lösen, haben wir einen KI-Chip entwickelt, der kundenspezifische Lösungen ermöglicht“, beschreibt der Professor das Potenzial des Chips. „Hier schlummert ein enormer Markt.“ Allerdings verfügt sein Chip lediglich über rund zehn Millionen Transistoren und ist damit nicht ganz so dicht gepackt und auch nicht ganz so leistungsfähig wie Nvidia-Chips mit 200 Milliarden Transistoren. Daten vor Ort verarbeiten Doch darauf kommt es Amrouch nicht primär an. Er und sein Team haben sich auf KI-Chips spezialisiert, die Daten direkt vor Ort verarbeiten. Damit müssen die Informationen nicht erst in die Cloud geschickt und dort zusammen mit Millionen anderen Datensätzen verarbeitet sowie wieder zurückgeschickt werden. Das spart nach Darstellung der Münchner Zeit, Rechenkapazitäten von Servern und reduziert den CO₂-Fußabdruck von KI. Erste Prototypen hat der Professor für KI-Prozessor-Design bereits beim Halbleiterhersteller Global Foundries in Dresden fertigen lassen. Derzeit kostet ein AI-Pro-Chip noch 30.000 Euro. 

Digitale Souveränität: KI-Chip Made in München​ Der neue KI-Chip AI Pro wird auf einer Leiterplatte montiert.
Andreas Heddergott/TU Muenchen

Digitale Souveränität in Sachen KI-Chips und die Dominanz von Nvidia und Co. brechen? Das lässt sich eventuell mit dem von Hussam Amrouch entwickelten Chip AI Pro realisieren. Der Professor der Technischen Universität München (TUM) hat einen KI-Chip entworfen, der über eine neuromorphe Architektur verfügt.

Dies ermöglicht AI Pro, Berechnungen vor Ort und damit Cyber-sicher auszuführen. Zudem verbraucht er bis zu zehnmal weniger Energie als ein herkömmlicher KI-Chip. Anders als bei klassischen Chips liegen Rechen- und Speichereinheit beim AI Pro zusammen. Das ist möglich, da der Chip nach dem Prinzip des „hyperdimensional computing“ arbeitet: Das bedeutet, dass er Ähnlichkeiten und Muster erkennt, aber nicht Millionen von Datensätzen zum Lernen benötigt.

KI-Chip kombiniert Informationen

Statt unzählige Bilder von Autos gezeigt zu bekommen, wie beim Deep Learning, das bei herkömmlichen KI-Chips zum Einsatz kommt, kombiniert dieser Chip diverse Informationen. Etwa, dass ein Auto vier Räder hat, in der Regel auf der Straße fährt und unterschiedliche Formen haben kann. „Auch Menschen abstrahieren und lernen durch Ähnlichkeiten“, erläutert Amrouch.

„Während Nvidia eine Plattform gebaut hat, die auf Cloud-Daten angewiesen ist und verspricht, jedes Problem zu lösen, haben wir einen KI-Chip entwickelt, der kundenspezifische Lösungen ermöglicht“, beschreibt der Professor das Potenzial des Chips. „Hier schlummert ein enormer Markt.“ Allerdings verfügt sein Chip lediglich über rund zehn Millionen Transistoren und ist damit nicht ganz so dicht gepackt und auch nicht ganz so leistungsfähig wie Nvidia-Chips mit 200 Milliarden Transistoren.

Daten vor Ort verarbeiten

Doch darauf kommt es Amrouch nicht primär an. Er und sein Team haben sich auf KI-Chips spezialisiert, die Daten direkt vor Ort verarbeiten. Damit müssen die Informationen nicht erst in die Cloud geschickt und dort zusammen mit Millionen anderen Datensätzen verarbeitet sowie wieder zurückgeschickt werden. Das spart nach Darstellung der Münchner Zeit, Rechenkapazitäten von Servern und reduziert den CO₂-Fußabdruck von KI.

Erste Prototypen hat der Professor für KI-Prozessor-Design bereits beim Halbleiterhersteller Global Foundries in Dresden fertigen lassen. Derzeit kostet ein AI-Pro-Chip noch 30.000 Euro.

Digitale Souveränität: KI-Chip Made in München​ Weiterlesen »

Cisco zapft OpenAIs Codex an​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?quality=50&strip=all 1920w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>OpenAIs KI-Assistent Codex soll Entwicklern von repetitiven Aufgaben befreien.OpenAI Um Netzwerkingenieuren Zugang zu besseren Tools zu ermöglichen, um Code zu schreiben und zu testen, arbeitet Cisco mit OpenAI zusammen und nutzt in diesem Rahmen dessen gerade frisch veröffentlichten Software-Engineering-Agenten.  „Wir untersuchen, wie Codex unseren Entwicklungsteams dabei helfen kann, anspruchsvolle Ideen schneller umzusetzen“, schreibt Jeetu Patel, Chief Product Officer bei Cisco, in einem Blogbeitrag. „Als Entwicklungspartner der ersten Stunde trägt Cisco dazu bei, die Zukunft von Codex zu gestalten, indem wir ihn für reale Anwendungsfälle in unserem Produktportfolio evaluieren und dem OpenAI-Team Feedback geben.“  Laut OpenAI könnte Codex in Ciscos Management-Tools eingebettet werden, um automatisch Konfigurationsskripte für Router, Switches und Firewalls zu generieren und um Probleme mit der Netzwerksicherheit und -leistung zu beheben.  OpenAI beschreibt Codex als einen Cloud-basierten Software-Engineering-Agenten, der in der Lage ist, viele Aufgaben parallel zu bearbeiten. „Codex kann zahlreiche Tasks für Sie erledigen, beispielsweise Funktionen schreiben, Fragen zu Ihrer Codebasis beantworten, Fehler beheben und Pull Requests vorschlagen, die überprüft werden sollen. Jede Aufgabe läuft in einer eigenen Cloud-Sandbox-Umgebung, die mit Ihrem Repository vorgeladen ist“, so OpenAI in einem Blogbeitrag über den Agenten.  Wie Codex funktioniert  Nachdem Codex über die Seitenleiste in ChatGPT aufgerufen wird, können Benutzer ihm neue Programmieraufgaben zuweisen, indem sie einen Prompt eingeben und auf „Code“ klicken. Laut OpenAI wird dabei jede Aufgabe unabhängig in einer separaten, isolierten Umgebung bearbeitet, die mit der Codebasis vorgeladen ist.   Sobald Codex eine Aufgabe abgeschlossen hat, was je nach Komplexität zwischen einer und 30 Minuten dauert, überträgt er seine Änderungen in seine Umgebung, heißt es. Dabei liefere Codex nachprüfbare Beweise für seine Aktionen, in dem er Terminal-Logs und Test-Outputs „zitiert“. „Sie können dann die Ergebnisse überprüfen, weitere Überarbeitungen anfordern, einen GitHub Pull Request öffnen oder die Änderungen direkt in Ihre lokale Umgebung integrieren. Im Produkt können Sie die Codex-Umgebung so konfigurieren, dass sie Ihrer realen Entwicklungsumgebung so weit wie möglich entspricht“, schreibt OpenAI.  Auch intern haben die technischen Teams von OpenAI begonnen, das als Research Preview verfügbare Codex zu verwenden. „Am häufigsten wird er von OpenAI-Entwicklern verwendet, um sich wiederholende, gut eingeteilte Aufgaben wie Refactoring, Umbenennungen und das Schreiben von Tests auszulagern, die sonst den Fokus zerstören würden. Codex ist auch nützlich, um neue Funktionen zu entwickeln, Komponenten zu verdrahten, Fehler zu beheben und Dokumentationen zu verfassen“, so OpenAI.  Ciscos Auffassung von agentenbasierter KI  Cisco-CPO Patel sieht Codex als Teil der sich entwickelnden KI-Agentenwelt, in der Milliarden von KI-Agenten zusammenarbeiten. Ihre Aufgabe ist es dabei, die architektonischen Annahmen, auf die sich die Branche bisher verlassen hat, zu verändern und neu zu definieren. „Agenten werden innerhalb und zwischen Rechenzentren und überall dort kommunizieren, wo wir leben, arbeiten und mit Kunden in Kontakt treten – und das alles mit unglaublicher Geschwindigkeit, Skalierung und Effizienz“, so der Cisco-Manager. (mb)  

Cisco zapft OpenAIs Codex an​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?quality=50&strip=all 1920w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>OpenAIs KI-Assistent Codex soll Entwicklern von repetitiven Aufgaben befreien.OpenAI

Um Netzwerkingenieuren Zugang zu besseren Tools zu ermöglichen, um Code zu schreiben und zu testen, arbeitet Cisco mit OpenAI zusammen und nutzt in diesem Rahmen dessen gerade frisch veröffentlichten Software-Engineering-Agenten. 

„Wir untersuchen, wie Codex unseren Entwicklungsteams dabei helfen kann, anspruchsvolle Ideen schneller umzusetzen“, schreibt Jeetu Patel, Chief Product Officer bei Cisco, in einem Blogbeitrag. „Als Entwicklungspartner der ersten Stunde trägt Cisco dazu bei, die Zukunft von Codex zu gestalten, indem wir ihn für reale Anwendungsfälle in unserem Produktportfolio evaluieren und dem OpenAI-Team Feedback geben.“ 

Laut OpenAI könnte Codex in Ciscos Management-Tools eingebettet werden, um automatisch Konfigurationsskripte für Router, Switches und Firewalls zu generieren und um Probleme mit der Netzwerksicherheit und -leistung zu beheben. 

OpenAI beschreibt Codex als einen Cloud-basierten Software-Engineering-Agenten, der in der Lage ist, viele Aufgaben parallel zu bearbeiten. „Codex kann zahlreiche Tasks für Sie erledigen, beispielsweise Funktionen schreiben, Fragen zu Ihrer Codebasis beantworten, Fehler beheben und Pull Requests vorschlagen, die überprüft werden sollen. Jede Aufgabe läuft in einer eigenen Cloud-Sandbox-Umgebung, die mit Ihrem Repository vorgeladen ist“, so OpenAI in einem Blogbeitrag über den Agenten. 

Wie Codex funktioniert 

Nachdem Codex über die Seitenleiste in ChatGPT aufgerufen wird, können Benutzer ihm neue Programmieraufgaben zuweisen, indem sie einen Prompt eingeben und auf „Code“ klicken. Laut OpenAI wird dabei jede Aufgabe unabhängig in einer separaten, isolierten Umgebung bearbeitet, die mit der Codebasis vorgeladen ist.  

Sobald Codex eine Aufgabe abgeschlossen hat, was je nach Komplexität zwischen einer und 30 Minuten dauert, überträgt er seine Änderungen in seine Umgebung, heißt es. Dabei liefere Codex nachprüfbare Beweise für seine Aktionen, in dem er Terminal-Logs und Test-Outputs „zitiert“. „Sie können dann die Ergebnisse überprüfen, weitere Überarbeitungen anfordern, einen GitHub Pull Request öffnen oder die Änderungen direkt in Ihre lokale Umgebung integrieren. Im Produkt können Sie die Codex-Umgebung so konfigurieren, dass sie Ihrer realen Entwicklungsumgebung so weit wie möglich entspricht“, schreibt OpenAI. 

Auch intern haben die technischen Teams von OpenAI begonnen, das als Research Preview verfügbare Codex zu verwenden. „Am häufigsten wird er von OpenAI-Entwicklern verwendet, um sich wiederholende, gut eingeteilte Aufgaben wie Refactoring, Umbenennungen und das Schreiben von Tests auszulagern, die sonst den Fokus zerstören würden. Codex ist auch nützlich, um neue Funktionen zu entwickeln, Komponenten zu verdrahten, Fehler zu beheben und Dokumentationen zu verfassen“, so OpenAI. 

Ciscos Auffassung von agentenbasierter KI 

Cisco-CPO Patel sieht Codex als Teil der sich entwickelnden KI-Agentenwelt, in der Milliarden von KI-Agenten zusammenarbeiten. Ihre Aufgabe ist es dabei, die architektonischen Annahmen, auf die sich die Branche bisher verlassen hat, zu verändern und neu zu definieren. „Agenten werden innerhalb und zwischen Rechenzentren und überall dort kommunizieren, wo wir leben, arbeiten und mit Kunden in Kontakt treten – und das alles mit unglaublicher Geschwindigkeit, Skalierung und Effizienz“, so der Cisco-Manager. (mb) 

Cisco zapft OpenAIs Codex an​ Weiterlesen »

KI in der Produktion: Großes Potenzial, zögerliche Umsetzung​

Allgemein

loading=”lazy” width=”400px”>Nur wenige Unternehmen sind instande, die potenziellen Vorteile von KI in der Produktion auszureizen.Gorodenkoff – shutterstock.com Egal, ob Qualitätskontrolle, Automatisierung, Energieeinsparung oder Steuerung von Robotern: Das Potenzial von (generativer) künstlicher Intelligenz in der Produktion wurde bereits in zahlreichen Anwendungsfällen demonstriert. Trotzdem gelingt es nur knapp einem Viertel (24 Prozent) der Industrieunternehmen in Deutschland nach eigener Einschätzung bereits gut, die Möglichkeiten der Technologie zu nutzen. Der Großteil (72 Prozent) sieht sich dazu dagegen nicht imstande. Das sind die Ergebnisse einer repräsentativen Befragung des Bitkom unter 552 Fertigungsunternehmen (ab 100 Beschäftigten) in Deutschland.  Potenzial in zahlreichen Bereichen Interessant ist dabei, dass die Unternehmen laut Bitkom-Studie durchaus das große Potenzial von künstlicher Intelligenz erkannt haben. Als besonders vielversprechend wird dabei der Einsatz von KI im Bereich Energiemanagement (85 Prozent) gesehen, gefolgt von Robotik (74 Prozent), Analytik (73 Prozent) und Lagermanagement (72 Prozent).   Für die Konfiguration von Maschinen sehen sieben von zehn Unternehmen (70 Prozent) Potenzial für den KI-Einsatz, im Qualitätsmanagement versprechen sich 58 Prozent mögliche Vorteile. Auch in der Programmierung (52 Prozent), der Konstruktion (52 Prozent) und der Projektplanung, beziehungsweise dem technischen Management (51 Prozent) erkennt jeweils über die Hälfte der Unternehmen KI-Einsatzchancen für die eigene Branche.  Als Gründe für den bislang zögerlichen Einsatz von KI in der deutschen Industrie, nannten die Teilnehmer neben fehlender Zeit und Kompetenz vor allem eine komplexe Regulierung und daraus entstehende rechtliche Unsicherheiten. Darüber hinaus sind laut Umfrage neun von zehn Unternehmen (88 Prozent) – wie der Bitkom – der Ansicht, dass die Politik KI-Innovationen nicht durch Überregulierung ersticken darf.  Auch aus Sicht von Christoph Kull, President Business Applications bei Proalpha, ist es ein Alarmzeichen, wenn zu komplexe Regulatorik die Industrie beim Einsatz von AI hemmt. „Nur wer über erste Pilotprojekte hinausgeht und KI gezielt dort einsetzt, wo sie echten Mehrwert stiftet, wird langfristig profitieren“, erklärt er. Statt ausgebremst zu werden, könnten Unternehmen bereits heute mittels Industrial-AI-Lösungen ihre Datenintelligenz mit operativer Exzellenz verknüpfen – von der Lieferkette über die Produktion bis hin zur Nachhaltigkeit.  

KI in der Produktion: Großes Potenzial, zögerliche Umsetzung​ loading=”lazy” width=”400px”>Nur wenige Unternehmen sind instande, die potenziellen Vorteile von KI in der Produktion auszureizen.Gorodenkoff – shutterstock.com

Egal, ob Qualitätskontrolle, Automatisierung, Energieeinsparung oder Steuerung von Robotern: Das Potenzial von (generativer) künstlicher Intelligenz in der Produktion wurde bereits in zahlreichen Anwendungsfällen demonstriert. Trotzdem gelingt es nur knapp einem Viertel (24 Prozent) der Industrieunternehmen in Deutschland nach eigener Einschätzung bereits gut, die Möglichkeiten der Technologie zu nutzen. Der Großteil (72 Prozent) sieht sich dazu dagegen nicht imstande. Das sind die Ergebnisse einer repräsentativen Befragung des Bitkom unter 552 Fertigungsunternehmen (ab 100 Beschäftigten) in Deutschland. 

Potenzial in zahlreichen Bereichen

Interessant ist dabei, dass die Unternehmen laut Bitkom-Studie durchaus das große Potenzial von künstlicher Intelligenz erkannt haben. Als besonders vielversprechend wird dabei der Einsatz von KI im Bereich Energiemanagement (85 Prozent) gesehen, gefolgt von Robotik (74 Prozent), Analytik (73 Prozent) und Lagermanagement (72 Prozent).  

Für die Konfiguration von Maschinen sehen sieben von zehn Unternehmen (70 Prozent) Potenzial für den KI-Einsatz, im Qualitätsmanagement versprechen sich 58 Prozent mögliche Vorteile. Auch in der Programmierung (52 Prozent), der Konstruktion (52 Prozent) und der Projektplanung, beziehungsweise dem technischen Management (51 Prozent) erkennt jeweils über die Hälfte der Unternehmen KI-Einsatzchancen für die eigene Branche. 

Als Gründe für den bislang zögerlichen Einsatz von KI in der deutschen Industrie, nannten die Teilnehmer neben fehlender Zeit und Kompetenz vor allem eine komplexe Regulierung und daraus entstehende rechtliche Unsicherheiten. Darüber hinaus sind laut Umfrage neun von zehn Unternehmen (88 Prozent) – wie der Bitkom – der Ansicht, dass die Politik KI-Innovationen nicht durch Überregulierung ersticken darf. 

Auch aus Sicht von Christoph Kull, President Business Applications bei Proalpha, ist es ein Alarmzeichen, wenn zu komplexe Regulatorik die Industrie beim Einsatz von AI hemmt. „Nur wer über erste Pilotprojekte hinausgeht und KI gezielt dort einsetzt, wo sie echten Mehrwert stiftet, wird langfristig profitieren“, erklärt er. Statt ausgebremst zu werden, könnten Unternehmen bereits heute mittels Industrial-AI-Lösungen ihre Datenintelligenz mit operativer Exzellenz verknüpfen – von der Lieferkette über die Produktion bis hin zur Nachhaltigkeit. 

KI in der Produktion: Großes Potenzial, zögerliche Umsetzung​ Weiterlesen »

Trump befiehlt – Microsoft sperrt E-Mail-Account?​

Allgemein

Wen US-Präsident Donald Trump einmal aufs Korn nimmt, hat nichts zu lachen.Jonah Elkowitz/Shutterstock Donald Trump geht massiv gegen den Internationalen Strafgerichtshof (IStGH) vor und Microsoft muss den US-Präsidenten dabei unterstützen. Der weltgrößte Softwarekonzern hat das E-Mail-Konto des Chefanklägers Karim Khan gesperrt, wie verschiedene Nachrichtenagenturen und US-News-Sites berichten. Grundlage dafür bildet offenbar Trumps Executive Order 14203 vom 6. Februar 2025. Darin hatte Trump Sanktionen gegen den IStGH und die dort beschäftigten Mitarbeitenden verhängt. Ihnen wurde mitgeteilt, dass sie verhaftet werden könnten, wenn sie in die USA einreisten. Insbesondere Chefankläger Khan nimmt Trump aufs Korn. Allen Personen, Organisationen und Firmen drohten Strafzahlungen oder gar Gefängnis, sollten sie Khan finanziell, materiell oder technologisch unterstützen, heißt es in dem Erlass. Wird Deutschland nach dem Trump-Sieg digital erpressbar? Grund für die von Trump angeordneten Sanktionen sind wohl die von den IStGH-Richtern im November 2024 angeordneten Haftbefehle gegen den israelischen Premierminister Benjamin Netanjahu und seinen ehemaligen Verteidigungsminister Yoav Gallant. Beiden Politikern werden Kriegsverbrechen des israelischen Militärs beim Vorgehen gegen die palästinensische Terrormiliz Hamas im Gazastreifen zur Last gelegt.  Internationaler Strafgerichtshof kann nur noch eingeschränkt arbeiten Die Sanktionen Trumps zeigen Wirkung und behindern massiv die Arbeit des Internationalen Strafgerichtshof, der Kriegsverbrechen auf der ganzen Welt untersucht und die dafür Verantwortlichen zur Rechenschaft zieht. Weder die USA noch Israel erkennen den IStGH an. Einem Bericht der Nachrichtenagentur Associated Press (AP) zufolge ist die Arbeit bereits eingeschränkt, weil etliche Mitarbeitende das Gericht wegen Bedenken hinsichtlich der US-Sanktionen verlassen haben. Donald Trump 2.0: Europa muss sich emanzipieren  Dazu kommen Vorwürfe gegen Khan wegen sexueller Belästigung einer Mitarbeiterin. Der Chefankläger hat die Anschuldigungen, die bereits im Oktober 2024 bekannt geworden waren, zurückgewiesen. Am 16. Mai 2025 teilte das Gericht mit, Khan werde bis zum Ende einer externen Untersuchung sein Amt ruhen und sich freistellen lassen. Trump könnte vielen Unternehmen den digitalen Stecker ziehen Neben den politischen Querelen wirft das Vorgehen Trumps und die Reaktion Microsofts allerdings auch viele besorgniserregende technische Fragen bei Unternehmen und Behörden in Europa auf. „Das Vorgehen von Microsoft ist in diesem Kontext und dieser Auswirkung beispiellos“, heißt es in einer Mitteilung der Open Source Business Alliance (OSBA) – Bundesverband für digitale Souveränität e.V. Die Verantwortlichen sprechen von einem warnenden Beispiel. Zieht Trump den Deutschen den Stecker?  Durch die politische und rechtliche Lage in den USA habe Microsoft hier gar nicht anders handeln können, hieß es. In der Konsequenz könnten allerdings nicht nur E-Mail-Konten, sondern auch Cloud-Dienste und Software-as-a-Service-Produkte (SaaS) gesperrt werden. „Der amerikanische Präsident kann per Dekret jede Organisation, die von US-Technologie abhängig ist, digital abschalten“, warnt die Vereinigung. “Die von den USA angeordneten und von Microsoft mit umgesetzten Sanktionen gegen den internationalen Strafgerichtshof in Den Haag müssen ein Weckruf für alle sein, die für die sichere Verfügbarkeit staatlicher und privater IT- und Kommunikationsinfrastrukturen verantwortlich sind“, mahnt Peter Ganten, Vorstandsvorsitzender der Open Source Business Alliance. Man könne sich nicht auf Unternehmen verlassen, die nicht unter der eigenen Jurisdiktion stünden. „Deswegen brauchen wir dringend Alternativen, die wir kontrollieren und gestalten können. Die neue Bundesregierung ist gefordert, dies nun mit Hochdruck umzusetzen.“  Microsoft dementiert Microsoft dementiert indes, dass Khan der E-Mail Account gesperrt wurde. „Seit Februar standen wir während des gesamten Prozesses, der zur Trennung des sanktionierten Beamten von den Microsoft-Diensten führte, in Kontakt mit der ICC”, erklärte ein Sprecher des Unternehmens auf Anfrage der Computerwoche. “Zu keinem Zeitpunkt hat Microsoft seine Dienste für den ICC eingestellt oder suspendiert.” width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2Ciddz1Wx8K0m7mBbhzApR?utm_source=oembed”> 

Trump befiehlt – Microsoft sperrt E-Mail-Account?​ Wen US-Präsident Donald Trump einmal aufs Korn nimmt, hat nichts zu lachen.Jonah Elkowitz/Shutterstock

Donald Trump geht massiv gegen den Internationalen Strafgerichtshof (IStGH) vor und Microsoft muss den US-Präsidenten dabei unterstützen. Der weltgrößte Softwarekonzern hat das E-Mail-Konto des Chefanklägers Karim Khan gesperrt, wie verschiedene Nachrichtenagenturen und US-News-Sites berichten.

Grundlage dafür bildet offenbar Trumps Executive Order 14203 vom 6. Februar 2025. Darin hatte Trump Sanktionen gegen den IStGH und die dort beschäftigten Mitarbeitenden verhängt. Ihnen wurde mitgeteilt, dass sie verhaftet werden könnten, wenn sie in die USA einreisten. Insbesondere Chefankläger Khan nimmt Trump aufs Korn. Allen Personen, Organisationen und Firmen drohten Strafzahlungen oder gar Gefängnis, sollten sie Khan finanziell, materiell oder technologisch unterstützen, heißt es in dem Erlass.

Wird Deutschland nach dem Trump-Sieg digital erpressbar?

Grund für die von Trump angeordneten Sanktionen sind wohl die von den IStGH-Richtern im November 2024 angeordneten Haftbefehle gegen den israelischen Premierminister Benjamin Netanjahu und seinen ehemaligen Verteidigungsminister Yoav Gallant. Beiden Politikern werden Kriegsverbrechen des israelischen Militärs beim Vorgehen gegen die palästinensische Terrormiliz Hamas im Gazastreifen zur Last gelegt. 

Internationaler Strafgerichtshof kann nur noch eingeschränkt arbeiten

Die Sanktionen Trumps zeigen Wirkung und behindern massiv die Arbeit des Internationalen Strafgerichtshof, der Kriegsverbrechen auf der ganzen Welt untersucht und die dafür Verantwortlichen zur Rechenschaft zieht. Weder die USA noch Israel erkennen den IStGH an. Einem Bericht der Nachrichtenagentur Associated Press (AP) zufolge ist die Arbeit bereits eingeschränkt, weil etliche Mitarbeitende das Gericht wegen Bedenken hinsichtlich der US-Sanktionen verlassen haben.

Donald Trump 2.0: Europa muss sich emanzipieren 

Dazu kommen Vorwürfe gegen Khan wegen sexueller Belästigung einer Mitarbeiterin. Der Chefankläger hat die Anschuldigungen, die bereits im Oktober 2024 bekannt geworden waren, zurückgewiesen. Am 16. Mai 2025 teilte das Gericht mit, Khan werde bis zum Ende einer externen Untersuchung sein Amt ruhen und sich freistellen lassen.

Trump könnte vielen Unternehmen den digitalen Stecker ziehen

Neben den politischen Querelen wirft das Vorgehen Trumps und die Reaktion Microsofts allerdings auch viele besorgniserregende technische Fragen bei Unternehmen und Behörden in Europa auf. „Das Vorgehen von Microsoft ist in diesem Kontext und dieser Auswirkung beispiellos“, heißt es in einer Mitteilung der Open Source Business Alliance (OSBA) – Bundesverband für digitale Souveränität e.V. Die Verantwortlichen sprechen von einem warnenden Beispiel.

Zieht Trump den Deutschen den Stecker? 

Durch die politische und rechtliche Lage in den USA habe Microsoft hier gar nicht anders handeln können, hieß es. In der Konsequenz könnten allerdings nicht nur E-Mail-Konten, sondern auch Cloud-Dienste und Software-as-a-Service-Produkte (SaaS) gesperrt werden. „Der amerikanische Präsident kann per Dekret jede Organisation, die von US-Technologie abhängig ist, digital abschalten“, warnt die Vereinigung.

“Die von den USA angeordneten und von Microsoft mit umgesetzten Sanktionen gegen den internationalen Strafgerichtshof in Den Haag müssen ein Weckruf für alle sein, die für die sichere Verfügbarkeit staatlicher und privater IT- und Kommunikationsinfrastrukturen verantwortlich sind“, mahnt Peter Ganten, Vorstandsvorsitzender der Open Source Business Alliance. Man könne sich nicht auf Unternehmen verlassen, die nicht unter der eigenen Jurisdiktion stünden. „Deswegen brauchen wir dringend Alternativen, die wir kontrollieren und gestalten können. Die neue Bundesregierung ist gefordert, dies nun mit Hochdruck umzusetzen.“ 

Microsoft dementiert

Microsoft dementiert indes, dass Khan der E-Mail Account gesperrt wurde. „Seit Februar standen wir während des gesamten Prozesses, der zur Trennung des sanktionierten Beamten von den Microsoft-Diensten führte, in Kontakt mit der ICC”, erklärte ein Sprecher des Unternehmens auf Anfrage der Computerwoche. “Zu keinem Zeitpunkt hat Microsoft seine Dienste für den ICC eingestellt oder suspendiert.”

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2Ciddz1Wx8K0m7mBbhzApR?utm_source=oembed”>

Trump befiehlt – Microsoft sperrt E-Mail-Account?​ Weiterlesen »

So sprengen Versicherer ihre Legacy-Ketten​

Allgemein

Auch Versicherer können von zeitgemäßen Lakehouse-Architekturen profitieren.arthitecture | shutterstock.com Angesichts zunehmender Drittanbieter-Integrationen und -Partnerschaften sind Versicherungsunternehmen und Finanzdienstleister mit einer wachsenden Datenflut konfrontiert. Leider verlassen sich viele dieser Firmen jedoch nach wie vor auf Legacy-Technologien wie On-Premises-Warehouses. Umgebungen wie diese bestehen oft aus mehreren, voneinander isolierten Systemen, die jeweils unterschiedliche Funktionalitäten verwalten (Vertragsmanagement, Schadenbearbeitung, Rechnungsstellung, etc.) – und exponentiell wachsende Datenmengen generieren. Das hat Folgen: Schon Legacy-Systeme zu warten, kann einen erheblichen Teil des IT-Budgets verschlingen (manche Analysten schätzen bis zu 70 Prozent). Von den dafür nötigen Ressourcen ganz zu schweigen, die auch in Innovations- und Transformationsinitiativen investiert werden könnten. Meiner Meinung nach sind die grundlegenden Designprinzipien solcher Systeme (isoliert, batch-orientiert, schemabestimmt und oft proprietär) nicht mit den Anforderungen einer agilen, datenzentrierten und KI-gestützten Versicherungsbranche vereinbar. Diese Diskrepanz führt zu anhaltenden Reibungsverlusten, die: die betriebliche Effizienz senken, die Kosten in die Höhe treiben, die Sicherheit beeinträchtigen und die Innovationsfähigkeit behindern. Die bessere Lösung: eine Data-Lakehouse-Architektur. Insbesondere in der Versicherungsbranche, in der Daten der Schlüssel zu Innovation und operativer Effizienz sind, ist dieser transformative Ansatz unerlässlich, um in Zukunft wettbewerbsfähig bleiben zu können.   Der (Delta-)Lakehouse-Ansatz Es empfiehlt sich, eine Lakehouse-Architektur in einem dreistufigen Ansatz zu implementieren. Dabei erfordert jede Phase einen besonderen Fokus: Sid Dixit Im Folgenden betrachten wir die drei Phasen im Detail. 1. Datenaufnahme Datenquellen identifizieren: Listen Sie zunächst sämtliche Datenquellen auf. Dazu gehören sowohl ältere Systeme (etwa für die Schadenbearbeitung und Abrechnung) als auch neuere Datenströme (beispielsweise Telemetriedaten oder Informationen von IoT-Devices und externen APIs). Daten zusammenführen: Sobald Sie wissen, wo Ihre Daten auflaufen, führen Sie sie in einem zentralen Repository zusammen. Die einheitliche Ansicht erleichtert es, auf die Daten zuzugreifen und sie zu managen. 2. Transformation (mit ELT und Medallion Architecture) Rohdaten beibehalten („Bronze Layer“): Speichern Sie Ihre Daten genau so, wie Sie sie erhalten haben. Ein „Raw-Backup“ ist wichtig, falls Sie den ursprünglichen Input nachvollziehen müssen. Rohdaten können mit verschiedenen Methoden gestreamt werden, entweder im Batch-Modus oder über einen Message Broker wie Kafka. Plattformen wie Databricks bieten zudem integrierte Tools wie etwa Autoloader, um den Datenerfassungsprozess möglichst nahtlos zu gestalten. Bereinigen und standardisieren („Silver Layer“): Im nächsten Schritt gilt es, die Rohdaten zu organisieren und zu bereinigen. Dabei werden diese in ein einheitliches Format umgewandelt, sodass sie jederzeit für Analysen bereit sind. Auf dieser Ebene können ACID-Transaktionen durchgesetzt werden. Insights gewinnen („Gold Layer“): Verfeinern und aggregieren Sie die bereinigten Daten zu Erkenntnissen, die wichtige Versicherungsfunktionen wie Underwriting, Risikoanalyse und regulatorisches Reporting direkt unterstützen. 3. Data Governance Datenqualität sicherstellen: Setzen Sie strenge Regeln (Schemata) durch, um zu gewährleisten, dass alle eingehenden Daten dem erwarteten Format entsprechen. Das minimiert Fehler und sorgt für zuverlässige Daten. Zuverlässigkeit gewährleisten: Nutzen Sie Mechanismen wie ACID-Transaktionen, um sicherzustellen, dass jede Aktualisierung der Daten entweder vollständig abgeschlossen oder im Fall eines Fehlers zuverlässig rückgängig gemacht wird. Mit Funktionen wie „Time Travel“ (Delta Lakehouse) ist es außerdem möglich, historische Daten für Audits oder Compliance-Zwecke zu überprüfen. Datenverarbeitung optimieren: Bauen Sie ein System auf, das sowohl Echtzeit-Aktualisierungen als auch Batch-Verarbeitung unterstützt und so einen reibungslosen, agilen Betrieb bei Vertragsaktualisierungen, Schadensfällen und Analysen gewährleistet. Sid Dixit ist Principal Architect bei CopperPoint Insurance Companies und Kontributor des Forbes Technology Council.Sid Dixit KI-Enabler für die Versicherungsbranche Daten zu zentralisieren und eine Lakehouse-Architektur zu verankern, ist dem Training und der Performanz von KI-Modellen extrem zuträglich und sorgt zudem für präzisere Insights und optimierte Predictive-Fähigkeiten. Mit Blick auf die Implementierung von Enterprise-KI-Plattformen ist ein weiterer wichtiger Aspekt zu berücksichtigen: Moderne Large Language Models (LLMs) erfordern häufig Datenverarbeitungsfähigkeiten in Echtzeit. Während ML-Modelle auf einen Use Case fokussieren, ist Generative AI (GenAI) in der Lage, mehrere Anwendungsfälle zu bearbeiten. Eine (Delta-)Lakehouse-Lösung kann diese vielfältigen Datenanforderungen effektiv managen und bietet eine einheitliche Plattform für GenAI-Initiativen im Unternehmen. Sie ist zudem in der Lage, grundlegende Herausforderungen in Bezug auf Datenqualität, -versionierung und -integration zu stemmen und erleichtert es, performante GenAI-Modelle zu entwickeln und bereitzustellen. Indem er Data Engineering, Datenwissenschaft und Business-Intelligence-Workflows zusammenführt, steht der Lakehouse-Ansatz in Kontrast zu bisherigen Ansätzen, bei denen Daten umständlich zwischen unterschiedlichen Systemen verschoben werden mussten. Mit einem Data-, beziehungsweise Delta Lakehouse entsteht hingegen ein synergetisches Ökosystem, das den Weg von der Rohdatenerfassung bis hin zur KI-Modellimplementierung erheblich beschleunigt und dabei greifbaren Geschäftswert generiert. Zum Beispiel in Form von: reduzierten Verlusten durch Betrug, schnellerer Schadensregulierung, genauerer Preisgestaltung und optimierten Kundenbeziehungen. Versicherungsunternehmen, die langfristiges Wachstum und operative Exzellenz anstreben, sollten sich von starren Legacy-Systemen verabschieden. Der Umstieg auf eine widerstandsfähige Lakehouse-Architektur beinhaltet zwar eine radikale Neugestaltung der Dateninfrastruktur – das lohnt sich aber auf lange Sicht. Denn so können auch Versicherer das Potenzial von KI in Zukunft voll ausschöpfen, Innovationen schneller vorantreiben, Risiken besser kontrollieren und ihren Kunden einen optimierten Service bieten. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

So sprengen Versicherer ihre Legacy-Ketten​ Auch Versicherer können von zeitgemäßen Lakehouse-Architekturen profitieren.arthitecture | shutterstock.com

Angesichts zunehmender Drittanbieter-Integrationen und -Partnerschaften sind Versicherungsunternehmen und Finanzdienstleister mit einer wachsenden Datenflut konfrontiert. Leider verlassen sich viele dieser Firmen jedoch nach wie vor auf Legacy-Technologien wie On-Premises-Warehouses. Umgebungen wie diese bestehen oft aus mehreren, voneinander isolierten Systemen, die jeweils unterschiedliche Funktionalitäten verwalten (Vertragsmanagement, Schadenbearbeitung, Rechnungsstellung, etc.) – und exponentiell wachsende Datenmengen generieren.

Das hat Folgen: Schon Legacy-Systeme zu warten, kann einen erheblichen Teil des IT-Budgets verschlingen (manche Analysten schätzen bis zu 70 Prozent). Von den dafür nötigen Ressourcen ganz zu schweigen, die auch in Innovations- und Transformationsinitiativen investiert werden könnten. Meiner Meinung nach sind die grundlegenden Designprinzipien solcher Systeme (isoliert, batch-orientiert, schemabestimmt und oft proprietär) nicht mit den Anforderungen einer agilen, datenzentrierten und KI-gestützten Versicherungsbranche vereinbar.

Diese Diskrepanz führt zu anhaltenden Reibungsverlusten, die:

die betriebliche Effizienz senken,

die Kosten in die Höhe treiben,

die Sicherheit beeinträchtigen und

die Innovationsfähigkeit behindern.

Die bessere Lösung: eine Data-Lakehouse-Architektur. Insbesondere in der Versicherungsbranche, in der Daten der Schlüssel zu Innovation und operativer Effizienz sind, ist dieser transformative Ansatz unerlässlich, um in Zukunft wettbewerbsfähig bleiben zu können.  

Der (Delta-)Lakehouse-Ansatz

Es empfiehlt sich, eine Lakehouse-Architektur in einem dreistufigen Ansatz zu implementieren. Dabei erfordert jede Phase einen besonderen Fokus:

Sid Dixit

Im Folgenden betrachten wir die drei Phasen im Detail.

1. Datenaufnahme

Datenquellen identifizieren: Listen Sie zunächst sämtliche Datenquellen auf. Dazu gehören sowohl ältere Systeme (etwa für die Schadenbearbeitung und Abrechnung) als auch neuere Datenströme (beispielsweise Telemetriedaten oder Informationen von IoT-Devices und externen APIs).

Daten zusammenführen: Sobald Sie wissen, wo Ihre Daten auflaufen, führen Sie sie in einem zentralen Repository zusammen. Die einheitliche Ansicht erleichtert es, auf die Daten zuzugreifen und sie zu managen.

2. Transformation (mit ELT und Medallion Architecture)

Rohdaten beibehalten („Bronze Layer“): Speichern Sie Ihre Daten genau so, wie Sie sie erhalten haben. Ein „Raw-Backup“ ist wichtig, falls Sie den ursprünglichen Input nachvollziehen müssen. Rohdaten können mit verschiedenen Methoden gestreamt werden, entweder im Batch-Modus oder über einen Message Broker wie Kafka. Plattformen wie Databricks bieten zudem integrierte Tools wie etwa Autoloader, um den Datenerfassungsprozess möglichst nahtlos zu gestalten.

Bereinigen und standardisieren („Silver Layer“): Im nächsten Schritt gilt es, die Rohdaten zu organisieren und zu bereinigen. Dabei werden diese in ein einheitliches Format umgewandelt, sodass sie jederzeit für Analysen bereit sind. Auf dieser Ebene können ACID-Transaktionen durchgesetzt werden.

Insights gewinnen („Gold Layer“): Verfeinern und aggregieren Sie die bereinigten Daten zu Erkenntnissen, die wichtige Versicherungsfunktionen wie Underwriting, Risikoanalyse und regulatorisches Reporting direkt unterstützen.

3. Data Governance

Datenqualität sicherstellen: Setzen Sie strenge Regeln (Schemata) durch, um zu gewährleisten, dass alle eingehenden Daten dem erwarteten Format entsprechen. Das minimiert Fehler und sorgt für zuverlässige Daten.

Zuverlässigkeit gewährleisten: Nutzen Sie Mechanismen wie ACID-Transaktionen, um sicherzustellen, dass jede Aktualisierung der Daten entweder vollständig abgeschlossen oder im Fall eines Fehlers zuverlässig rückgängig gemacht wird. Mit Funktionen wie „Time Travel“ (Delta Lakehouse) ist es außerdem möglich, historische Daten für Audits oder Compliance-Zwecke zu überprüfen.

Datenverarbeitung optimieren: Bauen Sie ein System auf, das sowohl Echtzeit-Aktualisierungen als auch Batch-Verarbeitung unterstützt und so einen reibungslosen, agilen Betrieb bei Vertragsaktualisierungen, Schadensfällen und Analysen gewährleistet.

Sid Dixit ist Principal Architect bei CopperPoint Insurance Companies und Kontributor des Forbes Technology Council.Sid Dixit

KI-Enabler für die Versicherungsbranche

Daten zu zentralisieren und eine Lakehouse-Architektur zu verankern, ist dem Training und der Performanz von KI-Modellen extrem zuträglich und sorgt zudem für präzisere Insights und optimierte Predictive-Fähigkeiten. Mit Blick auf die Implementierung von Enterprise-KI-Plattformen ist ein weiterer wichtiger Aspekt zu berücksichtigen: Moderne Large Language Models (LLMs) erfordern häufig Datenverarbeitungsfähigkeiten in Echtzeit. Während ML-Modelle auf einen Use Case fokussieren, ist Generative AI (GenAI) in der Lage, mehrere Anwendungsfälle zu bearbeiten.

Eine (Delta-)Lakehouse-Lösung kann diese vielfältigen Datenanforderungen effektiv managen und bietet eine einheitliche Plattform für GenAI-Initiativen im Unternehmen. Sie ist zudem in der Lage, grundlegende Herausforderungen in Bezug auf Datenqualität, -versionierung und -integration zu stemmen und erleichtert es, performante GenAI-Modelle zu entwickeln und bereitzustellen. Indem er Data Engineering, Datenwissenschaft und Business-Intelligence-Workflows zusammenführt, steht der Lakehouse-Ansatz in Kontrast zu bisherigen Ansätzen, bei denen Daten umständlich zwischen unterschiedlichen Systemen verschoben werden mussten. Mit einem Data-, beziehungsweise Delta Lakehouse entsteht hingegen ein synergetisches Ökosystem, das den Weg von der Rohdatenerfassung bis hin zur KI-Modellimplementierung erheblich beschleunigt und dabei greifbaren Geschäftswert generiert.

Zum Beispiel in Form von:

reduzierten Verlusten durch Betrug,

schnellerer Schadensregulierung,

genauerer Preisgestaltung und

optimierten Kundenbeziehungen.

Versicherungsunternehmen, die langfristiges Wachstum und operative Exzellenz anstreben, sollten sich von starren Legacy-Systemen verabschieden. Der Umstieg auf eine widerstandsfähige Lakehouse-Architektur beinhaltet zwar eine radikale Neugestaltung der Dateninfrastruktur – das lohnt sich aber auf lange Sicht. Denn so können auch Versicherer das Potenzial von KI in Zukunft voll ausschöpfen, Innovationen schneller vorantreiben, Risiken besser kontrollieren und ihren Kunden einen optimierten Service bieten. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

So sprengen Versicherer ihre Legacy-Ketten​ Weiterlesen »

Content-Management-Modernisierung: Sukzessive sticht radikal​

Allgemein

Modernes Content-Management geht über reine Datensilos hinaus.kadir tezel – shutterstock.com Die Idee einer allumfassenden, zentralen Plattform ist ein Wunschbild, das in der Realität bislang kaum verwirklicht wurde. Stattdessen sind wachsende Mengen unstrukturierter Daten schon heute auf unzählige Repositories und verschiedene ECM-Systeme verteilt. Die wahre Herausforderung liegt dabei nicht in der Verteilung der Daten selbst, sondern in fehlenden Schnittstellen, mangelnder Integration und fehlendem Mehrwert für die Nutzer. Datensilos, ineffiziente Prozesse sowie Governance– und Compliance-Herausforderungen sind die unvermeidbaren Folgen.  Angesichts rasant steigender Datenmengen, sich wandelnder Marktbedingungen und neuer regulatorischer Anforderungen ist ein Umdenken gefragt. Unternehmen benötigen Systeme, die nicht nur stabil, sondern zugleich flexibel und erweiterbar sind. Die Modernisierung sollte nicht als Hindernis, sondern als Chance verstanden werden: Eine Möglichkeit, von monolithischen Strukturen zu einem modularen, Cloud-basierten und zukunftssicheren Ökosystem überzugehen.  Die Kraft der schrittweisen Transformation  Ein „Big Bang“-Ansatz, bei dem ein bestehendes System vollständig ersetzt wird, mag verlockend erscheinen, ist jedoch für die meisten Unternehmen mit hohen Risiken verbunden. Ein abrupter Wechsel bringt vielfach Betriebsunterbrechungen und hohe Kosten mit sich, weshalb notwendige Modernisierungen häufig so lange hinausgezögert werden, bis sie zum Problem werden.   Ein iterativer Ansatz hingegen gleicht einer sanften Gewebeerneuerung: Veraltete Strukturen werden schrittweise durch moderne Module ersetzt. So bleibt das System flexibel und entwickelt sich organisch weiter, während zentrale Geschäftsprozesse reibungslos weiterlaufen. Unternehmen, die auf eine regelmäßige, schrittweise Modernisierung setzen, profitieren von einer agilen IT-Architektur, die Veränderungen als natürlichen Bestandteil begreift. Neue Funktionen lassen sich so deutlich schneller und mit einem klar messbaren Return on Investment (RoI) implementieren. So konnte beispielsweise Twitter Ads durch diesen Ansatz innerhalb weniger Monate die Deployment-Geschwindigkeit um das Sechsfache steigern. Diese Form der Transformation sorgt für Planbarkeit, nachhaltige Effizienzsteigerungen und kontinuierlichen, geschäftlichen Mehrwert.  Der erste Schritt: Klare Bestandsaufnahme  Eine unstrukturierte Migration gleicht einem „Last-Minute-Packen“ für den Urlaub, bei dem wahllos Dinge aus dem Kleiderschrank gegriffen und in den Koffer geworfen werden. Damit der Übergang gelingt, braucht es eine sorgfältige Analyse: Welche Systeme sind geschäftskritisch? Wo gibt es Redundanzen? Welche Prozesse lassen sich optimieren?  Ein Content-Audit hilft, bestehende Datenbestände zu bewerten – von Dokumenten aller Art und E-Mails über Bild- und Videoinhalte bis hin zu Kundenkommunikation. Auf dieser Basis können Unternehmen ihre Migration strategisch priorisieren. Moderne KI-gestützte Technologien analysieren semantische Strukturen, aktualisieren Metadaten und filtern irrelevante Informationen heraus, um die Grundlage für ein effizienteres System zu schaffen.  Modularisierung und KI: Der Schlüssel zu einer smarten Transformation  Statt ein altes System einfach durch ein neues zu ersetzen, ist eine flexible, modulare Architektur gefragt. Ein API-first-Ansatz bildet eine Brücke zwischen Altsystemen und modernen Cloud-Plattformen, sodass Unternehmen schrittweise migrieren können, ohne den laufenden Betrieb zu gefährden.  Technologisch basiert dieser Ansatz auf zwei Säulen: Modularisierung und Automatisierung. Legacy-Systeme werden in kleinere, unabhängig funktionierende Module überführt, was eine agile Weiterentwicklung ermöglicht. Container-Technologien und Microservices gewährleisten dabei eine schrittweise Migration: Zunächst werden bestehende Systeme in isolierte Umgebungen überführt, anschließend in hybride Architekturen integriert und schließlich vollständig in Cloud-basierte Lösungen und Microservices transformiert.  Zudem sorgen herstellerunabhängige Architekturen für langfristige Flexibilität: Unternehmen können dann ihre ECM-, ERP- und CRM-Systeme vernetzen, ohne sich an proprietäre Systeme zu binden. So ermöglichen spezielle Plattformen mit offenen Schnittstellen eine nahtlose Integration in bestehende Ökosysteme. Diese Offenheit schützt bestehende Investitionen und erleichtert es, auf neue Trends zu reagieren und schnell technologische Anpassungen vorzunehmen.  Hyperautomation: Vom passiven Repository zum intelligenten System  Moderne Content-Management-Systeme müssen weit über die reine Datenspeicherung hinausgehen. Hier kommt Hyperautomation ins Spiel: Künstliche Intelligenz (KI) verwandelt statische Repositories in intelligente Systeme, die sich selbst optimieren. KI kann Metadaten automatisch aktualisieren, Inhalte semantisch klassifizieren und Migrationsprozesse beschleunigen. Smarte Workflows und selbstlernende Compliance-Mechanismen minimieren Fehler und steigern die Governance-Qualität.  Besonders performant sind semantische Remapping-Techniken. Diese harmonisieren bestehende Inhalte und übersetzen sie automatisch in neue Taxonomien. So werden Daten nicht nur archiviert, sondern aktiv genutzt und in geschäftsrelevante Prozesse integriert.  Change-Management: Der Mensch als Erfolgsfaktor  Technologische Innovation ist nicht der alleinige Heilsbringer – der Erfolg einer Modernisierung hängt maßgeblich von den Menschen ab, die mit den neuen Systemen arbeiten. Eine frühzeitige Einbindung der Mitarbeitenden durch Co-Creation-Ansätze, interaktive Schulungen oder KI-gestützte Lernplattformen steigert die Akzeptanz und das Engagement.  Gleichzeitig ist eine transparente Kommunikation entscheidend: Mitarbeitende müssen verstehen, warum Veränderungen notwendig sind und welche Vorteile sie bieten. Eine Unternehmenskultur, die Fehler als Lernchance begreift, fördert zudem die Offenheit und Innovationsbereitschaft.  Kontinuierliche Evolution statt abrupter Revolution  Die Modernisierung von Content-Management-Systemen ist keine einmalige Aufgabe, sondern eine kontinuierliche Entwicklung. Unternehmen, die auf eine schrittweise Transformation setzen, minimieren Risiken, steigern ihre Agilität und schaffen nachhaltige Wettbewerbsvorteile.  Der Schlüssel zum Erfolg liegt in einer evolutionären Architektur, die sich kontinuierlich an neue Anforderungen anpasst – ein lebendiges System, das mit der Dynamik des digitalen Zeitalters wächst. (mb) 

Content-Management-Modernisierung: Sukzessive sticht radikal​ Modernes Content-Management geht über reine Datensilos hinaus.kadir tezel – shutterstock.com

Die Idee einer allumfassenden, zentralen Plattform ist ein Wunschbild, das in der Realität bislang kaum verwirklicht wurde. Stattdessen sind wachsende Mengen unstrukturierter Daten schon heute auf unzählige Repositories und verschiedene ECM-Systeme verteilt. Die wahre Herausforderung liegt dabei nicht in der Verteilung der Daten selbst, sondern in fehlenden Schnittstellen, mangelnder Integration und fehlendem Mehrwert für die Nutzer. Datensilos, ineffiziente Prozesse sowie Governance– und Compliance-Herausforderungen sind die unvermeidbaren Folgen. 

Angesichts rasant steigender Datenmengen, sich wandelnder Marktbedingungen und neuer regulatorischer Anforderungen ist ein Umdenken gefragt. Unternehmen benötigen Systeme, die nicht nur stabil, sondern zugleich flexibel und erweiterbar sind. Die Modernisierung sollte nicht als Hindernis, sondern als Chance verstanden werden: Eine Möglichkeit, von monolithischen Strukturen zu einem modularen, Cloud-basierten und zukunftssicheren Ökosystem überzugehen. 

Die Kraft der schrittweisen Transformation 

Ein „Big Bang“-Ansatz, bei dem ein bestehendes System vollständig ersetzt wird, mag verlockend erscheinen, ist jedoch für die meisten Unternehmen mit hohen Risiken verbunden. Ein abrupter Wechsel bringt vielfach Betriebsunterbrechungen und hohe Kosten mit sich, weshalb notwendige Modernisierungen häufig so lange hinausgezögert werden, bis sie zum Problem werden.  

Ein iterativer Ansatz hingegen gleicht einer sanften Gewebeerneuerung: Veraltete Strukturen werden schrittweise durch moderne Module ersetzt. So bleibt das System flexibel und entwickelt sich organisch weiter, während zentrale Geschäftsprozesse reibungslos weiterlaufen. Unternehmen, die auf eine regelmäßige, schrittweise Modernisierung setzen, profitieren von einer agilen IT-Architektur, die Veränderungen als natürlichen Bestandteil begreift. Neue Funktionen lassen sich so deutlich schneller und mit einem klar messbaren Return on Investment (RoI) implementieren. So konnte beispielsweise Twitter Ads durch diesen Ansatz innerhalb weniger Monate die Deployment-Geschwindigkeit um das Sechsfache steigern. Diese Form der Transformation sorgt für Planbarkeit, nachhaltige Effizienzsteigerungen und kontinuierlichen, geschäftlichen Mehrwert. 

Der erste Schritt: Klare Bestandsaufnahme 

Eine unstrukturierte Migration gleicht einem „Last-Minute-Packen“ für den Urlaub, bei dem wahllos Dinge aus dem Kleiderschrank gegriffen und in den Koffer geworfen werden. Damit der Übergang gelingt, braucht es eine sorgfältige Analyse: Welche Systeme sind geschäftskritisch? Wo gibt es Redundanzen? Welche Prozesse lassen sich optimieren? 

Ein Content-Audit hilft, bestehende Datenbestände zu bewerten – von Dokumenten aller Art und E-Mails über Bild- und Videoinhalte bis hin zu Kundenkommunikation. Auf dieser Basis können Unternehmen ihre Migration strategisch priorisieren. Moderne KI-gestützte Technologien analysieren semantische Strukturen, aktualisieren Metadaten und filtern irrelevante Informationen heraus, um die Grundlage für ein effizienteres System zu schaffen. 

Modularisierung und KI: Der Schlüssel zu einer smarten Transformation 

Statt ein altes System einfach durch ein neues zu ersetzen, ist eine flexible, modulare Architektur gefragt. Ein API-first-Ansatz bildet eine Brücke zwischen Altsystemen und modernen Cloud-Plattformen, sodass Unternehmen schrittweise migrieren können, ohne den laufenden Betrieb zu gefährden. 

Technologisch basiert dieser Ansatz auf zwei Säulen: Modularisierung und Automatisierung. Legacy-Systeme werden in kleinere, unabhängig funktionierende Module überführt, was eine agile Weiterentwicklung ermöglicht. Container-Technologien und Microservices gewährleisten dabei eine schrittweise Migration: Zunächst werden bestehende Systeme in isolierte Umgebungen überführt, anschließend in hybride Architekturen integriert und schließlich vollständig in Cloud-basierte Lösungen und Microservices transformiert. 

Zudem sorgen herstellerunabhängige Architekturen für langfristige Flexibilität: Unternehmen können dann ihre ECM-, ERP- und CRM-Systeme vernetzen, ohne sich an proprietäre Systeme zu binden. So ermöglichen spezielle Plattformen mit offenen Schnittstellen eine nahtlose Integration in bestehende Ökosysteme. Diese Offenheit schützt bestehende Investitionen und erleichtert es, auf neue Trends zu reagieren und schnell technologische Anpassungen vorzunehmen. 

Hyperautomation: Vom passiven Repository zum intelligenten System 

Moderne Content-Management-Systeme müssen weit über die reine Datenspeicherung hinausgehen. Hier kommt Hyperautomation ins Spiel: Künstliche Intelligenz (KI) verwandelt statische Repositories in intelligente Systeme, die sich selbst optimieren. KI kann Metadaten automatisch aktualisieren, Inhalte semantisch klassifizieren und Migrationsprozesse beschleunigen. Smarte Workflows und selbstlernende Compliance-Mechanismen minimieren Fehler und steigern die Governance-Qualität. 

Besonders performant sind semantische Remapping-Techniken. Diese harmonisieren bestehende Inhalte und übersetzen sie automatisch in neue Taxonomien. So werden Daten nicht nur archiviert, sondern aktiv genutzt und in geschäftsrelevante Prozesse integriert. 

Change-Management: Der Mensch als Erfolgsfaktor 

Technologische Innovation ist nicht der alleinige Heilsbringer – der Erfolg einer Modernisierung hängt maßgeblich von den Menschen ab, die mit den neuen Systemen arbeiten. Eine frühzeitige Einbindung der Mitarbeitenden durch Co-Creation-Ansätze, interaktive Schulungen oder KI-gestützte Lernplattformen steigert die Akzeptanz und das Engagement. 

Gleichzeitig ist eine transparente Kommunikation entscheidend: Mitarbeitende müssen verstehen, warum Veränderungen notwendig sind und welche Vorteile sie bieten. Eine Unternehmenskultur, die Fehler als Lernchance begreift, fördert zudem die Offenheit und Innovationsbereitschaft. 

Kontinuierliche Evolution statt abrupter Revolution 

Die Modernisierung von Content-Management-Systemen ist keine einmalige Aufgabe, sondern eine kontinuierliche Entwicklung. Unternehmen, die auf eine schrittweise Transformation setzen, minimieren Risiken, steigern ihre Agilität und schaffen nachhaltige Wettbewerbsvorteile. 

Der Schlüssel zum Erfolg liegt in einer evolutionären Architektur, die sich kontinuierlich an neue Anforderungen anpasst – ein lebendiges System, das mit der Dynamik des digitalen Zeitalters wächst. (mb)

Content-Management-Modernisierung: Sukzessive sticht radikal​ Weiterlesen »

T-Systems-CEO im Interview: Digitale Fähigkeiten auch selbst nutzen​

Allgemein

T-Systems-CEO und Telekom-Vorstandsmitglied Ferri Abolhassan diskutiert im COMPUTERWOCHE-Interview über die Themen digitale Souveränität in Europa sowie KI. Deutsche Telekom Angesichts der veränderten geopolitischen Rahmenbedingungen ist die Digitale Souveränität derzeit ein heißes Thema – gerade in Deutschland. Wie positioniert sich T-Systems in diesem relevanten Feld? Ferri Abolhassan: Unser Konzernchef Tim Höttges betont immer wieder, dass wir mit unserem einzigartigen KI- und Cloud-Know-how ein sehr wichtiger Differenzierer für die Telekom sind. Denn diese Zukunftstechnologien gewinnen mehr und mehr an Bedeutung. Damit steigt auch unsere Bedeutung für den Konzern kontinuierlich. Digitale Souveränität spielt dabei eine große Rolle. Unsere Kunden verlangen inzwischen verstärkt danach. Angesichts der Diskussionen um KI-Rechenzentren sind wir mit unserem Angebot also genau richtig positioniert. Und das heißt konkret? Ferri Abolhassan: Wir waren einer der Pioniere im Bereich Cloud und Rechenzentren und verfügen daher auch über eine langjährige, branchenumfassende Expertise. Jetzt, wo die Anwender großen Wert auf die Hoheit über ihre eigenen Daten legen, sind wir bestens darauf vorbereitet und sehen hier einen wachsenden Markt für uns. Unsere Open Telekom Cloud (OTC) und die darauf entwickelte Open Sovereign Cloud (OSC) sind Beispiele für souveräne Angebote. Mit unserer Future Cloud Infrastructure (FCI) bieten wir darüber hinaus eine sichere Lösung mit Zero Downtime. Wir sind ein Verfechter souveräner Lösungen. Allerdings glaube ich auch an die Vielfalt und die Wahlmöglichkeiten, die man den Kunden bieten sollte. Deshalb bin ich auch Fürsprecher eines Multi-Cloud-Ansatzes, solange dieser souverän, sicher und qualitativ hochwertig ist. Datenhoheit und Souveränität gewinnen an Bedeutung Ja, aber neben ihren eigenen souveränen Cloud-Diensten bieten Sie auch die Lösungen der US-Hyperscaler an. Wie passt das zusammen? Ferri Abolhassan: Uns ist es heute zu wenig, nur ein Treuhänder für die Angebote anderer zu sein. Wir wollen den Anwendern ganzheitliche Lösungen anbieten, die ihre Geschäftsprozesse sicher und umfassend unterstützen. Wenn die Kunden dies wünschen, bieten wir auch die Lösungen von Hyperscalern an. Der Weg führt daher mittelfristig über hybride und Multi-Cloud-Modelle. Dann liegen unkritische Workloads bei Hyperscalern, die sensiblen Daten und Workloads hingegen in souveränen europäischen Clouds. Wir als T-Systems glauben aber, dass Datenhoheit und Souveränität zunehmend an Bedeutung gewinnen. Und hier kommen unsere eigenen Plattformen wie OTC (Open Telekom Cloud), OSC (Open Sovereign Cloud) und FCI (Future Cloud Infrastructure) mit all ihren Dimensionen ins Spiel: Vom Rechenzentrum über die Hardware und das Betriebsmodell bis hin zur Software. Zudem helfen wir den Anwendern beim Wechsel zwischen verschiedenen Cloud-Welten. Milliarden für neue Data Center Von Ihnen ist der Satz überliefert, dass Sie bei den Themen, bei denen Sie sich engagieren, die Nummer Eins sein wollen. Wie wollen Sie hierzulande die Dominanz der Hyperscaler in Sachen Rechenzentren brechen? Ferri Abolhassan: Darüber, dass wir mehr Data-Center-Kapazität brauchen, sind wir uns beide vollkommen einig. Das ist überhaupt kein Thema. Die Frage ist nur, wie schnell können wir liefern. Auch wenn aktuell noch ein Großteil der Rechenleistung von US-Hyperscalern bereitgestellt wird, das wird sich verändern. Dazu muss man allerdings anfangen, Kapazitäten aufzubauen, sonst kann man nicht liefern. Wir betreiben das Geschäft seit 20 Jahren und investieren seitdem kontinuierlich in Data Center. Und wir planen weitere hohe Investitionen in Rechenzentren. Bereits jetzt haben wir 400 Megawatt an Rechenleistung im Netz. Die geplanten Ausbauten und Neubauten werden uns in den Gigawattbereich führen. Das ist ein fortlaufender Prozess, bei dem wir nicht bei null anfangen. Ferri Abolhassan: Wir entwickeln unsere digitalen Fähigkeiten nur, wenn wir diese auch selbst nutzen. Deutsche Telekom Der Staat ist als Ankerkunde gefordert Welche Rahmenbedingungen oder regulatorischen Maßnahmen wünschen Sie sich, um diesen Ausbau weiter voranzutreiben? Ferri Abolhassan: Ein wichtiger Faktor sind sicherlich die Energiekosten. Unterstützung braucht die Branche zudem bei den Genehmigungsprozessen, auch wenn wir beispielsweise die Genehmigung bekommen haben, unseren RZ-Standort Biere weiterauszubauen. Noch entscheidender ist jedoch, dass sich die politisch Verantwortlichen in Deutschland auch zur Nachfrage nach nationaler, souveräner Rechenleistung bekennen. Es kann nicht sein, dass ich als Staat mit Hinweis auf die digitale Souveränität, Data-Center-Investitionen fordere, mich dieser aber nicht bediene. Stichwort “Verwaltungsdigitalisierung und Staatsmodernisierung”. Hier sehe ich den Staat unter dem Stichwort Ankerkunde gefordert. Wir entwickeln unsere digitalen Fähigkeiten nur, wenn wir diese auch selbst nutzen. Noch fehlt die Denke Und kommt der Staat diesem Ansinnen nach? Ferri Abolhassan: Wir führen hierzu gute Gespräche. Aber es ist noch nicht die Denke vorhanden, die es bräuchte. Andere Länder, insbesondere die USA tun sich hier leichter, die sagen einfach „America first“. Verstehen Sie mich nicht falsch, ich bin nicht derjenige, der sagt „Germany first“. Aber Europa darf hier zur Stärkung des Binnenmarktes auch an sich denken, wenn es um die öffentliche, also steuerfinanzierte Vergabe von IT-Diensten geht. In Brüssel und auch in der neuen Bundesregierung nehme ich Verständnis hierfür wahr. Cloud und Rechenzentren sind ja nur zwei Aspekte der Digitalen Souveränität. Noch viel größer ist doch unsere Abhängigkeit beim Zukunftsthema KI? Ferri Abolhassan: Nein, denken Sie nur an das Projekt OpenGPT-X als deutschen Beitrag zur Digitalen Souveränität Europas in Sachen GenAI-Modelle. So entstand etwa mit dem Opensource-LLM Teuken-7B eine Alternative zu den US-amerikanischen KI-Sprachmodellen. GenAI Made in Germany Wir offerieren dieses Modell im Rahmen unserer AI Foundation Services. Teuken-7B wurde unter anderem mit den 24 Amtssprachen der EU trainiert und richtet sich an Unternehmen und Behörden. Wir sehen uns hier als erster Anbieter für solche europäischen KI-Sprachmodelle mit über sieben Milliarden Parametern. Daher auch der Zusatz 7B für 7 Billions. Sie erwähnen das KI-Angebot von T-Systems. Wie gehen Sie intern mit dem Thema KI um? Ferri Abolhassan: „Use what you sell“ lautet eines unserer Prinzipien. Wir haben eine umfangreiche KI-Expertise aufgebaut und setzen KI intern in verschiedenen Bereichen ein. Dazu gehören intelligente Chatbots, Frontend-Assistenten und Predictive Analytics im Kundenservice. Auch das lernende Netz der Telekom nutzt KI zur Optimierung der Netzkapazität. Zudem haben wir ein Kompetenzcenter im Konzern etabliert, das alle KI-Aktivitäten bündelt. Ein konkretes Produkt ist unser AI Engineer, der zeigt, wie KI bei der Code-Erstellung, -Modernisierung und im Testing unterstützen kann. Unser AI Engineer verkürzt den Entwicklungsprozess von 6 Monaten auf wenige Minuten – Testing und Bereitstellung inklusive. Ein kurzer Prompt in natürlicher Sprache genügt. Auch der AI Engineer ist Bestandteil unserer AI Foundation Services. Use what you sell Ferner fördern wir sowohl dedizierte Schulungen als auch das experimentelle Ausprobieren neuer KI-Tools durch unsere Mitarbeitenden. Unser Ziel ist es, dass alle unsere Beschäftigten KI als ein nützliches Werkzeug verstehen und es aktiv in ihrer Arbeit einsetzen können. Apropos KI und Mitarbeiter. Wie sehen Sie das Verhältnis zwischen Mensch und KI in Zukunft? Wird der Mensch in vielen Bereichen ersetzt werden? Ferri Abolhassan: KI verändert gerade unsere Welt und ist aus keinem Bereich mehr wegzudenken. Das Potenzial von Künstlicher Intelligenz ist riesig. Richtig eingesetzt sorgt sie branchenübergreifend für mehr Kreativität, Produktivität und Effizienz. Darum ist es so wichtig, dass alle schnellstmöglich lernen, mit dieser disruptiven Technologie umzugehen. KI eröffnet uns Menschen neue Möglichkeiten, um besser zu forschen, zu entwickeln, zu dokumentieren und zu administrieren. Ich bin überzeugt: Der Mensch wird weiterhin den Unterschied machen, aber KI kann uns in vielen Bereichen einen erheblichen Mehrwert biete – wenn wir sie sinnvoll und verantwortungsbewusst einsetzen. KI kann uns erheblichen Mehrwert bieten Wenn ich den aktuellen Stand der KI-Adaption in Deutschland betrachte, dann scheint sich diese Erkenntnis noch nicht weit durchgesetzt zu haben. Wie schätzen Sie die aktuelle Nutzung von KI in deutschen Unternehmen ein und wo sehen Sie die größten Chancen? Ferri Abolhassan: Es ist richtig, ältere Zahlen sprachen von einer eher geringen Nutzung. Allerdings zeigt eine aktuellere Bitkom-Studie, dass bereits 42 Prozent der Unternehmen KI in der Produktion einsetzen. Ein weiteres Drittel hat entsprechende Planungen. Beispiele hierfür sind die Überwachung von Maschinen, die intelligente Steuerung von Robotern und die Optimierung des Energieverbrauchs. Trotz dieser positiven Entwicklung sehen wir weiterhin erhebliches Potenzial und Chancen für den Einsatz von KI in Unternehmen. Unser Ansatz ist es, Unternehmen konkrete Anwendungsfälle aufzuzeigen, wie sie KI gewinnbringend einsetzen können und Ihnen bei Bedarf auch beim Einsatz zu helfen. Auch im KI-Zeitalter, so ist Ferri Abolhassan überzeugt, wird der Mensch wird weiterhin den Unterschied machen, auch wenn die KI in vielen Bereichen einen erheblichen Mehrwert bietet. Deutsche Telekom Fokus auf den Nutzen legen Könnten Sie uns einige konkrete Beispiele für diese Anwendungsfälle nennen? Ferri Abolhassan: Ja, unser Fokus liegt auf dem konkreten Nutzen für die Anwender. Wir sehen Möglichkeiten in der verbesserten Patientenversorgung im Krankenhaus, in Fortschritten in der Krebsforschung. Ein anderes Feld ist die Optimierung von Logistikprozessen in der Automobilindustrie. Es geht darum, praktische Arbeits- und Problemstellungen von Unternehmen mit Automatisierung und KI zu lösen. Zum Beispiel können wir in einem Krankenhaus die Wundversorgung verbessern, indem die Nachdokumentation und Vorbereitung direkt am Patientenbett mit KI-Unterstützung erfolgt. In der Automobilindustrie können wir beispielsweise helfen, die Logistik ganzer Flotten zu optimieren oder die Qualitätskontrolle in der Produktion durch KI-gestützte Anomalie-Erkennung zu verbessern. Weg des Machens einschlagen Das klingt durchaus vielversprechend, aber sind uns andere Länder wie China nicht weit voraus? Ferri Abolhassan: China ist in der Tat ein ernstzunehmender Wettbewerber. Um hier aufzuholen, ist es wichtig, dass wir unsere Aversion gegenüber neuen Technologien ablegen. Wir haben immer noch eine Menge Ideen “Made in Germany”. Aber wir müssen einen Weg des “Machens” einschlagen. Es bedarf konkreter Angebote und der Unterstützung der Unternehmen bei der Implementierung von KI-Lösungen. Wir müssen weg von der reinen Theorie hin zur praktischen Anwendung. Dazu zählt für mich auch, den Unternehmen einen konkreten Nutzen zu bieten. Ein ganz anderes Thema. Sie sind jetzt seit fast anderthalb Jahren CEO der T-Systems. Wo steht das Unternehmen heute, es war ja lange Zeit ein Sorgenkind der Telekom? Ferri Abolhassan: Ab Ende 2023 haben wir als Team die richtigen Prioritäten gesetzt: Den Kunden in den Mittelpunkt. Fokus auf Qualität und Resilienz. Ein wettbewerbsfähiges Portfolio. Einen integrierten Marktangang. So haben wir unseren Wachstumskurs erfolgreich ausgebaut. Heute sind wir, das kann man schon sagen, in stabilem Fahrwasser. Unter der Führung von Ferri Abolhassan wächst die T-Systems profitabel. Deutsche Telekom T-Systems ist auf Wachstumskurs Woran machen Sie das fest, dass Sie sich in stabilen Fahrwassern befinden? Ferri Abolhassan: Wir haben alle wichtigen Kennzahlen weiterentwickelt und wachsen inzwischen profitabel. Unseren Auftragseingang haben wir zuletzt um elf Prozent gesteigert. Das ist ein wichtiger Indikator für zukünftiges Geschäft. Unser Umsatz ist um 2,8 Prozent gestiegen. Und in dieser Größenordnung wollen wir weiterwachsen. Das EBITDA, sprich, unser Ergebnis vor Zinsen, Steuern und Abschreibungen, haben wir sogar überproportional um 14,8 Prozent verbessert. Aber damit stehen wir erst am Anfang unserer Reise. Wir ruhen uns aus diesen Erfolgen nicht aus. Wir wollen unsere Zahlen Monat für Monat hinstellen und auch in unserem Jubiläumsjahr – wir feiern 25 Jahre T-Systems – weiter profitabel wachsen. Die Nummer Eins in DACH Und wie ist es um das Standing einer T-Systems im Markt bestellt? Ferri Abolhassan: Wir haben eine ganze Menge an Vertriebserfolgen erzielt. Im Moment sind wir im B2B-Markt in Europa die Nummer Zwei, in der DACH-Region die Nummer Eins. Kunden wie AOK, KMD oder Daimler Truck schenken uns ihr Vertrauen, um nur einige zu nennen. Letztlich kommen unsere Kunden aus allen Branchen, aus Automotive, Public, Health, Finance, Transport & Logistics und Manufacturing. Als wir beide vor einem Jahr miteinander sprachen, sagte ich Ihnen, dass wir ganz klar auf das Thema Qualität setzen werden. Dazu sind wir noch mal den Dreiklang von People, Process, Platform angegangen – der Grundlage von Zero Outage. Wir haben unsere Mitarbeitenden weiter geschult und sensibilisiert, bessere, stabilere Prozesse eingeführt, und unsere Plattformen noch ausfallsicherer gemacht. Damit sind wir jetzt in Sachen Stabilität und Ausfallsicherheit gut unterwegs und konnten das auch gegenüber unseren Kunden beweisen.  

T-Systems-CEO im Interview: Digitale Fähigkeiten auch selbst nutzen​ T-Systems-CEO und Telekom-Vorstandsmitglied Ferri Abolhassan diskutiert im COMPUTERWOCHE-Interview über die Themen digitale Souveränität in Europa sowie KI.
Deutsche Telekom

Angesichts der veränderten geopolitischen Rahmenbedingungen ist die Digitale Souveränität derzeit ein heißes Thema – gerade in Deutschland. Wie positioniert sich T-Systems in diesem relevanten Feld?

Ferri Abolhassan: Unser Konzernchef Tim Höttges betont immer wieder, dass wir mit unserem einzigartigen KI- und Cloud-Know-how ein sehr wichtiger Differenzierer für die Telekom sind. Denn diese Zukunftstechnologien gewinnen mehr und mehr an Bedeutung. Damit steigt auch unsere Bedeutung für den Konzern kontinuierlich. Digitale Souveränität spielt dabei eine große Rolle. Unsere Kunden verlangen inzwischen verstärkt danach. Angesichts der Diskussionen um KI-Rechenzentren sind wir mit unserem Angebot also genau richtig positioniert.

Und das heißt konkret?

Ferri Abolhassan: Wir waren einer der Pioniere im Bereich Cloud und Rechenzentren und verfügen daher auch über eine langjährige, branchenumfassende Expertise. Jetzt, wo die Anwender großen Wert auf die Hoheit über ihre eigenen Daten legen, sind wir bestens darauf vorbereitet und sehen hier einen wachsenden Markt für uns.

Unsere Open Telekom Cloud (OTC) und die darauf entwickelte Open Sovereign Cloud (OSC) sind Beispiele für souveräne Angebote. Mit unserer Future Cloud Infrastructure (FCI) bieten wir darüber hinaus eine sichere Lösung mit Zero Downtime. Wir sind ein Verfechter souveräner Lösungen. Allerdings glaube ich auch an die Vielfalt und die Wahlmöglichkeiten, die man den Kunden bieten sollte. Deshalb bin ich auch Fürsprecher eines Multi-Cloud-Ansatzes, solange dieser souverän, sicher und qualitativ hochwertig ist.

Datenhoheit und Souveränität gewinnen an Bedeutung

Ja, aber neben ihren eigenen souveränen Cloud-Diensten bieten Sie auch die Lösungen der US-Hyperscaler an. Wie passt das zusammen?

Ferri Abolhassan: Uns ist es heute zu wenig, nur ein Treuhänder für die Angebote anderer zu sein. Wir wollen den Anwendern ganzheitliche Lösungen anbieten, die ihre Geschäftsprozesse sicher und umfassend unterstützen. Wenn die Kunden dies wünschen, bieten wir auch die Lösungen von Hyperscalern an. Der Weg führt daher mittelfristig über hybride und Multi-Cloud-Modelle. Dann liegen unkritische Workloads bei Hyperscalern, die sensiblen Daten und Workloads hingegen in souveränen europäischen Clouds. Wir als T-Systems glauben aber, dass Datenhoheit und Souveränität zunehmend an Bedeutung gewinnen. Und hier kommen unsere eigenen Plattformen wie OTC (Open Telekom Cloud), OSC (Open Sovereign Cloud) und FCI (Future Cloud Infrastructure) mit all ihren Dimensionen ins Spiel: Vom Rechenzentrum über die Hardware und das Betriebsmodell bis hin zur Software. Zudem helfen wir den Anwendern beim Wechsel zwischen verschiedenen Cloud-Welten.

Milliarden für neue Data Center

Von Ihnen ist der Satz überliefert, dass Sie bei den Themen, bei denen Sie sich engagieren, die Nummer Eins sein wollen. Wie wollen Sie hierzulande die Dominanz der Hyperscaler in Sachen Rechenzentren brechen?

Ferri Abolhassan: Darüber, dass wir mehr Data-Center-Kapazität brauchen, sind wir uns beide vollkommen einig. Das ist überhaupt kein Thema. Die Frage ist nur, wie schnell können wir liefern. Auch wenn aktuell noch ein Großteil der Rechenleistung von US-Hyperscalern bereitgestellt wird, das wird sich verändern.

Dazu muss man allerdings anfangen, Kapazitäten aufzubauen, sonst kann man nicht liefern. Wir betreiben das Geschäft seit 20 Jahren und investieren seitdem kontinuierlich in Data Center. Und wir planen weitere hohe Investitionen in Rechenzentren.

Bereits jetzt haben wir 400 Megawatt an Rechenleistung im Netz. Die geplanten Ausbauten und Neubauten werden uns in den Gigawattbereich führen. Das ist ein fortlaufender Prozess, bei dem wir nicht bei null anfangen.

Ferri Abolhassan: Wir entwickeln unsere digitalen Fähigkeiten nur, wenn wir diese auch selbst nutzen.
Deutsche Telekom

Der Staat ist als Ankerkunde gefordert

Welche Rahmenbedingungen oder regulatorischen Maßnahmen wünschen Sie sich, um diesen Ausbau weiter voranzutreiben?

Ferri Abolhassan: Ein wichtiger Faktor sind sicherlich die Energiekosten. Unterstützung braucht die Branche zudem bei den Genehmigungsprozessen, auch wenn wir beispielsweise die Genehmigung bekommen haben, unseren RZ-Standort Biere weiterauszubauen.

Noch entscheidender ist jedoch, dass sich die politisch Verantwortlichen in Deutschland auch zur Nachfrage nach nationaler, souveräner Rechenleistung bekennen. Es kann nicht sein, dass ich als Staat mit Hinweis auf die digitale Souveränität, Data-Center-Investitionen fordere, mich dieser aber nicht bediene. Stichwort “Verwaltungsdigitalisierung und Staatsmodernisierung”. Hier sehe ich den Staat unter dem Stichwort Ankerkunde gefordert. Wir entwickeln unsere digitalen Fähigkeiten nur, wenn wir diese auch selbst nutzen.

Noch fehlt die Denke

Und kommt der Staat diesem Ansinnen nach?

Ferri Abolhassan: Wir führen hierzu gute Gespräche. Aber es ist noch nicht die Denke vorhanden, die es bräuchte. Andere Länder, insbesondere die USA tun sich hier leichter, die sagen einfach „America first“. Verstehen Sie mich nicht falsch, ich bin nicht derjenige, der sagt „Germany first“. Aber Europa darf hier zur Stärkung des Binnenmarktes auch an sich denken, wenn es um die öffentliche, also steuerfinanzierte Vergabe von IT-Diensten geht. In Brüssel und auch in der neuen Bundesregierung nehme ich Verständnis hierfür wahr.

Cloud und Rechenzentren sind ja nur zwei Aspekte der Digitalen Souveränität. Noch viel größer ist doch unsere Abhängigkeit beim Zukunftsthema KI?

Ferri Abolhassan: Nein, denken Sie nur an das Projekt OpenGPT-X als deutschen Beitrag zur Digitalen Souveränität Europas in Sachen GenAI-Modelle. So entstand etwa mit dem Opensource-LLM Teuken-7B eine Alternative zu den US-amerikanischen KI-Sprachmodellen.

GenAI Made in Germany

Wir offerieren dieses Modell im Rahmen unserer AI Foundation Services. Teuken-7B wurde unter anderem mit den 24 Amtssprachen der EU trainiert und richtet sich an Unternehmen und Behörden. Wir sehen uns hier als erster Anbieter für solche europäischen KI-Sprachmodelle mit über sieben Milliarden Parametern. Daher auch der Zusatz 7B für 7 Billions.

Sie erwähnen das KI-Angebot von T-Systems. Wie gehen Sie intern mit dem Thema KI um?

Ferri Abolhassan: „Use what you sell“ lautet eines unserer Prinzipien. Wir haben eine umfangreiche KI-Expertise aufgebaut und setzen KI intern in verschiedenen Bereichen ein. Dazu gehören intelligente Chatbots, Frontend-Assistenten und Predictive Analytics im Kundenservice. Auch das lernende Netz der Telekom nutzt KI zur Optimierung der Netzkapazität. Zudem haben wir ein Kompetenzcenter im Konzern etabliert, das alle KI-Aktivitäten bündelt. Ein konkretes Produkt ist unser AI Engineer, der zeigt, wie KI bei der Code-Erstellung, -Modernisierung und im Testing unterstützen kann. Unser AI Engineer verkürzt den Entwicklungsprozess von 6 Monaten auf wenige Minuten – Testing und Bereitstellung inklusive. Ein kurzer Prompt in natürlicher Sprache genügt. Auch der AI Engineer ist Bestandteil unserer AI Foundation Services.

Use what you sell

Ferner fördern wir sowohl dedizierte Schulungen als auch das experimentelle Ausprobieren neuer KI-Tools durch unsere Mitarbeitenden. Unser Ziel ist es, dass alle unsere Beschäftigten KI als ein nützliches Werkzeug verstehen und es aktiv in ihrer Arbeit einsetzen können.

Apropos KI und Mitarbeiter. Wie sehen Sie das Verhältnis zwischen Mensch und KI in Zukunft? Wird der Mensch in vielen Bereichen ersetzt werden?

Ferri Abolhassan: KI verändert gerade unsere Welt und ist aus keinem Bereich mehr wegzudenken. Das Potenzial von Künstlicher Intelligenz ist riesig. Richtig eingesetzt sorgt sie branchenübergreifend für mehr Kreativität, Produktivität und Effizienz. Darum ist es so wichtig, dass alle schnellstmöglich lernen, mit dieser disruptiven Technologie umzugehen. KI eröffnet uns Menschen neue Möglichkeiten, um besser zu forschen, zu entwickeln, zu dokumentieren und zu administrieren. Ich bin überzeugt: Der Mensch wird weiterhin den Unterschied machen, aber KI kann uns in vielen Bereichen einen erheblichen Mehrwert biete – wenn wir sie sinnvoll und verantwortungsbewusst einsetzen.

KI kann uns erheblichen Mehrwert bieten

Wenn ich den aktuellen Stand der KI-Adaption in Deutschland betrachte, dann scheint sich diese Erkenntnis noch nicht weit durchgesetzt zu haben. Wie schätzen Sie die aktuelle Nutzung von KI in deutschen Unternehmen ein und wo sehen Sie die größten Chancen?

Ferri Abolhassan: Es ist richtig, ältere Zahlen sprachen von einer eher geringen Nutzung. Allerdings zeigt eine aktuellere Bitkom-Studie, dass bereits 42 Prozent der Unternehmen KI in der Produktion einsetzen. Ein weiteres Drittel hat entsprechende Planungen. Beispiele hierfür sind die Überwachung von Maschinen, die intelligente Steuerung von Robotern und die Optimierung des Energieverbrauchs.

Trotz dieser positiven Entwicklung sehen wir weiterhin erhebliches Potenzial und Chancen für den Einsatz von KI in Unternehmen. Unser Ansatz ist es, Unternehmen konkrete Anwendungsfälle aufzuzeigen, wie sie KI gewinnbringend einsetzen können und Ihnen bei Bedarf auch beim Einsatz zu helfen.

Auch im KI-Zeitalter, so ist Ferri Abolhassan überzeugt, wird der Mensch wird weiterhin den Unterschied machen, auch wenn die KI in vielen Bereichen einen erheblichen Mehrwert bietet.
Deutsche Telekom

Fokus auf den Nutzen legen

Könnten Sie uns einige konkrete Beispiele für diese Anwendungsfälle nennen?

Ferri Abolhassan: Ja, unser Fokus liegt auf dem konkreten Nutzen für die Anwender. Wir sehen Möglichkeiten in der verbesserten Patientenversorgung im Krankenhaus, in Fortschritten in der Krebsforschung. Ein anderes Feld ist die Optimierung von Logistikprozessen in der Automobilindustrie. Es geht darum, praktische Arbeits- und Problemstellungen von Unternehmen mit Automatisierung und KI zu lösen.

Zum Beispiel können wir in einem Krankenhaus die Wundversorgung verbessern, indem die Nachdokumentation und Vorbereitung direkt am Patientenbett mit KI-Unterstützung erfolgt. In der Automobilindustrie können wir beispielsweise helfen, die Logistik ganzer Flotten zu optimieren oder die Qualitätskontrolle in der Produktion durch KI-gestützte Anomalie-Erkennung zu verbessern.

Weg des Machens einschlagen

Das klingt durchaus vielversprechend, aber sind uns andere Länder wie China nicht weit voraus?

Ferri Abolhassan: China ist in der Tat ein ernstzunehmender Wettbewerber. Um hier aufzuholen, ist es wichtig, dass wir unsere Aversion gegenüber neuen Technologien ablegen. Wir haben immer noch eine Menge Ideen “Made in Germany”. Aber wir müssen einen Weg des “Machens” einschlagen.

Es bedarf konkreter Angebote und der Unterstützung der Unternehmen bei der Implementierung von KI-Lösungen. Wir müssen weg von der reinen Theorie hin zur praktischen Anwendung. Dazu zählt für mich auch, den Unternehmen einen konkreten Nutzen zu bieten.

Ein ganz anderes Thema. Sie sind jetzt seit fast anderthalb Jahren CEO der T-Systems. Wo steht das Unternehmen heute, es war ja lange Zeit ein Sorgenkind der Telekom?

Ferri Abolhassan: Ab Ende 2023 haben wir als Team die richtigen Prioritäten gesetzt: Den Kunden in den Mittelpunkt. Fokus auf Qualität und Resilienz. Ein wettbewerbsfähiges Portfolio. Einen integrierten Marktangang. So haben wir unseren Wachstumskurs erfolgreich ausgebaut. Heute sind wir, das kann man schon sagen, in stabilem Fahrwasser.

Unter der Führung von Ferri Abolhassan wächst die T-Systems profitabel.
Deutsche Telekom

T-Systems ist auf Wachstumskurs

Woran machen Sie das fest, dass Sie sich in stabilen Fahrwassern befinden?

Ferri Abolhassan: Wir haben alle wichtigen Kennzahlen weiterentwickelt und wachsen inzwischen profitabel. Unseren Auftragseingang haben wir zuletzt um elf Prozent gesteigert. Das ist ein wichtiger Indikator für zukünftiges Geschäft. Unser Umsatz ist um 2,8 Prozent gestiegen. Und in dieser Größenordnung wollen wir weiterwachsen. Das EBITDA, sprich, unser Ergebnis vor Zinsen, Steuern und Abschreibungen, haben wir sogar überproportional um 14,8 Prozent verbessert. Aber damit stehen wir erst am Anfang unserer Reise. Wir ruhen uns aus diesen Erfolgen nicht aus. Wir wollen unsere Zahlen Monat für Monat hinstellen und auch in unserem Jubiläumsjahr – wir feiern 25 Jahre T-Systems – weiter profitabel wachsen.

Die Nummer Eins in DACH

Und wie ist es um das Standing einer T-Systems im Markt bestellt?

Ferri Abolhassan: Wir haben eine ganze Menge an Vertriebserfolgen erzielt. Im Moment sind wir im B2B-Markt in Europa die Nummer Zwei, in der DACH-Region die Nummer Eins. Kunden wie AOK, KMD oder Daimler Truck schenken uns ihr Vertrauen, um nur einige zu nennen. Letztlich kommen unsere Kunden aus allen Branchen, aus Automotive, Public, Health, Finance, Transport & Logistics und Manufacturing.

Als wir beide vor einem Jahr miteinander sprachen, sagte ich Ihnen, dass wir ganz klar auf das Thema Qualität setzen werden. Dazu sind wir noch mal den Dreiklang von People, Process, Platform angegangen – der Grundlage von Zero Outage. Wir haben unsere Mitarbeitenden weiter geschult und sensibilisiert, bessere, stabilere Prozesse eingeführt, und unsere Plattformen noch ausfallsicherer gemacht. Damit sind wir jetzt in Sachen Stabilität und Ausfallsicherheit gut unterwegs und konnten das auch gegenüber unseren Kunden beweisen. 

T-Systems-CEO im Interview: Digitale Fähigkeiten auch selbst nutzen​ Weiterlesen »

Die Marianowicz-Methode: Kleine Rückenschule fürs Büro​

Allgemein

Insgesamt 85 Prozent aller Deutschen haben irgendwann im Leben Rückenbeschwerden. Diese Schmerzen sind zwar sehr unangenehm – aber selten wirklich gefährlich. Denn gerade bei Rückenproblemen kann jeder selbst entscheidend zum Wohlbefinden und zur Schmerzfreiheit beitragen. Davon ist Martin Marianowicz, seit 1986 Facharzt für Orthopädie, Chirotherapie und Sportmedizin in München, überzeugt.In seinem Buch “Die Marianowicz-Methode. Mein Programm für einen schmerzfreien Rücken” präsentiert er die wichtigsten Rückenerkrankungen und gibt den Lesern einen Fragenkatalog an die Hand, mit dem sich herausfinden lässt, ob es sich um Ischias, einen Hexenschuss oder nur um verspannte Muskulatur handelt. Sein nächster Schritt hilft dabei festzustellen, ob eine Eigenbehandlung mit Wärme und Schmerztabletten ausreicht oder der Besuch beim Arzt notwendig ist. Der umfangreiche praktische Teil umfasst Übungen für zu Hause oder im Büro, für unterwegs und mit Geräten.Beweglich auch im Büro“Halten Sie Ihre Wirbelsäule in Bewegung”. Diesen Rat erteilt der Mediziner, der sich auf die minimal invasive Wirbensäulen- und Bandscheibenbehandlung spezialisiert hat, allen Büroarbeitern: ” Aktives Sitzen heißt das Zauberwort, ideal dafür sind nicht anatomisch geformte Stühle mit starrer Rückenlehne, sondern harte Hocker oder Stühle mit einer beweglichen Sitzfläche wie der Swopper oder auch ein Pezziball.”In den USA werden von vielen Firmen schon Programme im Computer installiert, die den Mitarbeitern einmal pro Stunde signalisieren: Auf geht’s! Marianowicz empfiehlt, alle 60 Minuten für zehn Minuten einmal aufzustehen und wenigstens den Gang entlangzulaufen oder auch Dehnübungen vor dem PC zu machen. “Falls Sie zu Hause arbeiten und ein schnurloses Telefon haben: Gewöhnen Sie sich an, während des Telefonierens herumzulaufen. Das gefällt dem Rücken – und das Hirn arbeitet auch besser.”Der Orthopäde hat einige Übungen für das Büro (oder auch das Hotel oder den Flieger) zusammengestellt, die man zwischendurch machen kann. Es sind auch einige so genannte isometrische Übungen darunter. Bei diesen werden Muskeln auf gelenkschonende Weise angespannt und entspannt, allerdings ohne Geräte oder Gewichte.Die kleine RückenschuleDr. Martin Marianowiczist seit 1986 Facharzt für Orthopädie, Chirotherapie und Sportmedizin in München. Er gilt als Wegbereiter der modernen orthopädischen Schmerztherapie und der minimal-invasiven Wirbelsäulen- und Bandscheibenbehandlung. In seinem neuen Buch …“Die Marianowicz-Methode” …… zeigt, er, wie man sich selbst um seinen Rücken kümmern kann. Hier die wichtigsten Übungen für alle im Büro, die überwiegend sitzen müssen.Wirbelsäule und Becken aufrichtenSetzen Sie sich aufrecht auf Ihren Bürostuhl oder einen Hocker. Richten Sie Ihre Wirbelsäule auf, indem Sie das Becken leicht nach vorne kippen. Stellen Sie sich dann eine Schnur vor, die an Ihrem Scheitelpunkt befestigt ist und Sie lang nach oben zieht.Den Rumpf neigenBleiben Sie in der geraden Anfangsposition sitzen, neigen Sie dann Oberkörper, Hals und Kopf zur rechten Seite. Wichtig: Unterkörper und Becken bleiben dabei gerade, die Wirbelsäule lang. Den Rumpf neigen 2Neigen Sie jetzt Oberkörper, Hals und Kopf genauso zur linken Seite.Den Rumpf drehenDrehen Sie den Oberkörper zur rechten Seite, Kopf und Hals gehen dabei mit, der Blick ist seitlich nach hinten gerichtet. Die Wirbelsäule bleibt gerade, der Unterkörper dreht nicht mit. Anschließend die gleiche Bewegung zur linken Seite. Den Rumpf beugenRollen Sie sich Wirbel für Wirbel nach vorne durch die geöffneten Knie ein, bis der Rücken ganz rund ist. Der Kopf geht dabei in Richtung der Knie, die Hände berühren – wenn möglich – den Boden hinter den Füßen.Isometrische Übung 1Hier geht es um eine Lockerung der Halsmuskulatur. Setzen Sie sich dafür gerade hin und “denken” Sie sich lang. Legen Sie die rechte Hand locker auf dem Oberschenkel ab. Die linke Hand legen Sie auf die Stirn und drücken mit dem Kopf gegen die Hand, bis Sie eine Spannung in der Halsmuskulatur fühlen. Diese einige Sekunden halten, loslassen und erneut den Kopf gegen die Hand drücken. Danach Seitenwechsel.Isometrische Übung 2Diese Übung lockert ebenfalls die Halsmuskulatur. Setzen Sie sich dafür wieder gerade hin und machen Sie die Wirbelsäule so lang wie möglich. Legen Sie die linke Hand locker auf dem linken Oberschenkel ab, die rechte Hand legen Sie an den Nacken. Drücken Sie mit dem Kopf gegen die Hand, bis Sie eine Muskelspannung spüren. Diese einige Sekunden halten, loslassen und erneut den Kopf gegen die Hand drücken. Danach ist die andere Seite dran.Isometrische Übung 3Mit dieser Übung lockern Sie die Rotationsmuskeln der Halswirbelsäule. Das hilft gegen Verspannungen durch langes Starren auf den Computerbildschirm. Setzen Sie sich dafür gerade auf Ihren Bürostuhl und richten Sie die Wirbelsäule lang auf. Die rechte Hand liegt locker auf dem Oberschenkel, die linke Hand liegt am linken Nasenflügel. Schieben Sie dann die Nase mit leichter Spannung gegen die Hand. Die Spannung kurz halten, loslassen und nochmals für einige Sekunden die Nase gegen die Handfläche drücken. Danach Wechsel zur anderen Seite.Isometrische Übung 4Die Übung hilft gegen Verspannungen der seitlichen Halsmuskulatur. Setzen Sie sich so aufrecht wie möglich hin, die rechte Hand liegt locker auf dem rechten Oberschenkel. Die linke Hand liegt flach auf Höhe des linken Ohrs am Kopf. Drücken Sie nun mit dem Kopf leicht gegen die Hand, bis Sie eine Spannung in der Halsmuskulatur fühlen. Spannung kurz halten, loslassen und erneut den Kopf gegen die Hand drücken. Danach wiederholen Sie die Übung auf der anderen Kopfseite.Selbstmobilisation des Atlas an der oberen HalswirbelsäuleSetzen Sie sich aufrecht auf einen Stuhl oder Hocker. Bewegen Sie den Unterkiefer leicht zur rechten Seite Richtung Ohr, so dass der Mundwinkel nach oben zieht. Neigen Sie den Kopf zur linken Seite, bis Sie eine leichte Spannung am Hals spüren. Spannung einen kurzen Moment halten, dann ist die andere Seite dran.Selbstmobilisation der Brustwirbelsäule und der RippenwirbelgelenkeStellen Sie sich entspannt hin. Atmen Sie aus und neigen Sie dabei den Oberkörper zur Seite, der Arm geht im Bogen über dem Kopf mit. Atmen Sie dann in die gedehnte Seite mehrfach tief ein und aus und halten Sie ie Spannung. In die Ausgangsposition zurückkommen und zur anderen Seite neigen.Übung mit dem TherabandStellen Sie sich mit beiden Füßen auf die Mitte des Therabandes und überkreuzen Sie es einmal. Ziehen Sie die Enden dann mit beiden Armen langsam seitlich nach oben. 

Die Marianowicz-Methode: Kleine Rückenschule fürs Büro​ Insgesamt 85 Prozent aller Deutschen haben irgendwann im Leben Rückenbeschwerden. Diese Schmerzen sind zwar sehr unangenehm – aber selten wirklich gefährlich. Denn gerade bei Rückenproblemen kann jeder selbst entscheidend zum Wohlbefinden und zur Schmerzfreiheit beitragen. Davon ist Martin Marianowicz, seit 1986 Facharzt für Orthopädie, Chirotherapie und Sportmedizin in München, überzeugt.In seinem Buch “Die Marianowicz-Methode. Mein Programm für einen schmerzfreien Rücken” präsentiert er die wichtigsten Rückenerkrankungen und gibt den Lesern einen Fragenkatalog an die Hand, mit dem sich herausfinden lässt, ob es sich um Ischias, einen Hexenschuss oder nur um verspannte Muskulatur handelt. Sein nächster Schritt hilft dabei festzustellen, ob eine Eigenbehandlung mit Wärme und Schmerztabletten ausreicht oder der Besuch beim Arzt notwendig ist. Der umfangreiche praktische Teil umfasst Übungen für zu Hause oder im Büro, für unterwegs und mit Geräten.Beweglich auch im Büro“Halten Sie Ihre Wirbelsäule in Bewegung”. Diesen Rat erteilt der Mediziner, der sich auf die minimal invasive Wirbensäulen- und Bandscheibenbehandlung spezialisiert hat, allen Büroarbeitern: ” Aktives Sitzen heißt das Zauberwort, ideal dafür sind nicht anatomisch geformte Stühle mit starrer Rückenlehne, sondern harte Hocker oder Stühle mit einer beweglichen Sitzfläche wie der Swopper oder auch ein Pezziball.”In den USA werden von vielen Firmen schon Programme im Computer installiert, die den Mitarbeitern einmal pro Stunde signalisieren: Auf geht’s! Marianowicz empfiehlt, alle 60 Minuten für zehn Minuten einmal aufzustehen und wenigstens den Gang entlangzulaufen oder auch Dehnübungen vor dem PC zu machen. “Falls Sie zu Hause arbeiten und ein schnurloses Telefon haben: Gewöhnen Sie sich an, während des Telefonierens herumzulaufen. Das gefällt dem Rücken – und das Hirn arbeitet auch besser.”Der Orthopäde hat einige Übungen für das Büro (oder auch das Hotel oder den Flieger) zusammengestellt, die man zwischendurch machen kann. Es sind auch einige so genannte isometrische Übungen darunter. Bei diesen werden Muskeln auf gelenkschonende Weise angespannt und entspannt, allerdings ohne Geräte oder Gewichte.Die kleine RückenschuleDr. Martin Marianowiczist seit 1986 Facharzt für Orthopädie, Chirotherapie und Sportmedizin in München. Er gilt als Wegbereiter der modernen orthopädischen Schmerztherapie und der minimal-invasiven Wirbelsäulen- und Bandscheibenbehandlung. In seinem neuen Buch …“Die Marianowicz-Methode” …… zeigt, er, wie man sich selbst um seinen Rücken kümmern kann. Hier die wichtigsten Übungen für alle im Büro, die überwiegend sitzen müssen.Wirbelsäule und Becken aufrichtenSetzen Sie sich aufrecht auf Ihren Bürostuhl oder einen Hocker. Richten Sie Ihre Wirbelsäule auf, indem Sie das Becken leicht nach vorne kippen. Stellen Sie sich dann eine Schnur vor, die an Ihrem Scheitelpunkt befestigt ist und Sie lang nach oben zieht.Den Rumpf neigenBleiben Sie in der geraden Anfangsposition sitzen, neigen Sie dann Oberkörper, Hals und Kopf zur rechten Seite. Wichtig: Unterkörper und Becken bleiben dabei gerade, die Wirbelsäule lang. Den Rumpf neigen 2Neigen Sie jetzt Oberkörper, Hals und Kopf genauso zur linken Seite.Den Rumpf drehenDrehen Sie den Oberkörper zur rechten Seite, Kopf und Hals gehen dabei mit, der Blick ist seitlich nach hinten gerichtet. Die Wirbelsäule bleibt gerade, der Unterkörper dreht nicht mit. Anschließend die gleiche Bewegung zur linken Seite. Den Rumpf beugenRollen Sie sich Wirbel für Wirbel nach vorne durch die geöffneten Knie ein, bis der Rücken ganz rund ist. Der Kopf geht dabei in Richtung der Knie, die Hände berühren – wenn möglich – den Boden hinter den Füßen.Isometrische Übung 1Hier geht es um eine Lockerung der Halsmuskulatur. Setzen Sie sich dafür gerade hin und “denken” Sie sich lang. Legen Sie die rechte Hand locker auf dem Oberschenkel ab. Die linke Hand legen Sie auf die Stirn und drücken mit dem Kopf gegen die Hand, bis Sie eine Spannung in der Halsmuskulatur fühlen. Diese einige Sekunden halten, loslassen und erneut den Kopf gegen die Hand drücken. Danach Seitenwechsel.Isometrische Übung 2Diese Übung lockert ebenfalls die Halsmuskulatur. Setzen Sie sich dafür wieder gerade hin und machen Sie die Wirbelsäule so lang wie möglich. Legen Sie die linke Hand locker auf dem linken Oberschenkel ab, die rechte Hand legen Sie an den Nacken. Drücken Sie mit dem Kopf gegen die Hand, bis Sie eine Muskelspannung spüren. Diese einige Sekunden halten, loslassen und erneut den Kopf gegen die Hand drücken. Danach ist die andere Seite dran.Isometrische Übung 3Mit dieser Übung lockern Sie die Rotationsmuskeln der Halswirbelsäule. Das hilft gegen Verspannungen durch langes Starren auf den Computerbildschirm. Setzen Sie sich dafür gerade auf Ihren Bürostuhl und richten Sie die Wirbelsäule lang auf. Die rechte Hand liegt locker auf dem Oberschenkel, die linke Hand liegt am linken Nasenflügel. Schieben Sie dann die Nase mit leichter Spannung gegen die Hand. Die Spannung kurz halten, loslassen und nochmals für einige Sekunden die Nase gegen die Handfläche drücken. Danach Wechsel zur anderen Seite.Isometrische Übung 4Die Übung hilft gegen Verspannungen der seitlichen Halsmuskulatur. Setzen Sie sich so aufrecht wie möglich hin, die rechte Hand liegt locker auf dem rechten Oberschenkel. Die linke Hand liegt flach auf Höhe des linken Ohrs am Kopf. Drücken Sie nun mit dem Kopf leicht gegen die Hand, bis Sie eine Spannung in der Halsmuskulatur fühlen. Spannung kurz halten, loslassen und erneut den Kopf gegen die Hand drücken. Danach wiederholen Sie die Übung auf der anderen Kopfseite.Selbstmobilisation des Atlas an der oberen HalswirbelsäuleSetzen Sie sich aufrecht auf einen Stuhl oder Hocker. Bewegen Sie den Unterkiefer leicht zur rechten Seite Richtung Ohr, so dass der Mundwinkel nach oben zieht. Neigen Sie den Kopf zur linken Seite, bis Sie eine leichte Spannung am Hals spüren. Spannung einen kurzen Moment halten, dann ist die andere Seite dran.Selbstmobilisation der Brustwirbelsäule und der RippenwirbelgelenkeStellen Sie sich entspannt hin. Atmen Sie aus und neigen Sie dabei den Oberkörper zur Seite, der Arm geht im Bogen über dem Kopf mit. Atmen Sie dann in die gedehnte Seite mehrfach tief ein und aus und halten Sie ie Spannung. In die Ausgangsposition zurückkommen und zur anderen Seite neigen.Übung mit dem TherabandStellen Sie sich mit beiden Füßen auf die Mitte des Therabandes und überkreuzen Sie es einmal. Ziehen Sie die Enden dann mit beiden Armen langsam seitlich nach oben.

Die Marianowicz-Methode: Kleine Rückenschule fürs Büro​ Weiterlesen »

Dell Pro 16 Plus im Test: KI-Laptop mit großem Display​

Allgemein

Thomas Rau Auf einen Blick Pro viele Anschlüsse sehr ordentliche Rechenleistung Tastatur mit Nummernblock 5G, Smartcard-Leser als optionale Ausstattung Kontra geringe Display-Auflösung mäßige Farbdarstellung Lüfter häufig aktiv nicht besonders leicht Fazit Auch unter neuem Namen zeigt das Business-Notebook von Dell im Test die bekannten Kernkompetenzen: Das Pro 16 Plus ist ein rundum solide verarbeiteter, zuverlässiger Business-Laptop. Der neue Lunar-Lake-Prozessor macht den Copilot+PC KI- und damit zukunftstauglich.Bei Rechenleistung, Akkulaufzeit und Bildqualität schneidet das Notebook ordentlich ab, ragt aber in keiner Disziplin heraus. Das macht ihn zum Allrounder für den Business-Einsatz besonders in größeren Unternehmen, auf die das Pro 16 Plus bei Ausstattung und Reparaturfähigkeit zugeschnitten ist. Vor allem, wer bei der Büroarbeit eine große Bildschirmfläche für Excel-Tabellen und Powerpoint-Präsentationen benötigt, darf beim 16-Zoll-Notebooks zugreifen.Weitere Profi-Notebooks für unterwegs, das Home-Office oder Büro finden Sie in unserem großen Vergleichs-Test der besten Business-Laptops. Mit dem Pro 16 Plus läutet Dell eine neue Ära bei seinen Notebooks ein: Verschwunden sind die bekannten Markennamen XPS, Inspiron, Latitude und Precision. Ab jetzt heißen die Laptops für Privatanwender Dell, die Business-Geräte Dell Pro und die High-End- und Workstation-Varianten Dell Pro Max. Innerhalb der jeweiligen Serien gibt es die Ausstattungsstufen Base, Plus und Premium. Das Dell Pro 16 Plus lässt sich somit als Business-Notebook der oberen Mittelklasse und als Nachfolger der Latitude-7000er-Serie einordnen. Beim Gehäusedesign hat sich wenig getan: Gegenüber dem Vorgänger 7650 bekommt das Pro 16 Plus eine breitere Tastatur inklusive Nummernblock. Das hellgraue Aluminiumgehäuse versprüht statt Chefetagen-Chic die businesskonforme Eleganz eines Großraumbüros. Aber genau dort soll das Pro 16 Plus seinen Platz finden als produktive Arbeitsmaschine mit großem Display und einem Prozessor aus Intels Lunar-Lake-Generation: Diese Kombination ist bei Copilot+PCs noch recht einzigartig. Denn die sparsamen und recheneffizienten Intel-Prozessoren werden bislang vor allem in ultramobilen 13- und 14-Zoll-Laptops eingesetzt – in 16-Zoll-Modellen sind sie noch selten. Das Pro 16 Plus sitzt in einem stabil verarbeiteten Aluminium-Gehäuse.Thomas Rau Wie bei Dell üblich, gibt es das Pro 16 Plus in zahlreichen Ausstattungsvarianten, deren Preise bei rund 1600 Euro beginnen. Das Testgerät mit Intel Core Ultra 7 268V, 32B RAM, 1-TB-SSD und 16-Zoll-Bildschirm mit FHD+ kostet rund 2350 Euro. Der Prozessor bietet gegenüber dem vor allem in Consumer-Notebooks häufig zu findenden Core Ultra 7 258V einen etwas höheren Turbo-Takt sowie eine minimal schnellere NPU und CPU-Grafik. Wichtiger fürs Dell Pro ist, dass er Intels vPro-Technik unterstützt, womit sich das Notebook im Unternehmen leichter administrieren und besser schützen lässt. Rechenleistung Leistungstests zeigen keinen Unterschied zwischen dem 268V und einem 258V mit der gleichen mittleren Leistungsaufnahme von 25 Watt. Minimal schneller ist das Dell-Notebook lediglich im Vergleich zu Lunar-Lake-Laptops, in denen ein 258V nur rund 20 Watt verbrauchen darf – aber auch dann nur bei CPU-lastigen Aufgaben wie Rendering oder Fotobearbeitung. Insgesamt bietet das Dell Pro ein ausgewogenes Rechentempo bei allen business-relevanten Anwendungen: Im PC Mark 10 ist es ähnlich leistungsstark wie Notebooks mit dem deutlich leistungshungrigerem Core Ultra 7 155H aus der Meteor-Lake-Generation, hat aber aufgrund der verbesserten internen GPU Arc 140V Vorteile bei grafiklastigen Rendering- und Videoschnitt-Programmen. Im System-Benchmark Crossmark hängt es Notebooks mit einem Prozessor aus der Vorgängergeneration um rund 15 Prozent ab. Beim Vergleich mit ARM-Notebooks, die einen Snapdragon X Elite einsetzen, zeigt das Dell Pro das gleiche Verhalten wie alle Lunar-Lake-Laptops: Bei hoher CPU-Last ist es dem Qualcomm-Prozessor klar unterlegen, benötigt ein Programm nur wenige Kerne, liegt es vorne. Am deutlichsten erweist sich das im beliebten, aber wenig praxisnahem Prozessor-Benchmark Cinebench R24: Beim Multi-Core-Test fehlen dem Dell Pro 16 Plus rund 20 Prozent auf Notebooks mit dem Snapdragon X Elite E78, beim Single-Core-Test ist es genau andersherum. In der Praxis fällt dieser Unterschied vor allem bei Office-Tests auf, wo das Dell Pro stärker bei Word, aber schwächer bei Excel ist: Insgesamt liegen Snapdragon und Lunar Lake beim Büroeinsatz aber gleichauf. Gleiches gilt für die Recheneffizienz, wo beide Konkurrenten rund 23 Cinebench-Punkte pro Watt erreichen: Die Snapdragon-Notebooks mit X Elite sind schneller, verbrauchen aber minimal mehr, bei Lunar-Lake-Laptops ist es umgekehrt. Als Copilot+PC erfüllt das Dell Pro 16 Plus dank der NPU des Intel-Prozessors die KI-Vorgaben von Microsoft. Im KI-Benchmark Procyon AI Computer Vision schneidet es aber etwas schlechter ab als die meisten anderen KI-Notebooks mit Lunar Lake oder Snapdragon-Prozessor. Anschlüsse rechts: Micro-SD-Leser, SIM-Karten-Einschub, Audio, USB Typ-A, SicherheitsschlossThomas Rau Betriebsgeräusch Im Arbeitsalltag mit dem Dell Pro fällt störend auf, dass der Lüfter oft aktiv ist – selbst, wenn nur geringe Rechenleistung gefordert ist. Zwar bleibt das Betriebsgeräusch unter Last gemessen etwas niedriger als bei anderen Notebooks mit Lunar Lake. Die sind aber häufig ganz still, während das Dell fast immer hörbar arbeitet und damit in einer sehr ruhigen Arbeitsumgebung auffällt. Ausstattung Das große Dell Pro 16 Plus bietet viele Anschlüsse wie Thunderbolt 4, USB Typ-A, Micro-SD-Kartenleser und HDMI-Ausgang – optimal für ein Schreibtisch-Gerät, da sich so viele Peripheriegeräte ohne Adapter oder Docking-Station nutzen lassen. Ein Ethernet-Port fehlt, dafür gibt es WLAN mit dem aktuellen Standard Wi-Fi 7. Optional lässt sich das Dell-Notebook mit einem Smartcard-Leser und einem 5G-Modem inklusive Nano-SIM-Einschub ausstatten. Die Kamera löst mit 1440p auf und eignet sich daher sehr gut für Video-Meetings. Die Linse können Sie mit einer mechanischen Abdeckung im Displaydeckel verschließen. Zudem arbeitet die Kamera mit einem Näherungssensor, um den Sperrbildschirm zu aktivieren, wenn Sie sich vom Notebook entfernen und die Displayhelligkeit zu reduzieren, wenn Sie nicht auf den Bildschirm schauen. Servicetechniker erleichtert Dell das Reparieren: Die acht Gehäuseschrauben sind verliersicher und fallen daher nicht sofort heraus, wenn Sie sie aufdrehen. Zudem besitzt das Pro 16 Plus laut Dell als erstes Notebook modulare Typ-C-Ports: Sie sind verschraubt statt verlötet und lassen sich deswegen einfacher ersetzen. Selbst sollten Sie das aber nicht probieren, denn dazu muss die Platine ausgebaut werden, weil sich die Schrauben der USB-C-Module auf deren Unterseite befinden. Anschlüsse links: HDMI, USB Typ-C, Typ-C mit Thunderbolt 4.Thomas Rau Akkulaufzeit Mit einem Gewicht von knapp unter zwei Kilogramm, gehört das Notebook nicht zu den leichtesten 16-Zoll-Modellen. Trotzdem lässt es sich auf kürzeren Strecken bequem transportieren – zum Beispiel zwischen Wohnung und Büro oder innerhalb des Unternehmens. Die Akkulaufzeit geht in Ordnung: Im WLAN-Test erreicht das Dell-Notebook eine Laufzeit von über 14 Stunden, im Office-Einsatz sind es 12 Stunden. Mit einem größeren Akku würde die Ausdauer noch deutlich besser ausfallen, da das Pro 16 mit einer Leistungsaufnahme von unter vier Watt im Akkubetrieb sehr sparsam arbeitet – vor allem, weil es ein LCD-Display statt OLED nutzt. Doch sein Akku fasst nur 55 Wattstunden, mit größerem Akku laufen Lunar-Lake-Laptops zwei bis vier Stunden länger. Das passt aber zum Einsatzzweck des 16-Zöllers: Er ist für den gelegentlichen Akkubetrieb gedacht, nicht als ultramobiler Laptop, mit dem Sie einen ganzen Tag unterwegs arbeiten. Mit Standardeinstellungen lädt das Notebook sehr gemächlich: Nach einer Stunde an der Steckdose ist es nur zu 51 Prozent geladen – das wiederum verlängert die Lebensdauer des Akkus. Bequem austauschen lassen sich beim Dell-Notebook SSD und WLAN-Karte sowie das Mobilfunk-Modem links.Thomas Rau Display Beim Bildschirm können Sie zwischen Displayvarianten mit und ohne Touchscreen wählen und bei der Auflösung zwischen FHD+ und QHD+. Die Auflösung des Testmodells beträgt 1920 x 1200 und ist damit sinnvoll für den Büroalltag. Ebenso alltagstauglich für den Einsatz am Schreibtisch sind die Messergebnisse bei Helligkeit, Kontrast und Ausleuchtung – die Werte sind nicht überragend, aber absolut in Ordnung für Word, Excel und Powerpoint. Das Dell Pro 16 Plus ist aber kein Laptop, den Sie sich wegen der Bildqualität kaufen sollten. Denn die mäßige Farbwiedergabe mit geringer Farbraumabdeckung und Farbtreue disqualifiziert es für ambitionierte Foto- oder Videobearbeitung. Andere Laptops mit LCD bieten eine höhere Maximalhelligkeit und lassen sich daher unter verschiedenen Lichtbedingungen flexibler nutzen. Der Vorteil beim Dell-Notebook ist dafür seine entspiegelte Bildschirmoberfläche. Bedienung Der Nummernblock rechts in der Tastatur erleichtert die schnelle Eingabe von Zahlen und dürfte daher Excel-Arbeiter begeistern – zumal diese Tasten fast genauso groß sind wie in der Haupt-Tastatur. Beim Layout fällt die zweizeilige, aber schmale Enter-Taste auf, die Pfeiltasten sind nicht abgesetzt. Auf der Tastatur lässt sich angenehm tippen, denn sie ist sehr stabil eingebaut, die Tasten verfügen über einen klaren Druckpunkt und einen guten Hub. Besonders leise ist sie aber nicht. Auch das große Touchpad gibt eine deutlich spürbare Klick-Rückmeldung, auf der rechten Seite fühlt es sich aber etwas schwammig an. Testergebnisse und technische Daten Dell Pro 16 Plus (PB16250): Test-Ergebnisse Geschwindigkeit bei Büro-Programmen96 Punkte (von 100)Geschwindigkeit bei Multimedia-Programmen88 Punkte (von 100)Leistung 3D Mark100 Punkte (von 100)PC Mark 10  6950 PunktePC Mark 10 Applications Benchmark Office13729 PunkteProcyon Office Productivity Test5344 PunkteCrossmark1826 PunkteCinebench R24: Multi-Core/Single-Core (Einstellung: Ausgeglichen)579 / 126 PunkteKI-Leistung NPU (Procyon, Computer Vision Benchmark, OpenVino): INT1551 Punkte3D Mark: Night Raid / Steel Nomad36720 / 581 PunkteDisplay: Helligkeit / Helligkeitsverteilung / Kontrast342 / 87% / 1240:1Abdeckung Farbraum (Prozent): sRGB / Adobe-RGB / DCI-P367 / 51 / 51Farbabweichung (Delta-E)2,22Akkulaufzeit (Stunden:Minuten): WLAN-Test / Office-Test14:14 / 12:00Leistungsaufnahme Akkubetrieb3,79 WattBetriebsgeräusch unter Last41 dB(A)Temperatur Oberseite / Unterseite36 / 37 Grad Dell Pro 16 Plus (PB16250): Ausstattung ProzessorIntel Core Ultra 7 268VTaktrateStandard-Takt: 2,20 (Turbo-Takt: 5 GHz P-Cores; 3,7 GHz E-Cores)Kerne / Threads8 / 8 (4 P-Cores + 4 E-Cores)RAM32 GB LPDDR5X-8533 (gelötet / nicht wechselbar)GrafikkarteIntel Arc Graphics 140VLaufwerkNVMe-SSD SK Hynix PVC10 (PCIe 4.0 x 4)nutzbare Kapazität950,88 GBFormatM.2 2280Netzwerk: LAN / WLAN / Bluetooth / Mobil-/ WiFi-7 (Intel BE201) / 5.4BetriebssystemWindows 11 Pro 24H2Display: Diagonale / Auflösung / Format16 Zoll / 1920 x 1200 / 16:10Display entspiegelt / Touchscreenja / neinPunktdichte / Wiederholrate142 ppi / 60 HzGewicht: Notebook (mit Akku) / Netzteil1944 / 296 GrammAkku: Kapazität55 WhAnschlüsse rechts1x HDMI 2.1, Typ-A USB 3.2 Gen 1, 1x Audio (Mini-Klinke), 1x Kartenleser (Micro-SD), 1x Einschub SIM-Karte (Nano-SIM), 1x SicherheitsschlossAnschlüsse links2x Typ-C Thunderbolt 4, 1x Typ-A USB 3.2 Gen 1Anschlüsse hinten–Weitere AusstattungFront-Kamera (1440p) mit Abdeckung, Windows Hello; Fingersensor (im Einschaltknopf), Netzteil (65 Watt, Typ-C-Anschluss) (PC-Welt) 

Dell Pro 16 Plus im Test: KI-Laptop mit großem Display​ Thomas Rau

Auf einen Blick

Pro

viele Anschlüsse

sehr ordentliche Rechenleistung

Tastatur mit Nummernblock

5G, Smartcard-Leser als optionale Ausstattung

Kontra

geringe Display-Auflösung

mäßige Farbdarstellung

Lüfter häufig aktiv

nicht besonders leicht

Fazit

Auch unter neuem Namen zeigt das Business-Notebook von Dell im Test die bekannten Kernkompetenzen: Das Pro 16 Plus ist ein rundum solide verarbeiteter, zuverlässiger Business-Laptop. Der neue Lunar-Lake-Prozessor macht den Copilot+PC KI- und damit zukunftstauglich.Bei Rechenleistung, Akkulaufzeit und Bildqualität schneidet das Notebook ordentlich ab, ragt aber in keiner Disziplin heraus. Das macht ihn zum Allrounder für den Business-Einsatz besonders in größeren Unternehmen, auf die das Pro 16 Plus bei Ausstattung und Reparaturfähigkeit zugeschnitten ist. Vor allem, wer bei der Büroarbeit eine große Bildschirmfläche für Excel-Tabellen und Powerpoint-Präsentationen benötigt, darf beim 16-Zoll-Notebooks zugreifen.Weitere Profi-Notebooks für unterwegs, das Home-Office oder Büro finden Sie in unserem großen Vergleichs-Test der besten Business-Laptops.

Mit dem Pro 16 Plus läutet Dell eine neue Ära bei seinen Notebooks ein: Verschwunden sind die bekannten Markennamen XPS, Inspiron, Latitude und Precision. Ab jetzt heißen die Laptops für Privatanwender Dell, die Business-Geräte Dell Pro und die High-End- und Workstation-Varianten Dell Pro Max. Innerhalb der jeweiligen Serien gibt es die Ausstattungsstufen Base, Plus und Premium.

Das Dell Pro 16 Plus lässt sich somit als Business-Notebook der oberen Mittelklasse und als Nachfolger der Latitude-7000er-Serie einordnen. Beim Gehäusedesign hat sich wenig getan: Gegenüber dem Vorgänger 7650 bekommt das Pro 16 Plus eine breitere Tastatur inklusive Nummernblock. Das hellgraue Aluminiumgehäuse versprüht statt Chefetagen-Chic die businesskonforme Eleganz eines Großraumbüros.

Aber genau dort soll das Pro 16 Plus seinen Platz finden als produktive Arbeitsmaschine mit großem Display und einem Prozessor aus Intels Lunar-Lake-Generation: Diese Kombination ist bei Copilot+PCs noch recht einzigartig. Denn die sparsamen und recheneffizienten Intel-Prozessoren werden bislang vor allem in ultramobilen 13- und 14-Zoll-Laptops eingesetzt – in 16-Zoll-Modellen sind sie noch selten.

Das Pro 16 Plus sitzt in einem stabil verarbeiteten Aluminium-Gehäuse.Thomas Rau

Wie bei Dell üblich, gibt es das Pro 16 Plus in zahlreichen Ausstattungsvarianten, deren Preise bei rund 1600 Euro beginnen. Das Testgerät mit Intel Core Ultra 7 268V, 32B RAM, 1-TB-SSD und 16-Zoll-Bildschirm mit FHD+ kostet rund 2350 Euro.

Der Prozessor bietet gegenüber dem vor allem in Consumer-Notebooks häufig zu findenden Core Ultra 7 258V einen etwas höheren Turbo-Takt sowie eine minimal schnellere NPU und CPU-Grafik. Wichtiger fürs Dell Pro ist, dass er Intels vPro-Technik unterstützt, womit sich das Notebook im Unternehmen leichter administrieren und besser schützen lässt.

Rechenleistung

Leistungstests zeigen keinen Unterschied zwischen dem 268V und einem 258V mit der gleichen mittleren Leistungsaufnahme von 25 Watt. Minimal schneller ist das Dell-Notebook lediglich im Vergleich zu Lunar-Lake-Laptops, in denen ein 258V nur rund 20 Watt verbrauchen darf – aber auch dann nur bei CPU-lastigen Aufgaben wie Rendering oder Fotobearbeitung.

Insgesamt bietet das Dell Pro ein ausgewogenes Rechentempo bei allen business-relevanten Anwendungen: Im PC Mark 10 ist es ähnlich leistungsstark wie Notebooks mit dem deutlich leistungshungrigerem Core Ultra 7 155H aus der Meteor-Lake-Generation, hat aber aufgrund der verbesserten internen GPU Arc 140V Vorteile bei grafiklastigen Rendering- und Videoschnitt-Programmen. Im System-Benchmark Crossmark hängt es Notebooks mit einem Prozessor aus der Vorgängergeneration um rund 15 Prozent ab.

Beim Vergleich mit ARM-Notebooks, die einen Snapdragon X Elite einsetzen, zeigt das Dell Pro das gleiche Verhalten wie alle Lunar-Lake-Laptops: Bei hoher CPU-Last ist es dem Qualcomm-Prozessor klar unterlegen, benötigt ein Programm nur wenige Kerne, liegt es vorne.

Am deutlichsten erweist sich das im beliebten, aber wenig praxisnahem Prozessor-Benchmark Cinebench R24: Beim Multi-Core-Test fehlen dem Dell Pro 16 Plus rund 20 Prozent auf Notebooks mit dem Snapdragon X Elite E78, beim Single-Core-Test ist es genau andersherum.

In der Praxis fällt dieser Unterschied vor allem bei Office-Tests auf, wo das Dell Pro stärker bei Word, aber schwächer bei Excel ist: Insgesamt liegen Snapdragon und Lunar Lake beim Büroeinsatz aber gleichauf.

Gleiches gilt für die Recheneffizienz, wo beide Konkurrenten rund 23 Cinebench-Punkte pro Watt erreichen: Die Snapdragon-Notebooks mit X Elite sind schneller, verbrauchen aber minimal mehr, bei Lunar-Lake-Laptops ist es umgekehrt.

Als Copilot+PC erfüllt das Dell Pro 16 Plus dank der NPU des Intel-Prozessors die KI-Vorgaben von Microsoft. Im KI-Benchmark Procyon AI Computer Vision schneidet es aber etwas schlechter ab als die meisten anderen KI-Notebooks mit Lunar Lake oder Snapdragon-Prozessor.

Anschlüsse rechts: Micro-SD-Leser, SIM-Karten-Einschub, Audio, USB Typ-A, SicherheitsschlossThomas Rau

Betriebsgeräusch

Im Arbeitsalltag mit dem Dell Pro fällt störend auf, dass der Lüfter oft aktiv ist – selbst, wenn nur geringe Rechenleistung gefordert ist. Zwar bleibt das Betriebsgeräusch unter Last gemessen etwas niedriger als bei anderen Notebooks mit Lunar Lake. Die sind aber häufig ganz still, während das Dell fast immer hörbar arbeitet und damit in einer sehr ruhigen Arbeitsumgebung auffällt.

Ausstattung

Das große Dell Pro 16 Plus bietet viele Anschlüsse wie Thunderbolt 4, USB Typ-A, Micro-SD-Kartenleser und HDMI-Ausgang – optimal für ein Schreibtisch-Gerät, da sich so viele Peripheriegeräte ohne Adapter oder Docking-Station nutzen lassen. Ein Ethernet-Port fehlt, dafür gibt es WLAN mit dem aktuellen Standard Wi-Fi 7. Optional lässt sich das Dell-Notebook mit einem Smartcard-Leser und einem 5G-Modem inklusive Nano-SIM-Einschub ausstatten.

Die Kamera löst mit 1440p auf und eignet sich daher sehr gut für Video-Meetings. Die Linse können Sie mit einer mechanischen Abdeckung im Displaydeckel verschließen. Zudem arbeitet die Kamera mit einem Näherungssensor, um den Sperrbildschirm zu aktivieren, wenn Sie sich vom Notebook entfernen und die Displayhelligkeit zu reduzieren, wenn Sie nicht auf den Bildschirm schauen.

Servicetechniker erleichtert Dell das Reparieren: Die acht Gehäuseschrauben sind verliersicher und fallen daher nicht sofort heraus, wenn Sie sie aufdrehen. Zudem besitzt das Pro 16 Plus laut Dell als erstes Notebook modulare Typ-C-Ports: Sie sind verschraubt statt verlötet und lassen sich deswegen einfacher ersetzen. Selbst sollten Sie das aber nicht probieren, denn dazu muss die Platine ausgebaut werden, weil sich die Schrauben der USB-C-Module auf deren Unterseite befinden.

Anschlüsse links: HDMI, USB Typ-C, Typ-C mit Thunderbolt 4.Thomas Rau

Akkulaufzeit

Mit einem Gewicht von knapp unter zwei Kilogramm, gehört das Notebook nicht zu den leichtesten 16-Zoll-Modellen. Trotzdem lässt es sich auf kürzeren Strecken bequem transportieren – zum Beispiel zwischen Wohnung und Büro oder innerhalb des Unternehmens.

Die Akkulaufzeit geht in Ordnung: Im WLAN-Test erreicht das Dell-Notebook eine Laufzeit von über 14 Stunden, im Office-Einsatz sind es 12 Stunden. Mit einem größeren Akku würde die Ausdauer noch deutlich besser ausfallen, da das Pro 16 mit einer Leistungsaufnahme von unter vier Watt im Akkubetrieb sehr sparsam arbeitet – vor allem, weil es ein LCD-Display statt OLED nutzt. Doch sein Akku fasst nur 55 Wattstunden, mit größerem Akku laufen Lunar-Lake-Laptops zwei bis vier Stunden länger.

Das passt aber zum Einsatzzweck des 16-Zöllers: Er ist für den gelegentlichen Akkubetrieb gedacht, nicht als ultramobiler Laptop, mit dem Sie einen ganzen Tag unterwegs arbeiten.

Mit Standardeinstellungen lädt das Notebook sehr gemächlich: Nach einer Stunde an der Steckdose ist es nur zu 51 Prozent geladen – das wiederum verlängert die Lebensdauer des Akkus.

Bequem austauschen lassen sich beim Dell-Notebook SSD und WLAN-Karte sowie das Mobilfunk-Modem links.Thomas Rau

Display

Beim Bildschirm können Sie zwischen Displayvarianten mit und ohne Touchscreen wählen und bei der Auflösung zwischen FHD+ und QHD+.

Die Auflösung des Testmodells beträgt 1920 x 1200 und ist damit sinnvoll für den Büroalltag. Ebenso alltagstauglich für den Einsatz am Schreibtisch sind die Messergebnisse bei Helligkeit, Kontrast und Ausleuchtung – die Werte sind nicht überragend, aber absolut in Ordnung für Word, Excel und Powerpoint.

Das Dell Pro 16 Plus ist aber kein Laptop, den Sie sich wegen der Bildqualität kaufen sollten. Denn die mäßige Farbwiedergabe mit geringer Farbraumabdeckung und Farbtreue disqualifiziert es für ambitionierte Foto- oder Videobearbeitung.

Andere Laptops mit LCD bieten eine höhere Maximalhelligkeit und lassen sich daher unter verschiedenen Lichtbedingungen flexibler nutzen. Der Vorteil beim Dell-Notebook ist dafür seine entspiegelte Bildschirmoberfläche.

Bedienung

Der Nummernblock rechts in der Tastatur erleichtert die schnelle Eingabe von Zahlen und dürfte daher Excel-Arbeiter begeistern – zumal diese Tasten fast genauso groß sind wie in der Haupt-Tastatur. Beim Layout fällt die zweizeilige, aber schmale Enter-Taste auf, die Pfeiltasten sind nicht abgesetzt.

Auf der Tastatur lässt sich angenehm tippen, denn sie ist sehr stabil eingebaut, die Tasten verfügen über einen klaren Druckpunkt und einen guten Hub. Besonders leise ist sie aber nicht. Auch das große Touchpad gibt eine deutlich spürbare Klick-Rückmeldung, auf der rechten Seite fühlt es sich aber etwas schwammig an.

Testergebnisse und technische Daten

Dell Pro 16 Plus (PB16250): Test-Ergebnisse Geschwindigkeit bei Büro-Programmen96 Punkte (von 100)Geschwindigkeit bei Multimedia-Programmen88 Punkte (von 100)Leistung 3D Mark100 Punkte (von 100)PC Mark 10  6950 PunktePC Mark 10 Applications Benchmark Office13729 PunkteProcyon Office Productivity Test5344 PunkteCrossmark1826 PunkteCinebench R24: Multi-Core/Single-Core (Einstellung: Ausgeglichen)579 / 126 PunkteKI-Leistung NPU (Procyon, Computer Vision Benchmark, OpenVino): INT1551 Punkte3D Mark: Night Raid / Steel Nomad36720 / 581 PunkteDisplay: Helligkeit / Helligkeitsverteilung / Kontrast342 / 87% / 1240:1Abdeckung Farbraum (Prozent): sRGB / Adobe-RGB / DCI-P367 / 51 / 51Farbabweichung (Delta-E)2,22Akkulaufzeit (Stunden:Minuten): WLAN-Test / Office-Test14:14 / 12:00Leistungsaufnahme Akkubetrieb3,79 WattBetriebsgeräusch unter Last41 dB(A)Temperatur Oberseite / Unterseite36 / 37 Grad

Dell Pro 16 Plus (PB16250): Ausstattung ProzessorIntel Core Ultra 7 268VTaktrateStandard-Takt: 2,20 (Turbo-Takt: 5 GHz P-Cores; 3,7 GHz E-Cores)Kerne / Threads8 / 8 (4 P-Cores + 4 E-Cores)RAM32 GB LPDDR5X-8533 (gelötet / nicht wechselbar)GrafikkarteIntel Arc Graphics 140VLaufwerkNVMe-SSD SK Hynix PVC10 (PCIe 4.0 x 4)nutzbare Kapazität950,88 GBFormatM.2 2280Netzwerk: LAN / WLAN / Bluetooth / Mobil-/ WiFi-7 (Intel BE201) / 5.4BetriebssystemWindows 11 Pro 24H2Display: Diagonale / Auflösung / Format16 Zoll / 1920 x 1200 / 16:10Display entspiegelt / Touchscreenja / neinPunktdichte / Wiederholrate142 ppi / 60 HzGewicht: Notebook (mit Akku) / Netzteil1944 / 296 GrammAkku: Kapazität55 WhAnschlüsse rechts1x HDMI 2.1, Typ-A USB 3.2 Gen 1, 1x Audio (Mini-Klinke), 1x Kartenleser (Micro-SD), 1x Einschub SIM-Karte (Nano-SIM), 1x SicherheitsschlossAnschlüsse links2x Typ-C Thunderbolt 4, 1x Typ-A USB 3.2 Gen 1Anschlüsse hinten–Weitere AusstattungFront-Kamera (1440p) mit Abdeckung, Windows Hello; Fingersensor (im Einschaltknopf), Netzteil (65 Watt, Typ-C-Anschluss)

(PC-Welt)

Dell Pro 16 Plus im Test: KI-Laptop mit großem Display​ Weiterlesen »

6 gute Gründe für SQLite​

Allgemein

Mit abgespeckten Lösungen wie SQLite hebt es sich unter Umständen besser ab. Foto: Avesun | shutterstock.com Die allermeisten modernen Business-Anwendungen können strukturierte Daten auf irgendeine Art und Weise speichern und verarbeiten. Eine Datenbank ist dabei ebenfalls obligatorisch, unabhängig davon, ob es sich um eine Client-seitige Applikation, eine Anwendung mit Web-Frontend oder für Edge Devices handelt. Allerdings ist eine Embeddable Database in vielen Fällen ausreichend. Diese zeichnen sich in erster Linie dadurch aus, dass sie leichtgewichtig, kompakt und portabel sind. So wie SQLite – eine einbettbare Open-Source-Datenbank, die in C geschrieben ist und mit herkömmlichem SQL abgefragt werden kann. In diesem Artikel werfen wir einen Blick darauf, wofür SQLite (hauptsächlich) verwendet wird, welche Vorteile die Lösung realisieren kann und wo sie an ihre Grenzen stößt. Weil SQLite nicht die einzige Option in Sachen Embeddable Database darstellt, erfahren Sie nicht nur, inwiefern sie sich von MySQL und MariaDB unterscheidet, sondern auch, welche weiteren Alternativangebote Ihnen in diesem Bereich offenstehen. SQLite in der Praxis Der häufigste Use Case für SQLite ist die Verwendung als herkömmliche, tabellenorientierte relationale Datenbank. Das begründet sich vor allem durch folgende Funktionen: SQLite unterstützt Transactions und Atomic Behaviors. Ein Programmabsturz oder gar ein Stromausfall kann nicht dazu führen, dass die Datenbank beschädigt wird. SQLite verfügt über einige High-End-Funktionen, beispielsweise Volltextindizierung und Support für große Datenbanken (bis zu 281 Terabyte mit Zeilengrößen von bis zu 1 GB). SQLite bietet die Möglichkeit, Konfigurationsdaten für Programme zu speichern. Statt Dateiformate wie JSON oder YAML zu parsen, können Entwickler SQLite als Schnittstelle zu diesen Dateien verwenden – was oft wesentlich schneller geht, als diese manuell zu bearbeiten. SQLite kann mit In-Memory-Daten oder solchen aus externen Quellen (zum Beispiel CSV-Dateien) umgehen, als wären es native Datenbanktabellen. Das eröffnet eine praktische Möglichkeit, solche Daten abzufragen. Darüber hinaus bringt SQLite auch nativen Support für JSON-Dateien mit. 6 SQLite-Vorteile Die wichtigsten Vorteile von SQLite auf einen Blick: Plattformübergreifend: SQLite läuft fast überall – es wurde auf eine Vielzahl von Plattformen portiert, unter anderem Windows, macOS, Linux, iOS und Android. Insbesondere Windows-Benutzer können vorkompilierte Binärdateien für normales Win32, UWP, WinRT und .Net verwenden. Unabhängig vom Deployment-Ziel Ihrer Anwendung stehen die Chancen gut, dass es eine SQLite-Edition dafür gibt – oder eine Möglichkeit, den C-Quellcode auf dieses Ziel zu portieren. Umfassend kompatibel: Um SQLite zu verwenden, müssen die zugrundeliegenden Anwendungen nicht in einer bestimmten Sprache geschrieben sein. Einzige Voraussetzung ist, dass es eine Möglichkeit gibt, externe Bibliotheken einzubinden, die in C geschrieben sind. SQLite Binaries sind in sich geschlossen – können also einfach in dasselbe Verzeichnis wie die Anwendung gezogen werden, um sie bereitzustellen. Python-fähig: Viele Sprachen verfügen über High-Level-Bindings, um SQLite als Bibliothek zu nutzen – und können das in Kombination mit weiteren Database Access Layers verwenden. In Python beispielsweise wird die SQLite-Bibliothek standardmäßig mit der Default-Version des Python-Interpreters ausgeliefert. Darüber hinaus haben Drittanbieter eine Vielzahl von ORMs und Datenschichten geschrieben, die SQLite nutzen. Sie müssen also nicht über SQL-Strings im raw-Format auf SQLite zugreifen (was nicht nur umständlich, sondern auch potenziell gefährlich ist). Self-contained: Weil es sich bei SQLite um eine Standalone-Binärdatei handelt, lässt es sich leicht zusammen mit einer Anwendung bereitstellen und bei Bedarf mit ihr verschieben. Jede mit SQLite erstellte Datenbank besteht zudem aus einer einzelnen Datei, die mit SQL-Befehlen komprimiert oder optimiert werden kann. Drittanbieter-Ökosystem: Binary Extensions von Drittanbietern sorgen für noch mehr Funktionalität bei SQLite. So wird es etwa möglich, AES-Verschlüsselung, UUIDs oder die Suche nach regulären Expressions hinzuzufügen. Viele weitere Drittanbieter-Projekte stellen zudem zusätzliche SQLite-Tools zur Verfügung. Open Source: Der Quellcode von SQLite ist Public Domain (gemeinfrei), kann also praktisch ohne Einschränkung in anderen Programmen wiederverwendet werden. Wo SQLite an seine Grenzen kommt SQLite ist aufgrund seiner Konzeption für einige Szenarien gut, für andere dagegen weniger geeignet. Zum Beispiel funktioniert SQLite nicht gut mit: Apps, deren Funktionen nicht unterstützt werden. SQLite bringt keinen Support für verschiedene Funktionen relationaler Datenbanken mit. Dabei handelt es sich eher um selten genutzte Features, wenn Sie aber gerade die brauchen, ist das ein Ausschlusskriterium. Anwendungen, die Scale-Out-Designs erfordern. SQLite-Instanzen sind eigenständig und unabhängig, es besteht keine native Synchronisierung zwischen ihnen. Sie können auch nicht (in einem Cluster) zusammengeführt werden. Alle Softwareanwendungen mit Scale-Out-Design funktionieren deshalb nicht mit SQLite. Es gibt Extensions, um diese Funktionalitäten hinzuzufügen, aber keine native Möglichkeit. Applikationen mit simultanen Write-Prozessen über mehrere Verbindungen. SQLite sperrt die Datenbank für Schreibvorgänge. Entsprechend führen mehrere parallele Write-Prozesse zu Performance-Problemen. Anwendungen mit mehreren simultanen Read-Vorgängen sind jedoch im Allgemeinen schnell. SQLite Version 3.7.0 (und höher) unterstützen den sogenannten “Write-Ahead Logging Mode“, um mehrere Schreibvorgänge zu beschleunigen. Dieser Modus ist jedoch mit Einschränkungen verbunden. Anwendungen mit starker Datentypisierung. SQLite verfügt über relativ wenige Datentypen und kann etwa nicht mit einem nativen Datetime Type aufwarten. Das hat zur Folge, dass die Anwendung die meisten Typen erzwingen muss. Wenn Sie möchten, dass die Datenbank und nicht die Anwendung die Inputs für Datetime-Werte normalisiert und einschränkt, ist SQLite möglicherweise nicht geeignet. SQLite vs. MySQL vs. MariaDB SQLite wird regelmäßig mit MySQL verglichen – ebenfalls ein populäres Open-Source-Datenbankprodukt, das heute fester Bestandteil vieler Applikations-Stacks ist. Und auch wenn sich SQLite und MySQL in vielerlei Hinsicht stark ähneln: Es gibt manchmal gute Gründe, MySQL oder auch MariaDB – die dritte populäre Lösung in diesem Bunde – vorzuziehen. Datentypen SQLite bringt eine überschaubare Anzahl nativer Datentypen mit, nämlich: BLOB, NULL, INTEGER, REAL und TEXT. Sowohl MySQL als auch MariaDB verfügen hingegen über spezifische Datentypen für Datums- und Zeitangaben, verschiedene Präzisionsstufen für Ganzzahlen und Fließkommazahlen und vieles mehr. Wenn Sie relativ wenige Datentypen speichern oder Ihren Data Layer zur Datenvalidierung nutzen wollen, ist SQLite die richtige Wahl. Wenn Sie jedoch Wert darauf legen, dass Ihre Datenschicht ihre eigene Validierung und Normalisierung vornimmt, sollten Sie MySQL oder MariaDB bevorzugen. Konfiguration und Feintuning Die Konfigurations- und Einstellungsmöglichkeiten von SQLite beschränken sich auf ein Minimum. Die meisten internen oder Befehlszeilen-Flags befassen sich mit Randfällen oder Abwärtskompatibilität. Das passt zur allgemein simplen Philosophie von SQLite: Die Standardoptionen sind für die meisten Anwendungsfälle gut geeignet. MySQL und MariaDB bieten hingegen reichhaltige Konfigurationsoptionen. Zum Beispiel in Form von: Collations, Indexing, Performance Tuning oder Storage Engines. Single-User- vs. Multi-User-Datenbank SQLite eignet sich ideal für Anwendungen mit einem Benutzer. MySQL und MariaDB sind hingegen darauf ausgelegt, von mehreren Usern gleichzeitig genutzt zu werden. Deshalb eignen sie sich auch für Cluster- und Scale-Out-Lösungen. Einige Extensions erweitern SQLite um Skalierungsfunktionen. Das ist allerdings kein vollwertiger Ersatz für MySQL oder MariaDB. 5 SQLite-Alternativen In Sachen Embeddable Database ist SQLite wie bereits erwähnt nicht die einzige Option. Diverse andere Lösungen bieten ähnliche Funktionen, fokussieren sich jedoch auf andere Anwendungsfälle oder Einsatzmodelle. Zum Beispiel: Apache Derby, eine einbettbare SQL-Engine, die auch von Oracle (als Java DB) neu verpackt wurde. Da Apache Derby in Java geschrieben ist und die JVM benötigt, ist es hauptsächlich dafür konzipiert, in Java-Anwendungen eingebettet zu werden. Firebird Embedded, eine plattformübergreifende Datenbank, die ebenfalls viele High-End-Funktionen bietet. Die Lösung ist als Bibliothek verfügbar, die in eine Client-Anwendung eingebettet werden kann. Ihr Funktionsumfang ist mit dem von SQLite vergleichbar, allerdings ist die Community- und Support-Basis von SQLite deutlich größer. Realm, eine relationale Datenbank, die für mobile Umgebungen (hauptsächlich Android) entwickelt wurde, aber auch Desktop-Umgebungen unterstützt. Allerdings handelt es sich um eine objektbasierte Lösung, die entsprechend keine SQL Queries verwendet. Realm ist inzwischen ein MongoDB-Projekt. VistaDB, eine Embeddable Database für die .Net-Laufzeitumgebung. VistaDB ist in verschiedenen Versionen erhältlich, die auf die jeweiligen .Net-Varianten ausgerichtet sind und viele Enterprise-Funktionen wie Full Database Encryption enthalten. Bei VistaDB handelt sich allerdings nicht um Open Source, sondern ein kommerzielles Produkt. Berkeley DB, ein Oracle-Projekt, das nominell ein Key/Value Store ist, in aktuelleren Versionen jedoch SQLite verwendet, um SQL Queries zu verarbeiten. Die zugrundeliegende Datenbank-Engine verfügt über einige Performance-Optimierungen, die SQLite nicht bieten kann. Beispielsweise die Fähigkeit, mehrere parallele Schreibvorgänge zu verarbeiten. Die Lizenzierung von Berkeley DB richtet sich nach dem Anwendungsfall. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

6 gute Gründe für SQLite​ Mit abgespeckten Lösungen wie SQLite hebt es sich unter Umständen besser ab.
Foto: Avesun | shutterstock.com

Die allermeisten modernen Business-Anwendungen können strukturierte Daten auf irgendeine Art und Weise speichern und verarbeiten. Eine Datenbank ist dabei ebenfalls obligatorisch, unabhängig davon, ob es sich um eine Client-seitige Applikation, eine Anwendung mit Web-Frontend oder für Edge Devices handelt. Allerdings ist eine Embeddable Database in vielen Fällen ausreichend. Diese zeichnen sich in erster Linie dadurch aus, dass sie leichtgewichtig, kompakt und portabel sind.

So wie SQLite – eine einbettbare Open-Source-Datenbank, die in C geschrieben ist und mit herkömmlichem SQL abgefragt werden kann. In diesem Artikel werfen wir einen Blick darauf, wofür SQLite (hauptsächlich) verwendet wird, welche Vorteile die Lösung realisieren kann und wo sie an ihre Grenzen stößt. Weil SQLite nicht die einzige Option in Sachen Embeddable Database darstellt, erfahren Sie nicht nur, inwiefern sie sich von MySQL und MariaDB unterscheidet, sondern auch, welche weiteren Alternativangebote Ihnen in diesem Bereich offenstehen.

SQLite in der Praxis

Der häufigste Use Case für SQLite ist die Verwendung als herkömmliche, tabellenorientierte relationale Datenbank. Das begründet sich vor allem durch folgende Funktionen:

SQLite unterstützt Transactions und Atomic Behaviors. Ein Programmabsturz oder gar ein Stromausfall kann nicht dazu führen, dass die Datenbank beschädigt wird.

SQLite verfügt über einige High-End-Funktionen, beispielsweise Volltextindizierung und Support für große Datenbanken (bis zu 281 Terabyte mit Zeilengrößen von bis zu 1 GB).

SQLite bietet die Möglichkeit, Konfigurationsdaten für Programme zu speichern. Statt Dateiformate wie JSON oder YAML zu parsen, können Entwickler SQLite als Schnittstelle zu diesen Dateien verwenden – was oft wesentlich schneller geht, als diese manuell zu bearbeiten.

SQLite kann mit In-Memory-Daten oder solchen aus externen Quellen (zum Beispiel CSV-Dateien) umgehen, als wären es native Datenbanktabellen. Das eröffnet eine praktische Möglichkeit, solche Daten abzufragen.

Darüber hinaus bringt SQLite auch nativen Support für JSON-Dateien mit.

6 SQLite-Vorteile

Die wichtigsten Vorteile von SQLite auf einen Blick:

Plattformübergreifend: SQLite läuft fast überall – es wurde auf eine Vielzahl von Plattformen portiert, unter anderem Windows, macOS, Linux, iOS und Android. Insbesondere Windows-Benutzer können vorkompilierte Binärdateien für normales Win32, UWP, WinRT und .Net verwenden. Unabhängig vom Deployment-Ziel Ihrer Anwendung stehen die Chancen gut, dass es eine SQLite-Edition dafür gibt – oder eine Möglichkeit, den C-Quellcode auf dieses Ziel zu portieren.

Umfassend kompatibel: Um SQLite zu verwenden, müssen die zugrundeliegenden Anwendungen nicht in einer bestimmten Sprache geschrieben sein. Einzige Voraussetzung ist, dass es eine Möglichkeit gibt, externe Bibliotheken einzubinden, die in C geschrieben sind. SQLite Binaries sind in sich geschlossen – können also einfach in dasselbe Verzeichnis wie die Anwendung gezogen werden, um sie bereitzustellen.

Python-fähig: Viele Sprachen verfügen über High-Level-Bindings, um SQLite als Bibliothek zu nutzen – und können das in Kombination mit weiteren Database Access Layers verwenden. In Python beispielsweise wird die SQLite-Bibliothek standardmäßig mit der Default-Version des Python-Interpreters ausgeliefert. Darüber hinaus haben Drittanbieter eine Vielzahl von ORMs und Datenschichten geschrieben, die SQLite nutzen. Sie müssen also nicht über SQL-Strings im raw-Format auf SQLite zugreifen (was nicht nur umständlich, sondern auch potenziell gefährlich ist).

Self-contained: Weil es sich bei SQLite um eine Standalone-Binärdatei handelt, lässt es sich leicht zusammen mit einer Anwendung bereitstellen und bei Bedarf mit ihr verschieben. Jede mit SQLite erstellte Datenbank besteht zudem aus einer einzelnen Datei, die mit SQL-Befehlen komprimiert oder optimiert werden kann.

Drittanbieter-Ökosystem: Binary Extensions von Drittanbietern sorgen für noch mehr Funktionalität bei SQLite. So wird es etwa möglich, AES-Verschlüsselung, UUIDs oder die Suche nach regulären Expressions hinzuzufügen. Viele weitere Drittanbieter-Projekte stellen zudem zusätzliche SQLite-Tools zur Verfügung.

Open Source: Der Quellcode von SQLite ist Public Domain (gemeinfrei), kann also praktisch ohne Einschränkung in anderen Programmen wiederverwendet werden.

Wo SQLite an seine Grenzen kommt

SQLite ist aufgrund seiner Konzeption für einige Szenarien gut, für andere dagegen weniger geeignet. Zum Beispiel funktioniert SQLite nicht gut mit:

Apps, deren Funktionen nicht unterstützt werden. SQLite bringt keinen Support für verschiedene Funktionen relationaler Datenbanken mit. Dabei handelt es sich eher um selten genutzte Features, wenn Sie aber gerade die brauchen, ist das ein Ausschlusskriterium.

Anwendungen, die Scale-Out-Designs erfordern. SQLite-Instanzen sind eigenständig und unabhängig, es besteht keine native Synchronisierung zwischen ihnen. Sie können auch nicht (in einem Cluster) zusammengeführt werden. Alle Softwareanwendungen mit Scale-Out-Design funktionieren deshalb nicht mit SQLite. Es gibt Extensions, um diese Funktionalitäten hinzuzufügen, aber keine native Möglichkeit.

Applikationen mit simultanen Write-Prozessen über mehrere Verbindungen. SQLite sperrt die Datenbank für Schreibvorgänge. Entsprechend führen mehrere parallele Write-Prozesse zu Performance-Problemen. Anwendungen mit mehreren simultanen Read-Vorgängen sind jedoch im Allgemeinen schnell. SQLite Version 3.7.0 (und höher) unterstützen den sogenannten “Write-Ahead Logging Mode“, um mehrere Schreibvorgänge zu beschleunigen. Dieser Modus ist jedoch mit Einschränkungen verbunden.

Anwendungen mit starker Datentypisierung. SQLite verfügt über relativ wenige Datentypen und kann etwa nicht mit einem nativen Datetime Type aufwarten. Das hat zur Folge, dass die Anwendung die meisten Typen erzwingen muss. Wenn Sie möchten, dass die Datenbank und nicht die Anwendung die Inputs für Datetime-Werte normalisiert und einschränkt, ist SQLite möglicherweise nicht geeignet.

SQLite vs. MySQL vs. MariaDB

SQLite wird regelmäßig mit MySQL verglichen – ebenfalls ein populäres Open-Source-Datenbankprodukt, das heute fester Bestandteil vieler Applikations-Stacks ist. Und auch wenn sich SQLite und MySQL in vielerlei Hinsicht stark ähneln: Es gibt manchmal gute Gründe, MySQL oder auch MariaDB – die dritte populäre Lösung in diesem Bunde – vorzuziehen.

Datentypen

SQLite bringt eine überschaubare Anzahl nativer Datentypen mit, nämlich:

BLOB,

NULL,

INTEGER,

REAL und

TEXT.

Sowohl MySQL als auch MariaDB verfügen hingegen über spezifische Datentypen für Datums- und Zeitangaben, verschiedene Präzisionsstufen für Ganzzahlen und Fließkommazahlen und vieles mehr.

Wenn Sie relativ wenige Datentypen speichern oder Ihren Data Layer zur Datenvalidierung nutzen wollen, ist SQLite die richtige Wahl. Wenn Sie jedoch Wert darauf legen, dass Ihre Datenschicht ihre eigene Validierung und Normalisierung vornimmt, sollten Sie MySQL oder MariaDB bevorzugen.

Konfiguration und Feintuning

Die Konfigurations- und Einstellungsmöglichkeiten von SQLite beschränken sich auf ein Minimum. Die meisten internen oder Befehlszeilen-Flags befassen sich mit Randfällen oder Abwärtskompatibilität. Das passt zur allgemein simplen Philosophie von SQLite: Die Standardoptionen sind für die meisten Anwendungsfälle gut geeignet.

MySQL und MariaDB bieten hingegen reichhaltige Konfigurationsoptionen. Zum Beispiel in Form von:

Collations,

Indexing,

Performance Tuning oder

Storage Engines.

Single-User- vs. Multi-User-Datenbank

SQLite eignet sich ideal für Anwendungen mit einem Benutzer. MySQL und MariaDB sind hingegen darauf ausgelegt, von mehreren Usern gleichzeitig genutzt zu werden. Deshalb eignen sie sich auch für Cluster- und Scale-Out-Lösungen. Einige Extensions erweitern SQLite um Skalierungsfunktionen. Das ist allerdings kein vollwertiger Ersatz für MySQL oder MariaDB.

5 SQLite-Alternativen

In Sachen Embeddable Database ist SQLite wie bereits erwähnt nicht die einzige Option. Diverse andere Lösungen bieten ähnliche Funktionen, fokussieren sich jedoch auf andere Anwendungsfälle oder Einsatzmodelle. Zum Beispiel:

Apache Derby, eine einbettbare SQL-Engine, die auch von Oracle (als Java DB) neu verpackt wurde. Da Apache Derby in Java geschrieben ist und die JVM benötigt, ist es hauptsächlich dafür konzipiert, in Java-Anwendungen eingebettet zu werden.

Firebird Embedded, eine plattformübergreifende Datenbank, die ebenfalls viele High-End-Funktionen bietet. Die Lösung ist als Bibliothek verfügbar, die in eine Client-Anwendung eingebettet werden kann. Ihr Funktionsumfang ist mit dem von SQLite vergleichbar, allerdings ist die Community- und Support-Basis von SQLite deutlich größer.

Realm, eine relationale Datenbank, die für mobile Umgebungen (hauptsächlich Android) entwickelt wurde, aber auch Desktop-Umgebungen unterstützt. Allerdings handelt es sich um eine objektbasierte Lösung, die entsprechend keine SQL Queries verwendet. Realm ist inzwischen ein MongoDB-Projekt.

VistaDB, eine Embeddable Database für die .Net-Laufzeitumgebung. VistaDB ist in verschiedenen Versionen erhältlich, die auf die jeweiligen .Net-Varianten ausgerichtet sind und viele Enterprise-Funktionen wie Full Database Encryption enthalten. Bei VistaDB handelt sich allerdings nicht um Open Source, sondern ein kommerzielles Produkt.

Berkeley DB, ein Oracle-Projekt, das nominell ein Key/Value Store ist, in aktuelleren Versionen jedoch SQLite verwendet, um SQL Queries zu verarbeiten. Die zugrundeliegende Datenbank-Engine verfügt über einige Performance-Optimierungen, die SQLite nicht bieten kann. Beispielsweise die Fähigkeit, mehrere parallele Schreibvorgänge zu verarbeiten. Die Lizenzierung von Berkeley DB richtet sich nach dem Anwendungsfall.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

6 gute Gründe für SQLite​ Weiterlesen »

Der letzte Keks und deutsche Pünktlichkeit: So punkten Sie im Meeting​

Allgemein

Der Vortragende redet zu lange, der Kollege kommt zu spät und nach zwei Stunden hat man immer noch nicht alle Punkte durch. Meetings nerven viele. Dabei kann jeder zu mehr Effektivität beitragen.Neben einer guten Vor- und Nachbereitung gehören der Auftritt beim Kunden und die Gastgeberpflichten des Besuchten dazu. Einige Punkte haben Anke Quittschau und Christina Tabernig von der Beratungsagentur korrekt! zusammengeschrieben, die oft die ersten Stolpersteine beim Besuch sein können.Tipp 1: Die Regie als Gastgeber beginnt bei der BegrüßungGäste werden möglichst mit Namen angesprochen und willkommen geheißen. Blickkontakt und eine leichte Verbeugung reichen im Business meist aus. Man stellt sich selber vor mit Namen und Position und begleitet den Gast dann mit einem kleinen Smalltalk zum Besprechungsraum. Die Türen öffnen Sie für Ihren Gast. Lassen Sie Ihren Gast an Ihrer rechten Seite gehen, dies demonstriert, dass er von Ihnen geschätzt wird. Im Besprechungsraum angekommen, nimmt man dem Gast den Mantel ab und hängt ihn an der Garderobe auf. Sagen Sie bitte nie: “Sie können sich dort aufhängen.” Tipp 2: Nehmen Sie den Raum als Wartender nicht ein Meist holt Sie die Assistentin vom Empfang ab und führt Sie in den Besprechungsraum. Dort stehen bereits Getränke auf dem Tisch und sie sagt nett: “Nehmen Sie doch schon Platz, bedienen Sie sich an den Getränken – Herr Dr. Sommer kommt sofort.” Der höfliche Gast setzt sich selbstverständlich nicht und bedient sich auch nicht an den Getränken. Er wartet im Stehen, um den Gastgeber auf Augenhöhe zu begrüßen.Der Gastgeber weist dann mit einer Geste dem Gast einen Platz zu und bietet ein Getränk an. Dies sollte er zwischen Small Talk und dem Beginn des geschäftlichen Teils tun, damit es dieser nicht durch “Nebensächliches” gestört wird. Der Chef muss dabei nicht alle Anwesenden persönlich bedienen, sondern sollte lediglich das erste Signal geben. Die Gäste dürfen sich im Anschluss selbst bedienen. Grundsätzlich sollte sich aber jeder im eigenen Hause als Gastgeber fühlen und den Job übernehmen, falls der Ranghöchste mit anderen Aufgaben beschäftigt ist. Stilvoll ist es, sich nicht an den Häppchen satt zu essen. Man sollte sich also vor einem langen Meeting darauf einstellen und entsprechend gut frühstücken. Der letzte Keks bleibt liegen.Tipp 3: Vermeiden Sie jegliche Verspätung zum Meeting Eine Verspätung sollte man im Zeitalter der Smartphones rechtzeitig ankündigen. So kann der Wartende die Zeit noch effektiv nutzen. Unpünktlichkeit ist – in Deutschland – die gröbste Unhöflichkeit, denn wir stehlen jemandem etwas, was wir ihm nie mehr zurückgeben können: Zeit! Wenn Sie aber doch einmal zu spät sind, genügt ein kurzes “Entschuldigung” beim Betreten des Raumes. Bloß keine langen Staugeschichten oder so, die glaubt sowieso keiner mehr. Außerdem hätte derjenige dann die volle Aufmerksamkeit der Meeting-Teilnehmer und das ist unangebrachtTipp 4: Der wichtige Anruf während eines MeetingsDas Smartphone sollte in jeder Besprechung ausgeschaltet sein. Damit tut man vor allem sich selbst einen Gefallen. Denn allein das Geräusch des Vibrationsalarms lenkt ab und lässt uns unaufmerksam werden. Erwartet man einen wirklich wichtigen Anruf, sollte man dies unbedingt vorher ankündigen und das Telefon auf lautlos schalten. Ein optisches Signal reicht völlig. Kommt dieser wichtige Anruf dann, sollte man den Besprechungsraum zum Telefonieren verlassen. Grundsätzlich signalisiert ein Smartphone auf dem Tisch den Gesprächspartnern immer, dass sie zweitrangig sind. Tipp 5: Sanktionen für DauerzuspätkommerGehen wir davon aus, dass es ein internes Meeting ist. In dem Fall lautet unsere Empfehlung: anfangen! Und zwar mit dem wichtigsten Thema. Meist sind es nämlich die gleichen Kollegen, die unpünktlich sind. Wenn diese dann die wichtigsten Themen verpassen, nervt es sie auch langsam. Eine andere Erziehungsmethode kennen wir von einem unserer Kunden: dort wird eine Strafe in Höhe von 25 Euro fällig.Tipp 6: Höfliche Unterbrechung – wer fragt, der führtEndlose Monologe können mit Zwischenfragen unterbrochen werden. Foto: vectorfusionart – shutterstock.comAusreden lassen gilt in Deutschland als eine der wichtigsten Benimmregeln. Keiner lässt sich gern ins Wort fallen. Endlose Monologe können jedoch mit Zwischenfragen unterbrochen werden. Am höflichsten unterbricht man jemanden mit einer geschlossenen Frage zum Thema. Eine andere Variante ist, eine Frage zu stellen, wenn der Redner Luft holt, und Sie beantworten sich die Frage selbst. Beispiel: “Herr Huber, Sie sagten vorhin, dass man das Projekt auch … wie steht es mit xy, ich habe da mal erfahren, dass…” Nun können Sie das Gespräch umlenken und sind selbst am Zug. Tipp 7: Überzogene Meetings stilvoll verlassenMan sollte sich auf keinen Fall wortlos aus dem Raum schleichen. Eine kurze Begründung, etwa ein anstehender Kundentermin, ist angebracht. Im Grunde hat aber der Moderator die Aufgabe, das Meeting zeitlich nicht aus dem Rahmen laufen zu lassen, sondern eventuell Themen zu vertagen. Machen Sie auch am Anfang eines Meetings klar, wie viel Zeit dafür vereinbart wurde und machen Sie eventuell darauf aufmerksam, dass Sie danach noch eine andere Verpflichtung eingeplant haben.Gelangweilt von Meetings? So tragen Sie zur Effizienz bei. Foto: Diego Cervo – shutterstock.comTipp 8: Wenn man Meetings kurzfristig absagen muss …Am besten, man ruft den Organisator des Meetings an und erklärt die Situation. Eine Absage per E-Mail oder SMS wirkt nicht sehr professionell.Tipp 9: Die Begleitung am EndeWas Sie auf jeden Fall tun sollten, wenn das Meeting beendet ist: Begleiten Sie Ihren Gast wieder zurück zum Empfang. Lassen Sie ihn nicht mit den Worten:”Den Weg kennen Sie ja schon” alleine im Flur stehen. Abgesehen von der mangelnden Höflichkeit könnte es auch aus sicherheitstechnischen Gründen für Ihr Unternehmen wichtig sein, keine fremden Menschen alleine durch Ihre Gänge streunen zu lassen.Fazit: Wie ich am besten punkten kann:Gut vorbereitet sein, alle Unterlagen dabei haben.Wenn ich mein Sakko/meine Kostümjacke erst ausziehe, wenn es der Gastgeber erlaubt hat.Wenn ich meine Visitenkarte bereits am Anfang des Meetings verteile, denn schließlich kann sich kaum jemand gut Namen merken.Auch die Sitzhaltung kann Einfluss auf den Verlauf eines Meetings nehmen. Sitzen Sie gerade und aufrecht, signalisiert dies Souveränität – und der positive Nebeneffekt dieser Haltung: Sie bleiben länger konzentriert und bei der Sache. Achten Sie darauf, die Beine nicht zu kreuzen, damit das Blut zirkulieren kann. Besser ist es, mit beiden Füßen festen Kontakt zum Boden zu haben.Wenn ich meine Gäste am Ende der Besprechung bis an den Haupteingang begleite.Mit einer professionellen Nachbereitung der Besprechung. Das muss kein seitenlanges Protokoll sein, aber eine kurze Zusammenfassung der Ergebnisse, verbunden mit einem Dank für die Zeit, macht immer einen guten Eindruck. So punkten Sie im virtuellen MeetingSeit Corona sind wir fast täglich in virtuellen Meetings unterwegs. Die technischen Anfangsschwierigkeiten haben wir hinter uns gelassen und egal ob Zoom, Skype, Teams oder was die IT noch zu bieten hat, wählen wir uns mit einer Selbstverständlichkeit in virtuelle Meetings ein. Und trotzdem gibt es einige Punkte, auf die wir hinweisen möchten:Tipp 1: Nutzen Sie die Zeit im “Warteraum”Seien Sie auf jeden Fall pünktlich und nutzen Sie die Zeit, die Sie zu früh sind, mit den anderen Meetingteilnehmern zu smalltalken. Auch im online-Meeting haben wir die Möglichkeit ein lockeres Gespräch vor dem Start zu führen. Das macht das Miteinander in Verhandlungen und Präsentationen leichter. Plaudern Sie über das Erlebte am Wochenende oder geplante Unternehmungen.Tipp 2: Seien Sie ganz angezogen – man spürt esNeben den ganzen technischen Vorgaben eines online-Meetings sollten Sie auch auf Ihre Garderobe achten. “Oben hui, unten pfui” funktioniert zwar online, aber trotzdem fühlen Sie sich ganz korrekt angezogen besser, als im “Jogginganzug” vor der Kamera. Also seien Sie möglichst komplett korrekt angezogen. Ihr Gegenüber spürt es in Ihrem Auftreten.Tipp 3: Machen Sie sich sichtbarHaben Sie schon mal die vielen Kacheln angeschaut bei einem online-Meeting? Wer ist Ihnen am meisten ins Auge gestochen? Wollen Sie sich von den anderen abheben, sollte Ihr Hintergrund möglichst einfarbig sein und Sie sollten sich vom Hintergrund abheben. Denken Sie auch daran, dass Ihr Outfit klare Kontraste hat. Zum Beispiel: weißes Hemd, blaues Jackett – helle Wand. Oder auch eine gemusterte bunte Bluse vor einem grauen Hintergrund macht Sie sichtbar.Tipp 4: Setzen Sie sich gekonnt in SzeneDass der Raum, in dem Sie ein online Meeting durchführen ruhig sein soll, ist klar. Achten Sie aber auch auf eine gute Ausleuchtung. Sie sollten weder während des Meetings von der Sonne geblendet werden, noch sehen Sie sehr professionell aus, wenn das Licht von hinten kommt. Ihr Gesicht sollte gut ausgeleuchtet sein. Eine Drei-Punkt-Ausleuchtung wäre optimal, aber nicht immer machbar. Versuchen Sie mit der Schreibtischlampe eine indirekte Beleuchtung z. B. gegen eine weiße Wand herzustellen. So setzen Sie sich am besten in Szene. Je gleichmäßiger das Licht im Raum, desto besser ist das Bildergebnis.Tipp 5: Kein Gesicht – kein Meeting!Die Kamera während des Meetings ausgeschaltet zu haben, ist ein NoGo! Es sei denn, es handelt sich um ein technisches Problem oder Sie zeigen eine Präsentation. Wundern Sie sich nicht, wenn Sie vom Meetingveranstalter ausgeladen werden, sollten Sie nicht bereit sein, Ihr Gesicht zu zeigen.Meetings sind wie EisbergeMeetings sind wie EisbergeAuch wenn es um ein Sachthema (= Spitze des Eisbergs) geht, entscheidet die emotionale Kommunktion über Erfolg und Misserfolg einer Sitzung. Und letztere ist leider nicht sichtbar, ebenso wie der größte Teil des Eisbergs.1. Lichten Sie Ihre Agenda …… sonst sehen Sie den Wald vor lauter Bäumen nicht. Beschränken Sie sich auf das Wesentliche und halten Sie sich an eine Struktur: Begrüßung und Vorstellung; Themenblock; Zusammenfassung; weiteres Vorgehen.2. Bringen Sie alle an einen Tisch …… sonst fühlen sich einige übergangen. Bei schwierigen Themen bieten sich Vorgespräche an.3. Videokonferenzen …… sparen Zeit und Geld. Sie eignen sich für Routine-Meetings. Bei Kick-offs oder Krisengesprächen ist der persönliche Kontakt dagegen ein Muss.4. Der Zeitpunkt eines Meetings …… ist schon die halbe Miete. Wer ausschweifende Sitzungen vermeiden will, setzt sie vor der Mittagspause oder dann an, wenn der Berufsverkehr schon einsetzt. 5. Die Einladung ……ist die erste Möglichkeit mit den Teilnehmern in Kontakt zu treten. Dabei zeigen schon kleine Gesten grosse Wirkung: kann ein Parkplatz angeboten werden, gibt es gerade örtliche Besonderheiten bei der Anreise zu beachten.6. Begrüßen Sie die Teilnehmer …… nicht erst im Sitzungsraum, sondern schon am Empfang.7. Eine kleine Aufmerksamkeit aus der Teeküche …… erfreut besonders die weiter angereisten Teilnehmer der Besprechung.8. Flipchart statt PowerpointEine gemeinsam entwickelte Skizze am Flipchart fördert das offene Gesprächsklima und bringt oft mehr als eine vorgefertigte Präsentation, weil sich die Teilnehmer aktiv einbringen können.9. Erfahrene Moderatoren …… fassen die Ergebnisse am Ende des Besprechungspunktes zusammen und haken noch einmal nach, ob es Einwände gibt.10. Nach dem Meeting ist vor dem MeetingZu Ergebnissen kommen, ist die eine Sache. Die andere ist aber, die Ergebnisse auch umzusetzen beziehungsweise die Ziele zu verfolgen, und zwar möglichst zeitnah zur Besprechung. 

Der letzte Keks und deutsche Pünktlichkeit: So punkten Sie im Meeting​ Der Vortragende redet zu lange, der Kollege kommt zu spät und nach zwei Stunden hat man immer noch nicht alle Punkte durch. Meetings nerven viele. Dabei kann jeder zu mehr Effektivität beitragen.Neben einer guten Vor- und Nachbereitung gehören der Auftritt beim Kunden und die Gastgeberpflichten des Besuchten dazu. Einige Punkte haben Anke Quittschau und Christina Tabernig von der Beratungsagentur korrekt! zusammengeschrieben, die oft die ersten Stolpersteine beim Besuch sein können.Tipp 1: Die Regie als Gastgeber beginnt bei der BegrüßungGäste werden möglichst mit Namen angesprochen und willkommen geheißen. Blickkontakt und eine leichte Verbeugung reichen im Business meist aus. Man stellt sich selber vor mit Namen und Position und begleitet den Gast dann mit einem kleinen Smalltalk zum Besprechungsraum. Die Türen öffnen Sie für Ihren Gast. Lassen Sie Ihren Gast an Ihrer rechten Seite gehen, dies demonstriert, dass er von Ihnen geschätzt wird. Im Besprechungsraum angekommen, nimmt man dem Gast den Mantel ab und hängt ihn an der Garderobe auf. Sagen Sie bitte nie: “Sie können sich dort aufhängen.” Tipp 2: Nehmen Sie den Raum als Wartender nicht ein Meist holt Sie die Assistentin vom Empfang ab und führt Sie in den Besprechungsraum. Dort stehen bereits Getränke auf dem Tisch und sie sagt nett: “Nehmen Sie doch schon Platz, bedienen Sie sich an den Getränken – Herr Dr. Sommer kommt sofort.” Der höfliche Gast setzt sich selbstverständlich nicht und bedient sich auch nicht an den Getränken. Er wartet im Stehen, um den Gastgeber auf Augenhöhe zu begrüßen.Der Gastgeber weist dann mit einer Geste dem Gast einen Platz zu und bietet ein Getränk an. Dies sollte er zwischen Small Talk und dem Beginn des geschäftlichen Teils tun, damit es dieser nicht durch “Nebensächliches” gestört wird. Der Chef muss dabei nicht alle Anwesenden persönlich bedienen, sondern sollte lediglich das erste Signal geben. Die Gäste dürfen sich im Anschluss selbst bedienen. Grundsätzlich sollte sich aber jeder im eigenen Hause als Gastgeber fühlen und den Job übernehmen, falls der Ranghöchste mit anderen Aufgaben beschäftigt ist. Stilvoll ist es, sich nicht an den Häppchen satt zu essen. Man sollte sich also vor einem langen Meeting darauf einstellen und entsprechend gut frühstücken. Der letzte Keks bleibt liegen.Tipp 3: Vermeiden Sie jegliche Verspätung zum Meeting Eine Verspätung sollte man im Zeitalter der Smartphones rechtzeitig ankündigen. So kann der Wartende die Zeit noch effektiv nutzen. Unpünktlichkeit ist – in Deutschland – die gröbste Unhöflichkeit, denn wir stehlen jemandem etwas, was wir ihm nie mehr zurückgeben können: Zeit! Wenn Sie aber doch einmal zu spät sind, genügt ein kurzes “Entschuldigung” beim Betreten des Raumes. Bloß keine langen Staugeschichten oder so, die glaubt sowieso keiner mehr. Außerdem hätte derjenige dann die volle Aufmerksamkeit der Meeting-Teilnehmer und das ist unangebrachtTipp 4: Der wichtige Anruf während eines MeetingsDas Smartphone sollte in jeder Besprechung ausgeschaltet sein. Damit tut man vor allem sich selbst einen Gefallen. Denn allein das Geräusch des Vibrationsalarms lenkt ab und lässt uns unaufmerksam werden. Erwartet man einen wirklich wichtigen Anruf, sollte man dies unbedingt vorher ankündigen und das Telefon auf lautlos schalten. Ein optisches Signal reicht völlig. Kommt dieser wichtige Anruf dann, sollte man den Besprechungsraum zum Telefonieren verlassen. Grundsätzlich signalisiert ein Smartphone auf dem Tisch den Gesprächspartnern immer, dass sie zweitrangig sind. Tipp 5: Sanktionen für DauerzuspätkommerGehen wir davon aus, dass es ein internes Meeting ist. In dem Fall lautet unsere Empfehlung: anfangen! Und zwar mit dem wichtigsten Thema. Meist sind es nämlich die gleichen Kollegen, die unpünktlich sind. Wenn diese dann die wichtigsten Themen verpassen, nervt es sie auch langsam. Eine andere Erziehungsmethode kennen wir von einem unserer Kunden: dort wird eine Strafe in Höhe von 25 Euro fällig.Tipp 6: Höfliche Unterbrechung – wer fragt, der führtEndlose Monologe können mit Zwischenfragen unterbrochen werden.
Foto: vectorfusionart – shutterstock.comAusreden lassen gilt in Deutschland als eine der wichtigsten Benimmregeln. Keiner lässt sich gern ins Wort fallen. Endlose Monologe können jedoch mit Zwischenfragen unterbrochen werden. Am höflichsten unterbricht man jemanden mit einer geschlossenen Frage zum Thema. Eine andere Variante ist, eine Frage zu stellen, wenn der Redner Luft holt, und Sie beantworten sich die Frage selbst. Beispiel: “Herr Huber, Sie sagten vorhin, dass man das Projekt auch … wie steht es mit xy, ich habe da mal erfahren, dass…” Nun können Sie das Gespräch umlenken und sind selbst am Zug. Tipp 7: Überzogene Meetings stilvoll verlassenMan sollte sich auf keinen Fall wortlos aus dem Raum schleichen. Eine kurze Begründung, etwa ein anstehender Kundentermin, ist angebracht. Im Grunde hat aber der Moderator die Aufgabe, das Meeting zeitlich nicht aus dem Rahmen laufen zu lassen, sondern eventuell Themen zu vertagen. Machen Sie auch am Anfang eines Meetings klar, wie viel Zeit dafür vereinbart wurde und machen Sie eventuell darauf aufmerksam, dass Sie danach noch eine andere Verpflichtung eingeplant haben.Gelangweilt von Meetings? So tragen Sie zur Effizienz bei.
Foto: Diego Cervo – shutterstock.comTipp 8: Wenn man Meetings kurzfristig absagen muss …Am besten, man ruft den Organisator des Meetings an und erklärt die Situation. Eine Absage per E-Mail oder SMS wirkt nicht sehr professionell.Tipp 9: Die Begleitung am EndeWas Sie auf jeden Fall tun sollten, wenn das Meeting beendet ist: Begleiten Sie Ihren Gast wieder zurück zum Empfang. Lassen Sie ihn nicht mit den Worten:”Den Weg kennen Sie ja schon” alleine im Flur stehen. Abgesehen von der mangelnden Höflichkeit könnte es auch aus sicherheitstechnischen Gründen für Ihr Unternehmen wichtig sein, keine fremden Menschen alleine durch Ihre Gänge streunen zu lassen.Fazit: Wie ich am besten punkten kann:Gut vorbereitet sein, alle Unterlagen dabei haben.Wenn ich mein Sakko/meine Kostümjacke erst ausziehe, wenn es der Gastgeber erlaubt hat.Wenn ich meine Visitenkarte bereits am Anfang des Meetings verteile, denn schließlich kann sich kaum jemand gut Namen merken.Auch die Sitzhaltung kann Einfluss auf den Verlauf eines Meetings nehmen. Sitzen Sie gerade und aufrecht, signalisiert dies Souveränität – und der positive Nebeneffekt dieser Haltung: Sie bleiben länger konzentriert und bei der Sache. Achten Sie darauf, die Beine nicht zu kreuzen, damit das Blut zirkulieren kann. Besser ist es, mit beiden Füßen festen Kontakt zum Boden zu haben.Wenn ich meine Gäste am Ende der Besprechung bis an den Haupteingang begleite.Mit einer professionellen Nachbereitung der Besprechung. Das muss kein seitenlanges Protokoll sein, aber eine kurze Zusammenfassung der Ergebnisse, verbunden mit einem Dank für die Zeit, macht immer einen guten Eindruck. So punkten Sie im virtuellen MeetingSeit Corona sind wir fast täglich in virtuellen Meetings unterwegs. Die technischen Anfangsschwierigkeiten haben wir hinter uns gelassen und egal ob Zoom, Skype, Teams oder was die IT noch zu bieten hat, wählen wir uns mit einer Selbstverständlichkeit in virtuelle Meetings ein. Und trotzdem gibt es einige Punkte, auf die wir hinweisen möchten:Tipp 1: Nutzen Sie die Zeit im “Warteraum”Seien Sie auf jeden Fall pünktlich und nutzen Sie die Zeit, die Sie zu früh sind, mit den anderen Meetingteilnehmern zu smalltalken. Auch im online-Meeting haben wir die Möglichkeit ein lockeres Gespräch vor dem Start zu führen. Das macht das Miteinander in Verhandlungen und Präsentationen leichter. Plaudern Sie über das Erlebte am Wochenende oder geplante Unternehmungen.Tipp 2: Seien Sie ganz angezogen – man spürt esNeben den ganzen technischen Vorgaben eines online-Meetings sollten Sie auch auf Ihre Garderobe achten. “Oben hui, unten pfui” funktioniert zwar online, aber trotzdem fühlen Sie sich ganz korrekt angezogen besser, als im “Jogginganzug” vor der Kamera. Also seien Sie möglichst komplett korrekt angezogen. Ihr Gegenüber spürt es in Ihrem Auftreten.Tipp 3: Machen Sie sich sichtbarHaben Sie schon mal die vielen Kacheln angeschaut bei einem online-Meeting? Wer ist Ihnen am meisten ins Auge gestochen? Wollen Sie sich von den anderen abheben, sollte Ihr Hintergrund möglichst einfarbig sein und Sie sollten sich vom Hintergrund abheben. Denken Sie auch daran, dass Ihr Outfit klare Kontraste hat. Zum Beispiel: weißes Hemd, blaues Jackett – helle Wand. Oder auch eine gemusterte bunte Bluse vor einem grauen Hintergrund macht Sie sichtbar.Tipp 4: Setzen Sie sich gekonnt in SzeneDass der Raum, in dem Sie ein online Meeting durchführen ruhig sein soll, ist klar. Achten Sie aber auch auf eine gute Ausleuchtung. Sie sollten weder während des Meetings von der Sonne geblendet werden, noch sehen Sie sehr professionell aus, wenn das Licht von hinten kommt. Ihr Gesicht sollte gut ausgeleuchtet sein. Eine Drei-Punkt-Ausleuchtung wäre optimal, aber nicht immer machbar. Versuchen Sie mit der Schreibtischlampe eine indirekte Beleuchtung z. B. gegen eine weiße Wand herzustellen. So setzen Sie sich am besten in Szene. Je gleichmäßiger das Licht im Raum, desto besser ist das Bildergebnis.Tipp 5: Kein Gesicht – kein Meeting!Die Kamera während des Meetings ausgeschaltet zu haben, ist ein NoGo! Es sei denn, es handelt sich um ein technisches Problem oder Sie zeigen eine Präsentation. Wundern Sie sich nicht, wenn Sie vom Meetingveranstalter ausgeladen werden, sollten Sie nicht bereit sein, Ihr Gesicht zu zeigen.Meetings sind wie EisbergeMeetings sind wie EisbergeAuch wenn es um ein Sachthema (= Spitze des Eisbergs) geht, entscheidet die emotionale Kommunktion über Erfolg und Misserfolg einer Sitzung. Und letztere ist leider nicht sichtbar, ebenso wie der größte Teil des Eisbergs.1. Lichten Sie Ihre Agenda …… sonst sehen Sie den Wald vor lauter Bäumen nicht. Beschränken Sie sich auf das Wesentliche und halten Sie sich an eine Struktur: Begrüßung und Vorstellung; Themenblock; Zusammenfassung; weiteres Vorgehen.2. Bringen Sie alle an einen Tisch …… sonst fühlen sich einige übergangen. Bei schwierigen Themen bieten sich Vorgespräche an.3. Videokonferenzen …… sparen Zeit und Geld. Sie eignen sich für Routine-Meetings. Bei Kick-offs oder Krisengesprächen ist der persönliche Kontakt dagegen ein Muss.4. Der Zeitpunkt eines Meetings …… ist schon die halbe Miete. Wer ausschweifende Sitzungen vermeiden will, setzt sie vor der Mittagspause oder dann an, wenn der Berufsverkehr schon einsetzt. 5. Die Einladung ……ist die erste Möglichkeit mit den Teilnehmern in Kontakt zu treten. Dabei zeigen schon kleine Gesten grosse Wirkung: kann ein Parkplatz angeboten werden, gibt es gerade örtliche Besonderheiten bei der Anreise zu beachten.6. Begrüßen Sie die Teilnehmer …… nicht erst im Sitzungsraum, sondern schon am Empfang.7. Eine kleine Aufmerksamkeit aus der Teeküche …… erfreut besonders die weiter angereisten Teilnehmer der Besprechung.8. Flipchart statt PowerpointEine gemeinsam entwickelte Skizze am Flipchart fördert das offene Gesprächsklima und bringt oft mehr als eine vorgefertigte Präsentation, weil sich die Teilnehmer aktiv einbringen können.9. Erfahrene Moderatoren …… fassen die Ergebnisse am Ende des Besprechungspunktes zusammen und haken noch einmal nach, ob es Einwände gibt.10. Nach dem Meeting ist vor dem MeetingZu Ergebnissen kommen, ist die eine Sache. Die andere ist aber, die Ergebnisse auch umzusetzen beziehungsweise die Ziele zu verfolgen, und zwar möglichst zeitnah zur Besprechung.

Der letzte Keks und deutsche Pünktlichkeit: So punkten Sie im Meeting​ Weiterlesen »

Die zehn besten Samsung Galaxy Smartphones im Test (2025)​

Allgemein

Mattias Inghe Samsung stellt verschiedene Smartphones her, die unterschiedliche Anforderungen erfüllen können. Es kann jedoch schwierig sein, sich für ein bestimmtes Modell zu entscheiden. Die Galaxy-S-Serie bietet beispielsweise leistungsstarke Flaggschiff-Modelle, während die Z-Serie faltbare Geräte umfasst. Alternativ könnten die preisgünstigen Modelle der Galaxy-A-Serie eine Option sein. Doch was macht die Samsung-Smartphones so besonders? Es sind abseits der Hardware-Ausstattung vor allen die maßgeschneiderte Benutzeroberfläche One UI und zusätzliche Apps und Dienste wie der Galaxy App Store. Zudem bieten die Geräte einzigartige Kameramodi, KI-Funktionen, langfristigen Firmware-Support für die meisten neueren Modelle und weitere spezielle Features. In unserer Übersicht finden Sie die zehn besten Galaxy-Modelle in verschiedenen Preis- und Leistungsklassen. Für mehr Informationen sind die entsprechenden Einzeltests nur einem Klick oder Fingertipp entfernt:   Samsung Galaxy S25 Ultra: Empfehlung der Redaktion Mattias Inghe Warum wir das Galaxy S25 Ultra mögen Bei Samsungs neuestem Flaggschiff sind auf den ersten Blick keine wesentlichen Unterschiede zum Vorgängermodell erkennbar; diese werden erst bei genauerer Betrachtung sichtbar. Das Design wurde dahingehend überarbeitet, dass die Gehäuseecken nun abgerundet sind, was das Smartphone komfortabler in der Handhabung macht. Das Spitzenmodell ist mit dem neuesten Qualcomm-Prozessor ausgestattet, speziell in einer „For Galaxy“-Version. Darüber hinaus verfügt das Ultra über eine neue Ultraweitwinkel-Kamera (50 Megapixel). Weitere Neuerungen ergeben sich aus der Software und den integrierten KI-Funktionen. Obwohl die technischen Daten nicht außergewöhnlich erscheinen, überzeugt das S25 Ultra als Gesamtpaket dennoch in vielfältiger Weise. Darum sollten Sie das Galaxy S25 Ultra kaufen Für Besitzer des Vormodells bietet das Samsung Galaxy S25 Ultra vielleicht keine signifikanten Neuerungen, aber es bleibt eines der besten Android-Handys. Das Smartphone ist leistungsfähig, hat ein ansprechendes Design, ermöglicht qualitativ hochwertige Fotos und Videos und verfügt über ein ausgezeichnetes Display. Der Akku ist zwar nicht der größte und die Ladezeiten sind nicht die schnellsten, aber für den täglichen Gebrauch ausreichend. Die KI-Funktionen des Samsung Galaxy S25 Ultra sind derzeit führend auf dem Markt. Samsung Galaxy S25 Plus: Rundherum überzeugend Mattias Inghe Warum wir das Galaxy S25 Plus mögen Das Galaxy S25 Plus hat ein einfaches, aber sehr effektives Design: eine Vorder- und Rückseite aus Glas (Gorilla Glass Victus 2), ein Aluminiumrahmen und drei Kameralinsen auf der Rückseite. Das gut verarbeitete Smartphone fühlt sich robust an und ist mit 190 Gramm etwas leichter als das S24 Plus. Das 6,7-Zoll-Display mit einer Auflösung von 1.440 × 3.120 Pixeln ist eines der besten auf dem Markt. Der Snapdragon 8 Elite für das Galaxy – eine übertaktete Version von Qualcomms neuestem High-End-Prozessor – ist zusammen mit 12 GB Arbeitsspeicher ideal für das Surfen im Internet, Social Media oder Multitasking. Die Dreifach-Kamera auf der Rückseite besteht aus einer 50-Megapixel-Hauptkamera, einer 10-Megapixel-Dreifach-Telekamera und einer 12-Megapixel-Ultraweitwinkelkamera. Darum sollten Sie das Galaxy S25 Plus kaufen Das Galaxy S25 Plus bietet eine überzeugende Kombination aus erstklassiger Hardware und hervorragender KI-Software. Sie müssen zwar auf den S Pen und die 50 Megapixel Ultrawide-Kamera des Ultra-Modells verzichten, damit sparen Sie jedoch auch rund 300 Euro. Abgesehen von der relativ langsamen Aufladung und einigen Ungereimtheiten bei der Kamera ist das S25 Plus ein empfehlenswertes Smartphone ohne echte Schwächen. Samsung Galaxy S25: Kleinstes Flaggschiff-Modell Mattias Inghe Warum wir das Galaxy S25 mögen Das Samsung Galaxy S25 ist mit einem neuen Chip, mehr Arbeitsspeicher und kleineren ästhetischen Verbesserungen ausgestattet. Ansonsten ist es weitgehend identisch mit dem Galaxy S24. Die wichtigsten Neuerungen betreffen die Software, wobei Samsung erneut auf KI setzt. Das ProScaler-Feature wurde in Zusammenarbeit mit Qualcomm entwickelt und verwendet KI zur Hochskalierung von Bildschirminhalten für eine hochauflösende Darstellung. Der Sprachassistent wird nun von Google Gemini unterstützt und kann mit anderen Anwendungen interagieren. Das Galaxy S25 nutzt den neuesten Flaggschiff-Chip von Qualcomm, den Snapdragon 8 Elite, eine übertaktete Version, die exklusiv für Samsung gefertigt wurde. Der Arbeitsspeicher wurde auf 12 Gigabyte erhöht. Darum sollten Sie das Galaxy S25 kaufen Das Samsung Galaxy S25 bietet nur geringfügige Hardware-Upgrades. Es ist mit dem Snapdragon 8 Elite Chip, etwas mehr Arbeitsspeicher und einer neuen Speicheroption ausgestattet. Trotz der begrenzten Hardware-Änderungen zeichnen sich die Software und die Verarbeitung durch hohe Qualität aus, was zu einem insgesamt zufriedenstellenden Smartphone führt. Es bietet keine bedeutenden Neuerungen, aber seine Nutzung bleibt dennoch angenehm. Samsung Galaxy S24 Ultra: Testsieger im Vorjahr Mattias Inghe Warum wir das Galaxy S24 Ultra mögen Das Galaxy S24 Ultra ist ein Smartphone-Modell, das verschiedene fortschrittliche Funktionen bietet. Es ist das einzige Modell der S24-Serie von Samsung, das Titan verwendet – eine Premiere in der Unternehmensgeschichte. Der Bildschirm des Galaxy S24 Ultra ist flach gestaltet, während das Display der Vorgängermodelle an den Seiten gewölbt war. Das Gerät verfügt über ein 6,8-Zoll-AMOLED-Display mit einer Standardauflösung von 1080p und der Möglichkeit zur Einstellung auf Quad HD+ (3.120 × 1.440 Pixel) für eine höhere Klarheit. Angetrieben wird das Galaxy S24 Ultra vom Snapdragon 8 Gen 3 for Galaxy Prozessor. Das Basismodell hat einen Speicherplatz von 256 GB, es sind jedoch auch Optionen mit 512 GB oder 1 TB verfügbar. Ein Steckplatz für eine Speicherkarte ist nicht vorhanden. Das Gerät zeichnet sich auch durch seine Kamerafunktionen aus. Darum sollten Sie das Galaxy S24 Ultra kaufen Das Galaxy S24 Ultra ist zum Marktstart ein Android-Smartphone, das ein umfassendes Benutzererlebnis ohne wesentliche Schwächen bietet. Die neuen Galaxy AI-Funktionen erleichtern die Kommunikation und die Erledigung von Aufgaben. Auch die Hardware ist leistungsstark, mit einem Snapdragon 8 Gen 3 Prozessor, fünf Kameras und einem hochwertigen Display. Die Unterstützung des S Pen und die Akkulaufzeit sind zusätzliche Vorteile. Das S24 Ultra ist eines der vielseitigsten Handys auf dem Markt. Samsung Galaxy S24 Plus: Günstiger Allrounder Mattias Inghe Warum wir das Galaxy S24 Plus mögen Der Exynos 2400 Chipsatz arbeitet zügig, und in Kombination mit 12 Gigabyte Arbeitsspeicher bleibt das Galaxy S24 Plus in den meisten Situationen verzögerungsfrei und schnell. Die standardmäßigen 256 Gigabyte interner Speicher (512 Gigabyte gegen Aufpreis erhältlich) bieten genügend Platz für viele installierte Spiele. Was den Bildschirm betrifft, so besitzt das Galaxy S24 Plus ein Dynamic AMOLED 2x-Display, das die LTPO-Technologie verwendet. Dies sorgt für eine dynamischere und effizientere Bildwiederholfrequenz sowie andere subtile Vorteile. Das Gerät verfügt über Stereolautsprecher, die 32-Bit-Audio in hoher Qualität liefern. Es hat eine 50-Megapixel-Hauptkamera auf der Rückseite mit Dual-Pixel-Autofokus und optischer Bildstabilisierung (OIS), ein 12-Megapixel-Ultraweitwinkelobjektiv (mit “Super Steady”-Videoaufnahme) und ein 10-Megapixel-Teleobjektiv mit dreifachem optischen Zoom. Eine wichtige Neuerung aus Software-Sicht sind die verschiedenen KI-Funktionen, die Samsung als “Erweiterte Intelligenz” bezeichnet. Darum sollten Sie das Galaxy S24 Plus kaufen Das Samsung Galaxy S24 Plus ist eines der aktuellen Android-Handys auf dem Markt. Trotz fehlender S Pen-Unterstützung ist es dem S24 Ultra hinsichtlich Gesamtqualität sehr ähnlich. Es erfüllt alle wichtigen Kriterien und bietet ein klares Design, einen hochwertigen Bildschirm, eine gute Leistung, vielseitige Kameras, leistungsstarke Software und eine lange Akkulaufzeit. Es stellt ein ausgewogenes Modell innerhalb der Produktpalette dar. Für Nutzer, die ein großes Handy bevorzugen, ist es eine solide Wahl. Samsung Galaxy A56: Bestes Mittelklasse-Modell Mattias Inghe Warum wir das Galaxy A56 mögen Samsung hat sein Mittelklasse-Trio aktualisiert, und das Galaxy A56 ist das leistungsstärkste Modell der Reihe. Es baut auf dem Galaxy A55 (hier zum Test) auf und bietet ein dünneres Design, einen neuen Prozessor, ein größeres Display und eine schnellere Ladefunktion. Das A56 verfügt über eine IP67-Zertifizierung gegen das Eindringen von Staub und Wasser. Vorder- und Rückseite sind mit Gorilla Glass Victus ausgestattet. Das Display wird von einem Rahmen aus gebürstetem Metall mit flachen Seiten eingefasst. Das 6,7 Zoll große Super AMOLED-Display des A56 ist größer und heller als das des S25, sowohl im High-Brightness-Mode (HBM) als auch in Bezug auf die Spitzenhelligkeit. Während die aktuelle S25-Reihe eine angepasste Version des Snapdragon 8 Elite von Qualcomm nutzt, setzt das Galaxy A56 auf Samsungs eigenen 4nm-Octa-Core-Prozessor Exynos 1580. Darum sollten Sie das Galaxy A56 kaufen Das Galaxy A56 bietet Teile der Flaggschiff-Modelle von Samsung für die Mittelklasse und ist dabei nur halb so teuer wie ein Galaxy S25. Wenn Nutzer das Samsung-Ökosystem bevorzugen und die spezifischen Funktionen des A56 ansprechend finden, könnte es eine geeignete Wahl sein. Trotz verbesserter KI-Funktionen und besserer Software-Unterstützung im Vergleich zu früheren Modellen, weist das A56 bei Leistung und Ausstattung Schwächen im Vergleich zu anderen Mittelklasse-Geräten auf. Samsung Galaxy A36: Preis-Tipp Mattias Inghe Warum wir das Galaxy A36 mögen Das Galaxy A36 ist in zwei Konfigurationen erhältlich: mit 6 Gigabyte RAM und 128 Gigabyte Speicher oder mit 8 Gigabyte RAM und 256 Gigabyte Speicher. Der interne Speicher lässt sich nicht erweitern. Das Galaxy A36 hat einen Bildschirm im 6,7-Zoll-Format. Um das Display herum gibt es einen Rand sowie einen breiteren Rand an der Unterseite. Die Vorder- und Rückseite bestehen aus Gorilla Glass Victus und werden von einem Kunststoffrahmen umschlossen. Samsungs AMOLED-Bildschirm bietet eine große Farbskala, hohen Kontrast, eine Bildwiederholfrequenz von 120 Hertz, bis zu 1.200 Candela pro Quadratmeter im Modus für hohe Helligkeit und bis zu 1.900 Candela pro Quadratmeter im HDR-Modus. Das A36 enthält einige KI-Funktionen – primär Gemini und Circle to Search von Google sowie einige Fotobearbeitungsfunktionen in der Galerie-App von Samsung. Die Features sind jedoch weniger umfangreich als bei den Topmodellen von Samsung. Darum sollten Sie das Galaxy A36 kaufen Das Galaxy A36 hebt sich durch sein neues Design und System vom A35 (hier zum Test) ab. Das Mittelklasse-Smartphone bietet ein ansprechendes Display, Stereo-Lautsprecher und eine durchschnittliche Akkulaufzeit. Insgesamt zeigt es weder herausragende Stärken noch wesentliche Schwächen. Der Preis bleibt im mittleren Bereich. Das wichtigste Merkmal ist das langjährige Update-Versprechen von Samsung, was in dieser Preisklasse eher selten ist. Samsung Galaxy Z Flip 6: Bestes Klappmodell Mattias Inghe Warum wir das Galaxy Z Flip 6 mögen Äußerlich unterscheidet sich das Samsung Galaxy Z Flip 6 kaum von seinem Vorgänger, dem Galaxy Z Flip 5 (hier zum Test). Beide Modelle weisen identische Maße, Bildschirm- und Kameradesign sowie das gleiche Gewicht auf. Ein neues Scharnierdesign verleiht dem Gerät auf der Flip-Seite eine etwas veränderte Form, jedoch nur minimal. Die optimierte Integration des Bildschirms und des Scharniers sorgt dafür, dass die beiden Hälften enger schließen. Zu den wesentlichen Verbesserungen im Vergleich zum Flip 5 gehört der Prozessor Snapdragon 8 Gen. 3, der speziell für Galaxy-Modelle entwickelt wurde. Im Gegensatz zum regulären Snapdragon 8 Gen 3, den andere Hersteller verwenden, verfügt die Samsung-Variante über einen übertakteten Leistungskern und eine verbesserte Grafikeinheit. Darum sollten Sie das Galaxy Z Flip 6 kaufen Die Verbesserungen am neuen Flip sind nicht signifikant. Die optimierte Kamera und der größere Akku rüsten das faltbare Smartphone zu einem echten High-End-Gerät auf, das weniger Kompromisse erfordert. Zudem nutzt Samsung die Gelegenheit, alle derzeit verfügbaren KI-Funktionen in das System zu integrieren und dieses mit zusätzlichen Features aufzuwerten. Der Preis des Samsung Galaxy Z Flip 6 ist durchaus erheblich. Es bleibt jedoch fraglich, ob die Anschaffung gerechtfertigt ist, insbesondere da der äußere Bildschirm nicht vollumfänglich genutzt wird. Samsung Galaxy Z Fold 6: Bestes Faltmodell Mattias Inghe Warum wir das Galaxy Z Fold 6 mögen Das Samsung Galaxy Z Fold 6 aus dem Jahr 2024 hat ein breiteres Display, schlankere Ränder und ein leichteres Design. Die Software-Verbesserungen sind auch auf anderen Geräten der Galaxy-Serie verfügbar. Die auffälligste Änderung betrifft das äußere Display, das nun kürzer und breiter ist, ähnlich wie ein herkömmliches Smartphone. Es hat eine Auflösung von 968 × 2.376 Pixel, während das innere Klapp-Display eine Auflösung von 1.856 × 2.160 Pixel besitzt. Beide Bildschirme unterstützen adaptive Bildwiederholraten von 1 bis 120 Hertz und HDR10+. Das faltbare Display ist mit dem separaten S Pen Stylus kompatibel. Angetrieben wird das Gerät von Qualcomms Snapdragon 8 Gen 3 „For Galaxy“-Edition. Darum sollten Sie das Galaxy Z Fold 6 kaufen Das Samsung Galaxy Z Fold 6 ist ein solides Upgrade. Für Nutzer älterer faltbarer Geräte oder Neueinsteiger wird es eine positive Erfahrung bieten. Es handelt sich um ein elegantes Smartphone, das im Alltag gut funktioniert. Trotz kaum veränderter Hardware hat Samsung sinnvolle Verbesserungen vorgenommen, was das Gerät zu einem der ausgereiftesten faltbaren Smartphones macht. Es ist vielleicht nicht aufregend, aber definitiv exzellent. Samsung Galaxy A16 5G: Spar-Tipp Mattias Inghe Warum wir das Galaxy A16 5G mögen Das Galaxy A16 5G ist ein preisgünstiges Smartphone mit einem klaren Design, einem großen 90-Hertz-Display, einer guten Akkulaufzeit und einer Kamera, die bei günstigen Bedingungen brauchbare Fotos ermöglicht. Das Gehäuse des Galaxy A16 5G besteht aus Kunststoff. Mit den Maßen 164,4 × 77,9 × 7,9 Millimetern ist es recht groß, aber relativ dünn. Das Gerät wiegt 200 Gramm. Es verfügt über ein 6,7-Zoll-Display mit Super AMOLED-Farben und einer Bildwiederholfrequenz von 90 Hertz. Das Testmodell ist mit Samsungs eigenem Exynos-1330-Chip der Einstiegsklasse und 4 GB RAM ausgestattet. Es bietet eine 50-Megapixel-Hauptkamera mit f/1.8-Blende, eine 5-Megapixel-Ultraweitwinkelkamera mit f/2.2-Blende und eine 2-Megapixel-Makrolinse. Zusätzlich ist eine 13-Megapixel-Frontkamera mit einer Teardrop-Kerbe vorhanden. Darum sollten Sie das Galaxy A16 5G kaufen Das Samsung Galaxy A16 5G verfügt über ein modernes Design und ein leistungsstarkes AMOLED-Display. Im Vergleich zum Galaxy A15 5G gibt es nur geringfügige Änderungen; die Leistung bleibt ähnlich und die Kameraausstattung ist durchschnittlich. Eine Verbesserung ist jedoch das verbesserte Software-Update-Versprechen von Samsung. Insgesamt ist das Galaxy A16 5G ein Budget-Smartphone. Ein besseres Preis-Leistungs-Verhältnis kann man erhalten, wenn man entweder etwas mehr investiert oder nach einem speziellen Angebot sucht. > > > 

Die zehn besten Samsung Galaxy Smartphones im Test (2025)​ Mattias Inghe

Samsung stellt verschiedene Smartphones her, die unterschiedliche Anforderungen erfüllen können. Es kann jedoch schwierig sein, sich für ein bestimmtes Modell zu entscheiden. Die Galaxy-S-Serie bietet beispielsweise leistungsstarke Flaggschiff-Modelle, während die Z-Serie faltbare Geräte umfasst. Alternativ könnten die preisgünstigen Modelle der Galaxy-A-Serie eine Option sein.

Doch was macht die Samsung-Smartphones so besonders? Es sind abseits der Hardware-Ausstattung vor allen die maßgeschneiderte Benutzeroberfläche One UI und zusätzliche Apps und Dienste wie der Galaxy App Store. Zudem bieten die Geräte einzigartige Kameramodi, KI-Funktionen, langfristigen Firmware-Support für die meisten neueren Modelle und weitere spezielle Features.

In unserer Übersicht finden Sie die zehn besten Galaxy-Modelle in verschiedenen Preis- und Leistungsklassen. Für mehr Informationen sind die entsprechenden Einzeltests nur einem Klick oder Fingertipp entfernt:  

Samsung Galaxy S25 Ultra: Empfehlung der Redaktion

Mattias Inghe

Warum wir das Galaxy S25 Ultra mögen

Bei Samsungs neuestem Flaggschiff sind auf den ersten Blick keine wesentlichen Unterschiede zum Vorgängermodell erkennbar; diese werden erst bei genauerer Betrachtung sichtbar. Das Design wurde dahingehend überarbeitet, dass die Gehäuseecken nun abgerundet sind, was das Smartphone komfortabler in der Handhabung macht. Das Spitzenmodell ist mit dem neuesten Qualcomm-Prozessor ausgestattet, speziell in einer „For Galaxy“-Version. Darüber hinaus verfügt das Ultra über eine neue Ultraweitwinkel-Kamera (50 Megapixel). Weitere Neuerungen ergeben sich aus der Software und den integrierten KI-Funktionen. Obwohl die technischen Daten nicht außergewöhnlich erscheinen, überzeugt das S25 Ultra als Gesamtpaket dennoch in vielfältiger Weise.

Darum sollten Sie das Galaxy S25 Ultra kaufen

Für Besitzer des Vormodells bietet das Samsung Galaxy S25 Ultra vielleicht keine signifikanten Neuerungen, aber es bleibt eines der besten Android-Handys. Das Smartphone ist leistungsfähig, hat ein ansprechendes Design, ermöglicht qualitativ hochwertige Fotos und Videos und verfügt über ein ausgezeichnetes Display. Der Akku ist zwar nicht der größte und die Ladezeiten sind nicht die schnellsten, aber für den täglichen Gebrauch ausreichend. Die KI-Funktionen des Samsung Galaxy S25 Ultra sind derzeit führend auf dem Markt.

Samsung Galaxy S25 Plus: Rundherum überzeugend

Mattias Inghe

Warum wir das Galaxy S25 Plus mögen

Das Galaxy S25 Plus hat ein einfaches, aber sehr effektives Design: eine Vorder- und Rückseite aus Glas (Gorilla Glass Victus 2), ein Aluminiumrahmen und drei Kameralinsen auf der Rückseite. Das gut verarbeitete Smartphone fühlt sich robust an und ist mit 190 Gramm etwas leichter als das S24 Plus. Das 6,7-Zoll-Display mit einer Auflösung von 1.440 × 3.120 Pixeln ist eines der besten auf dem Markt. Der Snapdragon 8 Elite für das Galaxy – eine übertaktete Version von Qualcomms neuestem High-End-Prozessor – ist zusammen mit 12 GB Arbeitsspeicher ideal für das Surfen im Internet, Social Media oder Multitasking. Die Dreifach-Kamera auf der Rückseite besteht aus einer 50-Megapixel-Hauptkamera, einer 10-Megapixel-Dreifach-Telekamera und einer 12-Megapixel-Ultraweitwinkelkamera.

Darum sollten Sie das Galaxy S25 Plus kaufen

Das Galaxy S25 Plus bietet eine überzeugende Kombination aus erstklassiger Hardware und hervorragender KI-Software. Sie müssen zwar auf den S Pen und die 50 Megapixel Ultrawide-Kamera des Ultra-Modells verzichten, damit sparen Sie jedoch auch rund 300 Euro. Abgesehen von der relativ langsamen Aufladung und einigen Ungereimtheiten bei der Kamera ist das S25 Plus ein empfehlenswertes Smartphone ohne echte Schwächen.

Samsung Galaxy S25: Kleinstes Flaggschiff-Modell

Mattias Inghe

Warum wir das Galaxy S25 mögen

Das Samsung Galaxy S25 ist mit einem neuen Chip, mehr Arbeitsspeicher und kleineren ästhetischen Verbesserungen ausgestattet. Ansonsten ist es weitgehend identisch mit dem Galaxy S24. Die wichtigsten Neuerungen betreffen die Software, wobei Samsung erneut auf KI setzt. Das ProScaler-Feature wurde in Zusammenarbeit mit Qualcomm entwickelt und verwendet KI zur Hochskalierung von Bildschirminhalten für eine hochauflösende Darstellung. Der Sprachassistent wird nun von Google Gemini unterstützt und kann mit anderen Anwendungen interagieren. Das Galaxy S25 nutzt den neuesten Flaggschiff-Chip von Qualcomm, den Snapdragon 8 Elite, eine übertaktete Version, die exklusiv für Samsung gefertigt wurde. Der Arbeitsspeicher wurde auf 12 Gigabyte erhöht.

Darum sollten Sie das Galaxy S25 kaufen

Das Samsung Galaxy S25 bietet nur geringfügige Hardware-Upgrades. Es ist mit dem Snapdragon 8 Elite Chip, etwas mehr Arbeitsspeicher und einer neuen Speicheroption ausgestattet. Trotz der begrenzten Hardware-Änderungen zeichnen sich die Software und die Verarbeitung durch hohe Qualität aus, was zu einem insgesamt zufriedenstellenden Smartphone führt. Es bietet keine bedeutenden Neuerungen, aber seine Nutzung bleibt dennoch angenehm.

Samsung Galaxy S24 Ultra: Testsieger im Vorjahr

Mattias Inghe

Warum wir das Galaxy S24 Ultra mögen

Das Galaxy S24 Ultra ist ein Smartphone-Modell, das verschiedene fortschrittliche Funktionen bietet. Es ist das einzige Modell der S24-Serie von Samsung, das Titan verwendet – eine Premiere in der Unternehmensgeschichte. Der Bildschirm des Galaxy S24 Ultra ist flach gestaltet, während das Display der Vorgängermodelle an den Seiten gewölbt war. Das Gerät verfügt über ein 6,8-Zoll-AMOLED-Display mit einer Standardauflösung von 1080p und der Möglichkeit zur Einstellung auf Quad HD+ (3.120 × 1.440 Pixel) für eine höhere Klarheit. Angetrieben wird das Galaxy S24 Ultra vom Snapdragon 8 Gen 3 for Galaxy Prozessor. Das Basismodell hat einen Speicherplatz von 256 GB, es sind jedoch auch Optionen mit 512 GB oder 1 TB verfügbar. Ein Steckplatz für eine Speicherkarte ist nicht vorhanden. Das Gerät zeichnet sich auch durch seine Kamerafunktionen aus.

Darum sollten Sie das Galaxy S24 Ultra kaufen

Das Galaxy S24 Ultra ist zum Marktstart ein Android-Smartphone, das ein umfassendes Benutzererlebnis ohne wesentliche Schwächen bietet. Die neuen Galaxy AI-Funktionen erleichtern die Kommunikation und die Erledigung von Aufgaben. Auch die Hardware ist leistungsstark, mit einem Snapdragon 8 Gen 3 Prozessor, fünf Kameras und einem hochwertigen Display. Die Unterstützung des S Pen und die Akkulaufzeit sind zusätzliche Vorteile. Das S24 Ultra ist eines der vielseitigsten Handys auf dem Markt.

Samsung Galaxy S24 Plus: Günstiger Allrounder

Mattias Inghe

Warum wir das Galaxy S24 Plus mögen

Der Exynos 2400 Chipsatz arbeitet zügig, und in Kombination mit 12 Gigabyte Arbeitsspeicher bleibt das Galaxy S24 Plus in den meisten Situationen verzögerungsfrei und schnell. Die standardmäßigen 256 Gigabyte interner Speicher (512 Gigabyte gegen Aufpreis erhältlich) bieten genügend Platz für viele installierte Spiele. Was den Bildschirm betrifft, so besitzt das Galaxy S24 Plus ein Dynamic AMOLED 2x-Display, das die LTPO-Technologie verwendet. Dies sorgt für eine dynamischere und effizientere Bildwiederholfrequenz sowie andere subtile Vorteile. Das Gerät verfügt über Stereolautsprecher, die 32-Bit-Audio in hoher Qualität liefern. Es hat eine 50-Megapixel-Hauptkamera auf der Rückseite mit Dual-Pixel-Autofokus und optischer Bildstabilisierung (OIS), ein 12-Megapixel-Ultraweitwinkelobjektiv (mit “Super Steady”-Videoaufnahme) und ein 10-Megapixel-Teleobjektiv mit dreifachem optischen Zoom. Eine wichtige Neuerung aus Software-Sicht sind die verschiedenen KI-Funktionen, die Samsung als “Erweiterte Intelligenz” bezeichnet.

Darum sollten Sie das Galaxy S24 Plus kaufen

Das Samsung Galaxy S24 Plus ist eines der aktuellen Android-Handys auf dem Markt. Trotz fehlender S Pen-Unterstützung ist es dem S24 Ultra hinsichtlich Gesamtqualität sehr ähnlich. Es erfüllt alle wichtigen Kriterien und bietet ein klares Design, einen hochwertigen Bildschirm, eine gute Leistung, vielseitige Kameras, leistungsstarke Software und eine lange Akkulaufzeit. Es stellt ein ausgewogenes Modell innerhalb der Produktpalette dar. Für Nutzer, die ein großes Handy bevorzugen, ist es eine solide Wahl.

Samsung Galaxy A56: Bestes Mittelklasse-Modell

Mattias Inghe

Warum wir das Galaxy A56 mögen

Samsung hat sein Mittelklasse-Trio aktualisiert, und das Galaxy A56 ist das leistungsstärkste Modell der Reihe. Es baut auf dem Galaxy A55 (hier zum Test) auf und bietet ein dünneres Design, einen neuen Prozessor, ein größeres Display und eine schnellere Ladefunktion. Das A56 verfügt über eine IP67-Zertifizierung gegen das Eindringen von Staub und Wasser. Vorder- und Rückseite sind mit Gorilla Glass Victus ausgestattet. Das Display wird von einem Rahmen aus gebürstetem Metall mit flachen Seiten eingefasst. Das 6,7 Zoll große Super AMOLED-Display des A56 ist größer und heller als das des S25, sowohl im High-Brightness-Mode (HBM) als auch in Bezug auf die Spitzenhelligkeit. Während die aktuelle S25-Reihe eine angepasste Version des Snapdragon 8 Elite von Qualcomm nutzt, setzt das Galaxy A56 auf Samsungs eigenen 4nm-Octa-Core-Prozessor Exynos 1580.

Darum sollten Sie das Galaxy A56 kaufen

Das Galaxy A56 bietet Teile der Flaggschiff-Modelle von Samsung für die Mittelklasse und ist dabei nur halb so teuer wie ein Galaxy S25. Wenn Nutzer das Samsung-Ökosystem bevorzugen und die spezifischen Funktionen des A56 ansprechend finden, könnte es eine geeignete Wahl sein. Trotz verbesserter KI-Funktionen und besserer Software-Unterstützung im Vergleich zu früheren Modellen, weist das A56 bei Leistung und Ausstattung Schwächen im Vergleich zu anderen Mittelklasse-Geräten auf.

Samsung Galaxy A36: Preis-Tipp

Mattias Inghe

Warum wir das Galaxy A36 mögen

Das Galaxy A36 ist in zwei Konfigurationen erhältlich: mit 6 Gigabyte RAM und 128 Gigabyte Speicher oder mit 8 Gigabyte RAM und 256 Gigabyte Speicher. Der interne Speicher lässt sich nicht erweitern. Das Galaxy A36 hat einen Bildschirm im 6,7-Zoll-Format. Um das Display herum gibt es einen Rand sowie einen breiteren Rand an der Unterseite. Die Vorder- und Rückseite bestehen aus Gorilla Glass Victus und werden von einem Kunststoffrahmen umschlossen. Samsungs AMOLED-Bildschirm bietet eine große Farbskala, hohen Kontrast, eine Bildwiederholfrequenz von 120 Hertz, bis zu 1.200 Candela pro Quadratmeter im Modus für hohe Helligkeit und bis zu 1.900 Candela pro Quadratmeter im HDR-Modus. Das A36 enthält einige KI-Funktionen – primär Gemini und Circle to Search von Google sowie einige Fotobearbeitungsfunktionen in der Galerie-App von Samsung. Die Features sind jedoch weniger umfangreich als bei den Topmodellen von Samsung.

Darum sollten Sie das Galaxy A36 kaufen

Das Galaxy A36 hebt sich durch sein neues Design und System vom A35 (hier zum Test) ab. Das Mittelklasse-Smartphone bietet ein ansprechendes Display, Stereo-Lautsprecher und eine durchschnittliche Akkulaufzeit. Insgesamt zeigt es weder herausragende Stärken noch wesentliche Schwächen. Der Preis bleibt im mittleren Bereich. Das wichtigste Merkmal ist das langjährige Update-Versprechen von Samsung, was in dieser Preisklasse eher selten ist.

Samsung Galaxy Z Flip 6: Bestes Klappmodell

Mattias Inghe

Warum wir das Galaxy Z Flip 6 mögen

Äußerlich unterscheidet sich das Samsung Galaxy Z Flip 6 kaum von seinem Vorgänger, dem Galaxy Z Flip 5 (hier zum Test). Beide Modelle weisen identische Maße, Bildschirm- und Kameradesign sowie das gleiche Gewicht auf. Ein neues Scharnierdesign verleiht dem Gerät auf der Flip-Seite eine etwas veränderte Form, jedoch nur minimal. Die optimierte Integration des Bildschirms und des Scharniers sorgt dafür, dass die beiden Hälften enger schließen. Zu den wesentlichen Verbesserungen im Vergleich zum Flip 5 gehört der Prozessor Snapdragon 8 Gen. 3, der speziell für Galaxy-Modelle entwickelt wurde. Im Gegensatz zum regulären Snapdragon 8 Gen 3, den andere Hersteller verwenden, verfügt die Samsung-Variante über einen übertakteten Leistungskern und eine verbesserte Grafikeinheit.

Darum sollten Sie das Galaxy Z Flip 6 kaufen

Die Verbesserungen am neuen Flip sind nicht signifikant. Die optimierte Kamera und der größere Akku rüsten das faltbare Smartphone zu einem echten High-End-Gerät auf, das weniger Kompromisse erfordert. Zudem nutzt Samsung die Gelegenheit, alle derzeit verfügbaren KI-Funktionen in das System zu integrieren und dieses mit zusätzlichen Features aufzuwerten. Der Preis des Samsung Galaxy Z Flip 6 ist durchaus erheblich. Es bleibt jedoch fraglich, ob die Anschaffung gerechtfertigt ist, insbesondere da der äußere Bildschirm nicht vollumfänglich genutzt wird.

Samsung Galaxy Z Fold 6: Bestes Faltmodell

Mattias Inghe

Warum wir das Galaxy Z Fold 6 mögen

Das Samsung Galaxy Z Fold 6 aus dem Jahr 2024 hat ein breiteres Display, schlankere Ränder und ein leichteres Design. Die Software-Verbesserungen sind auch auf anderen Geräten der Galaxy-Serie verfügbar. Die auffälligste Änderung betrifft das äußere Display, das nun kürzer und breiter ist, ähnlich wie ein herkömmliches Smartphone. Es hat eine Auflösung von 968 × 2.376 Pixel, während das innere Klapp-Display eine Auflösung von 1.856 × 2.160 Pixel besitzt. Beide Bildschirme unterstützen adaptive Bildwiederholraten von 1 bis 120 Hertz und HDR10+. Das faltbare Display ist mit dem separaten S Pen Stylus kompatibel. Angetrieben wird das Gerät von Qualcomms Snapdragon 8 Gen 3 „For Galaxy“-Edition.

Darum sollten Sie das Galaxy Z Fold 6 kaufen

Das Samsung Galaxy Z Fold 6 ist ein solides Upgrade. Für Nutzer älterer faltbarer Geräte oder Neueinsteiger wird es eine positive Erfahrung bieten. Es handelt sich um ein elegantes Smartphone, das im Alltag gut funktioniert. Trotz kaum veränderter Hardware hat Samsung sinnvolle Verbesserungen vorgenommen, was das Gerät zu einem der ausgereiftesten faltbaren Smartphones macht. Es ist vielleicht nicht aufregend, aber definitiv exzellent.

Samsung Galaxy A16 5G: Spar-Tipp

Mattias Inghe

Warum wir das Galaxy A16 5G mögen

Das Galaxy A16 5G ist ein preisgünstiges Smartphone mit einem klaren Design, einem großen 90-Hertz-Display, einer guten Akkulaufzeit und einer Kamera, die bei günstigen Bedingungen brauchbare Fotos ermöglicht. Das Gehäuse des Galaxy A16 5G besteht aus Kunststoff. Mit den Maßen 164,4 × 77,9 × 7,9 Millimetern ist es recht groß, aber relativ dünn. Das Gerät wiegt 200 Gramm. Es verfügt über ein 6,7-Zoll-Display mit Super AMOLED-Farben und einer Bildwiederholfrequenz von 90 Hertz. Das Testmodell ist mit Samsungs eigenem Exynos-1330-Chip der Einstiegsklasse und 4 GB RAM ausgestattet. Es bietet eine 50-Megapixel-Hauptkamera mit f/1.8-Blende, eine 5-Megapixel-Ultraweitwinkelkamera mit f/2.2-Blende und eine 2-Megapixel-Makrolinse. Zusätzlich ist eine 13-Megapixel-Frontkamera mit einer Teardrop-Kerbe vorhanden.

Darum sollten Sie das Galaxy A16 5G kaufen

Das Samsung Galaxy A16 5G verfügt über ein modernes Design und ein leistungsstarkes AMOLED-Display. Im Vergleich zum Galaxy A15 5G gibt es nur geringfügige Änderungen; die Leistung bleibt ähnlich und die Kameraausstattung ist durchschnittlich. Eine Verbesserung ist jedoch das verbesserte Software-Update-Versprechen von Samsung. Insgesamt ist das Galaxy A16 5G ein Budget-Smartphone. Ein besseres Preis-Leistungs-Verhältnis kann man erhalten, wenn man entweder etwas mehr investiert oder nach einem speziellen Angebot sucht.

>

>

>

Die zehn besten Samsung Galaxy Smartphones im Test (2025)​ Weiterlesen »

Samsung Galaxy S25 Edge: Alles, was Sie wissen müssen​

Allgemein

Chris Martin / Foundry Galaxy S25 Edge: Zusammenfassung Das S25 Edge ist das vierte Modell in Samsungs Flaggschiff-Reihe. Sein Alleinstellungsmerkmal ist sein dünnes und leichtes Design Nach einigen Verzögerungen kommt es am 30. Mai 2025 in den Handel Zu den wichtigsten Merkmalen gehören die 200-Megapixel-Hauptkamera des S25 Ultra, ein großer OLED-Bildschirm, aber ein kleiner Akku aufgrund des Designs Die Galaxy S25-Familie ist endlich komplett (abgesehen von dem wahrscheinlich bald erscheinenden S25 FE), aber der Kern der Flaggschiff-Serie ist fertig. Samsung hat das S25 Edge auf einem speziellen Launch-Event vorgestellt und dabei alle noch offenen Fragen beantwortet, einschließlich des Preises, der Akkulaufzeit und der Frage, wie dünn das Gerät wirklich ist. Das S25 Edge hat lange auf sich warten lassen, nachdem es bereits im Januar zusammen mit seinen Geschwistern angekündigt wurde, aber jetzt können Sie es noch vor Ende Mai in den Händen halten. Könnte es der Beginn eines neuen Trends zu schlanken Handys sein? Wir müssen abwarten, aber es scheint möglich zu sein, vor allem, da Gerüchten zufolge ein iPhone 17 Air auf dem Weg ist. Hier finden Sie alles, was Sie über das neue Samsung Galaxy S25 Edge wissen müssen, einschließlich Erscheinungsdatum, Preis, technische Daten und Funktionen. Wann wird das Galaxy S25 Edge veröffentlicht? Zusammengefasst Offizielle Markteinführung am 12./13. Mai Ab 30. Mai im Handel, jetzt vorbestellen Neues ‘Galaxy Club’-Programm Nach einigen Verzögerungen hat Samsung das Galaxy S25 Edge am 13. Mai 2025 offiziell in seiner Gesamtheit vorgestellt. Jetzt ist das Handy offiziell und wir können Ihnen sagen, dass es am 30. Mai in den Handel kommt und Sie es jetzt schon vorbestellen können. In dem Blog-Beitrag, in dem Samsung das Datum der Markteinführung ankündigt, heißt es: “Dies ist mehr als nur ein schlankes Smartphone. Jede Kurve, jede Kontur und jede Komponente spiegeln einen Durchbruch in präziser Technik wider, um ein Premium-Erlebnis zu schaffen, das den Namen der S-Serie verdient.” Anyron Copeman / Foundry Wie viel kostet das Galaxy S25 Edge? Zusammengefasst Die Preise beginnen bei 1249 Euro Liegt in der Samsung-Produktpalette zwischen dem S25 und dem S25 Ultra Wenn Sie das S25 Edge in Ihre Tasche stecken möchten, müssen Sie mindestens 1249 Euro ausgeben. Damit erhalten Sie das Modell mit 256 GB Speicherplatz und es ist das zweitteuerste Galaxy S25 Modell nach dem Ultra. Das Modell mit 512 GB Speicherplatz erhalten Sie für 1369 Euro. Zum Start und bis 29. Mai verkauft Samsung aber das 512-GB-Modell für 1249 Euro. Es gibt kein 1-TB-Modell wie das Ultra. Chris Martin / Foundry Was sind die technischen Daten und Funktionen des Galaxy S25 Edge? In der Zusammenfassung Das Design-Highlight des S25 Edge ist sein dünnes Profil mit einer Dicke von nur 5,8 mm und Materialien wie Titan und Keramik Es verfügt über eine 200-Megapixel-Rückkamera, die durch eine 12-Megapixel-Ultrawide-Kamera ergänzt wird Der Bildschirm ist flach, anders als bei den früheren Edge-Geräten von Samsung, und 6,7 Zoll groß, mit einem OLED-Panel und einer Bildwiederholfrequenz von 120 Hz Das dünne Design bedeutet, dass der Akku mit 3900 mAh kleiner als bei den meisten Handys ist und langsamer aufgeladen wird als beim S25 und Ultra Design & Aufbau Obwohl das Telefon einige interessante Spezifikationen hat, ist das Design das Wichtigste am S25 Edge und der Hauptgrund, es zu kaufen. Samsung hat es als “technisches Wunderwerk” bezeichnet. Wenn Sie sich schon lange nach einem dünneren Galaxy-Flaggschiff gesehnt haben, dann ist Ihr Traum wahr geworden, denn das S25 Edge ist nur 5,8 mm dünn. Zum Vergleich: Das S25 ist 7,2 mm und das S25 Ultra ist 8,2 mm dünn und trotzdem staub- und wasserdicht nach IP68. Das ist eine ziemliche technische Meisterleistung, wenn man bedenkt, welche technischen Daten Samsung in dieses Telefon eingebaut hat. Im Vergleich zu faltbaren Geräten wie dem Oppo Find N5, das nur 4,21 mm misst, oder dem Samsung Galaxy Z Fold 6 mit 5,6 mm ist es etwas weniger beeindruckend. Dennoch ist es extrem dünn für ein normales Handyformat und könnte durchaus der Anfang eines neuen Trends sein. Anyron Copeman / Foundry Das dünne Design hat einige Nachteile, auf die wir im weiteren Verlauf eingehen werden. Der offensichtlichste ist jedoch die Art und Weise, wie Samsung das SIM-Kartenfach, das Mikrofon, den USB-C-Anschluss und den Lautsprecher dezentral angeordnet hat. Zugegeben, Sie werden nicht viel darauf achten, aber es könnte einige Nutzer trotzdem stören. Der große Vorteil des dünnen Designs ist, dass das S25 Edge so leicht ist. Samsung Galaxy S25 Ultra vs. S24 Ultra: Was ist der bessere Kauf? Mit nur 163 g ist es viel leichter als die 218 g schweren Ultra- und 190 g schweren Plus-Modelle. Das reguläre S25 ist mit 162 g sogar geringfügig leichter, hat aber einen viel kleineren Bildschirm. Wenn Sie also ein großes Display haben möchten, ohne einen Ziegelstein mit sich herumtragen zu müssen, dann könnte dies das Richtige für Sie sein. Sie haben die Wahl zwischen drei Farben für das S25 Edge: Titanium IcyBlue, Titanium Silver und Titanium Jetblack. Diese Farben verraten, dass das Telefon genau wie das Ultra aus Titan besteht. Der Rahmen ist aus dem leichten, aber robusten Metall gefertigt, während das Display mit etwas bedeckt ist, das keines der anderen S25-Modelle hat – Gorilla Glass Ceramic 2. Auf der Rückseite, die ebenfalls aus Glas besteht, ist es nicht zu finden. Akku & Aufladen Das dünne Design des S25 Edge wirkt sich, wie Sie sich vielleicht vorstellen können, auf die Größe des Akkus von 3900 mAh aus. Das ist klein im Vergleich zu fast allen modernen Smartphones, obwohl es nur 100 mAh weniger sind als beim normalen Galaxy S25. Es wäre schön gewesen, wenn Samsung die moderne SiC (Silizium-Kohlenstoff)-Akkutechnologie genutzt hätte, um einen größeren Akku auf demselben Raum unterzubringen (wie das OnePlus 13), aber darauf müssen wir wohl noch bis zur Galaxy S26-Serie warten. Ein weiterer Nachteil ist, dass das S25 Edge mit 25 W kabelgebundenem und 15 W kabellosem Laden ausgestattet ist. Das ist langsamer als die 45 W des S25 Ultra, das zwar immer noch als “superschnell” bezeichnet wird, aber dem regulären Modell entspricht. Anyron Copeman / Foundry Bis zu 55 % in 30 Minuten wird mit einem 25-W-Ladegerät angegeben. Samsung sagt, dass der Akku 24 Stunden Videowiedergabe oder “den ganzen Tag” durchhält, aber wir werden den Akku in der Praxis testen, wenn wir ein Testmuster erhalten. Bildschirm Der Bildschirm des S25 Edge ist nicht übermäßig aufregend. Es bedeutet nicht mehr, dass das Telefon gebogene Ränder hat, obwohl Samsung den Begriff “Edge” früher so verwendet hat. Wie erwartet ist das Display 6,7 Zoll groß, genauso groß wie beim Galaxy S25 , und hat einen sehr schmalen Rahmen. Das Telefon verwendet ein OLED-Panel mit einer Quad HD-Auflösung und einer Bildwiederholfrequenz von 120 Hz. Die Spitzenhelligkeit beträgt 2600 nits und es verfügt außerdem über einen Adaptive Vision Booster Anyron Copeman / Foundry Kameras Wir wussten bereits im Voraus, dass das Galaxy S25 Edge nur mit zwei Rückkameras ausgestattet sein würde, da Samsung das Design bereits gezeigt hatte. Samsung bestätigte kurz vor der Markteinführung, dass die Hauptkamera die gleiche 200-Megapixel-Kamera wie beim Galaxy S25 Ultra sein wird. “Trotz seiner schlanken Form setzt das Galaxy S25 Edge mit seiner 200-MP-Weitwinkel-Linse die kultige Galaxy-Kameraerfahrung fort und bietet professionelle Fähigkeiten, um die Welt um Sie herum intuitiv zu erfassen. Und dank der Galaxy AI verwandelt sich die Kamera in ein intelligentes Objektiv, das erkennt, was wichtig ist, um neue Erinnerungen zu schaffen”, so Samsung. Anyron Copeman / Foundry Wie bereits gemunkelt wurde, handelt es sich bei der sekundären Rückkamera um eine 12-Megapixel-Ultrawide-Kamera, die über einen Makromodus und Autofokus verfügt. Sie erhalten hier also keine Teleobjektivkamera. Die Frontkamera hat ebenfalls 12 Megapixel. Samsung sagt, dass die Nachtaufnahme des Edge 40% besser ist als die des regulären S25 und dass es Videos in 8K-Auflösung mit “virtueller Blende” aufnehmen kann. Zu den Funktionen der Kamera-Software gehören Audio Eraser, Generative Edit und Filter. Leistung Es ist keine Überraschung, dass das S25 Edge von demselben Qualcomm Snapdragon 8 Elite Chipsatz angetrieben wird wie seine stabilen Kollegen – die übertaktete ‘for Galaxy’ Version. Dieser ist mit 12 GB RAM gepaart, unabhängig davon, für welches Modell Sie sich entscheiden, und Sie haben nur die Wahl zwischen 256 oder 512 GB Speicherplatz (keine 1 TB Option wie beim Ultra). Laut Samsung verfügt das Edge über “Tailored TIM” (Thermal Interface Materials) für eine optimierte Wärmeableitung. Software Sie können es sich wahrscheinlich denken, aber das S25 Edge kommt mit Android 15 und Samsungs One UI 7. Die gleichen Galaxy AI-Funktionen wie bei den anderen Modellen sind auch hier vorhanden und es gibt auch Gemini Live. Samsungs Softwareversprechen bleibt neben den Google Pixel-Telefonen mit sieben Jahren Betriebssystem- und Sicherheitsupdates marktführend. (PC-Welt) 

Samsung Galaxy S25 Edge: Alles, was Sie wissen müssen​ Chris Martin / Foundry

Galaxy S25 Edge: Zusammenfassung

Das S25 Edge ist das vierte Modell in Samsungs Flaggschiff-Reihe. Sein Alleinstellungsmerkmal ist sein dünnes und leichtes Design

Nach einigen Verzögerungen kommt es am 30. Mai 2025 in den Handel

Zu den wichtigsten Merkmalen gehören die 200-Megapixel-Hauptkamera des S25 Ultra, ein großer OLED-Bildschirm, aber ein kleiner Akku aufgrund des Designs

Die Galaxy S25-Familie ist endlich komplett (abgesehen von dem wahrscheinlich bald erscheinenden S25 FE), aber der Kern der Flaggschiff-Serie ist fertig.

Samsung hat das S25 Edge auf einem speziellen Launch-Event vorgestellt und dabei alle noch offenen Fragen beantwortet, einschließlich des Preises, der Akkulaufzeit und der Frage, wie dünn das Gerät wirklich ist.

Das S25 Edge hat lange auf sich warten lassen, nachdem es bereits im Januar zusammen mit seinen Geschwistern angekündigt wurde, aber jetzt können Sie es noch vor Ende Mai in den Händen halten.

Könnte es der Beginn eines neuen Trends zu schlanken Handys sein? Wir müssen abwarten, aber es scheint möglich zu sein, vor allem, da Gerüchten zufolge ein iPhone 17 Air auf dem Weg ist.

Hier finden Sie alles, was Sie über das neue Samsung Galaxy S25 Edge wissen müssen, einschließlich Erscheinungsdatum, Preis, technische Daten und Funktionen.

Wann wird das Galaxy S25 Edge veröffentlicht?

Zusammengefasst

Offizielle Markteinführung am 12./13. Mai

Ab 30. Mai im Handel, jetzt vorbestellen

Neues ‘Galaxy Club’-Programm

Nach einigen Verzögerungen hat Samsung das Galaxy S25 Edge am 13. Mai 2025 offiziell in seiner Gesamtheit vorgestellt.

Jetzt ist das Handy offiziell und wir können Ihnen sagen, dass es am 30. Mai in den Handel kommt und Sie es jetzt schon vorbestellen können.

In dem Blog-Beitrag, in dem Samsung das Datum der Markteinführung ankündigt, heißt es: “Dies ist mehr als nur ein schlankes Smartphone. Jede Kurve, jede Kontur und jede Komponente spiegeln einen Durchbruch in präziser Technik wider, um ein Premium-Erlebnis zu schaffen, das den Namen der S-Serie verdient.”

Anyron Copeman / Foundry

Wie viel kostet das Galaxy S25 Edge?

Zusammengefasst

Die Preise beginnen bei 1249 Euro

Liegt in der Samsung-Produktpalette zwischen dem S25 und dem S25 Ultra

Wenn Sie das S25 Edge in Ihre Tasche stecken möchten, müssen Sie mindestens 1249 Euro ausgeben.

Damit erhalten Sie das Modell mit 256 GB Speicherplatz und es ist das zweitteuerste Galaxy S25 Modell nach dem Ultra.

Das Modell mit 512 GB Speicherplatz erhalten Sie für 1369 Euro. Zum Start und bis 29. Mai verkauft Samsung aber das 512-GB-Modell für 1249 Euro. Es gibt kein 1-TB-Modell wie das Ultra.

Chris Martin / Foundry

Was sind die technischen Daten und Funktionen des Galaxy S25 Edge?

In der Zusammenfassung

Das Design-Highlight des S25 Edge ist sein dünnes Profil mit einer Dicke von nur 5,8 mm und Materialien wie Titan und Keramik

Es verfügt über eine 200-Megapixel-Rückkamera, die durch eine 12-Megapixel-Ultrawide-Kamera ergänzt wird

Der Bildschirm ist flach, anders als bei den früheren Edge-Geräten von Samsung, und 6,7 Zoll groß, mit einem OLED-Panel und einer Bildwiederholfrequenz von 120 Hz

Das dünne Design bedeutet, dass der Akku mit 3900 mAh kleiner als bei den meisten Handys ist und langsamer aufgeladen wird als beim S25 und Ultra

Design & Aufbau

Obwohl das Telefon einige interessante Spezifikationen hat, ist das Design das Wichtigste am S25 Edge und der Hauptgrund, es zu kaufen.

Samsung hat es als “technisches Wunderwerk” bezeichnet.

Wenn Sie sich schon lange nach einem dünneren Galaxy-Flaggschiff gesehnt haben, dann ist Ihr Traum wahr geworden, denn das S25 Edge ist nur 5,8 mm dünn. Zum Vergleich: Das S25 ist 7,2 mm und das S25 Ultra ist 8,2 mm dünn und trotzdem staub- und wasserdicht nach IP68.

Das ist eine ziemliche technische Meisterleistung, wenn man bedenkt, welche technischen Daten Samsung in dieses Telefon eingebaut hat. Im Vergleich zu faltbaren Geräten wie dem Oppo Find N5, das nur 4,21 mm misst, oder dem Samsung Galaxy Z Fold 6 mit 5,6 mm ist es etwas weniger beeindruckend.

Dennoch ist es extrem dünn für ein normales Handyformat und könnte durchaus der Anfang eines neuen Trends sein.

Anyron Copeman / Foundry

Das dünne Design hat einige Nachteile, auf die wir im weiteren Verlauf eingehen werden. Der offensichtlichste ist jedoch die Art und Weise, wie Samsung das SIM-Kartenfach, das Mikrofon, den USB-C-Anschluss und den Lautsprecher dezentral angeordnet hat.

Zugegeben, Sie werden nicht viel darauf achten, aber es könnte einige Nutzer trotzdem stören. Der große Vorteil des dünnen Designs ist, dass das S25 Edge so leicht ist.

Samsung Galaxy S25 Ultra vs. S24 Ultra: Was ist der bessere Kauf?

Mit nur 163 g ist es viel leichter als die 218 g schweren Ultra- und 190 g schweren Plus-Modelle.

Das reguläre S25 ist mit 162 g sogar geringfügig leichter, hat aber einen viel kleineren Bildschirm. Wenn Sie also ein großes Display haben möchten, ohne einen Ziegelstein mit sich herumtragen zu müssen, dann könnte dies das Richtige für Sie sein.

Sie haben die Wahl zwischen drei Farben für das S25 Edge: Titanium IcyBlue, Titanium Silver und Titanium Jetblack.

Diese Farben verraten, dass das Telefon genau wie das Ultra aus Titan besteht. Der Rahmen ist aus dem leichten, aber robusten Metall gefertigt, während das Display mit etwas bedeckt ist, das keines der anderen S25-Modelle hat – Gorilla Glass Ceramic 2.

Auf der Rückseite, die ebenfalls aus Glas besteht, ist es nicht zu finden.

Akku & Aufladen

Das dünne Design des S25 Edge wirkt sich, wie Sie sich vielleicht vorstellen können, auf die Größe des Akkus von 3900 mAh aus.

Das ist klein im Vergleich zu fast allen modernen Smartphones, obwohl es nur 100 mAh weniger sind als beim normalen Galaxy S25.

Es wäre schön gewesen, wenn Samsung die moderne SiC (Silizium-Kohlenstoff)-Akkutechnologie genutzt hätte, um einen größeren Akku auf demselben Raum unterzubringen (wie das OnePlus 13), aber darauf müssen wir wohl noch bis zur Galaxy S26-Serie warten.

Ein weiterer Nachteil ist, dass das S25 Edge mit 25 W kabelgebundenem und 15 W kabellosem Laden ausgestattet ist. Das ist langsamer als die 45 W des S25 Ultra, das zwar immer noch als “superschnell” bezeichnet wird, aber dem regulären Modell entspricht.

Anyron Copeman / Foundry

Bis zu 55 % in 30 Minuten wird mit einem 25-W-Ladegerät angegeben. Samsung sagt, dass der Akku 24 Stunden Videowiedergabe oder “den ganzen Tag” durchhält, aber wir werden den Akku in der Praxis testen, wenn wir ein Testmuster erhalten.

Bildschirm

Der Bildschirm des S25 Edge ist nicht übermäßig aufregend. Es bedeutet nicht mehr, dass das Telefon gebogene Ränder hat, obwohl Samsung den Begriff “Edge” früher so verwendet hat.

Wie erwartet ist das Display 6,7 Zoll groß, genauso groß wie beim Galaxy S25 , und hat einen sehr schmalen Rahmen.

Das Telefon verwendet ein OLED-Panel mit einer Quad HD-Auflösung und einer Bildwiederholfrequenz von 120 Hz. Die Spitzenhelligkeit beträgt 2600 nits und es verfügt außerdem über einen Adaptive Vision Booster

Anyron Copeman / Foundry

Kameras

Wir wussten bereits im Voraus, dass das Galaxy S25 Edge nur mit zwei Rückkameras ausgestattet sein würde, da Samsung das Design bereits gezeigt hatte.

Samsung bestätigte kurz vor der Markteinführung, dass die Hauptkamera die gleiche 200-Megapixel-Kamera wie beim Galaxy S25 Ultra sein wird.

“Trotz seiner schlanken Form setzt das Galaxy S25 Edge mit seiner 200-MP-Weitwinkel-Linse die kultige Galaxy-Kameraerfahrung fort und bietet professionelle Fähigkeiten, um die Welt um Sie herum intuitiv zu erfassen. Und dank der Galaxy AI verwandelt sich die Kamera in ein intelligentes Objektiv, das erkennt, was wichtig ist, um neue Erinnerungen zu schaffen”, so Samsung.

Anyron Copeman / Foundry

Wie bereits gemunkelt wurde, handelt es sich bei der sekundären Rückkamera um eine 12-Megapixel-Ultrawide-Kamera, die über einen Makromodus und Autofokus verfügt. Sie erhalten hier also keine Teleobjektivkamera.

Die Frontkamera hat ebenfalls 12 Megapixel.

Samsung sagt, dass die Nachtaufnahme des Edge 40% besser ist als die des regulären S25 und dass es Videos in 8K-Auflösung mit “virtueller Blende” aufnehmen kann.

Zu den Funktionen der Kamera-Software gehören Audio Eraser, Generative Edit und Filter.

Leistung

Es ist keine Überraschung, dass das S25 Edge von demselben Qualcomm Snapdragon 8 Elite Chipsatz angetrieben wird wie seine stabilen Kollegen – die übertaktete ‘for Galaxy’ Version.

Dieser ist mit 12 GB RAM gepaart, unabhängig davon, für welches Modell Sie sich entscheiden, und Sie haben nur die Wahl zwischen 256 oder 512 GB Speicherplatz (keine 1 TB Option wie beim Ultra).

Laut Samsung verfügt das Edge über “Tailored TIM” (Thermal Interface Materials) für eine optimierte Wärmeableitung.

Software

Sie können es sich wahrscheinlich denken, aber das S25 Edge kommt mit Android 15 und Samsungs One UI 7.

Die gleichen Galaxy AI-Funktionen wie bei den anderen Modellen sind auch hier vorhanden und es gibt auch Gemini Live.

Samsungs Softwareversprechen bleibt neben den Google Pixel-Telefonen mit sieben Jahren Betriebssystem- und Sicherheitsupdates marktführend.

(PC-Welt)

Samsung Galaxy S25 Edge: Alles, was Sie wissen müssen​ Weiterlesen »

Nach oben scrollen
×