Computerhaus Quickborn

Allgemein

FAQ Mitarbeiterüberwachung: Was Firmen dürfen – und was nicht​

Allgemein

In Sachen Mitarbeiterüberwachung hängt in Deutschland vieles davon ab, ob Gerichte Unternehmen als Telekommunikationsdienste-Anbieter einstufen. Foto: elnur -shutterstock.com Videoüberwachung? Emotionserkennung am Arbeitsplatz? E-Mails mitlesen? Unzulässige Überwachungsmaßnahmen am Arbeitsplatz sorgen immer wieder für Schlagzeilen. Dabei stellt sich mit Blick auf das Datenschutzrecht die Frage, wann und in welchem Umfang Arbeitgeberinnen und Arbeitgeber ihre Beschäftigten überwachen dürfen. Grundsätzlich haben Unternehmen ein schutzwürdiges Interesse daran, das Verhalten und die Leistung ihres Personals zu kontrollieren. Dem steht jedoch das allgemeine Persönlichkeitsrecht der Arbeitnehmerinnen und Arbeitnehmer gegenüber – insbesondere das Recht auf informationelle Selbstbestimmung. Diese widersprüchlichen Interessen gleicht das Datenschutzrecht aus. Da es viele Möglichkeiten gibt, die Belegschaft zu überwachen, muss jede Maßnahme einzeln bewertet werden. Es gilt, hinsichtlich der Zulässigkeit zwischen den einzelnen Maßnahmen zu differenzieren. Ein spezielles Beschäftigtendatengesetz, das Klarheit schaffen könnte, existiert (noch) nicht. In der folgenden FAQ beantworten wir die wichtigsten Fragen. 1. Dürfen Betriebe ihr Personal mittels Videoaufnahmen überwachen? Es kommt darauf an. Die Videoüberwachung ist in Deutschland nicht grundsätzlich unzulässig. Wegen des erheblichen Eingriffs in die Persönlichkeitsrechte der Arbeitnehmer:innen ist die Videoüberwachung jedoch an strenge Zulässigkeitsvoraussetzungen geknüpft. So sind z. B. besonders sensible Bereiche wie Umkleide- oder Pausenräume immer von der Videoüberwachung ausgenommen. Ansonsten ist zu unterscheiden, ob die Videoüberwachung in einem öffentlich zugänglichen Raum stattfindet und ob sie offen oder verdeckt erfolgt. Die offene Videoüberwachung öffentlich zugänglicher Räume ist insbesondere in der Datenschutz-Grundverordnung (DSGVO) und im Bundesdatenschutzgesetz (BDSG) geregelt (Siehe auch: Deutschlands schlimmste DSGVO-Sünder). Sie ist zulässig, wenn sie entweder für die Aufgabenerfüllung öffentlicher Stellen, die Wahrnehmung des Hausrechts oder die Wahrnehmung berechtigter Interessen für konkret festgelegte Zwecke erforderlich ist. Zudem darf kein Anhaltspunkt dahingehend bestehen, dass schutzwürdige Interessen der betroffenen Person überwiegen. Eine verdeckte Videoüberwachung ist nur unter sehr engen Voraussetzungen möglich, wenn der Anfangsverdacht einer strafbaren Handlung oder einer sonstigen schweren Pflichtverletzung besteht und weniger einschneidende Mittel zur Aufklärung des Verdachts nicht möglich sind. Arbeitgeberinnen und Arbeitgeber müssen die Überwachung außerdem zeitlich und räumlich auf das notwendige Minimum beschränken. 2. Dürfen Unternehmen Telefongespräche heimlich abhören? Nein. Das heimliche Abhören oder Aufzeichnen von Telefongesprächen ist – abgesehen von extremen Ausnahmefällen, insbesondere im Zusammenhang mit der Aufdeckung von Straftaten – verboten. 3. Dürfen Unternehmen Telefongespräche offen abhören? Es kommt darauf an. Zu Schulungszwecken, zum Beispiel im Call-Center, dürfen Arbeitgeberinnen und Arbeitgeber in zeitlich begrenztem Umfang dienstliche Telefongespräche aufzeichnen. Bei einer ausschließlich dienstlichen Nutzung der Telefonanlage dürfen Betriebe die Telefonverbindungsdaten (Dauer, Beginn und Ende des Telefonats oder die ersten Ziffern der Telefonnummer) zur Kostenkontrolle sowie zur Überprüfung des Verbots der Privatnutzung auswerten. Soweit den Beschäftigten die private Nutzung der Telefonanlage gestattet ist, sind die Kontrollrechte von Unternehmen dagegen eingeschränkt. In diesen Fällen sind Arbeitgeberinnen und Arbeitgeber nach bislang vertretener Ansicht der deutschen Datenschutzbehörden als Telekommunikationsdienste-Anbieter im Sinne des Telekommunikationsgesetzes (TKG) anzusehen und müssen das Fernmeldegeheimnis beachten. Eine Verletzung kann zu einer Strafbarkeit nach § 206 StGB führen. Einige Gerichte, vor allem Arbeitsgerichte, gehen hingegen davon aus, dass entsprechende Betriebe keine Telekommunikationsdienstleister sind. Das sah auch die Landesdatenschutzbeauftragte NRW (LDI NRW) in ihrem Tätigkeitsbericht für das Jahr 2024 genauso. Demnach gilt das Fernmeldegeheimnis nach §  3 Telekommunikation-Digitale-Dienste-Gesetz (TDDDG) auch dann nicht für Arbeitgeberinnen und Arbeitgeber, wenn diese die private Nutzung von E-Mail und Telekommunikationsdiensten erlauben. Eine Abhörung ist dennoch nur dann zulässig, wenn die betroffenen Beschäftigten jeweils zugestimmt haben. Aufgrund der rechtlichen Unsicherheiten ist dringend zu empfehlen, klare Regelungen zu treffen und sich als Arbeitgeber abzusichern. 4. Dürfen Unternehmen E-Mails des Personals einsehen? Es kommt darauf an. Wie bei der Nutzung der Telefonanlage ist für die Zugriffsrechte von Unternehmen entscheidend, ob den Beschäftigten die private Nutzung gestattet ist oder nicht. Ist diese verboten, können Arbeitgeberinnen und Arbeitgeber im Gegensatz zu Telefongesprächen auch den Inhalt von E-Mails überwachen. Ist die private Nutzung hingegen erlaubt, werden die Zugriffsrechte durch den Beschäftigtendatenschutz eingeschränkt. Erfolgt eine Einstufung als Telekommunikationsdienste-Anbieter, greift das Fernmeldegeheimnis und ein Zugriff auf die E-Mails wäre nach der Einschätzung der deutschen Datenschutzbehörden grundsätzlich unzulässig. Das Landgericht Erfurt (Urt. v. 28.04.2021, Az.: 1 HK O 43/20) hat dagegen in einem Fall – zum alten TKG – entschieden, dass Arbeitgeber keine Telekommunikationsdienste-Anbieter seien und das Fernmeldegeheimnis daher nicht anwendbar sei. Dem schloss sich die Berufungsinstanz des OLG Jena (c – 7 U 521/21 (LG Erfurt); rechtskräftig) jedoch nicht an. Arbeitgeber seien Telekommunikationsdienste-Anbieter und damit wäre ein Zugriff auf den E-Mail-Account regelmäßig nicht zulässig. Die LDI NRW empfiehlt den Unternehmen daher wie bislang, über die betriebliche und/oder private Nutzung des Internets und des betrieblichen E-Mail-Accounts eine schriftliche Regelung zu treffen und sich so diesbezüglich abzusichern. In dieser Regelung sollen der Zugriff, die Protokollierung, die Auswertung und die Durchführung von Kontrollen eindeutig geklärt werden. Außerdem sollte über mögliche Überwachungsmaßnahmen und Sanktionen informiert werden. 5. Dürfen Arbeitgeber die Internetnutzung kontrollieren? Es kommt darauf an. Wurde die private Nutzung des Internetzugangs verboten, ist eine umfassende Kontrolle der Internetnutzung zur Überprüfung des Verbots zulässig. Arbeitgeber können hierzu regelmäßige und fortlaufende Stichprobenkontrollen oder anlassbezogene Vollkontrollen durchführen. Dabei dürfen aber nur die für die im Rahmen der Stichprobenkontrollen notwendigen Daten erhoben werden, wie Webadresse und Abrufdatum. Auch wenn die private Nutzung erlaubt ist, handelt es sich nach Auffassung der LDI NRW, wie oben dargestellt, um keine Telekommunikationsdienstleistung. Unabhängig davon, ob Betriebe als Telekommunikationsanbieter qualifiziert werden, können sie  ohne Verletzung des Fernmeldegeheimnisses Sperren für bestimmte Internetseiten einrichten, da in diesen Fällen eine mögliche Kommunikation bereits im Vorfeld unterbunden wird. 6. Dürfen Betriebe einen Keylogger einsetzen? Nein. Das Bundesarbeitsgericht (Urt. v. 27.07.2017, Az.: 2 AZR 681/16) hat entschieden, dass der Einsatz von sogenannter Keylogger-Software, die sämtliche Tastatureingaben aufzeichnet, unzulässig ist, wenn kein auf Arbeitnehmerinnen und Arbeitnehmer bezogener, durch konkrete Tatsachen begründeter Verdacht einer Straftat oder einer anderen schwerwiegenden Pflichtverletzung besteht. 7. Dürfen Arbeitgeber auf dem Dienstrechner gespeicherte Dateien einsehen? Ja. Nach Auffassung des Bundesarbeitsgerichts (Urt. v. 31.01.2019, Az.: 2 AZR 426/18) dürfen die Firmen auf diese Dateien zugreifen, wenn die Überprüfung aus einem nicht willkürlichen Anlass erfolgt, wobei ein durch Tatsachen begründeter Verdacht einer Pflichtverletzung nicht erforderlich ist. Darüber hinaus muss die Überprüfung offen erfolgen und den Beschäftigten vorher angekündigt werden. Außerdem müssen Arbeitnehmerinnen und Arbeitnehmer zuvor darauf hingewiesen worden sein, dass sie Ordner und Dateien durch Kennzeichnung als „privat“ von einer Überprüfung ohne begründeten Anlass ausnehmen können. 8. Dürfen Unternehmen ihre Mitarbeitenden orten? Es kommt darauf an. Eine Ortung mittels GPS oder anderen technischen Hilfsmitteln ist nur in wenigen Ausnahmefällen nach Art. 6 Abs. 1 DSGVO zulässig. Das kann etwa der Fall sein, wenn die Ortung dem Schutz von Arbeitnehmerinnen und Arbeitnehmern – zum Beispiel der Fahrerin oder dem Fahrer eines Geldtransporters – dient oder wenn das Eigentum des Unternehmens geschützt werden soll. In jedem Fall muss der Zweck der Ortung vorab klar dokumentiert und den Arbeitnehmern mitgeteilt werden. 9. Welche Besonderheiten bestehen zum Schutz von Plattform-Arbeiterinnen und -Arbeitern? Die Richtlinie (EU) 2024/2831 (Plattformarbeits-RL) enthält eine Vielzahl datenschutzrechtlicher Vorgaben, die über die Anforderungen der DSGVO hinausgehen. Auch wenn die Plattformarbeits-RL erst im Jahr 2026 in deutsches Recht umgesetzt sein muss, sollten Unternehmen schon heute prüfen, ob sie die Vorgaben einhalten. Die Plattformarbeit-RL definiert Plattformarbeit als jegliche Tätigkeit, die über eine digitale Arbeitsplattform organisiert wird und von einer Person innerhalb der EU erbracht wird. Dies betrifft vor allem diverse Lieferdienste und Bestellservices.   Die Plattformarbeits-RL verbietet die Verarbeitung bestimmter sensibler Daten mittels automatisierter Beobachtungssysteme oder automatisierter Entscheidungssysteme. Über die Anforderungen der DSGVO hinausgehend lassen sich diese Verarbeitungen auch nicht durch die Einwilligung der Plattform-Arbeiterinnen und -Arbeitern legitimieren. Umfasst sind unter anderem Daten über den emotionalen oder psychischen Zustand, Daten über private Gespräche sowie Daten zu sensiblen personenbezogenen Merkmalen der Plattform-Arbeiterinnen und -Arbeiter. Denkbar ist, dass auch Freitext-Bewertungen, die von Kunden auf einschlägigen Bewertungsportalen abgegeben werden, umfasst sind. Hier können beispielsweise emotionale Zustände oder sensible personenbezogene Merkmale preisgegeben werden. Der rechtmäßige Einsatz von algorithmischen Beobachtungssystemen ist indes nicht minder reguliert. Die Plattformarbeitgeber müssen Transparenz, menschliche Aufsicht und die Sicherheit der algorithmischen Beobachtungssysteme gewährleisten. 10. Gibt es Besonderheiten im Bereich der Künstlichen Intelligenz? Ja. Im Bereich der Künstlichen Intelligenz gibt es ebenfalls Besonderheiten. Wichtig ist zu wissen, dass gewisse Überwachungstechniken, die mithilfe von Künstlicher Intelligenz ausgeführt werden, seit dem 2. Februar 2025 verboten sind. Das betrifft insbesondere die Emotionserkennnungssysteme am Arbeitsplatz. Eine Ausnahme gilt jedoch, wenn „die Verwendung des KI-Systems […] aus medizinischen Gründen oder Sicherheitsgründen eingeführt“ wird. Dies ist beispielsweise bei einer Müdigkeitserkennung bei Personen in besonders gefährdeten Tätigkeiten der Fall, zum Beispiel LKW-Fahrende.   Ist ein Emotionserkennnungssystem am Arbeitsplatz ausnahmsweise zulässig gilt es als „Hochrisiko-KI-System“. Ab dem 2. August 2026 gelten für solche Hochrisiko-KI-Systeme strenge Compliance-Pflichten, die sowohl die Anbietenden als auch die nutzenden Unternehmen („Betreiber“ nach der KI-VO) eines solchen KI-Systems betreffen. Die KI-VO verbietet den Einsatz solcher Hochrisiko-KI-Systeme zwar nicht, setzt aber hohe Hürden für ihren rechtskonformen Einsatz im Unternehmen. Hinzu kommt: Die Einstufung als beispielsweise weniger hochriskant nach der KI-VO führt nicht dazu, dass der Einsatz eines solchen KI-Systems immer rechtmäßig ist. Insoweit stellt die KI-VO selbst klar, dass der rechtmäßige Einsatz eines entsprechenden KI-Systems nicht abschließend durch die KI-VO bestimmt wird. Die strengen Anforderungen an den Datenschutz oder aus dem Arbeitsrecht gelten weiterhin. Fazit Die Überwachung am Arbeitsplatz ist in Deutschland zugunsten des Personals stark reglementiert. Die Praxis zeigt, dass es dennoch immer wieder zu unzulässigen Überwachungen kommt. Beschäftigte und Unternehmen sind sich der rechtlichen Rahmenbedingungen oft nicht bewusst. Dabei kann eine unzulässige Überwachung gravierende Folgen haben: Unzulässige Maßnahmen von Arbeitgebern können nach der DSGVO mit hohen Bußgeldern geahndet werden (wie beispielsweise bei H&M geschehen) und gegebenenfalls auch Schadensersatzansprüche der Betroffenen begründen. Zu beachten ist aus arbeitsrechtlicher Sicht auch, dass bei Vorhandensein eines Betriebsrats dieser stets einzubeziehen ist. Der Schutz der betroffenen Arbeitnehmerinnen und Arbeitnehmer ist also nicht nur im Datenschutzrecht verankert. (ba) https://youtu.be/gfG6jzY7rvs?rel=0 

FAQ Mitarbeiterüberwachung: Was Firmen dürfen – und was nicht​ In Sachen Mitarbeiterüberwachung hängt in Deutschland vieles davon ab, ob Gerichte Unternehmen als Telekommunikationsdienste-Anbieter einstufen.
Foto: elnur -shutterstock.com

Videoüberwachung? Emotionserkennung am Arbeitsplatz? E-Mails mitlesen? Unzulässige Überwachungsmaßnahmen am Arbeitsplatz sorgen immer wieder für Schlagzeilen. Dabei stellt sich mit Blick auf das Datenschutzrecht die Frage, wann und in welchem Umfang Arbeitgeberinnen und Arbeitgeber ihre Beschäftigten überwachen dürfen.

Grundsätzlich haben Unternehmen ein schutzwürdiges Interesse daran, das Verhalten und die Leistung ihres Personals zu kontrollieren. Dem steht jedoch das allgemeine Persönlichkeitsrecht der Arbeitnehmerinnen und Arbeitnehmer gegenüber – insbesondere das Recht auf informationelle Selbstbestimmung. Diese widersprüchlichen Interessen gleicht das Datenschutzrecht aus. Da es viele Möglichkeiten gibt, die Belegschaft zu überwachen, muss jede Maßnahme einzeln bewertet werden. Es gilt, hinsichtlich der Zulässigkeit zwischen den einzelnen Maßnahmen zu differenzieren. Ein spezielles Beschäftigtendatengesetz, das Klarheit schaffen könnte, existiert (noch) nicht. In der folgenden FAQ beantworten wir die wichtigsten Fragen.

1. Dürfen Betriebe ihr Personal mittels Videoaufnahmen überwachen?

Es kommt darauf an. Die Videoüberwachung ist in Deutschland nicht grundsätzlich unzulässig. Wegen des erheblichen Eingriffs in die Persönlichkeitsrechte der Arbeitnehmer:innen ist die Videoüberwachung jedoch an strenge Zulässigkeitsvoraussetzungen geknüpft. So sind z. B. besonders sensible Bereiche wie Umkleide- oder Pausenräume immer von der Videoüberwachung ausgenommen.

Ansonsten ist zu unterscheiden, ob die Videoüberwachung in einem öffentlich zugänglichen Raum stattfindet und ob sie offen oder verdeckt erfolgt. Die offene Videoüberwachung öffentlich zugänglicher Räume ist insbesondere in der Datenschutz-Grundverordnung (DSGVO) und im Bundesdatenschutzgesetz (BDSG) geregelt (Siehe auch: Deutschlands schlimmste DSGVO-Sünder). Sie ist zulässig, wenn sie entweder für die Aufgabenerfüllung öffentlicher Stellen, die Wahrnehmung des Hausrechts oder die Wahrnehmung berechtigter Interessen für konkret festgelegte Zwecke erforderlich ist. Zudem darf kein Anhaltspunkt dahingehend bestehen, dass schutzwürdige Interessen der betroffenen Person überwiegen.

Eine verdeckte Videoüberwachung ist nur unter sehr engen Voraussetzungen möglich, wenn der Anfangsverdacht einer strafbaren Handlung oder einer sonstigen schweren Pflichtverletzung besteht und weniger einschneidende Mittel zur Aufklärung des Verdachts nicht möglich sind. Arbeitgeberinnen und Arbeitgeber müssen die Überwachung außerdem zeitlich und räumlich auf das notwendige Minimum beschränken.

2. Dürfen Unternehmen Telefongespräche heimlich abhören?

Nein. Das heimliche Abhören oder Aufzeichnen von Telefongesprächen ist – abgesehen von extremen Ausnahmefällen, insbesondere im Zusammenhang mit der Aufdeckung von Straftaten – verboten.

3. Dürfen Unternehmen Telefongespräche offen abhören?

Es kommt darauf an. Zu Schulungszwecken, zum Beispiel im Call-Center, dürfen Arbeitgeberinnen und Arbeitgeber in zeitlich begrenztem Umfang dienstliche Telefongespräche aufzeichnen. Bei einer ausschließlich dienstlichen Nutzung der Telefonanlage dürfen Betriebe die Telefonverbindungsdaten (Dauer, Beginn und Ende des Telefonats oder die ersten Ziffern der Telefonnummer) zur Kostenkontrolle sowie zur Überprüfung des Verbots der Privatnutzung auswerten.

Soweit den Beschäftigten die private Nutzung der Telefonanlage gestattet ist, sind die Kontrollrechte von Unternehmen dagegen eingeschränkt. In diesen Fällen sind Arbeitgeberinnen und Arbeitgeber nach bislang vertretener Ansicht der deutschen Datenschutzbehörden als Telekommunikationsdienste-Anbieter im Sinne des Telekommunikationsgesetzes (TKG) anzusehen und müssen das Fernmeldegeheimnis beachten. Eine Verletzung kann zu einer Strafbarkeit nach § 206 StGB führen. Einige Gerichte, vor allem Arbeitsgerichte, gehen hingegen davon aus, dass entsprechende Betriebe keine Telekommunikationsdienstleister sind.

Das sah auch die Landesdatenschutzbeauftragte NRW (LDI NRW) in ihrem Tätigkeitsbericht für das Jahr 2024 genauso. Demnach gilt das Fernmeldegeheimnis nach §  3 Telekommunikation-Digitale-Dienste-Gesetz (TDDDG) auch dann nicht für Arbeitgeberinnen und Arbeitgeber, wenn diese die private Nutzung von E-Mail und Telekommunikationsdiensten erlauben. Eine Abhörung ist dennoch nur dann zulässig, wenn die betroffenen Beschäftigten jeweils zugestimmt haben. Aufgrund der rechtlichen Unsicherheiten ist dringend zu empfehlen, klare Regelungen zu treffen und sich als Arbeitgeber abzusichern.

4. Dürfen Unternehmen E-Mails des Personals einsehen?

Es kommt darauf an. Wie bei der Nutzung der Telefonanlage ist für die Zugriffsrechte von Unternehmen entscheidend, ob den Beschäftigten die private Nutzung gestattet ist oder nicht. Ist diese verboten, können Arbeitgeberinnen und Arbeitgeber im Gegensatz zu Telefongesprächen auch den Inhalt von E-Mails überwachen. Ist die private Nutzung hingegen erlaubt, werden die Zugriffsrechte durch den Beschäftigtendatenschutz eingeschränkt.

Erfolgt eine Einstufung als Telekommunikationsdienste-Anbieter, greift das Fernmeldegeheimnis und ein Zugriff auf die E-Mails wäre nach der Einschätzung der deutschen Datenschutzbehörden grundsätzlich unzulässig. Das Landgericht Erfurt (Urt. v. 28.04.2021, Az.: 1 HK O 43/20) hat dagegen in einem Fall – zum alten TKG – entschieden, dass Arbeitgeber keine Telekommunikationsdienste-Anbieter seien und das Fernmeldegeheimnis daher nicht anwendbar sei.

Dem schloss sich die Berufungsinstanz des OLG Jena (c – 7 U 521/21 (LG Erfurt); rechtskräftig) jedoch nicht an. Arbeitgeber seien Telekommunikationsdienste-Anbieter und damit wäre ein Zugriff auf den E-Mail-Account regelmäßig nicht zulässig. Die LDI NRW empfiehlt den Unternehmen daher wie bislang, über die betriebliche und/oder private Nutzung des Internets und des betrieblichen E-Mail-Accounts eine schriftliche Regelung zu treffen und sich so diesbezüglich abzusichern. In dieser Regelung sollen der Zugriff, die Protokollierung, die Auswertung und die Durchführung von Kontrollen eindeutig geklärt werden. Außerdem sollte über mögliche Überwachungsmaßnahmen und Sanktionen informiert werden.

5. Dürfen Arbeitgeber die Internetnutzung kontrollieren?

Es kommt darauf an. Wurde die private Nutzung des Internetzugangs verboten, ist eine umfassende Kontrolle der Internetnutzung zur Überprüfung des Verbots zulässig. Arbeitgeber können hierzu regelmäßige und fortlaufende Stichprobenkontrollen oder anlassbezogene Vollkontrollen durchführen. Dabei dürfen aber nur die für die im Rahmen der Stichprobenkontrollen notwendigen Daten erhoben werden, wie Webadresse und Abrufdatum.

Auch wenn die private Nutzung erlaubt ist, handelt es sich nach Auffassung der LDI NRW, wie oben dargestellt, um keine Telekommunikationsdienstleistung. Unabhängig davon, ob Betriebe als Telekommunikationsanbieter qualifiziert werden, können sie  ohne Verletzung des Fernmeldegeheimnisses Sperren für bestimmte Internetseiten einrichten, da in diesen Fällen eine mögliche Kommunikation bereits im Vorfeld unterbunden wird.

6. Dürfen Betriebe einen Keylogger einsetzen?

Nein. Das Bundesarbeitsgericht (Urt. v. 27.07.2017, Az.: 2 AZR 681/16) hat entschieden, dass der Einsatz von sogenannter Keylogger-Software, die sämtliche Tastatureingaben aufzeichnet, unzulässig ist, wenn kein auf Arbeitnehmerinnen und Arbeitnehmer bezogener, durch konkrete Tatsachen begründeter Verdacht einer Straftat oder einer anderen schwerwiegenden Pflichtverletzung besteht.

7. Dürfen Arbeitgeber auf dem Dienstrechner gespeicherte Dateien einsehen?

Ja. Nach Auffassung des Bundesarbeitsgerichts (Urt. v. 31.01.2019, Az.: 2 AZR 426/18) dürfen die Firmen auf diese Dateien zugreifen, wenn die Überprüfung aus einem nicht willkürlichen Anlass erfolgt, wobei ein durch Tatsachen begründeter Verdacht einer Pflichtverletzung nicht erforderlich ist. Darüber hinaus muss die Überprüfung offen erfolgen und den Beschäftigten vorher angekündigt werden. Außerdem müssen Arbeitnehmerinnen und Arbeitnehmer zuvor darauf hingewiesen worden sein, dass sie Ordner und Dateien durch Kennzeichnung als „privat“ von einer Überprüfung ohne begründeten Anlass ausnehmen können.

8. Dürfen Unternehmen ihre Mitarbeitenden orten?

Es kommt darauf an. Eine Ortung mittels GPS oder anderen technischen Hilfsmitteln ist nur in wenigen Ausnahmefällen nach Art. 6 Abs. 1 DSGVO zulässig. Das kann etwa der Fall sein, wenn die Ortung dem Schutz von Arbeitnehmerinnen und Arbeitnehmern – zum Beispiel der Fahrerin oder dem Fahrer eines Geldtransporters – dient oder wenn das Eigentum des Unternehmens geschützt werden soll. In jedem Fall muss der Zweck der Ortung vorab klar dokumentiert und den Arbeitnehmern mitgeteilt werden.

9. Welche Besonderheiten bestehen zum Schutz von Plattform-Arbeiterinnen und -Arbeitern?

Die Richtlinie (EU) 2024/2831 (Plattformarbeits-RL) enthält eine Vielzahl datenschutzrechtlicher Vorgaben, die über die Anforderungen der DSGVO hinausgehen. Auch wenn die Plattformarbeits-RL erst im Jahr 2026 in deutsches Recht umgesetzt sein muss, sollten Unternehmen schon heute prüfen, ob sie die Vorgaben einhalten. Die Plattformarbeit-RL definiert Plattformarbeit als jegliche Tätigkeit, die über eine digitale Arbeitsplattform organisiert wird und von einer Person innerhalb der EU erbracht wird. Dies betrifft vor allem diverse Lieferdienste und Bestellservices.  

Die Plattformarbeits-RL verbietet die Verarbeitung bestimmter sensibler Daten mittels automatisierter Beobachtungssysteme oder automatisierter Entscheidungssysteme. Über die Anforderungen der DSGVO hinausgehend lassen sich diese Verarbeitungen auch nicht durch die Einwilligung der Plattform-Arbeiterinnen und -Arbeitern legitimieren. Umfasst sind unter anderem Daten über den emotionalen oder psychischen Zustand, Daten über private Gespräche sowie Daten zu sensiblen personenbezogenen Merkmalen der Plattform-Arbeiterinnen und -Arbeiter. Denkbar ist, dass auch Freitext-Bewertungen, die von Kunden auf einschlägigen Bewertungsportalen abgegeben werden, umfasst sind. Hier können beispielsweise emotionale Zustände oder sensible personenbezogene Merkmale preisgegeben werden.

Der rechtmäßige Einsatz von algorithmischen Beobachtungssystemen ist indes nicht minder reguliert. Die Plattformarbeitgeber müssen Transparenz, menschliche Aufsicht und die Sicherheit der algorithmischen Beobachtungssysteme gewährleisten.

10. Gibt es Besonderheiten im Bereich der Künstlichen Intelligenz?

Ja. Im Bereich der Künstlichen Intelligenz gibt es ebenfalls Besonderheiten. Wichtig ist zu wissen, dass gewisse Überwachungstechniken, die mithilfe von Künstlicher Intelligenz ausgeführt werden, seit dem 2. Februar 2025 verboten sind. Das betrifft insbesondere die Emotionserkennnungssysteme am Arbeitsplatz. Eine Ausnahme gilt jedoch, wenn „die Verwendung des KI-Systems aus medizinischen Gründen oder Sicherheitsgründen eingeführt“ wird. Dies ist beispielsweise bei einer Müdigkeitserkennung bei Personen in besonders gefährdeten Tätigkeiten der Fall, zum Beispiel LKW-Fahrende.  

Ist ein Emotionserkennnungssystem am Arbeitsplatz ausnahmsweise zulässig gilt es als „Hochrisiko-KI-System“. Ab dem 2. August 2026 gelten für solche Hochrisiko-KI-Systeme strenge Compliance-Pflichten, die sowohl die Anbietenden als auch die nutzenden Unternehmen („Betreiber“ nach der KI-VO) eines solchen KI-Systems betreffen. Die KI-VO verbietet den Einsatz solcher Hochrisiko-KI-Systeme zwar nicht, setzt aber hohe Hürden für ihren rechtskonformen Einsatz im Unternehmen.

Hinzu kommt: Die Einstufung als beispielsweise weniger hochriskant nach der KI-VO führt nicht dazu, dass der Einsatz eines solchen KI-Systems immer rechtmäßig ist. Insoweit stellt die KI-VO selbst klar, dass der rechtmäßige Einsatz eines entsprechenden KI-Systems nicht abschließend durch die KI-VO bestimmt wird. Die strengen Anforderungen an den Datenschutz oder aus dem Arbeitsrecht gelten weiterhin.

Fazit

Die Überwachung am Arbeitsplatz ist in Deutschland zugunsten des Personals stark reglementiert. Die Praxis zeigt, dass es dennoch immer wieder zu unzulässigen Überwachungen kommt. Beschäftigte und Unternehmen sind sich der rechtlichen Rahmenbedingungen oft nicht bewusst. Dabei kann eine unzulässige Überwachung gravierende Folgen haben: Unzulässige Maßnahmen von Arbeitgebern können nach der DSGVO mit hohen Bußgeldern geahndet werden (wie beispielsweise bei H&M geschehen) und gegebenenfalls auch Schadensersatzansprüche der Betroffenen begründen.

Zu beachten ist aus arbeitsrechtlicher Sicht auch, dass bei Vorhandensein eines Betriebsrats dieser stets einzubeziehen ist. Der Schutz der betroffenen Arbeitnehmerinnen und Arbeitnehmer ist also nicht nur im Datenschutzrecht verankert. (ba)

https://youtu.be/gfG6jzY7rvs?rel=0

FAQ Mitarbeiterüberwachung: Was Firmen dürfen – und was nicht​ Weiterlesen »

Nach 12 Jahren Android nutze ich jetzt ein iPhone: Das habe ich dabei gelernt​

Allgemein

Anyron Copeman / Foundry Wenn ich sage, dass ich für meinen Lebensunterhalt Telefone teste und rezensiere, dann meine ich eigentlich, dass ich für meinen Lebensunterhalt Android-Handys rezensiere. Das sollte keine große Überraschung sein, denn es kommen jedes Jahr dutzende neue Geräte auf den Markt. Das soll nicht heißen, dass iPhones nicht wichtig sind, ganz im Gegenteil. Aber bei maximal fünf neuen Handys pro Jahr waren meine Chancen, als Junior-Redakteur eins zu testen, eher gering. Das änderte sich, als ich letztes Jahr Redakteur für Mobilgeräte wurde. Plötzlich wurde es für mich zur Priorität, herauszufinden, was in der geheimnisvollen Welt der Apple-Smartphones vor sich geht. Das habe ich also getan. Aber nachdem ich meine SIM-Karte in das iPhone 16 Pro eingelegt hatte (das erste iPhone, das ich seit dem iPhone 5 im Jahr 2012 als Haupthandy benutzte) war ich nicht darauf vorbereitet, wie anders es sein würde. In den zwei Wochen, die ich mit dem Gerät verbracht habe, habe ich viel über Apple und seine Herangehensweise an Telefonhardware und -software gelernt. Wenn Sie ein Android-Liebhaber sind und den Umstieg in Erwägung ziehen, sollten Sie auch diese 8 Dinge beachten. Whatsapp-Probleme Von allen Apps und Daten, die ich zwischen Android und iOS verschieben wollte, bereitete mir Whatsapp die meisten Kopfschmerzen. Ich bin es bereits gewohnt, meine Chats auf einem Telefon zu sichern und sie dann auf einem anderen neu zu registrieren und wiederherzustellen. Aber während Android Google Drive für Backups verwendet, verlässt sich das iPhone auf iCloud. DenPhotos / Shutterstock.com Bis 2022 gab es keine einfache Möglichkeit, Ihren Chatverlauf zu verschieben. Das hat sich inzwischen geändert, aber es hängt immer noch davon ab, dass Sie die App “Auf iOS übertragen” verwenden und sie transferieren, sobald Sie Ihr neues iPhone einrichten. Wenn Sie das vergessen, müssen Sie das Gerät zurücksetzen und von vorne beginnen. Glücklicherweise gibt es eine Alternative, die für meinen vorübergehenden Wechsel perfekt war. Ich fügte das iPhone 16 Pro einfach als “verknüpftes Gerät” hinzu (Sie können bis zu vier Geräte hinzufügen), sodass ich mein Android-Telefon als Hauptgerät behalten konnte. Für mich war das eine perfekte Lösung, denn es funktioniert auch, wenn das Hauptgerät ausgeschaltet ist. Allerdings müssen Sie sich mindestens einmal alle 14 Tage darauf anmelden. Mehr als bei jeder anderen App müssen Sie für Whatsapp also einen Plan haben, bevor Sie mit dem Wechsel beginnen. Was sind das für Tasten? Das hochwertige Design und die hervorragende Verarbeitungsqualität des iPhone 16 Pro haben mich nicht überrascht. Im Vergleich zum Pixel 9 Pro, das ich kurz zuvor getestet hatte, ist das 16 Pro bemerkenswert ähnlich. Beide Telefone haben 6,3-Zoll-Displays und wiegen 199 Gramm. Es dauerte jedoch nicht lange, bis ich einige wichtige Designunterschiede bemerkte. Vor allem die zusätzlichen Tasten an der Seite. Die meisten Android-Telefone haben nur eine Einschalttaste und eine Lautstärkewippe, aber das iPhone 16 Pro fügt zwei weitere hinzu, mit gemischten Ergebnissen. Nachdem ich mich an die Platzierung gewöhnt hatte, habe ich die Aktionstaste gerne benutzt. Sie war der perfekte Weg, um den Lautlos-Modus ein- und auszuschalten, kann aber auch zum Auslösen aller möglichen Funktionen verwendet werden, einschließlich des Öffnens einer beliebigen App. Das sollten sich Android-Telefone abschauen. Auf die Kamerasteuerungstaste würde ich allerdings lieber verzichten. Sie ist als Abkürzung für die wichtigsten Kamerafunktionen und als physische Auslösetaste gedacht, aber ich fand sie eher fummelig als funktional. Ich bin sicher, dass ich mich mit der Zeit daran gewöhnen würde, aber ich konnte keinen wirklichen Vorteil gegenüber dem Tippen auf das Display erkennen. Anyron Copeman / Foundry Die Position der Kamerasteuerungstaste verursacht ebenfalls Probleme. Bei Aufnahmen im Querformat ist sie zu weit oben auf dem Telefon, um leicht zugänglich zu sein, während sie im Hochformat praktisch nutzlos ist. Android-Nutzer, hier verpassen Sie wirklich nichts. Unglaubliche Videos Ist das iPhone wirklich das Beste, wenn es um Smartphone-Videos geht? Das iPhone 5 war für die Verhältnisse von 2012 beeindruckend, aber seitdem hat sich viel verändert. Die gute (oder schlechte, je nachdem, wie Sie es sehen) Nachricht ist, dass das iPhone immer noch die Nase vorn hat. Ich habe einige der besten Fotohandys getestet, darunter das Samsung Galaxy S25 und das Google Pixel 9 Pro XL. Aber keines kann es mit dem 16 Pro aufnehmen, wenn es um die Videoqualität geht. Die Aufnahmen des Hauptobjektivs sind atemberaubend und bieten die Art von gestochen scharfen Details, akkuraten Farben und fließenden Übergängen, die man normalerweise mit einer speziellen Kameraausrüstung verbindet. Anyron Copeman / Foundry Die meisten Android-Handys bieten zwar eine gute Videofunktion, aber wenn Sie Ihr Handy nicht nur für den gelegentlichen Gebrauch nutzen möchten, ist das iPhone immer noch die erste Wahl. Fantastische Gesichtserkennung In letzter Zeit haben einige Hersteller von Android-Telefonen endlich begonnen, mit Apples Face ID gleichzuziehen. Insbesondere die Pixel-Telefone von Google und die Honor Magic-Geräte ermöglichen es Ihnen, Ihr Gesicht zur Authentifizierung von Zahlungen und zur Anmeldung bei Banking-Apps zu verwenden. Aber Apple hat Face ID seit 2017 auf dem iPhone, und das merkt man. Auf dem 16 Pro ist es einfach ein bisschen schneller und zuverlässiger als alle Android-Konkurrenten. Es funktioniert bei praktisch allen Lichtverhältnissen und kann leicht so eingestellt werden, dass es sich entsperrt, während Sie eine Brille oder eine Maske tragen. Foundry Ein Fingerabdrucksensor unter dem Display wäre schön, aber die Tatsache, dass ich ihn überhaupt nicht vermisst habe, spricht Bände. Face ID ist eine weitere Sache, die Apple absolut perfekt hinbekommen hat. iMessage ist leider besser Bevor ich auf das 16 Pro umgestiegen bin, habe ich mich zunehmend über Apples wichtigste Messaging-App geärgert. Warum verwenden iPhone-Nutzer nicht einfach Whatsapp? Warum hat Apple so lange gebraucht, um die Android-SMS mit RCS zu verbessern? Und warum gibt es die blaue Blase/grüne Blase überhaupt? Dann habe ich angefangen, iMessage zu benutzen. iMessage (oder offiziell nur ‘Messages’, wie es auf dem iPhone heißt) ist zweifellos die beste Allround-Messaging-App auf jedem Telefon. Sie integriert SMS, MMS und iMessages in einer App und macht es ganz einfach, alles auf einen Blick zu sehen. Sie können es auch so einstellen, dass es alle Textbestätigungscodes automatisch löscht, sobald sie verwendet wurden. Und selbst wenn Sie keine Internetverbindung haben, können Sie immer noch mit dem gesamten Kontext der gleichen Konversation texten. Wenn Sie wieder online sind, wird alles automatisch gesichert und ist auf allen Ihren Apple-Geräten verfügbar. Apple Antworten auf Nachrichten werden besser gehandhabt als bei Whatsapp, denn es wird ein Thread erstellt, anstatt den Chat zu überladen. Sie können auch nahtlos zu einem FaceTime-Anruf übergehen, der in der Regel eine bessere Qualität als ein WhatsApp-Anruf bietet. Apples Bibliothek mit Reaktionen, Stickern und Animationen ist unübertroffen, und Links zu Video- und Audioinhalten werden direkt in der App abgespielt. In iMessage ist es diese Sammlung von kleinen Aufmerksamkeiten, die das Erlebnis noch ein bisschen besser machen. Ich hätte nie gedacht, dass ich das sagen würde, aber ich mag es vielleicht lieber als Whatsapp. Albtraum der Benachrichtigungen Mein größter Kritikpunkt am iPhone ist die Art und Weise, wie es mit Benachrichtigungen umgeht. Ich behaupte nicht, dass Android perfekt ist, wenn es um Benachrichtigungen geht, aber es ist iOS gefühlt Lichtjahre voraus. Aus irgendeinem Grund scheint Apple der Meinung zu sein, dass Benachrichtigungen permanent im Benachrichtigungscenter angezeigt werden sollten. Wenn Sie Ihr Telefon entsperren, verschwinden alle Benachrichtigungen vom Sperrbildschirm und erfordern eine halbe Wischbewegung nach oben, um sie aufzurufen. Das macht die Dinge nur unnötig kompliziert. Foundry Android macht den Prozess viel einfacher. Alle Ihre Benachrichtigungen werden durchgehend auf dem Sperrbildschirm angezeigt (wenn es zu viele sind, werden deren Symbole unten auf dem Bildschirm angezeigt), von wo aus Sie einfach auf eine tippen können, um sie zu öffnen oder wegzuwischen. Ich bin auch kein Fan von der Art und Weise, wie iOS Benachrichtigungen aus derselben App in “Stapeln” gruppiert. Sicher, das reduziert das Durcheinander, aber ich muss die Liste sowieso immer erweitern, um den Inhalt der Benachrichtigungen zu sehen. Bei Android liegt eine nützliche Vorschau direkt vor mir. Ich behaupte nicht, dass Android perfekt ist, wenn es um Benachrichtigungen geht, aber es fühlt sich um Lichtjahre besser an als iOS Nicht viel Kontrolle im Control Center Auch die Verwendung des iOS Control Centers war recht gewöhnungsbedürftig … und das nicht auf eine gute Art und Weise. Stellen Sie sich das Control Center wie das Schnelleinstellungsmenü von Android vor, nur schlimmer. Das Design ist kein Problem, ebenso wenig wie die Tatsache, dass Sie von der rechten oberen Ecke des Bildschirms nach unten wischen müssen (was Samsung jetzt kopiert hat). Stattdessen ist mein größtes Problem, dass das Antippen eines der Symbole nicht das tut, was Sie erwarten. Mindestens einmal am Tag möchte ich zum Beispiel das Wi-Fi ausschalten. In der Regel, wenn ich auf dem Weg nach draußen bin. Aber auf dem iPhone 16 Pro lässt sich das Wi-Fi durch Antippen des Symbols nicht vollständig deaktivieren. Anyron Copeman / Foundry Stattdessen erscheint die Meldung “Wi-Fi in der Nähe wird bis morgen getrennt”. Mit anderen Worten: das Wi-Fi wird am nächsten Tag automatisch wieder eingeschaltet. Das Gleiche gilt für Bluetooth. Traut Apple mir wirklich nicht zu, dass ich daran denke, Wi-Fi wieder zu aktivieren? Nennen Sie mich altmodisch, aber ich würde das gerne selbst steuern können, indem ich das ‘Control Center’ verwende. Schmerzhaft langes Aufladen Das ist kein Problem, das nur beim iPhone auftritt, aber es war ein ziemlicher Schock, als ich umstieg. Das iPhone 16 Pro ist ein Flaggschiff-Handy, das bei der Markteinführung mindestens 1199 Euro kostet, aber nur mit bis zu 25 W geladen werden kann. Wenn Sie schon einmal die Freuden einer echten Schnellladung erlebt haben, wissen Sie, wie frustrierend das ist. Selbst wenn Sie ein kompatibles Netzteil finden (es ist keines im Lieferumfang enthalten), dauert der Ladevorgang ewig. Anyron Copeman / Foundry Das magnetische Laden mit MagSafe ist cool, aber ich würde das sofort wieder aufgeben, wenn ich nur 45 W kabelgebundenes Laden hätte. Ich bin nur froh, dass ich das 16 Pro dank der langen Akkulaufzeit nicht so oft an die Steckdose anschließen muss. Mein Urteil über das iPhone 2025 Der Umstieg auf das iPhone 16 Pro brachte mehr Überraschungen mit sich, als ich erwartet hatte … im Guten wie im Schlechten. Obwohl sie sich ähnlicher sind als je zuvor, unterscheiden sich iOS und Android immer noch in einigen grundlegenden Punkten. Wenn Sie nicht mit beiden vertraut sind, ist der Umstieg in beiden Fällen mit einer erheblichen Lernkurve verbunden. Als jemand, der beruflich Telefone testet und hauptsächlich Google-Apps verwendet, ist Android für mich im Moment die bessere Wahl. Aber ich weiß einige der Möglichkeiten zu schätzen, mit denen Apple das iPhone zu einem so überzeugenden Gerät macht, insbesondere wenn Sie bereits andere Produkte des Unternehmens besitzen. Trotz des Vorwurfs mangelnder Innovation hat das iPhone in den 12 Jahren, die ich weg war, einen verdammt langen Weg zurückgelegt. Die neuesten Modelle sind zweifellos immer noch einige der besten Smartphones, die Sie kaufen können. (PC-Welt) 

Nach 12 Jahren Android nutze ich jetzt ein iPhone: Das habe ich dabei gelernt​ Anyron Copeman / Foundry

Wenn ich sage, dass ich für meinen Lebensunterhalt Telefone teste und rezensiere, dann meine ich eigentlich, dass ich für meinen Lebensunterhalt Android-Handys rezensiere. Das sollte keine große Überraschung sein, denn es kommen jedes Jahr dutzende neue Geräte auf den Markt.

Das soll nicht heißen, dass iPhones nicht wichtig sind, ganz im Gegenteil. Aber bei maximal fünf neuen Handys pro Jahr waren meine Chancen, als Junior-Redakteur eins zu testen, eher gering.

Das änderte sich, als ich letztes Jahr Redakteur für Mobilgeräte wurde. Plötzlich wurde es für mich zur Priorität, herauszufinden, was in der geheimnisvollen Welt der Apple-Smartphones vor sich geht. Das habe ich also getan.

Aber nachdem ich meine SIM-Karte in das iPhone 16 Pro eingelegt hatte (das erste iPhone, das ich seit dem iPhone 5 im Jahr 2012 als Haupthandy benutzte) war ich nicht darauf vorbereitet, wie anders es sein würde.

In den zwei Wochen, die ich mit dem Gerät verbracht habe, habe ich viel über Apple und seine Herangehensweise an Telefonhardware und -software gelernt. Wenn Sie ein Android-Liebhaber sind und den Umstieg in Erwägung ziehen, sollten Sie auch diese 8 Dinge beachten.

Whatsapp-Probleme

Von allen Apps und Daten, die ich zwischen Android und iOS verschieben wollte, bereitete mir Whatsapp die meisten Kopfschmerzen.

Ich bin es bereits gewohnt, meine Chats auf einem Telefon zu sichern und sie dann auf einem anderen neu zu registrieren und wiederherzustellen. Aber während Android Google Drive für Backups verwendet, verlässt sich das iPhone auf iCloud.

DenPhotos / Shutterstock.com

Bis 2022 gab es keine einfache Möglichkeit, Ihren Chatverlauf zu verschieben. Das hat sich inzwischen geändert, aber es hängt immer noch davon ab, dass Sie die App “Auf iOS übertragen” verwenden und sie transferieren, sobald Sie Ihr neues iPhone einrichten. Wenn Sie das vergessen, müssen Sie das Gerät zurücksetzen und von vorne beginnen.

Glücklicherweise gibt es eine Alternative, die für meinen vorübergehenden Wechsel perfekt war. Ich fügte das iPhone 16 Pro einfach als “verknüpftes Gerät” hinzu (Sie können bis zu vier Geräte hinzufügen), sodass ich mein Android-Telefon als Hauptgerät behalten konnte.

Für mich war das eine perfekte Lösung, denn es funktioniert auch, wenn das Hauptgerät ausgeschaltet ist. Allerdings müssen Sie sich mindestens einmal alle 14 Tage darauf anmelden.

Mehr als bei jeder anderen App müssen Sie für Whatsapp also einen Plan haben, bevor Sie mit dem Wechsel beginnen.

Was sind das für Tasten?

Das hochwertige Design und die hervorragende Verarbeitungsqualität des iPhone 16 Pro haben mich nicht überrascht. Im Vergleich zum Pixel 9 Pro, das ich kurz zuvor getestet hatte, ist das 16 Pro bemerkenswert ähnlich. Beide Telefone haben 6,3-Zoll-Displays und wiegen 199 Gramm.

Es dauerte jedoch nicht lange, bis ich einige wichtige Designunterschiede bemerkte. Vor allem die zusätzlichen Tasten an der Seite. Die meisten Android-Telefone haben nur eine Einschalttaste und eine Lautstärkewippe, aber das iPhone 16 Pro fügt zwei weitere hinzu, mit gemischten Ergebnissen.

Nachdem ich mich an die Platzierung gewöhnt hatte, habe ich die Aktionstaste gerne benutzt. Sie war der perfekte Weg, um den Lautlos-Modus ein- und auszuschalten, kann aber auch zum Auslösen aller möglichen Funktionen verwendet werden, einschließlich des Öffnens einer beliebigen App. Das sollten sich Android-Telefone abschauen.

Auf die Kamerasteuerungstaste würde ich allerdings lieber verzichten. Sie ist als Abkürzung für die wichtigsten Kamerafunktionen und als physische Auslösetaste gedacht, aber ich fand sie eher fummelig als funktional. Ich bin sicher, dass ich mich mit der Zeit daran gewöhnen würde, aber ich konnte keinen wirklichen Vorteil gegenüber dem Tippen auf das Display erkennen.

Anyron Copeman / Foundry

Die Position der Kamerasteuerungstaste verursacht ebenfalls Probleme. Bei Aufnahmen im Querformat ist sie zu weit oben auf dem Telefon, um leicht zugänglich zu sein, während sie im Hochformat praktisch nutzlos ist. Android-Nutzer, hier verpassen Sie wirklich nichts.

Unglaubliche Videos

Ist das iPhone wirklich das Beste, wenn es um Smartphone-Videos geht? Das iPhone 5 war für die Verhältnisse von 2012 beeindruckend, aber seitdem hat sich viel verändert.

Die gute (oder schlechte, je nachdem, wie Sie es sehen) Nachricht ist, dass das iPhone immer noch die Nase vorn hat. Ich habe einige der besten Fotohandys getestet, darunter das Samsung Galaxy S25 und das Google Pixel 9 Pro XL. Aber keines kann es mit dem 16 Pro aufnehmen, wenn es um die Videoqualität geht.

Die Aufnahmen des Hauptobjektivs sind atemberaubend und bieten die Art von gestochen scharfen Details, akkuraten Farben und fließenden Übergängen, die man normalerweise mit einer speziellen Kameraausrüstung verbindet.

Anyron Copeman / Foundry

Die meisten Android-Handys bieten zwar eine gute Videofunktion, aber wenn Sie Ihr Handy nicht nur für den gelegentlichen Gebrauch nutzen möchten, ist das iPhone immer noch die erste Wahl.

Fantastische Gesichtserkennung

In letzter Zeit haben einige Hersteller von Android-Telefonen endlich begonnen, mit Apples Face ID gleichzuziehen. Insbesondere die Pixel-Telefone von Google und die Honor Magic-Geräte ermöglichen es Ihnen, Ihr Gesicht zur Authentifizierung von Zahlungen und zur Anmeldung bei Banking-Apps zu verwenden.

Aber Apple hat Face ID seit 2017 auf dem iPhone, und das merkt man. Auf dem 16 Pro ist es einfach ein bisschen schneller und zuverlässiger als alle Android-Konkurrenten. Es funktioniert bei praktisch allen Lichtverhältnissen und kann leicht so eingestellt werden, dass es sich entsperrt, während Sie eine Brille oder eine Maske tragen.

Foundry

Ein Fingerabdrucksensor unter dem Display wäre schön, aber die Tatsache, dass ich ihn überhaupt nicht vermisst habe, spricht Bände. Face ID ist eine weitere Sache, die Apple absolut perfekt hinbekommen hat.

iMessage ist leider besser

Bevor ich auf das 16 Pro umgestiegen bin, habe ich mich zunehmend über Apples wichtigste Messaging-App geärgert. Warum verwenden iPhone-Nutzer nicht einfach Whatsapp? Warum hat Apple so lange gebraucht, um die Android-SMS mit RCS zu verbessern? Und warum gibt es die blaue Blase/grüne Blase überhaupt?

Dann habe ich angefangen, iMessage zu benutzen. iMessage (oder offiziell nur ‘Messages’, wie es auf dem iPhone heißt) ist zweifellos die beste Allround-Messaging-App auf jedem Telefon.

Sie integriert SMS, MMS und iMessages in einer App und macht es ganz einfach, alles auf einen Blick zu sehen. Sie können es auch so einstellen, dass es alle Textbestätigungscodes automatisch löscht, sobald sie verwendet wurden.

Und selbst wenn Sie keine Internetverbindung haben, können Sie immer noch mit dem gesamten Kontext der gleichen Konversation texten. Wenn Sie wieder online sind, wird alles automatisch gesichert und ist auf allen Ihren Apple-Geräten verfügbar.

Apple

Antworten auf Nachrichten werden besser gehandhabt als bei Whatsapp, denn es wird ein Thread erstellt, anstatt den Chat zu überladen. Sie können auch nahtlos zu einem FaceTime-Anruf übergehen, der in der Regel eine bessere Qualität als ein WhatsApp-Anruf bietet.

Apples Bibliothek mit Reaktionen, Stickern und Animationen ist unübertroffen, und Links zu Video- und Audioinhalten werden direkt in der App abgespielt.

In iMessage ist es diese Sammlung von kleinen Aufmerksamkeiten, die das Erlebnis noch ein bisschen besser machen. Ich hätte nie gedacht, dass ich das sagen würde, aber ich mag es vielleicht lieber als Whatsapp.

Albtraum der Benachrichtigungen

Mein größter Kritikpunkt am iPhone ist die Art und Weise, wie es mit Benachrichtigungen umgeht. Ich behaupte nicht, dass Android perfekt ist, wenn es um Benachrichtigungen geht, aber es ist iOS gefühlt Lichtjahre voraus.

Aus irgendeinem Grund scheint Apple der Meinung zu sein, dass Benachrichtigungen permanent im Benachrichtigungscenter angezeigt werden sollten. Wenn Sie Ihr Telefon entsperren, verschwinden alle Benachrichtigungen vom Sperrbildschirm und erfordern eine halbe Wischbewegung nach oben, um sie aufzurufen. Das macht die Dinge nur unnötig kompliziert.

Foundry

Android macht den Prozess viel einfacher. Alle Ihre Benachrichtigungen werden durchgehend auf dem Sperrbildschirm angezeigt (wenn es zu viele sind, werden deren Symbole unten auf dem Bildschirm angezeigt), von wo aus Sie einfach auf eine tippen können, um sie zu öffnen oder wegzuwischen.

Ich bin auch kein Fan von der Art und Weise, wie iOS Benachrichtigungen aus derselben App in “Stapeln” gruppiert. Sicher, das reduziert das Durcheinander, aber ich muss die Liste sowieso immer erweitern, um den Inhalt der Benachrichtigungen zu sehen. Bei Android liegt eine nützliche Vorschau direkt vor mir.

Ich behaupte nicht, dass Android perfekt ist, wenn es um Benachrichtigungen geht, aber es fühlt sich um Lichtjahre besser an als iOS

Nicht viel Kontrolle im Control Center

Auch die Verwendung des iOS Control Centers war recht gewöhnungsbedürftig … und das nicht auf eine gute Art und Weise. Stellen Sie sich das Control Center wie das Schnelleinstellungsmenü von Android vor, nur schlimmer.

Das Design ist kein Problem, ebenso wenig wie die Tatsache, dass Sie von der rechten oberen Ecke des Bildschirms nach unten wischen müssen (was Samsung jetzt kopiert hat). Stattdessen ist mein größtes Problem, dass das Antippen eines der Symbole nicht das tut, was Sie erwarten.

Mindestens einmal am Tag möchte ich zum Beispiel das Wi-Fi ausschalten. In der Regel, wenn ich auf dem Weg nach draußen bin. Aber auf dem iPhone 16 Pro lässt sich das Wi-Fi durch Antippen des Symbols nicht vollständig deaktivieren.

Anyron Copeman / Foundry

Stattdessen erscheint die Meldung “Wi-Fi in der Nähe wird bis morgen getrennt”. Mit anderen Worten: das Wi-Fi wird am nächsten Tag automatisch wieder eingeschaltet. Das Gleiche gilt für Bluetooth. Traut Apple mir wirklich nicht zu, dass ich daran denke, Wi-Fi wieder zu aktivieren? Nennen Sie mich altmodisch, aber ich würde das gerne selbst steuern können, indem ich das ‘Control Center’ verwende.

Schmerzhaft langes Aufladen

Das ist kein Problem, das nur beim iPhone auftritt, aber es war ein ziemlicher Schock, als ich umstieg. Das iPhone 16 Pro ist ein Flaggschiff-Handy, das bei der Markteinführung mindestens 1199 Euro kostet, aber nur mit bis zu 25 W geladen werden kann.

Wenn Sie schon einmal die Freuden einer echten Schnellladung erlebt haben, wissen Sie, wie frustrierend das ist. Selbst wenn Sie ein kompatibles Netzteil finden (es ist keines im Lieferumfang enthalten), dauert der Ladevorgang ewig.

Anyron Copeman / Foundry

Das magnetische Laden mit MagSafe ist cool, aber ich würde das sofort wieder aufgeben, wenn ich nur 45 W kabelgebundenes Laden hätte. Ich bin nur froh, dass ich das 16 Pro dank der langen Akkulaufzeit nicht so oft an die Steckdose anschließen muss.

Mein Urteil über das iPhone 2025

Der Umstieg auf das iPhone 16 Pro brachte mehr Überraschungen mit sich, als ich erwartet hatte … im Guten wie im Schlechten.

Obwohl sie sich ähnlicher sind als je zuvor, unterscheiden sich iOS und Android immer noch in einigen grundlegenden Punkten. Wenn Sie nicht mit beiden vertraut sind, ist der Umstieg in beiden Fällen mit einer erheblichen Lernkurve verbunden.

Als jemand, der beruflich Telefone testet und hauptsächlich Google-Apps verwendet, ist Android für mich im Moment die bessere Wahl. Aber ich weiß einige der Möglichkeiten zu schätzen, mit denen Apple das iPhone zu einem so überzeugenden Gerät macht, insbesondere wenn Sie bereits andere Produkte des Unternehmens besitzen.

Trotz des Vorwurfs mangelnder Innovation hat das iPhone in den 12 Jahren, die ich weg war, einen verdammt langen Weg zurückgelegt. Die neuesten Modelle sind zweifellos immer noch einige der besten Smartphones, die Sie kaufen können.

(PC-Welt)

Nach 12 Jahren Android nutze ich jetzt ein iPhone: Das habe ich dabei gelernt​ Weiterlesen »

Akkutausch: So klappt’s beim Smartphone und Notebook​

Allgemein

NONGASIMO / Shutterstock.com Bei einem aktuellen Smartphone hält der Akku trotz regelmäßiger Nutzung meist deutlich über einen Tag. Dies lässt jedoch von Jahr zu Jahr spürbar nach – bereits nach zwei Jahren muss das Gerät oftmals noch während des Tages an das Ladegerät. Ähnlich sieht es bei Notebooks aus: Hier sind zu Beginn bei leistungsstarken Akkus acht bis zehn Stunden Laufzeit keine Seltenheit. Dies reduziert sich aber bei intensiver Nutzung des Geräts schnell auf die Hälfte und weniger, abhängig von der Anzahl der Ladezyklen. Im schlimmsten Fall ist es dann an der Zeit, den Akku zu tauschen. Dazu müssen Sie jedoch zuerst herausfinden, ob sich der Akku überhaupt tauschen lässt, welcher Akku in Ihrem Gerät steckt und wie Sie Ersatz dafür finden. Smartphone und Notebook: Akkuangaben verstehen Ein Akkumulator – auch kurz Akku – ist ein wiederaufladbarer Speicher für elektrische Energie, zumeist auf der Basis eines elektrochemischen Systems. Das Prinzip ist bei sämtlichen Akkus gleich: Sie wandeln beim Aufladen elektrische Energie in chemische Energie um. Sobald der Akku dann zum Einsatz kommt, findet der umgekehrte Prozess statt, und aus der chemischen wird wieder elektrische Energie. Möchten Sie einen Notebook-Akku austauschen, hilft seine genaue Typenbezeichnung dabei, den richtigen Ersatzakku zu finden. Alternativ suchen Sie nach dem Notebook-Modell.IDG Bei PCs, Smartphones und Tablets kommt am häufigsten ein Lithium-Ionen- oder ein Lithium-Polymer-Akku zum Einsatz. Sie haben eine niedrige Selbstentladung von lediglich zwei bis acht Prozent pro Monat. Dazu ist der Temperaturbereich, in dem sich die Akkus einsetzen lassen, mit –20 Grad bis +60 Grad Celsius recht groß. Die zentralen Kennzahlen eines Akkus, die Hinweis auf die Leistungsfähigkeit geben, sind die Kapazität und die Entladespannung. Bei der Kapazität handelt es sich um die Ladungsmenge, die ein Akku speichern kann. Diese wird normalerweise in Milliamperestunden (mAh) oder Amperestunden (Ah) angegeben. Damit Sie die Leistungsfähigkeit des Akkus einschätzen können, ist als weitere Info die Entladespannung notwendig. Beispielsweise benötigen Smartphones in der Regel zwischen 3,7 und 4,4 Volt, ein Notebook meist 11 bis 15 Volt. Die Gesamtlaufzeit des Akkus lässt sich bei konstanter Leistungsaufnahme des Verbrauchers mit der folgenden Formel berechnen: (Nennkapazität Akku x Spannung Akku) / Leistungsaufnahme Verbraucher) * 60 Ein Notebook mit einer Leistungsaufnahme von 40 Watt und einem 7,2-Ah-Akku mit 11,1 Volt lässt sich damit also knapp 120 Minuten betreiben. In der Regel können aktuelle Notebooks allerdings durch diverse Stromsparmaßnahmen die Laufzeit verlängern. Alter Akku: Vor dem Tausch Infos lesen Wenn die Leistung eines Akkus nachlässt und Sie mit dem Gedanken spielen, diesen auszutauschen, kann es hilfreich sein, sich einige Informationen über den alten Akku zu beschaffen. Vor allem die bereits absolvierten Ladezyklen und die verbliebene Leistungsfähigkeit sind hier interessant, da Sie Auskunft über die Qualität des Stromspenders geben. Aber: Die Informationen lassen sich nicht bei allen Geräten auslesen. Deshalb können wir nicht garantieren, dass die vorgestellten Programme auch bei Ihnen funktionieren. Da die Tools jedoch kostenfrei sind, gehen Sie mit einem Versuch kein Risiko ein. Windows gibt Ihnen über einen Shell-Befehl verschiedene Infos zum verbauten Akku aus. So können Sie neben dem Hersteller und der Typenbezeichnung beispielsweise auch herausfinden, wie oft der Akku bereits geladen wurde.IDG Bei einem PC oder Notebook mit Windows 11 benötigen Sie nicht einmal ein Zusatzprogramm, um die Akkuinformationen zu ermitteln. Microsoft stellt Ihnen dazu die Funktion Battery Report zur Verfügung. Starten Sie hierfür mit der Tastenkombination Windows-X die „Windows PowerShell (Administrator)“, und geben Sie darin folgende Befehlszeile ein: powercfg /batteryreport /output “C:battery_report.html” Die Anwendung liest daraufhin die verfügbaren Daten des Akkus aus und speichert sie als HTML-Datei unter „C:WINDOWS system32battery_report.html“. Beim Öffnen mit dem Browser sehen Sie, welche Informationen verfügbar waren: Neben dem Hersteller sind dies unter anderem auch die Kapazität des Akkus sowie die Anzahl der Ladezyklen. Letzteres gibt allerdings nicht jeder Akku preis. Die kostenlose App aBattery gibt Ihnen unter anderem die Ladezyklen Ihres Android-Smartphones aus. Die Einrichtung ist zwar etwas umständlich. Anschließend stehen Ihnen aber einige wichtige Akkuinfos zur Verfügung.IDG Möchten Sie herausfinden, wie oft Sie Ihr Android-Smartphone bereits aufgeladen haben, empfiehlt sich die App aBattery – Battery Health. Sie benötigt eigentlich Root-Zugriff für die Anzeige aller Akkuangaben, allerdings können Sie dies mit der Installation einer weiteren App namens Shizuku umgehen. Um Shizuku mit aBattery zu verbinden, sind jedoch einige Schritte notwendig: Starten Sie zuerst Shizuku, und tippen Sie auf „Über Wireless-Debugging starten“ (ist ab Android 11 möglich) und „Kopplung“. Aktivieren Sie nun in den Entwickleroptionen Ihres Smartphones die Funktionen „USB Debugging“ und „Wireless Debugging“ per Schiebeschalter. Tippen Sie auf „Wireless Debugging“ und auf „Gerät über einen Kopplungscode koppeln“. Sie erhalten sofort einen Code sowie eine Kopplungsanfrage von Shizuku. Übertragen Sie den Code in das dafür vorgesehene Feld. Wechseln Sie dann zurück zu Shizuku und tippen Sie auf „Starten“. Sie erhalten eine Bestätigung und können nun aBattery starten. Nach einer kurzen Analyse haben Sie Zugriff auf alle Akkuangaben, inklusive der Ladezyklen. Smartphone: Akkutausch bei neuen Modellen oft knifflig Noch vor ein paar Jahren war es problemlos möglich, den Akku eines Smartphones selbst zu tauschen: Sie mussten dazu einfach die hintere Abdeckung abnehmen, um an das Akkufach zu kommen. Seit die Akkus spritzwassergeschützt oder teilweise sogar wasserdicht sind, geht dies nicht mehr. Heute ist es nur noch mit Spezialwerkzeug und handwerklichem Geschick möglich, den Akku Ihres Smartphones zu tauschen. Aber: Auf Youtube finden Sie zu fast jedem Gerät mehrere Videos, in denen der Austausch eines Akkus gezeigt wird. Auch bei einem Smartphone muss der Ersatzakku mit dem Gerät kompatibel sein. Neben der Kapazität, also der Ladungsmenge, muss der Stromspender auch die richtige Spannung liefern.IDG Und auch bei iFixit finden Sie eine Vielzahl von Reparaturanleitungen zu den gängigsten aktuellen, aber auch älteren Geräten. Interessant sind an dieser Stelle vor allem die Einschätzungen zum Schwierigkeitsgrad, zu den Kosten und der Reparaturzeit. Zusätzlich bekommen Sie eine Liste von Werkzeugen, die Sie für den Austausch des Akkus benötigen. Fehlt Ihnen davon eines, können Sie sie gleich über die Seite bestellen, ebenso den Ersatzakku. Aber auch bei Amazon finden sich komplette Austauschsets für gängige Smartphones, also inklusive Ersatzakku und dem zur Reparatur notwendigen Werkzeug. Dieses kostet etwa für das Samsung Galaxy S22 rund 30 Euro, für das neuere Samsung Galaxy S23 ist es sogar noch ein paar Euro günstiger. Haben Sie sich den Ersatzakku bereits auf anderem Wege beschafft, gibt es auch reine Werkzeugsets. Sie beginnen bei rund 10 Euro, das sehr gut bewertete „Essential Electronics Toolkit“ von iFixit kostet beispielsweise rund 30 Euro. iFixit ist wohl der Klassiker unter den Reparaturdiensten. Möchten Sie Ihrem Smartphone einen Ersatzakku spendieren, finden Sie auf der Seite diverse Anleitungen und können auch sämtliches Zubehör darüber bestellen.IDG Handyreparatur vom Spezialisten Wenn Sie noch nie zuvor einen Smartphoneakku selbst getauscht haben, sollten Sie sich immer der Risiken bewusst sein. Ein zu starker Druck, und die Rückseite des Gehäuses oder das Display bekommt einen Sprung – und das Smartphone wird zum wirtschaftlichen Totalschaden. Das Samsung Galaxy S20 wird beispielsweise als Gebrauchtgerät im Internet aktuell noch zwischen 100 und 180 Euro gehandelt. In einem solchen Fall kann man das Risiko eventuell eingehen. Bei einem Samsung Galaxy S22 mit einem Restwert ab 270 Euro sollten Sie die Reparatur eher einem Fachmann überlassen, also dem Reparaturservice um die Ecke oder einem Serviceanbieter im Internet. Die lokale Lösung finden Sie am besten über Google – ziehen Sie hier die Bewertungen für den jeweiligen Shop in Ihre Überlegungen mit ein. Die Kosten liegen meist auf einem ähnlichen Niveau wie bei der Selbstreparatur. IDG Empfehlenswerte Onlinereparaturdienste sind etwa www.myphonerepair.de, www.mcrepair.de oder handyreparatur123.de. Bei ihnen liegen beispielsweise die Preise für den Akkutausch des S22 zwischen 70 und 90 Euro inklusive Versandkosten. Ob das wirtschaftlich Sinn macht, müssen Sie natürlich dann selbst entscheiden. Sie erhalten auf die Reparatur zumindest von den Versandhändlern ein Jahr Garantie. Notebook: Ersatzakku per Spezialshops Auch hier ist die erste Frage im Zusammenhang mit einem neuen Akku: Lässt sich der Stromspender problemlos tauschen? Daran anschließend gibt es noch weitere Klärungspunkte, nämlich, ob es für das betreffende Gerät überhaupt noch einen Ersatzakku gibt, und falls ja, ob Sie den Tausch selbst vornehmen können. Bei vielen älteren Notebooks ist der Akku nicht fest verbaut und lässt sich sogar ohne Öffnen des Gehäuses wechseln. Dadurch kommen Sie auch direkt an die erste wichtige Information, nämlich die Typenbezeichnung. Über sie lassen sich bei Bedarf auch weitere Zusatzinformationen recherchieren, falls diese nicht auf dem Akku abgedruckt sind. Doch dazu später mehr. Vor allem können Sie jedoch nach der Typenbezeichnung im Internet suchen, um einen Ersatzakku aufzutreiben. Spezielle Akkushops wie Akku500.de (Bild) oder Akkushop.de sind eine optimale Anlaufstelle, wenn Sie einen neuen Akku für Ihr Notebook oder ein anderes Gerät suchen. Sie sollten jedoch genau wissen, welchen Akku Sie brauchen. Dazu gibt es Apps fürs Smartphone und Windows-Funktionen.IDG Für viele gängige Notebooks gibt es den Originalakku des Herstellers, aber auch (günstigere) Nachbauten von Drittanbietern. Diese sind in der Qualität jedoch oft sehr unterschiedlich, weswegen Sie hier die Bewertungen, falls vorhanden, genau lesen sollten. Falls Ihr Gerät einen fest verbauten Akku hat oder Sie die Typenbezeichnung Ihres Notebooks nicht genau kennen, nehmen Sie am besten den Umweg über die Windows-Systeminformationen. Diese rufen Sie über Ausführen (Windows-R) und die Eingabe msinfo32.exe auf. In der Übersicht sehen Sie unter „Systemmodell“ die Herstellernummer beziehungsweise die genaue Bezeichnung Ihres Notebooks und unter „System-SKU“ den Typennamen. Mit diesen Angaben suchen Sie nun in einem auf Akkus spezialisierten Onlineshop wie www.akku500.de oder www.akkushop.de Ihren Ersatzakku. Alternativ können Sie auch über den Hersteller und das Gerätemodell suchen. Fazit: Akkutausch oft sinnvoll Der Tausch eines Akkus lässt sich bei den meisten Smartphones und Notebooks problemlos bewerkstelligen. Geräte mit noch recht hohem Tageswert sollten Sie aber in jedem Fall von einem qualifizierten Betrieb reparieren lassen, da sonst das Risiko eines Totalschadens droht. Mit etwas handwerklichem Geschick lässt sich aber mit den nötigen Ersatzteilen und einer guten Anleitung aus dem Internet die Lebensdauer eines Geräts in jedem Fall um ein oder zwei Jahre verlängern. (PC-Welt) 

Akkutausch: So klappt’s beim Smartphone und Notebook​ NONGASIMO / Shutterstock.com

Bei einem aktuellen Smartphone hält der Akku trotz regelmäßiger Nutzung meist deutlich über einen Tag. Dies lässt jedoch von Jahr zu Jahr spürbar nach – bereits nach zwei Jahren muss das Gerät oftmals noch während des Tages an das Ladegerät.

Ähnlich sieht es bei Notebooks aus: Hier sind zu Beginn bei leistungsstarken Akkus acht bis zehn Stunden Laufzeit keine Seltenheit. Dies reduziert sich aber bei intensiver Nutzung des Geräts schnell auf die Hälfte und weniger, abhängig von der Anzahl der Ladezyklen.

Im schlimmsten Fall ist es dann an der Zeit, den Akku zu tauschen. Dazu müssen Sie jedoch zuerst herausfinden, ob sich der Akku überhaupt tauschen lässt, welcher Akku in Ihrem Gerät steckt und wie Sie Ersatz dafür finden.

Smartphone und Notebook: Akkuangaben verstehen

Ein Akkumulator – auch kurz Akku – ist ein wiederaufladbarer Speicher für elektrische Energie, zumeist auf der Basis eines elektrochemischen Systems.

Das Prinzip ist bei sämtlichen Akkus gleich: Sie wandeln beim Aufladen elektrische Energie in chemische Energie um. Sobald der Akku dann zum Einsatz kommt, findet der umgekehrte Prozess statt, und aus der chemischen wird wieder elektrische Energie.

Möchten Sie einen Notebook-Akku austauschen, hilft seine genaue Typenbezeichnung dabei, den richtigen Ersatzakku zu finden. Alternativ suchen Sie nach dem Notebook-Modell.IDG

Bei PCs, Smartphones und Tablets kommt am häufigsten ein Lithium-Ionen- oder ein Lithium-Polymer-Akku zum Einsatz. Sie haben eine niedrige Selbstentladung von lediglich zwei bis acht Prozent pro Monat. Dazu ist der Temperaturbereich, in dem sich die Akkus einsetzen lassen, mit –20 Grad bis +60 Grad Celsius recht groß.

Die zentralen Kennzahlen eines Akkus, die Hinweis auf die Leistungsfähigkeit geben, sind die Kapazität und die Entladespannung. Bei der Kapazität handelt es sich um die Ladungsmenge, die ein Akku speichern kann.

Diese wird normalerweise in Milliamperestunden (mAh) oder Amperestunden (Ah) angegeben. Damit Sie die Leistungsfähigkeit des Akkus einschätzen können, ist als weitere Info die Entladespannung notwendig.

Beispielsweise benötigen Smartphones in der Regel zwischen 3,7 und 4,4 Volt, ein Notebook meist 11 bis 15 Volt. Die Gesamtlaufzeit des Akkus lässt sich bei konstanter Leistungsaufnahme des Verbrauchers mit der folgenden Formel berechnen:

(Nennkapazität Akku x Spannung Akku) / Leistungsaufnahme Verbraucher) * 60

Ein Notebook mit einer Leistungsaufnahme von 40 Watt und einem 7,2-Ah-Akku mit 11,1 Volt lässt sich damit also knapp 120 Minuten betreiben. In der Regel können aktuelle Notebooks allerdings durch diverse Stromsparmaßnahmen die Laufzeit verlängern.

Alter Akku: Vor dem Tausch Infos lesen

Wenn die Leistung eines Akkus nachlässt und Sie mit dem Gedanken spielen, diesen auszutauschen, kann es hilfreich sein, sich einige Informationen über den alten Akku zu beschaffen.

Vor allem die bereits absolvierten Ladezyklen und die verbliebene Leistungsfähigkeit sind hier interessant, da Sie Auskunft über die Qualität des Stromspenders geben.

Aber: Die Informationen lassen sich nicht bei allen Geräten auslesen. Deshalb können wir nicht garantieren, dass die vorgestellten Programme auch bei Ihnen funktionieren. Da die Tools jedoch kostenfrei sind, gehen Sie mit einem Versuch kein Risiko ein.

Windows gibt Ihnen über einen Shell-Befehl verschiedene Infos zum verbauten Akku aus. So können Sie neben dem Hersteller und der Typenbezeichnung beispielsweise auch herausfinden, wie oft der Akku bereits geladen wurde.IDG

Bei einem PC oder Notebook mit Windows 11 benötigen Sie nicht einmal ein Zusatzprogramm, um die Akkuinformationen zu ermitteln.

Microsoft stellt Ihnen dazu die Funktion Battery Report zur Verfügung. Starten Sie hierfür mit der Tastenkombination Windows-X die „Windows PowerShell (Administrator)“, und geben Sie darin folgende Befehlszeile ein:

powercfg /batteryreport /output “C:battery_report.html”

Die Anwendung liest daraufhin die verfügbaren Daten des Akkus aus und speichert sie als HTML-Datei unter „C:WINDOWS system32battery_report.html“.

Beim Öffnen mit dem Browser sehen Sie, welche Informationen verfügbar waren: Neben dem Hersteller sind dies unter anderem auch die Kapazität des Akkus sowie die Anzahl der Ladezyklen. Letzteres gibt allerdings nicht jeder Akku preis.

Die kostenlose App aBattery gibt Ihnen unter anderem die Ladezyklen Ihres Android-Smartphones aus. Die Einrichtung ist zwar etwas umständlich. Anschließend stehen Ihnen aber einige wichtige Akkuinfos zur Verfügung.IDG

Möchten Sie herausfinden, wie oft Sie Ihr Android-Smartphone bereits aufgeladen haben, empfiehlt sich die App aBattery – Battery Health.

Sie benötigt eigentlich Root-Zugriff für die Anzeige aller Akkuangaben, allerdings können Sie dies mit der Installation einer weiteren App namens Shizuku umgehen.

Um Shizuku mit aBattery zu verbinden, sind jedoch einige Schritte notwendig: Starten Sie zuerst Shizuku, und tippen Sie auf „Über Wireless-Debugging starten“ (ist ab Android 11 möglich) und „Kopplung“.

Aktivieren Sie nun in den Entwickleroptionen Ihres Smartphones die Funktionen „USB Debugging“ und „Wireless Debugging“ per Schiebeschalter. Tippen Sie auf „Wireless Debugging“ und auf „Gerät über einen Kopplungscode koppeln“.

Sie erhalten sofort einen Code sowie eine Kopplungsanfrage von Shizuku. Übertragen Sie den Code in das dafür vorgesehene Feld. Wechseln Sie dann zurück zu Shizuku und tippen Sie auf „Starten“.

Sie erhalten eine Bestätigung und können nun aBattery starten. Nach einer kurzen Analyse haben Sie Zugriff auf alle Akkuangaben, inklusive der Ladezyklen.

Smartphone: Akkutausch bei neuen Modellen oft knifflig

Noch vor ein paar Jahren war es problemlos möglich, den Akku eines Smartphones selbst zu tauschen: Sie mussten dazu einfach die hintere Abdeckung abnehmen, um an das Akkufach zu kommen.

Seit die Akkus spritzwassergeschützt oder teilweise sogar wasserdicht sind, geht dies nicht mehr. Heute ist es nur noch mit Spezialwerkzeug und handwerklichem Geschick möglich, den Akku Ihres Smartphones zu tauschen.

Aber: Auf Youtube finden Sie zu fast jedem Gerät mehrere Videos, in denen der Austausch eines Akkus gezeigt wird.

Auch bei einem Smartphone muss der Ersatzakku mit dem Gerät kompatibel sein. Neben der Kapazität, also der Ladungsmenge, muss der Stromspender auch die richtige Spannung liefern.IDG

Und auch bei iFixit finden Sie eine Vielzahl von Reparaturanleitungen zu den gängigsten aktuellen, aber auch älteren Geräten. Interessant sind an dieser Stelle vor allem die Einschätzungen zum Schwierigkeitsgrad, zu den Kosten und der Reparaturzeit.

Zusätzlich bekommen Sie eine Liste von Werkzeugen, die Sie für den Austausch des Akkus benötigen. Fehlt Ihnen davon eines, können Sie sie gleich über die Seite bestellen, ebenso den Ersatzakku.

Aber auch bei Amazon finden sich komplette Austauschsets für gängige Smartphones, also inklusive Ersatzakku und dem zur Reparatur notwendigen Werkzeug.

Dieses kostet etwa für das Samsung Galaxy S22 rund 30 Euro, für das neuere Samsung Galaxy S23 ist es sogar noch ein paar Euro günstiger.

Haben Sie sich den Ersatzakku bereits auf anderem Wege beschafft, gibt es auch reine Werkzeugsets. Sie beginnen bei rund 10 Euro, das sehr gut bewertete „Essential Electronics Toolkit“ von iFixit kostet beispielsweise rund 30 Euro.

iFixit ist wohl der Klassiker unter den Reparaturdiensten. Möchten Sie Ihrem Smartphone einen Ersatzakku spendieren, finden Sie auf der Seite diverse Anleitungen und können auch sämtliches Zubehör darüber bestellen.IDG

Handyreparatur vom Spezialisten

Wenn Sie noch nie zuvor einen Smartphoneakku selbst getauscht haben, sollten Sie sich immer der Risiken bewusst sein. Ein zu starker Druck, und die Rückseite des Gehäuses oder das Display bekommt einen Sprung – und das Smartphone wird zum wirtschaftlichen Totalschaden.

Das Samsung Galaxy S20 wird beispielsweise als Gebrauchtgerät im Internet aktuell noch zwischen 100 und 180 Euro gehandelt.

In einem solchen Fall kann man das Risiko eventuell eingehen. Bei einem Samsung Galaxy S22 mit einem Restwert ab 270 Euro sollten Sie die Reparatur eher einem Fachmann überlassen, also dem Reparaturservice um die Ecke oder einem Serviceanbieter im Internet.

Die lokale Lösung finden Sie am besten über Google – ziehen Sie hier die Bewertungen für den jeweiligen Shop in Ihre Überlegungen mit ein. Die Kosten liegen meist auf einem ähnlichen Niveau wie bei der Selbstreparatur.

IDG

Empfehlenswerte Onlinereparaturdienste sind etwa www.myphonerepair.de, www.mcrepair.de oder handyreparatur123.de. Bei ihnen liegen beispielsweise die Preise für den Akkutausch des S22 zwischen 70 und 90 Euro inklusive Versandkosten.

Ob das wirtschaftlich Sinn macht, müssen Sie natürlich dann selbst entscheiden. Sie erhalten auf die Reparatur zumindest von den Versandhändlern ein Jahr Garantie.

Notebook: Ersatzakku per Spezialshops

Auch hier ist die erste Frage im Zusammenhang mit einem neuen Akku: Lässt sich der Stromspender problemlos tauschen?

Daran anschließend gibt es noch weitere Klärungspunkte, nämlich, ob es für das betreffende Gerät überhaupt noch einen Ersatzakku gibt, und falls ja, ob Sie den Tausch selbst vornehmen können.

Bei vielen älteren Notebooks ist der Akku nicht fest verbaut und lässt sich sogar ohne Öffnen des Gehäuses wechseln. Dadurch kommen Sie auch direkt an die erste wichtige Information, nämlich die Typenbezeichnung.

Über sie lassen sich bei Bedarf auch weitere Zusatzinformationen recherchieren, falls diese nicht auf dem Akku abgedruckt sind. Doch dazu später mehr. Vor allem können Sie jedoch nach der Typenbezeichnung im Internet suchen, um einen Ersatzakku aufzutreiben.

Spezielle Akkushops wie Akku500.de (Bild) oder Akkushop.de sind eine optimale Anlaufstelle, wenn Sie einen neuen Akku für Ihr Notebook oder ein anderes Gerät suchen. Sie sollten jedoch genau wissen, welchen Akku Sie brauchen. Dazu gibt es Apps fürs Smartphone und Windows-Funktionen.IDG

Für viele gängige Notebooks gibt es den Originalakku des Herstellers, aber auch (günstigere) Nachbauten von Drittanbietern. Diese sind in der Qualität jedoch oft sehr unterschiedlich, weswegen Sie hier die Bewertungen, falls vorhanden, genau lesen sollten.

Falls Ihr Gerät einen fest verbauten Akku hat oder Sie die Typenbezeichnung Ihres Notebooks nicht genau kennen, nehmen Sie am besten den Umweg über die Windows-Systeminformationen. Diese rufen Sie über Ausführen (Windows-R) und die Eingabe msinfo32.exe auf.

In der Übersicht sehen Sie unter „Systemmodell“ die Herstellernummer beziehungsweise die genaue Bezeichnung Ihres Notebooks und unter „System-SKU“ den Typennamen.

Mit diesen Angaben suchen Sie nun in einem auf Akkus spezialisierten Onlineshop wie www.akku500.de oder www.akkushop.de Ihren Ersatzakku.

Alternativ können Sie auch über den Hersteller und das Gerätemodell suchen.

Fazit: Akkutausch oft sinnvoll

Der Tausch eines Akkus lässt sich bei den meisten Smartphones und Notebooks problemlos bewerkstelligen. Geräte mit noch recht hohem Tageswert sollten Sie aber in jedem Fall von einem qualifizierten Betrieb reparieren lassen, da sonst das Risiko eines Totalschadens droht.

Mit etwas handwerklichem Geschick lässt sich aber mit den nötigen Ersatzteilen und einer guten Anleitung aus dem Internet die Lebensdauer eines Geräts in jedem Fall um ein oder zwei Jahre verlängern.

(PC-Welt)

Akkutausch: So klappt’s beim Smartphone und Notebook​ Weiterlesen »

USB-Stick vor dem Aus? Diese Alternativen gibt es​

Allgemein

CameraCraft Wann haben Sie zuletzt einen USB-Stick benutzt? Ich selbst musste kurz überlegen – und ehrlich gesagt, ich weiß es nicht mehr genau. Dabei war der USB-Stick jahrelang das Mittel der Wahl, wenn es um schnellen und unkomplizierten Datentransfer ging. Was ist der Grund, dass diese praktischen Speicherhelfer heute kaum noch eine Rolle spielen, und stehen sie womöglich sogar kurz vor dem Aus? Ein Blick auf die aktuellen Entwicklungen gibt Aufschluss. Warum USB-Sticks nicht mehr zeitgemäß sind So kompakt und handlich sie auch sind: USB-Sticks haben in den letzten Jahren deutlich an Relevanz verloren. Einer der Hauptgründe ist ihre vergleichsweise geringe Speicherkapazität. Viele handelsübliche Modelle enden bei 256 oder 512 GB, wodurch sich große Datenmengen wie 4K-Videos, komplette Fotoarchive oder System-Backups nur eingeschränkt transportieren lassen. Zwar gibt es vereinzelt auch High-End-Sticks mit bis zu 2 Terabyte Speicher, doch für solche Kapazitäten greifen viele lieber direkt zur SSD. Der Grund: SSDs verwenden in der Regel leistungsfähigere Flash-Chips, die für höhere Datentransferraten und eine längere Lebensdauer sorgen. Ein weiteres Problem: Der klassische USB-A-Anschluss passt kaum noch zu modernen Geräten. Die meisten Laptops und Tablets setzen auf USB-C, Smartphones sowieso. Apple spielt sogar mit dem Gedanken, komplett auf physische Anschlüsse zu verzichten und nur noch drahtlose Übertragung zu nutzen. Zwar gibt es mittlerweile sogenannte Dual-Sticks mit USB-A- und USB-C-Anschluss, doch in der Praxis handelt es sich dabei oft um einen Kompromiss. Viele dieser Modelle setzen auf einfache Controller und günstigere Flashspeicher, was sich in deutlich langsameren Übertragungsraten bemerkbar macht – insbesondere beim Schreiben großer Dateien. Moderne Alternativen zum USB-Stick Externe Festplatten: Viel Speicher für wenig Geld Externe Festplatten, zum Beispiel SSDs, sind robust und leistungsstark – mit deutlich mehr Speicherplatz als der durchschnittliche USB-Stick.SanDisk Externe Festplatten – ob als klassische HDD oder schnelle SSD – gehören zu den beliebtesten Alternativen zum USB-Stick. Sie bieten deutlich mehr Speicher (bis zu 4 TB und mehr) und vor allem SSDs überzeugen mit hoher Übertragungsgeschwindigkeit über USB-C oder Thunderbolt. Während HDDs günstig viel Platz bieten, sind SSDs die bessere Wahl für große Datenmengen, da sie schneller, robuster und in höheren Speicherklassen kaum teurer sind als vergleichbare USB-Sticks. Wie sich die Festplatten konkret voneinander unterscheiden, das erklärt Ihnen unser Ratgeber “HDD, SSD, M2, NVME etc. – Darauf kommt es bei Datenträgern an“. Außerdem finden Sie hier die wichtigsten SSD-Tipps, die jeder kennen sollte. Vorteile: Deutlich mehr Speicherplatz als USB-Sticks Stoßfest und langlebig, qualitativere Flash-Chips Für Backups oder große Datenmengen ideal Nachteile: Größer und schwerer als ein USB-Stick Teilweise teurer, besonders bei SSD-Modellen SD-Karten: Klein, schnell – aber nicht universell Mit SD-Speicherkarten lässt sich zum Beispiel der Handyspeicher erweitern.SanDisk Auch SD-Karten (oder microSDs mit Adapter) sind eine kompakte Alternative zum USB-Stick. Besonders bei Kameras, Drohnen oder mobilen Geräten sind sie Standard. In Kombination mit einem USB-C-Kartenleser lassen sich SD-Karten sogar als Mini-Speicherlaufwerk für Notebooks nutzen. Der Vorteil gegenüber klassischen USB-Sticks: SD-Karten sind in vielen Bereichen flexibler einsetzbar, oft günstiger pro Gigabyte und erreichen – je nach Klasse und Modell – ebenfalls hohe Übertragungsgeschwindigkeiten. Außerdem lassen sie sich leicht wechseln oder dauerhaft in Geräten integrieren, etwa in Kameras oder Laptops mit Kartenleser. Wer also ohnehin mit Speicherkarten arbeitet, kann sie problemlos als mobilen Datenträger nutzen (und spart sich den zusätzlichen Stick). Vorteile: Extrem klein und leicht Gute Geschwindigkeiten bei modernen UHS-II-Karten In vielen Geräten direkt nutzbar Nachteile: Anfällig für Verlust oder Beschädigung Für den Einsatz am PC meist ein Kartenleser nötig Cloud-Dienste: Speicherplatz immer dabei Die wohl modernste Alternative zum USB-Stick ist die Cloud. Dienste wie Google Drive, Dropbox, iCloud oder Onedrive bieten Speicherplatz im Internet, auf den Sie von jedem Gerät aus zugreifen können – ohne physischen Datenträger. Vorteile: Zugriff von überall mit Internetverbindung Ideal für Zusammenarbeit und geteilte Dateien Automatische Synchronisierung möglich Nachteile: Abhängig von einer stabilen Internetverbindung Begrenzter Gratisspeicher, danach kostenpflichtiges Abo Datenschutz und Verschlüsselung sind wichtige Themen Fazit: USB-Stick nur noch für Spezialfälle? Der USB-Stick hat seinen Platz noch nicht ganz verloren – für einfache Datenübertragungen, Firmware-Updates oder als Boot-Stick ist er nämlich durchaus gebräuchlich und ideal geeignet. Doch als Alltagslösung ist er längst überholt. Die Kombination aus begrenztem Speicher, sinkender Kompatibilität und wachsenden Anforderungen macht ihn zum Auslaufmodell. Moderne Alternativen wie SSDs, SD-Karten oder Cloud-Dienste bieten mehr Leistung, mehr Flexibilität und in vielen Fällen auch ein besseres Preis-Leistungs-Verhältnis. (PC-Welt) 

USB-Stick vor dem Aus? Diese Alternativen gibt es​ CameraCraft

Wann haben Sie zuletzt einen USB-Stick benutzt? Ich selbst musste kurz überlegen – und ehrlich gesagt, ich weiß es nicht mehr genau. Dabei war der USB-Stick jahrelang das Mittel der Wahl, wenn es um schnellen und unkomplizierten Datentransfer ging. Was ist der Grund, dass diese praktischen Speicherhelfer heute kaum noch eine Rolle spielen, und stehen sie womöglich sogar kurz vor dem Aus? Ein Blick auf die aktuellen Entwicklungen gibt Aufschluss.

Warum USB-Sticks nicht mehr zeitgemäß sind

So kompakt und handlich sie auch sind: USB-Sticks haben in den letzten Jahren deutlich an Relevanz verloren. Einer der Hauptgründe ist ihre vergleichsweise geringe Speicherkapazität. Viele handelsübliche Modelle enden bei 256 oder 512 GB, wodurch sich große Datenmengen wie 4K-Videos, komplette Fotoarchive oder System-Backups nur eingeschränkt transportieren lassen.

Zwar gibt es vereinzelt auch High-End-Sticks mit bis zu 2 Terabyte Speicher, doch für solche Kapazitäten greifen viele lieber direkt zur SSD. Der Grund: SSDs verwenden in der Regel leistungsfähigere Flash-Chips, die für höhere Datentransferraten und eine längere Lebensdauer sorgen.

Ein weiteres Problem: Der klassische USB-A-Anschluss passt kaum noch zu modernen Geräten. Die meisten Laptops und Tablets setzen auf USB-C, Smartphones sowieso. Apple spielt sogar mit dem Gedanken, komplett auf physische Anschlüsse zu verzichten und nur noch drahtlose Übertragung zu nutzen.

Zwar gibt es mittlerweile sogenannte Dual-Sticks mit USB-A- und USB-C-Anschluss, doch in der Praxis handelt es sich dabei oft um einen Kompromiss. Viele dieser Modelle setzen auf einfache Controller und günstigere Flashspeicher, was sich in deutlich langsameren Übertragungsraten bemerkbar macht – insbesondere beim Schreiben großer Dateien.

Moderne Alternativen zum USB-Stick

Externe Festplatten: Viel Speicher für wenig Geld

Externe Festplatten, zum Beispiel SSDs, sind robust und leistungsstark – mit deutlich mehr Speicherplatz als der durchschnittliche USB-Stick.SanDisk

Externe Festplatten – ob als klassische HDD oder schnelle SSD – gehören zu den beliebtesten Alternativen zum USB-Stick. Sie bieten deutlich mehr Speicher (bis zu 4 TB und mehr) und vor allem SSDs überzeugen mit hoher Übertragungsgeschwindigkeit über USB-C oder Thunderbolt. Während HDDs günstig viel Platz bieten, sind SSDs die bessere Wahl für große Datenmengen, da sie schneller, robuster und in höheren Speicherklassen kaum teurer sind als vergleichbare USB-Sticks.

Wie sich die Festplatten konkret voneinander unterscheiden, das erklärt Ihnen unser Ratgeber “HDD, SSD, M2, NVME etc. – Darauf kommt es bei Datenträgern an“. Außerdem finden Sie hier die wichtigsten SSD-Tipps, die jeder kennen sollte.

Vorteile:

Deutlich mehr Speicherplatz als USB-Sticks

Stoßfest und langlebig, qualitativere Flash-Chips

Für Backups oder große Datenmengen ideal

Nachteile:

Größer und schwerer als ein USB-Stick

Teilweise teurer, besonders bei SSD-Modellen

SD-Karten: Klein, schnell – aber nicht universell

Mit SD-Speicherkarten lässt sich zum Beispiel der Handyspeicher erweitern.SanDisk

Auch SD-Karten (oder microSDs mit Adapter) sind eine kompakte Alternative zum USB-Stick. Besonders bei Kameras, Drohnen oder mobilen Geräten sind sie Standard. In Kombination mit einem USB-C-Kartenleser lassen sich SD-Karten sogar als Mini-Speicherlaufwerk für Notebooks nutzen.

Der Vorteil gegenüber klassischen USB-Sticks: SD-Karten sind in vielen Bereichen flexibler einsetzbar, oft günstiger pro Gigabyte und erreichen – je nach Klasse und Modell – ebenfalls hohe Übertragungsgeschwindigkeiten. Außerdem lassen sie sich leicht wechseln oder dauerhaft in Geräten integrieren, etwa in Kameras oder Laptops mit Kartenleser. Wer also ohnehin mit Speicherkarten arbeitet, kann sie problemlos als mobilen Datenträger nutzen (und spart sich den zusätzlichen Stick).

Vorteile:

Extrem klein und leicht

Gute Geschwindigkeiten bei modernen UHS-II-Karten

In vielen Geräten direkt nutzbar

Nachteile:

Anfällig für Verlust oder Beschädigung

Für den Einsatz am PC meist ein Kartenleser nötig

Cloud-Dienste: Speicherplatz immer dabei

Die wohl modernste Alternative zum USB-Stick ist die Cloud. Dienste wie Google Drive, Dropbox, iCloud oder Onedrive bieten Speicherplatz im Internet, auf den Sie von jedem Gerät aus zugreifen können – ohne physischen Datenträger.

Vorteile:

Zugriff von überall mit Internetverbindung

Ideal für Zusammenarbeit und geteilte Dateien

Automatische Synchronisierung möglich

Nachteile:

Abhängig von einer stabilen Internetverbindung

Begrenzter Gratisspeicher, danach kostenpflichtiges Abo

Datenschutz und Verschlüsselung sind wichtige Themen

Fazit: USB-Stick nur noch für Spezialfälle?

Der USB-Stick hat seinen Platz noch nicht ganz verloren – für einfache Datenübertragungen, Firmware-Updates oder als Boot-Stick ist er nämlich durchaus gebräuchlich und ideal geeignet. Doch als Alltagslösung ist er längst überholt. Die Kombination aus begrenztem Speicher, sinkender Kompatibilität und wachsenden Anforderungen macht ihn zum Auslaufmodell. Moderne Alternativen wie SSDs, SD-Karten oder Cloud-Dienste bieten mehr Leistung, mehr Flexibilität und in vielen Fällen auch ein besseres Preis-Leistungs-Verhältnis.

(PC-Welt)

USB-Stick vor dem Aus? Diese Alternativen gibt es​ Weiterlesen »

Samsung Galaxy A16 im Test: Budget-Smartphone mit toller Akkulaufzeit​

Allgemein

Connor Jewiss / Foundry Auf einen Blick Pro Ausgezeichnete Akkulaufzeit Wasserdicht nach IP54 6 Jahre Software-Unterstützung Kontra Mittelmäßige Leistung Schwache Kameras Begrenzter Arbeitsspeicher beim 128-GB-Modell Fazit Das Samsung Galaxy A16 ist ein gut verarbeitetes, preisgünstiges Handy mit einem fantastischen Display, langer Akkulaufzeit und zukunftssicherer Softwareunterstützung. Es ist jedoch nicht sehr leistungsstark, hat nur mittelmäßige Kameras und lässt wichtige Funktionen wie Stereolautsprecher und 4K-Videoaufzeichnungen vermissen. Für diejenigen, die ein langlebiges Gerät mit jahrelangen Updates suchen, ist es eine gute Wahl. Wer jedoch zum gleichen Preis mehr Leistung und Ausstattung erwartet, sollte sich nach anderen Modellen umsehen. Das Samsung Galaxy A16 ist ein kleines Upgrade gegenüber dem A15 vom letzten Jahr. Es bietet ein größeres 6,7-Zoll-AMOLED-Display, grundlegende Wasser- und Staubresistenz nach IP54 und eine solide Akkulaufzeit. Trotz dieser kleinen Verbesserungen bleibt die Hardware jedoch weitgehend unverändert. Es läuft immer noch mit dem MediaTek Helio G99 Chipsatz, der im Vergleich zu neueren Budget-Prozessoren schwächelt. Die Kameras bleiben einfach, mit einem schwachen 5-Megapixel-Ultraweitwinkelsensor und einem unnötigen 2-Megapixel-Makrosensor. Das Fehlen von Stereolautsprechern, 4K-Videoaufnahmen und einer Videostabilisierung benachteiligt es gegenüber Konkurrenten wie dem Redmi Note 13, dem Poco X6 und sogar dem etwas besser ausgestatteten Galaxy A16 5G von Samsung, die zu den aktuell besten Budget-Handys gehören. Letztlich bietet das A16 zwar ein ausgefeiltes Software-Erlebnis und eine großartige Akkulaufzeit, aber es fühlt sich an wie ein Smartphone aus dem letzten Jahr, das nicht mit der Konkurrenz mithalten kann. Design & Verarbeitung Größerer Formfaktor, mit IP54-zertifiziertem Spritzwasserschutz Kunststoffrückseite fühlt sich robust an und ist unempfindlich gegen Fingerabdrücke Keine Stereolautsprecher Keine hochwertigen Materialien Samsung hat das Design im Vergleich zum Galaxy A15 nicht grundlegend verändert. Das Galaxy A16 ist durch den größeren 6,7-Zoll-Bildschirm jedoch etwas größer. Die matte Kunststoffrückseite fühlt sich gut an und ist besser gegen Fingerabdrücke geschützt als glänzende Oberflächen. Besonders gut hat mir die Farbe “Light Green” gefallen, in der mein Gerät geliefert wurde. Es sieht fast wie Minze aus und schimmert leicht. Es steht außerdem eine dunkelblaue und eine graue Farboption zur Auswahl. Connor Jewiss / Foundry Das A16 behält Samsungs charakteristisches schwebendes Kameradesign bei, bei dem die drei rückwärtigen Linsen vertikal gestapelt sind. Der Rahmen ist flach und minimalistisch, die Power- und Lautstärke-Tasten sind erhöht. Ich mag diese Design-Entscheidung nicht besonders. Es gibt keinen wirklichen funktionalen Grund dafür, und es sieht auch nicht gut aus. Connor Jewiss / Foundry Die größte Neuerung ist der Spritzwasserschutz nach IP54. Das Smartphone hält also leichtem Regen stand und ist gegen das Eindringen von Staub geschützt. Das bedeutet jedoch nicht, dass es wasserdicht ist – erwarten Sie also nicht, dass es ein Eintauchen ins Wasser überlebt. Die matte Kunststoffrückseite fühlt sich gut an und widersteht Fingerabdrücken besser als glänzende Oberflächen. Mit 200 Gramm ist das Handy ziemlich schwer. Die Gewichtsverteilung ist gut ausbalanciert, sodass Sie es auch über längere Zeit bequem halten können. Allerdings gibt es keine Stereolautsprecher – ein großes Manko im Jahr 2025. Smartphones wie das Redmi Note 13 und das Poco X6 bieten zwei Lautsprecher und eignen sich daher besser für den Medienkonsum. Bildschirm & Sound 6,7-Zoll-Super-AMOLED-Display liefert leuchtende Farben und tiefe Schwarztöne 800 Nits Spitzenhelligkeit sorgt für gute Sichtbarkeit im Freien Keine HDR-Unterstützung und nur ein einziger, nach unten gerichteter Lautsprecher Das Display des A16 ist nach der hervorragenden Akkulaufzeit seine zweitstärkste Eigenschaft. Der 6,7 Zoll große Super AMOLED-Bildschirm bietet eine großartige Farbwiedergabe, tiefe Schwarztöne und einen exzellenten Kontrast. Mit einer Full-HD-Auflösung (1.080 × 2.340 Pixel) ist das Display knackig und scharf – perfekt für Streaming, Spiele und zum Lesen. Connor Jewiss / Foundry Die Bildwiederholfrequenz von 90 Hertz sorgt für einen flüssigen Bildlauf, aber im Gegensatz zu einigen Konkurrenten ist sie nicht adaptiv. Damit kann sich die Bildwiederholfrequenz nicht dynamisch an die jeweiligen Inhalte anpassen, was sich negativ auf die Akkulaufzeit auswirkt. Die Helligkeit ist für ein Budget-Handy beeindruckend. Mit einer gemessenen Spitzenhelligkeit von 808 Nits ist das Display auch im Freien und bei hellem Sonnenlicht noch gut zu erkennen. Allerdings fehlt HDR-Unterstützung. Das Display des A16 ist nach der hervorragenden Akkulaufzeit sein zweitstärkstes Merkmal. Das größte Manko ist der Sound. Mit nur einem einzigen Lautsprecher an der Unterseite fehlt es dem Klang an Tiefe, Bass und Stereotrennung. Im Gegensatz dazu bieten die ähnlich teuren Konkurrenten von Xiaomi und Poco zwei Lautsprecher und eignen sich daher besser für Videos und für Spiele. Spezifikationen & Leistung Die Chipsätze sind energieeffizient und bewältigen grundlegende Aufgaben gut, sind aber veraltet Erweiterbarer Speicher über microSD-Karte Langsamer als vergleichbar teure Handys wie das Poco X6 Samsung hat mit dem Galaxy A16 einen ungewöhnlichen Ansatz gewählt und das Smartphone je nach Region mit zwei verschiedenen Chipsätzen ausgestattet. Einige Modelle laufen mit dem MediaTek Helio G99 ausgestattet, andere mit dem Samsung-eigenen Exynos 1280. Obwohl es sich bei beiden um Mittelklasse-Prozessoren handelt, variiert ihre Leistung im realen Einsatz erheblich. In Deutschland kommt der Exynos 1280 zum Einsatz. Insgesamt ist die Leistung des Galaxy A16 im Jahr 2025 nicht überzeugend, insbesondere im Vergleich zu ähnlich teuren Konkurrenten. Der Helio G99 ist ein 6-Nanometer-Chip mit einer Octa-Core-CPU (2x Cortex-A76 bei 2,2 Gigahertz und 6x Cortex-A55 bei 2 Gigahertz), gepaart mit einer Mali-G57 MC2 GPU. Für alltägliche Aufgaben wie Messaging, Webbrowsing und soziale Medien ist er gut geeignet, aber bei intensivem Multitasking hat er Probleme. Der Exynos 1280 ist ein 5-Nanometer-Prozessor mit einem energieeffizienteren Design und einer etwas stärkeren Mali-G68 MP4 GPU, die ihm einen leichten Vorteil bei der Grafikleistung und der Akkulaufzeit verschafft. In Benchmarks schneidet der Exynos 1280 bei CPU-lastigen Aufgaben durchweg besser ab als der Helio G99, bleibt aber immer noch hinter modernen Mittelklasse-Prozessoren wie dem Snapdragon 7s Gen 2 zurück. Die Mali-G68 GPU übertrifft die Mali-G57 MC2 und bietet in einigen Fällen flüssigeres Gameplay. Beide Chipsätze sind jedoch nicht ideal für Spiele geeignet, da es bei anspruchsvollen Titeln häufig zu Framerate-Einbrüchen kommt. Arbeitsspeicher und Speicherplatz schränken das Potenzial des Smartphones weiter ein. Das Basismodell wird mit 4 Gigabyte RAM und 128 Gigabyte UFS 2.2-Speicher ausgeliefert, der sich im Vergleich zum UFS 3.1-Speicher einiger Konkurrenten träge anfühlt. Die Version mit 256 Gigabyte internem Speicher bietet 8 Gigabyte RAM. Das hilft beim Multitasking. Samsungs RAM-Plus-Funktion (virtueller Arbeitsspeicher) trägt kaum zur Verbesserung der Leistung bei. Connor Jewiss / Foundry Insgesamt ist die Leistung des Galaxy A16 im Jahr 2025 nicht überzeugend, besonders im Vergleich zu ähnlich teuren Konkurrenten wie dem Redmi Note 13 oder dem Poco X6. Beide laufen mit neueren und leistungsfähigeren Chipsätzen. Mit einem Geekbench 6 Multi-Core-Ergebnis von 1.920 liegt das Gerät weit hinter dem Poco X6, das den Snapdragon 7s Gen Chip verwendet und ein Multi-Core-Ergebnis von 3.480 liefert. Das Galaxy A16 schneidet sogar rund 100 Punkte schlechter ab als sein 5G-Pendant. Im Alltag ist die Leistung für Aufgaben wie Webbrowsing, soziale Medien und Streaming in der Regel in Ordnung. Bei anspruchsvolleren Apps werden Sie aber eine Verlangsamung feststellen. Es gab einige Szenarien, bei denen sich die grundlegenden Aufgaben langsam anfühlten. Spiele sind auf niedrige bis mittlere Einstellungen beschränkt, und das Smartphone hat Probleme mit anspruchsvollem Multitasking. Sogar bei einem relativ zahmen Titel wie “Plants vs. Zombies” wurde das Handy langsam und heiß. Die Exynos 1280-Variante ist zwar geringfügig besser, aber auch diese Version kann nicht wirklich überzeugen. 4 Gigabyte RAM sind zwar okay, aber die 8-Gigabyte-RAM-Version ist die bessere Wahl für Langlebigkeit. Der Speicher kann per microSD-Karte erweitert werden, was ein willkommenes Feature ist. Samsung Galaxy A16 Benchmarks Akkulaufzeit & Aufladen 5.000-mAh-Akku mit zwei Tagen Laufzeit Langsames 25-Watt-Laden Kein drahtloses oder umgekehrtes Laden Samsung liefert weiterhin hervorragende Akkulaufzeiten für seine Budget-Handys. Das Galaxy A16 bildet da keine Ausnahme. Sein 5.000-Milliamperestunden-Akku, kombiniert mit einem energieeffizienten Chipsatz, ermöglicht eine Nutzung von mindestens zwei vollen Tagen mit einer einzigen Aufladung. Bei leichter bis mittlerer Nutzung (soziale Medien, Messaging und Videostreaming) ist es möglich, die Akkulaufzeit auf über 48 Stunden zu verlängern. Selbst bei intensiver Nutzung, einschließlich Spielen und GPS-Navigation, hält das Smartphone bequem einen ganzen Tag durch. Connor Jewiss / Foundry Die Exynos 1280-Variante ist dank ihrer 5-Nanometer-Architektur etwas energieeffizienter als die Helio G99-Version. Deutsche Nutzer bekommen also eine längere Akkulaufzeit als Nutzer in anderen Regionen. Der Unterschied ist jedoch nicht groß, und beide Versionen des A16 4G bieten eine der besten Ausdauerleistungen in dieser Preisklasse. Das Ladeerlebnis ist weniger beeindruckend. Samsung unterstützt das kabelgebundene Laden mit 25 Watt, aber es ist kein Ladegerät im Lieferumfang enthalten. Mit Samsungs offiziellem 25-Watt-Ladegerät erreicht das Handy in 30 Minuten etwa 50 Prozent und benötigt etwa 80 Minuten für eine vollständige Ladung. Das ist nicht langsam, aber es liegt hinter Konkurrenten wie dem Poco M6 Pro (67 Watt) und dem OnePlus Nord CE4 (100 Watt) zurück, die deutlich schneller laden. Connor Jewiss / Foundry Samsung liefert weiterhin hervorragende Akkulaufzeiten bei seinen Budget-Handys. Das Galaxy A16 ist da keine Ausnahme. Im Gegensatz zu einigen Konkurrenten bietet das A16 weder kabelloses Aufladen noch Rückwärtsaufladen. Während kabelloses Laden in dieser Preisklasse selten ist, bieten einige preisgünstige Modelle von Xiaomi und Motorola die Möglichkeit des kabelgebundenen Rückwärtsladens, sodass Sie den Akku Ihres Smartphones mit Zubehör oder anderen Geräten teilen können. Letztlich ist die Akkulaufzeit eine der größten Stärken des A16, aber die langsamen Ladegeschwindigkeiten und das Fehlen eines mitgelieferten Ladegeräts beeinträchtigen seine Wettbewerbsfähigkeit. Kameras Anständige Hauptkamera, aber schwache sekundäre Sensoren Schlechte Leistung bei schlechten Lichtverhältnissen, sogar im speziellen Nachtmodus Begrenzte Videofunktionen Das Galaxy A16 verfügt über die gleiche Dreifach-Kamera wie sein Vorgänger: einen 50-Megapixel-Hauptsensor, ein 5-Megapixel-Ultraweitwinkelobjektiv und eine 2-Megapixel-Makrokamera. Während der Hauptsensor bei Tageslicht gute Ergebnisse liefert, wirken die Sekundärkameras wie eine nachträgliche Idee. Die Tageslichtaufnahmen der Hauptkamera sind scharf und lebendig, mit der von Samsung gewohnten kräftigen Farbabstimmung, die Blautöne und Grüntöne hervorhebt. Der Dynamikumfang ist ordentlich, aber nicht so stark wie bei den höherwertigen Geräten von Samsung. Bei guter Beleuchtung bleiben Details gut erhalten und das Rauschen ist minimal. Es sind nicht die schärfsten Aufnahmen, aber sie reichen aus. Beim Zoomen erhalten Sie ziemlich körnige Ergebnisse – sogar beim zweifachen Zoom. Bei höheren Zoomstufen sind die Fotos weitgehend unbrauchbar. Die Leistung bei schlechten Lichtverhältnissen ist allerdings ein Schwachpunkt. Ohne optische Bildstabilisierung (OIS) hat das A16 mit Bewegungsunschärfe und Rauschen in dunkleren Umgebungen zu kämpfen. Der Nachtmodus von Samsung hilft, die Bilder aufzuhellen und den Dynamikbereich zu verbessern, aber die Details bleiben weich und die Glanzlichter sind oft überstrahlt. Konkurrierende Handys wie das Redmi Note 13 und das OnePlus Nord CE4 bieten dank besserer Bildverarbeitung und Stabilisierung eine bessere Leistung bei schlechten Lichtverhältnissen. Die 5-Megapixel-Ultrawide-Kamera ist enttäuschend und liefert weiche, detailarme Bilder mit geringem Dynamikumfang. Die Farben stimmen nicht immer mit denen der Hauptkamera überein, und an den Rändern der Aufnahmen ist eine Verzerrung sichtbar. Die 2-Megapixel-Makrokamera ist noch schwächer und erfordert perfekte Lichtverhältnisse, um auch nur annähernd brauchbare Aufnahmen zu machen. Der Porträtmodus ist noch schwächer. Die Kantenerkennung ist miserabel. Während der 50-Megapixel-Hauptsensor des Dreifach-Kamera-Moduls bei Tageslicht gute Ergebnisse liefert, wirken die Sekundärkameras wie ein nachträglicher Einfall. Die Videoaufzeichnung ist auf 1080p bei 30 Bildern pro Sekunde beschränkt, kein 4K, keine 60 Bilder pro Sekunde und keine elektronische Stabilisierung. Das macht die Videos wackelig und detailarm und lässt sie weit hinter der Videoleistung der Konkurrenz zurück. Für Gelegenheitsnutzer ist die Hauptkamera für alltägliche Aufnahmen gut geeignet, aber das Fehlen einer starken Sekundärkamera, der unzureichende Nachtmodus und die schwachen Videofunktionen machen sie zu einer schlechten Wahl für Fotografie-Enthusiasten. Software & Funktionen Unerreichte Softwareunterstützung zu diesem Preis, mit sechs Jahren versprochener Android-Updates One UI 6.1 ist reich an Funktionen, aber träge Fehlende Premium-Funktionen von Samsung Ein weiterer großer Vorteil des Galaxy A16 ist seine Softwareunterstützung. Samsung verspricht sechs große Android-Updates, was bedeutet, dass das Gerät bis Android 20 Updates erhalten wird – ein Supportniveau, das von keinem anderen Budget-Handy erreicht wird. Connor Jewiss / Foundry One UI 6.1 ist zwar sehr funktionsreich, leidet aber unter gelegentlichen Verzögerungen. Hier findet sich außerdem recht viel vorinstallierte Bloatware. Das ist viel weniger schlimm als bei anderen Herstellern von günstigen Handys. Auch das Fehlen von Premium-Funktionen wie Always-On Display und Samsung DeX lässt die Software im Vergleich zu teureren Samsung-Geräten künstlich eingeschränkt erscheinen. Ein weiteres großes Manko ist die fehlende Galaxy-AI. Das bedeutet, dass Sie keinen Zugriff auf Funktionen wie Live Translate, Circle to Search und den Rest haben. Sie können jedoch Apps wie Google Gemini herunterladen. Samsung verspricht sechs große Android-Updates, was bedeutet, dass das A16 bis Android 20 Updates erhalten wird. Insgesamt bietet Samsung einen hervorragenden Langzeit-Support – die Software läuft im Budget-Bereich jedoch nicht ganz reibungslos. Preis und Verfügbarkeit Das Samsung Galaxy A16 ist im Online-Shop von Samsung ab 174,90 Euro erhältlich. Dafür bekommen Sie 128 Gigabyte Speicher und 4 Gigabyte RAM. Es gibt zusätzlich eine Version mit 8 Gigabyte RAM und 256 Gigabyte Speicher. Diese wird derzeit aber leider nicht im Samsung-Online-Shop angeboten. Deutlich günstiger geht es bei Online-Händler Amazon. Hier ist die 128-Gigabyte-Version bereits ab 132 Euro erhältlich. Beachten Sie jedoch, dass das Galaxy A16 nicht mit dem Galaxy A16 5G identisch ist, das über einen anderen Chipsatz und bessere Konnektivitätsoptionen verfügt. Sollten Sie das Samsung Galaxy A16 kaufen? Connor Jewiss / Foundry Das Samsung Galaxy A16 ist ein solides, aber uninspiriertes Budget-Smartphone. Seine stärksten Verkaufsargumente sind die Akkulaufzeit und die langfristige Softwareunterstützung, die die meisten Konkurrenten in den Schatten stellen. Der 5.000-Milliamperestunden-Akku garantiert eine Laufzeit von mindestens zwei Tagen. Das Versprechen von Samsung, sechs Jahre lang Android-Updates zu liefern, ist in diesem Preissegment eine Seltenheit. Diese positiven Eigenschaften gehen jedoch mit großen Kompromissen einher. Die Leistung ist bestenfalls mittelmäßig, und beide Chipsatz-Modelle haben mit neueren Mittelklasse-Konkurrenten zu kämpfen. Die Spielleistung ist schwach, die Ladezeiten von Apps sind langsam und die 4 Gigabyte RAM des Basismodells führen zu häufigen Rucklern. Das Display ist zwar ein ordentliches AMOLED-Panel, aber es fehlen HDR-Unterstützung und dynamische Bildwiederholfrequenz, wodurch es sich veraltet anfühlt. Die Kameras sind ein weiterer Schwachpunkt, denn nur der 50-Megapixel-Hauptsensor liefert anständige Ergebnisse. Das Galaxy A16 ist zwar kein schlechtes Handy, aber es gelingt ihm nicht, sich in einem zunehmend wettbewerbsintensiven Preissegment abzuheben. Andere Handys zu diesem Preis bieten eine bessere Leistung, bessere Displays und bessere Kamerasysteme. Wenn Ihnen Software-Updates und Akkulaufzeit wichtiger sind als alles andere, ist das A16 4G eine vernünftige Option. Aber für die meisten Nutzer gibt es für das gleiche Geld bessere Geräte. Spezifikationen Bildschirm: 6,7-Zoll Super AMOLED, 1.080 × 2.340 Pixel, 90 Hz Bildwiederholrate Prozessor: Exynos 1280 Arbeitsspeicher: 4 / 8 GB RAM Speicher: 128 / 256 GB, microSD-Unterstützung Rückwärtige Kameras: 50 MP (f/1,8, PDAF), 5 MP Ultrawide (f/2,2), 2 MP Makro (f/2,4) Frontkamera: 13 MP (f/2,0) Akku: 5.000 mAh, 25 W kabelgebundenes Laden Software: Android 14 mit One UI 6.1, bis zu 6 OS-Updates Abmessungen: 164,6 × 77,9 × 7,9 mm, 200 g (PC-Welt) 

Samsung Galaxy A16 im Test: Budget-Smartphone mit toller Akkulaufzeit​ Connor Jewiss / Foundry

Auf einen Blick

Pro

Ausgezeichnete Akkulaufzeit

Wasserdicht nach IP54

6 Jahre Software-Unterstützung

Kontra

Mittelmäßige Leistung

Schwache Kameras

Begrenzter Arbeitsspeicher beim 128-GB-Modell

Fazit

Das Samsung Galaxy A16 ist ein gut verarbeitetes, preisgünstiges Handy mit einem fantastischen Display, langer Akkulaufzeit und zukunftssicherer Softwareunterstützung. Es ist jedoch nicht sehr leistungsstark, hat nur mittelmäßige Kameras und lässt wichtige Funktionen wie Stereolautsprecher und 4K-Videoaufzeichnungen vermissen. Für diejenigen, die ein langlebiges Gerät mit jahrelangen Updates suchen, ist es eine gute Wahl. Wer jedoch zum gleichen Preis mehr Leistung und Ausstattung erwartet, sollte sich nach anderen Modellen umsehen.

Das Samsung Galaxy A16 ist ein kleines Upgrade gegenüber dem A15 vom letzten Jahr. Es bietet ein größeres 6,7-Zoll-AMOLED-Display, grundlegende Wasser- und Staubresistenz nach IP54 und eine solide Akkulaufzeit.

Trotz dieser kleinen Verbesserungen bleibt die Hardware jedoch weitgehend unverändert. Es läuft immer noch mit dem MediaTek Helio G99 Chipsatz, der im Vergleich zu neueren Budget-Prozessoren schwächelt. Die Kameras bleiben einfach, mit einem schwachen 5-Megapixel-Ultraweitwinkelsensor und einem unnötigen 2-Megapixel-Makrosensor.

Das Fehlen von Stereolautsprechern, 4K-Videoaufnahmen und einer Videostabilisierung benachteiligt es gegenüber Konkurrenten wie dem Redmi Note 13, dem Poco X6 und sogar dem etwas besser ausgestatteten Galaxy A16 5G von Samsung, die zu den aktuell besten Budget-Handys gehören.

Letztlich bietet das A16 zwar ein ausgefeiltes Software-Erlebnis und eine großartige Akkulaufzeit, aber es fühlt sich an wie ein Smartphone aus dem letzten Jahr, das nicht mit der Konkurrenz mithalten kann.

Design & Verarbeitung

Größerer Formfaktor, mit IP54-zertifiziertem Spritzwasserschutz

Kunststoffrückseite fühlt sich robust an und ist unempfindlich gegen Fingerabdrücke

Keine Stereolautsprecher

Keine hochwertigen Materialien

Samsung hat das Design im Vergleich zum Galaxy A15 nicht grundlegend verändert. Das Galaxy A16 ist durch den größeren 6,7-Zoll-Bildschirm jedoch etwas größer. Die matte Kunststoffrückseite fühlt sich gut an und ist besser gegen Fingerabdrücke geschützt als glänzende Oberflächen.

Besonders gut hat mir die Farbe “Light Green” gefallen, in der mein Gerät geliefert wurde. Es sieht fast wie Minze aus und schimmert leicht. Es steht außerdem eine dunkelblaue und eine graue Farboption zur Auswahl.

Connor Jewiss / Foundry

Das A16 behält Samsungs charakteristisches schwebendes Kameradesign bei, bei dem die drei rückwärtigen Linsen vertikal gestapelt sind. Der Rahmen ist flach und minimalistisch, die Power- und Lautstärke-Tasten sind erhöht. Ich mag diese Design-Entscheidung nicht besonders. Es gibt keinen wirklichen funktionalen Grund dafür, und es sieht auch nicht gut aus.

Connor Jewiss / Foundry

Die größte Neuerung ist der Spritzwasserschutz nach IP54. Das Smartphone hält also leichtem Regen stand und ist gegen das Eindringen von Staub geschützt. Das bedeutet jedoch nicht, dass es wasserdicht ist – erwarten Sie also nicht, dass es ein Eintauchen ins Wasser überlebt.

Die matte Kunststoffrückseite fühlt sich gut an und widersteht Fingerabdrücken besser als glänzende Oberflächen.

Mit 200 Gramm ist das Handy ziemlich schwer. Die Gewichtsverteilung ist gut ausbalanciert, sodass Sie es auch über längere Zeit bequem halten können. Allerdings gibt es keine Stereolautsprecher – ein großes Manko im Jahr 2025. Smartphones wie das Redmi Note 13 und das Poco X6 bieten zwei Lautsprecher und eignen sich daher besser für den Medienkonsum.

Bildschirm & Sound

6,7-Zoll-Super-AMOLED-Display liefert leuchtende Farben und tiefe Schwarztöne

800 Nits Spitzenhelligkeit sorgt für gute Sichtbarkeit im Freien

Keine HDR-Unterstützung und nur ein einziger, nach unten gerichteter Lautsprecher

Das Display des A16 ist nach der hervorragenden Akkulaufzeit seine zweitstärkste Eigenschaft. Der 6,7 Zoll große Super AMOLED-Bildschirm bietet eine großartige Farbwiedergabe, tiefe Schwarztöne und einen exzellenten Kontrast. Mit einer Full-HD-Auflösung (1.080 × 2.340 Pixel) ist das Display knackig und scharf – perfekt für Streaming, Spiele und zum Lesen.

Connor Jewiss / Foundry

Die Bildwiederholfrequenz von 90 Hertz sorgt für einen flüssigen Bildlauf, aber im Gegensatz zu einigen Konkurrenten ist sie nicht adaptiv. Damit kann sich die Bildwiederholfrequenz nicht dynamisch an die jeweiligen Inhalte anpassen, was sich negativ auf die Akkulaufzeit auswirkt.

Die Helligkeit ist für ein Budget-Handy beeindruckend. Mit einer gemessenen Spitzenhelligkeit von 808 Nits ist das Display auch im Freien und bei hellem Sonnenlicht noch gut zu erkennen. Allerdings fehlt HDR-Unterstützung.

Das Display des A16 ist nach der hervorragenden Akkulaufzeit sein zweitstärkstes Merkmal.

Das größte Manko ist der Sound. Mit nur einem einzigen Lautsprecher an der Unterseite fehlt es dem Klang an Tiefe, Bass und Stereotrennung. Im Gegensatz dazu bieten die ähnlich teuren Konkurrenten von Xiaomi und Poco zwei Lautsprecher und eignen sich daher besser für Videos und für Spiele.

Spezifikationen & Leistung

Die Chipsätze sind energieeffizient und bewältigen grundlegende Aufgaben gut, sind aber veraltet

Erweiterbarer Speicher über microSD-Karte

Langsamer als vergleichbar teure Handys wie das Poco X6

Samsung hat mit dem Galaxy A16 einen ungewöhnlichen Ansatz gewählt und das Smartphone je nach Region mit zwei verschiedenen Chipsätzen ausgestattet. Einige Modelle laufen mit dem MediaTek Helio G99 ausgestattet, andere mit dem Samsung-eigenen Exynos 1280. Obwohl es sich bei beiden um Mittelklasse-Prozessoren handelt, variiert ihre Leistung im realen Einsatz erheblich. In Deutschland kommt der Exynos 1280 zum Einsatz.

Insgesamt ist die Leistung des Galaxy A16 im Jahr 2025 nicht überzeugend, insbesondere im Vergleich zu ähnlich teuren Konkurrenten.

Der Helio G99 ist ein 6-Nanometer-Chip mit einer Octa-Core-CPU (2x Cortex-A76 bei 2,2 Gigahertz und 6x Cortex-A55 bei 2 Gigahertz), gepaart mit einer Mali-G57 MC2 GPU. Für alltägliche Aufgaben wie Messaging, Webbrowsing und soziale Medien ist er gut geeignet, aber bei intensivem Multitasking hat er Probleme.

Der Exynos 1280 ist ein 5-Nanometer-Prozessor mit einem energieeffizienteren Design und einer etwas stärkeren Mali-G68 MP4 GPU, die ihm einen leichten Vorteil bei der Grafikleistung und der Akkulaufzeit verschafft.

In Benchmarks schneidet der Exynos 1280 bei CPU-lastigen Aufgaben durchweg besser ab als der Helio G99, bleibt aber immer noch hinter modernen Mittelklasse-Prozessoren wie dem Snapdragon 7s Gen 2 zurück. Die Mali-G68 GPU übertrifft die Mali-G57 MC2 und bietet in einigen Fällen flüssigeres Gameplay. Beide Chipsätze sind jedoch nicht ideal für Spiele geeignet, da es bei anspruchsvollen Titeln häufig zu Framerate-Einbrüchen kommt.

Arbeitsspeicher und Speicherplatz schränken das Potenzial des Smartphones weiter ein. Das Basismodell wird mit 4 Gigabyte RAM und 128 Gigabyte UFS 2.2-Speicher ausgeliefert, der sich im Vergleich zum UFS 3.1-Speicher einiger Konkurrenten träge anfühlt. Die Version mit 256 Gigabyte internem Speicher bietet 8 Gigabyte RAM. Das hilft beim Multitasking. Samsungs RAM-Plus-Funktion (virtueller Arbeitsspeicher) trägt kaum zur Verbesserung der Leistung bei.

Connor Jewiss / Foundry

Insgesamt ist die Leistung des Galaxy A16 im Jahr 2025 nicht überzeugend, besonders im Vergleich zu ähnlich teuren Konkurrenten wie dem Redmi Note 13 oder dem Poco X6. Beide laufen mit neueren und leistungsfähigeren Chipsätzen. Mit einem Geekbench 6 Multi-Core-Ergebnis von 1.920 liegt das Gerät weit hinter dem Poco X6, das den Snapdragon 7s Gen Chip verwendet und ein Multi-Core-Ergebnis von 3.480 liefert. Das Galaxy A16 schneidet sogar rund 100 Punkte schlechter ab als sein 5G-Pendant.

Im Alltag ist die Leistung für Aufgaben wie Webbrowsing, soziale Medien und Streaming in der Regel in Ordnung. Bei anspruchsvolleren Apps werden Sie aber eine Verlangsamung feststellen. Es gab einige Szenarien, bei denen sich die grundlegenden Aufgaben langsam anfühlten. Spiele sind auf niedrige bis mittlere Einstellungen beschränkt, und das Smartphone hat Probleme mit anspruchsvollem Multitasking. Sogar bei einem relativ zahmen Titel wie “Plants vs. Zombies” wurde das Handy langsam und heiß.

Die Exynos 1280-Variante ist zwar geringfügig besser, aber auch diese Version kann nicht wirklich überzeugen. 4 Gigabyte RAM sind zwar okay, aber die 8-Gigabyte-RAM-Version ist die bessere Wahl für Langlebigkeit. Der Speicher kann per microSD-Karte erweitert werden, was ein willkommenes Feature ist.

Samsung Galaxy A16 Benchmarks

Akkulaufzeit & Aufladen

5.000-mAh-Akku mit zwei Tagen Laufzeit

Langsames 25-Watt-Laden

Kein drahtloses oder umgekehrtes Laden

Samsung liefert weiterhin hervorragende Akkulaufzeiten für seine Budget-Handys. Das Galaxy A16 bildet da keine Ausnahme. Sein 5.000-Milliamperestunden-Akku, kombiniert mit einem energieeffizienten Chipsatz, ermöglicht eine Nutzung von mindestens zwei vollen Tagen mit einer einzigen Aufladung. Bei leichter bis mittlerer Nutzung (soziale Medien, Messaging und Videostreaming) ist es möglich, die Akkulaufzeit auf über 48 Stunden zu verlängern. Selbst bei intensiver Nutzung, einschließlich Spielen und GPS-Navigation, hält das Smartphone bequem einen ganzen Tag durch.

Connor Jewiss / Foundry

Die Exynos 1280-Variante ist dank ihrer 5-Nanometer-Architektur etwas energieeffizienter als die Helio G99-Version. Deutsche Nutzer bekommen also eine längere Akkulaufzeit als Nutzer in anderen Regionen. Der Unterschied ist jedoch nicht groß, und beide Versionen des A16 4G bieten eine der besten Ausdauerleistungen in dieser Preisklasse.

Das Ladeerlebnis ist weniger beeindruckend. Samsung unterstützt das kabelgebundene Laden mit 25 Watt, aber es ist kein Ladegerät im Lieferumfang enthalten. Mit Samsungs offiziellem 25-Watt-Ladegerät erreicht das Handy in 30 Minuten etwa 50 Prozent und benötigt etwa 80 Minuten für eine vollständige Ladung. Das ist nicht langsam, aber es liegt hinter Konkurrenten wie dem Poco M6 Pro (67 Watt) und dem OnePlus Nord CE4 (100 Watt) zurück, die deutlich schneller laden.

Connor Jewiss / Foundry

Samsung liefert weiterhin hervorragende Akkulaufzeiten bei seinen Budget-Handys. Das Galaxy A16 ist da keine Ausnahme.

Im Gegensatz zu einigen Konkurrenten bietet das A16 weder kabelloses Aufladen noch Rückwärtsaufladen. Während kabelloses Laden in dieser Preisklasse selten ist, bieten einige preisgünstige Modelle von Xiaomi und Motorola die Möglichkeit des kabelgebundenen Rückwärtsladens, sodass Sie den Akku Ihres Smartphones mit Zubehör oder anderen Geräten teilen können.

Letztlich ist die Akkulaufzeit eine der größten Stärken des A16, aber die langsamen Ladegeschwindigkeiten und das Fehlen eines mitgelieferten Ladegeräts beeinträchtigen seine Wettbewerbsfähigkeit.

Kameras

Anständige Hauptkamera, aber schwache sekundäre Sensoren

Schlechte Leistung bei schlechten Lichtverhältnissen, sogar im speziellen Nachtmodus

Begrenzte Videofunktionen

Das Galaxy A16 verfügt über die gleiche Dreifach-Kamera wie sein Vorgänger: einen 50-Megapixel-Hauptsensor, ein 5-Megapixel-Ultraweitwinkelobjektiv und eine 2-Megapixel-Makrokamera. Während der Hauptsensor bei Tageslicht gute Ergebnisse liefert, wirken die Sekundärkameras wie eine nachträgliche Idee.

Die Tageslichtaufnahmen der Hauptkamera sind scharf und lebendig, mit der von Samsung gewohnten kräftigen Farbabstimmung, die Blautöne und Grüntöne hervorhebt.

Der Dynamikumfang ist ordentlich, aber nicht so stark wie bei den höherwertigen Geräten von Samsung. Bei guter Beleuchtung bleiben Details gut erhalten und das Rauschen ist minimal. Es sind nicht die schärfsten Aufnahmen, aber sie reichen aus.

Beim Zoomen erhalten Sie ziemlich körnige Ergebnisse – sogar beim zweifachen Zoom. Bei höheren Zoomstufen sind die Fotos weitgehend unbrauchbar.

Die Leistung bei schlechten Lichtverhältnissen ist allerdings ein Schwachpunkt. Ohne optische Bildstabilisierung (OIS) hat das A16 mit Bewegungsunschärfe und Rauschen in dunkleren Umgebungen zu kämpfen.

Der Nachtmodus von Samsung hilft, die Bilder aufzuhellen und den Dynamikbereich zu verbessern, aber die Details bleiben weich und die Glanzlichter sind oft überstrahlt. Konkurrierende Handys wie das Redmi Note 13 und das OnePlus Nord CE4 bieten dank besserer Bildverarbeitung und Stabilisierung eine bessere Leistung bei schlechten Lichtverhältnissen.

Die 5-Megapixel-Ultrawide-Kamera ist enttäuschend und liefert weiche, detailarme Bilder mit geringem Dynamikumfang. Die Farben stimmen nicht immer mit denen der Hauptkamera überein, und an den Rändern der Aufnahmen ist eine Verzerrung sichtbar.

Die 2-Megapixel-Makrokamera ist noch schwächer und erfordert perfekte Lichtverhältnisse, um auch nur annähernd brauchbare Aufnahmen zu machen. Der Porträtmodus ist noch schwächer. Die Kantenerkennung ist miserabel.

Während der 50-Megapixel-Hauptsensor des Dreifach-Kamera-Moduls bei Tageslicht gute Ergebnisse liefert, wirken die Sekundärkameras wie ein nachträglicher Einfall.

Die Videoaufzeichnung ist auf 1080p bei 30 Bildern pro Sekunde beschränkt, kein 4K, keine 60 Bilder pro Sekunde und keine elektronische Stabilisierung. Das macht die Videos wackelig und detailarm und lässt sie weit hinter der Videoleistung der Konkurrenz zurück.

Für Gelegenheitsnutzer ist die Hauptkamera für alltägliche Aufnahmen gut geeignet, aber das Fehlen einer starken Sekundärkamera, der unzureichende Nachtmodus und die schwachen Videofunktionen machen sie zu einer schlechten Wahl für Fotografie-Enthusiasten.

Software & Funktionen

Unerreichte Softwareunterstützung zu diesem Preis, mit sechs Jahren versprochener Android-Updates

One UI 6.1 ist reich an Funktionen, aber träge

Fehlende Premium-Funktionen von Samsung

Ein weiterer großer Vorteil des Galaxy A16 ist seine Softwareunterstützung. Samsung verspricht sechs große Android-Updates, was bedeutet, dass das Gerät bis Android 20 Updates erhalten wird – ein Supportniveau, das von keinem anderen Budget-Handy erreicht wird.

Connor Jewiss / Foundry

One UI 6.1 ist zwar sehr funktionsreich, leidet aber unter gelegentlichen Verzögerungen. Hier findet sich außerdem recht viel vorinstallierte Bloatware. Das ist viel weniger schlimm als bei anderen Herstellern von günstigen Handys. Auch das Fehlen von Premium-Funktionen wie Always-On Display und Samsung DeX lässt die Software im Vergleich zu teureren Samsung-Geräten künstlich eingeschränkt erscheinen.

Ein weiteres großes Manko ist die fehlende Galaxy-AI. Das bedeutet, dass Sie keinen Zugriff auf Funktionen wie Live Translate, Circle to Search und den Rest haben. Sie können jedoch Apps wie Google Gemini herunterladen.

Samsung verspricht sechs große Android-Updates, was bedeutet, dass das A16 bis Android 20 Updates erhalten wird.

Insgesamt bietet Samsung einen hervorragenden Langzeit-Support – die Software läuft im Budget-Bereich jedoch nicht ganz reibungslos.

Preis und Verfügbarkeit

Das Samsung Galaxy A16 ist im Online-Shop von Samsung ab 174,90 Euro erhältlich. Dafür bekommen Sie 128 Gigabyte Speicher und 4 Gigabyte RAM. Es gibt zusätzlich eine Version mit 8 Gigabyte RAM und 256 Gigabyte Speicher. Diese wird derzeit aber leider nicht im Samsung-Online-Shop angeboten. Deutlich günstiger geht es bei Online-Händler Amazon. Hier ist die 128-Gigabyte-Version bereits ab 132 Euro erhältlich.

Beachten Sie jedoch, dass das Galaxy A16 nicht mit dem Galaxy A16 5G identisch ist, das über einen anderen Chipsatz und bessere Konnektivitätsoptionen verfügt.

Sollten Sie das Samsung Galaxy A16 kaufen?

Connor Jewiss / Foundry

Das Samsung Galaxy A16 ist ein solides, aber uninspiriertes Budget-Smartphone. Seine stärksten Verkaufsargumente sind die Akkulaufzeit und die langfristige Softwareunterstützung, die die meisten Konkurrenten in den Schatten stellen. Der 5.000-Milliamperestunden-Akku garantiert eine Laufzeit von mindestens zwei Tagen. Das Versprechen von Samsung, sechs Jahre lang Android-Updates zu liefern, ist in diesem Preissegment eine Seltenheit. Diese positiven Eigenschaften gehen jedoch mit großen Kompromissen einher.

Die Leistung ist bestenfalls mittelmäßig, und beide Chipsatz-Modelle haben mit neueren Mittelklasse-Konkurrenten zu kämpfen. Die Spielleistung ist schwach, die Ladezeiten von Apps sind langsam und die 4 Gigabyte RAM des Basismodells führen zu häufigen Rucklern.

Das Display ist zwar ein ordentliches AMOLED-Panel, aber es fehlen HDR-Unterstützung und dynamische Bildwiederholfrequenz, wodurch es sich veraltet anfühlt. Die Kameras sind ein weiterer Schwachpunkt, denn nur der 50-Megapixel-Hauptsensor liefert anständige Ergebnisse.

Das Galaxy A16 ist zwar kein schlechtes Handy, aber es gelingt ihm nicht, sich in einem zunehmend wettbewerbsintensiven Preissegment abzuheben. Andere Handys zu diesem Preis bieten eine bessere Leistung, bessere Displays und bessere Kamerasysteme.

Wenn Ihnen Software-Updates und Akkulaufzeit wichtiger sind als alles andere, ist das A16 4G eine vernünftige Option. Aber für die meisten Nutzer gibt es für das gleiche Geld bessere Geräte.

Spezifikationen

Bildschirm: 6,7-Zoll Super AMOLED, 1.080 × 2.340 Pixel, 90 Hz Bildwiederholrate

Prozessor: Exynos 1280

Arbeitsspeicher: 4 / 8 GB RAM

Speicher: 128 / 256 GB, microSD-Unterstützung

Rückwärtige Kameras: 50 MP (f/1,8, PDAF), 5 MP Ultrawide (f/2,2), 2 MP Makro (f/2,4)

Frontkamera: 13 MP (f/2,0)

Akku: 5.000 mAh, 25 W kabelgebundenes Laden

Software: Android 14 mit One UI 6.1, bis zu 6 OS-Updates

Abmessungen: 164,6 × 77,9 × 7,9 mm, 200 g

(PC-Welt)

Samsung Galaxy A16 im Test: Budget-Smartphone mit toller Akkulaufzeit​ Weiterlesen »

Large Language Models erklärt: Was sind LLMs?​

Allgemein

Ohne Large Language Model kein Generative AI. Foto: A. Solano – shutterstock.com Seit der Veröffentlichung von ChatGPT im November 2022 geht Generative AI durch die Decke. Die Technologie wird dazu genutzt, Tasks zu automatisieren, bei Kreativaufgaben zu unterstützen oder auch um Software zu programmieren – um nur einige Anwendungsfälle zu nennen. Die Grundlage für KI-Chatbots wie ChatGPT oder Bard liefern Large Language Models (LLMs, auch: große Sprachmodelle). Sie verarbeiten natürlichsprachliche Inputs und sagen das nächstfolgende Wort auf der Grundlage historischer Daten vorher. Man könnte LLMs also – vereinfacht ausgedrückt – als “Textvorhersage-Maschinen” bezeichnen. Zu den derzeit populärsten großen Sprachmodellen gehören: GPT-3 und GPT-4 von Open AI LaMDA und PaLM von Google BLOOM und XLM-RoBERTa von Hugging Face und NeMO von Nvidia sowie XLNet, Co:here und GLM-130B. Seit der Veröffentlichung von Metas LLaMA im Februar 2023 gewinnen speziell Open-Source-LLMs zunehmend an Zugkraft, versprechen sie doch anpassungsfähigere Modelle zu geringeren Kosten. In diesem Artikel erfahren Sie, was Large Language Models sind und wie sie funktionieren. Large Language Model definiert Ein Large Language Model ist ein neuronales Netzwerk für maschinelles Lernen, das mit Daten-Inputs und -Outputs trainiert wird. Der zugrundeliegende Text ist dabei häufig unstrukturiert und das Modell nutzt Self-Supervised- oder Semi-Supervised-Lerntechniken. Informationen oder Inhalte werden in das LLM eingespeist – der Output ist das, was der Algorithmus als nächstes Wort vorhersagt. Die Inputs können aus Unternehmensdaten oder – wie im Fall von ChatGPT – aus Daten bestehen, die direkt aus dem Netz stammen. Um große Sprachmodelle zu trainieren, sind riesige Serverfarmen erforderlich, die ähnlich wie Supercomputer funktionieren. Gesteuert werden Large Language Models über Millionen, Milliarden oder sogar Billionen von Parametern. Die helfen dem Sprachmodell dabei, zwischen verschiedenen Antwortmöglichkeiten zu unterscheiden. So funktionieren LLMs Nehmen wir an, Sie übergeben folgende Frage als Input an ein LLM: “Was gab es heute zum Mittagessen?”. Das Large Language Model könnte die Frage mit “Zerealien”, “Reis” oder “Steak” beantworten. Dabei existiert keine 100-prozentig richtige Antwort – lediglich eine (trainings-)datenbasierte Wahrscheinlichkeit. Diejenige Antwortmöglichkeit, die auf Grundlage der vorhandenen beziehungsweise historischen Daten die wahrscheinlichste ist, wird das Large Language Model als Output wählen. Dabei gilt allerdings der Grundsatz “Junk in, Junk out”. Anders ausgedrückt: Füttern Sie ein großes Sprachmodell mit Bias-behafteten, unvollständigen oder anderweitig unzureichenden Informationen, dürfen Sie auch mit entsprechend unzuverlässigen, bizarren oder beleidigenden Ergebnissen rechnen. Wenn LLM-Outputs aus dem Ruder laufen, sprechen Datenanalysten auch von “Halluzinationen”. Jonathan Siddharth, CEO beim KI-Serviceanbieter Turing, erklärt: “Halluzinationen entstehen, weil LLMs in ihrer einfachsten Form keine interne Zustandsbeschreibung der Welt vorliegt. Das Konzept des Faktenwissens existiert hier nicht. Es geht ausschließlich um statistische Wahrscheinlichkeiten.” Insbesondere Bias kann in Zusammenhang mit LLMs gefährlich werden, wie Sayash Kapoor, Doktorand am Center for Information Technology Policy der Princeton University unterstreicht: “Kommen Bias-behaftete Sprachmodelle etwa bei Bewerbungsprozessen zum Einsatz, könnten sie zu geschlechtsspezifischer Voreingenommenheit in der realen Welt führen.” Weil sich einige Large Language Models mit Hilfe internetbasierter Daten selbst trainieren, können sie potenziell weit über das hinausgehen, wofür sie ursprünglich entwickelt wurden. Microsofts Bing zum Beispiel verwendet inzwischen Open AIs GPT-3-LLM als Grundlage, fragt parallel aber auch eine Suchmaschine ab. Die Plattform kombiniert also großes Sprachmodell und Internetsuche, um den Nutzern Antworten auf ihre Fragen zu liefern. “Wir beobachten, dass ein LLM auf eine Programmiersprache trainiert wird und dann automatisch Code in einer anderen Programmiersprache generiert, die es noch nie zuvor gesehen hat”, berichtet Siddharth. “Es ist fast so, als gäbe es ein emergentes Verhalten. Wir wissen nicht genau, wie diese neuronalen Netze funktionieren. Das ist beängstigend und aufregend zugleich.” In der Regel sind große Sprachmodelle – etwa Open AIs GPT-4 – mit riesigen Datenmengen vortrainiert. Allerdings können LLMs mit Hilfe von Prompt Engineering auch für den Einsatz in bestimmten Branchen oder Unternehmen trainiert werden. Yoon Kim, Machine-Learning-Spezialist und Assistenzprofessor am MIT, abstrahiert: “Beim Prompt Engineering geht es darum, zu entscheiden, womit wir den Algorithmus füttern, damit er das tut, was wir wollen. Ein Large Language Model plappert einfach ohne jeglichen Kontext und ist in gewissem Sinne bereits ein Chatbot.” Rund um Prompt Engineering wurden inzwischen bereits diverse Leitfäden und nützliche Stoffsammlungen veröffentlicht. Nach Meinung von Eno Reyes, Machine-Learning-Experte beim LLM-Anbieter Hugging Face, dürfte sich dieses Feld künftig zu einem gefragten Skill für Business- und IT-Experten entwickeln: “Prompt Engineers werden die künftigen, maßgeschneiderten Large Language Models für den Business-Einsatz liefern.” Large Language Models und der Datenschutz Italien hatte Anfang 2023 als erstes westliches Land den Zugang zu ChatGPT aufgrund von Datenschutzbedenken nach einem Data Breach gesperrt (und die Entscheidung später wieder revidiert). “Obwohl ChatGPT nach dem vorübergehenden Verbot durch Italien einige Verbesserungen vorgenommen hat, gibt es immer noch Luft nach oben”, mahnt Gabriele Kaveckyte, Datenschutzbeauftragte beim Cybersicherheitsunternehmen Surfshark, und fügt hinzu: “Diese potenziellen Datenschutzprobleme zu beheben, ist essenziell, um eine verantwortungsvolle und ethisch vertretbare Datennutzung zu gewährleisten, Vertrauen zu fördern und die Privatsphäre der Nutzer bei KI-Interaktionen zu schützen.” Die Datenschutzexpertin weiß, wovon sie spricht, hat sie doch die Datenerhebungspraktiken von ChatGPT analysiert und eine Liste mit potenziellen Schwachstellen in diesem Bereich erstellt. Demnach: sammle OpenAI möglicherweise ohne rechtliche Grundlage personenbezogene Daten in großem Umfang, um seine Sprachmodelle zu trainieren. habe das Unternehmen nicht alle betroffenen Dateneigentümer darüber unterrichtet, wie und wofür ihre Informationen verwendet werden. fehlten wirksame Tools zur Altersverifizierung, um den Jugendschutz zu gewährleisten. Neben den Problemstellungen im Bereich Datenschutz bereitet Experten in Zusammenhang mit Large Language Models auch das Thema Datensicherheit Kopfzerbrechen. Das wirft Hürden für den Einsatz in bestimmten Branchen auf, wie KI-Spezialist Siddharth erklärt: “Bevor ein Krankenhaus oder eine Bank LLMs einsetzen kann, sind Probleme in Sachen geistiges Eigentum, Sicherheit und Vertraulichkeit zu lösen. Für einige dieser Probleme gibt es bereits gute technische Lösungen und ich denke, die übrigen werden auch noch gelöst. Bis es soweit ist, ist an einen breiten Enterprise-Einsatz eher nicht zu denken. Unternehmen wollen ein Large Language Model sicher nicht in einem Kontext verwenden, in dem es die eigenen Daten nutzt, um der Konkurrenz bessere Ergebnisse zu liefern.” Angesichts der Risiken und Unsicherheiten befassen sich Regierungen rund um den Globus bereits mit dem Thema Generative AI, beziehungsweise dessen künftiger Regulierung: China hat bereits mehrere KI-Governance-Initiativen auf den Weg gebracht. Die US-Regierung hat im Oktober 2022 einen Entwurf für eine “AI Bill of Rights” vorgestellt. Die G7-Staaten verständigten sich im Mai 2023 darauf, eine Arbeitsgruppe einzusetzen, die sich mit Generative-AI-Lösungen befassen soll. Die Europäische Union arbeitet an einer Gesetzgebung zur KI-Regulierung – dem AI Act. Die “kleine” Zukunft großer Sprachmodelle Heute werden LLM-basierte Chatbots am häufigsten “out of the box” eingesetzt – als textbasierte Web-Chat-Schnittstellen. Dazu werden sie in Suchmaschinen wie Google (Bard) und Bing (ChatGPT) integriert und für die automatische Online-Kundenbetreuung eingesetzt. Wie bereits erwähnt, können Unternehmen ihre eigenen Datensätze einspeisen, um die Chatbots besser auf ihr jeweiliges Unternehmen abzustimmen. Allerdings kann die Genauigkeit dabei aufgrund von bereits eingespeisten Datenmengen leiden. Je nach Größe und Einsatzzweck kann es mehrere Millionen Dollar kosten, ein großes Sprachmodell für bestimmte Anwendungsfälle zu trainieren. “Wir beobachten immer häufiger, dass kleine Modelle, die man länger auf mehr Daten trainiert, das können, was große Modelle früher konnten”, resümierte Thomas Wolf, Mitbegründer und CSO von Hugging Face, auf einer MIT-Konferenz Anfang des Monats. Wenn LLMs ihre KI- und Rechenleistung auf kleinere Datensätze konzentrierten, schnitten sie dabei genauso gut oder besser als die riesigen Sprachmodelle ab, die sich auf massive, amorphe Datensätze stützten. Die kleineren Datensätze könnten zudem die von den Nutzern gesuchten Inhalte präziser erstellen – und seien wesentlich kostengünstiger zu trainieren, so der Experte. Eine Methode, um kleinere Large Language Models umzusetzen, nennt sich Sparse Expert Models (PDF) und wird nach Meinung von Experten künftig wesentlich dazu beitragen, die Trainings- und Computing-Kosten für LLMs zu reduzieren. So gehen etwa Forscher von Meta davon aus (PDF), dass Sparse Expert Models künftig eine ähnliche Performance wie ChatGPT realisieren, dazu aber nur den Bruchteil der bisherigen Rechenleistung benötigen. Diverse Anbieter stellen bereits kleinere Large Language Models zur Verfügung. Zum Beispiel: Aleph Alpha Databricks Fixie LightOn Stability AI und Open AI. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Large Language Models erklärt: Was sind LLMs?​ Ohne Large Language Model kein Generative AI.
Foto: A. Solano – shutterstock.com

Seit der Veröffentlichung von ChatGPT im November 2022 geht Generative AI durch die Decke. Die Technologie wird dazu genutzt, Tasks zu automatisieren, bei Kreativaufgaben zu unterstützen oder auch um Software zu programmieren – um nur einige Anwendungsfälle zu nennen.

Die Grundlage für KI-Chatbots wie ChatGPT oder Bard liefern Large Language Models (LLMs, auch: große Sprachmodelle). Sie verarbeiten natürlichsprachliche Inputs und sagen das nächstfolgende Wort auf der Grundlage historischer Daten vorher. Man könnte LLMs also – vereinfacht ausgedrückt – als “Textvorhersage-Maschinen” bezeichnen.

Zu den derzeit populärsten großen Sprachmodellen gehören:

GPT-3 und GPT-4 von Open AI

LaMDA und PaLM von Google

BLOOM und XLM-RoBERTa von Hugging Face und

NeMO von Nvidia sowie

XLNet, Co:here und GLM-130B.

Seit der Veröffentlichung von Metas LLaMA im Februar 2023 gewinnen speziell Open-Source-LLMs zunehmend an Zugkraft, versprechen sie doch anpassungsfähigere Modelle zu geringeren Kosten.

In diesem Artikel erfahren Sie, was Large Language Models sind und wie sie funktionieren.

Large Language Model definiert

Ein Large Language Model ist ein neuronales Netzwerk für maschinelles Lernen, das mit Daten-Inputs und -Outputs trainiert wird. Der zugrundeliegende Text ist dabei häufig unstrukturiert und das Modell nutzt Self-Supervised- oder Semi-Supervised-Lerntechniken. Informationen oder Inhalte werden in das LLM eingespeist – der Output ist das, was der Algorithmus als nächstes Wort vorhersagt. Die Inputs können aus Unternehmensdaten oder – wie im Fall von ChatGPT – aus Daten bestehen, die direkt aus dem Netz stammen.

Um große Sprachmodelle zu trainieren, sind riesige Serverfarmen erforderlich, die ähnlich wie Supercomputer funktionieren. Gesteuert werden Large Language Models über Millionen, Milliarden oder sogar Billionen von Parametern. Die helfen dem Sprachmodell dabei, zwischen verschiedenen Antwortmöglichkeiten zu unterscheiden.

So funktionieren LLMs

Nehmen wir an, Sie übergeben folgende Frage als Input an ein LLM: “Was gab es heute zum Mittagessen?”. Das Large Language Model könnte die Frage mit “Zerealien”, “Reis” oder “Steak” beantworten. Dabei existiert keine 100-prozentig richtige Antwort – lediglich eine (trainings-)datenbasierte Wahrscheinlichkeit. Diejenige Antwortmöglichkeit, die auf Grundlage der vorhandenen beziehungsweise historischen Daten die wahrscheinlichste ist, wird das Large Language Model als Output wählen.

Dabei gilt allerdings der Grundsatz “Junk in, Junk out”. Anders ausgedrückt: Füttern Sie ein großes Sprachmodell mit Bias-behafteten, unvollständigen oder anderweitig unzureichenden Informationen, dürfen Sie auch mit entsprechend unzuverlässigen, bizarren oder beleidigenden Ergebnissen rechnen. Wenn LLM-Outputs aus dem Ruder laufen, sprechen Datenanalysten auch von “Halluzinationen”.

Jonathan Siddharth, CEO beim KI-Serviceanbieter Turing, erklärt: “Halluzinationen entstehen, weil LLMs in ihrer einfachsten Form keine interne Zustandsbeschreibung der Welt vorliegt. Das Konzept des Faktenwissens existiert hier nicht. Es geht ausschließlich um statistische Wahrscheinlichkeiten.”

Insbesondere Bias kann in Zusammenhang mit LLMs gefährlich werden, wie Sayash Kapoor, Doktorand am Center for Information Technology Policy der Princeton University unterstreicht: “Kommen Bias-behaftete Sprachmodelle etwa bei Bewerbungsprozessen zum Einsatz, könnten sie zu geschlechtsspezifischer Voreingenommenheit in der realen Welt führen.”

Weil sich einige Large Language Models mit Hilfe internetbasierter Daten selbst trainieren, können sie potenziell weit über das hinausgehen, wofür sie ursprünglich entwickelt wurden. Microsofts Bing zum Beispiel verwendet inzwischen Open AIs GPT-3-LLM als Grundlage, fragt parallel aber auch eine Suchmaschine ab. Die Plattform kombiniert also großes Sprachmodell und Internetsuche, um den Nutzern Antworten auf ihre Fragen zu liefern.

“Wir beobachten, dass ein LLM auf eine Programmiersprache trainiert wird und dann automatisch Code in einer anderen Programmiersprache generiert, die es noch nie zuvor gesehen hat”, berichtet Siddharth. “Es ist fast so, als gäbe es ein emergentes Verhalten. Wir wissen nicht genau, wie diese neuronalen Netze funktionieren. Das ist beängstigend und aufregend zugleich.”

In der Regel sind große Sprachmodelle – etwa Open AIs GPT-4 – mit riesigen Datenmengen vortrainiert. Allerdings können LLMs mit Hilfe von Prompt Engineering auch für den Einsatz in bestimmten Branchen oder Unternehmen trainiert werden. Yoon Kim, Machine-Learning-Spezialist und Assistenzprofessor am MIT, abstrahiert: “Beim Prompt Engineering geht es darum, zu entscheiden, womit wir den Algorithmus füttern, damit er das tut, was wir wollen. Ein Large Language Model plappert einfach ohne jeglichen Kontext und ist in gewissem Sinne bereits ein Chatbot.”

Rund um Prompt Engineering wurden inzwischen bereits diverse Leitfäden und nützliche Stoffsammlungen veröffentlicht. Nach Meinung von Eno Reyes, Machine-Learning-Experte beim LLM-Anbieter Hugging Face, dürfte sich dieses Feld künftig zu einem gefragten Skill für Business- und IT-Experten entwickeln: “Prompt Engineers werden die künftigen, maßgeschneiderten Large Language Models für den Business-Einsatz liefern.”

Large Language Models und der Datenschutz

Italien hatte Anfang 2023 als erstes westliches Land den Zugang zu ChatGPT aufgrund von Datenschutzbedenken nach einem Data Breach gesperrt (und die Entscheidung später wieder revidiert).

“Obwohl ChatGPT nach dem vorübergehenden Verbot durch Italien einige Verbesserungen vorgenommen hat, gibt es immer noch Luft nach oben”, mahnt Gabriele Kaveckyte, Datenschutzbeauftragte beim Cybersicherheitsunternehmen Surfshark, und fügt hinzu: “Diese potenziellen Datenschutzprobleme zu beheben, ist essenziell, um eine verantwortungsvolle und ethisch vertretbare Datennutzung zu gewährleisten, Vertrauen zu fördern und die Privatsphäre der Nutzer bei KI-Interaktionen zu schützen.”

Die Datenschutzexpertin weiß, wovon sie spricht, hat sie doch die Datenerhebungspraktiken von ChatGPT analysiert und eine Liste mit potenziellen Schwachstellen in diesem Bereich erstellt. Demnach:

sammle OpenAI möglicherweise ohne rechtliche Grundlage personenbezogene Daten in großem Umfang, um seine Sprachmodelle zu trainieren.

habe das Unternehmen nicht alle betroffenen Dateneigentümer darüber unterrichtet, wie und wofür ihre Informationen verwendet werden.

fehlten wirksame Tools zur Altersverifizierung, um den Jugendschutz zu gewährleisten.

Neben den Problemstellungen im Bereich Datenschutz bereitet Experten in Zusammenhang mit Large Language Models auch das Thema Datensicherheit Kopfzerbrechen. Das wirft Hürden für den Einsatz in bestimmten Branchen auf, wie KI-Spezialist Siddharth erklärt: “Bevor ein Krankenhaus oder eine Bank LLMs einsetzen kann, sind Probleme in Sachen geistiges Eigentum, Sicherheit und Vertraulichkeit zu lösen. Für einige dieser Probleme gibt es bereits gute technische Lösungen und ich denke, die übrigen werden auch noch gelöst. Bis es soweit ist, ist an einen breiten Enterprise-Einsatz eher nicht zu denken. Unternehmen wollen ein Large Language Model sicher nicht in einem Kontext verwenden, in dem es die eigenen Daten nutzt, um der Konkurrenz bessere Ergebnisse zu liefern.”

Angesichts der Risiken und Unsicherheiten befassen sich Regierungen rund um den Globus bereits mit dem Thema Generative AI, beziehungsweise dessen künftiger Regulierung:

China hat bereits mehrere KI-Governance-Initiativen auf den Weg gebracht.

Die US-Regierung hat im Oktober 2022 einen Entwurf für eine “AI Bill of Rights” vorgestellt.

Die G7-Staaten verständigten sich im Mai 2023 darauf, eine Arbeitsgruppe einzusetzen, die sich mit Generative-AI-Lösungen befassen soll.

Die Europäische Union arbeitet an einer Gesetzgebung zur KI-Regulierung – dem AI Act.

Die “kleine” Zukunft großer Sprachmodelle

Heute werden LLM-basierte Chatbots am häufigsten “out of the box” eingesetzt – als textbasierte Web-Chat-Schnittstellen. Dazu werden sie in Suchmaschinen wie Google (Bard) und Bing (ChatGPT) integriert und für die automatische Online-Kundenbetreuung eingesetzt. Wie bereits erwähnt, können Unternehmen ihre eigenen Datensätze einspeisen, um die Chatbots besser auf ihr jeweiliges Unternehmen abzustimmen. Allerdings kann die Genauigkeit dabei aufgrund von bereits eingespeisten Datenmengen leiden. Je nach Größe und Einsatzzweck kann es mehrere Millionen Dollar kosten, ein großes Sprachmodell für bestimmte Anwendungsfälle zu trainieren.

“Wir beobachten immer häufiger, dass kleine Modelle, die man länger auf mehr Daten trainiert, das können, was große Modelle früher konnten”, resümierte Thomas Wolf, Mitbegründer und CSO von Hugging Face, auf einer MIT-Konferenz Anfang des Monats. Wenn LLMs ihre KI- und Rechenleistung auf kleinere Datensätze konzentrierten, schnitten sie dabei genauso gut oder besser als die riesigen Sprachmodelle ab, die sich auf massive, amorphe Datensätze stützten. Die kleineren Datensätze könnten zudem die von den Nutzern gesuchten Inhalte präziser erstellen – und seien wesentlich kostengünstiger zu trainieren, so der Experte.

Eine Methode, um kleinere Large Language Models umzusetzen, nennt sich Sparse Expert Models (PDF) und wird nach Meinung von Experten künftig wesentlich dazu beitragen, die Trainings- und Computing-Kosten für LLMs zu reduzieren. So gehen etwa Forscher von Meta davon aus (PDF), dass Sparse Expert Models künftig eine ähnliche Performance wie ChatGPT realisieren, dazu aber nur den Bruchteil der bisherigen Rechenleistung benötigen.

Diverse Anbieter stellen bereits kleinere Large Language Models zur Verfügung. Zum Beispiel:

Aleph Alpha

Databricks

Fixie

LightOn

Stability AI und

Open AI.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Large Language Models erklärt: Was sind LLMs?​ Weiterlesen »

Finnland als digitales Vorbild für die öffentliche Hand​

Allgemein

Mit zentralen Registern und klarer Digitalstrategie zeigt Finnland, wie eine erfolgreiche Verwaltungsdigitalisierung aussehen kann – ein Modell auch für Deutschland? Harvepino – shutterstock.com Die Digitalisierung des öffentlichen Sektors in Deutschland hinkt trotz gewisser Fortschritte hinterher. Veraltete IT, Bürokratie und Fachkräftemangel behindern die Entwicklung, während der Druck durch höhere Bürgererwartungen wächst. Cloud-Technologien bieten laut der aktuelle Lünendonk-Studie „Cloud-Transformation im öffentlichen Sektor – Neue Wege für digitale Fachverfahren und IT-Souveränität“ großes Potenzial zur Modernisierung. Die Studie basiert auf einer telefonischen Befragung von 57 verantwortlichen Personen aus dem öffentlichen Sektor. Knapp die Hälfte der Befragten sind IT-Leiter/CIOs, rund 40 Prozent sind Leiter von IT- und Digitalisierungsreferaten sowie Cloud- oder Infrastrukturverantwortliche. Rund zehn Prozent sind Business-Verantwortliche mit einem IT-Bezug. Laut Umfrage nutzen 71 Prozent der Teilnehmenden bereits erste Cloud-Services. 18 Prozent verfolgen bereits klare Strategien. ​Die Cloud-Transformation hat dabei für 80 Prozent der Befragten hohe Priorität. ​ Treiber sind vor allem KI-Lösungen (84 Prozent), IT-Sicherheit (79 Prozent) und die Skalierbarkeit von IT-Operations (76 Prozent). 60 Prozent der Teilnehmenden geben zudem an, dass der IT-Fachkräftemangel und demografische Wandel ein Treiber für die Cloud sind, um digitale Verwaltungsprozesse auch in Zukunft managen zu können. Bis 2028 sollen bis zu 54 Prozent der Fach- und IT-Anwendungen der öffentlichen Hand in der Cloud betrieben werden, hieß es. ​ Herausforderungen und Lösungsansätze ​ Als die größten Hürden für die digitale Transformation wurden hierbei regulatorische Anforderungen (77 Prozent), kulturelle und organisatorische Veränderungen (66 Prozent) sowie der mögliche Verlust der Datenhoheit (62 Prozent) genannt. Sicherheitsbedenken und Fachkräftemangel erschweren die Umsetzung zusätzlich. ​Um diese Herausforderungen zu bewältigen, setzen viele öffentliche Verwaltungen auf hybride und Multi-Cloud-Strategien, die Flexibilität und Sicherheit bieten. ​Souveräne Cloud-Angebote, die Datenschutz und Unabhängigkeit gewährleisten, gewinnen ebenfalls an Bedeutung. ​ Relevanz von Cloud-Modellen und Anbietern ​ Die Studie zeigt zudem, dass Software-as-a-Service (SaaS) für 95 Prozent der Befragten relevant ist. Zusätzlich für sie interessant sind Infrastructure-as-a-Service (IaaS) und virtuelle Serverlandschaften. Deutsche Cloud-Anbieter wie STACKIT und IONOS sowie Hyperscaler mit separatem EU-Betreiber spielen hierbei eine zentrale Rolle. Souveräne Cloud-Lösungen, die den Zugriff durch US-Behörden verhindern, sind allgemein besonders gefragt. Externe Unterstützung und strategische Ansätze ​ Da viele öffentliche Einrichtungen nicht über ausreichende IT-Expertise verfügen, arbeiten sie mit externen Dienstleistern zusammen. ​Besonders gefragt sind Partner für Cloud-Sicherheit, Entwicklung und Implementierung. Auch nationale IT-Dienstleister wie msg und Materna spielen eine wichtige Rolle. Die Entwicklung einer Cloud-Strategie sollte auf einer ganzheitlichen Betrachtung der IT-Landschaft basieren, um langfristige Abhängigkeiten zu vermeiden. ​ Internationale Perspektiven: Finnland als Vorbild Die Studienmacher nennen Finnland als Vorreiter in der Digitalisierung.​ Zentralisierte Basisregister und eine klare Strategie sind zwei Gründe hierfür, fördern sie doch die Interoperabilität und Effizienz. Laut Lünendonk könnte Deutschland auch von Finnlands pragmatischem Ansatz lernen. Konkret nennen die Experten, dass eine nationale digitale Identität eingeführt und der Datenaustauschs zwischen Behörden verbessert werden könnten.  ​ 

Finnland als digitales Vorbild für die öffentliche Hand​ Mit zentralen Registern und klarer Digitalstrategie zeigt Finnland, wie eine erfolgreiche Verwaltungsdigitalisierung aussehen kann – ein Modell auch für Deutschland?
Harvepino – shutterstock.com

Die Digitalisierung des öffentlichen Sektors in Deutschland hinkt trotz gewisser Fortschritte hinterher. Veraltete IT, Bürokratie und Fachkräftemangel behindern die Entwicklung, während der Druck durch höhere Bürgererwartungen wächst.

Cloud-Technologien bieten laut der aktuelle Lünendonk-Studie „Cloud-Transformation im öffentlichen Sektor – Neue Wege für digitale Fachverfahren und IT-Souveränität“ großes Potenzial zur Modernisierung. Die Studie basiert auf einer telefonischen Befragung von 57 verantwortlichen Personen aus dem öffentlichen Sektor. Knapp die Hälfte der Befragten sind IT-Leiter/CIOs, rund 40 Prozent sind Leiter von IT- und Digitalisierungsreferaten sowie Cloud- oder Infrastrukturverantwortliche. Rund zehn Prozent sind Business-Verantwortliche mit einem IT-Bezug.

Laut Umfrage nutzen 71 Prozent der Teilnehmenden bereits erste Cloud-Services. 18 Prozent verfolgen bereits klare Strategien. ​Die Cloud-Transformation hat dabei für 80 Prozent der Befragten hohe Priorität. ​

Treiber sind vor allem

KI-Lösungen (84 Prozent),

IT-Sicherheit (79 Prozent) und

die Skalierbarkeit von IT-Operations (76 Prozent).

60 Prozent der Teilnehmenden geben zudem an, dass der IT-Fachkräftemangel und demografische Wandel ein Treiber für die Cloud sind, um digitale Verwaltungsprozesse auch in Zukunft managen zu können.

Bis 2028 sollen bis zu 54 Prozent der Fach- und IT-Anwendungen der öffentlichen Hand in der Cloud betrieben werden, hieß es. ​

Herausforderungen und Lösungsansätze ​

Als die größten Hürden für die digitale Transformation wurden hierbei

regulatorische Anforderungen (77 Prozent),

kulturelle und organisatorische Veränderungen (66 Prozent) sowie

der mögliche Verlust der Datenhoheit (62 Prozent)

genannt.

Sicherheitsbedenken und Fachkräftemangel erschweren die Umsetzung zusätzlich. ​Um diese Herausforderungen zu bewältigen, setzen viele öffentliche Verwaltungen auf hybride und Multi-Cloud-Strategien, die Flexibilität und Sicherheit bieten. ​Souveräne Cloud-Angebote, die Datenschutz und Unabhängigkeit gewährleisten, gewinnen ebenfalls an Bedeutung. ​

Relevanz von Cloud-Modellen und Anbietern ​

Die Studie zeigt zudem, dass Software-as-a-Service (SaaS) für 95 Prozent der Befragten relevant ist. Zusätzlich für sie interessant sind Infrastructure-as-a-Service (IaaS) und virtuelle Serverlandschaften.

Deutsche Cloud-Anbieter wie STACKIT und IONOS sowie Hyperscaler mit separatem EU-Betreiber spielen hierbei eine zentrale Rolle. Souveräne Cloud-Lösungen, die den Zugriff durch US-Behörden verhindern, sind allgemein besonders gefragt.

Externe Unterstützung und strategische Ansätze ​

Da viele öffentliche Einrichtungen nicht über ausreichende IT-Expertise verfügen, arbeiten sie mit externen Dienstleistern zusammen. ​Besonders gefragt sind Partner für Cloud-Sicherheit, Entwicklung und Implementierung.

Auch nationale IT-Dienstleister wie msg und Materna spielen eine wichtige Rolle. Die Entwicklung einer Cloud-Strategie sollte auf einer ganzheitlichen Betrachtung der IT-Landschaft basieren, um langfristige Abhängigkeiten zu vermeiden. ​

Internationale Perspektiven: Finnland als Vorbild

Die Studienmacher nennen Finnland als Vorreiter in der Digitalisierung.​ Zentralisierte Basisregister und eine klare Strategie sind zwei Gründe hierfür, fördern sie doch die Interoperabilität und Effizienz.

Laut Lünendonk könnte Deutschland auch von Finnlands pragmatischem Ansatz lernen. Konkret nennen die Experten, dass

eine nationale digitale Identität eingeführt und

der Datenaustauschs zwischen Behörden verbessert

werden könnten.  ​

Finnland als digitales Vorbild für die öffentliche Hand​ Weiterlesen »

Shoppen mit ChatGPT​

Allgemein

ChatGPT soll zum digitalen Einkaufsberater werden – mit personalisierten Empfehlungen und transparenter Produktsuche. RSplaneta – shutterstock.com OpenAI kündigte am 28. April an, dass Nutzer bald in der Lage sein werden, Produkte über ChatGPT zu kaufen. Künftig würden Shopping-Buttons für KI-gestützte Suchanfragen für alle Nutzer verfügbar sein, unabhängig davon, ob sie angemeldet sind oder nicht. Innerhalb von ChatGPT zu bezahlen, werde allerdings nicht möglich sein; stattdessen würden die Shopper auf die jeweilige Website des Händlers weitergeleitet, um dort die Transaktion abzuschließen. ChatGPT als Shopping-Helfer OpenAI hat in einer Vorab-Demo dem Magazin WIRED gezeigt, wie ChatGPT künftig bei Produktsuchen unterstützen kann. Demonstriert wurde dies etwa beim Kauf von Espressomaschinen oder Bürostühlen. Die Empfehlungen basieren dabei auf Nutzerpräferenzen und Online-Bewertungen. Laut Adam Fry, Leiter des ChatGPT-Suchprodukts bei OpenAI, nutzten ChatGPT-User das Tool wöchentlich für über eine Milliarde Websuchen. Im Vordergrund stehen hierbei vor allem Bereiche wie Elektronik, Haushalt und Beauty. Quellen werden dabei transparent verlinkt. Redaktionen, die Lizenzvereinbarungen mit OpenAI eingegangen sind, sollen ihre Unabhängigkeit laut WIRED wahren können. Transparenz ohne Werbeeinflüsse Die neue Einkaufserfahrung in ChatGPT ähnelt Google Shopping, listet aber im Gegensatz zum Konkurrenten keine bezahlten Anzeigen, sondern ausschließlich organische Ergebnisse auf. Nutzer sehen bei Produktklicks Händler wie Amazon oder Walmart samt Kaufoptionen. Während Google Platzierungen teils durch Werbegelder und komplexe Algorithmen beeinflusst, soll ChatGPTs Produktsuche laut OpenAI transparent und werbefrei bleiben – zumindest vorerst. Personalisierte Produktempfehlungen statt klassische Algorithmen ChatGPT wählt OpenAI-Angaben zufolge Produktempfehlungen nicht auf Basis klassischer Algorithmus-Signale aus, sondern orientiert sich an einem dialogorientierten, personalisierten Ansatz. Im Mittelpunkt stehen statt Keywords dabei Nutzerpräferenzen, Bewertungen und Erfahrungsberichte. ChatGPT berücksichtigt dabei Inhalte aus verschiedenen Quellen – von Beiträgen aus Fachredaktionen bis hin zu Foren wie Reddit – und merkt sich persönliche Vorlieben für zukünftige Empfehlungen. Publisher fragen sich indes, wie Partnereinnahmen funktionieren werden, wenn ChatGPT künftig Produkte empfiehlt. Laut Fry will OpenAI mit verschiedenen Modellen experimentieren, legt aktuell aber den Fokus auf qualitativ hochwertige Produktempfehlungen. Konkrete Einnahmepläne gibt es bislang nicht. Langfristige Ziele von OpenAI OpenAI will sich bei ChatGPT Shopping zunächst auf das Nutzererlebnis konzentrieren und plant Weiterentwicklungen basierend auf Nutzerfeedback. Langfristig verfolgt das Unternehmen Umsatzziele von 125 Milliarden Dollar bis 2029 – 2024 waren es rund vier Milliarden. Ob Affiliate-Einnahmen dabei eine wesentliche Rolle spielen werden, ist noch offen. CEO Sam Altman sprach in einem Interview mit dem Stratechery-Newsletter-Autor Ben Thompson von einem potenziellen Beitrag für das eigene Geschäft. OpenAI hat 2025 bereits mehrere shoppingbezogene Funktionen vorgestellt, darunter den KI-Agenten „Operator“, der Nutzern beim Online-Einkauf helfen soll. Auch Konkurrenten wie Perplexity und Google integrieren zunehmend KI in ihre Einkaufserlebnisse, etwa durch direkte Kaufoptionen oder KI-generierte Produktempfehlungen. 

Shoppen mit ChatGPT​ ChatGPT soll zum digitalen Einkaufsberater werden – mit personalisierten Empfehlungen und transparenter Produktsuche.
RSplaneta – shutterstock.com

OpenAI kündigte am 28. April an, dass Nutzer bald in der Lage sein werden, Produkte über ChatGPT zu kaufen. Künftig würden Shopping-Buttons für KI-gestützte Suchanfragen für alle Nutzer verfügbar sein, unabhängig davon, ob sie angemeldet sind oder nicht. Innerhalb von ChatGPT zu bezahlen, werde allerdings nicht möglich sein; stattdessen würden die Shopper auf die jeweilige Website des Händlers weitergeleitet, um dort die Transaktion abzuschließen.

ChatGPT als Shopping-Helfer

OpenAI hat in einer Vorab-Demo dem Magazin WIRED gezeigt, wie ChatGPT künftig bei Produktsuchen unterstützen kann. Demonstriert wurde dies etwa beim Kauf von Espressomaschinen oder Bürostühlen. Die Empfehlungen basieren dabei auf Nutzerpräferenzen und Online-Bewertungen.

Laut Adam Fry, Leiter des ChatGPT-Suchprodukts bei OpenAI, nutzten ChatGPT-User das Tool wöchentlich für über eine Milliarde Websuchen. Im Vordergrund stehen hierbei vor allem Bereiche wie

Elektronik,

Haushalt und

Beauty.

Quellen werden dabei transparent verlinkt. Redaktionen, die Lizenzvereinbarungen mit OpenAI eingegangen sind, sollen ihre Unabhängigkeit laut WIRED wahren können.

Transparenz ohne Werbeeinflüsse

Die neue Einkaufserfahrung in ChatGPT ähnelt Google Shopping, listet aber im Gegensatz zum Konkurrenten keine bezahlten Anzeigen, sondern ausschließlich organische Ergebnisse auf. Nutzer sehen bei Produktklicks Händler wie Amazon oder Walmart samt Kaufoptionen.

Während Google Platzierungen teils durch Werbegelder und komplexe Algorithmen beeinflusst, soll ChatGPTs Produktsuche laut OpenAI transparent und werbefrei bleiben – zumindest vorerst.

Personalisierte Produktempfehlungen statt klassische Algorithmen

ChatGPT wählt OpenAI-Angaben zufolge Produktempfehlungen nicht auf Basis klassischer Algorithmus-Signale aus, sondern orientiert sich an einem dialogorientierten, personalisierten Ansatz. Im Mittelpunkt stehen statt Keywords dabei

Nutzerpräferenzen,

Bewertungen und

Erfahrungsberichte.

ChatGPT berücksichtigt dabei Inhalte aus verschiedenen Quellen – von Beiträgen aus Fachredaktionen bis hin zu Foren wie Reddit – und merkt sich persönliche Vorlieben für zukünftige Empfehlungen.

Publisher fragen sich indes, wie Partnereinnahmen funktionieren werden, wenn ChatGPT künftig Produkte empfiehlt. Laut Fry will OpenAI mit verschiedenen Modellen experimentieren, legt aktuell aber den Fokus auf qualitativ hochwertige Produktempfehlungen. Konkrete Einnahmepläne gibt es bislang nicht.

Langfristige Ziele von OpenAI

OpenAI will sich bei ChatGPT Shopping zunächst auf das Nutzererlebnis konzentrieren und plant Weiterentwicklungen basierend auf Nutzerfeedback. Langfristig verfolgt das Unternehmen Umsatzziele von 125 Milliarden Dollar bis 2029 – 2024 waren es rund vier Milliarden. Ob Affiliate-Einnahmen dabei eine wesentliche Rolle spielen werden, ist noch offen. CEO Sam Altman sprach in einem Interview mit dem Stratechery-Newsletter-Autor Ben Thompson von einem potenziellen Beitrag für das eigene Geschäft.

OpenAI hat 2025 bereits mehrere shoppingbezogene Funktionen vorgestellt, darunter den KI-Agenten „Operator“, der Nutzern beim Online-Einkauf helfen soll. Auch Konkurrenten wie Perplexity und Google integrieren zunehmend KI in ihre Einkaufserlebnisse, etwa durch direkte Kaufoptionen oder KI-generierte Produktempfehlungen.

Shoppen mit ChatGPT​ Weiterlesen »

Großraumbüros torpedieren Entwickler​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?quality=50&strip=all 4838w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Wenn Entwickler sich nicht konzentrieren können, hilft auch ein hippes Interieur wenig.dotshock | shutterstock.com Bislang habe ich noch keinen Softwareentwickler getroffen, der: Wert darauf legen würde, in einem Großraumbüro zu arbeiten, ein Einzelbüro verschmähen würde, oder kontinuierliche Ablenkungen und Unterbrechungen als produktivitätsfördernd empfindet. Auf der anderen Seite ist mir aber auch noch keine Führungskraft untergekommen, die absichtlich eine Arbeitsumgebung schaffen wollte, die die Konzentration behindert und damit potenziell dem Erfolg im Weg steht. Und doch gibt es genug Manager, die dennoch der Überzeugung sind, dass Softwareentwickler nicht mehr brauchen als einen Rechner, eine Netzwerkverbindung und ein paar Zentimeter Bewegungsfreiheit. Türen für Entwickler! Eigentlich sollte jeder Entwickler über ein eigenes Büro verfügen – und zwar eines mit einer Tür. Das muss kein ausuferndes Chefbüro sein: Es geht darum, den Devs die Möglichkeit zu geben, sich in einem persönlichen Raum auf ihre Aufgaben zu fokussieren. Die Realität sieht vielerorts völlig anders aus. In erster Linie, weil Einzelbüros – und in manchen Fällen sogar Raumtrenner – von vielen Unternehmen als zu teuer erachtet werden. Dass es auch anders, respektive besser geht, zeigt etwa das Beispiel von Fog Creek Software: Gründer Joel Spolsky (der auch Stack Overflow mitinitiiert hat) hat bereits vor mehr als zwanzig Jahren verstanden, wie der ideale Arbeitsplatz für Softwareentwickler aussehen sollte. Dabei könnte eine Rolle gespielt haben, dass Spolsky selbst Developer ist. Ein anderes Beispiel ist der ehemalige US-Softwareanbieter Borland (2009 von Micro Focus übernommen, das 2023 von OpenText geschluckt wurde). Das Unternehmen hatte auf dem Höhepunkt seines Erfolgs – in den 1980er Jahren (!) – einen beeindruckenden Campus in die kalifornische Landschaft gestellt, inklusive Büroräumen, die ausschließlich dem Development-Team vorbehalten waren. Die ungeschriebene Regel damals bei Borland: Wenn die Tür eines Entwicklers geschlossen war, wurde er in Ruhe gelassen. Stand sie offen, konnte man anklopfen – einen guten Grund vorausgesetzt. Das ist (beziehungsweise war) eine Kultur, die den Bedürfnissen von Entwicklern Rechnung trägt und ihre Produktivität fördert. Workspace-Cancel-Culture? Wie wir alle wissen, sind Großraumbüros jedoch inzwischen das „neue Normal“ – ihrer offensichtlichen Nachteile zum Trotz. Und als ob das nicht schon schlimm genug wäre, kamen dann noch einige Führungskräfte auf die Idee, auch Raumtrenner, Kabinen und Ähnliches zu beseitigen. Schließlich fördert das die Kollaboration ungemein und führt durch Zufall Menschen zusammen, die anschließend gemeinsam die wunderbarsten Ideen zu tragfähigen Konzepten spinnen. So zumindest die Annahme. Aus Entwicklerperspektive kann man da nur noch den Kopf schütteln. Die „Lösungen“ für solche Manager-gemachten Büroprobleme laufen dann im Regelfall auf den Vorschlag hinaus, doch einfach Kopfhörer mit Noise-Cancelling-Funktion zu nutzen. Das ist zwar grundsätzlich keine schlechte Idee, bekämpft aber nur die Symptome und nicht die Ursache. Wenn sich Entwickler per Headset abschotten müssen, um sich ansatzweise konzentrieren zu können, spricht das nicht unbedingt für ein modernes Büro-, beziehungsweise Arbeitsplatzkonzept. Eher für ein möglichst billiges. Das erscheint umso absurder, wenn man bedenkt, dass Softwareentwickler relativ hohe Gehälter beziehen und im Regelfall auch technisch höherwertiges Equipment benötigen. Auf der anderen Seite wird dann aber an ihren Arbeitsplätzen gespart und damit ihre Konzentrationsfähigkeit torpediert.   Um es auch für Manager und Führungskräfte auf den Punkt zu bringen: Man steckt Vollblüter nicht in einen Stall für Packesel. Wenn Sie also das nächste Mal ein Konzept für Entwickler-Arbeitsplätze erarbeiten, sollten Sie sich fragen, ob Sie auf Software Wert legen, die schnell und stabil läuft – oder auf einen Haufen Developer, der ganztags Kopfhörer trägt, so tut, als könne er sich auf seine Aufgaben konzentrieren – und heimlich Jobangebote sondiert. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Großraumbüros torpedieren Entwickler​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?quality=50&strip=all 4838w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/dotshock_shutterstock_321792839_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Wenn Entwickler sich nicht konzentrieren können, hilft auch ein hippes Interieur wenig.dotshock | shutterstock.com

Bislang habe ich noch keinen Softwareentwickler getroffen, der:

Wert darauf legen würde, in einem Großraumbüro zu arbeiten,

ein Einzelbüro verschmähen würde, oder

kontinuierliche Ablenkungen und Unterbrechungen als produktivitätsfördernd empfindet.

Auf der anderen Seite ist mir aber auch noch keine Führungskraft untergekommen, die absichtlich eine Arbeitsumgebung schaffen wollte, die die Konzentration behindert und damit potenziell dem Erfolg im Weg steht. Und doch gibt es genug Manager, die dennoch der Überzeugung sind, dass Softwareentwickler nicht mehr brauchen als einen Rechner, eine Netzwerkverbindung und ein paar Zentimeter Bewegungsfreiheit.

Türen für Entwickler!

Eigentlich sollte jeder Entwickler über ein eigenes Büro verfügen – und zwar eines mit einer Tür. Das muss kein ausuferndes Chefbüro sein: Es geht darum, den Devs die Möglichkeit zu geben, sich in einem persönlichen Raum auf ihre Aufgaben zu fokussieren. Die Realität sieht vielerorts völlig anders aus. In erster Linie, weil Einzelbüros – und in manchen Fällen sogar Raumtrenner – von vielen Unternehmen als zu teuer erachtet werden.

Dass es auch anders, respektive besser geht, zeigt etwa das Beispiel von Fog Creek Software: Gründer Joel Spolsky (der auch Stack Overflow mitinitiiert hat) hat bereits vor mehr als zwanzig Jahren verstanden, wie der ideale Arbeitsplatz für Softwareentwickler aussehen sollte. Dabei könnte eine Rolle gespielt haben, dass Spolsky selbst Developer ist.

Ein anderes Beispiel ist der ehemalige US-Softwareanbieter Borland (2009 von Micro Focus übernommen, das 2023 von OpenText geschluckt wurde). Das Unternehmen hatte auf dem Höhepunkt seines Erfolgs – in den 1980er Jahren (!) – einen beeindruckenden Campus in die kalifornische Landschaft gestellt, inklusive Büroräumen, die ausschließlich dem Development-Team vorbehalten waren. Die ungeschriebene Regel damals bei Borland: Wenn die Tür eines Entwicklers geschlossen war, wurde er in Ruhe gelassen. Stand sie offen, konnte man anklopfen – einen guten Grund vorausgesetzt. Das ist (beziehungsweise war) eine Kultur, die den Bedürfnissen von Entwicklern Rechnung trägt und ihre Produktivität fördert.

Workspace-Cancel-Culture?

Wie wir alle wissen, sind Großraumbüros jedoch inzwischen das „neue Normal“ – ihrer offensichtlichen Nachteile zum Trotz. Und als ob das nicht schon schlimm genug wäre, kamen dann noch einige Führungskräfte auf die Idee, auch Raumtrenner, Kabinen und Ähnliches zu beseitigen. Schließlich fördert das die Kollaboration ungemein und führt durch Zufall Menschen zusammen, die anschließend gemeinsam die wunderbarsten Ideen zu tragfähigen Konzepten spinnen. So zumindest die Annahme. Aus Entwicklerperspektive kann man da nur noch den Kopf schütteln.

Die „Lösungen“ für solche Manager-gemachten Büroprobleme laufen dann im Regelfall auf den Vorschlag hinaus, doch einfach Kopfhörer mit Noise-Cancelling-Funktion zu nutzen. Das ist zwar grundsätzlich keine schlechte Idee, bekämpft aber nur die Symptome und nicht die Ursache. Wenn sich Entwickler per Headset abschotten müssen, um sich ansatzweise konzentrieren zu können, spricht das nicht unbedingt für ein modernes Büro-, beziehungsweise Arbeitsplatzkonzept. Eher für ein möglichst billiges. Das erscheint umso absurder, wenn man bedenkt, dass Softwareentwickler relativ hohe Gehälter beziehen und im Regelfall auch technisch höherwertiges Equipment benötigen. Auf der anderen Seite wird dann aber an ihren Arbeitsplätzen gespart und damit ihre Konzentrationsfähigkeit torpediert.  

Um es auch für Manager und Führungskräfte auf den Punkt zu bringen: Man steckt Vollblüter nicht in einen Stall für Packesel. Wenn Sie also das nächste Mal ein Konzept für Entwickler-Arbeitsplätze erarbeiten, sollten Sie sich fragen, ob Sie auf Software Wert legen, die schnell und stabil läuft – oder auf einen Haufen Developer, der ganztags Kopfhörer trägt, so tut, als könne er sich auf seine Aufgaben konzentrieren – und heimlich Jobangebote sondiert. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Großraumbüros torpedieren Entwickler​ Weiterlesen »

So geht DuckDB​

Allgemein

DuckDB ermöglicht Analytics-Deepdives ohne viel Aufwand. Foto: Evelyn Apinis | shutterstock.com Bei analytischen Datenbanken handelt es sich in der Regel um Applikationsungetüme. Systeme wie Snowflake, Redshift oder Postgres sind – selbst in ihrer Cloud-gehosteten Version – enorm einrichtungs- und wartungsintensiv. Für einzelne, kleinere Analytics-Tasks auf dem eigenen Desktop oder Laptop kommen solche Brummer einem Overkill gleich. Anders verhält es sich mit DuckDB, einer leichtgewichtigen aber performanten Datenbank-Engine für Analysezwecke, die in Form einer simplen Executable ums Eck kommt und entweder Standalone oder als Bibliothek im Rahmen eines Host-Prozesses läuft. In Sachen Setup und Wartung gibt sich DuckDB ähnlich asketisch wie SQLite. Konzipiert ist das Tool für schnelle, spaltenorientierte Queries. Dabei setzt DuckDB auf allseits bekannte SQL-Syntax und unterstützt Bibliotheken für alle relevanten Programmiersprachen. Sie können also mit der Sprache Ihrer Wahl programmatisch arbeiten – oder auch das Command Line Interface nutzen (auch im Rahmen einer Shell-Pipeline). Im Folgenden lesen Sie, wie Sie mit DuckDB arbeiten. Daten in DuckDB einladen Bei der Analysearbeit mit DuckDB stehen Ihnen zwei verschiedene Modi zur Verfügung: Im Persistent Mode werden die Daten auf die Festplatte geschrieben, um Workloads zu stemmen, die den Systemspeicher übersteigen. Dieser Modus kostet Geschwindigkeit. Im In-Memory Mode werden Datensätze vollständig im Speicher vorgehalten. Das sorgt für mehr Speed, allerdings ist nach Beendigung des Programms auch alles weg. DuckDB kann Daten aus einer Vielzahl von Quellen einlesen, CSV, JSON und Apache Parquet sind dabei die gängigsten. Im Fall von CSV und JSON versucht DuckDB standardmäßig, Spalten und Datentypen selbst zu ermitteln. Dieser Prozess kann bei Bedarf jedoch außer Kraft gesetzt werden, beispielsweise, um ein Format für die Datumsspalte zu spezifizieren. Darüber hinaus können auch andere Datenbanken wie MySQL oder Postgres als Datenquellen für DuckDB verwendet werden. Das funktioniert über Extensions (dazu später mehr). Um Daten aus einer externen Quelle in DuckDB zu laden, stehen Ihnen verschiedene Möglichkeiten zur Verfügung. Sie können einen SQL-String verwenden, der direkt an DuckDB übergeben wird: SELECT * FROM read_csv(‘data.csv’); Darüber hinaus können Sie auch Methoden für bestimmte Programmiersprachen über die DuckDB Interface Library nutzen. Mit der Python-Bibliothek für DuckDB sieht das Daten-Ingesting etwa wie folgt aus: import duckdb duckdb.read_csv(“data.csv”) Auch bestimmte Dateiformate wie beispielsweise Parquet direkt abzufragen, ist möglich: SELECT * FROM ‘test.parquet’; Um eine dauerhafte Datenansicht zu etablieren, die in Tabellenform für mehrere Queries verwendet werden, können Sie außerdem auf File Queries setzen: CREATE VIEW test_data AS SELECT * FROM read_parquet(‘test.parquet’); Weil DuckDB für die Arbeit mit Parquet-Dateien optimiert ist, liest es nur die Bestandteile der Datei, die es braucht. Davon abgesehen können auch andere Interfaces wie ADBC oder ODBC verwendet werden. Letzteres dient als Konnektor für Datenvisualisierungs-Tools wie Tableau. Wenn die in DuckDB importierten Daten exportiert werden sollen, ist das in diversen gängigen Dateiformaten möglich. Das macht DuckDB in Verarbeitungs-Pipelines auch zu einem nützlichen Datenkonvertierungs-Tool. Daten abfragen mit DuckDB Sobald Sie Daten in DuckDB eingeladen haben, können Sie sie mit Hilfe von SQL-Expressions abfragen. Das Format unterscheidet sich dabei nicht von “normalen” Abfragen: SELECT * FROM users WHERE ID>1000 ORDER BY Name DESC LIMIT 5; Wollen Sie für DuckDB-Queries eine Client-API nutzen, gibt es zwei Möglichkeiten: Sie können SQL-Strings über die API übergeben – oder die relationale Schnittstelle des Clients nutzen, um Datenabfragen programmatisch aufzubauen. Konkret könnte das in Python mit einer JSON-Datei wie folgt aussehen: import duckdb file = duckdb.read_json(“users.json”) file.select(“*”).filter(“ID>1000”).order(“Name”).limit(5) Im Fall von Python steht Ihnen außerdem auch die Option offen, die PySpark API zu nutzen, um DuckDB direkt abzufragen. Dabei ist anzumerken, dass die Implementierung (noch) nicht den vollen Funktionsumfang unterstützt. Der SQL-Dialekt von DuckDB enthält zudem einige Analytics-bezogene Zusatzelemente. Wollen Sie beispielsweise nur eine Teilmenge von Daten innerhalb einer Tabelle abfragen, funktioniert das über die SAMPLE Clause. Die resultierende Abfrage läuft deutlich schneller, ist aber möglicherweise auch weniger akkurat. Darüber hinaus unterstützt DuckDB unter anderem auch: das PIVOT-Keyword, um entsprechende Tabellen zu erstellen, Window-Funktionen sowie QUALIFY-Klauseln, um diese zu filtern. DuckDB Extensions Wie bereits erwähnt, ist DuckDB nicht auf die integrierten Datenformate und -verhaltensweisen beschränkt. Über die Extension API ist es auch möglich, verschiedene Addons einzubinden. Verfügbar sind zum Beispiel Extensions für: Amazon Web Services Apache Arrow Apache Iceberg Azure Excel JSON MySQL Parquet Postgres SQLite Vector Similarity Search Queries DuckDB is introducing support for vector similarity search through the new VSS extension.Read @Maxxen_‘s blog post for a sneak preview on the new extension’s capabilities: https://t.co/9qacS13wnm pic.twitter.com/rVaNcFkg1P— DuckDB (@duckdb) May 3, 2024 Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

So geht DuckDB​ DuckDB ermöglicht Analytics-Deepdives ohne viel Aufwand.
Foto: Evelyn Apinis | shutterstock.com

Bei analytischen Datenbanken handelt es sich in der Regel um Applikationsungetüme. Systeme wie Snowflake, Redshift oder Postgres sind – selbst in ihrer Cloud-gehosteten Version – enorm einrichtungs- und wartungsintensiv. Für einzelne, kleinere Analytics-Tasks auf dem eigenen Desktop oder Laptop kommen solche Brummer einem Overkill gleich.

Anders verhält es sich mit DuckDB, einer leichtgewichtigen aber performanten Datenbank-Engine für Analysezwecke, die in Form einer simplen Executable ums Eck kommt und entweder Standalone oder als Bibliothek im Rahmen eines Host-Prozesses läuft. In Sachen Setup und Wartung gibt sich DuckDB ähnlich asketisch wie SQLite. Konzipiert ist das Tool für schnelle, spaltenorientierte Queries. Dabei setzt DuckDB auf allseits bekannte SQL-Syntax und unterstützt Bibliotheken für alle relevanten Programmiersprachen. Sie können also mit der Sprache Ihrer Wahl programmatisch arbeiten – oder auch das Command Line Interface nutzen (auch im Rahmen einer Shell-Pipeline).

Im Folgenden lesen Sie, wie Sie mit DuckDB arbeiten.

Daten in DuckDB einladen

Bei der Analysearbeit mit DuckDB stehen Ihnen zwei verschiedene Modi zur Verfügung:

Im Persistent Mode werden die Daten auf die Festplatte geschrieben, um Workloads zu stemmen, die den Systemspeicher übersteigen. Dieser Modus kostet Geschwindigkeit.

Im In-Memory Mode werden Datensätze vollständig im Speicher vorgehalten. Das sorgt für mehr Speed, allerdings ist nach Beendigung des Programms auch alles weg.

DuckDB kann Daten aus einer Vielzahl von Quellen einlesen, CSV, JSON und Apache Parquet sind dabei die gängigsten. Im Fall von CSV und JSON versucht DuckDB standardmäßig, Spalten und Datentypen selbst zu ermitteln. Dieser Prozess kann bei Bedarf jedoch außer Kraft gesetzt werden, beispielsweise, um ein Format für die Datumsspalte zu spezifizieren. Darüber hinaus können auch andere Datenbanken wie MySQL oder Postgres als Datenquellen für DuckDB verwendet werden. Das funktioniert über Extensions (dazu später mehr).

Um Daten aus einer externen Quelle in DuckDB zu laden, stehen Ihnen verschiedene Möglichkeiten zur Verfügung. Sie können einen SQL-String verwenden, der direkt an DuckDB übergeben wird:

SELECT * FROM read_csv(‘data.csv’);

Darüber hinaus können Sie auch Methoden für bestimmte Programmiersprachen über die DuckDB Interface Library nutzen. Mit der Python-Bibliothek für DuckDB sieht das Daten-Ingesting etwa wie folgt aus:

import duckdb

duckdb.read_csv(“data.csv”)

Auch bestimmte Dateiformate wie beispielsweise Parquet direkt abzufragen, ist möglich:

SELECT * FROM ‘test.parquet’;

Um eine dauerhafte Datenansicht zu etablieren, die in Tabellenform für mehrere Queries verwendet werden, können Sie außerdem auf File Queries setzen:

CREATE VIEW test_data AS SELECT * FROM read_parquet(‘test.parquet’);

Weil DuckDB für die Arbeit mit Parquet-Dateien optimiert ist, liest es nur die Bestandteile der Datei, die es braucht. Davon abgesehen können auch andere Interfaces wie ADBC oder ODBC verwendet werden. Letzteres dient als Konnektor für Datenvisualisierungs-Tools wie Tableau.

Wenn die in DuckDB importierten Daten exportiert werden sollen, ist das in diversen gängigen Dateiformaten möglich. Das macht DuckDB in Verarbeitungs-Pipelines auch zu einem nützlichen Datenkonvertierungs-Tool.

Daten abfragen mit DuckDB

Sobald Sie Daten in DuckDB eingeladen haben, können Sie sie mit Hilfe von SQL-Expressions abfragen. Das Format unterscheidet sich dabei nicht von “normalen” Abfragen:

SELECT * FROM users WHERE ID>1000 ORDER BY Name DESC LIMIT 5;

Wollen Sie für DuckDB-Queries eine Client-API nutzen, gibt es zwei Möglichkeiten: Sie können SQL-Strings über die API übergeben – oder die relationale Schnittstelle des Clients nutzen, um Datenabfragen programmatisch aufzubauen. Konkret könnte das in Python mit einer JSON-Datei wie folgt aussehen:

import duckdb

file = duckdb.read_json(“users.json”)

file.select(“*”).filter(“ID>1000”).order(“Name”).limit(5)

Im Fall von Python steht Ihnen außerdem auch die Option offen, die PySpark API zu nutzen, um DuckDB direkt abzufragen. Dabei ist anzumerken, dass die Implementierung (noch) nicht den vollen Funktionsumfang unterstützt.

Der SQL-Dialekt von DuckDB enthält zudem einige Analytics-bezogene Zusatzelemente. Wollen Sie beispielsweise nur eine Teilmenge von Daten innerhalb einer Tabelle abfragen, funktioniert das über die SAMPLE Clause. Die resultierende Abfrage läuft deutlich schneller, ist aber möglicherweise auch weniger akkurat. Darüber hinaus unterstützt DuckDB unter anderem auch:

das PIVOT-Keyword, um entsprechende Tabellen zu erstellen,

Window-Funktionen sowie

QUALIFY-Klauseln, um diese zu filtern.

DuckDB Extensions

Wie bereits erwähnt, ist DuckDB nicht auf die integrierten Datenformate und -verhaltensweisen beschränkt. Über die Extension API ist es auch möglich, verschiedene Addons einzubinden. Verfügbar sind zum Beispiel Extensions für:

Amazon Web Services

Apache Arrow

Apache Iceberg

Azure

Excel

JSON

MySQL

Parquet

Postgres

SQLite

Vector Similarity Search Queries

DuckDB is introducing support for vector similarity search through the new VSS extension.Read @Maxxen_‘s blog post for a sneak preview on the new extension’s capabilities: https://t.co/9qacS13wnm pic.twitter.com/rVaNcFkg1P— DuckDB (@duckdb) May 3, 2024

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

So geht DuckDB​ Weiterlesen »

Künstliche Intelligenz programmieren: Die besten Coding-Sprachen für KI​

Allgemein

Wenn es darum geht, Künstliche Intelligenz zu programmieren, stehen Ihnen diverse Optionen zur Wahl. Wir zeigen Ihnen die besten KI-Programmiersprachen. Foto: Connect world – shutterstock.com Künstliche Intelligenz (KI) eröffnet Softwareentwicklern völlig neue Möglichkeiten: Mit Hilfe von Machine und Deep Learning lassen sich bessere Nutzerprofile und Empfehlungen, ein höherer Personalisierungsgrad, smartere Suchoptionen oder intelligentere Interfaces realisieren. Dabei stellt sich unweigerlich die Frage, welche Programmiersprache dafür zum Einsatz kommen soll. Die Anforderungen, denen eine KI-Coding-Sprache genügen muss, sind vielfältig: eine Vielzahl von Machine- und Deep-Learning-Bibliotheken sollten genauso vorhanden sein wie eine performante Laufzeitumgebung, ausgiebiger Tool Support, eine große Entwickler-Community und ein gesundes Ökosystem. Trotzdem dieser Anforderungskatalog umfassend ist, stehen Ihnen einige gute Optionen zur Wahl, wenn es darum geht, Künstliche Intelligenz zu programmieren. Wir zeigen Ihnen eine Auswahl der besten KI-Programmiersprachen. Python Wenn Sie als Developer mit künstlicher Intelligenz arbeiten, führt mit an Sicherheit grenzender Wahrscheinlichkeit kein Weg an Python vorbei. Inzwischen unterstützen auch so gut wie alle gängigen Bibliotheken Python 3.x – die Zeiten, in denen die Umstellung von Python 2.x auf 3.x Kompatibilitätsprobleme mit sich brachte, sind so gut wie vorbei. Mit anderen Worten: Sie können nun endlich auch in der Praxis von den zahlreichen neuen Features von Python 3.x profitieren. Was nicht heißen soll, dass die packaging-Hürden bei Python überhaupt keine Rolle mehr spielen – das Gros der Probleme lässt sich aber mit Hilfe von Anaconda umschiffen. Nichtsdestotrotz wäre es zu begrüßen, wenn die Python Community endlich voll und ganz von diesen Hürden befreit würde. Davon abgesehen sind die verfügbaren mathematischen und statistischen Bibliotheken von Python denen anderer Programmiersprachen weit voraus: NumPy ist inzwischen so allgegenwärtig, dass es beinahe als Standard-API für Tensor Operations bezeichnet werden kann, während Pandas die flexiblen Dataframes von R in die Python-Welt trägt. Geht es um Natural Language Processing (NLP) haben Sie die Wahl zwischen dem altehrwürdigen NLTK und dem superschnellen SpaCy, während sich für Machine-Learning-Zwecke das bewährte scikit-learn empfiehlt. Geht es hingegen um Deep Learning, sind alle aktuellen Bibliotheken (TensorFlow, PyTorch, Chainer, Apache MXNet, Theano, etc.) im Grunde “Python-first”-Projekte. Wenn Sie ein regelmäßiger Besucher von arXiv sind, wird Ihnen längst aufgefallen sein, dass die Mehrzahl der dortigen Deep-Learning-Forschungsprojekte, die Quellcode zur Verfügung stellen, dazu auf Python setzen. In Sachen Deployment-Modelle haben Microservice-Architekturen und -Technologien wie SeldonCore die Auslieferung von Python-Modellen in Produktivumgebungen wesentlich vereinfacht. Python ist zweifellos die Programmiersprache der Wahl, wenn es um KI-Forschung geht: Sie bietet die größte Auswahl an Machine und Deep Learning Frameworks und ist die Coding-Sprache, die innerhalb der KI-Welt tonangebend ist. C++ C++ ist aller Voraussicht nach nicht die erste Wahl für Ihr KI-Projekt. Allerdings wird Deep Learning im Edge-Bereich ein immer gängigeres Szenario. In diesem Fall müssen Sie Ihre Modelle auf Systemen zum Laufen bringen, die nur sehr begrenzte Ressourcen zur Verfügung haben. Um das letzte bisschen Performance aus dem System zu pressen, kann es nötig werden, noch einmal in die Untiefen der Pointer-Welt abzutauchen. Glücklicherweise kann moderner C++ Code aber tatsächlich angenehm zu schreiben sein. Hierfür stehen Ihnen mehrere Ansätze zur Wahl: Entweder Sie nutzen Bibliotheken wie Nvidias CUDA um ihren eigenen Programmcode zu schreiben, der direkt in die GPU fließt – oder Sie setzen wahlweise auf TensorFlow oder PyTorch, um Zugang zu flexiblen high-level APIs zu erlangen. Sowohl PyTorch als auch TensorFlow erlauben Ihnen, Modelle, die in Python geschrieben sind, in eine C++ Laufzeitumgebung zu integrieren. So rücken Sie deutlich näher an den Produktiveinsatz, bleiben dabei aber flexibel in der Entwicklung. Weil KI-Applikationen sich immer stärker über alle Devices – von Embedded Systems bis hin zu riesigen Clustern – hinweg ausbreiten, ist C++ ein wichtiger Bestandteil des KI-Coding-Toolkits. Um künstliche Intelligenz im Edge-Bereich zu realisieren, gilt es eben nicht nur akkurat zu programmieren, sondern auch qualitativ gut und schnell. Java und andere JVM-Sprachen Die Familie der JVM-Programmiersprachen (Java, Scala, Kotlin, Clojure, etc.) ist weiterhin eine gute Wahl, wenn es um die Entwicklung von KI-Applikationen geht. Eine reichhaltige Auswahl an Bibliotheken steht für nahezu alle Aspekte zur Auswahl – sei es Natural Language Processing (CoreNLP), Tensor Operations (ND4J) oder GPU-beschleunigtes Deep Learning (DL4J). Darüber hinaus gewährleisten diese Coding-Sprachen auch einfachen Zugang zu Big-Data-Plattformen wie Apache Spark und Apache Hadoop. Für die meisten Unternehmen ist Java die lingua franca – und mit Java 8 und neueren Versionen verliert auch die Erstellung von Java Code ihren Schrecken. Eine KI-Applikation in Java zu programmieren mag sich ein wenig langweilig anfühlen, sorgt aber in der Regel für zufriedenstellende Ergebnisse und ermöglicht Ihnen, alle existierenden Bestandteile einer Java-Infrastruktur für Entwicklung, Deployment und Monitoring einzusetzen. JavaScript JavaScript ausschließlich für die Entwicklung von KI-Applikationen zu erlernen, ist ein höchst unwahrscheinliches Szenario. Allerdings bietet Googles TensorFlow.js weiterhin eine gute Möglichkeit, Ihre Keras- und TensorFlow-Modelle über Browser oder Node.js auszuliefern. Dennoch ist der große Ansturm von JavaScript-Entwicklern im Bereich Künstliche Intelligenz bislang ausgeblieben. Das könnte daran liegen, dass das JavaScript-Ökosystem in Sachen verfügbare Bibliotheken bislang den nötigen Tiefgang vermissen lässt – zumindest im Vergleich zu Programmiersprachen wie Python. Darüber hinaus stehen auf Serverseite durch Deployment-Modelle mit Node.js (wiederum im Vergleich zu den Python-Optionen) keine wirklichen Vorteile in Aussicht. KI-Applikationen auf JavaScript-Basis dürften deshalb auch weiterhin auf Browser-Basis entstehen. Swift Swift for TensorFlow verbindet die neuesten und besten Features von TensorFlow mit den Vorteilen von Python-Bibliotheken, die sich problemlos einbinden lassen – ganz so als würden Sie Python selbst nutzen. Das fastai-Team werkelt derzeit an einer Swift-Version seiner populären Bibliothek – und stellt zahlreiche Optimierungen in Aussicht, gerade in Zusammenhang mit dem LLVM compiler. Von “production ready” kann zwar noch keine Rede sein, aber auf dieser Grundlage könnte die nächste Generation von Deep-Learning-Entwicklungsarbeit entstehen – Sie sollten Swift deshalb auf alle Fälle im Auge behalten. R R ist die Programmiersprache der Wahl für Data Scientists. Developer aus anderen Bereichen könnten die Coding-Sprache wegen ihres Dataframe-zentrischen Ansatzes hingegen als verwirrend empfinden. Für ein Team leidenschaftlicher R-Entwickler kann es durchaus Sinn machen, Integrationen mit TensorFlow, Keras oder H2O für Forschung und Prototyping einzusetzen. Hinsichtlich der Performance ist R für den Produktiveinsatz aber lediglich bedingt zu empfehlen. Zwar lässt sich performanter R Code durchaus produktiv zum Einsatz bringen, einfacher dürfte es aber in den allermeisten Fällen sein, den R-Prototypen in Java oder Python neu zu programmieren. KI programmieren – weitere Optionen Natürlich sind die vier genannten Programmiersprachen nicht die einzigen Optionen, um Künstliche Intelligenz zu programmieren. Die folgenden beiden Coding-Sprachen könnten – je nach Einsatzzweck – ebenfalls von Interesse für Ihre KI-Projekte sein: Lua Vor einigen Jahren wurde Lua als “next big thing” im Bereich der Künstlichen Intelligenz gehandelt. Das lag in erster Linie am Torch Framework – eine der populärsten Machine-Learning-Bibliotheken – sowohl für den produktiven Einsatz als auch für Forschungszwecke. Wenn Sie in ältere DeepLearning-Modelle abtauchen, finden sich oft zahlreiche Verweise auf Torch und Lua-Quellcode. Es könnte durchaus nützlich sein, sich etwas Knowhow über die Torch API anzueignen, die einige Ähnlichkeiten zur Basis-API von PyTorch aufweist. Wenn Sie allerdings kein gesteigertes Bedürfnis haben, für Ihre Applikationen in historische Forschung abzutauchen, können Sie auf Lua auch gut und gerne verzichten. Julia Bei Julia handelt es sich um eine High-Performance-Programmiersprache, die ihren Fokus auf numerische Berechnungen legt. Dadurch passt sie auch wunderbar in die mathematisch ausgerichtete Welt der Künstlichen Intelligenz. Julia mag derzeit nicht die populärste Coding-Sprache sein, allerdings bieten wrappers wie TensorFlow.jl und Mocha guten Deep Learning Support. Wenn das relativ kleine Ökosystem kein Ausschlusskriterium für Sie darstellt und Sie von Julias Fokus auf High-Performance-Berechnungen profitieren wollen, sollten Sie einen Blick riskieren. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Künstliche Intelligenz programmieren: Die besten Coding-Sprachen für KI​ Wenn es darum geht, Künstliche Intelligenz zu programmieren, stehen Ihnen diverse Optionen zur Wahl. Wir zeigen Ihnen die besten KI-Programmiersprachen.
Foto: Connect world – shutterstock.com

Künstliche Intelligenz (KI) eröffnet Softwareentwicklern völlig neue Möglichkeiten: Mit Hilfe von Machine und Deep Learning lassen sich bessere Nutzerprofile und Empfehlungen, ein höherer Personalisierungsgrad, smartere Suchoptionen oder intelligentere Interfaces realisieren. Dabei stellt sich unweigerlich die Frage, welche Programmiersprache dafür zum Einsatz kommen soll. Die Anforderungen, denen eine KI-Coding-Sprache genügen muss, sind vielfältig: eine Vielzahl von Machine- und Deep-Learning-Bibliotheken sollten genauso vorhanden sein wie eine performante Laufzeitumgebung, ausgiebiger Tool Support, eine große Entwickler-Community und ein gesundes Ökosystem.

Trotzdem dieser Anforderungskatalog umfassend ist, stehen Ihnen einige gute Optionen zur Wahl, wenn es darum geht, Künstliche Intelligenz zu programmieren. Wir zeigen Ihnen eine Auswahl der besten KI-Programmiersprachen.

Python

Wenn Sie als Developer mit künstlicher Intelligenz arbeiten, führt mit an Sicherheit grenzender Wahrscheinlichkeit kein Weg an Python vorbei. Inzwischen unterstützen auch so gut wie alle gängigen Bibliotheken Python 3.x – die Zeiten, in denen die Umstellung von Python 2.x auf 3.x Kompatibilitätsprobleme mit sich brachte, sind so gut wie vorbei. Mit anderen Worten: Sie können nun endlich auch in der Praxis von den zahlreichen neuen Features von Python 3.x profitieren. Was nicht heißen soll, dass die packaging-Hürden bei Python überhaupt keine Rolle mehr spielen – das Gros der Probleme lässt sich aber mit Hilfe von Anaconda umschiffen. Nichtsdestotrotz wäre es zu begrüßen, wenn die Python Community endlich voll und ganz von diesen Hürden befreit würde.

Davon abgesehen sind die verfügbaren mathematischen und statistischen Bibliotheken von Python denen anderer Programmiersprachen weit voraus: NumPy ist inzwischen so allgegenwärtig, dass es beinahe als Standard-API für Tensor Operations bezeichnet werden kann, während Pandas die flexiblen Dataframes von R in die Python-Welt trägt. Geht es um Natural Language Processing (NLP) haben Sie die Wahl zwischen dem altehrwürdigen NLTK und dem superschnellen SpaCy, während sich für Machine-Learning-Zwecke das bewährte scikit-learn empfiehlt. Geht es hingegen um Deep Learning, sind alle aktuellen Bibliotheken (TensorFlow, PyTorch, Chainer, Apache MXNet, Theano, etc.) im Grunde “Python-first”-Projekte.

Wenn Sie ein regelmäßiger Besucher von arXiv sind, wird Ihnen längst aufgefallen sein, dass die Mehrzahl der dortigen Deep-Learning-Forschungsprojekte, die Quellcode zur Verfügung stellen, dazu auf Python setzen. In Sachen Deployment-Modelle haben Microservice-Architekturen und -Technologien wie SeldonCore die Auslieferung von Python-Modellen in Produktivumgebungen wesentlich vereinfacht.

Python ist zweifellos die Programmiersprache der Wahl, wenn es um KI-Forschung geht: Sie bietet die größte Auswahl an Machine und Deep Learning Frameworks und ist die Coding-Sprache, die innerhalb der KI-Welt tonangebend ist.

C++

C++ ist aller Voraussicht nach nicht die erste Wahl für Ihr KI-Projekt. Allerdings wird Deep Learning im Edge-Bereich ein immer gängigeres Szenario. In diesem Fall müssen Sie Ihre Modelle auf Systemen zum Laufen bringen, die nur sehr begrenzte Ressourcen zur Verfügung haben. Um das letzte bisschen Performance aus dem System zu pressen, kann es nötig werden, noch einmal in die Untiefen der Pointer-Welt abzutauchen.

Glücklicherweise kann moderner C++ Code aber tatsächlich angenehm zu schreiben sein. Hierfür stehen Ihnen mehrere Ansätze zur Wahl: Entweder Sie nutzen Bibliotheken wie Nvidias CUDA um ihren eigenen Programmcode zu schreiben, der direkt in die GPU fließt – oder Sie setzen wahlweise auf TensorFlow oder PyTorch, um Zugang zu flexiblen high-level APIs zu erlangen. Sowohl PyTorch als auch TensorFlow erlauben Ihnen, Modelle, die in Python geschrieben sind, in eine C++ Laufzeitumgebung zu integrieren. So rücken Sie deutlich näher an den Produktiveinsatz, bleiben dabei aber flexibel in der Entwicklung.

Weil KI-Applikationen sich immer stärker über alle Devices – von Embedded Systems bis hin zu riesigen Clustern – hinweg ausbreiten, ist C++ ein wichtiger Bestandteil des KI-Coding-Toolkits. Um künstliche Intelligenz im Edge-Bereich zu realisieren, gilt es eben nicht nur akkurat zu programmieren, sondern auch qualitativ gut und schnell.

Java und andere JVM-Sprachen

Die Familie der JVM-Programmiersprachen (Java, Scala, Kotlin, Clojure, etc.) ist weiterhin eine gute Wahl, wenn es um die Entwicklung von KI-Applikationen geht. Eine reichhaltige Auswahl an Bibliotheken steht für nahezu alle Aspekte zur Auswahl – sei es Natural Language Processing (CoreNLP), Tensor Operations (ND4J) oder GPU-beschleunigtes Deep Learning (DL4J). Darüber hinaus gewährleisten diese Coding-Sprachen auch einfachen Zugang zu Big-Data-Plattformen wie Apache Spark und Apache Hadoop.

Für die meisten Unternehmen ist Java die lingua franca – und mit Java 8 und neueren Versionen verliert auch die Erstellung von Java Code ihren Schrecken. Eine KI-Applikation in Java zu programmieren mag sich ein wenig langweilig anfühlen, sorgt aber in der Regel für zufriedenstellende Ergebnisse und ermöglicht Ihnen, alle existierenden Bestandteile einer Java-Infrastruktur für Entwicklung, Deployment und Monitoring einzusetzen.

JavaScript

JavaScript ausschließlich für die Entwicklung von KI-Applikationen zu erlernen, ist ein höchst unwahrscheinliches Szenario. Allerdings bietet Googles TensorFlow.js weiterhin eine gute Möglichkeit, Ihre Keras- und TensorFlow-Modelle über Browser oder Node.js auszuliefern.

Dennoch ist der große Ansturm von JavaScript-Entwicklern im Bereich Künstliche Intelligenz bislang ausgeblieben. Das könnte daran liegen, dass das JavaScript-Ökosystem in Sachen verfügbare Bibliotheken bislang den nötigen Tiefgang vermissen lässt – zumindest im Vergleich zu Programmiersprachen wie Python. Darüber hinaus stehen auf Serverseite durch Deployment-Modelle mit Node.js (wiederum im Vergleich zu den Python-Optionen) keine wirklichen Vorteile in Aussicht. KI-Applikationen auf JavaScript-Basis dürften deshalb auch weiterhin auf Browser-Basis entstehen.

Swift

Swift for TensorFlow verbindet die neuesten und besten Features von TensorFlow mit den Vorteilen von Python-Bibliotheken, die sich problemlos einbinden lassen – ganz so als würden Sie Python selbst nutzen.

Das fastai-Team werkelt derzeit an einer Swift-Version seiner populären Bibliothek – und stellt zahlreiche Optimierungen in Aussicht, gerade in Zusammenhang mit dem LLVM compiler. Von “production ready” kann zwar noch keine Rede sein, aber auf dieser Grundlage könnte die nächste Generation von Deep-Learning-Entwicklungsarbeit entstehen – Sie sollten Swift deshalb auf alle Fälle im Auge behalten.

R

R ist die Programmiersprache der Wahl für Data Scientists. Developer aus anderen Bereichen könnten die Coding-Sprache wegen ihres Dataframe-zentrischen Ansatzes hingegen als verwirrend empfinden.

Für ein Team leidenschaftlicher R-Entwickler kann es durchaus Sinn machen, Integrationen mit TensorFlow, Keras oder H2O für Forschung und Prototyping einzusetzen. Hinsichtlich der Performance ist R für den Produktiveinsatz aber lediglich bedingt zu empfehlen. Zwar lässt sich performanter R Code durchaus produktiv zum Einsatz bringen, einfacher dürfte es aber in den allermeisten Fällen sein, den R-Prototypen in Java oder Python neu zu programmieren.

KI programmieren – weitere Optionen

Natürlich sind die vier genannten Programmiersprachen nicht die einzigen Optionen, um Künstliche Intelligenz zu programmieren. Die folgenden beiden Coding-Sprachen könnten – je nach Einsatzzweck – ebenfalls von Interesse für Ihre KI-Projekte sein:

Lua

Vor einigen Jahren wurde Lua als “next big thing” im Bereich der Künstlichen Intelligenz gehandelt. Das lag in erster Linie am Torch Framework – eine der populärsten Machine-Learning-Bibliotheken – sowohl für den produktiven Einsatz als auch für Forschungszwecke. Wenn Sie in ältere DeepLearning-Modelle abtauchen, finden sich oft zahlreiche Verweise auf Torch und Lua-Quellcode.

Es könnte durchaus nützlich sein, sich etwas Knowhow über die Torch API anzueignen, die einige Ähnlichkeiten zur Basis-API von PyTorch aufweist. Wenn Sie allerdings kein gesteigertes Bedürfnis haben, für Ihre Applikationen in historische Forschung abzutauchen, können Sie auf Lua auch gut und gerne verzichten.

Julia

Bei Julia handelt es sich um eine High-Performance-Programmiersprache, die ihren Fokus auf numerische Berechnungen legt. Dadurch passt sie auch wunderbar in die mathematisch ausgerichtete Welt der Künstlichen Intelligenz. Julia mag derzeit nicht die populärste Coding-Sprache sein, allerdings bieten wrappers wie TensorFlow.jl und Mocha guten Deep Learning Support. Wenn das relativ kleine Ökosystem kein Ausschlusskriterium für Sie darstellt und Sie von Julias Fokus auf High-Performance-Berechnungen profitieren wollen, sollten Sie einen Blick riskieren. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Künstliche Intelligenz programmieren: Die besten Coding-Sprachen für KI​ Weiterlesen »

Schwache Chefs kehren die Schwächen ihrer Mitarbeiter hervor​

Allgemein

Es sollte im Eigeninteresse der Führungskräfte liegen, die Entwicklung ihrer Mitarbeiter zu fördern und diese gemäß ihren Stärken einzusetzen. Mahmudul-Hassan – Shutterstock 2469113585 „Mein Mitarbeiter x ist extrem pedantisch.“ „Meine Mitarbeiterin y hat keinen Blick für das Nötige.“ Solche Aussagen hört man oft von Führungskräften, wenn man mit ihnen über ihre Mitarbeitenden spricht. Sehr detailliert listen sie dann häufig deren „Schwächen“ auf, dass man den Eindruck gewinnt, der Mitarbeiter hat mehr Schwächen als „Stärken“. Unweigerlich drängt sich die Frage auf: Warum hält der Arbeitgeber dann an dem Mitarbeiter fest?     Stärken sind für Führungskräfte oft nicht der Rede wert Entsprechend verhalten sich viele Führungskräfte – speziell, wenn sie selbst gestresst sind – auch in Mitarbeitergesprächen. Sie thematisieren in ihnen nach einigen einleitenden warmen Worten vor allem, was in der Vergangenheit nicht optimal verlief. Kaum Zeit verwenden sie jedoch darauf, mit dem Mitarbeitenden Folgendes zu erkunden:   Was lief gut?   Warum lief es gut?    Welche besonderen Fähigkeiten zeigte der Mitarbeiter dabei?   Unter welchen Voraussetzungen könnte er seine Stärken noch besser entfalten?   Diese Schieflage spüren auch die Mitarbeiter. Deshalb empfinden sie Mitarbeitergespräche häufig vor allem als Kritikgespräche. Folglich blicken sie ihnen auch eher mit Unbehagen entgegen, als sich auf sie zu freuen, weil sie wissen: In dem Gespräch suchen mein Chef und ich einen Weg, wie ich meine Fähigkeiten noch besser entfalten kann.      Stärken werden häufig als selbstverständlich erachtet Eine Ursache hierfür ist: Vieles, was wir selbst gut machen, erachten wir als selbstverständlich. So erfüllt es zum Beispiel manch guten Organisator nicht mit Stolz, dass er gut organisieren kann. Und viele exzellente Zuhörer sind nicht stolz darauf, gut zuhören zu können. Entweder, weil ihnen diese Fähigkeit nicht bewusst ist, oder weil sie dieses Können als selbstverständlich erachten.  Anders ist es mit den Denk- und Verhaltensmustern, an denen wir uns regelmäßig stoßen. Sei es, weil wir ein anderes Wunschbild von uns haben oder weil sie uns im Alltag tatsächlich häufig Probleme bereiten. Mit diesen unerwünschten Denk- und Verhaltensmustern beschäftigen sich viele Menschen tagein, tagaus. Und diese „Schwächen“ versuchen sie abzubauen, statt ihre Stärken auszubauen.    Stärken werden oft erst im Rückblick wertgeschätzt Ähnlich verhalten sich viele Führungskräfte. Auch sie erachten das, was ihre Mitarbeiter gut können und tun, oft als selbstverständlich. Sei es, dass sie alle Termine einhalten oder viel Eigeninitiative zeigen. Also verlieren sie hierüber keine großen Worte. Stattdessen wenden sie ihre Aufmerksamkeit den Verhaltensmustern zu, bei denen ihre „Untergebenen“ ihrem Wunschbild des „idealen“ Mitarbeiters nicht entsprechen – selbst, wenn diese für den Arbeitserfolg eine geringe Bedeutung haben.   Ein Umdenken erfolgt oft erst, wenn der Mitarbeiter den Betrieb verlässt und ein neuer seinen Platz einnimmt. Dann wird der Alte häufig glorifiziert und ist das, was zuvor selbstverständlich war, plötzlich nicht mehr selbstverständlich. Plötzlich werden die Stärken des Ex-Mitarbeiters gewürdigt und seine Schwächen sind nur noch ein Anlass für Anekdoten. Und alle beklagen, dass dieser „wertvolle Mitarbeiter“ den Betrieb verließ – nur weil er meinte, er könne in ihm seine Fähigkeiten nicht entfalten und sein Können werde in ihm nicht ausreichend „wertgeschätzt“.  Deshalb sollten Führungskräfte, wenn sie mit einem Mitarbeiter über dessen Arbeit und künftige Entwicklung sprechen, mit ihm vor allem erörtern:   Warum hat der Mitarbeiter diese und jene Aufgabe gut erledigt?   Welche wichtigen Fähigkeiten zeigte er dabei?   Wie sollte sein Arbeitsfeld künftig gestaltet sein, damit er sie noch stärker entfalten kann?   Denn aus den Mitarbeitern werden mit der Zeit nur Spitzenkönner, wenn diese ihre Zeit und Energie auf die Dinge verwenden, wo sie überdurchschnittliche Skills besitzen. Verwenden sie hingegen ihre Energien vor allem darauf, ihre „Schwächen“ zu beseitigen, statt ihre Talente zu schleifen, entwickeln sie sich nie über die Mittelmäßigkeit hinaus.     Führungskräfte profitieren vom Wachsen ihrer Mitarbeiter Das heißt wiederum für die Führungskräfte: Sie müssen das Tun ihrer Mitarbeiter regelmäßig kontrollieren – was alle nervt. Sie können ihnen zudem nicht mit der Zeit stets komplexere und schwierige Aufgaben übertragen – was letztlich auch zu einer Entlastung von ihnen selbst führen würde.   Deshalb sollte es im Eigeninteresse der Führungskräfte liegen, die Entwicklung ihrer Mitarbeiter zu fördern und diese gemäß ihren Stärken, also Fähigkeiten, einzusetzen. Denn nur dann kann sich letztlich auch das gesamte Team zu einem Hochleistungsteam entwickeln. Das wäre auch für ihr eigenes beruflichen Fortkommen förderlich, denn: Die Leistung einer Führungskraft wird stets an der Leistung ihres Teams gemessen.  

Schwache Chefs kehren die Schwächen ihrer Mitarbeiter hervor​ Es sollte im Eigeninteresse der Führungskräfte liegen, die Entwicklung ihrer Mitarbeiter zu fördern und diese gemäß ihren Stärken einzusetzen. Mahmudul-Hassan – Shutterstock 2469113585

„Mein Mitarbeiter x ist extrem pedantisch.“ „Meine Mitarbeiterin y hat keinen Blick für das Nötige.“ Solche Aussagen hört man oft von Führungskräften, wenn man mit ihnen über ihre Mitarbeitenden spricht. Sehr detailliert listen sie dann häufig deren „Schwächen“ auf, dass man den Eindruck gewinnt, der Mitarbeiter hat mehr Schwächen als „Stärken“. Unweigerlich drängt sich die Frage auf: Warum hält der Arbeitgeber dann an dem Mitarbeiter fest?  

 

Stärken sind für Führungskräfte oft nicht der Rede wert

Entsprechend verhalten sich viele Führungskräfte – speziell, wenn sie selbst gestresst sind – auch in Mitarbeitergesprächen. Sie thematisieren in ihnen nach einigen einleitenden warmen Worten vor allem, was in der Vergangenheit nicht optimal verlief. Kaum Zeit verwenden sie jedoch darauf, mit dem Mitarbeitenden Folgendes zu erkunden:  

Was lief gut?  

Warum lief es gut?   

Welche besonderen Fähigkeiten zeigte der Mitarbeiter dabei?  

Unter welchen Voraussetzungen könnte er seine Stärken noch besser entfalten?  

Diese Schieflage spüren auch die Mitarbeiter. Deshalb empfinden sie Mitarbeitergespräche häufig vor allem als Kritikgespräche. Folglich blicken sie ihnen auch eher mit Unbehagen entgegen, als sich auf sie zu freuen, weil sie wissen: In dem Gespräch suchen mein Chef und ich einen Weg, wie ich meine Fähigkeiten noch besser entfalten kann.  

  

Stärken werden häufig als selbstverständlich erachtet

Eine Ursache hierfür ist: Vieles, was wir selbst gut machen, erachten wir als selbstverständlich. So erfüllt es zum Beispiel manch guten Organisator nicht mit Stolz, dass er gut organisieren kann. Und viele exzellente Zuhörer sind nicht stolz darauf, gut zuhören zu können. Entweder, weil ihnen diese Fähigkeit nicht bewusst ist, oder weil sie dieses Können als selbstverständlich erachten. 

Anders ist es mit den Denk- und Verhaltensmustern, an denen wir uns regelmäßig stoßen. Sei es, weil wir ein anderes Wunschbild von uns haben oder weil sie uns im Alltag tatsächlich häufig Probleme bereiten. Mit diesen unerwünschten Denk- und Verhaltensmustern beschäftigen sich viele Menschen tagein, tagaus. Und diese „Schwächen“ versuchen sie abzubauen, statt ihre Stärken auszubauen. 

 

Stärken werden oft erst im Rückblick wertgeschätzt

Ähnlich verhalten sich viele Führungskräfte. Auch sie erachten das, was ihre Mitarbeiter gut können und tun, oft als selbstverständlich. Sei es, dass sie alle Termine einhalten oder viel Eigeninitiative zeigen. Also verlieren sie hierüber keine großen Worte. Stattdessen wenden sie ihre Aufmerksamkeit den Verhaltensmustern zu, bei denen ihre „Untergebenen“ ihrem Wunschbild des „idealen“ Mitarbeiters nicht entsprechen – selbst, wenn diese für den Arbeitserfolg eine geringe Bedeutung haben.  

Ein Umdenken erfolgt oft erst, wenn der Mitarbeiter den Betrieb verlässt und ein neuer seinen Platz einnimmt. Dann wird der Alte häufig glorifiziert und ist das, was zuvor selbstverständlich war, plötzlich nicht mehr selbstverständlich. Plötzlich werden die Stärken des Ex-Mitarbeiters gewürdigt und seine Schwächen sind nur noch ein Anlass für Anekdoten. Und alle beklagen, dass dieser „wertvolle Mitarbeiter“ den Betrieb verließ – nur weil er meinte, er könne in ihm seine Fähigkeiten nicht entfalten und sein Können werde in ihm nicht ausreichend „wertgeschätzt“. 

Deshalb sollten Führungskräfte, wenn sie mit einem Mitarbeiter über dessen Arbeit und künftige Entwicklung sprechen, mit ihm vor allem erörtern:  

Warum hat der Mitarbeiter diese und jene Aufgabe gut erledigt?  

Welche wichtigen Fähigkeiten zeigte er dabei?  

Wie sollte sein Arbeitsfeld künftig gestaltet sein, damit er sie noch stärker entfalten kann?  

Denn aus den Mitarbeitern werden mit der Zeit nur Spitzenkönner, wenn diese ihre Zeit und Energie auf die Dinge verwenden, wo sie überdurchschnittliche Skills besitzen. Verwenden sie hingegen ihre Energien vor allem darauf, ihre „Schwächen“ zu beseitigen, statt ihre Talente zu schleifen, entwickeln sie sich nie über die Mittelmäßigkeit hinaus.  

 

Führungskräfte profitieren vom Wachsen ihrer Mitarbeiter

Das heißt wiederum für die Führungskräfte: Sie müssen das Tun ihrer Mitarbeiter regelmäßig kontrollieren – was alle nervt. Sie können ihnen zudem nicht mit der Zeit stets komplexere und schwierige Aufgaben übertragen – was letztlich auch zu einer Entlastung von ihnen selbst führen würde.  

Deshalb sollte es im Eigeninteresse der Führungskräfte liegen, die Entwicklung ihrer Mitarbeiter zu fördern und diese gemäß ihren Stärken, also Fähigkeiten, einzusetzen. Denn nur dann kann sich letztlich auch das gesamte Team zu einem Hochleistungsteam entwickeln. Das wäre auch für ihr eigenes beruflichen Fortkommen förderlich, denn: Die Leistung einer Führungskraft wird stets an der Leistung ihres Teams gemessen. 

Schwache Chefs kehren die Schwächen ihrer Mitarbeiter hervor​ Weiterlesen »

Istio – Googles Service-Mesh-Plattform erklärt​

Allgemein

Googles quelloffene Service-Mesh-Plattform Istio verspricht Unterstützung bei übermäßig komplexen Microservices-Umgebungen. Foto: Studio concept | shutterstock.com Microservices-Architekturen lösen einige Problemstellungen auf, führen jedoch auch einige neue ein: Applikationen in unabhängige Services aufzusplitten, vereinfacht es zwar, diese zu entwickeln, zu aktualisieren und zu skalieren. Aber es müssen auch bedeutend mehr bewegliche Teile verbunden und abgesichert werden. Sämtliche Netzwerk-Services wie Load Balancing, Traffic Management, Authentifizierung und Autorisierung zu managen, kann sich deshalb äußerst komplex gestalten. Der vernetzte Raum zwischen den Services in Ihrem Kubernetes-Cluster hat auch einen Namen: Service Mesh. Ein solches stellt Google mit dem Open-Source-Projekt Istio zur Verfügung. Im Folgenden betrachten wir die Komponenten und Vorteile dieser quelloffenen Service-Mesh-Plattform. Zur Orientierung zunächst ein kurzes Erklärstück in Videoform: Istio Service Mesh – Komponenten Istio fungiert als Service Mesh, indem es zwei grundlegende Architekturkomponenten für Ihr Cluster bereitstellt: eine Data Plane (Datenebene) und eine Control Plane (Steuerungsebene). Die Data Plane wickelt den Netzwerkverkehr zwischen den Services im Mesh über eine Gruppe von Netzwerk-Proxies ab. Im Fall von Istio läuft das über das Open-Source-Projekt Envoy. Die Control Plane bildet ein Services namens Istiod. Dieser kann für Service-Discovery- und -Management-Zwecke eingesetzt werden und generiert zudem die Zertifikate, die für eine sichere Kommunikation auf dieser Ebene nötig sind. Eine relativ neue Istio-Funktion ist der sogenannte Ambient-Modus, der ein Istio-Deployment möglich macht, ohne jeder Kubernetes-App einen Envoy-Proxy zur Seite zu stellen. Darüber hinaus bietet Istio auch APIs, um diese Dienste zu steuern. Diese fallen in verschiedene Kategorien, die wir Ihnen nachfolgend vorstellen. Virtual Services ermöglichen es, Regeln dafür zu definieren, wie der Datenverkehr geroutet wird. Dabei kann jeder Virtual Service dazu genutzt werden, den Traffic an einen tatsächlichen Service im Mesh zu leiten. Wenn Sie beispielsweise zwei Implementierungen für eine bestimmte API im Rahmen eines A/B-Tests überprüfen wollen, können Sie jeweils eine Hälfte des Datenverkehrs an die unterschiedlichen API-Versionen weiterleiten. Destination Rules steuern, was mit dem Datenverkehr geschieht, nachdem er durch einen Virtual Service geleitet wurde. So lässt sich beispielsweise realisieren, dass Traffic der an unterschiedlichen Ports aufläuft auch unterschiedlichen Load-Balancing-Richtlinien unterliegt. Gateways managen den gesamten ein- und ausgehenden Traffic des Service Mesh – inklusive Load Balancing und L4-L6-Netzwerkprotokollierungsmaßnahmen. Es ist auch möglich, einen Virtual Service an ein Gateway zu koppen, um den Datenfluss zu kontrollieren. Als Ingress-Controller können in Istio der NGINX-Webserver und dessen Proxysystem verwendet werden. Auf diese Weise können die NGINX-Funktionen für erweitertes Load Balancing und Traffic Routing genutzt werden. Service Entries ermöglichen, die Registry von Istio um um bekannte Services zu erweitern. Ein registriertes Dienst wie eine externe API wird so wie ein Bestandteil des Istio-Mesh behandelt (auch wenn das eigentlich nicht der Fall ist). Sidecars unterstützen bei der Konfiguration von Istio, Beispielsweise wenn es um Envoy-Proxies geht, die standardmäßig so konfiguriert sind, dass sie eingehenden Traffic bei allen Ports und ausgehenden Traffic für jeden anderen Workload innerhalb des Mesh ermöglichen. Was das Istio Service Mesh bringt Mit seinem Open-Source-Projekt kann Google Anwenderunternehmen zahlreiche Benefits erschließen. Dazu zählen unter anderem: Abstraktion ist der wertvollste Benefit von Istio: Die quelloffene Lösung ermöglicht, die Komplexität eines Service Mesh “auf Distanz zu halten”. Sämtliche Änderungen am Mesh lassen sich programmatisch über entsprechende Befehle vornehmen – statt eine Vielzahl von Komponenten händisch zu konfigurieren und darauf zu hoffen, dass alles ordnungsgemäß abläuft. Mit dem Mesh verbundene Services müssen zudem nicht “von innen” umprogrammiert werden, um neuen Netzwerk-Richtlinien gerecht zu werden. Und auch die Bereiche zwischen den Diensten müssen nicht mehr direkt angefasst werden. Nicht-destruktive oder vorläufige Änderungen an der Netzwerkkonfiguration des Clusters vornehmen zu können, ist ein weiterer Vorteil: Wenn Sie ein neues Netzwerklayout ganz oder teilweise einführen möchten oder die aktuelle Konfiguration mit einer potenziellen zukünftigen vergleichen möchten, ist das mit Googles quelloffener Plattform möglich – und zwar top down. Sämtliche Änderungen lassen sich dabei auch wieder rückgängig machen, falls sie sich als untauglich erweisen. Observability zählt ebenfalls zu den Istio-Benefits: Die Plattform liefert detaillierte Statistiken und Reportings darüber, was zwischen Containern und Cluster-Knoten vor sich geht. Sollten dabei unvorhergesehene Probleme auftauchen, lässt sich das im Handumdrehen analysieren. Auch gängige Patterns lassen sich mit Googles Service-Mesh-Plattform umsetzen. Beispielsweise das Circuit-Breaker-Pattern – eine Methode, um zu verhindern, dass ein Service mit Anfragen bombardiert wird. Istio bietet dieses und andere Patterns im Rahmen seiner Standardbibliothek im Bereich Richtliniendurchsetzung. Davon abgesehen ist Istio dank offener Standards auch plattformunabhängig – obwohl es relativ eng mit Kubernetes integriert. Die Service-Mesh-Plattform kann als Standalone-Lösung auf individuellen Systemen oder auch auf Orchestrierungs-Lösungen wie Mesos und Nomad eingesetzt werden. Erste Schritte mit Googles Istio Falls Sie bereits einschlägige Kubernetes-Erfahrungen gesammelt haben, empfiehlt es sich, Istio mit einem (nicht produktiven) Cluster und Ihrer bevorzugten Bereitstellungsmethode zu testen. Damit können Sie eine Beispiel-Applikation erstellen, um gängige Funktionalitäten zu testen und grundlegende Erfahrungen mit der Service-Mesh-Plattform zu sammeln, bevor Sie sie in der Produktion einsetzen. Red Hat, das sich im Rahmen seines OpenShift-Projekts ebenfalls an Istio beteiligt hat, hat einige Tutorials im Angebot, die Sie durch gängige Deployment- und Management-Szenarien führen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Istio – Googles Service-Mesh-Plattform erklärt​ Googles quelloffene Service-Mesh-Plattform Istio verspricht Unterstützung bei übermäßig komplexen Microservices-Umgebungen.
Foto: Studio concept | shutterstock.com

Microservices-Architekturen lösen einige Problemstellungen auf, führen jedoch auch einige neue ein: Applikationen in unabhängige Services aufzusplitten, vereinfacht es zwar, diese zu entwickeln, zu aktualisieren und zu skalieren. Aber es müssen auch bedeutend mehr bewegliche Teile verbunden und abgesichert werden. Sämtliche Netzwerk-Services wie Load Balancing, Traffic Management, Authentifizierung und Autorisierung zu managen, kann sich deshalb äußerst komplex gestalten.

Der vernetzte Raum zwischen den Services in Ihrem Kubernetes-Cluster hat auch einen Namen: Service Mesh. Ein solches stellt Google mit dem Open-Source-Projekt Istio zur Verfügung. Im Folgenden betrachten wir die Komponenten und Vorteile dieser quelloffenen Service-Mesh-Plattform.

Zur Orientierung zunächst ein kurzes Erklärstück in Videoform:

Istio Service Mesh – Komponenten

Istio fungiert als Service Mesh, indem es zwei grundlegende Architekturkomponenten für Ihr Cluster bereitstellt: eine Data Plane (Datenebene) und eine Control Plane (Steuerungsebene).

Die Data Plane wickelt den Netzwerkverkehr zwischen den Services im Mesh über eine Gruppe von Netzwerk-Proxies ab. Im Fall von Istio läuft das über das Open-Source-Projekt Envoy.

Die Control Plane bildet ein Services namens Istiod. Dieser kann für Service-Discovery- und -Management-Zwecke eingesetzt werden und generiert zudem die Zertifikate, die für eine sichere Kommunikation auf dieser Ebene nötig sind.

Eine relativ neue Istio-Funktion ist der sogenannte Ambient-Modus, der ein Istio-Deployment möglich macht, ohne jeder Kubernetes-App einen Envoy-Proxy zur Seite zu stellen. Darüber hinaus bietet Istio auch APIs, um diese Dienste zu steuern. Diese fallen in verschiedene Kategorien, die wir Ihnen nachfolgend vorstellen.

Virtual Services ermöglichen es, Regeln dafür zu definieren, wie der Datenverkehr geroutet wird. Dabei kann jeder Virtual Service dazu genutzt werden, den Traffic an einen tatsächlichen Service im Mesh zu leiten. Wenn Sie beispielsweise zwei Implementierungen für eine bestimmte API im Rahmen eines A/B-Tests überprüfen wollen, können Sie jeweils eine Hälfte des Datenverkehrs an die unterschiedlichen API-Versionen weiterleiten.

Destination Rules steuern, was mit dem Datenverkehr geschieht, nachdem er durch einen Virtual Service geleitet wurde. So lässt sich beispielsweise realisieren, dass Traffic der an unterschiedlichen Ports aufläuft auch unterschiedlichen Load-Balancing-Richtlinien unterliegt.

Gateways managen den gesamten ein- und ausgehenden Traffic des Service Mesh – inklusive Load Balancing und L4-L6-Netzwerkprotokollierungsmaßnahmen. Es ist auch möglich, einen Virtual Service an ein Gateway zu koppen, um den Datenfluss zu kontrollieren. Als Ingress-Controller können in Istio der NGINX-Webserver und dessen Proxysystem verwendet werden. Auf diese Weise können die NGINX-Funktionen für erweitertes Load Balancing und Traffic Routing genutzt werden.

Service Entries ermöglichen, die Registry von Istio um um bekannte Services zu erweitern. Ein registriertes Dienst wie eine externe API wird so wie ein Bestandteil des Istio-Mesh behandelt (auch wenn das eigentlich nicht der Fall ist).

Sidecars unterstützen bei der Konfiguration von Istio, Beispielsweise wenn es um Envoy-Proxies geht, die standardmäßig so konfiguriert sind, dass sie eingehenden Traffic bei allen Ports und ausgehenden Traffic für jeden anderen Workload innerhalb des Mesh ermöglichen.

Was das Istio Service Mesh bringt

Mit seinem Open-Source-Projekt kann Google Anwenderunternehmen zahlreiche Benefits erschließen. Dazu zählen unter anderem:

Abstraktion ist der wertvollste Benefit von Istio: Die quelloffene Lösung ermöglicht, die Komplexität eines Service Mesh “auf Distanz zu halten”. Sämtliche Änderungen am Mesh lassen sich programmatisch über entsprechende Befehle vornehmen – statt eine Vielzahl von Komponenten händisch zu konfigurieren und darauf zu hoffen, dass alles ordnungsgemäß abläuft. Mit dem Mesh verbundene Services müssen zudem nicht “von innen” umprogrammiert werden, um neuen Netzwerk-Richtlinien gerecht zu werden. Und auch die Bereiche zwischen den Diensten müssen nicht mehr direkt angefasst werden.

Nicht-destruktive oder vorläufige Änderungen an der Netzwerkkonfiguration des Clusters vornehmen zu können, ist ein weiterer Vorteil: Wenn Sie ein neues Netzwerklayout ganz oder teilweise einführen möchten oder die aktuelle Konfiguration mit einer potenziellen zukünftigen vergleichen möchten, ist das mit Googles quelloffener Plattform möglich – und zwar top down. Sämtliche Änderungen lassen sich dabei auch wieder rückgängig machen, falls sie sich als untauglich erweisen.

Observability zählt ebenfalls zu den Istio-Benefits: Die Plattform liefert detaillierte Statistiken und Reportings darüber, was zwischen Containern und Cluster-Knoten vor sich geht. Sollten dabei unvorhergesehene Probleme auftauchen, lässt sich das im Handumdrehen analysieren.

Auch gängige Patterns lassen sich mit Googles Service-Mesh-Plattform umsetzen. Beispielsweise das Circuit-Breaker-Pattern – eine Methode, um zu verhindern, dass ein Service mit Anfragen bombardiert wird. Istio bietet dieses und andere Patterns im Rahmen seiner Standardbibliothek im Bereich Richtliniendurchsetzung.

Davon abgesehen ist Istio dank offener Standards auch plattformunabhängig – obwohl es relativ eng mit Kubernetes integriert. Die Service-Mesh-Plattform kann als Standalone-Lösung auf individuellen Systemen oder auch auf Orchestrierungs-Lösungen wie Mesos und Nomad eingesetzt werden.

Erste Schritte mit Googles Istio

Falls Sie bereits einschlägige Kubernetes-Erfahrungen gesammelt haben, empfiehlt es sich, Istio mit einem (nicht produktiven) Cluster und Ihrer bevorzugten Bereitstellungsmethode zu testen. Damit können Sie eine Beispiel-Applikation erstellen, um gängige Funktionalitäten zu testen und grundlegende Erfahrungen mit der Service-Mesh-Plattform zu sammeln, bevor Sie sie in der Produktion einsetzen.

Red Hat, das sich im Rahmen seines OpenShift-Projekts ebenfalls an Istio beteiligt hat, hat einige Tutorials im Angebot, die Sie durch gängige Deployment- und Management-Szenarien führen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Istio – Googles Service-Mesh-Plattform erklärt​ Weiterlesen »

Digitale Signatur erstellen: So unterschreiben Sie sicher elektronisch​

Allgemein

Es gibt drei Arten, ein Dokument elektronisch zu unterschreiben. Die drei Varianten bieten eine unterschiedliche Rechtssicherheit. Foto: ronstik – shutterstock.comSignatur ist nicht gleich Signatur. Es wird zwischen drei Typen, beziehungsweise Abstufungen von Signaturen unterschieden, sowohl in der Praxis als auch von Seiten des Gesetzgebers: (Einfache) elektronische Signatur oder “Simple Electronic Signature (SES)”, Fortgeschrittene elektronische Signatur (FES) oder “Advanced Electronic Signature (AES)”, Qualifizierte elektronische Signatur oder “Qualified Electronic Signature (QES)”.die Unterschiede zwischen diesen drei Varianten sollte jeder Nutzer einer elektronischen Signatur kennen, denn sie können große rechtliche Konsequenzen haben – bis hin zur Ungültigkeit von Verträgen.Die (einfache) elektronische SignaturDer Begriff “einfache elektronische Signatur” wird im Gesetzeskontext selbst nicht verwendet, er dient in der Praxis lediglich zur besseren Unterscheidung. Laut der eIDAS-Verordnung (electronic IDentification, Authentication and trust Services) der EU ist die “elektronische Signatur” definiert als “Daten in elektronischer Form, die anderen elektronischen Daten beigefügt oder logisch mit ihnen verbunden werden und die der Unterzeichner zum Unterzeichnen verwendet.” Weitere Anforderungen sind an diese Ausprägung nicht gestellt. Das heißt, unter diesen Typ fallen der eigene Name oder gestaltete Abbinder unter E-Mails genauso wie Scans der manuellen Unterschrift oder ein Foto des Absenders. Allen gemein ist, dass sie leicht digital kopiert werden können und somit keinen Fälschungsschutz bieten.Die fortgeschrittene elektronische SignaturFür die FES kennt eIDAS weitere Spezifikationen (zitiert nach Artikel 26 eIDAS): Sie ist eindeutig dem Unterzeichner zugeordnet. Sie ermöglicht die Identifizierung des Unterzeichners. Sie wird unter Verwendung elektronischer Signaturerstellungsdaten erstellt, die der Unterzeichner mit einem hohen Maß an Vertrauen unter seiner alleinigen Kontrolle verwenden kann. Sie ist so mit den unterzeichneten Daten verbunden, dass eine nachträgliche Veränderung der Daten erkannt werden kann.Die Umsetzung dieser Anforderungen unterliegt allerdings dem Anbieter der Signaturlösung, es findet vorab keine (verpflichtende) Kontrolle durch eine Aufsichtsstelle statt. Erst wenn der Verdacht aufkommt, dass eine fortgeschrittene Signatur nicht korrekt oder gefälscht ist, kann eine Prüfung gerichtlich angeordnet werden.Die qualifizierte elektronische SignaturDieser Typ ist definiert als “eine fortgeschrittene elektronische Signatur, die von einer qualifizierten elektronischen Signaturerstellungseinheit erstellt wurde und auf einem qualifizierten Zertifikat für elektronische Signaturen beruht.” Die genauen Vorgaben für qualifizierte Zertifikate und qualifizierte elektronische Signaturerstellungseinheiten sind in den Anhängen I und II der eIDAS-Verordnung im Detail geregelt. Ohne hier näher darauf einzugehen: Es ist wichtig zu wissen, dass es detaillierte Vorgaben gibt, die auch geprüft werden.Überall, wo das Gesetz die Schriftform vorsieht, sollte mit der qualifizierten elektronischen Signatur unterschrieben werden. Foto: djile – shutterstock.comFür Vertrauensdiensteanbieter, auch Trust Service Provider genannt, gelten hohe Anforderungen hinsichtlich ihrer ausgestellten Zertifikate und der eingesetzten Hardware. Bevor sie als Anbieter anerkannt werden, müssen sie ein komplexes Audit- und Zertifizierungsverfahren durchlaufen. Aufgrund dieser hohen Komplexität ist allein die qualifizierte elektronische Signatur in den allermeisten Fällen der händischen Unterschrift gleichgestellt. Die Trust Service Provider erhalten keinen Einblick in die Dokumente selbst, sodass der Datenschutz gewahrt wird. Ansonsten sind signierte Dokumente in DSGVO-Fragen genauso zu behandeln, wie alle anderen Daten auch.Digitale Signatur erstellen: Wann welche Form? Wann immer Dokumente, Urkunden oder andere Schriftstücke digitalisiert werden sollen, die der gesetzlichen Schriftform unterliegen, muss die QES eingesetzt werden, da nur sie der Unterschrift auf Papier gleichgestellt ist. Zu dieser Art von Dokumenten zählen beispielsweise befristete Arbeitsverträge.Die Verwendung der QES kann auch an anderer Stelle sinnvoll sein, selbst wenn sie dort nicht explizit gesetzlich vorgeschrieben ist. Denn bei der QES gilt in der Regel die Beweisumkehr: Wer behauptet, eine Signatur sei gefälscht, muss dies nachweisen. Bei einfacher und fortgeschrittener Signatur ist es im Streitfall andersherum. Wenn Unternehmen sich in kritischen Fällen absichern wollen oder gerichtliche Auseinandersetzungen nicht auszuschließen sind, sollten sie auf jeden Fall auf die QES setzen.Ist ein mittleres Sicherheitsniveau gefordert, kann auch die FES eine gute Wahl sein. Allerdings sollten Anwender darauf achten, dass der entsprechende Anbieter freiwillig gewissen Standards für fortgeschrittene Signaturen folgt, wie beispielsweise den Vorgaben der europäischen Normungsorganisation ETSI.Auch auf Basis der einfachen elektronischen Signatur können gültige Verträge zustande kommen, wenn weitere Komponenten wie regelmäßige Zahlungen den Vertragscharakter untermauern. Wie wird die QES abgesichert?Hinter der QES steckt eine Public-Key-Infrastruktur, beziehungsweise asymmetrische Kryptografie. Dadurch werden die Signaturen praktisch fälschungssicher und können einfach geprüft werden. Für die Erstellung einer Signatur (Verschlüsselung) wird ein privater Schlüssel benötigt. Zum Prüfen dieses Nachweises (Entschlüsseln) dient ein öffentlicher Schlüssel. Der Zusammenhang zwischen den Schlüsselpaaren wird über eine schwer umkehrbare mathematische Operation wie etwa der Primfaktorzerlegung großer Zahlen hergestellt. Das Knacken dieser Verschlüsselung wäre bei heutiger Technik mit einem nicht lohnenden Rechenaufwand verbunden.Um die Schlüssel der elektronischen Unterschrift zu schützen, sollten Hardware-basierte Sicherheitsmodule verwendet werden. Foto: Anatoly Vartanov – shutterstock.comFür die Integrität des Verfahrens ist allerdings von zentraler Bedeutung, dass die privaten Schlüssel geheim bleiben. Daher werden diese in einem zertifizierten Hardware-Sicherheitsmodul (HSM) erzeugt und verwahrt. Im Gegensatz zu Software-Lösungen bieten HSM-Ansätze eine physische Trennung zu anderen IT-Systemen und somit besseren starken Schutz von Angriffen von außen.In Zukunft werden die Vertrauensdienste allerdings aufrüsten müssen. Mit der überlegenen Rechenleistung von Quantencomputern könnte es bald möglich sein, die heutigen Algorithmen zu knacken. Daher gewinnen HSM-Verfahren, die auf die sogenannte Post-Quanten-Kryptographie vorbereitet sind, an Bedeutung. Sie können mit Algorithmen arbeiten, die so komplex sind, dass auch die Rechenleistung der Quantencomputer für sie keine Gefahr darstellt.Immer wenn es auf zweifelsfreie Beweisbarkeit und höchste Rechtssicherheit ankommt, sollte die QES genutzt werden. Nur hinter diesem Verfahren stehen belastbare und geprüfte kryprografische Methoden. Für weniger sensible Bereiche können auch die anderen Signaturarten zum Einsatz kommen – doch das ist immer im Einzelfall zu entscheiden.Zumindest bei der QES sind auch Bedenken hinsichtlich Datenschutz und Zukunftssicherheit unbegründet. Da die Stakeholder, die beim Signaturprozess zusätzlich ins Spiel kommen, keinen Einblick in die Dokumente selbst erhalten, verhalten sich diese Dokumente wie andere Schriftstücke. (hi) 

Digitale Signatur erstellen: So unterschreiben Sie sicher elektronisch​ Es gibt drei Arten, ein Dokument elektronisch zu unterschreiben. Die drei Varianten bieten eine unterschiedliche Rechtssicherheit.
Foto: ronstik – shutterstock.comSignatur ist nicht gleich Signatur. Es wird zwischen drei Typen, beziehungsweise Abstufungen von Signaturen unterschieden, sowohl in der Praxis als auch von Seiten des Gesetzgebers: (Einfache) elektronische Signatur oder “Simple Electronic Signature (SES)”, Fortgeschrittene elektronische Signatur (FES) oder “Advanced Electronic Signature (AES)”, Qualifizierte elektronische Signatur oder “Qualified Electronic Signature (QES)”.die Unterschiede zwischen diesen drei Varianten sollte jeder Nutzer einer elektronischen Signatur kennen, denn sie können große rechtliche Konsequenzen haben – bis hin zur Ungültigkeit von Verträgen.Die (einfache) elektronische SignaturDer Begriff “einfache elektronische Signatur” wird im Gesetzeskontext selbst nicht verwendet, er dient in der Praxis lediglich zur besseren Unterscheidung. Laut der eIDAS-Verordnung (electronic IDentification, Authentication and trust Services) der EU ist die “elektronische Signatur” definiert als “Daten in elektronischer Form, die anderen elektronischen Daten beigefügt oder logisch mit ihnen verbunden werden und die der Unterzeichner zum Unterzeichnen verwendet.” Weitere Anforderungen sind an diese Ausprägung nicht gestellt. Das heißt, unter diesen Typ fallen der eigene Name oder gestaltete Abbinder unter E-Mails genauso wie Scans der manuellen Unterschrift oder ein Foto des Absenders. Allen gemein ist, dass sie leicht digital kopiert werden können und somit keinen Fälschungsschutz bieten.Die fortgeschrittene elektronische SignaturFür die FES kennt eIDAS weitere Spezifikationen (zitiert nach Artikel 26 eIDAS): Sie ist eindeutig dem Unterzeichner zugeordnet. Sie ermöglicht die Identifizierung des Unterzeichners. Sie wird unter Verwendung elektronischer Signaturerstellungsdaten erstellt, die der Unterzeichner mit einem hohen Maß an Vertrauen unter seiner alleinigen Kontrolle verwenden kann. Sie ist so mit den unterzeichneten Daten verbunden, dass eine nachträgliche Veränderung der Daten erkannt werden kann.Die Umsetzung dieser Anforderungen unterliegt allerdings dem Anbieter der Signaturlösung, es findet vorab keine (verpflichtende) Kontrolle durch eine Aufsichtsstelle statt. Erst wenn der Verdacht aufkommt, dass eine fortgeschrittene Signatur nicht korrekt oder gefälscht ist, kann eine Prüfung gerichtlich angeordnet werden.Die qualifizierte elektronische SignaturDieser Typ ist definiert als “eine fortgeschrittene elektronische Signatur, die von einer qualifizierten elektronischen Signaturerstellungseinheit erstellt wurde und auf einem qualifizierten Zertifikat für elektronische Signaturen beruht.” Die genauen Vorgaben für qualifizierte Zertifikate und qualifizierte elektronische Signaturerstellungseinheiten sind in den Anhängen I und II der eIDAS-Verordnung im Detail geregelt. Ohne hier näher darauf einzugehen: Es ist wichtig zu wissen, dass es detaillierte Vorgaben gibt, die auch geprüft werden.Überall, wo das Gesetz die Schriftform vorsieht, sollte mit der qualifizierten elektronischen Signatur unterschrieben werden.
Foto: djile – shutterstock.comFür Vertrauensdiensteanbieter, auch Trust Service Provider genannt, gelten hohe Anforderungen hinsichtlich ihrer ausgestellten Zertifikate und der eingesetzten Hardware. Bevor sie als Anbieter anerkannt werden, müssen sie ein komplexes Audit- und Zertifizierungsverfahren durchlaufen. Aufgrund dieser hohen Komplexität ist allein die qualifizierte elektronische Signatur in den allermeisten Fällen der händischen Unterschrift gleichgestellt. Die Trust Service Provider erhalten keinen Einblick in die Dokumente selbst, sodass der Datenschutz gewahrt wird. Ansonsten sind signierte Dokumente in DSGVO-Fragen genauso zu behandeln, wie alle anderen Daten auch.Digitale Signatur erstellen: Wann welche Form? Wann immer Dokumente, Urkunden oder andere Schriftstücke digitalisiert werden sollen, die der gesetzlichen Schriftform unterliegen, muss die QES eingesetzt werden, da nur sie der Unterschrift auf Papier gleichgestellt ist. Zu dieser Art von Dokumenten zählen beispielsweise befristete Arbeitsverträge.Die Verwendung der QES kann auch an anderer Stelle sinnvoll sein, selbst wenn sie dort nicht explizit gesetzlich vorgeschrieben ist. Denn bei der QES gilt in der Regel die Beweisumkehr: Wer behauptet, eine Signatur sei gefälscht, muss dies nachweisen. Bei einfacher und fortgeschrittener Signatur ist es im Streitfall andersherum. Wenn Unternehmen sich in kritischen Fällen absichern wollen oder gerichtliche Auseinandersetzungen nicht auszuschließen sind, sollten sie auf jeden Fall auf die QES setzen.Ist ein mittleres Sicherheitsniveau gefordert, kann auch die FES eine gute Wahl sein. Allerdings sollten Anwender darauf achten, dass der entsprechende Anbieter freiwillig gewissen Standards für fortgeschrittene Signaturen folgt, wie beispielsweise den Vorgaben der europäischen Normungsorganisation ETSI.Auch auf Basis der einfachen elektronischen Signatur können gültige Verträge zustande kommen, wenn weitere Komponenten wie regelmäßige Zahlungen den Vertragscharakter untermauern.

Wie wird die QES abgesichert?Hinter der QES steckt eine Public-Key-Infrastruktur, beziehungsweise asymmetrische Kryptografie. Dadurch werden die Signaturen praktisch fälschungssicher und können einfach geprüft werden. Für die Erstellung einer Signatur (Verschlüsselung) wird ein privater Schlüssel benötigt. Zum Prüfen dieses Nachweises (Entschlüsseln) dient ein öffentlicher Schlüssel. Der Zusammenhang zwischen den Schlüsselpaaren wird über eine schwer umkehrbare mathematische Operation wie etwa der Primfaktorzerlegung großer Zahlen hergestellt. Das Knacken dieser Verschlüsselung wäre bei heutiger Technik mit einem nicht lohnenden Rechenaufwand verbunden.Um die Schlüssel der elektronischen Unterschrift zu schützen, sollten Hardware-basierte Sicherheitsmodule verwendet werden.
Foto: Anatoly Vartanov – shutterstock.comFür die Integrität des Verfahrens ist allerdings von zentraler Bedeutung, dass die privaten Schlüssel geheim bleiben. Daher werden diese in einem zertifizierten Hardware-Sicherheitsmodul (HSM) erzeugt und verwahrt. Im Gegensatz zu Software-Lösungen bieten HSM-Ansätze eine physische Trennung zu anderen IT-Systemen und somit besseren starken Schutz von Angriffen von außen.In Zukunft werden die Vertrauensdienste allerdings aufrüsten müssen. Mit der überlegenen Rechenleistung von Quantencomputern könnte es bald möglich sein, die heutigen Algorithmen zu knacken. Daher gewinnen HSM-Verfahren, die auf die sogenannte Post-Quanten-Kryptographie vorbereitet sind, an Bedeutung. Sie können mit Algorithmen arbeiten, die so komplex sind, dass auch die Rechenleistung der Quantencomputer für sie keine Gefahr darstellt.Immer wenn es auf zweifelsfreie Beweisbarkeit und höchste Rechtssicherheit ankommt, sollte die QES genutzt werden. Nur hinter diesem Verfahren stehen belastbare und geprüfte kryprografische Methoden. Für weniger sensible Bereiche können auch die anderen Signaturarten zum Einsatz kommen – doch das ist immer im Einzelfall zu entscheiden.Zumindest bei der QES sind auch Bedenken hinsichtlich Datenschutz und Zukunftssicherheit unbegründet. Da die Stakeholder, die beim Signaturprozess zusätzlich ins Spiel kommen, keinen Einblick in die Dokumente selbst erhalten, verhalten sich diese Dokumente wie andere Schriftstücke. (hi)

Digitale Signatur erstellen: So unterschreiben Sie sicher elektronisch​ Weiterlesen »

Bei BMW checkt die KI die Qualität​

Allgemein

Qualitätsbooster KI – Das KI-System GenAI4Q erlaubt maßgeschneiderte Qualitätschecks in der Fahrzeugmontage. BMW Group Ihrem Premiumanspruch zum Trotz haben sich die deutschen Autobauer in den letzten Jahren in Sachen Qualität nicht gerade mit Ruhm bekleckert. Dafür sorgten sie mit zahlreichen Rückrufen für Schlagzeilen. Und das in einer Phase, in der die chinesischen Hersteller zum Angriff auf die mobile Oberklasse blasen – mit einer Qualitätsanmutung, von der manch hiesiger Hersteller noch lernen kann. Zugegeben, die Chinesen tun sich mit ihren eher standardisierten Ausstattungspaketen in Sachen Qualität und deren Überprüfung einfacher als die deutschen Hersteller, die noch immer eine Vielzahl an individuellen Kundenwünschen erlauben und verwirklichen. Nur wie kann man hier die Qualität fahrzeug- und ausstattungsspezifisch prüfen und sicherstellen? Maßgeschneiderte Qualitätschecks Vor dieser Frage stand man auch im BMW Group Werk Regensburg. Hier werden täglich rund 1.400 Fahrzeuge gefertigt. Oder anders: Alle 57 Sekunden verlässt ein neues Fahrzeug das Regensburger Montageband, nach individuellem Kundenwunsch für den Weltmarkt gebaut. Dazu werden verschiedene Antriebsformen werden flexibel auf einer Produktionslinie produziert – vom Fahrzeug mit Verbrennungsmotor über Fahrzeuge mit Plug-in-Hybrid bis hin zu vollelektrischen Modellen. Hinzu kommen unzählige Modell- und Ausstattungsvarianten. Wie lässt sich hier die Qualitätskontrolle effizienter, schneller und zuverlässiger gestalten? Und das möglichst mit einem individuellen Prüfkatalog für jedes spezifische Kundenfahrzeug. Da BMW bei der digitalen Transformation seiner Produktion grundsätzlich auch KI einsetzt, lag die Lösung fast auf der Hand: Kann nicht die KI als Qualitätsbooster dienen? KI erstellt Prüfungsumfang Aus der Idee entstand das Projekt GenAI4Q, um per KI in der Produktion maßgeschneiderte Qualitätschecks durchzuführen. Um diese maßgeschneiderten Vorgaben zu erstellen, analysiert die KI riesige Datenmengen. Sie erhält nicht nur Fahrzeugdaten wie Modell und Ausstattungsvariante, sondern auch aktuelle Daten aus der Produktion zu dem jeweiligen Fahrzeug, die in Echtzeit zur Verfügung gestellt werden. Indem das KI-System Muster und Zusammenhänge erkennt, fällt es schnell und automatisiert die Entscheidung für den Prüfumfang und stellt diesen in einer Smartphone-App in einer intelligenten Reihenfolge zusammen. Rüdiger Römich, der das Prüffeld und Finish in der Regensburger Fahrzeugmontage verantwortet, erklärt den Funktionsumfang der App: „Eine intuitive Bedienung ermöglicht die einfache Erfassung der Prüfergebnisse. Der Mitarbeitende kann dabei bei Bedarf auch weiterführende Funktionen nutzen, beispielweise über ein Mikrofon-Icon in der App eine Sprachaufnahme starten.“ Spracherkennung und Transkription nach einheitlicher Codierung übernimmt schließlich wieder die KI. Entwickelt wurde die KI-basierte Qualitätsprüfung im BMW Group Werk Regensburg zusammen mit dem Münchner Startup Datagon AI. 

Bei BMW checkt die KI die Qualität​ Qualitätsbooster KI – Das KI-System GenAI4Q erlaubt maßgeschneiderte Qualitätschecks in der Fahrzeugmontage.
BMW Group

Ihrem Premiumanspruch zum Trotz haben sich die deutschen Autobauer in den letzten Jahren in Sachen Qualität nicht gerade mit Ruhm bekleckert. Dafür sorgten sie mit zahlreichen Rückrufen für Schlagzeilen. Und das in einer Phase, in der die chinesischen Hersteller zum Angriff auf die mobile Oberklasse blasen – mit einer Qualitätsanmutung, von der manch hiesiger Hersteller noch lernen kann.

Zugegeben, die Chinesen tun sich mit ihren eher standardisierten Ausstattungspaketen in Sachen Qualität und deren Überprüfung einfacher als die deutschen Hersteller, die noch immer eine Vielzahl an individuellen Kundenwünschen erlauben und verwirklichen. Nur wie kann man hier die Qualität fahrzeug- und ausstattungsspezifisch prüfen und sicherstellen?

Maßgeschneiderte Qualitätschecks

Vor dieser Frage stand man auch im BMW Group Werk Regensburg. Hier werden täglich rund 1.400 Fahrzeuge gefertigt. Oder anders: Alle 57 Sekunden verlässt ein neues Fahrzeug das Regensburger Montageband, nach individuellem Kundenwunsch für den Weltmarkt gebaut. Dazu werden verschiedene Antriebsformen werden flexibel auf einer Produktionslinie produziert – vom Fahrzeug mit Verbrennungsmotor über Fahrzeuge mit Plug-in-Hybrid bis hin zu vollelektrischen Modellen. Hinzu kommen unzählige Modell- und Ausstattungsvarianten.

Wie lässt sich hier die Qualitätskontrolle effizienter, schneller und zuverlässiger gestalten? Und das möglichst mit einem individuellen Prüfkatalog für jedes spezifische Kundenfahrzeug. Da BMW bei der digitalen Transformation seiner Produktion grundsätzlich auch KI einsetzt, lag die Lösung fast auf der Hand: Kann nicht die KI als Qualitätsbooster dienen?

KI erstellt Prüfungsumfang

Aus der Idee entstand das Projekt GenAI4Q, um per KI in der Produktion maßgeschneiderte Qualitätschecks durchzuführen. Um diese maßgeschneiderten Vorgaben zu erstellen, analysiert die KI riesige Datenmengen. Sie erhält nicht nur Fahrzeugdaten wie Modell und Ausstattungsvariante, sondern auch aktuelle Daten aus der Produktion zu dem jeweiligen Fahrzeug, die in Echtzeit zur Verfügung gestellt werden. Indem das KI-System Muster und Zusammenhänge erkennt, fällt es schnell und automatisiert die Entscheidung für den Prüfumfang und stellt diesen in einer Smartphone-App in einer intelligenten Reihenfolge zusammen.

Rüdiger Römich, der das Prüffeld und Finish in der Regensburger Fahrzeugmontage verantwortet, erklärt den Funktionsumfang der App: „Eine intuitive Bedienung ermöglicht die einfache Erfassung der Prüfergebnisse. Der Mitarbeitende kann dabei bei Bedarf auch weiterführende Funktionen nutzen, beispielweise über ein Mikrofon-Icon in der App eine Sprachaufnahme starten.“ Spracherkennung und Transkription nach einheitlicher Codierung übernimmt schließlich wieder die KI.

Entwickelt wurde die KI-basierte Qualitätsprüfung im BMW Group Werk Regensburg zusammen mit dem Münchner Startup Datagon AI.

Bei BMW checkt die KI die Qualität​ Weiterlesen »

Unternehmen hadern mit digitaler Weiterbildung​

Allgemein

Ob der Einsatz von Künstlicher Intelligenz, Maßnahmen zu IT-Sicherheit und Datenschutz oder die Nutzung spezieller Tools wie Kollaborations-Software oder Cloud-Diensten – grundlegende Digitalkompetenzen sind inzwischen in den meisten Berufen notwendig.Shutterstock/Andrey_Popov Obwohl Digitalkompetenz im Berufsleben eine zunehmend wichtige Rolle spielt, stellt die entsprechende Weiterbildung viele Unternehmen vor Herausforderungen. Das ist das zentrale Ergebnis einer repräsentativen Befragung von 603 Unternehmen ab 20 Beschäftigten in Deutschland im Auftrag des Digitalverbands Bitkom.   Nur vereinzelte Weiterbildungsangebote  Wie die Umfrage ergab, bilden zwar rund drei Viertel der Unternehmen (73 Prozent) Mitarbeiterinnen und Mitarbeiter zu Digitalthemen weiter. Allerdings gibt es bei den meisten (62 Prozent) solche Angebote nur vereinzelt, lediglich bei elf Prozent werden sie allen oder fast allen Beschäftigten angeboten. Bei weiteren 18 Prozent gibt es bislang keine solchen Weiterbildungen, sie werden aber diskutiert oder geplant. Nur für acht Prozent der Unternehmen ist die Vermittlung digitaler Kompetenzen kein Thema.  Ein ähnliches Bild zeichnet sich beim Digital Upskilling ab. Zwar geben rund zwei Drittel der Unternehmen (70 Prozent) an, dass sie Beschäftigte durch die Vermittlung von Digitalkompetenzen für neue Aufgaben und Tätigkeitsbereiche qualifizieren wollen. Allerdings hat nur jedes zweite Unternehmen (50 Prozent) eine Strategie zur Weiterbildung rund um Digitalthemen.  Obwohl Digitalkompetenz im Berufsleben zunehmend wichtig wird, kommen meist nicht alle Mitarbeiter in den Genuss einer Weiterbildung. Bitkom „Bei der Digitalisierung des Unternehmens geht es nicht nur um Investitionen in Technologie, es geht ebenso um Investitionen in Menschen“, kommentiert Bitkom-Präsident Ralf Wintergerst die Ergebnisse. „Keine Branche und kaum ein Beruf wird in Zukunft ohne digitale Kompetenzen auskommen. Gerade mit Blick auf den sich verschärfenden Fachkräftemangel müssen Unternehmen die eigenen Beschäftigten für die neuen Aufgaben der digitalen Arbeitswelt qualifizieren.“  Wie die Studienergebnissen andeuten, ist dies aber leichter gesagt als getan. In der Praxis stellt die Weiterbildung rund um Digitalthemen Unternehmen vor zahlreiche Herausforderungen. So findet ein Drittel der Befragten (33 Prozent) das Angebot an Weiterbildungen zu unübersichtlich, ebenso viele (33 Prozent) geben an, keine Zeit für die Weiterbildung der Belegschaft zu haben. 32 Prozent fehlt es am Geld dafür. Und knapp jedes zweite Unternehmen (46 Prozent) gibt an, viele der eigenen Beschäftigten hätten keine Lust auf Weiterbildungen zu Digitalthemen.  

Unternehmen hadern mit digitaler Weiterbildung​ Ob der Einsatz von Künstlicher Intelligenz, Maßnahmen zu IT-Sicherheit und Datenschutz oder die Nutzung spezieller Tools wie Kollaborations-Software oder Cloud-Diensten – grundlegende Digitalkompetenzen sind inzwischen in den meisten Berufen notwendig.Shutterstock/Andrey_Popov

Obwohl Digitalkompetenz im Berufsleben eine zunehmend wichtige Rolle spielt, stellt die entsprechende Weiterbildung viele Unternehmen vor Herausforderungen. Das ist das zentrale Ergebnis einer repräsentativen Befragung von 603 Unternehmen ab 20 Beschäftigten in Deutschland im Auftrag des Digitalverbands Bitkom.  

Nur vereinzelte Weiterbildungsangebote 

Wie die Umfrage ergab, bilden zwar rund drei Viertel der Unternehmen (73 Prozent) Mitarbeiterinnen und Mitarbeiter zu Digitalthemen weiter. Allerdings gibt es bei den meisten (62 Prozent) solche Angebote nur vereinzelt, lediglich bei elf Prozent werden sie allen oder fast allen Beschäftigten angeboten. Bei weiteren 18 Prozent gibt es bislang keine solchen Weiterbildungen, sie werden aber diskutiert oder geplant. Nur für acht Prozent der Unternehmen ist die Vermittlung digitaler Kompetenzen kein Thema. 

Ein ähnliches Bild zeichnet sich beim Digital Upskilling ab. Zwar geben rund zwei Drittel der Unternehmen (70 Prozent) an, dass sie Beschäftigte durch die Vermittlung von Digitalkompetenzen für neue Aufgaben und Tätigkeitsbereiche qualifizieren wollen. Allerdings hat nur jedes zweite Unternehmen (50 Prozent) eine Strategie zur Weiterbildung rund um Digitalthemen. 

Obwohl Digitalkompetenz im Berufsleben zunehmend wichtig wird, kommen meist nicht alle Mitarbeiter in den Genuss einer Weiterbildung. Bitkom

„Bei der Digitalisierung des Unternehmens geht es nicht nur um Investitionen in Technologie, es geht ebenso um Investitionen in Menschen“, kommentiert Bitkom-Präsident Ralf Wintergerst die Ergebnisse. „Keine Branche und kaum ein Beruf wird in Zukunft ohne digitale Kompetenzen auskommen. Gerade mit Blick auf den sich verschärfenden Fachkräftemangel müssen Unternehmen die eigenen Beschäftigten für die neuen Aufgaben der digitalen Arbeitswelt qualifizieren.“ 

Wie die Studienergebnissen andeuten, ist dies aber leichter gesagt als getan. In der Praxis stellt die Weiterbildung rund um Digitalthemen Unternehmen vor zahlreiche Herausforderungen. So findet ein Drittel der Befragten (33 Prozent) das Angebot an Weiterbildungen zu unübersichtlich, ebenso viele (33 Prozent) geben an, keine Zeit für die Weiterbildung der Belegschaft zu haben. 32 Prozent fehlt es am Geld dafür. Und knapp jedes zweite Unternehmen (46 Prozent) gibt an, viele der eigenen Beschäftigten hätten keine Lust auf Weiterbildungen zu Digitalthemen. 

Unternehmen hadern mit digitaler Weiterbildung​ Weiterlesen »

6 WebAssembly-fähige Sprachen​

Allgemein

Einige Programmiersprachen sind besser für Wasm geeignet als andere.TippaPatt | shutterstock.com WebAssembly, kurz Wasm, bietet Entwicklern die Möglichkeit, Programme zu erstellen, die mit nahezu nativer Geschwindigkeit im Browser ausgeführt werden können. Oder überall sonst, wo die WebAssembly-Laufzeitumgebung bereitgestellt werden kann. Allerdings werden Applikationen im Regelfall nicht direkt in Wasm geschrieben, sondern in anderen Sprachen, um sie anschließend zu kompilieren – mit Wasm als Ziel. Die folgenden sechs Sprachen lassen sich über verschiedene Tools mit unterschiedlichem Aufwand und Kompatibilitätsgrad – auf Wasm-Laufzeitumgebungen bereitstellen. Rust Rust ist wahrscheinlich die Sprache, die sich am besten für den WebAssembly-Einsatz eignet. Das liegt auch daran, dass existierender Rust-Code nicht wesentlich modifiziert werden muss, um ihn in Wasm zu kompilieren: Das Gros der nötigen Änderungen besteht darin, das richtige Compiler-Ziel und die korrekten Kompilierungseinstellungen einzurichten. Das Tooling generiert außerdem automatisch JavaScript-Boilerplate-Code, der ermöglicht, dass die kompilierten Wasm-Module direkt mit Webseiten interagieren können. Die Größe des kompilierten Moduls variiert dabei, allerdings ist Rust-Code relativ schlank und effizient – ein simples „Hello, world“ ist deshalb in der Regel nicht größer als einige Kilobyte. Die Entwickler hinter Rust stellen zudem auch einen umfassenden Leitfaden zur Wasm-Nutzung bereit. Dieser enthält zum Beispiel detaillierte Informationen darüber, wie sich die Größe der Binaries in Grenzen halten lässt oder wie sich existierende, universelle Rust Crates um Wasm-Support erweitern lassen. C/C++ C und C++ zählten zu den ersten Sprachen, die für Wasm kompiliert wurden. Das lag vor allem daran, dass viele der Low-Level-Verhaltensweisen dieser Sprachen gut auf dem Befehlssatz von Wasm abgebildet werden können. So waren auch die ersten Wasm-Demos Portierungen von Grafikdemos und Spielen, die in C/C++ geschrieben waren. Diese Proof-of-Concept-Projekte (etwa Doom im Browser) haben wesentlichen Anteil daran, dass sich WebAssembly etablieren konnte. Eines der ersten Tools, um C/C++ in Wasm zu kompilieren, war die Emscripten-Toolchain. Diese hat sich seitdem zu einer vollwertigen Toolchain zu diesem Zweck entwickelt – und bietet detaillierte Anweisungen, um Code zu portieren. So können etwa SIMD, Netzwerke, C++-Exceptions, asynchroner Code und viele andere erweiterte Funktionen nach Wasm portiert werden. Der Arbeitsaufwand variiert dabei je nach Funktion. So ist Pthread-Support beispielsweise nicht standardmäßig aktiviert und funktioniert in Browsern nur, wenn der Webserver bestimmte Ursprungs-Header korrekt gesetzt hat. Ab Version 8 kann der Clang C/C++-Compiler ohne zusätzliche Tools nativ für Wasm kompilieren. Emscripten verwendet jedoch dieselbe zugrundeliegende Technologie wie Clang und bietet möglicherweise ein umfassenderes Toolset. Golang Go wurde bereits mit Version 1.11 im August 2018 um WebAssembly-Support ergänzt. Ähnlich wie bei Rust betreffen die meisten Änderungen, die an Go-Programmen für Wasm vorgenommen werden müssen eher den Kompilierungsprozess als das Programm selbst. Die Wasm-Toolchain ist dabei im Go-Compiler enthalten, so dass keine weiteren Tools oder Packages nötig sind. Lediglich die Umgebungsvariablen GOOS und GOARCH sind beim Kompilieren zu ändern. Manuell einzurichten ist hingegen der JavaScript-Boilerplate-Code, der nötig ist, um Wasm-kompilierte Go-Module verwenden zu können. Dazu müssen allerdings lediglich einige Dateien kopiert werden. Der Vorgang lässt sich darüber hinaus auch automatisieren. Komplexer wird’s, wenn es um die Interaktion mit dem DOM geht. Die dafür enthaltenen Tools (syscalls/js-Package) funktionieren, sind aber höchstens für simple Interaktionen geeignet. Für alles, was darüber hinausgeht, empfiehlt sich eine (geeignete) Drittanbieter-Bibliothek. Ein weiterer Nachteil, Go mit Wasm zu nutzen, ist die Größe der generierten Binärartefakte. Aufgrund der Laufzeitumgebung von Go kann selbst ein „Hello, world“-Modul bis zu zwei Megabyte groß werden. Um Platz zu sparen, können Sie Wasm-Binärdateien jedoch komprimieren – oder eine andere Go-Laufzeitumgebung verwenden, wie beispielsweise TinyGo. Diese Option funktioniert aber nur mit einer Teilmenge von Golang. JavaScript Es könnte redundant erscheinen, JavaScript in Wasm zu übersetzen. Schließlich läuft Wasm im Regelfall im Browser – und diese verfügen in den allermeisten Fällen über eine integrierte JavaScript-Laufzeitumgebung. Trotzdem ist es möglich, JavaScript in Wasm zu kompilieren. Zu diesem Zweck empfiehlt sich in erster Linie das Tool Javy, das von der Bytecode Alliance (ein Haupt-Kontributor für Wasm-Initiativen) entwickelt wird. Javy kompiliert JavaScript-Code allerdings genau genommen nicht wirklich in Wasm, sondern führt ihn in einer Wasm-basierten JavaScript-Laufzeitumgebung aus. Zudem macht sich das Werkzeug auch eine dynamische Linking-Strategie zu Nutze, um die resultierenden Wasm-Module relativ klein zu halten. Auch hier variiert die Größe jedoch je nach den in Ihrem Programm verwendeten Funktionen. Python Die Situation bei Python gestaltet sich ähnlich wie bei Go: Python-Programme lassen sich nicht ohne die Python-Laufzeitumgebung ausführen. Und ohne die Python-Standardbibliothek ist es schwierig, etwas Sinnvolles anzustellen. Ganz zu schweigen vom ausufernden Python-Ökosystem. Sie könnten Python zwar über die Wasm-Laufzeitumgebung ausführen, das ist aber vor allem eines: umständlich. Eine bessere Methode, Python-Anwendungen über eine Wasm-Laufzeitumgebung auszuführen, bietet Pyodide – eine Portierung der CPython-Laufzeitumgebung auf Wasm über Emscripten. Eine Implementierung davon, PyScript, ermöglicht es, Python-Programme in Webseiten wie JavaScript auszuführen. Es umfasst auch bidirektionalen Support für die Kommunikation zwischen Python und der JavaScript/DOM-Seite. Dennoch hat Pyodide auch mehrere Nachteile: Pakete, die C-Erweiterungen verwenden (etwa NumPy), müssen manuell auf Pyodide portiert werden, damit sie funktionieren. Von PyPI können nur reine Python-Pakete installiert werden. Außerdem muss Pyodide ein separates Wasm-Paket für die Python-Laufzeitumgebung herunterladen, das mehrere Megabyte groß ist. Das kann – je nach Voraussetzungen – ein Hindernis darstellen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

6 WebAssembly-fähige Sprachen​ Einige Programmiersprachen sind besser für Wasm geeignet als andere.TippaPatt | shutterstock.com

WebAssembly, kurz Wasm, bietet Entwicklern die Möglichkeit, Programme zu erstellen, die mit nahezu nativer Geschwindigkeit im Browser ausgeführt werden können. Oder überall sonst, wo die WebAssembly-Laufzeitumgebung bereitgestellt werden kann. Allerdings werden Applikationen im Regelfall nicht direkt in Wasm geschrieben, sondern in anderen Sprachen, um sie anschließend zu kompilieren – mit Wasm als Ziel.

Die folgenden sechs Sprachen lassen sich über verschiedene Tools mit unterschiedlichem Aufwand und Kompatibilitätsgrad – auf Wasm-Laufzeitumgebungen bereitstellen.

Rust

Rust ist wahrscheinlich die Sprache, die sich am besten für den WebAssembly-Einsatz eignet. Das liegt auch daran, dass existierender Rust-Code nicht wesentlich modifiziert werden muss, um ihn in Wasm zu kompilieren: Das Gros der nötigen Änderungen besteht darin, das richtige Compiler-Ziel und die korrekten Kompilierungseinstellungen einzurichten. Das Tooling generiert außerdem automatisch JavaScript-Boilerplate-Code, der ermöglicht, dass die kompilierten Wasm-Module direkt mit Webseiten interagieren können.

Die Größe des kompilierten Moduls variiert dabei, allerdings ist Rust-Code relativ schlank und effizient – ein simples „Hello, world“ ist deshalb in der Regel nicht größer als einige Kilobyte. Die Entwickler hinter Rust stellen zudem auch einen umfassenden Leitfaden zur Wasm-Nutzung bereit. Dieser enthält zum Beispiel detaillierte Informationen darüber, wie sich die Größe der Binaries in Grenzen halten lässt oder wie sich existierende, universelle Rust Crates um Wasm-Support erweitern lassen.

C/C++

C und C++ zählten zu den ersten Sprachen, die für Wasm kompiliert wurden. Das lag vor allem daran, dass viele der Low-Level-Verhaltensweisen dieser Sprachen gut auf dem Befehlssatz von Wasm abgebildet werden können. So waren auch die ersten Wasm-Demos Portierungen von Grafikdemos und Spielen, die in C/C++ geschrieben waren. Diese Proof-of-Concept-Projekte (etwa Doom im Browser) haben wesentlichen Anteil daran, dass sich WebAssembly etablieren konnte.

Eines der ersten Tools, um C/C++ in Wasm zu kompilieren, war die Emscripten-Toolchain. Diese hat sich seitdem zu einer vollwertigen Toolchain zu diesem Zweck entwickelt – und bietet detaillierte Anweisungen, um Code zu portieren. So können etwa SIMD, Netzwerke, C++-Exceptions, asynchroner Code und viele andere erweiterte Funktionen nach Wasm portiert werden. Der Arbeitsaufwand variiert dabei je nach Funktion. So ist Pthread-Support beispielsweise nicht standardmäßig aktiviert und funktioniert in Browsern nur, wenn der Webserver bestimmte Ursprungs-Header korrekt gesetzt hat.

Ab Version 8 kann der Clang C/C++-Compiler ohne zusätzliche Tools nativ für Wasm kompilieren. Emscripten verwendet jedoch dieselbe zugrundeliegende Technologie wie Clang und bietet möglicherweise ein umfassenderes Toolset.

Golang

Go wurde bereits mit Version 1.11 im August 2018 um WebAssembly-Support ergänzt. Ähnlich wie bei Rust betreffen die meisten Änderungen, die an Go-Programmen für Wasm vorgenommen werden müssen eher den Kompilierungsprozess als das Programm selbst. Die Wasm-Toolchain ist dabei im Go-Compiler enthalten, so dass keine weiteren Tools oder Packages nötig sind. Lediglich die Umgebungsvariablen GOOS und GOARCH sind beim Kompilieren zu ändern. Manuell einzurichten ist hingegen der JavaScript-Boilerplate-Code, der nötig ist, um Wasm-kompilierte Go-Module verwenden zu können. Dazu müssen allerdings lediglich einige Dateien kopiert werden. Der Vorgang lässt sich darüber hinaus auch automatisieren.

Komplexer wird’s, wenn es um die Interaktion mit dem DOM geht. Die dafür enthaltenen Tools (syscalls/js-Package) funktionieren, sind aber höchstens für simple Interaktionen geeignet. Für alles, was darüber hinausgeht, empfiehlt sich eine (geeignete) Drittanbieter-Bibliothek. Ein weiterer Nachteil, Go mit Wasm zu nutzen, ist die Größe der generierten Binärartefakte. Aufgrund der Laufzeitumgebung von Go kann selbst ein „Hello, world“-Modul bis zu zwei Megabyte groß werden. Um Platz zu sparen, können Sie Wasm-Binärdateien jedoch komprimieren – oder eine andere Go-Laufzeitumgebung verwenden, wie beispielsweise TinyGo. Diese Option funktioniert aber nur mit einer Teilmenge von Golang.

JavaScript

Es könnte redundant erscheinen, JavaScript in Wasm zu übersetzen. Schließlich läuft Wasm im Regelfall im Browser – und diese verfügen in den allermeisten Fällen über eine integrierte JavaScript-Laufzeitumgebung. Trotzdem ist es möglich, JavaScript in Wasm zu kompilieren.

Zu diesem Zweck empfiehlt sich in erster Linie das Tool Javy, das von der Bytecode Alliance (ein Haupt-Kontributor für Wasm-Initiativen) entwickelt wird. Javy kompiliert JavaScript-Code allerdings genau genommen nicht wirklich in Wasm, sondern führt ihn in einer Wasm-basierten JavaScript-Laufzeitumgebung aus. Zudem macht sich das Werkzeug auch eine dynamische Linking-Strategie zu Nutze, um die resultierenden Wasm-Module relativ klein zu halten. Auch hier variiert die Größe jedoch je nach den in Ihrem Programm verwendeten Funktionen.

Python

Die Situation bei Python gestaltet sich ähnlich wie bei Go: Python-Programme lassen sich nicht ohne die Python-Laufzeitumgebung ausführen. Und ohne die Python-Standardbibliothek ist es schwierig, etwas Sinnvolles anzustellen. Ganz zu schweigen vom ausufernden Python-Ökosystem. Sie könnten Python zwar über die Wasm-Laufzeitumgebung ausführen, das ist aber vor allem eines: umständlich.

Eine bessere Methode, Python-Anwendungen über eine Wasm-Laufzeitumgebung auszuführen, bietet Pyodide – eine Portierung der CPython-Laufzeitumgebung auf Wasm über Emscripten. Eine Implementierung davon, PyScript, ermöglicht es, Python-Programme in Webseiten wie JavaScript auszuführen. Es umfasst auch bidirektionalen Support für die Kommunikation zwischen Python und der JavaScript/DOM-Seite.

Dennoch hat Pyodide auch mehrere Nachteile: Pakete, die C-Erweiterungen verwenden (etwa NumPy), müssen manuell auf Pyodide portiert werden, damit sie funktionieren. Von PyPI können nur reine Python-Pakete installiert werden. Außerdem muss Pyodide ein separates Wasm-Paket für die Python-Laufzeitumgebung herunterladen, das mehrere Megabyte groß ist. Das kann – je nach Voraussetzungen – ein Hindernis darstellen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

6 WebAssembly-fähige Sprachen​ Weiterlesen »

Software-Entwicklung: Warum Aufwandsschätzungen nicht funktionieren​

Allgemein

Aufwandsschätzungen im Bereich der Softwareentwicklung haben oft unerwünschte Konsequenzen. Foto: africa_pink – shutterstock.com Die meisten Aufwandsschätzungen für die Softwareentwicklung sind Makulatur. Das liegt nicht unbedingt daran, dass die Unternehmen die falschen Methoden oder Tools verwenden. Das Problem liegt vielmehr darin, dass solche Schätzungen auf einem grundlegend falschen Verständnis davon beruhen, wie qualitativ hochwertige Software entwickelt wird. Die Auswirkungen von falschen Annahmen gehen weit über gesprengte Budgets und verpasste Deadlines hinaus. Das eigentliche Problem sind die resultierenden Fehlsteuerungen: Oft führen Aufwandsschätzungen zu verändertem Verhalten und haben zur Folge, dass der Business Value gegenüber irgendwelchen vorzeigbare Metriken in den Hintergrund gedrängt wird. Unsicherheiten gehören zur Softwareentwicklung In agilen Umgebungen basieren Aufwandsschätzungen oft auf Story Points und Geschwindigkeit. Dabei spielen Fragen eine Rolle wie: Wie “komplex” wird es sein, ein Teilstück einer Lösung zu erstellen? Wie lange brauchen wir in der Regel, um ein Projekt solcher Komplexität abzuschließen? Wenn wir auf diese Weise schätzen, sind wir uns darüber im Klaren, dass nicht alles nach Plan verlaufen wird. Den meisten Kalkulationen liegt jedoch die gefährliche Annahme zugrunde, dass auch diese Unsicherheiten quantifiziert werden können. Weil wir wissen, dass unsere optimistischen Entwickler dazu neigen, die Zeit, die sie für eine bestimmte Aufgabe brauchen, um durchschnittlich 15 Prozent zu unterschätzen, schlagen wir diese 15 Prozent eben drauf, um eine genauere Vorhersage zu erhalten. Diese Besessenheit, den gesamten Entwicklungsprozess vorab spezifizieren und messen zu wollen, degradiert Entwickler zu Maschinen, die vorhersagbare Ergebnisse am Fließband durch eine Pipeline schieben sollen. Doch mathematische Berechnungen sind hier nur begrenzt möglich. Menschen sind keine Maschinen. Zu glauben, man könne die Komplexität einer nicht-trivialen Softwareentwicklungsaufgabe im Voraus exakt einschätzen, ist ein Trugschluss. Software Development ist ein Gebiet, auf dem sich ständig vieles schnell verändert. Etliche Herausforderungen, mit denen Entwickler konfrontiert werden, sind neu und unbekannt. Und selbst die bekannten Herausforderungen unterliegen einem Wandel. Soll heißen: Die Performance der letzten Woche ist ein schlechter Indikator für die der nächsten Woche. Nehmen wir ein triviales Beispiel: die Implementierung einer Anmeldeseite. Jeder erfahrene Softwareentwickler hat das schon Dutzende oder Hunderte Male erledigt. Das Lösungsmuster ist bekannt, und es lässt sich vorhersagen, wie lange die Task in Anspruch nehmen wird. Plötzlich kommt jedoch eine neue, wesentlich sicherere Authentifizierungsmethode auf, was zur Folge hat, dass die Aufgabe grundlegend überdacht werden muss. Die meisten softwaretechnischen Herausforderungen sind deutlich komplizierter als das Implementieren einer Login-Page. Immerhin geht es ja auch darum, komplexe Probleme zu lösen und Mehrwerte zu schaffen. Softwareentwickler betreten oft Neuland, sie erledigen Aufgaben, die nie zuvor – oder auf andere Weise – angegangen wurden. Sie sind bestenfalls mit einem Kompass ausgestattet, aber nicht mit einer Landkarte. Es gilt, Arbeiten in Angriff zu nehmen, die sinnvoll und lohnend sind. Die schlechte Vorhersehbarkeit ist für die Entwickler auch nicht das Problem, wohl aber die oft willkürlichen Schätzungen. Aufwandsschätzung auf Abwegen Unzureichende Aufwandsschätzungen im Bereich der Softwareentwicklung entmenschlichen die Entwickler und implizieren, dass lediglich das System und seine Prozesse zählen. Das führt zu schlechtem Verhalten und damit wiederum zu: minderwertigem Engineering, dem Verlust von Talenten und weniger werthaltigen Lösungen. Willkürliche Aufwandsschätzungen sind zudem Kennzeichen einer dysfunktionalen Kultur: Entwickler werden unter Zwang gesetzt zu produzieren, sie sollen sich weder für ihre Arbeit noch für ihr Unternehmen interessieren. Schlimmer noch: Wenn Sie das allzu grob kalkulierte Ergebnis nicht in der vorgesehen Zeit liefern, dürfen sie sich von der Work-Life-Balance verabschieden und einen Nachtschicht-Marathon einlegen. Schädlich wird das Ganze, wenn die Entwickler unter Druck ihre Herangehensweise ändern, nach dem Motto: Sie können in der Ihnen zugewiesenen Zeit keine qualitativ hochwertige Lösung programmieren? Dann nehmen Sie doch eine Abkürzung, damit Sie das Ticket möglichst schnell schließen können. Die nachgelagerten Probleme, die dadurch entstehen, geraten dann aus dem Blickfeld. Automatisiertes Testing? Das kann wegfallen. Das gilt auch für die kreative Idee, wie diese Software besser als ursprünglich geplant hätte entwickelt werden können. Entwickler behalten sie lieber für sich, um den Zeitplan nicht zu gefährden. Hinzu kommt, dass Entwickler, denen man solche Aufwandsschätzungen unter die Nase hält, irgendwann Wege finden werden, dieses System zu untergraben. Sie werden die Komplexität der Aufgaben absichtlich überschätzen, um Zeit zu gewinnen. Und sie werden langsamer arbeiten, um künftige Erwartungen niedrig zu halten. “Individuen und Interaktionen sind wertvoller als Prozesse und Tools” – das ist eine der zentralen Aussagen des Agilen Manifests. Eine gesunde Software-Engineering-Kultur sollte auf einem Fundament des Vertrauens aufbauen und von menschlichen Beziehungen getragen werden. Es handelt sich um ein soziales Netzwerk, bestehend aus Menschen, die gemeinsam darauf hinarbeiten, qualitativ hochwertige Lösungen zu entwickeln, wichtige Probleme zu lösen oder bedeutende Chancen zu realisieren. In einer solchen Kultur sollten solche “Spielchen” keinen Platz haben. Die gemeinsame Sache sollte die Beteiligten inspirieren, ihr Bestes zu geben. Fortschritte sollte an realisierten Werten gemessen werden, nicht an abgeschlossenen Tickets. Wenn sich während der Arbeit ein besserer Alternativansatz mit langfristgen Vorteilen findet, sollten die Entwickler das mitteilen könnne. Das geht nur, wenn alle wissen, dass eine qualitativ hochwertige Lösung das Maß für Erfolg ist, nicht eine willkürliche Schätzung. Nur wenn wir auf Individuen und Interaktionen statt auf Prozesse und Tools fokussieren, kommt der Wert jedes Einzelnen zur Geltung – was dem Gesamtergebnis der Teamarbeit enorm zuträglich ist. Das mag nicht gut für die Vorhersehbarkeit sein, erschließt aber unterm Strich mehr Wert, als Entwickler mit detaillierten Aufwandsschätzungen für ein vollständig spezifiziertes Produkt zu maßregeln. Roadmaps, Ranges, Relationships Wie könnte es also anders laufen? In der idealen Welt würde man sich auf eine gemeinsame Aufgabe einigen, sich die gemeinsame Vision zueigen machen und dann im Team Qualitätssoftware entwickeln – ohne vorher sagen zu müssen, wie lange es dauern und wie viel es kosten wird. Ein solcher Ansatz ist in einem Business-Umfeld allerdings kaum praktikabel, da es Budgets und Zeitpläne gibt. Die Antwort liegt also nicht darin, Aufwandsschätzungen vollständig abzuschaffen. Vielmehr sollten sie als Gesprächsgrundlage in einer Kultur des gegenseitigen Vertrauens dienen. Produkt- und Entwicklungsteams sollten zu Beginn – und über den gesamten Lebenszyklus der Softwareentwicklung hinweg – offene und ehrliche Gespräche führen. Diese sollten auf der Annahme fußen, dass allen Beteiligten das Projekt am Herzen liegt und sie ihr jeweils Möglichstes tun, um die wichtigen Probleme rechtzeitig und im Rahmen des Budgets zu lösen. Dabei sollten folgende Fragen eine Rolle spielen: Was glauben wir, mit den verfügbaren Ressourcen erreichen zu können? Was können wir liefern und wann? Wie sieht Plan B aus, wenn Zeit oder Ressourcen knapp werden? Diese Gespräche führen zu vorläufigen Roadmaps und Ranges. Sie werden auch fortgesetzt, während der Entwicklungsprozess voranschreitet. Dazu gilt es, folgende Grundsatzfragen zu beantworten: Wenn sich einige Aspekte des Projekts als schwieriger erweisen als erwartet, schieben wir dann die Arbeit an einer Funktion auf oder wählen wir eine einfachere Lösung? Herrscht Konsens darüber, den Zeitplan entsprechend zu ändern? Wenn wir während des Entwicklungsprozesses auf eine wertvolle Idee stoßen, ändern wir dann den Zeitplan oder sparen wir diese für die nächste Runde auf? Wenn die Beziehungen zwischen und innerhalb der Teams gesund sind, finden diese Gespräche kontinuierlich statt – und führen zu besseren Lösungen. Wenn Aufwandsschätzungen zu hohe Priorität eingeräumt wird, gelten alle Abweichungen vom festgelegten Weg als Versagen. Dabei liegt das Versagen in der Schätzung selbst. Anstelle von Fristen und Tickets sollten Missionen und Visionen maßgebend sein. Es muss akzeptiert werden, dass Softwareprojekte nicht vollständig im voraus planbar sind. (fm) Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld. 

Software-Entwicklung: Warum Aufwandsschätzungen nicht funktionieren​ Aufwandsschätzungen im Bereich der Softwareentwicklung haben oft unerwünschte Konsequenzen.
Foto: africa_pink – shutterstock.com

Die meisten Aufwandsschätzungen für die Softwareentwicklung sind Makulatur. Das liegt nicht unbedingt daran, dass die Unternehmen die falschen Methoden oder Tools verwenden. Das Problem liegt vielmehr darin, dass solche Schätzungen auf einem grundlegend falschen Verständnis davon beruhen, wie qualitativ hochwertige Software entwickelt wird.

Die Auswirkungen von falschen Annahmen gehen weit über gesprengte Budgets und verpasste Deadlines hinaus. Das eigentliche Problem sind die resultierenden Fehlsteuerungen: Oft führen Aufwandsschätzungen zu verändertem Verhalten und haben zur Folge, dass der Business Value gegenüber irgendwelchen vorzeigbare Metriken in den Hintergrund gedrängt wird.

Unsicherheiten gehören zur Softwareentwicklung

In agilen Umgebungen basieren Aufwandsschätzungen oft auf Story Points und Geschwindigkeit. Dabei spielen Fragen eine Rolle wie:

Wie “komplex” wird es sein, ein Teilstück einer Lösung zu erstellen?

Wie lange brauchen wir in der Regel, um ein Projekt solcher Komplexität abzuschließen?

Wenn wir auf diese Weise schätzen, sind wir uns darüber im Klaren, dass nicht alles nach Plan verlaufen wird. Den meisten Kalkulationen liegt jedoch die gefährliche Annahme zugrunde, dass auch diese Unsicherheiten quantifiziert werden können. Weil wir wissen, dass unsere optimistischen Entwickler dazu neigen, die Zeit, die sie für eine bestimmte Aufgabe brauchen, um durchschnittlich 15 Prozent zu unterschätzen, schlagen wir diese 15 Prozent eben drauf, um eine genauere Vorhersage zu erhalten.

Diese Besessenheit, den gesamten Entwicklungsprozess vorab spezifizieren und messen zu wollen, degradiert Entwickler zu Maschinen, die vorhersagbare Ergebnisse am Fließband durch eine Pipeline schieben sollen. Doch mathematische Berechnungen sind hier nur begrenzt möglich. Menschen sind keine Maschinen. Zu glauben, man könne die Komplexität einer nicht-trivialen Softwareentwicklungsaufgabe im Voraus exakt einschätzen, ist ein Trugschluss.

Software Development ist ein Gebiet, auf dem sich ständig vieles schnell verändert. Etliche Herausforderungen, mit denen Entwickler konfrontiert werden, sind neu und unbekannt. Und selbst die bekannten Herausforderungen unterliegen einem Wandel. Soll heißen: Die Performance der letzten Woche ist ein schlechter Indikator für die der nächsten Woche.

Nehmen wir ein triviales Beispiel: die Implementierung einer Anmeldeseite. Jeder erfahrene Softwareentwickler hat das schon Dutzende oder Hunderte Male erledigt. Das Lösungsmuster ist bekannt, und es lässt sich vorhersagen, wie lange die Task in Anspruch nehmen wird. Plötzlich kommt jedoch eine neue, wesentlich sicherere Authentifizierungsmethode auf, was zur Folge hat, dass die Aufgabe grundlegend überdacht werden muss.

Die meisten softwaretechnischen Herausforderungen sind deutlich komplizierter als das Implementieren einer Login-Page. Immerhin geht es ja auch darum, komplexe Probleme zu lösen und Mehrwerte zu schaffen. Softwareentwickler betreten oft Neuland, sie erledigen Aufgaben, die nie zuvor – oder auf andere Weise – angegangen wurden. Sie sind bestenfalls mit einem Kompass ausgestattet, aber nicht mit einer Landkarte. Es gilt, Arbeiten in Angriff zu nehmen, die sinnvoll und lohnend sind. Die schlechte Vorhersehbarkeit ist für die Entwickler auch nicht das Problem, wohl aber die oft willkürlichen Schätzungen.

Aufwandsschätzung auf Abwegen

Unzureichende Aufwandsschätzungen im Bereich der Softwareentwicklung entmenschlichen die Entwickler und implizieren, dass lediglich das System und seine Prozesse zählen. Das führt zu schlechtem Verhalten und damit wiederum zu:

minderwertigem Engineering,

dem Verlust von Talenten und

weniger werthaltigen Lösungen.

Willkürliche Aufwandsschätzungen sind zudem Kennzeichen einer dysfunktionalen Kultur: Entwickler werden unter Zwang gesetzt zu produzieren, sie sollen sich weder für ihre Arbeit noch für ihr Unternehmen interessieren. Schlimmer noch: Wenn Sie das allzu grob kalkulierte Ergebnis nicht in der vorgesehen Zeit liefern, dürfen sie sich von der Work-Life-Balance verabschieden und einen Nachtschicht-Marathon einlegen.

Schädlich wird das Ganze, wenn die Entwickler unter Druck ihre Herangehensweise ändern, nach dem Motto: Sie können in der Ihnen zugewiesenen Zeit keine qualitativ hochwertige Lösung programmieren? Dann nehmen Sie doch eine Abkürzung, damit Sie das Ticket möglichst schnell schließen können. Die nachgelagerten Probleme, die dadurch entstehen, geraten dann aus dem Blickfeld. Automatisiertes Testing? Das kann wegfallen. Das gilt auch für die kreative Idee, wie diese Software besser als ursprünglich geplant hätte entwickelt werden können. Entwickler behalten sie lieber für sich, um den Zeitplan nicht zu gefährden.

Hinzu kommt, dass Entwickler, denen man solche Aufwandsschätzungen unter die Nase hält, irgendwann Wege finden werden, dieses System zu untergraben. Sie werden die Komplexität der Aufgaben absichtlich überschätzen, um Zeit zu gewinnen. Und sie werden langsamer arbeiten, um künftige Erwartungen niedrig zu halten.

“Individuen und Interaktionen sind wertvoller als Prozesse und Tools” – das ist eine der zentralen Aussagen des Agilen Manifests. Eine gesunde Software-Engineering-Kultur sollte auf einem Fundament des Vertrauens aufbauen und von menschlichen Beziehungen getragen werden. Es handelt sich um ein soziales Netzwerk, bestehend aus Menschen, die gemeinsam darauf hinarbeiten, qualitativ hochwertige Lösungen zu entwickeln, wichtige Probleme zu lösen oder bedeutende Chancen zu realisieren. In einer solchen Kultur sollten solche “Spielchen” keinen Platz haben. Die gemeinsame Sache sollte die Beteiligten inspirieren, ihr Bestes zu geben.

Fortschritte sollte an realisierten Werten gemessen werden, nicht an abgeschlossenen Tickets. Wenn sich während der Arbeit ein besserer Alternativansatz mit langfristgen Vorteilen findet, sollten die Entwickler das mitteilen könnne. Das geht nur, wenn alle wissen, dass eine qualitativ hochwertige Lösung das Maß für Erfolg ist, nicht eine willkürliche Schätzung.

Nur wenn wir auf Individuen und Interaktionen statt auf Prozesse und Tools fokussieren, kommt der Wert jedes Einzelnen zur Geltung – was dem Gesamtergebnis der Teamarbeit enorm zuträglich ist. Das mag nicht gut für die Vorhersehbarkeit sein, erschließt aber unterm Strich mehr Wert, als Entwickler mit detaillierten Aufwandsschätzungen für ein vollständig spezifiziertes Produkt zu maßregeln.

Roadmaps, Ranges, Relationships

Wie könnte es also anders laufen? In der idealen Welt würde man sich auf eine gemeinsame Aufgabe einigen, sich die gemeinsame Vision zueigen machen und dann im Team Qualitätssoftware entwickeln – ohne vorher sagen zu müssen, wie lange es dauern und wie viel es kosten wird. Ein solcher Ansatz ist in einem Business-Umfeld allerdings kaum praktikabel, da es Budgets und Zeitpläne gibt.

Die Antwort liegt also nicht darin, Aufwandsschätzungen vollständig abzuschaffen. Vielmehr sollten sie als Gesprächsgrundlage in einer Kultur des gegenseitigen Vertrauens dienen. Produkt- und Entwicklungsteams sollten zu Beginn – und über den gesamten Lebenszyklus der Softwareentwicklung hinweg – offene und ehrliche Gespräche führen. Diese sollten auf der Annahme fußen, dass allen Beteiligten das Projekt am Herzen liegt und sie ihr jeweils Möglichstes tun, um die wichtigen Probleme rechtzeitig und im Rahmen des Budgets zu lösen. Dabei sollten folgende Fragen eine Rolle spielen:

Was glauben wir, mit den verfügbaren Ressourcen erreichen zu können?

Was können wir liefern und wann?

Wie sieht Plan B aus, wenn Zeit oder Ressourcen knapp werden?

Diese Gespräche führen zu vorläufigen Roadmaps und Ranges. Sie werden auch fortgesetzt, während der Entwicklungsprozess voranschreitet. Dazu gilt es, folgende Grundsatzfragen zu beantworten:

Wenn sich einige Aspekte des Projekts als schwieriger erweisen als erwartet, schieben wir dann die Arbeit an einer Funktion auf oder wählen wir eine einfachere Lösung?

Herrscht Konsens darüber, den Zeitplan entsprechend zu ändern?

Wenn wir während des Entwicklungsprozesses auf eine wertvolle Idee stoßen, ändern wir dann den Zeitplan oder sparen wir diese für die nächste Runde auf?

Wenn die Beziehungen zwischen und innerhalb der Teams gesund sind, finden diese Gespräche kontinuierlich statt – und führen zu besseren Lösungen.

Wenn Aufwandsschätzungen zu hohe Priorität eingeräumt wird, gelten alle Abweichungen vom festgelegten Weg als Versagen. Dabei liegt das Versagen in der Schätzung selbst. Anstelle von Fristen und Tickets sollten Missionen und Visionen maßgebend sein. Es muss akzeptiert werden, dass Softwareprojekte nicht vollständig im voraus planbar sind. (fm)

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.

Software-Entwicklung: Warum Aufwandsschätzungen nicht funktionieren​ Weiterlesen »

Industrie 5.0: Verpennt Europa auch hier die Zukunft?​

Allgemein

Während in Asien bereits mit Industrie 5.0 an der autonomen Fabrik der Zukunft gearbeitet wird, sonnt sich Europa noch im Erfolg der Industrie 4.0 vergangener Zeiten. phongsak saphakdy – shutterstock.com sich in den nächsten Jahren mit Verzögerung auch in Europa ausbreiten. Davon ist zumindest Karlheinz Zuerl, CEO der German Technology & Engineering Corporation (GTEC), überzeugt. Und er fällt ein vernichtendes Urteil: „Europa rühmt sich gerne der Fortschritte beim Thema Industrie 4.0, aber Asien ist längst darüber hinaus auf dem Weg zur Industrie 5.0.“ Unter Industrie 5.0 versteht der GTEC-Chef autonome, statt nur vernetzte Fabriken. Für ihn sind das menschenleere Produktionshallen, in denen ausschließlich Roboter aktiv sind. Möglich werden die „Geisterfabriken“ durch eine Kombination aus Computertechnik, Vernetzung, KI, Robotik und neuartigen Fertigungsverfahren. Mehr Roboter in China Bei seiner wenig schmeichelhaften Zukunftsprognose für Europa, stützt sich Zuerl unter anderem auf den „World Robotics-Report 2024“ der International Federation of Robotics (IFR). Demnach arbeiten weltweit beinahe 4,3 Millionen Industrieroboter in Fabriken, ein historischer Höchststand. Im Jahr 2023 wurden mehr als 540.000 neue Roboter installiert, über die Hälfte davon (51 Prozent) in China. Auf Europa entfielen dagegen nur 17 Prozent aller Neuinstallationen. In Deutschland, dem laut IFR größten europäischen Markt für Industrieroboter, war ein Zuwachs gegenüber dem Vorjahr von lediglich sieben Prozent zu verzeichnen. Europa redet sich Industrie 4.0 schön Letztlich, so der CEO, besteht „in Europa und vor allem in Deutschland die Neigung, sich die Industrie 4.0 mit wenig aussagekräftigen Zahlen schönzureden.“ So lässt der GTEC-Chef auch kein gutes Haar an den Studien von Branchenverbänden wie Bitkom und VDMA, wenn diese berichten, dass etwa 65 Prozent der Unternehmen in Deutschland Industrie-4.0-Technologien nutzten. „Das klingt gut, ist aber völlig belanglos, weil jedes Gerät mit WLAN-Anschluss dazugezählt wird“, kritisiert Zuerl. BMW ist Industrie 4.0, Tesla 5.0 Und er provoziert noch mit einem anderen Vergleich: „BMW ist auf dem Stand von Industrie 4.0, Tesla bei 5.0. Viele chinesische Hersteller liegen in diesem Szenario bei 4.5 oder besser.“ Bei seinem Vergleich bezieht sich Zuerl auf das BMW-Werk in Dingolfing. In seinen Augen gilt dieses als Stolz der deutschen Autoindustrie, weil dort seit 2024 fertig produzierte Autos ohne Fahrer zur Qualitätskontrolle fahren. Allerdings funktioniere das Ganze nur mit einer speziellen externen Sensorik entlang der Strecke und bedeute nicht, dass die Fahrzeuge selbst autonome Fahreigenschaften aufweisen. „Das ist nicht vergleichbar mit der Tesla-Fabrik im kalifornischen Fremont, wo die Wagen die Strecke von der Produktionslinie zum Logistikgelände völlig selbstständig – also ohne externe Unterstützung – zurück­­legen“, so der CEO. Allerdings ist es nicht unbedingt fair, einen solchen Vergleich nur an einem Punkt festzumachen. Zwillinge für die Produktion So berichtete erst kürzlich unsere Schwesterpublikation CIO darüber, wie BMW seine Produktion digitalisiert und zwar mit Omniverse, Digitalen Zwillingen etc. Also tun die Münchner bereits das, was für Zuerl derzeit der heiße Trend in Asien ist. So berichtet er, „dass wir in Asien geradezu einen Run auf ‚Autonomous Production Twins‘, kurz APT oder digitale Zwillinge, in der Fertigungsindustrie erleben, um Produktionsprozesse autonom zu überwachen, zu steuern und zu optimieren“. Ein APT kombiniert Echtzeitdaten, KI und fortschrittliche Vernetzung, um eine virtuelle Repräsentation des Produktionssystems zu schaffen, die selbstständig Entscheidungen treffen und Prozesse anpassen kann. Autonome Fabriken „Ein autonomer Produktionszwilling kann Fertigungsprozesse aktiv steuern und auf unvorhergesehene Ereignisse reagieren, etwa durch Umplanung bei Materialengpässen“, schildert der GTEC-Chef, was in Asien in immer mehr Werken Alltag in der Fertigungsindustrie ist. Sicher es ist nicht fair, die gesamte deutsche Industrie über einen Kamm zu scheren, doch einen Grund zur Entwarnung gibt es auch nicht. Vor allem nicht, wenn Zuerl die höhere Wettbewerbsfähigkeit der asiatischen Industrie-5.0-Produktion veranschaulicht: „Die menschenleeren Fabriken können die Betriebskosten um bis zu 25 Prozent senken, die Produktivität um bis zu 30 Prozent steigern und die Fehlerquoten um bis zu 40 Prozent reduzieren.“ Vor diesem Hintergrund empfiehlt der CEO westlichen Unternehmen, „in Asien eine autonome Fabrik aufzuziehen, dabei zu lernen, wie es funktioniert, und dieses Konzept anschließend für die europäischen Werke zu übernehmen“. Ein Ratschlag, der nicht ganz uneigennützig ist. Sein Unternehmen berät westliche Industrieunternehmen dabei, Herausforderungen in Asien zu bewältigen – mit Schwerpunkten wie dem Auf- und Ausbau von Niederlassungen und Produktions­stätten. 

Industrie 5.0: Verpennt Europa auch hier die Zukunft?​ Während in Asien bereits mit Industrie 5.0 an der autonomen Fabrik der Zukunft gearbeitet wird, sonnt sich Europa noch im Erfolg der Industrie 4.0 vergangener Zeiten.
phongsak saphakdy – shutterstock.com

sich in den nächsten Jahren mit Verzögerung auch in Europa ausbreiten. Davon ist zumindest Karlheinz Zuerl, CEO der German Technology & Engineering Corporation (GTEC), überzeugt. Und er fällt ein vernichtendes Urteil: „Europa rühmt sich gerne der Fortschritte beim Thema Industrie 4.0, aber Asien ist längst darüber hinaus auf dem Weg zur Industrie 5.0.“

Unter Industrie 5.0 versteht der GTEC-Chef autonome, statt nur vernetzte Fabriken. Für ihn sind das menschenleere Produktionshallen, in denen ausschließlich Roboter aktiv sind. Möglich werden die „Geisterfabriken“ durch eine Kombination aus Computertechnik, Vernetzung, KI, Robotik und neuartigen Fertigungsverfahren.

Mehr Roboter in China

Bei seiner wenig schmeichelhaften Zukunftsprognose für Europa, stützt sich Zuerl unter anderem auf den „World Robotics-Report 2024“ der International Federation of Robotics (IFR). Demnach arbeiten weltweit beinahe 4,3 Millionen Industrieroboter in Fabriken, ein historischer Höchststand.

Im Jahr 2023 wurden mehr als 540.000 neue Roboter installiert, über die Hälfte davon (51 Prozent) in China. Auf Europa entfielen dagegen nur 17 Prozent aller Neuinstallationen. In Deutschland, dem laut IFR größten europäischen Markt für Industrieroboter, war ein Zuwachs gegenüber dem Vorjahr von lediglich sieben Prozent zu verzeichnen.

Europa redet sich Industrie 4.0 schön

Letztlich, so der CEO, besteht „in Europa und vor allem in Deutschland die Neigung, sich die Industrie 4.0 mit wenig aussagekräftigen Zahlen schönzureden.“ So lässt der GTEC-Chef auch kein gutes Haar an den Studien von Branchenverbänden wie Bitkom und VDMA, wenn diese berichten, dass etwa 65 Prozent der Unternehmen in Deutschland Industrie-4.0-Technologien nutzten. „Das klingt gut, ist aber völlig belanglos, weil jedes Gerät mit WLAN-Anschluss dazugezählt wird“, kritisiert Zuerl.

BMW ist Industrie 4.0, Tesla 5.0

Und er provoziert noch mit einem anderen Vergleich: „BMW ist auf dem Stand von Industrie 4.0, Tesla bei 5.0. Viele chinesische Hersteller liegen in diesem Szenario bei 4.5 oder besser.“ Bei seinem Vergleich bezieht sich Zuerl auf das BMW-Werk in Dingolfing.

In seinen Augen gilt dieses als Stolz der deutschen Autoindustrie, weil dort seit 2024 fertig produzierte Autos ohne Fahrer zur Qualitätskontrolle fahren. Allerdings funktioniere das Ganze nur mit einer speziellen externen Sensorik entlang der Strecke und bedeute nicht, dass die Fahrzeuge selbst autonome Fahreigenschaften aufweisen.

„Das ist nicht vergleichbar mit der Tesla-Fabrik im kalifornischen Fremont, wo die Wagen die Strecke von der Produktionslinie zum Logistikgelände völlig selbstständig – also ohne externe Unterstützung – zurück­­legen“, so der CEO. Allerdings ist es nicht unbedingt fair, einen solchen Vergleich nur an einem Punkt festzumachen.

Zwillinge für die Produktion

So berichtete erst kürzlich unsere Schwesterpublikation CIO darüber, wie BMW seine Produktion digitalisiert und zwar mit Omniverse, Digitalen Zwillingen etc. Also tun die Münchner bereits das, was für Zuerl derzeit der heiße Trend in Asien ist.

So berichtet er, „dass wir in Asien geradezu einen Run auf ‚Autonomous Production Twins‘, kurz APT oder digitale Zwillinge, in der Fertigungsindustrie erleben, um Produktionsprozesse autonom zu überwachen, zu steuern und zu optimieren“. Ein APT kombiniert Echtzeitdaten, KI und fortschrittliche Vernetzung, um eine virtuelle Repräsentation des Produktionssystems zu schaffen, die selbstständig Entscheidungen treffen und Prozesse anpassen kann.

Autonome Fabriken

„Ein autonomer Produktionszwilling kann Fertigungsprozesse aktiv steuern und auf unvorhergesehene Ereignisse reagieren, etwa durch Umplanung bei Materialengpässen“, schildert der GTEC-Chef, was in Asien in immer mehr Werken Alltag in der Fertigungsindustrie ist.

Sicher es ist nicht fair, die gesamte deutsche Industrie über einen Kamm zu scheren, doch einen Grund zur Entwarnung gibt es auch nicht. Vor allem nicht, wenn Zuerl die höhere Wettbewerbsfähigkeit der asiatischen Industrie-5.0-Produktion veranschaulicht: „Die menschenleeren Fabriken können die Betriebskosten um bis zu 25 Prozent senken, die Produktivität um bis zu 30 Prozent steigern und die Fehlerquoten um bis zu 40 Prozent reduzieren.“

Vor diesem Hintergrund empfiehlt der CEO westlichen Unternehmen, „in Asien eine autonome Fabrik aufzuziehen, dabei zu lernen, wie es funktioniert, und dieses Konzept anschließend für die europäischen Werke zu übernehmen“. Ein Ratschlag, der nicht ganz uneigennützig ist. Sein Unternehmen berät westliche Industrieunternehmen dabei, Herausforderungen in Asien zu bewältigen – mit Schwerpunkten wie dem Auf- und Ausbau von Niederlassungen und Produktions­stätten.

Industrie 5.0: Verpennt Europa auch hier die Zukunft?​ Weiterlesen »

Was den neuen deutschen Digitalminister erwartet​

Allgemein

width=”1600″ height=”900″ sizes=”(max-width: 1600px) 100vw, 1600px”>An Aufgaben dürfte es dem ersten designierten deutschen Digitalminister Karsten Wildberger jedenfalls nicht mangeln.Eon Der designierte Digitalminister Karsten Wildberger ist noch nicht in Amt und Würden, da melden sich Verbände und Lobbyisten bereits lautstark mit Wünschen und Ansprüchen an das neue Ministerium. Das Hausaufgabenheft Wildgrubers füllt sich schnell:  eco – Digitalpolitik federführend gestalten  Aus Sicht des eco – Verband der Internetwirtschaft e. V. ist die Ankündigung der Bundesregierung, ein eigenständiges „Ministerium für Digitalisierung und Staatsmodernisierung“ zu schaffen, ein wichtiges politisches Signal für die digitale Transformation des Standorts Deutschland. Entscheidend für den Wandel werde aber die konkrete Ausgestaltung des neuen Ministeriums im Hinblick auf Zuständigkeiten, Kompetenzen und Budget sein. Grundvoraussetzung für den Impact eines neuen Digitalministeriums ist aus Sicht des Verbands, dass das Haus Digitalpolitik federführend gestalten kann.   Der designierte Digitalminister stehe vor der großen Aufgabe, den Digitalstandort Deutschland souverän und wettbewerbsfähig aufzustellen, sagte eco Vorstandsvorsitzender Oliver Süme. „Das neue Digitalministerium hat das Potenzial, der digitalen Transformation und der Internetwirtschaft in Deutschland enormen Aufwind zu geben. Aber entscheidend ist nicht das Etikett, sondern das Mandat. Das Digitalministerium braucht klare Zuständigkeiten, die Federführung für zentrale digitalpolitische Handlungsfeder sowie ein relevantes Digitalbudget”, so Süme weiter. srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/190829-eco-portraits-ls-092-scaled-1.jpg?quality=50&strip=all 2560w, https://b2b-contenthub.com/wp-content/uploads/2025/04/190829-eco-portraits-ls-092-scaled-1.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/190829-eco-portraits-ls-092-scaled-1.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/190829-eco-portraits-ls-092-scaled-1.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/190829-eco-portraits-ls-092-scaled-1.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/190829-eco-portraits-ls-092-scaled-1.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/190829-eco-portraits-ls-092-scaled-1.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/190829-eco-portraits-ls-092-scaled-1.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/190829-eco-portraits-ls-092-scaled-1.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/190829-eco-portraits-ls-092-scaled-1.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/190829-eco-portraits-ls-092-scaled-1.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Das neue Digitalministerium hat Potenzial, sagt eco Vorstandsvorsitzender Oliver Süme. “Aber entscheidend ist nicht das Etikett, sondern das Mandat.”eco Alles andere sei Symbolpolitik, die den Digitalstandort Deutschland keinen Schritt weiterbrächte. Es sei bedauerlich, dass der von Union und SPD vorgelegte Koalitionsvertrag hier wie in vielen weiteren digitalpolitischen Grundsatzfragen unklar bleibe, kritisiert der eco-Chef. Das neue Digitalministerium müsse diese Leerstellen schnellstmöglich konkretisieren. Der Verband formuliert fünf Kernaufgaben, die das Digitalministerium in der neuen Legislaturperiode mit Priorität angehen sollte.  Ambitionierte Digitalstrategie vorlegen   Digitale Verwaltung modernisieren  Cybersicherheit ausbauen  Resilienten KI-Standort Deutschland stärken  Rechtssicherheit in der Daten- und Digitalgesetzgebung schaffen – Vorratsdatenspeicherung verhindern  DSAG – gebündelte Digitalisierung und konkrete Leitplanken  Auch die Deutschsprachige SAP-Anwendergruppe e.V. (DSAG) begrüßte die Einrichtung eines neuen Ministeriums für Digitalisierung und Staatsmodernisierung. Dies bilde eine wichtige Basis für eine dringend notwendige Digitaloffensive. Die bislang ausgebliebenen gesetzlichen Grundlagen hätten schließlich zu großer Unsicherheit geführt und notwendige Investitionen verhindert.  „Hier erwarten wir eine deutliche Kehrtwende und erhoffen uns klare und konkrete Leitplanken“, machte der DSAG-Vorstandsvorsitzende Jens Hungershausen klar. Es brauche eine echte Digitalstrategie mit nachhaltigen Investitionen, unter anderem in die digitale Verwaltung. Dazu gehöre aus Sicht der DSAG ein konsequenter „Digital-first“-Ansatz für alle neuen Verwaltungsakte und ein strikter Fokus für Politik und Forschung auf die Modernisierung unseres Standorts.   srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/2025_Jens-Hungershausen-scaled-1.jpg?quality=50&strip=all 2560w, https://b2b-contenthub.com/wp-content/uploads/2025/04/2025_Jens-Hungershausen-scaled-1.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/2025_Jens-Hungershausen-scaled-1.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/2025_Jens-Hungershausen-scaled-1.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/2025_Jens-Hungershausen-scaled-1.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/2025_Jens-Hungershausen-scaled-1.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/2025_Jens-Hungershausen-scaled-1.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/2025_Jens-Hungershausen-scaled-1.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/2025_Jens-Hungershausen-scaled-1.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/2025_Jens-Hungershausen-scaled-1.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/2025_Jens-Hungershausen-scaled-1.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Wir erwarten eine deutliche Kehrtwende und erhoffen uns klare und konkrete Leitplanken, macht der DSAG-Vorstandsvorsitzende Jens Hungershausen klar.DSAG „Das Ressortprinzip darf der Arbeit des neuen Ministeriums nicht im Wege stehen, um die gesetzten Ziele aktiv angehen und letztlich auch realisieren zu können“, verlangte der DSAG-Chef. All die Organisationen und Institutionen, die sich aktuell bereits mit der Digitalisierung beschäftigten, müssten hier gebündelt werden, um ergebnisorientiert agieren zu können. Zudem müsse dringend in die digitalen Kompetenzen der jungen Generation in Deutschland investiert werden. Das fordert die DSAG:  Eine staatliche KI-Strategie Anpassung des Datenschutzes  Einsatz von KI im Öffentlichen Sektor  Eine nationale Bildungsoffensive, die MINT-Fächer stärkt und in Schulen für moderne digitale Infrastrukturen sorgt  BITMi – eigenes Budget und Durchgriffsrechte  Der Bundesverband IT-Mittelstand e.V. (BITMi) hofft, dass das neu geschaffene Bundesministerium für Digitales und Staatsmodernisierung die Digitalisierung Deutschlands endlich aus einem eigenständigen Ressort heraus kraftvoll und mit einem besseren Gespür für Deutschlands Digitalwirtschaft vorantreiben könne. srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/Foto_Oliver_Gruen.jpg?quality=50&strip=all 2808w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Foto_Oliver_Gruen.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Foto_Oliver_Gruen.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Foto_Oliver_Gruen.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Foto_Oliver_Gruen.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Foto_Oliver_Gruen.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Foto_Oliver_Gruen.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Foto_Oliver_Gruen.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Foto_Oliver_Gruen.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Foto_Oliver_Gruen.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Foto_Oliver_Gruen.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>“Jetzt kommt es darauf an, dass das neue Ministerium die notwendige Durchsetzungskraft und Gestaltungsmacht erhält”, erklärte Oliver Grün, Präsident des BITMi.BITMi “Mit der Schaffung eines eigenen Digitalministeriums wird die Bedeutung der Digitalisierung als Schlüsselthema für die wirtschaftliche Zukunft und die digitale Souveränität unseres Landes anerkannt”, erklärte Oliver Grün, Präsident des BITMi. “Jetzt kommt es darauf an, dass das neue Ministerium die notwendige Durchsetzungskraft und Gestaltungsmacht erhält, um die Digitalisierung über alle Ressortgrenzen hinweg effizient zu steuern.”  Der BITMi erwartet vom neuen Bundesministerium:   Klare Federführung und Durchgriffsrechte: Das Ministerium muss bei allen ressortübergreifenden Gesetzgebungs- und Digitalisierungsvorhaben die Federführung erhalten.  Eigenes Budget und Genehmigungsvorbehalt: Digitale Projekte und Vorhaben der Ressorts dürfen künftig nur mit Zustimmung des Digitalministeriums starten, um eine kohärente, souveräne Digitalstrategie sicherzustellen. Das Ministerium muss mit einem den großen Aufgaben entsprechenden Budget ausgestattet sein.  Fokus auf digitale Souveränität: Das Ministerium sollte Digitalpolitik konsequent an der Stärkung von digitaler Resilienz, Wertschöpfung ausrichten. Folgerichtig muss eine Stärkung europäischer und deutscher Technologien und Anbieter zentraler Teil der Agenda sein.  Praxisorientierte Modernisierung des Staatswesens: Mit der integrierten Zuständigkeit für Staatsmodernisierung bietet sich die Chance, die Verwaltungsdigitalisierung effizient, bürgernah und innovationsfreundlich neu aufzustellen.  Stärkung des Mittelstands: Der innovative IT-Mittelstand muss als Rückgrat der digitalen Transformation in Förderprogrammen, Vergaberegeln und strategischen Partnerschaften gezielt unterstützt werden.  Bitkom – Befugnisse und Budget  Aus Sicht von Bitkom-Präsident Ralf Wintergerst liegt die Kernaufgabe des neuen Digitalministers darin, Deutschland zu einem digital souveränen Land zu machen – in Wirtschaft, Staat und Gesellschaft. „Die Einrichtung des neuen Ressorts ist ein Meilenstein für Deutschland und seine Ausgestaltung wird maßgeblich dafür sein, ob es zu einem echten Treiber für die Digitalisierung in Deutschland wird“, so der Bitkom-Präsident Ralf Wintergerst. „Mehr denn je müssen wir jetzt wettbewerbsfähig, innovativ und digital handlungsfähig werden: um die Wirtschaft in Schwung zu bringen, den gesellschaftlichen Zusammenhalt zu stärken, die Sicherheit auch im Cyberraum zu verbessern und den Staat auf die Höhe der Zeit zu bringen.“ width=”1660″ height=”933″ sizes=”(max-width: 1660px) 100vw, 1660px”>Die Ausgestaltung des neuen Ressorts wird maßgeblich dafür sein, ob es zu einem echten Treiber für die Digitalisierung in Deutschland wird, so der Bitkom-Präsident Ralf Wintergerst.Giesecke + Devrient Um die großen Aufgaben zu lösen, braucht das neue Ressort dem Bitkom zufolge  eine zügige und verbindliche Klärung der konkreten Zuständigkeiten, Befugnisse und Ressourcen, auch im nachgeordneten Bereich  die Federführung für die digitalen Kernthemen inklusive der notwendigen Koordinierungsrechten und eines Digitalvorbehalts sowie  einen ausreichenden Einzelplan.  

Was den neuen deutschen Digitalminister erwartet​ width=”1600″ height=”900″ sizes=”(max-width: 1600px) 100vw, 1600px”>An Aufgaben dürfte es dem ersten designierten deutschen Digitalminister Karsten Wildberger jedenfalls nicht mangeln.Eon

Der designierte Digitalminister Karsten Wildberger ist noch nicht in Amt und Würden, da melden sich Verbände und Lobbyisten bereits lautstark mit Wünschen und Ansprüchen an das neue Ministerium. Das Hausaufgabenheft Wildgrubers füllt sich schnell: 

eco – Digitalpolitik federführend gestalten 

Aus Sicht des eco – Verband der Internetwirtschaft e. V. ist die Ankündigung der Bundesregierung, ein eigenständiges „Ministerium für Digitalisierung und Staatsmodernisierung“ zu schaffen, ein wichtiges politisches Signal für die digitale Transformation des Standorts Deutschland. Entscheidend für den Wandel werde aber die konkrete Ausgestaltung des neuen Ministeriums im Hinblick auf Zuständigkeiten, Kompetenzen und Budget sein. Grundvoraussetzung für den Impact eines neuen Digitalministeriums ist aus Sicht des Verbands, dass das Haus Digitalpolitik federführend gestalten kann.  

Der designierte Digitalminister stehe vor der großen Aufgabe, den Digitalstandort Deutschland souverän und wettbewerbsfähig aufzustellen, sagte eco Vorstandsvorsitzender Oliver Süme. „Das neue Digitalministerium hat das Potenzial, der digitalen Transformation und der Internetwirtschaft in Deutschland enormen Aufwind zu geben. Aber entscheidend ist nicht das Etikett, sondern das Mandat. Das Digitalministerium braucht klare Zuständigkeiten, die Federführung für zentrale digitalpolitische Handlungsfeder sowie ein relevantes Digitalbudget”, so Süme weiter.

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/190829-eco-portraits-ls-092-scaled-1.jpg?quality=50&strip=all 2560w, https://b2b-contenthub.com/wp-content/uploads/2025/04/190829-eco-portraits-ls-092-scaled-1.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/190829-eco-portraits-ls-092-scaled-1.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/190829-eco-portraits-ls-092-scaled-1.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/190829-eco-portraits-ls-092-scaled-1.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/190829-eco-portraits-ls-092-scaled-1.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/190829-eco-portraits-ls-092-scaled-1.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/190829-eco-portraits-ls-092-scaled-1.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/190829-eco-portraits-ls-092-scaled-1.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/190829-eco-portraits-ls-092-scaled-1.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/190829-eco-portraits-ls-092-scaled-1.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Das neue Digitalministerium hat Potenzial, sagt eco Vorstandsvorsitzender Oliver Süme. “Aber entscheidend ist nicht das Etikett, sondern das Mandat.”eco

Alles andere sei Symbolpolitik, die den Digitalstandort Deutschland keinen Schritt weiterbrächte. Es sei bedauerlich, dass der von Union und SPD vorgelegte Koalitionsvertrag hier wie in vielen weiteren digitalpolitischen Grundsatzfragen unklar bleibe, kritisiert der eco-Chef. Das neue Digitalministerium müsse diese Leerstellen schnellstmöglich konkretisieren. Der Verband formuliert fünf Kernaufgaben, die das Digitalministerium in der neuen Legislaturperiode mit Priorität angehen sollte. 

Ambitionierte Digitalstrategie vorlegen  

Digitale Verwaltung modernisieren 

Cybersicherheit ausbauen 

Resilienten KI-Standort Deutschland stärken 

Rechtssicherheit in der Daten- und Digitalgesetzgebung schaffen – Vorratsdatenspeicherung verhindern 

DSAG – gebündelte Digitalisierung und konkrete Leitplanken 

Auch die Deutschsprachige SAP-Anwendergruppe e.V. (DSAG) begrüßte die Einrichtung eines neuen Ministeriums für Digitalisierung und Staatsmodernisierung. Dies bilde eine wichtige Basis für eine dringend notwendige Digitaloffensive. Die bislang ausgebliebenen gesetzlichen Grundlagen hätten schließlich zu großer Unsicherheit geführt und notwendige Investitionen verhindert. 

„Hier erwarten wir eine deutliche Kehrtwende und erhoffen uns klare und konkrete Leitplanken“, machte der DSAG-Vorstandsvorsitzende Jens Hungershausen klar. Es brauche eine echte Digitalstrategie mit nachhaltigen Investitionen, unter anderem in die digitale Verwaltung. Dazu gehöre aus Sicht der DSAG ein konsequenter „Digital-first“-Ansatz für alle neuen Verwaltungsakte und ein strikter Fokus für Politik und Forschung auf die Modernisierung unseres Standorts.

 

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/2025_Jens-Hungershausen-scaled-1.jpg?quality=50&strip=all 2560w, https://b2b-contenthub.com/wp-content/uploads/2025/04/2025_Jens-Hungershausen-scaled-1.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/2025_Jens-Hungershausen-scaled-1.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/2025_Jens-Hungershausen-scaled-1.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/2025_Jens-Hungershausen-scaled-1.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/2025_Jens-Hungershausen-scaled-1.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/2025_Jens-Hungershausen-scaled-1.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/2025_Jens-Hungershausen-scaled-1.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/2025_Jens-Hungershausen-scaled-1.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/2025_Jens-Hungershausen-scaled-1.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/2025_Jens-Hungershausen-scaled-1.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Wir erwarten eine deutliche Kehrtwende und erhoffen uns klare und konkrete Leitplanken, macht der DSAG-Vorstandsvorsitzende Jens Hungershausen klar.DSAG

„Das Ressortprinzip darf der Arbeit des neuen Ministeriums nicht im Wege stehen, um die gesetzten Ziele aktiv angehen und letztlich auch realisieren zu können“, verlangte der DSAG-Chef. All die Organisationen und Institutionen, die sich aktuell bereits mit der Digitalisierung beschäftigten, müssten hier gebündelt werden, um ergebnisorientiert agieren zu können. Zudem müsse dringend in die digitalen Kompetenzen der jungen Generation in Deutschland investiert werden. Das fordert die DSAG: 

Eine staatliche KI-Strategie

Anpassung des Datenschutzes 

Einsatz von KI im Öffentlichen Sektor 

Eine nationale Bildungsoffensive, die MINT-Fächer stärkt und in Schulen für moderne digitale Infrastrukturen sorgt 

BITMi – eigenes Budget und Durchgriffsrechte 

Der Bundesverband IT-Mittelstand e.V. (BITMi) hofft, dass das neu geschaffene Bundesministerium für Digitales und Staatsmodernisierung die Digitalisierung Deutschlands endlich aus einem eigenständigen Ressort heraus kraftvoll und mit einem besseren Gespür für Deutschlands Digitalwirtschaft vorantreiben könne.

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/Foto_Oliver_Gruen.jpg?quality=50&strip=all 2808w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Foto_Oliver_Gruen.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Foto_Oliver_Gruen.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Foto_Oliver_Gruen.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Foto_Oliver_Gruen.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Foto_Oliver_Gruen.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Foto_Oliver_Gruen.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Foto_Oliver_Gruen.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Foto_Oliver_Gruen.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Foto_Oliver_Gruen.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Foto_Oliver_Gruen.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>“Jetzt kommt es darauf an, dass das neue Ministerium die notwendige Durchsetzungskraft und Gestaltungsmacht erhält”, erklärte Oliver Grün, Präsident des BITMi.BITMi

“Mit der Schaffung eines eigenen Digitalministeriums wird die Bedeutung der Digitalisierung als Schlüsselthema für die wirtschaftliche Zukunft und die digitale Souveränität unseres Landes anerkannt”, erklärte Oliver Grün, Präsident des BITMi. “Jetzt kommt es darauf an, dass das neue Ministerium die notwendige Durchsetzungskraft und Gestaltungsmacht erhält, um die Digitalisierung über alle Ressortgrenzen hinweg effizient zu steuern.” 

Der BITMi erwartet vom neuen Bundesministerium:  

Klare Federführung und Durchgriffsrechte: Das Ministerium muss bei allen ressortübergreifenden Gesetzgebungs- und Digitalisierungsvorhaben die Federführung erhalten. 

Eigenes Budget und Genehmigungsvorbehalt: Digitale Projekte und Vorhaben der Ressorts dürfen künftig nur mit Zustimmung des Digitalministeriums starten, um eine kohärente, souveräne Digitalstrategie sicherzustellen. Das Ministerium muss mit einem den großen Aufgaben entsprechenden Budget ausgestattet sein. 

Fokus auf digitale Souveränität: Das Ministerium sollte Digitalpolitik konsequent an der Stärkung von digitaler Resilienz, Wertschöpfung ausrichten. Folgerichtig muss eine Stärkung europäischer und deutscher Technologien und Anbieter zentraler Teil der Agenda sein. 

Praxisorientierte Modernisierung des Staatswesens: Mit der integrierten Zuständigkeit für Staatsmodernisierung bietet sich die Chance, die Verwaltungsdigitalisierung effizient, bürgernah und innovationsfreundlich neu aufzustellen. 

Stärkung des Mittelstands: Der innovative IT-Mittelstand muss als Rückgrat der digitalen Transformation in Förderprogrammen, Vergaberegeln und strategischen Partnerschaften gezielt unterstützt werden. 

Bitkom – Befugnisse und Budget 

Aus Sicht von Bitkom-Präsident Ralf Wintergerst liegt die Kernaufgabe des neuen Digitalministers darin, Deutschland zu einem digital souveränen Land zu machen – in Wirtschaft, Staat und Gesellschaft. „Die Einrichtung des neuen Ressorts ist ein Meilenstein für Deutschland und seine Ausgestaltung wird maßgeblich dafür sein, ob es zu einem echten Treiber für die Digitalisierung in Deutschland wird“, so der Bitkom-Präsident Ralf Wintergerst. „Mehr denn je müssen wir jetzt wettbewerbsfähig, innovativ und digital handlungsfähig werden: um die Wirtschaft in Schwung zu bringen, den gesellschaftlichen Zusammenhalt zu stärken, die Sicherheit auch im Cyberraum zu verbessern und den Staat auf die Höhe der Zeit zu bringen.“

width=”1660″ height=”933″ sizes=”(max-width: 1660px) 100vw, 1660px”>Die Ausgestaltung des neuen Ressorts wird maßgeblich dafür sein, ob es zu einem echten Treiber für die Digitalisierung in Deutschland wird, so der Bitkom-Präsident Ralf Wintergerst.Giesecke + Devrient

Um die großen Aufgaben zu lösen, braucht das neue Ressort dem Bitkom zufolge 

eine zügige und verbindliche Klärung der konkreten Zuständigkeiten, Befugnisse und Ressourcen, auch im nachgeordneten Bereich 

die Federführung für die digitalen Kernthemen inklusive der notwendigen Koordinierungsrechten und eines Digitalvorbehalts sowie 

einen ausreichenden Einzelplan. 

Was den neuen deutschen Digitalminister erwartet​ Weiterlesen »

Nach oben scrollen
×