Computerhaus Quickborn

August 2025

Peinliche Situationen im Büroalltag: Oft hilft es, über sich selbst zu lachen​

Allgemein

Jeder kennt sie, die peinlichen Situationen am Arbeitsplatz. Lesen Sie, wie Sie sich herauswinden. Foto: fizkes – shutterstock.com Es bringt nichts, Pannen herunterzuspielen oder zu vertuschen. Oft ist ein offensiver Umgang damit besser, am Ende sitzen schließlich alle im selben Boot. Entschuldigen Sie sich, machen Sie das Beste draus – und geben Sie ruhig einmal zu, dass ihnen etwas unangenehm ist. Sie werden sehen, dass sich die anderen entspannen. Wir haben ein paar typische Situationen herausgesucht, die im geschäftlichen Alltag peinlich sein können. 1. Sie werden gelobt für die Arbeit anderer Es ist schön, Wertschätzung zu erfahren – für manche sogar so schön, dass sie Lob auch dann einheimsen, wenn es eigentlich anderen gebührt. Dass das nicht geht, ist klar: In solchen Fällen gilt es mutig zu korrigieren und zu sagen: “Danke für die Blumen, liebe Chefin, aber nicht ich, sondern die Kollegin muss heute gefeiert werden. Sie hat wochenlang an dem Projekt gearbeitet und einen unglaublichen Job gemacht. Insofern reiche ich die Blumen gerne weiter!” Man möchte ja auch nicht, dass andere die Lorbeeren für die eigenen Leistungen einstecken. Wer kennt ihn nicht, den lieben Kollegen, der wochenlang während der Projektarbeit vor sich hindämmert, um dann die Präsentation der Ergebnisse an sich zu reißen und damit zu glänzen. Keiner will Aufschneider sein Es ist wichtig für das eigene Wohlbefinden und auch für die Karriere, sich nicht zu verstecken und die eigenen Leistungen ins rechte Licht zu rücken. Wer sich freiwillig in eine Opferposition begibt, hat schon verloren. Andererseits ist zu viel Offensive auch gefährlich, denn als Aufschneider dazustehen, kann sich kontraproduktiv auswirken. Besonders kompliziert wird die Situation, wenn Sie in einem Vortrag oder einer Präsentation von Kollegen Ihre eigenen Ideen wiederfinden, ohne dass Ihre Urheberschaft kenntlich gemacht wird. Eigentlich hätten Sie gerne, dass klar wird, auf welchem Mist die guten Arbeitsergebnisse gewachsen sind, andererseits empfinden Sie es als unangemessen, dies während eines sachbezogen vorgetragenen Vortrags allzu deutlich zu zeigen. Am besten, Sie warten geduldig auf ihre Chance, bei Zwischenfragen oder einer abschließenden Diskussion noch einmal vertieft darzustellen, was SIE sich dabei gedacht haben. 2. Ihr Chef rastet aus und beschimpft sie vor dem Team In Großraumbüros ist Privatheit nicht gewünscht. Umso schwieriger, wenn jemand Sie laut kritisiert – aus dem Bauch heraus und in Gegenwart anderer. Solange die Vorwürfe nicht persönlich werden, sollten Sie versuchen, die Contenance zu wahren und die Kritik, ob sie nun vom Vorgesetzten oder einem Kollegen kommt, nicht an sich heranzulassen. Auf keinen Fall sollten Sie wütend den Raum verlassen oder sich beleidigt in die Ecke setzen. Besser ist es, sich freundlich für das “Feedback” zu bedanken, sachliche Erklärungen zu finden und Verbesserungsvorschläge zu machen. Besonders unangenehm wird es, wenn sich der übellaunige oder cholerische Vorgesetzte an Ihnen austobt. Wenn rationale Argumente nicht ans Ziel fühlen, kann es in diesem Fall tatsächlich die bessere Strategie sein, den Raum zu verlassen, damit sich die Atmosphäre abkühlen kann. Zeigen Sie klare Kante! Suchen Sie sich dafür am besten eine kurze Erklärung: ein Termin, ein Telefonat oder Ähnliches. Wichtig ist es, sich nicht klein machen zu lassen. Halten Sie Ihren Körper aufrecht und sprechen sie klar und deutlich. So zeigen Sie, dass Sie sich nichts vorzuwerfen haben. Sind die Emotionen abgekühlt, ist es sinnvoll, ein klärendes Gespräch mit dem Vorgesetzten zu suchen. Wenn Sie einen Fehler gemacht haben, der zu dem Streit geführt hat, sollten Sie die Hintergründe und Begleitumstände erklären. Haben Sie es einfach nur mit einem schlecht gelaunten und charakterschwachen Boss zu tun, der seine sonstigen Probleme an Ihnen auslässt, zeigen Sie klare Kante. Machen Sie deutlich, dass der Ton die Musik macht und sie sich nicht alles gefallen lassen – schon gar nicht in Gegenwart Dritter. Hilft das alles nicht, nehmen Sie die nächste Stufe auf der Eskalationsleiter: Eine Beschwerde beim nächsthöheren Chef und gegebenenfalls bei der Mitarbeitervertretung ist fällig. 3. Sie wurden bei einer Lüge erwischt “Es wird niemals so viel gelogen wie vor der Wahl, während des Krieges und nach der Jagd”, sagte Otto von Bismarck. Ganz offensichtlich hat er das Büro vergessen. Wir alle lügen, und weil es so ist und wir uns dafür schämen, wählen wir gerne verniedlichende Begriffe wie Flunkern, Schwindeln oder einen Bären aufbinden. Was also tun, wenn wir beim Flunkern erwischt wurden? Wenn also das Projekt entgegen unserer Angaben feststeckt, das Mailing fehlerhaft ausgesandt wurde oder die Abrechnung verlorengegangen ist? Regel Nummer eins lautet: Verstricken Sie sich nicht in noch mehr Lügen – in dem hilflosen Versuch, Ihre Spuren zu verwischen. Das geht nicht gut. Sie verlieren den Überblick über ihre Lügengeschichten, und dann wird es richtig unangenehm. Billige Ausreden – keine gute Idee Gestehen Sie, wenn Sie ertappt wurden, entschuldigen Sie sich aufrichtig und machen Sie das Beste aus der Situation. Die Kollegen verstehen das, sie schwindeln ja auch gelegentlich. Billige Ausreden zu suchen, ist keine gute Idee, aber plausible Erklärungen können hilfreich sein. Vielleicht haben Sie mit Ihrer Lüge ja etwas Positives bezweckt, aber leider nicht erreicht? Zumindest helfen Sie den anderen so, Ihren Standpunkt zu verstehen. Wenn durch Ihre Lügen jemand zu Schaden gekommen ist, müssen Sie die Verantwortung übernehmen und sich um Wiedergutmachung bemühen. Außerdem wichtig: Hören Sie auf zu lügen, sonst ist Ihre Glaubwürdigkeit bald nachhaltig beschädigt. Bewahren Sie sich Ihre kleinen Lügen lieber für den Feierabend daheim oder Ihren Stammtisch auf. Dort ist man bereit, Ihnen zu verzeihen – sofern Ihre Schummeleien unterhaltsam sind. 4. Der Kollege ist nicht “salonfähig” Eine Herausforderung: Wie erkläre ich dem Kollegen, dass er sich mehr um seine Hygiene kümmern muss? Foto: Antonio Guillem – shutterstock.com Körper- und Mundgeruch können in gemeinsamen Büros zu einer echten Qual werden. Das gleiche gilt für mangelnde Hygiene oder unangemessene Kleidung. Doch wie sag ich’s dem Kollegen, ohne ihn und mich zu beschämen? Darf ich jemanden, der riecht oder schmuddelig wirkt, ansprechen? Und will ich das überhaupt? Immerhin könnte der Bürofrieden nachhaltig gestört sein. So schwer es fällt: Wenn Ihre Toleranzschwelle überschritten ist, sollten Sie die Person freundlich und unter vier Augen ansprechen. Vielleicht weiß sie gar nicht von ihrer zweifelhaften Aura und ist dankbar für einen solchen Hinweis. Möglicherweise hat er sich schon gewundert, warum sich andere abwenden, und hat nun eine Erklärung: Die Ausdünstungen sind schuld. Ehrliches Feedback lohnt sich Sagen Sie Ihrem Zimmergenossen, wie schwer es Ihnen fällt, die Sprache auf ein solch heikles Thema zu bringen und dass Sie dieses vertrauliche Gespräch suchen, weil Ihnen an Ihrer guten Beziehung liegt. Vermutlich wird sich der Angesprochene erst einmal beleidigt zurückziehen, aber schon bald dürften Sie Veränderungen im Hygieneverhalten erkennen. Erwarten Sie keine Dankbarkeit, vermutlich wird das Thema nie wieder angesprochen. Ist ja auch nicht nötig, wenn das Problem beseitigt wurde und die Zusammenarbeit funktioniert. 5. Sie haben eine vertrauliche E-Mail an den falschen Adressaten gesendet Die Fülle der jeden Tag abzuarbeitenden E-Mails zwingt uns dazu, schnell zu arbeiten. Damit steigt die Fehleranfälligkeit: Man beginnt den Adressaten einzutippen, und die Autovervollständigung sorgt dafür, dass das Feld schnell ausgefüllt wird. Dumm nur, wenn die Mail nicht an Sven Meyer, sondern an Sven Meyer-Holthaus geht – und der auch noch im Vorstand sitzt. Ebenfalls ärgerlich: Sie klicken auf “Antwort an alle” und vergessen dabei, dass der Inhalt Ihrer Mail vielleicht eben doch nicht für alle geeignet ist. Zugegeben, unsere Ratschläge für solche Situationen sind unbefriedigend. Steht etwas Ungemessenes in der E-Mail, können Sie versuchen, diese E-Mail noch zurückzurufen. Vielleicht haben Sie auch einen guten Draht zum Vorzimmer des Chefs, und jemand dort hilft ihnen, die ungeöffnete Post still und heimlich zu beseitigen. Im Ton immer sachlich bleiben Sie können sich auch überlegen, den Chef zu benachrichtigen und sich zu entschuldigen. Andererseits ist bei vielen Vorgesetzten die Wahrscheinlichkeit groß, dass die Nachricht gar nicht geöffnet wurde. Da wäre es schade, die Aufmerksamkeit darauf gelenkt zu haben. Natürlich tritt das Problem nicht nur gelegentlich in der Konversation mit Vorgesetzten, sondern auch mit anderen Menschen innerhalb und außerhalb des Unternehmens auf. Deshalb ist die einfachste und wichtigste Grundregel, im Ton stets sachlich und geschäftsmäßig zu bleiben. Das macht Sie unangreifbar. Dass sensible Anhänge mit einem Passwort zu schützen sind, ist ohnehin selbstverständlich. Und machen Sie nicht den Fehler, das Passwort zusammen mit dem Anhang in derselben Mail zu verschicken. Wir würden es nicht schreiben, wenn es nicht immer wieder vorkäme. 6. Ein Fehler in der PowerPoint Die große Präsentation steht an, Sie wollen dem Vorstand die IT-Strategie erklären und fühlen sich bestens vorbereitet. Doch während Ihres Vortrags bemerken Sie einen peinlichen Rechtschreib- oder Logikfehler in Ihrer Präsentation. Zeigen Sie, dass Sie eine coole Socke sind! Ignorieren Sie den Fehler oder – wenn er zu offensichtlich ist – machen sie ein kleinen Scherz darüber. Wir würden uns nicht wundern, wenn gewiefte Präsentatoren absichtlich solche kleinen Fehler in ihre Präsentationen einbauen würden. Eine schlechte Idee wäre es jedenfalls nicht. Schließlich machen uns Fehler menschlich und geben uns die Gelegenheit, einen Moment der persönlichen Nähe zum Publikum herzustellen – nach dem Motto: Ich bin auch nur ein Mensch. 7. Über andere lästern und nicht bemerken, dass diese zuhören Sie stehen in der Kaffeeküche und ziehen mächtig über einen Kollegen her, ohne zu bemerken, dass der draußen vor der Tür steht und gebannt zuhört. Oder Sie werden nach einem schwierigen Telefonat den Hörer aufs Telefon und fluchen über ihren Gesprächspartner – der aber dummerweise noch in der Leitung ist. Möglichkeiten, sich auf diese Art zu blamieren, gibt es reichlich. Aber wie windet man aus einer solchen Situation heraus? Tatsächlich ist es am klügsten, zu seinen Worten zu stehen und die Kritik in einem milderen und sachlicheren Ton zu wiederholen. Wenn in der Küche gesagt wurde: “Der Meyer hat wirklich die bescheuertste Marketing-Idee aller Zeiten, so erreichen wir nie unsere Ziele”, können Sie dann sagen: “Herr Meyer, entschuldigen Sie bitte den forschen Ton, aber wir müssen wirklich noch einmal über Ihren Marketing-Ansatz reden. Das Beispiel XYZ hat ja deutlich gezeigt, dass wir damit nicht vorankommen werden.” Wie so oft ist es am besten, Kritik immer sachlich-korrekt zu üben. Selbst wenn Ihnen der Kollege nicht zuhört, müssen Sie damit rechnen, dass Dritte Ihre Worte weitertragen. Wie immer gilt also: Bleiben Sie professionell! 

Peinliche Situationen im Büroalltag: Oft hilft es, über sich selbst zu lachen​ Jeder kennt sie, die peinlichen Situationen am Arbeitsplatz. Lesen Sie, wie Sie sich herauswinden.
Foto: fizkes – shutterstock.com

Es bringt nichts, Pannen herunterzuspielen oder zu vertuschen. Oft ist ein offensiver Umgang damit besser, am Ende sitzen schließlich alle im selben Boot. Entschuldigen Sie sich, machen Sie das Beste draus – und geben Sie ruhig einmal zu, dass ihnen etwas unangenehm ist. Sie werden sehen, dass sich die anderen entspannen. Wir haben ein paar typische Situationen herausgesucht, die im geschäftlichen Alltag peinlich sein können.

1. Sie werden gelobt für die Arbeit anderer

Es ist schön, Wertschätzung zu erfahren – für manche sogar so schön, dass sie Lob auch dann einheimsen, wenn es eigentlich anderen gebührt. Dass das nicht geht, ist klar: In solchen Fällen gilt es mutig zu korrigieren und zu sagen: “Danke für die Blumen, liebe Chefin, aber nicht ich, sondern die Kollegin muss heute gefeiert werden. Sie hat wochenlang an dem Projekt gearbeitet und einen unglaublichen Job gemacht. Insofern reiche ich die Blumen gerne weiter!”

Man möchte ja auch nicht, dass andere die Lorbeeren für die eigenen Leistungen einstecken. Wer kennt ihn nicht, den lieben Kollegen, der wochenlang während der Projektarbeit vor sich hindämmert, um dann die Präsentation der Ergebnisse an sich zu reißen und damit zu glänzen.

Keiner will Aufschneider sein

Es ist wichtig für das eigene Wohlbefinden und auch für die Karriere, sich nicht zu verstecken und die eigenen Leistungen ins rechte Licht zu rücken. Wer sich freiwillig in eine Opferposition begibt, hat schon verloren. Andererseits ist zu viel Offensive auch gefährlich, denn als Aufschneider dazustehen, kann sich kontraproduktiv auswirken.

Besonders kompliziert wird die Situation, wenn Sie in einem Vortrag oder einer Präsentation von Kollegen Ihre eigenen Ideen wiederfinden, ohne dass Ihre Urheberschaft kenntlich gemacht wird. Eigentlich hätten Sie gerne, dass klar wird, auf welchem Mist die guten Arbeitsergebnisse gewachsen sind, andererseits empfinden Sie es als unangemessen, dies während eines sachbezogen vorgetragenen Vortrags allzu deutlich zu zeigen. Am besten, Sie warten geduldig auf ihre Chance, bei Zwischenfragen oder einer abschließenden Diskussion noch einmal vertieft darzustellen, was SIE sich dabei gedacht haben.

2. Ihr Chef rastet aus und beschimpft sie vor dem Team

In Großraumbüros ist Privatheit nicht gewünscht. Umso schwieriger, wenn jemand Sie laut kritisiert – aus dem Bauch heraus und in Gegenwart anderer. Solange die Vorwürfe nicht persönlich werden, sollten Sie versuchen, die Contenance zu wahren und die Kritik, ob sie nun vom Vorgesetzten oder einem Kollegen kommt, nicht an sich heranzulassen. Auf keinen Fall sollten Sie wütend den Raum verlassen oder sich beleidigt in die Ecke setzen. Besser ist es, sich freundlich für das “Feedback” zu bedanken, sachliche Erklärungen zu finden und Verbesserungsvorschläge zu machen.

Besonders unangenehm wird es, wenn sich der übellaunige oder cholerische Vorgesetzte an Ihnen austobt. Wenn rationale Argumente nicht ans Ziel fühlen, kann es in diesem Fall tatsächlich die bessere Strategie sein, den Raum zu verlassen, damit sich die Atmosphäre abkühlen kann.

Zeigen Sie klare Kante!

Suchen Sie sich dafür am besten eine kurze Erklärung: ein Termin, ein Telefonat oder Ähnliches. Wichtig ist es, sich nicht klein machen zu lassen. Halten Sie Ihren Körper aufrecht und sprechen sie klar und deutlich. So zeigen Sie, dass Sie sich nichts vorzuwerfen haben.

Sind die Emotionen abgekühlt, ist es sinnvoll, ein klärendes Gespräch mit dem Vorgesetzten zu suchen. Wenn Sie einen Fehler gemacht haben, der zu dem Streit geführt hat, sollten Sie die Hintergründe und Begleitumstände erklären. Haben Sie es einfach nur mit einem schlecht gelaunten und charakterschwachen Boss zu tun, der seine sonstigen Probleme an Ihnen auslässt, zeigen Sie klare Kante. Machen Sie deutlich, dass der Ton die Musik macht und sie sich nicht alles gefallen lassen – schon gar nicht in Gegenwart Dritter. Hilft das alles nicht, nehmen Sie die nächste Stufe auf der Eskalationsleiter: Eine Beschwerde beim nächsthöheren Chef und gegebenenfalls bei der Mitarbeitervertretung ist fällig.

3. Sie wurden bei einer Lüge erwischt

“Es wird niemals so viel gelogen wie vor der Wahl, während des Krieges und nach der Jagd”, sagte Otto von Bismarck. Ganz offensichtlich hat er das Büro vergessen. Wir alle lügen, und weil es so ist und wir uns dafür schämen, wählen wir gerne verniedlichende Begriffe wie Flunkern, Schwindeln oder einen Bären aufbinden.

Was also tun, wenn wir beim Flunkern erwischt wurden? Wenn also das Projekt entgegen unserer Angaben feststeckt, das Mailing fehlerhaft ausgesandt wurde oder die Abrechnung verlorengegangen ist? Regel Nummer eins lautet: Verstricken Sie sich nicht in noch mehr Lügen – in dem hilflosen Versuch, Ihre Spuren zu verwischen. Das geht nicht gut. Sie verlieren den Überblick über ihre Lügengeschichten, und dann wird es richtig unangenehm.

Billige Ausreden – keine gute Idee

Gestehen Sie, wenn Sie ertappt wurden, entschuldigen Sie sich aufrichtig und machen Sie das Beste aus der Situation. Die Kollegen verstehen das, sie schwindeln ja auch gelegentlich. Billige Ausreden zu suchen, ist keine gute Idee, aber plausible Erklärungen können hilfreich sein. Vielleicht haben Sie mit Ihrer Lüge ja etwas Positives bezweckt, aber leider nicht erreicht? Zumindest helfen Sie den anderen so, Ihren Standpunkt zu verstehen.

Wenn durch Ihre Lügen jemand zu Schaden gekommen ist, müssen Sie die Verantwortung übernehmen und sich um Wiedergutmachung bemühen. Außerdem wichtig: Hören Sie auf zu lügen, sonst ist Ihre Glaubwürdigkeit bald nachhaltig beschädigt. Bewahren Sie sich Ihre kleinen Lügen lieber für den Feierabend daheim oder Ihren Stammtisch auf. Dort ist man bereit, Ihnen zu verzeihen – sofern Ihre Schummeleien unterhaltsam sind.

4. Der Kollege ist nicht “salonfähig”

Eine Herausforderung: Wie erkläre ich dem Kollegen, dass er sich mehr um seine Hygiene kümmern muss?
Foto: Antonio Guillem – shutterstock.com

Körper- und Mundgeruch können in gemeinsamen Büros zu einer echten Qual werden. Das gleiche gilt für mangelnde Hygiene oder unangemessene Kleidung. Doch wie sag ich’s dem Kollegen, ohne ihn und mich zu beschämen? Darf ich jemanden, der riecht oder schmuddelig wirkt, ansprechen? Und will ich das überhaupt? Immerhin könnte der Bürofrieden nachhaltig gestört sein.

So schwer es fällt: Wenn Ihre Toleranzschwelle überschritten ist, sollten Sie die Person freundlich und unter vier Augen ansprechen. Vielleicht weiß sie gar nicht von ihrer zweifelhaften Aura und ist dankbar für einen solchen Hinweis. Möglicherweise hat er sich schon gewundert, warum sich andere abwenden, und hat nun eine Erklärung: Die Ausdünstungen sind schuld.

Ehrliches Feedback lohnt sich

Sagen Sie Ihrem Zimmergenossen, wie schwer es Ihnen fällt, die Sprache auf ein solch heikles Thema zu bringen und dass Sie dieses vertrauliche Gespräch suchen, weil Ihnen an Ihrer guten Beziehung liegt. Vermutlich wird sich der Angesprochene erst einmal beleidigt zurückziehen, aber schon bald dürften Sie Veränderungen im Hygieneverhalten erkennen. Erwarten Sie keine Dankbarkeit, vermutlich wird das Thema nie wieder angesprochen. Ist ja auch nicht nötig, wenn das Problem beseitigt wurde und die Zusammenarbeit funktioniert.

5. Sie haben eine vertrauliche E-Mail an den falschen Adressaten gesendet

Die Fülle der jeden Tag abzuarbeitenden E-Mails zwingt uns dazu, schnell zu arbeiten. Damit steigt die Fehleranfälligkeit: Man beginnt den Adressaten einzutippen, und die Autovervollständigung sorgt dafür, dass das Feld schnell ausgefüllt wird. Dumm nur, wenn die Mail nicht an Sven Meyer, sondern an Sven Meyer-Holthaus geht – und der auch noch im Vorstand sitzt. Ebenfalls ärgerlich: Sie klicken auf “Antwort an alle” und vergessen dabei, dass der Inhalt Ihrer Mail vielleicht eben doch nicht für alle geeignet ist.

Zugegeben, unsere Ratschläge für solche Situationen sind unbefriedigend. Steht etwas Ungemessenes in der E-Mail, können Sie versuchen, diese E-Mail noch zurückzurufen. Vielleicht haben Sie auch einen guten Draht zum Vorzimmer des Chefs, und jemand dort hilft ihnen, die ungeöffnete Post still und heimlich zu beseitigen.

Im Ton immer sachlich bleiben

Sie können sich auch überlegen, den Chef zu benachrichtigen und sich zu entschuldigen. Andererseits ist bei vielen Vorgesetzten die Wahrscheinlichkeit groß, dass die Nachricht gar nicht geöffnet wurde. Da wäre es schade, die Aufmerksamkeit darauf gelenkt zu haben.

Natürlich tritt das Problem nicht nur gelegentlich in der Konversation mit Vorgesetzten, sondern auch mit anderen Menschen innerhalb und außerhalb des Unternehmens auf. Deshalb ist die einfachste und wichtigste Grundregel, im Ton stets sachlich und geschäftsmäßig zu bleiben. Das macht Sie unangreifbar. Dass sensible Anhänge mit einem Passwort zu schützen sind, ist ohnehin selbstverständlich. Und machen Sie nicht den Fehler, das Passwort zusammen mit dem Anhang in derselben Mail zu verschicken. Wir würden es nicht schreiben, wenn es nicht immer wieder vorkäme.

6. Ein Fehler in der PowerPoint

Die große Präsentation steht an, Sie wollen dem Vorstand die IT-Strategie erklären und fühlen sich bestens vorbereitet. Doch während Ihres Vortrags bemerken Sie einen peinlichen Rechtschreib- oder Logikfehler in Ihrer Präsentation. Zeigen Sie, dass Sie eine coole Socke sind! Ignorieren Sie den Fehler oder – wenn er zu offensichtlich ist – machen sie ein kleinen Scherz darüber.

Wir würden uns nicht wundern, wenn gewiefte Präsentatoren absichtlich solche kleinen Fehler in ihre Präsentationen einbauen würden. Eine schlechte Idee wäre es jedenfalls nicht. Schließlich machen uns Fehler menschlich und geben uns die Gelegenheit, einen Moment der persönlichen Nähe zum Publikum herzustellen – nach dem Motto: Ich bin auch nur ein Mensch.

7. Über andere lästern und nicht bemerken, dass diese zuhören

Sie stehen in der Kaffeeküche und ziehen mächtig über einen Kollegen her, ohne zu bemerken, dass der draußen vor der Tür steht und gebannt zuhört. Oder Sie werden nach einem schwierigen Telefonat den Hörer aufs Telefon und fluchen über ihren Gesprächspartner – der aber dummerweise noch in der Leitung ist. Möglichkeiten, sich auf diese Art zu blamieren, gibt es reichlich. Aber wie windet man aus einer solchen Situation heraus?

Tatsächlich ist es am klügsten, zu seinen Worten zu stehen und die Kritik in einem milderen und sachlicheren Ton zu wiederholen. Wenn in der Küche gesagt wurde: “Der Meyer hat wirklich die bescheuertste Marketing-Idee aller Zeiten, so erreichen wir nie unsere Ziele”, können Sie dann sagen: “Herr Meyer, entschuldigen Sie bitte den forschen Ton, aber wir müssen wirklich noch einmal über Ihren Marketing-Ansatz reden. Das Beispiel XYZ hat ja deutlich gezeigt, dass wir damit nicht vorankommen werden.”

Wie so oft ist es am besten, Kritik immer sachlich-korrekt zu üben. Selbst wenn Ihnen der Kollege nicht zuhört, müssen Sie damit rechnen, dass Dritte Ihre Worte weitertragen. Wie immer gilt also: Bleiben Sie professionell!

Peinliche Situationen im Büroalltag: Oft hilft es, über sich selbst zu lachen​ Weiterlesen »

FOSS rechtssicher nutzen: Open Source Software – ein Compliance-Thema​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2515608493_16.jpg?quality=50&strip=all 7360w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2515608493_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2515608493_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2515608493_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2515608493_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2515608493_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2515608493_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2515608493_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2515608493_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2515608493_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2515608493_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Nur wer weiß, welche freien Softwarekomponenten wo in einem Entwicklungsprojekt berücksichtigt wurden, kann Probleme wie Log4j schnell lösen.PeopleImages.com – Yuri A/Shutterstock.com Den Quellcode von Open-Source-Software (OSS) kann bekanntlich jeder einsehen, verändern und weitergeben. Meistens entwickeln mehrere Programmierer diese Software gemeinsam und teilen ihre Arbeit mit anderen. Anders als proprietäre Software ist OSS oft kostenlos, was zu einem größeren Nutzerkreis führt. Benutzer können die Software aufgrund des frei zugänglichen Quellcodes ändern und an ihre Bedürfnisse anpassen. Zudem führt der gemeinschaftliche Entwicklungsprozess zu schnellen und häufigen Aktualisierungen, was zu einer stabilen und sicheren Software führen sollte.Dank dieser Vorteile wird OSS heute in vielen Anwendungen eingesetzt – von Betriebssystemen über Webserver bis hin zu mobilen Anwendungen. Dabei entstehen Risiken, wenn die Nutzung nicht gut gemanagt wird. Unternehmen können dann leicht unbeabsichtigt gegen Lizenzregeln verstoßen, was zu rechtlichen und finanziellen Konsequenzen führen kann.Eine SBoM hilft, FOSS-Artefakte gut zu managenDeshalb ist es wichtig, Transparenz über die Verwendung von OSS in den eigenen Produkten zu haben. Eine vollständige Inventarliste, die sogenannte Software Bill of Materials (SBOM), hilft dabei, sofern sie gepflegt und stets aktuell gehalten wird. Die SBOM enthält Informationen darüber, welche quelloffene Software in welcher Version wo verwendet wird und wie die Lizenzbedingungen aussehen (siehe auch: Was ist eine SBOM?).SBOMs manuell zu erstellen und zu pflegen, ist nicht praktikabel. Das liegt an der großen Anzahl der verwendeten FOSS-Komponenten und des Open-Source-Codes, der von Frameworks oder Entwicklern durch direktes Kopieren von Fragmenten in die Quelldateien meist unbemerkt eingeführt wird. Deshalb hat es sich bewährt, die gesamte Codebasis mit einem Tool zu scannen, das Open-Source-Bibliotheken und -Snippets aufspürt. Die Erstellung der SBOM erfordert dann eine manuelle Identifizierung der FOSS-Artefakte auf der Grundlage der Scan-Ergebnisse.FOSS-Risiken wie Lizenz- und Copyleft-Probleme begrenzenEine solche Analyse muss vor der Veröffentlichung eines Softwareprodukts vorgenommen werden, um sicherzustellen, dass alle Lizenzen bekannt sind und die Verpflichtungen erfüllt wurden. In den meisten Fällen deckt die Untersuchung Lizenzkonflikte und Copyleft-Probleme auf, die eine Freigabe des fertigen Produkts als Open Source erfordern würden. Diese Schwierigkeiten müssen beseitigt werden.Um Verzögerungen kurz vor der Produkteinführung zu vermeiden, sollte die Analyse in regelmäßigen Abständen während des Entwicklungsprozesses vorgenommen werden. Sobald die SBOM verfügbar ist, gilt es, die Kompatibilität der jeweiligen Lizenzen und der zugehörigen Verpflichtungen technisch und rechtlich zu bewerten. Unterschiedliche Nutzungsarten erfordern eine Einzelfallanalyse.Darüber hinaus können für einen regelkonformen Einsatz der Open-Source-Artefakte bestimmte Nutzungsarten nur für bestimmte Komponenten erlaubt sein, während andere ausgeschlossen werden müssen. Um das zu durchblicken, ist es notwendig, dass rechtliches und technisches Wissen miteinander verknüpft werden. Es sollten also Softwareentwickler genauso wie die Rechtsabteilung eingebunden sein.Policy sollte Open-Source-Nutzung regelnNeben der Pflege einer SBOM sind weitere Elemente des FOSS-Managements erforderlich. So gilt es, eine Policy festzulegen, die die Rahmenbedingungen für die Nutzung von Open Source definiert. Unterstützende Prozesse und Richtlinien müssen definiert und eingehalten werden. Auch gilt es, Entwickler und andere Beteiligte angemessen zu schulen und sich der Risiken bewusst zu werden, die mit der Verwendung von Open-Source-Software verbunden sind.Da das FOSS-Management sowohl Zeit als auch Spezialwissen erfordert, gibt es inzwischen zahlreiche Unternehmen und Organisationen, die diese Aufgaben – gerade während der Release-Perioden – an einen spezialisierten Dienstleister auslagern. Diese Unternehmen ziehen es vor, dass ihre Mitarbeiter sich im Entwicklungsprozess auf Innovation und Wertschöpfung konzentrieren, nicht auf komplexe Verwaltungsthemen.Betriebe können ihre Lizenz- und Entwicklungskosten für Infrastruktur und Softwareentwicklung mit dem Einsatz von FOSS also deutlich senken, aber sie gehen mit den Lizenzverpflichtungen sowie mit potenziellen Sicherheits- und Compliance-Probleme auch neue Risiken ein, die teuer werden können. Deshalb braucht es standardisierte OSS-Richtlinien und -Praktiken. Wir empfehlen folgendes Vorgehen:Scannen Sie die Codebasis Ihres neuen Softwareprodukts und alle vorgelagerten Quellcode-Artefakte mit einem effektiven Tool. Erstellen Sie auf dieser Basis eine Liste der eingesetzten FOSS-Komponenten.Identifizieren Sie Lizenzbedingungen und mögliche Problemherde in einem Bericht und planen Sie die Prozesse, mit denen Sie ein konformes Produkt erstellen können.Open-Source-Lizenzen verlangen, dass Anforderungen wie etwa die Weitergabe des Lizenztextes oder Copyleft-Verpflichtungen erfüllt werden. Mit einer technischen Analyse können Sie klären, wie das gelingen kann.Alle aus Open-Source-Komponenten extrahierten Lizenztexte und Copyright-Hinweise müssen in die Lizenzdokumentation auf Dateiebene aufgenommen werden. Diese Dokumentation muss zusätzlich zum kommerziellen Produkt bereitgestellt werden.FOSS-Komponenten inventarisierenDie eingesetzten FOSS-Komponenten zu inventarisieren, ist auch für das Management von Schwachstellen hilfreich. Viele Unternehmen waren beispielsweise von erheblichen Sicherheitslücken in FOSS-Komponenten betroffen, als das Log4j-Problem in neueren Versionen einer weit verbreiteten Java-Bibliothek auftrat. Zwar gab es schnell einen Fix, aber nur diejenigen, die wussten, welche Version von Log4j an welcher Stelle verwendet wurde, konnten ihre Daten zeitnah vor Risiken schützen (siehe auch: Log4j – ist Open Source das Problem?)Das Verwalten von OSS ist vor allem für Unternehmen schwierig, deren Kerngeschäft nicht die Softwareentwicklung ist. Beispielsweise stellen Open-Source-Lizenzen oft bestimmte Anforderungen wie etwa die Namensnennung oder die Weitergabe von Änderungen an die Gemeinschaft. Nur wer sie befolgt, kann die Software legal nutzen. Die Nichteinhaltung kann rechtliche und finanzielle Konsequenzen nach sich ziehen, zum Beispiel in Form von Gerichtsverfahren oder Geldstrafen.Unternehmen sollten also die Bedingungen jeder Lizenz kennen und Prozesse implementieren, damit die jeweiligen Bestimmungen während des Softwareentwicklungs-Zyklus auch sicher eingehalten werden. Wer das berücksichtigt, kann die Vorteile von OSS nutzen und die Risiken in den Griff bekommen. (hv) 

FOSS rechtssicher nutzen: Open Source Software – ein Compliance-Thema​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2515608493_16.jpg?quality=50&strip=all 7360w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2515608493_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2515608493_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2515608493_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2515608493_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2515608493_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2515608493_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2515608493_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2515608493_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2515608493_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2515608493_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Nur wer weiß, welche freien Softwarekomponenten wo in einem Entwicklungsprojekt berücksichtigt wurden, kann Probleme wie Log4j schnell lösen.PeopleImages.com – Yuri A/Shutterstock.com

Den Quellcode von Open-Source-Software (OSS) kann bekanntlich jeder einsehen, verändern und weitergeben. Meistens entwickeln mehrere Programmierer diese Software gemeinsam und teilen ihre Arbeit mit anderen. Anders als proprietäre Software ist OSS oft kostenlos, was zu einem größeren Nutzerkreis führt. Benutzer können die Software aufgrund des frei zugänglichen Quellcodes ändern und an ihre Bedürfnisse anpassen. Zudem führt der gemeinschaftliche Entwicklungsprozess zu schnellen und häufigen Aktualisierungen, was zu einer stabilen und sicheren Software führen sollte.Dank dieser Vorteile wird OSS heute in vielen Anwendungen eingesetzt – von Betriebssystemen über Webserver bis hin zu mobilen Anwendungen. Dabei entstehen Risiken, wenn die Nutzung nicht gut gemanagt wird. Unternehmen können dann leicht unbeabsichtigt gegen Lizenzregeln verstoßen, was zu rechtlichen und finanziellen Konsequenzen führen kann.Eine SBoM hilft, FOSS-Artefakte gut zu managenDeshalb ist es wichtig, Transparenz über die Verwendung von OSS in den eigenen Produkten zu haben. Eine vollständige Inventarliste, die sogenannte Software Bill of Materials (SBOM), hilft dabei, sofern sie gepflegt und stets aktuell gehalten wird. Die SBOM enthält Informationen darüber, welche quelloffene Software in welcher Version wo verwendet wird und wie die Lizenzbedingungen aussehen (siehe auch: Was ist eine SBOM?).SBOMs manuell zu erstellen und zu pflegen, ist nicht praktikabel. Das liegt an der großen Anzahl der verwendeten FOSS-Komponenten und des Open-Source-Codes, der von Frameworks oder Entwicklern durch direktes Kopieren von Fragmenten in die Quelldateien meist unbemerkt eingeführt wird. Deshalb hat es sich bewährt, die gesamte Codebasis mit einem Tool zu scannen, das Open-Source-Bibliotheken und -Snippets aufspürt. Die Erstellung der SBOM erfordert dann eine manuelle Identifizierung der FOSS-Artefakte auf der Grundlage der Scan-Ergebnisse.FOSS-Risiken wie Lizenz- und Copyleft-Probleme begrenzenEine solche Analyse muss vor der Veröffentlichung eines Softwareprodukts vorgenommen werden, um sicherzustellen, dass alle Lizenzen bekannt sind und die Verpflichtungen erfüllt wurden. In den meisten Fällen deckt die Untersuchung Lizenzkonflikte und Copyleft-Probleme auf, die eine Freigabe des fertigen Produkts als Open Source erfordern würden. Diese Schwierigkeiten müssen beseitigt werden.Um Verzögerungen kurz vor der Produkteinführung zu vermeiden, sollte die Analyse in regelmäßigen Abständen während des Entwicklungsprozesses vorgenommen werden. Sobald die SBOM verfügbar ist, gilt es, die Kompatibilität der jeweiligen Lizenzen und der zugehörigen Verpflichtungen technisch und rechtlich zu bewerten. Unterschiedliche Nutzungsarten erfordern eine Einzelfallanalyse.Darüber hinaus können für einen regelkonformen Einsatz der Open-Source-Artefakte bestimmte Nutzungsarten nur für bestimmte Komponenten erlaubt sein, während andere ausgeschlossen werden müssen. Um das zu durchblicken, ist es notwendig, dass rechtliches und technisches Wissen miteinander verknüpft werden. Es sollten also Softwareentwickler genauso wie die Rechtsabteilung eingebunden sein.Policy sollte Open-Source-Nutzung regelnNeben der Pflege einer SBOM sind weitere Elemente des FOSS-Managements erforderlich. So gilt es, eine Policy festzulegen, die die Rahmenbedingungen für die Nutzung von Open Source definiert. Unterstützende Prozesse und Richtlinien müssen definiert und eingehalten werden. Auch gilt es, Entwickler und andere Beteiligte angemessen zu schulen und sich der Risiken bewusst zu werden, die mit der Verwendung von Open-Source-Software verbunden sind.Da das FOSS-Management sowohl Zeit als auch Spezialwissen erfordert, gibt es inzwischen zahlreiche Unternehmen und Organisationen, die diese Aufgaben – gerade während der Release-Perioden – an einen spezialisierten Dienstleister auslagern. Diese Unternehmen ziehen es vor, dass ihre Mitarbeiter sich im Entwicklungsprozess auf Innovation und Wertschöpfung konzentrieren, nicht auf komplexe Verwaltungsthemen.Betriebe können ihre Lizenz- und Entwicklungskosten für Infrastruktur und Softwareentwicklung mit dem Einsatz von FOSS also deutlich senken, aber sie gehen mit den Lizenzverpflichtungen sowie mit potenziellen Sicherheits- und Compliance-Probleme auch neue Risiken ein, die teuer werden können. Deshalb braucht es standardisierte OSS-Richtlinien und -Praktiken.

Wir empfehlen folgendes Vorgehen:Scannen Sie die Codebasis Ihres neuen Softwareprodukts und alle vorgelagerten Quellcode-Artefakte mit einem effektiven Tool. Erstellen Sie auf dieser Basis eine Liste der eingesetzten FOSS-Komponenten.Identifizieren Sie Lizenzbedingungen und mögliche Problemherde in einem Bericht und planen Sie die Prozesse, mit denen Sie ein konformes Produkt erstellen können.Open-Source-Lizenzen verlangen, dass Anforderungen wie etwa die Weitergabe des Lizenztextes oder Copyleft-Verpflichtungen erfüllt werden. Mit einer technischen Analyse können Sie klären, wie das gelingen kann.Alle aus Open-Source-Komponenten extrahierten Lizenztexte und Copyright-Hinweise müssen in die Lizenzdokumentation auf Dateiebene aufgenommen werden. Diese Dokumentation muss zusätzlich zum kommerziellen Produkt bereitgestellt werden.FOSS-Komponenten inventarisierenDie eingesetzten FOSS-Komponenten zu inventarisieren, ist auch für das Management von Schwachstellen hilfreich. Viele Unternehmen waren beispielsweise von erheblichen Sicherheitslücken in FOSS-Komponenten betroffen, als das Log4j-Problem in neueren Versionen einer weit verbreiteten Java-Bibliothek auftrat. Zwar gab es schnell einen Fix, aber nur diejenigen, die wussten, welche Version von Log4j an welcher Stelle verwendet wurde, konnten ihre Daten zeitnah vor Risiken schützen (siehe auch: Log4j – ist Open Source das Problem?)Das Verwalten von OSS ist vor allem für Unternehmen schwierig, deren Kerngeschäft nicht die Softwareentwicklung ist. Beispielsweise stellen Open-Source-Lizenzen oft bestimmte Anforderungen wie etwa die Namensnennung oder die Weitergabe von Änderungen an die Gemeinschaft. Nur wer sie befolgt, kann die Software legal nutzen. Die Nichteinhaltung kann rechtliche und finanzielle Konsequenzen nach sich ziehen, zum Beispiel in Form von Gerichtsverfahren oder Geldstrafen.Unternehmen sollten also die Bedingungen jeder Lizenz kennen und Prozesse implementieren, damit die jeweiligen Bestimmungen während des Softwareentwicklungs-Zyklus auch sicher eingehalten werden. Wer das berücksichtigt, kann die Vorteile von OSS nutzen und die Risiken in den Griff bekommen. (hv)

FOSS rechtssicher nutzen: Open Source Software – ein Compliance-Thema​ Weiterlesen »

KI: Bis zum Produktiv-Einsatz ist es noch ein weiter Weg​

Allgemein

KI wird ein fester Bestandteil jeder Business-Anwendung werden. Doch noch ist es nicht so weit. HP KI ist weltweit auf dem Vormarsch, doch die Auswirkungen aufs Geschäftsergebnis sind bislang gering. Nur 17 Prozent der Firmen, die KI einsetzen, sehen laut dem Beratungsunternehmen McKinsey eine Auswirkung von über fünf Prozent auf das Geschäftsergebnis. Das meiste davon sind Pilotanwendungen. „Von Pilotprojekten kann man keine signifikanten Produktivitätssteigerungen erwarten. Diese ergeben sich erst nach entsprechender Skalierung“, schreibt Lareina Yee, Senior Partner und Direktorin des McKinsey Global Institute in ihrem Bericht. KI in Deutschland: Mehr Wunsch als Wirklichkeit Auch in Deutschland befinden sich die meisten KI-Projekte noch in der Pilotphase. Dabei ist das Interesse groß. In der von Foundry in Zusammenarbeit mit HP durchgeführten Studie „KI in Unternehmen 2025 – Vom Hype zur Realität“ geben 69 Prozent der Befragten an, ihr Unternehmen kümmere sich ausreichend um KI. 42 Prozent meinen, dass man „das Potenzial von KI erkannt habe“ und derzeit an einem Maßnahmenkatalog mit entsprechenden Aktivitäten arbeite. Konkrete Projekte finden sich überwiegend in den Bereichen Personalwesen, Controlling, Marketing und innerhalb der IT. Vor allem die Cybersecurity ist aktuell der größte Nutznießer von KI. 45 Prozent der Befragten geben an, dass hier bereits konkrete Projekte umgesetzt wurden. Was die weiteren KI-Pläne angeht, so stehen Personalwesen und Weiterbildung an der Spitze. Schlusslichter sind Vertrieb und Produktion. Dass die Entwicklung insgesamt nicht so stürmisch verläuft, wie man aufgrund des KI-Hypes vermuten könnte, liegt an drei Faktoren: Kosten, Sicherheit und Rechtsbedenken. So führen 89 Prozent der CIOs Sicherheitsvorbehalte ins Feld. Eine mangelnde Akzeptanz sowie rechtliche Risiken beim Datenschutz und der Datensicherheit sind weitere Bremsklötze. Doch hier müssen Lösungen gefunden werden, denn die Erwartungen des Managements steigen rapide an. Das betrifft vor allem den Zugang zu KI-Tools und -Plattformen sowie der dafür erforderlichen Hardware. Hinzu kommen große Erwartung an die neuen, mit KI-PCs ausgestatteten Arbeitsplätze. Vor allem CIOs und IT-Führungskräfte stellen hier hohe Ansprüche. Die richtigen Systeme für jedes Anforderungsprofil Die KI-PCs von HP sind eine gute Basis, um die neuen Anforderungen zu erfüllen. Sie sind zum Beispiel mit KI-gestützten Tools ausgestattet, um wiederkehrende Aufgaben zu automatisieren und so wertvolle Zeit zu sparen. KI macht außerdem eine personalisierte Benutzererfahrung möglich, die auf die individuellen Bedürfnisse und Arbeitsweisen Ihrer Mitarbeiter zugeschnitten ist. So eignen KI-Laptops der EliteBook-Serie sehr gut für anspruchsvolle Business-Anwendungen. Ausgestattet mit den neuesten AMD Ryzen™ AI 300 Series oder Intel® Core™ Ultra Prozessoren und gleichzeitig ultraleicht bieten diese Notebooks überlegene Rechenleistung an jedem Ort. Die Z-Workstations eignen sich für CAD, Simulationen, Rendering und intensive KI-Anwendungen. Sie bieten High-End CPUs, GPUs und Speicher in verschiedenen Formfaktoren vom Rack-System bis zum Laptop. Dank der lokalen KI-Verarbeitung sinkt die Abhängigkeit von der Cloud, was Kosten senkt, und die IT-Sicherheit erhöht. Energieeffiziente Komponenten und nachhaltige Materialien reduzieren den ökologischen Fußabdruck – zertifiziert durch EPEAT Climate+™ Gold, ENERGY STAR® und TCO. Ergänzt werden diese Systeme durch professionelle Peripherie, die vom hochauflösenden Display über umfassende Kollaborationstools für Konferenzräume bis zu individuellen Arbeitsplätzen reicht. Die Features machen den Unterschied Die HP-Systeme zeichnen sich aber nicht nur durch leistungsstarke Hardware aus, sondern vor allem durch viele Services und Solutions, die gerade für Business-Anwender von besonderer Bedeutung sind. Beispielsweise sind die HP-Security-Lösungen in puncto Umfang und Schutz einmalig. Diese Suite bietet eine umfassende, mehrschichtige Sicherheitslösung, bei der Hardware und Software optimal zusammenarbeiten. Hierbei kommt HPs Isolationstechnologie zum Einsatz, um eine Vielzahl von Cyber-Bedrohungen abzuwehren. Zur Sicherheit gehört auch, dass die Geräte immer auf dem neuesten Systemstand und gepatcht sind. Das fällt in die nächste Feature-Kategorie: Die Administration der Geräteflotte. Hier geht es hauptsächlich darum, die Downtime zu minimieren und Performance-Einbußen bei den Anwendungen zu verhindern. Eine Gartner-Analyse zeigt, dass ungeplante Ausfallzeiten durchschnittlich 5.600 US-Dollar pro Minute kosten. Das ist vor allem bei den hybriden Arbeitsplätzen ein Problem. Vor allem die Verwaltung und Reparatur von Geräten außerhalb der Büroumgebung gilt als eine besonders große Herausforderung. HP bietet hierfür zwei Support-Modelle: Premium Support und Premium Plus Support. Beide umfassen Remote-Support, weltweiten Vor-Ort-Service und eine schnelle Eskalation an spezialisierte Support-Teams. Premium Plus bietet zusätzliche Leistungen integrierte Telemetrie, die eine proaktive Fehlererkennung und höhere Systemverfügbarkeit ermöglicht. Die User-Experience – ein häufig übersehener Erfolgsfaktor Was beim Betrieb von Endgeräten häufig unterschätzt wird, ist die Zufriedenheit der Mitarbeiter mit den bereitgestellten Systemen, die sogenannte Digital Employee Experience (DEX). „Die Bedeutung einer DEX-Strategie kann nicht genug betont werden“, heißt es in einem Gartner-Bericht. Das hat auch HP erkannt und deshalb die Workforce Experience Platform (WXP) entwickelt. Diese bietet Transparenz und Kontrolle über das digitale Ökosystem und ermöglicht IT-Problemlösungen, bevor sie die Produktivität und die Erfahrungen der Mitarbeiter beeinträchtigen. HPs WXP wurde im Gartner Magic Quadrant 2024 für „Digital Employee Experience Management Tools“ als Visionär ausgezeichnet. „Wir sind überzeugt, dass HP mit dieser Anerkennung gut aufgestellt ist, um seine Dynamik weiter auszubauen und den WXP-Zugang für weitere Kunden zu erweitern“, sagt Faisal Masud, President of WW Digital Services at HP. Stay tuned: Mehr zum Thema Im nächsten Artikel: Mehr über die Ergebnisse der HP-Foundry-Studie zur IT-Infrastruktur ein. Im dritten Artikel zur Studie wird es um das wichtige Thema „KI und der Faktor Mensch“ gehen. Im TechTalk, Voice of Digital, Podcast von Computerwoche, CIO und CISO diskutieren Moderator Sven Hansel und der HP-Experte Florian Beiter die wichtigsten Erkenntnisse aus der Studie. Und im Computerwoche Webcast am 30. September zeigt Ihnen der HP-Experte Rados Djokic, wie Sie mit der HP Workforce Experience Platform (HP WXP) die IT entlasten und den Mitarbeitern eine optimale Arbeitsinfrastruktur bereitstellen. Jetzt die Studienzusammenfassung lesen! 

KI: Bis zum Produktiv-Einsatz ist es noch ein weiter Weg​ KI wird ein fester Bestandteil jeder Business-Anwendung werden. Doch noch ist es nicht so weit.
HP

KI ist weltweit auf dem Vormarsch, doch die Auswirkungen aufs Geschäftsergebnis sind bislang gering. Nur 17 Prozent der Firmen, die KI einsetzen, sehen laut dem Beratungsunternehmen McKinsey eine Auswirkung von über fünf Prozent auf das Geschäftsergebnis. Das meiste davon sind Pilotanwendungen. „Von Pilotprojekten kann man keine signifikanten Produktivitätssteigerungen erwarten. Diese ergeben sich erst nach entsprechender Skalierung“, schreibt Lareina Yee, Senior Partner und Direktorin des McKinsey Global Institute in ihrem Bericht.

KI in Deutschland: Mehr Wunsch als Wirklichkeit

Auch in Deutschland befinden sich die meisten KI-Projekte noch in der Pilotphase. Dabei ist das Interesse groß. In der von Foundry in Zusammenarbeit mit HP durchgeführten Studie „KI in Unternehmen 2025 – Vom Hype zur Realität“ geben 69 Prozent der Befragten an, ihr Unternehmen kümmere sich ausreichend um KI. 42 Prozent meinen, dass man „das Potenzial von KI erkannt habe“ und derzeit an einem Maßnahmenkatalog mit entsprechenden Aktivitäten arbeite.

Konkrete Projekte finden sich überwiegend in den Bereichen Personalwesen, Controlling, Marketing und innerhalb der IT. Vor allem die Cybersecurity ist aktuell der größte Nutznießer von KI. 45 Prozent der Befragten geben an, dass hier bereits konkrete Projekte umgesetzt wurden. Was die weiteren KI-Pläne angeht, so stehen Personalwesen und Weiterbildung an der Spitze. Schlusslichter sind Vertrieb und Produktion. Dass die Entwicklung insgesamt nicht so stürmisch verläuft, wie man aufgrund des KI-Hypes vermuten könnte, liegt an drei Faktoren: Kosten, Sicherheit und Rechtsbedenken. So führen 89 Prozent der CIOs Sicherheitsvorbehalte ins Feld. Eine mangelnde Akzeptanz sowie rechtliche Risiken beim Datenschutz und der Datensicherheit sind weitere Bremsklötze.

Doch hier müssen Lösungen gefunden werden, denn die Erwartungen des Managements steigen rapide an. Das betrifft vor allem den Zugang zu KI-Tools und -Plattformen sowie der dafür erforderlichen Hardware. Hinzu kommen große Erwartung an die neuen, mit KI-PCs ausgestatteten Arbeitsplätze. Vor allem CIOs und IT-Führungskräfte stellen hier hohe Ansprüche.

Die richtigen Systeme für jedes Anforderungsprofil

Die KI-PCs von HP sind eine gute Basis, um die neuen Anforderungen zu erfüllen. Sie sind zum Beispiel mit KI-gestützten Tools ausgestattet, um wiederkehrende Aufgaben zu automatisieren und so wertvolle Zeit zu sparen. KI macht außerdem eine personalisierte Benutzererfahrung möglich, die auf die individuellen Bedürfnisse und Arbeitsweisen Ihrer Mitarbeiter zugeschnitten ist.

So eignen KI-Laptops der EliteBook-Serie sehr gut für anspruchsvolle Business-Anwendungen. Ausgestattet mit den neuesten AMD Ryzen™ AI 300 Series oder Intel® Core™ Ultra Prozessoren und gleichzeitig ultraleicht bieten diese Notebooks überlegene Rechenleistung an jedem Ort. Die Z-Workstations eignen sich für CAD, Simulationen, Rendering und intensive KI-Anwendungen. Sie bieten High-End CPUs, GPUs und Speicher in verschiedenen Formfaktoren vom Rack-System bis zum Laptop. Dank der lokalen KI-Verarbeitung sinkt die Abhängigkeit von der Cloud, was Kosten senkt, und die IT-Sicherheit erhöht. Energieeffiziente Komponenten und nachhaltige Materialien reduzieren den ökologischen Fußabdruck – zertifiziert durch EPEAT Climate+™ Gold, ENERGY STAR® und TCO. Ergänzt werden diese Systeme durch professionelle Peripherie, die vom hochauflösenden Display über umfassende Kollaborationstools für Konferenzräume bis zu individuellen Arbeitsplätzen reicht.

Die Features machen den Unterschied

Die HP-Systeme zeichnen sich aber nicht nur durch leistungsstarke Hardware aus, sondern vor allem durch viele Services und Solutions, die gerade für Business-Anwender von besonderer Bedeutung sind. Beispielsweise sind die HP-Security-Lösungen in puncto Umfang und Schutz einmalig. Diese Suite bietet eine umfassende, mehrschichtige Sicherheitslösung, bei der Hardware und Software optimal zusammenarbeiten. Hierbei kommt HPs Isolationstechnologie zum Einsatz, um eine Vielzahl von Cyber-Bedrohungen abzuwehren. Zur Sicherheit gehört auch, dass die Geräte immer auf dem neuesten Systemstand und gepatcht sind.

Das fällt in die nächste Feature-Kategorie: Die Administration der Geräteflotte. Hier geht es hauptsächlich darum, die Downtime zu minimieren und Performance-Einbußen bei den Anwendungen zu verhindern. Eine Gartner-Analyse zeigt, dass ungeplante Ausfallzeiten durchschnittlich 5.600 US-Dollar pro Minute kosten. Das ist vor allem bei den hybriden Arbeitsplätzen ein Problem. Vor allem die Verwaltung und Reparatur von Geräten außerhalb der Büroumgebung gilt als eine besonders große Herausforderung. HP bietet hierfür zwei Support-Modelle: Premium Support und Premium Plus Support. Beide umfassen Remote-Support, weltweiten Vor-Ort-Service und eine schnelle Eskalation an spezialisierte Support-Teams. Premium Plus bietet zusätzliche Leistungen integrierte Telemetrie, die eine proaktive Fehlererkennung und höhere Systemverfügbarkeit ermöglicht.

Die User-Experience – ein häufig übersehener Erfolgsfaktor

Was beim Betrieb von Endgeräten häufig unterschätzt wird, ist die Zufriedenheit der Mitarbeiter mit den bereitgestellten Systemen, die sogenannte Digital Employee Experience (DEX). „Die Bedeutung einer DEX-Strategie kann nicht genug betont werden“, heißt es in einem Gartner-Bericht. Das hat auch HP erkannt und deshalb die Workforce Experience Platform (WXP) entwickelt. Diese bietet Transparenz und Kontrolle über das digitale Ökosystem und ermöglicht IT-Problemlösungen, bevor sie die Produktivität und die Erfahrungen der Mitarbeiter beeinträchtigen. HPs WXP wurde im Gartner Magic Quadrant 2024 für „Digital Employee Experience Management Tools“ als Visionär ausgezeichnet. „Wir sind überzeugt, dass HP mit dieser Anerkennung gut aufgestellt ist, um seine Dynamik weiter auszubauen und den WXP-Zugang für weitere Kunden zu erweitern“, sagt Faisal Masud, President of WW Digital Services at HP.

Stay tuned: Mehr zum Thema

Im nächsten Artikel: Mehr über die Ergebnisse der HP-Foundry-Studie zur IT-Infrastruktur ein.

Im dritten Artikel zur Studie wird es um das wichtige Thema „KI und der Faktor Mensch“ gehen.

Im TechTalk, Voice of Digital, Podcast von Computerwoche, CIO und CISO diskutieren Moderator Sven Hansel und der HP-Experte Florian Beiter die wichtigsten Erkenntnisse aus der Studie.

Und im Computerwoche Webcast am 30. September zeigt Ihnen der HP-Experte Rados Djokic, wie Sie mit der HP Workforce Experience Platform (HP WXP) die IT entlasten und den Mitarbeitern eine optimale Arbeitsinfrastruktur bereitstellen.

Jetzt die Studienzusammenfassung lesen!

KI: Bis zum Produktiv-Einsatz ist es noch ein weiter Weg​ Weiterlesen »

Nextcloud-CEO: “Digitale Souveränität ist für mich nicht gelöst”​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/Frank-Karlitschek_16.jpg?quality=50&strip=all 3000w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Frank-Karlitschek_16.jpg?resize=300%2C169&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Frank-Karlitschek_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Frank-Karlitschek_16.jpg?resize=1024%2C577&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Frank-Karlitschek_16.jpg?resize=1536%2C865&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Frank-Karlitschek_16.jpg?resize=2048%2C1153&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Frank-Karlitschek_16.jpg?resize=1238%2C697&quality=50&strip=all 1238w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Frank-Karlitschek_16.jpg?resize=298%2C168&quality=50&strip=all 298w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Frank-Karlitschek_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Frank-Karlitschek_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Frank-Karlitschek_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Frank-Karlitschek_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”577″ sizes=”(max-width: 1024px) 100vw, 1024px”>Nextcloud-Chef Frank Karlitschek: Digitale Souveränität bedeutet vor allem, kritische Abhängigkeiten zu reduzieren.Nextcloud Der SAP-Chef hatte im Rahmen eines Medien-Roundtable kritisiert, dass die Debatte über digitale Souveränität sich zu sehr auf die Beteiligung von US-Hyperscalern oder US-Hardware konzentriere. Dabei würden Cloud-Anbieter wie Salesforce oder Workday mit ihren Anwendungen viel direkteren Zugriff auf sensible Geschäftsdaten europäischer Unternehmen haben. Frank Karlitschek, Gründer und CEO von Nextcloud, sieht das anders: „Es gibt unserer Meinung nach ganz fundamentale Risiken für die europäische Wirtschaft und Demokratie, wenn wir Big Tech weiterhin unsere Daten kontrollieren und nutzen lassen“, erklärt er im CW-Gespräch. Aber lesen Sie selbst. Hallo Herr Karlitscheck, Herr Klein von SAP sieht das Thema digitale Souveränität als weitgehend gelöst an. Sie sehen das anders – warum? Frank Karlitschek: Ich denke, man muss zunächst definieren, was man unter Souveränität versteht. Für mich bedeutet digitale Souveränität vor allem, kritische Abhängigkeiten zu reduzieren. Und genau da sehe ich noch große Defizite. Können Sie das an einem Beispiel konkretisieren? Karlitschek: Nehmen Sie den sogenannten „Vendor Lock-in“. Wenn ein Unternehmen sich etwa für Microsoft Teams entscheidet, kann es praktisch nicht mehr zu einem Wettbewerber wechseln – einfach, weil es keine offenen APIs oder Datenexport-Möglichkeiten gibt. Das ist eine faktische Abhängigkeit, aus der man nicht ohne Weiteres herauskommt. Und wenn Microsoft dann die Preise plötzlich um 40 Prozent erhöht, bleibt einem nichts anderes übrig, als das hinzunehmen. Also geht es auch um wirtschaftliche Abhängigkeiten? Karlitschek: Ganz genau. Aber es geht auch um politische Dimensionen. Viele US-Anbieter – etwa Microsoft, Google oder Amazon – werben damit, dass sie Rechenzentren in Deutschland betreiben, um Datensouveränität zu suggerieren. Aber das ist Augenwischerei. Laut dem US-amerikanischen Cloud Act müssen US-Firmen den Behörden Zugriff auf Daten gewähren – selbst, wenn diese außerhalb der USA gespeichert sind. Sobald ein US-Unternehmen Zugriff auf Daten hat, kann auch die US-Regierung diesen beanspruchen. Microsoft hat das inzwischen sogar eingeräumt, oder? Karlitschek: Richtig. Ein Vertreter von Microsoft hat kürzlich in Frankreich unter Eid bestätigt, dass sie diesen Zugriff gewähren müssen. Vorher hat man das immer etwas nebulös umschrieben. Ich beobachte mit großem Interesse – nicht als Journalist, sondern als Techniker – wie da Begriffe umdefiniert und PR-Kampagnen gestartet werden. “Microsoft versucht, das Thema Souveränität neu zu framen” Sie meinen etwa die aktuelle Charmeoffensive von Microsoft? Karlitschek: Ja, genau. Microsoft versucht, das Thema Souveränität neu zu framen – etwa mit Hosting in Deutschland, einem europäischen Daten-Treuhandmodell oder der Hinterlegung des Quellcodes in den Schweizer Alpen. All das klingt gut, löst aber das eigentliche Problem nicht. Es bleibt ein Marketing-Narrativ, keine echte Souveränität. Also ist die Souveränitätsfrage noch lange nicht gelöst? Karlitschek: Ganz ehrlich: Ja, das ist Quatsch. Einfach falsches Marketing. Die US-Regierung hat vollen Zugriff auf Daten, wenn sie ihn will – das ist durch den Cloud Act eindeutig geregelt. Deshalb kann man wirklich nicht behaupten, das Problem sei gelöst. Ich gehe davon aus, dass SAP, beziehungsweise Herr Klein solche Aussagen trifft, weil SAP ein global agierender Konzern ist. Natürlich wollen sie ihr internationales Geschäft nicht gefährden. Auch wenn SAP ein europäisches Unternehmen ist, möchten sie weltweit als vertrauenswürdiger Partner wahrgenommen werden. Und diese Debatte um Souveränität ist da natürlich eher unangenehm. Deshalb, so mein Eindruck, wird das Thema bewusst klein geredet – weil es fürs Business hinderlich ist. Aber aus meiner Sicht ist das Thema ganz und gar nicht gelöst. Im Gegenteil. Sie haben vorhin schon verschiedene Ebenen von Souveränität angesprochen. Aktuell wird eine Kooperation von Nextcloud mit Oracle aber als „souveräne Cloud“ bezeichnet. Wie ordnen Sie das ein? Karlitschek: Die Bezeichnung stammt von Oracle, nicht von uns – das ist wichtig zu betonen. Und ganz grundsätzlich: Wir bei Nextcloud verstehen uns als Softwareanbieter. Unsere Software kann lokal betrieben werden, ist komplett Open Source, auditierbar und sogar ohne Vertrag mit uns nutzbar. Das ist, glaube ich, so souverän, wie es nur geht. Wir geben den Kunden maximale Freiheit. Was wir allerdings nicht machen, ist Infrastruktur bereitzustellen – die muss jeder selbst wählen. Die Optionen dafür wären? Karlitschek: Da gibt es verschiedene Optionen: Man kann Nextcloud komplett On-Premises betreiben, auf dem eigenen Server im Keller – dann hat man maximale Kontrolle, muss aber Hardware und Know-how vorhalten. Oder man geht zu einem europäischen Cloud-Provider wie IONOS, StackIT, OVH oder T-Systems – da bestehen zwar gewisse Abhängigkeiten, aber der Cloud Act greift eben nicht. Oder man entscheidet sich bewusst für einen US-Hyperscaler wie AWS oder Google Cloud – dann hat man die volle Integration, aber auch die volle Abhängigkeit inklusive US-Zugriffsrecht. Mit Oracle ist es letztlich dasselbe: Unsere Kunden können Nextcloud auf Oracle-Infrastruktur betreiben – allerdings mit den bekannten Abhängigkeiten, weil Oracle eben ein US-Unternehmen ist. Als Unternehmen sollte man demnach je nach Workload und Bedarf zwischen verschiedenen Souveränitätsstufen wählen? Karlitschek: Genau. Unsere Kunden entscheiden selbst, welche Faktoren für sie relevant sind: Skalierbarkeit, Unabhängigkeit, Preis, Performance – alles spielt eine Rolle. Wir geben da keine Empfehlung, sondern bieten Flexibilität. Im Fall von Oracle gibt es allerdings einen speziellen Anwendungsfall, den ich interessant finde: Oracle bietet nämlich eine sogenannte Air-Gapped-Lösung an. Das machen AWS, Azure oder Google Cloud nicht. Das heißt, man kann eine komplett isolierte, nicht ans öffentliche Netz angebundene Umgebung aufbauen – und das ist für bestimmte sicherheitskritische Anwendungsfälle sehr spannend. Okay, die anderen Anbieter haben es angekündigt… Karlitschek: Genau. Die anderen haben das zwar mittlerweile angekündigt, aber Oracle ist da derzeit tatsächlich ein Stück weit einzigartig. Natürlich ist die Software immer noch proprietär und das Unternehmen amerikanisch – aber durch diese vollständig isolierte Infrastruktur ist es eine besondere Lösung, gerade für sicherheitskritische Anwendungsfälle. Welche Rolle spielt im Zusammenhang mit der Souveränität Open Source? Sie haben vorhin schon erwähnt, dass Microsoft zwar den Source Code bereitstellt – aber das ist ja doch etwas anderes als echtes Open Source. Karlitschek: Ganz klar. Bei Open Source gibt es keine echte Abhängigkeit vom Hersteller. Bei Microsoft etwa kann ich den Quellcode zwar einsehen – aber ich darf die Software nicht frei nutzen, nicht verändern, nicht ohne Vertrag oder Lizenz einsetzen. Bei Open Source ist das komplett anders. Unsere Software wird weltweit von vielen Menschen genutzt, mit denen wir keinen Vertrag haben. Und das ist völlig in Ordnung – weil es eben Open Source ist. Das bedeutet auch: Der Quellcode kann auditierbar sein. Oft kommt da die Frage: ‚Wer hat denn die Ressourcen, das zu prüfen?‘ Aber es müssen ja nicht alle alles überprüfen – es reicht, wenn sich ein paar unabhängige Entwickler oder Organisationen weltweit damit beschäftigen. Das ist schon weit mehr, als wenn man sich nur auf das Marketingversprechen eines Konzerns wie Microsoft verlassen muss. Und noch ein Punkt: Open Source erlaubt es, Software eigenständig weiterzuentwickeln. Unternehmen können selbst neue Features implementieren oder Anpassungen vornehmen. Bei Microsoft geht das nicht – da muss man auf deren Roadmap hoffen. Open Source geht also darüber hinaus, einfach nur Quellcode einzusehen. Es ermöglicht Zusammenarbeit auf Augenhöhe – auch im Geschäftsmodell. Es fehlt oft einfach am politischen Willen Mit dem Regierungswechsel in den USA scheint eine neue Dynamik in der Souveränitätsdebatte aufgekommen zu sein. Wo sehen Sie hier aktuell die größten Herausforderungen für Europa? Karlitschek: Sehr gute Frage – die stelle ich mir tatsächlich auch regelmäßig. Ich spreche viel mit politischen Akteuren – sowohl in Deutschland, auf Landes- wie Bundesebene, als auch mit der EU-Kommission in Brüssel. Mein Eindruck ist: Es fehlt oft einfach am politischen Willen. Technologisch ist Europa eigentlich gut aufgestellt. Es gibt solide Cloud-Infrastrukturen wie OVH oder IONOS, starke KI-Anbieter wie Mistral in Frankreich, oder kollaborative Software wie Nextcloud – also Lösungen gibt es durchaus. Aber die Umsetzung scheitert oft. Gibt es auch positive Beispiele? Karlitschek: Es gibt positive Beispiele: Schleswig-Holstein etwa, wo Ministerpräsident Daniel Günther und Digitalisierungsminister Dirk Schröder ganz klar gesagt haben: Wir stellen die gesamte Verwaltung auf Open Source um. Und siehe da – es funktioniert. Aber auf EU-Ebene sehe ich deutlich mehr Zurückhaltung. Die Kommission ist oft zögerlich. Es wirkt, als wäre man in den Mitgliedsstaaten längst weiter. Liegt das auch daran, dass viele Souveränitätsinitiativen noch sehr national organisiert sind? Frankreich etwa ist sehr aktiv – aber eine gesamteuropäische Linie scheint zu fehlen. Karlitschek: Das ist absolut richtig. Frankreich hat historisch ein starkes Verständnis von Souveränität und treibt das Thema sehr entschieden voran. Auch in Deutschland passiert mittlerweile einiges. In Schweden gewinnen wir gerade neue Kunden – ebenso in Dänemark, wo zum Beispiel das Thema Grönland als Auslöser eine Rolle spielt. Es tut sich also viel – aber meist auf nationaler Ebene. Und ganz ehrlich: Ich bin mir gar nicht sicher, ob es immer besser ist, wenn alle Länder in Europa gemeinsam handeln. Manchmal ist es sinnvoller, wenn einzelne Staaten einfach mal vorangehen – statt auf einen langsamen EU-Kompromiss zu warten. Welchen Wert hat Open Source im öffentlichen Sektor? Karlitschek: Open Source ist ein hervorragendes Werkzeug, um gemeinsam zu arbeiten und auf bereits Geleistetem aufzubauen. Das ist ja genau das Grundprinzip dieses Entwicklungsmodells: Verschiedene Akteure tragen bei, und alle profitieren voneinander. Gerade im öffentlichen Sektor – ob auf Landes-, Bundes- oder europäischer Ebene – ist das ein Schlüssel. Viele Verwaltungen haben ähnliche Anforderungen und könnten enorm voneinander profitieren. In Deutschland ist das durch den Föderalismus besonders ausgeprägt. Es gibt unzählige Organisationen mit vergleichbaren Aufgaben – ich habe neulich gelesen, dass es in Deutschland über 100 kommunale Rechenzentren gibt. Das wusste ich vorher auch nicht. Da ist Open Source ideal: Wenn eine Kommune eine Lösung entwickelt hat, kann die nächste sie direkt übernehmen – nachnutzen, wie es ja inzwischen heißt. Dieses „Einer für alle“-Prinzip ist sogar in Teilen gesetzlich verankert. Und es entspricht exakt der Philosophie von Open Source. Der Kostenfaktor spielt vermutlich ebenfalls eine Rolle? Karlitschek: Natürlich muss die Software weiterhin gepflegt, gewartet und weiterentwickelt werden – darum gibt es Unternehmen wie Nextcloud, die das übernehmen und damit ihr Geld verdienen. Aber weil viele an der Entwicklung mitwirken können, sinken die Kosten insgesamt deutlich. “Das Digitalministerium befindet sich noch in einer Art Selbstfindungsphase” Was erwarten Sie vom neuen Digitalministerium? Gibt es Signale, dass sich etwas tut? Karlitschek: Im Moment ist das leider noch unklar. Ich persönlich hatte noch keine Gelegenheit, mit den entscheidenden Personen zu sprechen. Das Ministerium befindet sich noch in einer Art Selbstfindungsphase. Es gibt zwar positive Signale – der zuständige Staatssekretär erwähnt regelmäßig Open Source und digitale Souveränität. Aber bei Organisationen wie dem Zentrum für digitale Souveränität (ZenDis) ist völlig offen, wie es weitergeht. Soweit ich weiß, sieht der aktuelle Haushaltsentwurf eine Kürzung der Mittel von 20 Millionen auf nur noch zwei Millionen Euro vor – allerdings ist der Haushalt noch nicht verabschiedet. Ich gehe davon aus, dass hier noch nachverhandelt wird. Aber ehrlich gesagt: Wenn man Open Source wirklich ernst nimmt, sind das keine guten Signale. Die gesamte Branche – nicht nur ich – wartet gespannt darauf, wie sich das neue Ministerium positionieren wird. 

Nextcloud-CEO: “Digitale Souveränität ist für mich nicht gelöst”​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/Frank-Karlitschek_16.jpg?quality=50&strip=all 3000w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Frank-Karlitschek_16.jpg?resize=300%2C169&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Frank-Karlitschek_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Frank-Karlitschek_16.jpg?resize=1024%2C577&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Frank-Karlitschek_16.jpg?resize=1536%2C865&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Frank-Karlitschek_16.jpg?resize=2048%2C1153&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Frank-Karlitschek_16.jpg?resize=1238%2C697&quality=50&strip=all 1238w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Frank-Karlitschek_16.jpg?resize=298%2C168&quality=50&strip=all 298w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Frank-Karlitschek_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Frank-Karlitschek_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Frank-Karlitschek_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/07/Frank-Karlitschek_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”577″ sizes=”(max-width: 1024px) 100vw, 1024px”>Nextcloud-Chef Frank Karlitschek: Digitale Souveränität bedeutet vor allem, kritische Abhängigkeiten zu reduzieren.Nextcloud

Der SAP-Chef hatte im Rahmen eines Medien-Roundtable kritisiert, dass die Debatte über digitale Souveränität sich zu sehr auf die Beteiligung von US-Hyperscalern oder US-Hardware konzentriere. Dabei würden Cloud-Anbieter wie Salesforce oder Workday mit ihren Anwendungen viel direkteren Zugriff auf sensible Geschäftsdaten europäischer Unternehmen haben. Frank Karlitschek, Gründer und CEO von Nextcloud, sieht das anders: „Es gibt unserer Meinung nach ganz fundamentale Risiken für die europäische Wirtschaft und Demokratie, wenn wir Big Tech weiterhin unsere Daten kontrollieren und nutzen lassen“, erklärt er im CW-Gespräch. Aber lesen Sie selbst.

Hallo Herr Karlitscheck, Herr Klein von SAP sieht das Thema digitale Souveränität als weitgehend gelöst an. Sie sehen das anders – warum?

Frank Karlitschek: Ich denke, man muss zunächst definieren, was man unter Souveränität versteht. Für mich bedeutet digitale Souveränität vor allem, kritische Abhängigkeiten zu reduzieren. Und genau da sehe ich noch große Defizite.

Können Sie das an einem Beispiel konkretisieren?

Karlitschek: Nehmen Sie den sogenannten „Vendor Lock-in“. Wenn ein Unternehmen sich etwa für Microsoft Teams entscheidet, kann es praktisch nicht mehr zu einem Wettbewerber wechseln – einfach, weil es keine offenen APIs oder Datenexport-Möglichkeiten gibt. Das ist eine faktische Abhängigkeit, aus der man nicht ohne Weiteres herauskommt. Und wenn Microsoft dann die Preise plötzlich um 40 Prozent erhöht, bleibt einem nichts anderes übrig, als das hinzunehmen.

Also geht es auch um wirtschaftliche Abhängigkeiten?

Karlitschek: Ganz genau. Aber es geht auch um politische Dimensionen. Viele US-Anbieter – etwa Microsoft, Google oder Amazon – werben damit, dass sie Rechenzentren in Deutschland betreiben, um Datensouveränität zu suggerieren. Aber das ist Augenwischerei. Laut dem US-amerikanischen Cloud Act müssen US-Firmen den Behörden Zugriff auf Daten gewähren – selbst, wenn diese außerhalb der USA gespeichert sind. Sobald ein US-Unternehmen Zugriff auf Daten hat, kann auch die US-Regierung diesen beanspruchen.

Microsoft hat das inzwischen sogar eingeräumt, oder?

Karlitschek: Richtig. Ein Vertreter von Microsoft hat kürzlich in Frankreich unter Eid bestätigt, dass sie diesen Zugriff gewähren müssen. Vorher hat man das immer etwas nebulös umschrieben. Ich beobachte mit großem Interesse – nicht als Journalist, sondern als Techniker – wie da Begriffe umdefiniert und PR-Kampagnen gestartet werden.

“Microsoft versucht, das Thema Souveränität neu zu framen”

Sie meinen etwa die aktuelle Charmeoffensive von Microsoft?

Karlitschek: Ja, genau. Microsoft versucht, das Thema Souveränität neu zu framen – etwa mit Hosting in Deutschland, einem europäischen Daten-Treuhandmodell oder der Hinterlegung des Quellcodes in den Schweizer Alpen. All das klingt gut, löst aber das eigentliche Problem nicht. Es bleibt ein Marketing-Narrativ, keine echte Souveränität.

Also ist die Souveränitätsfrage noch lange nicht gelöst?

Karlitschek: Ganz ehrlich: Ja, das ist Quatsch. Einfach falsches Marketing. Die US-Regierung hat vollen Zugriff auf Daten, wenn sie ihn will – das ist durch den Cloud Act eindeutig geregelt. Deshalb kann man wirklich nicht behaupten, das Problem sei gelöst.

Ich gehe davon aus, dass SAP, beziehungsweise Herr Klein solche Aussagen trifft, weil SAP ein global agierender Konzern ist. Natürlich wollen sie ihr internationales Geschäft nicht gefährden. Auch wenn SAP ein europäisches Unternehmen ist, möchten sie weltweit als vertrauenswürdiger Partner wahrgenommen werden. Und diese Debatte um Souveränität ist da natürlich eher unangenehm. Deshalb, so mein Eindruck, wird das Thema bewusst klein geredet – weil es fürs Business hinderlich ist. Aber aus meiner Sicht ist das Thema ganz und gar nicht gelöst. Im Gegenteil.

Sie haben vorhin schon verschiedene Ebenen von Souveränität angesprochen. Aktuell wird eine Kooperation von Nextcloud mit Oracle aber als „souveräne Cloud“ bezeichnet. Wie ordnen Sie das ein?

Karlitschek: Die Bezeichnung stammt von Oracle, nicht von uns – das ist wichtig zu betonen. Und ganz grundsätzlich: Wir bei Nextcloud verstehen uns als Softwareanbieter. Unsere Software kann lokal betrieben werden, ist komplett Open Source, auditierbar und sogar ohne Vertrag mit uns nutzbar. Das ist, glaube ich, so souverän, wie es nur geht. Wir geben den Kunden maximale Freiheit. Was wir allerdings nicht machen, ist Infrastruktur bereitzustellen – die muss jeder selbst wählen.

Die Optionen dafür wären?

Karlitschek: Da gibt es verschiedene Optionen: Man kann Nextcloud komplett On-Premises betreiben, auf dem eigenen Server im Keller – dann hat man maximale Kontrolle, muss aber Hardware und Know-how vorhalten. Oder man geht zu einem europäischen Cloud-Provider wie IONOS, StackIT, OVH oder T-Systems – da bestehen zwar gewisse Abhängigkeiten, aber der Cloud Act greift eben nicht. Oder man entscheidet sich bewusst für einen US-Hyperscaler wie AWS oder Google Cloud – dann hat man die volle Integration, aber auch die volle Abhängigkeit inklusive US-Zugriffsrecht.

Mit Oracle ist es letztlich dasselbe: Unsere Kunden können Nextcloud auf Oracle-Infrastruktur betreiben – allerdings mit den bekannten Abhängigkeiten, weil Oracle eben ein US-Unternehmen ist.

Als Unternehmen sollte man demnach je nach Workload und Bedarf zwischen verschiedenen Souveränitätsstufen wählen?

Karlitschek: Genau. Unsere Kunden entscheiden selbst, welche Faktoren für sie relevant sind: Skalierbarkeit, Unabhängigkeit, Preis, Performance – alles spielt eine Rolle. Wir geben da keine Empfehlung, sondern bieten Flexibilität.

Im Fall von Oracle gibt es allerdings einen speziellen Anwendungsfall, den ich interessant finde: Oracle bietet nämlich eine sogenannte Air-Gapped-Lösung an. Das machen AWS, Azure oder Google Cloud nicht. Das heißt, man kann eine komplett isolierte, nicht ans öffentliche Netz angebundene Umgebung aufbauen – und das ist für bestimmte sicherheitskritische Anwendungsfälle sehr spannend.

Okay, die anderen Anbieter haben es angekündigt…

Karlitschek: Genau. Die anderen haben das zwar mittlerweile angekündigt, aber Oracle ist da derzeit tatsächlich ein Stück weit einzigartig. Natürlich ist die Software immer noch proprietär und das Unternehmen amerikanisch – aber durch diese vollständig isolierte Infrastruktur ist es eine besondere Lösung, gerade für sicherheitskritische Anwendungsfälle.

Welche Rolle spielt im Zusammenhang mit der Souveränität Open Source? Sie haben vorhin schon erwähnt, dass Microsoft zwar den Source Code bereitstellt – aber das ist ja doch etwas anderes als echtes Open Source.

Karlitschek: Ganz klar. Bei Open Source gibt es keine echte Abhängigkeit vom Hersteller. Bei Microsoft etwa kann ich den Quellcode zwar einsehen – aber ich darf die Software nicht frei nutzen, nicht verändern, nicht ohne Vertrag oder Lizenz einsetzen. Bei Open Source ist das komplett anders. Unsere Software wird weltweit von vielen Menschen genutzt, mit denen wir keinen Vertrag haben. Und das ist völlig in Ordnung – weil es eben Open Source ist.

Das bedeutet auch: Der Quellcode kann auditierbar sein. Oft kommt da die Frage: ‚Wer hat denn die Ressourcen, das zu prüfen?‘ Aber es müssen ja nicht alle alles überprüfen – es reicht, wenn sich ein paar unabhängige Entwickler oder Organisationen weltweit damit beschäftigen. Das ist schon weit mehr, als wenn man sich nur auf das Marketingversprechen eines Konzerns wie Microsoft verlassen muss.

Und noch ein Punkt: Open Source erlaubt es, Software eigenständig weiterzuentwickeln. Unternehmen können selbst neue Features implementieren oder Anpassungen vornehmen. Bei Microsoft geht das nicht – da muss man auf deren Roadmap hoffen. Open Source geht also darüber hinaus, einfach nur Quellcode einzusehen. Es ermöglicht Zusammenarbeit auf Augenhöhe – auch im Geschäftsmodell.

Es fehlt oft einfach am politischen Willen

Mit dem Regierungswechsel in den USA scheint eine neue Dynamik in der Souveränitätsdebatte aufgekommen zu sein. Wo sehen Sie hier aktuell die größten Herausforderungen für Europa?

Karlitschek: Sehr gute Frage – die stelle ich mir tatsächlich auch regelmäßig. Ich spreche viel mit politischen Akteuren – sowohl in Deutschland, auf Landes- wie Bundesebene, als auch mit der EU-Kommission in Brüssel. Mein Eindruck ist: Es fehlt oft einfach am politischen Willen.

Technologisch ist Europa eigentlich gut aufgestellt. Es gibt solide Cloud-Infrastrukturen wie OVH oder IONOS, starke KI-Anbieter wie Mistral in Frankreich, oder kollaborative Software wie Nextcloud – also Lösungen gibt es durchaus. Aber die Umsetzung scheitert oft.

Gibt es auch positive Beispiele?

Karlitschek: Es gibt positive Beispiele: Schleswig-Holstein etwa, wo Ministerpräsident Daniel Günther und Digitalisierungsminister Dirk Schröder ganz klar gesagt haben: Wir stellen die gesamte Verwaltung auf Open Source um. Und siehe da – es funktioniert. Aber auf EU-Ebene sehe ich deutlich mehr Zurückhaltung. Die Kommission ist oft zögerlich. Es wirkt, als wäre man in den Mitgliedsstaaten längst weiter.

Liegt das auch daran, dass viele Souveränitätsinitiativen noch sehr national organisiert sind? Frankreich etwa ist sehr aktiv – aber eine gesamteuropäische Linie scheint zu fehlen.

Karlitschek: Das ist absolut richtig. Frankreich hat historisch ein starkes Verständnis von Souveränität und treibt das Thema sehr entschieden voran. Auch in Deutschland passiert mittlerweile einiges. In Schweden gewinnen wir gerade neue Kunden – ebenso in Dänemark, wo zum Beispiel das Thema Grönland als Auslöser eine Rolle spielt.

Es tut sich also viel – aber meist auf nationaler Ebene. Und ganz ehrlich: Ich bin mir gar nicht sicher, ob es immer besser ist, wenn alle Länder in Europa gemeinsam handeln. Manchmal ist es sinnvoller, wenn einzelne Staaten einfach mal vorangehen – statt auf einen langsamen EU-Kompromiss zu warten.

Welchen Wert hat Open Source im öffentlichen Sektor?

Karlitschek: Open Source ist ein hervorragendes Werkzeug, um gemeinsam zu arbeiten und auf bereits Geleistetem aufzubauen. Das ist ja genau das Grundprinzip dieses Entwicklungsmodells: Verschiedene Akteure tragen bei, und alle profitieren voneinander.

Gerade im öffentlichen Sektor – ob auf Landes-, Bundes- oder europäischer Ebene – ist das ein Schlüssel. Viele Verwaltungen haben ähnliche Anforderungen und könnten enorm voneinander profitieren.

In Deutschland ist das durch den Föderalismus besonders ausgeprägt. Es gibt unzählige Organisationen mit vergleichbaren Aufgaben – ich habe neulich gelesen, dass es in Deutschland über 100 kommunale Rechenzentren gibt. Das wusste ich vorher auch nicht.

Da ist Open Source ideal: Wenn eine Kommune eine Lösung entwickelt hat, kann die nächste sie direkt übernehmen – nachnutzen, wie es ja inzwischen heißt. Dieses „Einer für alle“-Prinzip ist sogar in Teilen gesetzlich verankert. Und es entspricht exakt der Philosophie von Open Source.

Der Kostenfaktor spielt vermutlich ebenfalls eine Rolle?

Karlitschek: Natürlich muss die Software weiterhin gepflegt, gewartet und weiterentwickelt werden – darum gibt es Unternehmen wie Nextcloud, die das übernehmen und damit ihr Geld verdienen. Aber weil viele an der Entwicklung mitwirken können, sinken die Kosten insgesamt deutlich.

“Das Digitalministerium befindet sich noch in einer Art Selbstfindungsphase”

Was erwarten Sie vom neuen Digitalministerium? Gibt es Signale, dass sich etwas tut?

Karlitschek: Im Moment ist das leider noch unklar. Ich persönlich hatte noch keine Gelegenheit, mit den entscheidenden Personen zu sprechen. Das Ministerium befindet sich noch in einer Art Selbstfindungsphase.

Es gibt zwar positive Signale – der zuständige Staatssekretär erwähnt regelmäßig Open Source und digitale Souveränität. Aber bei Organisationen wie dem Zentrum für digitale Souveränität (ZenDis) ist völlig offen, wie es weitergeht.

Soweit ich weiß, sieht der aktuelle Haushaltsentwurf eine Kürzung der Mittel von 20 Millionen auf nur noch zwei Millionen Euro vor – allerdings ist der Haushalt noch nicht verabschiedet. Ich gehe davon aus, dass hier noch nachverhandelt wird.

Aber ehrlich gesagt: Wenn man Open Source wirklich ernst nimmt, sind das keine guten Signale. Die gesamte Branche – nicht nur ich – wartet gespannt darauf, wie sich das neue Ministerium positionieren wird.

Nextcloud-CEO: “Digitale Souveränität ist für mich nicht gelöst”​ Weiterlesen »

KI im Rechenzentrum: Teilweise fehlt das Vertrauen​

Allgemein

Mit KI sollen Rechenzentren effizienter und produktiver werden, doch kritische Kontrollfunktionen wollen viele nicht an die KI delegieren. VL-PhotoPro – Shutterstock.com Mit der Digitalisierung wächst die Bedeutung von Rechenzentren als Nervenzentren der vernetzten Welt. Beim Management der Data Center rückt KI immer stärker in den Fokus der Betreiber. Sie wird als entscheidender Hebel gesehen, um Effizienz und Produktivität zu steigern. Auf der anderen Seite herrscht in der Branche eine bemerkenswerte Vorsicht und Skepsis, wenn es darum geht, kritische Kontrollfunktionen vollständig an KI-Systeme zu delegieren. Diese Ambivalenz ist ein Ergebnis der 15. jährlichen Global Data Center Survey 2025. Die Untersuchung wurde vom Uptime Institute im April und Mai 2025 durchgeführt. Hierzu wurden die Meinungen und Erfahrungen von über 800 Rechenzentrumsbetreibern erfasst. Ferner wurden mehr als 1.000 Anbieter und Berater befragt. KI im RZ Grundsätzlich sind sich die RZ-Betreiber der potenziellen Vorteile des KI-Einsatzes bewusst. So identifiziert die Umfrage drei primäre Treiber, die die Einführung von KI maßgeblich vorantreiben: eine verbesserte Effizienz der Anlagen; ein geringeres Risiko für menschliche Fehler; eine gesteigerte Mitarbeiterproduktivität. Die Befragten, die der Überzeugung sind, dass KI ihrem Rechenzentrumsbetrieb Vorteile bringt, erwarten durch den KI-Einsatz signifikante Verbesserungen in folgenden Bereichen: • Gesteigerte Anlageneffizienz: 58 Befragten erwarten hier deutliche Fortschritte, was sich direkt auf Betriebskosten und Nachhaltigkeit auswirken kann. • Reduzierung menschlicher Fehler: Mit 51 Prozent Zustimmung wird die Fähigkeit der KI, Fehlerquellen zu minimieren, als entscheidender Vorteil gesehen, der die Betriebssicherheit erhöht und Ausfallzeiten reduziert. • Erhöhte Personalproduktivität: 48 Prozent erwarten, dass KI repetitive oder komplexe Aufgaben übernimmt. Das soll die und Mitarbeiter entlasten und deren Leistung steigern. • Verbesserte IT-Leistung: 40 Prozent sehen eine Optimierung der Gesamtleistung der IT-Infrastruktur. • Geringeres Risiko von Geräteausfällen oder Störungen: 39 Prozent glauben, dass KI proaktiv Probleme erkennen und so kostspielige Ausfälle verhindern kann. • Reduzierte Wartungs-/Servicekosten: 36 Prozent erhoffen sich Kosteneinsparungen durch prädiktive Wartung und optimierte Serviceprozesse. • Verbesserte IT-Resilienz: Etwas mehr als ein Viertel geht davon aus, dass KI die Widerstandsfähigkeit der IT-Systeme gegenüber Störungen erhöht. • Reduzierter Personalbedarf: Gut ein Fünftel sieht auch Potenzial für eine Anpassung der Personalstruktur durch KI-Automatisierung. Skeptische Betreiber Trotz dieser potenziellen Vorteile legen die Befragten eine deutliche Skepsis an den Tag, wenn es um die Übertragung kritischer Entscheidungen an KI-Systeme geht. Das Vertrauen in KI als Werkzeug hängt erheblich vom spezifischen Anwendungsfall ab. Während Betreiber ein hohes Vertrauen in KI für Aufgaben wie die Analyse von Sensordaten und Alarmen (73 Prozent) sowie für Predictive Maintenance (70 Prozent) haben, nimmt diese Zuversicht bei direkteren Steuerungsfunktionen drastisch ab. Auch Dokumenttexte zu generieren, sieht etwas mehr als die Hälfte als vertrauenswürdige KI-Anwendung an. Ganz anders sieht es aus, wenn KI unmittelbar in den kritischen Betrieb eingreifen könnte. Lediglich ein Drittel der Befragten würde KI die Steuerung von Rechenzentrumsausrüstung anvertrauen. Noch geringer ist das Vertrauen bei Personal- und Schichtplanung (21 Prozent). Auch Konfigurationsänderungen wollen die wenigsten (14 Prozent). Kosten bereiten Sorgen Neben der KI-Vertrauensfrage stehen die RZ-Betreiber vor einer Reihe weiterer, drängender Herausforderungen, die ihre Entscheidungen in den nächsten zwölf Monaten maßgeblich beeinflussen könnten. So sind die Kosten für 76 Prozent der Befragten das Top-Thema und spiegeln die anhaltenden finanziellen Belastungen des Betriebs wider. Gleichzeitig bereitet die Prognose künftiger Kapazitätsanforderungen 71 Prozent der Betreiber große Sorgen. Diese Unsicherheit wird durch die steigende Nachfrage nach IT und insbesondere nach KI-Workloads verstärkt, da die Infrastruktur für KI spezifische Anforderungen an Leistung und Kühlung stellt. Andy Lawrence, Executive Director of Research beim Uptime Institute, kommentiert: „Es gibt eine große Unsicherheit darüber, wo die Auswirkungen von KI liegen werden, wo der Strom sein wird, wie die Infrastruktur gekühlt werden muss und  was benötigt wird, um KI zu unterstützen“. Kein blindes Vertrauen Weitere Themen, die den Betreibern Kopfzerbrechen bereiten, sind: die Verbesserung der Energieeffizienz (67 Prozent), die Verfügbarkeit von Strom (63 Prozent), Unterbrechungen der Lieferketten (65 Prozent) und ein Mangel an qualifiziertem Personal (67 Prozent). Diese Herausforderungen bilden einen komplexen Rahmen, innerhalb dessen die KI-Adoption stattfindet, und erfordern eine ganzheitliche Strategie. Und sie belegen, so das Uptime Institute, dass es kein blindes Vertrauen in KI gebe, auch wenn die Technologie als unverzichtbares Werkzeug für künftige Effizienz- und Produktivitätssteigerungen wahrgenommen werde. Vor diesem Hintergrund sind die Forscher überzeugt, dass die Integration von KI in Rechenzentren zwar die Landschaft der Datenverarbeitung verändern und neue Horizonte für Leistungsfähigkeit und Skalierbarkeit eröffnen wird – aber den berühmten Big Bang wird es nicht geben. 

KI im Rechenzentrum: Teilweise fehlt das Vertrauen​ Mit KI sollen Rechenzentren effizienter und produktiver werden, doch kritische Kontrollfunktionen wollen viele nicht an die KI delegieren.
VL-PhotoPro – Shutterstock.com

Mit der Digitalisierung wächst die Bedeutung von Rechenzentren als Nervenzentren der vernetzten Welt. Beim Management der Data Center rückt KI immer stärker in den Fokus der Betreiber. Sie wird als entscheidender Hebel gesehen, um Effizienz und Produktivität zu steigern. Auf der anderen Seite herrscht in der Branche eine bemerkenswerte Vorsicht und Skepsis, wenn es darum geht, kritische Kontrollfunktionen vollständig an KI-Systeme zu delegieren.

Diese Ambivalenz ist ein Ergebnis der 15. jährlichen Global Data Center Survey 2025. Die Untersuchung wurde vom Uptime Institute im April und Mai 2025 durchgeführt. Hierzu wurden die Meinungen und Erfahrungen von über 800 Rechenzentrumsbetreibern erfasst. Ferner wurden mehr als 1.000 Anbieter und Berater befragt.

KI im RZ

Grundsätzlich sind sich die RZ-Betreiber der potenziellen Vorteile des KI-Einsatzes bewusst. So identifiziert die Umfrage drei primäre Treiber, die die Einführung von KI maßgeblich vorantreiben:

eine verbesserte Effizienz der Anlagen;

ein geringeres Risiko für menschliche Fehler;

eine gesteigerte Mitarbeiterproduktivität.

Die Befragten, die der Überzeugung sind, dass KI ihrem Rechenzentrumsbetrieb Vorteile bringt, erwarten durch den KI-Einsatz signifikante Verbesserungen in folgenden Bereichen:

• Gesteigerte Anlageneffizienz: 58 Befragten erwarten hier deutliche Fortschritte, was sich direkt auf Betriebskosten und Nachhaltigkeit auswirken kann.

• Reduzierung menschlicher Fehler: Mit 51 Prozent Zustimmung wird die Fähigkeit der KI, Fehlerquellen zu minimieren, als entscheidender Vorteil gesehen, der die Betriebssicherheit erhöht und Ausfallzeiten reduziert.

• Erhöhte Personalproduktivität: 48 Prozent erwarten, dass KI repetitive oder komplexe Aufgaben übernimmt. Das soll die und Mitarbeiter entlasten und deren Leistung steigern.

• Verbesserte IT-Leistung: 40 Prozent sehen eine Optimierung der Gesamtleistung der IT-Infrastruktur.

• Geringeres Risiko von Geräteausfällen oder Störungen: 39 Prozent glauben, dass KI proaktiv Probleme erkennen und so kostspielige Ausfälle verhindern kann.

• Reduzierte Wartungs-/Servicekosten: 36 Prozent erhoffen sich Kosteneinsparungen durch prädiktive Wartung und optimierte Serviceprozesse.

• Verbesserte IT-Resilienz: Etwas mehr als ein Viertel geht davon aus, dass KI die Widerstandsfähigkeit der IT-Systeme gegenüber Störungen erhöht.

• Reduzierter Personalbedarf: Gut ein Fünftel sieht auch Potenzial für eine Anpassung der Personalstruktur durch KI-Automatisierung.

Skeptische Betreiber

Trotz dieser potenziellen Vorteile legen die Befragten eine deutliche Skepsis an den Tag, wenn es um die Übertragung kritischer Entscheidungen an KI-Systeme geht. Das Vertrauen in KI als Werkzeug hängt erheblich vom spezifischen Anwendungsfall ab. Während Betreiber ein hohes Vertrauen in KI für Aufgaben wie die Analyse von Sensordaten und Alarmen (73 Prozent) sowie für Predictive Maintenance (70 Prozent) haben, nimmt diese Zuversicht bei direkteren Steuerungsfunktionen drastisch ab. Auch Dokumenttexte zu generieren, sieht etwas mehr als die Hälfte als vertrauenswürdige KI-Anwendung an.

Ganz anders sieht es aus, wenn KI unmittelbar in den kritischen Betrieb eingreifen könnte. Lediglich ein Drittel der Befragten würde KI die Steuerung von Rechenzentrumsausrüstung anvertrauen. Noch geringer ist das Vertrauen bei Personal- und Schichtplanung (21 Prozent). Auch Konfigurationsänderungen wollen die wenigsten (14 Prozent).

Kosten bereiten Sorgen

Neben der KI-Vertrauensfrage stehen die RZ-Betreiber vor einer Reihe weiterer, drängender Herausforderungen, die ihre Entscheidungen in den nächsten zwölf Monaten maßgeblich beeinflussen könnten. So sind die Kosten für 76 Prozent der Befragten das Top-Thema und spiegeln die anhaltenden finanziellen Belastungen des Betriebs wider. Gleichzeitig bereitet die Prognose künftiger Kapazitätsanforderungen 71 Prozent der Betreiber große Sorgen.

Diese Unsicherheit wird durch die steigende Nachfrage nach IT und insbesondere nach KI-Workloads verstärkt, da die Infrastruktur für KI spezifische Anforderungen an Leistung und Kühlung stellt. Andy Lawrence, Executive Director of Research beim Uptime Institute, kommentiert: „Es gibt eine große Unsicherheit darüber, wo die Auswirkungen von KI liegen werden, wo der Strom sein wird, wie die Infrastruktur gekühlt werden muss und  was benötigt wird, um KI zu unterstützen“.

Kein blindes Vertrauen

Weitere Themen, die den Betreibern Kopfzerbrechen bereiten, sind:

die Verbesserung der Energieeffizienz (67 Prozent),

die Verfügbarkeit von Strom (63 Prozent),

Unterbrechungen der Lieferketten (65 Prozent) und

ein Mangel an qualifiziertem Personal (67 Prozent).

Diese Herausforderungen bilden einen komplexen Rahmen, innerhalb dessen die KI-Adoption stattfindet, und erfordern eine ganzheitliche Strategie.

Und sie belegen, so das Uptime Institute, dass es kein blindes Vertrauen in KI gebe, auch wenn die Technologie als unverzichtbares Werkzeug für künftige Effizienz- und Produktivitätssteigerungen wahrgenommen werde. Vor diesem Hintergrund sind die Forscher überzeugt, dass die Integration von KI in Rechenzentren zwar die Landschaft der Datenverarbeitung verändern und neue Horizonte für Leistungsfähigkeit und Skalierbarkeit eröffnen wird – aber den berühmten Big Bang wird es nicht geben.

KI im Rechenzentrum: Teilweise fehlt das Vertrauen​ Weiterlesen »

SAP – erst SmartRecruiters, dann Preisschock?​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/08/Tada-Images-shutterstock_1708268140_16z9_NR.jpg?quality=50&strip=all 5944w, https://b2b-contenthub.com/wp-content/uploads/2025/08/Tada-Images-shutterstock_1708268140_16z9_NR.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/08/Tada-Images-shutterstock_1708268140_16z9_NR.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/08/Tada-Images-shutterstock_1708268140_16z9_NR.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/08/Tada-Images-shutterstock_1708268140_16z9_NR.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/08/Tada-Images-shutterstock_1708268140_16z9_NR.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/08/Tada-Images-shutterstock_1708268140_16z9_NR.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/08/Tada-Images-shutterstock_1708268140_16z9_NR.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/08/Tada-Images-shutterstock_1708268140_16z9_NR.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/08/Tada-Images-shutterstock_1708268140_16z9_NR.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/08/Tada-Images-shutterstock_1708268140_16z9_NR.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>SAPs HCM-Vorstoß könnte (Bestands-)Kunden teuer zu stehen kommen.Tada Images | shutterstock.com SAP hat vor kurzem bekannt gegeben, den Personalbeschaffungsspezialisten SmartRecruiters übernehmen zu wollen. Damit möchte der deutsche Softwaregigant in erster Linie seine Human Capital Management (HCM-)Suite SuccessFactors stärken. Zum Volumen der Transaktion wurden bislang keine Details veröffentlicht, sie dürfte im Milliarden-Bereich liegen. SAP rechnet damit, die Übernahme von SmartRecruiters im vierten Quartal 2025 abschließen zu können – die entsprechenden behördlichen Genehmigungen vorausgesetzt.  Während einer Pressekonferenz hob Daniel Beck, Chief Product Officer von SuccessFactors, drei wesentliche Vorteile für SAP-Kunden hervor, die durch die Übernahme entstehen sollen. Demnach: sollen KI und Automatisierung dabei unterstützen, geeignete Kandidaten zu finden, deren Skills und Berufserfahrung zu überprüfen sowie eine personalisierte Erfahrung für die Aspiranten bieten. sollen durch die Einbindung umfangreicher und belastbarer Recruiting-Daten in die SAP Business Data Cloud Engpässe identifiziert, bessere Quellen für Talente gefunden und eine strategischere Personalplanung möglich werden. soll die benutzerfreundliche Oberfläche von SmartRecruiters künftig die Benutzererfahrung für alle Beteiligten verbessern. Rebecca Carr, CEO von SmartRecruiters, betonte auf der Pressekonferenz, dass die Plattform ihres Unternehmens weiter wie bisher betrieben werden soll: “Wir werden alle unsere Kunden genauso unterstützen wie bisher. Gleiche Führung, gleicher Support, gleiches Engagement für Innovation. Aber natürlich werden wir nach Abschluss der Transaktion sehr eng mit SuccessFactors zusammenarbeiten, um eine tiefe und robuste Anbindung an das SAP-Ökosystem zu bieten. Das wird dafür sorgen, dass wir sowohl für SmartRecruiters- als auch für SAP-Kunden Mehrwert schaffen können.” Weder Carr noch Beck wollten die Pläne für die Zeit nach der Übernahme konkretisieren. Es hieß lediglich, dass nach Abschluss der Transaktion gemeinsame Roadmaps entwickelt werden sollen. “Ein Hebel, um Preiserhöhungen zu rechtfertigen” “Angesichts der Tatsache, dass SuccessFactors in diesem Bereich hinter seinen Mitbewerbern zurückliegt, ist diese Übernahme sowohl zeitgemäß als auch notwendig”, ordnet Scott Bickley, Research Fellow bei der Info-Tech Research Group, ein. Das US-Unternehmen bediene bereits einen soliden Kundenstamm von über 4.000 Unternehmen – darunter Amazon, McDonalds und Visa, so der Analyst. Mit ihrem KI-Assistenten Winston verfüge SmartRecruiters zudem über erstklassige, KI-gesteuerte Funktionen in den Bereichen Talent Matching, Chat und Talent Screening: “Hunderte von vorgefertigten Integrationen in Anwendungen von Drittanbietern und der Möglichkeit, nativ über lokale Umgebungen wie Slack, Microsoft Teams und WhatsApp zu arbeiten, könnten SAP-Kunden zahlreiche Möglichkeiten eröffnen, um ihre Workflows zur Talentakquise und für Kundeninteraktionen zu optimieren.” Allerdings warnt Mike Tucciarone, VP Analyst bei Gartner, dass die Übernahme von SmartRecruiters für SAP-Kunden erhebliche Veränderungen nach sich ziehen könnte – insbesondere für diejenigen, die bereits in SuccessFactors investiert hätten: “Die große Frage ist, wie SAP die Technologie von SmartRecruiters integrieren wird. Angesichts der jüngsten Kommentare von SAP-CEO Christian Klein zur Umsatzprognose für das zweite Quartal 2025, ist das besonders relevant. Schließlich will SAP langfristig seine Margen und Gewinne steigern. Wenn SmartRecruiters in das bestehende Recruiting-Modul von SuccessFactors integriert wird, könnte das SAP einen weiteren Hebel liefern, um Preiserhöhungen zu rechtfertigen.” Deshalb rät der Gartner-Analyst SAP-Kunden, sich direkt an das Unternehmen zu wenden und nachzufragen, wie sich die Übernahme auf Produkt-Roadmaps, Lizenzierung, Preise und Verträge auswirken wird. Dem kann Analysten-Kollege Bickley nur zustimmen. Er ergänzt: “SAP sollte sich überlegen, wie sie Mehrwert bieten und zur Konkurrenz aufschließen können, ohne die Preise zu erhöhen. Die Kunden sollten nicht dafür bezahlen müssen, dass der Konzern seinen Rückstand aufholen will.”(fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

SAP – erst SmartRecruiters, dann Preisschock?​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/08/Tada-Images-shutterstock_1708268140_16z9_NR.jpg?quality=50&strip=all 5944w, https://b2b-contenthub.com/wp-content/uploads/2025/08/Tada-Images-shutterstock_1708268140_16z9_NR.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/08/Tada-Images-shutterstock_1708268140_16z9_NR.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/08/Tada-Images-shutterstock_1708268140_16z9_NR.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/08/Tada-Images-shutterstock_1708268140_16z9_NR.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/08/Tada-Images-shutterstock_1708268140_16z9_NR.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/08/Tada-Images-shutterstock_1708268140_16z9_NR.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/08/Tada-Images-shutterstock_1708268140_16z9_NR.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/08/Tada-Images-shutterstock_1708268140_16z9_NR.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/08/Tada-Images-shutterstock_1708268140_16z9_NR.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/08/Tada-Images-shutterstock_1708268140_16z9_NR.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>SAPs HCM-Vorstoß könnte (Bestands-)Kunden teuer zu stehen kommen.Tada Images | shutterstock.com

SAP hat vor kurzem bekannt gegeben, den Personalbeschaffungsspezialisten SmartRecruiters übernehmen zu wollen. Damit möchte der deutsche Softwaregigant in erster Linie seine Human Capital Management (HCM-)Suite SuccessFactors stärken.

Zum Volumen der Transaktion wurden bislang keine Details veröffentlicht, sie dürfte im Milliarden-Bereich liegen. SAP rechnet damit, die Übernahme von SmartRecruiters im vierten Quartal 2025 abschließen zu können – die entsprechenden behördlichen Genehmigungen vorausgesetzt.  Während einer Pressekonferenz hob Daniel Beck, Chief Product Officer von SuccessFactors, drei wesentliche Vorteile für SAP-Kunden hervor, die durch die Übernahme entstehen sollen. Demnach:

sollen KI und Automatisierung dabei unterstützen, geeignete Kandidaten zu finden, deren Skills und Berufserfahrung zu überprüfen sowie eine personalisierte Erfahrung für die Aspiranten bieten.

sollen durch die Einbindung umfangreicher und belastbarer Recruiting-Daten in die SAP Business Data Cloud Engpässe identifiziert, bessere Quellen für Talente gefunden und eine strategischere Personalplanung möglich werden.

soll die benutzerfreundliche Oberfläche von SmartRecruiters künftig die Benutzererfahrung für alle Beteiligten verbessern.

Rebecca Carr, CEO von SmartRecruiters, betonte auf der Pressekonferenz, dass die Plattform ihres Unternehmens weiter wie bisher betrieben werden soll: “Wir werden alle unsere Kunden genauso unterstützen wie bisher. Gleiche Führung, gleicher Support, gleiches Engagement für Innovation. Aber natürlich werden wir nach Abschluss der Transaktion sehr eng mit SuccessFactors zusammenarbeiten, um eine tiefe und robuste Anbindung an das SAP-Ökosystem zu bieten. Das wird dafür sorgen, dass wir sowohl für SmartRecruiters- als auch für SAP-Kunden Mehrwert schaffen können.”

Weder Carr noch Beck wollten die Pläne für die Zeit nach der Übernahme konkretisieren. Es hieß lediglich, dass nach Abschluss der Transaktion gemeinsame Roadmaps entwickelt werden sollen.

“Ein Hebel, um Preiserhöhungen zu rechtfertigen”

“Angesichts der Tatsache, dass SuccessFactors in diesem Bereich hinter seinen Mitbewerbern zurückliegt, ist diese Übernahme sowohl zeitgemäß als auch notwendig”, ordnet Scott Bickley, Research Fellow bei der Info-Tech Research Group, ein. Das US-Unternehmen bediene bereits einen soliden Kundenstamm von über 4.000 Unternehmen – darunter Amazon, McDonalds und Visa, so der Analyst. Mit ihrem KI-Assistenten Winston verfüge SmartRecruiters zudem über erstklassige, KI-gesteuerte Funktionen in den Bereichen Talent Matching, Chat und Talent Screening: “Hunderte von vorgefertigten Integrationen in Anwendungen von Drittanbietern und der Möglichkeit, nativ über lokale Umgebungen wie Slack, Microsoft Teams und WhatsApp zu arbeiten, könnten SAP-Kunden zahlreiche Möglichkeiten eröffnen, um ihre Workflows zur Talentakquise und für Kundeninteraktionen zu optimieren.”

Allerdings warnt Mike Tucciarone, VP Analyst bei Gartner, dass die Übernahme von SmartRecruiters für SAP-Kunden erhebliche Veränderungen nach sich ziehen könnte – insbesondere für diejenigen, die bereits in SuccessFactors investiert hätten: “Die große Frage ist, wie SAP die Technologie von SmartRecruiters integrieren wird. Angesichts der jüngsten Kommentare von SAP-CEO Christian Klein zur Umsatzprognose für das zweite Quartal 2025, ist das besonders relevant. Schließlich will SAP langfristig seine Margen und Gewinne steigern. Wenn SmartRecruiters in das bestehende Recruiting-Modul von SuccessFactors integriert wird, könnte das SAP einen weiteren Hebel liefern, um Preiserhöhungen zu rechtfertigen.”

Deshalb rät der Gartner-Analyst SAP-Kunden, sich direkt an das Unternehmen zu wenden und nachzufragen, wie sich die Übernahme auf Produkt-Roadmaps, Lizenzierung, Preise und Verträge auswirken wird. Dem kann Analysten-Kollege Bickley nur zustimmen. Er ergänzt: “SAP sollte sich überlegen, wie sie Mehrwert bieten und zur Konkurrenz aufschließen können, ohne die Preise zu erhöhen. Die Kunden sollten nicht dafür bezahlen müssen, dass der Konzern seinen Rückstand aufholen will.”(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

SAP – erst SmartRecruiters, dann Preisschock?​ Weiterlesen »

Gesundheitstipps: So pendeln Sie stressfreier​

Allgemein

Pendeln gehört für viele Arbeitnehmer zum Alltag. Denn wer nicht das Glück hat, ständig im Homeoffice arbeiten zu dürfen, muss wohl oder übel zur Arbeit fahren. Sind Wohn- und Arbeitsort auch nur wenige Kilometer voneinander getrennt, bedeutet das für den Arbeitnehmer schon ein Pendeln. Bei Beschäftigten, deren Firma weiter entfernt ist, stellt sich die Frage nach dem Pendeln hingegen erst gar nicht. Fakt ist: Arbeitnehmer, die weite Strecke zurücklegen, müssen nicht nur mit gesundheitlichen Einbußen rechnen. Wer vom Auto auf die Bahn oder den ÖPNV umsteigt, kann die Zeit des Pendelns für die Vorbereitung einer Präsentation oder die persönliche Weiterbildung nutzen, aber auch zur Entspannung. Foto: Mariia Korneeva – shutterstock.comLange Arbeitswege, wenig FreizeitNatürlich kann nicht jede kurze Fahrt zum Arbeitgeber als Pendeln bezeichnet werden. Solange sich der Arbeitgeber in kurzer Entfernung zum Wohnort befindet, sehen wir das als normal an. Ist aber die einfache Strecke, die ein Arbeitnehmer zurücklegt, länger als 25 Kilometer, gilt er bereits als Fernpendler. Die zurückzulegende Wegstrecke ist dabei aber gar nicht das Schlimmste. Untersuchungen zeigen aber, dass die Zeit, die für die An- und Abfahrt zum Arbeitsplatz benötigt wird, einen erheblichen Einfluss auf unser Wohlbefinden hat. Die Fahrzeit ist durchaus unterschiedlich: Fast 35 Prozent der Arbeitnehmer benötigen bis zu 30 Minuten zum Arbeitsplatz und neun Prozent sind sogar über eine Stunde unterwegs. Dabei scheint zunächst klar zu sein, dass sich Arbeitnehmer, die eine sehr lange Anfahrt haben, nicht über ihren Arbeitsweg freuen. Der Grund: Wer länger im Auto oder öffentlichen Verkehrsmitteln sitzt, hat weniger Freizeit. Das ist dann besonders ärgerlich, wenn darunter nicht nur die Freunde, sondern auch die Familie und die Beziehung leiden. Tipps, um die Pendel-Belastung zu reduzierenDie Auswirkungen einer langen Fahrdauer zum Arbeitsort sind vielfältig. Viele dieser Arbeitnehmer kommen nach einem langen Arbeitstag gestresst nach Hause. Denn zu dem Druck am Arbeitsplatz kommt auch noch der Stress der Fahrt hinzu, weil oft nicht alles reibungslos klappt. Mal hat die Bahn Verspätung, ein andermal stehen sie im Stau. Das ist ärgerlich und verhagelt Pendlern ganz schön die Laune. Bei schlechter Stimmung ist der nächste Streit mit dem Partner dann vorprogrammiert. Es ist daher nicht verwunderlich, dass Fernpendler ein bis zu 40 Prozent höheres Risiko einer scheiternden Beziehung tragen. Untersuchungen zeigen, dass sich die Lage erst nach ungefähr fünf Jahren wieder normalisiert, wenn sich die Partner an das Pendeln gewöhnt haben. Neben den ungünstigen Auswirkungen im zwischenmenschlichen Bereich kann langes Pendeln auch schlecht für unsere Gesundheit sein: Wir sitzen zu lange, bekommen Rückenschmerzen, der Blutdruck erhöht sich und durch viel Fast Food zwischendurch steigen auch noch unsere Blutfettwerte. Grund genug, beim Pendeln auf die eigene Gesundheit zu achten und Stress abzubauen. Hier drei Tipps für Pendler:1. Bahn statt AutoBesserverdienende Arbeitnehmer fahren häufig selbst und pendeln lieber mit dem Auto. Das muss aber nicht die beste Wahl sein. Denn wer selbst fährt, ist dem Stress und den Strapazen voll ausgesetzt. Wer hingegen auf öffentliche Verkehrsmittel umsteigt, kann sich fahren lassen und die Zeit so nutzen, wie er möchten. Ein kleines Nickerchen, die nächste Präsentation vorbereiten oder die Lieblingsserie auf dem Laptop schauen – all das ist möglich, wenn man auf den ÖPNV umsteigt. Davon abgesehen wird auch der Umwelt etwas Gutes getan. 2. Gut vorbereitet seinWer nicht selbst fährt, kann die die Zeit des Pendelns für die persönliche Weiterbildung nutzen. Mit Apps wie Instapaper oder Read it later kann schon vor der Abfahrt interessante Artikel downloaden und bei Gelegenheit lesen. Oder wer eine klassische Weiterbildung neben dem Job macht, kann dafür die Zeit während des Pendelns nutzen. Denn einige Weiterbildungsträger haben e-Paper im Angebot, die für Lernstoff unterwegs sorgen. 3. Für körperlichen Ausgleich sorgenHäufiges und langes Sitzen ist schlecht für die Gesundheit. Sitzt man nach einer langen Fahrt auch noch mehrere Stunden am Schreibtisch, sind Rückenschmerzen vorprogrammiert. Statt dem Kollegen eine Mail zu schreiben, kann man dessen Büro gehen und die Angelegenheit persönlich besprechen – das trägt im besten Fall auch noch zu einem besseren Betriebsklima bei. Wer noch mehr gegen Rückenschmerzen und für seine Gesundheit tun möchte, findet bei vielen Krankenkassen spezielle Übungen gegen die große Belastung beim langen Sitzen. (pg)9 Tipps gegen StressTreiben Sie Sport …… und ziehen Sie Yoga und weitere Meditationsübungen in Betracht. Diese Übungen sind die besten Mittel gegen Stress und tragen dazu bei, Stressgefühle abzubauen. Ganz abgesehen vom gesundheitlichen Nutzen dienen die Trainings auch dazu, den Stress besser zu managen.Lernen Sie gut zu atmenObwohl wir natürlich seit unserer Geburt atmen, wissen die meisten von uns nicht, wie man richtig atmet. Viele atmen in einer oberflächlichen Art und Weise – besonders in stressbetonten oder unruhigen Zeiten. Tiefes Atmen durch den Bauch kann zur inneren Ruhe beitragen. Und es hilft, in unbequemen und angespannten Situationen einen kühlen Kopf zu bewahren.Bringen Sie ihre Mitarbeiter an einen Tisch, um über jetzige schwere Zeiten zu sprechenWer sich die Zeit nimmt um darüber zu sprechen, wie die vielen Veränderungen und Schwierigkeiten am Arbeitsplatz die einzelnen Mitarbeiter bewegen, kann die Arbeitsmoral heben. Es ist ein Fehler zu glauben, Menschen seien nicht verängstigt und besorgt und der Arbeitsplatz sei davon nicht betroffen.Fordern Sie zu positiven, lösungs-orientierten Antworten aufDie Zeiten sind angespannt und schwierige Veränderungen in Organisationen sind die Regel. Daher sind Ehrlichkeit, Glaubwürdigkeit und Offenheit so wichtig. Heute ist es mehr als je zuvor entscheidend, eine positive Einstellung in der Belegschaft auszulösen. Stellen Sie Fragen, die zu Lösungen ermuntern wie “Was läuft heute gut, was sind unsere Stärken, wie möchten wir, dass dieses Unternehmen aussieht?”Seien Sie mit den Gedanken und mit dem Herzen bei der Sache.Leute arbeiten intensiver für das, woran sie glauben und was sie zur Schaffung beigetragen haben. Das ist ein entscheidender Punkt, der während einer tiefgreifenden Umgestaltung am Arbeitsplatz geprüft werden muss. Was das mögliche Ausmaß des Arbeitsplatz-Wandels betrifft, sollten Mitarbeiter frühzeitig in die Entwicklung einbezogen werden.Lernen Sie Ihre eigenen Gefühle zu erkennenBücher, Gruppen, Familie und enge Freunde sowie Trainer können wichtige Quellen sein, um sich den eigenen Gefühlen bewusster zu werden. Auch kann man dadurch leichter lernen, mit diesen Gefühlen umzugehen, um sich über sein Verhalten im Klaren zu werden. Besonders sollte man darauf achten, wie man andere Menschen anspricht.Geben Sie als Führungskraft ein gutes BeispielWas man tut oder lässt, hat direkten Einfluss darauf, was Mitarbeiter glauben, was akzeptabel ist. Seien Sie ein überzeugendes Beispiel dafür, dass ein ausgeglichenes Verhältnis zwischen Beruf und Privatleben von Bedeutung ist. Essen Sie mit anderen zu Mittag und motivieren Sie Kollegen dazu mitzukommen. Auch Spaß und Lachen am Arbeitsplatz sind erwünscht, da dies Stress reduzierende Faktoren sind.Nehmen Sie sich Zeit für gute NachrichtenWer sich immer nur auf das Negative konzentriert, tut weder seiner Gesundheit noch seiner Denkweise einen Gefallen. Und seien wir ehrlich: Der Anteil an positiven und erbaulichen Geschichten in den Nachrichten fällt eindeutig spärlich aus. Es ist extrem wichtig, sich so gut wie möglich von jeglichem Trübsal abzukapseln und wieder mit Leuten Kontakt aufnehmen bzw. Dinge zu tun, die Spaß machen.Halten Sie sich von überflüssigen Dingen freiKonzentrieren Sie sich auf den Kern Ihrer Arbeit. Jetzt ist Zeit, mit den Mitarbeitern Prioritäten zu setzen und sich darüber Gedanken zu machen, welche Projekte einen perfekten Lösungsansatz erfordern. Nicht jedes Projekt kann an oberster Stelle stehen. Gerade in wirtschaftlich angespannten Zeiten sind Brainstorming-Sitzungen wichtiger denn je. 

Gesundheitstipps: So pendeln Sie stressfreier​ Pendeln gehört für viele Arbeitnehmer zum Alltag. Denn wer nicht das Glück hat, ständig im Homeoffice arbeiten zu dürfen, muss wohl oder übel zur Arbeit fahren. Sind Wohn- und Arbeitsort auch nur wenige Kilometer voneinander getrennt, bedeutet das für den Arbeitnehmer schon ein Pendeln. Bei Beschäftigten, deren Firma weiter entfernt ist, stellt sich die Frage nach dem Pendeln hingegen erst gar nicht. Fakt ist: Arbeitnehmer, die weite Strecke zurücklegen, müssen nicht nur mit gesundheitlichen Einbußen rechnen. Wer vom Auto auf die Bahn oder den ÖPNV umsteigt, kann die Zeit des Pendelns für die Vorbereitung einer Präsentation oder die persönliche Weiterbildung nutzen, aber auch zur Entspannung.
Foto: Mariia Korneeva – shutterstock.comLange Arbeitswege, wenig FreizeitNatürlich kann nicht jede kurze Fahrt zum Arbeitgeber als Pendeln bezeichnet werden. Solange sich der Arbeitgeber in kurzer Entfernung zum Wohnort befindet, sehen wir das als normal an. Ist aber die einfache Strecke, die ein Arbeitnehmer zurücklegt, länger als 25 Kilometer, gilt er bereits als Fernpendler. Die zurückzulegende Wegstrecke ist dabei aber gar nicht das Schlimmste. Untersuchungen zeigen aber, dass die Zeit, die für die An- und Abfahrt zum Arbeitsplatz benötigt wird, einen erheblichen Einfluss auf unser Wohlbefinden hat. Die Fahrzeit ist durchaus unterschiedlich: Fast 35 Prozent der Arbeitnehmer benötigen bis zu 30 Minuten zum Arbeitsplatz und neun Prozent sind sogar über eine Stunde unterwegs. Dabei scheint zunächst klar zu sein, dass sich Arbeitnehmer, die eine sehr lange Anfahrt haben, nicht über ihren Arbeitsweg freuen. Der Grund: Wer länger im Auto oder öffentlichen Verkehrsmitteln sitzt, hat weniger Freizeit. Das ist dann besonders ärgerlich, wenn darunter nicht nur die Freunde, sondern auch die Familie und die Beziehung leiden. Tipps, um die Pendel-Belastung zu reduzierenDie Auswirkungen einer langen Fahrdauer zum Arbeitsort sind vielfältig. Viele dieser Arbeitnehmer kommen nach einem langen Arbeitstag gestresst nach Hause. Denn zu dem Druck am Arbeitsplatz kommt auch noch der Stress der Fahrt hinzu, weil oft nicht alles reibungslos klappt. Mal hat die Bahn Verspätung, ein andermal stehen sie im Stau. Das ist ärgerlich und verhagelt Pendlern ganz schön die Laune. Bei schlechter Stimmung ist der nächste Streit mit dem Partner dann vorprogrammiert. Es ist daher nicht verwunderlich, dass Fernpendler ein bis zu 40 Prozent höheres Risiko einer scheiternden Beziehung tragen. Untersuchungen zeigen, dass sich die Lage erst nach ungefähr fünf Jahren wieder normalisiert, wenn sich die Partner an das Pendeln gewöhnt haben. Neben den ungünstigen Auswirkungen im zwischenmenschlichen Bereich kann langes Pendeln auch schlecht für unsere Gesundheit sein: Wir sitzen zu lange, bekommen Rückenschmerzen, der Blutdruck erhöht sich und durch viel Fast Food zwischendurch steigen auch noch unsere Blutfettwerte. Grund genug, beim Pendeln auf die eigene Gesundheit zu achten und Stress abzubauen. Hier drei Tipps für Pendler:1. Bahn statt AutoBesserverdienende Arbeitnehmer fahren häufig selbst und pendeln lieber mit dem Auto. Das muss aber nicht die beste Wahl sein. Denn wer selbst fährt, ist dem Stress und den Strapazen voll ausgesetzt. Wer hingegen auf öffentliche Verkehrsmittel umsteigt, kann sich fahren lassen und die Zeit so nutzen, wie er möchten. Ein kleines Nickerchen, die nächste Präsentation vorbereiten oder die Lieblingsserie auf dem Laptop schauen – all das ist möglich, wenn man auf den ÖPNV umsteigt. Davon abgesehen wird auch der Umwelt etwas Gutes getan. 2. Gut vorbereitet seinWer nicht selbst fährt, kann die die Zeit des Pendelns für die persönliche Weiterbildung nutzen. Mit Apps wie Instapaper oder Read it later kann schon vor der Abfahrt interessante Artikel downloaden und bei Gelegenheit lesen. Oder wer eine klassische Weiterbildung neben dem Job macht, kann dafür die Zeit während des Pendelns nutzen. Denn einige Weiterbildungsträger haben e-Paper im Angebot, die für Lernstoff unterwegs sorgen. 3. Für körperlichen Ausgleich sorgenHäufiges und langes Sitzen ist schlecht für die Gesundheit. Sitzt man nach einer langen Fahrt auch noch mehrere Stunden am Schreibtisch, sind Rückenschmerzen vorprogrammiert. Statt dem Kollegen eine Mail zu schreiben, kann man dessen Büro gehen und die Angelegenheit persönlich besprechen – das trägt im besten Fall auch noch zu einem besseren Betriebsklima bei. Wer noch mehr gegen Rückenschmerzen und für seine Gesundheit tun möchte, findet bei vielen Krankenkassen spezielle Übungen gegen die große Belastung beim langen Sitzen. (pg)9 Tipps gegen StressTreiben Sie Sport …… und ziehen Sie Yoga und weitere Meditationsübungen in Betracht. Diese Übungen sind die besten Mittel gegen Stress und tragen dazu bei, Stressgefühle abzubauen. Ganz abgesehen vom gesundheitlichen Nutzen dienen die Trainings auch dazu, den Stress besser zu managen.Lernen Sie gut zu atmenObwohl wir natürlich seit unserer Geburt atmen, wissen die meisten von uns nicht, wie man richtig atmet. Viele atmen in einer oberflächlichen Art und Weise – besonders in stressbetonten oder unruhigen Zeiten. Tiefes Atmen durch den Bauch kann zur inneren Ruhe beitragen. Und es hilft, in unbequemen und angespannten Situationen einen kühlen Kopf zu bewahren.Bringen Sie ihre Mitarbeiter an einen Tisch, um über jetzige schwere Zeiten zu sprechenWer sich die Zeit nimmt um darüber zu sprechen, wie die vielen Veränderungen und Schwierigkeiten am Arbeitsplatz die einzelnen Mitarbeiter bewegen, kann die Arbeitsmoral heben. Es ist ein Fehler zu glauben, Menschen seien nicht verängstigt und besorgt und der Arbeitsplatz sei davon nicht betroffen.Fordern Sie zu positiven, lösungs-orientierten Antworten aufDie Zeiten sind angespannt und schwierige Veränderungen in Organisationen sind die Regel. Daher sind Ehrlichkeit, Glaubwürdigkeit und Offenheit so wichtig. Heute ist es mehr als je zuvor entscheidend, eine positive Einstellung in der Belegschaft auszulösen. Stellen Sie Fragen, die zu Lösungen ermuntern wie “Was läuft heute gut, was sind unsere Stärken, wie möchten wir, dass dieses Unternehmen aussieht?”Seien Sie mit den Gedanken und mit dem Herzen bei der Sache.Leute arbeiten intensiver für das, woran sie glauben und was sie zur Schaffung beigetragen haben. Das ist ein entscheidender Punkt, der während einer tiefgreifenden Umgestaltung am Arbeitsplatz geprüft werden muss. Was das mögliche Ausmaß des Arbeitsplatz-Wandels betrifft, sollten Mitarbeiter frühzeitig in die Entwicklung einbezogen werden.Lernen Sie Ihre eigenen Gefühle zu erkennenBücher, Gruppen, Familie und enge Freunde sowie Trainer können wichtige Quellen sein, um sich den eigenen Gefühlen bewusster zu werden. Auch kann man dadurch leichter lernen, mit diesen Gefühlen umzugehen, um sich über sein Verhalten im Klaren zu werden. Besonders sollte man darauf achten, wie man andere Menschen anspricht.Geben Sie als Führungskraft ein gutes BeispielWas man tut oder lässt, hat direkten Einfluss darauf, was Mitarbeiter glauben, was akzeptabel ist. Seien Sie ein überzeugendes Beispiel dafür, dass ein ausgeglichenes Verhältnis zwischen Beruf und Privatleben von Bedeutung ist. Essen Sie mit anderen zu Mittag und motivieren Sie Kollegen dazu mitzukommen. Auch Spaß und Lachen am Arbeitsplatz sind erwünscht, da dies Stress reduzierende Faktoren sind.Nehmen Sie sich Zeit für gute NachrichtenWer sich immer nur auf das Negative konzentriert, tut weder seiner Gesundheit noch seiner Denkweise einen Gefallen. Und seien wir ehrlich: Der Anteil an positiven und erbaulichen Geschichten in den Nachrichten fällt eindeutig spärlich aus. Es ist extrem wichtig, sich so gut wie möglich von jeglichem Trübsal abzukapseln und wieder mit Leuten Kontakt aufnehmen bzw. Dinge zu tun, die Spaß machen.Halten Sie sich von überflüssigen Dingen freiKonzentrieren Sie sich auf den Kern Ihrer Arbeit. Jetzt ist Zeit, mit den Mitarbeitern Prioritäten zu setzen und sich darüber Gedanken zu machen, welche Projekte einen perfekten Lösungsansatz erfordern. Nicht jedes Projekt kann an oberster Stelle stehen. Gerade in wirtschaftlich angespannten Zeiten sind Brainstorming-Sitzungen wichtiger denn je.

Gesundheitstipps: So pendeln Sie stressfreier​ Weiterlesen »

KI-Jobs – diese Skills brauchen Entwickler​

Allgemein

Developer mit KI-Ambitionen sind bei Unternehmen gefragt – wenn Sie das richtige Skillset vorweisen können.Gorodenkoff | shutterstock.com Künstliche Intelligenz (KI) gewinnt überall an Bedeutung – auch in der Softwareentwicklung. Angesichts dieser Entwicklung fragen sich nicht wenige Developer, welche Kompetenzen Sie vorweisen sollten, um bei einem Unternehmen mit KI-Fokus ihren nächsten Traumjob zu landen. Deshalb haben wir mit diversen IT- und Technologieentscheidern gesprochen, die wissen, welche Skills Developer im KI-Zeitalter brauchen. 1. Business Impact erkennen KI-agnostische Unternehmen suchen Entwickler, die nicht nur die konzeptionellen Aspekte von KI, Machine Learning (ML) und Deep Learning verstehen. Potenzielle Job-Kandidaten müssen auch wissen, wie man diese gewinnbringend einsetzt. Scott Weller, CTO beim Finanzdienstleister EnFi (der ebenfalls stark auf KI setzt), bringt die Anforderungen für potenzielle Job-Kandidaten auf den Punkt: “Es reicht nicht aus, zu wissen, wie ein Transformer-Modell funktioniert. Entscheidend ist, beurteilen zu können, wann KI eingesetzt werden sollte, um Geschäftsziele zu unterstützen. Entwickler müssen die Kompromisse zwischen Heuristik, traditioneller Software und maschinellem Lernen verstehen und wissen, wie sich KI auf praktische, messbare und verantwortungsvolle Weise in Workflows integrieren lässt.” Das kann Lei Gao, Technologieentscheider bei SleekFlow, nur unterstreichen. Auch sein Unternehmen (Anbieter einer Omnichannel-Plattform für Kundenbindungszwecke) setzt stark auf KI – und Developer, die den Business Impact der Technologie verstehen: “Zum Beispiel müssen unsere Entwickler wissen, wie KI-gestützte Software dazu beitragen kann, die Conversion-Raten zu steigern oder den Kunden-Support zu automatisieren.”  Mitchell Johnson, Chef-Produktentwickler beim Softwareanbieter Sonatype, schreibt diese Anforderung für Entwicklerjobs im KI-Zeitalter auch dem zunehmenden Einsatz von KI-basierten Dev-Tools zu: “Weil die KI zunehmend die Low-Level-Codierungsarbeit übernimmt, müssen sich Entwickler stärker darauf fokussieren, warum sie etwas entwickeln – und nicht nur darauf, wie.” KI-native Unternehmen schätzten Entwickler, die näher am Produktmanagement sind, so Johnson – und in der Lage, die Probleme der User zu erkennen, Kompromisse zu finden und den Entwicklungsprozess zu gestalten. 2. Daten beherrschen Ohne Daten keine KI. Entsprechend wichtig ist es für Entwickler, Knowhow mitzubringen, wenn es um Dateninfrastruktur, -management und -analysen geht. “In AI-First-Systemen sind Daten das Produkt”, unterstreicht CTO Weller. Er ergänzt: “Developer sollten entsprechend versiert im Umgang mit Daten sein, ansonsten leider die Performance der KI-Modelle. Das schließt auch ein, mit modernen Daten-Stacks, SQL und Cloud-nativen Tools umgehen zu können.” Auch Gao gibt an dieser Stelle zu bedenken, dass KI-Modelle nur so gut sind wie die Daten-Pipelines, die sie versorgen. Entsprechend ist die Suche nach fähigen Entwicklern bei SleeFlow ausgestaltet: “Wir suchen Engineers, die mit verteilten Datenplattformen arbeiten und alles von der Datenerfassung bis hin zur Echtzeitanalyse koordinieren können.” Laut dem Manager sind dabei auch zunehmend Kenntnisse rund um neue Konzepte gefragt. Etwa: Stream Processing, Event-getriebene Architekturen oder Data Meshes. Vaibhav Tupe, Technologiechef beim IT-Dienstleister Equinix, hält die traditionellen Data-Engineering-Ansätze für KI-Workloads nicht mehr für ausreichend: “Entwickler sollten spezielle Skills vorweisen können, wenn es darum geht, für KI-Systeme Daten-Pipelines aufzubauen, spezielle ML-Funktionen zu erstellen und die Datenqualität zu managen.” Laut dem Entscheider zählt dazu auch: Echtzeit-Feature-Stores zu erstellen, die Datenvalidierung zu automatisieren, sowie Trainings- und Inferenzdaten zu managen. 3. KI integrieren Wenn KI-Tools nicht wirklich gut mit bestehenden Systemen zusammenwirken, dürften sich die Vorteile in Grenzen halten – auch für die Kunden. Deshalb legt Kevin Miller, CTO beim Industriesoftwareanbieter IFS, großen Wert darauf, dass potenzielle Kandidaten für einen Entwickler-Job in seinem Unternehmen die entsprechenden Basics mitbringen: “Wir suchen Entwickler, die KI- und ML-Systeme auf der Grundlage von fundierten Kenntnissen integrieren und implementieren können. Da KI-gestützte Predictive Maintenance für unsere Kunden entscheidend ist, wollen wir das auch in einem möglichst funktionalen Produkt umsetzen.” Deshalb sucht der Entscheider in erster Linie nach Softwareentwicklern, die dazu in der Lage sind, Predictive-Algorithmen zu implementieren, die mit industriellen Systemen wie SCADA funktionieren, sowie dazu   Robuste Daten-Pipelines zu erstellen, die Echtzeit-Sensordaten an ML-Modelle liefern. 4. KI sicher umsetzen Manufacturing ist außerdem ein gutes Beispiel für eine Branche, in der KI-Systeme vor allem sicher und zuverlässig funktionieren müssen. Entsprechend gefragt sind Softwareentwickler, die das auch gewährleisten können. IFS-CTO Miller erklärt: “Developer müssen AI Safety und Reliability Engineering beherrschen. Nur so sind sie in der Lage, Fabrikumgebungen nachhaltig abzusichern. Schließlich können KI-Ausfälle hier zu Unfällen führen – und unter Umständen auch die gesamte Produktion lahmlegen.” Entwickler, die einen Job bei IFS (oder anderen Industrieunternehmen mit KI-Fokus) landen wollen, sollten deshalb laut Miller in der Lage sein, umfassende Monitoring-Systeme auzufbauen, um erkennen zu können, wann KI-Vorhersagen nicht zutreffen, und bei Bedarf automatisierte Rollback-Mechanismen für herkömmliche Kontrollmethoden zu implementieren. “Dazu gehört auch, Redundanzsysteme und umfangreiche Testing-Frameworks zu entwickeln, die das Verhalten der KI in Randfällen und unter widrigen Bedingungen validieren”, ergänzt Miller. 5. Cloud Deployments bewältigen Angesichts der prominenten Rolle, die Cloud Services in modernen IT-Infrastrukturen einnehmen, erwarten Arbeitgeber mit KI-Fokus von ihren Entwicklern auch Erfahrungen, wenn es um Cloud-(KI-)Deployments und API-Integration geht. Konkret heißt das laut Naga Santhosh Reddy Vootukuri, Principal Software Engineering Manager bei Microsoft, dass Devs vor allem mit den KI-Tools umgehen können sollten, die die Hyperscaler zur Verfügung stellen: “Mit den Tools von AWS, Google Cloud Platform und Azure vertraut zu sein, hilft Softwareentwicklern in Sachen Hosting und dabei, KI-Lösungen mit Model Context Protocol in bestehende Legacy-Systeme zu integrieren.” 6. Prompts bauen Prompt Engineering findet in einer ganzen Reihe von Branchen Anwendung. Die Technik wird dazu eingesetzt, um Inhalte zu generieren und Probleme zu lösen. Sie unterstützt GenAI-Modelle ganz generell dabei, auf diverse Arten von Anfragen zu reagieren. Skills in diesem Bereich sind für Devs, die bei KI-Unternehmen arbeiten wollen, ebenfalls Pflicht, wie Equinix-Manager Tupe nahelegt: “Angesichts des rasanten Wachstums großer Sprachmodelle benötigen Entwickler heute ein tiefgreifendes Verständnis für Prompt Design, Kontextfenster und LLM-API-Integration.” Laut dem Manager sollten Devs wissen, wie man komplexe Prompt-Ketten aufbaut, großangelegte Deployments stemmt, Rate Limits managt, Kosten optimiert und mehrere LLMs nahtlos integriert. “Es gibt einen grundlegenden Unterschied zwischen Entwicklern, die einfach nur grundlegende Prompts schreiben, und denjenigen, die robuste Enterprise-LLM-Systeme entwerfen können, die durch gründliches Testing, Evaluierungen und Monitoring-Funktionen abgesichert sind”, hält Tupe fest. 7. Strategisch denken Developer, die sich in ihrem (künftigen) Job in erster Linie KI-Projekten widmen wollen, sollten außerdem in der Lage sein, auch über die strategischen Aspekte ihrer Arbeit zu reflektieren. Auch das hängt wiederum mit dem zunehmenden Einsatz von KI in der Softwareentwicklung zusammen, wie David Radin, CEO beim KI-Plattformanbieter Confirmed, erklärt: “Weil KI immer öfter für Grundlegendes eingesetzt wird, ist es für Developer wichtiger denn je, strategisch denken zu können – also ein Problem zu betrachten, es zu analysieren und eine Lösung dafür zu erarbeiten.” KI-Inputs strategisch auszurichten, unterstütze Devs dabei, die KI in die Richtung der gewünschten Lösung zu führen, so Radin: “Liefert das System eine unzureichende Antwort, hilft strategisches Denken dabei, die Antwort zu analysieren und dann entweder die KI dazu anzuregen, sich näher an die gewünschte Richtung zu bewegen – oder ihr selbst auf die Sprünge zu helfen.” 8. Zeit managen Zeitmanagement ist ein Skill, der heutzutage in nahezu jedem Berufsfeld gefragt ist. Softwareentwickler in KI-orientierten Unternehmen bilden hierbei keine Ausnahme. Das kann Confirmed-CEO Radi nur unterstreichen: “In KI-gesteuerten Unternehmen stehen hervorragende Zeitmanagementfähigkeiten nach wie vor mit ganz oben auf der Anforderungsliste. Das hilft nicht nur dabei, Ziele zu erreichen, sondern verdeutlicht auch, wie wichtig der Faktor Mensch für eine Development-Abteilung ist.” 9. Mit Veränderung klarkommen Weil sich insbesondere der KI-Bereich im immerwährenden Umbruch befindet, sollten Developer, die einen Job mit KI-Fokus anstreben, vor allem auch anpassungsfähig sein – und bereit zu lernen.  “Tools und Paradigmen ändern sich monatlich”, konstatiert Sonatype-Entscheider Johnson. Er fügt hinzu: “Die heutige Wachstumsmentalität erfordert nicht mehr nur Lernbereitschaft. Es gilt vielmehr, KI als neuen Startpunkt zu betrachten. Gute Entwickler überdenken ihren Ansatz von Grund auf und entwickeln Prozesse, Tools und Funktionen, bei denen KI im Mittelpunkt steht – und nicht nur ein Add-on ist.” Davon abgesehen, müssen Developer, die im KI-Bereich arbeiten wollen, sich auch auf Unklarheiten und schnelle Iterationen einstellen, weiß EnFi-CTO Weller: “KI-Entwicklung ist von Natur aus probabilistisch. Developer sollten deshalb in der Lage sein, nicht nur fehlerhaften Code, sondern auch falsche Annahmen zu debuggen. Wirklich gute Entwickler nehmen diese Unklarheiten an und bauen Systeme, die robust und testbar sind und sich im Zeitverlauf weiterentwickeln lassen.” (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

KI-Jobs – diese Skills brauchen Entwickler​ Developer mit KI-Ambitionen sind bei Unternehmen gefragt – wenn Sie das richtige Skillset vorweisen können.Gorodenkoff | shutterstock.com

Künstliche Intelligenz (KI) gewinnt überall an Bedeutung – auch in der Softwareentwicklung. Angesichts dieser Entwicklung fragen sich nicht wenige Developer, welche Kompetenzen Sie vorweisen sollten, um bei einem Unternehmen mit KI-Fokus ihren nächsten Traumjob zu landen. Deshalb haben wir mit diversen IT- und Technologieentscheidern gesprochen, die wissen, welche Skills Developer im KI-Zeitalter brauchen.

1. Business Impact erkennen

KI-agnostische Unternehmen suchen Entwickler, die nicht nur die konzeptionellen Aspekte von KI, Machine Learning (ML) und Deep Learning verstehen. Potenzielle Job-Kandidaten müssen auch wissen, wie man diese gewinnbringend einsetzt.

Scott Weller, CTO beim Finanzdienstleister EnFi (der ebenfalls stark auf KI setzt), bringt die Anforderungen für potenzielle Job-Kandidaten auf den Punkt: “Es reicht nicht aus, zu wissen, wie ein Transformer-Modell funktioniert. Entscheidend ist, beurteilen zu können, wann KI eingesetzt werden sollte, um Geschäftsziele zu unterstützen. Entwickler müssen die Kompromisse zwischen Heuristik, traditioneller Software und maschinellem Lernen verstehen und wissen, wie sich KI auf praktische, messbare und verantwortungsvolle Weise in Workflows integrieren lässt.”

Das kann Lei Gao, Technologieentscheider bei SleekFlow, nur unterstreichen. Auch sein Unternehmen (Anbieter einer Omnichannel-Plattform für Kundenbindungszwecke) setzt stark auf KI – und Developer, die den Business Impact der Technologie verstehen: “Zum Beispiel müssen unsere Entwickler wissen, wie KI-gestützte Software dazu beitragen kann, die Conversion-Raten zu steigern oder den Kunden-Support zu automatisieren.” 

Mitchell Johnson, Chef-Produktentwickler beim Softwareanbieter Sonatype, schreibt diese Anforderung für Entwicklerjobs im KI-Zeitalter auch dem zunehmenden Einsatz von KI-basierten Dev-Tools zu: “Weil die KI zunehmend die Low-Level-Codierungsarbeit übernimmt, müssen sich Entwickler stärker darauf fokussieren, warum sie etwas entwickeln – und nicht nur darauf, wie.”

KI-native Unternehmen schätzten Entwickler, die näher am Produktmanagement sind, so Johnson – und in der Lage, die Probleme der User zu erkennen, Kompromisse zu finden und den Entwicklungsprozess zu gestalten.

2. Daten beherrschen

Ohne Daten keine KI. Entsprechend wichtig ist es für Entwickler, Knowhow mitzubringen, wenn es um Dateninfrastruktur, -management und -analysen geht. “In AI-First-Systemen sind Daten das Produkt”, unterstreicht CTO Weller. Er ergänzt: “Developer sollten entsprechend versiert im Umgang mit Daten sein, ansonsten leider die Performance der KI-Modelle. Das schließt auch ein, mit modernen Daten-Stacks, SQL und Cloud-nativen Tools umgehen zu können.”

Auch Gao gibt an dieser Stelle zu bedenken, dass KI-Modelle nur so gut sind wie die Daten-Pipelines, die sie versorgen. Entsprechend ist die Suche nach fähigen Entwicklern bei SleeFlow ausgestaltet: “Wir suchen Engineers, die mit verteilten Datenplattformen arbeiten und alles von der Datenerfassung bis hin zur Echtzeitanalyse koordinieren können.” Laut dem Manager sind dabei auch zunehmend Kenntnisse rund um neue Konzepte gefragt. Etwa:

Stream Processing,

Event-getriebene Architekturen oder

Data Meshes.

Vaibhav Tupe, Technologiechef beim IT-Dienstleister Equinix, hält die traditionellen Data-Engineering-Ansätze für KI-Workloads nicht mehr für ausreichend: “Entwickler sollten spezielle Skills vorweisen können, wenn es darum geht, für KI-Systeme Daten-Pipelines aufzubauen, spezielle ML-Funktionen zu erstellen und die Datenqualität zu managen.”

Laut dem Entscheider zählt dazu auch:

Echtzeit-Feature-Stores zu erstellen,

die Datenvalidierung zu automatisieren, sowie

Trainings- und Inferenzdaten zu managen.

3. KI integrieren

Wenn KI-Tools nicht wirklich gut mit bestehenden Systemen zusammenwirken, dürften sich die Vorteile in Grenzen halten – auch für die Kunden. Deshalb legt Kevin Miller, CTO beim Industriesoftwareanbieter IFS, großen Wert darauf, dass potenzielle Kandidaten für einen Entwickler-Job in seinem Unternehmen die entsprechenden Basics mitbringen: “Wir suchen Entwickler, die KI- und ML-Systeme auf der Grundlage von fundierten Kenntnissen integrieren und implementieren können. Da KI-gestützte Predictive Maintenance für unsere Kunden entscheidend ist, wollen wir das auch in einem möglichst funktionalen Produkt umsetzen.”

Deshalb sucht der Entscheider in erster Linie nach Softwareentwicklern, die dazu in der Lage sind,

Predictive-Algorithmen zu implementieren, die mit industriellen Systemen wie SCADA funktionieren, sowie dazu  

Robuste Daten-Pipelines zu erstellen, die Echtzeit-Sensordaten an ML-Modelle liefern.

4. KI sicher umsetzen

Manufacturing ist außerdem ein gutes Beispiel für eine Branche, in der KI-Systeme vor allem sicher und zuverlässig funktionieren müssen. Entsprechend gefragt sind Softwareentwickler, die das auch gewährleisten können. IFS-CTO Miller erklärt: “Developer müssen AI Safety und Reliability Engineering beherrschen. Nur so sind sie in der Lage, Fabrikumgebungen nachhaltig abzusichern. Schließlich können KI-Ausfälle hier zu Unfällen führen – und unter Umständen auch die gesamte Produktion lahmlegen.”

Entwickler, die einen Job bei IFS (oder anderen Industrieunternehmen mit KI-Fokus) landen wollen, sollten deshalb laut Miller in der Lage sein,

umfassende Monitoring-Systeme auzufbauen, um erkennen zu können, wann KI-Vorhersagen nicht zutreffen, und

bei Bedarf automatisierte Rollback-Mechanismen für herkömmliche Kontrollmethoden zu implementieren.

“Dazu gehört auch, Redundanzsysteme und umfangreiche Testing-Frameworks zu entwickeln, die das Verhalten der KI in Randfällen und unter widrigen Bedingungen validieren”, ergänzt Miller.

5. Cloud Deployments bewältigen

Angesichts der prominenten Rolle, die Cloud Services in modernen IT-Infrastrukturen einnehmen, erwarten Arbeitgeber mit KI-Fokus von ihren Entwicklern auch Erfahrungen, wenn es um Cloud-(KI-)Deployments und API-Integration geht. Konkret heißt das laut Naga Santhosh Reddy Vootukuri, Principal Software Engineering Manager bei Microsoft, dass Devs vor allem mit den KI-Tools umgehen können sollten, die die Hyperscaler zur Verfügung stellen: “Mit den Tools von AWS, Google Cloud Platform und Azure vertraut zu sein, hilft Softwareentwicklern in Sachen Hosting und dabei, KI-Lösungen mit Model Context Protocol in bestehende Legacy-Systeme zu integrieren.”

6. Prompts bauen

Prompt Engineering findet in einer ganzen Reihe von Branchen Anwendung. Die Technik wird dazu eingesetzt, um Inhalte zu generieren und Probleme zu lösen. Sie unterstützt GenAI-Modelle ganz generell dabei, auf diverse Arten von Anfragen zu reagieren. Skills in diesem Bereich sind für Devs, die bei KI-Unternehmen arbeiten wollen, ebenfalls Pflicht, wie Equinix-Manager Tupe nahelegt: “Angesichts des rasanten Wachstums großer Sprachmodelle benötigen Entwickler heute ein tiefgreifendes Verständnis für Prompt Design, Kontextfenster und LLM-API-Integration.”

Laut dem Manager sollten Devs wissen,

wie man komplexe Prompt-Ketten aufbaut,

großangelegte Deployments stemmt,

Rate Limits managt,

Kosten optimiert und

mehrere LLMs nahtlos integriert.

“Es gibt einen grundlegenden Unterschied zwischen Entwicklern, die einfach nur grundlegende Prompts schreiben, und denjenigen, die robuste Enterprise-LLM-Systeme entwerfen können, die durch gründliches Testing, Evaluierungen und Monitoring-Funktionen abgesichert sind”, hält Tupe fest.

7. Strategisch denken

Developer, die sich in ihrem (künftigen) Job in erster Linie KI-Projekten widmen wollen, sollten außerdem in der Lage sein, auch über die strategischen Aspekte ihrer Arbeit zu reflektieren. Auch das hängt wiederum mit dem zunehmenden Einsatz von KI in der Softwareentwicklung zusammen, wie David Radin, CEO beim KI-Plattformanbieter Confirmed, erklärt: “Weil KI immer öfter für Grundlegendes eingesetzt wird, ist es für Developer wichtiger denn je, strategisch denken zu können – also ein Problem zu betrachten, es zu analysieren und eine Lösung dafür zu erarbeiten.”

KI-Inputs strategisch auszurichten, unterstütze Devs dabei, die KI in die Richtung der gewünschten Lösung zu führen, so Radin: “Liefert das System eine unzureichende Antwort, hilft strategisches Denken dabei, die Antwort zu analysieren und dann entweder die KI dazu anzuregen, sich näher an die gewünschte Richtung zu bewegen – oder ihr selbst auf die Sprünge zu helfen.”

8. Zeit managen

Zeitmanagement ist ein Skill, der heutzutage in nahezu jedem Berufsfeld gefragt ist. Softwareentwickler in KI-orientierten Unternehmen bilden hierbei keine Ausnahme.

Das kann Confirmed-CEO Radi nur unterstreichen: “In KI-gesteuerten Unternehmen stehen hervorragende Zeitmanagementfähigkeiten nach wie vor mit ganz oben auf der Anforderungsliste. Das hilft nicht nur dabei, Ziele zu erreichen, sondern verdeutlicht auch, wie wichtig der Faktor Mensch für eine Development-Abteilung ist.”

9. Mit Veränderung klarkommen

Weil sich insbesondere der KI-Bereich im immerwährenden Umbruch befindet, sollten Developer, die einen Job mit KI-Fokus anstreben, vor allem auch anpassungsfähig sein – und bereit zu lernen. 

“Tools und Paradigmen ändern sich monatlich”, konstatiert Sonatype-Entscheider Johnson. Er fügt hinzu: “Die heutige Wachstumsmentalität erfordert nicht mehr nur Lernbereitschaft. Es gilt vielmehr, KI als neuen Startpunkt zu betrachten. Gute Entwickler überdenken ihren Ansatz von Grund auf und entwickeln Prozesse, Tools und Funktionen, bei denen KI im Mittelpunkt steht – und nicht nur ein Add-on ist.”

Davon abgesehen, müssen Developer, die im KI-Bereich arbeiten wollen, sich auch auf Unklarheiten und schnelle Iterationen einstellen, weiß EnFi-CTO Weller: “KI-Entwicklung ist von Natur aus probabilistisch. Developer sollten deshalb in der Lage sein, nicht nur fehlerhaften Code, sondern auch falsche Annahmen zu debuggen. Wirklich gute Entwickler nehmen diese Unklarheiten an und bauen Systeme, die robust und testbar sind und sich im Zeitverlauf weiterentwickeln lassen.” (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

KI-Jobs – diese Skills brauchen Entwickler​ Weiterlesen »

Reflexionsmethoden: Denken für Fortgeschrittene​

Allgemein

Was charakterisiert Reflexion? Reflexionsmethoden Ziele der Reflexion Eine Frau blickt aus dem Fenster in den Himmel. Diese Situation kann der Start sein, eine Situation zu reflektieren. Foto: GaudiLab – shutterstock.comWer verlässt schon gerne frustriert und ratlos eine eskalierte Besprechung. Nach einem so erlebten Arbeitsalltag erlaubt die Reflexion Abstand zu gewinnen. Stellen Sie sich vor, Sie klettern auf einen Turm. Oben auf der Aussichtsplattform ist ein Fernglas aufgebaut. Logisch verleitet dieses zum In-die-Ferne-Schauen. Mit dieser Vorstellung können Sie den Tag oder Situationen nachbetrachten sowie Gründe für gescheiterte Gespräche hinterfragen.Es lohnt sich deshalb das Können der Reflexion einmal genauer aus verschiedenen Perspektiven zu betrachten. Stellen Sie sich vor, Sie sitzen in einem Projekt-Meeting das plötzlich eskaliert – schlimmer noch, die Besprechung crasht sogar. Schnell sind erste Schuldige ausgemacht: Komplexität und Termindichte waren verantwortlich! Sicher trivial, aber auch zu leicht den Zeigefinger immer auf andere Gründe zu richten. Hätten wir selbst den Crash abwenden können? Ja!Reflexion – DefinitionReflektion – eine Falschschreibweise, meint der Duden. Richtig ist aus dem Französischen: Reflexion. Die Dudenredaktion stuft Reflexion sogar als recht­schreib­lich schwieri­ges Wort ein. Was aber ist Reflexion und was unterscheidet Denken von Reflektieren? Unsere Gedanken sollten organisiert sein, um zu einem sinnvollen Ganzen zusammengesetzt zu werden. Damit wird unser Handeln unterstützt. Die Ursachen und Wirkungen unseres Tuns werden entdeckt.Grundsätzlich ist die Fähigkeit zu reflektieren ein Teil unserer Willenskraft. Noch etwas konkreter bedeutet Reflektieren, dass wir uns gedanklich auf eine Metaebene begeben. Praktisch können Sie sich vorstellen, Sie betrachten eine Situation mit Ihrem Verhalten, den Emotionen und Motive aus einer Tribünenperspektive. Das eigene Handeln wird besser wahrgenommen, um in Situationen wünschenswerter zu reagieren oder ein Ziel im Fokus zu halten. Jet-Piloten nutzen dafür beispielsweise den Begriff Situational Awareness und bezeichnen damit den Zustand, sich seiner Umgebung zutreffend bewusst zu sein, manchmal auch den Prozess, einen solchen Zustand zu erreichen. Die Philosophen sagten, Reflektieren helfe systematisches Wissen zu erwerben. Eine erste Konzeptualisierung erfuhr der Begriff 1997 im Spannungsfeld der Reformpädagogik und traditionellen Pädagogik für den sinnvollen Umgang mit den Erfahrungen.Dagegen ist das Denken ein stiller, mentaler Prozess zur reinen Informationswahrnehmung und -verarbeitung. Dies dürfte vor allem daran liegen, dass das Denken lediglich mental stattfindet und somit nicht wirklich fassbar ist. Grundsätzlich lassen sich alle Vorgänge hierunter zusammenfassen, die eine geistige und innere Beschäftigung umfassen. Die Bewertung unserer Gedanken wiederum gewichten Beobachtungen sofort und immer. Dies führt dazu, dass die freie Betrachtung der Fakten keine Chance hat. Also ist diese Art der gedanklichen Bewertung auch keine klassische Reflexion.Bleiben wir beim obigen Beispiel der eskalierten Projektbesprechung. Für das erlebte Meeting ist demnach die Auseinandersetzung mit der Frage: “Was war der Auslöser für die Eskalation im Projekt-Meeting?” gewinnbringend. Mit dem Erkennen dieser “Bruchstelle”, entstehen Lösungsansätze. Die Aufmerksamkeit wird wie eine Lupe auf den eigenen Rückblick gelenkt. Im wahrsten Sinne des Wortes ein Hineinschauen, ohne zu bewerten. Deshalb der synonym verwendete Begriff der Selbstreflexion.Reflektieren kann uns beruflich wie privat für Zusammenhänge und Lösungen sensibilisieren. In agilen Organisationsstrukturen helfen gute Reflexionsgespräche beispielsweise Prozess- oder Produktentwicklungen zu beschleunigen. Psychologisch markiert das Reflektieren Methoden und Prozesse im Zusammenhang mit Denken, dem Lernen unserer Wahrnehmung, der Problemlösung sowie eine Analyse aus unterschiedlichen Blickwinkeln. Reflexionsfragen erlauben ein besseres Verstehen unserer Bewusstseinsebenen und Reflexionsgespräche machen Emotionen, Motive und auch Hindernisse sichtbar. Die Digitalisierung beschleunigt allerorts die Informationsflut und sorgt für unsere gestresste Gedankenwelt. Hier können wir mit Abstand und Ruhe wieder mehr Souveränität erlangen. In diesem Wunsch nach Ruhe stehen Achtsamkeit und Grundsätze des Buddhismus hoch im Kurs. Der Buddhismus rückt Reflexion als zentrale Fähigkeit der Gedankenkontrolle in den Mittelpunkt.Mit etwas Ruhe nach dem eskalierten Meeting kann demnach auch die Frage: “Was wäre einem wünschenswerten Verhalten durch mich oder die Alternative gewesen?” hilfreich sein. Jedes Verhalten, auch unser eigenes, beeinflusst eine Situation. Die Aufmerksamkeit liegt auf dem Erkennen der sachlichen Fakten und der Geschehnisse. Genaues Verstehen erlaubt weniger Stressempfinden als Nicht-Verstehen.Lesetipp: Zielerreichung – Werden Sie zum Shaolin!Reflexion – Ziele und VoraussetzungDer Lohn der Reflexion: Sie gewinnen Lösungsorientierung für Verbesserungen und vermeiden Sackgassen. In unserem Beispiel bleibt die Projektbesprechung lösungsorientiert, erhält eine erweitere Perspektive und bleibt nicht als spürbare Niederlagen haften. Denn die wertfreie Betrachtung ist Lernpotenzial und keine Summe aus Fehlern, da ihr Denken stets umsetzungsstark und veränderungsbereit bleibt. Selbstregulierung entlastet aber auch, da Reflektieren aus Eile Weile macht und Stress und Belastung dadurch steuerbar werden.Folgendes Zitat ist ein guter Gradmesser für den Start zum prüfenden Denken, dem Reflektieren: “Was Dich hierhergebracht hat, bringt Dich nicht weiter” (M. Goldsmith). Dieses Zitat ist mir vor Jahren in Form eines Buches begegnet. Fühle ich mich in einer Sackgasse oder stehe ich an einem schwierigen Punkt, gibt mir diese Aussage das Startsignal zur Reflexion.Oft kündigen sich schwierige Situation, wie in der anfangs erwähnten Projektbesprechung mit Warnsignalen oder Vorboten an. Sie sind eine wichtige Voraussetzung im Reflexionstraining. Vorboten helfen ein wünschenswertes Nachjustieren zu erkennen und warnen vor heiklen Verhaltensmustern. Allerdings werden Vorboten oft schlichtweg übersehen, weil wir uns nie selbst in diesem Sinne beobachten. Aufkommender Ärger, bestimmte Situationen oder Gedanken wie: “Schaffe ich das …” können Vorzeichen sein. Dann gilt es auf die Bremse zu treten und in den Rückspiegel zu schauen. Bleiben Sie wachsam für solche Vorboten! Hat sich die Eskalation der Projektbesprechung etwa angekündigt? Haben bestimmte Vorboten und Warnsignale den Crash vorausgesagt?Unabdingbar für das Reflexionstraining ist aber auch die Offenheit für die eigene Verbesserung, um aus Erfahrungen konkret zu lernen. Diese Bereitschafft macht die Reflexionsfähigkeit, prüfendes, beobachtendes Denken erst möglich. Geduld mit sich selbst stellt für mich einen weiteren Erfolgsfaktor für das effektive Üben der Reflexion dar. Vergleichbar den Sprints in der Agilität. Zu gerne rettet uns der alte Trott in stressigen, komplexen oder unsichereren Situationen mit Automatismen und mit nicht bewusstem Handeln. Reflektieren Sie also in kleinen Schritten.Reflexionsmethoden – Training und UmsetzungshilfenReflexion können Sie trainieren und sofort umsetzen. Folgende Reflexionsmethoden unterstützen diese wichtige Fähigkeit:Das Perspektivenrad: Notieren Sie den Reflexionspunkt mit einer Ich-Formulierung in die Mitte eines Zettels, zum Beispiel: Ich ärgere mich über den Stillstand der Produktentwicklung! In die vier Ecken rund um die Aussage, werden nun die unterschiedlichen Perspektiven geschrieben: Fakten: neutrale Informationen, Zahlen, Daten, Hintergründe. Ohne emotionale Äußerungen. Emotionen: Zweifel, Unsicherheiten, Begeisterung, Freude. Optimismus: Vorteile oder Möglichkeiten. Kreativität: Hier wird quergedacht und assoziiert, etwa Phantasie und Chancen.Blickrichtung ändern: Haben Sie in der Familie am Esstisch oder im Meeting am Besprechungstisch schon einmal regelmäßig die Sitzordnung verändert? Ihre Kommunikation und die Eindrücke verändern sich unwillkürlich. Neue Blickwinkel tun sich auf und beeinflussen das Geschehen sofort.Erzählerperspektive einnehmen: Gönnen Sie sich fünf Minuten an einem bequemen Ort. Zoomen Sie sich in die Sichtweise des Gesprächspartners, des Familienangehörigen oder des Meeting-Teilnehmers. Was berichtet er über sein Erleben in Ihrer Situation. Schreiben Sie seine Reflexion, die Geschehnisse auf einen Zettel. Wie wirkten Sie auf Ihn? Was dachte er? Warum war diesem ein Punkt besonders wichtig?Der Drachenflug: Knien Sie sich bequem auf den Boden. Richten Sie den Oberkörper auf und beugen diesen leicht nach vorne. Halten Sie die Spannung 30 bis 60 Sekunden und breiten die Arme rechts und links wie Flügel aus. Nach kurzer Zeit werden Sie erleben, dass sich der Abstand zu Ihrem Fixpunkt auf dem Boden vergrößert. Sie gewinnen buchstäblich Abstand zu einer Situation oder dem Tag. Mit Ihrem Drachenflug gewinnen Sie die Retroperspektive und einen guten Überblick. Übrigens kann der Drachenflug, eine überraschende Einlage in einer Mini-Pause oder in einem hitzigen Meeting, wie zu Beginn der eskalierten Projektbesprechung sein.Für mich ist Reflexion Denken für Fortgeschrittene und steigert die Lebensqualität.Mehr Handlungsfähigkeit und Performance ist das Plus. Sie sind der Fluglotse in Ihrem Flug. Geben Sie Ihren Gedanken einen konkreten Plan. Minimieren Sie Stress-Momente und steigern Sie Ihre Gelassenheit. (bw) 

Reflexionsmethoden: Denken für Fortgeschrittene​ Was charakterisiert Reflexion?

Reflexionsmethoden

Ziele der Reflexion

Eine Frau blickt aus dem Fenster in den Himmel. Diese Situation kann der Start sein, eine Situation zu reflektieren.
Foto: GaudiLab – shutterstock.comWer verlässt schon gerne frustriert und ratlos eine eskalierte Besprechung. Nach einem so erlebten Arbeitsalltag erlaubt die Reflexion Abstand zu gewinnen. Stellen Sie sich vor, Sie klettern auf einen Turm. Oben auf der Aussichtsplattform ist ein Fernglas aufgebaut. Logisch verleitet dieses zum In-die-Ferne-Schauen. Mit dieser Vorstellung können Sie den Tag oder Situationen nachbetrachten sowie Gründe für gescheiterte Gespräche hinterfragen.Es lohnt sich deshalb das Können der Reflexion einmal genauer aus verschiedenen Perspektiven zu betrachten. Stellen Sie sich vor, Sie sitzen in einem Projekt-Meeting das plötzlich eskaliert – schlimmer noch, die Besprechung crasht sogar. Schnell sind erste Schuldige ausgemacht: Komplexität und Termindichte waren verantwortlich! Sicher trivial, aber auch zu leicht den Zeigefinger immer auf andere Gründe zu richten. Hätten wir selbst den Crash abwenden können? Ja!Reflexion – DefinitionReflektion – eine Falschschreibweise, meint der Duden. Richtig ist aus dem Französischen: Reflexion. Die Dudenredaktion stuft Reflexion sogar als recht­schreib­lich schwieri­ges Wort ein. Was aber ist Reflexion und was unterscheidet Denken von Reflektieren? Unsere Gedanken sollten organisiert sein, um zu einem sinnvollen Ganzen zusammengesetzt zu werden. Damit wird unser Handeln unterstützt. Die Ursachen und Wirkungen unseres Tuns werden entdeckt.Grundsätzlich ist die Fähigkeit zu reflektieren ein Teil unserer Willenskraft. Noch etwas konkreter bedeutet Reflektieren, dass wir uns gedanklich auf eine Metaebene begeben. Praktisch können Sie sich vorstellen, Sie betrachten eine Situation mit Ihrem Verhalten, den Emotionen und Motive aus einer Tribünenperspektive. Das eigene Handeln wird besser wahrgenommen, um in Situationen wünschenswerter zu reagieren oder ein Ziel im Fokus zu halten. Jet-Piloten nutzen dafür beispielsweise den Begriff Situational Awareness und bezeichnen damit den Zustand, sich seiner Umgebung zutreffend bewusst zu sein, manchmal auch den Prozess, einen solchen Zustand zu erreichen. Die Philosophen sagten, Reflektieren helfe systematisches Wissen zu erwerben. Eine erste Konzeptualisierung erfuhr der Begriff 1997 im Spannungsfeld der Reformpädagogik und traditionellen Pädagogik für den sinnvollen Umgang mit den Erfahrungen.Dagegen ist das Denken ein stiller, mentaler Prozess zur reinen Informationswahrnehmung und -verarbeitung. Dies dürfte vor allem daran liegen, dass das Denken lediglich mental stattfindet und somit nicht wirklich fassbar ist. Grundsätzlich lassen sich alle Vorgänge hierunter zusammenfassen, die eine geistige und innere Beschäftigung umfassen. Die Bewertung unserer Gedanken wiederum gewichten Beobachtungen sofort und immer. Dies führt dazu, dass die freie Betrachtung der Fakten keine Chance hat. Also ist diese Art der gedanklichen Bewertung auch keine klassische Reflexion.Bleiben wir beim obigen Beispiel der eskalierten Projektbesprechung. Für das erlebte Meeting ist demnach die Auseinandersetzung mit der Frage: “Was war der Auslöser für die Eskalation im Projekt-Meeting?” gewinnbringend. Mit dem Erkennen dieser “Bruchstelle”, entstehen Lösungsansätze. Die Aufmerksamkeit wird wie eine Lupe auf den eigenen Rückblick gelenkt. Im wahrsten Sinne des Wortes ein Hineinschauen, ohne zu bewerten. Deshalb der synonym verwendete Begriff der Selbstreflexion.Reflektieren kann uns beruflich wie privat für Zusammenhänge und Lösungen sensibilisieren. In agilen Organisationsstrukturen helfen gute Reflexionsgespräche beispielsweise Prozess- oder Produktentwicklungen zu beschleunigen. Psychologisch markiert das Reflektieren Methoden und Prozesse im Zusammenhang mit Denken, dem Lernen unserer Wahrnehmung, der Problemlösung sowie eine Analyse aus unterschiedlichen Blickwinkeln. Reflexionsfragen erlauben ein besseres Verstehen unserer Bewusstseinsebenen und Reflexionsgespräche machen Emotionen, Motive und auch Hindernisse sichtbar. Die Digitalisierung beschleunigt allerorts die Informationsflut und sorgt für unsere gestresste Gedankenwelt. Hier können wir mit Abstand und Ruhe wieder mehr Souveränität erlangen. In diesem Wunsch nach Ruhe stehen Achtsamkeit und Grundsätze des Buddhismus hoch im Kurs. Der Buddhismus rückt Reflexion als zentrale Fähigkeit der Gedankenkontrolle in den Mittelpunkt.Mit etwas Ruhe nach dem eskalierten Meeting kann demnach auch die Frage: “Was wäre einem wünschenswerten Verhalten durch mich oder die Alternative gewesen?” hilfreich sein. Jedes Verhalten, auch unser eigenes, beeinflusst eine Situation. Die Aufmerksamkeit liegt auf dem Erkennen der sachlichen Fakten und der Geschehnisse. Genaues Verstehen erlaubt weniger Stressempfinden als Nicht-Verstehen.Lesetipp: Zielerreichung – Werden Sie zum Shaolin!Reflexion – Ziele und VoraussetzungDer Lohn der Reflexion: Sie gewinnen Lösungsorientierung für Verbesserungen und vermeiden Sackgassen. In unserem Beispiel bleibt die Projektbesprechung lösungsorientiert, erhält eine erweitere Perspektive und bleibt nicht als spürbare Niederlagen haften. Denn die wertfreie Betrachtung ist Lernpotenzial und keine Summe aus Fehlern, da ihr Denken stets umsetzungsstark und veränderungsbereit bleibt. Selbstregulierung entlastet aber auch, da Reflektieren aus Eile Weile macht und Stress und Belastung dadurch steuerbar werden.Folgendes Zitat ist ein guter Gradmesser für den Start zum prüfenden Denken, dem Reflektieren: “Was Dich hierhergebracht hat, bringt Dich nicht weiter” (M. Goldsmith). Dieses Zitat ist mir vor Jahren in Form eines Buches begegnet. Fühle ich mich in einer Sackgasse oder stehe ich an einem schwierigen Punkt, gibt mir diese Aussage das Startsignal zur Reflexion.Oft kündigen sich schwierige Situation, wie in der anfangs erwähnten Projektbesprechung mit Warnsignalen oder Vorboten an. Sie sind eine wichtige Voraussetzung im Reflexionstraining. Vorboten helfen ein wünschenswertes Nachjustieren zu erkennen und warnen vor heiklen Verhaltensmustern. Allerdings werden Vorboten oft schlichtweg übersehen, weil wir uns nie selbst in diesem Sinne beobachten. Aufkommender Ärger, bestimmte Situationen oder Gedanken wie: “Schaffe ich das …” können Vorzeichen sein. Dann gilt es auf die Bremse zu treten und in den Rückspiegel zu schauen. Bleiben Sie wachsam für solche Vorboten! Hat sich die Eskalation der Projektbesprechung etwa angekündigt? Haben bestimmte Vorboten und Warnsignale den Crash vorausgesagt?Unabdingbar für das Reflexionstraining ist aber auch die Offenheit für die eigene Verbesserung, um aus Erfahrungen konkret zu lernen. Diese Bereitschafft macht die Reflexionsfähigkeit, prüfendes, beobachtendes Denken erst möglich. Geduld mit sich selbst stellt für mich einen weiteren Erfolgsfaktor für das effektive Üben der Reflexion dar. Vergleichbar den Sprints in der Agilität. Zu gerne rettet uns der alte Trott in stressigen, komplexen oder unsichereren Situationen mit Automatismen und mit nicht bewusstem Handeln. Reflektieren Sie also in kleinen Schritten.Reflexionsmethoden – Training und UmsetzungshilfenReflexion können Sie trainieren und sofort umsetzen. Folgende Reflexionsmethoden unterstützen diese wichtige Fähigkeit:Das Perspektivenrad: Notieren Sie den Reflexionspunkt mit einer Ich-Formulierung in die Mitte eines Zettels, zum Beispiel: Ich ärgere mich über den Stillstand der Produktentwicklung! In die vier Ecken rund um die Aussage, werden nun die unterschiedlichen Perspektiven geschrieben: Fakten: neutrale Informationen, Zahlen, Daten, Hintergründe. Ohne emotionale Äußerungen. Emotionen: Zweifel, Unsicherheiten, Begeisterung, Freude. Optimismus: Vorteile oder Möglichkeiten. Kreativität: Hier wird quergedacht und assoziiert, etwa Phantasie und Chancen.Blickrichtung ändern: Haben Sie in der Familie am Esstisch oder im Meeting am Besprechungstisch schon einmal regelmäßig die Sitzordnung verändert? Ihre Kommunikation und die Eindrücke verändern sich unwillkürlich. Neue Blickwinkel tun sich auf und beeinflussen das Geschehen sofort.Erzählerperspektive einnehmen: Gönnen Sie sich fünf Minuten an einem bequemen Ort. Zoomen Sie sich in die Sichtweise des Gesprächspartners, des Familienangehörigen oder des Meeting-Teilnehmers. Was berichtet er über sein Erleben in Ihrer Situation. Schreiben Sie seine Reflexion, die Geschehnisse auf einen Zettel. Wie wirkten Sie auf Ihn? Was dachte er? Warum war diesem ein Punkt besonders wichtig?Der Drachenflug: Knien Sie sich bequem auf den Boden. Richten Sie den Oberkörper auf und beugen diesen leicht nach vorne. Halten Sie die Spannung 30 bis 60 Sekunden und breiten die Arme rechts und links wie Flügel aus. Nach kurzer Zeit werden Sie erleben, dass sich der Abstand zu Ihrem Fixpunkt auf dem Boden vergrößert. Sie gewinnen buchstäblich Abstand zu einer Situation oder dem Tag. Mit Ihrem Drachenflug gewinnen Sie die Retroperspektive und einen guten Überblick. Übrigens kann der Drachenflug, eine überraschende Einlage in einer Mini-Pause oder in einem hitzigen Meeting, wie zu Beginn der eskalierten Projektbesprechung sein.Für mich ist Reflexion Denken für Fortgeschrittene und steigert die Lebensqualität.Mehr Handlungsfähigkeit und Performance ist das Plus. Sie sind der Fluglotse in Ihrem Flug. Geben Sie Ihren Gedanken einen konkreten Plan. Minimieren Sie Stress-Momente und steigern Sie Ihre Gelassenheit. (bw)

Reflexionsmethoden: Denken für Fortgeschrittene​ Weiterlesen »

Was ist Kanban?​

Allgemein

Kanban hilft beim Management vom Arbeitsabläufen. Das müssen Sie über die Methode zur Steuerung von Produktionsprozessen wissen. Foto: Flamingo Images – shutterstock.com Kanban hilft Unternehmen dabei, den Fokus auf spezifische Tasks zu richten, bis diese abgeschlossen sind. Die Methode zur Produktionsprozesssteuerung kann Zusammenarbeit und Produktivität effektiv fördern. Kanban – Definition Kanban ist eine einfache Methode für das Workflow-Management, die helfen soll Produktions- und Entwicklungsprozesse agiler zu gestalten, indem Verschwendung minimiert, Redundanzen beseitigt und Kosten reduziert werden. Obwohl Kanban heute häufig in der Softwareentwicklung eingesetzt wird, kann sie auch andere Unternehmensbereiche und -prozesse schrittweise optimieren. Entwickelt wurde die Methode zur Produktionsprozess-Steuerung in den frühen 1940er Jahren vom japanischen Konzern Toyota. Dabei war Kanban nicht dafür vorgesehen, Projektmanagement-Methoden zu ersetzen oder als Entwicklungsmethode zu fungieren. Stattdessen konzentriert sich der Ansatz auf die Verbesserung bereits bestehender Prozesse, indem er eine optimierte Workflow-Struktur bereitstellt. Darüber hinaus kann Kanban Organisation auch dabei helfen, die Anzahl der “Work- in-Progress”-Tasks im Backlog zu begrenzen und ist darauf ausgerichtet, starke Führung, organisatorische Transparenz, Teamarbeit, offene Kommunikation und Kollaboration zu unterstützen. Mit Hilfe von Kanban lassen sich auch Aufgaben visualisieren, die schwer greifbar sind. Das verhindert, dass Dinge unter den Tisch fallen und hilft, den Stand des Entwicklungsprozesses im Blick zu behalten. Kanban – Board und Karten Das wichtigste Werkzeug für eine Kanban-Strategie ist das Board. Dabei kann es sich um eine physische Tafel (Whiteboard) oder auch ein virtuelles Board handeln – maßgeblich ist, dass es dem Team dabei hilft, Tasks zu verfolgen und Fortschritte zu visualisieren. Letzteres erfolgt über Kanban-Karten, bei denen es sich um einfache Haftnotizen oder entsprechende virtuelle Pendants handeln kann, die auf den verschiedenen Spalten des Kanban-Boards abgelegt werden. Die auf Kanban-Karten festgehaltenen Aufgaben sollten so klein sein, dass es nicht Wochen in Anspruch nimmt, sie zu erledigen. Allerdings sollte das Board auch nicht mit Aufgaben überladen werden. Zu den üblichen Kategorien für Kanban-Karten gehören Abschnitte für Ideen, die dann in eine Spalte für ausgewählte Ideen oder eine Spalte für verworfene Ideen verschoben werden können. Von dort aus können Aufgaben als “in Arbeit” kategorisiert oder in die Kategorie “fertig” verschoben werden, sobald sie weit genug fortgeschritten sind, um zum nächsten Schritt überzugehen. Kanban – Methode Im Mittelpunkt der Kanban-Methode stehen ihre Phasen. Diese sollten bei der Erstellung eines Kanban-Boards so gewählt werden, dass die für die Erledigung der einzelnen Aufgaben erforderlichen Schritte nicht zu kompliziert werden. Zwar steht es jeder Organisation frei, ihre eigenen Kategorien zu wählen, die meisten Kanban-Boards enthalten jedoch folgende Stufen: Wartend: Diese Spalte enthält in der Regel den Task-Backlog, also die Aufgaben, die darauf warten, dass freie Zeit zur Verfügung steht – sobald dies der Fall ist, kann die Aufgabe in eine Spalte für spezifische Aufgaben des heutigen Tages oder in die Spalte “In Bearbeitung” verschoben werden. In Arbeit: Diese Spalte enthält alle Aufgaben, an denen gerade gearbeitet wird. Sobald ein neuer Task bearbeitet wird, wird er in diese Spalte verschoben, bis er erledigt ist. Erledigt: Sobald eine Aufgabe erledigt ist, wird sie in eine abschließende Spalte verschoben. Gesperrt: Wenn eine Aufgabe nicht abgeschlossen werden kann oder die Arbeit daran aus irgendeinem Grund pausieren muss, wird sie in diese Kategorie verschoben, bis sie wieder aufgenommen werden kann. Jede Kategorie oder Spalte des Kanban-Boards sollte ihre eigenen Richtlinien oder “Erledigungsregeln” aufweisen: Anforderungen, die erfüllt sein müssen, bevor ein Element in eine andere Spalte verschoben wird. Diese Regeln sorgen dafür, dass das Board strukturiert bleibt und alle Beteiligten wissen, was wann zu tun ist. Kanban – Prinzipien Toyota hat sechs wesentliche Prinzipien beziehungsweise Regeln für Kanban aufgestellt, die das Unternehmen auch heute noch befolgt. Sie sollen dazu beitragen, das richtige Mindset für erfolgreiches Produktmanagement zu erzeugen: Niemals fehlerhafte Produkte weitergeben: Mängel oder Defekte so früh wie möglich zu erkennen, ist essenziell für das Waste Management. Indem Sie ein Produkt zurückziehen, bevor es den Entwicklungsprozess weiter durchläuft, stellen Sie sicher, dass alle gefundenen Mängel schnell und unter minimalen Kosten behoben werden können. Nur was gebraucht wird: Um Verschwendung zu vermeiden, ist es wichtig, nur die benötigte Menge zu produzieren. Das erfordert ein umfassendes Verständnis der Anforderungen, bevor die Entwicklung anläuft. Bedarfsgerechte Produktion: Um Verschwendung zu vermeiden, sollten Sie nur die Produkte, Dienstleistungen oder Ressourcen bereitstellen, die für den nächsten Schritt erforderlich sind. Produzieren Sie mehr, verringert das unnötig Ihren Bestand – produzieren Sie zu wenig, kann es zu kostenintensiven Prozessverzögerungen kommen. Balance halten: Ein Hauptziel von Kanban besteht darin, die der Kundennachfrage entsprechende Warenmenge in einem konstanten und vorhersehbaren Rhythmus zu produzieren. Durch eine gleichmäßige Produktion kann die Kundennachfrage konstant befriedigt werden, ohne dass es dabei zu Überproduktion oder Verschwendung kommt. Feinabstimmung der Produktion: Eine Prozessverbesserung ist nie abgeschlossen – Sie sollten daher ständig prüfen, wie die Prozesse granularer abgestimmt werden können, um Verschwendung zu vermeiden, die Produktionsgeschwindigkeit zu erhöhen und Konsistenz zu gewährleisten. Sie sollten stets nach Möglichkeiten Ausschau halten, Prozesse zu verschlanken. Stabilisieren und rationalisieren: Sobald Sie einen möglichst effizienten Prozess festgelegt haben, ist es essenziell, die Standards zu dokumentieren und sicherzustellen, dass der Prozess in der Praxis stabil und vorhersehbar bleibt. Kanban vs. Scrum Als Strategien zur Verbesserung von Arbeitsabläufen haben Kanban und Scrum Gemeinsamkeiten – beide basieren auf “Pull”-Systemen, die sich darauf konzentrieren, Aufgaben aus dem Backlog so schnell wie möglich abzuschließen. Sobald die Aufgaben jedoch aus dem Backlog “gezogen” wurden, unterscheiden sich Kanban und Scrum erheblich. Scrum konzentriert sich auf “Sprints”. Diese beginnen mit einer Planungssitzung, in der entschieden wird, welche Aufgaben für die kommenden zwei Wochen Priorität genießen. Die Entwicklungs- und Produktteams dürfen sich nur auf die Aufgaben konzentrieren, die in der Planungsbesprechung für diesen zweiwöchigen Sprint festgelegt wurden. Am Ende wird der Sprint überprüft, um festzustellen, was funktioniert hat und was geändert werden muss. Dann beginnt der Prozess von Neuem – mit Anforderungen oder Aufgaben, die in der letzten Planungssitzung festgelegt wurden. Kanban verwendet eine Pull-Methode und beinhaltet ebenfalls regelmäßige Bewertungen und Retrospektiven – folgt jedoch nicht den zweiwöchigen Sprint-Phasen von Scrum. Stattdessen versteht sich Kanban als fortlaufender Prozess, bei dem Aufgaben immer dann aus dem Backlog gezogen werden, wenn das Team die Ressourcen hat, eine weitere Aufgabe zu übernehmen. Dabei gibt es auch festgelegte Grenzen für die Anzahl der “Work-in-Progress”-Tasks, die ein Team haben kann. Diese basiert in der Regel auf der Anzahl der verfügbaren Mitarbeiter und Ressourcen. Kanban – Tools und Software Für Unternehmen, die ihren Kanban-Workflow virtuell verwalten wollen, stehen zahlreiche Kanban-Tools und -Softwarelösungen zur Verfügung. Zu den beliebtesten Tools am Markt gehören unter anderem: Asana Businessmap (ehemals Kanbanize) GitScrum KanbanFlow Monday.com nTask Odoo Trello Workzone Workfront Wrike ZenHub Kanban – Jobs und Gehalt Im Folgenden finden Sie einige relevante Jobs und die jeweiligen deutschen Gehaltsspannen laut dem Karriereportal Stepstone. Scrum Master: 48.600 bis 64.000 Euro Product Manager Software: 55.000 bis 74.900 Euro Softwareentwickler: 44.100 bis 62.000 Euro Projektmanager IT: 49.000 bis 67.800 Euro Agile Coach: 54.200 bis 74.000 Euro Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Was ist Kanban?​ Kanban hilft beim Management vom Arbeitsabläufen. Das müssen Sie über die Methode zur Steuerung von Produktionsprozessen wissen.
Foto: Flamingo Images – shutterstock.com

Kanban hilft Unternehmen dabei, den Fokus auf spezifische Tasks zu richten, bis diese abgeschlossen sind. Die Methode zur Produktionsprozesssteuerung kann Zusammenarbeit und Produktivität effektiv fördern.

Kanban – Definition

Kanban ist eine einfache Methode für das Workflow-Management, die helfen soll Produktions- und Entwicklungsprozesse agiler zu gestalten, indem Verschwendung minimiert, Redundanzen beseitigt und Kosten reduziert werden. Obwohl Kanban heute häufig in der Softwareentwicklung eingesetzt wird, kann sie auch andere Unternehmensbereiche und -prozesse schrittweise optimieren.

Entwickelt wurde die Methode zur Produktionsprozess-Steuerung in den frühen 1940er Jahren vom japanischen Konzern Toyota. Dabei war Kanban nicht dafür vorgesehen, Projektmanagement-Methoden zu ersetzen oder als Entwicklungsmethode zu fungieren. Stattdessen konzentriert sich der Ansatz auf die Verbesserung bereits bestehender Prozesse, indem er eine optimierte Workflow-Struktur bereitstellt.

Darüber hinaus kann Kanban Organisation auch dabei helfen, die Anzahl der “Work- in-Progress”-Tasks im Backlog zu begrenzen und ist darauf ausgerichtet,

starke Führung,

organisatorische Transparenz,

Teamarbeit,

offene Kommunikation und

Kollaboration zu unterstützen.

Mit Hilfe von Kanban lassen sich auch Aufgaben visualisieren, die schwer greifbar sind. Das verhindert, dass Dinge unter den Tisch fallen und hilft, den Stand des Entwicklungsprozesses im Blick zu behalten.

Kanban – Board und Karten

Das wichtigste Werkzeug für eine Kanban-Strategie ist das Board. Dabei kann es sich um eine physische Tafel (Whiteboard) oder auch ein virtuelles Board handeln – maßgeblich ist, dass es dem Team dabei hilft, Tasks zu verfolgen und Fortschritte zu visualisieren. Letzteres erfolgt über Kanban-Karten, bei denen es sich um einfache Haftnotizen oder entsprechende virtuelle Pendants handeln kann, die auf den verschiedenen Spalten des Kanban-Boards abgelegt werden.

Die auf Kanban-Karten festgehaltenen Aufgaben sollten so klein sein, dass es nicht Wochen in Anspruch nimmt, sie zu erledigen. Allerdings sollte das Board auch nicht mit Aufgaben überladen werden. Zu den üblichen Kategorien für Kanban-Karten gehören Abschnitte für Ideen, die dann in eine Spalte für ausgewählte Ideen oder eine Spalte für verworfene Ideen verschoben werden können. Von dort aus können Aufgaben als “in Arbeit” kategorisiert oder in die Kategorie “fertig” verschoben werden, sobald sie weit genug fortgeschritten sind, um zum nächsten Schritt überzugehen.

Kanban – Methode

Im Mittelpunkt der Kanban-Methode stehen ihre Phasen. Diese sollten bei der Erstellung eines Kanban-Boards so gewählt werden, dass die für die Erledigung der einzelnen Aufgaben erforderlichen Schritte nicht zu kompliziert werden. Zwar steht es jeder Organisation frei, ihre eigenen Kategorien zu wählen, die meisten Kanban-Boards enthalten jedoch folgende Stufen:

Wartend: Diese Spalte enthält in der Regel den Task-Backlog, also die Aufgaben, die darauf warten, dass freie Zeit zur Verfügung steht – sobald dies der Fall ist, kann die Aufgabe in eine Spalte für spezifische Aufgaben des heutigen Tages oder in die Spalte “In Bearbeitung” verschoben werden.

In Arbeit: Diese Spalte enthält alle Aufgaben, an denen gerade gearbeitet wird. Sobald ein neuer Task bearbeitet wird, wird er in diese Spalte verschoben, bis er erledigt ist.

Erledigt: Sobald eine Aufgabe erledigt ist, wird sie in eine abschließende Spalte verschoben.

Gesperrt: Wenn eine Aufgabe nicht abgeschlossen werden kann oder die Arbeit daran aus irgendeinem Grund pausieren muss, wird sie in diese Kategorie verschoben, bis sie wieder aufgenommen werden kann.

Jede Kategorie oder Spalte des Kanban-Boards sollte ihre eigenen Richtlinien oder “Erledigungsregeln” aufweisen: Anforderungen, die erfüllt sein müssen, bevor ein Element in eine andere Spalte verschoben wird. Diese Regeln sorgen dafür, dass das Board strukturiert bleibt und alle Beteiligten wissen, was wann zu tun ist.

Kanban – Prinzipien

Toyota hat sechs wesentliche Prinzipien beziehungsweise Regeln für Kanban aufgestellt, die das Unternehmen auch heute noch befolgt. Sie sollen dazu beitragen, das richtige Mindset für erfolgreiches Produktmanagement zu erzeugen:

Niemals fehlerhafte Produkte weitergeben: Mängel oder Defekte so früh wie möglich zu erkennen, ist essenziell für das Waste Management. Indem Sie ein Produkt zurückziehen, bevor es den Entwicklungsprozess weiter durchläuft, stellen Sie sicher, dass alle gefundenen Mängel schnell und unter minimalen Kosten behoben werden können.

Nur was gebraucht wird: Um Verschwendung zu vermeiden, ist es wichtig, nur die benötigte Menge zu produzieren. Das erfordert ein umfassendes Verständnis der Anforderungen, bevor die Entwicklung anläuft.

Bedarfsgerechte Produktion: Um Verschwendung zu vermeiden, sollten Sie nur die Produkte, Dienstleistungen oder Ressourcen bereitstellen, die für den nächsten Schritt erforderlich sind. Produzieren Sie mehr, verringert das unnötig Ihren Bestand – produzieren Sie zu wenig, kann es zu kostenintensiven Prozessverzögerungen kommen.

Balance halten: Ein Hauptziel von Kanban besteht darin, die der Kundennachfrage entsprechende Warenmenge in einem konstanten und vorhersehbaren Rhythmus zu produzieren. Durch eine gleichmäßige Produktion kann die Kundennachfrage konstant befriedigt werden, ohne dass es dabei zu Überproduktion oder Verschwendung kommt.

Feinabstimmung der Produktion: Eine Prozessverbesserung ist nie abgeschlossen – Sie sollten daher ständig prüfen, wie die Prozesse granularer abgestimmt werden können, um Verschwendung zu vermeiden, die Produktionsgeschwindigkeit zu erhöhen und Konsistenz zu gewährleisten. Sie sollten stets nach Möglichkeiten Ausschau halten, Prozesse zu verschlanken.

Stabilisieren und rationalisieren: Sobald Sie einen möglichst effizienten Prozess festgelegt haben, ist es essenziell, die Standards zu dokumentieren und sicherzustellen, dass der Prozess in der Praxis stabil und vorhersehbar bleibt.

Kanban vs. Scrum

Als Strategien zur Verbesserung von Arbeitsabläufen haben Kanban und Scrum Gemeinsamkeiten – beide basieren auf “Pull”-Systemen, die sich darauf konzentrieren, Aufgaben aus dem Backlog so schnell wie möglich abzuschließen. Sobald die Aufgaben jedoch aus dem Backlog “gezogen” wurden, unterscheiden sich Kanban und Scrum erheblich.

Scrum konzentriert sich auf “Sprints”. Diese beginnen mit einer Planungssitzung, in der entschieden wird, welche Aufgaben für die kommenden zwei Wochen Priorität genießen. Die Entwicklungs- und Produktteams dürfen sich nur auf die Aufgaben konzentrieren, die in der Planungsbesprechung für diesen zweiwöchigen Sprint festgelegt wurden. Am Ende wird der Sprint überprüft, um festzustellen, was funktioniert hat und was geändert werden muss. Dann beginnt der Prozess von Neuem – mit Anforderungen oder Aufgaben, die in der letzten Planungssitzung festgelegt wurden.

Kanban verwendet eine Pull-Methode und beinhaltet ebenfalls regelmäßige Bewertungen und Retrospektiven – folgt jedoch nicht den zweiwöchigen Sprint-Phasen von Scrum. Stattdessen versteht sich Kanban als fortlaufender Prozess, bei dem Aufgaben immer dann aus dem Backlog gezogen werden, wenn das Team die Ressourcen hat, eine weitere Aufgabe zu übernehmen. Dabei gibt es auch festgelegte Grenzen für die Anzahl der “Work-in-Progress”-Tasks, die ein Team haben kann. Diese basiert in der Regel auf der Anzahl der verfügbaren Mitarbeiter und Ressourcen.

Kanban – Tools und Software

Für Unternehmen, die ihren Kanban-Workflow virtuell verwalten wollen, stehen zahlreiche Kanban-Tools und -Softwarelösungen zur Verfügung. Zu den beliebtesten Tools am Markt gehören unter anderem:

Asana

Businessmap (ehemals Kanbanize)

GitScrum

KanbanFlow

Monday.com

nTask

Odoo

Trello

Workzone

Workfront

Wrike

ZenHub

Kanban – Jobs und Gehalt

Im Folgenden finden Sie einige relevante Jobs und die jeweiligen deutschen Gehaltsspannen laut dem Karriereportal Stepstone.

Scrum Master: 48.600 bis 64.000 Euro

Product Manager Software: 55.000 bis 74.900 Euro

Softwareentwickler: 44.100 bis 62.000 Euro

Projektmanager IT: 49.000 bis 67.800 Euro

Agile Coach: 54.200 bis 74.000 Euro

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Was ist Kanban?​ Weiterlesen »

Notebook defekt?: So reparieren Sie Ihren Laptop selbst​

Allgemein

Laptop kaputt? Wir zeigen Ihnen sechs smarte DIY-Lösungen für die gängigsten Probleme bei mobilen PCs. Foto: Golubovy – shutterstock.comEgal wie sehr Sie sich auch bemühen, früher oder später wird auch Ihr mobiler PC “Erfahrungen” mit Stürzen, liquiden Unglücksbringern und Schlimmerem machen. Allerdings empfiehlt es sich nicht, mit jedem Laptop-Wehwehchen sofort zum PC-Reparaturdienst oder dem Hersteller zu sprinten. Denn viele Notebook-Probleme lassen sich deutlich kostengünstiger und zeitsparender beheben. Und zwar selbst. Alles was Sie dazu brauchen: ein paar alltägliche Werkzeuge, Ersatzteile und ein bisschen Fleiß. Einige dieser Reparaturen sind nicht viel schwerer zu bewältigen als ein Kunstprojekt für die 7. Klasse. Allerdings gibt es inzwischen auch diverse moderne Laptops und Notebooks, die sich nicht nur schwer selbst reparieren, sondern gar nicht erst selbst öffnen lassen. Wenn Sie keine Schrauben sehen, könnte das ein Hinweis darauf sein, dass Sie an diesem Projekt scheitern werden.Am Beispiel einiger betagter mobiler PCs zeigen wir Ihnen sechs populäre Laptop-Probleme, die Sie mit einfachen Mitteln selbst beheben können – von gebrochenen Gehäusen über ramponierte Netzadapter, bis hin zu verkratzten Displays. Natürlich sagen wir Ihnen auch, welche Materialien Sie dazu benötigen und welches Budget Sie einplanen sollten. Seien Sie jedoch gewarnt: Ihr System wird sich mit ziemlicher Sicherheit von den Gezeigten unterscheiden, könnte spezielle Ersatzteile benötigen oder gar einen gänzlich anderen Reparatur-Ansatz verlangen. Deshalb gilt: YouTube ist Ihr Freund. Recherche sollten Sie auch betreiben, wenn es um die richtigen Ersatzteile geht: insbesondere bei Netzadaptern oder Lüftern. Diese mögen zwar relativ ähnlich aussehen – im Betrieb können sie aber maßgebliche Unterschiede aufweisen. Nutzen Sie deshalb eBay, Amazon und andere Onlineshops, um die richtigen Ersatzteile zu finden. Verschlissene Kabel am Laptop-NetzadapterKosten: circa 5 bis 15 EuroZeitaufwand: 1 bis 2 StundenMaterial: Silikon-Dichtmasse, Krepp-Klebeband, Schutzhandschuhe (optional)Weil ein Laptop oder Notebook, das auf viele Dienstreisen geht, auch regelmäßig ein- und ausgestöpselt werden muss, ist es nur natürlich, dass Netzadapter und Kabel mit der Zeit leiden. Wenn Sie Schäden am Netzteil oder den Kabeln Ihres Notebooks feststellen, empfiehlt es sich, diese schnell zu beheben. Schließlich kann das nicht nur den Akku des mobilen Computers schädigen, sondern auch gleich dafür sorgen, dass das Gerät in Flammen aufgeht.Glücklicherweise besitzen inzwischen viele Netzteile abnehmbare, beziehungsweise austauschbare Kabel, die Sie entweder online oder in jedem Elektronik-Fachgeschäft für mehr oder weniger kleines Geld bekommen. Wenn das Netzteil selbst die Ursache für die Notebook-Probleme ist, kann es allerdings auch schnell teuer werden: je nach Netzteil und Hersteller kann neuwertiger Ersatz zwischen 20 und 75 Euro kosten.Oder Sie reparieren einfach selbst. Dazu stehen Ihnen mehrere Möglichkeiten offen. Wenn es besonders schnell gehen muss, verarzten Sie das defekte Kabel mit ein bisschen Isolierband oder Panzertape. Das verhindert erst einmal weitere Schäden. Allerdings ist diese Methode keine Dauerlösung: das Klebeband wird sich mit der Zeit lösen und das Kabel zu einer durchweg “klebrigen Angelegenheit” werden lassen. Beschädigte Kabel können gefährlich werden. Mit Hilfe von Silikonmasse versiegeln Sie brüchige Stellen und erhalten die Flexibilität. Foto: Brian Nadel / IDGDer bessere Weg, beschädigte Kabel wieder einsatzfähig zu machen, führt über den Einsatz von Silikon-Dichtmittel. Das bekommen Sie in jedem Baumarkt und inzwischen auch in einigen Supermärkten. Die Silikonmasse versiegelt die beschädigte Stelle zuverlässig und schützt diese so dauerhaft. Wer Wert auf Optik legt, nutzt schwarzes Silikon. Jetzt zur Vorgehensweise: Zunächst sollten Sie Ihren Arbeitsbereich mit etwas Malerband – beziehungsweise Krepp-Klebeband – abkleben. Das Krepp-Tape lässt sich leicht und rückstandsfrei von jeder Oberfläche entfernen, während die Silikonmasse nicht mit der Oberseite aus Krepp verklebt. Jetzt geben Sie einen Tropfen Silikon auf die beschädigte Stelle am Kabel und verteilen ihn dort. Wenn Sie empfindliche Haut haben, sollten Sie dazu Schutzhandschuhe benutzen. Lassen Sie das Silikon für etwa ein bis zwei Stunden aushärten. Das Ergebnis sollte ein Kabel sein, das dank Reparatur wieder für Jahre einsatzfähig ist – und dabei so flexibel, als wäre es neu. Risse im Notebook-GehäuseKosten: circa10 bis 25 EuroZeitaufwand: 2 bis 3 StundenMaterial: Epoxid-Kitt/Reparaturmasse, Schleifpapier, Rasierklingen, Filz- oder Lackstift, Schutzhandschuhe (optional)Fällt ein Marmeladen-Brot, dann meist auf die Belag-Seite. Fällt ein Laptop, dann trifft es meistens die schwächsten Stellen des Gehäuses: die Kanten. Wenn Sie kein speziell verstärktes Ruggedized-Notebook besitzen, stehen die Chancen nicht schlecht, dass Ihr mobiler Rechner nach einer Begegnung mit der Schwerkraft beschädigte oder gleich ganz weggebrochene Gehäuseecken aufweist. Das Geheimnis dieser Reparatur: Epoxid. Die Reparaturmasse bekommen Sie online oder in jedem Baumarkt – Sie können eine solche Laptop-Reparatur also auch jederzeit unterwegs durchführen. Für welche Marke Sie sich dabei entscheiden ist einerlei – nur von allzu schnell aushärtendem Material sollten Sie lieber die Finger lassen. Es könnte zu unflexiblen Momenten kommen, wenn der Härtungs-Prozess zu schnell abläuft.So gehen Sie vor: Zunächst sollte die beschädigte Stelle sauber und fettfrei sein. Jetzt ist es Zeit, die Reparaturmasse vorzubereiten. Diese besteht aus zwei Komponenten, die chemisch miteinander reagieren, was zur Aushärtung des Materials führt. Deswegen ist es wichtig, dass die Komponenten so gut wie möglich vermischt werden. An dieser Stelle empfiehlt sich ebenfalls die Benutzung von Schutzhandschuhen, wenn Ihre Haut nicht gut auf Chemikalien zu sprechen ist. Sobald die Masse eine einheitliche Farbe aufweist und sich in etwa wie Knetmasse anfühlt, ist sie bereit für den Einsatz. Drücken Sie die Masse nun auf die entsprechende Stelle und stellen Sie die ursprüngliche Gehäuseform mit Hilfe der Rasierklingen (oder einem Messer) wieder her. Achten Sie dabei darauf, dass die Masse richtig angedrückt wird und keine Löcher oder undichte Stellen zurückbleiben. Überschüssiges Material entfernen Sie ganz einfach mit einem Stück Stoff, solange es noch nicht gehärtet ist. Nun warten Sie circa ein bis zwei Stunden, bis die Aushärtung abgeschlossen ist. Das Flickwerk sollte sich nun mindestens so stabil wie das Original-Gehäuse aus Plastik anfühlen. Wenn das Gehäuse Ihres Notebooks lückenbehaftet ist, können Sie das mit ein wenig Epoxid, Schleifpapier und Lack vergessen machen. Foto: Brian Nadel / IDGWenn Sie kein Freund von sichtbarem Flickwerk sind, folgt nun der Feinschliff – im wahrsten Sinn des Wortes. Mit Schleifpapier der Körnung 150 bis 220 sorgen Sie zunächst dafür, dass die behandelte Stelle glatt wird. Für das kratzerfreie Finish empfiehlt sich Nassschleifpapier (2000er Körnung). Nun müssen Sie sich nur noch um den Farbunterschied kümmern. Hierfür empfiehlt sich – je nach Gehäusefarbe und Größe der reparierten Stelle – ein Filz- oder Lackstift. Auch Lacke aus dem Modellbau eignen sich gut, um Gehäusereparaturen an Laptop und Notebook äußerlich vergessen zu machen. Wenn der Laptop-Lüfter streiktKosten: circa 15 bis 35 EuroZeitaufwand: 1 StundeMaterial: Schraubenzieher, Druckluftspray oder Staubsauger, ErsatzlüfterEin lauter oder nicht funktionierender Lüfter ist nicht nur nervig, sondern kann möglicherweise den “Hitzetod” Ihres Laptops, beziehungsweise seiner Komponenten, verursachen. Dabei ist dieses Problem alles andere als schwer zu beheben – wenn Sie Glück haben, brauchen Sie dazu nicht mal einen Ersatzlüfter.Ältere Notebooks verfügen in der Regel über einen einzelnen Lüfter – neuere und leistungsfähigere Systeme können auch zwei oder mehr Ventilatoren an Bord haben, um genügend “frischen Wind” zwischen Prozessor, Grafik-Hardware und Festplatte(n) zu erzeugen. Das Problem: Alle Lüfter sind irgendwann verstopft und verdreckt, werden laut und arbeiten mit geringerer Effizienz. Wenn Ihr mobiler PC also komische Geräusche macht oder regelmäßig eine Betriebstemperatur jenseits von Gut und Böse aufweist, sind Sie hier genau richtig.Bevor Sie irgendetwas tun, suchen Sie Ihr Gehäuse erst einmal auf Stellen ab, an denen Frischluft reinkommt und Hitze entweicht. Haben Sie alle Lüftungsgitter gefunden, benutzen Sie Druckluftspray oder einen Staubsauger, um sämtlichen Staub und Dreck zu entfernen. Wenn das die Probleme behebt, ist Ihre Arbeit bereits erledigt. Anderenfalls kommen Sie nicht umhin, das Gehäuse Ihres Laptops zu öffnen. Dazu müssen normalerweise gut ein Dutzend Schrauben gelöst werden, in einigen Fällen muss dazu auch erst die Tastatur demontiert werden. Wenn der Weg ins Innere des Notebooks nicht offensichtlich ist, werfen Sie einen Blick in die Bedienungsanleitung. Oder YouTube. Ist das Gehäuse offen, säubern Sie zunächst den Lüfter. Untersuchen Sie bei dieser Gelegenheit auch, ob irgendwelche Fremdkörper die Bewegungsfreiheit des Lüfterrads einschränken. Wenn sich das Rad nicht frei drehen lässt, muss der Lüfter ausgetauscht werden. Um auf dem schnellsten Weg an das richtige Ersatzteil zu kommen, notieren Sie sich die Seriennummer und bemühen Sie Ihre Lieblings-Suchmaschine. Auch für in die Jahre gekommene Laptop- und Notebook-Modelle finden Sie in der Regel die nötigen Teile – entweder direkt beim Hersteller oder bei eBay und auf sonstigen Plattformen.Wenn Ihr Laptop komische Geräusche macht, kann es sein, dass der Lüfter unter der Last von Staub und Dreck ächzt. Befreien Sie ihn. Foto: Brian Nadel / IDGWenn Sie den neuen Lüfter in Ihren Händen halten (und sich sicher sind, dass es der richtige ist), entfernen Sie sein gebrauchtes Pendant. Dazu müssen Sie zunächst die Stromversorgung des Lüfters trennen – je nach System ist dazu eventuell zunächst eine Halterung zu entfernen. Auch an dieser Stelle empfiehlt sich im Zweifel die Anleitung oder eine kurze YouTube-Recherche. Entfernen Sie nun den alten Lüfter vorsichtig und stellen Sie sich dabei auf Gefrickel ein – die Platzverhältnisse im Inneren eines mobilen PCs sind eben begrenzt. Vorsicht ist auch hinsichtlich der Verbindung mit der Heatpipe angesagt: Diese ist oft mit dem Lüfter verbunden – entweder über Schrauben oder eine Steckverbindung. Sie sollten dabei unbedingt darauf achten, die Heatpipe nicht zu beschädigen oder zu verbiegen, da sonst die Effizienz des gesamten Kühlsystems leiden kann.Wenn Sie aus irgendeinem Grund zu weit gehen und auf einmal die blanke CPU vor Augen haben: Stellen Sie sicher, dass genug Wärmeleitpaste vorhanden ist. Diese ist nötig, um Wärme vom Prozessor abzuführen. Ist zu wenig davon vorhanden, kann das ebenfalls zu Überhitzung führen. Sitzt der Lüfter richtig, können Sie alle Teile wieder verschrauben. Bevor Sie jedoch auch das Laptop-Gehäuse wieder schließen, sollten Sie einen Funktionstest durchführen, um nicht die doppelte Schraubarbeit zu haben. Verklemmte Notebook-Tastaturen Kosten: 20 bis 120 EuroZeitaufwand: zwischen 10 Minuten und 1 StundeMaterial: Schraubenzieher, Ersatz-KeyboardEines der gängigsten und frustrierendsten Notebook-Probleme sind verklemmte oder gebrochene Tasten. In einigen Fällen (zum Beispiel, wenn Sie ein Macbook besitzen), sind auch Einzeltasten als Ersatzteile erhältlich. Diese sind aber im Regelfall nicht gerade günstig. Deshalb ist in vielen Fällen die Anschaffung eines Ersatz-Keyboards nicht nur kostengünstiger, sondern auch effizienter, wenn Sie gleich auf mehrere Tasten verzichten müssen oder andere Tastatur-Probleme haben.Zuerst sollten Sie sich also auf die Online-Suche nach dem richtigen Ersatzteil machen. Auch hier sind die üblichen Plattformen zu empfehlen. Halten Sie dabei im Fall von älteren Geräten auch Ausschau nach gebrauchten oder instandgesetzten Ersatztastaturen, die im Regelfall erheblich günstiger kommen als Neuteile.Laptop Reparatur Keyboard 16zu9 Foto: Brian Nadel / IDGAn einigen Laptops ist oberhalb des Keyboards eine Leiste zu finden, die die Verschraubung der Tastatur beherbergt. Bei anderen Geräten muss erst das Gehäuse geöffnet werden. Haben Sie Schwierigkeiten, herauszubekommen, wie Sie Ihr Keyboard entfernen? Auch hier hilft die Betriebsanleitung oder YouTube. Ist das Keyboard freigelegt, sollten Sie vor der Entnahme aus dem Gehäuse unbedingt darauf achten, dass die Kabelverbindung zum Motherboard nicht beschädigt wird. Lassen Sie an dieser Stelle besondere Vorsicht walten und vermeiden Sie die Anwendung von Gewalt. Ist die Tastatur sicher “entkabelt”, heben Sie sie heraus und setzen den Ersatz ein. Schließen Sie nun das Gehäuse und erfreuen sich an Ihren neuen Tasten. Testen Sie vorher aber noch alle Tasten auf einwandfreie Funktion.Kratzer im Laptop-DisplayKosten: circa 5 EuroZeitaufwand: 5 MinutenMaterial: Zahnpasta, weiches Tuch, Display-ReinigungsmittelEin Display an einem Laptop oder Notebook auszutauschen ist wegen der elektronischen Verbindungen ein eher kompliziertes Unterfangen und kann schnell mehrere hundert Euros und etliche Stunden wertvoller Zeit verschlingen. Insbesondere für betagtere mobile PCs lohnt sich ein solches Ersatz-Display in den seltensten Fällen. Wenn Ihr Display aber ohnehin nur (leicht) verkratzt ist, brauchen Sie das alles ohnehin nicht. Denn kleinere bis mittelschwere Kratzer im Notebook-Screen lassen sich nur mit Hilfe von Zahnpasta und ein wenig Muskelschmalz vergessen machen. Eine geflissentliche Zahnpasta-Politur lässt kleinere Kratzer im Display verschwinden. Foto: Brian Nadel / IDGSo gehen Sie dabei vor: Verreiben Sie die Zahnpasta zwischen Zeigefinger und Daumen – das sollte sich leicht sandig anfühlen. Die hier enthaltenen Scheuermittel werden dafür sorgen, dass Ihr Laptop-Bildschirm so gut wie neu aussieht. Dazu verreiben Sie die Zahnpasta nun mit kreisförmigen Bewegungen auf der betreffenden Stelle. Dabei sollten Sie aber keinesfalls zu fest aufdrücken, ansonsten könnte die empfindliche Beschichtung des Bildschirms Schaden nehmen. Hiernach säubern Sie den Bildschirm mit einem weichen Tuch und geeignetem Reinigungsmittel. Wenn die Kratzer noch zu sehen sind: Wiederholen Sie den Vorgang.Zugegeben: Diese Vorgehensweise liefert recht selten wirklich perfekte Ergebnisse – insbesondere bei tieferen Kratzern im Bildschirm. Aber die Zahnpasta-Taktik hilft zuverlässig gegen leichte Scratches und verleiht Ihrem Notebook nebenbei auch noch ein erfrischendes, minziges Flair. Flüssigkeit trifft NotebookKosten: circa 5 EuroZeitaufwand: 2 StundenMaterial: Handtuch, Schraubenzieher, Druckluftspray oder Fön, HoffnungKennen Sie das auch? Egal wo das Glas Cola, die Flasche Bier oder die Schüssel Suppe umfällt – immer ist ein Laptop oder Notebook in der Nähe. Vielleicht handelt es sich hierbei auch um Murphys Gesetz des mobilen Computings. Jedenfalls sterben auf diese Weise täglich tausende mobile PCs. Wenn Sie – beziehungsweise Ihren Laptop – das liquide Unglück ereilt, sollten Sie zuallererst die Stromverbindung kappen. Dazu reicht es nicht, das Netzteil auszustöpseln – auch der Akku muss raus. Wenn Sie das schaffen, bevor der Rechner von selbst “herunterfährt”, können Sie Ihr Gerät unter Umständen noch retten. Flüssigkeit und elektronische Komponenten vertragen sich zwar ganz gut, Flüssigkeit und Elektrizität aber weniger. Wenn Ihr Notebook nach einem liquiden Desaster von selbst den Geist aufgibt, ist der Zug wahrscheinlich abgefahren. Aber: Sie haben nichts zu verlieren, also sollten Sie den folgenden Reparatur-Vorschlag dennoch ausprobieren.Sind Netzteil und Akku entfernt, kann die Rettungsaktion beginnen. Dazu ist zunächst wichtig zu wissen, was genau sich über das Gerät ergossen hat. Handelt es sich um zucker- oder säurehaltige Getränke (zum Beispiel Cola), sollten Sie das Gerät schnellstmöglich reinigen. Dazu nehmen Sie es am besten komplett auseinander und reinigen die einzelnen Komponenten mit Hilfe von Handtuch und Druckluftspray. Nachdem Sie das Gerät vom Netz getrennt haben, sollten Sie zuvor allerdings mindestens zehn Minuten verstreichen lassen, um sicherzugehen, dass sämtliche Elektrizität aus den Kondensatoren gewichen ist. Wenn Sie Ihr Notebook nicht auseinandernehmen wollen oder können und ohnehin nur Wasser verschüttet haben, können Sie sich das auch sparen. In diesem Fall müssen Sie Ihr Gerät einfach nur trocknen. Dazu können Sie – je nach Intensität – Druckluftspray, einen Haartrockner oder einen Ventilator nutzen. Achten Sie dabei unbedingt darauf, dass die Laptop-Komponenten dabei nicht zu heiß werden. Welche Methode Sie auch immer anwenden: Haben Sie Geduld! Denn sollte sich beim erneuten Hochfahren des Laptops noch Flüssigkeit im Gerät befinden, kann das zum sofortigen Garaus führen. Um sicherzugehen, dass die Komponenten trocken und funktionsfähig sind, sollten Sie mindestens 24 Stunden “Trocknungszeit” einplanen – besser noch 48 oder 72 Stunden. Nun ist es Zeit für einen Startversuch. Wenn alles wie gewohnt abläuft, ist es jetzt Zeit für einen Seufzer der Erleichterung. Wenn nicht, ist nur zu hoffen, dass es sich bei dem toten Laptop ohnehin um “altes Eisen” gehandelt hat. Selbst reparieren im SimulatorFalls Sie Ihr Know-How in Sachen DIY-Reparaturen weiter ausbauen wollen, sollten Sie einen Blick auf den Computer Repair Simulator werfen. Dabei handelt es sich um ein spielerisches Reparaturtraining für PCs und Laptops, das die Grundlagen für kleinere und größere Reparaturaktionen vermitteln soll. Der Computer Repair Simulator konfrontiert Sie mit einer Vielzahl von “Missionen”, bei denen etwa bestimmte Systemkomponenten ausgetauscht oder instandgesetzt werden müssen. Alle, die sich schon lange einmal genauer mit dem Innenleben ihres PCs oder Laptops befassen wollten, haben jetzt die Chance, das spielerisch zu tun.Der Computer Repair Simulator kostet in der Vollversion 15 Dollar (Single-Lizenz), die kostenlose Testversion ist nur zeitlich begrenzt spielbar, zudem fehlen einige Kernfunktionalitäten. Dieser Artikel basiert in Teilen auf einem Beitrag unserer US-Schwesterpublikation Computerworld. 

Notebook defekt?: So reparieren Sie Ihren Laptop selbst​ Laptop kaputt? Wir zeigen Ihnen sechs smarte DIY-Lösungen für die gängigsten Probleme bei mobilen PCs.
Foto: Golubovy – shutterstock.comEgal wie sehr Sie sich auch bemühen, früher oder später wird auch Ihr mobiler PC “Erfahrungen” mit Stürzen, liquiden Unglücksbringern und Schlimmerem machen. Allerdings empfiehlt es sich nicht, mit jedem Laptop-Wehwehchen sofort zum PC-Reparaturdienst oder dem Hersteller zu sprinten. Denn viele Notebook-Probleme lassen sich deutlich kostengünstiger und zeitsparender beheben. Und zwar selbst. Alles was Sie dazu brauchen: ein paar alltägliche Werkzeuge, Ersatzteile und ein bisschen Fleiß. Einige dieser Reparaturen sind nicht viel schwerer zu bewältigen als ein Kunstprojekt für die 7. Klasse. Allerdings gibt es inzwischen auch diverse moderne Laptops und Notebooks, die sich nicht nur schwer selbst reparieren, sondern gar nicht erst selbst öffnen lassen. Wenn Sie keine Schrauben sehen, könnte das ein Hinweis darauf sein, dass Sie an diesem Projekt scheitern werden.Am Beispiel einiger betagter mobiler PCs zeigen wir Ihnen sechs populäre Laptop-Probleme, die Sie mit einfachen Mitteln selbst beheben können – von gebrochenen Gehäusen über ramponierte Netzadapter, bis hin zu verkratzten Displays. Natürlich sagen wir Ihnen auch, welche Materialien Sie dazu benötigen und welches Budget Sie einplanen sollten. Seien Sie jedoch gewarnt: Ihr System wird sich mit ziemlicher Sicherheit von den Gezeigten unterscheiden, könnte spezielle Ersatzteile benötigen oder gar einen gänzlich anderen Reparatur-Ansatz verlangen. Deshalb gilt: YouTube ist Ihr Freund. Recherche sollten Sie auch betreiben, wenn es um die richtigen Ersatzteile geht: insbesondere bei Netzadaptern oder Lüftern. Diese mögen zwar relativ ähnlich aussehen – im Betrieb können sie aber maßgebliche Unterschiede aufweisen. Nutzen Sie deshalb eBay, Amazon und andere Onlineshops, um die richtigen Ersatzteile zu finden. Verschlissene Kabel am Laptop-NetzadapterKosten: circa 5 bis 15 EuroZeitaufwand: 1 bis 2 StundenMaterial: Silikon-Dichtmasse, Krepp-Klebeband, Schutzhandschuhe (optional)Weil ein Laptop oder Notebook, das auf viele Dienstreisen geht, auch regelmäßig ein- und ausgestöpselt werden muss, ist es nur natürlich, dass Netzadapter und Kabel mit der Zeit leiden. Wenn Sie Schäden am Netzteil oder den Kabeln Ihres Notebooks feststellen, empfiehlt es sich, diese schnell zu beheben. Schließlich kann das nicht nur den Akku des mobilen Computers schädigen, sondern auch gleich dafür sorgen, dass das Gerät in Flammen aufgeht.Glücklicherweise besitzen inzwischen viele Netzteile abnehmbare, beziehungsweise austauschbare Kabel, die Sie entweder online oder in jedem Elektronik-Fachgeschäft für mehr oder weniger kleines Geld bekommen. Wenn das Netzteil selbst die Ursache für die Notebook-Probleme ist, kann es allerdings auch schnell teuer werden: je nach Netzteil und Hersteller kann neuwertiger Ersatz zwischen 20 und 75 Euro kosten.Oder Sie reparieren einfach selbst. Dazu stehen Ihnen mehrere Möglichkeiten offen. Wenn es besonders schnell gehen muss, verarzten Sie das defekte Kabel mit ein bisschen Isolierband oder Panzertape. Das verhindert erst einmal weitere Schäden. Allerdings ist diese Methode keine Dauerlösung: das Klebeband wird sich mit der Zeit lösen und das Kabel zu einer durchweg “klebrigen Angelegenheit” werden lassen. Beschädigte Kabel können gefährlich werden. Mit Hilfe von Silikonmasse versiegeln Sie brüchige Stellen und erhalten die Flexibilität.
Foto: Brian Nadel / IDGDer bessere Weg, beschädigte Kabel wieder einsatzfähig zu machen, führt über den Einsatz von Silikon-Dichtmittel. Das bekommen Sie in jedem Baumarkt und inzwischen auch in einigen Supermärkten. Die Silikonmasse versiegelt die beschädigte Stelle zuverlässig und schützt diese so dauerhaft. Wer Wert auf Optik legt, nutzt schwarzes Silikon. Jetzt zur Vorgehensweise: Zunächst sollten Sie Ihren Arbeitsbereich mit etwas Malerband – beziehungsweise Krepp-Klebeband – abkleben. Das Krepp-Tape lässt sich leicht und rückstandsfrei von jeder Oberfläche entfernen, während die Silikonmasse nicht mit der Oberseite aus Krepp verklebt. Jetzt geben Sie einen Tropfen Silikon auf die beschädigte Stelle am Kabel und verteilen ihn dort. Wenn Sie empfindliche Haut haben, sollten Sie dazu Schutzhandschuhe benutzen. Lassen Sie das Silikon für etwa ein bis zwei Stunden aushärten. Das Ergebnis sollte ein Kabel sein, das dank Reparatur wieder für Jahre einsatzfähig ist – und dabei so flexibel, als wäre es neu.

Risse im Notebook-GehäuseKosten: circa10 bis 25 EuroZeitaufwand: 2 bis 3 StundenMaterial: Epoxid-Kitt/Reparaturmasse, Schleifpapier, Rasierklingen, Filz- oder Lackstift, Schutzhandschuhe (optional)Fällt ein Marmeladen-Brot, dann meist auf die Belag-Seite. Fällt ein Laptop, dann trifft es meistens die schwächsten Stellen des Gehäuses: die Kanten. Wenn Sie kein speziell verstärktes Ruggedized-Notebook besitzen, stehen die Chancen nicht schlecht, dass Ihr mobiler Rechner nach einer Begegnung mit der Schwerkraft beschädigte oder gleich ganz weggebrochene Gehäuseecken aufweist. Das Geheimnis dieser Reparatur: Epoxid. Die Reparaturmasse bekommen Sie online oder in jedem Baumarkt – Sie können eine solche Laptop-Reparatur also auch jederzeit unterwegs durchführen. Für welche Marke Sie sich dabei entscheiden ist einerlei – nur von allzu schnell aushärtendem Material sollten Sie lieber die Finger lassen. Es könnte zu unflexiblen Momenten kommen, wenn der Härtungs-Prozess zu schnell abläuft.So gehen Sie vor: Zunächst sollte die beschädigte Stelle sauber und fettfrei sein. Jetzt ist es Zeit, die Reparaturmasse vorzubereiten. Diese besteht aus zwei Komponenten, die chemisch miteinander reagieren, was zur Aushärtung des Materials führt. Deswegen ist es wichtig, dass die Komponenten so gut wie möglich vermischt werden. An dieser Stelle empfiehlt sich ebenfalls die Benutzung von Schutzhandschuhen, wenn Ihre Haut nicht gut auf Chemikalien zu sprechen ist. Sobald die Masse eine einheitliche Farbe aufweist und sich in etwa wie Knetmasse anfühlt, ist sie bereit für den Einsatz. Drücken Sie die Masse nun auf die entsprechende Stelle und stellen Sie die ursprüngliche Gehäuseform mit Hilfe der Rasierklingen (oder einem Messer) wieder her. Achten Sie dabei darauf, dass die Masse richtig angedrückt wird und keine Löcher oder undichte Stellen zurückbleiben. Überschüssiges Material entfernen Sie ganz einfach mit einem Stück Stoff, solange es noch nicht gehärtet ist. Nun warten Sie circa ein bis zwei Stunden, bis die Aushärtung abgeschlossen ist. Das Flickwerk sollte sich nun mindestens so stabil wie das Original-Gehäuse aus Plastik anfühlen. Wenn das Gehäuse Ihres Notebooks lückenbehaftet ist, können Sie das mit ein wenig Epoxid, Schleifpapier und Lack vergessen machen.
Foto: Brian Nadel / IDGWenn Sie kein Freund von sichtbarem Flickwerk sind, folgt nun der Feinschliff – im wahrsten Sinn des Wortes. Mit Schleifpapier der Körnung 150 bis 220 sorgen Sie zunächst dafür, dass die behandelte Stelle glatt wird. Für das kratzerfreie Finish empfiehlt sich Nassschleifpapier (2000er Körnung). Nun müssen Sie sich nur noch um den Farbunterschied kümmern. Hierfür empfiehlt sich – je nach Gehäusefarbe und Größe der reparierten Stelle – ein Filz- oder Lackstift. Auch Lacke aus dem Modellbau eignen sich gut, um Gehäusereparaturen an Laptop und Notebook äußerlich vergessen zu machen. Wenn der Laptop-Lüfter streiktKosten: circa 15 bis 35 EuroZeitaufwand: 1 StundeMaterial: Schraubenzieher, Druckluftspray oder Staubsauger, ErsatzlüfterEin lauter oder nicht funktionierender Lüfter ist nicht nur nervig, sondern kann möglicherweise den “Hitzetod” Ihres Laptops, beziehungsweise seiner Komponenten, verursachen. Dabei ist dieses Problem alles andere als schwer zu beheben – wenn Sie Glück haben, brauchen Sie dazu nicht mal einen Ersatzlüfter.Ältere Notebooks verfügen in der Regel über einen einzelnen Lüfter – neuere und leistungsfähigere Systeme können auch zwei oder mehr Ventilatoren an Bord haben, um genügend “frischen Wind” zwischen Prozessor, Grafik-Hardware und Festplatte(n) zu erzeugen. Das Problem: Alle Lüfter sind irgendwann verstopft und verdreckt, werden laut und arbeiten mit geringerer Effizienz. Wenn Ihr mobiler PC also komische Geräusche macht oder regelmäßig eine Betriebstemperatur jenseits von Gut und Böse aufweist, sind Sie hier genau richtig.Bevor Sie irgendetwas tun, suchen Sie Ihr Gehäuse erst einmal auf Stellen ab, an denen Frischluft reinkommt und Hitze entweicht. Haben Sie alle Lüftungsgitter gefunden, benutzen Sie Druckluftspray oder einen Staubsauger, um sämtlichen Staub und Dreck zu entfernen. Wenn das die Probleme behebt, ist Ihre Arbeit bereits erledigt. Anderenfalls kommen Sie nicht umhin, das Gehäuse Ihres Laptops zu öffnen. Dazu müssen normalerweise gut ein Dutzend Schrauben gelöst werden, in einigen Fällen muss dazu auch erst die Tastatur demontiert werden. Wenn der Weg ins Innere des Notebooks nicht offensichtlich ist, werfen Sie einen Blick in die Bedienungsanleitung. Oder YouTube. Ist das Gehäuse offen, säubern Sie zunächst den Lüfter. Untersuchen Sie bei dieser Gelegenheit auch, ob irgendwelche Fremdkörper die Bewegungsfreiheit des Lüfterrads einschränken. Wenn sich das Rad nicht frei drehen lässt, muss der Lüfter ausgetauscht werden. Um auf dem schnellsten Weg an das richtige Ersatzteil zu kommen, notieren Sie sich die Seriennummer und bemühen Sie Ihre Lieblings-Suchmaschine. Auch für in die Jahre gekommene Laptop- und Notebook-Modelle finden Sie in der Regel die nötigen Teile – entweder direkt beim Hersteller oder bei eBay und auf sonstigen Plattformen.Wenn Ihr Laptop komische Geräusche macht, kann es sein, dass der Lüfter unter der Last von Staub und Dreck ächzt. Befreien Sie ihn.
Foto: Brian Nadel / IDGWenn Sie den neuen Lüfter in Ihren Händen halten (und sich sicher sind, dass es der richtige ist), entfernen Sie sein gebrauchtes Pendant. Dazu müssen Sie zunächst die Stromversorgung des Lüfters trennen – je nach System ist dazu eventuell zunächst eine Halterung zu entfernen. Auch an dieser Stelle empfiehlt sich im Zweifel die Anleitung oder eine kurze YouTube-Recherche. Entfernen Sie nun den alten Lüfter vorsichtig und stellen Sie sich dabei auf Gefrickel ein – die Platzverhältnisse im Inneren eines mobilen PCs sind eben begrenzt. Vorsicht ist auch hinsichtlich der Verbindung mit der Heatpipe angesagt: Diese ist oft mit dem Lüfter verbunden – entweder über Schrauben oder eine Steckverbindung. Sie sollten dabei unbedingt darauf achten, die Heatpipe nicht zu beschädigen oder zu verbiegen, da sonst die Effizienz des gesamten Kühlsystems leiden kann.Wenn Sie aus irgendeinem Grund zu weit gehen und auf einmal die blanke CPU vor Augen haben: Stellen Sie sicher, dass genug Wärmeleitpaste vorhanden ist. Diese ist nötig, um Wärme vom Prozessor abzuführen. Ist zu wenig davon vorhanden, kann das ebenfalls zu Überhitzung führen. Sitzt der Lüfter richtig, können Sie alle Teile wieder verschrauben. Bevor Sie jedoch auch das Laptop-Gehäuse wieder schließen, sollten Sie einen Funktionstest durchführen, um nicht die doppelte Schraubarbeit zu haben. Verklemmte Notebook-Tastaturen Kosten: 20 bis 120 EuroZeitaufwand: zwischen 10 Minuten und 1 StundeMaterial: Schraubenzieher, Ersatz-KeyboardEines der gängigsten und frustrierendsten Notebook-Probleme sind verklemmte oder gebrochene Tasten. In einigen Fällen (zum Beispiel, wenn Sie ein Macbook besitzen), sind auch Einzeltasten als Ersatzteile erhältlich. Diese sind aber im Regelfall nicht gerade günstig. Deshalb ist in vielen Fällen die Anschaffung eines Ersatz-Keyboards nicht nur kostengünstiger, sondern auch effizienter, wenn Sie gleich auf mehrere Tasten verzichten müssen oder andere Tastatur-Probleme haben.Zuerst sollten Sie sich also auf die Online-Suche nach dem richtigen Ersatzteil machen. Auch hier sind die üblichen Plattformen zu empfehlen. Halten Sie dabei im Fall von älteren Geräten auch Ausschau nach gebrauchten oder instandgesetzten Ersatztastaturen, die im Regelfall erheblich günstiger kommen als Neuteile.Laptop Reparatur Keyboard 16zu9
Foto: Brian Nadel / IDGAn einigen Laptops ist oberhalb des Keyboards eine Leiste zu finden, die die Verschraubung der Tastatur beherbergt. Bei anderen Geräten muss erst das Gehäuse geöffnet werden. Haben Sie Schwierigkeiten, herauszubekommen, wie Sie Ihr Keyboard entfernen? Auch hier hilft die Betriebsanleitung oder YouTube. Ist das Keyboard freigelegt, sollten Sie vor der Entnahme aus dem Gehäuse unbedingt darauf achten, dass die Kabelverbindung zum Motherboard nicht beschädigt wird. Lassen Sie an dieser Stelle besondere Vorsicht walten und vermeiden Sie die Anwendung von Gewalt. Ist die Tastatur sicher “entkabelt”, heben Sie sie heraus und setzen den Ersatz ein. Schließen Sie nun das Gehäuse und erfreuen sich an Ihren neuen Tasten. Testen Sie vorher aber noch alle Tasten auf einwandfreie Funktion.Kratzer im Laptop-DisplayKosten: circa 5 EuroZeitaufwand: 5 MinutenMaterial: Zahnpasta, weiches Tuch, Display-ReinigungsmittelEin Display an einem Laptop oder Notebook auszutauschen ist wegen der elektronischen Verbindungen ein eher kompliziertes Unterfangen und kann schnell mehrere hundert Euros und etliche Stunden wertvoller Zeit verschlingen. Insbesondere für betagtere mobile PCs lohnt sich ein solches Ersatz-Display in den seltensten Fällen. Wenn Ihr Display aber ohnehin nur (leicht) verkratzt ist, brauchen Sie das alles ohnehin nicht. Denn kleinere bis mittelschwere Kratzer im Notebook-Screen lassen sich nur mit Hilfe von Zahnpasta und ein wenig Muskelschmalz vergessen machen. Eine geflissentliche Zahnpasta-Politur lässt kleinere Kratzer im Display verschwinden.
Foto: Brian Nadel / IDGSo gehen Sie dabei vor: Verreiben Sie die Zahnpasta zwischen Zeigefinger und Daumen – das sollte sich leicht sandig anfühlen. Die hier enthaltenen Scheuermittel werden dafür sorgen, dass Ihr Laptop-Bildschirm so gut wie neu aussieht. Dazu verreiben Sie die Zahnpasta nun mit kreisförmigen Bewegungen auf der betreffenden Stelle. Dabei sollten Sie aber keinesfalls zu fest aufdrücken, ansonsten könnte die empfindliche Beschichtung des Bildschirms Schaden nehmen. Hiernach säubern Sie den Bildschirm mit einem weichen Tuch und geeignetem Reinigungsmittel. Wenn die Kratzer noch zu sehen sind: Wiederholen Sie den Vorgang.Zugegeben: Diese Vorgehensweise liefert recht selten wirklich perfekte Ergebnisse – insbesondere bei tieferen Kratzern im Bildschirm. Aber die Zahnpasta-Taktik hilft zuverlässig gegen leichte Scratches und verleiht Ihrem Notebook nebenbei auch noch ein erfrischendes, minziges Flair. Flüssigkeit trifft NotebookKosten: circa 5 EuroZeitaufwand: 2 StundenMaterial: Handtuch, Schraubenzieher, Druckluftspray oder Fön, HoffnungKennen Sie das auch? Egal wo das Glas Cola, die Flasche Bier oder die Schüssel Suppe umfällt – immer ist ein Laptop oder Notebook in der Nähe. Vielleicht handelt es sich hierbei auch um Murphys Gesetz des mobilen Computings. Jedenfalls sterben auf diese Weise täglich tausende mobile PCs. Wenn Sie – beziehungsweise Ihren Laptop – das liquide Unglück ereilt, sollten Sie zuallererst die Stromverbindung kappen. Dazu reicht es nicht, das Netzteil auszustöpseln – auch der Akku muss raus. Wenn Sie das schaffen, bevor der Rechner von selbst “herunterfährt”, können Sie Ihr Gerät unter Umständen noch retten. Flüssigkeit und elektronische Komponenten vertragen sich zwar ganz gut, Flüssigkeit und Elektrizität aber weniger. Wenn Ihr Notebook nach einem liquiden Desaster von selbst den Geist aufgibt, ist der Zug wahrscheinlich abgefahren. Aber: Sie haben nichts zu verlieren, also sollten Sie den folgenden Reparatur-Vorschlag dennoch ausprobieren.Sind Netzteil und Akku entfernt, kann die Rettungsaktion beginnen. Dazu ist zunächst wichtig zu wissen, was genau sich über das Gerät ergossen hat. Handelt es sich um zucker- oder säurehaltige Getränke (zum Beispiel Cola), sollten Sie das Gerät schnellstmöglich reinigen. Dazu nehmen Sie es am besten komplett auseinander und reinigen die einzelnen Komponenten mit Hilfe von Handtuch und Druckluftspray. Nachdem Sie das Gerät vom Netz getrennt haben, sollten Sie zuvor allerdings mindestens zehn Minuten verstreichen lassen, um sicherzugehen, dass sämtliche Elektrizität aus den Kondensatoren gewichen ist. Wenn Sie Ihr Notebook nicht auseinandernehmen wollen oder können und ohnehin nur Wasser verschüttet haben, können Sie sich das auch sparen. In diesem Fall müssen Sie Ihr Gerät einfach nur trocknen. Dazu können Sie – je nach Intensität – Druckluftspray, einen Haartrockner oder einen Ventilator nutzen. Achten Sie dabei unbedingt darauf, dass die Laptop-Komponenten dabei nicht zu heiß werden. Welche Methode Sie auch immer anwenden: Haben Sie Geduld! Denn sollte sich beim erneuten Hochfahren des Laptops noch Flüssigkeit im Gerät befinden, kann das zum sofortigen Garaus führen. Um sicherzugehen, dass die Komponenten trocken und funktionsfähig sind, sollten Sie mindestens 24 Stunden “Trocknungszeit” einplanen – besser noch 48 oder 72 Stunden. Nun ist es Zeit für einen Startversuch. Wenn alles wie gewohnt abläuft, ist es jetzt Zeit für einen Seufzer der Erleichterung. Wenn nicht, ist nur zu hoffen, dass es sich bei dem toten Laptop ohnehin um “altes Eisen” gehandelt hat. Selbst reparieren im SimulatorFalls Sie Ihr Know-How in Sachen DIY-Reparaturen weiter ausbauen wollen, sollten Sie einen Blick auf den Computer Repair Simulator werfen. Dabei handelt es sich um ein spielerisches Reparaturtraining für PCs und Laptops, das die Grundlagen für kleinere und größere Reparaturaktionen vermitteln soll. Der Computer Repair Simulator konfrontiert Sie mit einer Vielzahl von “Missionen”, bei denen etwa bestimmte Systemkomponenten ausgetauscht oder instandgesetzt werden müssen. Alle, die sich schon lange einmal genauer mit dem Innenleben ihres PCs oder Laptops befassen wollten, haben jetzt die Chance, das spielerisch zu tun.Der Computer Repair Simulator kostet in der Vollversion 15 Dollar (Single-Lizenz), die kostenlose Testversion ist nur zeitlich begrenzt spielbar, zudem fehlen einige Kernfunktionalitäten. Dieser Artikel basiert in Teilen auf einem Beitrag unserer US-Schwesterpublikation Computerworld.

Notebook defekt?: So reparieren Sie Ihren Laptop selbst​ Weiterlesen »

Was ist Kryptografie?​

Allgemein

Kryptografie liefert die Grundlagen für sichere Internetkommunikation. Foto: syachin – shutterstock.comNur mit Hilfe der Kryptografie ist es heute möglich, sicher elektronisch zu kommunizieren. Lesen Sie, wie sich der Begriff definiert, wie er sich von Verschlüsselung unterscheidet und welche Methoden zum Einsatz kommen.Kryptografie – DefinitionKryptografie (wörtlich übersetzt: Geheimschrift) ist die Wissenschaft der Geheimhaltung von Informationen. Diese Informationen beziehungsweise Daten werden mit Hilfe eines Algorithmus in eine Form überführt, die für Unbefugte nicht zu lesen beziehungsweise verstehen ist. Kryptografische Systeme erfordern dabei auch eine Möglichkeit für den Empfänger, die verschlüsselte Botschaft wieder lesbar zu machen.Kryptografie vs. VerschlüsselungVerschlüsselung (Encryption) bezeichnet den Prozess, der abläuft, wenn Informationen von ihrer ursprünglichen Form in eine Geheimform gebracht werden. Encryption ist ein wichtiger Bestandteil der Kryptografie, deckt aber bei weitem nicht alle Aspekte der Wissenschaft ab. Das Gegenstück zur Verschlüsselung ist die Entschlüsselung (Decryption).Ein wichtiger Aspekt der Verschlüsselung ist, dass im Regelfall sowohl ein Algorithmus, als auch ein Schlüssel (Key) beim Prozess Anwendung finden. Ein Schlüssel (meistens handelt es sich dabei um eine Zahlenkombination) stellt eine weitere Information dar, die spezifiziert, wie der Algorithmus den Ursprungstext verschlüsselt. Auch wenn die Verschlüsselungsmethode bekannt ist: Ohne den Key ist eine Entschlüsselung nahezu unmöglich. Kryptografie – HistorieDie Ursprünge der Kryptografie reichen bis ins Zeitalter von Caesar zurück: Der römische Feldherr nutzte für vertrauliche Korrespondenzen ein eigenes Verschlüsselungssystem. Dessen Funktionsweise ist relativ simpel, eignet sich aber gut, um das kryptografische Zusammenspiel von Schlüssel und Algorithmus zu verdeutlichen. Die Ceasar-Verschlüsselung arbeitet mit der Substitution von Buchstaben. Der Algorithmus sieht also vor, jeden Buchstaben im Text gegen einen anderen, späteren, im Alphabet auszutauschen. Der Schlüssel hingegen gibt die Information, um welchen Buchstaben es sich genau handelt – nämlich den jeweils an dritter Stelle nachfolgenden (so wird beispielsweise “A” zu “D”). Dieses Beispiel verdeutlicht, dass auch simple Verschlüsselungsverfahren genutzt werden können, um vertrauliche Botschaften zu verschicken. Darüber hinaus wird klar, dass ein System bestehend aus Passphrasen in diesem Zusammenhang unpraktisch wäre: Zur Ver- und Entschlüsselung müsste sowohl dem Sender als auch dem Empfänger eine Sammlung aller Passphrasen vorliegen – neue können nicht hinzugefügt werden. Mit der Caesar-Verschlüsselung lässt sich hingegen jeglicher Inhalt verschlüsseln – vorausgesetzt, Algorithmus und Schlüssel sind den Kommunikationsteilnehmern bekannt. Diese Art der Substitutions-Verschlüsselung wurde im Laufe der Jahrhunderte weiterentwickelt – insbesondere durch die Mathematik. Dennoch sind alle Verschlüsselungssysteme der Vor-Computer-Ära aus heutiger Sicht ziemlich trivial. Mit der Entstehung der ersten Computer stellten sich auch wesentliche Fortschritte in Sachen Kryptografie ein. Im zweiten Weltkrieg legte der Enigma-Code und seine Entschlüsselung durch Alan Turing die Grundlage für moderne Computersysteme. Die Komplexität der Kryptografie steigt seit dem Aufkommen der Rechner unaufhörlich – blieb aber für Jahrzehnte weiterhin ein Feld für Geheimdienste und Militär. Das änderte sich in den 1960er Jahren mit der Entstehung der ersten Computernetzwerke. Diese neue Art der vernetzten Kommunikation war revolutionär – sorgte aber wegen ihrer Sicherheitslücken auch dafür, dass auch zivile Anwender die Notwendigkeit erkannten, Kommunikationsinhalte zu verschlüsseln. IBM wurde in den späten 1960er Jahren mit der Verschlüsselungsmethode Lucifer (die später zum ersten Data Encryption Standard wurde) zum Kryptografie-Pionier. Mit der steigenden Bedeutung des Internets stieg auch die Nachfrage nach neuen und besseren Verschlüsselungsverfahren. Kryptografie – Einsatzzwecke Ganz spezifisch kommt Kryptografie beispielsweise zum Einsatz, um vertrauliche Informationen (beispielsweise zur Aktivität von Geheimdiensten oder auch Finanzinformationen) sicher elektronisch zu übertragen. Ganz allgemein hilft Kryptografie aber auch bei der Erreichung höherer Cybersecurity-Ziele: Daten vertraulich halten Identität von Sendern und Empfängern verifizieren Datenintegrität sichern und Manipulationen ausschließen Sicherstellen, dass die Nachricht wirklich vom Empfänger stammt Kryptografie – Methoden Eine Vielzahl von kryptografischen Algorithmen ist derzeit im Einsatz. Ganz allgemein können diese in drei verschiedene Kategorien eingeordnet werden: Secret-Key-Kryptografie kommt auf breiter Ebene zum Einsatz, um Informationen und Daten vertraulich zu halten. Die Caesar-Verschlüsselung wäre ein Beispiel hierfür. Wie bereits beschrieben, müssen Algorithmus und Schlüssel sowohl Sender als auch Empfänger bekannt sein. Der Key muss allerdings zwischen diesen beiden Parteien vertraulich behandelt werden. Deshalb kann etwa der Key nicht mit der Nachricht “mitgeschickt” werden, da sonst alle Bemühungen für die Katz wären. Diese Methode bietet sich beispielsweise an, um lokale Festplatten abzusichern, auf die ein und derselbe Nutzer zugreift – der Secret Key muss in diesem Fall nicht geteilt werden. Diese kryptografische Methode eignet sich auch, um vertrauliche Nachrichten über das Internet zu verschicken – allerdings nur in Kombination mit der nachfolgenden Methode. Im Fall der Public-Key-Kryptografie besitzen Sender und Empfänger jeweils zwei unterschiedliche Schlüssel: einen Public Key, der für die Verschlüsselung der Informationen zuständig ist und ein Private Key zur Entschlüsselung. Die mathematischen Berechnungen, die nötig sind, um Nachrichten mit einem Key zu verschlüsseln und mit einem anderen zu entschlüsseln ist weit weniger intuitiv als beispielsweise die Caesar-Verschlüsselung. Das Grundprinzip, das diese Methode ermöglicht: Die Schlüssel stehen mathematisch miteinander in Relation, so dass der Public Key leicht aus dem Private Key errechnet werden kann, aber nicht umgekehrt. Public Keys sind darüber hinaus Teil einer Public-Key-Infrastructure, die es ermöglicht, jeden der Schlüssel einer bestimmten Person oder Organisation zuzuordnen. Nachrichten, die mit einem Public Key verschlüsselt werden, authentifizieren deshalb die Identität des Absenders. Hash-Funktionen sind im Gegensatz zur Secret- und Public-Key-Kryptografie “Einbahnstraßen”-Algorithmen: Einmal verschlüsselt, gibt es keine Möglichkeit, die Originalform einer Nachricht aus einem Hash zu rekonstruieren. Das mag erst einmal relativ sinnlos klingen, hat aber den Vorteil, dass keine Nachricht denselben Hash-Wert einer anderen aufweisen kann. So ist die Datenintegrität sichergestellt. Hash-Funktionen kommen auch in Zusammenhang mit Passwortsicherheit zum Einsatz: Kennwörter im Klartext-Format abzuspeichern ist ein absolutes Security-No-Go, das schon zu zahlreichen Datenlecks geführt hat. Werden Passwörter hingegen im Hash-Format hinterlegt, haben es beispielsweise kriminelle Hacker deutlich schwerer, diese Informationen für weitere Kompromittierungen zu verwerten. Kryptografie – BeispieleUm die eben dargestellten kryptografischen Methoden zu implementieren, gibt es wiederum eine ganze Reihe von Techniken, die ganz allgemein sehr komplex sind. Hier einige weiterführende Links, wenn Sie tiefer in die Kryptografie-Materie abtauchen wollen:Secret-Key-Verschlüsselung: Triple DES AES Blowfish / TwofishPublic-Key-Verschlüsselung: Diffie-Hellman RSA ElGamalHash-Funktionen: WikipediaDieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation CSO Online. 

Was ist Kryptografie?​ Kryptografie liefert die Grundlagen für sichere Internetkommunikation.
Foto: syachin – shutterstock.comNur mit Hilfe der Kryptografie ist es heute möglich, sicher elektronisch zu kommunizieren. Lesen Sie, wie sich der Begriff definiert, wie er sich von Verschlüsselung unterscheidet und welche Methoden zum Einsatz kommen.Kryptografie – DefinitionKryptografie (wörtlich übersetzt: Geheimschrift) ist die Wissenschaft der Geheimhaltung von Informationen. Diese Informationen beziehungsweise Daten werden mit Hilfe eines Algorithmus in eine Form überführt, die für Unbefugte nicht zu lesen beziehungsweise verstehen ist. Kryptografische Systeme erfordern dabei auch eine Möglichkeit für den Empfänger, die verschlüsselte Botschaft wieder lesbar zu machen.Kryptografie vs. VerschlüsselungVerschlüsselung (Encryption) bezeichnet den Prozess, der abläuft, wenn Informationen von ihrer ursprünglichen Form in eine Geheimform gebracht werden. Encryption ist ein wichtiger Bestandteil der Kryptografie, deckt aber bei weitem nicht alle Aspekte der Wissenschaft ab. Das Gegenstück zur Verschlüsselung ist die Entschlüsselung (Decryption).Ein wichtiger Aspekt der Verschlüsselung ist, dass im Regelfall sowohl ein Algorithmus, als auch ein Schlüssel (Key) beim Prozess Anwendung finden. Ein Schlüssel (meistens handelt es sich dabei um eine Zahlenkombination) stellt eine weitere Information dar, die spezifiziert, wie der Algorithmus den Ursprungstext verschlüsselt. Auch wenn die Verschlüsselungsmethode bekannt ist: Ohne den Key ist eine Entschlüsselung nahezu unmöglich.

Kryptografie – HistorieDie Ursprünge der Kryptografie reichen bis ins Zeitalter von Caesar zurück: Der römische Feldherr nutzte für vertrauliche Korrespondenzen ein eigenes Verschlüsselungssystem. Dessen Funktionsweise ist relativ simpel, eignet sich aber gut, um das kryptografische Zusammenspiel von Schlüssel und Algorithmus zu verdeutlichen. Die Ceasar-Verschlüsselung arbeitet mit der Substitution von Buchstaben. Der Algorithmus sieht also vor, jeden Buchstaben im Text gegen einen anderen, späteren, im Alphabet auszutauschen. Der Schlüssel hingegen gibt die Information, um welchen Buchstaben es sich genau handelt – nämlich den jeweils an dritter Stelle nachfolgenden (so wird beispielsweise “A” zu “D”). Dieses Beispiel verdeutlicht, dass auch simple Verschlüsselungsverfahren genutzt werden können, um vertrauliche Botschaften zu verschicken. Darüber hinaus wird klar, dass ein System bestehend aus Passphrasen in diesem Zusammenhang unpraktisch wäre: Zur Ver- und Entschlüsselung müsste sowohl dem Sender als auch dem Empfänger eine Sammlung aller Passphrasen vorliegen – neue können nicht hinzugefügt werden. Mit der Caesar-Verschlüsselung lässt sich hingegen jeglicher Inhalt verschlüsseln – vorausgesetzt, Algorithmus und Schlüssel sind den Kommunikationsteilnehmern bekannt. Diese Art der Substitutions-Verschlüsselung wurde im Laufe der Jahrhunderte weiterentwickelt – insbesondere durch die Mathematik. Dennoch sind alle Verschlüsselungssysteme der Vor-Computer-Ära aus heutiger Sicht ziemlich trivial.

Mit der Entstehung der ersten Computer stellten sich auch wesentliche Fortschritte in Sachen Kryptografie ein. Im zweiten Weltkrieg legte der Enigma-Code und seine Entschlüsselung durch Alan Turing die Grundlage für moderne Computersysteme. Die Komplexität der Kryptografie steigt seit dem Aufkommen der Rechner unaufhörlich – blieb aber für Jahrzehnte weiterhin ein Feld für Geheimdienste und Militär.

Das änderte sich in den 1960er Jahren mit der Entstehung der ersten Computernetzwerke. Diese neue Art der vernetzten Kommunikation war revolutionär – sorgte aber wegen ihrer Sicherheitslücken auch dafür, dass auch zivile Anwender die Notwendigkeit erkannten, Kommunikationsinhalte zu verschlüsseln. IBM wurde in den späten 1960er Jahren mit der Verschlüsselungsmethode Lucifer (die später zum ersten Data Encryption Standard wurde) zum Kryptografie-Pionier. Mit der steigenden Bedeutung des Internets stieg auch die Nachfrage nach neuen und besseren Verschlüsselungsverfahren.

Kryptografie – Einsatzzwecke

Ganz spezifisch kommt Kryptografie beispielsweise zum Einsatz, um vertrauliche Informationen (beispielsweise zur Aktivität von Geheimdiensten oder auch Finanzinformationen) sicher elektronisch zu übertragen. Ganz allgemein hilft Kryptografie aber auch bei der Erreichung höherer Cybersecurity-Ziele:

Daten vertraulich halten

Identität von Sendern und Empfängern verifizieren

Datenintegrität sichern und Manipulationen ausschließen

Sicherstellen, dass die Nachricht wirklich vom Empfänger stammt

Kryptografie – Methoden

Eine Vielzahl von kryptografischen Algorithmen ist derzeit im Einsatz. Ganz allgemein können diese in drei verschiedene Kategorien eingeordnet werden:

Secret-Key-Kryptografie kommt auf breiter Ebene zum Einsatz, um Informationen und Daten vertraulich zu halten. Die Caesar-Verschlüsselung wäre ein Beispiel hierfür. Wie bereits beschrieben, müssen Algorithmus und Schlüssel sowohl Sender als auch Empfänger bekannt sein. Der Key muss allerdings zwischen diesen beiden Parteien vertraulich behandelt werden. Deshalb kann etwa der Key nicht mit der Nachricht “mitgeschickt” werden, da sonst alle Bemühungen für die Katz wären. Diese Methode bietet sich beispielsweise an, um lokale Festplatten abzusichern, auf die ein und derselbe Nutzer zugreift – der Secret Key muss in diesem Fall nicht geteilt werden. Diese kryptografische Methode eignet sich auch, um vertrauliche Nachrichten über das Internet zu verschicken – allerdings nur in Kombination mit der nachfolgenden Methode.

Im Fall der Public-Key-Kryptografie besitzen Sender und Empfänger jeweils zwei unterschiedliche Schlüssel: einen Public Key, der für die Verschlüsselung der Informationen zuständig ist und ein Private Key zur Entschlüsselung. Die mathematischen Berechnungen, die nötig sind, um Nachrichten mit einem Key zu verschlüsseln und mit einem anderen zu entschlüsseln ist weit weniger intuitiv als beispielsweise die Caesar-Verschlüsselung. Das Grundprinzip, das diese Methode ermöglicht: Die Schlüssel stehen mathematisch miteinander in Relation, so dass der Public Key leicht aus dem Private Key errechnet werden kann, aber nicht umgekehrt. Public Keys sind darüber hinaus Teil einer Public-Key-Infrastructure, die es ermöglicht, jeden der Schlüssel einer bestimmten Person oder Organisation zuzuordnen. Nachrichten, die mit einem Public Key verschlüsselt werden, authentifizieren deshalb die Identität des Absenders.

Hash-Funktionen sind im Gegensatz zur Secret- und Public-Key-Kryptografie “Einbahnstraßen”-Algorithmen: Einmal verschlüsselt, gibt es keine Möglichkeit, die Originalform einer Nachricht aus einem Hash zu rekonstruieren. Das mag erst einmal relativ sinnlos klingen, hat aber den Vorteil, dass keine Nachricht denselben Hash-Wert einer anderen aufweisen kann. So ist die Datenintegrität sichergestellt. Hash-Funktionen kommen auch in Zusammenhang mit Passwortsicherheit zum Einsatz: Kennwörter im Klartext-Format abzuspeichern ist ein absolutes Security-No-Go, das schon zu zahlreichen Datenlecks geführt hat. Werden Passwörter hingegen im Hash-Format hinterlegt, haben es beispielsweise kriminelle Hacker deutlich schwerer, diese Informationen für weitere Kompromittierungen zu verwerten.

Kryptografie – BeispieleUm die eben dargestellten kryptografischen Methoden zu implementieren, gibt es wiederum eine ganze Reihe von Techniken, die ganz allgemein sehr komplex sind. Hier einige weiterführende Links, wenn Sie tiefer in die Kryptografie-Materie abtauchen wollen:Secret-Key-Verschlüsselung: Triple DES AES Blowfish / TwofishPublic-Key-Verschlüsselung: Diffie-Hellman RSA ElGamalHash-Funktionen: WikipediaDieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation CSO Online.

Was ist Kryptografie?​ Weiterlesen »

So lesen sie die Ladezyklen Ihres Smartphone-Akkus aus​

Allgemein

AVM Vor allem die bereits absolvierten Ladezyklen und die verbliebene Leistungsfähigkeit sind hier interessant, da sie Auskunft über die Qualität des Stromspenders geben. Aber eines gleich vorneweg: Die Informationen lassen sich nicht bei allen Geräten auslesen! Andererseits gehen Sie mit der kostenfreien App aBattery – Battery Health auch kein Risiko ein. Sie benötigt eigentlich Root-Zugriff für die Anzeige aller Akkuangaben, allerdings können Sie dies mit der Installation einer weiteren App namens Shizuku umgehen. Die kostenlose App aBattery gibt Ihnen unter anderem die Ladezyklen Ihres Android-Smartphones aus.IDG Um Shizuku mit aBattery zu verbinden, sind jedoch einige Schritte erforderlich: Starten Sie zuerst Shizuku und tippen Sie dann auf „Über Wireless-Debugging starten“ (ist ab Android 11 möglich) und „Kopplung“. Aktivieren Sie in den Entwickleroptionen Ihres Smartphones die Funktionen „USB Debugging“ und „Wireless Debugging“ per Schiebeschalter. Tippen Sie auf „Wireless Debugging“ und auf „Gerät über einen Kopplungscode koppeln“. Sie erhalten sofort einen Code und eine Kopplungsanfrage von Shizuku. Übertragen Sie jetzt den Code in das dafür vorgesehene Feld. Wechseln Sie daraufhin zurück zu Shizuku und tippen Sie auf „Starten“. Sie erhalten eine Bestätigung und können nun aBattery starten. Nach einer kurzen Analyse haben Sie Zugriff auf alle Akkuangaben, inklusive der Ladezyklen. (PC-Welt) 

So lesen sie die Ladezyklen Ihres Smartphone-Akkus aus​ AVM

Vor allem die bereits absolvierten Ladezyklen und die verbliebene Leistungsfähigkeit sind hier interessant, da sie Auskunft über die Qualität des Stromspenders geben. Aber eines gleich vorneweg: Die Informationen lassen sich nicht bei allen Geräten auslesen! Andererseits gehen Sie mit der kostenfreien App aBattery – Battery Health auch kein Risiko ein. Sie benötigt eigentlich Root-Zugriff für die Anzeige aller Akkuangaben, allerdings können Sie dies mit der Installation einer weiteren App namens Shizuku umgehen.

Die kostenlose App aBattery gibt Ihnen unter anderem die Ladezyklen Ihres Android-Smartphones aus.IDG

Um Shizuku mit aBattery zu verbinden, sind jedoch einige Schritte erforderlich: Starten Sie zuerst Shizuku und tippen Sie dann auf „Über Wireless-Debugging starten“ (ist ab Android 11 möglich) und „Kopplung“. Aktivieren Sie in den Entwickleroptionen Ihres Smartphones die Funktionen „USB Debugging“ und „Wireless Debugging“ per Schiebeschalter. Tippen Sie auf „Wireless Debugging“ und auf „Gerät über einen Kopplungscode koppeln“. Sie erhalten sofort einen Code und eine Kopplungsanfrage von Shizuku. Übertragen Sie jetzt den Code in das dafür vorgesehene Feld. Wechseln Sie daraufhin zurück zu Shizuku und tippen Sie auf „Starten“. Sie erhalten eine Bestätigung und können nun aBattery starten. Nach einer kurzen Analyse haben Sie Zugriff auf alle Akkuangaben, inklusive der Ladezyklen.

(PC-Welt)

So lesen sie die Ladezyklen Ihres Smartphone-Akkus aus​ Weiterlesen »

Nothing Phone (3) im Test: Das erste Flaggschiff von Nothing polarisiert mit seinem Design​

Allgemein

Anyron Copeman / Foundry Auf einen Blick Pro Wunderschönes Display Hervorragende Verarbeitungsqualität Starke Leistung Sehr gute Akkulaufzeit Sieben Jahre Updates garantiert Kontra Ungewöhnliches Design Enttäuschende Ultraweitwinkelkamera Eingeschränktes “Glyph-Matrix”-Display (bisher) Fazit Das Nothing Phone (3) gehört zu den interessantesten Flaggschiffen der letzten Jahre – und das zu einem Preis von 799 Euro. Wer mit dem auffälligen Design nichts anfangen kann, fährt mit einem Pixel 9 oder Galaxy S25 zum gleichen Preis auf lange Sicht womöglich besser. Im Jahr 2025 wirkt der Smartphone-Markt ziemlich eintönig. Die großen Hersteller setzen weiter auf bewährte Konzepte – das führt zwar zu Modellen, die sich gut verkaufen, aber selten wirklich begeistern. Das britische Unternehmen Nothing geht einen anderen Weg. Mit bisher sechs Smartphones (plus zwei Modellen der Untermarke CMF) kombiniert es auffällige Hardware mit außergewöhnlicher Software. Trotzdem liegt der Marktanteil aktuell nur bei 0,2 Prozent. Kann das erste echte Flaggschiff von Nothing das ändern? Das Phone (3) tritt gegen starke Konkurrenz wie das Pixel 9, Galaxy S25 und iPhone 16 an. Ich habe das Smartphone eine Woche lang als mein Hauptgerät genutzt und wollte herausfinden, ob es den Kampf mit Google, Samsung und Apple aufnehmen kann. Design & Verarbeitung Neues “Glyph-Matrix”-Display Halbtransparentes Design bleibt erhalten IP68-Zertifizierung für Wasser- und Staubschutz Das Design des Phone (3) ist zweifellos der Hauptgrund, es zu kaufen. Es unterscheidet sich nicht nur deutlich von allen anderen Premium-Smartphones, sondern markiert auch einen großen Bruch zu den bisherigen Nothing-Modellen. Die “Glyph Interface”-Leuchten der früheren Modelle sind verschwunden. Stattdessen gibt es jetzt ein neues “Glyph-Matrix”-Display in der oberen rechten Ecke. Dominik Tomaszewski / Foundry Dieses kleine, monochrome LED-Display bietet viel Potenzial und geht weit über die individuellen Benachrichtigungen und einzigartigen Anrufer-Lichtmuster früherer Modelle hinaus.Der Großteil der Funktionen dreht sich um die sogenannten “Glyph Toys”. Über eine spezielle “Glyph-Taste” auf der Rückseite können Sie durch kurzes Drücken zwischen den Toys wechseln und durch langes Drücken eines aktivieren. Die Bedienung ist sehr einfach, aber zum Start sind die Möglichkeiten noch stark eingeschränkt. Bei meinem Testgerät standen nur vier Funktionen zur Verfügung: eine digitale Uhr, eine Stoppuhr, eine Akkuanzeige und ein “Flaschendrehen”-Tool. Nothing hat bestätigt, dass weitere “Glyph Toys” folgen werden, darunter ein Spiegel-Tool für Selfies mit der Hauptkamera, eine Sonnen-Uhr, ein Wasserwaagen-Tool und sogar eine Version des beliebten Magic-8-Ball-Spiels. Zum Start sind diese Funktionen aber noch nicht verfügbar. Ich muss die “Glyph Matrix” so bewerten, wie sie aktuell ist – und das ist leider ziemlich enttäuschend. Das Unternehmen hat bereits die relevanten Dateien für Entwickler bereitgestellt, sodass in Zukunft viele weitere Optionen von Drittanbietern möglich sind. Dennoch muss ich die Glyph-Matrix so bewerten, wie sie aktuell ist – und das fällt bedauerlicherweise ziemlich enttäuschend aus. Auch die Anordnung der Rückkameras ist alles andere als gewöhnlich. Aus irgendeinem Grund hat Nothing den Teleobjektiv-Sensor diagonal über dem Hauptsensor platziert, statt den freien Platz neben der Weitwinkelkamera zu nutzen. Dadurch geht jegliche Symmetrie verloren. Dominik Tomaszewski / Foundry Nothing bleibt dem halbtransparenten Design treu, das bei meinem weißen Testmodell viel deutlicher auffällt als bei der schwarzen Variante. Ich finde diesen Look grundsätzlich ansprechend, auch wenn das Glas schnell Fingerabdrücke anzieht. Gerade deshalb kann ich mir gut vorstellen, das Phone (3) ohne Hülle zu nutzen. Eine transparente Silikonhülle liegt zwar bei, aber sie nimmt dem einzigartigen Design etwas den Charme, und der Grip ist auch so schon sehr gut. Die Robustheit überzeugt ebenfalls: Dank Gorilla Glass Victus auf der Rückseite, Gorilla Glass 7i vorn und einem stabilen Aluminiumrahmen hält das Gerät Stöße, Stürze und Kratzer gut aus. Zwar habe ich es nur bei ein paar Stürzen auf den Schreibtisch ausprobiert, aber das Phone (3) fühlt sich auf jeden Fall sehr hochwertig an. Dominik Tomaszewski / Foundry Das Phone (3) ist mit der IP68-Zertifizierung auf Flaggschiff-Niveau geschützt und übersteht bis zu 30 Minuten in 1,5 Metern Süßwasser. Auch Staub kann ihm nichts anhaben. Wer ein besonders leichtes oder kompaktes Gerät sucht, wird hier allerdings nicht fündig. Mit Maßen von 160,6 × 75,6 × 9 Millimetern und einem Gewicht von 218 Gramm ist das Phone (3) recht groß und schwer. Bildschirm & Lautsprecher 6,67-Zoll-AMOLED-Display Full-HD+-Auflösung, 120 Hertz Bildwiederholrate Stereo-Lautsprecher Das Nothing Phone (3) hat ein 6,67-Zoll-AMOLED-Display mit einer Auflösung von 1.260 × 2.800 Pixeln. Es zeigt satte Farben und echte Schwarztöne. Das fällt besonders bei Videos, Spielen und beim Surfen auf. Dominik Tomaszewski / Foundry Wenn Ihnen die kräftigen Farben zu intensiv sind, können Sie in den Einstellungen vom Standard-“Alive”-Modus auf einen natürlicheren “Standard”-Modus wechseln. Dort lässt sich auch die Farbtemperatur individuell anpassen. Die Bildwiederholrate von 120 Hertz ist heute Standard, wirkt auf dem Phone (3) aber besonders flüssig und schnell. Der voreingestellte “Dynamische” Modus passt die Rate automatisch an, auch wenn die LTPO-Technik des Vorgängers fehlt. Trotz dunklem Modus und spiegelndem Display bleibt der Bildschirm dank einer Spitzenhelligkeit von 4.500 Nits auch bei direkter Sonneneinstrahlung gut ablesbar. Im Alltag erreicht das Panel solide 785 Nits – ein starker Wert für Innenräume. Das OLED-Display überzeugt zudem mit HDR10+-Unterstützung, 1,07 Milliarden Farben und einer Touch-Abtastrate von 1.000 Hertz. Besonders auffällig: die extrem schmalen, symmetrischen Ränder und das starke Screen-to-Body-Verhältnis von 92,89 Prozent – ganz auf Flaggschiff-Niveau. Im Display befindet sich ein optischer Fingerabdrucksensor, der in der Regel schnell und zuverlässig arbeitet. Allerdings reagiert er empfindlich auf Feuchtigkeit und ungewöhnliche Winkel. Im Vergleich zum Pixel 9 Pro XL habe ich auch das Gesichtserkennungssystem vermisst, mit dem sich Zahlungen und App-Log-ins bequem erledigen lassen – die Lösung im Phone (3) ist dafür nicht sicher genug. Das Phone (3) verfügt über das übliche Stereo-Lautsprecher-Set-up, das man von Flaggschiffen kennt. Der Klang überzeugt nicht mit Wow-Effekt, bietet aber eine angenehme Tiefe und ist damit gut für entspanntes Musikhören und Telefonate geeignet. Zwei hochauflösende Mikrofone sorgen zudem dafür, dass Sprachaufnahmen und Videos klar und deutlich bleiben. Ausstattung & Rechenleistung Qualcomm Snapdragon 8s Gen 4 12/256 GB und 16/512 GB Eines der ersten Smartphones mit Bluetooth 6.0 Das Phone (3) läuft mit dem Snapdragon 8s Gen 4. Sie fragen sich vielleicht, warum kein Top-Chip wie der Snapdragon 8 Elite zum Einsatz kommt. Genau das dachte ich auch. Doch im Test zeigt das Phone (3) trotz des schwächeren Chips eine beeindruckende Leistung. Dominik Tomaszewski / Foundry Das von mir getestete Modell kommt mit 16 Gigabyte Arbeitsspeicher, die günstigere Variante hat 12 Gigabyte. Im Alltag bewältigt das Phone (3) problemlos Surfen, E-Mails, Nachrichten, Anrufe und Fotos – selbst beim schnellen Wechsel zwischen den Apps gibt es keine Verzögerungen. Tatsächlich ist das Phone (3) eines der schnellsten Smartphones, die ich seit Langem getestet habe. Es wirkt sogar flotter als das deutlich teurere Galaxy S25+ und das Pixel 9 Pro XL. Beim Gaming zeigt das Phone (3) jedoch Grenzen: Bei anspruchsvollen Spielen wie “Call of Duty: Mobile”, “EA Sports FC” und “Real Racing 3” kommt es zu kleinen Rucklern, und die Rückseite wird ziemlich warm. Für Gelegenheitsspiele ist es aber bestens geeignet. Insgesamt hat mich die Leistung des Phone (3) positiv überrascht. In Kombination mit der Bildwiederholrate von 120 Hertz ergibt das eine starke Performance. Die Speicherkapazität hängt von der gewählten RAM-Größe ab: 12 Gigabyte RAM werden mit 256 Gigabyte internem Speicher kombiniert, 16 Gigabyte RAM sogar mit 512 Gigabyte. Für die meisten Nutzer sollte das ausreichen. Eine Speichererweiterung per Karte ist nicht möglich. Dafür gibt es einen Steckplatz für zwei physische SIM-Karten. Außerdem unterstützt das Phone (3) als eines der ersten Smartphones den neuen Bluetooth-Standard 6.0. Dieser verspricht mehr Zuverlässigkeit, geringere Verzögerungen und höhere Sicherheit im Vergleich zu älteren Versionen. Nothing Phone (3) benchmarks Kameras 50-MP-Hauptkamera mit Blende f/1.7 50-MP-Periskop-Teleobjektiv mit dreifachem Zoom und Blende f/2.7 50-MP-Ultraweitwinkel mit Blende f/2.2 50-MP-Frontkamera mit Blende f/2.2 Auf dem Papier bietet das Nothing Phone (3) beeindruckende Kameras. Alle vier Sensoren – Hauptkamera mit Blende f/1.7, Ultraweitwinkel mit f/2.2, Periskop-Teleobjektiv mit f/2.7 und Frontkamera mit f/2.2 – lösen jeweils mit 50 Megapixel auf. So wird der übliche Trend, die Megapixelzahl bei den Zusatzlinsen zu reduzieren, vermieden. Doch für wirklich gute Fotos und Videos zählt mehr als nur die Zahl der Megapixel. Wie schlägt sich das Nothing Phone (3) also in der Praxis? Dominik Tomaszewski / Foundry Insgesamt macht das Nothing Phone (3) eine hervorragende Figur. Die Hauptkamera ist ohne Zweifel das Highlight. Sie liefert klare, scharfe Fotos mit vielen Details. Der Dynamikumfang ist groß, und die Belichtung gelingt meist gut. Manchmal tut sie sich allerdings schwer, Schatten richtig einzufangen. Die Fotos wirken generell sehr realistisch, bekommen aber genug Nachbearbeitung, damit sie sich problemlos in sozialen Netzwerken teilen lassen. Auch bei wenig Licht überzeugt das Gerät. Der automatisch aktivierte Nachtmodus sorgt für ausreichend Helligkeit, ohne unnatürlich zu wirken oder zu viel Bildrauschen zu erzeugen. Einziger Wermutstropfen im Vergleich zur Konkurrenz ist die Unzuverlässigkeit. Die Hauptkamera liefert oft tolle Fotos, aber nicht bei jedem Schnappschuss. Bei etwa jedem fünften Bild gibt es kleine Mängel, sodass Sie sich nicht immer darauf verlassen können, schnell ein perfektes Foto zu machen. In Sachen Point-and-Shoot ist das Pixel 9 deutlich zuverlässiger. Für Aufnahmen aus der Ferne sollten Sie den Periskop-Telezoom mit dreifachem optischen Zoom nutzen. Die Details bei zweifachem und dreifachem Zoom sind beeindruckend. Sobald der digitale Zoom zum Einsatz kommt, nimmt die Qualität allerdings schnell ab. Bis zu 60-fach heranzoomen ist möglich, aber nicht empfehlenswert. Die Hauptkamera lässt sich zwar für Porträtfotos nutzen, doch die meisten Modi setzen auf das Telezoom-Objektiv. Einige meiner Bilder wirken dabei richtig professionell, auch wenn bei genauerem Hinsehen Schwächen bei der Kantenerkennung auffallen. Diese lassen sich aber einfach anpassen. Da der Ultrawide-Sensor ebenfalls 50 Megapixel bietet, hatte ich hohe Erwartungen. Er ist zwar noch gut nutzbar, doch bei Belichtung, Dynamikumfang, Details und Farbgenauigkeit merkt man deutliche Einbußen, sodass der große Blickwinkel von 114 Grad kaum Vorteile bringt. Eine Auswahl an Aufnahmen der Hauptkamera finden Sie in der Galerie unten: Die Frontkamera ist für mich die beste von allen. Sie liefert durchweg klare und scharfe Selfies, bringt meinen Hautton gut zur Geltung und überbelichtet den Hintergrund nicht. Auch ein Porträtmodus ist vorhanden, der besser erkennt, wo mein Hemd endet und der Hintergrund beginnt. Insgesamt liefern die Kameras des Phone (3) solide Ergebnisse und können in manchen Situationen sogar richtig überzeugen. Doch letztlich gibt es genug Schwächen, um nicht mit den besten Kamera-Smartphones auf dem Markt mithalten zu können. Akkulaufzeit & Aufladen 5.150 mAh Akku 65 Watt kabelgebundenes Laden 15 Watt kabelloses Laden, kein Qi2 Das Nothing Phone (3) verfügt in den meisten Ländern über einen großzügigen Akku mit 5.150 Milliamperestunden, der allerdings deutlich kleiner ist als der 5.500 Milliamperestunden starke Akku der indischen Version. Trotzdem war ich von der Akkulaufzeit positiv überrascht. In vielen Situationen hält das Phone (3) problemlos zwei Tage durch. Bei leichter Nutzung, etwa im Homeoffice, waren sogar fast drei Tage möglich. Dominik Tomaszewski / Foundry Klar, 72 Stunden ohne Aufladen sind nicht immer nötig, wenn eine Steckdose in der Nähe ist. Wichtig ist, dass Sie mit einer vollen Ladung problemlos bis zum Ende des Tages kommen – selbst bei viel GPS, mobilen Daten und hoher Displayhelligkeit. Wenn Sie nicht stundenlang spielen, begleitet Sie das Phone (3) sicher bis zum Schlafengehen. Das zeigt auch unser PCMark-Akkutest, der realistische Alltagsszenarien bei 200 Nits Helligkeit simuliert. Mit 17 Stunden und 23 Minuten zählt das Phone (3) zu den besten Geräten, die wir getestet haben. Die Akkulaufzeit ist eindeutig eine der großen Stärken des Phone (3). Mit dem offiziellen 65-Watt-Netzteil ist der Akku in nur 54 Minuten vollständig geladen – allerdings liegt dieses Ladegerät nicht bei und muss separat erworben werden. Im Test mit einem eigenen 65-Watt-Ladegerät dauerte eine vollständige Ladung rund 90 Minuten. Für einen schnellen Energieschub genügen bereits 30 Minuten, um den Akku auf 38 Prozent zu bringen – das reicht locker für mehrere Stunden Nutzung. Dominik Tomaszewski / Foundry Das Phone (3) unterstützt außerdem 15 Watt kabelloses Laden und 5 Watt Reverse Wireless Charging, allerdings noch nach dem älteren Qi-Standard und nicht dem aktuellen Qi2. Benutzeroberfläche & Apps Nothing OS 3.5 basiert auf Android 15 Android 16 ist für das dritte Quartal 2025 bestätigt Fünf Jahre Betriebssystem-Updates, sieben Jahre Sicherheitsupdates Das Nothing Phone (3) kommt mit Nothing OS 3.5, einer angepassten Version von Android 15. Das auf Android 16 basierende Nothing OS 4 erscheint im dritten Quartal 2025, also bis Ende September. Das Phone (3) erhält fünf Jahre lang größere Android‑Version‑Updates und zusätzlich zwei Jahre Sicherheitsupdates – also insgesamt sieben Jahre Softwaresupport. Damit bietet es das bisher längste Update‑Versprechen von Nothing. Dominik Tomaszewski / Foundry Ich muss zugeben, dass ich den Reiz von Nothing OS früher nie ganz verstanden habe. Aber nachdem ich alles so eingerichtet hatte, wie ich es mag, hat mir die Nutzung richtig Spaß gemacht. Das schwarze und rote Design, die futuristischen Icons und die vielen Widgets sorgen für ein wirklich einzigartiges Android-Erlebnis. Mein aktuelles Setup zeigt vier nützliche (und schicke) Widgets, wichtige Schnelleinstellungen und meine meistgenutzten Apps – aber die Möglichkeiten sind quasi endlos. Praktisch finde ich auch die neue App-Übersicht, die Apps automatisch in Kategorien sortiert – meist auch ziemlich treffsicher. Häufig genutzte Apps werden größer angezeigt, was die Navigation spürbar erleichtert. Nothing hat auch die Suchfunktion in der App-Übersicht verbessert. So können Sie jetzt bequem nach Kontakten, Fotos und Dateien suchen und zusätzlich die eigene generative KI nutzen. Letztere zeigte sich in meinem Test allerdings noch recht eingeschränkt: Sie liefert zwar ChatGPT-ähnliche Antworten auf einfache Fragen, kommt mit komplexeren Anfragen aber nicht gut klar. Ansonsten setzt Nothing KI weiterhin eher dezent ein, etwa mit einigen ChatGPT-Integrationen, einem KI-Wallpaper-Generator und einem kuratierten Nachrichten-Widget. Der größte Mehrwert bleibt jedoch „Essential Space“, das mit der (3a)-Serie eingeführt wurde. Damit lassen sich Bildschirmaufnahmen, Fotos, Videos oder Audioaufnahmen schnell erstellen und automatisch analysieren sowie zusammenfassen, um sie später leicht wiederzufinden. Zugriff darauf gibt es direkt über die seitliche “Essential Key”-Taste. Dominik Tomaszewski / Foundry Neu ist die Funktion “Flip to Record”. Sie startet eine Sprachaufnahme (mit anschließender Zusammenfassung), wenn Sie die “Essential Key”-Taste lange drücken und das Smartphone mit dem Display nach unten drehen. Das funktioniert wie beschrieben, fühlt sich aber nicht wirklich praktischer an, als einfach die Recorder-App zu öffnen. Für mich wirkt “Essential Space” weiterhin oft überladen und unübersichtlich. Die Suchfunktion hilft zwar, aber ich persönlich nehme Inhalte lieber manuell auf und finde sie später in Google Fotos wieder. Mit der Zeit dürfte diese Funktion aber noch besser werden. Preis & Verfügbarkeit Im offiziellen Nothing-Online-Shop sowie bei Online-Händler Amazon ist das Nothing Phone (3) derzeit für 799 Euro erhältlich – egal, ob Sie sich für die Variante mit 256 oder 512 Gigabyte internem Speicher entscheiden. Dieser Einstiegspreis macht es technisch gesehen zu einem Flaggschiff, auch wenn es deutlich günstiger ist als ein Galaxy S25 Ultra (ab 1.129 Euro). Konkurrenz gibt es trotzdem genug, denn das reguläre Galaxy S25, das Pixel 9 und das iPhone 16 liegen preislich auf demselben Niveau. Fazit Das Phone (3) überzeugt auf ganzer Linie: Es verfügt über ein wunderschönes Display, eine erstklassige Verarbeitung und eine der besten Akkulaufzeiten unter den Smartphones des Jahres 2025. Der Snapdragon 8s Gen 4 sorgt für hohes Tempo und sieben Jahre Sicherheitsupdates sind ein starkes Argument. Allerdings hinkt es bei den Betriebssystem-Updates mit fünf Jahren hinter den Versprechen von Samsung und Google hinterher und auch die Kameras können nicht ganz mit den besten mithalten. Am Ende entscheidet das Design darüber, ob es das richtige Gerät für Sie ist. Mir persönlich sagt der Look nicht zu und vielen wird es ähnlich gehen. Deshalb kann ich es zu diesem Preis nicht uneingeschränkt gegenüber den wichtigsten Alternativen empfehlen. Wer das Design jedoch mag, bekommt ein rundum solides Gerät ohne größere Schwächen. Technische Daten: Nothing OS 3.5, basierend auf Android 15 6,67 Zoll, 1.260 × 2.800, AMOLED, 120 Hertz Optischer Fingerabdruckscanner im Display Qualcomm Snapdragon 8 Elite for Galaxy 12/16 GB RAM 256/512 GB Speicher 50 MP, f/1.7 Hauptkamera 50 MP, f/2.7 3x Periskop-Teleobjektiv 50 MP, f/2.2 Ultraweitwinkel 50 MP, f/2.2 Selfie Bis zu 4K bei 60 fps Video hinten Stereo-Lautsprecher Dual-SIM + eSIM Wi-Fi 7 Bluetooth 6.0 5.150 mAh Akku 65 Watt kabelgebundenes Laden 15 Watt kabelloses Laden 5 Watt Reverse Wireless Charging 160,6 × 75,6 x 9 mm IP68 Wasser- und Staubschutz 218 g Farben: Schwarz, Weiß (PC-Welt) > 

Nothing Phone (3) im Test: Das erste Flaggschiff von Nothing polarisiert mit seinem Design​ Anyron Copeman / Foundry

Auf einen Blick

Pro

Wunderschönes Display

Hervorragende Verarbeitungsqualität

Starke Leistung

Sehr gute Akkulaufzeit

Sieben Jahre Updates garantiert

Kontra

Ungewöhnliches Design

Enttäuschende Ultraweitwinkelkamera

Eingeschränktes “Glyph-Matrix”-Display (bisher)

Fazit

Das Nothing Phone (3) gehört zu den interessantesten Flaggschiffen der letzten Jahre – und das zu einem Preis von 799 Euro. Wer mit dem auffälligen Design nichts anfangen kann, fährt mit einem Pixel 9 oder Galaxy S25 zum gleichen Preis auf lange Sicht womöglich besser.

Im Jahr 2025 wirkt der Smartphone-Markt ziemlich eintönig. Die großen Hersteller setzen weiter auf bewährte Konzepte – das führt zwar zu Modellen, die sich gut verkaufen, aber selten wirklich begeistern.

Das britische Unternehmen Nothing geht einen anderen Weg. Mit bisher sechs Smartphones (plus zwei Modellen der Untermarke CMF) kombiniert es auffällige Hardware mit außergewöhnlicher Software. Trotzdem liegt der Marktanteil aktuell nur bei 0,2 Prozent.

Kann das erste echte Flaggschiff von Nothing das ändern? Das Phone (3) tritt gegen starke Konkurrenz wie das Pixel 9, Galaxy S25 und iPhone 16 an. Ich habe das Smartphone eine Woche lang als mein Hauptgerät genutzt und wollte herausfinden, ob es den Kampf mit Google, Samsung und Apple aufnehmen kann.

Design & Verarbeitung

Neues “Glyph-Matrix”-Display

Halbtransparentes Design bleibt erhalten

IP68-Zertifizierung für Wasser- und Staubschutz

Das Design des Phone (3) ist zweifellos der Hauptgrund, es zu kaufen. Es unterscheidet sich nicht nur deutlich von allen anderen Premium-Smartphones, sondern markiert auch einen großen Bruch zu den bisherigen Nothing-Modellen.

Die “Glyph Interface”-Leuchten der früheren Modelle sind verschwunden. Stattdessen gibt es jetzt ein neues “Glyph-Matrix”-Display in der oberen rechten Ecke.

Dominik Tomaszewski / Foundry

Dieses kleine, monochrome LED-Display bietet viel Potenzial und geht weit über die individuellen Benachrichtigungen und einzigartigen Anrufer-Lichtmuster früherer Modelle hinaus.Der Großteil der Funktionen dreht sich um die sogenannten “Glyph Toys”. Über eine spezielle “Glyph-Taste” auf der Rückseite können Sie durch kurzes Drücken zwischen den Toys wechseln und durch langes Drücken eines aktivieren. Die Bedienung ist sehr einfach, aber zum Start sind die Möglichkeiten noch stark eingeschränkt.

Bei meinem Testgerät standen nur vier Funktionen zur Verfügung: eine digitale Uhr, eine Stoppuhr, eine Akkuanzeige und ein “Flaschendrehen”-Tool. Nothing hat bestätigt, dass weitere “Glyph Toys” folgen werden, darunter ein Spiegel-Tool für Selfies mit der Hauptkamera, eine Sonnen-Uhr, ein Wasserwaagen-Tool und sogar eine Version des beliebten Magic-8-Ball-Spiels. Zum Start sind diese Funktionen aber noch nicht verfügbar.

Ich muss die “Glyph Matrix” so bewerten, wie sie aktuell ist – und das ist leider ziemlich enttäuschend.

Das Unternehmen hat bereits die relevanten Dateien für Entwickler bereitgestellt, sodass in Zukunft viele weitere Optionen von Drittanbietern möglich sind. Dennoch muss ich die Glyph-Matrix so bewerten, wie sie aktuell ist – und das fällt bedauerlicherweise ziemlich enttäuschend aus.

Auch die Anordnung der Rückkameras ist alles andere als gewöhnlich. Aus irgendeinem Grund hat Nothing den Teleobjektiv-Sensor diagonal über dem Hauptsensor platziert, statt den freien Platz neben der Weitwinkelkamera zu nutzen. Dadurch geht jegliche Symmetrie verloren.

Dominik Tomaszewski / Foundry

Nothing bleibt dem halbtransparenten Design treu, das bei meinem weißen Testmodell viel deutlicher auffällt als bei der schwarzen Variante. Ich finde diesen Look grundsätzlich ansprechend, auch wenn das Glas schnell Fingerabdrücke anzieht.

Gerade deshalb kann ich mir gut vorstellen, das Phone (3) ohne Hülle zu nutzen. Eine transparente Silikonhülle liegt zwar bei, aber sie nimmt dem einzigartigen Design etwas den Charme, und der Grip ist auch so schon sehr gut.

Die Robustheit überzeugt ebenfalls: Dank Gorilla Glass Victus auf der Rückseite, Gorilla Glass 7i vorn und einem stabilen Aluminiumrahmen hält das Gerät Stöße, Stürze und Kratzer gut aus. Zwar habe ich es nur bei ein paar Stürzen auf den Schreibtisch ausprobiert, aber das Phone (3) fühlt sich auf jeden Fall sehr hochwertig an.

Dominik Tomaszewski / Foundry

Das Phone (3) ist mit der IP68-Zertifizierung auf Flaggschiff-Niveau geschützt und übersteht bis zu 30 Minuten in 1,5 Metern Süßwasser. Auch Staub kann ihm nichts anhaben.

Wer ein besonders leichtes oder kompaktes Gerät sucht, wird hier allerdings nicht fündig. Mit Maßen von 160,6 × 75,6 × 9 Millimetern und einem Gewicht von 218 Gramm ist das Phone (3) recht groß und schwer.

Bildschirm & Lautsprecher

6,67-Zoll-AMOLED-Display

Full-HD+-Auflösung, 120 Hertz Bildwiederholrate

Stereo-Lautsprecher

Das Nothing Phone (3) hat ein 6,67-Zoll-AMOLED-Display mit einer Auflösung von 1.260 × 2.800 Pixeln. Es zeigt satte Farben und echte Schwarztöne. Das fällt besonders bei Videos, Spielen und beim Surfen auf.

Dominik Tomaszewski / Foundry

Wenn Ihnen die kräftigen Farben zu intensiv sind, können Sie in den Einstellungen vom Standard-“Alive”-Modus auf einen natürlicheren “Standard”-Modus wechseln. Dort lässt sich auch die Farbtemperatur individuell anpassen.

Die Bildwiederholrate von 120 Hertz ist heute Standard, wirkt auf dem Phone (3) aber besonders flüssig und schnell. Der voreingestellte “Dynamische” Modus passt die Rate automatisch an, auch wenn die LTPO-Technik des Vorgängers fehlt.

Trotz dunklem Modus und spiegelndem Display bleibt der Bildschirm dank einer Spitzenhelligkeit von 4.500 Nits auch bei direkter Sonneneinstrahlung gut ablesbar. Im Alltag erreicht das Panel solide 785 Nits – ein starker Wert für Innenräume.

Das OLED-Display überzeugt zudem mit HDR10+-Unterstützung, 1,07 Milliarden Farben und einer Touch-Abtastrate von 1.000 Hertz. Besonders auffällig: die extrem schmalen, symmetrischen Ränder und das starke Screen-to-Body-Verhältnis von 92,89 Prozent – ganz auf Flaggschiff-Niveau.

Im Display befindet sich ein optischer Fingerabdrucksensor, der in der Regel schnell und zuverlässig arbeitet. Allerdings reagiert er empfindlich auf Feuchtigkeit und ungewöhnliche Winkel. Im Vergleich zum Pixel 9 Pro XL habe ich auch das Gesichtserkennungssystem vermisst, mit dem sich Zahlungen und App-Log-ins bequem erledigen lassen – die Lösung im Phone (3) ist dafür nicht sicher genug.

Das Phone (3) verfügt über das übliche Stereo-Lautsprecher-Set-up, das man von Flaggschiffen kennt. Der Klang überzeugt nicht mit Wow-Effekt, bietet aber eine angenehme Tiefe und ist damit gut für entspanntes Musikhören und Telefonate geeignet. Zwei hochauflösende Mikrofone sorgen zudem dafür, dass Sprachaufnahmen und Videos klar und deutlich bleiben.

Ausstattung & Rechenleistung

Qualcomm Snapdragon 8s Gen 4

12/256 GB und 16/512 GB

Eines der ersten Smartphones mit Bluetooth 6.0

Das Phone (3) läuft mit dem Snapdragon 8s Gen 4. Sie fragen sich vielleicht, warum kein Top-Chip wie der Snapdragon 8 Elite zum Einsatz kommt. Genau das dachte ich auch. Doch im Test zeigt das Phone (3) trotz des schwächeren Chips eine beeindruckende Leistung.

Dominik Tomaszewski / Foundry

Das von mir getestete Modell kommt mit 16 Gigabyte Arbeitsspeicher, die günstigere Variante hat 12 Gigabyte. Im Alltag bewältigt das Phone (3) problemlos Surfen, E-Mails, Nachrichten, Anrufe und Fotos – selbst beim schnellen Wechsel zwischen den Apps gibt es keine Verzögerungen.

Tatsächlich ist das Phone (3) eines der schnellsten Smartphones, die ich seit Langem getestet habe. Es wirkt sogar flotter als das deutlich teurere Galaxy S25+ und das Pixel 9 Pro XL.

Beim Gaming zeigt das Phone (3) jedoch Grenzen: Bei anspruchsvollen Spielen wie “Call of Duty: Mobile”, “EA Sports FC” und “Real Racing 3” kommt es zu kleinen Rucklern, und die Rückseite wird ziemlich warm. Für Gelegenheitsspiele ist es aber bestens geeignet.

Insgesamt hat mich die Leistung des Phone (3) positiv überrascht. In Kombination mit der Bildwiederholrate von 120 Hertz ergibt das eine starke Performance.

Die Speicherkapazität hängt von der gewählten RAM-Größe ab: 12 Gigabyte RAM werden mit 256 Gigabyte internem Speicher kombiniert, 16 Gigabyte RAM sogar mit 512 Gigabyte. Für die meisten Nutzer sollte das ausreichen. Eine Speichererweiterung per Karte ist nicht möglich. Dafür gibt es einen Steckplatz für zwei physische SIM-Karten.

Außerdem unterstützt das Phone (3) als eines der ersten Smartphones den neuen Bluetooth-Standard 6.0. Dieser verspricht mehr Zuverlässigkeit, geringere Verzögerungen und höhere Sicherheit im Vergleich zu älteren Versionen.

Nothing Phone (3) benchmarks

Kameras

50-MP-Hauptkamera mit Blende f/1.7

50-MP-Periskop-Teleobjektiv mit dreifachem Zoom und Blende f/2.7

50-MP-Ultraweitwinkel mit Blende f/2.2

50-MP-Frontkamera mit Blende f/2.2

Auf dem Papier bietet das Nothing Phone (3) beeindruckende Kameras. Alle vier Sensoren – Hauptkamera mit Blende f/1.7, Ultraweitwinkel mit f/2.2, Periskop-Teleobjektiv mit f/2.7 und Frontkamera mit f/2.2 – lösen jeweils mit 50 Megapixel auf. So wird der übliche Trend, die Megapixelzahl bei den Zusatzlinsen zu reduzieren, vermieden.

Doch für wirklich gute Fotos und Videos zählt mehr als nur die Zahl der Megapixel. Wie schlägt sich das Nothing Phone (3) also in der Praxis?

Dominik Tomaszewski / Foundry

Insgesamt macht das Nothing Phone (3) eine hervorragende Figur. Die Hauptkamera ist ohne Zweifel das Highlight. Sie liefert klare, scharfe Fotos mit vielen Details. Der Dynamikumfang ist groß, und die Belichtung gelingt meist gut. Manchmal tut sie sich allerdings schwer, Schatten richtig einzufangen.

Die Fotos wirken generell sehr realistisch, bekommen aber genug Nachbearbeitung, damit sie sich problemlos in sozialen Netzwerken teilen lassen. Auch bei wenig Licht überzeugt das Gerät. Der automatisch aktivierte Nachtmodus sorgt für ausreichend Helligkeit, ohne unnatürlich zu wirken oder zu viel Bildrauschen zu erzeugen.

Einziger Wermutstropfen im Vergleich zur Konkurrenz ist die Unzuverlässigkeit. Die Hauptkamera liefert oft tolle Fotos, aber nicht bei jedem Schnappschuss. Bei etwa jedem fünften Bild gibt es kleine Mängel, sodass Sie sich nicht immer darauf verlassen können, schnell ein perfektes Foto zu machen. In Sachen Point-and-Shoot ist das Pixel 9 deutlich zuverlässiger.

Für Aufnahmen aus der Ferne sollten Sie den Periskop-Telezoom mit dreifachem optischen Zoom nutzen. Die Details bei zweifachem und dreifachem Zoom sind beeindruckend. Sobald der digitale Zoom zum Einsatz kommt, nimmt die Qualität allerdings schnell ab. Bis zu 60-fach heranzoomen ist möglich, aber nicht empfehlenswert.

Die Hauptkamera lässt sich zwar für Porträtfotos nutzen, doch die meisten Modi setzen auf das Telezoom-Objektiv. Einige meiner Bilder wirken dabei richtig professionell, auch wenn bei genauerem Hinsehen Schwächen bei der Kantenerkennung auffallen. Diese lassen sich aber einfach anpassen.

Da der Ultrawide-Sensor ebenfalls 50 Megapixel bietet, hatte ich hohe Erwartungen. Er ist zwar noch gut nutzbar, doch bei Belichtung, Dynamikumfang, Details und Farbgenauigkeit merkt man deutliche Einbußen, sodass der große Blickwinkel von 114 Grad kaum Vorteile bringt.

Eine Auswahl an Aufnahmen der Hauptkamera finden Sie in der Galerie unten:

Die Frontkamera ist für mich die beste von allen. Sie liefert durchweg klare und scharfe Selfies, bringt meinen Hautton gut zur Geltung und überbelichtet den Hintergrund nicht. Auch ein Porträtmodus ist vorhanden, der besser erkennt, wo mein Hemd endet und der Hintergrund beginnt.

Insgesamt liefern die Kameras des Phone (3) solide Ergebnisse und können in manchen Situationen sogar richtig überzeugen. Doch letztlich gibt es genug Schwächen, um nicht mit den besten Kamera-Smartphones auf dem Markt mithalten zu können.

Akkulaufzeit & Aufladen

5.150 mAh Akku

65 Watt kabelgebundenes Laden

15 Watt kabelloses Laden, kein Qi2

Das Nothing Phone (3) verfügt in den meisten Ländern über einen großzügigen Akku mit 5.150 Milliamperestunden, der allerdings deutlich kleiner ist als der 5.500 Milliamperestunden starke Akku der indischen Version.

Trotzdem war ich von der Akkulaufzeit positiv überrascht. In vielen Situationen hält das Phone (3) problemlos zwei Tage durch. Bei leichter Nutzung, etwa im Homeoffice, waren sogar fast drei Tage möglich.

Dominik Tomaszewski / Foundry

Klar, 72 Stunden ohne Aufladen sind nicht immer nötig, wenn eine Steckdose in der Nähe ist. Wichtig ist, dass Sie mit einer vollen Ladung problemlos bis zum Ende des Tages kommen – selbst bei viel GPS, mobilen Daten und hoher Displayhelligkeit. Wenn Sie nicht stundenlang spielen, begleitet Sie das Phone (3) sicher bis zum Schlafengehen.

Das zeigt auch unser PCMark-Akkutest, der realistische Alltagsszenarien bei 200 Nits Helligkeit simuliert. Mit 17 Stunden und 23 Minuten zählt das Phone (3) zu den besten Geräten, die wir getestet haben. Die Akkulaufzeit ist eindeutig eine der großen Stärken des Phone (3).

Mit dem offiziellen 65-Watt-Netzteil ist der Akku in nur 54 Minuten vollständig geladen – allerdings liegt dieses Ladegerät nicht bei und muss separat erworben werden. Im Test mit einem eigenen 65-Watt-Ladegerät dauerte eine vollständige Ladung rund 90 Minuten. Für einen schnellen Energieschub genügen bereits 30 Minuten, um den Akku auf 38 Prozent zu bringen – das reicht locker für mehrere Stunden Nutzung.

Dominik Tomaszewski / Foundry

Das Phone (3) unterstützt außerdem 15 Watt kabelloses Laden und 5 Watt Reverse Wireless Charging, allerdings noch nach dem älteren Qi-Standard und nicht dem aktuellen Qi2.

Benutzeroberfläche & Apps

Nothing OS 3.5 basiert auf Android 15

Android 16 ist für das dritte Quartal 2025 bestätigt

Fünf Jahre Betriebssystem-Updates, sieben Jahre Sicherheitsupdates

Das Nothing Phone (3) kommt mit Nothing OS 3.5, einer angepassten Version von Android 15. Das auf Android 16 basierende Nothing OS 4 erscheint im dritten Quartal 2025, also bis Ende September.

Das Phone (3) erhält fünf Jahre lang größere Android‑Version‑Updates und zusätzlich zwei Jahre Sicherheitsupdates – also insgesamt sieben Jahre Softwaresupport. Damit bietet es das bisher längste Update‑Versprechen von Nothing.

Dominik Tomaszewski / Foundry

Ich muss zugeben, dass ich den Reiz von Nothing OS früher nie ganz verstanden habe. Aber nachdem ich alles so eingerichtet hatte, wie ich es mag, hat mir die Nutzung richtig Spaß gemacht.

Das schwarze und rote Design, die futuristischen Icons und die vielen Widgets sorgen für ein wirklich einzigartiges Android-Erlebnis. Mein aktuelles Setup zeigt vier nützliche (und schicke) Widgets, wichtige Schnelleinstellungen und meine meistgenutzten Apps – aber die Möglichkeiten sind quasi endlos.

Praktisch finde ich auch die neue App-Übersicht, die Apps automatisch in Kategorien sortiert – meist auch ziemlich treffsicher. Häufig genutzte Apps werden größer angezeigt, was die Navigation spürbar erleichtert.

Nothing hat auch die Suchfunktion in der App-Übersicht verbessert. So können Sie jetzt bequem nach Kontakten, Fotos und Dateien suchen und zusätzlich die eigene generative KI nutzen. Letztere zeigte sich in meinem Test allerdings noch recht eingeschränkt: Sie liefert zwar ChatGPT-ähnliche Antworten auf einfache Fragen, kommt mit komplexeren Anfragen aber nicht gut klar.

Ansonsten setzt Nothing KI weiterhin eher dezent ein, etwa mit einigen ChatGPT-Integrationen, einem KI-Wallpaper-Generator und einem kuratierten Nachrichten-Widget.

Der größte Mehrwert bleibt jedoch „Essential Space“, das mit der (3a)-Serie eingeführt wurde. Damit lassen sich Bildschirmaufnahmen, Fotos, Videos oder Audioaufnahmen schnell erstellen und automatisch analysieren sowie zusammenfassen, um sie später leicht wiederzufinden. Zugriff darauf gibt es direkt über die seitliche “Essential Key”-Taste.

Dominik Tomaszewski / Foundry

Neu ist die Funktion “Flip to Record”. Sie startet eine Sprachaufnahme (mit anschließender Zusammenfassung), wenn Sie die “Essential Key”-Taste lange drücken und das Smartphone mit dem Display nach unten drehen. Das funktioniert wie beschrieben, fühlt sich aber nicht wirklich praktischer an, als einfach die Recorder-App zu öffnen.

Für mich wirkt “Essential Space” weiterhin oft überladen und unübersichtlich. Die Suchfunktion hilft zwar, aber ich persönlich nehme Inhalte lieber manuell auf und finde sie später in Google Fotos wieder. Mit der Zeit dürfte diese Funktion aber noch besser werden.

Preis & Verfügbarkeit

Im offiziellen Nothing-Online-Shop sowie bei Online-Händler Amazon ist das Nothing Phone (3) derzeit für 799 Euro erhältlich – egal, ob Sie sich für die Variante mit 256 oder 512 Gigabyte internem Speicher entscheiden.

Dieser Einstiegspreis macht es technisch gesehen zu einem Flaggschiff, auch wenn es deutlich günstiger ist als ein Galaxy S25 Ultra (ab 1.129 Euro). Konkurrenz gibt es trotzdem genug, denn das reguläre Galaxy S25, das Pixel 9 und das iPhone 16 liegen preislich auf demselben Niveau.

Fazit

Das Phone (3) überzeugt auf ganzer Linie: Es verfügt über ein wunderschönes Display, eine erstklassige Verarbeitung und eine der besten Akkulaufzeiten unter den Smartphones des Jahres 2025.

Der Snapdragon 8s Gen 4 sorgt für hohes Tempo und sieben Jahre Sicherheitsupdates sind ein starkes Argument. Allerdings hinkt es bei den Betriebssystem-Updates mit fünf Jahren hinter den Versprechen von Samsung und Google hinterher und auch die Kameras können nicht ganz mit den besten mithalten.

Am Ende entscheidet das Design darüber, ob es das richtige Gerät für Sie ist. Mir persönlich sagt der Look nicht zu und vielen wird es ähnlich gehen. Deshalb kann ich es zu diesem Preis nicht uneingeschränkt gegenüber den wichtigsten Alternativen empfehlen. Wer das Design jedoch mag, bekommt ein rundum solides Gerät ohne größere Schwächen.

Technische Daten:

Nothing OS 3.5, basierend auf Android 15

6,67 Zoll, 1.260 × 2.800, AMOLED, 120 Hertz

Optischer Fingerabdruckscanner im Display

Qualcomm Snapdragon 8 Elite for Galaxy

12/16 GB RAM

256/512 GB Speicher

50 MP, f/1.7 Hauptkamera

50 MP, f/2.7 3x Periskop-Teleobjektiv

50 MP, f/2.2 Ultraweitwinkel

50 MP, f/2.2 Selfie

Bis zu 4K bei 60 fps Video hinten

Stereo-Lautsprecher

Dual-SIM + eSIM

Wi-Fi 7

Bluetooth 6.0

5.150 mAh Akku

65 Watt kabelgebundenes Laden

15 Watt kabelloses Laden

5 Watt Reverse Wireless Charging

160,6 × 75,6 x 9 mm

IP68 Wasser- und Staubschutz

218 g

Farben: Schwarz, Weiß

(PC-Welt)

>

Nothing Phone (3) im Test: Das erste Flaggschiff von Nothing polarisiert mit seinem Design​ Weiterlesen »

Wi-Fi Direct mit Windows 11 und Android nutzen: So gehts​

Allgemein

Microsoft Diese Methode ist insbesondere für unterwegs gut geeignet, da die Geräte nicht mit einem Router verbunden sein müssen. Stattdessen bauen Sie eine Direktverbindung auf. Beginnen Sie mit dem Notebook. Öffnen Sie über das Startmenü die „Einstellungen“ und gehen Sie auf „Netzwerk und Internet“. Klicken Sie dort auf „Mobiler Hotspot“. Überprüfen Sie in einem ersten Schritt die Vorgaben unter „Netzwerkeigenschaften“. Als Kennwort ist dort meist „12345678“ angegeben, das sollten Sie ändern. Bei „Band“ ist die Voreinstellung „Alle verfügbaren“. Das bedeutet normalerweise, dass die Verbindung sowohl über das 2,4-GHz-Band als auch über das 5-GHz-Band hergestellt werden kann. Dafür muss Ihr Smartphone jedoch beide Frequenzbereiche unterstützen. Falls es sich lediglich im 2,4-GHz-Band in ein WLAN einloggen kann, müssen Sie auch diese Einstellung ändern. Klicken Sie hierzu auf den Button „Bearbeiten“, definieren Sie nun ein sicheres Kennwort und stellen Sie unter „Netzfrequenzbereich“ um auf „2,4 GHz“. Bestätigen Sie die Änderungen mit „Speichern“. Mit WiFi File Browser können Sie Ordner auf dem Smartphone sehen und Dateien auf den PC kopieren. Auch der umgekehrte Weg vom PC zum Phone funktioniert.IDG Im Anschluss daran können Sie den mobilen Hotspot über den Schalter oben im Fenster aktivieren. Das Notebook fungiert jetzt als Access Point und errichtet ein eigenes WLAN unter dem Namen, der bei „Netzwerkeigenschaften“ angegeben ist. Nehmen Sie danach Ihr Smartphone zur Hand. Damit Sie vom Notebook aus auf die Dateien des Telefons zugreifen können, brauchen Sie eine spezielle App. Öffnen Sie nun den Google Play Store, suchen Sie nach „WiFi File Browser“ und installieren Sie die Software. Auf dem Smartphone zeigt der WiFi File Browser eine HTTP-Adresse an, mit der Sie über den Browser auf Ihrem PC auf das Telefon zugreifen können.IDG Rufen Sie die „Einstellungen“ des Smartphones auf und tippen Sie auf „Netzwerk & Internet“. Wählen Sie unter „Internet –› WLAN“ das eben eingerichtete WLAN Ihres Notebooks aus und geben Sie das Passwort ein. Ob das Notebook per WLAN oder Ethernet mit dem Internet verbunden ist, spielt keine Rolle. Rufen Sie jetzt die App WiFi File Browser auf, bestätigen Sie den Zugriff auf die Daten des Smartphones und tippen Sie daraufhin auf „Start“. Der WiFi File Browser zeigt Ihnen nunmehr eine HTTP-Adresse. Wechseln Sie dann zum Computer, öffnen Sie einen beliebigen Browser und tippen Sie diese Adresse ein. Es öffnet sich eine vom WiFi File Browser bereitgestellte Oberfläche, über die Sie Zugriff auf die Ordner und Dateien Ihres Smartphones haben. Setzen Sie ein Häkchen vor den Namen der gewünschten Datei und klicken Sie jetzt auf „Download“. Der Browser kopiert das File im Folgenden in seinen Download-Ordner auf dem Computer. Um ein oder mehrere Dateien in die andere Richtung vom PC zum Smartphone zu übertragen, klicken Sie rechts im Feld „Upload Files“ auf „Datei auswählen“, markieren Sie ein File und klicken Sie auf „Öffnen“.   (PC-Welt) 

Wi-Fi Direct mit Windows 11 und Android nutzen: So gehts​ Microsoft

Diese Methode ist insbesondere für unterwegs gut geeignet, da die Geräte nicht mit einem Router verbunden sein müssen. Stattdessen bauen Sie eine Direktverbindung auf.

Beginnen Sie mit dem Notebook. Öffnen Sie über das Startmenü die „Einstellungen“ und gehen Sie auf „Netzwerk und Internet“. Klicken Sie dort auf „Mobiler Hotspot“. Überprüfen Sie in einem ersten Schritt die Vorgaben unter „Netzwerkeigenschaften“. Als Kennwort ist dort meist „12345678“ angegeben, das sollten Sie ändern.

Bei „Band“ ist die Voreinstellung „Alle verfügbaren“. Das bedeutet normalerweise, dass die Verbindung sowohl über das 2,4-GHz-Band als auch über das 5-GHz-Band hergestellt werden kann. Dafür muss Ihr Smartphone jedoch beide Frequenzbereiche unterstützen. Falls es sich lediglich im 2,4-GHz-Band in ein WLAN einloggen kann, müssen Sie auch diese Einstellung ändern.

Klicken Sie hierzu auf den Button „Bearbeiten“, definieren Sie nun ein sicheres Kennwort und stellen Sie unter „Netzfrequenzbereich“ um auf „2,4 GHz“. Bestätigen Sie die Änderungen mit „Speichern“.

Mit WiFi File Browser können Sie Ordner auf dem Smartphone sehen und Dateien auf den PC kopieren. Auch der umgekehrte Weg vom PC zum Phone funktioniert.IDG

Im Anschluss daran können Sie den mobilen Hotspot über den Schalter oben im Fenster aktivieren. Das Notebook fungiert jetzt als Access Point und errichtet ein eigenes WLAN unter dem Namen, der bei „Netzwerkeigenschaften“ angegeben ist. Nehmen Sie danach Ihr Smartphone zur Hand. Damit Sie vom Notebook aus auf die Dateien des Telefons zugreifen können, brauchen Sie eine spezielle App. Öffnen Sie nun den Google Play Store, suchen Sie nach „WiFi File Browser“ und installieren Sie die Software.

Auf dem Smartphone zeigt der WiFi File Browser eine HTTP-Adresse an, mit der Sie über den Browser auf Ihrem PC auf das Telefon zugreifen können.IDG

Rufen Sie die „Einstellungen“ des Smartphones auf und tippen Sie auf „Netzwerk & Internet“. Wählen Sie unter „Internet –› WLAN“ das eben eingerichtete WLAN Ihres Notebooks aus und geben Sie das Passwort ein. Ob das Notebook per WLAN oder Ethernet mit dem Internet verbunden ist, spielt keine Rolle. Rufen Sie jetzt die App WiFi File Browser auf, bestätigen Sie den Zugriff auf die Daten des Smartphones und tippen Sie daraufhin auf „Start“. Der WiFi File Browser zeigt Ihnen nunmehr eine HTTP-Adresse. Wechseln Sie dann zum Computer, öffnen Sie einen beliebigen Browser und tippen Sie diese Adresse ein. Es öffnet sich eine vom WiFi File Browser bereitgestellte Oberfläche, über die Sie Zugriff auf die Ordner und Dateien Ihres Smartphones haben. Setzen Sie ein Häkchen vor den Namen der gewünschten Datei und klicken Sie jetzt auf „Download“. Der Browser kopiert das File im Folgenden in seinen Download-Ordner auf dem Computer. Um ein oder mehrere Dateien in die andere Richtung vom PC zum Smartphone zu übertragen, klicken Sie rechts im Feld „Upload Files“ auf „Datei auswählen“, markieren Sie ein File und klicken Sie auf „Öffnen“.  

(PC-Welt)

Wi-Fi Direct mit Windows 11 und Android nutzen: So gehts​ Weiterlesen »

Google will jetzt doch den EU-AI-Act unterstützen​

Allgemein

Google hat angekündigt, den Verhaltenskodex der EU für allgemeine KI-Anwendungen, besser bekannt als EU AI Act, zu übernehmen. Zuvor hatte bereits die IT-Lobbygruppe Computer & Communications Industry Association (CCIA) Kritik geäußert: Das KI-Gesetz und der dazugehörige Kodex den Fortschritt Europas könnten Unternehmen bei der Entwicklung und dem Einsatz von Künstlicher Intelligenz (KI) sowie dazugehörigen Technologien behindern Der Verhaltenskodex ist ein freiwilliger Rahmen, der KI-Entwicklern als Leitfaden für die Einrichtung von Prozessen und Systemen dienen soll, die die Einhaltung des KI-Gesetzes unterstützen. Die Vorschriften des Gesetzes für allgemeine KI-Modelle, die als systemisches Risiko eingestuft werden, treten am 2. August in Kraft. Viele mögliche Betroffene und viel Skepsis Tech-Unternehmen wie OpenAI, Google, Meta und Anthropic werden voraussichtlich unter den Geltungsbereich der Vorschriften fallen. Die Regularien räumen den betroffenen Unternehmen eine Frist von zwei Jahren ein, um die vollständige Einhaltung des KI-Gesetzes zu erreichen. Viele Firmen in der Branche sind allerdings zunehmend besorgt über die möglichen Auswirkungen der EU-Vorschriften für KI. Besondere Bedenken haben sie hinsichtlich der Kosten für die Einhaltung der Vorschriften, operativer Hürden und möglicher Einschränkungen für Innovationen. Skepsis bleibt „Wir sind weiterhin besorgt, dass das KI-Gesetz und der KI-Kodex die Entwicklung und den Einsatz von KI in Europa verlangsamen könnten“, schreibt Kent Walker, Präsident für globale Angelegenheiten bei Google, in einem Blogbeitrag. „Insbesondere Abweichungen vom EU-Urheberrecht, Maßnahmen, die Genehmigungen verzögern, oder Anforderungen, die Geschäftsgeheimnisse offenlegen, könnten die Entwicklung und den Einsatz europäischer Modelle beeinträchtigen und damit die Wettbewerbsfähigkeit Europas schädigen.“ Bereits im Juni verdichteten sich die Anzeichen, dass auch Meta den Kodex nicht unterstützen werde. Im Juli kritisierte dann Joel Kaplan, Chief Global Affairs Officer bei Meta, die Regulierungsbemühungen der EU als übertrieben. Die Facebook-Mutter warnte, dass die Region einen falschen Ansatz bei der Überwachung von KI verfolge. Wettbewerbsvorteile durch Transparenz Googles Entscheidung, den Kodex zu übernehmen, könnte wiederum laut dessen Kunden insbesondere im internationalen Umfeld mehr Transparenz verschaffen, bewertet Tulika Sheel, Senior Vice President bei Kadence International, die Neuigkeit. Insbesondere was den Umgang mit Daten, die ergriffenen Sicherheitsmaßnahmen und die Einhaltung von Transparenzanforderungen betreffe. Die Marktforscherin betont, dass Googles Fokus auf verantwortungsvolle KI das Vertrauen von Kunden, Partnern und Behörden weltweit stärke. Das Vorgehen unterstreiche zudem die Bedeutung ethischer Standards und setze Wettbewerber unter Druck, ähnliche Maßnahmen zu ergreifen. Langfristig werde verantwortungsvolle KI-Entwicklung zu einem entscheidenden Wettbewerbsfaktor, so die Expertin. Gut zu bewältigende Herausforderungen Die neuen Vorschriften verlangen von großen KI-Entwicklern wie Google langfristige Maßnahmen zur Sicherstellung von Transparenz, Verantwortung und Risikomanagement. Deshalb müssen insbesondere große KI-Entwickler wie Google langfristige Prozesse etablieren. Ziel sei es die Sicherheit, Zuverlässigkeit und Regelkonformität ihrer Systeme dauerhaft zu gewährleisten, so Sheel. Aufgrund der Komplexität großer KI-Modelle erfordert dies enge teamübergreifende Zusammenarbeit. Google sei aber gut gerüstet, da das Unternehmen früh in verantwortungsvolle KI investiert habe. Zusätzlich verfüge der Konzern über die nötigen Ressourcen, um die Vorgaben fristgerecht umzusetzen. 

Google will jetzt doch den EU-AI-Act unterstützen​ Google hat angekündigt, den Verhaltenskodex der EU für allgemeine KI-Anwendungen, besser bekannt als EU AI Act, zu übernehmen. Zuvor hatte bereits die IT-Lobbygruppe Computer & Communications Industry Association (CCIA) Kritik geäußert: Das KI-Gesetz und der dazugehörige Kodex den Fortschritt Europas könnten Unternehmen bei der Entwicklung und dem Einsatz von Künstlicher Intelligenz (KI) sowie dazugehörigen Technologien behindern

Der Verhaltenskodex ist ein freiwilliger Rahmen, der KI-Entwicklern als Leitfaden für die Einrichtung von Prozessen und Systemen dienen soll, die die Einhaltung des KI-Gesetzes unterstützen. Die Vorschriften des Gesetzes für allgemeine KI-Modelle, die als systemisches Risiko eingestuft werden, treten am 2. August in Kraft.

Viele mögliche Betroffene und viel Skepsis

Tech-Unternehmen wie OpenAI, Google, Meta und Anthropic werden voraussichtlich unter den Geltungsbereich der Vorschriften fallen. Die Regularien räumen den betroffenen Unternehmen eine Frist von zwei Jahren ein, um die vollständige Einhaltung des KI-Gesetzes zu erreichen.

Viele Firmen in der Branche sind allerdings zunehmend besorgt über die möglichen Auswirkungen der EU-Vorschriften für KI. Besondere Bedenken haben sie hinsichtlich der Kosten für die Einhaltung der Vorschriften, operativer Hürden und möglicher Einschränkungen für Innovationen.

Skepsis bleibt

„Wir sind weiterhin besorgt, dass das KI-Gesetz und der KI-Kodex die Entwicklung und den Einsatz von KI in Europa verlangsamen könnten“, schreibt Kent Walker, Präsident für globale Angelegenheiten bei Google, in einem Blogbeitrag.

„Insbesondere Abweichungen vom EU-Urheberrecht, Maßnahmen, die Genehmigungen verzögern, oder Anforderungen, die Geschäftsgeheimnisse offenlegen, könnten die Entwicklung und den Einsatz europäischer Modelle beeinträchtigen und damit die Wettbewerbsfähigkeit Europas schädigen.“

Bereits im Juni verdichteten sich die Anzeichen, dass auch Meta den Kodex nicht unterstützen werde. Im Juli kritisierte dann Joel Kaplan, Chief Global Affairs Officer bei Meta, die Regulierungsbemühungen der EU als übertrieben. Die Facebook-Mutter warnte, dass die Region einen falschen Ansatz bei der Überwachung von KI verfolge.

Wettbewerbsvorteile durch Transparenz

Googles Entscheidung, den Kodex zu übernehmen, könnte wiederum laut dessen Kunden insbesondere im internationalen Umfeld mehr Transparenz verschaffen, bewertet Tulika Sheel, Senior Vice President bei Kadence International, die Neuigkeit. Insbesondere was den Umgang mit Daten, die ergriffenen Sicherheitsmaßnahmen und die Einhaltung von Transparenzanforderungen betreffe.

Die Marktforscherin betont, dass Googles Fokus auf verantwortungsvolle KI das Vertrauen von Kunden, Partnern und Behörden weltweit stärke. Das Vorgehen unterstreiche zudem die Bedeutung ethischer Standards und setze Wettbewerber unter Druck, ähnliche Maßnahmen zu ergreifen. Langfristig werde verantwortungsvolle KI-Entwicklung zu einem entscheidenden Wettbewerbsfaktor, so die Expertin.

Gut zu bewältigende Herausforderungen

Die neuen Vorschriften verlangen von großen KI-Entwicklern wie Google langfristige Maßnahmen zur Sicherstellung von Transparenz, Verantwortung und Risikomanagement.

Deshalb müssen insbesondere große KI-Entwickler wie Google langfristige Prozesse etablieren. Ziel sei es die Sicherheit, Zuverlässigkeit und Regelkonformität ihrer Systeme dauerhaft zu gewährleisten, so Sheel. Aufgrund der Komplexität großer KI-Modelle erfordert dies enge teamübergreifende Zusammenarbeit. Google sei aber gut gerüstet, da das Unternehmen früh in verantwortungsvolle KI investiert habe. Zusätzlich verfüge der Konzern über die nötigen Ressourcen, um die Vorgaben fristgerecht umzusetzen.

Google will jetzt doch den EU-AI-Act unterstützen​ Weiterlesen »

Digitale Souveränität beginnt beim Smartphone​

Allgemein

Das Fairphone mit Murena e/OS ermöglicht auch bei der mobilen Nutzung Unabhängigkeit von Nicht-EU-Diensten. Fairphone Angesichts geopolitischer Unsicherheiten, wachsender Abhängigkeiten von US-Tech-Konzernen und infrastruktureller Verwundbarkeit rückt das Thema digitale Souveränität in Europa zunehmend in den Fokus. Allerdings drehen sich die Diskussionen primär um Softwareanwendungen, Services und Datenbanken in der Cloud. Es gibt aber auch Bereiche, in denen die Infrastruktur stark von mobilen Geräten und Cloud-Systemen abhängig ist. Beispielsweise das Verkehrssystem, das Gesundheitswesen oder die öffentliche Verwaltung. Fallen diese Systeme aus oder werden gesperrt, drohen massive Beeinträchtigungen der Abläufe und der Versorgung der Bürger. Ein Extrembeispiel sei die Ukraine, wo ein Privatunternehmen in den USA darüber entscheide, ob die Satellitenkommunikation aktiv ist oder nicht, erklärt Michael Rödiger, Geschäftsführer von Cortado Mobile Solutions im Gespräch mit der Computerwoche. In solchen Fällen kann ein entfernter Entscheid zum politischen Hebel werden – mit unmittelbaren Folgen für Sicherheit, Kontrolle und Menschenleben. Doch die Abhängigkeit von einzelnen Anbietern betrifft längst nicht nur Kriegs- oder Krisengebiete. Auch im zivilen Bereich – insbesondere beim Einsatz von Smartphones in kritischen Infrastrukturen – wird die Verwundbarkeit digitaler Systeme deutlich. „Wenn ein Tech-Konzern am anderen Ende der Welt entscheidet, welche Funktionen verfügbar sind – oder ob ein Gerät nach einem Update überhaupt noch nutzbar ist –, dann hat das direkte Auswirkungen auf Arbeitsfähigkeit, Kommunikation und Sicherheit“, warnt Rödiger. Hardware aus Europa – Software ohne Google Eine solche souveräne Alternative (nicht nur) für die Smartphone-Nutzung in Unternehmen und Organisationen hat Cortado nun mit Partnern entwickelt. Als Betriebssystem kommt Murena /e/OS vom gleichnamigen französischen Hersteller zum Einsatz. /e/OS, das nicht nur vom Namen, sondern auch vom User Interface an Apples iOS erinnert, basiert dabei auf nativem, quelloffenem Android und ist völlig frei von Google-Diensten. Stattdessen baut Murena aktuell ein Ökosystem mit Playstore, Workspace & Co. auf. Die Smartphones im Bundle stammen vom niederländischen Hersteller Fairphone. Zwar werden auch diese Geräte physisch in China produziert, doch wie Cortado-Manager Rödiger betont, bleibe die digitale Kontrolle in Europa. Als Anbieter von Mobile-Device-Management- (MDM-)Lösungen liefert das Unternehmen die Verwaltungslösung dazu – entwickelt und betrieben in Deutschland. Der Fokus liege dabei auf vollständig verwalteten (Fully Managed) Geräten, etwa für Behörden oder kritische Infrastrukturen, erklärt Rödiger. BYOD- und gemischte Nutzung würden jedoch ebenfalls bald unterstützt. Die Murena-Geräte können wie herkömmliche Android- oder iOS-Devices mit Cortado verwaltet werden, derzeit allerdings nur fully managed. Cortado Digitale Souveränität geht nur stückchenweise Einen kleinen Haken gibt es allerdings: Cortado ist dem Trend zu Unified Endpoint Management (UEM) noch nicht gefolgt, sondern fokussiert sich auf die Verwaltung mobiler Endgeräte mit iOS und Android, sowie neu Murena /e/OS. Für Rechner, egal ob Windows, MacOS oder Linux, braucht es also eine andere Lösung. Für Rödiger ist das jedoch kein Problem, wie er erklärt. Cortado habe bewusst diesen Fokus gesetzt, um auch wirklich schnell auf Veränderungen reagieren zu können. „Wenn ich in ein Restaurant gehe, dann freue ich mich auch nicht unbedingt darüber, wenn ich bei dem Italiener künftig auch Burger bestellen kann, weil die sind in der Regel dann auch nicht gut.“ 

Digitale Souveränität beginnt beim Smartphone​ Das Fairphone mit Murena e/OS ermöglicht auch bei der mobilen Nutzung Unabhängigkeit von Nicht-EU-Diensten. Fairphone

Angesichts geopolitischer Unsicherheiten, wachsender Abhängigkeiten von US-Tech-Konzernen und infrastruktureller Verwundbarkeit rückt das Thema digitale Souveränität in Europa zunehmend in den Fokus. Allerdings drehen sich die Diskussionen primär um Softwareanwendungen, Services und Datenbanken in der Cloud.

Es gibt aber auch Bereiche, in denen die Infrastruktur stark von mobilen Geräten und Cloud-Systemen abhängig ist. Beispielsweise das Verkehrssystem, das Gesundheitswesen oder die öffentliche Verwaltung. Fallen diese Systeme aus oder werden gesperrt, drohen massive Beeinträchtigungen der Abläufe und der Versorgung der Bürger.

Ein Extrembeispiel sei die Ukraine, wo ein Privatunternehmen in den USA darüber entscheide, ob die Satellitenkommunikation aktiv ist oder nicht, erklärt Michael Rödiger, Geschäftsführer von Cortado Mobile Solutions im Gespräch mit der Computerwoche. In solchen Fällen kann ein entfernter Entscheid zum politischen Hebel werden – mit unmittelbaren Folgen für Sicherheit, Kontrolle und Menschenleben.

Doch die Abhängigkeit von einzelnen Anbietern betrifft längst nicht nur Kriegs- oder Krisengebiete. Auch im zivilen Bereich – insbesondere beim Einsatz von Smartphones in kritischen Infrastrukturen – wird die Verwundbarkeit digitaler Systeme deutlich. „Wenn ein Tech-Konzern am anderen Ende der Welt entscheidet, welche Funktionen verfügbar sind – oder ob ein Gerät nach einem Update überhaupt noch nutzbar ist –, dann hat das direkte Auswirkungen auf Arbeitsfähigkeit, Kommunikation und Sicherheit“, warnt Rödiger.

Hardware aus Europa – Software ohne Google

Eine solche souveräne Alternative (nicht nur) für die Smartphone-Nutzung in Unternehmen und Organisationen hat Cortado nun mit Partnern entwickelt. Als Betriebssystem kommt Murena /e/OS vom gleichnamigen französischen Hersteller zum Einsatz. /e/OS, das nicht nur vom Namen, sondern auch vom User Interface an Apples iOS erinnert, basiert dabei auf nativem, quelloffenem Android und ist völlig frei von Google-Diensten. Stattdessen baut Murena aktuell ein Ökosystem mit Playstore, Workspace & Co. auf.

Die Smartphones im Bundle stammen vom niederländischen Hersteller Fairphone. Zwar werden auch diese Geräte physisch in China produziert, doch wie Cortado-Manager Rödiger betont, bleibe die digitale Kontrolle in Europa.

Als Anbieter von Mobile-Device-Management- (MDM-)Lösungen liefert das Unternehmen die Verwaltungslösung dazu – entwickelt und betrieben in Deutschland. Der Fokus liege dabei auf vollständig verwalteten (Fully Managed) Geräten, etwa für Behörden oder kritische Infrastrukturen, erklärt Rödiger. BYOD- und gemischte Nutzung würden jedoch ebenfalls bald unterstützt.

Die Murena-Geräte können wie herkömmliche Android- oder iOS-Devices mit Cortado verwaltet werden, derzeit allerdings nur fully managed. Cortado

Digitale Souveränität geht nur stückchenweise

Einen kleinen Haken gibt es allerdings: Cortado ist dem Trend zu Unified Endpoint Management (UEM) noch nicht gefolgt, sondern fokussiert sich auf die Verwaltung mobiler Endgeräte mit iOS und Android, sowie neu Murena /e/OS. Für Rechner, egal ob Windows, MacOS oder Linux, braucht es also eine andere Lösung.

Für Rödiger ist das jedoch kein Problem, wie er erklärt. Cortado habe bewusst diesen Fokus gesetzt, um auch wirklich schnell auf Veränderungen reagieren zu können. „Wenn ich in ein Restaurant gehe, dann freue ich mich auch nicht unbedingt darüber, wenn ich bei dem Italiener künftig auch Burger bestellen kann, weil die sind in der Regel dann auch nicht gut.“

Digitale Souveränität beginnt beim Smartphone​ Weiterlesen »

Verkehrswende: Mit KI im ÖPNV schneller ans Ziel​

Allgemein

Dank vorausschauendem Routing, inklusive Sharing-Verkehrsmitteln, wird intermodale Mobilität so bequem, wie der Griff zum Autoschlüssel. raumobil GmbH, Fraunhofer IOSB Noch immer zählt das Auto zu den beliebtesten Verkehrsmitteln, denn es ist immer verfügbar, und die Fahrten sind einfach zu planen. Eine Fahrt mit Öffentlichen ist dagegen häufig kompliziert zu planen, vor allem wenn unterschiedliche Verkehrsmittel kombiniert werden müssen. Kommt die Deutsche Bahn pünktlich an, um den Anschlussbus zu erreichen? Sind am Zielort Leihräder oder E-Scooter verfügbar? Fragen und Faktoren, die die heute üblichen Routing-Apps in der Regel nicht berücksichtigen. Diese Punkte will das Fraunhofer-Instituts für Optronik, Systemtechnik und Bildauswertung (IOSB) mit dem Projekt DAKIMO angehen. Dazu hat das Karlsruher Institut eine KI-basierte Prognose für die Verfügbarkeit von Sharing-Verkehrsmitteln entwickelt. Diese berücksichtigt unter anderem Livedaten zur Verkehrslage. Mit Hilfe dieser Daten berechnet die KI die Wahrscheinlichkeit, an einem gewählten Ort im Stadtgebiet zu einer bestimmten Zeit ein Leihfahrrad oder einen E-Scooter vorzufinden. Intermodales Routing per APP Projektpartner raumobil GmbH nutzt diese Prognose für intermodales Routing. Sprich, eine Mobilitäts-App schlägt Verbindungen vom Start zum Ziel vor und kalkuliert auch die prognostizierten Verfügbarkeiten ein. Ziel der Projektpartner ist es, am Beispiel der regiomove-App des Karlsruher Verkehrsverbunds (KVV) intermodale Routenvorschläge Realität werden zu lassen. Wer die App nutzt, soll je nach aktueller Situation passgenaue Vorschläge für Verkehrsmittel erhalten, die optimal zu den individuellen Bedürfnissen und der jeweiligen Route passen. Das KI-gestützte Routing analysiert Verfügbarkeitswahrscheinlichkeiten, Fahrtdauer und Umstiegspunkte. Fraunhofer IOSB Für die Zukunft hat man am IOSB bereits große Pläne. Die KI-Prognose soll in den internationalen, weltweit gültigen Standard GBFS (General Bikeshare Feed Specification) integriert werden. Dabei handelt es sich um eine Echtzeit-Spezifikation für öffentliche Daten, die in erster Linie der Bereitstellung von Verkehrsinformationen wie Standortdaten für verbraucherorientierte Anwendungen dient. Neuer Datenstandard für die Mobilitätswende Derzeit läuft eine einjährige Evaluationsphase. Vor dem Einsatz im Alltag ist jedoch noch eine Hürde zu nehmen, wie Reinhard Herzog, der am Fraunhofer IOSB die Gruppe Modellbildung und Vernetzung leitet, erläutert: „Damit unsere KI-Technologie in den breiten Praxiseinsatz gebracht werden kann, ist es wichtig, dass der GBFS-Standard um prognostizierte Wahrscheinlichkeiten von Sharing-Fahrzeugen erweitert wird.“ KI-berechnete Aufenthaltswahrscheinlichkeiten von Sharing-Fahrrädern an einem Montag um 18:00 Uhr in Karlsruhe. Fraunhofer IOSB Ein Ansinnen, das vom MobilityData-Konsortium bereits akzeptiert wurde. Die gemeinnützige Organisation konzentriert sich auf die Standardisierung und den Austausch von Mobilitätsdaten. KI-Server bereits in Betrieb Basierend auf den GBFS-Daten sollen Routing-Apps in Zukunft intermodale Routenoptionen anbieten können. Der hierzu benötigte KI-Fusionsserver, über den alle Daten zusammengeführt werden, ist bereits in Betrieb. Er leitet KI-basiert die Verfügbarkeiten der Verkehrsmittel ab, die in Routenvorschläge einfließen. Zudem ist die KI-Prognose schon Bestandteil einer Testversion der Karlsruher regiomove-App, die verschiedenste Mobilitätsinstrumente für die Region Mittlerer Oberrhein miteinander vernetzt. Im nächsten Schritt soll das Prognosemodell auf den Raum Baden-Württemberg ausgerollt werden. 

Verkehrswende: Mit KI im ÖPNV schneller ans Ziel​ Dank vorausschauendem Routing, inklusive Sharing-Verkehrsmitteln, wird intermodale Mobilität so bequem, wie der Griff zum Autoschlüssel.
raumobil GmbH, Fraunhofer IOSB

Noch immer zählt das Auto zu den beliebtesten Verkehrsmitteln, denn es ist immer verfügbar, und die Fahrten sind einfach zu planen. Eine Fahrt mit Öffentlichen ist dagegen häufig kompliziert zu planen, vor allem wenn unterschiedliche Verkehrsmittel kombiniert werden müssen. Kommt die Deutsche Bahn pünktlich an, um den Anschlussbus zu erreichen? Sind am Zielort Leihräder oder E-Scooter verfügbar?

Fragen und Faktoren, die die heute üblichen Routing-Apps in der Regel nicht berücksichtigen. Diese Punkte will das Fraunhofer-Instituts für Optronik, Systemtechnik und Bildauswertung (IOSB) mit dem Projekt DAKIMO angehen. Dazu hat das Karlsruher Institut eine KI-basierte Prognose für die Verfügbarkeit von Sharing-Verkehrsmitteln entwickelt. Diese berücksichtigt unter anderem Livedaten zur Verkehrslage. Mit Hilfe dieser Daten berechnet die KI die Wahrscheinlichkeit, an einem gewählten Ort im Stadtgebiet zu einer bestimmten Zeit ein Leihfahrrad oder einen E-Scooter vorzufinden.

Intermodales Routing per APP

Projektpartner raumobil GmbH nutzt diese Prognose für intermodales Routing. Sprich, eine Mobilitäts-App schlägt Verbindungen vom Start zum Ziel vor und kalkuliert auch die prognostizierten Verfügbarkeiten ein. Ziel der Projektpartner ist es, am Beispiel der regiomove-App des Karlsruher Verkehrsverbunds (KVV) intermodale Routenvorschläge Realität werden zu lassen. Wer die App nutzt, soll je nach aktueller Situation passgenaue Vorschläge für Verkehrsmittel erhalten, die optimal zu den individuellen Bedürfnissen und der jeweiligen Route passen.

Das KI-gestützte Routing analysiert Verfügbarkeitswahrscheinlichkeiten, Fahrtdauer und Umstiegspunkte.
Fraunhofer IOSB

Für die Zukunft hat man am IOSB bereits große Pläne. Die KI-Prognose soll in den internationalen, weltweit gültigen Standard GBFS (General Bikeshare Feed Specification) integriert werden. Dabei handelt es sich um eine Echtzeit-Spezifikation für öffentliche Daten, die in erster Linie der Bereitstellung von Verkehrsinformationen wie Standortdaten für verbraucherorientierte Anwendungen dient.

Neuer Datenstandard für die Mobilitätswende

Derzeit läuft eine einjährige Evaluationsphase. Vor dem Einsatz im Alltag ist jedoch noch eine Hürde zu nehmen, wie Reinhard Herzog, der am Fraunhofer IOSB die Gruppe Modellbildung und Vernetzung leitet, erläutert: „Damit unsere KI-Technologie in den breiten Praxiseinsatz gebracht werden kann, ist es wichtig, dass der GBFS-Standard um prognostizierte Wahrscheinlichkeiten von Sharing-Fahrzeugen erweitert wird.“

KI-berechnete Aufenthaltswahrscheinlichkeiten von Sharing-Fahrrädern an einem Montag um 18:00 Uhr in Karlsruhe.
Fraunhofer IOSB

Ein Ansinnen, das vom MobilityData-Konsortium bereits akzeptiert wurde. Die gemeinnützige Organisation konzentriert sich auf die Standardisierung und den Austausch von Mobilitätsdaten.

KI-Server bereits in Betrieb

Basierend auf den GBFS-Daten sollen Routing-Apps in Zukunft intermodale Routenoptionen anbieten können. Der hierzu benötigte KI-Fusionsserver, über den alle Daten zusammengeführt werden, ist bereits in Betrieb. Er leitet KI-basiert die Verfügbarkeiten der Verkehrsmittel ab, die in Routenvorschläge einfließen.

Zudem ist die KI-Prognose schon Bestandteil einer Testversion der Karlsruher regiomove-App, die verschiedenste Mobilitätsinstrumente für die Region Mittlerer Oberrhein miteinander vernetzt. Im nächsten Schritt soll das Prognosemodell auf den Raum Baden-Württemberg ausgerollt werden.

Verkehrswende: Mit KI im ÖPNV schneller ans Ziel​ Weiterlesen »

Database-Design-Tipps für Entwickler​

Allgemein

Lassen Sie zu, dass Ihre Datenbank tut, was sie am besten kann?wee dezign | shutterstock.com Es ist ein universeller Fakt: Code beginnt im Zeitverlauf irgendwann zu “faulen”. Dieser Alterungsprozess wird auch als “Code Rot” bezeichnet und schreitet langsam aber stetig voran – wenn nichts dagegen unternommen wird. Ein Bereich, der in diesem Zusammenhang regelmäßig wenig Beachtung findet, ist das Datenbankdesign. Es gibt diverse Dinge, die in Bezug auf Datenbanken im Entwicklungsumfeld zu beachten sind – in diesem Artikel fokussiere ich mich allerdings auf einige Database-Design-Tipps, die weniger bekannt sind. 1. ID-Feld für jede Tabelle Es ist zwar umstritten, aber meiner Meinung nach sollte jede einzelne Datenbanktabelle einen Primär-Key namens ID aufweisen. Nicht CustomerID und auch nicht OrderID – einfach nur ID. Dabei sollte es sich um einen automatisch inkrementierten ganzzahligen Wert handeln (oder eventuell eine UUID, falls es einen wirklich guten Grund dafür gibt – beispielsweise ein verteiltes System). Natürlich sollte zudem ein Index für das ID-Feld vorhanden sein. Ein Mehrfeld-Key für eine Tabelle (die nicht einen Querverweis auf eine Many-to-Many-Beziehung darstellt) sollte den absoluten Ausnahmefall darstellen. 2. Keine Leerzeichen in Tabellen- und Feldnamen Wer auch immer die initiale Idee hatte, Feld- oder Tabellennamen mit Leerzeichen zu versehen, hat der Entwickler-Community einen Bärendienst erwiesen. Leerzeichen in Benennungen zwingen Devs einfach nur dazu, Anführungszeichen zu verwenden – die dann vergessen werden. Sich ständig fragen zu müssen, ob in die Quey, die man gerade schreibt, nun ein Leerzeichen reingehört oder nicht, ist unglaublich nervig. Das Gegenmittel: Nutzen Sie keine Leerzeichen, dann bleibt Ihnen das erspart. Und um Gottes Willen – nehmen Sie in diesem Zusammenhang ebenfalls Abstand davon, Unterstriche zu verwenden. Beim Gedanken an Benennungen_wie_diese_hier, möchten meine Finger direkt eine Arbeitsunfähigkeitsbescheinigung einreichen.   3. Tabellen sind Plural Tabellen repräsentieren viele Dinge. Deshalb bin ich der Überzeugung, dass ihre Benennungen immer den Plural aufweisen sollten. So wissen Sie dann auch direkt, dass mit Orders eine Tabelle gemeint ist. Sie einfach nur Order zu nennen, kann hingegen für Verwirrung sorgen – es könnte schließlich auch nur ein Feld in der Tabelle gemeint sein. 4. Foreign Keys brauchen Label Verweist eine Zeile in der Orders-Tabelle auf einen Kunden – stellt also einen Foreign Key dar – sollten Sie sie mit CustomerID benennen. Jedes Feld, das mit ID benannt ist, stellt einen Foreign Key für die – Tabelle dar. Damit stets klar ist, welche Felder Foreign Keys sind und auf welche Tabelle diese verweisen, sollten Sie das für Ihr gesamtes Datenbank-Schema konsequent beibehalten. 5. Abfragen indizieren Indizieren Sie jedes Feld, das in einer WHERE-, JOIN– oder ORDER BY-Klausel vorkommt. Auch in diesem Fall empfiehlt es sich, sich strikt daran zu halten – ansonsten sind Performance-Probleme im Nachgang vorprogrammiert. Es kann Ausnahmen geben – allerdings sollten Sie diese über Over- statt Under-Indexing finden. Gehen Sie einfach davon aus, dass ein Index erforderlich ist und lassen Sie im Anschluss ihren Query Analyzer die Indizes “behandeln”, die Probleme verursachen. 6. Referenzintegrität ist nicht optional Dass die Beziehungen zwischen Tabellen intakt bleiben und die Datenbank keine verwaisten Datensätze enthält, ist für die Datenintegrität essenziell. Alle modernen relationalen Datenbanken verfügen über Referenzintegrität. Diese Funktion sollten Sie nutzen und von Anfang an konsequent durchsetzen – statt sich auf Ihren Code zu verlassen, um diese Beziehungen aufrechtzuerhalten. 7. SQL-Einbettungen vermeiden Falls Sie jemals SQL in Ihren Code einbetten, werden Sie es bereuen. Denn das verkompliziert Ihren Code und koppelt ihn in einer Weise an Ihre Datenbank, dass am Ende ein riesiger Haufen Spaghetti-Code steht. Auch hier gilt: Überlassen Sie die Arbeit der Datenbank. Wenn Sie SQL in Ihrem Code verwenden müssen, halten Sie es getrennt und verlangen Sie dem Compiler nicht ab, das zu verarbeiten. Speichern Sie das SQL in separaten Dateien, die eingebettet oder außerhalb des Codes genutzt werden können – und aktualisiert werden können, ohne die Codelogik verändern zu müssen. 8. Zusatztipps Wenn Sie jemals das Bedürfnis verspüren, Felder hinzuzufügen, die auf 1, 2, 3 und so weiter enden – geben Sie dem nicht nach. Informieren Sie sich stattdessen über Normalisierung. Nutzen Sie den richtigen Datentyp für Tabellenspalten, sehen Sie davon ab Zahlen für Boolesche Werte und Strings für Datumsangaben zu verwenden. Erwägen Sie, jede Tabelle um die Zeitstempel-Felder CreatedAt und UpdatedAt zu ergänzen. Das kann Ihnen die Arbeit im Nachgang wesentlich erleichtern. Die Timestamps mit Triggern zu automatisieren, erhöht ihren Nutzwert zusätzlich. Parametrisierte, gespeicherte Prozesse sind etwa Gutes. Verwenden Sie sie so oft wie möglich. Ihr Query Analyzer kann wesentlich besser als Sie “beurteilen”, wie Daten optimal abgefragt werden. Null verwandelt Boolesche Werte in Quantum States. Diese sind weder true noch false, bis jemand eine Abfrage ausführt. Booleans sollten Sie entsprechend nur einsetzen, wenn Sie genau wissen, was Null in diesem Zusammenhang bedeutet. Verlassen Sie sich nicht auf String-Werte, um einen State zu definieren. Verwenden Sie stattdessen einen Aufzählungswert. Das gewährleistet, dass die Daten niemals falsch sind. Lassen Sie nicht zu, dass ein Tippfehler wie status = ‚bananna‘ einen Fehler verursacht. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Database-Design-Tipps für Entwickler​ Lassen Sie zu, dass Ihre Datenbank tut, was sie am besten kann?wee dezign | shutterstock.com

Es ist ein universeller Fakt: Code beginnt im Zeitverlauf irgendwann zu “faulen”. Dieser Alterungsprozess wird auch als “Code Rot” bezeichnet und schreitet langsam aber stetig voran – wenn nichts dagegen unternommen wird. Ein Bereich, der in diesem Zusammenhang regelmäßig wenig Beachtung findet, ist das Datenbankdesign.

Es gibt diverse Dinge, die in Bezug auf Datenbanken im Entwicklungsumfeld zu beachten sind – in diesem Artikel fokussiere ich mich allerdings auf einige Database-Design-Tipps, die weniger bekannt sind.

1. ID-Feld für jede Tabelle

Es ist zwar umstritten, aber meiner Meinung nach sollte jede einzelne Datenbanktabelle einen Primär-Key namens ID aufweisen. Nicht CustomerID und auch nicht OrderID – einfach nur ID. Dabei sollte es sich um einen automatisch inkrementierten ganzzahligen Wert handeln (oder eventuell eine UUID, falls es einen wirklich guten Grund dafür gibt – beispielsweise ein verteiltes System). Natürlich sollte zudem ein Index für das ID-Feld vorhanden sein.

Ein Mehrfeld-Key für eine Tabelle (die nicht einen Querverweis auf eine Many-to-Many-Beziehung darstellt) sollte den absoluten Ausnahmefall darstellen.

2. Keine Leerzeichen in Tabellen- und Feldnamen

Wer auch immer die initiale Idee hatte, Feld- oder Tabellennamen mit Leerzeichen zu versehen, hat der Entwickler-Community einen Bärendienst erwiesen. Leerzeichen in Benennungen zwingen Devs einfach nur dazu, Anführungszeichen zu verwenden – die dann vergessen werden. Sich ständig fragen zu müssen, ob in die Quey, die man gerade schreibt, nun ein Leerzeichen reingehört oder nicht, ist unglaublich nervig. Das Gegenmittel: Nutzen Sie keine Leerzeichen, dann bleibt Ihnen das erspart.

Und um Gottes Willen – nehmen Sie in diesem Zusammenhang ebenfalls Abstand davon, Unterstriche zu verwenden. Beim Gedanken an Benennungen_wie_diese_hier, möchten meine Finger direkt eine Arbeitsunfähigkeitsbescheinigung einreichen.  

3. Tabellen sind Plural

Tabellen repräsentieren viele Dinge. Deshalb bin ich der Überzeugung, dass ihre Benennungen immer den Plural aufweisen sollten. So wissen Sie dann auch direkt, dass mit Orders eine Tabelle gemeint ist. Sie einfach nur Order zu nennen, kann hingegen für Verwirrung sorgen – es könnte schließlich auch nur ein Feld in der Tabelle gemeint sein.

4. Foreign Keys brauchen Label

Verweist eine Zeile in der Orders-Tabelle auf einen Kunden – stellt also einen Foreign Key dar – sollten Sie sie mit CustomerID benennen.

Jedes Feld, das mit ID benannt ist, stellt einen Foreign Key für die – Tabelle dar. Damit stets klar ist, welche Felder Foreign Keys sind und auf welche Tabelle diese verweisen, sollten Sie das für Ihr gesamtes Datenbank-Schema konsequent beibehalten.

5. Abfragen indizieren

Indizieren Sie jedes Feld, das in einer WHERE-, JOIN– oder ORDER BY-Klausel vorkommt. Auch in diesem Fall empfiehlt es sich, sich strikt daran zu halten – ansonsten sind Performance-Probleme im Nachgang vorprogrammiert.

Es kann Ausnahmen geben – allerdings sollten Sie diese über Over- statt Under-Indexing finden. Gehen Sie einfach davon aus, dass ein Index erforderlich ist und lassen Sie im Anschluss ihren Query Analyzer die Indizes “behandeln”, die Probleme verursachen.

6. Referenzintegrität ist nicht optional

Dass die Beziehungen zwischen Tabellen intakt bleiben und die Datenbank keine verwaisten Datensätze enthält, ist für die Datenintegrität essenziell. Alle modernen relationalen Datenbanken verfügen über Referenzintegrität.

Diese Funktion sollten Sie nutzen und von Anfang an konsequent durchsetzen – statt sich auf Ihren Code zu verlassen, um diese Beziehungen aufrechtzuerhalten.

7. SQL-Einbettungen vermeiden

Falls Sie jemals SQL in Ihren Code einbetten, werden Sie es bereuen. Denn das verkompliziert Ihren Code und koppelt ihn in einer Weise an Ihre Datenbank, dass am Ende ein riesiger Haufen Spaghetti-Code steht. Auch hier gilt: Überlassen Sie die Arbeit der Datenbank.

Wenn Sie SQL in Ihrem Code verwenden müssen, halten Sie es getrennt und verlangen Sie dem Compiler nicht ab, das zu verarbeiten. Speichern Sie das SQL in separaten Dateien, die eingebettet oder außerhalb des Codes genutzt werden können – und aktualisiert werden können, ohne die Codelogik verändern zu müssen.

8. Zusatztipps

Wenn Sie jemals das Bedürfnis verspüren, Felder hinzuzufügen, die auf 1, 2, 3 und so weiter enden – geben Sie dem nicht nach. Informieren Sie sich stattdessen über Normalisierung.

Nutzen Sie den richtigen Datentyp für Tabellenspalten, sehen Sie davon ab Zahlen für Boolesche Werte und Strings für Datumsangaben zu verwenden.

Erwägen Sie, jede Tabelle um die Zeitstempel-Felder CreatedAt und UpdatedAt zu ergänzen. Das kann Ihnen die Arbeit im Nachgang wesentlich erleichtern. Die Timestamps mit Triggern zu automatisieren, erhöht ihren Nutzwert zusätzlich.

Parametrisierte, gespeicherte Prozesse sind etwa Gutes. Verwenden Sie sie so oft wie möglich.

Ihr Query Analyzer kann wesentlich besser als Sie “beurteilen”, wie Daten optimal abgefragt werden.

Null verwandelt Boolesche Werte in Quantum States. Diese sind weder true noch false, bis jemand eine Abfrage ausführt. Booleans sollten Sie entsprechend nur einsetzen, wenn Sie genau wissen, was Null in diesem Zusammenhang bedeutet.

Verlassen Sie sich nicht auf String-Werte, um einen State zu definieren. Verwenden Sie stattdessen einen Aufzählungswert. Das gewährleistet, dass die Daten niemals falsch sind. Lassen Sie nicht zu, dass ein Tippfehler wie status = ‚bananna‘ einen Fehler verursacht.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Database-Design-Tipps für Entwickler​ Weiterlesen »

Datenbank-How-to für App-Entwickler​

Allgemein

Erfolgreiche Apps brauchen die richtige Datenbank. dotshock | shutterstock.com App-Entwickler können sich bei der Datenbankwahl auf möglicherweise Bias-behaftete Empfehlungen von Anbietern verlassen oder einfach auf eine zufällig bereits existierende Lösung zurückzugreifen. Zielführender ist es allerdings, zunächst einen Blick auf den angestrebten Zweck und die grundlegenden Anforderungen an den Datenspeicher zu werfen. Dazu sollten sich Developer die folgenden 13 Fragen stellen – und diese möglichst ehrlich beantworten. Anderenfalls riskieren sie, ihr Projekt mit einer ungeeigneten und/oder überteuerten Datenbanklösung anzugehen. Das kann sich in vielfacher Hinsicht negativ auswirken, zum Beispiel auf die App-Performance und -Programmierbarkeit.  1. Welche Datenmengen wollen Sie speichern? Wenn Sie Daten im Gigabyte-Umfang (oder weniger) speichern möchten, können Sie nahezu jede Datenbank (DB) einsetzen, um Ihre Informationen zu verarbeiten – im Regelfall auch In-Memory-DBs. Selbst wenn Sie sich eher im Terabyte-Bereich bewegen, stehen Ihnen diverse Datenbankoptionen offen. Geht es hingegen um Petabytes (oder mehr), schwindet die Optionsvielfalt – und Sie dürfen mit erheblichen Storage-Kosten rechnen (entweder für On-Premises-Lösungen oder für den Betrieb einer Cloud-Lösung). Wenn Sie sich in diesen Größenordnungen bewegen, empfiehlt sich ein Stufen-basiertes Storage-Modell, das ermöglicht, „Live“-Daten zu Gunsten der Geschwindigkeit über In-Memory-Lösungen oder lokale SSDs abzufragen. Der vollständige Datensatz liegt dabei aus wirtschaftlichen Gründen auf gewöhnlichen Festplatten. Falls Sie mit einem Datenvolumen von mehreren hundert Petabytes oder etlichen Exabytes planen, stehen Ihnen nur noch wenige, (brauchbare) Datenbankoptionen offen. Deshalb ist es umso wichtiger, Lösungen für den Exabyte-Bereich besonders gründlich zu evaluieren. Sie bringen enorme finanzielle Verpflichtungen mit sich und können nur noch schwer verändert werden, wenn die Daten einmal eingeladen sind.    Einige Unternehmen kombinieren Data-Lake- (für alle Daten) mit Data-Warehouse-Lösungen (für Teilmengen der Daten) – andere setzen auf eine Data-Lakehouse-Architektur, wie sie Databricks oder Dremio anbieten. Wieder andere verwenden Datenbanken, die aus dem ursprünglichen Google-Spanner-Whitepaper (PDF) abgeleitet wurden. Dazu zählen beispielsweise: Google Cloud Spanner (SQL und NoSQL), HBase (NoSQL), Cassandra (NoSQL), DataStax (NoSQL), ScyllaDB (NoSQL), CockroachDB (SQL) oder auch „Sharded Extensions“ von SQL-Datenbanken wie Vitess und PlanetScale. 2. Wie viele User sollen simultan bedient werden? Die Last einzuschätzen, die durch viele simultane Benutzer entsteht, wird in vielen Fällen als „Server Sizing Exercise“ betrachtet, der kurz vor der Installation der Produktionsdatenbank Rechnung getragen wird. Unglücklicherweise sind viele Datenbanken aufgrund von Skalierungsproblemen nicht dazu in der Lage, Tausende von Benutzern zu händeln, die Daten in Teraybyte- oder Petabyte-Umfang abfragen. Im Fall einer nicht-öffentlichen, internen Datenbank, die von Mitarbeitern eines Unternehmens genutzt wird, ist es wesentlich einfacher, die Zahl der parallelen Benutzer einzuschätzen. Öffentlich zugängliche DBs sollten zudem bei unerwarteten Lastspitzen über mehrere Server skalieren. Leider unterstützen nicht alle Datenbanklösungen eine horizontale Skalierung ohne (zeitaufwändiges) manuelles Sharding großer Tabellen. Datenbankindizes mit Read/Write-Zugriff können die Anzahl gleichzeitiger Abfragen in transaktionalen SQL-Datenbanken begrenzen. In einigen Fällen werden transaktionale DBs auch mit analytischen kombiniert, um dieses Problem zu umgehen (mehr dazu unter Punkt 7). 3. Wie sehen Ihre Anforderungen aus? Zu den Anforderungsbereichen gehören: Verfügbarkeit, Skalierbarkeit, Latenz, Durchsatz und Datenkonsistenz. Im Folgenden betrachten wir diese im Einzelnen. Die Verfügbarkeit ist oft ein Schlüsselkriterium für transaktionale Datenbanken – insbesondere, wenn die zugrunde liegende Applikation rund um die Uhr (stabil) laufen soll. Einige wenige Cloud-Datenbanken können eine Availability von 99,999 Prozent realisieren – sofern sie in mehreren Verfügbarkeitszonen betrieben werden. In der Vergangenheit war Skalierbarkeit – insbesondere auf horizontaler Ebene – eher eine Sache für NoSQL-DBs. Inzwischen holen SQL-Datenbanken in diesem Bereich auf. Dynamisch zu skalieren, lässt sich innerhalb einer Cloud-Umgebung deutlich einfacher bewerkstelligen und gewährleistet, den Durchsatz auf die Anzahl der parallelen Nutzer abzustimmen. Die Latenz(zeit) bezieht sich sowohl darauf, wie lange die Datenbank braucht um zu antworten, als auch auf die „End-to-End“-Antwortzeit der Applikation. Idealerweise bewegen sich die Antwortzeiten bei User-Interaktionen in einem Bereich von unter einer Sekunde. Die DB muss einfache Transaktionen also in weniger als 100 Millisekunden beantworten. Analytische Abfragen können hingegen oft mehrere Sekunden oder Minuten in Anspruch nehmen. Das lässt sich abmildern, indem komplexe Queries im Hintergrund abgearbeitet werden. Der Durchsatz wird im Fall einer OLTP-Datenbank normalerweise in Transaktionen pro Sekunde gemessen. Je höher der Throughput einer Datenbank, desto mehr User können parallel bedient werden. Die Datenkonsistenz ist bei SQL-Datenbanken in der Regel „strong“, was bedeutet, dass alle Lesevorgänge aktuelle Daten zurückgeben. Bei NoSQL-Datenbanken kann die Datenkonsistenz zwischen „eventual“ und „strong“ variieren. Ist sie weniger ausgeprägt, kann das in geringeren Latenzzeiten resultieren. Dann besteht allerdings auch das Risiko, dass veraltete Daten zurückgegeben werden.  4. Wie stabil sind Ihre Datenbankschemata? SQL-Datenbanken sind eine gute Wahl, wenn es eher unwahrscheinlich ist, dass sich Ihre Datenbankschemata im Laufe der Zeit verändern. Und Sie Wert darauf legen, dass die Mehrzahl der Felder konsistente Typen aufweist.  Anderenfalls fahren Sie möglicherweise mit einer Lösung aus dem NoSQL-Bereich besser. Diese Datenbanken unterstützen in manchen Fällen gar keine Schemata. Wie immer bestätigen auch hier Ausnahmen die Regel: So ermöglicht etwa die Datenbanklösung Rockset SQL-Abfragen, ohne den importierten Daten ein festes Schema oder konsistente Typen aufzuerlegen. 5. Wie sind die User geografisch verteilt? Wenn Ihre Datenbankbenutzer über die ganze Welt verteilt sind, kann bereits das Netzwerk zu Verzögerungen im Bereich von mehreren Hundert Millisekunden führen. Es sei denn, Sie stellen zusätzliche Server in den entsprechenden Regionen bereit. Dieser Aspekt erschwert es (zusätzlich), eine Balance zwischen Konsistenz und Latenz zu finden. Einige Datenbanken bieten Support für Read-Write-Server, andere offerieren verteilte Read-Only-Server, bei der alle Schreibvorgänge über einen Master Server laufen. Das Gros der DBs, die global verteilte Knoten und ausgeprägte Konsistenz unterstützen, nutzt Consensus Groups, um Schreibvorgänge zu beschleunigen, ohne dabei die Konsistenz maßgeblich zu beeinträchtigen. Dabei kommt im Regelfall der Paxos– (PDF) oder Raft-Algorithmus zur Anwendung.  Verteilte NoSQL-Datenbanken, deren Konsistenz „eventual“ ist, verwenden in der Regel eine Peer-to-Peer-Replikation ohne Konsensverfahren. Das kann zu Konflikten führen, wenn zwei Replikate gleichzeitig Schreibzugriff auf denselben Datensatz erhalten, wobei diese in der Regel heuristisch gelöst werden. 6. Wie sieht Ihr Data Shape aus? SQL-Datenbanken speichern traditionellerweise stark typisierte Daten in Tabellen mit Zeilen und Spalten. Dabei: stützen sie sich auf definierte Beziehungen zwischen Tabellen, verwenden Indizes, um ausgewählte Abfragen zu beschleunigen, und nutzen JOINS, um mehrere Tabellen gleichzeitig abzufragen. Im NoSQL-Bereich speichern Dokumentdatenbanken in der Regel schwach typisierte JSON-Daten, die Arrays und verschachtelte Dokumente enthalten können. Graph-Datenbanken speichern entweder Vertexes, Edges, Triples oder Quads. Weitere NoSQL-Datenbankkategorien sind Key-Value- und Columnar-Stores. Manchmal werden die Daten in einer Form generiert, die auch für Analysezwecke geeignet ist. Wenn nicht, müssen sie transformiert werden. Dabei ist wichtig zu wissen, dass manche Datenbanken auf anderen aufbauen. Key-Value-Stores können beispielsweise nahezu jeder Art von Datenbank zugrunde liegen. 7. OLTP, OLAP – oder beides? Um diese Frage beantworten zu können, sollten Sie wissen, ob Ihre Applikation eine Datenbank für Echtzeit-Transaktionen (OLTP), für Datenanalysen (OLAP) oder für beides benötigt. Dabei gilt es zu berücksichtigen:  Schnelle Transaktionen bedeuten eine hohe Schreibgeschwindigkeit und minimale Indizes. Datenanalysen benötigen eine hohe Lesegeschwindigkeit und eine Vielzahl von Indizes. Hybride Systeme versuchen durch verschiedene Tricks beide Anforderungen zu erfüllen – beispielsweise mit primären Transaktionsspeichern, die per Datenreplikation einen sekundären Analysespeicher speisen. 8. Welche Read/Write-Ratio erwarten Sie? Einige Datenbanken performen besser bei Lesevorgängen und Queries, andere bei Write-Prozessen. Sie tun deshalb gut daran, Ihre Auswahlkriterien in Sachen Datenbank um das Read/Write-Verhältnis zu erweitern, dass Sie für Ihre Anwendung erwarten. Geht es um die Wahl des optimalen Index Type, kommt es darauf an, ob Ihre Applikation besonders lese- (im Regelfall ein B-Tree) oder schreibintensiv (oft ein LSM-Tree) ist.  9. Geografische oder Full-Text-Queries? Wenn Sie geografische oder geometrische Daten effizient abfragen wollen, um Objekte innerhalb eines definierten Bereichs zu finden, benötigen Sie andere Indizes als bei „typischen“, relationalen Daten. Die bevorzugte Wahl für Geospatial-Daten ist im Regelfall ein R-Tree. Es stehen jedoch mehrere andere Datenstrukturen für räumliche Indizes zur Verfügung. Unterstützt werden sie von ein paar Dutzend Datenbanken – in den allermeisten Fällen spielt dabei der Standard des Open Geospatial Consortium eine Rolle. Auch eine effiziente Volltextsuche in Textfeldern erfordert „andere“ Indizes. In der Regel wird dazu ein invertierter Listenindex mit tokenisierten Wörtern erstellt und durchsucht, um einen kostenintensiven Tabellenscan zu vermeiden. 10. Welche Programmiersprachen bevorzugen Sie? Zwar unterstützen die allermeisten Datenbanken diverse Programmiersprachen über APIs. Dennoch kann die von Ihnen bevorzugte Sprache die Wahl der Datenbank beeinflussen. JSON ist zum Beispiel das natürliche Datenformat für JavaScript. Für eine JavaScript-Anwendung sollten Sie demnach möglichst eine Datenbank wählen, die den JSON-Datentyp unterstützt. Wenn Sie eine stark typisierte Programmiersprache nutzen, sollten Sie entsprechend auch eine stark typisierte Datenbank wählen. 11. Gibt es budgetäre Beschränkungen Das Preisspektrum bei Datenbanken reicht von kostenlos bis extrem teuer und deckt diverse Versionen und verschiedene Serviceausprägungen ab.  Falls Ihre Wahl auf eine kostenlose Open-Source-Datenbank fällt, sollten Sie sich bewusst sein, dass Sie möglicherweise auf (Anbieter-)Support verzichten müssen. Sie sollten das hierfür nötige Knowhow also selbst mitbringen. Auf der anderen Seite kann es sich mit Blick auf die Produktivität als förderlich erweisen, sich auf die Anwendung zu fokussieren und Datenbank-Management- sowie -Wartungsaufgaben einem (Cloud-)Anbieter zu überlassen. 12. Gibt es rechtliche Einschränkungen? Geht es um Datenschutz und Datensicherheit, kommen diverse Gesetze zur Anwendung. In Europa hat in erster Linie die Datenschutzgrundverordnung (DSGVO/GDPR) weitreichende Auswirkungen, in den USA beispielsweise HIPAA, GLBA oder CCPA.   Diverse Datenbanklösungen versprechen, Daten so zu verarbeiten, dass einige oder auch alle dieser Regelwerke eingehalten werden (wenn bestimmte Best Practices zur Anwendung kommen). Andere DBs weisen Sicherheitslücken auf, die sie für die Arbeit mit personenbezogenen Daten unbrauchbar machen. 13. SQL oder NoSQL? Um diese Frage zu beantworten, werfen wir einen Blick auf zwei (extreme) Beispielfälle: Sie benötigen sehr niedrige Latenzzeiten und einen hohen Durchsatz, die kurzfristige Konsistenz ist Ihnen egal, solange die Daten nach ein paar Minuten konsistent aussehen. Ihre Daten werden durch Key-Value-Datensätze angemessen repräsentiert und Sie legen Wert auf umfassende, horizontale Skalierbarkeit. In diesem Fall steht außer Zweifel, dass Sie auf eine NoSQL-Key-Value-Datenbank setzen sollten. Sie tracken Finanztransaktionen und müssen die ACID-Eigenschaften für alle Transaktionen gewährleisten, selbst wenn diese mehrere Tabellen in geografisch verteilten Regionen betreffen. Alle anderen Überlegungen, wie niedrige Latenzzeiten und hoher Durchsatz, sind schön und gut, aber mit Blick auf zuverlässige, genaue Transaktionen zweitrangig. In diesem Fall sollten Sie auf eine – vorzugsweise verteilte – SQL-Datenbank zurückgreifen. Natürlich gibt es diverse Fälle, die zwischen diesen Extrembeispielen liegen – zu viele, um sie in diesem Rahmen aufzuführen. Welche Datenbank für Ihre Fälle die Richtige ist, ergibt sich im Wesentlichen aus Ihren Antworten auf die vorangegangenen zwölf Fragen. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Datenbank-How-to für App-Entwickler​ Erfolgreiche Apps brauchen die richtige Datenbank.
dotshock | shutterstock.com

App-Entwickler können sich bei der Datenbankwahl auf möglicherweise Bias-behaftete Empfehlungen von Anbietern verlassen oder einfach auf eine zufällig bereits existierende Lösung zurückzugreifen. Zielführender ist es allerdings, zunächst einen Blick auf den angestrebten Zweck und die grundlegenden Anforderungen an den Datenspeicher zu werfen.

Dazu sollten sich Developer die folgenden 13 Fragen stellen – und diese möglichst ehrlich beantworten. Anderenfalls riskieren sie, ihr Projekt mit einer ungeeigneten und/oder überteuerten Datenbanklösung anzugehen. Das kann sich in vielfacher Hinsicht negativ auswirken, zum Beispiel auf die App-Performance und -Programmierbarkeit. 

1. Welche Datenmengen wollen Sie speichern?

Wenn Sie Daten im Gigabyte-Umfang (oder weniger) speichern möchten, können Sie nahezu jede Datenbank (DB) einsetzen, um Ihre Informationen zu verarbeiten – im Regelfall auch In-Memory-DBs. Selbst wenn Sie sich eher im Terabyte-Bereich bewegen, stehen Ihnen diverse Datenbankoptionen offen.

Geht es hingegen um Petabytes (oder mehr), schwindet die Optionsvielfalt – und Sie dürfen mit erheblichen Storage-Kosten rechnen (entweder für On-Premises-Lösungen oder für den Betrieb einer Cloud-Lösung). Wenn Sie sich in diesen Größenordnungen bewegen, empfiehlt sich ein Stufen-basiertes Storage-Modell, das ermöglicht, „Live“-Daten zu Gunsten der Geschwindigkeit über In-Memory-Lösungen oder lokale SSDs abzufragen. Der vollständige Datensatz liegt dabei aus wirtschaftlichen Gründen auf gewöhnlichen Festplatten.

Falls Sie mit einem Datenvolumen von mehreren hundert Petabytes oder etlichen Exabytes planen, stehen Ihnen nur noch wenige, (brauchbare) Datenbankoptionen offen. Deshalb ist es umso wichtiger, Lösungen für den Exabyte-Bereich besonders gründlich zu evaluieren. Sie bringen enorme finanzielle Verpflichtungen mit sich und können nur noch schwer verändert werden, wenn die Daten einmal eingeladen sind.   

Einige Unternehmen kombinieren Data-Lake- (für alle Daten) mit Data-Warehouse-Lösungen (für Teilmengen der Daten) – andere setzen auf eine Data-Lakehouse-Architektur, wie sie Databricks oder Dremio anbieten. Wieder andere verwenden Datenbanken, die aus dem ursprünglichen Google-Spanner-Whitepaper (PDF) abgeleitet wurden. Dazu zählen beispielsweise:

Google Cloud Spanner (SQL und NoSQL),

HBase (NoSQL),

Cassandra (NoSQL),

DataStax (NoSQL),

ScyllaDB (NoSQL),

CockroachDB (SQL) oder auch

„Sharded Extensions“ von SQL-Datenbanken wie Vitess und PlanetScale.

2. Wie viele User sollen simultan bedient werden?

Die Last einzuschätzen, die durch viele simultane Benutzer entsteht, wird in vielen Fällen als „Server Sizing Exercise“ betrachtet, der kurz vor der Installation der Produktionsdatenbank Rechnung getragen wird. Unglücklicherweise sind viele Datenbanken aufgrund von Skalierungsproblemen nicht dazu in der Lage, Tausende von Benutzern zu händeln, die Daten in Teraybyte- oder Petabyte-Umfang abfragen.

Im Fall einer nicht-öffentlichen, internen Datenbank, die von Mitarbeitern eines Unternehmens genutzt wird, ist es wesentlich einfacher, die Zahl der parallelen Benutzer einzuschätzen. Öffentlich zugängliche DBs sollten zudem bei unerwarteten Lastspitzen über mehrere Server skalieren. Leider unterstützen nicht alle Datenbanklösungen eine horizontale Skalierung ohne (zeitaufwändiges) manuelles Sharding großer Tabellen.

Datenbankindizes mit Read/Write-Zugriff können die Anzahl gleichzeitiger Abfragen in transaktionalen SQL-Datenbanken begrenzen. In einigen Fällen werden transaktionale DBs auch mit analytischen kombiniert, um dieses Problem zu umgehen (mehr dazu unter Punkt 7).

3. Wie sehen Ihre Anforderungen aus?

Zu den Anforderungsbereichen gehören:

Verfügbarkeit,

Skalierbarkeit,

Latenz,

Durchsatz und

Datenkonsistenz.

Im Folgenden betrachten wir diese im Einzelnen.

Die Verfügbarkeit ist oft ein Schlüsselkriterium für transaktionale Datenbanken – insbesondere, wenn die zugrunde liegende Applikation rund um die Uhr (stabil) laufen soll. Einige wenige Cloud-Datenbanken können eine Availability von 99,999 Prozent realisieren – sofern sie in mehreren Verfügbarkeitszonen betrieben werden.

In der Vergangenheit war Skalierbarkeit – insbesondere auf horizontaler Ebene – eher eine Sache für NoSQL-DBs. Inzwischen holen SQL-Datenbanken in diesem Bereich auf. Dynamisch zu skalieren, lässt sich innerhalb einer Cloud-Umgebung deutlich einfacher bewerkstelligen und gewährleistet, den Durchsatz auf die Anzahl der parallelen Nutzer abzustimmen.

Die Latenz(zeit) bezieht sich sowohl darauf, wie lange die Datenbank braucht um zu antworten, als auch auf die „End-to-End“-Antwortzeit der Applikation. Idealerweise bewegen sich die Antwortzeiten bei User-Interaktionen in einem Bereich von unter einer Sekunde. Die DB muss einfache Transaktionen also in weniger als 100 Millisekunden beantworten. Analytische Abfragen können hingegen oft mehrere Sekunden oder Minuten in Anspruch nehmen. Das lässt sich abmildern, indem komplexe Queries im Hintergrund abgearbeitet werden.

Der Durchsatz wird im Fall einer OLTP-Datenbank normalerweise in Transaktionen pro Sekunde gemessen. Je höher der Throughput einer Datenbank, desto mehr User können parallel bedient werden.

Die Datenkonsistenz ist bei SQL-Datenbanken in der Regel „strong“, was bedeutet, dass alle Lesevorgänge aktuelle Daten zurückgeben. Bei NoSQL-Datenbanken kann die Datenkonsistenz zwischen „eventual“ und „strong“ variieren. Ist sie weniger ausgeprägt, kann das in geringeren Latenzzeiten resultieren. Dann besteht allerdings auch das Risiko, dass veraltete Daten zurückgegeben werden. 

4. Wie stabil sind Ihre Datenbankschemata?

SQL-Datenbanken sind eine gute Wahl, wenn es eher unwahrscheinlich ist, dass sich Ihre Datenbankschemata im Laufe der Zeit verändern. Und Sie Wert darauf legen, dass die Mehrzahl der Felder konsistente Typen aufweist. 

Anderenfalls fahren Sie möglicherweise mit einer Lösung aus dem NoSQL-Bereich besser. Diese Datenbanken unterstützen in manchen Fällen gar keine Schemata. Wie immer bestätigen auch hier Ausnahmen die Regel: So ermöglicht etwa die Datenbanklösung Rockset SQL-Abfragen, ohne den importierten Daten ein festes Schema oder konsistente Typen aufzuerlegen.

5. Wie sind die User geografisch verteilt?

Wenn Ihre Datenbankbenutzer über die ganze Welt verteilt sind, kann bereits das Netzwerk zu Verzögerungen im Bereich von mehreren Hundert Millisekunden führen. Es sei denn, Sie stellen zusätzliche Server in den entsprechenden Regionen bereit. Dieser Aspekt erschwert es (zusätzlich), eine Balance zwischen Konsistenz und Latenz zu finden. Einige Datenbanken bieten Support für Read-Write-Server, andere offerieren verteilte Read-Only-Server, bei der alle Schreibvorgänge über einen Master Server laufen.

Das Gros der DBs, die global verteilte Knoten und ausgeprägte Konsistenz unterstützen, nutzt Consensus Groups, um Schreibvorgänge zu beschleunigen, ohne dabei die Konsistenz maßgeblich zu beeinträchtigen. Dabei kommt im Regelfall der Paxos– (PDF) oder Raft-Algorithmus zur Anwendung. 

Verteilte NoSQL-Datenbanken, deren Konsistenz „eventual“ ist, verwenden in der Regel eine Peer-to-Peer-Replikation ohne Konsensverfahren. Das kann zu Konflikten führen, wenn zwei Replikate gleichzeitig Schreibzugriff auf denselben Datensatz erhalten, wobei diese in der Regel heuristisch gelöst werden.

6. Wie sieht Ihr Data Shape aus?

SQL-Datenbanken speichern traditionellerweise stark typisierte Daten in Tabellen mit Zeilen und Spalten. Dabei:

stützen sie sich auf definierte Beziehungen zwischen Tabellen,

verwenden Indizes, um ausgewählte Abfragen zu beschleunigen, und

nutzen JOINS, um mehrere Tabellen gleichzeitig abzufragen.

Im NoSQL-Bereich speichern Dokumentdatenbanken in der Regel schwach typisierte JSON-Daten, die Arrays und verschachtelte Dokumente enthalten können. Graph-Datenbanken speichern entweder Vertexes, Edges, Triples oder Quads. Weitere NoSQL-Datenbankkategorien sind Key-Value- und Columnar-Stores.

Manchmal werden die Daten in einer Form generiert, die auch für Analysezwecke geeignet ist. Wenn nicht, müssen sie transformiert werden. Dabei ist wichtig zu wissen, dass manche Datenbanken auf anderen aufbauen. Key-Value-Stores können beispielsweise nahezu jeder Art von Datenbank zugrunde liegen.

7. OLTP, OLAP – oder beides?

Um diese Frage beantworten zu können, sollten Sie wissen, ob Ihre Applikation eine Datenbank für Echtzeit-Transaktionen (OLTP), für Datenanalysen (OLAP) oder für beides benötigt. Dabei gilt es zu berücksichtigen: 

Schnelle Transaktionen bedeuten eine hohe Schreibgeschwindigkeit und minimale Indizes.

Datenanalysen benötigen eine hohe Lesegeschwindigkeit und eine Vielzahl von Indizes.

Hybride Systeme versuchen durch verschiedene Tricks beide Anforderungen zu erfüllen – beispielsweise mit primären Transaktionsspeichern, die per Datenreplikation einen sekundären Analysespeicher speisen.

8. Welche Read/Write-Ratio erwarten Sie?

Einige Datenbanken performen besser bei Lesevorgängen und Queries, andere bei Write-Prozessen. Sie tun deshalb gut daran, Ihre Auswahlkriterien in Sachen Datenbank um das Read/Write-Verhältnis zu erweitern, dass Sie für Ihre Anwendung erwarten.

Geht es um die Wahl des optimalen Index Type, kommt es darauf an, ob Ihre Applikation besonders lese- (im Regelfall ein B-Tree) oder schreibintensiv (oft ein LSM-Tree) ist. 

9. Geografische oder Full-Text-Queries?

Wenn Sie geografische oder geometrische Daten effizient abfragen wollen, um Objekte innerhalb eines definierten Bereichs zu finden, benötigen Sie andere Indizes als bei „typischen“, relationalen Daten. Die bevorzugte Wahl für Geospatial-Daten ist im Regelfall ein R-Tree. Es stehen jedoch mehrere andere Datenstrukturen für räumliche Indizes zur Verfügung. Unterstützt werden sie von ein paar Dutzend Datenbanken – in den allermeisten Fällen spielt dabei der Standard des Open Geospatial Consortium eine Rolle.

Auch eine effiziente Volltextsuche in Textfeldern erfordert „andere“ Indizes. In der Regel wird dazu ein invertierter Listenindex mit tokenisierten Wörtern erstellt und durchsucht, um einen kostenintensiven Tabellenscan zu vermeiden.

10. Welche Programmiersprachen bevorzugen Sie?

Zwar unterstützen die allermeisten Datenbanken diverse Programmiersprachen über APIs. Dennoch kann die von Ihnen bevorzugte Sprache die Wahl der Datenbank beeinflussen.

JSON ist zum Beispiel das natürliche Datenformat für JavaScript. Für eine JavaScript-Anwendung sollten Sie demnach möglichst eine Datenbank wählen, die den JSON-Datentyp unterstützt. Wenn Sie eine stark typisierte Programmiersprache nutzen, sollten Sie entsprechend auch eine stark typisierte Datenbank wählen.

11. Gibt es budgetäre Beschränkungen

Das Preisspektrum bei Datenbanken reicht von kostenlos bis extrem teuer und deckt diverse Versionen und verschiedene Serviceausprägungen ab. 

Falls Ihre Wahl auf eine kostenlose Open-Source-Datenbank fällt, sollten Sie sich bewusst sein, dass Sie möglicherweise auf (Anbieter-)Support verzichten müssen. Sie sollten das hierfür nötige Knowhow also selbst mitbringen.

Auf der anderen Seite kann es sich mit Blick auf die Produktivität als förderlich erweisen, sich auf die Anwendung zu fokussieren und Datenbank-Management- sowie -Wartungsaufgaben einem (Cloud-)Anbieter zu überlassen.

12. Gibt es rechtliche Einschränkungen?

Geht es um Datenschutz und Datensicherheit, kommen diverse Gesetze zur Anwendung. In Europa hat in erster Linie die Datenschutzgrundverordnung (DSGVO/GDPR) weitreichende Auswirkungen, in den USA beispielsweise HIPAA, GLBA oder CCPA.  

Diverse Datenbanklösungen versprechen, Daten so zu verarbeiten, dass einige oder auch alle dieser Regelwerke eingehalten werden (wenn bestimmte Best Practices zur Anwendung kommen). Andere DBs weisen Sicherheitslücken auf, die sie für die Arbeit mit personenbezogenen Daten unbrauchbar machen.

13. SQL oder NoSQL?

Um diese Frage zu beantworten, werfen wir einen Blick auf zwei (extreme) Beispielfälle:

Sie benötigen sehr niedrige Latenzzeiten und einen hohen Durchsatz, die kurzfristige Konsistenz ist Ihnen egal, solange die Daten nach ein paar Minuten konsistent aussehen. Ihre Daten werden durch Key-Value-Datensätze angemessen repräsentiert und Sie legen Wert auf umfassende, horizontale Skalierbarkeit. In diesem Fall steht außer Zweifel, dass Sie auf eine NoSQL-Key-Value-Datenbank setzen sollten.

Sie tracken Finanztransaktionen und müssen die ACID-Eigenschaften für alle Transaktionen gewährleisten, selbst wenn diese mehrere Tabellen in geografisch verteilten Regionen betreffen. Alle anderen Überlegungen, wie niedrige Latenzzeiten und hoher Durchsatz, sind schön und gut, aber mit Blick auf zuverlässige, genaue Transaktionen zweitrangig. In diesem Fall sollten Sie auf eine – vorzugsweise verteilte – SQL-Datenbank zurückgreifen.

Natürlich gibt es diverse Fälle, die zwischen diesen Extrembeispielen liegen – zu viele, um sie in diesem Rahmen aufzuführen. Welche Datenbank für Ihre Fälle die Richtige ist, ergibt sich im Wesentlichen aus Ihren Antworten auf die vorangegangenen zwölf Fragen.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Datenbank-How-to für App-Entwickler​ Weiterlesen »

Nach oben scrollen
×