Computerhaus Quickborn

Allgemein

ServiceNow setzt voll auf KI-Agenten​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?quality=50&strip=all 7010w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>ServiceNow-Chef Bill McDermott sieht in KI und insbesondere KI-Agenten enormes Potenzial – für Kunden und seine Company.ServiceNow In den 20 Jahren seines Bestehens hat sich ServiceNow darauf konzentriert, Workflows zu digitalisieren, zu automatisieren und zu optimieren. Auf der Basis dieser Architektur sieht sich der Spezialist für Workflow-Automation nun in einer guten Position, KI in alle Bereiche des Unternehmens zu integrieren – und das nativ in jeder Schicht der neuen ServiceNow-KI-Plattform, egal ob Benutzeroberfläche, Datenbank oder Automatisierungsschicht.  „ServiceNow leitet mit der ServiceNow KI-Plattform eine neue Ära der Unternehmenstransformation ein“, erklärte der charismatische Firmenchef Bill McDermott in seiner Keynote. „Wir entfesseln die volle Kraft der KI für jede Branche, jeden Mitarbeitenden und jeden Workflow.”  Die neu konzipierte ServiceNow- KI-Plattform kombiniert Intelligenz, Daten und Orchestrierung – und soll Unternehmen so befähigen, von isolierten Pilotprojekten zur umfassenden Umsetzung von KI überzugehen. Dies geschieht über einen intelligenten, dialogfähigen „AI Engagement Layer“. Diese Ebene ermöglicht es Kunden, komplexe Aufgaben systemübergreifend zu erledigen, indem sie auf Knowledge Graph, Workflow Data Fabric und AI Agent Fabric von ServiceNow zugreifen – alle nahtlos verbunden mit den Datenlandschaften und agentischen Strukturen des Unternehmens.   Weitere Knowledge-2025-Neuheiten  Neben der KI-Plattform führt ServiceNow weitere Funktionen ein, um den Nutzen von KI im gesamten Unternehmen zu steigern. Zu den neuen Lösungen und Partnerschaften gehören:  • Der AI Control Tower ist eine zentrale Kommandozentrale, um jeden KI-Agenten, jedes KI-Modell und jeden KI-Workflow von ServiceNow und Drittanbietern auf einer einheitlichen Plattform zu steuern, zu verwalten, zu sichern und zu nutzen. Aufbauend auf dem kürzlich angekündigten „AI Agent Orchestrator“ ist er in alle Workflows der ServiceNow AI Platform integriert. Zu den Funktionen gehören integrierte Compliance und KI-Governance, ein durchgängiges Lifecycle-Management für agentenbasierte Vorgänge sowie Echtzeitberichte, um die KI-Leistung anhand von Kennzahlen wie Produktivität und Umsatzauswirkungen zu überwachen und zu validieren.  • Die AI Agent Fabric ist wiederum eine dynamisch verbundene Schicht, die es KI-Agenten ermöglicht, miteinander zu kommunizieren, sich zu koordinieren und kontinuierlich voneinander zu lernen. Laut ServiceNow stellt sie das Rückgrat des gesamten KI-Ökosystems dar, da sie die Kommunikation zwischen Agenten, Orchestratoren und Tools vereinheitlicht und sicherstellt, dass sowohl ServiceNow- als auch Drittanbieter-Agenten dynamisch Informationen austauschen können. Unterstützt werden gängige Protokolle wie das Model Context Protocol (MCP) von Anthropic und Googles Agent2Agent Protocol (A2A).  • ServiceNow CRM: Bereits Ende Januar angekündigt, geht ServiceNow nun mit einer agentengestützten Customer-Relationship-Management-Lösung an den Start. Statt „umbenannter Chatbots“ sollen Kunden mithilfe der KI-Agenten den gesamten Vertriebs- und Serviceprozess auf einer einzigen KI-gestützten Plattform koordinieren und so den gesamten Kundenlebenszyklus effizienter verwalten können, beschreibt John Ball, Executive Vice President und General Manager für CRM und Branchen-Workflows bei ServiceNow, die Lösung. Auf diese Weise sollen Unternehmen in der Lage sein, vom reaktiven Support hin zu proaktiver Kundenbindung über den gesamten Customer Lifecycle zu wechseln – von der Konfiguration, Preisgestaltung und Angebotserstellung über die Auftragsabwicklung bis hin zu Kundenservice und Vertragsverlängerung.  • Apriel Nemotron 15B: Ein neues Reasoning-Sprachmodell und eine integrierte Data-Flywheel-Architektur, entwickelt von ServiceNow in Zusammenarbeit mit NVIDIA, sollen die skalierbare und intelligente, agentische KI vorantreiben. Das Open-Source-LLM ist den beiden Unternehmen zufolge auf Leistung, Kosteneffizienz und Skalierbarkeit ausgelegt und soll eine hohe Genauigkeit, eine geringere Latenz, niedrigere Inferenzkosten und schnellere, agentische KI für jedes Unternehmen bieten.   Mit der Einführung der ServiceNow University, ehemals Now Learning, will das Unternehmen außerdem Mitarbeitern, Kunden und Partnern die Möglichkeit geben, Fähigkeiten für den sich durch KI(-Agenten) wandelnden Arbeitsplatz zu entwickeln. Der Plan ist laut McDermott, bis 2027 drei Millionen Beschäftigte über die Plattform zu erreichen.   Aus Sicht manches ServiceNow-Kunden ist dies angesichts der Geschwindigkeit, mit der das Unternehmen Innovationen vorantreibt, auch dringend nötig. So fehle oft das Knowhow bei Partnern, wenn eine neue Funktion integriert werden soll.  

ServiceNow setzt voll auf KI-Agenten​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?quality=50&strip=all 7010w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>ServiceNow-Chef Bill McDermott sieht in KI und insbesondere KI-Agenten enormes Potenzial – für Kunden und seine Company.ServiceNow

In den 20 Jahren seines Bestehens hat sich ServiceNow darauf konzentriert, Workflows zu digitalisieren, zu automatisieren und zu optimieren. Auf der Basis dieser Architektur sieht sich der Spezialist für Workflow-Automation nun in einer guten Position, KI in alle Bereiche des Unternehmens zu integrieren – und das nativ in jeder Schicht der neuen ServiceNow-KI-Plattform, egal ob Benutzeroberfläche, Datenbank oder Automatisierungsschicht. 

„ServiceNow leitet mit der ServiceNow KI-Plattform eine neue Ära der Unternehmenstransformation ein“, erklärte der charismatische Firmenchef Bill McDermott in seiner Keynote. „Wir entfesseln die volle Kraft der KI für jede Branche, jeden Mitarbeitenden und jeden Workflow.” 

Die neu konzipierte ServiceNow- KI-Plattform kombiniert Intelligenz, Daten und Orchestrierung – und soll Unternehmen so befähigen, von isolierten Pilotprojekten zur umfassenden Umsetzung von KI überzugehen. Dies geschieht über einen intelligenten, dialogfähigen „AI Engagement Layer“. Diese Ebene ermöglicht es Kunden, komplexe Aufgaben systemübergreifend zu erledigen, indem sie auf Knowledge Graph, Workflow Data Fabric und AI Agent Fabric von ServiceNow zugreifen – alle nahtlos verbunden mit den Datenlandschaften und agentischen Strukturen des Unternehmens.  

Weitere Knowledge-2025-Neuheiten 

Neben der KI-Plattform führt ServiceNow weitere Funktionen ein, um den Nutzen von KI im gesamten Unternehmen zu steigern. Zu den neuen Lösungen und Partnerschaften gehören: 

• Der AI Control Tower ist eine zentrale Kommandozentrale, um jeden KI-Agenten, jedes KI-Modell und jeden KI-Workflow von ServiceNow und Drittanbietern auf einer einheitlichen Plattform zu steuern, zu verwalten, zu sichern und zu nutzen. Aufbauend auf dem kürzlich angekündigten „AI Agent Orchestrator“ ist er in alle Workflows der ServiceNow AI Platform integriert. Zu den Funktionen gehören integrierte Compliance und KI-Governance, ein durchgängiges Lifecycle-Management für agentenbasierte Vorgänge sowie Echtzeitberichte, um die KI-Leistung anhand von Kennzahlen wie Produktivität und Umsatzauswirkungen zu überwachen und zu validieren. 

• Die AI Agent Fabric ist wiederum eine dynamisch verbundene Schicht, die es KI-Agenten ermöglicht, miteinander zu kommunizieren, sich zu koordinieren und kontinuierlich voneinander zu lernen. Laut ServiceNow stellt sie das Rückgrat des gesamten KI-Ökosystems dar, da sie die Kommunikation zwischen Agenten, Orchestratoren und Tools vereinheitlicht und sicherstellt, dass sowohl ServiceNow- als auch Drittanbieter-Agenten dynamisch Informationen austauschen können. Unterstützt werden gängige Protokolle wie das Model Context Protocol (MCP) von Anthropic und Googles Agent2Agent Protocol (A2A). 

• ServiceNow CRM: Bereits Ende Januar angekündigt, geht ServiceNow nun mit einer agentengestützten Customer-Relationship-Management-Lösung an den Start. Statt „umbenannter Chatbots“ sollen Kunden mithilfe der KI-Agenten den gesamten Vertriebs- und Serviceprozess auf einer einzigen KI-gestützten Plattform koordinieren und so den gesamten Kundenlebenszyklus effizienter verwalten können, beschreibt John Ball, Executive Vice President und General Manager für CRM und Branchen-Workflows bei ServiceNow, die Lösung. Auf diese Weise sollen Unternehmen in der Lage sein, vom reaktiven Support hin zu proaktiver Kundenbindung über den gesamten Customer Lifecycle zu wechseln – von der Konfiguration, Preisgestaltung und Angebotserstellung über die Auftragsabwicklung bis hin zu Kundenservice und Vertragsverlängerung. 

• Apriel Nemotron 15B: Ein neues Reasoning-Sprachmodell und eine integrierte Data-Flywheel-Architektur, entwickelt von ServiceNow in Zusammenarbeit mit NVIDIA, sollen die skalierbare und intelligente, agentische KI vorantreiben. Das Open-Source-LLM ist den beiden Unternehmen zufolge auf Leistung, Kosteneffizienz und Skalierbarkeit ausgelegt und soll eine hohe Genauigkeit, eine geringere Latenz, niedrigere Inferenzkosten und schnellere, agentische KI für jedes Unternehmen bieten.  

Mit der Einführung der ServiceNow University, ehemals Now Learning, will das Unternehmen außerdem Mitarbeitern, Kunden und Partnern die Möglichkeit geben, Fähigkeiten für den sich durch KI(-Agenten) wandelnden Arbeitsplatz zu entwickeln. Der Plan ist laut McDermott, bis 2027 drei Millionen Beschäftigte über die Plattform zu erreichen.  

Aus Sicht manches ServiceNow-Kunden ist dies angesichts der Geschwindigkeit, mit der das Unternehmen Innovationen vorantreibt, auch dringend nötig. So fehle oft das Knowhow bei Partnern, wenn eine neue Funktion integriert werden soll. 

ServiceNow setzt voll auf KI-Agenten​ Weiterlesen »

Barrierefreiheit ab Ende Juni Pflicht​

Allgemein

width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Ab Ende Juni 2025 gelten in Deutschland schärfere Regeln, was die Barrierefreiheit von Produkten und Dienstleistungen anbelangt.Markus Mainka – shutterstock.com Die Uhr tickt. Zum Stichtag 28. Juni 2025 tritt das Barrierefreiheitsstärkungsgesetz (BFSG) in Kraft. Ab dann sind Betreiber von Webseiten verpflichtet, ihr Online-Angebot gemäß geltender EU-Richtlinien und nationaler Vorgaben barrierefrei zu gestalten. Dazu gehört beispielsweise, zu Bildern ausreichend beschreibende Alternativtexte anzubieten beziehungsweise die Bedienbarkeit ihrer Webseite mit der Tastatur zu gewährleisten.  Doch davon sind die meisten Website-Betreiber noch weit entfernt, wie eine Untersuchung des Telefon- und Bürodienstleisters ebuero gezeigt hat. Demzufolge seien gerade einmal 6,5 Prozent der analysierten Webseiten vollständig barrierefrei und erfüllten höchste Standards. Immerhin drei von zehn der analysierten Webseiten erreichen eine hohe, aber keine vollständige Barrierefreiheit. Es bleibe also noch viel zu tun, lautet das Fazit der Studienautoren.  Einige Branchen haben noch Nachholbedarf, was die Barrierefreiheit ihrer Online-Auftritte betrifft.ebuero Eine detaillierte Betrachtung der digitalen Barrierefreiheit zeigt allerdings deutliche Unterschiede zwischen den Branchen. Von 247 untersuchten Webseiten erreichten 16 die Höchstbewertung von 100 Punkten, weitere 90 eine Bewertung von über 90 Punkten. 15 kommen aus der Kategorie Universitäten, gefolgt von 14 aus dem Bereich Stadtverwaltung. Auch der ÖPNV (elf Webseiten), Anwälte und Onlineshops (jeweils 13 Webseiten) hätten noch bemerkenswerte Ergebnisse erzielt, hieß es.  Die Bewertung der Barrierefreiheit der untersuchten Webseiten erfolgte mit dem Google-Tool Lighthouse. Ermittelt wird dabei ein Wert zwischen 0 und 100 Punkten:  Im Bereich von 0 bis 49 Punkten gilt eine Webseite hinsichtlich der Barrierefreiheit als durchgefallen.  Eine Bewertung von 50 bis 89 Punkten zählt als durchschnittlich.  90 bis 100 Punkte dürfen mit dem Prädikat gut gewertet werden.  Von den fast 250 untersuchten Webseiten sind nur knapp sieben Prozent völlig barrierefrei. ebuero Weniger überzeugend haben der ebuero-Studie zufolge Apotheken, E-Mail-Provider, Ärzte und Bundesliga-Vereine abgeschnitten:  Von den neun untersuchten Apotheken-Webseiten erreichten keine die Höchstbewertung von 100 Punkten. Deutlich mehr als die Hälfte (56 Prozent) liegen im Bereich von 70 bis 89 Punkten und haben damit, was die Barrierefreiheit anbelangt, noch deutlich Luft nach oben.  Immerhin zwei der neun untersuchten E-Mail-Provider schafften 100 Punkte. Allerdings haben vier Anbieter noch deutliche Lücken. Die ebuero-Experten schauen hier etwas strenger auf das Ergebnis, „da E-Mail-Adressen als Zugang zu vielen digitalen Diensten unerlässlich sind.“  Bei den 30 analysierten Ärzte-Websites schafft ein gutes Viertel ein „gut“ – volle Punktzahl allerdings Fehlanzeige. Zehn Seiten bleiben unter 80 Punkten, zwei davon schaffen keine 70 Zähler. „Hier ist noch einiges zu tun, um den gesetzlichen Anforderungen gerecht zu werden“, hieß es.  Auch bei den Bundesliga-Vereinen erreicht keine Website die Höchstbewertung von 100 Punkten, gerade einmal vier erzielen zumindest eine gute Bewertung. Es bestehe bei allen 18 Vereinen der höchsten deutschen Fußballliga ein „moderater Handlungsbedarf für die Barrierefreiheit“.  „Eine barrierefreie Website ist kein Luxus, sondern eine Notwendigkeit – für Menschen mit und ohne Einschränkungen“, kommentierte Laura Keddi, VP Marketing und Customer Success von ebuero AG, die Ergebnisse der Analyse. Barrierefreiheit bedeute Klarheit, Einfachheit und Inklusion – Werte, die jeden Kundenservice stärkten. Barrierefreiheit stärkt Reputation Gleichzeitig erfüllten barrierefreie Webseiten rechtliche Vorgaben und zeigten, dass ein Unternehmen Verantwortung übernimmt, sagte Keddi. „Wer barrierefrei denkt, denkt zukunftsorientiert: Denn eine Webseite, die für alle zugänglich ist, ist auch benutzerfreundlich, sichtbarer in Suchmaschinen und stärkt die Reputation. Kundenbindung beginnt dort, wo jeder willkommen ist – online und ohne Barrieren.“ Hier finden Sie weitere Informationen zum Thema Barrierefreiheit und BFSG: Barrierefreiheitsstärkungsgesetz: Barrierefreiheit von Webseiten wird Pflicht Barrierefreiheit im Netz: Inklusion für digitale Dienste Fast alle deutschen Online-Shops nicht barrierefrei Wer die kommenden gesetzlichen Anforderungen ignoriert, riskiert Bußgelder oder sogar die Abschaltung der eigenen Website. Darüber hinaus geht es darum, gesellschaftliche Verantwortung zu übernehmen. Schließlich lebt jede/r achte Deutsche mit einer Beeinträchtigung.  

Barrierefreiheit ab Ende Juni Pflicht​ width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Ab Ende Juni 2025 gelten in Deutschland schärfere Regeln, was die Barrierefreiheit von Produkten und Dienstleistungen anbelangt.Markus Mainka – shutterstock.com

Die Uhr tickt. Zum Stichtag 28. Juni 2025 tritt das Barrierefreiheitsstärkungsgesetz (BFSG) in Kraft. Ab dann sind Betreiber von Webseiten verpflichtet, ihr Online-Angebot gemäß geltender EU-Richtlinien und nationaler Vorgaben barrierefrei zu gestalten. Dazu gehört beispielsweise, zu Bildern ausreichend beschreibende Alternativtexte anzubieten beziehungsweise die Bedienbarkeit ihrer Webseite mit der Tastatur zu gewährleisten. 

Doch davon sind die meisten Website-Betreiber noch weit entfernt, wie eine Untersuchung des Telefon- und Bürodienstleisters ebuero gezeigt hat. Demzufolge seien gerade einmal 6,5 Prozent der analysierten Webseiten vollständig barrierefrei und erfüllten höchste Standards. Immerhin drei von zehn der analysierten Webseiten erreichen eine hohe, aber keine vollständige Barrierefreiheit. Es bleibe also noch viel zu tun, lautet das Fazit der Studienautoren. 

Einige Branchen haben noch Nachholbedarf, was die Barrierefreiheit ihrer Online-Auftritte betrifft.ebuero

Eine detaillierte Betrachtung der digitalen Barrierefreiheit zeigt allerdings deutliche Unterschiede zwischen den Branchen. Von 247 untersuchten Webseiten erreichten 16 die Höchstbewertung von 100 Punkten, weitere 90 eine Bewertung von über 90 Punkten. 15 kommen aus der Kategorie Universitäten, gefolgt von 14 aus dem Bereich Stadtverwaltung. Auch der ÖPNV (elf Webseiten), Anwälte und Onlineshops (jeweils 13 Webseiten) hätten noch bemerkenswerte Ergebnisse erzielt, hieß es. 

Die Bewertung der Barrierefreiheit der untersuchten Webseiten erfolgte mit dem Google-Tool Lighthouse. Ermittelt wird dabei ein Wert zwischen 0 und 100 Punkten: 

Im Bereich von 0 bis 49 Punkten gilt eine Webseite hinsichtlich der Barrierefreiheit als durchgefallen. 

Eine Bewertung von 50 bis 89 Punkten zählt als durchschnittlich. 

90 bis 100 Punkte dürfen mit dem Prädikat gut gewertet werden. 

Von den fast 250 untersuchten Webseiten sind nur knapp sieben Prozent völlig barrierefrei. ebuero

Weniger überzeugend haben der ebuero-Studie zufolge Apotheken, E-Mail-Provider, Ärzte und Bundesliga-Vereine abgeschnitten: 

Von den neun untersuchten Apotheken-Webseiten erreichten keine die Höchstbewertung von 100 Punkten. Deutlich mehr als die Hälfte (56 Prozent) liegen im Bereich von 70 bis 89 Punkten und haben damit, was die Barrierefreiheit anbelangt, noch deutlich Luft nach oben. 

Immerhin zwei der neun untersuchten E-Mail-Provider schafften 100 Punkte. Allerdings haben vier Anbieter noch deutliche Lücken. Die ebuero-Experten schauen hier etwas strenger auf das Ergebnis, „da E-Mail-Adressen als Zugang zu vielen digitalen Diensten unerlässlich sind.“ 

Bei den 30 analysierten Ärzte-Websites schafft ein gutes Viertel ein „gut“ – volle Punktzahl allerdings Fehlanzeige. Zehn Seiten bleiben unter 80 Punkten, zwei davon schaffen keine 70 Zähler. „Hier ist noch einiges zu tun, um den gesetzlichen Anforderungen gerecht zu werden“, hieß es. 

Auch bei den Bundesliga-Vereinen erreicht keine Website die Höchstbewertung von 100 Punkten, gerade einmal vier erzielen zumindest eine gute Bewertung. Es bestehe bei allen 18 Vereinen der höchsten deutschen Fußballliga ein „moderater Handlungsbedarf für die Barrierefreiheit“. 

„Eine barrierefreie Website ist kein Luxus, sondern eine Notwendigkeit – für Menschen mit und ohne Einschränkungen“, kommentierte Laura Keddi, VP Marketing und Customer Success von ebuero AG, die Ergebnisse der Analyse. Barrierefreiheit bedeute Klarheit, Einfachheit und Inklusion – Werte, die jeden Kundenservice stärkten.

Barrierefreiheit stärkt Reputation

Gleichzeitig erfüllten barrierefreie Webseiten rechtliche Vorgaben und zeigten, dass ein Unternehmen Verantwortung übernimmt, sagte Keddi. „Wer barrierefrei denkt, denkt zukunftsorientiert: Denn eine Webseite, die für alle zugänglich ist, ist auch benutzerfreundlich, sichtbarer in Suchmaschinen und stärkt die Reputation. Kundenbindung beginnt dort, wo jeder willkommen ist – online und ohne Barrieren.“

Hier finden Sie weitere Informationen zum Thema Barrierefreiheit und BFSG:

Barrierefreiheitsstärkungsgesetz: Barrierefreiheit von Webseiten wird Pflicht

Barrierefreiheit im Netz: Inklusion für digitale Dienste

Fast alle deutschen Online-Shops nicht barrierefrei

Wer die kommenden gesetzlichen Anforderungen ignoriert, riskiert Bußgelder oder sogar die Abschaltung der eigenen Website. Darüber hinaus geht es darum, gesellschaftliche Verantwortung zu übernehmen. Schließlich lebt jede/r achte Deutsche mit einer Beeinträchtigung. 

Barrierefreiheit ab Ende Juni Pflicht​ Weiterlesen »

RAG-Framework verbindet GenAI mit Unternehmenswissen​

Allgemein

RAG kann für Unternehmen vieles besser machen, aber auch neue Probleme schaffen. Koshiro K – shutterstock.com Das RAG-Framework (Retrieval-Augmented Generation) wird bei Unternehmen zunehmend beliebter, da es generative KI (GenAI) mit firmeneigenem Wissen kombiniert. RAG ist eine KI-Architektur, die generative Sprachmodelle mit unternehmensinternen Daten verknüpft. Sie ermöglicht es, bei Anfragen relevantes Wissen aus Datenbanken und Dokumenten abzurufen und gemeinsam mit der Anfrage ins Modell einzuspeisen. Dadurch können präzisere und kontextbezogene Antworten entstehen, die über das vortrainierte Wissen des Modells hinausgehen. Indem auf interne Datenquellen wie PDFs oder FAQs bei der Anfrage zugriffen wird, reduziert RAG zudem Halluzinationen deutlich, da Antworten auf überprüfbaren Informationen basieren und nachvollziehbar sind. Datenqualität entscheidet über Ergebnisqualität Ein weiterer Vorteil von RAG soll laut den KI-Experten von Bloomberg darin bestehen, dass beispielsweise Unternehmen nützliche Informationen aus Ihren jahrelang angelegten, unorganisierten Datenquellen extrahieren können, auf die Sie sonst nur schwer zugreifen könnten. Wenn die zugrunde liegenden Daten allerdings veraltet oder von schlechter Qualität sind, liefert das System unzuverlässige Ergebnisse. Da RAG die Daten nicht automatisch bereinigt, müssen Unternehmen sie sorgfältig pflegen, strukturieren und aktuell halten, um zuverlässige Resultate zu erhalten. Erhöhte Risiken durch RAG Laut den Experten kann RAG aber auch die Sicherheit von KI-Modellen beeinträchtigen. Selbst normalerweise „sichere“ Modelle lieferten bei aktiviertem RAG deutlich mehr problematische Antworten. In Tests von elf führenden LLMs, darunter GPT-4o, Claude-3.5-Sonnet und Llama-3-8 B, mit über 5.000 schädlichen Eingaben stieg die Rate unsicherer Ausgaben um 15 bis 30 Prozent. Besonders kritisch war der Umgang mit langen Dokumenten, der zu Datenlecks, irreführenden Analysen und voreingenommenen Empfehlungen führte. Außerdem war es wahrscheinlicher, dass die RAG-fähigen Modelle gefährliche Antworten lieferten, die für Malware und politische Kampagnen verwendet werden könnten. Dynamische Daten erhöhen Risiko RAG birgt laut den Forschern von Bloomberg noch weitere Risiken mit sich: Aufgrund seines Designs, das externe Daten dynamisch einbindet, entstehen neue, schwer kontrollierbare Schwachstellen. Daher fordern Experten mehrschichtige Schutzmaßnahmen und einen verantwortungsvollen Umgang mit RAG. Hiermit ließen sich sichere und zuverlässige Ergebnisse gewährleisten. Mehrschichtige Sicherheitsmaßnahmen empfohlen Weitere Experten empfehlen zudem, für RAG bereichsspezifische Gefahrenklassifizierungen zu entwickeln und Sicherheitsmaßnahmen wie Geschäftslogikprüfungen, Faktenchecks und Red-Team-Tests zu kombinieren. Besonders im Finanzsektor seien strenge Prüfungen notwendig, da fehlerhafte oder vertrauliche Inhalte rechtliche Konsequenzen nach sich ziehen können. Angesichts zunehmender regulatorischer Kontrolle in den USA und der EU ist ein verantwortungsvoller sowie sicherer Einsatz von RAG unerlässlich. 

RAG-Framework verbindet GenAI mit Unternehmenswissen​ RAG kann für Unternehmen vieles besser machen, aber auch neue Probleme schaffen.
Koshiro K – shutterstock.com

Das RAG-Framework (Retrieval-Augmented Generation) wird bei Unternehmen zunehmend beliebter, da es generative KI (GenAI) mit firmeneigenem Wissen kombiniert.

RAG ist eine KI-Architektur, die generative Sprachmodelle mit unternehmensinternen Daten verknüpft. Sie ermöglicht es, bei Anfragen relevantes Wissen aus Datenbanken und Dokumenten abzurufen und gemeinsam mit der Anfrage ins Modell einzuspeisen.

Dadurch können präzisere und kontextbezogene Antworten entstehen, die über das vortrainierte Wissen des Modells hinausgehen. Indem auf interne Datenquellen wie PDFs oder FAQs bei der Anfrage zugriffen wird, reduziert RAG zudem Halluzinationen deutlich, da Antworten auf überprüfbaren Informationen basieren und nachvollziehbar sind.

Datenqualität entscheidet über Ergebnisqualität

Ein weiterer Vorteil von RAG soll laut den KI-Experten von Bloomberg darin bestehen, dass beispielsweise Unternehmen nützliche Informationen aus Ihren jahrelang angelegten, unorganisierten Datenquellen extrahieren können, auf die Sie sonst nur schwer zugreifen könnten.

Wenn die zugrunde liegenden Daten allerdings veraltet oder von schlechter Qualität sind, liefert das System unzuverlässige Ergebnisse. Da RAG die Daten nicht automatisch bereinigt, müssen Unternehmen sie sorgfältig pflegen, strukturieren und aktuell halten, um zuverlässige Resultate zu erhalten.

Erhöhte Risiken durch RAG

Laut den Experten kann RAG aber auch die Sicherheit von KI-Modellen beeinträchtigen. Selbst normalerweise „sichere“ Modelle lieferten bei aktiviertem RAG deutlich mehr problematische Antworten.

In Tests von elf führenden LLMs, darunter

GPT-4o,

Claude-3.5-Sonnet und

Llama-3-8 B,

mit über 5.000 schädlichen Eingaben stieg die Rate unsicherer Ausgaben um 15 bis 30 Prozent. Besonders kritisch war der Umgang mit langen Dokumenten, der zu Datenlecks, irreführenden Analysen und voreingenommenen Empfehlungen führte. Außerdem war es wahrscheinlicher, dass die RAG-fähigen Modelle gefährliche Antworten lieferten, die für Malware und politische Kampagnen verwendet werden könnten.

Dynamische Daten erhöhen Risiko

RAG birgt laut den Forschern von Bloomberg noch weitere Risiken mit sich: Aufgrund seines Designs, das externe Daten dynamisch einbindet, entstehen neue, schwer kontrollierbare Schwachstellen. Daher fordern Experten mehrschichtige Schutzmaßnahmen und einen verantwortungsvollen Umgang mit RAG. Hiermit ließen sich sichere und zuverlässige Ergebnisse gewährleisten.

Mehrschichtige Sicherheitsmaßnahmen empfohlen

Weitere Experten empfehlen zudem, für RAG bereichsspezifische Gefahrenklassifizierungen zu entwickeln und Sicherheitsmaßnahmen wie

Geschäftslogikprüfungen,

Faktenchecks und

Red-Team-Tests

zu kombinieren.

Besonders im Finanzsektor seien strenge Prüfungen notwendig, da fehlerhafte oder vertrauliche Inhalte rechtliche Konsequenzen nach sich ziehen können. Angesichts zunehmender regulatorischer Kontrolle in den USA und der EU ist ein verantwortungsvoller sowie sicherer Einsatz von RAG unerlässlich.

RAG-Framework verbindet GenAI mit Unternehmenswissen​ Weiterlesen »

GreenOps – das neue, bessere FinOps​

Allgemein

Nachhaltigkeitsziele zu erreichen, ist auch mit dem GreenOps-Konzept kein Selbstläufer.JoeyCheung | shutterstock.com Die weltweiten IT-Ausgaben sollen aktuellen Prognosen zufolge im Jahr 2025 um circa neun Prozent steigen – im Wesentlichen getrieben durch die Cloud und künstliche Intelligenz (KI). Dieses rasante Wachstum verdeutlicht jedoch auch, dass nachhaltigere, effizientere Methoden, um Ressourcen zu managen, dringend angebracht sind. Denn für einige Unternehmen sind die Public-Cloud-Kosten in den letzten Jahren sprunghaft angestiegen. Einige der Kunden, die wir beraten, sind mit Rechnungen konfrontiert, die zwei- bis dreimal höher ausfallen als erwartet. Häufig explodieren die Kosten schneller als Gegen-, beziehungsweise Kontrollmaßnahmen implementiert werden können. Dieses Problem verschärft sich durch den Hype um KI noch um ein Vielfaches. Zwar setzen viele Unternehmen auf FinOps, um die Kontrolle über eskalierende Kosten zurückzugewinnen – das bleibt jedoch aus verschiedenen Gründen (dazu gleich mehr) oft ein erfolgloses Unterfangen. Ein neuer Ansatz für das Cloud-Kostenmanagement im KI-Zeitalter ist deshalb dringend erforderlich. Daran scheitert FinOps Das FinOps-Framework ist das Ergebnis der Kombination von Finance und DevOps und ist erstmals Anfang der 2010er Jahre aufgekommen. Und obwohl das Konzept beträchtliches Potenzial aufweist, kann es seine Versprechen häufig nicht einlösen. Die wichtigsten Gründe dafür sind: Mangelnde funktionsübergreifende Abstimmung: FinOps betrifft in erster Linie Finanz- und IT-Teams, weswegen der Input anderer Stakeholder wie OT- und Sustainability-Teams oft vernachlässigt werden. Dieser isolierte Ansatz führt zu suboptimalen Entscheidungen und uneinheitlichen Strategien. Kurzfristige Ausrichtung: Der Fokus von FinOps liegt vor allem darauf, Kosten sofort einzusparen. Das kann langfristige Ziele wie Performance, Verfügbarkeit, Skalierbarkeit und Nachhaltigkeit gefährden. Übermäßiger Fokus auf Tools, Budgets und Kontrollmaßnahmen: FinOps-Initiativen legen regelmäßig mehr Wert darauf, Kostenmanagement-Tools zu implementieren – statt eine Kultur der Verantwortlichkeit und Zusammenarbeit zu fördern, die für dauerhaften Change unerlässlich ist. Motivationsvernachlässigung: Der Kostenkontrollfokus motiviert Architekten und Ingenieure nicht dazu, effizientere Systeme zu entwerfen. Das führt wiederum zu Trägheit und minimalen Fortschritten. Finanzmetriken geben den Ton an: FinOps konzentriert sich fast ausschließlich auf finanzielle Kennzahlen und vernachlässigt Umweltaspekte. Diese sollten für moderne Unternehmen jedoch immer wichtiger werden. Kacy Clarke ist Chief Technology Officer bei der Unternehmensberatung Chiefly & Co. Zuvor bekleidete sie unter anderem leitende Positionen bei Microsoft, Deloitte sowie Hewlett-Packard Enterprise.Kacy Clarke Was GreenOps besser macht GreenOps ist aus der Fusion von FinOps, Sustainability und DevOps hervorgegangen. Das Konzept will die Limitationen von FinOps überwinden und parallel Nachhaltigkeit als Kernprinzip etablieren. Systeme, die nach GreenOps-Prinzipien aufgebaut sind, sollen nicht nur kosteneffizient sein, sondern auch den ökologischen Fußabdruck minimieren und dadurch technologische Innovation mit Umweltverantwortung in Einklang bringen. Nach meiner Erfahrung sind Emissionswerte auch eine größere Motivation für Architekten und Engineers als Kosten, wenn es darum geht, effizientere Systeme zu entwerfen und Lösungen zu entwickeln, um nicht ausgelastete Ressourcen automatisiert abzuschalten – ganz besonders, wenn es dabei um Millennials und die Generation Z geht. Die Vorzüge des GreenOps-Ansatzes im Überblick: Ganzheitlicher Ansatz: Finanzielle, ökologische und betriebliche Kennzahlen einzubeziehen, gewährleistet eine ausgewogene Strategie, die mit den übergeordneten Unternehmenszielen im Einklang steht. Funktionsübergreifende Zusammenarbeit: Verschiedene Stakeholder aus den Bereichen IT, Finanzen, Betrieb und Nachhaltigkeit einzubinden, fördert eine optimierte Abstimmung innerhalb der Organisation sowie eine ganzheitliche Entscheidungsfindung. Standardisierte Kennzahlen: Frameworks für die CO2-Bilanzierung und Energieeffizienz einzusetzen, vereinfacht das Benchmarking und damit die Entscheidungsfindung. Die Visualisierung von Emissionsschätzungen sowie Schulungen, die umweltfreundliche Systeme behandeln, geben die nötigen Tools an die Hand, um Nachhaltigkeitsoptimierungen möglichst früh im Designprozess zu verankern.   Langfristige Wertschöpfung: GreenOps fördert Methoden, die sowohl Kosteneinsparungen als auch Sustainability-Vorteile erschließen. Letztere zahlen auf CSR- und ESG-Ziele ein und können den Markenwert steigern. Kultureller Wandel: Bei GreenOps steht im Vordergrund, eine Kultur der Umweltverantwortung zu etablieren. Das ist auch nachhaltigen Cloud-Praktiken förderlich. Allerdings reicht GreenOps alleine nicht aus, um sämtliche Ineffizienzen zu beseitigen und der Kostenexplosion zu entfliehen: Nachhaltigkeitsaspekte müssen vielmehr bereits in den frühesten Phasen von Systemdesign oder Anbieterauswahl eine Rolle spielen. Mit anderen Worten: Es braucht einen transformativen Wandel und einen umfassenderen Rahmen. GreenOps trifft transformative Führung An dieser Stelle kommt Enterprise Architecture (EA) ins Spiel: Ein Framework, um die Unternehmenstransformation voranzutreiben, dabei jedoch parallel agil und resilient zu bleiben. Werden die GreenOps-Prinzipien in EA-Initiativen integriert, stellt das sicher, dass Sustainability-Aspekte in jeder Phase von Systemdesign und -betrieb berücksichtigt werden. Eine solche Ausrichtung ermöglicht Unternehmen damit, nachhaltige Architekturen aufzubauen und zu betreiben, die: den Energieverbrauch optimieren, Ausschuss reduzieren und neben technischen und geschäftlichen Zielen auch langfristige Nachhaltigkeitsziele realisieren. Eine sinnvolle Transformation braucht jedoch nicht nur technische Skills, sondern auch Führungskompetenz, beziehungsweise die Fähigkeit, andere inspirieren zu können. Denn, das sehen wir in unserer täglichen Arbeit mit den Kunden: Echte Transformation gelingt nur mit Begeisterung, respektive Leidenschaft. An dieser Stelle kommen schließlich die Prinzipien der Transformational Leadership ins Spiel: Indem die kulturellen Aspekte in den Fokus gerückt werden (etwa DevOps, Agile, Infrastructure as Code oder Cloud Native), lassen sich Cloud-Einführungen in Unternehmen schneller, reibungsloser und kostengünstiger gestalten. Zu den grundlegenden Komponenten der transformativer Führung gehören: Inspirierende Motivation: Führungskräfte formulieren eine klare, überzeugende Vision, die Mitarbeiter dazu inspiriert, Erwartungen zu übertreffen und neue Herausforderungen anzunehmen. Intellektuelle Anregung: Führungskräfte ermutigen dazu, Annahmen kritisch zu hinterfragen, innovative Ideen zu erkunden und bahnbrechende Lösungen zu verfolgen. Individuelle Berücksichtigung: Führungskräfte bieten maßgeschneiderten Support und Mentoring und gehen dabei auf die individuellen Bedürfnisse ihrer Mitarbeiter ein. Idealisierter Einfluss: Führungskräfte fungieren als Vorbilder, verkörpern die Werte des Unternehmens und zeigen unerschütterliches Engagement für dessen Ziele. Manager, die diese Prinzipien mit Nachhaltigkeit, beziehungsweise GreenOps, kombinieren, treiben den kulturellen und operativen Wandel voran, der erforderlich ist, um effizientere, nachhaltigere Systeme aufzubauen. GreenOps-Herausforderungen & -Chancen GreenOps und die daraus erwachsenden, nachhaltigen Architekturen sind zwar attraktive Rahmenkonzepte, werfen jedoch auch Herausforderungen auf. Dazu zählen in erster Linie: Initiale Investitionen: GreenOps und nachhaltige Enterprise-Architekturen zu implementieren, erfordert erhebliche Vorabinvestitionen in Tools, Schulungen und Prozessoptimierungen. Skill-Nachholbedarf: Hocheffiziente, dynamische Architekturen zu entwickeln, ist ein komplexer Prozess und erfordert in den meisten Fällen, neue Kompetenzen aufzubauen. Metriken im Überfluss: Neben der finanziellen Performance auch die Umweltauswirkungen zu erfassen, kann eine gewaltige Aufgabe darstellen – die jedoch für sinnvolle Fortschritte unerlässlich ist. Interner Widerstand: Die Umstellung auf GreenOps, beziehungsweise eine Nachhaltigkeitsmentalität, erfordert sehr wahrscheinlich, Change-Widerstände zu überwinden. Trotz dieser Hindernisse sind die Chancen, die sich mit GreenOps bieten, immens. Und es ist nicht in Stein gemeißelt, dass die Umwälzungen tiefgreifend ausfallen müssen. So legt beispielsweise eine Studie der University of Waterloo nahe, dass bereits eine kleine Änderung am Linux-Kernel den Stromverbrauch vieler Rechenzentren um bis zu 30 Prozent reduzieren könnte. GreenOps, nachhaltige Architekturen und Transformational Leadership miteinander zu kombinieren, stellt mit Blick auf den Cloud-Betrieb ist die nächste große Herausforderung dar. Unternehmen, die diese annehmen, um die Limitationen von FinOps zu überwinden, werden am Ende von einem effizienteren und umweltfreundlicheren Cloud-Ökosystem profitieren. GreenOps ist auf dem besten Weg, sich zu einem essenziellen Framework zu entwickeln, das die Zukunft des Cloud Computing prägen wird und ein harmonisches Gleichgewicht zwischen technologischer Innovation und ökologischer Verantwortung gewährleistet. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

GreenOps – das neue, bessere FinOps​ Nachhaltigkeitsziele zu erreichen, ist auch mit dem GreenOps-Konzept kein Selbstläufer.JoeyCheung | shutterstock.com

Die weltweiten IT-Ausgaben sollen aktuellen Prognosen zufolge im Jahr 2025 um circa neun Prozent steigen – im Wesentlichen getrieben durch die Cloud und künstliche Intelligenz (KI). Dieses rasante Wachstum verdeutlicht jedoch auch, dass nachhaltigere, effizientere Methoden, um Ressourcen zu managen, dringend angebracht sind. Denn für einige Unternehmen sind die Public-Cloud-Kosten in den letzten Jahren sprunghaft angestiegen. Einige der Kunden, die wir beraten, sind mit Rechnungen konfrontiert, die zwei- bis dreimal höher ausfallen als erwartet. Häufig explodieren die Kosten schneller als Gegen-, beziehungsweise Kontrollmaßnahmen implementiert werden können.

Dieses Problem verschärft sich durch den Hype um KI noch um ein Vielfaches. Zwar setzen viele Unternehmen auf FinOps, um die Kontrolle über eskalierende Kosten zurückzugewinnen – das bleibt jedoch aus verschiedenen Gründen (dazu gleich mehr) oft ein erfolgloses Unterfangen. Ein neuer Ansatz für das Cloud-Kostenmanagement im KI-Zeitalter ist deshalb dringend erforderlich.

Daran scheitert FinOps

Das FinOps-Framework ist das Ergebnis der Kombination von Finance und DevOps und ist erstmals Anfang der 2010er Jahre aufgekommen. Und obwohl das Konzept beträchtliches Potenzial aufweist, kann es seine Versprechen häufig nicht einlösen. Die wichtigsten Gründe dafür sind:

Mangelnde funktionsübergreifende Abstimmung: FinOps betrifft in erster Linie Finanz- und IT-Teams, weswegen der Input anderer Stakeholder wie OT- und Sustainability-Teams oft vernachlässigt werden. Dieser isolierte Ansatz führt zu suboptimalen Entscheidungen und uneinheitlichen Strategien.

Kurzfristige Ausrichtung: Der Fokus von FinOps liegt vor allem darauf, Kosten sofort einzusparen. Das kann langfristige Ziele wie Performance, Verfügbarkeit, Skalierbarkeit und Nachhaltigkeit gefährden.

Übermäßiger Fokus auf Tools, Budgets und Kontrollmaßnahmen: FinOps-Initiativen legen regelmäßig mehr Wert darauf, Kostenmanagement-Tools zu implementieren – statt eine Kultur der Verantwortlichkeit und Zusammenarbeit zu fördern, die für dauerhaften Change unerlässlich ist.

Motivationsvernachlässigung: Der Kostenkontrollfokus motiviert Architekten und Ingenieure nicht dazu, effizientere Systeme zu entwerfen. Das führt wiederum zu Trägheit und minimalen Fortschritten.

Finanzmetriken geben den Ton an: FinOps konzentriert sich fast ausschließlich auf finanzielle Kennzahlen und vernachlässigt Umweltaspekte. Diese sollten für moderne Unternehmen jedoch immer wichtiger werden.

Kacy Clarke ist Chief Technology Officer bei der Unternehmensberatung Chiefly & Co. Zuvor bekleidete sie unter anderem leitende Positionen bei Microsoft, Deloitte sowie Hewlett-Packard Enterprise.Kacy Clarke

Was GreenOps besser macht

GreenOps ist aus der Fusion von FinOps, Sustainability und DevOps hervorgegangen. Das Konzept will die Limitationen von FinOps überwinden und parallel Nachhaltigkeit als Kernprinzip etablieren. Systeme, die nach GreenOps-Prinzipien aufgebaut sind, sollen nicht nur kosteneffizient sein, sondern auch den ökologischen Fußabdruck minimieren und dadurch technologische Innovation mit Umweltverantwortung in Einklang bringen.

Nach meiner Erfahrung sind Emissionswerte auch eine größere Motivation für Architekten und Engineers als Kosten, wenn es darum geht, effizientere Systeme zu entwerfen und Lösungen zu entwickeln, um nicht ausgelastete Ressourcen automatisiert abzuschalten – ganz besonders, wenn es dabei um Millennials und die Generation Z geht. Die Vorzüge des GreenOps-Ansatzes im Überblick:

Ganzheitlicher Ansatz: Finanzielle, ökologische und betriebliche Kennzahlen einzubeziehen, gewährleistet eine ausgewogene Strategie, die mit den übergeordneten Unternehmenszielen im Einklang steht.

Funktionsübergreifende Zusammenarbeit: Verschiedene Stakeholder aus den Bereichen IT, Finanzen, Betrieb und Nachhaltigkeit einzubinden, fördert eine optimierte Abstimmung innerhalb der Organisation sowie eine ganzheitliche Entscheidungsfindung.

Standardisierte Kennzahlen: Frameworks für die CO2-Bilanzierung und Energieeffizienz einzusetzen, vereinfacht das Benchmarking und damit die Entscheidungsfindung. Die Visualisierung von Emissionsschätzungen sowie Schulungen, die umweltfreundliche Systeme behandeln, geben die nötigen Tools an die Hand, um Nachhaltigkeitsoptimierungen möglichst früh im Designprozess zu verankern.  

Langfristige Wertschöpfung: GreenOps fördert Methoden, die sowohl Kosteneinsparungen als auch Sustainability-Vorteile erschließen. Letztere zahlen auf CSR- und ESG-Ziele ein und können den Markenwert steigern.

Kultureller Wandel: Bei GreenOps steht im Vordergrund, eine Kultur der Umweltverantwortung zu etablieren. Das ist auch nachhaltigen Cloud-Praktiken förderlich.

Allerdings reicht GreenOps alleine nicht aus, um sämtliche Ineffizienzen zu beseitigen und der Kostenexplosion zu entfliehen: Nachhaltigkeitsaspekte müssen vielmehr bereits in den frühesten Phasen von Systemdesign oder Anbieterauswahl eine Rolle spielen. Mit anderen Worten: Es braucht einen transformativen Wandel und einen umfassenderen Rahmen.

GreenOps trifft transformative Führung

An dieser Stelle kommt Enterprise Architecture (EA) ins Spiel: Ein Framework, um die Unternehmenstransformation voranzutreiben, dabei jedoch parallel agil und resilient zu bleiben. Werden die GreenOps-Prinzipien in EA-Initiativen integriert, stellt das sicher, dass Sustainability-Aspekte in jeder Phase von Systemdesign und -betrieb berücksichtigt werden. Eine solche Ausrichtung ermöglicht Unternehmen damit, nachhaltige Architekturen aufzubauen und zu betreiben, die:

den Energieverbrauch optimieren,

Ausschuss reduzieren und

neben technischen und geschäftlichen Zielen auch langfristige Nachhaltigkeitsziele realisieren.

Eine sinnvolle Transformation braucht jedoch nicht nur technische Skills, sondern auch Führungskompetenz, beziehungsweise die Fähigkeit, andere inspirieren zu können. Denn, das sehen wir in unserer täglichen Arbeit mit den Kunden: Echte Transformation gelingt nur mit Begeisterung, respektive Leidenschaft. An dieser Stelle kommen schließlich die Prinzipien der Transformational Leadership ins Spiel: Indem die kulturellen Aspekte in den Fokus gerückt werden (etwa DevOps, Agile, Infrastructure as Code oder Cloud Native), lassen sich Cloud-Einführungen in Unternehmen schneller, reibungsloser und kostengünstiger gestalten. Zu den grundlegenden Komponenten der transformativer Führung gehören:

Inspirierende Motivation: Führungskräfte formulieren eine klare, überzeugende Vision, die Mitarbeiter dazu inspiriert, Erwartungen zu übertreffen und neue Herausforderungen anzunehmen.

Intellektuelle Anregung: Führungskräfte ermutigen dazu, Annahmen kritisch zu hinterfragen, innovative Ideen zu erkunden und bahnbrechende Lösungen zu verfolgen.

Individuelle Berücksichtigung: Führungskräfte bieten maßgeschneiderten Support und Mentoring und gehen dabei auf die individuellen Bedürfnisse ihrer Mitarbeiter ein.

Idealisierter Einfluss: Führungskräfte fungieren als Vorbilder, verkörpern die Werte des Unternehmens und zeigen unerschütterliches Engagement für dessen Ziele.

Manager, die diese Prinzipien mit Nachhaltigkeit, beziehungsweise GreenOps, kombinieren, treiben den kulturellen und operativen Wandel voran, der erforderlich ist, um effizientere, nachhaltigere Systeme aufzubauen.

GreenOps-Herausforderungen & -Chancen

GreenOps und die daraus erwachsenden, nachhaltigen Architekturen sind zwar attraktive Rahmenkonzepte, werfen jedoch auch Herausforderungen auf. Dazu zählen in erster Linie:

Initiale Investitionen: GreenOps und nachhaltige Enterprise-Architekturen zu implementieren, erfordert erhebliche Vorabinvestitionen in Tools, Schulungen und Prozessoptimierungen.

Skill-Nachholbedarf: Hocheffiziente, dynamische Architekturen zu entwickeln, ist ein komplexer Prozess und erfordert in den meisten Fällen, neue Kompetenzen aufzubauen.

Metriken im Überfluss: Neben der finanziellen Performance auch die Umweltauswirkungen zu erfassen, kann eine gewaltige Aufgabe darstellen – die jedoch für sinnvolle Fortschritte unerlässlich ist.

Interner Widerstand: Die Umstellung auf GreenOps, beziehungsweise eine Nachhaltigkeitsmentalität, erfordert sehr wahrscheinlich, Change-Widerstände zu überwinden.

Trotz dieser Hindernisse sind die Chancen, die sich mit GreenOps bieten, immens. Und es ist nicht in Stein gemeißelt, dass die Umwälzungen tiefgreifend ausfallen müssen. So legt beispielsweise eine Studie der University of Waterloo nahe, dass bereits eine kleine Änderung am Linux-Kernel den Stromverbrauch vieler Rechenzentren um bis zu 30 Prozent reduzieren könnte.

GreenOps, nachhaltige Architekturen und Transformational Leadership miteinander zu kombinieren, stellt mit Blick auf den Cloud-Betrieb ist die nächste große Herausforderung dar. Unternehmen, die diese annehmen, um die Limitationen von FinOps zu überwinden, werden am Ende von einem effizienteren und umweltfreundlicheren Cloud-Ökosystem profitieren. GreenOps ist auf dem besten Weg, sich zu einem essenziellen Framework zu entwickeln, das die Zukunft des Cloud Computing prägen wird und ein harmonisches Gleichgewicht zwischen technologischer Innovation und ökologischer Verantwortung gewährleistet. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

GreenOps – das neue, bessere FinOps​ Weiterlesen »

19 Wege, Android-Staubfänger wiederzubeleben​

Allgemein

Es gibt bessere Dinge, die Sie mit Android-Altgeräten anstellen können. Foto: Melnikov Dmitriy | shutterstock.com Mit jeder neuen Smartphone- und Tablet-Generation wächst die Zahl der Devices, die ausgemustert werden. In den allermeisten Fällen werden die (oft gar nicht so) alten Gerätschaften dann zu Staubfängern. Was schade ist, denn es gibt diverse Möglichkeiten, um alten Android-Telefonen und –Tablets zu neuem Glanz und Nutzwert zu verhelfen. Zum Beispiel die folgenden. 1. Wireless Trackpad Mit Hilfe der richtigen Software und einigen Minuten Zeitaufwand für die Konfiguration, können Sie Ihr Android-Gerät im Handumdrehen zu einem Trackpad, beziehungsweise Controller für Windows-, Mac und Linux-Rechner umfunktionieren. Alles was Sie dazu brauchen, ist die in der Basisversion kostenlose App “Unified Remote” sowie eine Bluetooth- oder WLAN-Verbindung. Mit der Gratis-Version stehen Ihnen grundlegende Maus- und Tastatursteuerung sowie spezielle Remote-Befehle für Medienwiedergabe und Energiemanagement zur Verfügung. Die 4,99 Euro teure Vollversion der App bietet darüber hinaus erweiterte Funktionen – beispielsweise programmspezifische Remote-Funktionen. Die App Unified Remote bietet grundlegende Maus- und Tastatur-Kontrollmöglichkeiten. Foto: JR Raphael | IDG Wenn Sie sich für eine Version entschieden haben, brauchen Sie nur noch die zugehörige Software für Ihren Rechner herunterladen. 2. Remote-Terminal Abgelegte Android Devices eignen sich außerdem auch ganz gut, um sie zu einem Remote-Terminal für Ihren PC umzufunktionieren. Dafür benötigen Sie lediglich die kostenlose Google-Software Chrome Remote Desktop. Die entsprechenden Apps finden Sie im Chrome Web Store sowie dem Google Play Store. Ein ausführliches Tutorial, was Sie mit dieser Lösung tun können – und vor allem wie – bietet folgender Artikel: So geht Fernzugriff per Google-Browser 3. Mobile Storage Cloud Storage mag heutzutage en vogue sein, aber auch der gute, alte physische Storage hat seine Vorzüge, sowohl wenn es um Verfügbarkeit als auch den Zugriff geht. Dafür stehen Speichersticks und externe Festplatten in rauen Mengen zur Verfügung – oder Sie nutzen dafür Ihr altes Android-Handy. Das bietet den zusätzlichen Benefit, gleich ein Interface mit an Bord zu haben, um mit dem gespeicherten Content interagieren zu können. Optional können Sie diesen dann auch in die Cloud verschieben, per E-Mail versenden oder in kollaborativen Umgebungen nutzen, falls erforderlich oder gewünscht. Um das alte Android-Gerät zum mobilen Storage-Device umzufunktionieren, empfiehlt es sich, das Gerät zunächst zurückzusetzen, um so viel Speicherplatz wie möglich freizumachen. Anschließend können Sie damit loslegen, Daten zu schaufeln. 4. KI-Chatbot Generative KI entwickelt sich zu einem immer bedeutenderen Produktivitäts-Tool für Unternehmen. Wenn Sie ebenfalls dem LLM-Fieber erlegen sind oder aus anderen Gründen – beispielsweise zur Akkuschonung des Erstgeräts – ganztags einen dedizierten KI-Chatbot um sich haben möchten, unterstützt Sie dabei ein ausgemustertes Android-Smartphone oder auch –Tablet. Dazu brauchen Sie nicht viel mehr als eine entsprechende App aus dem Google Play Store. Zum Beispiel: ChatGPT, Gemini oder Copilot. Sollten Sie sich für den Google-Chatbot Gemini entscheiden, dürfen Sie diesen auch per Sprachbefehl aufrufen. 5. Universal Smart Remote Sogar wirklich alte Android-Geräte bringen genügend Leistung mit, um sie zur Universal-Fernbedienung für smarte Devices sowie Audio- und Video-Systeme umzufunktionieren. Dazu stehen Ihnen diverse Möglichkeiten in App- und auch Hardware-Form zur Verfügung. Zum Beispiel: Smart-Home-Apps wie Nest oder Hue, Google TV in Kombination mit einem Chromecast-Dongle oder Streaming-Apps wie Roku und Netflix. Alternativ können Sie auch mit Hilfe von Plex einen vollwertigen Medienserver einrichten und Ihr altes Android Device dazu nutzen, eigene lokale Inhalte auf Ihren TV zu streamen. 6. Forschungsunterstützung Alte Android-Klötze eignen sich auch, um zur wissenschaftlichen Forschung beizutragen. Auch dazu stehen verschiedene App-Optionen im Google Play Store zur Verfügung. Sie alle funktionieren auf die gleiche Weise: Nach der Installation nutzt die Software (bei aktiver WLAN-Verbindung) die Rechenleistung des Geräts, um den jeweiligen Forschungsbereich voranzutreiben. Erwähnenswerte Optionen in diesem Bereich sind: Camaliot, ein Kooperationsprojekt der European Space Agency (ESA), der ETH Zürich sowie dem Internationalen Institut für angewandte Systemanalyse (IIAS), sammelt Satellitendaten, um Wettervorhersagen zu optimieren. MyShake, eine App der Berkeley-Universität, das die Sensoren des Geräts nutzt, um Erdbeben zu erkennen und zu analysieren. 7. Überwachungskamera Wenn Sie vorhaben, sich demnächst eine Inhouse-Überwachungskamera anzuschaffen: Sparen Sie sich das Geld und nutzen Sie dafür Ihr altes Android-Handy. Mit der richtigen App behalten Sie Ihre Räumlichkeiten jederzeit im Auge – ohne dabei auf Funktionen wie Videoaufzeichnung oder Bewegungserkennung verzichten zu müssen. Dazu empfiehlt sich die kostenlose Android-App IP Webcam (die auch in einer 5,49 Euro teuren Pro-Version zur Verfügung steht). Nach der Installation greifen Sie per VLC Player oder einem beliebigen Browser auf den Videofeed zu. 8. Ersatzkamera Wenn Ihr Android-Smartphone noch relativ jung ist, stehen die Chancen gut, dass es eine relativ hochwertige Kamera an Bord hat. Das können Sie sich in Situationen zunutze machen, in denen Sie Ihr Haupttelefon nicht nutzen wollen – sei es aufgrund von drohenden Umwelteinflüssen oder weil Sie unterwegs keinen Wert auf eingehende Nachrichten legen. Das Beste daran: Sie brauchen dazu nichts – außer ein Altgerät, das Ihren Foto-Ansprüchen gerecht wird. 9. Videokonferenzstation Wenn Sie sich schon immer einen fest verankerten Access Point für Videokonferenzen und virtuelle Meetings auf Ihrem Schreibtisch gewünscht haben, befähigt Sie dazu jetzt Ihre Android-Altlast. Dazu benötigen Sie: eine ordentliche Docking-Station sowie die Collaboration-App Ihrer Wahl (etwa Zoom, Teams oder Google Meet). Wenn Sie noch einen Schritt weiter gehen möchten, könnten Sie mit ausreichend Android-Altgeräten auch ein Haus- oder Office-weites Videokonferenzsystem auf die Beine stellen. 10. Gourmet-Hub Falls Sie gerne kochen, können Sie alte Android-Handys oder Tablets auch zu multifunktionalen Kommandozentralen für die Küche umwandeln. Dazu brauchen Sie im Wesentlichen zwei Zutaten: Einen Android Launcher, um den Homescreen des Geräts anzupassen und Sprach- sowie weitere Freihandbefehle starten zu können. Eine Übersicht bietet folgender Artikel: Die besten Android- Launcher Anschließend brauchen Sie nur noch die richtigen Apps für Ihren Zweck zu installieren. Mit Bezug auf kulinarische Genüsse empfehlen sich beispielsweise: Rezept– oder Notiz-Apps. 11. Webcam-Fenster Wenn der Blick aus dem Fenster eher für Verdruss sorgt, schaffen Sie mit einem ausgemusterten Android-Gerät Abhilfe. Dazu machen Sie es einfach per App oder Browser zu einem Schaufenster in einen anderen Teil der Welt. Zum Beispiel mit: der Webcams-App von EarthCam, die eine beeindruckende Sammlung von Webcam-Feeds auf der ganzen Welt bereithält der Website des Zoos von San Diego, der Live-Einblicke in diverse Gehege bereitstellt. der Webpräsenz des Monterey Bay Aquariums, die Unterwasser-Einblicke bereithält. die Webseite des Zoo Zürich, die Live-Bilder zum Teil auch in 360-Grad-Ansicht liefert. 12. Digitaler Fotorahmen Mit einem günstigen Standfuß können Sie Ihr Android-Handy von vor ein paar Jahren auch in einen digitalen Bilderrahmen mit Cloud-Verbindung umwandeln. Dazu brauchen Sie nicht viel mehr als die standardmäßige Google-Fotos-App. Die erzeugt aus Ihren gespeicherten Fotos auf Knopfdruck eine Diashow. 13. E-Reader Eine unterbrechungsfreie Leseumgebung kann sich auf Geschäftsreisen oder im Pendelstress als sehr wertvoll erweisen. Um Ihr altes Android-Telefon oder –Tablet zu diesem Zweck zu nutzen, brauchen Sie ein weiteres Mal nur die richtige App – zum Beispiel: Google Play Bücher, Amazon Kindle oder Nook. Nach der Installation deaktivieren Sie App-Benachrichtigungen oder wechseln Sie einfach in den Flugmodus, um ungestört in bestem E-Reader-Stil zu schmökern. 14. Audio-Player Was für den Lesegenuss gilt, gilt auch für den Hörgenuss: Wer Wert darauf legt, dabei die Zwänge seines Smartphones hinter sich zu lassen, tut gut daran, diesen Task an ein Android-Altgerät auszulagern. Dazu brauchen Sie noch nicht einmal eine App. 15. Digitaler Tischkalender Auch um ein abgelegtes Android Device zum digitalen Tischkalender zu machen, brauchen Sie nicht viel. Lediglich eine Docking-Station und eine qualitativ hochwertige Kalender-App. Geht es um Letztere, stechen zwei Google-Play-Store-Optionen heraus – nämlich: Google Kalender sowie DigiCal Kalender. Dabei zeichnet sich die DigiCal-App insbesondere durch ihr anpassbares Interface aus. Die 5,49 Euro teure, kostenpflichtige Variante der App bietet weitere Konfigurationsoptionen und Themes. Die DigiCal-Kalender-App kann ihre visuellen Vorzüge vor allem im Querformat ausspielen. Foto: JR Raphael | IDG 16. Auto-Navigationssystem Wenn Ihr Auto nicht bereits ab Werk mit einem Navigationssystem ausgestattet ist, können Sie ausgemusterte Android-Gerätschaften auch dazu umfunktionieren. Dazu brauchen Sie lediglich eine passende Docking-Station für Ihr Fahrzeug, einen mobilen Hotspot – und die Google Maps App. Falls Sie Ihr Primär-Smartphone nicht als Hotspot nutzen können oder wollen, können Sie alternativ auch die benötigten Routen über eine WLAN-Verbindung herunterladen und sie anschließend offline nutzen. Das funktioniert auch per Sprachbefehl, insofern das alte Gerät Support für den Google Assistant mitbringt. 17. Lernwerkzeug Abgelegte Android-Geräte eignen sich unter Umständen auch gut als Lern- und Spiel-Gagdets für Ihre Kinder. Dazu können Sie relativ einfach ein eingeschränktes Benutzerprofil einrichten – die Google-Support-Seite gibt darüber Auskunft, wie das im Detail vonstatten geht. Wenn Ihr Android-Altgerät über Android 7.0 (oder höher) verfügt, stehen Ihnen darüber hinaus über Googles Familiy-Link-App zusätzliche Tools zur Verfügung, um den Geräte- und App-Zugriff zu kontrollieren beziehungsweise zu limitieren. 18. Digitaluhr Die Investition in einen neuen Wecker können Sie sich ebenfalls sparen, wenn Sie einfach ein altes Android-Telefon für diesen Zweck einsetzen. Die kostenlose Google-App “Uhr” ist dazu ideal geeignet. 19. Spende Sollten die bisherigen Optionen Sie nicht überzeugt haben, können Sie Ihre alten Android Devices auch dazu einsetzen, etwas Gutes zu tun – zum Beispiel, indem Sie sie spenden. Etwa im Rahmen folgender Projekte: Handys für die Umwelt Rote Nasen “Recycling4smile” Pro Wildlife Althandy-Sammelaktion (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

19 Wege, Android-Staubfänger wiederzubeleben​ Es gibt bessere Dinge, die Sie mit Android-Altgeräten anstellen können.
Foto: Melnikov Dmitriy | shutterstock.com

Mit jeder neuen Smartphone- und Tablet-Generation wächst die Zahl der Devices, die ausgemustert werden. In den allermeisten Fällen werden die (oft gar nicht so) alten Gerätschaften dann zu Staubfängern. Was schade ist, denn es gibt diverse Möglichkeiten, um alten Android-Telefonen und –Tablets zu neuem Glanz und Nutzwert zu verhelfen. Zum Beispiel die folgenden.

1. Wireless Trackpad

Mit Hilfe der richtigen Software und einigen Minuten Zeitaufwand für die Konfiguration, können Sie Ihr Android-Gerät im Handumdrehen zu einem Trackpad, beziehungsweise Controller für Windows-, Mac und Linux-Rechner umfunktionieren.

Alles was Sie dazu brauchen, ist die in der Basisversion kostenlose App “Unified Remote” sowie eine Bluetooth- oder WLAN-Verbindung. Mit der Gratis-Version stehen Ihnen grundlegende Maus- und Tastatursteuerung sowie spezielle Remote-Befehle für Medienwiedergabe und Energiemanagement zur Verfügung. Die 4,99 Euro teure Vollversion der App bietet darüber hinaus erweiterte Funktionen – beispielsweise programmspezifische Remote-Funktionen.

Die App Unified Remote bietet grundlegende Maus- und Tastatur-Kontrollmöglichkeiten.
Foto: JR Raphael | IDG

Wenn Sie sich für eine Version entschieden haben, brauchen Sie nur noch die zugehörige Software für Ihren Rechner herunterladen.

2. Remote-Terminal

Abgelegte Android Devices eignen sich außerdem auch ganz gut, um sie zu einem Remote-Terminal für Ihren PC umzufunktionieren. Dafür benötigen Sie lediglich die kostenlose Google-Software Chrome Remote Desktop. Die entsprechenden Apps finden Sie im Chrome Web Store sowie dem Google Play Store.

Ein ausführliches Tutorial, was Sie mit dieser Lösung tun können – und vor allem wie – bietet folgender Artikel:

So geht Fernzugriff per Google-Browser

3. Mobile Storage

Cloud Storage mag heutzutage en vogue sein, aber auch der gute, alte physische Storage hat seine Vorzüge, sowohl wenn es um Verfügbarkeit als auch den Zugriff geht. Dafür stehen Speichersticks und externe Festplatten in rauen Mengen zur Verfügung – oder Sie nutzen dafür Ihr altes Android-Handy. Das bietet den zusätzlichen Benefit, gleich ein Interface mit an Bord zu haben, um mit dem gespeicherten Content interagieren zu können. Optional können Sie diesen dann auch in die Cloud verschieben, per E-Mail versenden oder in kollaborativen Umgebungen nutzen, falls erforderlich oder gewünscht.

Um das alte Android-Gerät zum mobilen Storage-Device umzufunktionieren, empfiehlt es sich, das Gerät zunächst zurückzusetzen, um so viel Speicherplatz wie möglich freizumachen. Anschließend können Sie damit loslegen, Daten zu schaufeln.

4. KI-Chatbot

Generative KI entwickelt sich zu einem immer bedeutenderen Produktivitäts-Tool für Unternehmen. Wenn Sie ebenfalls dem LLM-Fieber erlegen sind oder aus anderen Gründen – beispielsweise zur Akkuschonung des Erstgeräts – ganztags einen dedizierten KI-Chatbot um sich haben möchten, unterstützt Sie dabei ein ausgemustertes Android-Smartphone oder auch –Tablet.

Dazu brauchen Sie nicht viel mehr als eine entsprechende App aus dem Google Play Store. Zum Beispiel:

ChatGPT,

Gemini oder

Copilot.

Sollten Sie sich für den Google-Chatbot Gemini entscheiden, dürfen Sie diesen auch per Sprachbefehl aufrufen.

5. Universal Smart Remote

Sogar wirklich alte Android-Geräte bringen genügend Leistung mit, um sie zur Universal-Fernbedienung für smarte Devices sowie Audio- und Video-Systeme umzufunktionieren.

Dazu stehen Ihnen diverse Möglichkeiten in App- und auch Hardware-Form zur Verfügung. Zum Beispiel:

Smart-Home-Apps wie Nest oder Hue,

Google TV in Kombination mit einem Chromecast-Dongle oder

Streaming-Apps wie Roku und Netflix.

Alternativ können Sie auch mit Hilfe von Plex einen vollwertigen Medienserver einrichten und Ihr altes Android Device dazu nutzen, eigene lokale Inhalte auf Ihren TV zu streamen.

6. Forschungsunterstützung

Alte Android-Klötze eignen sich auch, um zur wissenschaftlichen Forschung beizutragen. Auch dazu stehen verschiedene App-Optionen im Google Play Store zur Verfügung. Sie alle funktionieren auf die gleiche Weise: Nach der Installation nutzt die Software (bei aktiver WLAN-Verbindung) die Rechenleistung des Geräts, um den jeweiligen Forschungsbereich voranzutreiben.

Erwähnenswerte Optionen in diesem Bereich sind:

Camaliot, ein Kooperationsprojekt der European Space Agency (ESA), der ETH Zürich sowie dem Internationalen Institut für angewandte Systemanalyse (IIAS), sammelt Satellitendaten, um Wettervorhersagen zu optimieren.

MyShake, eine App der Berkeley-Universität, das die Sensoren des Geräts nutzt, um Erdbeben zu erkennen und zu analysieren.

7. Überwachungskamera

Wenn Sie vorhaben, sich demnächst eine Inhouse-Überwachungskamera anzuschaffen: Sparen Sie sich das Geld und nutzen Sie dafür Ihr altes Android-Handy. Mit der richtigen App behalten Sie Ihre Räumlichkeiten jederzeit im Auge – ohne dabei auf Funktionen wie Videoaufzeichnung oder Bewegungserkennung verzichten zu müssen.

Dazu empfiehlt sich die kostenlose Android-App IP Webcam (die auch in einer 5,49 Euro teuren Pro-Version zur Verfügung steht). Nach der Installation greifen Sie per VLC Player oder einem beliebigen Browser auf den Videofeed zu.

8. Ersatzkamera

Wenn Ihr Android-Smartphone noch relativ jung ist, stehen die Chancen gut, dass es eine relativ hochwertige Kamera an Bord hat. Das können Sie sich in Situationen zunutze machen, in denen Sie Ihr Haupttelefon nicht nutzen wollen – sei es aufgrund von drohenden Umwelteinflüssen oder weil Sie unterwegs keinen Wert auf eingehende Nachrichten legen.

Das Beste daran: Sie brauchen dazu nichts – außer ein Altgerät, das Ihren Foto-Ansprüchen gerecht wird.

9. Videokonferenzstation

Wenn Sie sich schon immer einen fest verankerten Access Point für Videokonferenzen und virtuelle Meetings auf Ihrem Schreibtisch gewünscht haben, befähigt Sie dazu jetzt Ihre Android-Altlast. Dazu benötigen Sie:

eine ordentliche Docking-Station sowie

die Collaboration-App Ihrer Wahl (etwa Zoom, Teams oder Google Meet).

Wenn Sie noch einen Schritt weiter gehen möchten, könnten Sie mit ausreichend Android-Altgeräten auch ein Haus- oder Office-weites Videokonferenzsystem auf die Beine stellen.

10. Gourmet-Hub

Falls Sie gerne kochen, können Sie alte Android-Handys oder Tablets auch zu multifunktionalen Kommandozentralen für die Küche umwandeln. Dazu brauchen Sie im Wesentlichen zwei Zutaten: Einen Android Launcher, um den Homescreen des Geräts anzupassen und Sprach- sowie weitere Freihandbefehle starten zu können. Eine Übersicht bietet folgender Artikel:

Die besten Android- Launcher

Anschließend brauchen Sie nur noch die richtigen Apps für Ihren Zweck zu installieren. Mit Bezug auf kulinarische Genüsse empfehlen sich beispielsweise:

Rezept– oder

Notiz-Apps.

11. Webcam-Fenster

Wenn der Blick aus dem Fenster eher für Verdruss sorgt, schaffen Sie mit einem ausgemusterten Android-Gerät Abhilfe. Dazu machen Sie es einfach per App oder Browser zu einem Schaufenster in einen anderen Teil der Welt. Zum Beispiel mit:

der Webcams-App von EarthCam, die eine beeindruckende Sammlung von Webcam-Feeds auf der ganzen Welt bereithält

der Website des Zoos von San Diego, der Live-Einblicke in diverse Gehege bereitstellt.

der Webpräsenz des Monterey Bay Aquariums, die Unterwasser-Einblicke bereithält.

die Webseite des Zoo Zürich, die Live-Bilder zum Teil auch in 360-Grad-Ansicht liefert.

12. Digitaler Fotorahmen

Mit einem günstigen Standfuß können Sie Ihr Android-Handy von vor ein paar Jahren auch in einen digitalen Bilderrahmen mit Cloud-Verbindung umwandeln.

Dazu brauchen Sie nicht viel mehr als die standardmäßige Google-Fotos-App. Die erzeugt aus Ihren gespeicherten Fotos auf Knopfdruck eine Diashow.

13. E-Reader

Eine unterbrechungsfreie Leseumgebung kann sich auf Geschäftsreisen oder im Pendelstress als sehr wertvoll erweisen. Um Ihr altes Android-Telefon oder –Tablet zu diesem Zweck zu nutzen, brauchen Sie ein weiteres Mal nur die richtige App – zum Beispiel:

Google Play Bücher,

Amazon Kindle oder

Nook.

Nach der Installation deaktivieren Sie App-Benachrichtigungen oder wechseln Sie einfach in den Flugmodus, um ungestört in bestem E-Reader-Stil zu schmökern.

14. Audio-Player

Was für den Lesegenuss gilt, gilt auch für den Hörgenuss: Wer Wert darauf legt, dabei die Zwänge seines Smartphones hinter sich zu lassen, tut gut daran, diesen Task an ein Android-Altgerät auszulagern. Dazu brauchen Sie noch nicht einmal eine App.

15. Digitaler Tischkalender

Auch um ein abgelegtes Android Device zum digitalen Tischkalender zu machen, brauchen Sie nicht viel. Lediglich eine Docking-Station und eine qualitativ hochwertige Kalender-App. Geht es um Letztere, stechen zwei Google-Play-Store-Optionen heraus – nämlich:

Google Kalender sowie

DigiCal Kalender.

Dabei zeichnet sich die DigiCal-App insbesondere durch ihr anpassbares Interface aus. Die 5,49 Euro teure, kostenpflichtige Variante der App bietet weitere Konfigurationsoptionen und Themes.

Die DigiCal-Kalender-App kann ihre visuellen Vorzüge vor allem im Querformat ausspielen.
Foto: JR Raphael | IDG

16. Auto-Navigationssystem

Wenn Ihr Auto nicht bereits ab Werk mit einem Navigationssystem ausgestattet ist, können Sie ausgemusterte Android-Gerätschaften auch dazu umfunktionieren. Dazu brauchen Sie lediglich eine passende Docking-Station für Ihr Fahrzeug, einen mobilen Hotspot – und die Google Maps App.

Falls Sie Ihr Primär-Smartphone nicht als Hotspot nutzen können oder wollen, können Sie alternativ auch die benötigten Routen über eine WLAN-Verbindung herunterladen und sie anschließend offline nutzen. Das funktioniert auch per Sprachbefehl, insofern das alte Gerät Support für den Google Assistant mitbringt.

17. Lernwerkzeug

Abgelegte Android-Geräte eignen sich unter Umständen auch gut als Lern- und Spiel-Gagdets für Ihre Kinder. Dazu können Sie relativ einfach ein eingeschränktes Benutzerprofil einrichten – die Google-Support-Seite gibt darüber Auskunft, wie das im Detail vonstatten geht.

Wenn Ihr Android-Altgerät über Android 7.0 (oder höher) verfügt, stehen Ihnen darüber hinaus über Googles Familiy-Link-App zusätzliche Tools zur Verfügung, um den Geräte- und App-Zugriff zu kontrollieren beziehungsweise zu limitieren.

18. Digitaluhr

Die Investition in einen neuen Wecker können Sie sich ebenfalls sparen, wenn Sie einfach ein altes Android-Telefon für diesen Zweck einsetzen. Die kostenlose Google-App “Uhr” ist dazu ideal geeignet.

19. Spende

Sollten die bisherigen Optionen Sie nicht überzeugt haben, können Sie Ihre alten Android Devices auch dazu einsetzen, etwas Gutes zu tun – zum Beispiel, indem Sie sie spenden.

Etwa im Rahmen folgender Projekte:

Handys für die Umwelt

Rote Nasen “Recycling4smile”

Pro Wildlife Althandy-Sammelaktion

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

19 Wege, Android-Staubfänger wiederzubeleben​ Weiterlesen »

Toxische Teammitglieder: 5 Wege, wie IT-Mitarbeiter den CTO nerven​

Allgemein

Nervensägen bereiten jedem CTO und CIO Kopfzerbrechen, weil sie innerhalb ihrer Teams zu gefährlichen Quertreibern werden können, die sowohl die Stimmung vergiften als Projekte gefähren. Foto: Andrii Yalanskyi – shutterstock.comIn der allgemeinen Lesart gilt der Chief Technology Officer (CTO) nicht nur als ein technisches Genie, sondern auch als ein Anker für das gesamte Team. Er sorgt als technologisches Herzstück eines Unternehmens für Innovation, treibt die technische Strategie voran und stellt sicher, dass das Team effizient und produktiv arbeitet. Manchmal tun Mitarbeiter aber – ob bewusst oder unbewusst – genau das Gegenteil und treiben ihren CTO damit in den Wahnsinn. Fünf Beispiele zeigen, wie das am besten geht:Weg 1: Politics – Das gefährliche Spiel der MachtIn der komplexen Welt der IT-Politik kann toxisches Verhalten wie ein Virus wirken, das sich schnell ausbreitet und das gesamte Team infiziert. Toxisches Verhalten, Manipulation und das ständige Streben nach eigenen Vorteilen sind der Albtraum jedes CTOs. Wenn du als Mitarbeiter dein Ego in den Vordergrund stellst, deine eigene Agenda verfolgst und andere manipulierst, wird die Teamdynamik schnell zerstört.Ein Mitarbeiter, der sich selten an Absprachen hält und sich in Themen einmischt, die nicht in seinem Zuständigkeitsbereich liegen, ist ein Paradebeispiel. Dieser Mitarbeiter kommuniziert oft eine andere Vision und Strategie, die dem vom CTO vorgegebenen Weg widersprechen. Die Folge: Ein CTO, der ständig Feuer löschen muss und dadurch wertvolle Zeit verliert. Aber es geht nicht nur um die direkten Konflikte: Das Ergebnis eines solchen Verhaltens kann das gesamte Team demotivieren und so zu allgemeinem Produktivitätsverlust führen. Es entsteht ein Umfeld des Misstrauens, in dem jeder Schritt hinterfragt wird und die Zusammenarbeit leidet.Weg 2: Communication – Das Schweigen der LämmerKommunikation ist das A und O in jedem Team. Doch was, wenn du als Mitarbeiter nicht ehrlich bist, Probleme verschleierst und ständig mit dem Finger auf andere zeigst? Mit solch einem Verhalten treibst du Misstrauen und Unsicherheiten im Team voran. Das geht ganz einfach, indem du dich auch hier wieder ständig in andere Themen einmischst und dann als Ausrede anführst, du wärst eigentlich mit anderen Problemen beschäftigt gewesen.Dies zwingt deinen CTO dazu, ständig nachzuforschen und herauszufinden, was wirklich vor sich geht. Es ist nicht nur frustrierend, sondern auch zeitaufwendig. Wenn solche Kommunikationsprobleme nicht angegangen werden, können sie zu größeren organisatorischen Problemen führen. Projekte können ins Stocken geraten, und es kann zu Konflikten zwischen verschiedenen Abteilungen kommen, die nicht effektiv kommunizieren.Weg 3: Delivery – Die Kunst des Nicht-Lieferns und die Falle des PerfektionismusWie jede andere Führungskraft auch, erwartet ein CTO vor allem eines von dir: Ergebnisse. Die erhält er aber nicht, wenn seine Teammitglieder laufend ihre Versprechen nicht halten, sich in Overengineering verlieren oder fehlerhafte Lösungen liefern. Das schaffst du zum Beispiel, indem du zu verkopft an eine Aufgabe herangehst, dich in Perfektionismus verlierst und nicht produktorientiert arbeitest. So stehen verzögerte Lieferungen und ein frustrierter CTO auf dem Programm. Aber es geht nicht nur um einzelne Projekte. Wenn solche Lieferprobleme häufig auftreten, kann dies das Image des Unternehmens schädigen und zu verlorenen Geschäftsmöglichkeiten führen.Weg 4: Innovation – Die Angst vor dem NeuenInnovation ist der Schlüssel zum Erfolg in der IT. Wie kannst du aber die Tür versperren? Ganz einfach: ständig auf Tradition beharren, sich nicht weiterentwickeln und Innohttps://www.computerwoche.de/vation blockieren. Das schaffst du, indem du mit einem anderen Mitarbeiter ständig diskutierst, dich öffentlich streitest und am Ende zu keinem Ergebnis kommst. Das ist nicht nur unangenehm für alle Beteiligten und auch Außenstehenden, sondern führt dazu, dass Fortschritte ausgebremst werden.Ein weiteres Beispiel ist ein Mitarbeiter, der stur auf eine veraltete Technologie besteht und das Team daran hindert, sich weiterzuentwickeln. Der CTO muss dann manuell Innovationen vorantreiben, um den Mitarbeiter zur Weiterentwicklung zu bewegen. Es bleibt auch nicht nur hierbei: Ein Mangel an Innovationsbereitschaft kann auch bedeuten, dass das Unternehmen Marktchancen verpasst und von der Konkurrenz überholt wird.Weg 5: Time – Die tückischen ZeitdiebeZeit ist in der IT-Branche ein wertvolles Gut. Doch was, wenn Mitarbeiter nicht nur ihre eigene Zeit verschwenden, sondern auch die ihrer Kollegen und Vorgesetzten? Ein unsicherer Mitarbeiter, der ständig beim CTO nachfragt und ihn so sehr bindet, dass der CTO die Aufgabe fast selbst erledigen muss, ist ein klassisches Beispiel.Es ist, als würde man versuchen, ein Puzzle zusammenzusetzen, während jemand ständig die Teile wegnimmt. Doch es geht nicht nur um die direkte Zeitverschwendung. Wenn du ständig die Zeit deines CTOs in Anspruch nimmst, kann dies auch indirekte Auswirkungen haben. Andere Teammitglieder könnten beginnen, das Verhalten zu kopieren, oder sie könnten sich vernachlässigt fühlen, weil der CTO ständig mit den Anfragen von dir beschäftigt ist.FazitNatürlich ist dieser Beitrag nicht als Aufruf zu verstehen, dem eigenen CTO die Arbeit zu erschweren. Es liegt auf der Hand, dass ein CTO die schwierige Aufgabe hat, ein Team zu führen, Innovationen voranzutreiben und das Unternehmen technologisch auf Kurs zu halten. Insofern sind Mitarbeiter, die ständig auf den oben genannten Wegen agieren, ein Albtraum und sollte jeder CTO rechtzeitg Maßnahmen ergreifen, die einer Schwächung der IT-Abteilung entgegenwirken. Es ist wichtig, dass Mitarbeiter und CTOs zusammenarbeiten, um solche Verhaltensweisen zu erkennen und zu korrigieren. Nur so kann ein produktives und harmonisches Arbeitsumfeld geschaffen werden, in dem Innovation und Erfolg gedeihen können. Denn ein gutes Team steuert gemeinsam in die gleiche Richtung. 8 Fehler in der KommunikationDiese Kommunikationsfehler sollten Sie vermeiden Foto: Sergey Nivens – shutterstock.comWas Sie in Gesprächen und Debatten tunlichst unterlassen sollten, um Fehlinformationen, Konflikte und Imageschäden zu vermeiden.Fachchinesisch benutzen Foto: Gearstd – shutterstock.comMit technischem Fachjargon um sich zu werfen, ist der größte Fehler, den IT-Verantwortliche in Gesprächen mit Nicht-IT’lern machen können. Viele Experten können nicht richtig einschätzen, wie tief das eigene Fachwissen geht und wo im Gegenzug das Fachwissen des Gegenübers endet. Hier kann es schnell zu Missverständnissen und Kommunikationsstörungen kommen.Technische Probleme beklagen Foto: Stokkete – shutterstock.comWer in der Team- oder Vorstandssitzung über technische Probleme im Rechenzentrum oder anderen Unternehmensstellen klagt, darf sich nicht wundern, wenn diese Beschwerden Irritation und Unsicherheit auslösen. Kollegen, die nicht mit den beschriebenen Interna vertraut sind, verstehen in einem solchen Fall oft nur “Der hat massive Probleme, die er nicht in den Griff bekommt.” Natürlich müssen IT-Probleme auch im großen Kreis thematisiert werden dürfen, das jedoch besser in einer sachlichen Art und Weise, die jeder verstehen und nachvollziehen kann.Wie ein Verkäufer reden Foto: Evan El-Amin – shutterstock.comManager, die bislang mit einem Business-Hintergrund tätig waren, und IT-Führungspositionen übernehmen, sprechen ihre neuen Untergebenen in einem aufgeblasenen Ton an und wirken dabei häufig wie Verkäufer, die die neueste Kollektion heiße Luft präsentieren.Keine Fragen stellen Foto: ra2studio – shutterstock.comGute CIOs stellen sinnvolle Fragen und hören auf die Antworten. So gelangen oft neue Aspekte in die Diskussion. Dazu werden die Kollegen eingebunden und die Beziehung zwischen Manager und Team gestärkt. Warum viele IT-Verantwortliche anders vorgehen? Sie haben (meist unbegründet) Angst, als unwissend und inkompetent dazustehen.Niemanden einbinden Foto: Syda Productions – shutterstock.comGut ausgebildete CIOs sind überzeugt von ihren eigenen Ideen, welche Techniken sich wie am besten implementieren lassen. Viele vergessen darüber jedoch, dass auch die gesamte IT-Abteilung und der Vorstand womöglich noch eigene Ideen haben. Wenn CIOs ihre eigenen Vorstellungen ohne Rückfrage durchdrücken, verärgern sie deshalb viele Kollegen – selbst, wenn es die beste und richtige Wahl war.Ängste schüren Foto: Tyler Olson – shutterstock.comWenn der Vorstand überzeugt werden muss, das IT-Budget aufzustocken, diese oder jene Anschaffung oder Migration vorzunehmen, neigen manche CIOs dazu, in ihrer Argumentation zu übertreiben oder zu simplifizieren. Wenn neue Server angeschafft werden sollen, hört sich das dann so an: “Wenn wir bis kommende Woche nicht zehn neue Server im Schrank stehen haben, bricht der ganze Laden zusammen!”Den Wertbeitrag nicht herausstellen Foto: Sergey Nivens – shutterstock.comViele CIOs betonen, wie wichtig die Unternehmens-IT ist. Die Vorstände verstehen aber häufig nicht, was die IT konkret zum unternehmerischen Erfolg beiträgt. Deshalb sollten IT-Verantwortliche in Präsentationen und Diskussionen immer noch einen Schritt weitergehen, als nur in den eigenen Grenzen zu argumentieren.Mit PowerPoint einschläfern Foto: Matej Kastelic – shutterstock.comZu viele Folien, zu viele Nichtigkeiten. Effiziente Präsentationen zeichnen sich dadurch aus, dass sie sich auf die wichtigsten Infos konzentrieren, die das zuhörende Publikum direkt betreffen. Im besten Fall kann gänzlich auf PowerPoint verzichtet werden – gute Präsentationen zeichnen sich dadurch aus, dass sie von selbst im Gedächtnis haften bleiben und nicht durch eine Armada von Aufzählungspunkten. 

Toxische Teammitglieder: 5 Wege, wie IT-Mitarbeiter den CTO nerven​ Nervensägen bereiten jedem CTO und CIO Kopfzerbrechen, weil sie innerhalb ihrer Teams zu gefährlichen Quertreibern werden können, die sowohl die Stimmung vergiften als Projekte gefähren.
Foto: Andrii Yalanskyi – shutterstock.comIn der allgemeinen Lesart gilt der Chief Technology Officer (CTO) nicht nur als ein technisches Genie, sondern auch als ein Anker für das gesamte Team. Er sorgt als technologisches Herzstück eines Unternehmens für Innovation, treibt die technische Strategie voran und stellt sicher, dass das Team effizient und produktiv arbeitet. Manchmal tun Mitarbeiter aber – ob bewusst oder unbewusst – genau das Gegenteil und treiben ihren CTO damit in den Wahnsinn. Fünf Beispiele zeigen, wie das am besten geht:Weg 1: Politics – Das gefährliche Spiel der MachtIn der komplexen Welt der IT-Politik kann toxisches Verhalten wie ein Virus wirken, das sich schnell ausbreitet und das gesamte Team infiziert. Toxisches Verhalten, Manipulation und das ständige Streben nach eigenen Vorteilen sind der Albtraum jedes CTOs. Wenn du als Mitarbeiter dein Ego in den Vordergrund stellst, deine eigene Agenda verfolgst und andere manipulierst, wird die Teamdynamik schnell zerstört.Ein Mitarbeiter, der sich selten an Absprachen hält und sich in Themen einmischt, die nicht in seinem Zuständigkeitsbereich liegen, ist ein Paradebeispiel. Dieser Mitarbeiter kommuniziert oft eine andere Vision und Strategie, die dem vom CTO vorgegebenen Weg widersprechen. Die Folge: Ein CTO, der ständig Feuer löschen muss und dadurch wertvolle Zeit verliert. Aber es geht nicht nur um die direkten Konflikte: Das Ergebnis eines solchen Verhaltens kann das gesamte Team demotivieren und so zu allgemeinem Produktivitätsverlust führen. Es entsteht ein Umfeld des Misstrauens, in dem jeder Schritt hinterfragt wird und die Zusammenarbeit leidet.Weg 2: Communication – Das Schweigen der LämmerKommunikation ist das A und O in jedem Team. Doch was, wenn du als Mitarbeiter nicht ehrlich bist, Probleme verschleierst und ständig mit dem Finger auf andere zeigst? Mit solch einem Verhalten treibst du Misstrauen und Unsicherheiten im Team voran. Das geht ganz einfach, indem du dich auch hier wieder ständig in andere Themen einmischst und dann als Ausrede anführst, du wärst eigentlich mit anderen Problemen beschäftigt gewesen.Dies zwingt deinen CTO dazu, ständig nachzuforschen und herauszufinden, was wirklich vor sich geht. Es ist nicht nur frustrierend, sondern auch zeitaufwendig. Wenn solche Kommunikationsprobleme nicht angegangen werden, können sie zu größeren organisatorischen Problemen führen. Projekte können ins Stocken geraten, und es kann zu Konflikten zwischen verschiedenen Abteilungen kommen, die nicht effektiv kommunizieren.Weg 3: Delivery – Die Kunst des Nicht-Lieferns und die Falle des PerfektionismusWie jede andere Führungskraft auch, erwartet ein CTO vor allem eines von dir: Ergebnisse. Die erhält er aber nicht, wenn seine Teammitglieder laufend ihre Versprechen nicht halten, sich in Overengineering verlieren oder fehlerhafte Lösungen liefern. Das schaffst du zum Beispiel, indem du zu verkopft an eine Aufgabe herangehst, dich in Perfektionismus verlierst und nicht produktorientiert arbeitest. So stehen verzögerte Lieferungen und ein frustrierter CTO auf dem Programm. Aber es geht nicht nur um einzelne Projekte. Wenn solche Lieferprobleme häufig auftreten, kann dies das Image des Unternehmens schädigen und zu verlorenen Geschäftsmöglichkeiten führen.Weg 4: Innovation – Die Angst vor dem NeuenInnovation ist der Schlüssel zum Erfolg in der IT. Wie kannst du aber die Tür versperren? Ganz einfach: ständig auf Tradition beharren, sich nicht weiterentwickeln und Innohttps://www.computerwoche.de/vation blockieren. Das schaffst du, indem du mit einem anderen Mitarbeiter ständig diskutierst, dich öffentlich streitest und am Ende zu keinem Ergebnis kommst. Das ist nicht nur unangenehm für alle Beteiligten und auch Außenstehenden, sondern führt dazu, dass Fortschritte ausgebremst werden.Ein weiteres Beispiel ist ein Mitarbeiter, der stur auf eine veraltete Technologie besteht und das Team daran hindert, sich weiterzuentwickeln. Der CTO muss dann manuell Innovationen vorantreiben, um den Mitarbeiter zur Weiterentwicklung zu bewegen. Es bleibt auch nicht nur hierbei: Ein Mangel an Innovationsbereitschaft kann auch bedeuten, dass das Unternehmen Marktchancen verpasst und von der Konkurrenz überholt wird.Weg 5: Time – Die tückischen ZeitdiebeZeit ist in der IT-Branche ein wertvolles Gut. Doch was, wenn Mitarbeiter nicht nur ihre eigene Zeit verschwenden, sondern auch die ihrer Kollegen und Vorgesetzten? Ein unsicherer Mitarbeiter, der ständig beim CTO nachfragt und ihn so sehr bindet, dass der CTO die Aufgabe fast selbst erledigen muss, ist ein klassisches Beispiel.Es ist, als würde man versuchen, ein Puzzle zusammenzusetzen, während jemand ständig die Teile wegnimmt. Doch es geht nicht nur um die direkte Zeitverschwendung. Wenn du ständig die Zeit deines CTOs in Anspruch nimmst, kann dies auch indirekte Auswirkungen haben. Andere Teammitglieder könnten beginnen, das Verhalten zu kopieren, oder sie könnten sich vernachlässigt fühlen, weil der CTO ständig mit den Anfragen von dir beschäftigt ist.FazitNatürlich ist dieser Beitrag nicht als Aufruf zu verstehen, dem eigenen CTO die Arbeit zu erschweren. Es liegt auf der Hand, dass ein CTO die schwierige Aufgabe hat, ein Team zu führen, Innovationen voranzutreiben und das Unternehmen technologisch auf Kurs zu halten. Insofern sind Mitarbeiter, die ständig auf den oben genannten Wegen agieren, ein Albtraum und sollte jeder CTO rechtzeitg Maßnahmen ergreifen, die einer Schwächung der IT-Abteilung entgegenwirken. Es ist wichtig, dass Mitarbeiter und CTOs zusammenarbeiten, um solche Verhaltensweisen zu erkennen und zu korrigieren. Nur so kann ein produktives und harmonisches Arbeitsumfeld geschaffen werden, in dem Innovation und Erfolg gedeihen können. Denn ein gutes Team steuert gemeinsam in die gleiche Richtung.

8 Fehler in der KommunikationDiese Kommunikationsfehler sollten Sie vermeiden
Foto: Sergey Nivens – shutterstock.comWas Sie in Gesprächen und Debatten tunlichst unterlassen sollten, um Fehlinformationen, Konflikte und Imageschäden zu vermeiden.Fachchinesisch benutzen
Foto: Gearstd – shutterstock.comMit technischem Fachjargon um sich zu werfen, ist der größte Fehler, den IT-Verantwortliche in Gesprächen mit Nicht-IT’lern machen können. Viele Experten können nicht richtig einschätzen, wie tief das eigene Fachwissen geht und wo im Gegenzug das Fachwissen des Gegenübers endet. Hier kann es schnell zu Missverständnissen und Kommunikationsstörungen kommen.Technische Probleme beklagen
Foto: Stokkete – shutterstock.comWer in der Team- oder Vorstandssitzung über technische Probleme im Rechenzentrum oder anderen Unternehmensstellen klagt, darf sich nicht wundern, wenn diese Beschwerden Irritation und Unsicherheit auslösen. Kollegen, die nicht mit den beschriebenen Interna vertraut sind, verstehen in einem solchen Fall oft nur “Der hat massive Probleme, die er nicht in den Griff bekommt.” Natürlich müssen IT-Probleme auch im großen Kreis thematisiert werden dürfen, das jedoch besser in einer sachlichen Art und Weise, die jeder verstehen und nachvollziehen kann.Wie ein Verkäufer reden
Foto: Evan El-Amin – shutterstock.comManager, die bislang mit einem Business-Hintergrund tätig waren, und IT-Führungspositionen übernehmen, sprechen ihre neuen Untergebenen in einem aufgeblasenen Ton an und wirken dabei häufig wie Verkäufer, die die neueste Kollektion heiße Luft präsentieren.Keine Fragen stellen
Foto: ra2studio – shutterstock.comGute CIOs stellen sinnvolle Fragen und hören auf die Antworten. So gelangen oft neue Aspekte in die Diskussion. Dazu werden die Kollegen eingebunden und die Beziehung zwischen Manager und Team gestärkt. Warum viele IT-Verantwortliche anders vorgehen? Sie haben (meist unbegründet) Angst, als unwissend und inkompetent dazustehen.Niemanden einbinden
Foto: Syda Productions – shutterstock.comGut ausgebildete CIOs sind überzeugt von ihren eigenen Ideen, welche Techniken sich wie am besten implementieren lassen. Viele vergessen darüber jedoch, dass auch die gesamte IT-Abteilung und der Vorstand womöglich noch eigene Ideen haben. Wenn CIOs ihre eigenen Vorstellungen ohne Rückfrage durchdrücken, verärgern sie deshalb viele Kollegen – selbst, wenn es die beste und richtige Wahl war.Ängste schüren
Foto: Tyler Olson – shutterstock.comWenn der Vorstand überzeugt werden muss, das IT-Budget aufzustocken, diese oder jene Anschaffung oder Migration vorzunehmen, neigen manche CIOs dazu, in ihrer Argumentation zu übertreiben oder zu simplifizieren. Wenn neue Server angeschafft werden sollen, hört sich das dann so an: “Wenn wir bis kommende Woche nicht zehn neue Server im Schrank stehen haben, bricht der ganze Laden zusammen!”Den Wertbeitrag nicht herausstellen
Foto: Sergey Nivens – shutterstock.comViele CIOs betonen, wie wichtig die Unternehmens-IT ist. Die Vorstände verstehen aber häufig nicht, was die IT konkret zum unternehmerischen Erfolg beiträgt. Deshalb sollten IT-Verantwortliche in Präsentationen und Diskussionen immer noch einen Schritt weitergehen, als nur in den eigenen Grenzen zu argumentieren.Mit PowerPoint einschläfern
Foto: Matej Kastelic – shutterstock.comZu viele Folien, zu viele Nichtigkeiten. Effiziente Präsentationen zeichnen sich dadurch aus, dass sie sich auf die wichtigsten Infos konzentrieren, die das zuhörende Publikum direkt betreffen. Im besten Fall kann gänzlich auf PowerPoint verzichtet werden – gute Präsentationen zeichnen sich dadurch aus, dass sie von selbst im Gedächtnis haften bleiben und nicht durch eine Armada von Aufzählungspunkten.

Toxische Teammitglieder: 5 Wege, wie IT-Mitarbeiter den CTO nerven​ Weiterlesen »

Mitarbeiter-Benefits: Was sich Mitarbeiter wünschen​

Allgemein

Viele Mitarbeiter wünschen sich heute als Zusatzleistung Zeit, um sich beispielsweise stärker um Familienangehörige zu kümmern. Foto: Brian A Jackson – shutterstock.com Remote Work, flexible Arbeitszeitmodelle, neue Führungs- und Unternehmenskulturen – seit einigen Jahren findet auf dem Arbeitsmarkt ein Umdenken statt. Dabei wandeln sich auch die Ansprüche an einen Arbeitgeber. Insbesondere die jüngeren Generationen streben danach, sich mit einem Unternehmen und seinen Werten identifizieren zu können. Denn mit dem Auftreten neuer Generationen wandelt sich der Arbeitsmarkt. So erreichen die Babyboomer nach und nach das Renteneintrittsalter, die Generation Y ist fest im Arbeitsleben angekommen und junge Vertreter der Generation Z rücken nach – und alle haben neue Ansprüche und Anforderungen im Gepäck. Je besser es den Unternehmen gelingt, die Bedürfnisse ihrer Mitarbeiterinnen und Mitarbeiter zu kennen, umso erfolgreicher funktionieren das Recruiting und die Mitarbeiterbindung. Individualität, Flexibilität und Wertschätzung stehen dabei heute mehr denn je im Fokus und sollten auch bei einem umfassenden und nachhaltigen Corporate-Benefit-Konzept berücksichtigt werden. Mitarbeiter-Benefits: Zeit und Gesundheit Es ist vor allem die Zeit, die in unserer meist schnelllebigen und zunehmend hybriden Arbeitswelt ein wertvolles Gut darstellt. Eine Ressource, die sich auch auf die Benefits für Mitarbeiter auswirkt. So sind heute, neben dem Gehalt, zunehmend Leistungen beliebt, die einen Zeitvorteil für den Mitarbeiter darstellen und ein ausgewogenes Verhältnis von Beruf und Privatleben schaffen. Dies gelingt beispielsweise durch flexible Arbeitszeitmodelle, einem Zuschuss zur Kinderbetreuung, Möglichkeiten für ein Sabbatical oder den Freiraum zur Pflege von Angehörigen. Aber auch ein zusätzlicher Urlaubstag am Geburtstag gibt dem Mitarbeiter die Chance, Zeit für die Familie, Freunde oder sich selbst zu nutzen. Der Vorteil für Arbeitgeber: Der Urlaubstag ist zeitlich gebunden und damit für den gesamten Betriebsablauf gut planbar. Nicht vergessen werden sollte auch die gemeinsame Zeit im Team. Diese stärkt den Zusammenhalt und das Wohlfühlen zwischen den Mitarbeitern, fördert den (kreativen) Austausch und festigt die Bindung und Loyalität gegenüber dem Arbeitgeber. Dabei ist es egal, ob es sich um gemeinschaftliche Sportaktivitäten, ein Team-Essen oder die Betriebsfeier handelt. Bei letztgenannten kann das Unternehmen sogar Steuern sparen, denn für ein Firmenevent liegt der steuer- und sozialabgabenfreie Freibetrag aktuell bei 110 Euro pro Mitarbeiter – und das sogar zwei Mal jährlich (Paragraf 19 Abs. 1a EStG). Das Wohlbefinden und die mentale sowie körperliche Gesundheit der Mitarbeiter zu fördern, führt nachweislich zu geringeren Fehlzeiten, einer höheren Leistungsfähigkeit und letztendlich auch zu geringeren Recruitingkosten. Gesunde Ernährung, Me-Time und Co.: Viele Beschäftigten legen großen Wert auf eine gesunde Lebensweise. Dies soll sich auch im Berufsleben widerspiegeln. Benefits im Bereich Gesundheit sind damit eine lohnende Investition eines jeden Unternehmens. Durch Vergünstigungen für ein Fitnessstudio, kostenlose gesunde Getränke oder einem ausgewogenen Verpflegungsangebot haben Unternehmen viele Möglichkeiten, ihr Team gezielt zu unterstützen. Immer beliebter werden auch Maßnahmen wie eine Erholungsbeihilfe, Gesundheits- oder Stressmanagement-Workshops. Ein strategisches und nachhaltiges betriebliches Gesundheitsmanagement (BGM) hilft dabei, die richtigen Leistungen zu identifizieren und zu implementieren. Auch im Bereich Mobilität findet ein Umdenken statt und der Trend geht vom Auto hin zu öffentlichen Verkehrsmitteln oder dem Fahrrad. Zu einem zeitgemäßen Benefit-Programm zählt deshalb nicht mehr unbedingt der Dienstwagen (Elektro oder Hybrid), sondern Leasingangebote für ein Jobrad oder der Fahrtkostenzuschuss. So machen Unternehmen Werte wie Umweltbewusstsein und Nachhaltigkeit für ihre Mitarbeiter sicht- und erlebbar. Monatlicher Benefit: Der 50-Euro-Sachbezug Arbeitgeber, die ihren Mitarbeitern regelmäßig für ihr Engagement im Job danken möchten, können dies mit einem steuer- und sozialabgabenfreien monatlichen Gehaltsextra machen. Diese Art der Wertschätzung wirkt sich positiv auf die Motivation und Leistungsbereitschaft der Mitarbeiter aus – und damit auf die Mitarbeiterbindung. Der steuerfreie Sachbezug bis maximal 50 Euro (seit dem 1. Januar 2022) kann jeden Monat als Zusatzleistung ausgezahlt werden. Hochgerechnet auf ein Jahr ergibt sich daraus ein steuer- und sozialabgabenfreies Gehaltsextra von bis zu 600 Euro. Doch Vorsicht: Wird die Freigrenze überschritten, ist der komplette Betrag steuer- und sozialabgabenpflichtig. Ebenfalls wichtig zu wissen ist, dass diese Sachbezüge zum ohnehin geschuldeten Arbeitslohn gewährt werden müssen und grundsätzlich jedem Angestellten zugänglich ist – egal, ob in Vollzeit-, Teilzeit-, oder Minijobanstellung. Da im Steuerrecht das sogenannte Zuflussprinzip gilt, können Mitarbeiter die im jeweiligen Monat erhaltenen Beträge problemlos ansparen und zu einem späteren Zeitpunkt für größere Wünsche ausgeben. Aus diesem Grund setzen viele Unternehmen bereits Gutscheinkarten ein. Die Vorteile: Gutscheinkarten halten den Verwaltungsaufwand gering, ermöglichen einen rechtskonformen Einsatz des steuer- und sozialabgabefreien Gehaltsextras und jeder Arbeitnehmer kann dieses Gehaltsplus individuell einsetzen. Zusatzleistung Gutscheinkarte Arbeitgeber, die den steuerfreien Sachbezug in Form einer flexiblen Gutscheinkarte zur Verfügung stellen, müssen darauf achten, dass diese seit dem 1. Januar 2022 verpflichtend auch sogenannte ZAG-Kriterien erfüllt: Seit dem 1. Januar 2022 müssen für den steuerfreien Sachbezug eingesetzte Gutscheinkarten die Kriterien des Zahlungsdiensteaufsichtsgesetzes (ZAG) erfüllen. Diese beschreiben, welche Arten von Gutscheinkarten zum Erwerb von Waren und Dienstleistungen unter Anwendung des 50-Euro-Sachbezugs* zulässig sind: Begrenzte Netzwerke: Gutscheinkarten von Einkaufsläden, Einzelhandelsketten oder regionale City Cards (gemäß Paragraf 2 Abs. 1 Nr. 10a ZAG) Begrenzte Produktpalette: Gutscheinkarten für nur eine Produktkategorie wie Fashion, Kino, etc. (gemäß Paragraf 2 Abs. 1 Nr. 10b ZAG) *Ab 01. Januar 2022 wurde die Freigrenze auf 50 Euro erhöht. Seit Februar 2025 gibt es eine neue Lösung. Arbeitgeber können bei der Gewährung des Sachbezugs neben Gutscheinkarten auch Online-Gutscheine zur Auswahl stellen – alles im Rahmen der gesetzlichen Möglichkeiten. Edenred Benefits bietet den Nutzern mehr Flexibilität und eine unkomplizierte Handhabung für Unternehmen. Benefit-Management: Digital in die Zukunft Individualität ist das Gebot der Stunde, wenn es an die Ausgestaltung und Gewährung von Benefits geht. Das gilt auch für die Verwaltung eines umfassenden Corporate-Benefit-Programms. Unterstützung erhalten Arbeitgeber dabei etwa in Form einer digitalen Benefit-Management-Plattform, die eine einfache, flexible und rechtkonforme Verwaltung bietet. So bündelt eine digitale Plattform interessante, am Markt angeboten Benefits und stellt diese Unternehmen und Beschäftigten in einem modularen System zur Auswahl. Arbeitgeber können daraus ihr individuelles Benefit-Konzept für Mitarbeiter zur Verfügung stellen. Die Vorteile liegen auf der Hand: Indem alle Leistungen digital und zentral erfasst sind, sind rechtliche Änderungen oder Produktinnovationen jederzeit und schnell implementierbar. Einmal integriert, können Arbeitgeber zudem auswählen, wann welche Zusatzleistung einzelnen Beschäftigten zugeteilt werden soll. Zudem entfällt ein hoher Aufwand bei der Wahrung der Rechtskonformität sowie Lohnbuchhaltung und bei administrativen Prozessen. Mittels einer App erhalten Mitarbeiter eine Übersicht über alle angebotenen Job Goodies und können diese direkt nutzen. Die Arbeitswelt zeigt: Benefits müssen innovativ, flexibel und individuell sein. Sie sollten einerseits im Kontext gesellschaftlicher Entwicklungen und Digitalisierung stehen und die Unternehmenswerte erlebbar machen. Andererseits die Identifikation von Arbeitnehmern mit ihren Arbeitgebern stärken und flexibel auf die individuellen Bedürfnisse und Lebensgewohnheiten eingehen. Ist all das erfüllt, wird ein Benefit seinem Namen gerecht. (hk/fm) 

Mitarbeiter-Benefits: Was sich Mitarbeiter wünschen​ Viele Mitarbeiter wünschen sich heute als Zusatzleistung Zeit, um sich beispielsweise stärker um Familienangehörige zu kümmern.
Foto: Brian A Jackson – shutterstock.com

Remote Work, flexible Arbeitszeitmodelle, neue Führungs- und Unternehmenskulturen – seit einigen Jahren findet auf dem Arbeitsmarkt ein Umdenken statt. Dabei wandeln sich auch die Ansprüche an einen Arbeitgeber. Insbesondere die jüngeren Generationen streben danach, sich mit einem Unternehmen und seinen Werten identifizieren zu können. Denn mit dem Auftreten neuer Generationen wandelt sich der Arbeitsmarkt.

So erreichen die Babyboomer nach und nach das Renteneintrittsalter, die Generation Y ist fest im Arbeitsleben angekommen und junge Vertreter der Generation Z rücken nach – und alle haben neue Ansprüche und Anforderungen im Gepäck. Je besser es den Unternehmen gelingt, die Bedürfnisse ihrer Mitarbeiterinnen und Mitarbeiter zu kennen, umso erfolgreicher funktionieren das Recruiting und die Mitarbeiterbindung. Individualität, Flexibilität und Wertschätzung stehen dabei heute mehr denn je im Fokus und sollten auch bei einem umfassenden und nachhaltigen Corporate-Benefit-Konzept berücksichtigt werden.

Mitarbeiter-Benefits: Zeit und Gesundheit

Es ist vor allem die Zeit, die in unserer meist schnelllebigen und zunehmend hybriden Arbeitswelt ein wertvolles Gut darstellt. Eine Ressource, die sich auch auf die Benefits für Mitarbeiter auswirkt. So sind heute, neben dem Gehalt, zunehmend Leistungen beliebt, die einen Zeitvorteil für den Mitarbeiter darstellen und ein ausgewogenes Verhältnis von Beruf und Privatleben schaffen. Dies gelingt beispielsweise durch flexible Arbeitszeitmodelle, einem Zuschuss zur Kinderbetreuung, Möglichkeiten für ein Sabbatical oder den Freiraum zur Pflege von Angehörigen. Aber auch ein zusätzlicher Urlaubstag am Geburtstag gibt dem Mitarbeiter die Chance, Zeit für die Familie, Freunde oder sich selbst zu nutzen. Der Vorteil für Arbeitgeber: Der Urlaubstag ist zeitlich gebunden und damit für den gesamten Betriebsablauf gut planbar.

Nicht vergessen werden sollte auch die gemeinsame Zeit im Team. Diese stärkt den Zusammenhalt und das Wohlfühlen zwischen den Mitarbeitern, fördert den (kreativen) Austausch und festigt die Bindung und Loyalität gegenüber dem Arbeitgeber. Dabei ist es egal, ob es sich um gemeinschaftliche Sportaktivitäten, ein Team-Essen oder die Betriebsfeier handelt. Bei letztgenannten kann das Unternehmen sogar Steuern sparen, denn für ein Firmenevent liegt der steuer- und sozialabgabenfreie Freibetrag aktuell bei 110 Euro pro Mitarbeiter – und das sogar zwei Mal jährlich (Paragraf 19 Abs. 1a EStG).

Das Wohlbefinden und die mentale sowie körperliche Gesundheit der Mitarbeiter zu fördern, führt nachweislich zu geringeren Fehlzeiten, einer höheren Leistungsfähigkeit und letztendlich auch zu geringeren Recruitingkosten. Gesunde Ernährung, Me-Time und Co.: Viele Beschäftigten legen großen Wert auf eine gesunde Lebensweise. Dies soll sich auch im Berufsleben widerspiegeln. Benefits im Bereich Gesundheit sind damit eine lohnende Investition eines jeden Unternehmens. Durch Vergünstigungen für ein Fitnessstudio, kostenlose gesunde Getränke oder einem ausgewogenen Verpflegungsangebot haben Unternehmen viele Möglichkeiten, ihr Team gezielt zu unterstützen. Immer beliebter werden auch Maßnahmen wie eine Erholungsbeihilfe, Gesundheits- oder Stressmanagement-Workshops. Ein strategisches und nachhaltiges betriebliches Gesundheitsmanagement (BGM) hilft dabei, die richtigen Leistungen zu identifizieren und zu implementieren.

Auch im Bereich Mobilität findet ein Umdenken statt und der Trend geht vom Auto hin zu öffentlichen Verkehrsmitteln oder dem Fahrrad. Zu einem zeitgemäßen Benefit-Programm zählt deshalb nicht mehr unbedingt der Dienstwagen (Elektro oder Hybrid), sondern Leasingangebote für ein Jobrad oder der Fahrtkostenzuschuss. So machen Unternehmen Werte wie Umweltbewusstsein und Nachhaltigkeit für ihre Mitarbeiter sicht- und erlebbar.

Monatlicher Benefit: Der 50-Euro-Sachbezug

Arbeitgeber, die ihren Mitarbeitern regelmäßig für ihr Engagement im Job danken möchten, können dies mit einem steuer- und sozialabgabenfreien monatlichen Gehaltsextra machen. Diese Art der Wertschätzung wirkt sich positiv auf die Motivation und Leistungsbereitschaft der Mitarbeiter aus – und damit auf die Mitarbeiterbindung.

Der steuerfreie Sachbezug bis maximal 50 Euro (seit dem 1. Januar 2022) kann jeden Monat als Zusatzleistung ausgezahlt werden. Hochgerechnet auf ein Jahr ergibt sich daraus ein steuer- und sozialabgabenfreies Gehaltsextra von bis zu 600 Euro. Doch Vorsicht: Wird die Freigrenze überschritten, ist der komplette Betrag steuer- und sozialabgabenpflichtig. Ebenfalls wichtig zu wissen ist, dass diese Sachbezüge zum ohnehin geschuldeten Arbeitslohn gewährt werden müssen und grundsätzlich jedem Angestellten zugänglich ist – egal, ob in Vollzeit-, Teilzeit-, oder Minijobanstellung.

Da im Steuerrecht das sogenannte Zuflussprinzip gilt, können Mitarbeiter die im jeweiligen Monat erhaltenen Beträge problemlos ansparen und zu einem späteren Zeitpunkt für größere Wünsche ausgeben. Aus diesem Grund setzen viele Unternehmen bereits Gutscheinkarten ein. Die Vorteile: Gutscheinkarten halten den Verwaltungsaufwand gering, ermöglichen einen rechtskonformen Einsatz des steuer- und sozialabgabefreien Gehaltsextras und jeder Arbeitnehmer kann dieses Gehaltsplus individuell einsetzen.

Zusatzleistung Gutscheinkarte

Arbeitgeber, die den steuerfreien Sachbezug in Form einer flexiblen Gutscheinkarte zur Verfügung stellen, müssen darauf achten, dass diese seit dem 1. Januar 2022 verpflichtend auch sogenannte ZAG-Kriterien erfüllt:

Seit dem 1. Januar 2022 müssen für den steuerfreien Sachbezug eingesetzte Gutscheinkarten die Kriterien des Zahlungsdiensteaufsichtsgesetzes (ZAG) erfüllen. Diese beschreiben, welche Arten von Gutscheinkarten zum Erwerb von Waren und Dienstleistungen unter Anwendung des 50-Euro-Sachbezugs* zulässig sind:

Begrenzte Netzwerke: Gutscheinkarten von Einkaufsläden, Einzelhandelsketten oder regionale City Cards (gemäß Paragraf 2 Abs. 1 Nr. 10a ZAG)

Begrenzte Produktpalette: Gutscheinkarten für nur eine Produktkategorie wie Fashion, Kino, etc. (gemäß Paragraf 2 Abs. 1 Nr. 10b ZAG)

*Ab 01. Januar 2022 wurde die Freigrenze auf 50 Euro erhöht.

Seit Februar 2025 gibt es eine neue Lösung. Arbeitgeber können bei der Gewährung des Sachbezugs neben Gutscheinkarten auch Online-Gutscheine zur Auswahl stellen – alles im Rahmen der gesetzlichen Möglichkeiten. Edenred Benefits bietet den Nutzern mehr Flexibilität und eine unkomplizierte Handhabung für Unternehmen.

Benefit-Management: Digital in die Zukunft

Individualität ist das Gebot der Stunde, wenn es an die Ausgestaltung und Gewährung von Benefits geht. Das gilt auch für die Verwaltung eines umfassenden Corporate-Benefit-Programms. Unterstützung erhalten Arbeitgeber dabei etwa in Form einer digitalen Benefit-Management-Plattform, die eine einfache, flexible und rechtkonforme Verwaltung bietet.

So bündelt eine digitale Plattform interessante, am Markt angeboten Benefits und stellt diese Unternehmen und Beschäftigten in einem modularen System zur Auswahl. Arbeitgeber können daraus ihr individuelles Benefit-Konzept für Mitarbeiter zur Verfügung stellen. Die Vorteile liegen auf der Hand: Indem alle Leistungen digital und zentral erfasst sind, sind rechtliche Änderungen oder Produktinnovationen jederzeit und schnell implementierbar.

Einmal integriert, können Arbeitgeber zudem auswählen, wann welche Zusatzleistung einzelnen Beschäftigten zugeteilt werden soll. Zudem entfällt ein hoher Aufwand bei der Wahrung der Rechtskonformität sowie Lohnbuchhaltung und bei administrativen Prozessen. Mittels einer App erhalten Mitarbeiter eine Übersicht über alle angebotenen Job Goodies und können diese direkt nutzen.

Die Arbeitswelt zeigt: Benefits müssen innovativ, flexibel und individuell sein. Sie sollten einerseits im Kontext gesellschaftlicher Entwicklungen und Digitalisierung stehen und die Unternehmenswerte erlebbar machen. Andererseits die Identifikation von Arbeitnehmern mit ihren Arbeitgebern stärken und flexibel auf die individuellen Bedürfnisse und Lebensgewohnheiten eingehen. Ist all das erfüllt, wird ein Benefit seinem Namen gerecht. (hk/fm)

Mitarbeiter-Benefits: Was sich Mitarbeiter wünschen​ Weiterlesen »

Teams: Alte Benutzeroberfläche wiederherstellen​

Allgemein

Mit der neuen „Chat- und Kanalerfahrung“ in Teams verfolgt Microsoft das Ziel alle Chats, Teams und Kanäle zusammenzuführen. Auf diese Weise soll es Anwendern leichter fallen, ihre Unterhaltungen mit angepassten Ansichten nach ihren Anforderungen und Vorlieben nachzuverfolgen. Als Resultat verschwindet der Menüpunkt Teams in der linken Seitenleiste, diese können nun im Bereich Chat über die horizontale Navigation (Kanäle) ausgewählt werden. Allerdings gibt es auch Nutzer, die Chats und Kanäle lieber getrennt voneinander halten wollen. Wir zeigen Ihnen hier, wie das geht. Teams auf dem PC Um die gewohnte Ansicht auf dem PC wiederherzustellen, klicken Sie im Bereich Chat auf die drei Punkte oberhalb der Chatliste. Daraufhin öffnet sich ein neues Menü, indem Sie den Punkt „Ansicht anpassen“ auswählen. Foundry Dort angekommen, können Sie von „Kombiniert“ auf „Getrennt“ wechseln, um die alte Ansicht wiederherzustellen. Foundry Weiter unten können Sie außerdem die Anzeige der Nachrichtenvorschau, des Zeitstempels, der Filter und des Entdecken-Button einstellen, sowie die Darstellung der Chat-Nachrichten (“komfortabel” oder “kompakt”) und die Anzeige der letzten Aktivität in einem Kanal (oben oder unten) festlegen. Teams auf dem Smartphone In der Android- oder iOS-App geht das Umstellen der Ansicht ähnlich: Sie klicken in der Chat-Ansicht rechts oben auf die drei Punkte und währen in dem erscheinenden Menü den obersten Punt „Ansicht anpassen“ aus. Auf der anschließend erscheinenden Karte können Sie dann ganz oben von „Kombiniert“ auf Trennen“ wechseln. 

Teams: Alte Benutzeroberfläche wiederherstellen​ Mit der neuen „Chat- und Kanalerfahrung“ in Teams verfolgt Microsoft das Ziel alle Chats, Teams und Kanäle zusammenzuführen. Auf diese Weise soll es Anwendern leichter fallen, ihre Unterhaltungen mit angepassten Ansichten nach ihren Anforderungen und Vorlieben nachzuverfolgen. Als Resultat verschwindet der Menüpunkt Teams in der linken Seitenleiste, diese können nun im Bereich Chat über die horizontale Navigation (Kanäle) ausgewählt werden. Allerdings gibt es auch Nutzer, die Chats und Kanäle lieber getrennt voneinander halten wollen. Wir zeigen Ihnen hier, wie das geht.

Teams auf dem PC

Um die gewohnte Ansicht auf dem PC wiederherzustellen, klicken Sie im Bereich Chat auf die drei Punkte oberhalb der Chatliste. Daraufhin öffnet sich ein neues Menü, indem Sie den Punkt „Ansicht anpassen“ auswählen.

Foundry

Dort angekommen, können Sie von „Kombiniert“ auf „Getrennt“ wechseln, um die alte Ansicht wiederherzustellen.

Foundry

Weiter unten können Sie außerdem die Anzeige der Nachrichtenvorschau, des Zeitstempels, der Filter und des Entdecken-Button einstellen, sowie die Darstellung der Chat-Nachrichten (“komfortabel” oder “kompakt”) und die Anzeige der letzten Aktivität in einem Kanal (oben oder unten) festlegen.

Teams auf dem Smartphone

In der Android- oder iOS-App geht das Umstellen der Ansicht ähnlich: Sie klicken in der Chat-Ansicht rechts oben auf die drei Punkte und währen in dem erscheinenden Menü den obersten Punt „Ansicht anpassen“ aus. Auf der anschließend erscheinenden Karte können Sie dann ganz oben von „Kombiniert“ auf Trennen“ wechseln.

Teams: Alte Benutzeroberfläche wiederherstellen​ Weiterlesen »

Ein Bauriese wird KI-ready​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?quality=50&strip=all 5977w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Das kanadische Unternehmen Graham Construction gehört im nordamerikanischen Baugewerbe zu den Marktführern. Damit das auch in Zukunft so bleibt, setzt der Konzern unter anderem auf eine einheitliche Datenplattform. David W Mershon | shutterstock.com Als ich vor drei Jahren zu Graham Construction stieß, war ich die erste Person in meiner aktuellen Position als Director of Data and Analytics. Zwar waren Datenanalysen für das Unternehmen nicht völlig neu, aber es gab dafür keinen einheitlichen Ansatz. Deshalb haben wir uns damals zum Ziel gesetzt, eine durchgängige Enterprise-Datenstrategie zu entwickeln. Für dieses Projekt wurde unser Unternehmen vor kurzem auch mit einem CIO Canada Award ausgezeichnet. Data-as-a-Product Im Jahr 2021 sah sich unser Unternehmen – wie viele andere auch – mit Daten-Challenges konfrontiert. In erster Linie gab es einfach keinen Plan für Enterprise-Daten. Denn auch wenn diverse Firmen sich nach außen hin als “Data-Driven” präsentieren: Daten in der Praxis effektiv zu integrieren, ist kostspielig, zeitaufwändig und mit jeder Menge manuellem Aufwand verbunden. Nachdem Graham insbesondere in den Jahren 2017 bis 2022 durch Übernahmen weiter gewachsen war, war es unumgänglich, eine einheitliche Datenplattform aufzubauen – unabhängig von ERP-Systemen und anderen Technologien. Diese haben wir in der Folge mit Informationen aus diversen unterschiedlichen Abteilungen und Systemen im gesamten Unternehmen aufgebaut, wobei die Schwerpunkte auf den Bereich Reportings und Prozessoptimierung lagen. Eine der größten Herausforderungen war dabei, sicherzustellen, dass die Daten auch für die Field Worker vor Ort – beziehungsweise Mitarbeiter im Außendienst – jederzeit zugänglich und nutzbar sind. Zu diesem Zweck haben wir einen „Insights Hub“ geschaffen, der auf unserer Enterprise-Datenplattform aufsetzt und über unser Intranet abrufbar ist. srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?quality=50&strip=all 1600w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Annette Cooper ist seit 2022 Director of Data and Analytics bei Graham Construction.Annette Cooper Die wichtigste Innovation, die die Datenplattform realisiert, ist dabei der Ansatz, Daten in Produkte umzuwandeln: Statt einfach nur Reportings zu generieren und darauf zu hoffen, dass diese für irgendjemanden nützlich sind, betrachten wir jeden Bericht als Produkt – inklusive Owner und Lifecycle. Dieses Produkt-zentrische Mindset rückt die Endbenutzer in den Fokus und stellt sicher, dass jeder Datenpunkt einen Zweck erfüllt – hat aber auch signifikanten Business Impact. Denn das Konzept stellt nicht nur einen erheblichen Fortschritt für Graham als Unternehmen dar, sondern legt auch den Grundstein für unser künftiges Wachstum – auch mit Blick auf die Integration von künstlicher Intelligenz (KI). Schließlich werden mit sich verändernden Business-Anforderungen auch die Datenanforderungen steigen. Mit unserem Fokus auf Design und Funktionalität sind wir gut dafür gerüstet, uns an diese Veränderungen anzupassen. Auch, da unsere Plattform dafür konzipiert ist, sowohl strukturierte als auch unstrukturierte Daten zu managen. Unsere Investitionen in die Infrastruktur befähigen uns so dazu, nicht mehr nur reaktiv, sondern proaktiv auf innovative, neue Technologien wie etwa Generative AI (GenAI) reagieren zu können. Change Management mit Diversity-Fokus In meiner Rolle pflege ich eine enge Beziehung zu unserem Führungsteam, was bei der Diskussion um Budgets, Finanzierungen und langfristige strategische Ziele von unschätzbarem Wert war. Allerdings kommt die entscheidende Rolle bei der Umsetzung von Change und neuen Strategien dem mittleren Management zu – also denjenigen, die für das Tagesgeschäft verantwortlich zeichnen. Zu diesen Führungskräften ebenso starke, vertrauensvolle Beziehungen aufzubauen, war für ein erfolgreiches Change Management unerlässlich. Deshalb beziehen wir bei Graham auch diese Management-Ebene frühzeitig in die Prozesse ein. Das gewährleistet, dass die getroffenen Entscheidungen die praktischen Anforderungen des Unternehmens widerspiegeln – und nicht allein von Führungskräften getroffen werden, die nur wenig Berührungspunkte mit den tatsächlichen, operativen Herausforderungen haben. Als Frau mit Migrationshintergrund und Mitglied der LGBTQ-Community weiß ich zudem den Wert unterschiedlicher Perspektiven zu schätzen. Deshalb setze ich mich auch leidenschaftlich für Diversity ein, weil sie dazu beiträgt unterschiedliche Problemlösungsansätze evaluieren zu können. Vielfältige Teams sind in meiner Erfahrung innovativer und erzielen bessere Ergebnisse. Und Diversity nimmt auch im Kontext der Produktentwicklung eine entscheidende Rolle ein. Indem Menschen mit unterschiedlichen Hintergründen zusammenkommen, entstehen umfassendere Lösungen, die den Bedürfnissen eines breiteren Publikums gerecht werden. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Ein Bauriese wird KI-ready​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?quality=50&strip=all 5977w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Das kanadische Unternehmen Graham Construction gehört im nordamerikanischen Baugewerbe zu den Marktführern. Damit das auch in Zukunft so bleibt, setzt der Konzern unter anderem auf eine einheitliche Datenplattform. David W Mershon | shutterstock.com

Als ich vor drei Jahren zu Graham Construction stieß, war ich die erste Person in meiner aktuellen Position als Director of Data and Analytics. Zwar waren Datenanalysen für das Unternehmen nicht völlig neu, aber es gab dafür keinen einheitlichen Ansatz. Deshalb haben wir uns damals zum Ziel gesetzt, eine durchgängige Enterprise-Datenstrategie zu entwickeln.

Für dieses Projekt wurde unser Unternehmen vor kurzem auch mit einem CIO Canada Award ausgezeichnet.

Data-as-a-Product

Im Jahr 2021 sah sich unser Unternehmen – wie viele andere auch – mit Daten-Challenges konfrontiert. In erster Linie gab es einfach keinen Plan für Enterprise-Daten. Denn auch wenn diverse Firmen sich nach außen hin als “Data-Driven” präsentieren: Daten in der Praxis effektiv zu integrieren, ist kostspielig, zeitaufwändig und mit jeder Menge manuellem Aufwand verbunden.

Nachdem Graham insbesondere in den Jahren 2017 bis 2022 durch Übernahmen weiter gewachsen war, war es unumgänglich, eine einheitliche Datenplattform aufzubauen – unabhängig von ERP-Systemen und anderen Technologien. Diese haben wir in der Folge mit Informationen aus diversen unterschiedlichen Abteilungen und Systemen im gesamten Unternehmen aufgebaut, wobei die Schwerpunkte auf den Bereich Reportings und Prozessoptimierung lagen. Eine der größten Herausforderungen war dabei, sicherzustellen, dass die Daten auch für die Field Worker vor Ort – beziehungsweise Mitarbeiter im Außendienst – jederzeit zugänglich und nutzbar sind. Zu diesem Zweck haben wir einen „Insights Hub“ geschaffen, der auf unserer Enterprise-Datenplattform aufsetzt und über unser Intranet abrufbar ist.

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?quality=50&strip=all 1600w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Annette Cooper ist seit 2022 Director of Data and Analytics bei Graham Construction.Annette Cooper

Die wichtigste Innovation, die die Datenplattform realisiert, ist dabei der Ansatz, Daten in Produkte umzuwandeln: Statt einfach nur Reportings zu generieren und darauf zu hoffen, dass diese für irgendjemanden nützlich sind, betrachten wir jeden Bericht als Produkt – inklusive Owner und Lifecycle. Dieses Produkt-zentrische Mindset rückt die Endbenutzer in den Fokus und stellt sicher, dass jeder Datenpunkt einen Zweck erfüllt – hat aber auch signifikanten Business Impact.

Denn das Konzept stellt nicht nur einen erheblichen Fortschritt für Graham als Unternehmen dar, sondern legt auch den Grundstein für unser künftiges Wachstum – auch mit Blick auf die Integration von künstlicher Intelligenz (KI). Schließlich werden mit sich verändernden Business-Anforderungen auch die Datenanforderungen steigen. Mit unserem Fokus auf Design und Funktionalität sind wir gut dafür gerüstet, uns an diese Veränderungen anzupassen. Auch, da unsere Plattform dafür konzipiert ist, sowohl strukturierte als auch unstrukturierte Daten zu managen. Unsere Investitionen in die Infrastruktur befähigen uns so dazu, nicht mehr nur reaktiv, sondern proaktiv auf innovative, neue Technologien wie etwa Generative AI (GenAI) reagieren zu können.

Change Management mit Diversity-Fokus

In meiner Rolle pflege ich eine enge Beziehung zu unserem Führungsteam, was bei der Diskussion um Budgets, Finanzierungen und langfristige strategische Ziele von unschätzbarem Wert war. Allerdings kommt die entscheidende Rolle bei der Umsetzung von Change und neuen Strategien dem mittleren Management zu – also denjenigen, die für das Tagesgeschäft verantwortlich zeichnen.

Zu diesen Führungskräften ebenso starke, vertrauensvolle Beziehungen aufzubauen, war für ein erfolgreiches Change Management unerlässlich. Deshalb beziehen wir bei Graham auch diese Management-Ebene frühzeitig in die Prozesse ein. Das gewährleistet, dass die getroffenen Entscheidungen die praktischen Anforderungen des Unternehmens widerspiegeln – und nicht allein von Führungskräften getroffen werden, die nur wenig Berührungspunkte mit den tatsächlichen, operativen Herausforderungen haben.

Als Frau mit Migrationshintergrund und Mitglied der LGBTQ-Community weiß ich zudem den Wert unterschiedlicher Perspektiven zu schätzen. Deshalb setze ich mich auch leidenschaftlich für Diversity ein, weil sie dazu beiträgt unterschiedliche Problemlösungsansätze evaluieren zu können. Vielfältige Teams sind in meiner Erfahrung innovativer und erzielen bessere Ergebnisse. Und Diversity nimmt auch im Kontext der Produktentwicklung eine entscheidende Rolle ein. Indem Menschen mit unterschiedlichen Hintergründen zusammenkommen, entstehen umfassendere Lösungen, die den Bedürfnissen eines breiteren Publikums gerecht werden. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Ein Bauriese wird KI-ready​ Weiterlesen »

12 Wege, DevSecOps zu optimieren​

Allgemein

12 SaaS-Inspirationen für Ihr DevSecOps-Team. Foto: Oleg Nesterov | shutterstock.com Zwar sind heutzutage viele Unternehmen in den Bereichen Softwareentwicklung und DevOps gut aufgestellt. Wenn es aber darum geht, Applikationen zu skalieren, mit unterschiedlichen Use Cases umzugehen sowie Performance- und Sicherheitsprobleme in Angriff zu nehmen, bevor diese zu Kundenproblemen werden, können sie sich dennoch meist eine Scheibe von Software-as-a-Service-Firmen abschneiden. In diesem Artikel stellen wir Ihnen 12 Prinzipien vor, die sich unter SaaS-Technologieführern bewährt haben und sich auch auf DevSecOps übertragen lassen. 1. Customer-First-Mindset entwickeln Im Sinne der Kundenbindung und Wachstumsförderung sind ein Mindset, dass die Kunden in den Mittelpunkt rückt und ein Gespür für deren Bedürfnisse obligatorisch. Für DevSecOps-Teams heißt das in erster Linie zu lernen, ihre eigenen Kollegen als Kunden zu betrachten, wenn sie interne Applikationen entwickeln. Claire Vo, Chief Product Officer von LaunchDarkly, weiß, welche Aspekte ein kundenorientiertes Mindset beinhalten sollte: “Vor allem einen nicht verhandelbaren Fokus darauf, Kundenprobleme schnell zu identifizieren und zu beheben. Softwareentwickler sollten deshalb direkt mit den Kunden in Kontakt treten, um deren Nutzungsgewohnheiten in Erfahrung zu bringen und entsprechend hohe Qualitätsansprüche anlegen zu können.” Tipp: DevSecOps-Teams sollten regelmäßige Meetings mit Endbenutzern einplanen, um deren Nutzungsgewohnheiten zu beobachten und Möglichkeiten zu erkennen, die App-Performance zu optimieren. 2. Versionskontrolle mit agilen User Stories verbinden Die allermeisten Firmen setzen inzwischen auf Versionskontrolle – allerdings sieht David Brooks, SVP of Evangelism bei Copado, ein Problem: “Viele Entwickler fokussieren sich zu sehr auf das Branch Management in ihrem Repository. Moderne Entwicklung basiert auf Agilität und viele DevOps-Tools managen Änderungen direkt auf Basis der User Story.” Das erleichtere es agilen Entwicklungsteams, sich darauf zu konzentrieren, Mehrwert bereitzustellen, unterstütze einen testgetriebenen Development-Ansatz und ermögliche es, Merge-Konflikte automatisiert aufzulösen, so der Manager. Tipp: Abgesehen davon, Workflows zwischen agilen Tools und Versionskontrolle zu verbinden, sollten DevSecOps-Teams auch in Betracht ziehen: CI/CD-Pipelines zu standardisieren, mit Feature Flags zu entwickeln und Canary-Release-Strategien einzusetzen. 3. Neue Features mit A/B-Tests erproben In DevSecOps-Automatisierung zu investieren, schafft Flexibilität, wenn es darum geht, Funktionen für kleinere Gruppen von Benutzern freizugeben und A/B-Tests zu fahren. Darüber hinaus wird so nicht nur Continuous Deployment unterstützt, sondern auch möglich, Funktionen zu validieren und das Feedback von Endbenutzern einzuholen. Elliot Wood, CTO und Mitbegründer von CallRail, erklärt, wie das in der Praxis aussieht: “Neue Alphafunktionen werden offen und in schnellem Tempo getestet, um Kunden-Feedback zu sammeln. Die Teams sind dabei in der Lage, schnell zu arbeiten, weil sie kleine Änderungen an eine begrenzte Anzahl von Kunden weitergeben und das Risiko jedes einzelnen Experiments minimieren können.” Tipp: Alpha- und Beta-Tests, bei denen erstere intern innerhalb des Unternehmens stattfinden und zweitere auf die Umgebung des Benutzers fokussieren, sind bewährte Praxis in der Softwareentwicklung. DevSecOps bringt Automatisierungs- und Skalierbarkeitspraktiken ein, um den Technologiebetrieb zu operationalisieren. Der Schlüssel zu erfolgreichen A/B-Programmen liegt darin: Teilnehmer zu rekrutieren, Ziele zu kommunizieren, umsetzbares Feedback zu erfassen, sowie Kollaboration zu belohnen. 4. ‘Security by Design’ etablieren Vielen soliden IT-Sicherheitsprogrammen zum Trotz bleibt es eine Herausforderung, den ‘Security by Design’-Grundsatz im Softwareentwicklungsprozess zu verankern. Zu den relevanten Best Practices in diesem Bereich zählen etwa: automatisierte Penetration-Tests, Code-Scans innerhalb von CI/CD-Pipelines sowie der Schutz vor API-Injection, -Lecks und nicht funktionierenden Zugriffskontrollen. Steve Touw, CTO bei Immuta, weiß aus eigener Erfahrung um die Benefits, die dieser Ansatz bringt: “Seitdem wir auf ‘Security by Design’ setzen, hat sich unser Wartungs- und Verwaltungsaufwand mit Blick auf das Vulnerability Management merklich verringert.” Tipp: CIOs, CISOs und Delivery Manager sollten eindeutige, nicht verhandelbare Anforderungen hinsichtlich der Sicherheitspraktiken, Tests und Metriken definieren, die erforderlich sind, um Produktionspfade zu automatisieren. 5. Unit-Testing-Unzulänglichkeiten erkennen Unit Testing hilft zwar dabei Komponenten und Schnittstellen zu validieren – reicht aber nicht aus, um die End-to-End-Funktionalität oder das Benutzererlebnis zu überprüfen. Peter McKee, Head of Developer Relations and Community bei Sonar, erklärt: “Entwickler, die einen Shift-Left-Ansatz verfolgen, räumen Unit-Tests oft Priorität ein, um sicherzustellen, dass Features und Funktionen korrekt funktionieren. Wenn man sich jedoch ausschließlich darauf verlässt, kann das zu Lücken in der Qualitätssicherung führen. Das beeinträchtigt unter Umständen auch die Sicherheit der Software mit Blick auf das Deployment.” Tipp: Diverse Tools können Frontend User Experience Testing automatisieren. Um robuste Funktionstests zu gewährleisten, sollten agile Development-Teams: entsprechende Verantwortlichkeiten definieren, Skills entwickeln und die dafür nötige Zeit investieren. 6. Testing (fachgerecht) automatisieren Ein Engagement für mehr funktionales Testing steht und fällt mit den entwickelten Use Cases. Dabei können QA-Engineers Grenzbedingungen und Fehlerkonditionen identifizieren – vorausgesetzt, sie werden von den Endbenutzern entsprechend angeleitet, um Ziele, Workflows und Journeys besser zu durchdringen. “Entwickler sind darauf bedacht, Code zu liefern, der wie gewünscht funktioniert. Um eine robuste Software zu gewährleisten, die mit allen Variationen der Kundenkonfiguration funktioniert, sollten Fachexperten Tests erstellen, die geeignet sind zu demonstrieren, wie die Benutzer die Funktionen in der realen Welt nutzen”, konstatiert Copado-SVP Brooks und ergänzt: “Idealerweise fahren die Subject Matter Experts explorative Tests über ein Tool, um auf dieser Grundlage automatisierte Tests zu erstellen.” Tipp: Nutzen Sie Alpha- und Beta-Gruppen im Rahmen von App-Testing. Erwarten Sie dabei jedoch nicht, dass die Tester sich repetitiven User-Acceptance-Testing-Arien hingeben. Darüber hinaus empfiehlt es sich: Tools zu verwenden, um Testmuster zu erfassen, die wichtigsten Tests zu automatisieren, eine Continuous-Testing-Strategie zu entwickeln, sowie synthetische Daten zu nutzen, um Testmuster zu skalieren. 7. Code validieren Code-Generatoren auf GenAI-Basis machen es wichtiger denn je, Code Reviews zu fahren, um Vulnerabilities zu identifizieren – und Probleme aufzutun, die möglicherweise die technischen Schulden von morgen darstellen. Weitere Probleme mit der Codequalität können etwa in den Bereichen Dokumentation, Fehlerbedingungen, Protokollierung und Namenskonventionen auftreten. “Um die QA-Bemühungen zu unterstützen, sollten Entwickler statische Codeanalysen in ihre Arbeitsabläufe integrieren”, empfiehlt Sonar-Entwicklungschef McKee und begründet das mit einer entsprechenden Erklärung: “Eine automatisierte statische Analyse untersucht die interne Struktur einer Applikation und ergänzt Unit-Tests, indem sie zusätzliche Probleme aufdeckt. Durch die Kombination beider Verfahren können Entwickler die Codequalität während des gesamten Entwicklungszyklus proaktiv managen, Fehler schnell erkennen und beheben sowie die Zuverlässigkeit und Sicherheit der Software insgesamt optimieren.” Tipp: Technische Schulden zu minimieren, ist für Unternehmen ein wichtiges Thema. Entsprechend sollten Tools, die Sicherheits- und Qualitätsprobleme identifizieren, sowie deren Integration in die CI/CD-Pipeline eine nicht verhandelbare Anforderung darstellen. 8. Nicht-funktionale Betriebsanforderungen festlegen Mit Blick auf Performanz, Zuverlässigkeit und Sicherheit gilt es, Anforderungen zu ermitteln, die dazu geeignet sind, akzeptable Betriebsbedingungen zu definieren. Entwicklungsteams formulieren diese oft als nichtfunktionale Anforderungen, die in agilen User Stories als Akzeptanzkriterien ausgedrückt werden können. Nicht-funktionale Anforderungen können sich auch darauf auswirken, welche Infrastrukturkomponenten verwendet und wie diese gemanagt werden. “Nichtfunktionale, betriebliche Anforderungen sind ebenso wichtig wie funktionale Anforderungen”, unterstreicht David Coffey, VP of Product Management bei IBM. Er fügt hinzu: “In einem Tech-Stack für einen Cloud-Service kommt es auf jede Einzelheit an. Fallen Details wie DNS-Service oder Netzwerkkonnektivität dabei unter den Tisch, kann sich das negativ auf die Verfügbarkeit und den Scope eines Cloud-Service auswirken.” Tipp: Architekten, Betriebs- und Sicherheitsexperten sollten Standards für nichtfunktionale Anforderungen und Akzeptanzkriterien entwerfen, auf die sich agile Entwicklungsteams in ihren User Stories beziehen können. 9. SLOs und Alerts kanalisieren Eine veraltete Methode, um die Erwartungen an die Anwendungsleistung zu definieren, besteht darin, Service Level Agreements (SLAs) rund um eine Betriebskennzahl zu formulieren – beispielsweise eine Uptime von 99,9 Prozent. Ein moderner Ansatz: SLOs und Fehlerbudgets zu definieren, die regeln, wann DevSecOps-Teams operative Optimierungen priorisieren sollten. Um das in der Praxis umzusetzen, müssen jedoch bestimmte Voraussetzungen erfüllt sein, wie Asaf Yigal, Mitbegründer und VP of Product bei Logz.io, erklärt: “Wenn Leistungsverbesserungen vorangetrieben werden und die Engineers dabei keine Ahnung haben, welche SLOs wichtig sind, untergräbt das Observability-Plattformen.” Tipp: Produktmanager sollten daran beteiligt werden, SLOs zu definieren und Kundensegmente, Journey-Typen und kritische Zeiträume dazu nutzen, aufzuzeigen, wann Ausfälle und Leistungsdefizite stärkere Auswirkungen auf das Geschäft haben. 10. Observability implementieren Um Datenquellen zu integrieren und Daten innerhalb der Anwendungsumgebung zu bewegen, nutzen die meisten Applikationen heutzutage Daten-Pipelines. Allerdings können Workflows kompromittiert werden – was die Gefahr falscher Entscheidungen aufwirft, wenn es zu Verzögerungen oder Problemen bei der Datenqualität kommt. Ashwin Rajeeva, Mitbegründer und CTO von Acceldata, weiß, was dagegen hilft: “Data-Reliability-Checks nach links zu verlagern, ermöglicht es, die Datenqualität und -integrität frühzeitig an der Quelle zu validieren und verhindert so kostenintensive Folgen. Continuous Monitoring und Incident Management erleichtern es, proaktiv auf potenzielle Datenvorfälle zu reagieren, ermöglichen einen ununterbrochenen Datenfluss und gewährleisten die kontinuierliche Zuverlässigkeit der Daten in der gesamten Data Supply Chain.” Tipp: Implementieren Sie Monitoring und automatisierte Checks in der gesamten Datenlieferkette, um Pipeline- und Datenqualitätsproblematiken möglichst früh auf die Schliche zu kommen. 11. Admin-Funktionen sperren SaaS-Unternehmen schränken den administrativen Zugriff auf ihre Anwendungen und Umgebungen ein, um zu verhindern, dass Kundendaten kompromittiert werden oder die Verfügbarkeit beeinträchtigt wird. Igor Jablokov, Gründer und CEO von Pryon, empfiehlt, sich daran ein Beispiel zu nehmen: “Verteilen Sie kritische Funktionen auf mindestens vier Schultern, um zu verhindern, dass ein Administrator teure Fehler machen kann, die Betriebszeit und Verfügbarkeit einschränken.” Der Manager empfiehlt darüber hinaus weitere, grundlegende Maßnahmen, wie ein mehrstufige Authentifizierung zu implementieren und unnötige externe Zugriffsmöglichkeiten zu sperren. Tipp: IT-Sicherheitsspezialisten sollten sich über die neuesten Schwachstellen informiert halten – zum Beispiel über die bekannten OWASP-Rankings. Diese und andere Quellen lassen sich dazu nutzen, Security-Checklisten, Schulungen und Support für DevSecOps-Teams bereitzustellen. 12. Hot-Standby-Umgebungen konfigurieren Unternehmen, die Anwendungen bereitstellen, profitieren von einer robusten Cloud-Infrastruktur. Eine solche zeichnet sich beispielsweise aus durch: Infrastructure as Code, automatisiert skalierende Umgebungen, Multizone-Deployments und automatisiertes Failover-Management. “Lassen Sie Ihre Anwendung im Hot-Standby-Modus auch bei einem weiteren Cloud-Anbieter laufen. Denn egal, wie viel Redundanz und Failover die Hyperscaler bieten können, sie sind nicht immun gegen Fehler”, unterstreicht Pryon-CEO Jablokov. Tipp: DevSecOps-Teams, die Standardarchitekturen, -plattformen und -konfigurationen entwickeln, können Hochverfügbarkeitspraktiken leichter in ihre Infrastrukturmuster integrieren. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

12 Wege, DevSecOps zu optimieren​ 12 SaaS-Inspirationen für Ihr DevSecOps-Team.
Foto: Oleg Nesterov | shutterstock.com

Zwar sind heutzutage viele Unternehmen in den Bereichen Softwareentwicklung und DevOps gut aufgestellt. Wenn es aber darum geht, Applikationen zu skalieren, mit unterschiedlichen Use Cases umzugehen sowie Performance- und Sicherheitsprobleme in Angriff zu nehmen, bevor diese zu Kundenproblemen werden, können sie sich dennoch meist eine Scheibe von Software-as-a-Service-Firmen abschneiden.

In diesem Artikel stellen wir Ihnen 12 Prinzipien vor, die sich unter SaaS-Technologieführern bewährt haben und sich auch auf DevSecOps übertragen lassen.

1. Customer-First-Mindset entwickeln

Im Sinne der Kundenbindung und Wachstumsförderung sind ein Mindset, dass die Kunden in den Mittelpunkt rückt und ein Gespür für deren Bedürfnisse obligatorisch. Für DevSecOps-Teams heißt das in erster Linie zu lernen, ihre eigenen Kollegen als Kunden zu betrachten, wenn sie interne Applikationen entwickeln.

Claire Vo, Chief Product Officer von LaunchDarkly, weiß, welche Aspekte ein kundenorientiertes Mindset beinhalten sollte: “Vor allem einen nicht verhandelbaren Fokus darauf, Kundenprobleme schnell zu identifizieren und zu beheben. Softwareentwickler sollten deshalb direkt mit den Kunden in Kontakt treten, um deren Nutzungsgewohnheiten in Erfahrung zu bringen und entsprechend hohe Qualitätsansprüche anlegen zu können.”

Tipp: DevSecOps-Teams sollten regelmäßige Meetings mit Endbenutzern einplanen, um deren Nutzungsgewohnheiten zu beobachten und Möglichkeiten zu erkennen, die App-Performance zu optimieren.

2. Versionskontrolle mit agilen User Stories verbinden

Die allermeisten Firmen setzen inzwischen auf Versionskontrolle – allerdings sieht David Brooks, SVP of Evangelism bei Copado, ein Problem: “Viele Entwickler fokussieren sich zu sehr auf das Branch Management in ihrem Repository. Moderne Entwicklung basiert auf Agilität und viele DevOps-Tools managen Änderungen direkt auf Basis der User Story.” Das erleichtere es agilen Entwicklungsteams, sich darauf zu konzentrieren, Mehrwert bereitzustellen, unterstütze einen testgetriebenen Development-Ansatz und ermögliche es, Merge-Konflikte automatisiert aufzulösen, so der Manager.

Tipp: Abgesehen davon, Workflows zwischen agilen Tools und Versionskontrolle zu verbinden, sollten DevSecOps-Teams auch in Betracht ziehen:

CI/CD-Pipelines zu standardisieren,

mit Feature Flags zu entwickeln und

Canary-Release-Strategien einzusetzen.

3. Neue Features mit A/B-Tests erproben

In DevSecOps-Automatisierung zu investieren, schafft Flexibilität, wenn es darum geht, Funktionen für kleinere Gruppen von Benutzern freizugeben und A/B-Tests zu fahren. Darüber hinaus wird so nicht nur Continuous Deployment unterstützt, sondern auch möglich, Funktionen zu validieren und das Feedback von Endbenutzern einzuholen. Elliot Wood, CTO und Mitbegründer von CallRail, erklärt, wie das in der Praxis aussieht: “Neue Alphafunktionen werden offen und in schnellem Tempo getestet, um Kunden-Feedback zu sammeln. Die Teams sind dabei in der Lage, schnell zu arbeiten, weil sie kleine Änderungen an eine begrenzte Anzahl von Kunden weitergeben und das Risiko jedes einzelnen Experiments minimieren können.”

Tipp: Alpha- und Beta-Tests, bei denen erstere intern innerhalb des Unternehmens stattfinden und zweitere auf die Umgebung des Benutzers fokussieren, sind bewährte Praxis in der Softwareentwicklung. DevSecOps bringt Automatisierungs- und Skalierbarkeitspraktiken ein, um den Technologiebetrieb zu operationalisieren. Der Schlüssel zu erfolgreichen A/B-Programmen liegt darin:

Teilnehmer zu rekrutieren,

Ziele zu kommunizieren,

umsetzbares Feedback zu erfassen, sowie

Kollaboration zu belohnen.

4. ‘Security by Design’ etablieren

Vielen soliden IT-Sicherheitsprogrammen zum Trotz bleibt es eine Herausforderung, den ‘Security by Design’-Grundsatz im Softwareentwicklungsprozess zu verankern. Zu den relevanten Best Practices in diesem Bereich zählen etwa:

automatisierte Penetration-Tests,

Code-Scans innerhalb von CI/CD-Pipelines sowie

der Schutz vor API-Injection, -Lecks und nicht funktionierenden Zugriffskontrollen.

Steve Touw, CTO bei Immuta, weiß aus eigener Erfahrung um die Benefits, die dieser Ansatz bringt: “Seitdem wir auf ‘Security by Design’ setzen, hat sich unser Wartungs- und Verwaltungsaufwand mit Blick auf das Vulnerability Management merklich verringert.”

Tipp: CIOs, CISOs und Delivery Manager sollten eindeutige, nicht verhandelbare Anforderungen hinsichtlich der Sicherheitspraktiken, Tests und Metriken definieren, die erforderlich sind, um Produktionspfade zu automatisieren.

5. Unit-Testing-Unzulänglichkeiten erkennen

Unit Testing hilft zwar dabei Komponenten und Schnittstellen zu validieren – reicht aber nicht aus, um die End-to-End-Funktionalität oder das Benutzererlebnis zu überprüfen.

Peter McKee, Head of Developer Relations and Community bei Sonar, erklärt: “Entwickler, die einen Shift-Left-Ansatz verfolgen, räumen Unit-Tests oft Priorität ein, um sicherzustellen, dass Features und Funktionen korrekt funktionieren. Wenn man sich jedoch ausschließlich darauf verlässt, kann das zu Lücken in der Qualitätssicherung führen. Das beeinträchtigt unter Umständen auch die Sicherheit der Software mit Blick auf das Deployment.”

Tipp: Diverse Tools können Frontend User Experience Testing automatisieren. Um robuste Funktionstests zu gewährleisten, sollten agile Development-Teams:

entsprechende Verantwortlichkeiten definieren,

Skills entwickeln und

die dafür nötige Zeit investieren.

6. Testing (fachgerecht) automatisieren

Ein Engagement für mehr funktionales Testing steht und fällt mit den entwickelten Use Cases. Dabei können QA-Engineers Grenzbedingungen und Fehlerkonditionen identifizieren – vorausgesetzt, sie werden von den Endbenutzern entsprechend angeleitet, um Ziele, Workflows und Journeys besser zu durchdringen.

“Entwickler sind darauf bedacht, Code zu liefern, der wie gewünscht funktioniert. Um eine robuste Software zu gewährleisten, die mit allen Variationen der Kundenkonfiguration funktioniert, sollten Fachexperten Tests erstellen, die geeignet sind zu demonstrieren, wie die Benutzer die Funktionen in der realen Welt nutzen”, konstatiert Copado-SVP Brooks und ergänzt: “Idealerweise fahren die Subject Matter Experts explorative Tests über ein Tool, um auf dieser Grundlage automatisierte Tests zu erstellen.”

Tipp: Nutzen Sie Alpha- und Beta-Gruppen im Rahmen von App-Testing. Erwarten Sie dabei jedoch nicht, dass die Tester sich repetitiven User-Acceptance-Testing-Arien hingeben. Darüber hinaus empfiehlt es sich:

Tools zu verwenden, um Testmuster zu erfassen,

die wichtigsten Tests zu automatisieren,

eine Continuous-Testing-Strategie zu entwickeln, sowie

synthetische Daten zu nutzen, um Testmuster zu skalieren.

7. Code validieren

Code-Generatoren auf GenAI-Basis machen es wichtiger denn je, Code Reviews zu fahren, um Vulnerabilities zu identifizieren – und Probleme aufzutun, die möglicherweise die technischen Schulden von morgen darstellen. Weitere Probleme mit der Codequalität können etwa in den Bereichen Dokumentation, Fehlerbedingungen, Protokollierung und Namenskonventionen auftreten.

“Um die QA-Bemühungen zu unterstützen, sollten Entwickler statische Codeanalysen in ihre Arbeitsabläufe integrieren”, empfiehlt Sonar-Entwicklungschef McKee und begründet das mit einer entsprechenden Erklärung: “Eine automatisierte statische Analyse untersucht die interne Struktur einer Applikation und ergänzt Unit-Tests, indem sie zusätzliche Probleme aufdeckt. Durch die Kombination beider Verfahren können Entwickler die Codequalität während des gesamten Entwicklungszyklus proaktiv managen, Fehler schnell erkennen und beheben sowie die Zuverlässigkeit und Sicherheit der Software insgesamt optimieren.”

Tipp: Technische Schulden zu minimieren, ist für Unternehmen ein wichtiges Thema. Entsprechend sollten Tools, die Sicherheits- und Qualitätsprobleme identifizieren, sowie deren Integration in die CI/CD-Pipeline eine nicht verhandelbare Anforderung darstellen.

8. Nicht-funktionale Betriebsanforderungen festlegen

Mit Blick auf Performanz, Zuverlässigkeit und Sicherheit gilt es, Anforderungen zu ermitteln, die dazu geeignet sind, akzeptable Betriebsbedingungen zu definieren. Entwicklungsteams formulieren diese oft als nichtfunktionale Anforderungen, die in agilen User Stories als Akzeptanzkriterien ausgedrückt werden können. Nicht-funktionale Anforderungen können sich auch darauf auswirken, welche Infrastrukturkomponenten verwendet und wie diese gemanagt werden.

“Nichtfunktionale, betriebliche Anforderungen sind ebenso wichtig wie funktionale Anforderungen”, unterstreicht David Coffey, VP of Product Management bei IBM. Er fügt hinzu: “In einem Tech-Stack für einen Cloud-Service kommt es auf jede Einzelheit an. Fallen Details wie DNS-Service oder Netzwerkkonnektivität dabei unter den Tisch, kann sich das negativ auf die Verfügbarkeit und den Scope eines Cloud-Service auswirken.”

Tipp: Architekten, Betriebs- und Sicherheitsexperten sollten Standards für nichtfunktionale Anforderungen und Akzeptanzkriterien entwerfen, auf die sich agile Entwicklungsteams in ihren User Stories beziehen können.

9. SLOs und Alerts kanalisieren

Eine veraltete Methode, um die Erwartungen an die Anwendungsleistung zu definieren, besteht darin, Service Level Agreements (SLAs) rund um eine Betriebskennzahl zu formulieren – beispielsweise eine Uptime von 99,9 Prozent. Ein moderner Ansatz: SLOs und Fehlerbudgets zu definieren, die regeln, wann DevSecOps-Teams operative Optimierungen priorisieren sollten.

Um das in der Praxis umzusetzen, müssen jedoch bestimmte Voraussetzungen erfüllt sein, wie Asaf Yigal, Mitbegründer und VP of Product bei Logz.io, erklärt: “Wenn Leistungsverbesserungen vorangetrieben werden und die Engineers dabei keine Ahnung haben, welche SLOs wichtig sind, untergräbt das Observability-Plattformen.”

Tipp: Produktmanager sollten daran beteiligt werden, SLOs zu definieren und Kundensegmente, Journey-Typen und kritische Zeiträume dazu nutzen, aufzuzeigen, wann Ausfälle und Leistungsdefizite stärkere Auswirkungen auf das Geschäft haben.

10. Observability implementieren

Um Datenquellen zu integrieren und Daten innerhalb der Anwendungsumgebung zu bewegen, nutzen die meisten Applikationen heutzutage Daten-Pipelines. Allerdings können Workflows kompromittiert werden – was die Gefahr falscher Entscheidungen aufwirft, wenn es zu Verzögerungen oder Problemen bei der Datenqualität kommt.

Ashwin Rajeeva, Mitbegründer und CTO von Acceldata, weiß, was dagegen hilft: “Data-Reliability-Checks nach links zu verlagern, ermöglicht es, die Datenqualität und -integrität frühzeitig an der Quelle zu validieren und verhindert so kostenintensive Folgen. Continuous Monitoring und Incident Management erleichtern es, proaktiv auf potenzielle Datenvorfälle zu reagieren, ermöglichen einen ununterbrochenen Datenfluss und gewährleisten die kontinuierliche Zuverlässigkeit der Daten in der gesamten Data Supply Chain.”

Tipp: Implementieren Sie Monitoring und automatisierte Checks in der gesamten Datenlieferkette, um Pipeline- und Datenqualitätsproblematiken möglichst früh auf die Schliche zu kommen.

11. Admin-Funktionen sperren

SaaS-Unternehmen schränken den administrativen Zugriff auf ihre Anwendungen und Umgebungen ein, um zu verhindern, dass Kundendaten kompromittiert werden oder die Verfügbarkeit beeinträchtigt wird.

Igor Jablokov, Gründer und CEO von Pryon, empfiehlt, sich daran ein Beispiel zu nehmen: “Verteilen Sie kritische Funktionen auf mindestens vier Schultern, um zu verhindern, dass ein Administrator teure Fehler machen kann, die Betriebszeit und Verfügbarkeit einschränken.” Der Manager empfiehlt darüber hinaus weitere, grundlegende Maßnahmen, wie ein mehrstufige Authentifizierung zu implementieren und unnötige externe Zugriffsmöglichkeiten zu sperren.

Tipp: IT-Sicherheitsspezialisten sollten sich über die neuesten Schwachstellen informiert halten – zum Beispiel über die bekannten OWASP-Rankings. Diese und andere Quellen lassen sich dazu nutzen, Security-Checklisten, Schulungen und Support für DevSecOps-Teams bereitzustellen.

12. Hot-Standby-Umgebungen konfigurieren

Unternehmen, die Anwendungen bereitstellen, profitieren von einer robusten Cloud-Infrastruktur. Eine solche zeichnet sich beispielsweise aus durch:

Infrastructure as Code,

automatisiert skalierende Umgebungen,

Multizone-Deployments und

automatisiertes Failover-Management.

“Lassen Sie Ihre Anwendung im Hot-Standby-Modus auch bei einem weiteren Cloud-Anbieter laufen. Denn egal, wie viel Redundanz und Failover die Hyperscaler bieten können, sie sind nicht immun gegen Fehler”, unterstreicht Pryon-CEO Jablokov.

Tipp: DevSecOps-Teams, die Standardarchitekturen, -plattformen und -konfigurationen entwickeln, können Hochverfügbarkeitspraktiken leichter in ihre Infrastrukturmuster integrieren. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

12 Wege, DevSecOps zu optimieren​ Weiterlesen »

Gut KI-Ergebnis will Weile haben​

Allgemein

width=”1778″ height=”1000″ sizes=”(max-width: 1778px) 100vw, 1778px”>Claude analysiert komplexe Fragen und soll ein Research-Paper mit Quellenangaben in unter fünf Minuten erstellen können.Anthropic Am 01. Mai 2025 kündigte Anthropic Upgrades für seinen KI-Assistenten Claude an: Die Forschungsfunktion des Chatbots wird erweitert. Das neue „Research“-Feature soll tiefgehende Analysen über zahlreiche interne und externe Quellen hinweg ermöglichen. Laut Anthropic ist Claude damit in der Lage, selbstständig das Internet und andere Online-Quellen durchsuchen können. Ziel ist es unter anderem, Forschungsberichte im Dokumentenformat zu erstellen. Analyse Schritt für Schritt Der Chatbot zerlegt dabei komplexe Anfragen, recherchiert einzelne Aspekte und erstellt Berichte mit Quellenangaben, heißt es seitens des Herstellers.   Die Bearbeitungszeit könne sich dadurch allerdings auf bis zu 45 Minuten erhöhen, bevor der KI-Assistent umfassende Berichte liefert. Laut dem Start-Up würde die vergleichbare, manuelle Recherche mehrere Stunden dauern. Die meisten Berichte laut Anthropic werden aber immer noch innerhalb von fünf bis fünfzehn Minuten abgeschlossen. Quellenangaben nicht immer korrekt Besonders profitieren sollen Fachleute, die zwischen verlässlichen und fehlerhaften Informationen unterscheiden können. Ein Test der Fachzeitschrift Ars Technica mit Claude lieferte zum Beispiel einen fundierten, gut belegten Bericht zur Geschichte der Videospiele. Laut dem Autor des Berichts benötigte der Chatbot circa 13 Minuten, um den Text zu verfassen. Der Bericht enthielt jedoch ein direktes Zitat, in dem Aussagen aus zwei nicht in der Quellenliste aufgeführten Quellen kombiniert wurden. Hier zeigt sich, dass Ergebnisse, welche mit Künstlicher Intelligenz (KI) erstellt wurden, stets mit Vorsicht zu genießen sind. Auch außerhalb dieses Recherchemodus neigt Claude 3.7 Sonnet dazu, plausible Zitate zu erfinden, um sie in eine Erzählung einzupassen. In diesem Fall scheint es, dass die Quellen, die Claude Research anzeigt, zwar echt sind, aber nicht immer mit den Angaben im Bericht übereinstimmen. Claude gibt zwar Quellen an, aber ohne Fußnoten oder Verweise. Tristan Fincken – IDG Research-Paper in unter fünf Minuten Beim direkten Vergleich mit einer deutschen Frage zum gleichen Thema benötigte Claude sogar weniger als fünf Minuten. Mithilfe des Prompts „Schreibe zu der Frage ‚Wer hat Videospiele entwickelt?’ ein ausführliches Research-Paper mit Quellen.“ gab der Chatbot sogar zumindest richtig dargestellte Quellen an. Insgesamt erweckt Claudes Research den Eindruck, relativ gute Arbeit zu leisten, wenn es darum geht, Berichte zu diesem speziellen Thema zu erstellen. Es ist jedoch stets zu empfehlen, bevor man dem Chatbot Fragen stellt, selber Recherche zu betreiben und ein fundiertes Hintergrundwissen aufzubauen. Auf diese Art und Weise lassen sich Halluzinationen am besten als solche erkennen. Neue Integrationsfunktion für vernetzte Anwendungen Anthropic hat auch Claudes Datenzugriff erweitert: Neben Websuche und Google Workspace kann der Bot nun über eine neue „Integrations“-Funktion mit beliebigen verbundenen Anwendungen arbeiten. Diese Funktion ähnelt ChatGPT-Plugins vom März 2023, basiert aber auf einer anderen Technik. Grundlage ist hier der MCP-Standard, der es Claude erlaubt, über Web- und Desktop-Anwendungen auf externe Tools und Datenquellen zuzugreifen. Claude ist bereits in zehn Diensten integriert, darunter Jira, Confluence, Zapier und PayPal. Diese Integrationen sollen laut Anthropic Claudes Funktionen gezielt erweitern – etwa indem sie Prozesse mit Zapier weiter automatisieren oder bei Produktentwicklung und Aufgabenmanagement mit Atlassian-Tools helfen. Weitere Partnerschaften mit zum Beispiel Stripe und GitLab sollen folgen. 

Gut KI-Ergebnis will Weile haben​ width=”1778″ height=”1000″ sizes=”(max-width: 1778px) 100vw, 1778px”>Claude analysiert komplexe Fragen und soll ein Research-Paper mit Quellenangaben in unter fünf Minuten erstellen können.Anthropic

Am 01. Mai 2025 kündigte Anthropic Upgrades für seinen KI-Assistenten Claude an: Die Forschungsfunktion des Chatbots wird erweitert. Das neue „Research“-Feature soll tiefgehende Analysen über zahlreiche interne und externe Quellen hinweg ermöglichen.

Laut Anthropic ist Claude damit in der Lage, selbstständig das Internet und andere Online-Quellen durchsuchen können. Ziel ist es unter anderem, Forschungsberichte im Dokumentenformat zu erstellen.

Analyse Schritt für Schritt

Der Chatbot

zerlegt dabei komplexe Anfragen,

recherchiert einzelne Aspekte und

erstellt Berichte mit Quellenangaben,

heißt es seitens des Herstellers.  

Die Bearbeitungszeit könne sich dadurch allerdings auf bis zu 45 Minuten erhöhen, bevor der KI-Assistent umfassende Berichte liefert. Laut dem Start-Up würde die vergleichbare, manuelle Recherche mehrere Stunden dauern. Die meisten Berichte laut Anthropic werden aber immer noch innerhalb von fünf bis fünfzehn Minuten abgeschlossen.

Quellenangaben nicht immer korrekt

Besonders profitieren sollen Fachleute, die zwischen verlässlichen und fehlerhaften Informationen unterscheiden können. Ein Test der Fachzeitschrift Ars Technica mit Claude lieferte zum Beispiel einen fundierten, gut belegten Bericht zur Geschichte der Videospiele. Laut dem Autor des Berichts benötigte der Chatbot circa 13 Minuten, um den Text zu verfassen.

Der Bericht enthielt jedoch ein direktes Zitat, in dem Aussagen aus zwei nicht in der Quellenliste aufgeführten Quellen kombiniert wurden. Hier zeigt sich, dass Ergebnisse, welche mit Künstlicher Intelligenz (KI) erstellt wurden, stets mit Vorsicht zu genießen sind.

Auch außerhalb dieses Recherchemodus neigt Claude 3.7 Sonnet dazu, plausible Zitate zu erfinden, um sie in eine Erzählung einzupassen. In diesem Fall scheint es, dass die Quellen, die Claude Research anzeigt, zwar echt sind, aber nicht immer mit den Angaben im Bericht übereinstimmen.

Claude gibt zwar Quellen an, aber ohne Fußnoten oder Verweise.
Tristan Fincken – IDG

Research-Paper in unter fünf Minuten

Beim direkten Vergleich mit einer deutschen Frage zum gleichen Thema benötigte Claude sogar weniger als fünf Minuten. Mithilfe des Prompts „Schreibe zu der Frage ‚Wer hat Videospiele entwickelt?’ ein ausführliches Research-Paper mit Quellen.“ gab der Chatbot sogar zumindest richtig dargestellte Quellen an.

Insgesamt erweckt Claudes Research den Eindruck, relativ gute Arbeit zu leisten, wenn es darum geht, Berichte zu diesem speziellen Thema zu erstellen.

Es ist jedoch stets zu empfehlen, bevor man dem Chatbot Fragen stellt, selber Recherche zu betreiben und ein fundiertes Hintergrundwissen aufzubauen. Auf diese Art und Weise lassen sich Halluzinationen am besten als solche erkennen.

Neue Integrationsfunktion für vernetzte Anwendungen

Anthropic hat auch Claudes Datenzugriff erweitert: Neben Websuche und Google Workspace kann der Bot nun über eine neue „Integrations“-Funktion mit beliebigen verbundenen Anwendungen arbeiten. Diese Funktion ähnelt ChatGPT-Plugins vom März 2023, basiert aber auf einer anderen Technik. Grundlage ist hier der MCP-Standard, der es Claude erlaubt, über Web- und Desktop-Anwendungen auf externe Tools und Datenquellen zuzugreifen.

Claude ist bereits in zehn Diensten integriert, darunter Jira, Confluence, Zapier und PayPal. Diese Integrationen sollen laut Anthropic Claudes Funktionen gezielt erweitern – etwa indem sie

Prozesse mit Zapier weiter automatisieren oder

bei Produktentwicklung und Aufgabenmanagement mit Atlassian-Tools helfen.

Weitere Partnerschaften mit zum Beispiel Stripe und GitLab sollen folgen.

Gut KI-Ergebnis will Weile haben​ Weiterlesen »

Amazon bringt leistungsfähigeres KI-Modell​

Allgemein

Mit dem neuen KI-Modell Nova Premier richtet AWS sein AI-Business neu aus. Michael Vi – shutterstock.com AWS hat über Amazon Bedrock sein neues KI-Modell Nova Premier vorgestellt. Es wurde gezielt für den Unternehmenseinsatz entwickelt und soll komplexe, mehrstufige Workflows unterstützen. Mit Hilfe der Modelldestillation können Fähigkeiten von Nova Premier laut AWS nun effizienter und kostengünstiger auf kleinere Modelle übertragen werden. Dabei könne Nova Premier Text-, Bild- und längere Videoeingaben mit einem Kontextfenster von einer Million Token (entspricht etwa 750.000 Wörtern) verarbeiten. In einem AWS-Blog heißt es weiter, dass das KI-Modell über 200 Sprachen unterstützen werde. Als typische Anwendungsbereiche sieht AWS: Finanzanalysen, Software-Automatisierung, oder agentenbasierten Aufgaben, die die Koordination zwischen Tools und Datenebenen erfordern. Nova Premier in Benchmarks Während AWS Nova Premier als sein „leistungsfähigstes Modell“ bezeichnet, kommen einige Benchmarks von Drittanbietern zu anderen Ergebnissen. Danach liegt das KI-Modell hinter wichtigen Konkurrenten. So bleibe es hinter Googles Gemini 2.5 Pro zurück, wenn es um Codierung (SWE-Bench-verifiziert) gehe. Ferner erziele Nova Premier schlechtere Ergebnisse in mathematischen und naturwissenschaftlichen Bewertungen wie GPQA Diamond und AIME 2025. Amazon wiederum will mit internen Tests belegen, dass Nova Premier bei der Wissensgewinnung und visuellen Schlussfolgerungen mit 86,3 Punkten bei SimpleQA und 87,4 Punkten bei MMMU sehr gut abschneidet. Ein wesentliches Merkmal von Nova Premier ist die Unterstützung der Modelldestillation innerhalb von Bedrock. Damit können Unternehmen synthetische Daten aus Premier generieren und kleinere Modelle wie Nova Pro, Lite und Micro für gezielte Anwendungen optimieren. Laut AWS erhöht ein destilliertes Nova-Pro-Modell die Genauigkeit der API-Aufrufe um 20 Prozent bei ähnlicher Leistung, geringeren Kosten und geringerer Latenz. Zudem mache der Prozess es überflüssig, Trainingsdaten zu labeln. Damit eigne sich das Vorgehen für Edge-Bereitstellungen und Anwendungsfälle mit begrenzten Ressourcen. Der Vorteil liegt dabei für AWS auf der Hand: „Durch die Destillation können Kunden kleinere, effizientere Modelle für bestimmte Aufgaben erstellen.“ Dies unterscheidet Nova Premier auch von anderen Ansätzen. OpenAI’s GPT-4o-mini setzt beispielsweise auf Feinabstimmung. Und Anthropic’s Claude räumt der Textoptimierung Vorrang ein. Strategische Neuausrichtung Für Amandeep Singh, Principal Analyst bei der QKS Group, markiert die Einführung auch eine strategische Neuausrichtung: „Mit Nova Premier verabschiedet sich AWS von der Rolle eines neutralen Modell-Host. Jetzt will man vielmehr die GenAI-Wertschöpfungskette grundlegend kontrollieren“. Dabei gehe es nicht darum, das größte Modell zu bauen, sondern darum, Orchestrierung, Preisgestaltung und die Architektur zu kontrollieren. Derzeit ist Nova Premier nur für Bedrock-Anwender verfügbar. 

Amazon bringt leistungsfähigeres KI-Modell​ Mit dem neuen KI-Modell Nova Premier richtet AWS sein AI-Business neu aus.
Michael Vi – shutterstock.com

AWS hat über Amazon Bedrock sein neues KI-Modell Nova Premier vorgestellt. Es wurde gezielt für den Unternehmenseinsatz entwickelt und soll komplexe, mehrstufige Workflows unterstützen.

Mit Hilfe der Modelldestillation können Fähigkeiten von Nova Premier laut AWS nun effizienter und kostengünstiger auf kleinere Modelle übertragen werden. Dabei könne Nova Premier Text-, Bild- und längere Videoeingaben mit einem Kontextfenster von einer Million Token (entspricht etwa 750.000 Wörtern) verarbeiten.

In einem AWS-Blog heißt es weiter, dass das KI-Modell über 200 Sprachen unterstützen werde. Als typische Anwendungsbereiche sieht AWS:

Finanzanalysen,

Software-Automatisierung, oder

agentenbasierten Aufgaben, die die Koordination zwischen Tools und Datenebenen erfordern.

Nova Premier in Benchmarks

Während AWS Nova Premier als sein „leistungsfähigstes Modell“ bezeichnet, kommen einige Benchmarks von Drittanbietern zu anderen Ergebnissen. Danach liegt das KI-Modell hinter wichtigen Konkurrenten.

So bleibe es hinter Googles Gemini 2.5 Pro zurück, wenn es um Codierung (SWE-Bench-verifiziert) gehe. Ferner erziele Nova Premier schlechtere Ergebnisse in mathematischen und naturwissenschaftlichen Bewertungen wie GPQA Diamond und AIME 2025. Amazon wiederum will mit internen Tests belegen, dass Nova Premier bei der Wissensgewinnung und visuellen Schlussfolgerungen mit 86,3 Punkten bei SimpleQA und 87,4 Punkten bei MMMU sehr gut abschneidet.

Ein wesentliches Merkmal von Nova Premier ist die Unterstützung der Modelldestillation innerhalb von Bedrock. Damit können Unternehmen synthetische Daten aus Premier generieren und kleinere Modelle wie Nova Pro, Lite und Micro für gezielte Anwendungen optimieren.

Laut AWS erhöht ein destilliertes Nova-Pro-Modell die Genauigkeit der API-Aufrufe um 20 Prozent bei ähnlicher Leistung, geringeren Kosten und geringerer Latenz. Zudem mache der Prozess es überflüssig, Trainingsdaten zu labeln. Damit eigne sich das Vorgehen für Edge-Bereitstellungen und Anwendungsfälle mit begrenzten Ressourcen.

Der Vorteil liegt dabei für AWS auf der Hand: „Durch die Destillation können Kunden kleinere, effizientere Modelle für bestimmte Aufgaben erstellen.“ Dies unterscheidet Nova Premier auch von anderen Ansätzen. OpenAI’s GPT-4o-mini setzt beispielsweise auf Feinabstimmung. Und Anthropic’s Claude räumt der Textoptimierung Vorrang ein.

Strategische Neuausrichtung

Für Amandeep Singh, Principal Analyst bei der QKS Group, markiert die Einführung auch eine strategische Neuausrichtung: „Mit Nova Premier verabschiedet sich AWS von der Rolle eines neutralen Modell-Host. Jetzt will man vielmehr die GenAI-Wertschöpfungskette grundlegend kontrollieren“. Dabei gehe es nicht darum, das größte Modell zu bauen, sondern darum, Orchestrierung, Preisgestaltung und die Architektur zu kontrollieren.

Derzeit ist Nova Premier nur für Bedrock-Anwender verfügbar.

Amazon bringt leistungsfähigeres KI-Modell​ Weiterlesen »

Rewe packt seine SAP-Systeme in die Google-Cloud​

Allgemein

Der Handelsriese Rewe geht mit seinen SAP-Systemen den Weg in die Google Cloud. Rewe Der Handelsriese Rewe baut seine strategische Partnerschaft mit SAP weiter aus. Seit Anfang 2025 sei man dabei, schrittweise 73 neue SAP-Systeme in die Google Cloud zu überführen, gab der Konzern bekannt. Die Migration auf S/4HANA ist auf mehrere Jahre angelegt. Wir lang das Projekt genau dauern soll, wollten die Verantwortlichen nicht verraten.  Mit RISE with SAP stelle die Rewe digital ihre bestehenden On-Premises-Systeme auf ein Cloud ERP (Enterprise Resource Planning) um, hieß es in einer offiziellen Mitteilung. Die IT-Einheit der Rewe Group habe dafür mit SAP einen langfristigen Vertrag mit einer Laufzeit von mehreren Jahren sowie einer Verlängerungsoption abgeschlossen.  Der Einzelhändler setzt SAP eigenen Angaben zufolge vor allem in den Bereichen Finanz- und Rechnungswesen sowie für Personalbelange ein. Die Modernisierung und Harmonisierung der bislang genutzten SAP-Systeme sei ein entscheidender Schritt in Richtung harmonisierter und standardisierter IT-Prozesse sowie der digitalen Transformation in allen Geschäftsbereichen, hieß es.  Vorstand Christoph Eltze: Rewe bündelt IT- und Digitalsparten Künftig sollen alle SAP-Systeme von Rewe auf der Google Cloud Platform (GCP) laufen. Mit der Migration in die Cloud versprechen sich die Verantwortlichen eine höhere Skalierbarkeit der technischen Infrastruktur, mehr Effizienz in der IT-Landschaft sowie eine größere Flexibilität, das Unternehmen und seine technischen Ressourcen leichter an künftige Geschäftsveränderungen anpassen zu können.  Rewe erwartet Millionen-Einsparungen mit dem Cloud-Umstieg  Für den Handelskonzern geht es beim Transfer in die Google Cloud auch darum, Synergieeffekte und Effizienzgewinne in der IT-Landschaft zu erzielen sowie Innovationen voranzutreiben. Zudem soll die Standardisierung der technischen IT-Umgebung zu einer spürbaren Reduktion der Hardware- und Betriebskosten beitragen, so die klare Erwartungshaltung des Managements. Die IT-Tochter Rewe digital erwartet im Betrieb Einsparungen im zweistelligen Millionenbereich und damit eine signifikante Reduktion der Total Cost of Ownership (TCO). IT-Modernisierung: Rewe Digital automatisiert Enterprise-Anwendungen Guido Hoepfner, COO von Rewe digital, spricht von einem bedeutenden Fortschritt in der digitalen Transformation der gesamten Rewe Group. „Durch die vertieften Partnerschaften mit SAP und Google heben wir die Harmonisierung der Prozesse und die Standardisierung der technischen Betriebsmodelle des Unternehmens auf ein neues Niveau.“ Liegt die digitale Zukunft des Handels in der Cloud?   Alex Kläger, President Middle & Eastern Europe von SAP, verwies darauf, dass die Rewe Group mit der Migration in die Cloud SAPs kontinuierliche Weiterentwicklungen, einschließlich der Innovationen im Bereich der künstlichen Intelligenz, optimal ausschöpfen könne. Für Marianne Janik, VP EMEA North Google Cloud, markiert die strategische Partnerschaft mit der Rewe Group einen wichtigen Meilenstein für die digitale Zukunft des Handels. Mit Rewe hat Alex Kläger, President Middle & Eastern Europe von SAP, einen wichtigen Kunden für sein Cloud-Geschäft gewonnen.SAP SE Die genossenschaftliche Rewe Group erzielte im Jahr 2024 einen Umsatz von über 96 Milliarden Euro. Das 1927 gegründete Handelsunternehmen beschäftigt rund 380.000 Menschen und ist in 21 europäischen Ländern präsent. Zu den Marken gehören neben Rewe unter anderem auch Nahkauf, der Discounter Penny, die Baumärkte von Toom sowie ZooRoyal und unter dem Dach der Dertour Group über 2.000 Reisebüros, Veranstalter sowie Hotelmarken und Online-Reiseportale.  Die Top-CIOs im Handel Um die IT kümmert sich Rewe digital – sowohl im stationären wie auch im Onlinehandel. Die IT-Einheit beschäftigt rund 2.250 Mitarbeitende an verschiedenen Standorten in Deutschland wie Köln, Berlin und Frankfurt bis hin zu Sofia, Varna, Plovdiv, Zielona Góra, Graz und Málaga.  

Rewe packt seine SAP-Systeme in die Google-Cloud​ Der Handelsriese Rewe geht mit seinen SAP-Systemen den Weg in die Google Cloud. Rewe

Der Handelsriese Rewe baut seine strategische Partnerschaft mit SAP weiter aus. Seit Anfang 2025 sei man dabei, schrittweise 73 neue SAP-Systeme in die Google Cloud zu überführen, gab der Konzern bekannt. Die Migration auf S/4HANA ist auf mehrere Jahre angelegt. Wir lang das Projekt genau dauern soll, wollten die Verantwortlichen nicht verraten. 

Mit RISE with SAP stelle die Rewe digital ihre bestehenden On-Premises-Systeme auf ein Cloud ERP (Enterprise Resource Planning) um, hieß es in einer offiziellen Mitteilung. Die IT-Einheit der Rewe Group habe dafür mit SAP einen langfristigen Vertrag mit einer Laufzeit von mehreren Jahren sowie einer Verlängerungsoption abgeschlossen. 

Der Einzelhändler setzt SAP eigenen Angaben zufolge vor allem in den Bereichen Finanz- und Rechnungswesen sowie für Personalbelange ein. Die Modernisierung und Harmonisierung der bislang genutzten SAP-Systeme sei ein entscheidender Schritt in Richtung harmonisierter und standardisierter IT-Prozesse sowie der digitalen Transformation in allen Geschäftsbereichen, hieß es. 

Vorstand Christoph Eltze: Rewe bündelt IT- und Digitalsparten

Künftig sollen alle SAP-Systeme von Rewe auf der Google Cloud Platform (GCP) laufen. Mit der Migration in die Cloud versprechen sich die Verantwortlichen eine höhere Skalierbarkeit der technischen Infrastruktur, mehr Effizienz in der IT-Landschaft sowie eine größere Flexibilität, das Unternehmen und seine technischen Ressourcen leichter an künftige Geschäftsveränderungen anpassen zu können. 

Rewe erwartet Millionen-Einsparungen mit dem Cloud-Umstieg 

Für den Handelskonzern geht es beim Transfer in die Google Cloud auch darum, Synergieeffekte und Effizienzgewinne in der IT-Landschaft zu erzielen sowie Innovationen voranzutreiben. Zudem soll die Standardisierung der technischen IT-Umgebung zu einer spürbaren Reduktion der Hardware- und Betriebskosten beitragen, so die klare Erwartungshaltung des Managements. Die IT-Tochter Rewe digital erwartet im Betrieb Einsparungen im zweistelligen Millionenbereich und damit eine signifikante Reduktion der Total Cost of Ownership (TCO).

IT-Modernisierung: Rewe Digital automatisiert Enterprise-Anwendungen

Guido Hoepfner, COO von Rewe digital, spricht von einem bedeutenden Fortschritt in der digitalen Transformation der gesamten Rewe Group. „Durch die vertieften Partnerschaften mit SAP und Google heben wir die Harmonisierung der Prozesse und die Standardisierung der technischen Betriebsmodelle des Unternehmens auf ein neues Niveau.“

Liegt die digitale Zukunft des Handels in der Cloud?  

Alex Kläger, President Middle & Eastern Europe von SAP, verwies darauf, dass die Rewe Group mit der Migration in die Cloud SAPs kontinuierliche Weiterentwicklungen, einschließlich der Innovationen im Bereich der künstlichen Intelligenz, optimal ausschöpfen könne. Für Marianne Janik, VP EMEA North Google Cloud, markiert die strategische Partnerschaft mit der Rewe Group einen wichtigen Meilenstein für die digitale Zukunft des Handels.

Mit Rewe hat Alex Kläger, President Middle & Eastern Europe von SAP, einen wichtigen Kunden für sein Cloud-Geschäft gewonnen.SAP SE

Die genossenschaftliche Rewe Group erzielte im Jahr 2024 einen Umsatz von über 96 Milliarden Euro. Das 1927 gegründete Handelsunternehmen beschäftigt rund 380.000 Menschen und ist in 21 europäischen Ländern präsent. Zu den Marken gehören neben Rewe unter anderem auch Nahkauf, der Discounter Penny, die Baumärkte von Toom sowie ZooRoyal und unter dem Dach der Dertour Group über 2.000 Reisebüros, Veranstalter sowie Hotelmarken und Online-Reiseportale. 

Die Top-CIOs im Handel

Um die IT kümmert sich Rewe digital – sowohl im stationären wie auch im Onlinehandel. Die IT-Einheit beschäftigt rund 2.250 Mitarbeitende an verschiedenen Standorten in Deutschland wie Köln, Berlin und Frankfurt bis hin zu Sofia, Varna, Plovdiv, Zielona Góra, Graz und Málaga. 

Rewe packt seine SAP-Systeme in die Google-Cloud​ Weiterlesen »

Brauchen Sie wirklich ein LLM?​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?quality=50&strip=all 5980w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>LLMs wegen der besseren Außenwirkung einzusetzen, ist nicht zielführend – meint auch unsere Autorin.Tada Images | shutterstock.com Als Director of Data Management beschäftige ich mit intensiv mit sämtlichen Aspekten von Datenstrategien, Governance und Analytics – von der Definition der Daten-Vision bis hin zum Aufbau performanter Teams in diesem Bereich. Dabei behalte ich auch das Thema Nachhaltigkeit stets im Hinterkopf, wie Sie auch in diesem Artikel bemerken werden. Der Hype, der derzeit rund um Large Language Models (LLMs; große Sprachmodelle) tobt, ist angesichts ihres nahezu grenzenlosen Potenzials nachvollziehbar:   Rund um Analytics ermöglichen große Sprachmodelle Datenanalysen auf Basis natürliche Sprache, automatisieren Reportings und interpretieren Daten-Nuancen. Im Bereich der wissenschaftlichen Forschung können LLMs Berge von Forschungsarbeiten analysieren – zum Beispiel, um die Arzneimittelforschung erheblich zu beschleunigen. In der Einzelhandelsbranche können LLMs Produktempfehlungen personalisieren und Marketingkampagnen optimieren. Anwendungsfälle wie diese sind ohne Zweifel transformativ. Mit Blick auf den Unternehmensalltag stellt sich jedoch aus meiner Sicht immer öfter die Frage: Brauchen Unternehmen für grundlegende Analytics-Use-Cases wirklich ein Large Language Model? Oder kommt es nur zum Einsatz, weil es eben gerade en vogue ist?   Von Spatzen und Kanonen Aus meiner Erfahrung läuft es mit Blick auf Analytics-Initiativen in Unternehmen im Regelfall auf folgenden Kernanforderungen hinaus: klare Datenvisualisierungen, solide, deskriptive Analysen (Trends, KPIs), zuverlässige prädiktive Analysen, und benutzerfreundliche Dashboards. Anders ausgedrückt: Es geht in der Praxis in erster Linie darum, zuverlässige, umsetzbare Insights zu generieren. Und dafür haben wir bereits diverse, qualitativ hochwertige Tools – etwa Tableau, Qlik oder Power BI, wenn es um interaktive Dashboards und Visualisierungen geht. Oder SQL, um Zahlen auszuwerten. Selbst einfache Prediction-Modelle lassen sich mit Hilfe von Programmiersprachen wie Python oder R und Machine Learning erstellen. Ebenso können Wissenschaftler auf simple Statistik-Software zurückgreifen, um Patientendaten zu analysieren oder Retail-Händler auf Standard-Datenbanktechnologien, um ihren Bestand zu tracken. Diese traditionellen Tools sind oft mehr als ausreichend, um die grundlegenden Analytics-Bedürfnisse der meisten Unternehmen zu erfüllen. Chitra Sundaram ist Practice Director of Data Management bei Cleartelligence.Chitra Sundaram Schließlich sind LLMs vor allem auch ressourcenintensiv: Die großen Sprachmodelle zu trainieren und zu betreiben, verlangt enorme Rechenleistung – und sorgt für einen erheblichen CO₂-Fußabdruck. Das steht den Prinzipien einer nachhaltigen IT entgegen, die die Ressourcennutzung optimieren, Ausschuss reduzieren und Lösungen in angemessener Größe fördern will. Ein Large Language Model zu nutzen, um einen einfachen Durchschnittswert zu ermitteln, ist vor diesem Hintergrund kontraproduktiv. Man könnte auch sagen, das wäre wie mit Kanonen auf Spatzen zu schießen. Leider erlebt man genau das in der Praxis regelmäßig. Zum Beispiel bei einem Kunden aus der Luxus-Möbelbranche. Dieser war versucht, für Stimmungsanalysen seiner Kunden die neuesten KI-Technologien einzusetzen. Nach einem gründlichen Assessment haben wir ihm jedoch einen praktischeren Ansatz empfohlen: Mit Hilfe bestehender Bibliotheken für Natural Language Processing konnten wir die gewünschten Sentiment-Analysen in einer Python-Umgebung realisieren – und zwar mit einem Bruchteil der Rechenressourcen, die für KI nötig gewesen wären. So konnten wir nicht nur die Kosten, sondern parallel auch die Umweltbelastung erheblich reduzieren. Das wesentliche Problem besteht einfach darin, dass die Begeisterung für neue Technologien dazu führen kann, dass man blind wird für einfache, naheliegende und praktische Problemlösungen. Wo LLMs Sinn machen Große Sprachmodelle sind eine Überlegung wert, wenn Sie mit wirklich komplexen, unstrukturierten (oder einem Mix aus strukturierten und unstrukturierten) Daten arbeiten. Sie sind außerdem nützlich für dynamische Situationen, in denen sich Daten und Anforderungen kontinuierlich ändern. Und last but not least natürlich auch, um die User Experience zu optimieren (Stichwort natürlichsprachliche Abfragen). Hier können LLMs wirklich glänzen – und machen Sinn (insofern die Outputs auch strategisch eingesetzt werden). Ich rate meinen Kunden regelmäßig, auf einen hybriden Ansatz zu setzen: Nutzen Sie traditionelle Tools für strukturierte Daten und reservieren Sie LLMs für wirklich komplexe Aufgaben. So können Sie die Stärken beider Welten nutzen, die Effizienz maximieren und den Ressourcenverbrauch minimieren. Im Kern geht es darum, die richtige Balance zwischen Leistungsfähigkeit und Praktikabilität zu finden. Anders ausgedrückt: Nachhaltig geht Analytics, wenn das richtige Tool für die richtige Aufgabe gewählt wird – statt einfach blind einem gerade aktuellen Trend zu folgen. Vergessen Sie also bei allem „KI-Wettrüsten“ nicht, dass einfache Lösungen oft die nachhaltigsten sind. Sehen Sie davon ab, Kanonen auf Spatzen zu richten und hören Sie auf die Stimme der Vernunft: Nicht Hype sollte über Technologieentscheidungen bestimmen, sondern Business-Anforderungen und Nachhaltigkeitsaspekte. Nur so lässt sich Datenpotenzial heben, während parallel die Umweltauswirkungen minimiert werden. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Brauchen Sie wirklich ein LLM?​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?quality=50&strip=all 5980w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/Tada-Images_shutterstock_2276608417_NR_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>LLMs wegen der besseren Außenwirkung einzusetzen, ist nicht zielführend – meint auch unsere Autorin.Tada Images | shutterstock.com

Als Director of Data Management beschäftige ich mit intensiv mit sämtlichen Aspekten von Datenstrategien, Governance und Analytics – von der Definition der Daten-Vision bis hin zum Aufbau performanter Teams in diesem Bereich. Dabei behalte ich auch das Thema Nachhaltigkeit stets im Hinterkopf, wie Sie auch in diesem Artikel bemerken werden.

Der Hype, der derzeit rund um Large Language Models (LLMs; große Sprachmodelle) tobt, ist angesichts ihres nahezu grenzenlosen Potenzials nachvollziehbar:  

Rund um Analytics ermöglichen große Sprachmodelle Datenanalysen auf Basis natürliche Sprache, automatisieren Reportings und interpretieren Daten-Nuancen.

Im Bereich der wissenschaftlichen Forschung können LLMs Berge von Forschungsarbeiten analysieren – zum Beispiel, um die Arzneimittelforschung erheblich zu beschleunigen.

In der Einzelhandelsbranche können LLMs Produktempfehlungen personalisieren und Marketingkampagnen optimieren.

Anwendungsfälle wie diese sind ohne Zweifel transformativ. Mit Blick auf den Unternehmensalltag stellt sich jedoch aus meiner Sicht immer öfter die Frage: Brauchen Unternehmen für grundlegende Analytics-Use-Cases wirklich ein Large Language Model? Oder kommt es nur zum Einsatz, weil es eben gerade en vogue ist?  

Von Spatzen und Kanonen

Aus meiner Erfahrung läuft es mit Blick auf Analytics-Initiativen in Unternehmen im Regelfall auf folgenden Kernanforderungen hinaus:

klare Datenvisualisierungen,

solide, deskriptive Analysen (Trends, KPIs),

zuverlässige prädiktive Analysen, und

benutzerfreundliche Dashboards.

Anders ausgedrückt: Es geht in der Praxis in erster Linie darum, zuverlässige, umsetzbare Insights zu generieren. Und dafür haben wir bereits diverse, qualitativ hochwertige Tools – etwa Tableau, Qlik oder Power BI, wenn es um interaktive Dashboards und Visualisierungen geht. Oder SQL, um Zahlen auszuwerten. Selbst einfache Prediction-Modelle lassen sich mit Hilfe von Programmiersprachen wie Python oder R und Machine Learning erstellen. Ebenso können Wissenschaftler auf simple Statistik-Software zurückgreifen, um Patientendaten zu analysieren oder Retail-Händler auf Standard-Datenbanktechnologien, um ihren Bestand zu tracken. Diese traditionellen Tools sind oft mehr als ausreichend, um die grundlegenden Analytics-Bedürfnisse der meisten Unternehmen zu erfüllen.

Chitra Sundaram ist Practice Director of Data Management bei Cleartelligence.Chitra Sundaram

Schließlich sind LLMs vor allem auch ressourcenintensiv: Die großen Sprachmodelle zu trainieren und zu betreiben, verlangt enorme Rechenleistung – und sorgt für einen erheblichen CO₂-Fußabdruck. Das steht den Prinzipien einer nachhaltigen IT entgegen, die die Ressourcennutzung optimieren, Ausschuss reduzieren und Lösungen in angemessener Größe fördern will. Ein Large Language Model zu nutzen, um einen einfachen Durchschnittswert zu ermitteln, ist vor diesem Hintergrund kontraproduktiv. Man könnte auch sagen, das wäre wie mit Kanonen auf Spatzen zu schießen. Leider erlebt man genau das in der Praxis regelmäßig.

Zum Beispiel bei einem Kunden aus der Luxus-Möbelbranche. Dieser war versucht, für Stimmungsanalysen seiner Kunden die neuesten KI-Technologien einzusetzen. Nach einem gründlichen Assessment haben wir ihm jedoch einen praktischeren Ansatz empfohlen: Mit Hilfe bestehender Bibliotheken für Natural Language Processing konnten wir die gewünschten Sentiment-Analysen in einer Python-Umgebung realisieren – und zwar mit einem Bruchteil der Rechenressourcen, die für KI nötig gewesen wären. So konnten wir nicht nur die Kosten, sondern parallel auch die Umweltbelastung erheblich reduzieren.

Das wesentliche Problem besteht einfach darin, dass die Begeisterung für neue Technologien dazu führen kann, dass man blind wird für einfache, naheliegende und praktische Problemlösungen.

Wo LLMs Sinn machen

Große Sprachmodelle sind eine Überlegung wert, wenn Sie mit wirklich komplexen, unstrukturierten (oder einem Mix aus strukturierten und unstrukturierten) Daten arbeiten. Sie sind außerdem nützlich für dynamische Situationen, in denen sich Daten und Anforderungen kontinuierlich ändern. Und last but not least natürlich auch, um die User Experience zu optimieren (Stichwort natürlichsprachliche Abfragen). Hier können LLMs wirklich glänzen – und machen Sinn (insofern die Outputs auch strategisch eingesetzt werden).

Ich rate meinen Kunden regelmäßig, auf einen hybriden Ansatz zu setzen: Nutzen Sie traditionelle Tools für strukturierte Daten und reservieren Sie LLMs für wirklich komplexe Aufgaben. So können Sie die Stärken beider Welten nutzen, die Effizienz maximieren und den Ressourcenverbrauch minimieren. Im Kern geht es darum, die richtige Balance zwischen Leistungsfähigkeit und Praktikabilität zu finden.

Anders ausgedrückt: Nachhaltig geht Analytics, wenn das richtige Tool für die richtige Aufgabe gewählt wird – statt einfach blind einem gerade aktuellen Trend zu folgen. Vergessen Sie also bei allem „KI-Wettrüsten“ nicht, dass einfache Lösungen oft die nachhaltigsten sind. Sehen Sie davon ab, Kanonen auf Spatzen zu richten und hören Sie auf die Stimme der Vernunft: Nicht Hype sollte über Technologieentscheidungen bestimmen, sondern Business-Anforderungen und Nachhaltigkeitsaspekte. Nur so lässt sich Datenpotenzial heben, während parallel die Umweltauswirkungen minimiert werden. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Brauchen Sie wirklich ein LLM?​ Weiterlesen »

Die besten Android Launcher​

Allgemein

Mit dem richtigen Launcher bringen Sie Ihre Smartphone-Produktivität auf das nächste Level. Foto: Zmiter – shutterstock.com Der Home Screen Ihres Smartphones ist das Herzstück der mobilen Technologieerfahrung und bildet quasi die Startrampe für alle Aktivitäten. Dabei haben Android– gegenüber iOS-Nutzern einen wesentlichen Vorteil: Sie können ihren Startbildschirm individueller anpassen. Oder sie übernehmen die volle Kontrolle und verwandeln den Home Screen ihres Android-Telefons in eine persönliche Produktivitätszentrale. Dabei geht es nicht nur darum, ein paar extravagante Widgets einzustreuen: Mit Hilfe von Launcher-Programmen für Android können Sie alle möglichen benutzerdefinierten Aktionen, Schnittstellen und Verknüpfungen erstellen. Diese Maßnahme kann nicht nur aktuelle Smartphones mit erhöhtem Nutzwert ausstatten, sondern auch alte Android-Telefone mit neuem, effizienterem Leben füllen. Android Launcher: Top 7 Im Google Play Store stehen Ihnen diverse empfehlenswerte Launcher-Optionen zur Verfügung. Um herauszufinden, welche Option dabei für Sie am meisten Sinn macht, sollten Sie sich die Frage stellen, welche Ziele Sie erreichen möchten – beziehungsweise, welche Art der Interaktion Sie bevorzugen. Niagara Launcher “Weniger ist mehr” lautet das Motto beim Niagara Launcher. Er verspricht, alle überflüssigen Elemente Ihres Android-Startbildschirms zu entfernen und sie durch schnelle und unkomplizierte Tools zu ersetzen, damit Sie Ihre Ziele schneller erreichen. Dreh- und Angelpunkt des Niagara Home Screen ist ein vertikales Menü, dass Ihre meistgenutzten Apps beinhaltet. Dabei steckt mehr unter der Haube, als man auf den ersten Blick denkt: Jeder Shortcut auf dem Startbildschirm lässt sich nicht nur traditionell nutzen, sondern auch mit umfassenderen Ordnern verknüpfen, die sowohl Apps als auch Widgets enthalten können. Niagara verfügt über viele weitere durchdachte, auf Effizienz ausgerichtete Funktionen. Zum Beispiel: eine Option, um aktive Benachrichtigungen neben dem Symbol der entsprechenden App auf dem Startbildschirm anzuzeigen oder auch direkt darauf zu reagieren; die Möglichkeit, mehrere Android-Widgets innerhalb des Startbildschirms zu “stapeln”, um alle wichtigen Informationen auf einen Blick zu erhalten; ein intelligentes Suchsystem, auf das Sie mit einer Wischbewegung nach oben überall auf Ihrem Startbildschirm zugreifen können. Preisgefüge: Niagara Launcher ist kostenlos. Das Upgrade auf die Premium-Version Niagara Pro kostet 9,99 Euro pro Jahr – oder einmalig 29,99 Euro mit unbegrenzter Nutzungsdauer. Smart Launcher 6 Wenn Ihnen die Idee gefällt, sich relativ mühelos zu organisieren, Sie dabei aber Wert auf eine traditionellere, rasterbasierte (An-)Ordnung auf Ihrem Home Screen legen, könnte Smart Launcher 6 eine interessante Option für Sie sein. Der Android Launcher organisiert und optimiert Ihren Startbildschirm kontinuierlich – ohne dass Sie sich darüber Gedanken machen müssen. Den Smart Launcher zu konfigurieren, ist hingegen eher unkonventionell – obwohl die Software im Laufe der Jahre erheblich flexibler geworden ist. Sie ist immer noch auf Übersichtlichkeit gebürstet und ordnet Ihre meistgenutzten Apps am unteren Rand des Home Screens an. Inzwischen können Sie sich bei Bedarf aber auch von dieser Struktur lösen. Apropos Widgets: Smart Launcher stellt mehrere davon exklusiv zur Verfügung (darunter ein simples Notiz- und Kompass-Widget sowie ein entsprechendes Framework, um eigene Widget-Stapel zu erstellen). The wait is over. Smart Launcher 6.5 arrives tomorrow for most of you! We’ve already started rolling it out, so keep an eye on your updates. “Everything blurs when the focus is you.” Enjoy the new features and let us know what you think once it reaches you![image or embed]— Smart Launcher (@smartlauncher.bsky.social) 4. Dezember 2024 um 17:16 Darüber hinaus enthält der Launcher auch eine Suchfunktion, auf die Sie entweder durch Tippen auf die Leiste am unteren Rand des Hauptbildschirms oder durch Wischen nach oben im Bereich des Startbildschirms zugreifen können. Sie kann sowohl für Apps, als auch für Kontakte oder Web-Informationen zum Einsatz kommen. Standardmäßig bietet Smart Launcher 6 zudem eine Integration der News-Plattform von Microsoft (deaktivierbar). Preisgefüge: Smart Launcher 6 ist kostenlos. Ein optionales Pro-Upgrade kostet 12 Dollar (Lifetime-Lizenz). Microsoft Launcher Android ist in der Regel eine Google-zentrische Angelegenheit. Inzwischen hat Microsoft allerdings sein eigenes Sub-Ökosystem innerhalb der Mobile-Plattform aufgebaut. Das Herzstück dieser Bemühungen: der Microsoft Launcher. Mit dem Microsoft Launcher rücken Bing, Outlook und Co. in den Fokus. Foto: JR Raphael / Foundry Dieser sorgt dafür, dass Sie direkt das Gefühl bekommen, ein Microsoft Android-Gerät und kein Google-Produkt zu verwenden: Das Feed-ähnliche Panel des Android Launchers zeigt Ihnen auf einen Blick Outlook-Kalenderinformationen, Posteingangs-Tasks und eine Liste Ihrer zuletzt verwendeten Dokumente. Zudem stützt sich der Microsoft Launcher auf die News-Plattform des Konzerns und in Sachen Suchsystem auf Bing. Abgesehen von den Microsoft-spezifischen Elementen vereint dieser Launcher schlichte Ordnung mit fortgeschrittenen Organisationsoptionen. Preisgefüge: Die App ist kostenlos. Square Home Alle Android-Nutzer die Windows Phone vermissen, können sich das zugehörige Kacheldesign mit Square Home jetzt auf ihr Smartphone holen. Doch selbst wenn Sie nie ein Windows Phone genutzt haben, könnten Sie Square Home als erfrischenden Weg empfinden, Ihre Workflows zu optimieren. Die Kacheln, die der Launcher auf Ihrem Home Screen platziert, sind anpassbar und können eine App-Verknüpfung, ein Widget oder andere Aktionen beherbergen. Sie haben sogar die Möglichkeit, die Kacheln als dreidimensionale Würfel zu befüllen. Darüber hinaus dürfen Sie bei diesem Android Launcher auch Textgrößen, Farben und Hintergründe sowie eigene Tastenkombinationen und Wischgesten konfigurieren. Android-Nutzer mit Hang zu Windows-Phone-Nostalgie – oder Geometrie – dürfen sich mit Square Home austoben. Foto: JR Raphael / Foundry Preisgefüge: Square Home ist kostenlos. Erweiterte Funktionen ermöglicht ein Upgrade auf die Premium-Version für 5 Dollar (Lifetime-Lizenz). Lynx Launcher Lynx Launcher ist ein relativ neuer Anwärter unter den Android-Launchern, der sich durch seinen Ansatz von der Konkurrenz abhebt. Lynx Launcher soll von der Linux-basierten Gnome-Desktop-Oberfläche “inspiriert” sein. Im Kern bietet die Software ein primäres Startbildschirm-Panel mit einem einfachen integrierten Uhr-Widget oben und einer Reihe von Lieblingsanwendungen auf der rechten Seite. Diesen Hauptbereich dürfen Sie um zusätzliche Verknüpfungen und Widgets ergänzen. Der Lynx Launcher zeigt sich von Linux inspiriert und bietet eine besonders effektive App-Übersicht. Foto: JR Raphael / Foundry Der Home Screen wirkt auf den ersten Blick etwas leer und verwaist, hält auf den zweiten Blick aber weitere Elemente bereit: Eine Wischbewegung nach rechts – oder ein Tipp auf das Punkte-Symbol – führt Sie zu einer alphabetisch geordneten App-Liste. Eine Wischbewegung nach links öffnet den sich selbst befüllenden Favoriten-Bildschirm. Hier werden Ihre am häufigsten verwendeten Apps und Kontakte vorgehalten, damit Sie schnell darauf zugreifen können. Eine Wischbewegung nach unten – oder ein Tipp auf das Suchfeld oben auf dem Startbildschirm – startet die Suchfunktion des Android Launchers: Ein oder zwei Buchstaben einzugeben, genügt dabei, um Apps, Kontakte oder Informationen im Web zielstrebig zu finden. Ein Wisch nach oben über einen beliebigen Bereich Ihres Startbildschirms ruft den “Desktop”-Bereich von Lynx auf. Dabei handelt es sich im Grunde um ein zusätzliches On-Demand-Panel für den Startbildschirm, in dem Sie eine beliebige Kombination von Verknüpfungen und Widgets ablegen können. Lynx bietet noch weitere Optionen für Anpassungen: Zum Beispiel die Möglichkeit, benutzerdefinierte Gesten einzurichten. Preisgefüge: Lynx ist in der Grundversion kostenlos. Ein optionales Pro-Upgrade für 4 Dollar erschließt erweiterte Anpassungsmöglichkeiten. Before Launcher Verbringen Sie zu viel Zeit mit Ihrem Smartphone? Die Entwickler von Before Launcher versprechen, dass Sie Ihre Nutzungszeit mit Hilfe ihrer Software um ganze 40 Prozent reduzieren können. Dazu setzt der Android Launcher in erster Linie auf schnörkellose und ablenkungsfreie Produktivität. Entsprechend asketisch kommt der primäre Home Screen des Before Launcher ums Eck: Es handelt sich im Grunde lediglich um eine textbasierte Auflistung der Anwendungen, die Sie am häufigsten nutzen. Eine Wischbewegung nach links öffnet eine vollständige Auflistung aller installierten Apps – ein Fingerstreich in die andere Richtung führt zu einer (filterbaren) Benachrichtigungszentrale. Darüber hinaus bietet der Android Launcher einige minimalistische Optionen, um das Aussehen des Startbildschirms zu verändern und benutzerdefinierte Gesten aufzusetzen. Preisgefüge: Before Launcher ist kostenlos – bietet jedoch auch ein optionales, kostenpflichtiges (6 Dollar) Pro-Upgrade, das weitere Features hinzufügt. Nova Launcher Dieser Android Launcher gehört seit einigen Jahren zu den Favoriten von Android-Power-Usern. Das liegt auch daran, dass dieser Launcher es ermöglicht, so gut wie jede nur erdenkliche Kleinigkeit zu konfigurieren beziehungsweise zu personalisieren – von der Größe der Schriftarten über den Transparenzgrad von Hintergründen bis hin zur Geschwindigkeit von Animationen. Sie können auch eine Vielzahl benutzerdefinierter Gesten für den schnellen Zugriff auf Apps oder Aktionen erstellen. Mit dem Nova Launcher dürfen Sie auch eine Vielzahl benutzerdefinierter Gesten für den schnellen Zugriff auf Apps oder Aktionen erstellen. Foto: JR Raphael / Foundry Der Nova Launcher ist davon abgesehen auch für seine zeitnahen und regelmäßigen Updates bekannt. Wenn Sie Wert darauf legen, die vollständige Kontrolle über jedes Element Ihres Homescreens zu haben, fahren Sie mit diesem Android Launcher am besten. Preisgefüge: Nova Launcher ist kostenlos. Ein optionales, kostenpflichtiges Upgrade (5 Dollar) erschließt weitere, erweiterte Funktionen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die besten Android Launcher​ Mit dem richtigen Launcher bringen Sie Ihre Smartphone-Produktivität auf das nächste Level.
Foto: Zmiter – shutterstock.com

Der Home Screen Ihres Smartphones ist das Herzstück der mobilen Technologieerfahrung und bildet quasi die Startrampe für alle Aktivitäten. Dabei haben Android– gegenüber iOS-Nutzern einen wesentlichen Vorteil: Sie können ihren Startbildschirm individueller anpassen. Oder sie übernehmen die volle Kontrolle und verwandeln den Home Screen ihres Android-Telefons in eine persönliche Produktivitätszentrale.

Dabei geht es nicht nur darum, ein paar extravagante Widgets einzustreuen: Mit Hilfe von Launcher-Programmen für Android können Sie alle möglichen benutzerdefinierten Aktionen, Schnittstellen und Verknüpfungen erstellen. Diese Maßnahme kann nicht nur aktuelle Smartphones mit erhöhtem Nutzwert ausstatten, sondern auch alte Android-Telefone mit neuem, effizienterem Leben füllen.

Android Launcher: Top 7

Im Google Play Store stehen Ihnen diverse empfehlenswerte Launcher-Optionen zur Verfügung. Um herauszufinden, welche Option dabei für Sie am meisten Sinn macht, sollten Sie sich die Frage stellen, welche Ziele Sie erreichen möchten – beziehungsweise, welche Art der Interaktion Sie bevorzugen.

Niagara Launcher

“Weniger ist mehr” lautet das Motto beim Niagara Launcher. Er verspricht, alle überflüssigen Elemente Ihres Android-Startbildschirms zu entfernen und sie durch schnelle und unkomplizierte Tools zu ersetzen, damit Sie Ihre Ziele schneller erreichen.

Dreh- und Angelpunkt des Niagara Home Screen ist ein vertikales Menü, dass Ihre meistgenutzten Apps beinhaltet. Dabei steckt mehr unter der Haube, als man auf den ersten Blick denkt: Jeder Shortcut auf dem Startbildschirm lässt sich nicht nur traditionell nutzen, sondern auch mit umfassenderen Ordnern verknüpfen, die sowohl Apps als auch Widgets enthalten können.

Niagara verfügt über viele weitere durchdachte, auf Effizienz ausgerichtete Funktionen. Zum Beispiel:

eine Option, um aktive Benachrichtigungen neben dem Symbol der entsprechenden App auf dem Startbildschirm anzuzeigen oder auch direkt darauf zu reagieren;

die Möglichkeit, mehrere Android-Widgets innerhalb des Startbildschirms zu “stapeln”, um alle wichtigen Informationen auf einen Blick zu erhalten;

ein intelligentes Suchsystem, auf das Sie mit einer Wischbewegung nach oben überall auf Ihrem Startbildschirm zugreifen können.

Preisgefüge: Niagara Launcher ist kostenlos. Das Upgrade auf die Premium-Version Niagara Pro kostet 9,99 Euro pro Jahr – oder einmalig 29,99 Euro mit unbegrenzter Nutzungsdauer.

Smart Launcher 6

Wenn Ihnen die Idee gefällt, sich relativ mühelos zu organisieren, Sie dabei aber Wert auf eine traditionellere, rasterbasierte (An-)Ordnung auf Ihrem Home Screen legen, könnte Smart Launcher 6 eine interessante Option für Sie sein. Der Android Launcher organisiert und optimiert Ihren Startbildschirm kontinuierlich – ohne dass Sie sich darüber Gedanken machen müssen.

Den Smart Launcher zu konfigurieren, ist hingegen eher unkonventionell – obwohl die Software im Laufe der Jahre erheblich flexibler geworden ist. Sie ist immer noch auf Übersichtlichkeit gebürstet und ordnet Ihre meistgenutzten Apps am unteren Rand des Home Screens an. Inzwischen können Sie sich bei Bedarf aber auch von dieser Struktur lösen. Apropos Widgets: Smart Launcher stellt mehrere davon exklusiv zur Verfügung (darunter ein simples Notiz- und Kompass-Widget sowie ein entsprechendes Framework, um eigene Widget-Stapel zu erstellen).

The wait is over. Smart Launcher 6.5 arrives tomorrow for most of you!

We’ve already started rolling it out, so keep an eye on your updates.

“Everything blurs when the focus is you.”

Enjoy the new features and let us know what you think once it reaches you![image or embed]— Smart Launcher (@smartlauncher.bsky.social) 4. Dezember 2024 um 17:16

Darüber hinaus enthält der Launcher auch eine Suchfunktion, auf die Sie entweder durch Tippen auf die Leiste am unteren Rand des Hauptbildschirms oder durch Wischen nach oben im Bereich des Startbildschirms zugreifen können. Sie kann sowohl für Apps, als auch für Kontakte oder Web-Informationen zum Einsatz kommen. Standardmäßig bietet Smart Launcher 6 zudem eine Integration der News-Plattform von Microsoft (deaktivierbar).

Preisgefüge: Smart Launcher 6 ist kostenlos. Ein optionales Pro-Upgrade kostet 12 Dollar (Lifetime-Lizenz).

Microsoft Launcher

Android ist in der Regel eine Google-zentrische Angelegenheit. Inzwischen hat Microsoft allerdings sein eigenes Sub-Ökosystem innerhalb der Mobile-Plattform aufgebaut. Das Herzstück dieser Bemühungen: der Microsoft Launcher.

Mit dem Microsoft Launcher rücken Bing, Outlook und Co. in den Fokus.
Foto: JR Raphael / Foundry

Dieser sorgt dafür, dass Sie direkt das Gefühl bekommen, ein Microsoft Android-Gerät und kein Google-Produkt zu verwenden: Das Feed-ähnliche Panel des Android Launchers zeigt Ihnen auf einen Blick Outlook-Kalenderinformationen, Posteingangs-Tasks und eine Liste Ihrer zuletzt verwendeten Dokumente. Zudem stützt sich der Microsoft Launcher auf die News-Plattform des Konzerns und in Sachen Suchsystem auf Bing.

Abgesehen von den Microsoft-spezifischen Elementen vereint dieser Launcher schlichte Ordnung mit fortgeschrittenen Organisationsoptionen.

Preisgefüge: Die App ist kostenlos.

Square Home

Alle Android-Nutzer die Windows Phone vermissen, können sich das zugehörige Kacheldesign mit Square Home jetzt auf ihr Smartphone holen. Doch selbst wenn Sie nie ein Windows Phone genutzt haben, könnten Sie Square Home als erfrischenden Weg empfinden, Ihre Workflows zu optimieren.

Die Kacheln, die der Launcher auf Ihrem Home Screen platziert, sind anpassbar und können eine App-Verknüpfung, ein Widget oder andere Aktionen beherbergen. Sie haben sogar die Möglichkeit, die Kacheln als dreidimensionale Würfel zu befüllen. Darüber hinaus dürfen Sie bei diesem Android Launcher auch Textgrößen, Farben und Hintergründe sowie eigene Tastenkombinationen und Wischgesten konfigurieren.

Android-Nutzer mit Hang zu Windows-Phone-Nostalgie – oder Geometrie – dürfen sich mit Square Home austoben.
Foto: JR Raphael / Foundry

Preisgefüge: Square Home ist kostenlos. Erweiterte Funktionen ermöglicht ein Upgrade auf die Premium-Version für 5 Dollar (Lifetime-Lizenz).

Lynx Launcher

Lynx Launcher ist ein relativ neuer Anwärter unter den Android-Launchern, der sich durch seinen Ansatz von der Konkurrenz abhebt.

Lynx Launcher soll von der Linux-basierten Gnome-Desktop-Oberfläche “inspiriert” sein. Im Kern bietet die Software ein primäres Startbildschirm-Panel mit einem einfachen integrierten Uhr-Widget oben und einer Reihe von Lieblingsanwendungen auf der rechten Seite. Diesen Hauptbereich dürfen Sie um zusätzliche Verknüpfungen und Widgets ergänzen.

Der Lynx Launcher zeigt sich von Linux inspiriert und bietet eine besonders effektive App-Übersicht.
Foto: JR Raphael / Foundry

Der Home Screen wirkt auf den ersten Blick etwas leer und verwaist, hält auf den zweiten Blick aber weitere Elemente bereit:

Eine Wischbewegung nach rechts – oder ein Tipp auf das Punkte-Symbol – führt Sie zu einer alphabetisch geordneten App-Liste.

Eine Wischbewegung nach links öffnet den sich selbst befüllenden Favoriten-Bildschirm. Hier werden Ihre am häufigsten verwendeten Apps und Kontakte vorgehalten, damit Sie schnell darauf zugreifen können.

Eine Wischbewegung nach unten – oder ein Tipp auf das Suchfeld oben auf dem Startbildschirm – startet die Suchfunktion des Android Launchers: Ein oder zwei Buchstaben einzugeben, genügt dabei, um Apps, Kontakte oder Informationen im Web zielstrebig zu finden.

Ein Wisch nach oben über einen beliebigen Bereich Ihres Startbildschirms ruft den “Desktop”-Bereich von Lynx auf. Dabei handelt es sich im Grunde um ein zusätzliches On-Demand-Panel für den Startbildschirm, in dem Sie eine beliebige Kombination von Verknüpfungen und Widgets ablegen können.

Lynx bietet noch weitere Optionen für Anpassungen: Zum Beispiel die Möglichkeit, benutzerdefinierte Gesten einzurichten.

Preisgefüge: Lynx ist in der Grundversion kostenlos. Ein optionales Pro-Upgrade für 4 Dollar erschließt erweiterte Anpassungsmöglichkeiten.

Before Launcher

Verbringen Sie zu viel Zeit mit Ihrem Smartphone? Die Entwickler von Before Launcher versprechen, dass Sie Ihre Nutzungszeit mit Hilfe ihrer Software um ganze 40 Prozent reduzieren können. Dazu setzt der Android Launcher in erster Linie auf schnörkellose und ablenkungsfreie Produktivität.

Entsprechend asketisch kommt der primäre Home Screen des Before Launcher ums Eck: Es handelt sich im Grunde lediglich um eine textbasierte Auflistung der Anwendungen, die Sie am häufigsten nutzen. Eine Wischbewegung nach links öffnet eine vollständige Auflistung aller installierten Apps – ein Fingerstreich in die andere Richtung führt zu einer (filterbaren) Benachrichtigungszentrale. Darüber hinaus bietet der Android Launcher einige minimalistische Optionen, um das Aussehen des Startbildschirms zu verändern und benutzerdefinierte Gesten aufzusetzen.

Preisgefüge: Before Launcher ist kostenlos – bietet jedoch auch ein optionales, kostenpflichtiges (6 Dollar) Pro-Upgrade, das weitere Features hinzufügt.

Nova Launcher

Dieser Android Launcher gehört seit einigen Jahren zu den Favoriten von Android-Power-Usern. Das liegt auch daran, dass dieser Launcher es ermöglicht, so gut wie jede nur erdenkliche Kleinigkeit zu konfigurieren beziehungsweise zu personalisieren – von der Größe der Schriftarten über den Transparenzgrad von Hintergründen bis hin zur Geschwindigkeit von Animationen. Sie können auch eine Vielzahl benutzerdefinierter Gesten für den schnellen Zugriff auf Apps oder Aktionen erstellen.

Mit dem Nova Launcher dürfen Sie auch eine Vielzahl benutzerdefinierter Gesten für den schnellen Zugriff auf Apps oder Aktionen erstellen.
Foto: JR Raphael / Foundry

Der Nova Launcher ist davon abgesehen auch für seine zeitnahen und regelmäßigen Updates bekannt. Wenn Sie Wert darauf legen, die vollständige Kontrolle über jedes Element Ihres Homescreens zu haben, fahren Sie mit diesem Android Launcher am besten.

Preisgefüge: Nova Launcher ist kostenlos. Ein optionales, kostenpflichtiges Upgrade (5 Dollar) erschließt weitere, erweiterte Funktionen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die besten Android Launcher​ Weiterlesen »

Agiles Theater: 7 Anzeichen für DevOps-Schwindel​

Allgemein

Diese Anzeichen können Ihnen verraten, ob Ihre DevOps-Initiative mehr Schein als Sein ist. Foto: laksena – shutterstock.com Kein Zweifel: DevOps hat vielen IT-Organisationen dabei geholfen, Anwendungen und Services schneller zu entwickeln und bereitzustellen. Allerdings kommt es nicht selten vor, dass IT-Führungskräfte in den höchsten Tönen von DevOps schwärmen, während sich ihre Teams in eine völlig falsche Richtung bewegen und auf unausgegorene oder völlig unzureichende Tools oder Praktiken setzen. Sicherzustellen, dass die Entwicklungsteams nicht (absichtlich oder unabsichtlich) vom Pfad der DevOps-Tugend abkommen, liegt in der Verantwortung des CIO. Die folgenden sieben Warnzeichen können darauf hindeuten, dass Ihre DevOps-Initiative nicht mehr als Schall und Rauch ist. 1. DevOps im Silo Das erste Anzeichen für eine Fake-DevOps-Implementierung lässt sich mit einem Blick aufs Organigramm erkennen, weiß Fernando Cuadra, Principal Consultant beim Beratungsunternehmen ISG: “Wenn DevOps in einem eigenen Silo untergebracht ist, getrennt von Technik und Betrieb, ist das ein erstes Anzeichen dafür, dass keine Verantwortlichkeit für diesen Bereich gegeben ist. CIOs, die ein separates DevOps-Team schaffen, erzeugen eine weitere Komplexitätsebene, die es zu managen gilt.” Stattdessen sollte das Organigramm so designt sein, das die Teams in der Lage sind, Probleme ganzheitlich über alle relevanten Bereiche hinweg zu lösen. “Entscheiden Sie sich für den Aufbau funktionsübergreifender Teams, vom Design bis hin zum Betrieb”, rät Cuadra. “Bei DevOps geht es nicht um Pipelines und CI/CD, sondern darum, die Wertschöpfung mit minimalen Reibungsverlusten im gesamten Unternehmen selbst zu steuern.” 2. Tool- statt Menschenfokus Unternehmen, die sich zu sehr auf die Tool- und technologieorientierte Seite der DevOps-Kultur konzentrieren und Menschen und Prozesse außen vor lassen, können aus dem Gleichgewicht geraten. “Es ist wichtig, die aktuellen Business-Praktiken und -Bedürfnisse zu bewerten”, meint Mohan Kumar, Senior Architect bei TEKsystems. Er empfiehlt: “Verankern Sie die DevOps-Kultur in Kommunikation, Zusammenarbeit, Feedbackerfassung und Datenanalysen.” Eine experimentierfreudige Umgebung, die es Entwicklern erlaube, zu scheitern und zu lernen, schaffe eine von Schuldzuweisungen innerhalb des Unternehmens befreite Kultur, so der Experte. “Nutzen Sie die kollektive Intelligenz der Teams, um einen Strom kreativer Ideen zu fördern”, fügt er hinzu. Die Einführung von DevOps sei ein iterativer Prozess, weshalb der CIO zunächst den aktuellen Zustand des Entwicklungsteams bewertet und dann schrittweise eine Strategie der kontinuierlichen Verbesserung aufbaut, die Menschen, Prozesse und Tools einbezieht. “Letztlich ist Kreativität ein Muskel, der ständig trainiert werden muss, um sich weiterzuentwickeln”, so Kumar. 3. Zu wenig Automatisierung Auch Teamleiter, die Automatisierungsmentalität vermissen lassen, können zu DevOps-Schwindel beitragen. dies gilt insbesondere für solche, die daran scheitern, Zeit und Ressourcen in den Aufbau einer starken Architektur mit automatisierter Code Delivery zu stecken. Bevor Sie eine Automatisierungsinitiative in Angriff nehmen, sollten Sie daher den Entwicklungsbedarf, die bestehenden Verträge und die aktuellen Projektteams sorgfältig begutachten, wie Ian Fogarty, Managing Director of Technology and Operations beim Beratungsunternehmen Accenture Federal Services, empfiehlt: “Prüfen Sie, ob die Fähigkeiten der Organisation so weit entwickelt sind, dass Sie die Infrastruktur automatisieren können.” Wie Kumar anmerkt, kann Automatisierung jedoch ein zweischneidiges Schwert sein. Es sei allzu leicht, unbeabsichtigt von fehlerhaften manuellen zu fehlerhaften automatisierten Prozessen überzugehen. “Widerstehen Sie dem Drang, so viel wie möglich zu automatisieren, und beschränken Sie Ihre Initiative auf sinnvolle Punkte. Das ultimative Ziel sollte sein, Software-Releases in einen wiederholbaren, zuverlässigen und automatisierten Bereitstellungsprozess zu verwandeln.” 4. Planlose Automatisierung Automatisierung kann wie eben gelesen von großem Nutzen sein. Allerdings stürzen sich immer noch viele Unternehmen ohne ausreichende Analyse und Planung in die DevOps-Automatisierung. Aaron Oh, Managing Director DevSecOps bei Deloitte Risk & Financial Advisory, plaudert aus dem Nähkästchen: “Wir haben Unternehmen erlebt, die der Automatisierung Priorität einräumen, ohne andere Aspekte wie Governance, Mitarbeiter, Prozesse und Technologie zu berücksichtigen. Solche Unternehmen verschwenden in der Regel viel Zeit mit der Überprüfung und Korrektur von Automatisierungsaufgaben.” Statt sich direkt in die Automatisierung zu stürzen, empfiehlt Oh die Einführung einer starken Governance und die Standardisierung von Anforderungen und Prozessen: “Die Zusammenarbeit zwischen den einzelnen Geschäftsbereichen ist ein wesentlicher Bestandteil von DevOps. Dabei sollten eventuell vorhandene organisatorische Hindernisse beseitigt werden – es ist wichtig, dass die Führungsebene hier den Ton angibt. Außerdem sollten intelligente Orchestrierungs-Tools zum Einsatz kommen, um Silos zu beseitigen und eine effiziente Kommunikation zu ermöglichen.” 5. Unrealistische Erwartungen Führungskräfte im Technologiebereich sollten sich auf ein Engagement konzentrieren, das über die bloße Einführung neuer technologischer Tools und Verfahren hinausgeht. “Sie müssen der Veränderung der Unternehmenskultur und der Denkweise der Mitarbeiter Vorrang einräumen”, appelliert Tim Potter, Principal bei Deloitte Consulting, und ergänzt: “Sie müssen außerdem auch realistische Fristen setzen, damit die Transformation im Unternehmen Fuß fassen kann. Ein Unternehmen, das einfach nur mehr automatisierte Tools einsetzt und bestehende Anwendungsteams, die sich von Anfang bis Ende um Produktionsprobleme kümmern, ‘DevOps-Teams’ nennt – wird von den erzielten Ergebnissen sehr wahrscheinlich enttäuscht sein.” Zudem sollten sich IT- und Tech-Entscheider laut dem Deloitte-Mann darauf einstellen, dass sich die Performance nach der Umstellung auf DevOps zunächst verschlechtert, bevor sie sich verbessert: “Sie müssen darauf vorbereitet sein, ihre Anwendungsteams zu unterstützen, damit sie testen und lernen und sich mit dem neuen Modell vertraut machen können. Unangemessene Erwartungen und ein unzureichender Zeitrahmen für die Umstellung können zu Fake-DevOps-Initiativen führen.” 6. Teams, die in der Vergangenheit leben Alte Gewohnheiten lassen sich bekanntlich nur schwer ablegen. Jahrzehntelang folgte die Softwareentwicklung der traditionellen Wasserfallmethodik, einem Prozess, bei dem es darum ging, Anforderungen im Voraus zu sammeln, Funktionen zu entwickeln und die Ergebnisse schließlich zur Freigabe an die Qualitätssicherung und andere Teams zu übergeben. Das hatte Folgen, wie auch Ashish Kakran, Principal bei der IT-Risikokapitalgesellschaft Thomvest Ventures, weiß: “Früher hat es Monate gedauert, bis die Kunden neue Funktionen zu sehen bekamen.” Wenn es den Entwicklungsteams nicht gelinge, sich vollständig vom Wasserfallmodell zu lösen, könne es zu seltsamen Kombinationen von Prozessen kommen, warnt Kakran und schlägt vor, die DevOps “Epics” und “Stories” eines Teams zu analysieren, um sich ein Bild von dessen Status zu machen: “Der gesamte Kontext eines laufenden Projekts wird oft in diesen Aufgaben erfasst. Wenn bereits ein einmonatiges Projekt in Aufgaben mit wenig oder gar keinem kontinuierlichen Kunden-Feedback aufgeteilt ist, ist das ein Zeichen dafür, dass das Team sich selbst zum Scheitern verurteilt – sei es durch das versäumte Deadlines oder die Bereitstellung von User Experiences, die den Namen nicht verdienen.” 7. Flexibilitätsmängel DevOps ist keine One-Size-fits-All-Methodologie. Um maximale Effektivität zu erzielen, sollten DevOps-Workflows und -Tools auf die spezifischen Anforderungen des Unternehmens abgestimmt werden. Diese können je nach Größe, Anwendungstyp und Entwicklungskompetenz sehr unterschiedlich ausfallen. Dabei sollte DevOps niemals statisch sein: Die Prozesse und Tools müssen angepasst werden, wenn das Unternehmen wächst und sein Streben nach kontinuierlicher Verbesserung verfolgt. Das erfordert nach Meinung von Wing To, Vice President of Engineering bei Digital.ai, flexible Tools und die Fähigkeit, KPIs zu analysieren. Er ergänzt: “IT-Führungskräfte sollten auch den Kulturwandel berücksichtigen, der erforderlich ist, um Entwicklungs- und Betriebsteams zusammenzubringen. Anstatt eine separate DevOps-Abteilung einzurichten, die ein weiteres Silo und noch mehr Prozessengpässe schafft, sollte die Methodik in jeden Geschäftsbereich integriert werden.” (fm) DevOps is trending… Let’s recap what’s a DevOps for the sake of it… #jk #devops meme pic.twitter.com/mSpoz3jT06— MarkoNtech (@markontechcom) November 2, 2021 Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Agiles Theater: 7 Anzeichen für DevOps-Schwindel​ Diese Anzeichen können Ihnen verraten, ob Ihre DevOps-Initiative mehr Schein als Sein ist.
Foto: laksena – shutterstock.com

Kein Zweifel: DevOps hat vielen IT-Organisationen dabei geholfen, Anwendungen und Services schneller zu entwickeln und bereitzustellen. Allerdings kommt es nicht selten vor, dass IT-Führungskräfte in den höchsten Tönen von DevOps schwärmen, während sich ihre Teams in eine völlig falsche Richtung bewegen und auf unausgegorene oder völlig unzureichende Tools oder Praktiken setzen.

Sicherzustellen, dass die Entwicklungsteams nicht (absichtlich oder unabsichtlich) vom Pfad der DevOps-Tugend abkommen, liegt in der Verantwortung des CIO. Die folgenden sieben Warnzeichen können darauf hindeuten, dass Ihre DevOps-Initiative nicht mehr als Schall und Rauch ist.

1. DevOps im Silo

Das erste Anzeichen für eine Fake-DevOps-Implementierung lässt sich mit einem Blick aufs Organigramm erkennen, weiß Fernando Cuadra, Principal Consultant beim Beratungsunternehmen ISG: “Wenn DevOps in einem eigenen Silo untergebracht ist, getrennt von Technik und Betrieb, ist das ein erstes Anzeichen dafür, dass keine Verantwortlichkeit für diesen Bereich gegeben ist. CIOs, die ein separates DevOps-Team schaffen, erzeugen eine weitere Komplexitätsebene, die es zu managen gilt.”

Stattdessen sollte das Organigramm so designt sein, das die Teams in der Lage sind, Probleme ganzheitlich über alle relevanten Bereiche hinweg zu lösen. “Entscheiden Sie sich für den Aufbau funktionsübergreifender Teams, vom Design bis hin zum Betrieb”, rät Cuadra. “Bei DevOps geht es nicht um Pipelines und CI/CD, sondern darum, die Wertschöpfung mit minimalen Reibungsverlusten im gesamten Unternehmen selbst zu steuern.”

2. Tool- statt Menschenfokus

Unternehmen, die sich zu sehr auf die Tool- und technologieorientierte Seite der DevOps-Kultur konzentrieren und Menschen und Prozesse außen vor lassen, können aus dem Gleichgewicht geraten. “Es ist wichtig, die aktuellen Business-Praktiken und -Bedürfnisse zu bewerten”, meint Mohan Kumar, Senior Architect bei TEKsystems. Er empfiehlt: “Verankern Sie die DevOps-Kultur in Kommunikation, Zusammenarbeit, Feedbackerfassung und Datenanalysen.”

Eine experimentierfreudige Umgebung, die es Entwicklern erlaube, zu scheitern und zu lernen, schaffe eine von Schuldzuweisungen innerhalb des Unternehmens befreite Kultur, so der Experte. “Nutzen Sie die kollektive Intelligenz der Teams, um einen Strom kreativer Ideen zu fördern”, fügt er hinzu. Die Einführung von DevOps sei ein iterativer Prozess, weshalb der CIO zunächst den aktuellen Zustand des Entwicklungsteams bewertet und dann schrittweise eine Strategie der kontinuierlichen Verbesserung aufbaut, die Menschen, Prozesse und Tools einbezieht. “Letztlich ist Kreativität ein Muskel, der ständig trainiert werden muss, um sich weiterzuentwickeln”, so Kumar.

3. Zu wenig Automatisierung

Auch Teamleiter, die Automatisierungsmentalität vermissen lassen, können zu DevOps-Schwindel beitragen. dies gilt insbesondere für solche, die daran scheitern, Zeit und Ressourcen in den Aufbau einer starken Architektur mit automatisierter Code Delivery zu stecken.

Bevor Sie eine Automatisierungsinitiative in Angriff nehmen, sollten Sie daher den Entwicklungsbedarf, die bestehenden Verträge und die aktuellen Projektteams sorgfältig begutachten, wie Ian Fogarty, Managing Director of Technology and Operations beim Beratungsunternehmen Accenture Federal Services, empfiehlt: “Prüfen Sie, ob die Fähigkeiten der Organisation so weit entwickelt sind, dass Sie die Infrastruktur automatisieren können.”

Wie Kumar anmerkt, kann Automatisierung jedoch ein zweischneidiges Schwert sein. Es sei allzu leicht, unbeabsichtigt von fehlerhaften manuellen zu fehlerhaften automatisierten Prozessen überzugehen. “Widerstehen Sie dem Drang, so viel wie möglich zu automatisieren, und beschränken Sie Ihre Initiative auf sinnvolle Punkte. Das ultimative Ziel sollte sein, Software-Releases in einen wiederholbaren, zuverlässigen und automatisierten Bereitstellungsprozess zu verwandeln.”

4. Planlose Automatisierung

Automatisierung kann wie eben gelesen von großem Nutzen sein. Allerdings stürzen sich immer noch viele Unternehmen ohne ausreichende Analyse und Planung in die DevOps-Automatisierung.

Aaron Oh, Managing Director DevSecOps bei Deloitte Risk & Financial Advisory, plaudert aus dem Nähkästchen: “Wir haben Unternehmen erlebt, die der Automatisierung Priorität einräumen, ohne andere Aspekte wie Governance, Mitarbeiter, Prozesse und Technologie zu berücksichtigen. Solche Unternehmen verschwenden in der Regel viel Zeit mit der Überprüfung und Korrektur von Automatisierungsaufgaben.”

Statt sich direkt in die Automatisierung zu stürzen, empfiehlt Oh die Einführung einer starken Governance und die Standardisierung von Anforderungen und Prozessen: “Die Zusammenarbeit zwischen den einzelnen Geschäftsbereichen ist ein wesentlicher Bestandteil von DevOps. Dabei sollten eventuell vorhandene organisatorische Hindernisse beseitigt werden – es ist wichtig, dass die Führungsebene hier den Ton angibt. Außerdem sollten intelligente Orchestrierungs-Tools zum Einsatz kommen, um Silos zu beseitigen und eine effiziente Kommunikation zu ermöglichen.”

5. Unrealistische Erwartungen

Führungskräfte im Technologiebereich sollten sich auf ein Engagement konzentrieren, das über die bloße Einführung neuer technologischer Tools und Verfahren hinausgeht. “Sie müssen der Veränderung der Unternehmenskultur und der Denkweise der Mitarbeiter Vorrang einräumen”, appelliert Tim Potter, Principal bei Deloitte Consulting, und ergänzt: “Sie müssen außerdem auch realistische Fristen setzen, damit die Transformation im Unternehmen Fuß fassen kann. Ein Unternehmen, das einfach nur mehr automatisierte Tools einsetzt und bestehende Anwendungsteams, die sich von Anfang bis Ende um Produktionsprobleme kümmern, ‘DevOps-Teams’ nennt – wird von den erzielten Ergebnissen sehr wahrscheinlich enttäuscht sein.”

Zudem sollten sich IT- und Tech-Entscheider laut dem Deloitte-Mann darauf einstellen, dass sich die Performance nach der Umstellung auf DevOps zunächst verschlechtert, bevor sie sich verbessert: “Sie müssen darauf vorbereitet sein, ihre Anwendungsteams zu unterstützen, damit sie testen und lernen und sich mit dem neuen Modell vertraut machen können. Unangemessene Erwartungen und ein unzureichender Zeitrahmen für die Umstellung können zu Fake-DevOps-Initiativen führen.”

6. Teams, die in der Vergangenheit leben

Alte Gewohnheiten lassen sich bekanntlich nur schwer ablegen. Jahrzehntelang folgte die Softwareentwicklung der traditionellen Wasserfallmethodik, einem Prozess, bei dem es darum ging, Anforderungen im Voraus zu sammeln, Funktionen zu entwickeln und die Ergebnisse schließlich zur Freigabe an die Qualitätssicherung und andere Teams zu übergeben. Das hatte Folgen, wie auch Ashish Kakran, Principal bei der IT-Risikokapitalgesellschaft Thomvest Ventures, weiß: “Früher hat es Monate gedauert, bis die Kunden neue Funktionen zu sehen bekamen.”

Wenn es den Entwicklungsteams nicht gelinge, sich vollständig vom Wasserfallmodell zu lösen, könne es zu seltsamen Kombinationen von Prozessen kommen, warnt Kakran und schlägt vor, die DevOps “Epics” und “Stories” eines Teams zu analysieren, um sich ein Bild von dessen Status zu machen: “Der gesamte Kontext eines laufenden Projekts wird oft in diesen Aufgaben erfasst. Wenn bereits ein einmonatiges Projekt in Aufgaben mit wenig oder gar keinem kontinuierlichen Kunden-Feedback aufgeteilt ist, ist das ein Zeichen dafür, dass das Team sich selbst zum Scheitern verurteilt – sei es durch das versäumte Deadlines oder die Bereitstellung von User Experiences, die den Namen nicht verdienen.”

7. Flexibilitätsmängel

DevOps ist keine One-Size-fits-All-Methodologie. Um maximale Effektivität zu erzielen, sollten DevOps-Workflows und -Tools auf die spezifischen Anforderungen des Unternehmens abgestimmt werden. Diese können je nach Größe, Anwendungstyp und Entwicklungskompetenz sehr unterschiedlich ausfallen.

Dabei sollte DevOps niemals statisch sein: Die Prozesse und Tools müssen angepasst werden, wenn das Unternehmen wächst und sein Streben nach kontinuierlicher Verbesserung verfolgt. Das erfordert nach Meinung von Wing To, Vice President of Engineering bei Digital.ai, flexible Tools und die Fähigkeit, KPIs zu analysieren. Er ergänzt: “IT-Führungskräfte sollten auch den Kulturwandel berücksichtigen, der erforderlich ist, um Entwicklungs- und Betriebsteams zusammenzubringen. Anstatt eine separate DevOps-Abteilung einzurichten, die ein weiteres Silo und noch mehr Prozessengpässe schafft, sollte die Methodik in jeden Geschäftsbereich integriert werden.” (fm)

DevOps is trending… Let’s recap what’s a DevOps for the sake of it… #jk #devops meme pic.twitter.com/mSpoz3jT06— MarkoNtech (@markontechcom) November 2, 2021

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Agiles Theater: 7 Anzeichen für DevOps-Schwindel​ Weiterlesen »

Microsoft-Fails: Das schlimmste Windows aller Zeiten​

Allgemein

Die schlimmste Windows-Version aller Zeiten? Wir haben da drei Kandidaten… Foto: Lars Poyansky – shutterstock.com Knapp 25 Jahre sind vergangen, seit Microsoft mit Windows Me eine absolute Stinkbombe in Betriebssystemform abgesondert hat. Instabil, ungeliebt und unbenutzbar wären die drei Eigenschaften, die das Millenium-Windows am treffendsten beschreiben. Die Frage ist nur: War Windows Me wirklich das schlimmste Windows aller Zeiten? Schließlich gibt es noch einige andere Flops aus Redmond, die mit der Millenium Edition um die goldene Himbeere der Betriebssysteme konkurrieren. Windows Me Im September des Jahres 2000 warf Microsoft eilig Windows Me auf den Markt – obwohl nur sieben Monate zuvor bereits Windows 2000 vorgestellt wurde. Der Grund: Windows 2000 war ursprünglich für Privat- und Geschäftsnutzer gedacht, wurde letztendlich aber eine reine Business-Version auf Windows-NT-Basis. Microsoft wollte aber auch Consumern eine eigene Millenium-Version von Windows bieten. Das hätte man sich getrost sparen können: Windows Me war eine grausige Ansammlung von Schludrigkeiten und in vielen Fällen sowohl mit Hard- als auch mit Software inkompatibel. Oft kam man nicht einmal über den Installationsprozess hinaus – eigentlich schon ein relativ starkes Signal, von diesem Betriebssystem Abstand zu nehmen. Unvergessen auch die konstanten Weigerungen von Windows-Me-Systemen, herunterzufahren: Ein Vorgang, der viel gemein hatte mit einem Zweijährigen, der lieber einen fortlaufenden Wutanfall durchlebt, als schlafen zu gehen. Und nicht zu vergessen der Internet Explorer – der sich kontinuierlich weigerte, Web-Seiten zu laden. Wie langsam und vor allem unsicher Windows Millenium Edition war, verdeutlicht auch das Debüt der System-Restore-Funktion. Diese ermöglichte es erstmals, das System mit Hilfe eines Wiederherstellungspunktes bei Problemen zurückzusetzen. War das System allerdings zum Widerherstellungszeitpunkt mit einem Virus infiziert, wurde auch dieser Befall wiederhergestellt. Es gäbe viele weitere Kleinigkeiten, die den Status von Windows Me als eines der schlimmsten Betriebssystem-Machwerke untermauern. Stattdessen schließen wir dieses Kapitel mit dem “Fun Fact”, dass Windows Me auch als Windows Mistake Edition traurige Berühmtheit erlangte. Windows Vista Für viele Windows-Nutzer ist Vista wohl das größte OS-Verbrechen aller Zeiten. Fünf Jahre nach Windows XP wurde Vista 2006 auf den Markt gebracht und schon die Entwicklung stand unter keinem guten Stern. Die Arbeiten an Vista begannen bereits fünf Monate vor der Veröffentlichung von XP, eigentlich war Vista nur als kleineres Update von XP für das Jahr 2003 geplant – als Zwischenschritt vor einer neuen, großen Windows-Version mit dem Codenamen “Blackcomb“. Wie das im Entwicklerumfeld eben so ist, wurden viele neue Technologien und Features für “Blackcomb” plötzlich auch für Vista interessant. Die Folge: Das gesamte Projekt stürzte ins Chaos. Der damalige Windows-Chef Jim Allchin gab in einem Interview mit dem Wall Street Journal im Jahr 2005 zu, dass die Entwicklung von Vista “gegen die Wand gefahren ist”. Ein Jahr später wurde schließlich auch offensichtlich, wie verheerend dieser Crash wirklich war. Um alle Features und Unwägbarkeiten von Vista aufzuzählen, müsste man sich einer romanartigen Abhandlung widmen – deswegen konzentrieren wir uns auf einige ausgesuchte Beispiele. User Access Control (UAC) war mit Abstand eines der nervigsten Features von Vista und zwang die Nutzer, bei jeder Änderung an den Einstellungen oder dem Aufrufen eines Programms, ihre Wahl nochmals zu bestätigen. Auch die simpelsten Tasks wurden so zu nervigen, zeitraubenden Ablenkungen. Darüber hinaus war Vista auch berüchtigt für seine Instabilität: Zahllose Peripheriegeräte (darunter auch zahlreiche Drucker namhafter Hersteller) funktionierten schlicht nicht. All diese Probleme verblassen allerdings beim Blick auf die noch größeren Hardware-Probleme, denn Vista lief auf vielen Rechnern grundsätzlich nicht oder nur sehr schlecht. Dabei handelte es sich allerdings nicht um alte Modelle, sondern erschreckenderweise auch damalige Neugeräte, die teilweise mit vorinstalliertem Vista ausgestattet waren. Es gab verschiedene Versionen von Vista. Das Release der Consumer-Variante wurde auf den Januar 2007 verschoben, um das Weihnachtsgeschäft mit XP-Rechnern nicht zu gefährden. Um den Kunden einen Anreiz zu geben, trotz der nahenden Vista-Veröffentlichung XP-Maschinen zu kaufen, entschied sich Microsoft dafür, die XP-Rechner mit “Windows Vista Capable”-Stickern zu versehen. Das Problem war dabei nur, dass das nicht der Wahrheit entsprach, was die Microsoft-Verantwortlichen auch wussten, wie in der folgenden Sammelklage bekannt wurde: Zahlreiche E-Mails belegten, dass die Top-Entscheider die Kunden bewusst hinters Licht führten. “Sogar ein Stück Müll wäre qualifiziert um Windows Vista Capable zu sein”, war nur die Spitze des internen E-Mail-Eisberges. Windows 8 Trotz dieses epischen Debakels schaffte es Microsoft, noch einen drauf zu legen. Windows 8 war das bislang größte Debakel für den Redmonder Konzern: Es wurde von Privat- wie Geschäftskunden gleichermaßen abgelehnt und hat Microsofts Geschäftspläne um Jahre zurückgeworfen. Bei Windows 8 lief so vieles schief – man weiß eigentlich gar nicht, womit man beginnen soll. Der Fakt, dass es sich im Grunde nicht um ein, sondern um zwei verschiedene Betriebssysteme handelte, die richtig schlecht miteinander kombiniert wurden, war dennoch wohl das grundlegendste Problem. Eine Hälfte von Windows 8 war für mobile Geräte gedacht und nicht dafür vorgesehen, Desktop Apps auszuführen. Stattdessen sollten hier ausschließlich Metro Apps (später Universal Windows Apps und Windows Store Apps) zur Anwendung kommen. Dieser Teil des Betriebssystems wurde von Grund auf neugestaltet und auf die Nutzung mit Touchscreens optimiert. Der andere Teil des Betriebssystems bestand aus der gewohnten Desktop-Oberfläche und konnte wie gewohnt Desktop-Applikationen ausführen. Das war auch der Teil von Windows 8, den so gut wie jeder nutzte, weil Windows Tablets zum Zeitpunkt der Veröffentlichung im Jahr 2012 noch ein Nischendasein fristeten. Dennoch zwang Microsoft allen Nutzern ein für mobile Geräte optimiertes OS auf. Viele Probleme von Windows 8 hängen mit der Entscheidung Microsofts zusammen, das Betriebssystem als Brechstange zu nutzen, die Zugang zum Mobile-Markt verschafft. Zu diesem Zeitpunkt befand sich Windows Phone bereits auf dem absteigenden Ast und Microsoft wollte das dringend mit einem Fokus auf den Tablet-Markt ausgleichen. Dieser All-In-Mobile-Ansatz führte auch zum Kauf von Nokias Handy-Sparte für knapp 7,2 Milliarden Dollar – einer der größten Flops in der Geschichte der Redmonder. Erst mit Satya Nadella als CEO und einem neuen Fokus auf die Cloud schaffte es Microsoft, sich vom Windows-8-Debakel zu erholen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Microsoft-Fails: Das schlimmste Windows aller Zeiten​ Die schlimmste Windows-Version aller Zeiten? Wir haben da drei Kandidaten…
Foto: Lars Poyansky – shutterstock.com

Knapp 25 Jahre sind vergangen, seit Microsoft mit Windows Me eine absolute Stinkbombe in Betriebssystemform abgesondert hat. Instabil, ungeliebt und unbenutzbar wären die drei Eigenschaften, die das Millenium-Windows am treffendsten beschreiben. Die Frage ist nur: War Windows Me wirklich das schlimmste Windows aller Zeiten? Schließlich gibt es noch einige andere Flops aus Redmond, die mit der Millenium Edition um die goldene Himbeere der Betriebssysteme konkurrieren.

Windows Me

Im September des Jahres 2000 warf Microsoft eilig Windows Me auf den Markt – obwohl nur sieben Monate zuvor bereits Windows 2000 vorgestellt wurde. Der Grund: Windows 2000 war ursprünglich für Privat- und Geschäftsnutzer gedacht, wurde letztendlich aber eine reine Business-Version auf Windows-NT-Basis. Microsoft wollte aber auch Consumern eine eigene Millenium-Version von Windows bieten.

Das hätte man sich getrost sparen können: Windows Me war eine grausige Ansammlung von Schludrigkeiten und in vielen Fällen sowohl mit Hard- als auch mit Software inkompatibel. Oft kam man nicht einmal über den Installationsprozess hinaus – eigentlich schon ein relativ starkes Signal, von diesem Betriebssystem Abstand zu nehmen. Unvergessen auch die konstanten Weigerungen von Windows-Me-Systemen, herunterzufahren: Ein Vorgang, der viel gemein hatte mit einem Zweijährigen, der lieber einen fortlaufenden Wutanfall durchlebt, als schlafen zu gehen. Und nicht zu vergessen der Internet Explorer – der sich kontinuierlich weigerte, Web-Seiten zu laden.

Wie langsam und vor allem unsicher Windows Millenium Edition war, verdeutlicht auch das Debüt der System-Restore-Funktion. Diese ermöglichte es erstmals, das System mit Hilfe eines Wiederherstellungspunktes bei Problemen zurückzusetzen. War das System allerdings zum Widerherstellungszeitpunkt mit einem Virus infiziert, wurde auch dieser Befall wiederhergestellt.

Es gäbe viele weitere Kleinigkeiten, die den Status von Windows Me als eines der schlimmsten Betriebssystem-Machwerke untermauern. Stattdessen schließen wir dieses Kapitel mit dem “Fun Fact”, dass Windows Me auch als Windows Mistake Edition traurige Berühmtheit erlangte.

Windows Vista

Für viele Windows-Nutzer ist Vista wohl das größte OS-Verbrechen aller Zeiten. Fünf Jahre nach Windows XP wurde Vista 2006 auf den Markt gebracht und schon die Entwicklung stand unter keinem guten Stern. Die Arbeiten an Vista begannen bereits fünf Monate vor der Veröffentlichung von XP, eigentlich war Vista nur als kleineres Update von XP für das Jahr 2003 geplant – als Zwischenschritt vor einer neuen, großen Windows-Version mit dem Codenamen “Blackcomb“.

Wie das im Entwicklerumfeld eben so ist, wurden viele neue Technologien und Features für “Blackcomb” plötzlich auch für Vista interessant. Die Folge: Das gesamte Projekt stürzte ins Chaos. Der damalige Windows-Chef Jim Allchin gab in einem Interview mit dem Wall Street Journal im Jahr 2005 zu, dass die Entwicklung von Vista “gegen die Wand gefahren ist”. Ein Jahr später wurde schließlich auch offensichtlich, wie verheerend dieser Crash wirklich war.

Um alle Features und Unwägbarkeiten von Vista aufzuzählen, müsste man sich einer romanartigen Abhandlung widmen – deswegen konzentrieren wir uns auf einige ausgesuchte Beispiele. User Access Control (UAC) war mit Abstand eines der nervigsten Features von Vista und zwang die Nutzer, bei jeder Änderung an den Einstellungen oder dem Aufrufen eines Programms, ihre Wahl nochmals zu bestätigen. Auch die simpelsten Tasks wurden so zu nervigen, zeitraubenden Ablenkungen. Darüber hinaus war Vista auch berüchtigt für seine Instabilität: Zahllose Peripheriegeräte (darunter auch zahlreiche Drucker namhafter Hersteller) funktionierten schlicht nicht.

All diese Probleme verblassen allerdings beim Blick auf die noch größeren Hardware-Probleme, denn Vista lief auf vielen Rechnern grundsätzlich nicht oder nur sehr schlecht. Dabei handelte es sich allerdings nicht um alte Modelle, sondern erschreckenderweise auch damalige Neugeräte, die teilweise mit vorinstalliertem Vista ausgestattet waren.

Es gab verschiedene Versionen von Vista. Das Release der Consumer-Variante wurde auf den Januar 2007 verschoben, um das Weihnachtsgeschäft mit XP-Rechnern nicht zu gefährden. Um den Kunden einen Anreiz zu geben, trotz der nahenden Vista-Veröffentlichung XP-Maschinen zu kaufen, entschied sich Microsoft dafür, die XP-Rechner mit “Windows Vista Capable”-Stickern zu versehen. Das Problem war dabei nur, dass das nicht der Wahrheit entsprach, was die Microsoft-Verantwortlichen auch wussten, wie in der folgenden Sammelklage bekannt wurde: Zahlreiche E-Mails belegten, dass die Top-Entscheider die Kunden bewusst hinters Licht führten. “Sogar ein Stück Müll wäre qualifiziert um Windows Vista Capable zu sein”, war nur die Spitze des internen E-Mail-Eisberges.

Windows 8

Trotz dieses epischen Debakels schaffte es Microsoft, noch einen drauf zu legen. Windows 8 war das bislang größte Debakel für den Redmonder Konzern: Es wurde von Privat- wie Geschäftskunden gleichermaßen abgelehnt und hat Microsofts Geschäftspläne um Jahre zurückgeworfen.

Bei Windows 8 lief so vieles schief – man weiß eigentlich gar nicht, womit man beginnen soll. Der Fakt, dass es sich im Grunde nicht um ein, sondern um zwei verschiedene Betriebssysteme handelte, die richtig schlecht miteinander kombiniert wurden, war dennoch wohl das grundlegendste Problem. Eine Hälfte von Windows 8 war für mobile Geräte gedacht und nicht dafür vorgesehen, Desktop Apps auszuführen. Stattdessen sollten hier ausschließlich Metro Apps (später Universal Windows Apps und Windows Store Apps) zur Anwendung kommen. Dieser Teil des Betriebssystems wurde von Grund auf neugestaltet und auf die Nutzung mit Touchscreens optimiert.

Der andere Teil des Betriebssystems bestand aus der gewohnten Desktop-Oberfläche und konnte wie gewohnt Desktop-Applikationen ausführen. Das war auch der Teil von Windows 8, den so gut wie jeder nutzte, weil Windows Tablets zum Zeitpunkt der Veröffentlichung im Jahr 2012 noch ein Nischendasein fristeten. Dennoch zwang Microsoft allen Nutzern ein für mobile Geräte optimiertes OS auf.

Viele Probleme von Windows 8 hängen mit der Entscheidung Microsofts zusammen, das Betriebssystem als Brechstange zu nutzen, die Zugang zum Mobile-Markt verschafft. Zu diesem Zeitpunkt befand sich Windows Phone bereits auf dem absteigenden Ast und Microsoft wollte das dringend mit einem Fokus auf den Tablet-Markt ausgleichen. Dieser All-In-Mobile-Ansatz führte auch zum Kauf von Nokias Handy-Sparte für knapp 7,2 Milliarden Dollar – einer der größten Flops in der Geschichte der Redmonder.

Erst mit Satya Nadella als CEO und einem neuen Fokus auf die Cloud schaffte es Microsoft, sich vom Windows-8-Debakel zu erholen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Microsoft-Fails: Das schlimmste Windows aller Zeiten​ Weiterlesen »

So verlängert der Stromsparmodus die Akkulaufzeit Ihres Macbooks​

Allgemein

Apple Macbooks mit Apple-Chip sind stromsparender als die älteren Macbooks mit Intel-Prozessor, sodass sie sich wesentlich länger im Batteriemodus betreiben lassen. So stieg insbesondere die Laufzeit im Batteriemodus beim Macbook Air 13-Zoll laut Apples technischen Angaben von 12 Stunden beim Macbook Air 2020 mit Intel-Prozessor auf 18 Stunden beim Macbook Air mit M1-Chip. Gleichzeitig hat sich auch die Leistung deutlich erhöht. Bei den späteren Modellen des Macbook Air mit M2-, M3- und M4-Chip ist Apple bei der Angabe von 18 Stunden Laufzeit im Batteriemodus geblieben. In dieser Zeit hat sich die Leistung der Chips von Generation zu Generation weiter erhöht, während der Akku weitgehend gleich geblieben ist. Sie bekommen also mehr Leistung bei gleichem Energieverbrauch. Der Stromsparmodus Alle Macbooks mit Apple-Chip können Sie alternativ in einem stromsparenden Modus betreiben. Dabei wird die maximal mögliche Taktrate der Kerne vermindert, was zu einem niedrigeren Energiebedarf führt. Das bedeutet natürlich, dass die Leistung dann geringer ist. Für viele Aufgaben reicht aber diese Leistung aus. Wenn Sie etwa Texte bearbeiten, im Internet surfen oder einen Film anschauen, werden Sie die geringere Leistung in der Regel gar nicht bemerken. Zudem müssen die Lüfter, sofern vorhanden, wegen der niedrigeren Energieaufnahme weniger oder gar nicht arbeiten. Und beim Macbook Air muss das System bei hohen Außentemperaturen nicht oder kaum die Leistung drosseln. Wir haben uns den Stromsparmodus auf zwei Macbooks näher angesehen. Das eine ist ein Macbook Pro mit M3-Pro-Chip, und zwar in der abgespeckten Version mit 11 CPU-Kernen und 14 GPU-Kernen. Das andere Testgerät ist ein Macbook Air 15 Zoll mit M4-Chip. Dieser hat 10 CPU-Kerne und 10 GPU-Kerne. Bei beiden Modellen hat die CPU sechs Effizienzkerne und beim Macbook Pro fünf und beim Macbook Air vier Leistungskerne. Für den Test verwenden wir die Programme Cinebench 2024 und Geekbench 6.4 unter macOS 15 Sequoia. Das sind zwar Leistungstests, es ist aber gut zu sehen, wie die Leistung und der Energieverbrauch zwischen dem normalen Arbeitsmodus und dem Stromsparmodus variieren. Beim Macbook Air und beim Macbook Pro mit dem normalen M-Chip gibt es vier Optionen für den Stromsparmodus. Thomas Armbrüster Unterschiede zwischen M3 und M4 Bei der CPU wird bei beiden Macbooks die Maximalfrequenz der Leistungskerne begrenzt. Dabei fällt bei Cinebench 2024 auf, dass die CPU des M4 deutlich stärker in der Leistung gedrosselt wird als die der M3. Beim M4 messen wir knapp 50 Prozent der Leistung gegenüber dem Normalmodus, und zwar sowohl bei den Werten für einen Kern als auch denjenigen für alle Kerne. Gleichzeitig messen wir mit dem Terminalprogramm Asitop den Energieverbrauch der CPU. Dieser sinkt dabei auf etwa 25 Prozent. Im Stromsparmodus sinkt die Leistung beim Macbook Air M4 in Cinebench auf etwa 50 Prozent, bei deutlich geringerem Stromverbrauch.Thomas Armbrüster Der M3 reduziert die Leistung wesentlich moderater, und zwar auf 65 Prozent im Einzelkernmodus und auf 86 Prozent im Mehrkernmodus. Der Stromverbrauch vermindert sich auf 40 Prozent beziehungsweise 53 Prozent. Beim GPU-Test von Cinebench sinkt die Leistung beim M3 dagegen nicht und der Verbrauch nur minimal, während der M4 auf gute 60 Prozent bei der Leistung reduziert, beim Verbrauch aber ebenfalls auf etwa 25 Prozent. Bei den Tests mit Geekbench 6.4 sieht es bei der Leistungsreduzierung der CPU ähnlich aus, nur dass beim M4 der Stromverbrauch nicht ganz so stark sinkt wie beim Cinebench-Test. Hier sehen wir eine Reduzierung beim M4 auf 40 Prozent. Der M3 reduziert im Mehrkerntest etwas stärker als beim Test mit Cinebench, und zwar sowohl bei der Leistung als auch beim Stromverbrauch. Beim GPU-Test mit Geekbench wird der M3 wiederum nicht gebremst, der M4 dagegen auf etwa 75 Prozent bei einem halbierten Stromverbrauch. Beide Chips arbeiten also mit einem unterschiedlichen Stromsparmodus. Stromsparmodus aktivieren Die Einstellungen für den Stromsparmodus finden Sie in der Systemeinstellung „Batterie“. Dabei gibt es einen Unterschied zwischen den verschiedenen Modellen. Sofern sie ein Macbook Pro mit einem M4 Pro oder M4 Max haben, ein Macbook Pro 16-Zoll mit M1 Max, M2 Max oder M3 Max oder ein Macbook Pro 14-Zoll mit M3 Max, unterstützt der Chip nicht nur einen stromsparenden Modus, sondern auch einen Hochleistungsmodus. Bei letzterem werden die Kerne aber nicht höher getaktet, sondern nur die Lüfter stärker eingesetzt, um den Chip über längere Zeit kühl zu halten. Das verhindert, dass die Kerne gedrosselt werden müssen und dadurch mehr Leistung erbringen können. Bei diesen Macbooks gibt es in der Systemeinstellung „Batterie“ eine Abteilung „Energiemodus“. Hier können sie in einem Aufklappmenü für den Batteriebetrieb und für den Betrieb mit Netzteil jeweils drei Einstellungen vornehmen: „Geringe Ladung“, „Automatisch“ oder „Hohe Leistung“. „Geringe Ladung“ ist etwas unglücklich übersetzt und meint geringerer Stromverbrauch (Low Power), „Automatisch“ ist der normale Modus. Bei Macbooks, die die leistungsfähigen Pro- und Mac-Chips haben, gibt es auch eine Einstellung für hohe Leistung.Thomas Armbrüster Bei den anderen Macbooks finden Sie oben in der Systemeinstellung die Abteilung „Stromsparmodus“. Im Aufklappmenü stellen Sie ein, ob dieser Modus nie, nur im Batterie- oder nur im Netzbetrieb oder immer aktiviert werden soll. Lassen Sie sich den Batteriestatus in der Menüleiste anzeigen (das aktivieren Sie in der Systemeinstellung „Kontrollzentrum“), färbt macOS Sequoia 15.4 das Symbol gelb ein, wenn der Stromsparmodus aktiviert ist. Und klicken Sie das Symbol an, wir der aktuelle Energiemodus angezeigt. Auch hier bedeutet „Geringe Ladung“, dass der Stromsparmodus aktiv ist. Um diesen zu beenden, genügt ein Klick auf diesen Menüeintrag. Um den Stromsparmodus wieder zu aktivieren, müssen Sie die Systemeinstellung „Batterie“ öffnen. Im Menü wird zudem angezeigt, ob eine App gerade besonders viel Leistung benötigt. Das Menüsymbol ist im Stromsparmodus gelb, und im Menü wird der Stromsparmodus angezeigt.Thomas Armbrüster (Macwelt) 

So verlängert der Stromsparmodus die Akkulaufzeit Ihres Macbooks​ Apple

Macbooks mit Apple-Chip sind stromsparender als die älteren Macbooks mit Intel-Prozessor, sodass sie sich wesentlich länger im Batteriemodus betreiben lassen. So stieg insbesondere die Laufzeit im Batteriemodus beim Macbook Air 13-Zoll laut Apples technischen Angaben von 12 Stunden beim Macbook Air 2020 mit Intel-Prozessor auf 18 Stunden beim Macbook Air mit M1-Chip.

Gleichzeitig hat sich auch die Leistung deutlich erhöht. Bei den späteren Modellen des Macbook Air mit M2-, M3- und M4-Chip ist Apple bei der Angabe von 18 Stunden Laufzeit im Batteriemodus geblieben. In dieser Zeit hat sich die Leistung der Chips von Generation zu Generation weiter erhöht, während der Akku weitgehend gleich geblieben ist. Sie bekommen also mehr Leistung bei gleichem Energieverbrauch.

Der Stromsparmodus

Alle Macbooks mit Apple-Chip können Sie alternativ in einem stromsparenden Modus betreiben. Dabei wird die maximal mögliche Taktrate der Kerne vermindert, was zu einem niedrigeren Energiebedarf führt. Das bedeutet natürlich, dass die Leistung dann geringer ist. Für viele Aufgaben reicht aber diese Leistung aus. Wenn Sie etwa Texte bearbeiten, im Internet surfen oder einen Film anschauen, werden Sie die geringere Leistung in der Regel gar nicht bemerken.

Zudem müssen die Lüfter, sofern vorhanden, wegen der niedrigeren Energieaufnahme weniger oder gar nicht arbeiten. Und beim Macbook Air muss das System bei hohen Außentemperaturen nicht oder kaum die Leistung drosseln.

Wir haben uns den Stromsparmodus auf zwei Macbooks näher angesehen. Das eine ist ein Macbook Pro mit M3-Pro-Chip, und zwar in der abgespeckten Version mit 11 CPU-Kernen und 14 GPU-Kernen. Das andere Testgerät ist ein Macbook Air 15 Zoll mit M4-Chip. Dieser hat 10 CPU-Kerne und 10 GPU-Kerne. Bei beiden Modellen hat die CPU sechs Effizienzkerne und beim Macbook Pro fünf und beim Macbook Air vier Leistungskerne.

Für den Test verwenden wir die Programme Cinebench 2024 und Geekbench 6.4 unter macOS 15 Sequoia. Das sind zwar Leistungstests, es ist aber gut zu sehen, wie die Leistung und der Energieverbrauch zwischen dem normalen Arbeitsmodus und dem Stromsparmodus variieren.

Beim Macbook Air und beim Macbook Pro mit dem normalen M-Chip gibt es vier Optionen für den Stromsparmodus. Thomas Armbrüster

Unterschiede zwischen M3 und M4

Bei der CPU wird bei beiden Macbooks die Maximalfrequenz der Leistungskerne begrenzt. Dabei fällt bei Cinebench 2024 auf, dass die CPU des M4 deutlich stärker in der Leistung gedrosselt wird als die der M3. Beim M4 messen wir knapp 50 Prozent der Leistung gegenüber dem Normalmodus, und zwar sowohl bei den Werten für einen Kern als auch denjenigen für alle Kerne. Gleichzeitig messen wir mit dem Terminalprogramm Asitop den Energieverbrauch der CPU. Dieser sinkt dabei auf etwa 25 Prozent.

Im Stromsparmodus sinkt die Leistung beim Macbook Air M4 in Cinebench auf etwa 50 Prozent, bei deutlich geringerem Stromverbrauch.Thomas Armbrüster

Der M3 reduziert die Leistung wesentlich moderater, und zwar auf 65 Prozent im Einzelkernmodus und auf 86 Prozent im Mehrkernmodus. Der Stromverbrauch vermindert sich auf 40 Prozent beziehungsweise 53 Prozent. Beim GPU-Test von Cinebench sinkt die Leistung beim M3 dagegen nicht und der Verbrauch nur minimal, während der M4 auf gute 60 Prozent bei der Leistung reduziert, beim Verbrauch aber ebenfalls auf etwa 25 Prozent.

Bei den Tests mit Geekbench 6.4 sieht es bei der Leistungsreduzierung der CPU ähnlich aus, nur dass beim M4 der Stromverbrauch nicht ganz so stark sinkt wie beim Cinebench-Test. Hier sehen wir eine Reduzierung beim M4 auf 40 Prozent. Der M3 reduziert im Mehrkerntest etwas stärker als beim Test mit Cinebench, und zwar sowohl bei der Leistung als auch beim Stromverbrauch.

Beim GPU-Test mit Geekbench wird der M3 wiederum nicht gebremst, der M4 dagegen auf etwa 75 Prozent bei einem halbierten Stromverbrauch. Beide Chips arbeiten also mit einem unterschiedlichen Stromsparmodus.

Stromsparmodus aktivieren

Die Einstellungen für den Stromsparmodus finden Sie in der Systemeinstellung „Batterie“. Dabei gibt es einen Unterschied zwischen den verschiedenen Modellen. Sofern sie ein Macbook Pro mit einem M4 Pro oder M4 Max haben, ein Macbook Pro 16-Zoll mit M1 Max, M2 Max oder M3 Max oder ein Macbook Pro 14-Zoll mit M3 Max, unterstützt der Chip nicht nur einen stromsparenden Modus, sondern auch einen Hochleistungsmodus.

Bei letzterem werden die Kerne aber nicht höher getaktet, sondern nur die Lüfter stärker eingesetzt, um den Chip über längere Zeit kühl zu halten. Das verhindert, dass die Kerne gedrosselt werden müssen und dadurch mehr Leistung erbringen können.

Bei diesen Macbooks gibt es in der Systemeinstellung „Batterie“ eine Abteilung „Energiemodus“. Hier können sie in einem Aufklappmenü für den Batteriebetrieb und für den Betrieb mit Netzteil jeweils drei Einstellungen vornehmen: „Geringe Ladung“, „Automatisch“ oder „Hohe Leistung“. „Geringe Ladung“ ist etwas unglücklich übersetzt und meint geringerer Stromverbrauch (Low Power), „Automatisch“ ist der normale Modus.

Bei Macbooks, die die leistungsfähigen Pro- und Mac-Chips haben, gibt es auch eine Einstellung für hohe Leistung.Thomas Armbrüster

Bei den anderen Macbooks finden Sie oben in der Systemeinstellung die Abteilung „Stromsparmodus“. Im Aufklappmenü stellen Sie ein, ob dieser Modus nie, nur im Batterie- oder nur im Netzbetrieb oder immer aktiviert werden soll. Lassen Sie sich den Batteriestatus in der Menüleiste anzeigen (das aktivieren Sie in der Systemeinstellung „Kontrollzentrum“), färbt macOS Sequoia 15.4 das Symbol gelb ein, wenn der Stromsparmodus aktiviert ist. Und klicken Sie das Symbol an, wir der aktuelle Energiemodus angezeigt.

Auch hier bedeutet „Geringe Ladung“, dass der Stromsparmodus aktiv ist. Um diesen zu beenden, genügt ein Klick auf diesen Menüeintrag. Um den Stromsparmodus wieder zu aktivieren, müssen Sie die Systemeinstellung „Batterie“ öffnen. Im Menü wird zudem angezeigt, ob eine App gerade besonders viel Leistung benötigt.

Das Menüsymbol ist im Stromsparmodus gelb, und im Menü wird der Stromsparmodus angezeigt.Thomas Armbrüster

(Macwelt)

So verlängert der Stromsparmodus die Akkulaufzeit Ihres Macbooks​ Weiterlesen »

Warum Apple das iPhone 16e besser nicht jährlich aktualisieren sollte​

Allgemein

David Price / Foundry Apple hält sich mit den Verkaufszahlen einzelner Produkte bedeckt, wir müssen uns mit Umsatzzahlen für komplette Kategorien begnügen. Aber selbst mit diesen vagen Zahlen sind sich die meisten Analysten einig, dass das diesjährige iPhone 16e deutlich mehr Einheiten verkauft als das iPhone SE der 3. Generation, das es (mehr oder weniger) ersetzt hat. In der neuesten Ausgabe seines Newsletters Power On erklärt der viel beachtete Bloomberg-Reporter Mark Gurman, warum ihn das nicht überrascht hat. „Für die Fans des SE“, führt er aus, „war der Sprung von der zweiten zur dritten Generation minimal [das ist eine höfliche Formulierung], weshalb es weniger Gründe für ein Upgrade gab. Das iPhone 16e – auch wenn es im Grunde ein abgespecktes iPhone 16 ist – ist ein bedeutendes Redesign des SE 3.“ Gurman fügt hinzu, dass Apple das 16e auf eine intelligentere und ansprechendere Weise vermarktet hat als die 2022er-Iteration des SE. Indem das Unternehmen es mit den Premium-Smartphones der 16er-Serie und nicht mit der preisgünstigen SE-Linie verband, konnte es auf Märkten wie China „ein wenig mehr Anziehungskraft“ entwickeln. Das sind alles gute Nachrichten für Apple, aber Gurman ist mehr an einer anderen Frage interessiert: Ob Apple die „e“-Linie der iPhones einmal im Jahr aktualisieren wird, so wie es bei den Flaggschiff-Geräten der Fall ist. Die SE-Linie hat Apple dagegen recht sporadisch aktualisiert: Die drei Generationen kamen 2016, 2020 und 2022 auf den Markt, bevor das 16e im Jahr 2025 debütierte. David Price / Foundry Gurman ist sich nicht sicher, ob die „e“-iPhones in einem jährlichen Rhythmus auf den Markt kommen werden, denn Apple habe selbst noch keine endgültige Entscheidung getroffen. Er weist jedoch darauf hin, dass konkurrierende Unternehmen wie Samsung und Google ein oder mehrere Male pro Jahr neue günstige Smartphones auf den Markt bringen und folgert daraus, dass ein jährlicher Upgrade-Zyklus für das iPhone 16e und seine Nachfolger „sehr sinnvoll ist“. Warum ein 17e eine schlechte Idee wäre Aber ich bin nicht überzeugt, dass es so ist. Nach Gurmans eigener Logik wurde das iPhone 16e vorwiegend deshalb so positiv aufgenommen, weil es ein bedeutendes Upgrade und eine große Veränderung gegenüber dem SE der dritten Generation bedeutete, einem Gerät, das weit weniger kostete und drei Jahre zuvor auf den Markt kam. Das wäre absolut nicht der Fall, wenn Apple im April 2026 ein iPhone 17e auf den Markt bringen würde, das auf einer Reihe von Geräten der 17er-Reihe basiert, die kommenden September auf den Markt kommen. Ein solches iPhone würde wahrscheinlich dem 16e recht ähnlich sein, und obwohl das die Besitzer des iPhone 13 oder 14 ansprechen könnte, wäre es keine so spektakuläre Neuerung, die dem 16e einen so offensichtlichen kommerziellen Erfolg beschert hat. Das Problem ist, dass man entweder regelmäßig neue Geräte auf den Markt bringen kann oder Smartphones, die eine große Verbesserung gegenüber ihren Vorgängern darstellen, aber nicht beides. Oder besser gesagt: Es geht, aber Apple tut es nicht gerne, weil regelmäßige nennenswerte Verbesserungen die Gewinnspannen schmälern und zukünftige Markteinführungen schwieriger zu steuern sind. Alles in allem denke ich, dass es wahrscheinlich sinnvoll ist, einen vorhersehbaren jährlichen Rhythmus für die Einführung der „e“-Linie festzulegen, damit die Kunden lernen, jedes Frühjahr ein neues Mittelklasse-Handy zu erwarten und ihre Kaufpläne entsprechend anzupassen. Aber das würde nicht jedes Jahr einen Riesenerfolg garantieren, wie es bei der restlichen iPhone-Reihe der Fall ist. Ich bin sicher, dass Apple bei seiner Entscheidung die Wahrscheinlichkeit berücksichtigt, dass ein 17e im April 2026 für die Kunden weitaus weniger interessant sein wird als das 16e in diesem April. Aber hier ist noch ein letzter Punkt. Apple könnte den 17e sofort attraktiv machen, indem es einige der extremen Kompromisse rückgängig macht, die es eingegangen ist, um sicherzustellen, dass das 16e Apple Intelligence unterstützt. Um dies zu erreichen, wurde das 16e mit einem A18-Chip und 8 GB RAM ausgestattet, einer weitaus leistungsfähigeren (und teureren) Ausstattung, als es eigentlich nötig gewesen wäre. Aber jetzt, da die Messlatte gesenkt wurde, müssen sich diese primären Spezifikationen 2026 nicht mehr ändern. Apple könnte ein 17e mit demselben Chip und demselben Arbeitsspeicher auf den Markt bringen und seine Ressourcen auf die Wiedereinführung von Magsafe konzentrieren. Oder ein zweites Kameraobjektiv einbauen. Oder sogar von der Notch zur Dynamic Island wechseln. Diese Änderungen, wenn sie logistisch machbar sind, würden eine zweite erfolgreiche „e“-Einführung sicherstellen. Aber diese Strategie hat nur eine begrenzte Lebensdauer, denn das 18e müsste noch besser werden. Und letztlich bedeutet die Umstellung auf eine langfristige jährliche Veröffentlichungsstrategie, dass Sie akzeptieren müssen, dass viele Ihrer Produkte mit einem Gähnen und nicht mit einem Schreien aufgenommen werden. (Mackwelt) 

Warum Apple das iPhone 16e besser nicht jährlich aktualisieren sollte​ David Price / Foundry

Apple hält sich mit den Verkaufszahlen einzelner Produkte bedeckt, wir müssen uns mit Umsatzzahlen für komplette Kategorien begnügen. Aber selbst mit diesen vagen Zahlen sind sich die meisten Analysten einig, dass das diesjährige iPhone 16e deutlich mehr Einheiten verkauft als das iPhone SE der 3. Generation, das es (mehr oder weniger) ersetzt hat.

In der neuesten Ausgabe seines Newsletters Power On erklärt der viel beachtete Bloomberg-Reporter Mark Gurman, warum ihn das nicht überrascht hat.

„Für die Fans des SE“, führt er aus, „war der Sprung von der zweiten zur dritten Generation minimal [das ist eine höfliche Formulierung], weshalb es weniger Gründe für ein Upgrade gab. Das iPhone 16e – auch wenn es im Grunde ein abgespecktes iPhone 16 ist – ist ein bedeutendes Redesign des SE 3.“

Gurman fügt hinzu, dass Apple das 16e auf eine intelligentere und ansprechendere Weise vermarktet hat als die 2022er-Iteration des SE. Indem das Unternehmen es mit den Premium-Smartphones der 16er-Serie und nicht mit der preisgünstigen SE-Linie verband, konnte es auf Märkten wie China „ein wenig mehr Anziehungskraft“ entwickeln.

Das sind alles gute Nachrichten für Apple, aber Gurman ist mehr an einer anderen Frage interessiert: Ob Apple die „e“-Linie der iPhones einmal im Jahr aktualisieren wird, so wie es bei den Flaggschiff-Geräten der Fall ist. Die SE-Linie hat Apple dagegen recht sporadisch aktualisiert: Die drei Generationen kamen 2016, 2020 und 2022 auf den Markt, bevor das 16e im Jahr 2025 debütierte.

David Price / Foundry

Gurman ist sich nicht sicher, ob die „e“-iPhones in einem jährlichen Rhythmus auf den Markt kommen werden, denn Apple habe selbst noch keine endgültige Entscheidung getroffen. Er weist jedoch darauf hin, dass konkurrierende Unternehmen wie Samsung und Google ein oder mehrere Male pro Jahr neue günstige Smartphones auf den Markt bringen und folgert daraus, dass ein jährlicher Upgrade-Zyklus für das iPhone 16e und seine Nachfolger „sehr sinnvoll ist“.

Warum ein 17e eine schlechte Idee wäre

Aber ich bin nicht überzeugt, dass es so ist. Nach Gurmans eigener Logik wurde das iPhone 16e vorwiegend deshalb so positiv aufgenommen, weil es ein bedeutendes Upgrade und eine große Veränderung gegenüber dem SE der dritten Generation bedeutete, einem Gerät, das weit weniger kostete und drei Jahre zuvor auf den Markt kam.

Das wäre absolut nicht der Fall, wenn Apple im April 2026 ein iPhone 17e auf den Markt bringen würde, das auf einer Reihe von Geräten der 17er-Reihe basiert, die kommenden September auf den Markt kommen. Ein solches iPhone würde wahrscheinlich dem 16e recht ähnlich sein, und obwohl das die Besitzer des iPhone 13 oder 14 ansprechen könnte, wäre es keine so spektakuläre Neuerung, die dem 16e einen so offensichtlichen kommerziellen Erfolg beschert hat.

Das Problem ist, dass man entweder regelmäßig neue Geräte auf den Markt bringen kann oder Smartphones, die eine große Verbesserung gegenüber ihren Vorgängern darstellen, aber nicht beides. Oder besser gesagt: Es geht, aber Apple tut es nicht gerne, weil regelmäßige nennenswerte Verbesserungen die Gewinnspannen schmälern und zukünftige Markteinführungen schwieriger zu steuern sind.

Alles in allem denke ich, dass es wahrscheinlich sinnvoll ist, einen vorhersehbaren jährlichen Rhythmus für die Einführung der „e“-Linie festzulegen, damit die Kunden lernen, jedes Frühjahr ein neues Mittelklasse-Handy zu erwarten und ihre Kaufpläne entsprechend anzupassen. Aber das würde nicht jedes Jahr einen Riesenerfolg garantieren, wie es bei der restlichen iPhone-Reihe der Fall ist. Ich bin sicher, dass Apple bei seiner Entscheidung die Wahrscheinlichkeit berücksichtigt, dass ein 17e im April 2026 für die Kunden weitaus weniger interessant sein wird als das 16e in diesem April.

Aber hier ist noch ein letzter Punkt. Apple könnte den 17e sofort attraktiv machen, indem es einige der extremen Kompromisse rückgängig macht, die es eingegangen ist, um sicherzustellen, dass das 16e Apple Intelligence unterstützt. Um dies zu erreichen, wurde das 16e mit einem A18-Chip und 8 GB RAM ausgestattet, einer weitaus leistungsfähigeren (und teureren) Ausstattung, als es eigentlich nötig gewesen wäre.

Aber jetzt, da die Messlatte gesenkt wurde, müssen sich diese primären Spezifikationen 2026 nicht mehr ändern. Apple könnte ein 17e mit demselben Chip und demselben Arbeitsspeicher auf den Markt bringen und seine Ressourcen auf die Wiedereinführung von Magsafe konzentrieren. Oder ein zweites Kameraobjektiv einbauen. Oder sogar von der Notch zur Dynamic Island wechseln.

Diese Änderungen, wenn sie logistisch machbar sind, würden eine zweite erfolgreiche „e“-Einführung sicherstellen. Aber diese Strategie hat nur eine begrenzte Lebensdauer, denn das 18e müsste noch besser werden. Und letztlich bedeutet die Umstellung auf eine langfristige jährliche Veröffentlichungsstrategie, dass Sie akzeptieren müssen, dass viele Ihrer Produkte mit einem Gähnen und nicht mit einem Schreien aufgenommen werden.

(Mackwelt)

Warum Apple das iPhone 16e besser nicht jährlich aktualisieren sollte​ Weiterlesen »

Reusable-Code-Richtlinien: 8 Wege zu wiederverwendbarem Java-Code​

Allgemein

Reusable Code macht nicht nur Java-Entwicklern das Leben leichter. Foto: Roman Samborskyi – shutterstock.com Wiederverwendbaren (Reusable) Code schreiben zu können, stellt für jeden Softwareentwickler eine wichtige Fähigkeit dar. Denn Developer, die Reusable Code einsetzen, kommen in den Genuss zahlreicher Vorteile. Zum Beispiel: optimierte Code-Qualität, reduzierte Redundanzen, höhere Produktivität, verbesserte Zusammenarbeit, kürzere Entwicklungszyklen, schnellere Projekt-Iterationen, einfachere Wartung und die Fähigkeit, existierende Lösungen (besser) weiterzuentwickeln. Letztlich ermöglicht maximal wiederverwendbarer Code den Entwicklern, skalierbare, flexible und damit zukunftssichere Softwaresysteme zu entwickeln. Außerdem erfordern Fehlerbehebung oder das Hinzufügen neuer Funktionen erheblich mehr Aufwand und Zeit, wenn Ihr Code nicht von Grund auf auf Wiederverwendbarkeit ausgelegt und gut geschrieben ist. Im Extremfall kann es dazu kommen, dass komplette Code-Basen entsorgt werden müssen – und das Projekt noch einmal bei Null beginnen muss. Das kann nicht nur Zeit und Geld, sondern möglicherweise auch Jobs kosten. Um das zu verhindern und effiziente, wartbare Systeme zu entwickeln, lohnt es sich, die wichtigsten Reusable-Code-Prinzipien zu verinnerlichen – und sie in der Praxis anzuwenden. Dieser Artikel stellt acht praxiserprobte Guidelines vor, um wiederverwendbaren Code in Java zu schreiben. 1. Code-Regeln definieren Die erste Maßnahme, um wiederverwendbaren Code zu schreiben: Legen Sie gemeinsam mit Ihrem Developer-Team Code-Standards fest. Ansonsten droht das Chaos – und sinnlose Diskussionen über Implementierungen, die ohne Abstimmung stattfinden. Sinn macht darüber hinaus, ein grundlegendes Code-Design für die Probleme zu bestimmen, die die Software lösen soll. Ist das erledigt, beginnt die wirkliche Arbeit: Richtlinien für Ihren Code definieren. Diese bestimmen die Regeln für Ihren Code in verschiedener Hinsicht: Benennung des Codes Anzahl der Klassen- und Methodenzeilen Behandlung von Ausnahmen Package-Struktur Programmiersprache und Version Frameworks, Tools und Bibliotheken Code-Testing-Standards Code-Layer (Controller, Service, Repository, Domain etc.) Sobald Sie sich auf die Regeln für Ihren Code geeinigt haben, kann die Verantwortung für die Code Reviews auf das gesamte Team verteilt werden. Das sollte sicherstellen, dass der Code gut, respektive wiederverwendbar geschrieben wird. Gibt es hinsichtlich der Code-Regeln keine Einigung innerhalb des Teams, wird aus Reusable Code nichts. 2. APIs dokumentieren Bei der Kreation von Services und deren Offenlegung als API sollte letztere so dokumentiert werden, dass sie auch für Entwickler, die neu ins Team kommen, leicht zu verstehen und zu verwenden ist. Gerade in Microservices-Architekturen kommen häufig APIs zum Einsatz. In diesen Fällen müssen andere Teams, die nicht viel über das initiale Projekt wissen, die API-Dokumentation lesen und verstehen können. Ist das nicht der Fall, wird der Code mit hoher Wahrscheinlichkeit noch einmal neu geschrieben. APIs ordentlich zu dokumentieren, ist also sehr wichtig. Auf der anderen Seite ist ein Hang zur Mikrodokumentation ebensowenig hilfreich. Konzentrieren Sie sich deshalb auf das Wesentliche und erläutern Sie beispielsweise die Geschäftsprozesse in der API, ihre Parameter oder Rückgabeobjekte. 3. Namenskonventionen folgen Simple, beschreibende Codenamen sind mysteriösen Akronymen unter allen Umständen vorzuziehen. Schreiben Sie also Customer und nicht Ctr, um klar und aussagekräftig zu bleiben. Schließlich könnte die Abkürzung für andere Entwickler etwas ganz anderes bedeuten. Achten Sie außerdem darauf, den Namenskonventionen Ihrer Programmiersprache zu folgen. Für Java gibt es beispielsweise die JavaBeans-Namenskonvention. Sie ist einfach zu verstehen und definiert, wie Klassen, Methoden, Variablen und Pakete in Java benannt werden: Klassen: customerContract Methoden und Variablen: customerContract Packages: service 4. “Cohesive” coden Zusammenhängender (Cohesive) Code ist zwar ein einfaches Konzept, doch auch erfahrene Entwickler halten sich nicht immer daran. Das führt zu Klassen, die “ultra-responsible” (auch: God Classes) sind. Einfach ausgedrückt: Sie tun zu viele Dinge. Um Ihren Code “cohesive” zu gestalten, müssen Sie ihn so aufteilen, dass jeder Klasse und Methode nur eine Aufgabe zukommt. Eine Methode mit dem Namen saveCustomer sollte also nur zum Einsatz kommen, um die Daten eines Kunden zu speichern – nicht, um diese zu aktualisieren oder zu löschen. Ebenso sollte eine Klasse mit dem Namen CustomerService nur Funktionen aufweisen, die “zum Kunden” gehören. Eine Methode innerhalb der Klasse CustomerService, die Prozesse innerhalb der Produktdomäne übernimmt, sollte in die Klasse ProductService verschoben werden. Um das Konzept besser durchdringen zu können, zunächst ein Beispiel für eine nicht-zusammenhängende Klasse: public class CustomerPurchaseService { public void saveCustomerPurchase(CustomerPurchase customerPurchase) { // Does operations with customer registerProduct(customerPurchase.getProduct()); // update customer // delete customer } private void registerProduct(Product product) { // Performs logic for product in the domain of the customer… } } Die Probleme mit dieser Klasse kurz und bündig zusammengefasst: Die saveCustomerPurchase-Methode registriert das Produkt, aktualisiert und löscht den Kunden. Diese Methode hat also zu viele Aufgaben. Die registerProduct-Methode ist schwer zu finden. Deshalb ist die Wahrscheinlichkeit groß, dass ein Entwickler die Methode dupliziert. Die registerProduct-Methode liegt in der falschen Domäne. CustomerPurchaseService sollte keine Produkte registrieren. Die saveCustomerPurchase-Methode ruft eine private Methode auf, anstatt eine externe Klasse für die Produktprozesse zu verwenden. Da wir die Probleme des Codes nun ermittelt haben, können wir ihn im Sinne der “Cohesiveness” umschreiben. Dazu verschieben wir die registerProduct-Methode in ihre richtige Domäne (ProductService). Das sorgt dafür, dass sich der Code viel einfacher durchsuchen und wiederverwenden lässt: public class CustomerPurchaseService { private ProductService productService; public CustomerPurchaseService(ProductService productService) { this.productService = productService; } public void saveCustomerPurchase(CustomerPurchase customerPurchase) { // Does operations with customer productService.registerProduct(customerPurchase.getProduct()); } } public class ProductService { public void registerProduct(Product product) { // Performs logic for product in the domain of the customer… } } In diesem Beispiel hat saveCustomerPurchase ausschließlich eine Aufgabe: den Kauf des Kunden zu speichern. Zudem haben wir die Verantwortung für registerProduct an die ProductService-Klasse delegiert – was dazu führt dass beide Klassen “cohesive” sind und das tun, was man von ihnen erwartet. 5. Klassen entkoppeln Stark gekoppelter Code weist zu viele Abhängigkeiten auf, was es erschwert, ihn zu warten. Je mehr Abhängigkeiten eine Klasse aufweist, desto stärker ist sie gekoppelt. Dieses Konzept der Kopplung wird auch im Zusammenhang mit der Softwarearchitektur verwendet. Die Microservices-Architektur etwa verfolgt das Ziel, Services zu entkoppeln. Wenn ein Microservice eine Verbindung zu vielen anderen Microservices aufweisen würde, wäre er stark gekoppelt. Der beste Weg zu wiederverwendbarem Code besteht folglich darin, Systeme und Code so wenig wie möglich voneinander abhängig zu machen. Natürlich wird dabei immer ein gewisses Maß an Kopplung bestehen, weil Services und Quellcode miteinander kommunizieren müssen. Der Schlüssel liegt also darin, diese Dienste so unabhängig wie möglich zu gestalten. Zunächst ein Beispiel für eine stark gekoppelte Klasse: public class CustomerOrderService { private ProductService productService; private OrderService orderService; private CustomerPaymentRepository customerPaymentRepository; private CustomerDiscountRepository customerDiscountRepository; private CustomerContractRepository customerContractRepository; private CustomerOrderRepository customerOrderRepository; private CustomerGiftCardRepository customerGiftCardRepository; // Other methods… } In diesem Beispiel ist die CustomerService-Klasse in hohem Maße mit vielen anderen Dienstklassen gekoppelt. Die vielen Abhängigkeiten führen dazu, dass die Klasse viele Codezeilen benötigt, was zu Erschwernissen in Sachen Testing und Wartung führt. Der bessere Ansatz wäre, die Klasse in Services mit weniger Abhängigkeiten aufzuteilen. Ganz konkret verringern wir die Kopplung, indem wir die CustomerService-Klasse in separate Dienste aufteilen: public class CustomerOrderService { private OrderService orderService; private CustomerPaymentService customerPaymentService; private CustomerDiscountService customerDiscountService; // Omitted other methods… } public class CustomerPaymentService { private ProductService productService; private CustomerPaymentRepository customerPaymentRepository; private CustomerContractRepository customerContractRepository; // Omitted other methods… } public class CustomerDiscountService { private CustomerDiscountRepository customerDiscountRepository; private CustomerGiftCardRepository customerGiftCardRepository; // Omitted other methods… } Nach dem Refactoring sind CustomerService und andere Klassen wesentlich einfacher zu testen und auch leichter zu warten. Je spezialisierter und übersichtlicher Ihre Klasse ist, desto einfacher gestaltet es sich auch, neue Funktionen zu implementieren. Auch wenn es Bugs geben sollte, sind diese leichter zu beheben. 6. SOLID befolgen Das Akronym SOLID steht für die fünf Design-Prinzipien der objektorientierten Programmierung. Diese zielen darauf ab, Softwaresysteme wartbarer, flexibler und verständlicher zu gestalten. Im Folgenden eine kurze Erläuterung: Single-Responsibility-Prinzip: Eine Klasse sollte einen einzigen Zweck haben, beziehungsweise eine Verantwortung aufweisen und diese “kapseln”. Dieses Prinzip fördert Cohesive Code und hilft dabei, Klassen überschaubar zu halten. Open-Closed-Prinzip: Softwareeinheiten (Klassen, Module, Methoden etc.) sollten offen für Erweiterungen, aber geschlossen für Änderungen sein. Im Klartext: Sie sollten Ihren Code so gestalten, dass Sie neue Funktionen hinzufügen können, ohne den bestehenden Code zu ändern. Das verringert den Impact von Änderungen fördert wiederverwendbaren Code. Liskovsches Substitutionsprinzip: Objekte einer Oberklasse sollten durch Objekte ihrer Unterklassen ersetzt werden können, ohne die Korrektheit des Programms zu beeinträchtigen. Mit anderen Worten: Jede Instanz einer Basisklasse sollte durch jede Instanz ihrer abgeleiteten Klassen ersetzbar sein, um sicherzustellen, dass das Applikationsverhalten konsistent bleibt. Interface-Segregation-Prinzip: Clients sollten nicht von Schnittstellen abhängig sein, die sie nicht benutzen. Umfassende Interfaces sollten in kleinere und spezifischere Schnittstellen aufgeteilt werden, damit Clients nur von den für sie relevanten abhängig sind. Das fördert eine lose Kopplung und vermeidet unnötige Dependencies. Dependency-Inversion-Prinzip: High-Level-Module sollten nicht von Low-Level-Modulen abhängig sein – stattdessen sollten beide von Abstraktionen abhängen. Dieses Prinzip fördert die Verwendung von Abstraktionen, um High-Level-Module von Low-Level-Implementierungsdetails zu entkoppeln. Das macht die Systeme flexibler und erleichtert Testing und Wartung. Indem sie die SOLID-Grundsätze befolgen, kommen Developer zu modulare(re)m, wartbarem und erweiterbarem Code, der leichter zu verstehen ist. Das führt wiederum zu robusteren, flexibleren Softwaresystemen. 7. Design Patterns nutzen Design Patterns (Entwurfsmuster) werden von erfahrenen Entwicklern erstellt und helfen – wenn sie richtig eingesetzt werden – dabei, Code wiederzuverwenden. Developer, die Design Patterns verstehen, beziehungsweise erkennen, weisen im Regelfall auch optimierte Skills auf, wenn es ganz allgemein darum geht, Code zu lesen und zu verstehen. Selbst Code aus dem Java Development Kit wirkt klarer, wenn Sie das zugrundeliegende Design Pattern erkennen. Entwurfsmuster sind äußerst leistungsfähig, aber kein Allheilmittel – auch wenn diese zum Einsatz kommen, müssen Softwareentwickler genau darauf achten, wie sie diese verwenden. Es wäre zum Beispiel ein Fehler, ein Design Pattern zu verwenden, nur weil es bereits bekannt ist. Kommen die Muster in der falschen Situation zum Einsatz, können Sie den Code komplexer machen. Es kommt in Sachen Design Patterns insbesondere darauf an, sie für die richtigen Use Cases zu nutzen, um den Code flexibler für Erweiterungen zu gestalten. Im Folgenden eine kurze Zusammenfassung der Design Patterns in der objektorientierten Programmierung. Erzeugungsmuster (Creational Patterns): Einzelstück (Singleton): Stellt sicher, dass eine Klasse nur eine Instanz hat und bietet auf diese globalen Zugriff. Fabrikmethode (Factory Method): Definiert eine Schnittstelle, um Objekte zu erstellen, überlässt es aber den Unterklassen, welche Klasse instanziiert wird. Abstrakte Fabrik (Abstract Factory): Bietet ein Interface, um Familien von verwandten oder abhängigen Objekten zu erstellen. Erbauer (Builder): Trennt die Konstruktion von komplexen Objekten von ihrer Darstellung. Prototyp (Prototype): Erzeugt neue Objekte, indem es bestehende klont. Strukturmuster (Structural Patterns): Adapter: Konvertiert die Schnittstelle einer Klasse in eine andere, die die Kunden erwarten. Dekorator (Decorator): Fügt einem Objekt dynamisch Verhalten hinzu. Proxy: Stellt ein Surrogat oder einen Platzhalter für ein anderes Objekt zur Verfügung, um den Zugriff darauf zu kontrollieren. Kompositum (Composite): Behandelt eine Gruppe von Objekten als ein einziges Objekt. Brücke (Bridge): Entkoppelt eine Abstraktion von ihrer Implementierung. Verhaltensmuster (Behavioral Patterns): Beobachter (Observer): Definiert eine Eins-zu-viele-Abhängigkeit zwischen Objekten. Wenn sich der Zustand eines Objekts ändert, werden alle von ihm abhängigen Objekte benachrichtigt und automatisch aktualisiert. Strategie (Strategy): Kapselt verwandte Algorithmen und ermöglicht deren Auswahl zur Laufzeit. Schablonenmethode (Template Method): Definiert das Grundgerüst eines Algorithmus in einer Basisklasse und ermöglicht es Unterklassen, spezifische Implementierungsdetails bereitzustellen. Kommando (Command): Kapselt eine Anfrage als Objekt, so dass Clients mit verschiedenen Anfragen parametrisiert werden können. Zustand (State): Ermöglicht es einem Objekt, sein Verhalten zu ändern, wenn sich sein interner Zustand ändert. Iterator: Ermöglicht den sequentiellen Zugriff auf die Elemente eines Aggregatobjekts, ohne dessen zugrundeliegende Darstellung offenzulegen. Zuständigkeitskette (Chain of Responsibility): Ermöglicht es einem Objekt, eine Anfrage entlang einer Kette von potenziellen Bearbeitern weiterzuleiten, bis die Anfrage bearbeitet ist. Vermittler (Mediator): Definiert ein Objekt, das kapselt, wie eine Gruppe von Objekten interagiert, und fördert die lose Kopplung zwischen ihnen. Besucher (Visitor): Trennt einen Algorithmus von den Objekten, auf denen er arbeitet, indem der Algorithmus in separate Besucherobjekte ausgelagert wird. Es besteht keine Notwendigkeit, all diese Design Patterns auswendig zu lernen. Es reicht, wenn Sie wissen, dass es diese Muster gibt – und was sie bewirken. 8. Rad nicht neu erfinden In vielen Unternehmen ist es immer noch Standard, ohne triftigen Grund auf intern entwickelte Frameworks zu setzen. Das ist in den allermeisten Fällen sinnlos – es sei denn, Ihr Unternehmen heißt Google oder Microsoft. Kleine oder auch mittlere Unternehmen sind nicht in der Lage, mit eigenen Lösungen in diesem Bereich zu konkurrieren. Anstatt also das Softwarerad neu erfinden zu wollen und damit Arbeit zu verursachen, die es nicht braucht, sollten Sie besser einfach die vorhandenen Tools verwenden. Das ist auch für Softwareentwickler eine Wohltat, weil es ihnen erspart, ein Framework erlernen zu müssen, das außerhalb des eigenen Unternehmens keinerlei Rolle spielt. Nutzen Sie also die auf dem Markt weithin verfügbaren und populären Technologien und Tools. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Reusable-Code-Richtlinien: 8 Wege zu wiederverwendbarem Java-Code​ Reusable Code macht nicht nur Java-Entwicklern das Leben leichter.
Foto: Roman Samborskyi – shutterstock.com

Wiederverwendbaren (Reusable) Code schreiben zu können, stellt für jeden Softwareentwickler eine wichtige Fähigkeit dar. Denn Developer, die Reusable Code einsetzen, kommen in den Genuss zahlreicher Vorteile. Zum Beispiel:

optimierte Code-Qualität,

reduzierte Redundanzen,

höhere Produktivität,

verbesserte Zusammenarbeit,

kürzere Entwicklungszyklen,

schnellere Projekt-Iterationen,

einfachere Wartung und

die Fähigkeit, existierende Lösungen (besser) weiterzuentwickeln.

Letztlich ermöglicht maximal wiederverwendbarer Code den Entwicklern, skalierbare, flexible und damit zukunftssichere Softwaresysteme zu entwickeln. Außerdem erfordern Fehlerbehebung oder das Hinzufügen neuer Funktionen erheblich mehr Aufwand und Zeit, wenn Ihr Code nicht von Grund auf auf Wiederverwendbarkeit ausgelegt und gut geschrieben ist. Im Extremfall kann es dazu kommen, dass komplette Code-Basen entsorgt werden müssen – und das Projekt noch einmal bei Null beginnen muss. Das kann nicht nur Zeit und Geld, sondern möglicherweise auch Jobs kosten.

Um das zu verhindern und effiziente, wartbare Systeme zu entwickeln, lohnt es sich, die wichtigsten Reusable-Code-Prinzipien zu verinnerlichen – und sie in der Praxis anzuwenden. Dieser Artikel stellt acht praxiserprobte Guidelines vor, um wiederverwendbaren Code in Java zu schreiben.

1. Code-Regeln definieren

Die erste Maßnahme, um wiederverwendbaren Code zu schreiben: Legen Sie gemeinsam mit Ihrem Developer-Team Code-Standards fest. Ansonsten droht das Chaos – und sinnlose Diskussionen über Implementierungen, die ohne Abstimmung stattfinden. Sinn macht darüber hinaus, ein grundlegendes Code-Design für die Probleme zu bestimmen, die die Software lösen soll. Ist das erledigt, beginnt die wirkliche Arbeit: Richtlinien für Ihren Code definieren. Diese bestimmen die Regeln für Ihren Code in verschiedener Hinsicht:

Benennung des Codes

Anzahl der Klassen- und Methodenzeilen

Behandlung von Ausnahmen

Package-Struktur

Programmiersprache und Version

Frameworks, Tools und Bibliotheken

Code-Testing-Standards

Code-Layer (Controller, Service, Repository, Domain etc.)

Sobald Sie sich auf die Regeln für Ihren Code geeinigt haben, kann die Verantwortung für die Code Reviews auf das gesamte Team verteilt werden. Das sollte sicherstellen, dass der Code gut, respektive wiederverwendbar geschrieben wird. Gibt es hinsichtlich der Code-Regeln keine Einigung innerhalb des Teams, wird aus Reusable Code nichts.

2. APIs dokumentieren

Bei der Kreation von Services und deren Offenlegung als API sollte letztere so dokumentiert werden, dass sie auch für Entwickler, die neu ins Team kommen, leicht zu verstehen und zu verwenden ist.

Gerade in Microservices-Architekturen kommen häufig APIs zum Einsatz. In diesen Fällen müssen andere Teams, die nicht viel über das initiale Projekt wissen, die API-Dokumentation lesen und verstehen können. Ist das nicht der Fall, wird der Code mit hoher Wahrscheinlichkeit noch einmal neu geschrieben. APIs ordentlich zu dokumentieren, ist also sehr wichtig.

Auf der anderen Seite ist ein Hang zur Mikrodokumentation ebensowenig hilfreich. Konzentrieren Sie sich deshalb auf das Wesentliche und erläutern Sie beispielsweise die Geschäftsprozesse in der API, ihre Parameter oder Rückgabeobjekte.

3. Namenskonventionen folgen

Simple, beschreibende Codenamen sind mysteriösen Akronymen unter allen Umständen vorzuziehen. Schreiben Sie also Customer und nicht Ctr, um klar und aussagekräftig zu bleiben. Schließlich könnte die Abkürzung für andere Entwickler etwas ganz anderes bedeuten.

Achten Sie außerdem darauf, den Namenskonventionen Ihrer Programmiersprache zu folgen. Für Java gibt es beispielsweise die JavaBeans-Namenskonvention. Sie ist einfach zu verstehen und definiert, wie Klassen, Methoden, Variablen und Pakete in Java benannt werden:

Klassen: customerContract

Methoden und Variablen: customerContract

Packages: service

4. “Cohesive” coden

Zusammenhängender (Cohesive) Code ist zwar ein einfaches Konzept, doch auch erfahrene Entwickler halten sich nicht immer daran. Das führt zu Klassen, die “ultra-responsible” (auch: God Classes) sind. Einfach ausgedrückt: Sie tun zu viele Dinge. Um Ihren Code “cohesive” zu gestalten, müssen Sie ihn so aufteilen, dass jeder Klasse und Methode nur eine Aufgabe zukommt. Eine Methode mit dem Namen saveCustomer sollte also nur zum Einsatz kommen, um die Daten eines Kunden zu speichern – nicht, um diese zu aktualisieren oder zu löschen.

Ebenso sollte eine Klasse mit dem Namen CustomerService nur Funktionen aufweisen, die “zum Kunden” gehören. Eine Methode innerhalb der Klasse CustomerService, die Prozesse innerhalb der Produktdomäne übernimmt, sollte in die Klasse ProductService verschoben werden.

Um das Konzept besser durchdringen zu können, zunächst ein Beispiel für eine nicht-zusammenhängende Klasse:

public class CustomerPurchaseService {

public void saveCustomerPurchase(CustomerPurchase customerPurchase) {

// Does operations with customer

registerProduct(customerPurchase.getProduct());

// update customer

// delete customer

}

private void registerProduct(Product product) {

// Performs logic for product in the domain of the customer…

}

}

Die Probleme mit dieser Klasse kurz und bündig zusammengefasst:

Die saveCustomerPurchase-Methode registriert das Produkt, aktualisiert und löscht den Kunden. Diese Methode hat also zu viele Aufgaben.

Die registerProduct-Methode ist schwer zu finden. Deshalb ist die Wahrscheinlichkeit groß, dass ein Entwickler die Methode dupliziert.

Die registerProduct-Methode liegt in der falschen Domäne. CustomerPurchaseService sollte keine Produkte registrieren.

Die saveCustomerPurchase-Methode ruft eine private Methode auf, anstatt eine externe Klasse für die Produktprozesse zu verwenden.

Da wir die Probleme des Codes nun ermittelt haben, können wir ihn im Sinne der “Cohesiveness” umschreiben. Dazu verschieben wir die registerProduct-Methode in ihre richtige Domäne (ProductService). Das sorgt dafür, dass sich der Code viel einfacher durchsuchen und wiederverwenden lässt:

public class CustomerPurchaseService {

private ProductService productService;

public CustomerPurchaseService(ProductService productService) {

this.productService = productService;

}

public void saveCustomerPurchase(CustomerPurchase customerPurchase) {

// Does operations with customer

productService.registerProduct(customerPurchase.getProduct());

}

}

public class ProductService {

public void registerProduct(Product product) {

// Performs logic for product in the domain of the customer…

}

}

In diesem Beispiel hat saveCustomerPurchase ausschließlich eine Aufgabe: den Kauf des Kunden zu speichern. Zudem haben wir die Verantwortung für registerProduct an die ProductService-Klasse delegiert – was dazu führt dass beide Klassen “cohesive” sind und das tun, was man von ihnen erwartet.

5. Klassen entkoppeln

Stark gekoppelter Code weist zu viele Abhängigkeiten auf, was es erschwert, ihn zu warten. Je mehr Abhängigkeiten eine Klasse aufweist, desto stärker ist sie gekoppelt. Dieses Konzept der Kopplung wird auch im Zusammenhang mit der Softwarearchitektur verwendet. Die Microservices-Architektur etwa verfolgt das Ziel, Services zu entkoppeln. Wenn ein Microservice eine Verbindung zu vielen anderen Microservices aufweisen würde, wäre er stark gekoppelt.

Der beste Weg zu wiederverwendbarem Code besteht folglich darin, Systeme und Code so wenig wie möglich voneinander abhängig zu machen. Natürlich wird dabei immer ein gewisses Maß an Kopplung bestehen, weil Services und Quellcode miteinander kommunizieren müssen. Der Schlüssel liegt also darin, diese Dienste so unabhängig wie möglich zu gestalten. Zunächst ein Beispiel für eine stark gekoppelte Klasse:

public class CustomerOrderService {

private ProductService productService;

private OrderService orderService;

private CustomerPaymentRepository customerPaymentRepository;

private CustomerDiscountRepository customerDiscountRepository;

private CustomerContractRepository customerContractRepository;

private CustomerOrderRepository customerOrderRepository;

private CustomerGiftCardRepository customerGiftCardRepository;

// Other methods…

}

In diesem Beispiel ist die CustomerService-Klasse in hohem Maße mit vielen anderen Dienstklassen gekoppelt. Die vielen Abhängigkeiten führen dazu, dass die Klasse viele Codezeilen benötigt, was zu Erschwernissen in Sachen Testing und Wartung führt.

Der bessere Ansatz wäre, die Klasse in Services mit weniger Abhängigkeiten aufzuteilen. Ganz konkret verringern wir die Kopplung, indem wir die CustomerService-Klasse in separate Dienste aufteilen:

public class CustomerOrderService {

private OrderService orderService;

private CustomerPaymentService customerPaymentService;

private CustomerDiscountService customerDiscountService;

// Omitted other methods…

}

public class CustomerPaymentService {

private ProductService productService;

private CustomerPaymentRepository customerPaymentRepository;

private CustomerContractRepository customerContractRepository;

// Omitted other methods…

}

public class CustomerDiscountService {

private CustomerDiscountRepository customerDiscountRepository;

private CustomerGiftCardRepository customerGiftCardRepository;

// Omitted other methods…

}

Nach dem Refactoring sind CustomerService und andere Klassen wesentlich einfacher zu testen und auch leichter zu warten. Je spezialisierter und übersichtlicher Ihre Klasse ist, desto einfacher gestaltet es sich auch, neue Funktionen zu implementieren. Auch wenn es Bugs geben sollte, sind diese leichter zu beheben.

6. SOLID befolgen

Das Akronym SOLID steht für die fünf Design-Prinzipien der objektorientierten Programmierung. Diese zielen darauf ab, Softwaresysteme wartbarer, flexibler und verständlicher zu gestalten. Im Folgenden eine kurze Erläuterung:

Single-Responsibility-Prinzip: Eine Klasse sollte einen einzigen Zweck haben, beziehungsweise eine Verantwortung aufweisen und diese “kapseln”. Dieses Prinzip fördert Cohesive Code und hilft dabei, Klassen überschaubar zu halten.

Open-Closed-Prinzip: Softwareeinheiten (Klassen, Module, Methoden etc.) sollten offen für Erweiterungen, aber geschlossen für Änderungen sein. Im Klartext: Sie sollten Ihren Code so gestalten, dass Sie neue Funktionen hinzufügen können, ohne den bestehenden Code zu ändern. Das verringert den Impact von Änderungen fördert wiederverwendbaren Code.

Liskovsches Substitutionsprinzip: Objekte einer Oberklasse sollten durch Objekte ihrer Unterklassen ersetzt werden können, ohne die Korrektheit des Programms zu beeinträchtigen. Mit anderen Worten: Jede Instanz einer Basisklasse sollte durch jede Instanz ihrer abgeleiteten Klassen ersetzbar sein, um sicherzustellen, dass das Applikationsverhalten konsistent bleibt.

Interface-Segregation-Prinzip: Clients sollten nicht von Schnittstellen abhängig sein, die sie nicht benutzen. Umfassende Interfaces sollten in kleinere und spezifischere Schnittstellen aufgeteilt werden, damit Clients nur von den für sie relevanten abhängig sind. Das fördert eine lose Kopplung und vermeidet unnötige Dependencies.

Dependency-Inversion-Prinzip: High-Level-Module sollten nicht von Low-Level-Modulen abhängig sein – stattdessen sollten beide von Abstraktionen abhängen. Dieses Prinzip fördert die Verwendung von Abstraktionen, um High-Level-Module von Low-Level-Implementierungsdetails zu entkoppeln. Das macht die Systeme flexibler und erleichtert Testing und Wartung.

Indem sie die SOLID-Grundsätze befolgen, kommen Developer zu modulare(re)m, wartbarem und erweiterbarem Code, der leichter zu verstehen ist. Das führt wiederum zu robusteren, flexibleren Softwaresystemen.

7. Design Patterns nutzen

Design Patterns (Entwurfsmuster) werden von erfahrenen Entwicklern erstellt und helfen – wenn sie richtig eingesetzt werden – dabei, Code wiederzuverwenden. Developer, die Design Patterns verstehen, beziehungsweise erkennen, weisen im Regelfall auch optimierte Skills auf, wenn es ganz allgemein darum geht, Code zu lesen und zu verstehen. Selbst Code aus dem Java Development Kit wirkt klarer, wenn Sie das zugrundeliegende Design Pattern erkennen.

Entwurfsmuster sind äußerst leistungsfähig, aber kein Allheilmittel – auch wenn diese zum Einsatz kommen, müssen Softwareentwickler genau darauf achten, wie sie diese verwenden. Es wäre zum Beispiel ein Fehler, ein Design Pattern zu verwenden, nur weil es bereits bekannt ist. Kommen die Muster in der falschen Situation zum Einsatz, können Sie den Code komplexer machen. Es kommt in Sachen Design Patterns insbesondere darauf an, sie für die richtigen Use Cases zu nutzen, um den Code flexibler für Erweiterungen zu gestalten. Im Folgenden eine kurze Zusammenfassung der Design Patterns in der objektorientierten Programmierung.

Erzeugungsmuster (Creational Patterns):

Einzelstück (Singleton): Stellt sicher, dass eine Klasse nur eine Instanz hat und bietet auf diese globalen Zugriff.

Fabrikmethode (Factory Method): Definiert eine Schnittstelle, um Objekte zu erstellen, überlässt es aber den Unterklassen, welche Klasse instanziiert wird.

Abstrakte Fabrik (Abstract Factory): Bietet ein Interface, um Familien von verwandten oder abhängigen Objekten zu erstellen.

Erbauer (Builder): Trennt die Konstruktion von komplexen Objekten von ihrer Darstellung.

Prototyp (Prototype): Erzeugt neue Objekte, indem es bestehende klont.

Strukturmuster (Structural Patterns):

Adapter: Konvertiert die Schnittstelle einer Klasse in eine andere, die die Kunden erwarten.

Dekorator (Decorator): Fügt einem Objekt dynamisch Verhalten hinzu.

Proxy: Stellt ein Surrogat oder einen Platzhalter für ein anderes Objekt zur Verfügung, um den Zugriff darauf zu kontrollieren.

Kompositum (Composite): Behandelt eine Gruppe von Objekten als ein einziges Objekt.

Brücke (Bridge): Entkoppelt eine Abstraktion von ihrer Implementierung.

Verhaltensmuster (Behavioral Patterns):

Beobachter (Observer): Definiert eine Eins-zu-viele-Abhängigkeit zwischen Objekten. Wenn sich der Zustand eines Objekts ändert, werden alle von ihm abhängigen Objekte benachrichtigt und automatisch aktualisiert.

Strategie (Strategy): Kapselt verwandte Algorithmen und ermöglicht deren Auswahl zur Laufzeit.

Schablonenmethode (Template Method): Definiert das Grundgerüst eines Algorithmus in einer Basisklasse und ermöglicht es Unterklassen, spezifische Implementierungsdetails bereitzustellen.

Kommando (Command): Kapselt eine Anfrage als Objekt, so dass Clients mit verschiedenen Anfragen parametrisiert werden können.

Zustand (State): Ermöglicht es einem Objekt, sein Verhalten zu ändern, wenn sich sein interner Zustand ändert.

Iterator: Ermöglicht den sequentiellen Zugriff auf die Elemente eines Aggregatobjekts, ohne dessen zugrundeliegende Darstellung offenzulegen.

Zuständigkeitskette (Chain of Responsibility): Ermöglicht es einem Objekt, eine Anfrage entlang einer Kette von potenziellen Bearbeitern weiterzuleiten, bis die Anfrage bearbeitet ist.

Vermittler (Mediator): Definiert ein Objekt, das kapselt, wie eine Gruppe von Objekten interagiert, und fördert die lose Kopplung zwischen ihnen.

Besucher (Visitor): Trennt einen Algorithmus von den Objekten, auf denen er arbeitet, indem der Algorithmus in separate Besucherobjekte ausgelagert wird.

Es besteht keine Notwendigkeit, all diese Design Patterns auswendig zu lernen. Es reicht, wenn Sie wissen, dass es diese Muster gibt – und was sie bewirken.

8. Rad nicht neu erfinden

In vielen Unternehmen ist es immer noch Standard, ohne triftigen Grund auf intern entwickelte Frameworks zu setzen. Das ist in den allermeisten Fällen sinnlos – es sei denn, Ihr Unternehmen heißt Google oder Microsoft. Kleine oder auch mittlere Unternehmen sind nicht in der Lage, mit eigenen Lösungen in diesem Bereich zu konkurrieren. Anstatt also das Softwarerad neu erfinden zu wollen und damit Arbeit zu verursachen, die es nicht braucht, sollten Sie besser einfach die vorhandenen Tools verwenden.

Das ist auch für Softwareentwickler eine Wohltat, weil es ihnen erspart, ein Framework erlernen zu müssen, das außerhalb des eigenen Unternehmens keinerlei Rolle spielt. Nutzen Sie also die auf dem Markt weithin verfügbaren und populären Technologien und Tools. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Reusable-Code-Richtlinien: 8 Wege zu wiederverwendbarem Java-Code​ Weiterlesen »

Nach oben scrollen
×