Computerhaus Quickborn

Mai 2025

5 Tipps für Firmengründer: Richtig in die Selbständigkeit starten​

Allgemein

Wer in einem Angestelltenverhältnis ist und den Schritt in die Selbstständigkeit plant, sollte eine klare Marschroute befolgen und das neue Standbein parallel zur Festanstellung aufbauen. Foto: GaudiLab – shutterstock.com “Die Menschen haben oft Angst vor dem Unbekannten und bleiben lieber in der vermeintlichen Sicherheit ihres Jobs”, sagt Torben Baumdick, Autor des Buches “Chef, ich kündige!”. Der Finanzexperte weiter: “Ich habe es selbst erlebt: Es ist leicht, sich ein Einkommen aufzubauen, das nicht mehr von der Arbeitszeit abhängig ist.” Wie das funktioniert, dafür hat er folgende fünf Tipps parat: 1. Gleitender Übergang statt Sprung in die Selbstständigkeit Die Vorstellung eines abrupten Sprungs in die Selbstständigkeit ist ein weitverbreitetes, aber falsches Bild. Tatsächlich ist ein plötzlicher Wechsel, bei dem ein Angestellter von heute auf morgen seinen festen Job aufgibt, um sich selbstständig zu machen, meist nicht der beste Weg. Erfolg in der Selbstständigkeit resultiert aus einem überlegten und gleitenden Übergang. Indem man sein eigenes Geschäft zunächst nebenberuflich startet und aufbaut, gewährt man sich die nötige Zeit und Sicherheit. Erst wenn dann das Wunscheinkommen erreicht ist – ob es nun 2000 oder 3000 Euro beträgt – kann in Erwägung gezogen werden, die Hauptbeschäftigung aufzugeben. Beginnt ein fest Beschäftigter mit zehn oder 20 Stunden wöchentlich, kann er nach dieser Phase problemlos in Vollzeit am neuen Business arbeiten. 2. Genügend Startkapital einplanen Bevor sich ein Interessent für ein konkretes Geschäftsmodell entscheidet, ist es wichtig, die finanzielle Ausgangslage sorgfältig zu prüfen. Jede Selbstständigkeit erfordert ein gewisses Kapital, insbesondere im Hinblick auf die Kundengewinnung. Einer der Hauptzwecke des Startkapitals ist dabei die Finanzierung von bezahlter Werbung, die das Potenzial hat, rund um die Uhr Einkünfte zu generieren, selbst wenn man gerade nicht aktiv arbeitet. Im Gegensatz zum Angestelltenverhältnis, in dem man meistens Zeit gegen Geld eintauscht, ermöglicht dies eine fortlaufende Einkommensquelle. Eine sinnvolle Orientierung für das benötigte Startkapital könnte eine Summe im vierstelligen Bereich sein oder eine monatliche Ersparnis von 300 bis 500 Euro, um sicher in die Selbstständigkeit zu starten. 3. Lean Startup als bewährtes Konzept Steht der Aufbau eines eigenen Business kurz bevor, ist die Motivation groß. Viele neigen dann dazu, übermütig Geld auszugeben. Doch genau hier sollten sich Betroffene bremsen und die Kosten so gering wie möglich halten. Denn mittlerweile gibt es zahlreiche günstigere Alternativen, als sofort einen Experten aufzusuchen, der viel Geld kostet. Wer beispielsweise sein eigenes Logo für das Geschäft erstellen möchte, muss nicht gleich zu einem Designer gehen und dafür 1.000 Euro zahlen. Dank kostenloser Programme wie Canva können Gründer eigene Logos erstellen. Gleiches gilt für die Webseite oder den Onlineshop, die anhand von einfachen Baukastensystemen kreiert werden können. Nicht zuletzt muss ein Interessent auch nicht sofort eine GmbH oder eine andere Rechtsform gründen. Ein Lean Startup ist völlig ausreichend. Die Anmeldung eines solchen Kleinunternehmens kostet gerade einmal 30 bis 50 Euro beim Gewerbeamt, ist steuersmart und einfach in der Regelung. Dabei sollte man sich immer vor Augen führen: Das Geld, das man an den richtigen Stellen spart, kann man nutzen, um die Selbstständigkeit erfolgreich aufzubauen und Kunden zu gewinnen. 4. Ein smartes Geschäftsmodell wählen Bei der Überlegung, in welche Richtung ein neues Geschäft gehen soll, ist es entscheidend, die eigenen Bedürfnisse und Unzufriedenheiten im aktuellen Arbeitsverhältnis zu analysieren. Wer beispielsweise mit der ortsgebundenen Arbeit hadert und nicht ständig an einen festen Ort gebunden sein möchte, sollte ein ortsunabhängiges Geschäftsmodell in Betracht ziehen. Für diejenigen, die Flexibilität in ihrer Arbeitszeit suchen und nicht jeden Tag zu festen Zeiten arbeiten möchten, wäre ein zeitunabhängiges Modell ideal. Möchte man jedoch etwas Langfristiges und Sicheres schaffen, sollte das Geschäftsmodell dementsprechend gewählt werden. Ein besonders beliebtes Geschäftsmodell, das ortsunabhängig und flexibel ist, ist Dropshipping. Bei diesem Modell hält man kein eigenes Warenlager und verkauft Produkte von Zwischenhändlern, was den Aufwand und die Kosten minimiert. Die Hauptkosten liegen hier vor allem im Marketing und der Kundengewinnung, weshalb Dropshipping oft als ideale Methode angesehen wird, um nebenberuflich in die Selbständigkeit zu starten. 5. Das richtige Mindset Der Erfolg eines Geschäfts kommt mit der Einstellung zum Aufbau. Niemand muss sich ein Business in zwei oder drei Wochen aufbauen. Viel wichtiger ist es, sich ein realistisches Ziel mit Zwischenetappen zu setzen. So könnte der Gründer sich vornehmen, in drei Monaten die ersten Schritte zu gehen und in sechs Monaten darüber ein kleines Einkommen zu verdienen. In zwölf Monaten ließe sich dann als Meilenstein festlegen, den Hauptjob zu kündigen und sich ganz dem neuen Business zu widmen. Wichtige Schlagwörter sind demnach: langfristig denken und nichts überstürzen. 

5 Tipps für Firmengründer: Richtig in die Selbständigkeit starten​ Wer in einem Angestelltenverhältnis ist und den Schritt in die Selbstständigkeit plant, sollte eine klare Marschroute befolgen und das neue Standbein parallel zur Festanstellung aufbauen.
Foto: GaudiLab – shutterstock.com

“Die Menschen haben oft Angst vor dem Unbekannten und bleiben lieber in der vermeintlichen Sicherheit ihres Jobs”, sagt Torben Baumdick, Autor des Buches “Chef, ich kündige!”. Der Finanzexperte weiter: “Ich habe es selbst erlebt: Es ist leicht, sich ein Einkommen aufzubauen, das nicht mehr von der Arbeitszeit abhängig ist.” Wie das funktioniert, dafür hat er folgende fünf Tipps parat:

1. Gleitender Übergang statt Sprung in die Selbstständigkeit

Die Vorstellung eines abrupten Sprungs in die Selbstständigkeit ist ein weitverbreitetes, aber falsches Bild. Tatsächlich ist ein plötzlicher Wechsel, bei dem ein Angestellter von heute auf morgen seinen festen Job aufgibt, um sich selbstständig zu machen, meist nicht der beste Weg. Erfolg in der Selbstständigkeit resultiert aus einem überlegten und gleitenden Übergang.

Indem man sein eigenes Geschäft zunächst nebenberuflich startet und aufbaut, gewährt man sich die nötige Zeit und Sicherheit. Erst wenn dann das Wunscheinkommen erreicht ist – ob es nun 2000 oder 3000 Euro beträgt – kann in Erwägung gezogen werden, die Hauptbeschäftigung aufzugeben. Beginnt ein fest Beschäftigter mit zehn oder 20 Stunden wöchentlich, kann er nach dieser Phase problemlos in Vollzeit am neuen Business arbeiten.

2. Genügend Startkapital einplanen

Bevor sich ein Interessent für ein konkretes Geschäftsmodell entscheidet, ist es wichtig, die finanzielle Ausgangslage sorgfältig zu prüfen. Jede Selbstständigkeit erfordert ein gewisses Kapital, insbesondere im Hinblick auf die Kundengewinnung. Einer der Hauptzwecke des Startkapitals ist dabei die Finanzierung von bezahlter Werbung, die das Potenzial hat, rund um die Uhr Einkünfte zu generieren, selbst wenn man gerade nicht aktiv arbeitet.

Im Gegensatz zum Angestelltenverhältnis, in dem man meistens Zeit gegen Geld eintauscht, ermöglicht dies eine fortlaufende Einkommensquelle. Eine sinnvolle Orientierung für das benötigte Startkapital könnte eine Summe im vierstelligen Bereich sein oder eine monatliche Ersparnis von 300 bis 500 Euro, um sicher in die Selbstständigkeit zu starten.

3. Lean Startup als bewährtes Konzept

Steht der Aufbau eines eigenen Business kurz bevor, ist die Motivation groß. Viele neigen dann dazu, übermütig Geld auszugeben. Doch genau hier sollten sich Betroffene bremsen und die Kosten so gering wie möglich halten. Denn mittlerweile gibt es zahlreiche günstigere Alternativen, als sofort einen Experten aufzusuchen, der viel Geld kostet. Wer beispielsweise sein eigenes Logo für das Geschäft erstellen möchte, muss nicht gleich zu einem Designer gehen und dafür 1.000 Euro zahlen. Dank kostenloser Programme wie Canva können Gründer eigene Logos erstellen.

Gleiches gilt für die Webseite oder den Onlineshop, die anhand von einfachen Baukastensystemen kreiert werden können. Nicht zuletzt muss ein Interessent auch nicht sofort eine GmbH oder eine andere Rechtsform gründen. Ein Lean Startup ist völlig ausreichend.

Die Anmeldung eines solchen Kleinunternehmens kostet gerade einmal 30 bis 50 Euro beim Gewerbeamt, ist steuersmart und einfach in der Regelung. Dabei sollte man sich immer vor Augen führen: Das Geld, das man an den richtigen Stellen spart, kann man nutzen, um die Selbstständigkeit erfolgreich aufzubauen und Kunden zu gewinnen.

4. Ein smartes Geschäftsmodell wählen

Bei der Überlegung, in welche Richtung ein neues Geschäft gehen soll, ist es entscheidend, die eigenen Bedürfnisse und Unzufriedenheiten im aktuellen Arbeitsverhältnis zu analysieren. Wer beispielsweise mit der ortsgebundenen Arbeit hadert und nicht ständig an einen festen Ort gebunden sein möchte, sollte ein ortsunabhängiges Geschäftsmodell in Betracht ziehen.

Für diejenigen, die Flexibilität in ihrer Arbeitszeit suchen und nicht jeden Tag zu festen Zeiten arbeiten möchten, wäre ein zeitunabhängiges Modell ideal. Möchte man jedoch etwas Langfristiges und Sicheres schaffen, sollte das Geschäftsmodell dementsprechend gewählt werden.

Ein besonders beliebtes Geschäftsmodell, das ortsunabhängig und flexibel ist, ist Dropshipping. Bei diesem Modell hält man kein eigenes Warenlager und verkauft Produkte von Zwischenhändlern, was den Aufwand und die Kosten minimiert. Die Hauptkosten liegen hier vor allem im Marketing und der Kundengewinnung, weshalb Dropshipping oft als ideale Methode angesehen wird, um nebenberuflich in die Selbständigkeit zu starten.

5. Das richtige Mindset

Der Erfolg eines Geschäfts kommt mit der Einstellung zum Aufbau. Niemand muss sich ein Business in zwei oder drei Wochen aufbauen. Viel wichtiger ist es, sich ein realistisches Ziel mit Zwischenetappen zu setzen. So könnte der Gründer sich vornehmen, in drei Monaten die ersten Schritte zu gehen und in sechs Monaten darüber ein kleines Einkommen zu verdienen. In zwölf Monaten ließe sich dann als Meilenstein festlegen, den Hauptjob zu kündigen und sich ganz dem neuen Business zu widmen. Wichtige Schlagwörter sind demnach: langfristig denken und nichts überstürzen.

5 Tipps für Firmengründer: Richtig in die Selbständigkeit starten​ Weiterlesen »

Streit um Broadcoms Lizenzpolitik eskaliert​

Allgemein

VMware-Kunden sind sauer – nach der Übernahme durch Broadcom haben sich die Virtualisierungslösungen deutlich verteuert.JHVEPhoto – shutterstock.com Voice – Bundesverband der IT-Anwender hat bei der EU-Kommission Beschwerde wegen Wettbewerbsverstößen gegen Broadcom/VMware eingereicht. Nach Auffassung des Anwenderverbandes missbrauche der IT-Anbieter seine dominante Marktstellung im Bereich Virtualisierungssoftware.   Konkret wirft Voice Broadcom vor, „mit Hilfe willkürlich zusammengestellter Produkt-Bundle im Rahmen der Umstellung von Perpetual-Licencing auf Subskription exorbitante und unfaire Preiserhöhungen durchzusetzen“. Voice berichtet unter Berufung auf direkt betroffene Unternehmen von Preissteigerungen in Höhe von mehreren hundert Prozent. Warum der Haussegen zwischen Broadcom und den VMware-Kunden so schief hängt, lesen Sie hier: Auskunftsersuchen wegen VMware: EU untersucht Broadcoms Lizenzpraktiken Slash and Burn?: Der Niedergang von VMware Kritische Analystenstimmen: Wird Broadcom die VMware-Kunden melken? Obwohl Broadcom im Vorfeld der Übernahme von VMware versprochen habe, die Preise nicht anzuheben, verursachten die Umstellung des Angebots auf zwei große Haupt-Produktbündel, die Einführung von Abonnementmodellen und die Einteilung der Kunden in Kategorien massive Preissteigerungen, hieß es in einer Mitteilung des Anwenderverbands. Kunden könnten in der Regel nicht oder nur mit hohem finanziellem und zeitlichem Aufwand zu einem anderen Anbieter von Virtualisierungssoftware wechseln. Voice sieht in diesem Verhalten einen Missbrauch der marktbeherrschenden Stellung von Broadcom. Auskunftsersuchen wegen VMware: EU untersucht Broadcoms Lizenzpraktiken “Broadcom nutzt die Abhängigkeit seiner Kunden aus” „Broadcom nutzt die Abhängigkeit seiner Kunden von den VMware-Produkten in höchst bedenklicher Weise aus“, erklärte Voice-Geschäftsführer Robin Kaufmann. „Als unabhängiger Anwenderverband, der die Interessen seiner Mitglieder vertritt, sind wir verpflichtet, gegen solche unfairen Praktiken vorzugehen.“ Man habe es zunächst im direkten Dialog mit Broadcom versucht, doch offensichtlich ohne Erfolg. „Das Unternehmen hat offensichtlich ausschließlich seine ehrgeizigen Finanzziele im Blick und interessiert sich überhaupt nicht für die Belange seiner Kunden“, so Kaufmann. Broadcom hat nur seine Finanzziele im Blick und interessiert sich nicht für die Belange seiner Kunden, wirft Voice-Geschäftsführer Robin Kaufmann dem IT-Anbieter vor.VOICE Die Anwendervertreter kritisieren insbesondere das Bundling der bisher einzeln verkauften Produkte, was zu hohen Kostensteigerungen für Anwenderunternehmen führe. In den heute verfügbaren zwei Haupt-Produktpaketen würden die bisherigen Einzelprodukte gebündelt. Einzelprodukte seien nur noch sehr eingeschränkt verfügbar. Erschwerend komme hinzu, dass Kunden immer sämtliche Produkte eines Bündels erwerben müssten, unabhängig davon, ob sie sie brauchen oder nicht. Doppelt negative Bundling-Effekte  Auch Broadcoms Preispolitik nehmen die Voice-Vertreter aufs Korn. Demzufolge richteten sich die Preise der Pakete immer am stärksten Bedarf aus. „Benötigt ein Kunde zum Beispiel deutlich mehr Lizenzen für die Servervirtualisierung als für die Speichervirtualisierung muss er trotzdem die gleiche Menge Netz-Lizenzen beziehen, wie er für die Servervirtualisierung braucht“, berichtet der Verband und spricht von doppelt negativen Bundling-Effekten: „Der Zwang, mehr Produkte zu erwerben als benötigt, führt zu einem qualitativen Bündelungseffekt. Der Zwang, mehr Lizenzen zu erwerben als benötigt, führt zu einem quantitativen Bündelungseffekt.“  Auch das Geschäftsgebaren Broadcoms kritisieren die Voice-Verantwortlichen. Kunden, deren bisherigen Lizenzverträge auslaufen, würden erheblich unter Verhandlungsdruck gesetzt. So verweigere der Anbieter seiner Kundschaft die nötige Zeit für die Umstellung beziehungsweise vertraglich vereinbarte Verlängerungsoptionen. Darüber hinaus würden Anfragen absichtlich verzögert beantwortet, damit Kunden möglichst wenig Reaktionszeit bleibe, um die von Broadcom gesetzten Fristen einzuhalten.  Unlautere Praktiken großer Anbieter schränken fairen Wettbewerb ein „Aufgrund dieser und vieler weiterer gravierender Verstöße gegen den fairen Wettbewerb hat sich Voice entschlossen, den Weg der Beschwerde bei der EU-Kommission zu gehen“, erklärte Voice-Chef Kaufmann. „Wir setzen uns ein für einen fairen Wettbewerb im Software- und Cloud-Markt, der leider immer wieder durch unlautere Praktiken großer Anbieter in Frage gestellt wird. Dagegen wollen wir uns wehren.“ Wer ebenfalls gegen die unlauteren Praktiken von Broadcom vorgehen wolle, könne sich gerne an Voice wenden.  

Streit um Broadcoms Lizenzpolitik eskaliert​ VMware-Kunden sind sauer – nach der Übernahme durch Broadcom haben sich die Virtualisierungslösungen deutlich verteuert.JHVEPhoto – shutterstock.com

Voice – Bundesverband der IT-Anwender hat bei der EU-Kommission Beschwerde wegen Wettbewerbsverstößen gegen Broadcom/VMware eingereicht. Nach Auffassung des Anwenderverbandes missbrauche der IT-Anbieter seine dominante Marktstellung im Bereich Virtualisierungssoftware.  

Konkret wirft Voice Broadcom vor, „mit Hilfe willkürlich zusammengestellter Produkt-Bundle im Rahmen der Umstellung von Perpetual-Licencing auf Subskription exorbitante und unfaire Preiserhöhungen durchzusetzen“. Voice berichtet unter Berufung auf direkt betroffene Unternehmen von Preissteigerungen in Höhe von mehreren hundert Prozent.

Warum der Haussegen zwischen Broadcom und den VMware-Kunden so schief hängt, lesen Sie hier:

Auskunftsersuchen wegen VMware: EU untersucht Broadcoms Lizenzpraktiken

Slash and Burn?: Der Niedergang von VMware

Kritische Analystenstimmen: Wird Broadcom die VMware-Kunden melken?

Obwohl Broadcom im Vorfeld der Übernahme von VMware versprochen habe, die Preise nicht anzuheben, verursachten die Umstellung des Angebots auf zwei große Haupt-Produktbündel, die Einführung von Abonnementmodellen und die Einteilung der Kunden in Kategorien massive Preissteigerungen, hieß es in einer Mitteilung des Anwenderverbands. Kunden könnten in der Regel nicht oder nur mit hohem finanziellem und zeitlichem Aufwand zu einem anderen Anbieter von Virtualisierungssoftware wechseln. Voice sieht in diesem Verhalten einen Missbrauch der marktbeherrschenden Stellung von Broadcom. Auskunftsersuchen wegen VMware: EU untersucht Broadcoms Lizenzpraktiken

“Broadcom nutzt die Abhängigkeit seiner Kunden aus”

„Broadcom nutzt die Abhängigkeit seiner Kunden von den VMware-Produkten in höchst bedenklicher Weise aus“, erklärte Voice-Geschäftsführer Robin Kaufmann. „Als unabhängiger Anwenderverband, der die Interessen seiner Mitglieder vertritt, sind wir verpflichtet, gegen solche unfairen Praktiken vorzugehen.“ Man habe es zunächst im direkten Dialog mit Broadcom versucht, doch offensichtlich ohne Erfolg. „Das Unternehmen hat offensichtlich ausschließlich seine ehrgeizigen Finanzziele im Blick und interessiert sich überhaupt nicht für die Belange seiner Kunden“, so Kaufmann.

Broadcom hat nur seine Finanzziele im Blick und interessiert sich nicht für die Belange seiner Kunden, wirft Voice-Geschäftsführer Robin Kaufmann dem IT-Anbieter vor.VOICE

Die Anwendervertreter kritisieren insbesondere das Bundling der bisher einzeln verkauften Produkte, was zu hohen Kostensteigerungen für Anwenderunternehmen führe. In den heute verfügbaren zwei Haupt-Produktpaketen würden die bisherigen Einzelprodukte gebündelt. Einzelprodukte seien nur noch sehr eingeschränkt verfügbar. Erschwerend komme hinzu, dass Kunden immer sämtliche Produkte eines Bündels erwerben müssten, unabhängig davon, ob sie sie brauchen oder nicht.

Doppelt negative Bundling-Effekte 

Auch Broadcoms Preispolitik nehmen die Voice-Vertreter aufs Korn. Demzufolge richteten sich die Preise der Pakete immer am stärksten Bedarf aus. „Benötigt ein Kunde zum Beispiel deutlich mehr Lizenzen für die Servervirtualisierung als für die Speichervirtualisierung muss er trotzdem die gleiche Menge Netz-Lizenzen beziehen, wie er für die Servervirtualisierung braucht“, berichtet der Verband und spricht von doppelt negativen Bundling-Effekten: „Der Zwang, mehr Produkte zu erwerben als benötigt, führt zu einem qualitativen Bündelungseffekt. Der Zwang, mehr Lizenzen zu erwerben als benötigt, führt zu einem quantitativen Bündelungseffekt.“ 

Auch das Geschäftsgebaren Broadcoms kritisieren die Voice-Verantwortlichen. Kunden, deren bisherigen Lizenzverträge auslaufen, würden erheblich unter Verhandlungsdruck gesetzt. So verweigere der Anbieter seiner Kundschaft die nötige Zeit für die Umstellung beziehungsweise vertraglich vereinbarte Verlängerungsoptionen. Darüber hinaus würden Anfragen absichtlich verzögert beantwortet, damit Kunden möglichst wenig Reaktionszeit bleibe, um die von Broadcom gesetzten Fristen einzuhalten. 

Unlautere Praktiken großer Anbieter schränken fairen Wettbewerb ein

„Aufgrund dieser und vieler weiterer gravierender Verstöße gegen den fairen Wettbewerb hat sich Voice entschlossen, den Weg der Beschwerde bei der EU-Kommission zu gehen“, erklärte Voice-Chef Kaufmann. „Wir setzen uns ein für einen fairen Wettbewerb im Software- und Cloud-Markt, der leider immer wieder durch unlautere Praktiken großer Anbieter in Frage gestellt wird. Dagegen wollen wir uns wehren.“ Wer ebenfalls gegen die unlauteren Praktiken von Broadcom vorgehen wolle, könne sich gerne an Voice wenden. 

Streit um Broadcoms Lizenzpolitik eskaliert​ Weiterlesen »

ServiceNow nimmt Salesforce ins Visier​

Allgemein

Mit einem stärkeren Fokus auf den Kunden will ServiceNow Salesforce & Co. im CRM-Bereich Marktanteile abjagen.Foundry ServiceNow hat mit einer Reihe neuer, KI-gestützter Funktionen einen großen Schritt in den Markt für Kundenbeziehungsmanagement (CRM) gewagt. Der Spezialist für Workflow-Automatisierung hatte bereits Ende Januar seinen Einstieg in den CRM-Bereich bekanntgegeben. Auf seiner Hausmesse Knowledge 2025 stellte er nun aber in dieser Woche mehrere neue Funktionen vor, die in direkter Konkurrenz zum CRM-Giganten Salesforce stehen.  Schon Ende 2024, als Gerüchte über ServiceNow CRM-Pläne aufkamen, sah sich Salesforce-CEO Marc Benioff in Jim Cramers Mad Money Show veranlasst, ServiceNow in Anspielung auf die Fast-Food-Ketten als „Wiener Schnitzel“ im Vergleich zu Salesforce („McDonald’s“) zu bezeichnen.  Die Antwort ließ nicht lange auf sich warten: Vor kurzem veröffentlichte ServiceNow-CEO Bill McDermott einen Artikel auf LinkedIn, in dem er darauf hinwies, dass sich Salesforce auf die Auswirkungen von ServiceNow’s Vorstoßes in diesen Bereich „vorbereite“. Gleichzeitig fügte er hinzu, dass ServiceNow „nicht nur CRM verbessere, sondern es als KI-Plattform für die Transformation von Unternehmen neu definiere“.  Wenig später tätigte die Company mit der Übernahme des KI-Plattformunternehmens Moveworks für 2,85 Milliarden Dollar seine bislang größte Akquisition, die als entscheidender Schritt in Richtung dieses Ziels angesehen wird.  Das CRM-Angebot von ServiceNow  Das CRM-Produkt von ServiceNow umfasst laut Angaben des Unternehmens Vertriebs- und Ordermanagement, Field-Service-Management sowie Customer-Service-Management und erweitert das bisherige CRM-Angebot durch KI-gestützte Automatisierung und einen einheitlichen Plattformansatz.  Wie Manager von ServiceNow betonen, positioniert sich das Unternehmen damit gegenüber aktuellen CRMs, die sich nur auf einen Teil der Customer Journey beschränkten – ohne, Salesforce namentlich zu erwähnen.  „Traditionelle CRM-Systeme legen den Schwerpunkt auf die Vertriebsunterstützung, während ServiceNow sich darauf konzentriert, Vertrieb, Service und Produktabwicklung auf einer Plattform zu verbinden“, so Terence Chesire, Vice President of CRM and Industry Workflows bei ServiceNow. Traditionelle CRMs hätten oft versäumt, bessere Kundenerlebnisse zu schaffen, fügt er hinzu.  „Über ein Jahrzehnt lang versprachen alteingesessene CRM-Anbieter eine Welt, in der eine 360-Grad-Sicht und Omnichannel der Heilige Gral waren und man nur Sprach-, Web-, E-Mail-, Chat- und Messaging-Dienste anbieten musste, um Wunder zu vollbringen“, erklärt er. “Aber das ist nicht geschehen.“  Omnichannel-Kundenkommunikation sei wichtig, aber nur die halbe Miete, wenn frustrierende Chatbots und überlastete Mitarbeiter ein weniger als zufriedenstellendes Kundenerlebnis bieten, fügt Chesire hinzu.  „Die andere Hälfte der Geschichte ist, wie Sie die wirklichen Schwachstellen im Kundenerlebnis beheben“, betont der ServiceNow-Manager. “Im Kundenservice brauchen Sie mehr als nur eine hervorragende Omnichannel-Erfassung von Anfragen. Sie müssen auch den schwierigen Teil, nämlich die Lösung und das Fulfillment, koordinieren und automatisieren.“  Fokus auf Kundenservice und Kundenbindung  ServiceNows Expansion in den CRM-Markt wird von einigen Experten und Analysten begrüßt. „Das Unternehmen ist tief im Kundenservice verwurzelt, während einige andere CRM-Anbieter mit einem Fokus auf Vertriebsautomatisierung in den Markt eingetreten sind“, erklärt Chuck Schaeffer, Geschäftsführer von Johnny Grow, einer Unternehmensberatung. ServiceNow habe die seltene Gelegenheit, ein ganzheitlicheres CRM-System anzubieten, fügt er hinzu.  Viele der langjährigen CRM-Produkte hätten mehrere starke Verkaufsargumente, darunter Flexibilität und Benutzerfreundlichkeit, aber sie würden in der Regel interne Vorteile für ihre Nutzer bieten, so Schaeffer weiter.  „CRM wurde entwickelt, um Prozesse zu rationalisieren, die Produktivität zu verbessern und Automatisierung zu erreichen“, so der langjährige CRM-Experte. “Das sind sicherlich alles gute Dinge, aber nur wenige oder gar keine dieser Funktionen inspirieren Kunden dazu, ihre Beziehungen zu Lieferanten auszubauen.“ Moderne CRMs sollten lohnende Kundenerlebnisse bieten und Kundenbeziehungen aufbauen, fügt er hinzu.  „ServiceNow strebt seit mehreren Jahren eine Expansion in den CRM-Bereich an, der ein enormes Wachstumspotenzial bietet“, so Andrew Miljanovski, Vice President Advisor im Team für Sourcing-, Procurement- und Vendor-Management bei Gartner.  Vom System of Records zum System of Action  Das Unternehmen positioniert sich nun als KI-gesteuerte „Plattform der Plattformen“, auf der mehrere Unternehmenssysteme, darunter ITSM, IT Operations Management, Contract Lifecycle Management, HR-Lösungen und nun auch CRM, bei Bedarf zusammenarbeiten, so Miljanovski.   Dem Gartner-Analysten zufolge hat das traditionelle CRM nicht alle seine Versprechen gehalten. „Viele Unternehmen haben einen Rückgang der Qualität festgestellt“, erklärt er. „Es sind viele Mitarbeiter erforderlich, die vier Anwendungen nutzen müssen, um Probleme zu lösen.“  In einigen Fällen verbrächten Vertriebsmitarbeiter mehr Zeit im CRM-Arbeitsbereich als mit dem Verkauf an potenzielle Kunden, aber zusätzliche KI-Funktionen könnten helfen, das Problem zu lösen.  „Die Zukunft von CRM liegt in einer Kombination aus KI, Daten und Workflows“, so Miljanovski. “Traditionell war CRM ein System zur Datenerfassung, aber ServiceNow ist stolz darauf, ein System zum Handeln zu sein, das sich mit vielen Datenerfassungssystemen verbinden kann, wobei der Workflow – und das ist das Besondere an ServiceNow – auf der Handlungsebene stattfindet.“  Einheitliche Plattform und Datenmodell könnten einen Vorteil bieten  „Der Vorteil von ServiceNow ist eine einheitliche Plattform, die unzusammenhängende IT-Services reduzieren kann“, bestätigt Stephen Elliot, Group Vice President für Infrastruktur und Betrieb, Cloud-Betrieb und DevOps bei IDC.  „Die Ausführung mehrerer IT-bezogener Dienste auf einer Plattform kann CIOs das Leben erleichtern“, fügt er hinzu. Viele IT-Führungskräfte möchten ihre IT-Abläufe, das Asset Management und andere zentrale IT-Prozesse vereinfachen und funktionaler gestalten.  „Es geht wirklich um die Daten, und ServiceNow hat Zugriff auf all diese Daten und verfügt über ein einheitliches Datenmodell“, so der IDC-Analyst. “Man kann sich vorstellen, dass diese Prozesse mit zunehmender Intelligenz und Automatisierung auch die Geschwindigkeit dieser Business-Architekturen erhöhen.“ (mb) 

ServiceNow nimmt Salesforce ins Visier​ Mit einem stärkeren Fokus auf den Kunden will ServiceNow Salesforce & Co. im CRM-Bereich Marktanteile abjagen.Foundry

ServiceNow hat mit einer Reihe neuer, KI-gestützter Funktionen einen großen Schritt in den Markt für Kundenbeziehungsmanagement (CRM) gewagt. Der Spezialist für Workflow-Automatisierung hatte bereits Ende Januar seinen Einstieg in den CRM-Bereich bekanntgegeben. Auf seiner Hausmesse Knowledge 2025 stellte er nun aber in dieser Woche mehrere neue Funktionen vor, die in direkter Konkurrenz zum CRM-Giganten Salesforce stehen. 

Schon Ende 2024, als Gerüchte über ServiceNow CRM-Pläne aufkamen, sah sich Salesforce-CEO Marc Benioff in Jim Cramers Mad Money Show veranlasst, ServiceNow in Anspielung auf die Fast-Food-Ketten als „Wiener Schnitzel“ im Vergleich zu Salesforce („McDonald’s“) zu bezeichnen. 

Die Antwort ließ nicht lange auf sich warten: Vor kurzem veröffentlichte ServiceNow-CEO Bill McDermott einen Artikel auf LinkedIn, in dem er darauf hinwies, dass sich Salesforce auf die Auswirkungen von ServiceNow’s Vorstoßes in diesen Bereich „vorbereite“. Gleichzeitig fügte er hinzu, dass ServiceNow „nicht nur CRM verbessere, sondern es als KI-Plattform für die Transformation von Unternehmen neu definiere“. 

Wenig später tätigte die Company mit der Übernahme des KI-Plattformunternehmens Moveworks für 2,85 Milliarden Dollar seine bislang größte Akquisition, die als entscheidender Schritt in Richtung dieses Ziels angesehen wird. 

Das CRM-Angebot von ServiceNow 

Das CRM-Produkt von ServiceNow umfasst laut Angaben des Unternehmens Vertriebs- und Ordermanagement, Field-Service-Management sowie Customer-Service-Management und erweitert das bisherige CRM-Angebot durch KI-gestützte Automatisierung und einen einheitlichen Plattformansatz. 

Wie Manager von ServiceNow betonen, positioniert sich das Unternehmen damit gegenüber aktuellen CRMs, die sich nur auf einen Teil der Customer Journey beschränkten – ohne, Salesforce namentlich zu erwähnen. 

„Traditionelle CRM-Systeme legen den Schwerpunkt auf die Vertriebsunterstützung, während ServiceNow sich darauf konzentriert, Vertrieb, Service und Produktabwicklung auf einer Plattform zu verbinden“, so Terence Chesire, Vice President of CRM and Industry Workflows bei ServiceNow. Traditionelle CRMs hätten oft versäumt, bessere Kundenerlebnisse zu schaffen, fügt er hinzu. 

„Über ein Jahrzehnt lang versprachen alteingesessene CRM-Anbieter eine Welt, in der eine 360-Grad-Sicht und Omnichannel der Heilige Gral waren und man nur Sprach-, Web-, E-Mail-, Chat- und Messaging-Dienste anbieten musste, um Wunder zu vollbringen“, erklärt er. “Aber das ist nicht geschehen.“ 

Omnichannel-Kundenkommunikation sei wichtig, aber nur die halbe Miete, wenn frustrierende Chatbots und überlastete Mitarbeiter ein weniger als zufriedenstellendes Kundenerlebnis bieten, fügt Chesire hinzu. 

„Die andere Hälfte der Geschichte ist, wie Sie die wirklichen Schwachstellen im Kundenerlebnis beheben“, betont der ServiceNow-Manager. “Im Kundenservice brauchen Sie mehr als nur eine hervorragende Omnichannel-Erfassung von Anfragen. Sie müssen auch den schwierigen Teil, nämlich die Lösung und das Fulfillment, koordinieren und automatisieren.“ 

Fokus auf Kundenservice und Kundenbindung 

ServiceNows Expansion in den CRM-Markt wird von einigen Experten und Analysten begrüßt. „Das Unternehmen ist tief im Kundenservice verwurzelt, während einige andere CRM-Anbieter mit einem Fokus auf Vertriebsautomatisierung in den Markt eingetreten sind“, erklärt Chuck Schaeffer, Geschäftsführer von Johnny Grow, einer Unternehmensberatung. ServiceNow habe die seltene Gelegenheit, ein ganzheitlicheres CRM-System anzubieten, fügt er hinzu. 

Viele der langjährigen CRM-Produkte hätten mehrere starke Verkaufsargumente, darunter Flexibilität und Benutzerfreundlichkeit, aber sie würden in der Regel interne Vorteile für ihre Nutzer bieten, so Schaeffer weiter. 

„CRM wurde entwickelt, um Prozesse zu rationalisieren, die Produktivität zu verbessern und Automatisierung zu erreichen“, so der langjährige CRM-Experte. “Das sind sicherlich alles gute Dinge, aber nur wenige oder gar keine dieser Funktionen inspirieren Kunden dazu, ihre Beziehungen zu Lieferanten auszubauen.“ Moderne CRMs sollten lohnende Kundenerlebnisse bieten und Kundenbeziehungen aufbauen, fügt er hinzu. 

„ServiceNow strebt seit mehreren Jahren eine Expansion in den CRM-Bereich an, der ein enormes Wachstumspotenzial bietet“, so Andrew Miljanovski, Vice President Advisor im Team für Sourcing-, Procurement- und Vendor-Management bei Gartner. 

Vom System of Records zum System of Action 

Das Unternehmen positioniert sich nun als KI-gesteuerte „Plattform der Plattformen“, auf der mehrere Unternehmenssysteme, darunter ITSM, IT Operations Management, Contract Lifecycle Management, HR-Lösungen und nun auch CRM, bei Bedarf zusammenarbeiten, so Miljanovski.  

Dem Gartner-Analysten zufolge hat das traditionelle CRM nicht alle seine Versprechen gehalten. „Viele Unternehmen haben einen Rückgang der Qualität festgestellt“, erklärt er. „Es sind viele Mitarbeiter erforderlich, die vier Anwendungen nutzen müssen, um Probleme zu lösen.“ 

In einigen Fällen verbrächten Vertriebsmitarbeiter mehr Zeit im CRM-Arbeitsbereich als mit dem Verkauf an potenzielle Kunden, aber zusätzliche KI-Funktionen könnten helfen, das Problem zu lösen. 

„Die Zukunft von CRM liegt in einer Kombination aus KI, Daten und Workflows“, so Miljanovski. “Traditionell war CRM ein System zur Datenerfassung, aber ServiceNow ist stolz darauf, ein System zum Handeln zu sein, das sich mit vielen Datenerfassungssystemen verbinden kann, wobei der Workflow – und das ist das Besondere an ServiceNow – auf der Handlungsebene stattfindet.“ 

Einheitliche Plattform und Datenmodell könnten einen Vorteil bieten 

„Der Vorteil von ServiceNow ist eine einheitliche Plattform, die unzusammenhängende IT-Services reduzieren kann“, bestätigt Stephen Elliot, Group Vice President für Infrastruktur und Betrieb, Cloud-Betrieb und DevOps bei IDC. 

„Die Ausführung mehrerer IT-bezogener Dienste auf einer Plattform kann CIOs das Leben erleichtern“, fügt er hinzu. Viele IT-Führungskräfte möchten ihre IT-Abläufe, das Asset Management und andere zentrale IT-Prozesse vereinfachen und funktionaler gestalten. 

„Es geht wirklich um die Daten, und ServiceNow hat Zugriff auf all diese Daten und verfügt über ein einheitliches Datenmodell“, so der IDC-Analyst. “Man kann sich vorstellen, dass diese Prozesse mit zunehmender Intelligenz und Automatisierung auch die Geschwindigkeit dieser Business-Architekturen erhöhen.“ (mb)

ServiceNow nimmt Salesforce ins Visier​ Weiterlesen »

Die KI-Metamorphose von Mastercard​

Allgemein

Künstliche Intelligenz ist bei Mastercard (schon länger) gesetzt.ArDanMe | shutterstock.com Wenn ich an die Technologie denke, mit der wir zu Beginn meiner Karriere gearbeitet haben, und mir anschaue, was wir seitdem erreicht haben, ist das wirklich erstaunlich – eine von Technologie getriebene, globale Transformation. Als ich im Jahr 2005 bei Mastercard angefangen habe, war das Unternehmen in erster Linie für seine Plastikkarten bekannt. Damals hatte Mastercard rund 3.500 Mitarbeiter und eine Marktkapitalisierung von vier Milliarden Dollar. Heute macht der Konzern einen jährlichen Umsatz in Höhe von 450 Milliarden Dollar und beschäftigt weltweit mehr als 35.000 Mitarbeiter. Das ist im Wesentlichen nicht Technologie zu verdanken, sondern unseren Menschen, deren transformative Arbeit vor kurzem auch mit einem CIO 100 Award honoriert wurde. Im Kern unseres Erfolgs steht Customer Excellence – und die wird in erster Linie durch den Einsatz von künstlicher Intelligenz (KI) getrieben. In diesem Artikel gebe ich einen kurzen Überblick über unsere KI-Journey.  Komplexe Probleme, einfache Lösungen Mit dem Wachstum des Unternehmens haben wir erkannt, dass wir neue Technologien einsetzen müssen, um unsere traditionellen Kundenserviceprozesse zu modernisieren und diese an unsere externen, marktorientierten Innovationen anzupassen. Unsere B2B-Kundenserviceteams bearbeiten jährlich etwa 700.000 Support-Fälle, die über verschiedene Kanäle einfließen. Da ständig neue Kunden hinzukommen und weitere Mastercard-Dienstleistungen und -Produkte online gehen, rechnen wir damit, dass sich das Volumen der Support-Fälle im Jahr 2025 auf eine Million steigern wird. Die unstrukturierten Informationen, die dabei anfallen, müssen so schnell wie möglich an die richtigen Mitarbeiter des Customer-Experience-Teams weitergeleitet werden. Das ist aus Kundensicht ein entscheidender Moment: Je schneller wir das Problem lösen können, desto besser die Kundenerfahrung. Mithilfe von Machine Learning und KI lassen sich die Probleme der Kunden in vielen Fällen treffsicher vorhersagen – und der jeweilige Fall schnell und effektiv an den richtigen Mitarbeiter weiterleiten. So entfällt nicht nur kostenintensive und zeitaufwändige manuelle Arbeit, die durchschnittliche Zeit, um die Kundenprobleme zu lösen lässt sich ebenfalls reduzieren. So haben unsere Mitarbeiter mehr Zeit und Energie für Problemlösungs-Tasks und können letztendlich qualitativ hochwertigere Services anbieten. Das steigert nicht nur die Kundenzufriedenheit, sondern auch die Performance und Zufriedenheit unserer Experten. Ed McLaughlin ist seit 2016 President und Chief Technology Officer bei Mastercard.Ed McLaughlin Neben diesem mit dem CIO 100 Award prämierten Projekt setzen wir bei Mastercard KI auch zur Betrugsbekämpfung ein. Dafür haben wir ein neues Tool namens „Authorization Optimizer“ entwickelt. Dabei handelt es sich um ein KI-basiertes System, das sowohl generative Techniken als auch maschinelles Lernen nutzt. Es analysiert, warum eine Transaktion abgelehnt wurde – und spricht eine Empfehlung aus, wann ein neuer Versuch unternommen werden sollte. Im Jahr 2024 wurden insgesamt acht Milliarden Transaktionen mit einem Gesamtumsatz von 27 Milliarden Dollar über unser Netzwerk abgewickelt. Das wäre auf manueller Basis und ohne den Einsatz von künstlicher Intelligenz nicht möglich gewesen. Die Innovationschance für Finanzdienstleister Wer drängende geschäftliche Herausforderungen mit KI lösen möchte, muss wissen, welches Problem er lösen will – und zwar bestenfalls auf eine Art und Weise, die bisher nicht zu realisieren war. KI ist dabei allerdings nicht nur ein System, das man einmal einrichtet und dann vergessen kann: Vielmehr handelt es sich um eine dynamische Umgebung, in der die Inputs die Ergebnisse beeinflussen. Zudem muss man die Technologie aber auch überwachen – und verstehen, wie sie funktioniert. Unternehmen und ihre Teams müssen vor allem weiter testen und lernen. Es gilt, verschiedene KI-Betriebsmodelle auszuprobieren, um das zu identifizieren, das den jeweiligen Unternehmensanforderungen am besten entspricht. Speziell für Finanzdienstleister und -institute bieten KI-Innovationen die Chance, bessere Services bereitzustellen und ihre Produkte effizienter zu managen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die KI-Metamorphose von Mastercard​ Künstliche Intelligenz ist bei Mastercard (schon länger) gesetzt.ArDanMe | shutterstock.com

Wenn ich an die Technologie denke, mit der wir zu Beginn meiner Karriere gearbeitet haben, und mir anschaue, was wir seitdem erreicht haben, ist das wirklich erstaunlich – eine von Technologie getriebene, globale Transformation.

Als ich im Jahr 2005 bei Mastercard angefangen habe, war das Unternehmen in erster Linie für seine Plastikkarten bekannt. Damals hatte Mastercard rund 3.500 Mitarbeiter und eine Marktkapitalisierung von vier Milliarden Dollar. Heute macht der Konzern einen jährlichen Umsatz in Höhe von 450 Milliarden Dollar und beschäftigt weltweit mehr als 35.000 Mitarbeiter. Das ist im Wesentlichen nicht Technologie zu verdanken, sondern unseren Menschen, deren transformative Arbeit vor kurzem auch mit einem CIO 100 Award honoriert wurde.

Im Kern unseres Erfolgs steht Customer Excellence – und die wird in erster Linie durch den Einsatz von künstlicher Intelligenz (KI) getrieben. In diesem Artikel gebe ich einen kurzen Überblick über unsere KI-Journey. 

Komplexe Probleme, einfache Lösungen

Mit dem Wachstum des Unternehmens haben wir erkannt, dass wir neue Technologien einsetzen müssen, um unsere traditionellen Kundenserviceprozesse zu modernisieren und diese an unsere externen, marktorientierten Innovationen anzupassen.

Unsere B2B-Kundenserviceteams bearbeiten jährlich etwa 700.000 Support-Fälle, die über verschiedene Kanäle einfließen. Da ständig neue Kunden hinzukommen und weitere Mastercard-Dienstleistungen und -Produkte online gehen, rechnen wir damit, dass sich das Volumen der Support-Fälle im Jahr 2025 auf eine Million steigern wird. Die unstrukturierten Informationen, die dabei anfallen, müssen so schnell wie möglich an die richtigen Mitarbeiter des Customer-Experience-Teams weitergeleitet werden. Das ist aus Kundensicht ein entscheidender Moment: Je schneller wir das Problem lösen können, desto besser die Kundenerfahrung.

Mithilfe von Machine Learning und KI lassen sich die Probleme der Kunden in vielen Fällen treffsicher vorhersagen – und der jeweilige Fall schnell und effektiv an den richtigen Mitarbeiter weiterleiten. So entfällt nicht nur kostenintensive und zeitaufwändige manuelle Arbeit, die durchschnittliche Zeit, um die Kundenprobleme zu lösen lässt sich ebenfalls reduzieren. So haben unsere Mitarbeiter mehr Zeit und Energie für Problemlösungs-Tasks und können letztendlich qualitativ hochwertigere Services anbieten. Das steigert nicht nur die Kundenzufriedenheit, sondern auch die Performance und Zufriedenheit unserer Experten.

Ed McLaughlin ist seit 2016 President und Chief Technology Officer bei Mastercard.Ed McLaughlin

Neben diesem mit dem CIO 100 Award prämierten Projekt setzen wir bei Mastercard KI auch zur Betrugsbekämpfung ein. Dafür haben wir ein neues Tool namens „Authorization Optimizer“ entwickelt. Dabei handelt es sich um ein KI-basiertes System, das sowohl generative Techniken als auch maschinelles Lernen nutzt. Es analysiert, warum eine Transaktion abgelehnt wurde – und spricht eine Empfehlung aus, wann ein neuer Versuch unternommen werden sollte.

Im Jahr 2024 wurden insgesamt acht Milliarden Transaktionen mit einem Gesamtumsatz von 27 Milliarden Dollar über unser Netzwerk abgewickelt. Das wäre auf manueller Basis und ohne den Einsatz von künstlicher Intelligenz nicht möglich gewesen.

Die Innovationschance für Finanzdienstleister

Wer drängende geschäftliche Herausforderungen mit KI lösen möchte, muss wissen, welches Problem er lösen will – und zwar bestenfalls auf eine Art und Weise, die bisher nicht zu realisieren war. KI ist dabei allerdings nicht nur ein System, das man einmal einrichtet und dann vergessen kann: Vielmehr handelt es sich um eine dynamische Umgebung, in der die Inputs die Ergebnisse beeinflussen. Zudem muss man die Technologie aber auch überwachen – und verstehen, wie sie funktioniert.

Unternehmen und ihre Teams müssen vor allem weiter testen und lernen. Es gilt, verschiedene KI-Betriebsmodelle auszuprobieren, um das zu identifizieren, das den jeweiligen Unternehmensanforderungen am besten entspricht. Speziell für Finanzdienstleister und -institute bieten KI-Innovationen die Chance, bessere Services bereitzustellen und ihre Produkte effizienter zu managen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die KI-Metamorphose von Mastercard​ Weiterlesen »

IT Asset Management neu gedacht – dank KI​

Allgemein

IT-Ressourcen und der Softwarebestand in Unternehmen bilden das technologische Rückgrat für die gesamte Organisation. Eine effiziente Verwaltung und Kontrolle der einzelnen Assets ist entscheidend, damit etwa Lizenzen nicht zur Kostenfalle, Software nicht zum Sicherheitsrisiko und Software-Audits nicht zur Compliance-Katastrophe werden. Tools wie IT Asset Management (ITAM) und Software Asset Management (SAM) können hier helfen, IT-Assets (wie Hardware, Software, Netzwerke und Lizenzen) über ihren gesamten Lebenszyklus – von der Beschaffung bis zur Entsorgung – systematisch zu erfassen, verwalten und zu kontrollieren. Doch die Herausforderungen für Firmen bei ITAM und SAM sind enorm: Hybride Multi-Cloud-Umgebungen nehmen zu, das führt zu immer mehr Komplexität und mehr Aufwand – und steigert die Notwendigkeit, jederzeit den Überblick zu behalten. Gleichzeitig wächst der Kostendruck in der IT und wirtschaftliche Unsicherheiten und geopolitische Spannungen machen es wichtiger denn je, die IT-Ausgaben in Echtzeit zu kontrollieren. Doch lässt sich das realisieren? Auch hier bietet Künstliche Intelligenz völlig neue Ansätze und stellt damit einen Gamechangerin IT Asset Management dar. Ein COMPUTERWOCHE-Webcast in Zusammenarbeit mit USU zeigt, wie KI und maschinelles Lernen das ITAM grundlegend verändern. Die Lösungen von USU liefern in Sekunden ein aktuelles Inventory, reduzieren manuelle Arbeit und ermöglichen echte Kostentransparenz. Olaf Diehl und Daniel Fink von USU erläutern, wie Sie Ihre IT-Strategie smart aussteuern und gleichzeitig Einsparungen realisieren können. Die beiden Experten erklären außerdem, wie Chatbots und Automatisierung das Tagesgeschäft vereinfachen und wie Sie Abläufe beschleunigen und effizienter gestalten können. Die Moderation des Webcasts übernimmt der Fachjournalist Dr. Oliver Janzen. Webcast: KI-basiertes IT Asset ManagementErfahren Sie im COMPUTERWOCHE-Webcast, wie Sie Ihr ITAM mithilfe von KI und maschinellem Lernen auf neue Beine stellen.Registrieren Sie sich jetzt 

IT Asset Management neu gedacht – dank KI​ IT-Ressourcen und der Softwarebestand in Unternehmen bilden das technologische Rückgrat für die gesamte Organisation. Eine effiziente Verwaltung und Kontrolle der einzelnen Assets ist entscheidend, damit etwa Lizenzen nicht zur Kostenfalle, Software nicht zum Sicherheitsrisiko und Software-Audits nicht zur Compliance-Katastrophe werden. Tools wie IT Asset Management (ITAM) und Software Asset Management (SAM) können hier helfen, IT-Assets (wie Hardware, Software, Netzwerke und Lizenzen) über ihren gesamten Lebenszyklus – von der Beschaffung bis zur Entsorgung – systematisch zu erfassen, verwalten und zu kontrollieren.

Doch die Herausforderungen für Firmen bei ITAM und SAM sind enorm: Hybride Multi-Cloud-Umgebungen nehmen zu, das führt zu immer mehr Komplexität und mehr Aufwand – und steigert die Notwendigkeit, jederzeit den Überblick zu behalten. Gleichzeitig wächst der Kostendruck in der IT und wirtschaftliche Unsicherheiten und geopolitische Spannungen machen es wichtiger denn je, die IT-Ausgaben in Echtzeit zu kontrollieren. Doch lässt sich das realisieren? Auch hier bietet Künstliche Intelligenz völlig neue Ansätze und stellt damit einen Gamechangerin IT Asset Management dar.

Ein COMPUTERWOCHE-Webcast in Zusammenarbeit mit USU zeigt, wie KI und maschinelles Lernen das ITAM grundlegend verändern. Die Lösungen von USU liefern in Sekunden ein aktuelles Inventory, reduzieren manuelle Arbeit und ermöglichen echte Kostentransparenz. Olaf Diehl und Daniel Fink von USU erläutern, wie Sie Ihre IT-Strategie smart aussteuern und gleichzeitig Einsparungen realisieren können. Die beiden Experten erklären außerdem, wie Chatbots und Automatisierung das Tagesgeschäft vereinfachen und wie Sie Abläufe beschleunigen und effizienter gestalten können. Die Moderation des Webcasts übernimmt der Fachjournalist Dr. Oliver Janzen.

Webcast: KI-basiertes IT Asset ManagementErfahren Sie im COMPUTERWOCHE-Webcast, wie Sie Ihr ITAM mithilfe von KI und maschinellem Lernen auf neue Beine stellen.Registrieren Sie sich jetzt

IT Asset Management neu gedacht – dank KI​ Weiterlesen »

9 Unsitten, die Entwickler nicht ablegen können​

Allgemein

Laster, die eigentlich keine sind, sollte man möglicherweise nicht ablegen. Foto: Anton Vierietin | shutterstock.com Softwareentwickler haben eine merkwürdige Beziehung zu Regelwerken. Einerseits ist Programmcode quasi ein riesiger Haufen von Regeln, der von pflichtbewussten maschinellen Gatekeepern immer und immer wieder durchgesetzt wird. Allerdings gibt es da noch einen anderen Layer von Regeln, die weniger sakrosankt, sondern vielmehr äußerst flexibel sind: die Regeln, die Entwickler an sich selbst anlegen, beziehungsweise an das, was sie tun. Wobei es per se nichts Schlechtes ist, mit bewährten Regeln auch einmal zu brechen. Zum Beispiel, wenn letztere hoffnungslos veraltet oder von vorneherein unausgegoren sind. Manche vermeintliche Unsitte kann dabei unter Umständen auch zum Vorteil gereichen. Zum Beispiel die folgenden neun. 1. Kommentarloser Code Dass undokumentierter Code ein Alptraum ist, wenn man ihn verstehen will oder Fehler sucht, ist bekannt. Darum wird auch in jedem Dev-Seminar beständig vermittelt, dass sinnvolle Code-Kommentare unerlässlich sind. Der Programmierstil des “Literate Programming” kombiniert sogar Code und natürliche Sprache – und wurde von Don Knuth erfunden, einem der größten Developer überhaupt. Die traurige Wahrheit: Manchmal machen Code-Kommentare alles nur noch schlimmer. Zum Beispiel, wenn der Eindruck entsteht, dass Programmcode und Dokumentation nur rudimentär etwas miteinander zu tun haben. Eventuell hat ein Programmierer auch einen kritischen Patch eingefügt und vergessen, das Dokumentations-Team darüber zu informieren. Vielleicht weiß letzteres auch darum, konnte sich aber bislang noch nicht dazu durchringen, die Kommentare zu aktualisieren. Im Alltag kommen viele weitere Probleme hinzu, beispielsweise, wenn Kommentare in Fremdsprachen verfasst oder schlicht nicht korrekt sind. Im Umkehrschluss gehen einige Entwickler davon aus, dass das beste Mittel gegen nutzlose Kommentare sei, diese möglichst spärlich zu verwenden – oder gar nicht. Stattdessen ziehen diese Devs es vor, einfache, kürzere Funktionen zu schreiben, die längere, beschreibende Variablennamen verwenden. 2. Langsamer Code Wenn Sie schnellen Code wollen, gestalten Sie ihn einfach. Wenn er wirklich schnell sein soll, komplex. Mit Blick auf diesen Task den richtigen “Sweet Spot” zu finden, ist gar nicht so einfach. Wie so oft gilt es, einen Kompromiss zu finden: Ganz allgemein sollen Programme möglichst schnell sein. Dabei kann Komplexität ein wesentliches Hindernis darstellen, wenn diese niemand mehr durchdringen kann. Wenn es also nicht unbedingt auf Speed ankommt, kann es durchaus sinnvoll sein, etwas langsameren, dafür aber leicht verständlichen Programmcode zu schreiben. 3. Code-Mode Manche Entwickler haben eine ausgeprägte Vorliebe für Dinge wie die neuen Operatoren in JavaScript (etwa die Ellipsis), weil der resultierende Code in ihren Augen prägnanter und damit besser ist. Ob das aber auch in jedem Fall leichter zu verstehen ist, darf bezweifelt werden. Das erfordert nämlich erst einmal, sich mit diesen Operatoren vertraut zu machen. Statt also den Code schnell und gründlich überfliegen zu können, wird daraus eine lästige, einnehmende Pflicht. Es gibt auch historische Belege dafür, dass prägnanterer Code nicht unbedingt populär ist. Nicht umsonst sind Sprachen wie APL, die dank benutzerdefinierter Symbolik besonders effizient und prägnant sein sollte, im Wesentlichen verschwunden. Sprachen wie Python, die auf geschweifte Klammern vollständig verzichten, erfreuen sich hingegen zunehmender Beliebtheit. 4. Abstraktionen Clevere Abstraktionen, die spezifische Probleme schneller lösen, sind in vielen Programmiersprachen gang und gäbe. Manche Sprachen sind dabei dermaßen mit Abstraktionen überfrachtet, dass ihre Handbücher im Resultat mehr als tausend Seiten füllen. Diese Funktionen wann immer möglich zu verwenden, ist in den Augen mancher Gesetz. Das Problem in der Praxis ist allerdings, dass zu viele Funktionen schnell Verwirrung stiften können. Und inzwischen existieren so viele syntaktische Kniffe, dass sie kein Dev der Welt mehr alle beherrschen kann. Und warum sollte man das auch? Wie viele Möglichkeiten brauchen wir, um auf Nullwerte zu testen oder Inheritance in mehreren Dimensionen zu ermöglichen? Es gibt jedoch auch Gegenbewegungen: Die Schöpfer von Go haben sich etwa zum Ziel gesetzt, eine Sprache zu entwickeln, die in erster Linie besonders schnell zu erlernen ist. Die Grundvoraussetzung dafür: Alle im Team mussten in der Lage sein, den gesamten Code zu lesen und zu verstehen. 5. DIY-Code Effizienzexperten empfehlen gerne, das Rad nicht neu zu erfinden, sondern sich auf bewährte Bibliotheken und Legacy-Code zu verlassen. In manchen Fällen kann ein neuer Ansatz jedoch durchaus sinnvoll sein. Schließlich sind Standard-Bibliotheken im Regelfall für alltägliche Use Cases gemacht. Bei spezifischen Anwendungsfällen, in denen diese Bibliotheken eher einen Flaschenhals darstellen, können schon ein paar individuelle Code-Zeilen respektive Ersatzfunktionen dafür sorgen, dass alles deutlich schneller abläuft. Natürlich gibt es aber auch Fälle, in denen das gefährlich sein kann: Bei besonders komplexem Code – beispielsweise kryptografischen Systemen – ist es keine gute Idee, selbst zu Werke zu gehen, selbst wenn man alle mathematischen Grundlagen beherrscht. 6. Frühoptimierung Dass Developer Code zusammenwerfen und das mit der alten Maxime rechtfertigen, verfrühte Optimierung wäre nur Zeitverschwendung, kommt relativ häufig vor. Der Gedanke der dahintersteht: Solange das ganze System nicht läuft, weiß niemand, welcher Teil des Codes am Ende zum Bottleneck wird. Im Allgemeinen ist das eine gute Faustregel. Schließlich scheitern manche Softwareprojekte schon früh, weil sie überoptimiert wurden. Es gibt auf der anderen Seite aber auch diverse Fälle, in denen eine gesunde Voraussicht den Unterschied macht. Zum Beispiel, wenn falsche Datenstrukturen oder -schemata in eine Architektur münden, die nachträglich nicht so ohne Weiteres optimiert werden kann. 7. Sorgfalt Gute Programmierer sichern Daten immer doppelt ab und überprüfen lieber dreifach, was vor sich geht – es könnte sich schließlich ein Null Pointer eingeschlichen haben. Leider kann diese zusätzliche Sorgfalt den Code aber auch lähmen. Deshalb ist es manchmal nötig, einfach mal loszulassen und auf Performance zu coden. Dazu beschränkt man sich dann eben auf das absolute Minimum. 8. Inkonsistenzen Menschen stehen im Allgemeinen auf Ordnung. So auch Programmierer, die oft darauf bestehen, dass innerhalb eines Code-Haufens stets dieselben Techniken, Algorithmen und Syntax-Konstrukte zur Anwendung kommen. Das macht das Leben für alle Entwickler einfacher, die später einmal mit dem Code umgehen und ihn verstehen müssen. Andererseits kostet Konsistenz Zeit – und schafft manchmal auch zusätzliche Komplexität. Dabei ist nicht nur ein Problem, dass Code, der nicht den Vorgaben entspricht, unter Umständen komplett neu geschrieben werden muss: Einige Projekte stützen sich auf Legacy-Code, andere auf Bibliotheken. Viele kommen nicht ohne APIs aus, die wiederum von unterschiedlichen Unternehmen stammen. Vollständige Konsistenz ist darüber hinaus oft nicht zu erreichen – und die Gelegenheit, den gesamten Stack neu aufzusetzen, um ihn an die aktuelle Vision anzupassen, dürfte sich nicht so oft bieten. Auch wenn es schwer fällt: Manchmal ist es sinnvoller, sich mit Inkonsistenzen abzufinden. Ein weiteres Problem bei zu viel Konsistenz: Innovationen können behindert werden. Schließlich fördert sie auf ihre eigene Weise, an einer alten Art, die Dinge zu erledigen, festzuhalten. 9. Regelverstöße Spaßeshalber haben wir Googles Gemini gefragt, ob die Programmierer bei seiner Erstellung Regeln gebrochen haben. Seine Antwort: “Es ist nicht so, dass die Programmierer bestimmte Regeln gebrochen haben, sondern eher so, dass sie die Grenzen einiger bewährter Verfahren überschritten haben.” Selbst LLMs wissen also: Auch Regeln unterliegen manchmal dem Change. Developer sollten das ebenfalls verinnerlichen. (fm) Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld. 

9 Unsitten, die Entwickler nicht ablegen können​ Laster, die eigentlich keine sind, sollte man möglicherweise nicht ablegen.
Foto: Anton Vierietin | shutterstock.com

Softwareentwickler haben eine merkwürdige Beziehung zu Regelwerken. Einerseits ist Programmcode quasi ein riesiger Haufen von Regeln, der von pflichtbewussten maschinellen Gatekeepern immer und immer wieder durchgesetzt wird. Allerdings gibt es da noch einen anderen Layer von Regeln, die weniger sakrosankt, sondern vielmehr äußerst flexibel sind: die Regeln, die Entwickler an sich selbst anlegen, beziehungsweise an das, was sie tun.

Wobei es per se nichts Schlechtes ist, mit bewährten Regeln auch einmal zu brechen. Zum Beispiel, wenn letztere hoffnungslos veraltet oder von vorneherein unausgegoren sind. Manche vermeintliche Unsitte kann dabei unter Umständen auch zum Vorteil gereichen. Zum Beispiel die folgenden neun.

1. Kommentarloser Code

Dass undokumentierter Code ein Alptraum ist, wenn man ihn verstehen will oder Fehler sucht, ist bekannt. Darum wird auch in jedem Dev-Seminar beständig vermittelt, dass sinnvolle Code-Kommentare unerlässlich sind. Der Programmierstil des “Literate Programming” kombiniert sogar Code und natürliche Sprache – und wurde von Don Knuth erfunden, einem der größten Developer überhaupt.

Die traurige Wahrheit: Manchmal machen Code-Kommentare alles nur noch schlimmer. Zum Beispiel, wenn der Eindruck entsteht, dass Programmcode und Dokumentation nur rudimentär etwas miteinander zu tun haben. Eventuell hat ein Programmierer auch einen kritischen Patch eingefügt und vergessen, das Dokumentations-Team darüber zu informieren. Vielleicht weiß letzteres auch darum, konnte sich aber bislang noch nicht dazu durchringen, die Kommentare zu aktualisieren. Im Alltag kommen viele weitere Probleme hinzu, beispielsweise, wenn Kommentare in Fremdsprachen verfasst oder schlicht nicht korrekt sind.

Im Umkehrschluss gehen einige Entwickler davon aus, dass das beste Mittel gegen nutzlose Kommentare sei, diese möglichst spärlich zu verwenden – oder gar nicht. Stattdessen ziehen diese Devs es vor, einfache, kürzere Funktionen zu schreiben, die längere, beschreibende Variablennamen verwenden.

2. Langsamer Code

Wenn Sie schnellen Code wollen, gestalten Sie ihn einfach. Wenn er wirklich schnell sein soll, komplex. Mit Blick auf diesen Task den richtigen “Sweet Spot” zu finden, ist gar nicht so einfach.

Wie so oft gilt es, einen Kompromiss zu finden: Ganz allgemein sollen Programme möglichst schnell sein. Dabei kann Komplexität ein wesentliches Hindernis darstellen, wenn diese niemand mehr durchdringen kann. Wenn es also nicht unbedingt auf Speed ankommt, kann es durchaus sinnvoll sein, etwas langsameren, dafür aber leicht verständlichen Programmcode zu schreiben.

3. Code-Mode

Manche Entwickler haben eine ausgeprägte Vorliebe für Dinge wie die neuen Operatoren in JavaScript (etwa die Ellipsis), weil der resultierende Code in ihren Augen prägnanter und damit besser ist. Ob das aber auch in jedem Fall leichter zu verstehen ist, darf bezweifelt werden. Das erfordert nämlich erst einmal, sich mit diesen Operatoren vertraut zu machen. Statt also den Code schnell und gründlich überfliegen zu können, wird daraus eine lästige, einnehmende Pflicht.

Es gibt auch historische Belege dafür, dass prägnanterer Code nicht unbedingt populär ist. Nicht umsonst sind Sprachen wie APL, die dank benutzerdefinierter Symbolik besonders effizient und prägnant sein sollte, im Wesentlichen verschwunden. Sprachen wie Python, die auf geschweifte Klammern vollständig verzichten, erfreuen sich hingegen zunehmender Beliebtheit.

4. Abstraktionen

Clevere Abstraktionen, die spezifische Probleme schneller lösen, sind in vielen Programmiersprachen gang und gäbe. Manche Sprachen sind dabei dermaßen mit Abstraktionen überfrachtet, dass ihre Handbücher im Resultat mehr als tausend Seiten füllen. Diese Funktionen wann immer möglich zu verwenden, ist in den Augen mancher Gesetz. Das Problem in der Praxis ist allerdings, dass zu viele Funktionen schnell Verwirrung stiften können. Und inzwischen existieren so viele syntaktische Kniffe, dass sie kein Dev der Welt mehr alle beherrschen kann. Und warum sollte man das auch? Wie viele Möglichkeiten brauchen wir, um auf Nullwerte zu testen oder Inheritance in mehreren Dimensionen zu ermöglichen?

Es gibt jedoch auch Gegenbewegungen: Die Schöpfer von Go haben sich etwa zum Ziel gesetzt, eine Sprache zu entwickeln, die in erster Linie besonders schnell zu erlernen ist. Die Grundvoraussetzung dafür: Alle im Team mussten in der Lage sein, den gesamten Code zu lesen und zu verstehen.

5. DIY-Code

Effizienzexperten empfehlen gerne, das Rad nicht neu zu erfinden, sondern sich auf bewährte Bibliotheken und Legacy-Code zu verlassen. In manchen Fällen kann ein neuer Ansatz jedoch durchaus sinnvoll sein. Schließlich sind Standard-Bibliotheken im Regelfall für alltägliche Use Cases gemacht. Bei spezifischen Anwendungsfällen, in denen diese Bibliotheken eher einen Flaschenhals darstellen, können schon ein paar individuelle Code-Zeilen respektive Ersatzfunktionen dafür sorgen, dass alles deutlich schneller abläuft.

Natürlich gibt es aber auch Fälle, in denen das gefährlich sein kann: Bei besonders komplexem Code – beispielsweise kryptografischen Systemen – ist es keine gute Idee, selbst zu Werke zu gehen, selbst wenn man alle mathematischen Grundlagen beherrscht.

6. Frühoptimierung

Dass Developer Code zusammenwerfen und das mit der alten Maxime rechtfertigen, verfrühte Optimierung wäre nur Zeitverschwendung, kommt relativ häufig vor. Der Gedanke der dahintersteht: Solange das ganze System nicht läuft, weiß niemand, welcher Teil des Codes am Ende zum Bottleneck wird.

Im Allgemeinen ist das eine gute Faustregel. Schließlich scheitern manche Softwareprojekte schon früh, weil sie überoptimiert wurden. Es gibt auf der anderen Seite aber auch diverse Fälle, in denen eine gesunde Voraussicht den Unterschied macht. Zum Beispiel, wenn falsche Datenstrukturen oder -schemata in eine Architektur münden, die nachträglich nicht so ohne Weiteres optimiert werden kann.

7. Sorgfalt

Gute Programmierer sichern Daten immer doppelt ab und überprüfen lieber dreifach, was vor sich geht – es könnte sich schließlich ein Null Pointer eingeschlichen haben. Leider kann diese zusätzliche Sorgfalt den Code aber auch lähmen. Deshalb ist es manchmal nötig, einfach mal loszulassen und auf Performance zu coden. Dazu beschränkt man sich dann eben auf das absolute Minimum.

8. Inkonsistenzen

Menschen stehen im Allgemeinen auf Ordnung. So auch Programmierer, die oft darauf bestehen, dass innerhalb eines Code-Haufens stets dieselben Techniken, Algorithmen und Syntax-Konstrukte zur Anwendung kommen. Das macht das Leben für alle Entwickler einfacher, die später einmal mit dem Code umgehen und ihn verstehen müssen. Andererseits kostet Konsistenz Zeit – und schafft manchmal auch zusätzliche Komplexität. Dabei ist nicht nur ein Problem, dass Code, der nicht den Vorgaben entspricht, unter Umständen komplett neu geschrieben werden muss: Einige Projekte stützen sich auf Legacy-Code, andere auf Bibliotheken. Viele kommen nicht ohne APIs aus, die wiederum von unterschiedlichen Unternehmen stammen.

Vollständige Konsistenz ist darüber hinaus oft nicht zu erreichen – und die Gelegenheit, den gesamten Stack neu aufzusetzen, um ihn an die aktuelle Vision anzupassen, dürfte sich nicht so oft bieten. Auch wenn es schwer fällt: Manchmal ist es sinnvoller, sich mit Inkonsistenzen abzufinden. Ein weiteres Problem bei zu viel Konsistenz: Innovationen können behindert werden. Schließlich fördert sie auf ihre eigene Weise, an einer alten Art, die Dinge zu erledigen, festzuhalten.

9. Regelverstöße

Spaßeshalber haben wir Googles Gemini gefragt, ob die Programmierer bei seiner Erstellung Regeln gebrochen haben. Seine Antwort: “Es ist nicht so, dass die Programmierer bestimmte Regeln gebrochen haben, sondern eher so, dass sie die Grenzen einiger bewährter Verfahren überschritten haben.”

Selbst LLMs wissen also: Auch Regeln unterliegen manchmal dem Change. Developer sollten das ebenfalls verinnerlichen. (fm)

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.

9 Unsitten, die Entwickler nicht ablegen können​ Weiterlesen »

Was ist ein Compiler?​

Allgemein

Compiler übersetzen Code in anderen Code. Das sollten Sie zum Thema wissen. Foto: Yurchanka Siarhei – shutterstock.com Ein Compiler ist ein Computerprogramm, das von einem Format in ein anderes übersetzt – meist von einer High-Level-Programmiersprache in Byte- und Maschinencode. Es gibt eine ganze Reihe von Compiler-Varianten, die wir in diesem Artikel umfassend beleuchten. Compiler erklärt Etwas konkreter übersetzen Compiler häufig Quellcode – etwa der Programmiersprache C++ – in Objektcode für die jeweilige Rechnerarchitektur – beispielsweise Intel x64. Die aus mehreren Programmiersprachen-Files erstellten Objektmodule werden anschließend zu einem Executable verbunden. Dabei unterscheidet man folgende Compiler-Arten: Cross-Compiler, die Objektcode für Architekturen erzeugen, die sich von derjenigen unterscheiden, auf der der Compiler läuft. Sie werden üblicherweise verwendet, um Executables für eingebettete Systeme zu erzeugen. Transpiler, die von einer Programmiersprache in eine andere übersetzen – etwa von TypeScript in JavaScript oder von C++ in C. Bootstrap-Compiler, die in der Sprache geschrieben sind, die sie kompilieren. Compiler für Sprachen, die maschinenunabhängig sein sollen – wie Java, Python oder C# – übersetzen den Quellcode in Bytecode für eine virtuelle Maschine, der dann in einem Interpreter für die aktuelle Architektur ausgeführt wird. Dieser Interpreter kann durch einen Just-in-Time-Compiler (JIT) unterstützt werden, der einen Teil des Byte-Codes zur Laufzeit in native Code-Anweisungen übersetzt. JIT-Compiler führen manchmal zu Verzögerungen beim Start, die aber in der Regel durch die höhere Geschwindigkeit im weiteren Verlauf der Ausführung aufgewogen werden, insbesondere bei CPU-intensivem Code. Ein Ansatz zur Verringerung der Startverzögerung für JIT-kompilierte ausführbare Dateien ist es, AOT-Compiler (AOT = ahead of time) zu verwenden, um ausführbare Images zu erstellen. Sprachcompiler werden häufig zunächst in einer bestehenden, niedrigeren Sprache implementiert und später in der Sprache, die sie kompilieren, neu implementiert. Dieses Vorgehen soll Portabilität und Upgrades durch Bootstrapping ermöglichen. Andererseits werden Hochsprachen zunehmend in Bytecode für eine virtuelle Maschine kompiliert, der dann interpretiert und JIT-kompiliert wird. Die wichtigsten Compiler im Überblick Betrachten wir nun einige der wichtigsten Programmiersprachen-Compiler im Detail. FORTRAN Formula Translator (ab 1977 FORTRAN genannt) war die erste erfolgreiche Programmiersprache für wissenschaftliche und technische Anwendungen. Der FORTRAN-I-Compiler wurde von 1954 bis 1957 für den IBM 704 von einem All-Star-Team unter der Leitung von John W. Backus entwickelt. Es handelte sich um einen optimierenden Compiler, der in Assemblersprache geschrieben war und 23.000 Anweisungen umfasste. Dabei nahm der FORTRAN-I-Compiler bedeutende Optimierungen vor und analysierte beispielsweise arithmetische Ausdrücke oder optimierte die Zuordnung von Indexregistern. Inzwischen stehen mehr als ein Dutzend FORTRAN-Compiler zur Verfügung, wovon einige quelloffen und kostenlos sind, obwohl sie kommerziell angeboten werden. LISP List Processor (LISP) ist eng mit dem Feld der Künstlichen Intelligenz verknüpft, wurde am MIT entworfen und die Spezifikation im Jahr 1960 veröffentlicht. Kurz nach der Veröffentlichung der Spezifikation entdeckte ein Forscher, dass die LISP-Eval-Funktion in Maschinencode implementiert werden konnte – und setzte das für den IBM 704 um. So wurde der erste LISP-Interpreter geboren. Die MIT-Forscher Tim Hart und Mike Levin entwickelten im Jahr 1962 den ersten LISP-Compiler in LISP: Der Compiler selbst wurde kompiliert, indem der LISP-Interpreter auf dem Quellcode des Compilers ausgeführt wurde. Das kompilierte LISP lief auf dem IBM 704 rund 40 Mal schneller als das interpretierte LISP. Dieser Compiler war einer der ersten Bootstrapped-Compiler und führte zudem die inkrementelle Kompilierung ein, die eine Vermischung von kompiliertem und interpretiertem Code ermöglicht. Für spätere Versionen von LISP und seinen Nachfolgern, wie Common Lisp, Emacs Lisp, Scheme und Clojure gab es zahlreiche Compiler und Interpreter. COBOL Common Business-Oriented Language (COBOL) wurde ab 1959 auf Anregung des US-Verteidigungsministeriums von einem Komitee (CODASYL) entwickelt und basiert auf drei bestehenden Sprachen: FLOW-MATIC (entwickelt von Grace Hopper), AIMACO (ein Derivat von FLOW-MATIC) und COMTRAN (von Bob Bemer von IBM). Das ursprüngliche Ziel von COBOL war es, eine portable Programmiersprache für die allgemeine Datenverarbeitung zu schaffen. Das erste COBOL-Programm lief im Jahr 1960. Im Jahr 1962 ergab eine Studie der Navy, dass COBOL drei bis elf Anweisungen pro Minute kompilieren konnte. Das verbesserte sich im Laufe der Jahre, als die Sprachspezifikationen und Compiler aktualisiert wurden. Im Jahr 1970 war COBOL die meist verbreitete Programmiersprache der Welt. Derzeit existieren noch vier große COBOL-Compiler: Fujitsu NetCOBOL kompiliert zur .NET Intermediate Language (Bytecode) und läuft auf der .NET CLR (Common Language Runtime); GnuCOBOL kompiliert zu C-Code, der dann kompiliert und gelinkt werden kann; IBM COBOL kompiliert zu Objektcode für IBM-Mainframes und Midrange-Computer – der Code wird dann ähnlich wie bei den frühen COBOL-Compilern verlinkt; Micro Focus COBOL kompiliert entweder zu .NET- oder JVM-Bytecode (Java Virtual Machine). ALGOL Zwei niederländische Wissenschaftler schrieben zwischen 1959 und 1960 den ersten ALGOL-Compiler in X1-Assemblersprache am Zentrum für Mathematik in Amsterdam. Algorithmic Language (ALGOL) war – verglichen mit FORTRAN – ein enormer Fortschritt bei den Programmiersprachen für Wissenschaft und Technik. Sie hatte auch Einfluss auf die Entwicklung von imperativen Sprachen wie CPL, Simula, BCPL, B, Pascal oder C. Der Compiler beinhaltete etwa 2.000 Anweisungen – die Laufzeitbibliothek war noch ebenso groß. Der Compiler wurde von Papierbändern geladen, ebenso wie der Programmquellcode und die Bibliotheken. Der Compiler durchlief den Code zweifach: Der erste Durchlauf (der sogenannte Prescan) diente dazu, Identifier und Blocks zu sammeln, der zweite (Main Scan) erzeugte den Objektcode auf einem anderen Papierband. Dieser Prozess wurde später durch einen “Store” (wahrscheinlich eine Magnettrommel) anstelle des Papierbandes beschleunigt. Von ALGOL 60 und seinen Dialekten gab es etwa 70 Implementierungen. ALGOL 68 sollte ALGOL 60 ursprünglich ersetzen, war aber so komplex, dass Implementierungen und Akzeptanz weit hinter den Erwartungen zurückblieben. Zu den von ALGOL 68 beeinflussten Sprachen gehören zum Beispiel: C, C++, Bourne Shell, KornShell, Bash, Steelman, Ada und Python. PL/I Programming Language One (PL/I) wurde Mitte der 1960er Jahre von IBM und SHARE (der wissenschaftlichen Usergroup von IBM) als einheitliche Sprache für den Einsatz in Wissenschaft und Business entwickelt. Die erste Implementierung – PL/I F – wurde für das IBM-System S/360 vollständig in System/360-Assemblersprache geschrieben und 1966 ausgeliefert. Der F-Compiler bestand aus einer Kontrollphase und einer großen Anzahl von Compilerphasen (annähernd 100). Es gab mehrere spätere Implementierungen von PL/I bei IBM – auch für Multics (als Systemsprache) und die DEC VAX. Pascal Niklaus Wirth von der ETH Zürich war Mitglied des Ausschusses, der an der Nachfolge von ALGOL 60 arbeitete und reichte eine Sprache namens ALGOL W ein, die abgelehnt wurde. Wirth trat aus dem Komitee aus, arbeitete weiter an seinem Projekt und veröffentlichte es 1970 in vereinfachter Form unter dem Namen Pascal. Wirth versuchte zunächst, den Pascal-Compiler in FORTRAN 66 zu implementieren, was ihm aber nicht gelang. Daraufhin schrieb er einen Pascal-Compiler in der C-ähnlichen Sprache Scallop, der dann für das Bootstrapping in Pascal übersetzt wurde. Zwei bemerkenswerte Ableger sind das Pascal P-System und Turbo Pascal: Der Züricher P-System-Compiler erzeugte “p-code” für eine virtuelle Stack-Maschine, der dann interpretiert wurde. Das führte zu UCSD Pascal für den IBM PC und zu Apple Pascal. Anders Hejlsberg schrieb Blue Label Pascal für den Nascom-2 und reimplementierte es dann für den IBM PC in 8088 Assembler. Diese Errungenschaft wurde schließlich von Borland aufgekauft und als Turbo Pascal wieder auf den Markt gebracht. Später portierte Hejlsberg Turbo Pascal auf den Macintosh, fügte Apples Object-Pascal-Erweiterungen hinzu und portierte die neue Sprache zurück auf den PC, woraus sich schließlich Delphi für Microsoft Windows entwickelte. C C wurde ursprünglich zwischen 1972 und 1973 von Dennis Ritchie in den Bell Labs entwickelt, um Dienstprogramme für Unix zu entwickeln. Der ursprüngliche C-Compiler war in PDP-7-Assembler geschrieben, wie auch Unix zu dieser Zeit. Die Portierung auf PDP-11 erfolgte ebenfalls in Assembler. Später wurde C verwendet, um den Unix-Kernel umzuschreiben und portabel zu machen. C++ C++ wurde ab 1979 von Bjarne Stroustrup in den Bell Laboratories entwickelt. Weil es ein Versuch war, C um objektorientierte Funktionen (unter anderem) zu erweitern, nannte Stroustrup es zunächst “C with Objects”. 1983 folgte die Umbenennung in C++ – 1985 wurde die Sprache auch außerhalb von Bell verfügbar. Der erste kommerzielle C++-Compiler, Cfront, wurde zur selben Zeit veröffentlicht. Er übersetzte C++ in C, das dann kompiliert und gelinkt werden konnte. Spätere C++-Compiler erzeugten Objektcode-Dateien, die direkt in einen Linker eingespeist wurden. Java Java wurde 1995 als portable Sprache (mit dem Marketing-Slogan “Write once, run anywhere”) veröffentlicht, die in Bytecode für die JVM kompiliert und dann interpretiert wird – ähnlich wie das Pascal P-System. Der Java-Compiler war ursprünglich in C geschrieben und verwendete einige C++-Bibliotheken. In späteren JVM-Versionen wurde ein JIT-Compiler hinzugefügt, um den Interpreter zu beschleunigen. Der aktuelle Java-Compiler ist in Java geschrieben, wenngleich die Java-Laufzeitumgebung immer noch in C erstellt wurde. In der GraalVM-Implementierung von Java und anderen Sprachen wird zur Build Time ein AOT-Compiler ausgeführt, um den Bytecode zu optimieren und die Startzeit zu verkürzen. C# C# wurde im Jahr 1999 von Anders Hejlsberg bei Microsoft entwickelt und im Jahr 2000 von Mads Torgersen in C und C++ für die CLR implementiert. C# kompiliert zu CLR-Bytecode (Intermediate Language) und wird zur Laufzeit interpretiert und JIT-kompiliert. Der C#-Compiler, die CLR und die Bibliotheken sind jetzt in C# geschrieben, und der Compiler wird von einer Version zur nächsten gebootet. Ein Teil des Anstoßes für die Entwicklung von C# könnte darin bestanden haben, dass Microsoft nicht in der Lage war, Java von Sun zu lizenzieren (Microsoft bestreitet das). Laut Hejlsberg wurde C# sowohl von C++ als auch von Java beeinflusst. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Was ist ein Compiler?​ Compiler übersetzen Code in anderen Code. Das sollten Sie zum Thema wissen.
Foto: Yurchanka Siarhei – shutterstock.com

Ein Compiler ist ein Computerprogramm, das von einem Format in ein anderes übersetzt – meist von einer High-Level-Programmiersprache in Byte- und Maschinencode. Es gibt eine ganze Reihe von Compiler-Varianten, die wir in diesem Artikel umfassend beleuchten.

Compiler erklärt

Etwas konkreter übersetzen Compiler häufig Quellcode – etwa der Programmiersprache C++ – in Objektcode für die jeweilige Rechnerarchitektur – beispielsweise Intel x64. Die aus mehreren Programmiersprachen-Files erstellten Objektmodule werden anschließend zu einem Executable verbunden. Dabei unterscheidet man folgende Compiler-Arten:

Cross-Compiler, die Objektcode für Architekturen erzeugen, die sich von derjenigen unterscheiden, auf der der Compiler läuft. Sie werden üblicherweise verwendet, um Executables für eingebettete Systeme zu erzeugen.

Transpiler, die von einer Programmiersprache in eine andere übersetzen – etwa von TypeScript in JavaScript oder von C++ in C.

Bootstrap-Compiler, die in der Sprache geschrieben sind, die sie kompilieren.

Compiler für Sprachen, die maschinenunabhängig sein sollen – wie Java, Python oder C# – übersetzen den Quellcode in Bytecode für eine virtuelle Maschine, der dann in einem Interpreter für die aktuelle Architektur ausgeführt wird. Dieser Interpreter kann durch einen Just-in-Time-Compiler (JIT) unterstützt werden, der einen Teil des Byte-Codes zur Laufzeit in native Code-Anweisungen übersetzt. JIT-Compiler führen manchmal zu Verzögerungen beim Start, die aber in der Regel durch die höhere Geschwindigkeit im weiteren Verlauf der Ausführung aufgewogen werden, insbesondere bei CPU-intensivem Code.

Ein Ansatz zur Verringerung der Startverzögerung für JIT-kompilierte ausführbare Dateien ist es, AOT-Compiler (AOT = ahead of time) zu verwenden, um ausführbare Images zu erstellen.

Sprachcompiler werden häufig zunächst in einer bestehenden, niedrigeren Sprache implementiert und später in der Sprache, die sie kompilieren, neu implementiert. Dieses Vorgehen soll Portabilität und Upgrades durch Bootstrapping ermöglichen. Andererseits werden Hochsprachen zunehmend in Bytecode für eine virtuelle Maschine kompiliert, der dann interpretiert und JIT-kompiliert wird.

Die wichtigsten Compiler im Überblick

Betrachten wir nun einige der wichtigsten Programmiersprachen-Compiler im Detail.

FORTRAN

Formula Translator (ab 1977 FORTRAN genannt) war die erste erfolgreiche Programmiersprache für wissenschaftliche und technische Anwendungen. Der FORTRAN-I-Compiler wurde von 1954 bis 1957 für den IBM 704 von einem All-Star-Team unter der Leitung von John W. Backus entwickelt.

Es handelte sich um einen optimierenden Compiler, der in Assemblersprache geschrieben war und 23.000 Anweisungen umfasste. Dabei nahm der FORTRAN-I-Compiler bedeutende Optimierungen vor und analysierte beispielsweise arithmetische Ausdrücke oder optimierte die Zuordnung von Indexregistern. Inzwischen stehen mehr als ein Dutzend FORTRAN-Compiler zur Verfügung, wovon einige quelloffen und kostenlos sind, obwohl sie kommerziell angeboten werden.

LISP

List Processor (LISP) ist eng mit dem Feld der Künstlichen Intelligenz verknüpft, wurde am MIT entworfen und die Spezifikation im Jahr 1960 veröffentlicht. Kurz nach der Veröffentlichung der Spezifikation entdeckte ein Forscher, dass die LISP-Eval-Funktion in Maschinencode implementiert werden konnte – und setzte das für den IBM 704 um. So wurde der erste LISP-Interpreter geboren.

Die MIT-Forscher Tim Hart und Mike Levin entwickelten im Jahr 1962 den ersten LISP-Compiler in LISP: Der Compiler selbst wurde kompiliert, indem der LISP-Interpreter auf dem Quellcode des Compilers ausgeführt wurde. Das kompilierte LISP lief auf dem IBM 704 rund 40 Mal schneller als das interpretierte LISP. Dieser Compiler war einer der ersten Bootstrapped-Compiler und führte zudem die inkrementelle Kompilierung ein, die eine Vermischung von kompiliertem und interpretiertem Code ermöglicht. Für spätere Versionen von LISP und seinen Nachfolgern, wie Common Lisp, Emacs Lisp, Scheme und Clojure gab es zahlreiche Compiler und Interpreter.

COBOL

Common Business-Oriented Language (COBOL) wurde ab 1959 auf Anregung des US-Verteidigungsministeriums von einem Komitee (CODASYL) entwickelt und basiert auf drei bestehenden Sprachen:

FLOW-MATIC (entwickelt von Grace Hopper),

AIMACO (ein Derivat von FLOW-MATIC) und

COMTRAN (von Bob Bemer von IBM).

Das ursprüngliche Ziel von COBOL war es, eine portable Programmiersprache für die allgemeine Datenverarbeitung zu schaffen. Das erste COBOL-Programm lief im Jahr 1960. Im Jahr 1962 ergab eine Studie der Navy, dass COBOL drei bis elf Anweisungen pro Minute kompilieren konnte. Das verbesserte sich im Laufe der Jahre, als die Sprachspezifikationen und Compiler aktualisiert wurden. Im Jahr 1970 war COBOL die meist verbreitete Programmiersprache der Welt.

Derzeit existieren noch vier große COBOL-Compiler:

Fujitsu NetCOBOL kompiliert zur .NET Intermediate Language (Bytecode) und läuft auf der .NET CLR (Common Language Runtime);

GnuCOBOL kompiliert zu C-Code, der dann kompiliert und gelinkt werden kann;

IBM COBOL kompiliert zu Objektcode für IBM-Mainframes und Midrange-Computer – der Code wird dann ähnlich wie bei den frühen COBOL-Compilern verlinkt;

Micro Focus COBOL kompiliert entweder zu .NET- oder JVM-Bytecode (Java Virtual Machine).

ALGOL

Zwei niederländische Wissenschaftler schrieben zwischen 1959 und 1960 den ersten ALGOL-Compiler in X1-Assemblersprache am Zentrum für Mathematik in Amsterdam. Algorithmic Language (ALGOL) war – verglichen mit FORTRAN – ein enormer Fortschritt bei den Programmiersprachen für Wissenschaft und Technik. Sie hatte auch Einfluss auf die Entwicklung von imperativen Sprachen wie CPL, Simula, BCPL, B, Pascal oder C.

Der Compiler beinhaltete etwa 2.000 Anweisungen – die Laufzeitbibliothek war noch ebenso groß. Der Compiler wurde von Papierbändern geladen, ebenso wie der Programmquellcode und die Bibliotheken. Der Compiler durchlief den Code zweifach: Der erste Durchlauf (der sogenannte Prescan) diente dazu, Identifier und Blocks zu sammeln, der zweite (Main Scan) erzeugte den Objektcode auf einem anderen Papierband. Dieser Prozess wurde später durch einen “Store” (wahrscheinlich eine Magnettrommel) anstelle des Papierbandes beschleunigt. Von ALGOL 60 und seinen Dialekten gab es etwa 70 Implementierungen.

ALGOL 68 sollte ALGOL 60 ursprünglich ersetzen, war aber so komplex, dass Implementierungen und Akzeptanz weit hinter den Erwartungen zurückblieben. Zu den von ALGOL 68 beeinflussten Sprachen gehören zum Beispiel:

C,

C++,

Bourne Shell,

KornShell,

Bash,

Steelman,

Ada und

Python.

PL/I

Programming Language One (PL/I) wurde Mitte der 1960er Jahre von IBM und SHARE (der wissenschaftlichen Usergroup von IBM) als einheitliche Sprache für den Einsatz in Wissenschaft und Business entwickelt. Die erste Implementierung – PL/I F – wurde für das IBM-System S/360 vollständig in System/360-Assemblersprache geschrieben und 1966 ausgeliefert. Der F-Compiler bestand aus einer Kontrollphase und einer großen Anzahl von Compilerphasen (annähernd 100). Es gab mehrere spätere Implementierungen von PL/I bei IBM – auch für Multics (als Systemsprache) und die DEC VAX.

Pascal

Niklaus Wirth von der ETH Zürich war Mitglied des Ausschusses, der an der Nachfolge von ALGOL 60 arbeitete und reichte eine Sprache namens ALGOL W ein, die abgelehnt wurde. Wirth trat aus dem Komitee aus, arbeitete weiter an seinem Projekt und veröffentlichte es 1970 in vereinfachter Form unter dem Namen Pascal. Wirth versuchte zunächst, den Pascal-Compiler in FORTRAN 66 zu implementieren, was ihm aber nicht gelang. Daraufhin schrieb er einen Pascal-Compiler in der C-ähnlichen Sprache Scallop, der dann für das Bootstrapping in Pascal übersetzt wurde.

Zwei bemerkenswerte Ableger sind das Pascal P-System und Turbo Pascal: Der Züricher P-System-Compiler erzeugte “p-code” für eine virtuelle Stack-Maschine, der dann interpretiert wurde. Das führte zu UCSD Pascal für den IBM PC und zu Apple Pascal. Anders Hejlsberg schrieb Blue Label Pascal für den Nascom-2 und reimplementierte es dann für den IBM PC in 8088 Assembler. Diese Errungenschaft wurde schließlich von Borland aufgekauft und als Turbo Pascal wieder auf den Markt gebracht. Später portierte Hejlsberg Turbo Pascal auf den Macintosh, fügte Apples Object-Pascal-Erweiterungen hinzu und portierte die neue Sprache zurück auf den PC, woraus sich schließlich Delphi für Microsoft Windows entwickelte.

C

C wurde ursprünglich zwischen 1972 und 1973 von Dennis Ritchie in den Bell Labs entwickelt, um Dienstprogramme für Unix zu entwickeln. Der ursprüngliche C-Compiler war in PDP-7-Assembler geschrieben, wie auch Unix zu dieser Zeit. Die Portierung auf PDP-11 erfolgte ebenfalls in Assembler. Später wurde C verwendet, um den Unix-Kernel umzuschreiben und portabel zu machen.

C++

C++ wurde ab 1979 von Bjarne Stroustrup in den Bell Laboratories entwickelt. Weil es ein Versuch war, C um objektorientierte Funktionen (unter anderem) zu erweitern, nannte Stroustrup es zunächst “C with Objects”. 1983 folgte die Umbenennung in C++ – 1985 wurde die Sprache auch außerhalb von Bell verfügbar. Der erste kommerzielle C++-Compiler, Cfront, wurde zur selben Zeit veröffentlicht. Er übersetzte C++ in C, das dann kompiliert und gelinkt werden konnte. Spätere C++-Compiler erzeugten Objektcode-Dateien, die direkt in einen Linker eingespeist wurden.

Java

Java wurde 1995 als portable Sprache (mit dem Marketing-Slogan “Write once, run anywhere”) veröffentlicht, die in Bytecode für die JVM kompiliert und dann interpretiert wird – ähnlich wie das Pascal P-System. Der Java-Compiler war ursprünglich in C geschrieben und verwendete einige C++-Bibliotheken. In späteren JVM-Versionen wurde ein JIT-Compiler hinzugefügt, um den Interpreter zu beschleunigen. Der aktuelle Java-Compiler ist in Java geschrieben, wenngleich die Java-Laufzeitumgebung immer noch in C erstellt wurde.

In der GraalVM-Implementierung von Java und anderen Sprachen wird zur Build Time ein AOT-Compiler ausgeführt, um den Bytecode zu optimieren und die Startzeit zu verkürzen.

C#

C# wurde im Jahr 1999 von Anders Hejlsberg bei Microsoft entwickelt und im Jahr 2000 von Mads Torgersen in C und C++ für die CLR implementiert. C# kompiliert zu CLR-Bytecode (Intermediate Language) und wird zur Laufzeit interpretiert und JIT-kompiliert. Der C#-Compiler, die CLR und die Bibliotheken sind jetzt in C# geschrieben, und der Compiler wird von einer Version zur nächsten gebootet.

Ein Teil des Anstoßes für die Entwicklung von C# könnte darin bestanden haben, dass Microsoft nicht in der Lage war, Java von Sun zu lizenzieren (Microsoft bestreitet das). Laut Hejlsberg wurde C# sowohl von C++ als auch von Java beeinflusst. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Was ist ein Compiler?​ Weiterlesen »

ServiceNow setzt voll auf KI-Agenten​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?quality=50&strip=all 7010w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>ServiceNow-Chef Bill McDermott sieht in KI und insbesondere KI-Agenten enormes Potenzial – für Kunden und seine Company.ServiceNow In den 20 Jahren seines Bestehens hat sich ServiceNow darauf konzentriert, Workflows zu digitalisieren, zu automatisieren und zu optimieren. Auf der Basis dieser Architektur sieht sich der Spezialist für Workflow-Automation nun in einer guten Position, KI in alle Bereiche des Unternehmens zu integrieren – und das nativ in jeder Schicht der neuen ServiceNow-KI-Plattform, egal ob Benutzeroberfläche, Datenbank oder Automatisierungsschicht.  „ServiceNow leitet mit der ServiceNow KI-Plattform eine neue Ära der Unternehmenstransformation ein“, erklärte der charismatische Firmenchef Bill McDermott in seiner Keynote. „Wir entfesseln die volle Kraft der KI für jede Branche, jeden Mitarbeitenden und jeden Workflow.”  Die neu konzipierte ServiceNow- KI-Plattform kombiniert Intelligenz, Daten und Orchestrierung – und soll Unternehmen so befähigen, von isolierten Pilotprojekten zur umfassenden Umsetzung von KI überzugehen. Dies geschieht über einen intelligenten, dialogfähigen „AI Engagement Layer“. Diese Ebene ermöglicht es Kunden, komplexe Aufgaben systemübergreifend zu erledigen, indem sie auf Knowledge Graph, Workflow Data Fabric und AI Agent Fabric von ServiceNow zugreifen – alle nahtlos verbunden mit den Datenlandschaften und agentischen Strukturen des Unternehmens.   Weitere Knowledge-2025-Neuheiten  Neben der KI-Plattform führt ServiceNow weitere Funktionen ein, um den Nutzen von KI im gesamten Unternehmen zu steigern. Zu den neuen Lösungen und Partnerschaften gehören:  • Der AI Control Tower ist eine zentrale Kommandozentrale, um jeden KI-Agenten, jedes KI-Modell und jeden KI-Workflow von ServiceNow und Drittanbietern auf einer einheitlichen Plattform zu steuern, zu verwalten, zu sichern und zu nutzen. Aufbauend auf dem kürzlich angekündigten „AI Agent Orchestrator“ ist er in alle Workflows der ServiceNow AI Platform integriert. Zu den Funktionen gehören integrierte Compliance und KI-Governance, ein durchgängiges Lifecycle-Management für agentenbasierte Vorgänge sowie Echtzeitberichte, um die KI-Leistung anhand von Kennzahlen wie Produktivität und Umsatzauswirkungen zu überwachen und zu validieren.  • Die AI Agent Fabric ist wiederum eine dynamisch verbundene Schicht, die es KI-Agenten ermöglicht, miteinander zu kommunizieren, sich zu koordinieren und kontinuierlich voneinander zu lernen. Laut ServiceNow stellt sie das Rückgrat des gesamten KI-Ökosystems dar, da sie die Kommunikation zwischen Agenten, Orchestratoren und Tools vereinheitlicht und sicherstellt, dass sowohl ServiceNow- als auch Drittanbieter-Agenten dynamisch Informationen austauschen können. Unterstützt werden gängige Protokolle wie das Model Context Protocol (MCP) von Anthropic und Googles Agent2Agent Protocol (A2A).  • ServiceNow CRM: Bereits Ende Januar angekündigt, geht ServiceNow nun mit einer agentengestützten Customer-Relationship-Management-Lösung an den Start. Statt „umbenannter Chatbots“ sollen Kunden mithilfe der KI-Agenten den gesamten Vertriebs- und Serviceprozess auf einer einzigen KI-gestützten Plattform koordinieren und so den gesamten Kundenlebenszyklus effizienter verwalten können, beschreibt John Ball, Executive Vice President und General Manager für CRM und Branchen-Workflows bei ServiceNow, die Lösung. Auf diese Weise sollen Unternehmen in der Lage sein, vom reaktiven Support hin zu proaktiver Kundenbindung über den gesamten Customer Lifecycle zu wechseln – von der Konfiguration, Preisgestaltung und Angebotserstellung über die Auftragsabwicklung bis hin zu Kundenservice und Vertragsverlängerung.  • Apriel Nemotron 15B: Ein neues Reasoning-Sprachmodell und eine integrierte Data-Flywheel-Architektur, entwickelt von ServiceNow in Zusammenarbeit mit NVIDIA, sollen die skalierbare und intelligente, agentische KI vorantreiben. Das Open-Source-LLM ist den beiden Unternehmen zufolge auf Leistung, Kosteneffizienz und Skalierbarkeit ausgelegt und soll eine hohe Genauigkeit, eine geringere Latenz, niedrigere Inferenzkosten und schnellere, agentische KI für jedes Unternehmen bieten.   Mit der Einführung der ServiceNow University, ehemals Now Learning, will das Unternehmen außerdem Mitarbeitern, Kunden und Partnern die Möglichkeit geben, Fähigkeiten für den sich durch KI(-Agenten) wandelnden Arbeitsplatz zu entwickeln. Der Plan ist laut McDermott, bis 2027 drei Millionen Beschäftigte über die Plattform zu erreichen.   Aus Sicht manches ServiceNow-Kunden ist dies angesichts der Geschwindigkeit, mit der das Unternehmen Innovationen vorantreibt, auch dringend nötig. So fehle oft das Knowhow bei Partnern, wenn eine neue Funktion integriert werden soll.  

ServiceNow setzt voll auf KI-Agenten​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?quality=50&strip=all 7010w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/D1_DayOneKeynote_MF96996_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>ServiceNow-Chef Bill McDermott sieht in KI und insbesondere KI-Agenten enormes Potenzial – für Kunden und seine Company.ServiceNow

In den 20 Jahren seines Bestehens hat sich ServiceNow darauf konzentriert, Workflows zu digitalisieren, zu automatisieren und zu optimieren. Auf der Basis dieser Architektur sieht sich der Spezialist für Workflow-Automation nun in einer guten Position, KI in alle Bereiche des Unternehmens zu integrieren – und das nativ in jeder Schicht der neuen ServiceNow-KI-Plattform, egal ob Benutzeroberfläche, Datenbank oder Automatisierungsschicht. 

„ServiceNow leitet mit der ServiceNow KI-Plattform eine neue Ära der Unternehmenstransformation ein“, erklärte der charismatische Firmenchef Bill McDermott in seiner Keynote. „Wir entfesseln die volle Kraft der KI für jede Branche, jeden Mitarbeitenden und jeden Workflow.” 

Die neu konzipierte ServiceNow- KI-Plattform kombiniert Intelligenz, Daten und Orchestrierung – und soll Unternehmen so befähigen, von isolierten Pilotprojekten zur umfassenden Umsetzung von KI überzugehen. Dies geschieht über einen intelligenten, dialogfähigen „AI Engagement Layer“. Diese Ebene ermöglicht es Kunden, komplexe Aufgaben systemübergreifend zu erledigen, indem sie auf Knowledge Graph, Workflow Data Fabric und AI Agent Fabric von ServiceNow zugreifen – alle nahtlos verbunden mit den Datenlandschaften und agentischen Strukturen des Unternehmens.  

Weitere Knowledge-2025-Neuheiten 

Neben der KI-Plattform führt ServiceNow weitere Funktionen ein, um den Nutzen von KI im gesamten Unternehmen zu steigern. Zu den neuen Lösungen und Partnerschaften gehören: 

• Der AI Control Tower ist eine zentrale Kommandozentrale, um jeden KI-Agenten, jedes KI-Modell und jeden KI-Workflow von ServiceNow und Drittanbietern auf einer einheitlichen Plattform zu steuern, zu verwalten, zu sichern und zu nutzen. Aufbauend auf dem kürzlich angekündigten „AI Agent Orchestrator“ ist er in alle Workflows der ServiceNow AI Platform integriert. Zu den Funktionen gehören integrierte Compliance und KI-Governance, ein durchgängiges Lifecycle-Management für agentenbasierte Vorgänge sowie Echtzeitberichte, um die KI-Leistung anhand von Kennzahlen wie Produktivität und Umsatzauswirkungen zu überwachen und zu validieren. 

• Die AI Agent Fabric ist wiederum eine dynamisch verbundene Schicht, die es KI-Agenten ermöglicht, miteinander zu kommunizieren, sich zu koordinieren und kontinuierlich voneinander zu lernen. Laut ServiceNow stellt sie das Rückgrat des gesamten KI-Ökosystems dar, da sie die Kommunikation zwischen Agenten, Orchestratoren und Tools vereinheitlicht und sicherstellt, dass sowohl ServiceNow- als auch Drittanbieter-Agenten dynamisch Informationen austauschen können. Unterstützt werden gängige Protokolle wie das Model Context Protocol (MCP) von Anthropic und Googles Agent2Agent Protocol (A2A). 

• ServiceNow CRM: Bereits Ende Januar angekündigt, geht ServiceNow nun mit einer agentengestützten Customer-Relationship-Management-Lösung an den Start. Statt „umbenannter Chatbots“ sollen Kunden mithilfe der KI-Agenten den gesamten Vertriebs- und Serviceprozess auf einer einzigen KI-gestützten Plattform koordinieren und so den gesamten Kundenlebenszyklus effizienter verwalten können, beschreibt John Ball, Executive Vice President und General Manager für CRM und Branchen-Workflows bei ServiceNow, die Lösung. Auf diese Weise sollen Unternehmen in der Lage sein, vom reaktiven Support hin zu proaktiver Kundenbindung über den gesamten Customer Lifecycle zu wechseln – von der Konfiguration, Preisgestaltung und Angebotserstellung über die Auftragsabwicklung bis hin zu Kundenservice und Vertragsverlängerung. 

• Apriel Nemotron 15B: Ein neues Reasoning-Sprachmodell und eine integrierte Data-Flywheel-Architektur, entwickelt von ServiceNow in Zusammenarbeit mit NVIDIA, sollen die skalierbare und intelligente, agentische KI vorantreiben. Das Open-Source-LLM ist den beiden Unternehmen zufolge auf Leistung, Kosteneffizienz und Skalierbarkeit ausgelegt und soll eine hohe Genauigkeit, eine geringere Latenz, niedrigere Inferenzkosten und schnellere, agentische KI für jedes Unternehmen bieten.  

Mit der Einführung der ServiceNow University, ehemals Now Learning, will das Unternehmen außerdem Mitarbeitern, Kunden und Partnern die Möglichkeit geben, Fähigkeiten für den sich durch KI(-Agenten) wandelnden Arbeitsplatz zu entwickeln. Der Plan ist laut McDermott, bis 2027 drei Millionen Beschäftigte über die Plattform zu erreichen.  

Aus Sicht manches ServiceNow-Kunden ist dies angesichts der Geschwindigkeit, mit der das Unternehmen Innovationen vorantreibt, auch dringend nötig. So fehle oft das Knowhow bei Partnern, wenn eine neue Funktion integriert werden soll. 

ServiceNow setzt voll auf KI-Agenten​ Weiterlesen »

Barrierefreiheit ab Ende Juni Pflicht​

Allgemein

width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Ab Ende Juni 2025 gelten in Deutschland schärfere Regeln, was die Barrierefreiheit von Produkten und Dienstleistungen anbelangt.Markus Mainka – shutterstock.com Die Uhr tickt. Zum Stichtag 28. Juni 2025 tritt das Barrierefreiheitsstärkungsgesetz (BFSG) in Kraft. Ab dann sind Betreiber von Webseiten verpflichtet, ihr Online-Angebot gemäß geltender EU-Richtlinien und nationaler Vorgaben barrierefrei zu gestalten. Dazu gehört beispielsweise, zu Bildern ausreichend beschreibende Alternativtexte anzubieten beziehungsweise die Bedienbarkeit ihrer Webseite mit der Tastatur zu gewährleisten.  Doch davon sind die meisten Website-Betreiber noch weit entfernt, wie eine Untersuchung des Telefon- und Bürodienstleisters ebuero gezeigt hat. Demzufolge seien gerade einmal 6,5 Prozent der analysierten Webseiten vollständig barrierefrei und erfüllten höchste Standards. Immerhin drei von zehn der analysierten Webseiten erreichen eine hohe, aber keine vollständige Barrierefreiheit. Es bleibe also noch viel zu tun, lautet das Fazit der Studienautoren.  Einige Branchen haben noch Nachholbedarf, was die Barrierefreiheit ihrer Online-Auftritte betrifft.ebuero Eine detaillierte Betrachtung der digitalen Barrierefreiheit zeigt allerdings deutliche Unterschiede zwischen den Branchen. Von 247 untersuchten Webseiten erreichten 16 die Höchstbewertung von 100 Punkten, weitere 90 eine Bewertung von über 90 Punkten. 15 kommen aus der Kategorie Universitäten, gefolgt von 14 aus dem Bereich Stadtverwaltung. Auch der ÖPNV (elf Webseiten), Anwälte und Onlineshops (jeweils 13 Webseiten) hätten noch bemerkenswerte Ergebnisse erzielt, hieß es.  Die Bewertung der Barrierefreiheit der untersuchten Webseiten erfolgte mit dem Google-Tool Lighthouse. Ermittelt wird dabei ein Wert zwischen 0 und 100 Punkten:  Im Bereich von 0 bis 49 Punkten gilt eine Webseite hinsichtlich der Barrierefreiheit als durchgefallen.  Eine Bewertung von 50 bis 89 Punkten zählt als durchschnittlich.  90 bis 100 Punkte dürfen mit dem Prädikat gut gewertet werden.  Von den fast 250 untersuchten Webseiten sind nur knapp sieben Prozent völlig barrierefrei. ebuero Weniger überzeugend haben der ebuero-Studie zufolge Apotheken, E-Mail-Provider, Ärzte und Bundesliga-Vereine abgeschnitten:  Von den neun untersuchten Apotheken-Webseiten erreichten keine die Höchstbewertung von 100 Punkten. Deutlich mehr als die Hälfte (56 Prozent) liegen im Bereich von 70 bis 89 Punkten und haben damit, was die Barrierefreiheit anbelangt, noch deutlich Luft nach oben.  Immerhin zwei der neun untersuchten E-Mail-Provider schafften 100 Punkte. Allerdings haben vier Anbieter noch deutliche Lücken. Die ebuero-Experten schauen hier etwas strenger auf das Ergebnis, „da E-Mail-Adressen als Zugang zu vielen digitalen Diensten unerlässlich sind.“  Bei den 30 analysierten Ärzte-Websites schafft ein gutes Viertel ein „gut“ – volle Punktzahl allerdings Fehlanzeige. Zehn Seiten bleiben unter 80 Punkten, zwei davon schaffen keine 70 Zähler. „Hier ist noch einiges zu tun, um den gesetzlichen Anforderungen gerecht zu werden“, hieß es.  Auch bei den Bundesliga-Vereinen erreicht keine Website die Höchstbewertung von 100 Punkten, gerade einmal vier erzielen zumindest eine gute Bewertung. Es bestehe bei allen 18 Vereinen der höchsten deutschen Fußballliga ein „moderater Handlungsbedarf für die Barrierefreiheit“.  „Eine barrierefreie Website ist kein Luxus, sondern eine Notwendigkeit – für Menschen mit und ohne Einschränkungen“, kommentierte Laura Keddi, VP Marketing und Customer Success von ebuero AG, die Ergebnisse der Analyse. Barrierefreiheit bedeute Klarheit, Einfachheit und Inklusion – Werte, die jeden Kundenservice stärkten. Barrierefreiheit stärkt Reputation Gleichzeitig erfüllten barrierefreie Webseiten rechtliche Vorgaben und zeigten, dass ein Unternehmen Verantwortung übernimmt, sagte Keddi. „Wer barrierefrei denkt, denkt zukunftsorientiert: Denn eine Webseite, die für alle zugänglich ist, ist auch benutzerfreundlich, sichtbarer in Suchmaschinen und stärkt die Reputation. Kundenbindung beginnt dort, wo jeder willkommen ist – online und ohne Barrieren.“ Hier finden Sie weitere Informationen zum Thema Barrierefreiheit und BFSG: Barrierefreiheitsstärkungsgesetz: Barrierefreiheit von Webseiten wird Pflicht Barrierefreiheit im Netz: Inklusion für digitale Dienste Fast alle deutschen Online-Shops nicht barrierefrei Wer die kommenden gesetzlichen Anforderungen ignoriert, riskiert Bußgelder oder sogar die Abschaltung der eigenen Website. Darüber hinaus geht es darum, gesellschaftliche Verantwortung zu übernehmen. Schließlich lebt jede/r achte Deutsche mit einer Beeinträchtigung.  

Barrierefreiheit ab Ende Juni Pflicht​ width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Ab Ende Juni 2025 gelten in Deutschland schärfere Regeln, was die Barrierefreiheit von Produkten und Dienstleistungen anbelangt.Markus Mainka – shutterstock.com

Die Uhr tickt. Zum Stichtag 28. Juni 2025 tritt das Barrierefreiheitsstärkungsgesetz (BFSG) in Kraft. Ab dann sind Betreiber von Webseiten verpflichtet, ihr Online-Angebot gemäß geltender EU-Richtlinien und nationaler Vorgaben barrierefrei zu gestalten. Dazu gehört beispielsweise, zu Bildern ausreichend beschreibende Alternativtexte anzubieten beziehungsweise die Bedienbarkeit ihrer Webseite mit der Tastatur zu gewährleisten. 

Doch davon sind die meisten Website-Betreiber noch weit entfernt, wie eine Untersuchung des Telefon- und Bürodienstleisters ebuero gezeigt hat. Demzufolge seien gerade einmal 6,5 Prozent der analysierten Webseiten vollständig barrierefrei und erfüllten höchste Standards. Immerhin drei von zehn der analysierten Webseiten erreichen eine hohe, aber keine vollständige Barrierefreiheit. Es bleibe also noch viel zu tun, lautet das Fazit der Studienautoren. 

Einige Branchen haben noch Nachholbedarf, was die Barrierefreiheit ihrer Online-Auftritte betrifft.ebuero

Eine detaillierte Betrachtung der digitalen Barrierefreiheit zeigt allerdings deutliche Unterschiede zwischen den Branchen. Von 247 untersuchten Webseiten erreichten 16 die Höchstbewertung von 100 Punkten, weitere 90 eine Bewertung von über 90 Punkten. 15 kommen aus der Kategorie Universitäten, gefolgt von 14 aus dem Bereich Stadtverwaltung. Auch der ÖPNV (elf Webseiten), Anwälte und Onlineshops (jeweils 13 Webseiten) hätten noch bemerkenswerte Ergebnisse erzielt, hieß es. 

Die Bewertung der Barrierefreiheit der untersuchten Webseiten erfolgte mit dem Google-Tool Lighthouse. Ermittelt wird dabei ein Wert zwischen 0 und 100 Punkten: 

Im Bereich von 0 bis 49 Punkten gilt eine Webseite hinsichtlich der Barrierefreiheit als durchgefallen. 

Eine Bewertung von 50 bis 89 Punkten zählt als durchschnittlich. 

90 bis 100 Punkte dürfen mit dem Prädikat gut gewertet werden. 

Von den fast 250 untersuchten Webseiten sind nur knapp sieben Prozent völlig barrierefrei. ebuero

Weniger überzeugend haben der ebuero-Studie zufolge Apotheken, E-Mail-Provider, Ärzte und Bundesliga-Vereine abgeschnitten: 

Von den neun untersuchten Apotheken-Webseiten erreichten keine die Höchstbewertung von 100 Punkten. Deutlich mehr als die Hälfte (56 Prozent) liegen im Bereich von 70 bis 89 Punkten und haben damit, was die Barrierefreiheit anbelangt, noch deutlich Luft nach oben. 

Immerhin zwei der neun untersuchten E-Mail-Provider schafften 100 Punkte. Allerdings haben vier Anbieter noch deutliche Lücken. Die ebuero-Experten schauen hier etwas strenger auf das Ergebnis, „da E-Mail-Adressen als Zugang zu vielen digitalen Diensten unerlässlich sind.“ 

Bei den 30 analysierten Ärzte-Websites schafft ein gutes Viertel ein „gut“ – volle Punktzahl allerdings Fehlanzeige. Zehn Seiten bleiben unter 80 Punkten, zwei davon schaffen keine 70 Zähler. „Hier ist noch einiges zu tun, um den gesetzlichen Anforderungen gerecht zu werden“, hieß es. 

Auch bei den Bundesliga-Vereinen erreicht keine Website die Höchstbewertung von 100 Punkten, gerade einmal vier erzielen zumindest eine gute Bewertung. Es bestehe bei allen 18 Vereinen der höchsten deutschen Fußballliga ein „moderater Handlungsbedarf für die Barrierefreiheit“. 

„Eine barrierefreie Website ist kein Luxus, sondern eine Notwendigkeit – für Menschen mit und ohne Einschränkungen“, kommentierte Laura Keddi, VP Marketing und Customer Success von ebuero AG, die Ergebnisse der Analyse. Barrierefreiheit bedeute Klarheit, Einfachheit und Inklusion – Werte, die jeden Kundenservice stärkten.

Barrierefreiheit stärkt Reputation

Gleichzeitig erfüllten barrierefreie Webseiten rechtliche Vorgaben und zeigten, dass ein Unternehmen Verantwortung übernimmt, sagte Keddi. „Wer barrierefrei denkt, denkt zukunftsorientiert: Denn eine Webseite, die für alle zugänglich ist, ist auch benutzerfreundlich, sichtbarer in Suchmaschinen und stärkt die Reputation. Kundenbindung beginnt dort, wo jeder willkommen ist – online und ohne Barrieren.“

Hier finden Sie weitere Informationen zum Thema Barrierefreiheit und BFSG:

Barrierefreiheitsstärkungsgesetz: Barrierefreiheit von Webseiten wird Pflicht

Barrierefreiheit im Netz: Inklusion für digitale Dienste

Fast alle deutschen Online-Shops nicht barrierefrei

Wer die kommenden gesetzlichen Anforderungen ignoriert, riskiert Bußgelder oder sogar die Abschaltung der eigenen Website. Darüber hinaus geht es darum, gesellschaftliche Verantwortung zu übernehmen. Schließlich lebt jede/r achte Deutsche mit einer Beeinträchtigung. 

Barrierefreiheit ab Ende Juni Pflicht​ Weiterlesen »

RAG-Framework verbindet GenAI mit Unternehmenswissen​

Allgemein

RAG kann für Unternehmen vieles besser machen, aber auch neue Probleme schaffen. Koshiro K – shutterstock.com Das RAG-Framework (Retrieval-Augmented Generation) wird bei Unternehmen zunehmend beliebter, da es generative KI (GenAI) mit firmeneigenem Wissen kombiniert. RAG ist eine KI-Architektur, die generative Sprachmodelle mit unternehmensinternen Daten verknüpft. Sie ermöglicht es, bei Anfragen relevantes Wissen aus Datenbanken und Dokumenten abzurufen und gemeinsam mit der Anfrage ins Modell einzuspeisen. Dadurch können präzisere und kontextbezogene Antworten entstehen, die über das vortrainierte Wissen des Modells hinausgehen. Indem auf interne Datenquellen wie PDFs oder FAQs bei der Anfrage zugriffen wird, reduziert RAG zudem Halluzinationen deutlich, da Antworten auf überprüfbaren Informationen basieren und nachvollziehbar sind. Datenqualität entscheidet über Ergebnisqualität Ein weiterer Vorteil von RAG soll laut den KI-Experten von Bloomberg darin bestehen, dass beispielsweise Unternehmen nützliche Informationen aus Ihren jahrelang angelegten, unorganisierten Datenquellen extrahieren können, auf die Sie sonst nur schwer zugreifen könnten. Wenn die zugrunde liegenden Daten allerdings veraltet oder von schlechter Qualität sind, liefert das System unzuverlässige Ergebnisse. Da RAG die Daten nicht automatisch bereinigt, müssen Unternehmen sie sorgfältig pflegen, strukturieren und aktuell halten, um zuverlässige Resultate zu erhalten. Erhöhte Risiken durch RAG Laut den Experten kann RAG aber auch die Sicherheit von KI-Modellen beeinträchtigen. Selbst normalerweise „sichere“ Modelle lieferten bei aktiviertem RAG deutlich mehr problematische Antworten. In Tests von elf führenden LLMs, darunter GPT-4o, Claude-3.5-Sonnet und Llama-3-8 B, mit über 5.000 schädlichen Eingaben stieg die Rate unsicherer Ausgaben um 15 bis 30 Prozent. Besonders kritisch war der Umgang mit langen Dokumenten, der zu Datenlecks, irreführenden Analysen und voreingenommenen Empfehlungen führte. Außerdem war es wahrscheinlicher, dass die RAG-fähigen Modelle gefährliche Antworten lieferten, die für Malware und politische Kampagnen verwendet werden könnten. Dynamische Daten erhöhen Risiko RAG birgt laut den Forschern von Bloomberg noch weitere Risiken mit sich: Aufgrund seines Designs, das externe Daten dynamisch einbindet, entstehen neue, schwer kontrollierbare Schwachstellen. Daher fordern Experten mehrschichtige Schutzmaßnahmen und einen verantwortungsvollen Umgang mit RAG. Hiermit ließen sich sichere und zuverlässige Ergebnisse gewährleisten. Mehrschichtige Sicherheitsmaßnahmen empfohlen Weitere Experten empfehlen zudem, für RAG bereichsspezifische Gefahrenklassifizierungen zu entwickeln und Sicherheitsmaßnahmen wie Geschäftslogikprüfungen, Faktenchecks und Red-Team-Tests zu kombinieren. Besonders im Finanzsektor seien strenge Prüfungen notwendig, da fehlerhafte oder vertrauliche Inhalte rechtliche Konsequenzen nach sich ziehen können. Angesichts zunehmender regulatorischer Kontrolle in den USA und der EU ist ein verantwortungsvoller sowie sicherer Einsatz von RAG unerlässlich. 

RAG-Framework verbindet GenAI mit Unternehmenswissen​ RAG kann für Unternehmen vieles besser machen, aber auch neue Probleme schaffen.
Koshiro K – shutterstock.com

Das RAG-Framework (Retrieval-Augmented Generation) wird bei Unternehmen zunehmend beliebter, da es generative KI (GenAI) mit firmeneigenem Wissen kombiniert.

RAG ist eine KI-Architektur, die generative Sprachmodelle mit unternehmensinternen Daten verknüpft. Sie ermöglicht es, bei Anfragen relevantes Wissen aus Datenbanken und Dokumenten abzurufen und gemeinsam mit der Anfrage ins Modell einzuspeisen.

Dadurch können präzisere und kontextbezogene Antworten entstehen, die über das vortrainierte Wissen des Modells hinausgehen. Indem auf interne Datenquellen wie PDFs oder FAQs bei der Anfrage zugriffen wird, reduziert RAG zudem Halluzinationen deutlich, da Antworten auf überprüfbaren Informationen basieren und nachvollziehbar sind.

Datenqualität entscheidet über Ergebnisqualität

Ein weiterer Vorteil von RAG soll laut den KI-Experten von Bloomberg darin bestehen, dass beispielsweise Unternehmen nützliche Informationen aus Ihren jahrelang angelegten, unorganisierten Datenquellen extrahieren können, auf die Sie sonst nur schwer zugreifen könnten.

Wenn die zugrunde liegenden Daten allerdings veraltet oder von schlechter Qualität sind, liefert das System unzuverlässige Ergebnisse. Da RAG die Daten nicht automatisch bereinigt, müssen Unternehmen sie sorgfältig pflegen, strukturieren und aktuell halten, um zuverlässige Resultate zu erhalten.

Erhöhte Risiken durch RAG

Laut den Experten kann RAG aber auch die Sicherheit von KI-Modellen beeinträchtigen. Selbst normalerweise „sichere“ Modelle lieferten bei aktiviertem RAG deutlich mehr problematische Antworten.

In Tests von elf führenden LLMs, darunter

GPT-4o,

Claude-3.5-Sonnet und

Llama-3-8 B,

mit über 5.000 schädlichen Eingaben stieg die Rate unsicherer Ausgaben um 15 bis 30 Prozent. Besonders kritisch war der Umgang mit langen Dokumenten, der zu Datenlecks, irreführenden Analysen und voreingenommenen Empfehlungen führte. Außerdem war es wahrscheinlicher, dass die RAG-fähigen Modelle gefährliche Antworten lieferten, die für Malware und politische Kampagnen verwendet werden könnten.

Dynamische Daten erhöhen Risiko

RAG birgt laut den Forschern von Bloomberg noch weitere Risiken mit sich: Aufgrund seines Designs, das externe Daten dynamisch einbindet, entstehen neue, schwer kontrollierbare Schwachstellen. Daher fordern Experten mehrschichtige Schutzmaßnahmen und einen verantwortungsvollen Umgang mit RAG. Hiermit ließen sich sichere und zuverlässige Ergebnisse gewährleisten.

Mehrschichtige Sicherheitsmaßnahmen empfohlen

Weitere Experten empfehlen zudem, für RAG bereichsspezifische Gefahrenklassifizierungen zu entwickeln und Sicherheitsmaßnahmen wie

Geschäftslogikprüfungen,

Faktenchecks und

Red-Team-Tests

zu kombinieren.

Besonders im Finanzsektor seien strenge Prüfungen notwendig, da fehlerhafte oder vertrauliche Inhalte rechtliche Konsequenzen nach sich ziehen können. Angesichts zunehmender regulatorischer Kontrolle in den USA und der EU ist ein verantwortungsvoller sowie sicherer Einsatz von RAG unerlässlich.

RAG-Framework verbindet GenAI mit Unternehmenswissen​ Weiterlesen »

GreenOps – das neue, bessere FinOps​

Allgemein

Nachhaltigkeitsziele zu erreichen, ist auch mit dem GreenOps-Konzept kein Selbstläufer.JoeyCheung | shutterstock.com Die weltweiten IT-Ausgaben sollen aktuellen Prognosen zufolge im Jahr 2025 um circa neun Prozent steigen – im Wesentlichen getrieben durch die Cloud und künstliche Intelligenz (KI). Dieses rasante Wachstum verdeutlicht jedoch auch, dass nachhaltigere, effizientere Methoden, um Ressourcen zu managen, dringend angebracht sind. Denn für einige Unternehmen sind die Public-Cloud-Kosten in den letzten Jahren sprunghaft angestiegen. Einige der Kunden, die wir beraten, sind mit Rechnungen konfrontiert, die zwei- bis dreimal höher ausfallen als erwartet. Häufig explodieren die Kosten schneller als Gegen-, beziehungsweise Kontrollmaßnahmen implementiert werden können. Dieses Problem verschärft sich durch den Hype um KI noch um ein Vielfaches. Zwar setzen viele Unternehmen auf FinOps, um die Kontrolle über eskalierende Kosten zurückzugewinnen – das bleibt jedoch aus verschiedenen Gründen (dazu gleich mehr) oft ein erfolgloses Unterfangen. Ein neuer Ansatz für das Cloud-Kostenmanagement im KI-Zeitalter ist deshalb dringend erforderlich. Daran scheitert FinOps Das FinOps-Framework ist das Ergebnis der Kombination von Finance und DevOps und ist erstmals Anfang der 2010er Jahre aufgekommen. Und obwohl das Konzept beträchtliches Potenzial aufweist, kann es seine Versprechen häufig nicht einlösen. Die wichtigsten Gründe dafür sind: Mangelnde funktionsübergreifende Abstimmung: FinOps betrifft in erster Linie Finanz- und IT-Teams, weswegen der Input anderer Stakeholder wie OT- und Sustainability-Teams oft vernachlässigt werden. Dieser isolierte Ansatz führt zu suboptimalen Entscheidungen und uneinheitlichen Strategien. Kurzfristige Ausrichtung: Der Fokus von FinOps liegt vor allem darauf, Kosten sofort einzusparen. Das kann langfristige Ziele wie Performance, Verfügbarkeit, Skalierbarkeit und Nachhaltigkeit gefährden. Übermäßiger Fokus auf Tools, Budgets und Kontrollmaßnahmen: FinOps-Initiativen legen regelmäßig mehr Wert darauf, Kostenmanagement-Tools zu implementieren – statt eine Kultur der Verantwortlichkeit und Zusammenarbeit zu fördern, die für dauerhaften Change unerlässlich ist. Motivationsvernachlässigung: Der Kostenkontrollfokus motiviert Architekten und Ingenieure nicht dazu, effizientere Systeme zu entwerfen. Das führt wiederum zu Trägheit und minimalen Fortschritten. Finanzmetriken geben den Ton an: FinOps konzentriert sich fast ausschließlich auf finanzielle Kennzahlen und vernachlässigt Umweltaspekte. Diese sollten für moderne Unternehmen jedoch immer wichtiger werden. Kacy Clarke ist Chief Technology Officer bei der Unternehmensberatung Chiefly & Co. Zuvor bekleidete sie unter anderem leitende Positionen bei Microsoft, Deloitte sowie Hewlett-Packard Enterprise.Kacy Clarke Was GreenOps besser macht GreenOps ist aus der Fusion von FinOps, Sustainability und DevOps hervorgegangen. Das Konzept will die Limitationen von FinOps überwinden und parallel Nachhaltigkeit als Kernprinzip etablieren. Systeme, die nach GreenOps-Prinzipien aufgebaut sind, sollen nicht nur kosteneffizient sein, sondern auch den ökologischen Fußabdruck minimieren und dadurch technologische Innovation mit Umweltverantwortung in Einklang bringen. Nach meiner Erfahrung sind Emissionswerte auch eine größere Motivation für Architekten und Engineers als Kosten, wenn es darum geht, effizientere Systeme zu entwerfen und Lösungen zu entwickeln, um nicht ausgelastete Ressourcen automatisiert abzuschalten – ganz besonders, wenn es dabei um Millennials und die Generation Z geht. Die Vorzüge des GreenOps-Ansatzes im Überblick: Ganzheitlicher Ansatz: Finanzielle, ökologische und betriebliche Kennzahlen einzubeziehen, gewährleistet eine ausgewogene Strategie, die mit den übergeordneten Unternehmenszielen im Einklang steht. Funktionsübergreifende Zusammenarbeit: Verschiedene Stakeholder aus den Bereichen IT, Finanzen, Betrieb und Nachhaltigkeit einzubinden, fördert eine optimierte Abstimmung innerhalb der Organisation sowie eine ganzheitliche Entscheidungsfindung. Standardisierte Kennzahlen: Frameworks für die CO2-Bilanzierung und Energieeffizienz einzusetzen, vereinfacht das Benchmarking und damit die Entscheidungsfindung. Die Visualisierung von Emissionsschätzungen sowie Schulungen, die umweltfreundliche Systeme behandeln, geben die nötigen Tools an die Hand, um Nachhaltigkeitsoptimierungen möglichst früh im Designprozess zu verankern.   Langfristige Wertschöpfung: GreenOps fördert Methoden, die sowohl Kosteneinsparungen als auch Sustainability-Vorteile erschließen. Letztere zahlen auf CSR- und ESG-Ziele ein und können den Markenwert steigern. Kultureller Wandel: Bei GreenOps steht im Vordergrund, eine Kultur der Umweltverantwortung zu etablieren. Das ist auch nachhaltigen Cloud-Praktiken förderlich. Allerdings reicht GreenOps alleine nicht aus, um sämtliche Ineffizienzen zu beseitigen und der Kostenexplosion zu entfliehen: Nachhaltigkeitsaspekte müssen vielmehr bereits in den frühesten Phasen von Systemdesign oder Anbieterauswahl eine Rolle spielen. Mit anderen Worten: Es braucht einen transformativen Wandel und einen umfassenderen Rahmen. GreenOps trifft transformative Führung An dieser Stelle kommt Enterprise Architecture (EA) ins Spiel: Ein Framework, um die Unternehmenstransformation voranzutreiben, dabei jedoch parallel agil und resilient zu bleiben. Werden die GreenOps-Prinzipien in EA-Initiativen integriert, stellt das sicher, dass Sustainability-Aspekte in jeder Phase von Systemdesign und -betrieb berücksichtigt werden. Eine solche Ausrichtung ermöglicht Unternehmen damit, nachhaltige Architekturen aufzubauen und zu betreiben, die: den Energieverbrauch optimieren, Ausschuss reduzieren und neben technischen und geschäftlichen Zielen auch langfristige Nachhaltigkeitsziele realisieren. Eine sinnvolle Transformation braucht jedoch nicht nur technische Skills, sondern auch Führungskompetenz, beziehungsweise die Fähigkeit, andere inspirieren zu können. Denn, das sehen wir in unserer täglichen Arbeit mit den Kunden: Echte Transformation gelingt nur mit Begeisterung, respektive Leidenschaft. An dieser Stelle kommen schließlich die Prinzipien der Transformational Leadership ins Spiel: Indem die kulturellen Aspekte in den Fokus gerückt werden (etwa DevOps, Agile, Infrastructure as Code oder Cloud Native), lassen sich Cloud-Einführungen in Unternehmen schneller, reibungsloser und kostengünstiger gestalten. Zu den grundlegenden Komponenten der transformativer Führung gehören: Inspirierende Motivation: Führungskräfte formulieren eine klare, überzeugende Vision, die Mitarbeiter dazu inspiriert, Erwartungen zu übertreffen und neue Herausforderungen anzunehmen. Intellektuelle Anregung: Führungskräfte ermutigen dazu, Annahmen kritisch zu hinterfragen, innovative Ideen zu erkunden und bahnbrechende Lösungen zu verfolgen. Individuelle Berücksichtigung: Führungskräfte bieten maßgeschneiderten Support und Mentoring und gehen dabei auf die individuellen Bedürfnisse ihrer Mitarbeiter ein. Idealisierter Einfluss: Führungskräfte fungieren als Vorbilder, verkörpern die Werte des Unternehmens und zeigen unerschütterliches Engagement für dessen Ziele. Manager, die diese Prinzipien mit Nachhaltigkeit, beziehungsweise GreenOps, kombinieren, treiben den kulturellen und operativen Wandel voran, der erforderlich ist, um effizientere, nachhaltigere Systeme aufzubauen. GreenOps-Herausforderungen & -Chancen GreenOps und die daraus erwachsenden, nachhaltigen Architekturen sind zwar attraktive Rahmenkonzepte, werfen jedoch auch Herausforderungen auf. Dazu zählen in erster Linie: Initiale Investitionen: GreenOps und nachhaltige Enterprise-Architekturen zu implementieren, erfordert erhebliche Vorabinvestitionen in Tools, Schulungen und Prozessoptimierungen. Skill-Nachholbedarf: Hocheffiziente, dynamische Architekturen zu entwickeln, ist ein komplexer Prozess und erfordert in den meisten Fällen, neue Kompetenzen aufzubauen. Metriken im Überfluss: Neben der finanziellen Performance auch die Umweltauswirkungen zu erfassen, kann eine gewaltige Aufgabe darstellen – die jedoch für sinnvolle Fortschritte unerlässlich ist. Interner Widerstand: Die Umstellung auf GreenOps, beziehungsweise eine Nachhaltigkeitsmentalität, erfordert sehr wahrscheinlich, Change-Widerstände zu überwinden. Trotz dieser Hindernisse sind die Chancen, die sich mit GreenOps bieten, immens. Und es ist nicht in Stein gemeißelt, dass die Umwälzungen tiefgreifend ausfallen müssen. So legt beispielsweise eine Studie der University of Waterloo nahe, dass bereits eine kleine Änderung am Linux-Kernel den Stromverbrauch vieler Rechenzentren um bis zu 30 Prozent reduzieren könnte. GreenOps, nachhaltige Architekturen und Transformational Leadership miteinander zu kombinieren, stellt mit Blick auf den Cloud-Betrieb ist die nächste große Herausforderung dar. Unternehmen, die diese annehmen, um die Limitationen von FinOps zu überwinden, werden am Ende von einem effizienteren und umweltfreundlicheren Cloud-Ökosystem profitieren. GreenOps ist auf dem besten Weg, sich zu einem essenziellen Framework zu entwickeln, das die Zukunft des Cloud Computing prägen wird und ein harmonisches Gleichgewicht zwischen technologischer Innovation und ökologischer Verantwortung gewährleistet. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

GreenOps – das neue, bessere FinOps​ Nachhaltigkeitsziele zu erreichen, ist auch mit dem GreenOps-Konzept kein Selbstläufer.JoeyCheung | shutterstock.com

Die weltweiten IT-Ausgaben sollen aktuellen Prognosen zufolge im Jahr 2025 um circa neun Prozent steigen – im Wesentlichen getrieben durch die Cloud und künstliche Intelligenz (KI). Dieses rasante Wachstum verdeutlicht jedoch auch, dass nachhaltigere, effizientere Methoden, um Ressourcen zu managen, dringend angebracht sind. Denn für einige Unternehmen sind die Public-Cloud-Kosten in den letzten Jahren sprunghaft angestiegen. Einige der Kunden, die wir beraten, sind mit Rechnungen konfrontiert, die zwei- bis dreimal höher ausfallen als erwartet. Häufig explodieren die Kosten schneller als Gegen-, beziehungsweise Kontrollmaßnahmen implementiert werden können.

Dieses Problem verschärft sich durch den Hype um KI noch um ein Vielfaches. Zwar setzen viele Unternehmen auf FinOps, um die Kontrolle über eskalierende Kosten zurückzugewinnen – das bleibt jedoch aus verschiedenen Gründen (dazu gleich mehr) oft ein erfolgloses Unterfangen. Ein neuer Ansatz für das Cloud-Kostenmanagement im KI-Zeitalter ist deshalb dringend erforderlich.

Daran scheitert FinOps

Das FinOps-Framework ist das Ergebnis der Kombination von Finance und DevOps und ist erstmals Anfang der 2010er Jahre aufgekommen. Und obwohl das Konzept beträchtliches Potenzial aufweist, kann es seine Versprechen häufig nicht einlösen. Die wichtigsten Gründe dafür sind:

Mangelnde funktionsübergreifende Abstimmung: FinOps betrifft in erster Linie Finanz- und IT-Teams, weswegen der Input anderer Stakeholder wie OT- und Sustainability-Teams oft vernachlässigt werden. Dieser isolierte Ansatz führt zu suboptimalen Entscheidungen und uneinheitlichen Strategien.

Kurzfristige Ausrichtung: Der Fokus von FinOps liegt vor allem darauf, Kosten sofort einzusparen. Das kann langfristige Ziele wie Performance, Verfügbarkeit, Skalierbarkeit und Nachhaltigkeit gefährden.

Übermäßiger Fokus auf Tools, Budgets und Kontrollmaßnahmen: FinOps-Initiativen legen regelmäßig mehr Wert darauf, Kostenmanagement-Tools zu implementieren – statt eine Kultur der Verantwortlichkeit und Zusammenarbeit zu fördern, die für dauerhaften Change unerlässlich ist.

Motivationsvernachlässigung: Der Kostenkontrollfokus motiviert Architekten und Ingenieure nicht dazu, effizientere Systeme zu entwerfen. Das führt wiederum zu Trägheit und minimalen Fortschritten.

Finanzmetriken geben den Ton an: FinOps konzentriert sich fast ausschließlich auf finanzielle Kennzahlen und vernachlässigt Umweltaspekte. Diese sollten für moderne Unternehmen jedoch immer wichtiger werden.

Kacy Clarke ist Chief Technology Officer bei der Unternehmensberatung Chiefly & Co. Zuvor bekleidete sie unter anderem leitende Positionen bei Microsoft, Deloitte sowie Hewlett-Packard Enterprise.Kacy Clarke

Was GreenOps besser macht

GreenOps ist aus der Fusion von FinOps, Sustainability und DevOps hervorgegangen. Das Konzept will die Limitationen von FinOps überwinden und parallel Nachhaltigkeit als Kernprinzip etablieren. Systeme, die nach GreenOps-Prinzipien aufgebaut sind, sollen nicht nur kosteneffizient sein, sondern auch den ökologischen Fußabdruck minimieren und dadurch technologische Innovation mit Umweltverantwortung in Einklang bringen.

Nach meiner Erfahrung sind Emissionswerte auch eine größere Motivation für Architekten und Engineers als Kosten, wenn es darum geht, effizientere Systeme zu entwerfen und Lösungen zu entwickeln, um nicht ausgelastete Ressourcen automatisiert abzuschalten – ganz besonders, wenn es dabei um Millennials und die Generation Z geht. Die Vorzüge des GreenOps-Ansatzes im Überblick:

Ganzheitlicher Ansatz: Finanzielle, ökologische und betriebliche Kennzahlen einzubeziehen, gewährleistet eine ausgewogene Strategie, die mit den übergeordneten Unternehmenszielen im Einklang steht.

Funktionsübergreifende Zusammenarbeit: Verschiedene Stakeholder aus den Bereichen IT, Finanzen, Betrieb und Nachhaltigkeit einzubinden, fördert eine optimierte Abstimmung innerhalb der Organisation sowie eine ganzheitliche Entscheidungsfindung.

Standardisierte Kennzahlen: Frameworks für die CO2-Bilanzierung und Energieeffizienz einzusetzen, vereinfacht das Benchmarking und damit die Entscheidungsfindung. Die Visualisierung von Emissionsschätzungen sowie Schulungen, die umweltfreundliche Systeme behandeln, geben die nötigen Tools an die Hand, um Nachhaltigkeitsoptimierungen möglichst früh im Designprozess zu verankern.  

Langfristige Wertschöpfung: GreenOps fördert Methoden, die sowohl Kosteneinsparungen als auch Sustainability-Vorteile erschließen. Letztere zahlen auf CSR- und ESG-Ziele ein und können den Markenwert steigern.

Kultureller Wandel: Bei GreenOps steht im Vordergrund, eine Kultur der Umweltverantwortung zu etablieren. Das ist auch nachhaltigen Cloud-Praktiken förderlich.

Allerdings reicht GreenOps alleine nicht aus, um sämtliche Ineffizienzen zu beseitigen und der Kostenexplosion zu entfliehen: Nachhaltigkeitsaspekte müssen vielmehr bereits in den frühesten Phasen von Systemdesign oder Anbieterauswahl eine Rolle spielen. Mit anderen Worten: Es braucht einen transformativen Wandel und einen umfassenderen Rahmen.

GreenOps trifft transformative Führung

An dieser Stelle kommt Enterprise Architecture (EA) ins Spiel: Ein Framework, um die Unternehmenstransformation voranzutreiben, dabei jedoch parallel agil und resilient zu bleiben. Werden die GreenOps-Prinzipien in EA-Initiativen integriert, stellt das sicher, dass Sustainability-Aspekte in jeder Phase von Systemdesign und -betrieb berücksichtigt werden. Eine solche Ausrichtung ermöglicht Unternehmen damit, nachhaltige Architekturen aufzubauen und zu betreiben, die:

den Energieverbrauch optimieren,

Ausschuss reduzieren und

neben technischen und geschäftlichen Zielen auch langfristige Nachhaltigkeitsziele realisieren.

Eine sinnvolle Transformation braucht jedoch nicht nur technische Skills, sondern auch Führungskompetenz, beziehungsweise die Fähigkeit, andere inspirieren zu können. Denn, das sehen wir in unserer täglichen Arbeit mit den Kunden: Echte Transformation gelingt nur mit Begeisterung, respektive Leidenschaft. An dieser Stelle kommen schließlich die Prinzipien der Transformational Leadership ins Spiel: Indem die kulturellen Aspekte in den Fokus gerückt werden (etwa DevOps, Agile, Infrastructure as Code oder Cloud Native), lassen sich Cloud-Einführungen in Unternehmen schneller, reibungsloser und kostengünstiger gestalten. Zu den grundlegenden Komponenten der transformativer Führung gehören:

Inspirierende Motivation: Führungskräfte formulieren eine klare, überzeugende Vision, die Mitarbeiter dazu inspiriert, Erwartungen zu übertreffen und neue Herausforderungen anzunehmen.

Intellektuelle Anregung: Führungskräfte ermutigen dazu, Annahmen kritisch zu hinterfragen, innovative Ideen zu erkunden und bahnbrechende Lösungen zu verfolgen.

Individuelle Berücksichtigung: Führungskräfte bieten maßgeschneiderten Support und Mentoring und gehen dabei auf die individuellen Bedürfnisse ihrer Mitarbeiter ein.

Idealisierter Einfluss: Führungskräfte fungieren als Vorbilder, verkörpern die Werte des Unternehmens und zeigen unerschütterliches Engagement für dessen Ziele.

Manager, die diese Prinzipien mit Nachhaltigkeit, beziehungsweise GreenOps, kombinieren, treiben den kulturellen und operativen Wandel voran, der erforderlich ist, um effizientere, nachhaltigere Systeme aufzubauen.

GreenOps-Herausforderungen & -Chancen

GreenOps und die daraus erwachsenden, nachhaltigen Architekturen sind zwar attraktive Rahmenkonzepte, werfen jedoch auch Herausforderungen auf. Dazu zählen in erster Linie:

Initiale Investitionen: GreenOps und nachhaltige Enterprise-Architekturen zu implementieren, erfordert erhebliche Vorabinvestitionen in Tools, Schulungen und Prozessoptimierungen.

Skill-Nachholbedarf: Hocheffiziente, dynamische Architekturen zu entwickeln, ist ein komplexer Prozess und erfordert in den meisten Fällen, neue Kompetenzen aufzubauen.

Metriken im Überfluss: Neben der finanziellen Performance auch die Umweltauswirkungen zu erfassen, kann eine gewaltige Aufgabe darstellen – die jedoch für sinnvolle Fortschritte unerlässlich ist.

Interner Widerstand: Die Umstellung auf GreenOps, beziehungsweise eine Nachhaltigkeitsmentalität, erfordert sehr wahrscheinlich, Change-Widerstände zu überwinden.

Trotz dieser Hindernisse sind die Chancen, die sich mit GreenOps bieten, immens. Und es ist nicht in Stein gemeißelt, dass die Umwälzungen tiefgreifend ausfallen müssen. So legt beispielsweise eine Studie der University of Waterloo nahe, dass bereits eine kleine Änderung am Linux-Kernel den Stromverbrauch vieler Rechenzentren um bis zu 30 Prozent reduzieren könnte.

GreenOps, nachhaltige Architekturen und Transformational Leadership miteinander zu kombinieren, stellt mit Blick auf den Cloud-Betrieb ist die nächste große Herausforderung dar. Unternehmen, die diese annehmen, um die Limitationen von FinOps zu überwinden, werden am Ende von einem effizienteren und umweltfreundlicheren Cloud-Ökosystem profitieren. GreenOps ist auf dem besten Weg, sich zu einem essenziellen Framework zu entwickeln, das die Zukunft des Cloud Computing prägen wird und ein harmonisches Gleichgewicht zwischen technologischer Innovation und ökologischer Verantwortung gewährleistet. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

GreenOps – das neue, bessere FinOps​ Weiterlesen »

19 Wege, Android-Staubfänger wiederzubeleben​

Allgemein

Es gibt bessere Dinge, die Sie mit Android-Altgeräten anstellen können. Foto: Melnikov Dmitriy | shutterstock.com Mit jeder neuen Smartphone- und Tablet-Generation wächst die Zahl der Devices, die ausgemustert werden. In den allermeisten Fällen werden die (oft gar nicht so) alten Gerätschaften dann zu Staubfängern. Was schade ist, denn es gibt diverse Möglichkeiten, um alten Android-Telefonen und –Tablets zu neuem Glanz und Nutzwert zu verhelfen. Zum Beispiel die folgenden. 1. Wireless Trackpad Mit Hilfe der richtigen Software und einigen Minuten Zeitaufwand für die Konfiguration, können Sie Ihr Android-Gerät im Handumdrehen zu einem Trackpad, beziehungsweise Controller für Windows-, Mac und Linux-Rechner umfunktionieren. Alles was Sie dazu brauchen, ist die in der Basisversion kostenlose App “Unified Remote” sowie eine Bluetooth- oder WLAN-Verbindung. Mit der Gratis-Version stehen Ihnen grundlegende Maus- und Tastatursteuerung sowie spezielle Remote-Befehle für Medienwiedergabe und Energiemanagement zur Verfügung. Die 4,99 Euro teure Vollversion der App bietet darüber hinaus erweiterte Funktionen – beispielsweise programmspezifische Remote-Funktionen. Die App Unified Remote bietet grundlegende Maus- und Tastatur-Kontrollmöglichkeiten. Foto: JR Raphael | IDG Wenn Sie sich für eine Version entschieden haben, brauchen Sie nur noch die zugehörige Software für Ihren Rechner herunterladen. 2. Remote-Terminal Abgelegte Android Devices eignen sich außerdem auch ganz gut, um sie zu einem Remote-Terminal für Ihren PC umzufunktionieren. Dafür benötigen Sie lediglich die kostenlose Google-Software Chrome Remote Desktop. Die entsprechenden Apps finden Sie im Chrome Web Store sowie dem Google Play Store. Ein ausführliches Tutorial, was Sie mit dieser Lösung tun können – und vor allem wie – bietet folgender Artikel: So geht Fernzugriff per Google-Browser 3. Mobile Storage Cloud Storage mag heutzutage en vogue sein, aber auch der gute, alte physische Storage hat seine Vorzüge, sowohl wenn es um Verfügbarkeit als auch den Zugriff geht. Dafür stehen Speichersticks und externe Festplatten in rauen Mengen zur Verfügung – oder Sie nutzen dafür Ihr altes Android-Handy. Das bietet den zusätzlichen Benefit, gleich ein Interface mit an Bord zu haben, um mit dem gespeicherten Content interagieren zu können. Optional können Sie diesen dann auch in die Cloud verschieben, per E-Mail versenden oder in kollaborativen Umgebungen nutzen, falls erforderlich oder gewünscht. Um das alte Android-Gerät zum mobilen Storage-Device umzufunktionieren, empfiehlt es sich, das Gerät zunächst zurückzusetzen, um so viel Speicherplatz wie möglich freizumachen. Anschließend können Sie damit loslegen, Daten zu schaufeln. 4. KI-Chatbot Generative KI entwickelt sich zu einem immer bedeutenderen Produktivitäts-Tool für Unternehmen. Wenn Sie ebenfalls dem LLM-Fieber erlegen sind oder aus anderen Gründen – beispielsweise zur Akkuschonung des Erstgeräts – ganztags einen dedizierten KI-Chatbot um sich haben möchten, unterstützt Sie dabei ein ausgemustertes Android-Smartphone oder auch –Tablet. Dazu brauchen Sie nicht viel mehr als eine entsprechende App aus dem Google Play Store. Zum Beispiel: ChatGPT, Gemini oder Copilot. Sollten Sie sich für den Google-Chatbot Gemini entscheiden, dürfen Sie diesen auch per Sprachbefehl aufrufen. 5. Universal Smart Remote Sogar wirklich alte Android-Geräte bringen genügend Leistung mit, um sie zur Universal-Fernbedienung für smarte Devices sowie Audio- und Video-Systeme umzufunktionieren. Dazu stehen Ihnen diverse Möglichkeiten in App- und auch Hardware-Form zur Verfügung. Zum Beispiel: Smart-Home-Apps wie Nest oder Hue, Google TV in Kombination mit einem Chromecast-Dongle oder Streaming-Apps wie Roku und Netflix. Alternativ können Sie auch mit Hilfe von Plex einen vollwertigen Medienserver einrichten und Ihr altes Android Device dazu nutzen, eigene lokale Inhalte auf Ihren TV zu streamen. 6. Forschungsunterstützung Alte Android-Klötze eignen sich auch, um zur wissenschaftlichen Forschung beizutragen. Auch dazu stehen verschiedene App-Optionen im Google Play Store zur Verfügung. Sie alle funktionieren auf die gleiche Weise: Nach der Installation nutzt die Software (bei aktiver WLAN-Verbindung) die Rechenleistung des Geräts, um den jeweiligen Forschungsbereich voranzutreiben. Erwähnenswerte Optionen in diesem Bereich sind: Camaliot, ein Kooperationsprojekt der European Space Agency (ESA), der ETH Zürich sowie dem Internationalen Institut für angewandte Systemanalyse (IIAS), sammelt Satellitendaten, um Wettervorhersagen zu optimieren. MyShake, eine App der Berkeley-Universität, das die Sensoren des Geräts nutzt, um Erdbeben zu erkennen und zu analysieren. 7. Überwachungskamera Wenn Sie vorhaben, sich demnächst eine Inhouse-Überwachungskamera anzuschaffen: Sparen Sie sich das Geld und nutzen Sie dafür Ihr altes Android-Handy. Mit der richtigen App behalten Sie Ihre Räumlichkeiten jederzeit im Auge – ohne dabei auf Funktionen wie Videoaufzeichnung oder Bewegungserkennung verzichten zu müssen. Dazu empfiehlt sich die kostenlose Android-App IP Webcam (die auch in einer 5,49 Euro teuren Pro-Version zur Verfügung steht). Nach der Installation greifen Sie per VLC Player oder einem beliebigen Browser auf den Videofeed zu. 8. Ersatzkamera Wenn Ihr Android-Smartphone noch relativ jung ist, stehen die Chancen gut, dass es eine relativ hochwertige Kamera an Bord hat. Das können Sie sich in Situationen zunutze machen, in denen Sie Ihr Haupttelefon nicht nutzen wollen – sei es aufgrund von drohenden Umwelteinflüssen oder weil Sie unterwegs keinen Wert auf eingehende Nachrichten legen. Das Beste daran: Sie brauchen dazu nichts – außer ein Altgerät, das Ihren Foto-Ansprüchen gerecht wird. 9. Videokonferenzstation Wenn Sie sich schon immer einen fest verankerten Access Point für Videokonferenzen und virtuelle Meetings auf Ihrem Schreibtisch gewünscht haben, befähigt Sie dazu jetzt Ihre Android-Altlast. Dazu benötigen Sie: eine ordentliche Docking-Station sowie die Collaboration-App Ihrer Wahl (etwa Zoom, Teams oder Google Meet). Wenn Sie noch einen Schritt weiter gehen möchten, könnten Sie mit ausreichend Android-Altgeräten auch ein Haus- oder Office-weites Videokonferenzsystem auf die Beine stellen. 10. Gourmet-Hub Falls Sie gerne kochen, können Sie alte Android-Handys oder Tablets auch zu multifunktionalen Kommandozentralen für die Küche umwandeln. Dazu brauchen Sie im Wesentlichen zwei Zutaten: Einen Android Launcher, um den Homescreen des Geräts anzupassen und Sprach- sowie weitere Freihandbefehle starten zu können. Eine Übersicht bietet folgender Artikel: Die besten Android- Launcher Anschließend brauchen Sie nur noch die richtigen Apps für Ihren Zweck zu installieren. Mit Bezug auf kulinarische Genüsse empfehlen sich beispielsweise: Rezept– oder Notiz-Apps. 11. Webcam-Fenster Wenn der Blick aus dem Fenster eher für Verdruss sorgt, schaffen Sie mit einem ausgemusterten Android-Gerät Abhilfe. Dazu machen Sie es einfach per App oder Browser zu einem Schaufenster in einen anderen Teil der Welt. Zum Beispiel mit: der Webcams-App von EarthCam, die eine beeindruckende Sammlung von Webcam-Feeds auf der ganzen Welt bereithält der Website des Zoos von San Diego, der Live-Einblicke in diverse Gehege bereitstellt. der Webpräsenz des Monterey Bay Aquariums, die Unterwasser-Einblicke bereithält. die Webseite des Zoo Zürich, die Live-Bilder zum Teil auch in 360-Grad-Ansicht liefert. 12. Digitaler Fotorahmen Mit einem günstigen Standfuß können Sie Ihr Android-Handy von vor ein paar Jahren auch in einen digitalen Bilderrahmen mit Cloud-Verbindung umwandeln. Dazu brauchen Sie nicht viel mehr als die standardmäßige Google-Fotos-App. Die erzeugt aus Ihren gespeicherten Fotos auf Knopfdruck eine Diashow. 13. E-Reader Eine unterbrechungsfreie Leseumgebung kann sich auf Geschäftsreisen oder im Pendelstress als sehr wertvoll erweisen. Um Ihr altes Android-Telefon oder –Tablet zu diesem Zweck zu nutzen, brauchen Sie ein weiteres Mal nur die richtige App – zum Beispiel: Google Play Bücher, Amazon Kindle oder Nook. Nach der Installation deaktivieren Sie App-Benachrichtigungen oder wechseln Sie einfach in den Flugmodus, um ungestört in bestem E-Reader-Stil zu schmökern. 14. Audio-Player Was für den Lesegenuss gilt, gilt auch für den Hörgenuss: Wer Wert darauf legt, dabei die Zwänge seines Smartphones hinter sich zu lassen, tut gut daran, diesen Task an ein Android-Altgerät auszulagern. Dazu brauchen Sie noch nicht einmal eine App. 15. Digitaler Tischkalender Auch um ein abgelegtes Android Device zum digitalen Tischkalender zu machen, brauchen Sie nicht viel. Lediglich eine Docking-Station und eine qualitativ hochwertige Kalender-App. Geht es um Letztere, stechen zwei Google-Play-Store-Optionen heraus – nämlich: Google Kalender sowie DigiCal Kalender. Dabei zeichnet sich die DigiCal-App insbesondere durch ihr anpassbares Interface aus. Die 5,49 Euro teure, kostenpflichtige Variante der App bietet weitere Konfigurationsoptionen und Themes. Die DigiCal-Kalender-App kann ihre visuellen Vorzüge vor allem im Querformat ausspielen. Foto: JR Raphael | IDG 16. Auto-Navigationssystem Wenn Ihr Auto nicht bereits ab Werk mit einem Navigationssystem ausgestattet ist, können Sie ausgemusterte Android-Gerätschaften auch dazu umfunktionieren. Dazu brauchen Sie lediglich eine passende Docking-Station für Ihr Fahrzeug, einen mobilen Hotspot – und die Google Maps App. Falls Sie Ihr Primär-Smartphone nicht als Hotspot nutzen können oder wollen, können Sie alternativ auch die benötigten Routen über eine WLAN-Verbindung herunterladen und sie anschließend offline nutzen. Das funktioniert auch per Sprachbefehl, insofern das alte Gerät Support für den Google Assistant mitbringt. 17. Lernwerkzeug Abgelegte Android-Geräte eignen sich unter Umständen auch gut als Lern- und Spiel-Gagdets für Ihre Kinder. Dazu können Sie relativ einfach ein eingeschränktes Benutzerprofil einrichten – die Google-Support-Seite gibt darüber Auskunft, wie das im Detail vonstatten geht. Wenn Ihr Android-Altgerät über Android 7.0 (oder höher) verfügt, stehen Ihnen darüber hinaus über Googles Familiy-Link-App zusätzliche Tools zur Verfügung, um den Geräte- und App-Zugriff zu kontrollieren beziehungsweise zu limitieren. 18. Digitaluhr Die Investition in einen neuen Wecker können Sie sich ebenfalls sparen, wenn Sie einfach ein altes Android-Telefon für diesen Zweck einsetzen. Die kostenlose Google-App “Uhr” ist dazu ideal geeignet. 19. Spende Sollten die bisherigen Optionen Sie nicht überzeugt haben, können Sie Ihre alten Android Devices auch dazu einsetzen, etwas Gutes zu tun – zum Beispiel, indem Sie sie spenden. Etwa im Rahmen folgender Projekte: Handys für die Umwelt Rote Nasen “Recycling4smile” Pro Wildlife Althandy-Sammelaktion (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

19 Wege, Android-Staubfänger wiederzubeleben​ Es gibt bessere Dinge, die Sie mit Android-Altgeräten anstellen können.
Foto: Melnikov Dmitriy | shutterstock.com

Mit jeder neuen Smartphone- und Tablet-Generation wächst die Zahl der Devices, die ausgemustert werden. In den allermeisten Fällen werden die (oft gar nicht so) alten Gerätschaften dann zu Staubfängern. Was schade ist, denn es gibt diverse Möglichkeiten, um alten Android-Telefonen und –Tablets zu neuem Glanz und Nutzwert zu verhelfen. Zum Beispiel die folgenden.

1. Wireless Trackpad

Mit Hilfe der richtigen Software und einigen Minuten Zeitaufwand für die Konfiguration, können Sie Ihr Android-Gerät im Handumdrehen zu einem Trackpad, beziehungsweise Controller für Windows-, Mac und Linux-Rechner umfunktionieren.

Alles was Sie dazu brauchen, ist die in der Basisversion kostenlose App “Unified Remote” sowie eine Bluetooth- oder WLAN-Verbindung. Mit der Gratis-Version stehen Ihnen grundlegende Maus- und Tastatursteuerung sowie spezielle Remote-Befehle für Medienwiedergabe und Energiemanagement zur Verfügung. Die 4,99 Euro teure Vollversion der App bietet darüber hinaus erweiterte Funktionen – beispielsweise programmspezifische Remote-Funktionen.

Die App Unified Remote bietet grundlegende Maus- und Tastatur-Kontrollmöglichkeiten.
Foto: JR Raphael | IDG

Wenn Sie sich für eine Version entschieden haben, brauchen Sie nur noch die zugehörige Software für Ihren Rechner herunterladen.

2. Remote-Terminal

Abgelegte Android Devices eignen sich außerdem auch ganz gut, um sie zu einem Remote-Terminal für Ihren PC umzufunktionieren. Dafür benötigen Sie lediglich die kostenlose Google-Software Chrome Remote Desktop. Die entsprechenden Apps finden Sie im Chrome Web Store sowie dem Google Play Store.

Ein ausführliches Tutorial, was Sie mit dieser Lösung tun können – und vor allem wie – bietet folgender Artikel:

So geht Fernzugriff per Google-Browser

3. Mobile Storage

Cloud Storage mag heutzutage en vogue sein, aber auch der gute, alte physische Storage hat seine Vorzüge, sowohl wenn es um Verfügbarkeit als auch den Zugriff geht. Dafür stehen Speichersticks und externe Festplatten in rauen Mengen zur Verfügung – oder Sie nutzen dafür Ihr altes Android-Handy. Das bietet den zusätzlichen Benefit, gleich ein Interface mit an Bord zu haben, um mit dem gespeicherten Content interagieren zu können. Optional können Sie diesen dann auch in die Cloud verschieben, per E-Mail versenden oder in kollaborativen Umgebungen nutzen, falls erforderlich oder gewünscht.

Um das alte Android-Gerät zum mobilen Storage-Device umzufunktionieren, empfiehlt es sich, das Gerät zunächst zurückzusetzen, um so viel Speicherplatz wie möglich freizumachen. Anschließend können Sie damit loslegen, Daten zu schaufeln.

4. KI-Chatbot

Generative KI entwickelt sich zu einem immer bedeutenderen Produktivitäts-Tool für Unternehmen. Wenn Sie ebenfalls dem LLM-Fieber erlegen sind oder aus anderen Gründen – beispielsweise zur Akkuschonung des Erstgeräts – ganztags einen dedizierten KI-Chatbot um sich haben möchten, unterstützt Sie dabei ein ausgemustertes Android-Smartphone oder auch –Tablet.

Dazu brauchen Sie nicht viel mehr als eine entsprechende App aus dem Google Play Store. Zum Beispiel:

ChatGPT,

Gemini oder

Copilot.

Sollten Sie sich für den Google-Chatbot Gemini entscheiden, dürfen Sie diesen auch per Sprachbefehl aufrufen.

5. Universal Smart Remote

Sogar wirklich alte Android-Geräte bringen genügend Leistung mit, um sie zur Universal-Fernbedienung für smarte Devices sowie Audio- und Video-Systeme umzufunktionieren.

Dazu stehen Ihnen diverse Möglichkeiten in App- und auch Hardware-Form zur Verfügung. Zum Beispiel:

Smart-Home-Apps wie Nest oder Hue,

Google TV in Kombination mit einem Chromecast-Dongle oder

Streaming-Apps wie Roku und Netflix.

Alternativ können Sie auch mit Hilfe von Plex einen vollwertigen Medienserver einrichten und Ihr altes Android Device dazu nutzen, eigene lokale Inhalte auf Ihren TV zu streamen.

6. Forschungsunterstützung

Alte Android-Klötze eignen sich auch, um zur wissenschaftlichen Forschung beizutragen. Auch dazu stehen verschiedene App-Optionen im Google Play Store zur Verfügung. Sie alle funktionieren auf die gleiche Weise: Nach der Installation nutzt die Software (bei aktiver WLAN-Verbindung) die Rechenleistung des Geräts, um den jeweiligen Forschungsbereich voranzutreiben.

Erwähnenswerte Optionen in diesem Bereich sind:

Camaliot, ein Kooperationsprojekt der European Space Agency (ESA), der ETH Zürich sowie dem Internationalen Institut für angewandte Systemanalyse (IIAS), sammelt Satellitendaten, um Wettervorhersagen zu optimieren.

MyShake, eine App der Berkeley-Universität, das die Sensoren des Geräts nutzt, um Erdbeben zu erkennen und zu analysieren.

7. Überwachungskamera

Wenn Sie vorhaben, sich demnächst eine Inhouse-Überwachungskamera anzuschaffen: Sparen Sie sich das Geld und nutzen Sie dafür Ihr altes Android-Handy. Mit der richtigen App behalten Sie Ihre Räumlichkeiten jederzeit im Auge – ohne dabei auf Funktionen wie Videoaufzeichnung oder Bewegungserkennung verzichten zu müssen.

Dazu empfiehlt sich die kostenlose Android-App IP Webcam (die auch in einer 5,49 Euro teuren Pro-Version zur Verfügung steht). Nach der Installation greifen Sie per VLC Player oder einem beliebigen Browser auf den Videofeed zu.

8. Ersatzkamera

Wenn Ihr Android-Smartphone noch relativ jung ist, stehen die Chancen gut, dass es eine relativ hochwertige Kamera an Bord hat. Das können Sie sich in Situationen zunutze machen, in denen Sie Ihr Haupttelefon nicht nutzen wollen – sei es aufgrund von drohenden Umwelteinflüssen oder weil Sie unterwegs keinen Wert auf eingehende Nachrichten legen.

Das Beste daran: Sie brauchen dazu nichts – außer ein Altgerät, das Ihren Foto-Ansprüchen gerecht wird.

9. Videokonferenzstation

Wenn Sie sich schon immer einen fest verankerten Access Point für Videokonferenzen und virtuelle Meetings auf Ihrem Schreibtisch gewünscht haben, befähigt Sie dazu jetzt Ihre Android-Altlast. Dazu benötigen Sie:

eine ordentliche Docking-Station sowie

die Collaboration-App Ihrer Wahl (etwa Zoom, Teams oder Google Meet).

Wenn Sie noch einen Schritt weiter gehen möchten, könnten Sie mit ausreichend Android-Altgeräten auch ein Haus- oder Office-weites Videokonferenzsystem auf die Beine stellen.

10. Gourmet-Hub

Falls Sie gerne kochen, können Sie alte Android-Handys oder Tablets auch zu multifunktionalen Kommandozentralen für die Küche umwandeln. Dazu brauchen Sie im Wesentlichen zwei Zutaten: Einen Android Launcher, um den Homescreen des Geräts anzupassen und Sprach- sowie weitere Freihandbefehle starten zu können. Eine Übersicht bietet folgender Artikel:

Die besten Android- Launcher

Anschließend brauchen Sie nur noch die richtigen Apps für Ihren Zweck zu installieren. Mit Bezug auf kulinarische Genüsse empfehlen sich beispielsweise:

Rezept– oder

Notiz-Apps.

11. Webcam-Fenster

Wenn der Blick aus dem Fenster eher für Verdruss sorgt, schaffen Sie mit einem ausgemusterten Android-Gerät Abhilfe. Dazu machen Sie es einfach per App oder Browser zu einem Schaufenster in einen anderen Teil der Welt. Zum Beispiel mit:

der Webcams-App von EarthCam, die eine beeindruckende Sammlung von Webcam-Feeds auf der ganzen Welt bereithält

der Website des Zoos von San Diego, der Live-Einblicke in diverse Gehege bereitstellt.

der Webpräsenz des Monterey Bay Aquariums, die Unterwasser-Einblicke bereithält.

die Webseite des Zoo Zürich, die Live-Bilder zum Teil auch in 360-Grad-Ansicht liefert.

12. Digitaler Fotorahmen

Mit einem günstigen Standfuß können Sie Ihr Android-Handy von vor ein paar Jahren auch in einen digitalen Bilderrahmen mit Cloud-Verbindung umwandeln.

Dazu brauchen Sie nicht viel mehr als die standardmäßige Google-Fotos-App. Die erzeugt aus Ihren gespeicherten Fotos auf Knopfdruck eine Diashow.

13. E-Reader

Eine unterbrechungsfreie Leseumgebung kann sich auf Geschäftsreisen oder im Pendelstress als sehr wertvoll erweisen. Um Ihr altes Android-Telefon oder –Tablet zu diesem Zweck zu nutzen, brauchen Sie ein weiteres Mal nur die richtige App – zum Beispiel:

Google Play Bücher,

Amazon Kindle oder

Nook.

Nach der Installation deaktivieren Sie App-Benachrichtigungen oder wechseln Sie einfach in den Flugmodus, um ungestört in bestem E-Reader-Stil zu schmökern.

14. Audio-Player

Was für den Lesegenuss gilt, gilt auch für den Hörgenuss: Wer Wert darauf legt, dabei die Zwänge seines Smartphones hinter sich zu lassen, tut gut daran, diesen Task an ein Android-Altgerät auszulagern. Dazu brauchen Sie noch nicht einmal eine App.

15. Digitaler Tischkalender

Auch um ein abgelegtes Android Device zum digitalen Tischkalender zu machen, brauchen Sie nicht viel. Lediglich eine Docking-Station und eine qualitativ hochwertige Kalender-App. Geht es um Letztere, stechen zwei Google-Play-Store-Optionen heraus – nämlich:

Google Kalender sowie

DigiCal Kalender.

Dabei zeichnet sich die DigiCal-App insbesondere durch ihr anpassbares Interface aus. Die 5,49 Euro teure, kostenpflichtige Variante der App bietet weitere Konfigurationsoptionen und Themes.

Die DigiCal-Kalender-App kann ihre visuellen Vorzüge vor allem im Querformat ausspielen.
Foto: JR Raphael | IDG

16. Auto-Navigationssystem

Wenn Ihr Auto nicht bereits ab Werk mit einem Navigationssystem ausgestattet ist, können Sie ausgemusterte Android-Gerätschaften auch dazu umfunktionieren. Dazu brauchen Sie lediglich eine passende Docking-Station für Ihr Fahrzeug, einen mobilen Hotspot – und die Google Maps App.

Falls Sie Ihr Primär-Smartphone nicht als Hotspot nutzen können oder wollen, können Sie alternativ auch die benötigten Routen über eine WLAN-Verbindung herunterladen und sie anschließend offline nutzen. Das funktioniert auch per Sprachbefehl, insofern das alte Gerät Support für den Google Assistant mitbringt.

17. Lernwerkzeug

Abgelegte Android-Geräte eignen sich unter Umständen auch gut als Lern- und Spiel-Gagdets für Ihre Kinder. Dazu können Sie relativ einfach ein eingeschränktes Benutzerprofil einrichten – die Google-Support-Seite gibt darüber Auskunft, wie das im Detail vonstatten geht.

Wenn Ihr Android-Altgerät über Android 7.0 (oder höher) verfügt, stehen Ihnen darüber hinaus über Googles Familiy-Link-App zusätzliche Tools zur Verfügung, um den Geräte- und App-Zugriff zu kontrollieren beziehungsweise zu limitieren.

18. Digitaluhr

Die Investition in einen neuen Wecker können Sie sich ebenfalls sparen, wenn Sie einfach ein altes Android-Telefon für diesen Zweck einsetzen. Die kostenlose Google-App “Uhr” ist dazu ideal geeignet.

19. Spende

Sollten die bisherigen Optionen Sie nicht überzeugt haben, können Sie Ihre alten Android Devices auch dazu einsetzen, etwas Gutes zu tun – zum Beispiel, indem Sie sie spenden.

Etwa im Rahmen folgender Projekte:

Handys für die Umwelt

Rote Nasen “Recycling4smile”

Pro Wildlife Althandy-Sammelaktion

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

19 Wege, Android-Staubfänger wiederzubeleben​ Weiterlesen »

Toxische Teammitglieder: 5 Wege, wie IT-Mitarbeiter den CTO nerven​

Allgemein

Nervensägen bereiten jedem CTO und CIO Kopfzerbrechen, weil sie innerhalb ihrer Teams zu gefährlichen Quertreibern werden können, die sowohl die Stimmung vergiften als Projekte gefähren. Foto: Andrii Yalanskyi – shutterstock.comIn der allgemeinen Lesart gilt der Chief Technology Officer (CTO) nicht nur als ein technisches Genie, sondern auch als ein Anker für das gesamte Team. Er sorgt als technologisches Herzstück eines Unternehmens für Innovation, treibt die technische Strategie voran und stellt sicher, dass das Team effizient und produktiv arbeitet. Manchmal tun Mitarbeiter aber – ob bewusst oder unbewusst – genau das Gegenteil und treiben ihren CTO damit in den Wahnsinn. Fünf Beispiele zeigen, wie das am besten geht:Weg 1: Politics – Das gefährliche Spiel der MachtIn der komplexen Welt der IT-Politik kann toxisches Verhalten wie ein Virus wirken, das sich schnell ausbreitet und das gesamte Team infiziert. Toxisches Verhalten, Manipulation und das ständige Streben nach eigenen Vorteilen sind der Albtraum jedes CTOs. Wenn du als Mitarbeiter dein Ego in den Vordergrund stellst, deine eigene Agenda verfolgst und andere manipulierst, wird die Teamdynamik schnell zerstört.Ein Mitarbeiter, der sich selten an Absprachen hält und sich in Themen einmischt, die nicht in seinem Zuständigkeitsbereich liegen, ist ein Paradebeispiel. Dieser Mitarbeiter kommuniziert oft eine andere Vision und Strategie, die dem vom CTO vorgegebenen Weg widersprechen. Die Folge: Ein CTO, der ständig Feuer löschen muss und dadurch wertvolle Zeit verliert. Aber es geht nicht nur um die direkten Konflikte: Das Ergebnis eines solchen Verhaltens kann das gesamte Team demotivieren und so zu allgemeinem Produktivitätsverlust führen. Es entsteht ein Umfeld des Misstrauens, in dem jeder Schritt hinterfragt wird und die Zusammenarbeit leidet.Weg 2: Communication – Das Schweigen der LämmerKommunikation ist das A und O in jedem Team. Doch was, wenn du als Mitarbeiter nicht ehrlich bist, Probleme verschleierst und ständig mit dem Finger auf andere zeigst? Mit solch einem Verhalten treibst du Misstrauen und Unsicherheiten im Team voran. Das geht ganz einfach, indem du dich auch hier wieder ständig in andere Themen einmischst und dann als Ausrede anführst, du wärst eigentlich mit anderen Problemen beschäftigt gewesen.Dies zwingt deinen CTO dazu, ständig nachzuforschen und herauszufinden, was wirklich vor sich geht. Es ist nicht nur frustrierend, sondern auch zeitaufwendig. Wenn solche Kommunikationsprobleme nicht angegangen werden, können sie zu größeren organisatorischen Problemen führen. Projekte können ins Stocken geraten, und es kann zu Konflikten zwischen verschiedenen Abteilungen kommen, die nicht effektiv kommunizieren.Weg 3: Delivery – Die Kunst des Nicht-Lieferns und die Falle des PerfektionismusWie jede andere Führungskraft auch, erwartet ein CTO vor allem eines von dir: Ergebnisse. Die erhält er aber nicht, wenn seine Teammitglieder laufend ihre Versprechen nicht halten, sich in Overengineering verlieren oder fehlerhafte Lösungen liefern. Das schaffst du zum Beispiel, indem du zu verkopft an eine Aufgabe herangehst, dich in Perfektionismus verlierst und nicht produktorientiert arbeitest. So stehen verzögerte Lieferungen und ein frustrierter CTO auf dem Programm. Aber es geht nicht nur um einzelne Projekte. Wenn solche Lieferprobleme häufig auftreten, kann dies das Image des Unternehmens schädigen und zu verlorenen Geschäftsmöglichkeiten führen.Weg 4: Innovation – Die Angst vor dem NeuenInnovation ist der Schlüssel zum Erfolg in der IT. Wie kannst du aber die Tür versperren? Ganz einfach: ständig auf Tradition beharren, sich nicht weiterentwickeln und Innohttps://www.computerwoche.de/vation blockieren. Das schaffst du, indem du mit einem anderen Mitarbeiter ständig diskutierst, dich öffentlich streitest und am Ende zu keinem Ergebnis kommst. Das ist nicht nur unangenehm für alle Beteiligten und auch Außenstehenden, sondern führt dazu, dass Fortschritte ausgebremst werden.Ein weiteres Beispiel ist ein Mitarbeiter, der stur auf eine veraltete Technologie besteht und das Team daran hindert, sich weiterzuentwickeln. Der CTO muss dann manuell Innovationen vorantreiben, um den Mitarbeiter zur Weiterentwicklung zu bewegen. Es bleibt auch nicht nur hierbei: Ein Mangel an Innovationsbereitschaft kann auch bedeuten, dass das Unternehmen Marktchancen verpasst und von der Konkurrenz überholt wird.Weg 5: Time – Die tückischen ZeitdiebeZeit ist in der IT-Branche ein wertvolles Gut. Doch was, wenn Mitarbeiter nicht nur ihre eigene Zeit verschwenden, sondern auch die ihrer Kollegen und Vorgesetzten? Ein unsicherer Mitarbeiter, der ständig beim CTO nachfragt und ihn so sehr bindet, dass der CTO die Aufgabe fast selbst erledigen muss, ist ein klassisches Beispiel.Es ist, als würde man versuchen, ein Puzzle zusammenzusetzen, während jemand ständig die Teile wegnimmt. Doch es geht nicht nur um die direkte Zeitverschwendung. Wenn du ständig die Zeit deines CTOs in Anspruch nimmst, kann dies auch indirekte Auswirkungen haben. Andere Teammitglieder könnten beginnen, das Verhalten zu kopieren, oder sie könnten sich vernachlässigt fühlen, weil der CTO ständig mit den Anfragen von dir beschäftigt ist.FazitNatürlich ist dieser Beitrag nicht als Aufruf zu verstehen, dem eigenen CTO die Arbeit zu erschweren. Es liegt auf der Hand, dass ein CTO die schwierige Aufgabe hat, ein Team zu führen, Innovationen voranzutreiben und das Unternehmen technologisch auf Kurs zu halten. Insofern sind Mitarbeiter, die ständig auf den oben genannten Wegen agieren, ein Albtraum und sollte jeder CTO rechtzeitg Maßnahmen ergreifen, die einer Schwächung der IT-Abteilung entgegenwirken. Es ist wichtig, dass Mitarbeiter und CTOs zusammenarbeiten, um solche Verhaltensweisen zu erkennen und zu korrigieren. Nur so kann ein produktives und harmonisches Arbeitsumfeld geschaffen werden, in dem Innovation und Erfolg gedeihen können. Denn ein gutes Team steuert gemeinsam in die gleiche Richtung. 8 Fehler in der KommunikationDiese Kommunikationsfehler sollten Sie vermeiden Foto: Sergey Nivens – shutterstock.comWas Sie in Gesprächen und Debatten tunlichst unterlassen sollten, um Fehlinformationen, Konflikte und Imageschäden zu vermeiden.Fachchinesisch benutzen Foto: Gearstd – shutterstock.comMit technischem Fachjargon um sich zu werfen, ist der größte Fehler, den IT-Verantwortliche in Gesprächen mit Nicht-IT’lern machen können. Viele Experten können nicht richtig einschätzen, wie tief das eigene Fachwissen geht und wo im Gegenzug das Fachwissen des Gegenübers endet. Hier kann es schnell zu Missverständnissen und Kommunikationsstörungen kommen.Technische Probleme beklagen Foto: Stokkete – shutterstock.comWer in der Team- oder Vorstandssitzung über technische Probleme im Rechenzentrum oder anderen Unternehmensstellen klagt, darf sich nicht wundern, wenn diese Beschwerden Irritation und Unsicherheit auslösen. Kollegen, die nicht mit den beschriebenen Interna vertraut sind, verstehen in einem solchen Fall oft nur “Der hat massive Probleme, die er nicht in den Griff bekommt.” Natürlich müssen IT-Probleme auch im großen Kreis thematisiert werden dürfen, das jedoch besser in einer sachlichen Art und Weise, die jeder verstehen und nachvollziehen kann.Wie ein Verkäufer reden Foto: Evan El-Amin – shutterstock.comManager, die bislang mit einem Business-Hintergrund tätig waren, und IT-Führungspositionen übernehmen, sprechen ihre neuen Untergebenen in einem aufgeblasenen Ton an und wirken dabei häufig wie Verkäufer, die die neueste Kollektion heiße Luft präsentieren.Keine Fragen stellen Foto: ra2studio – shutterstock.comGute CIOs stellen sinnvolle Fragen und hören auf die Antworten. So gelangen oft neue Aspekte in die Diskussion. Dazu werden die Kollegen eingebunden und die Beziehung zwischen Manager und Team gestärkt. Warum viele IT-Verantwortliche anders vorgehen? Sie haben (meist unbegründet) Angst, als unwissend und inkompetent dazustehen.Niemanden einbinden Foto: Syda Productions – shutterstock.comGut ausgebildete CIOs sind überzeugt von ihren eigenen Ideen, welche Techniken sich wie am besten implementieren lassen. Viele vergessen darüber jedoch, dass auch die gesamte IT-Abteilung und der Vorstand womöglich noch eigene Ideen haben. Wenn CIOs ihre eigenen Vorstellungen ohne Rückfrage durchdrücken, verärgern sie deshalb viele Kollegen – selbst, wenn es die beste und richtige Wahl war.Ängste schüren Foto: Tyler Olson – shutterstock.comWenn der Vorstand überzeugt werden muss, das IT-Budget aufzustocken, diese oder jene Anschaffung oder Migration vorzunehmen, neigen manche CIOs dazu, in ihrer Argumentation zu übertreiben oder zu simplifizieren. Wenn neue Server angeschafft werden sollen, hört sich das dann so an: “Wenn wir bis kommende Woche nicht zehn neue Server im Schrank stehen haben, bricht der ganze Laden zusammen!”Den Wertbeitrag nicht herausstellen Foto: Sergey Nivens – shutterstock.comViele CIOs betonen, wie wichtig die Unternehmens-IT ist. Die Vorstände verstehen aber häufig nicht, was die IT konkret zum unternehmerischen Erfolg beiträgt. Deshalb sollten IT-Verantwortliche in Präsentationen und Diskussionen immer noch einen Schritt weitergehen, als nur in den eigenen Grenzen zu argumentieren.Mit PowerPoint einschläfern Foto: Matej Kastelic – shutterstock.comZu viele Folien, zu viele Nichtigkeiten. Effiziente Präsentationen zeichnen sich dadurch aus, dass sie sich auf die wichtigsten Infos konzentrieren, die das zuhörende Publikum direkt betreffen. Im besten Fall kann gänzlich auf PowerPoint verzichtet werden – gute Präsentationen zeichnen sich dadurch aus, dass sie von selbst im Gedächtnis haften bleiben und nicht durch eine Armada von Aufzählungspunkten. 

Toxische Teammitglieder: 5 Wege, wie IT-Mitarbeiter den CTO nerven​ Nervensägen bereiten jedem CTO und CIO Kopfzerbrechen, weil sie innerhalb ihrer Teams zu gefährlichen Quertreibern werden können, die sowohl die Stimmung vergiften als Projekte gefähren.
Foto: Andrii Yalanskyi – shutterstock.comIn der allgemeinen Lesart gilt der Chief Technology Officer (CTO) nicht nur als ein technisches Genie, sondern auch als ein Anker für das gesamte Team. Er sorgt als technologisches Herzstück eines Unternehmens für Innovation, treibt die technische Strategie voran und stellt sicher, dass das Team effizient und produktiv arbeitet. Manchmal tun Mitarbeiter aber – ob bewusst oder unbewusst – genau das Gegenteil und treiben ihren CTO damit in den Wahnsinn. Fünf Beispiele zeigen, wie das am besten geht:Weg 1: Politics – Das gefährliche Spiel der MachtIn der komplexen Welt der IT-Politik kann toxisches Verhalten wie ein Virus wirken, das sich schnell ausbreitet und das gesamte Team infiziert. Toxisches Verhalten, Manipulation und das ständige Streben nach eigenen Vorteilen sind der Albtraum jedes CTOs. Wenn du als Mitarbeiter dein Ego in den Vordergrund stellst, deine eigene Agenda verfolgst und andere manipulierst, wird die Teamdynamik schnell zerstört.Ein Mitarbeiter, der sich selten an Absprachen hält und sich in Themen einmischt, die nicht in seinem Zuständigkeitsbereich liegen, ist ein Paradebeispiel. Dieser Mitarbeiter kommuniziert oft eine andere Vision und Strategie, die dem vom CTO vorgegebenen Weg widersprechen. Die Folge: Ein CTO, der ständig Feuer löschen muss und dadurch wertvolle Zeit verliert. Aber es geht nicht nur um die direkten Konflikte: Das Ergebnis eines solchen Verhaltens kann das gesamte Team demotivieren und so zu allgemeinem Produktivitätsverlust führen. Es entsteht ein Umfeld des Misstrauens, in dem jeder Schritt hinterfragt wird und die Zusammenarbeit leidet.Weg 2: Communication – Das Schweigen der LämmerKommunikation ist das A und O in jedem Team. Doch was, wenn du als Mitarbeiter nicht ehrlich bist, Probleme verschleierst und ständig mit dem Finger auf andere zeigst? Mit solch einem Verhalten treibst du Misstrauen und Unsicherheiten im Team voran. Das geht ganz einfach, indem du dich auch hier wieder ständig in andere Themen einmischst und dann als Ausrede anführst, du wärst eigentlich mit anderen Problemen beschäftigt gewesen.Dies zwingt deinen CTO dazu, ständig nachzuforschen und herauszufinden, was wirklich vor sich geht. Es ist nicht nur frustrierend, sondern auch zeitaufwendig. Wenn solche Kommunikationsprobleme nicht angegangen werden, können sie zu größeren organisatorischen Problemen führen. Projekte können ins Stocken geraten, und es kann zu Konflikten zwischen verschiedenen Abteilungen kommen, die nicht effektiv kommunizieren.Weg 3: Delivery – Die Kunst des Nicht-Lieferns und die Falle des PerfektionismusWie jede andere Führungskraft auch, erwartet ein CTO vor allem eines von dir: Ergebnisse. Die erhält er aber nicht, wenn seine Teammitglieder laufend ihre Versprechen nicht halten, sich in Overengineering verlieren oder fehlerhafte Lösungen liefern. Das schaffst du zum Beispiel, indem du zu verkopft an eine Aufgabe herangehst, dich in Perfektionismus verlierst und nicht produktorientiert arbeitest. So stehen verzögerte Lieferungen und ein frustrierter CTO auf dem Programm. Aber es geht nicht nur um einzelne Projekte. Wenn solche Lieferprobleme häufig auftreten, kann dies das Image des Unternehmens schädigen und zu verlorenen Geschäftsmöglichkeiten führen.Weg 4: Innovation – Die Angst vor dem NeuenInnovation ist der Schlüssel zum Erfolg in der IT. Wie kannst du aber die Tür versperren? Ganz einfach: ständig auf Tradition beharren, sich nicht weiterentwickeln und Innohttps://www.computerwoche.de/vation blockieren. Das schaffst du, indem du mit einem anderen Mitarbeiter ständig diskutierst, dich öffentlich streitest und am Ende zu keinem Ergebnis kommst. Das ist nicht nur unangenehm für alle Beteiligten und auch Außenstehenden, sondern führt dazu, dass Fortschritte ausgebremst werden.Ein weiteres Beispiel ist ein Mitarbeiter, der stur auf eine veraltete Technologie besteht und das Team daran hindert, sich weiterzuentwickeln. Der CTO muss dann manuell Innovationen vorantreiben, um den Mitarbeiter zur Weiterentwicklung zu bewegen. Es bleibt auch nicht nur hierbei: Ein Mangel an Innovationsbereitschaft kann auch bedeuten, dass das Unternehmen Marktchancen verpasst und von der Konkurrenz überholt wird.Weg 5: Time – Die tückischen ZeitdiebeZeit ist in der IT-Branche ein wertvolles Gut. Doch was, wenn Mitarbeiter nicht nur ihre eigene Zeit verschwenden, sondern auch die ihrer Kollegen und Vorgesetzten? Ein unsicherer Mitarbeiter, der ständig beim CTO nachfragt und ihn so sehr bindet, dass der CTO die Aufgabe fast selbst erledigen muss, ist ein klassisches Beispiel.Es ist, als würde man versuchen, ein Puzzle zusammenzusetzen, während jemand ständig die Teile wegnimmt. Doch es geht nicht nur um die direkte Zeitverschwendung. Wenn du ständig die Zeit deines CTOs in Anspruch nimmst, kann dies auch indirekte Auswirkungen haben. Andere Teammitglieder könnten beginnen, das Verhalten zu kopieren, oder sie könnten sich vernachlässigt fühlen, weil der CTO ständig mit den Anfragen von dir beschäftigt ist.FazitNatürlich ist dieser Beitrag nicht als Aufruf zu verstehen, dem eigenen CTO die Arbeit zu erschweren. Es liegt auf der Hand, dass ein CTO die schwierige Aufgabe hat, ein Team zu führen, Innovationen voranzutreiben und das Unternehmen technologisch auf Kurs zu halten. Insofern sind Mitarbeiter, die ständig auf den oben genannten Wegen agieren, ein Albtraum und sollte jeder CTO rechtzeitg Maßnahmen ergreifen, die einer Schwächung der IT-Abteilung entgegenwirken. Es ist wichtig, dass Mitarbeiter und CTOs zusammenarbeiten, um solche Verhaltensweisen zu erkennen und zu korrigieren. Nur so kann ein produktives und harmonisches Arbeitsumfeld geschaffen werden, in dem Innovation und Erfolg gedeihen können. Denn ein gutes Team steuert gemeinsam in die gleiche Richtung.

8 Fehler in der KommunikationDiese Kommunikationsfehler sollten Sie vermeiden
Foto: Sergey Nivens – shutterstock.comWas Sie in Gesprächen und Debatten tunlichst unterlassen sollten, um Fehlinformationen, Konflikte und Imageschäden zu vermeiden.Fachchinesisch benutzen
Foto: Gearstd – shutterstock.comMit technischem Fachjargon um sich zu werfen, ist der größte Fehler, den IT-Verantwortliche in Gesprächen mit Nicht-IT’lern machen können. Viele Experten können nicht richtig einschätzen, wie tief das eigene Fachwissen geht und wo im Gegenzug das Fachwissen des Gegenübers endet. Hier kann es schnell zu Missverständnissen und Kommunikationsstörungen kommen.Technische Probleme beklagen
Foto: Stokkete – shutterstock.comWer in der Team- oder Vorstandssitzung über technische Probleme im Rechenzentrum oder anderen Unternehmensstellen klagt, darf sich nicht wundern, wenn diese Beschwerden Irritation und Unsicherheit auslösen. Kollegen, die nicht mit den beschriebenen Interna vertraut sind, verstehen in einem solchen Fall oft nur “Der hat massive Probleme, die er nicht in den Griff bekommt.” Natürlich müssen IT-Probleme auch im großen Kreis thematisiert werden dürfen, das jedoch besser in einer sachlichen Art und Weise, die jeder verstehen und nachvollziehen kann.Wie ein Verkäufer reden
Foto: Evan El-Amin – shutterstock.comManager, die bislang mit einem Business-Hintergrund tätig waren, und IT-Führungspositionen übernehmen, sprechen ihre neuen Untergebenen in einem aufgeblasenen Ton an und wirken dabei häufig wie Verkäufer, die die neueste Kollektion heiße Luft präsentieren.Keine Fragen stellen
Foto: ra2studio – shutterstock.comGute CIOs stellen sinnvolle Fragen und hören auf die Antworten. So gelangen oft neue Aspekte in die Diskussion. Dazu werden die Kollegen eingebunden und die Beziehung zwischen Manager und Team gestärkt. Warum viele IT-Verantwortliche anders vorgehen? Sie haben (meist unbegründet) Angst, als unwissend und inkompetent dazustehen.Niemanden einbinden
Foto: Syda Productions – shutterstock.comGut ausgebildete CIOs sind überzeugt von ihren eigenen Ideen, welche Techniken sich wie am besten implementieren lassen. Viele vergessen darüber jedoch, dass auch die gesamte IT-Abteilung und der Vorstand womöglich noch eigene Ideen haben. Wenn CIOs ihre eigenen Vorstellungen ohne Rückfrage durchdrücken, verärgern sie deshalb viele Kollegen – selbst, wenn es die beste und richtige Wahl war.Ängste schüren
Foto: Tyler Olson – shutterstock.comWenn der Vorstand überzeugt werden muss, das IT-Budget aufzustocken, diese oder jene Anschaffung oder Migration vorzunehmen, neigen manche CIOs dazu, in ihrer Argumentation zu übertreiben oder zu simplifizieren. Wenn neue Server angeschafft werden sollen, hört sich das dann so an: “Wenn wir bis kommende Woche nicht zehn neue Server im Schrank stehen haben, bricht der ganze Laden zusammen!”Den Wertbeitrag nicht herausstellen
Foto: Sergey Nivens – shutterstock.comViele CIOs betonen, wie wichtig die Unternehmens-IT ist. Die Vorstände verstehen aber häufig nicht, was die IT konkret zum unternehmerischen Erfolg beiträgt. Deshalb sollten IT-Verantwortliche in Präsentationen und Diskussionen immer noch einen Schritt weitergehen, als nur in den eigenen Grenzen zu argumentieren.Mit PowerPoint einschläfern
Foto: Matej Kastelic – shutterstock.comZu viele Folien, zu viele Nichtigkeiten. Effiziente Präsentationen zeichnen sich dadurch aus, dass sie sich auf die wichtigsten Infos konzentrieren, die das zuhörende Publikum direkt betreffen. Im besten Fall kann gänzlich auf PowerPoint verzichtet werden – gute Präsentationen zeichnen sich dadurch aus, dass sie von selbst im Gedächtnis haften bleiben und nicht durch eine Armada von Aufzählungspunkten.

Toxische Teammitglieder: 5 Wege, wie IT-Mitarbeiter den CTO nerven​ Weiterlesen »

Mitarbeiter-Benefits: Was sich Mitarbeiter wünschen​

Allgemein

Viele Mitarbeiter wünschen sich heute als Zusatzleistung Zeit, um sich beispielsweise stärker um Familienangehörige zu kümmern. Foto: Brian A Jackson – shutterstock.com Remote Work, flexible Arbeitszeitmodelle, neue Führungs- und Unternehmenskulturen – seit einigen Jahren findet auf dem Arbeitsmarkt ein Umdenken statt. Dabei wandeln sich auch die Ansprüche an einen Arbeitgeber. Insbesondere die jüngeren Generationen streben danach, sich mit einem Unternehmen und seinen Werten identifizieren zu können. Denn mit dem Auftreten neuer Generationen wandelt sich der Arbeitsmarkt. So erreichen die Babyboomer nach und nach das Renteneintrittsalter, die Generation Y ist fest im Arbeitsleben angekommen und junge Vertreter der Generation Z rücken nach – und alle haben neue Ansprüche und Anforderungen im Gepäck. Je besser es den Unternehmen gelingt, die Bedürfnisse ihrer Mitarbeiterinnen und Mitarbeiter zu kennen, umso erfolgreicher funktionieren das Recruiting und die Mitarbeiterbindung. Individualität, Flexibilität und Wertschätzung stehen dabei heute mehr denn je im Fokus und sollten auch bei einem umfassenden und nachhaltigen Corporate-Benefit-Konzept berücksichtigt werden. Mitarbeiter-Benefits: Zeit und Gesundheit Es ist vor allem die Zeit, die in unserer meist schnelllebigen und zunehmend hybriden Arbeitswelt ein wertvolles Gut darstellt. Eine Ressource, die sich auch auf die Benefits für Mitarbeiter auswirkt. So sind heute, neben dem Gehalt, zunehmend Leistungen beliebt, die einen Zeitvorteil für den Mitarbeiter darstellen und ein ausgewogenes Verhältnis von Beruf und Privatleben schaffen. Dies gelingt beispielsweise durch flexible Arbeitszeitmodelle, einem Zuschuss zur Kinderbetreuung, Möglichkeiten für ein Sabbatical oder den Freiraum zur Pflege von Angehörigen. Aber auch ein zusätzlicher Urlaubstag am Geburtstag gibt dem Mitarbeiter die Chance, Zeit für die Familie, Freunde oder sich selbst zu nutzen. Der Vorteil für Arbeitgeber: Der Urlaubstag ist zeitlich gebunden und damit für den gesamten Betriebsablauf gut planbar. Nicht vergessen werden sollte auch die gemeinsame Zeit im Team. Diese stärkt den Zusammenhalt und das Wohlfühlen zwischen den Mitarbeitern, fördert den (kreativen) Austausch und festigt die Bindung und Loyalität gegenüber dem Arbeitgeber. Dabei ist es egal, ob es sich um gemeinschaftliche Sportaktivitäten, ein Team-Essen oder die Betriebsfeier handelt. Bei letztgenannten kann das Unternehmen sogar Steuern sparen, denn für ein Firmenevent liegt der steuer- und sozialabgabenfreie Freibetrag aktuell bei 110 Euro pro Mitarbeiter – und das sogar zwei Mal jährlich (Paragraf 19 Abs. 1a EStG). Das Wohlbefinden und die mentale sowie körperliche Gesundheit der Mitarbeiter zu fördern, führt nachweislich zu geringeren Fehlzeiten, einer höheren Leistungsfähigkeit und letztendlich auch zu geringeren Recruitingkosten. Gesunde Ernährung, Me-Time und Co.: Viele Beschäftigten legen großen Wert auf eine gesunde Lebensweise. Dies soll sich auch im Berufsleben widerspiegeln. Benefits im Bereich Gesundheit sind damit eine lohnende Investition eines jeden Unternehmens. Durch Vergünstigungen für ein Fitnessstudio, kostenlose gesunde Getränke oder einem ausgewogenen Verpflegungsangebot haben Unternehmen viele Möglichkeiten, ihr Team gezielt zu unterstützen. Immer beliebter werden auch Maßnahmen wie eine Erholungsbeihilfe, Gesundheits- oder Stressmanagement-Workshops. Ein strategisches und nachhaltiges betriebliches Gesundheitsmanagement (BGM) hilft dabei, die richtigen Leistungen zu identifizieren und zu implementieren. Auch im Bereich Mobilität findet ein Umdenken statt und der Trend geht vom Auto hin zu öffentlichen Verkehrsmitteln oder dem Fahrrad. Zu einem zeitgemäßen Benefit-Programm zählt deshalb nicht mehr unbedingt der Dienstwagen (Elektro oder Hybrid), sondern Leasingangebote für ein Jobrad oder der Fahrtkostenzuschuss. So machen Unternehmen Werte wie Umweltbewusstsein und Nachhaltigkeit für ihre Mitarbeiter sicht- und erlebbar. Monatlicher Benefit: Der 50-Euro-Sachbezug Arbeitgeber, die ihren Mitarbeitern regelmäßig für ihr Engagement im Job danken möchten, können dies mit einem steuer- und sozialabgabenfreien monatlichen Gehaltsextra machen. Diese Art der Wertschätzung wirkt sich positiv auf die Motivation und Leistungsbereitschaft der Mitarbeiter aus – und damit auf die Mitarbeiterbindung. Der steuerfreie Sachbezug bis maximal 50 Euro (seit dem 1. Januar 2022) kann jeden Monat als Zusatzleistung ausgezahlt werden. Hochgerechnet auf ein Jahr ergibt sich daraus ein steuer- und sozialabgabenfreies Gehaltsextra von bis zu 600 Euro. Doch Vorsicht: Wird die Freigrenze überschritten, ist der komplette Betrag steuer- und sozialabgabenpflichtig. Ebenfalls wichtig zu wissen ist, dass diese Sachbezüge zum ohnehin geschuldeten Arbeitslohn gewährt werden müssen und grundsätzlich jedem Angestellten zugänglich ist – egal, ob in Vollzeit-, Teilzeit-, oder Minijobanstellung. Da im Steuerrecht das sogenannte Zuflussprinzip gilt, können Mitarbeiter die im jeweiligen Monat erhaltenen Beträge problemlos ansparen und zu einem späteren Zeitpunkt für größere Wünsche ausgeben. Aus diesem Grund setzen viele Unternehmen bereits Gutscheinkarten ein. Die Vorteile: Gutscheinkarten halten den Verwaltungsaufwand gering, ermöglichen einen rechtskonformen Einsatz des steuer- und sozialabgabefreien Gehaltsextras und jeder Arbeitnehmer kann dieses Gehaltsplus individuell einsetzen. Zusatzleistung Gutscheinkarte Arbeitgeber, die den steuerfreien Sachbezug in Form einer flexiblen Gutscheinkarte zur Verfügung stellen, müssen darauf achten, dass diese seit dem 1. Januar 2022 verpflichtend auch sogenannte ZAG-Kriterien erfüllt: Seit dem 1. Januar 2022 müssen für den steuerfreien Sachbezug eingesetzte Gutscheinkarten die Kriterien des Zahlungsdiensteaufsichtsgesetzes (ZAG) erfüllen. Diese beschreiben, welche Arten von Gutscheinkarten zum Erwerb von Waren und Dienstleistungen unter Anwendung des 50-Euro-Sachbezugs* zulässig sind: Begrenzte Netzwerke: Gutscheinkarten von Einkaufsläden, Einzelhandelsketten oder regionale City Cards (gemäß Paragraf 2 Abs. 1 Nr. 10a ZAG) Begrenzte Produktpalette: Gutscheinkarten für nur eine Produktkategorie wie Fashion, Kino, etc. (gemäß Paragraf 2 Abs. 1 Nr. 10b ZAG) *Ab 01. Januar 2022 wurde die Freigrenze auf 50 Euro erhöht. Seit Februar 2025 gibt es eine neue Lösung. Arbeitgeber können bei der Gewährung des Sachbezugs neben Gutscheinkarten auch Online-Gutscheine zur Auswahl stellen – alles im Rahmen der gesetzlichen Möglichkeiten. Edenred Benefits bietet den Nutzern mehr Flexibilität und eine unkomplizierte Handhabung für Unternehmen. Benefit-Management: Digital in die Zukunft Individualität ist das Gebot der Stunde, wenn es an die Ausgestaltung und Gewährung von Benefits geht. Das gilt auch für die Verwaltung eines umfassenden Corporate-Benefit-Programms. Unterstützung erhalten Arbeitgeber dabei etwa in Form einer digitalen Benefit-Management-Plattform, die eine einfache, flexible und rechtkonforme Verwaltung bietet. So bündelt eine digitale Plattform interessante, am Markt angeboten Benefits und stellt diese Unternehmen und Beschäftigten in einem modularen System zur Auswahl. Arbeitgeber können daraus ihr individuelles Benefit-Konzept für Mitarbeiter zur Verfügung stellen. Die Vorteile liegen auf der Hand: Indem alle Leistungen digital und zentral erfasst sind, sind rechtliche Änderungen oder Produktinnovationen jederzeit und schnell implementierbar. Einmal integriert, können Arbeitgeber zudem auswählen, wann welche Zusatzleistung einzelnen Beschäftigten zugeteilt werden soll. Zudem entfällt ein hoher Aufwand bei der Wahrung der Rechtskonformität sowie Lohnbuchhaltung und bei administrativen Prozessen. Mittels einer App erhalten Mitarbeiter eine Übersicht über alle angebotenen Job Goodies und können diese direkt nutzen. Die Arbeitswelt zeigt: Benefits müssen innovativ, flexibel und individuell sein. Sie sollten einerseits im Kontext gesellschaftlicher Entwicklungen und Digitalisierung stehen und die Unternehmenswerte erlebbar machen. Andererseits die Identifikation von Arbeitnehmern mit ihren Arbeitgebern stärken und flexibel auf die individuellen Bedürfnisse und Lebensgewohnheiten eingehen. Ist all das erfüllt, wird ein Benefit seinem Namen gerecht. (hk/fm) 

Mitarbeiter-Benefits: Was sich Mitarbeiter wünschen​ Viele Mitarbeiter wünschen sich heute als Zusatzleistung Zeit, um sich beispielsweise stärker um Familienangehörige zu kümmern.
Foto: Brian A Jackson – shutterstock.com

Remote Work, flexible Arbeitszeitmodelle, neue Führungs- und Unternehmenskulturen – seit einigen Jahren findet auf dem Arbeitsmarkt ein Umdenken statt. Dabei wandeln sich auch die Ansprüche an einen Arbeitgeber. Insbesondere die jüngeren Generationen streben danach, sich mit einem Unternehmen und seinen Werten identifizieren zu können. Denn mit dem Auftreten neuer Generationen wandelt sich der Arbeitsmarkt.

So erreichen die Babyboomer nach und nach das Renteneintrittsalter, die Generation Y ist fest im Arbeitsleben angekommen und junge Vertreter der Generation Z rücken nach – und alle haben neue Ansprüche und Anforderungen im Gepäck. Je besser es den Unternehmen gelingt, die Bedürfnisse ihrer Mitarbeiterinnen und Mitarbeiter zu kennen, umso erfolgreicher funktionieren das Recruiting und die Mitarbeiterbindung. Individualität, Flexibilität und Wertschätzung stehen dabei heute mehr denn je im Fokus und sollten auch bei einem umfassenden und nachhaltigen Corporate-Benefit-Konzept berücksichtigt werden.

Mitarbeiter-Benefits: Zeit und Gesundheit

Es ist vor allem die Zeit, die in unserer meist schnelllebigen und zunehmend hybriden Arbeitswelt ein wertvolles Gut darstellt. Eine Ressource, die sich auch auf die Benefits für Mitarbeiter auswirkt. So sind heute, neben dem Gehalt, zunehmend Leistungen beliebt, die einen Zeitvorteil für den Mitarbeiter darstellen und ein ausgewogenes Verhältnis von Beruf und Privatleben schaffen. Dies gelingt beispielsweise durch flexible Arbeitszeitmodelle, einem Zuschuss zur Kinderbetreuung, Möglichkeiten für ein Sabbatical oder den Freiraum zur Pflege von Angehörigen. Aber auch ein zusätzlicher Urlaubstag am Geburtstag gibt dem Mitarbeiter die Chance, Zeit für die Familie, Freunde oder sich selbst zu nutzen. Der Vorteil für Arbeitgeber: Der Urlaubstag ist zeitlich gebunden und damit für den gesamten Betriebsablauf gut planbar.

Nicht vergessen werden sollte auch die gemeinsame Zeit im Team. Diese stärkt den Zusammenhalt und das Wohlfühlen zwischen den Mitarbeitern, fördert den (kreativen) Austausch und festigt die Bindung und Loyalität gegenüber dem Arbeitgeber. Dabei ist es egal, ob es sich um gemeinschaftliche Sportaktivitäten, ein Team-Essen oder die Betriebsfeier handelt. Bei letztgenannten kann das Unternehmen sogar Steuern sparen, denn für ein Firmenevent liegt der steuer- und sozialabgabenfreie Freibetrag aktuell bei 110 Euro pro Mitarbeiter – und das sogar zwei Mal jährlich (Paragraf 19 Abs. 1a EStG).

Das Wohlbefinden und die mentale sowie körperliche Gesundheit der Mitarbeiter zu fördern, führt nachweislich zu geringeren Fehlzeiten, einer höheren Leistungsfähigkeit und letztendlich auch zu geringeren Recruitingkosten. Gesunde Ernährung, Me-Time und Co.: Viele Beschäftigten legen großen Wert auf eine gesunde Lebensweise. Dies soll sich auch im Berufsleben widerspiegeln. Benefits im Bereich Gesundheit sind damit eine lohnende Investition eines jeden Unternehmens. Durch Vergünstigungen für ein Fitnessstudio, kostenlose gesunde Getränke oder einem ausgewogenen Verpflegungsangebot haben Unternehmen viele Möglichkeiten, ihr Team gezielt zu unterstützen. Immer beliebter werden auch Maßnahmen wie eine Erholungsbeihilfe, Gesundheits- oder Stressmanagement-Workshops. Ein strategisches und nachhaltiges betriebliches Gesundheitsmanagement (BGM) hilft dabei, die richtigen Leistungen zu identifizieren und zu implementieren.

Auch im Bereich Mobilität findet ein Umdenken statt und der Trend geht vom Auto hin zu öffentlichen Verkehrsmitteln oder dem Fahrrad. Zu einem zeitgemäßen Benefit-Programm zählt deshalb nicht mehr unbedingt der Dienstwagen (Elektro oder Hybrid), sondern Leasingangebote für ein Jobrad oder der Fahrtkostenzuschuss. So machen Unternehmen Werte wie Umweltbewusstsein und Nachhaltigkeit für ihre Mitarbeiter sicht- und erlebbar.

Monatlicher Benefit: Der 50-Euro-Sachbezug

Arbeitgeber, die ihren Mitarbeitern regelmäßig für ihr Engagement im Job danken möchten, können dies mit einem steuer- und sozialabgabenfreien monatlichen Gehaltsextra machen. Diese Art der Wertschätzung wirkt sich positiv auf die Motivation und Leistungsbereitschaft der Mitarbeiter aus – und damit auf die Mitarbeiterbindung.

Der steuerfreie Sachbezug bis maximal 50 Euro (seit dem 1. Januar 2022) kann jeden Monat als Zusatzleistung ausgezahlt werden. Hochgerechnet auf ein Jahr ergibt sich daraus ein steuer- und sozialabgabenfreies Gehaltsextra von bis zu 600 Euro. Doch Vorsicht: Wird die Freigrenze überschritten, ist der komplette Betrag steuer- und sozialabgabenpflichtig. Ebenfalls wichtig zu wissen ist, dass diese Sachbezüge zum ohnehin geschuldeten Arbeitslohn gewährt werden müssen und grundsätzlich jedem Angestellten zugänglich ist – egal, ob in Vollzeit-, Teilzeit-, oder Minijobanstellung.

Da im Steuerrecht das sogenannte Zuflussprinzip gilt, können Mitarbeiter die im jeweiligen Monat erhaltenen Beträge problemlos ansparen und zu einem späteren Zeitpunkt für größere Wünsche ausgeben. Aus diesem Grund setzen viele Unternehmen bereits Gutscheinkarten ein. Die Vorteile: Gutscheinkarten halten den Verwaltungsaufwand gering, ermöglichen einen rechtskonformen Einsatz des steuer- und sozialabgabefreien Gehaltsextras und jeder Arbeitnehmer kann dieses Gehaltsplus individuell einsetzen.

Zusatzleistung Gutscheinkarte

Arbeitgeber, die den steuerfreien Sachbezug in Form einer flexiblen Gutscheinkarte zur Verfügung stellen, müssen darauf achten, dass diese seit dem 1. Januar 2022 verpflichtend auch sogenannte ZAG-Kriterien erfüllt:

Seit dem 1. Januar 2022 müssen für den steuerfreien Sachbezug eingesetzte Gutscheinkarten die Kriterien des Zahlungsdiensteaufsichtsgesetzes (ZAG) erfüllen. Diese beschreiben, welche Arten von Gutscheinkarten zum Erwerb von Waren und Dienstleistungen unter Anwendung des 50-Euro-Sachbezugs* zulässig sind:

Begrenzte Netzwerke: Gutscheinkarten von Einkaufsläden, Einzelhandelsketten oder regionale City Cards (gemäß Paragraf 2 Abs. 1 Nr. 10a ZAG)

Begrenzte Produktpalette: Gutscheinkarten für nur eine Produktkategorie wie Fashion, Kino, etc. (gemäß Paragraf 2 Abs. 1 Nr. 10b ZAG)

*Ab 01. Januar 2022 wurde die Freigrenze auf 50 Euro erhöht.

Seit Februar 2025 gibt es eine neue Lösung. Arbeitgeber können bei der Gewährung des Sachbezugs neben Gutscheinkarten auch Online-Gutscheine zur Auswahl stellen – alles im Rahmen der gesetzlichen Möglichkeiten. Edenred Benefits bietet den Nutzern mehr Flexibilität und eine unkomplizierte Handhabung für Unternehmen.

Benefit-Management: Digital in die Zukunft

Individualität ist das Gebot der Stunde, wenn es an die Ausgestaltung und Gewährung von Benefits geht. Das gilt auch für die Verwaltung eines umfassenden Corporate-Benefit-Programms. Unterstützung erhalten Arbeitgeber dabei etwa in Form einer digitalen Benefit-Management-Plattform, die eine einfache, flexible und rechtkonforme Verwaltung bietet.

So bündelt eine digitale Plattform interessante, am Markt angeboten Benefits und stellt diese Unternehmen und Beschäftigten in einem modularen System zur Auswahl. Arbeitgeber können daraus ihr individuelles Benefit-Konzept für Mitarbeiter zur Verfügung stellen. Die Vorteile liegen auf der Hand: Indem alle Leistungen digital und zentral erfasst sind, sind rechtliche Änderungen oder Produktinnovationen jederzeit und schnell implementierbar.

Einmal integriert, können Arbeitgeber zudem auswählen, wann welche Zusatzleistung einzelnen Beschäftigten zugeteilt werden soll. Zudem entfällt ein hoher Aufwand bei der Wahrung der Rechtskonformität sowie Lohnbuchhaltung und bei administrativen Prozessen. Mittels einer App erhalten Mitarbeiter eine Übersicht über alle angebotenen Job Goodies und können diese direkt nutzen.

Die Arbeitswelt zeigt: Benefits müssen innovativ, flexibel und individuell sein. Sie sollten einerseits im Kontext gesellschaftlicher Entwicklungen und Digitalisierung stehen und die Unternehmenswerte erlebbar machen. Andererseits die Identifikation von Arbeitnehmern mit ihren Arbeitgebern stärken und flexibel auf die individuellen Bedürfnisse und Lebensgewohnheiten eingehen. Ist all das erfüllt, wird ein Benefit seinem Namen gerecht. (hk/fm)

Mitarbeiter-Benefits: Was sich Mitarbeiter wünschen​ Weiterlesen »

Ein Bauriese wird KI-ready​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?quality=50&strip=all 5977w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Das kanadische Unternehmen Graham Construction gehört im nordamerikanischen Baugewerbe zu den Marktführern. Damit das auch in Zukunft so bleibt, setzt der Konzern unter anderem auf eine einheitliche Datenplattform. David W Mershon | shutterstock.com Als ich vor drei Jahren zu Graham Construction stieß, war ich die erste Person in meiner aktuellen Position als Director of Data and Analytics. Zwar waren Datenanalysen für das Unternehmen nicht völlig neu, aber es gab dafür keinen einheitlichen Ansatz. Deshalb haben wir uns damals zum Ziel gesetzt, eine durchgängige Enterprise-Datenstrategie zu entwickeln. Für dieses Projekt wurde unser Unternehmen vor kurzem auch mit einem CIO Canada Award ausgezeichnet. Data-as-a-Product Im Jahr 2021 sah sich unser Unternehmen – wie viele andere auch – mit Daten-Challenges konfrontiert. In erster Linie gab es einfach keinen Plan für Enterprise-Daten. Denn auch wenn diverse Firmen sich nach außen hin als “Data-Driven” präsentieren: Daten in der Praxis effektiv zu integrieren, ist kostspielig, zeitaufwändig und mit jeder Menge manuellem Aufwand verbunden. Nachdem Graham insbesondere in den Jahren 2017 bis 2022 durch Übernahmen weiter gewachsen war, war es unumgänglich, eine einheitliche Datenplattform aufzubauen – unabhängig von ERP-Systemen und anderen Technologien. Diese haben wir in der Folge mit Informationen aus diversen unterschiedlichen Abteilungen und Systemen im gesamten Unternehmen aufgebaut, wobei die Schwerpunkte auf den Bereich Reportings und Prozessoptimierung lagen. Eine der größten Herausforderungen war dabei, sicherzustellen, dass die Daten auch für die Field Worker vor Ort – beziehungsweise Mitarbeiter im Außendienst – jederzeit zugänglich und nutzbar sind. Zu diesem Zweck haben wir einen „Insights Hub“ geschaffen, der auf unserer Enterprise-Datenplattform aufsetzt und über unser Intranet abrufbar ist. srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?quality=50&strip=all 1600w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Annette Cooper ist seit 2022 Director of Data and Analytics bei Graham Construction.Annette Cooper Die wichtigste Innovation, die die Datenplattform realisiert, ist dabei der Ansatz, Daten in Produkte umzuwandeln: Statt einfach nur Reportings zu generieren und darauf zu hoffen, dass diese für irgendjemanden nützlich sind, betrachten wir jeden Bericht als Produkt – inklusive Owner und Lifecycle. Dieses Produkt-zentrische Mindset rückt die Endbenutzer in den Fokus und stellt sicher, dass jeder Datenpunkt einen Zweck erfüllt – hat aber auch signifikanten Business Impact. Denn das Konzept stellt nicht nur einen erheblichen Fortschritt für Graham als Unternehmen dar, sondern legt auch den Grundstein für unser künftiges Wachstum – auch mit Blick auf die Integration von künstlicher Intelligenz (KI). Schließlich werden mit sich verändernden Business-Anforderungen auch die Datenanforderungen steigen. Mit unserem Fokus auf Design und Funktionalität sind wir gut dafür gerüstet, uns an diese Veränderungen anzupassen. Auch, da unsere Plattform dafür konzipiert ist, sowohl strukturierte als auch unstrukturierte Daten zu managen. Unsere Investitionen in die Infrastruktur befähigen uns so dazu, nicht mehr nur reaktiv, sondern proaktiv auf innovative, neue Technologien wie etwa Generative AI (GenAI) reagieren zu können. Change Management mit Diversity-Fokus In meiner Rolle pflege ich eine enge Beziehung zu unserem Führungsteam, was bei der Diskussion um Budgets, Finanzierungen und langfristige strategische Ziele von unschätzbarem Wert war. Allerdings kommt die entscheidende Rolle bei der Umsetzung von Change und neuen Strategien dem mittleren Management zu – also denjenigen, die für das Tagesgeschäft verantwortlich zeichnen. Zu diesen Führungskräften ebenso starke, vertrauensvolle Beziehungen aufzubauen, war für ein erfolgreiches Change Management unerlässlich. Deshalb beziehen wir bei Graham auch diese Management-Ebene frühzeitig in die Prozesse ein. Das gewährleistet, dass die getroffenen Entscheidungen die praktischen Anforderungen des Unternehmens widerspiegeln – und nicht allein von Führungskräften getroffen werden, die nur wenig Berührungspunkte mit den tatsächlichen, operativen Herausforderungen haben. Als Frau mit Migrationshintergrund und Mitglied der LGBTQ-Community weiß ich zudem den Wert unterschiedlicher Perspektiven zu schätzen. Deshalb setze ich mich auch leidenschaftlich für Diversity ein, weil sie dazu beiträgt unterschiedliche Problemlösungsansätze evaluieren zu können. Vielfältige Teams sind in meiner Erfahrung innovativer und erzielen bessere Ergebnisse. Und Diversity nimmt auch im Kontext der Produktentwicklung eine entscheidende Rolle ein. Indem Menschen mit unterschiedlichen Hintergründen zusammenkommen, entstehen umfassendere Lösungen, die den Bedürfnissen eines breiteren Publikums gerecht werden. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Ein Bauriese wird KI-ready​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?quality=50&strip=all 5977w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/David-W-Mershon_shutterstock_1605014317_NR_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Das kanadische Unternehmen Graham Construction gehört im nordamerikanischen Baugewerbe zu den Marktführern. Damit das auch in Zukunft so bleibt, setzt der Konzern unter anderem auf eine einheitliche Datenplattform. David W Mershon | shutterstock.com

Als ich vor drei Jahren zu Graham Construction stieß, war ich die erste Person in meiner aktuellen Position als Director of Data and Analytics. Zwar waren Datenanalysen für das Unternehmen nicht völlig neu, aber es gab dafür keinen einheitlichen Ansatz. Deshalb haben wir uns damals zum Ziel gesetzt, eine durchgängige Enterprise-Datenstrategie zu entwickeln.

Für dieses Projekt wurde unser Unternehmen vor kurzem auch mit einem CIO Canada Award ausgezeichnet.

Data-as-a-Product

Im Jahr 2021 sah sich unser Unternehmen – wie viele andere auch – mit Daten-Challenges konfrontiert. In erster Linie gab es einfach keinen Plan für Enterprise-Daten. Denn auch wenn diverse Firmen sich nach außen hin als “Data-Driven” präsentieren: Daten in der Praxis effektiv zu integrieren, ist kostspielig, zeitaufwändig und mit jeder Menge manuellem Aufwand verbunden.

Nachdem Graham insbesondere in den Jahren 2017 bis 2022 durch Übernahmen weiter gewachsen war, war es unumgänglich, eine einheitliche Datenplattform aufzubauen – unabhängig von ERP-Systemen und anderen Technologien. Diese haben wir in der Folge mit Informationen aus diversen unterschiedlichen Abteilungen und Systemen im gesamten Unternehmen aufgebaut, wobei die Schwerpunkte auf den Bereich Reportings und Prozessoptimierung lagen. Eine der größten Herausforderungen war dabei, sicherzustellen, dass die Daten auch für die Field Worker vor Ort – beziehungsweise Mitarbeiter im Außendienst – jederzeit zugänglich und nutzbar sind. Zu diesem Zweck haben wir einen „Insights Hub“ geschaffen, der auf unserer Enterprise-Datenplattform aufsetzt und über unser Intranet abrufbar ist.

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?quality=50&strip=all 1600w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/annette-cooper-cio-first-person.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Annette Cooper ist seit 2022 Director of Data and Analytics bei Graham Construction.Annette Cooper

Die wichtigste Innovation, die die Datenplattform realisiert, ist dabei der Ansatz, Daten in Produkte umzuwandeln: Statt einfach nur Reportings zu generieren und darauf zu hoffen, dass diese für irgendjemanden nützlich sind, betrachten wir jeden Bericht als Produkt – inklusive Owner und Lifecycle. Dieses Produkt-zentrische Mindset rückt die Endbenutzer in den Fokus und stellt sicher, dass jeder Datenpunkt einen Zweck erfüllt – hat aber auch signifikanten Business Impact.

Denn das Konzept stellt nicht nur einen erheblichen Fortschritt für Graham als Unternehmen dar, sondern legt auch den Grundstein für unser künftiges Wachstum – auch mit Blick auf die Integration von künstlicher Intelligenz (KI). Schließlich werden mit sich verändernden Business-Anforderungen auch die Datenanforderungen steigen. Mit unserem Fokus auf Design und Funktionalität sind wir gut dafür gerüstet, uns an diese Veränderungen anzupassen. Auch, da unsere Plattform dafür konzipiert ist, sowohl strukturierte als auch unstrukturierte Daten zu managen. Unsere Investitionen in die Infrastruktur befähigen uns so dazu, nicht mehr nur reaktiv, sondern proaktiv auf innovative, neue Technologien wie etwa Generative AI (GenAI) reagieren zu können.

Change Management mit Diversity-Fokus

In meiner Rolle pflege ich eine enge Beziehung zu unserem Führungsteam, was bei der Diskussion um Budgets, Finanzierungen und langfristige strategische Ziele von unschätzbarem Wert war. Allerdings kommt die entscheidende Rolle bei der Umsetzung von Change und neuen Strategien dem mittleren Management zu – also denjenigen, die für das Tagesgeschäft verantwortlich zeichnen.

Zu diesen Führungskräften ebenso starke, vertrauensvolle Beziehungen aufzubauen, war für ein erfolgreiches Change Management unerlässlich. Deshalb beziehen wir bei Graham auch diese Management-Ebene frühzeitig in die Prozesse ein. Das gewährleistet, dass die getroffenen Entscheidungen die praktischen Anforderungen des Unternehmens widerspiegeln – und nicht allein von Führungskräften getroffen werden, die nur wenig Berührungspunkte mit den tatsächlichen, operativen Herausforderungen haben.

Als Frau mit Migrationshintergrund und Mitglied der LGBTQ-Community weiß ich zudem den Wert unterschiedlicher Perspektiven zu schätzen. Deshalb setze ich mich auch leidenschaftlich für Diversity ein, weil sie dazu beiträgt unterschiedliche Problemlösungsansätze evaluieren zu können. Vielfältige Teams sind in meiner Erfahrung innovativer und erzielen bessere Ergebnisse. Und Diversity nimmt auch im Kontext der Produktentwicklung eine entscheidende Rolle ein. Indem Menschen mit unterschiedlichen Hintergründen zusammenkommen, entstehen umfassendere Lösungen, die den Bedürfnissen eines breiteren Publikums gerecht werden. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Ein Bauriese wird KI-ready​ Weiterlesen »

Teams: Alte Benutzeroberfläche wiederherstellen​

Allgemein

Mit der neuen „Chat- und Kanalerfahrung“ in Teams verfolgt Microsoft das Ziel alle Chats, Teams und Kanäle zusammenzuführen. Auf diese Weise soll es Anwendern leichter fallen, ihre Unterhaltungen mit angepassten Ansichten nach ihren Anforderungen und Vorlieben nachzuverfolgen. Als Resultat verschwindet der Menüpunkt Teams in der linken Seitenleiste, diese können nun im Bereich Chat über die horizontale Navigation (Kanäle) ausgewählt werden. Allerdings gibt es auch Nutzer, die Chats und Kanäle lieber getrennt voneinander halten wollen. Wir zeigen Ihnen hier, wie das geht. Teams auf dem PC Um die gewohnte Ansicht auf dem PC wiederherzustellen, klicken Sie im Bereich Chat auf die drei Punkte oberhalb der Chatliste. Daraufhin öffnet sich ein neues Menü, indem Sie den Punkt „Ansicht anpassen“ auswählen. Foundry Dort angekommen, können Sie von „Kombiniert“ auf „Getrennt“ wechseln, um die alte Ansicht wiederherzustellen. Foundry Weiter unten können Sie außerdem die Anzeige der Nachrichtenvorschau, des Zeitstempels, der Filter und des Entdecken-Button einstellen, sowie die Darstellung der Chat-Nachrichten (“komfortabel” oder “kompakt”) und die Anzeige der letzten Aktivität in einem Kanal (oben oder unten) festlegen. Teams auf dem Smartphone In der Android- oder iOS-App geht das Umstellen der Ansicht ähnlich: Sie klicken in der Chat-Ansicht rechts oben auf die drei Punkte und währen in dem erscheinenden Menü den obersten Punt „Ansicht anpassen“ aus. Auf der anschließend erscheinenden Karte können Sie dann ganz oben von „Kombiniert“ auf Trennen“ wechseln. 

Teams: Alte Benutzeroberfläche wiederherstellen​ Mit der neuen „Chat- und Kanalerfahrung“ in Teams verfolgt Microsoft das Ziel alle Chats, Teams und Kanäle zusammenzuführen. Auf diese Weise soll es Anwendern leichter fallen, ihre Unterhaltungen mit angepassten Ansichten nach ihren Anforderungen und Vorlieben nachzuverfolgen. Als Resultat verschwindet der Menüpunkt Teams in der linken Seitenleiste, diese können nun im Bereich Chat über die horizontale Navigation (Kanäle) ausgewählt werden. Allerdings gibt es auch Nutzer, die Chats und Kanäle lieber getrennt voneinander halten wollen. Wir zeigen Ihnen hier, wie das geht.

Teams auf dem PC

Um die gewohnte Ansicht auf dem PC wiederherzustellen, klicken Sie im Bereich Chat auf die drei Punkte oberhalb der Chatliste. Daraufhin öffnet sich ein neues Menü, indem Sie den Punkt „Ansicht anpassen“ auswählen.

Foundry

Dort angekommen, können Sie von „Kombiniert“ auf „Getrennt“ wechseln, um die alte Ansicht wiederherzustellen.

Foundry

Weiter unten können Sie außerdem die Anzeige der Nachrichtenvorschau, des Zeitstempels, der Filter und des Entdecken-Button einstellen, sowie die Darstellung der Chat-Nachrichten (“komfortabel” oder “kompakt”) und die Anzeige der letzten Aktivität in einem Kanal (oben oder unten) festlegen.

Teams auf dem Smartphone

In der Android- oder iOS-App geht das Umstellen der Ansicht ähnlich: Sie klicken in der Chat-Ansicht rechts oben auf die drei Punkte und währen in dem erscheinenden Menü den obersten Punt „Ansicht anpassen“ aus. Auf der anschließend erscheinenden Karte können Sie dann ganz oben von „Kombiniert“ auf Trennen“ wechseln.

Teams: Alte Benutzeroberfläche wiederherstellen​ Weiterlesen »

12 Wege, DevSecOps zu optimieren​

Allgemein

12 SaaS-Inspirationen für Ihr DevSecOps-Team. Foto: Oleg Nesterov | shutterstock.com Zwar sind heutzutage viele Unternehmen in den Bereichen Softwareentwicklung und DevOps gut aufgestellt. Wenn es aber darum geht, Applikationen zu skalieren, mit unterschiedlichen Use Cases umzugehen sowie Performance- und Sicherheitsprobleme in Angriff zu nehmen, bevor diese zu Kundenproblemen werden, können sie sich dennoch meist eine Scheibe von Software-as-a-Service-Firmen abschneiden. In diesem Artikel stellen wir Ihnen 12 Prinzipien vor, die sich unter SaaS-Technologieführern bewährt haben und sich auch auf DevSecOps übertragen lassen. 1. Customer-First-Mindset entwickeln Im Sinne der Kundenbindung und Wachstumsförderung sind ein Mindset, dass die Kunden in den Mittelpunkt rückt und ein Gespür für deren Bedürfnisse obligatorisch. Für DevSecOps-Teams heißt das in erster Linie zu lernen, ihre eigenen Kollegen als Kunden zu betrachten, wenn sie interne Applikationen entwickeln. Claire Vo, Chief Product Officer von LaunchDarkly, weiß, welche Aspekte ein kundenorientiertes Mindset beinhalten sollte: “Vor allem einen nicht verhandelbaren Fokus darauf, Kundenprobleme schnell zu identifizieren und zu beheben. Softwareentwickler sollten deshalb direkt mit den Kunden in Kontakt treten, um deren Nutzungsgewohnheiten in Erfahrung zu bringen und entsprechend hohe Qualitätsansprüche anlegen zu können.” Tipp: DevSecOps-Teams sollten regelmäßige Meetings mit Endbenutzern einplanen, um deren Nutzungsgewohnheiten zu beobachten und Möglichkeiten zu erkennen, die App-Performance zu optimieren. 2. Versionskontrolle mit agilen User Stories verbinden Die allermeisten Firmen setzen inzwischen auf Versionskontrolle – allerdings sieht David Brooks, SVP of Evangelism bei Copado, ein Problem: “Viele Entwickler fokussieren sich zu sehr auf das Branch Management in ihrem Repository. Moderne Entwicklung basiert auf Agilität und viele DevOps-Tools managen Änderungen direkt auf Basis der User Story.” Das erleichtere es agilen Entwicklungsteams, sich darauf zu konzentrieren, Mehrwert bereitzustellen, unterstütze einen testgetriebenen Development-Ansatz und ermögliche es, Merge-Konflikte automatisiert aufzulösen, so der Manager. Tipp: Abgesehen davon, Workflows zwischen agilen Tools und Versionskontrolle zu verbinden, sollten DevSecOps-Teams auch in Betracht ziehen: CI/CD-Pipelines zu standardisieren, mit Feature Flags zu entwickeln und Canary-Release-Strategien einzusetzen. 3. Neue Features mit A/B-Tests erproben In DevSecOps-Automatisierung zu investieren, schafft Flexibilität, wenn es darum geht, Funktionen für kleinere Gruppen von Benutzern freizugeben und A/B-Tests zu fahren. Darüber hinaus wird so nicht nur Continuous Deployment unterstützt, sondern auch möglich, Funktionen zu validieren und das Feedback von Endbenutzern einzuholen. Elliot Wood, CTO und Mitbegründer von CallRail, erklärt, wie das in der Praxis aussieht: “Neue Alphafunktionen werden offen und in schnellem Tempo getestet, um Kunden-Feedback zu sammeln. Die Teams sind dabei in der Lage, schnell zu arbeiten, weil sie kleine Änderungen an eine begrenzte Anzahl von Kunden weitergeben und das Risiko jedes einzelnen Experiments minimieren können.” Tipp: Alpha- und Beta-Tests, bei denen erstere intern innerhalb des Unternehmens stattfinden und zweitere auf die Umgebung des Benutzers fokussieren, sind bewährte Praxis in der Softwareentwicklung. DevSecOps bringt Automatisierungs- und Skalierbarkeitspraktiken ein, um den Technologiebetrieb zu operationalisieren. Der Schlüssel zu erfolgreichen A/B-Programmen liegt darin: Teilnehmer zu rekrutieren, Ziele zu kommunizieren, umsetzbares Feedback zu erfassen, sowie Kollaboration zu belohnen. 4. ‘Security by Design’ etablieren Vielen soliden IT-Sicherheitsprogrammen zum Trotz bleibt es eine Herausforderung, den ‘Security by Design’-Grundsatz im Softwareentwicklungsprozess zu verankern. Zu den relevanten Best Practices in diesem Bereich zählen etwa: automatisierte Penetration-Tests, Code-Scans innerhalb von CI/CD-Pipelines sowie der Schutz vor API-Injection, -Lecks und nicht funktionierenden Zugriffskontrollen. Steve Touw, CTO bei Immuta, weiß aus eigener Erfahrung um die Benefits, die dieser Ansatz bringt: “Seitdem wir auf ‘Security by Design’ setzen, hat sich unser Wartungs- und Verwaltungsaufwand mit Blick auf das Vulnerability Management merklich verringert.” Tipp: CIOs, CISOs und Delivery Manager sollten eindeutige, nicht verhandelbare Anforderungen hinsichtlich der Sicherheitspraktiken, Tests und Metriken definieren, die erforderlich sind, um Produktionspfade zu automatisieren. 5. Unit-Testing-Unzulänglichkeiten erkennen Unit Testing hilft zwar dabei Komponenten und Schnittstellen zu validieren – reicht aber nicht aus, um die End-to-End-Funktionalität oder das Benutzererlebnis zu überprüfen. Peter McKee, Head of Developer Relations and Community bei Sonar, erklärt: “Entwickler, die einen Shift-Left-Ansatz verfolgen, räumen Unit-Tests oft Priorität ein, um sicherzustellen, dass Features und Funktionen korrekt funktionieren. Wenn man sich jedoch ausschließlich darauf verlässt, kann das zu Lücken in der Qualitätssicherung führen. Das beeinträchtigt unter Umständen auch die Sicherheit der Software mit Blick auf das Deployment.” Tipp: Diverse Tools können Frontend User Experience Testing automatisieren. Um robuste Funktionstests zu gewährleisten, sollten agile Development-Teams: entsprechende Verantwortlichkeiten definieren, Skills entwickeln und die dafür nötige Zeit investieren. 6. Testing (fachgerecht) automatisieren Ein Engagement für mehr funktionales Testing steht und fällt mit den entwickelten Use Cases. Dabei können QA-Engineers Grenzbedingungen und Fehlerkonditionen identifizieren – vorausgesetzt, sie werden von den Endbenutzern entsprechend angeleitet, um Ziele, Workflows und Journeys besser zu durchdringen. “Entwickler sind darauf bedacht, Code zu liefern, der wie gewünscht funktioniert. Um eine robuste Software zu gewährleisten, die mit allen Variationen der Kundenkonfiguration funktioniert, sollten Fachexperten Tests erstellen, die geeignet sind zu demonstrieren, wie die Benutzer die Funktionen in der realen Welt nutzen”, konstatiert Copado-SVP Brooks und ergänzt: “Idealerweise fahren die Subject Matter Experts explorative Tests über ein Tool, um auf dieser Grundlage automatisierte Tests zu erstellen.” Tipp: Nutzen Sie Alpha- und Beta-Gruppen im Rahmen von App-Testing. Erwarten Sie dabei jedoch nicht, dass die Tester sich repetitiven User-Acceptance-Testing-Arien hingeben. Darüber hinaus empfiehlt es sich: Tools zu verwenden, um Testmuster zu erfassen, die wichtigsten Tests zu automatisieren, eine Continuous-Testing-Strategie zu entwickeln, sowie synthetische Daten zu nutzen, um Testmuster zu skalieren. 7. Code validieren Code-Generatoren auf GenAI-Basis machen es wichtiger denn je, Code Reviews zu fahren, um Vulnerabilities zu identifizieren – und Probleme aufzutun, die möglicherweise die technischen Schulden von morgen darstellen. Weitere Probleme mit der Codequalität können etwa in den Bereichen Dokumentation, Fehlerbedingungen, Protokollierung und Namenskonventionen auftreten. “Um die QA-Bemühungen zu unterstützen, sollten Entwickler statische Codeanalysen in ihre Arbeitsabläufe integrieren”, empfiehlt Sonar-Entwicklungschef McKee und begründet das mit einer entsprechenden Erklärung: “Eine automatisierte statische Analyse untersucht die interne Struktur einer Applikation und ergänzt Unit-Tests, indem sie zusätzliche Probleme aufdeckt. Durch die Kombination beider Verfahren können Entwickler die Codequalität während des gesamten Entwicklungszyklus proaktiv managen, Fehler schnell erkennen und beheben sowie die Zuverlässigkeit und Sicherheit der Software insgesamt optimieren.” Tipp: Technische Schulden zu minimieren, ist für Unternehmen ein wichtiges Thema. Entsprechend sollten Tools, die Sicherheits- und Qualitätsprobleme identifizieren, sowie deren Integration in die CI/CD-Pipeline eine nicht verhandelbare Anforderung darstellen. 8. Nicht-funktionale Betriebsanforderungen festlegen Mit Blick auf Performanz, Zuverlässigkeit und Sicherheit gilt es, Anforderungen zu ermitteln, die dazu geeignet sind, akzeptable Betriebsbedingungen zu definieren. Entwicklungsteams formulieren diese oft als nichtfunktionale Anforderungen, die in agilen User Stories als Akzeptanzkriterien ausgedrückt werden können. Nicht-funktionale Anforderungen können sich auch darauf auswirken, welche Infrastrukturkomponenten verwendet und wie diese gemanagt werden. “Nichtfunktionale, betriebliche Anforderungen sind ebenso wichtig wie funktionale Anforderungen”, unterstreicht David Coffey, VP of Product Management bei IBM. Er fügt hinzu: “In einem Tech-Stack für einen Cloud-Service kommt es auf jede Einzelheit an. Fallen Details wie DNS-Service oder Netzwerkkonnektivität dabei unter den Tisch, kann sich das negativ auf die Verfügbarkeit und den Scope eines Cloud-Service auswirken.” Tipp: Architekten, Betriebs- und Sicherheitsexperten sollten Standards für nichtfunktionale Anforderungen und Akzeptanzkriterien entwerfen, auf die sich agile Entwicklungsteams in ihren User Stories beziehen können. 9. SLOs und Alerts kanalisieren Eine veraltete Methode, um die Erwartungen an die Anwendungsleistung zu definieren, besteht darin, Service Level Agreements (SLAs) rund um eine Betriebskennzahl zu formulieren – beispielsweise eine Uptime von 99,9 Prozent. Ein moderner Ansatz: SLOs und Fehlerbudgets zu definieren, die regeln, wann DevSecOps-Teams operative Optimierungen priorisieren sollten. Um das in der Praxis umzusetzen, müssen jedoch bestimmte Voraussetzungen erfüllt sein, wie Asaf Yigal, Mitbegründer und VP of Product bei Logz.io, erklärt: “Wenn Leistungsverbesserungen vorangetrieben werden und die Engineers dabei keine Ahnung haben, welche SLOs wichtig sind, untergräbt das Observability-Plattformen.” Tipp: Produktmanager sollten daran beteiligt werden, SLOs zu definieren und Kundensegmente, Journey-Typen und kritische Zeiträume dazu nutzen, aufzuzeigen, wann Ausfälle und Leistungsdefizite stärkere Auswirkungen auf das Geschäft haben. 10. Observability implementieren Um Datenquellen zu integrieren und Daten innerhalb der Anwendungsumgebung zu bewegen, nutzen die meisten Applikationen heutzutage Daten-Pipelines. Allerdings können Workflows kompromittiert werden – was die Gefahr falscher Entscheidungen aufwirft, wenn es zu Verzögerungen oder Problemen bei der Datenqualität kommt. Ashwin Rajeeva, Mitbegründer und CTO von Acceldata, weiß, was dagegen hilft: “Data-Reliability-Checks nach links zu verlagern, ermöglicht es, die Datenqualität und -integrität frühzeitig an der Quelle zu validieren und verhindert so kostenintensive Folgen. Continuous Monitoring und Incident Management erleichtern es, proaktiv auf potenzielle Datenvorfälle zu reagieren, ermöglichen einen ununterbrochenen Datenfluss und gewährleisten die kontinuierliche Zuverlässigkeit der Daten in der gesamten Data Supply Chain.” Tipp: Implementieren Sie Monitoring und automatisierte Checks in der gesamten Datenlieferkette, um Pipeline- und Datenqualitätsproblematiken möglichst früh auf die Schliche zu kommen. 11. Admin-Funktionen sperren SaaS-Unternehmen schränken den administrativen Zugriff auf ihre Anwendungen und Umgebungen ein, um zu verhindern, dass Kundendaten kompromittiert werden oder die Verfügbarkeit beeinträchtigt wird. Igor Jablokov, Gründer und CEO von Pryon, empfiehlt, sich daran ein Beispiel zu nehmen: “Verteilen Sie kritische Funktionen auf mindestens vier Schultern, um zu verhindern, dass ein Administrator teure Fehler machen kann, die Betriebszeit und Verfügbarkeit einschränken.” Der Manager empfiehlt darüber hinaus weitere, grundlegende Maßnahmen, wie ein mehrstufige Authentifizierung zu implementieren und unnötige externe Zugriffsmöglichkeiten zu sperren. Tipp: IT-Sicherheitsspezialisten sollten sich über die neuesten Schwachstellen informiert halten – zum Beispiel über die bekannten OWASP-Rankings. Diese und andere Quellen lassen sich dazu nutzen, Security-Checklisten, Schulungen und Support für DevSecOps-Teams bereitzustellen. 12. Hot-Standby-Umgebungen konfigurieren Unternehmen, die Anwendungen bereitstellen, profitieren von einer robusten Cloud-Infrastruktur. Eine solche zeichnet sich beispielsweise aus durch: Infrastructure as Code, automatisiert skalierende Umgebungen, Multizone-Deployments und automatisiertes Failover-Management. “Lassen Sie Ihre Anwendung im Hot-Standby-Modus auch bei einem weiteren Cloud-Anbieter laufen. Denn egal, wie viel Redundanz und Failover die Hyperscaler bieten können, sie sind nicht immun gegen Fehler”, unterstreicht Pryon-CEO Jablokov. Tipp: DevSecOps-Teams, die Standardarchitekturen, -plattformen und -konfigurationen entwickeln, können Hochverfügbarkeitspraktiken leichter in ihre Infrastrukturmuster integrieren. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

12 Wege, DevSecOps zu optimieren​ 12 SaaS-Inspirationen für Ihr DevSecOps-Team.
Foto: Oleg Nesterov | shutterstock.com

Zwar sind heutzutage viele Unternehmen in den Bereichen Softwareentwicklung und DevOps gut aufgestellt. Wenn es aber darum geht, Applikationen zu skalieren, mit unterschiedlichen Use Cases umzugehen sowie Performance- und Sicherheitsprobleme in Angriff zu nehmen, bevor diese zu Kundenproblemen werden, können sie sich dennoch meist eine Scheibe von Software-as-a-Service-Firmen abschneiden.

In diesem Artikel stellen wir Ihnen 12 Prinzipien vor, die sich unter SaaS-Technologieführern bewährt haben und sich auch auf DevSecOps übertragen lassen.

1. Customer-First-Mindset entwickeln

Im Sinne der Kundenbindung und Wachstumsförderung sind ein Mindset, dass die Kunden in den Mittelpunkt rückt und ein Gespür für deren Bedürfnisse obligatorisch. Für DevSecOps-Teams heißt das in erster Linie zu lernen, ihre eigenen Kollegen als Kunden zu betrachten, wenn sie interne Applikationen entwickeln.

Claire Vo, Chief Product Officer von LaunchDarkly, weiß, welche Aspekte ein kundenorientiertes Mindset beinhalten sollte: “Vor allem einen nicht verhandelbaren Fokus darauf, Kundenprobleme schnell zu identifizieren und zu beheben. Softwareentwickler sollten deshalb direkt mit den Kunden in Kontakt treten, um deren Nutzungsgewohnheiten in Erfahrung zu bringen und entsprechend hohe Qualitätsansprüche anlegen zu können.”

Tipp: DevSecOps-Teams sollten regelmäßige Meetings mit Endbenutzern einplanen, um deren Nutzungsgewohnheiten zu beobachten und Möglichkeiten zu erkennen, die App-Performance zu optimieren.

2. Versionskontrolle mit agilen User Stories verbinden

Die allermeisten Firmen setzen inzwischen auf Versionskontrolle – allerdings sieht David Brooks, SVP of Evangelism bei Copado, ein Problem: “Viele Entwickler fokussieren sich zu sehr auf das Branch Management in ihrem Repository. Moderne Entwicklung basiert auf Agilität und viele DevOps-Tools managen Änderungen direkt auf Basis der User Story.” Das erleichtere es agilen Entwicklungsteams, sich darauf zu konzentrieren, Mehrwert bereitzustellen, unterstütze einen testgetriebenen Development-Ansatz und ermögliche es, Merge-Konflikte automatisiert aufzulösen, so der Manager.

Tipp: Abgesehen davon, Workflows zwischen agilen Tools und Versionskontrolle zu verbinden, sollten DevSecOps-Teams auch in Betracht ziehen:

CI/CD-Pipelines zu standardisieren,

mit Feature Flags zu entwickeln und

Canary-Release-Strategien einzusetzen.

3. Neue Features mit A/B-Tests erproben

In DevSecOps-Automatisierung zu investieren, schafft Flexibilität, wenn es darum geht, Funktionen für kleinere Gruppen von Benutzern freizugeben und A/B-Tests zu fahren. Darüber hinaus wird so nicht nur Continuous Deployment unterstützt, sondern auch möglich, Funktionen zu validieren und das Feedback von Endbenutzern einzuholen. Elliot Wood, CTO und Mitbegründer von CallRail, erklärt, wie das in der Praxis aussieht: “Neue Alphafunktionen werden offen und in schnellem Tempo getestet, um Kunden-Feedback zu sammeln. Die Teams sind dabei in der Lage, schnell zu arbeiten, weil sie kleine Änderungen an eine begrenzte Anzahl von Kunden weitergeben und das Risiko jedes einzelnen Experiments minimieren können.”

Tipp: Alpha- und Beta-Tests, bei denen erstere intern innerhalb des Unternehmens stattfinden und zweitere auf die Umgebung des Benutzers fokussieren, sind bewährte Praxis in der Softwareentwicklung. DevSecOps bringt Automatisierungs- und Skalierbarkeitspraktiken ein, um den Technologiebetrieb zu operationalisieren. Der Schlüssel zu erfolgreichen A/B-Programmen liegt darin:

Teilnehmer zu rekrutieren,

Ziele zu kommunizieren,

umsetzbares Feedback zu erfassen, sowie

Kollaboration zu belohnen.

4. ‘Security by Design’ etablieren

Vielen soliden IT-Sicherheitsprogrammen zum Trotz bleibt es eine Herausforderung, den ‘Security by Design’-Grundsatz im Softwareentwicklungsprozess zu verankern. Zu den relevanten Best Practices in diesem Bereich zählen etwa:

automatisierte Penetration-Tests,

Code-Scans innerhalb von CI/CD-Pipelines sowie

der Schutz vor API-Injection, -Lecks und nicht funktionierenden Zugriffskontrollen.

Steve Touw, CTO bei Immuta, weiß aus eigener Erfahrung um die Benefits, die dieser Ansatz bringt: “Seitdem wir auf ‘Security by Design’ setzen, hat sich unser Wartungs- und Verwaltungsaufwand mit Blick auf das Vulnerability Management merklich verringert.”

Tipp: CIOs, CISOs und Delivery Manager sollten eindeutige, nicht verhandelbare Anforderungen hinsichtlich der Sicherheitspraktiken, Tests und Metriken definieren, die erforderlich sind, um Produktionspfade zu automatisieren.

5. Unit-Testing-Unzulänglichkeiten erkennen

Unit Testing hilft zwar dabei Komponenten und Schnittstellen zu validieren – reicht aber nicht aus, um die End-to-End-Funktionalität oder das Benutzererlebnis zu überprüfen.

Peter McKee, Head of Developer Relations and Community bei Sonar, erklärt: “Entwickler, die einen Shift-Left-Ansatz verfolgen, räumen Unit-Tests oft Priorität ein, um sicherzustellen, dass Features und Funktionen korrekt funktionieren. Wenn man sich jedoch ausschließlich darauf verlässt, kann das zu Lücken in der Qualitätssicherung führen. Das beeinträchtigt unter Umständen auch die Sicherheit der Software mit Blick auf das Deployment.”

Tipp: Diverse Tools können Frontend User Experience Testing automatisieren. Um robuste Funktionstests zu gewährleisten, sollten agile Development-Teams:

entsprechende Verantwortlichkeiten definieren,

Skills entwickeln und

die dafür nötige Zeit investieren.

6. Testing (fachgerecht) automatisieren

Ein Engagement für mehr funktionales Testing steht und fällt mit den entwickelten Use Cases. Dabei können QA-Engineers Grenzbedingungen und Fehlerkonditionen identifizieren – vorausgesetzt, sie werden von den Endbenutzern entsprechend angeleitet, um Ziele, Workflows und Journeys besser zu durchdringen.

“Entwickler sind darauf bedacht, Code zu liefern, der wie gewünscht funktioniert. Um eine robuste Software zu gewährleisten, die mit allen Variationen der Kundenkonfiguration funktioniert, sollten Fachexperten Tests erstellen, die geeignet sind zu demonstrieren, wie die Benutzer die Funktionen in der realen Welt nutzen”, konstatiert Copado-SVP Brooks und ergänzt: “Idealerweise fahren die Subject Matter Experts explorative Tests über ein Tool, um auf dieser Grundlage automatisierte Tests zu erstellen.”

Tipp: Nutzen Sie Alpha- und Beta-Gruppen im Rahmen von App-Testing. Erwarten Sie dabei jedoch nicht, dass die Tester sich repetitiven User-Acceptance-Testing-Arien hingeben. Darüber hinaus empfiehlt es sich:

Tools zu verwenden, um Testmuster zu erfassen,

die wichtigsten Tests zu automatisieren,

eine Continuous-Testing-Strategie zu entwickeln, sowie

synthetische Daten zu nutzen, um Testmuster zu skalieren.

7. Code validieren

Code-Generatoren auf GenAI-Basis machen es wichtiger denn je, Code Reviews zu fahren, um Vulnerabilities zu identifizieren – und Probleme aufzutun, die möglicherweise die technischen Schulden von morgen darstellen. Weitere Probleme mit der Codequalität können etwa in den Bereichen Dokumentation, Fehlerbedingungen, Protokollierung und Namenskonventionen auftreten.

“Um die QA-Bemühungen zu unterstützen, sollten Entwickler statische Codeanalysen in ihre Arbeitsabläufe integrieren”, empfiehlt Sonar-Entwicklungschef McKee und begründet das mit einer entsprechenden Erklärung: “Eine automatisierte statische Analyse untersucht die interne Struktur einer Applikation und ergänzt Unit-Tests, indem sie zusätzliche Probleme aufdeckt. Durch die Kombination beider Verfahren können Entwickler die Codequalität während des gesamten Entwicklungszyklus proaktiv managen, Fehler schnell erkennen und beheben sowie die Zuverlässigkeit und Sicherheit der Software insgesamt optimieren.”

Tipp: Technische Schulden zu minimieren, ist für Unternehmen ein wichtiges Thema. Entsprechend sollten Tools, die Sicherheits- und Qualitätsprobleme identifizieren, sowie deren Integration in die CI/CD-Pipeline eine nicht verhandelbare Anforderung darstellen.

8. Nicht-funktionale Betriebsanforderungen festlegen

Mit Blick auf Performanz, Zuverlässigkeit und Sicherheit gilt es, Anforderungen zu ermitteln, die dazu geeignet sind, akzeptable Betriebsbedingungen zu definieren. Entwicklungsteams formulieren diese oft als nichtfunktionale Anforderungen, die in agilen User Stories als Akzeptanzkriterien ausgedrückt werden können. Nicht-funktionale Anforderungen können sich auch darauf auswirken, welche Infrastrukturkomponenten verwendet und wie diese gemanagt werden.

“Nichtfunktionale, betriebliche Anforderungen sind ebenso wichtig wie funktionale Anforderungen”, unterstreicht David Coffey, VP of Product Management bei IBM. Er fügt hinzu: “In einem Tech-Stack für einen Cloud-Service kommt es auf jede Einzelheit an. Fallen Details wie DNS-Service oder Netzwerkkonnektivität dabei unter den Tisch, kann sich das negativ auf die Verfügbarkeit und den Scope eines Cloud-Service auswirken.”

Tipp: Architekten, Betriebs- und Sicherheitsexperten sollten Standards für nichtfunktionale Anforderungen und Akzeptanzkriterien entwerfen, auf die sich agile Entwicklungsteams in ihren User Stories beziehen können.

9. SLOs und Alerts kanalisieren

Eine veraltete Methode, um die Erwartungen an die Anwendungsleistung zu definieren, besteht darin, Service Level Agreements (SLAs) rund um eine Betriebskennzahl zu formulieren – beispielsweise eine Uptime von 99,9 Prozent. Ein moderner Ansatz: SLOs und Fehlerbudgets zu definieren, die regeln, wann DevSecOps-Teams operative Optimierungen priorisieren sollten.

Um das in der Praxis umzusetzen, müssen jedoch bestimmte Voraussetzungen erfüllt sein, wie Asaf Yigal, Mitbegründer und VP of Product bei Logz.io, erklärt: “Wenn Leistungsverbesserungen vorangetrieben werden und die Engineers dabei keine Ahnung haben, welche SLOs wichtig sind, untergräbt das Observability-Plattformen.”

Tipp: Produktmanager sollten daran beteiligt werden, SLOs zu definieren und Kundensegmente, Journey-Typen und kritische Zeiträume dazu nutzen, aufzuzeigen, wann Ausfälle und Leistungsdefizite stärkere Auswirkungen auf das Geschäft haben.

10. Observability implementieren

Um Datenquellen zu integrieren und Daten innerhalb der Anwendungsumgebung zu bewegen, nutzen die meisten Applikationen heutzutage Daten-Pipelines. Allerdings können Workflows kompromittiert werden – was die Gefahr falscher Entscheidungen aufwirft, wenn es zu Verzögerungen oder Problemen bei der Datenqualität kommt.

Ashwin Rajeeva, Mitbegründer und CTO von Acceldata, weiß, was dagegen hilft: “Data-Reliability-Checks nach links zu verlagern, ermöglicht es, die Datenqualität und -integrität frühzeitig an der Quelle zu validieren und verhindert so kostenintensive Folgen. Continuous Monitoring und Incident Management erleichtern es, proaktiv auf potenzielle Datenvorfälle zu reagieren, ermöglichen einen ununterbrochenen Datenfluss und gewährleisten die kontinuierliche Zuverlässigkeit der Daten in der gesamten Data Supply Chain.”

Tipp: Implementieren Sie Monitoring und automatisierte Checks in der gesamten Datenlieferkette, um Pipeline- und Datenqualitätsproblematiken möglichst früh auf die Schliche zu kommen.

11. Admin-Funktionen sperren

SaaS-Unternehmen schränken den administrativen Zugriff auf ihre Anwendungen und Umgebungen ein, um zu verhindern, dass Kundendaten kompromittiert werden oder die Verfügbarkeit beeinträchtigt wird.

Igor Jablokov, Gründer und CEO von Pryon, empfiehlt, sich daran ein Beispiel zu nehmen: “Verteilen Sie kritische Funktionen auf mindestens vier Schultern, um zu verhindern, dass ein Administrator teure Fehler machen kann, die Betriebszeit und Verfügbarkeit einschränken.” Der Manager empfiehlt darüber hinaus weitere, grundlegende Maßnahmen, wie ein mehrstufige Authentifizierung zu implementieren und unnötige externe Zugriffsmöglichkeiten zu sperren.

Tipp: IT-Sicherheitsspezialisten sollten sich über die neuesten Schwachstellen informiert halten – zum Beispiel über die bekannten OWASP-Rankings. Diese und andere Quellen lassen sich dazu nutzen, Security-Checklisten, Schulungen und Support für DevSecOps-Teams bereitzustellen.

12. Hot-Standby-Umgebungen konfigurieren

Unternehmen, die Anwendungen bereitstellen, profitieren von einer robusten Cloud-Infrastruktur. Eine solche zeichnet sich beispielsweise aus durch:

Infrastructure as Code,

automatisiert skalierende Umgebungen,

Multizone-Deployments und

automatisiertes Failover-Management.

“Lassen Sie Ihre Anwendung im Hot-Standby-Modus auch bei einem weiteren Cloud-Anbieter laufen. Denn egal, wie viel Redundanz und Failover die Hyperscaler bieten können, sie sind nicht immun gegen Fehler”, unterstreicht Pryon-CEO Jablokov.

Tipp: DevSecOps-Teams, die Standardarchitekturen, -plattformen und -konfigurationen entwickeln, können Hochverfügbarkeitspraktiken leichter in ihre Infrastrukturmuster integrieren. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

12 Wege, DevSecOps zu optimieren​ Weiterlesen »

Gut KI-Ergebnis will Weile haben​

Allgemein

width=”1778″ height=”1000″ sizes=”(max-width: 1778px) 100vw, 1778px”>Claude analysiert komplexe Fragen und soll ein Research-Paper mit Quellenangaben in unter fünf Minuten erstellen können.Anthropic Am 01. Mai 2025 kündigte Anthropic Upgrades für seinen KI-Assistenten Claude an: Die Forschungsfunktion des Chatbots wird erweitert. Das neue „Research“-Feature soll tiefgehende Analysen über zahlreiche interne und externe Quellen hinweg ermöglichen. Laut Anthropic ist Claude damit in der Lage, selbstständig das Internet und andere Online-Quellen durchsuchen können. Ziel ist es unter anderem, Forschungsberichte im Dokumentenformat zu erstellen. Analyse Schritt für Schritt Der Chatbot zerlegt dabei komplexe Anfragen, recherchiert einzelne Aspekte und erstellt Berichte mit Quellenangaben, heißt es seitens des Herstellers.   Die Bearbeitungszeit könne sich dadurch allerdings auf bis zu 45 Minuten erhöhen, bevor der KI-Assistent umfassende Berichte liefert. Laut dem Start-Up würde die vergleichbare, manuelle Recherche mehrere Stunden dauern. Die meisten Berichte laut Anthropic werden aber immer noch innerhalb von fünf bis fünfzehn Minuten abgeschlossen. Quellenangaben nicht immer korrekt Besonders profitieren sollen Fachleute, die zwischen verlässlichen und fehlerhaften Informationen unterscheiden können. Ein Test der Fachzeitschrift Ars Technica mit Claude lieferte zum Beispiel einen fundierten, gut belegten Bericht zur Geschichte der Videospiele. Laut dem Autor des Berichts benötigte der Chatbot circa 13 Minuten, um den Text zu verfassen. Der Bericht enthielt jedoch ein direktes Zitat, in dem Aussagen aus zwei nicht in der Quellenliste aufgeführten Quellen kombiniert wurden. Hier zeigt sich, dass Ergebnisse, welche mit Künstlicher Intelligenz (KI) erstellt wurden, stets mit Vorsicht zu genießen sind. Auch außerhalb dieses Recherchemodus neigt Claude 3.7 Sonnet dazu, plausible Zitate zu erfinden, um sie in eine Erzählung einzupassen. In diesem Fall scheint es, dass die Quellen, die Claude Research anzeigt, zwar echt sind, aber nicht immer mit den Angaben im Bericht übereinstimmen. Claude gibt zwar Quellen an, aber ohne Fußnoten oder Verweise. Tristan Fincken – IDG Research-Paper in unter fünf Minuten Beim direkten Vergleich mit einer deutschen Frage zum gleichen Thema benötigte Claude sogar weniger als fünf Minuten. Mithilfe des Prompts „Schreibe zu der Frage ‚Wer hat Videospiele entwickelt?’ ein ausführliches Research-Paper mit Quellen.“ gab der Chatbot sogar zumindest richtig dargestellte Quellen an. Insgesamt erweckt Claudes Research den Eindruck, relativ gute Arbeit zu leisten, wenn es darum geht, Berichte zu diesem speziellen Thema zu erstellen. Es ist jedoch stets zu empfehlen, bevor man dem Chatbot Fragen stellt, selber Recherche zu betreiben und ein fundiertes Hintergrundwissen aufzubauen. Auf diese Art und Weise lassen sich Halluzinationen am besten als solche erkennen. Neue Integrationsfunktion für vernetzte Anwendungen Anthropic hat auch Claudes Datenzugriff erweitert: Neben Websuche und Google Workspace kann der Bot nun über eine neue „Integrations“-Funktion mit beliebigen verbundenen Anwendungen arbeiten. Diese Funktion ähnelt ChatGPT-Plugins vom März 2023, basiert aber auf einer anderen Technik. Grundlage ist hier der MCP-Standard, der es Claude erlaubt, über Web- und Desktop-Anwendungen auf externe Tools und Datenquellen zuzugreifen. Claude ist bereits in zehn Diensten integriert, darunter Jira, Confluence, Zapier und PayPal. Diese Integrationen sollen laut Anthropic Claudes Funktionen gezielt erweitern – etwa indem sie Prozesse mit Zapier weiter automatisieren oder bei Produktentwicklung und Aufgabenmanagement mit Atlassian-Tools helfen. Weitere Partnerschaften mit zum Beispiel Stripe und GitLab sollen folgen. 

Gut KI-Ergebnis will Weile haben​ width=”1778″ height=”1000″ sizes=”(max-width: 1778px) 100vw, 1778px”>Claude analysiert komplexe Fragen und soll ein Research-Paper mit Quellenangaben in unter fünf Minuten erstellen können.Anthropic

Am 01. Mai 2025 kündigte Anthropic Upgrades für seinen KI-Assistenten Claude an: Die Forschungsfunktion des Chatbots wird erweitert. Das neue „Research“-Feature soll tiefgehende Analysen über zahlreiche interne und externe Quellen hinweg ermöglichen.

Laut Anthropic ist Claude damit in der Lage, selbstständig das Internet und andere Online-Quellen durchsuchen können. Ziel ist es unter anderem, Forschungsberichte im Dokumentenformat zu erstellen.

Analyse Schritt für Schritt

Der Chatbot

zerlegt dabei komplexe Anfragen,

recherchiert einzelne Aspekte und

erstellt Berichte mit Quellenangaben,

heißt es seitens des Herstellers.  

Die Bearbeitungszeit könne sich dadurch allerdings auf bis zu 45 Minuten erhöhen, bevor der KI-Assistent umfassende Berichte liefert. Laut dem Start-Up würde die vergleichbare, manuelle Recherche mehrere Stunden dauern. Die meisten Berichte laut Anthropic werden aber immer noch innerhalb von fünf bis fünfzehn Minuten abgeschlossen.

Quellenangaben nicht immer korrekt

Besonders profitieren sollen Fachleute, die zwischen verlässlichen und fehlerhaften Informationen unterscheiden können. Ein Test der Fachzeitschrift Ars Technica mit Claude lieferte zum Beispiel einen fundierten, gut belegten Bericht zur Geschichte der Videospiele. Laut dem Autor des Berichts benötigte der Chatbot circa 13 Minuten, um den Text zu verfassen.

Der Bericht enthielt jedoch ein direktes Zitat, in dem Aussagen aus zwei nicht in der Quellenliste aufgeführten Quellen kombiniert wurden. Hier zeigt sich, dass Ergebnisse, welche mit Künstlicher Intelligenz (KI) erstellt wurden, stets mit Vorsicht zu genießen sind.

Auch außerhalb dieses Recherchemodus neigt Claude 3.7 Sonnet dazu, plausible Zitate zu erfinden, um sie in eine Erzählung einzupassen. In diesem Fall scheint es, dass die Quellen, die Claude Research anzeigt, zwar echt sind, aber nicht immer mit den Angaben im Bericht übereinstimmen.

Claude gibt zwar Quellen an, aber ohne Fußnoten oder Verweise.
Tristan Fincken – IDG

Research-Paper in unter fünf Minuten

Beim direkten Vergleich mit einer deutschen Frage zum gleichen Thema benötigte Claude sogar weniger als fünf Minuten. Mithilfe des Prompts „Schreibe zu der Frage ‚Wer hat Videospiele entwickelt?’ ein ausführliches Research-Paper mit Quellen.“ gab der Chatbot sogar zumindest richtig dargestellte Quellen an.

Insgesamt erweckt Claudes Research den Eindruck, relativ gute Arbeit zu leisten, wenn es darum geht, Berichte zu diesem speziellen Thema zu erstellen.

Es ist jedoch stets zu empfehlen, bevor man dem Chatbot Fragen stellt, selber Recherche zu betreiben und ein fundiertes Hintergrundwissen aufzubauen. Auf diese Art und Weise lassen sich Halluzinationen am besten als solche erkennen.

Neue Integrationsfunktion für vernetzte Anwendungen

Anthropic hat auch Claudes Datenzugriff erweitert: Neben Websuche und Google Workspace kann der Bot nun über eine neue „Integrations“-Funktion mit beliebigen verbundenen Anwendungen arbeiten. Diese Funktion ähnelt ChatGPT-Plugins vom März 2023, basiert aber auf einer anderen Technik. Grundlage ist hier der MCP-Standard, der es Claude erlaubt, über Web- und Desktop-Anwendungen auf externe Tools und Datenquellen zuzugreifen.

Claude ist bereits in zehn Diensten integriert, darunter Jira, Confluence, Zapier und PayPal. Diese Integrationen sollen laut Anthropic Claudes Funktionen gezielt erweitern – etwa indem sie

Prozesse mit Zapier weiter automatisieren oder

bei Produktentwicklung und Aufgabenmanagement mit Atlassian-Tools helfen.

Weitere Partnerschaften mit zum Beispiel Stripe und GitLab sollen folgen.

Gut KI-Ergebnis will Weile haben​ Weiterlesen »

Amazon bringt leistungsfähigeres KI-Modell​

Allgemein

Mit dem neuen KI-Modell Nova Premier richtet AWS sein AI-Business neu aus. Michael Vi – shutterstock.com AWS hat über Amazon Bedrock sein neues KI-Modell Nova Premier vorgestellt. Es wurde gezielt für den Unternehmenseinsatz entwickelt und soll komplexe, mehrstufige Workflows unterstützen. Mit Hilfe der Modelldestillation können Fähigkeiten von Nova Premier laut AWS nun effizienter und kostengünstiger auf kleinere Modelle übertragen werden. Dabei könne Nova Premier Text-, Bild- und längere Videoeingaben mit einem Kontextfenster von einer Million Token (entspricht etwa 750.000 Wörtern) verarbeiten. In einem AWS-Blog heißt es weiter, dass das KI-Modell über 200 Sprachen unterstützen werde. Als typische Anwendungsbereiche sieht AWS: Finanzanalysen, Software-Automatisierung, oder agentenbasierten Aufgaben, die die Koordination zwischen Tools und Datenebenen erfordern. Nova Premier in Benchmarks Während AWS Nova Premier als sein „leistungsfähigstes Modell“ bezeichnet, kommen einige Benchmarks von Drittanbietern zu anderen Ergebnissen. Danach liegt das KI-Modell hinter wichtigen Konkurrenten. So bleibe es hinter Googles Gemini 2.5 Pro zurück, wenn es um Codierung (SWE-Bench-verifiziert) gehe. Ferner erziele Nova Premier schlechtere Ergebnisse in mathematischen und naturwissenschaftlichen Bewertungen wie GPQA Diamond und AIME 2025. Amazon wiederum will mit internen Tests belegen, dass Nova Premier bei der Wissensgewinnung und visuellen Schlussfolgerungen mit 86,3 Punkten bei SimpleQA und 87,4 Punkten bei MMMU sehr gut abschneidet. Ein wesentliches Merkmal von Nova Premier ist die Unterstützung der Modelldestillation innerhalb von Bedrock. Damit können Unternehmen synthetische Daten aus Premier generieren und kleinere Modelle wie Nova Pro, Lite und Micro für gezielte Anwendungen optimieren. Laut AWS erhöht ein destilliertes Nova-Pro-Modell die Genauigkeit der API-Aufrufe um 20 Prozent bei ähnlicher Leistung, geringeren Kosten und geringerer Latenz. Zudem mache der Prozess es überflüssig, Trainingsdaten zu labeln. Damit eigne sich das Vorgehen für Edge-Bereitstellungen und Anwendungsfälle mit begrenzten Ressourcen. Der Vorteil liegt dabei für AWS auf der Hand: „Durch die Destillation können Kunden kleinere, effizientere Modelle für bestimmte Aufgaben erstellen.“ Dies unterscheidet Nova Premier auch von anderen Ansätzen. OpenAI’s GPT-4o-mini setzt beispielsweise auf Feinabstimmung. Und Anthropic’s Claude räumt der Textoptimierung Vorrang ein. Strategische Neuausrichtung Für Amandeep Singh, Principal Analyst bei der QKS Group, markiert die Einführung auch eine strategische Neuausrichtung: „Mit Nova Premier verabschiedet sich AWS von der Rolle eines neutralen Modell-Host. Jetzt will man vielmehr die GenAI-Wertschöpfungskette grundlegend kontrollieren“. Dabei gehe es nicht darum, das größte Modell zu bauen, sondern darum, Orchestrierung, Preisgestaltung und die Architektur zu kontrollieren. Derzeit ist Nova Premier nur für Bedrock-Anwender verfügbar. 

Amazon bringt leistungsfähigeres KI-Modell​ Mit dem neuen KI-Modell Nova Premier richtet AWS sein AI-Business neu aus.
Michael Vi – shutterstock.com

AWS hat über Amazon Bedrock sein neues KI-Modell Nova Premier vorgestellt. Es wurde gezielt für den Unternehmenseinsatz entwickelt und soll komplexe, mehrstufige Workflows unterstützen.

Mit Hilfe der Modelldestillation können Fähigkeiten von Nova Premier laut AWS nun effizienter und kostengünstiger auf kleinere Modelle übertragen werden. Dabei könne Nova Premier Text-, Bild- und längere Videoeingaben mit einem Kontextfenster von einer Million Token (entspricht etwa 750.000 Wörtern) verarbeiten.

In einem AWS-Blog heißt es weiter, dass das KI-Modell über 200 Sprachen unterstützen werde. Als typische Anwendungsbereiche sieht AWS:

Finanzanalysen,

Software-Automatisierung, oder

agentenbasierten Aufgaben, die die Koordination zwischen Tools und Datenebenen erfordern.

Nova Premier in Benchmarks

Während AWS Nova Premier als sein „leistungsfähigstes Modell“ bezeichnet, kommen einige Benchmarks von Drittanbietern zu anderen Ergebnissen. Danach liegt das KI-Modell hinter wichtigen Konkurrenten.

So bleibe es hinter Googles Gemini 2.5 Pro zurück, wenn es um Codierung (SWE-Bench-verifiziert) gehe. Ferner erziele Nova Premier schlechtere Ergebnisse in mathematischen und naturwissenschaftlichen Bewertungen wie GPQA Diamond und AIME 2025. Amazon wiederum will mit internen Tests belegen, dass Nova Premier bei der Wissensgewinnung und visuellen Schlussfolgerungen mit 86,3 Punkten bei SimpleQA und 87,4 Punkten bei MMMU sehr gut abschneidet.

Ein wesentliches Merkmal von Nova Premier ist die Unterstützung der Modelldestillation innerhalb von Bedrock. Damit können Unternehmen synthetische Daten aus Premier generieren und kleinere Modelle wie Nova Pro, Lite und Micro für gezielte Anwendungen optimieren.

Laut AWS erhöht ein destilliertes Nova-Pro-Modell die Genauigkeit der API-Aufrufe um 20 Prozent bei ähnlicher Leistung, geringeren Kosten und geringerer Latenz. Zudem mache der Prozess es überflüssig, Trainingsdaten zu labeln. Damit eigne sich das Vorgehen für Edge-Bereitstellungen und Anwendungsfälle mit begrenzten Ressourcen.

Der Vorteil liegt dabei für AWS auf der Hand: „Durch die Destillation können Kunden kleinere, effizientere Modelle für bestimmte Aufgaben erstellen.“ Dies unterscheidet Nova Premier auch von anderen Ansätzen. OpenAI’s GPT-4o-mini setzt beispielsweise auf Feinabstimmung. Und Anthropic’s Claude räumt der Textoptimierung Vorrang ein.

Strategische Neuausrichtung

Für Amandeep Singh, Principal Analyst bei der QKS Group, markiert die Einführung auch eine strategische Neuausrichtung: „Mit Nova Premier verabschiedet sich AWS von der Rolle eines neutralen Modell-Host. Jetzt will man vielmehr die GenAI-Wertschöpfungskette grundlegend kontrollieren“. Dabei gehe es nicht darum, das größte Modell zu bauen, sondern darum, Orchestrierung, Preisgestaltung und die Architektur zu kontrollieren.

Derzeit ist Nova Premier nur für Bedrock-Anwender verfügbar.

Amazon bringt leistungsfähigeres KI-Modell​ Weiterlesen »

Rewe packt seine SAP-Systeme in die Google-Cloud​

Allgemein

Der Handelsriese Rewe geht mit seinen SAP-Systemen den Weg in die Google Cloud. Rewe Der Handelsriese Rewe baut seine strategische Partnerschaft mit SAP weiter aus. Seit Anfang 2025 sei man dabei, schrittweise 73 neue SAP-Systeme in die Google Cloud zu überführen, gab der Konzern bekannt. Die Migration auf S/4HANA ist auf mehrere Jahre angelegt. Wir lang das Projekt genau dauern soll, wollten die Verantwortlichen nicht verraten.  Mit RISE with SAP stelle die Rewe digital ihre bestehenden On-Premises-Systeme auf ein Cloud ERP (Enterprise Resource Planning) um, hieß es in einer offiziellen Mitteilung. Die IT-Einheit der Rewe Group habe dafür mit SAP einen langfristigen Vertrag mit einer Laufzeit von mehreren Jahren sowie einer Verlängerungsoption abgeschlossen.  Der Einzelhändler setzt SAP eigenen Angaben zufolge vor allem in den Bereichen Finanz- und Rechnungswesen sowie für Personalbelange ein. Die Modernisierung und Harmonisierung der bislang genutzten SAP-Systeme sei ein entscheidender Schritt in Richtung harmonisierter und standardisierter IT-Prozesse sowie der digitalen Transformation in allen Geschäftsbereichen, hieß es.  Vorstand Christoph Eltze: Rewe bündelt IT- und Digitalsparten Künftig sollen alle SAP-Systeme von Rewe auf der Google Cloud Platform (GCP) laufen. Mit der Migration in die Cloud versprechen sich die Verantwortlichen eine höhere Skalierbarkeit der technischen Infrastruktur, mehr Effizienz in der IT-Landschaft sowie eine größere Flexibilität, das Unternehmen und seine technischen Ressourcen leichter an künftige Geschäftsveränderungen anpassen zu können.  Rewe erwartet Millionen-Einsparungen mit dem Cloud-Umstieg  Für den Handelskonzern geht es beim Transfer in die Google Cloud auch darum, Synergieeffekte und Effizienzgewinne in der IT-Landschaft zu erzielen sowie Innovationen voranzutreiben. Zudem soll die Standardisierung der technischen IT-Umgebung zu einer spürbaren Reduktion der Hardware- und Betriebskosten beitragen, so die klare Erwartungshaltung des Managements. Die IT-Tochter Rewe digital erwartet im Betrieb Einsparungen im zweistelligen Millionenbereich und damit eine signifikante Reduktion der Total Cost of Ownership (TCO). IT-Modernisierung: Rewe Digital automatisiert Enterprise-Anwendungen Guido Hoepfner, COO von Rewe digital, spricht von einem bedeutenden Fortschritt in der digitalen Transformation der gesamten Rewe Group. „Durch die vertieften Partnerschaften mit SAP und Google heben wir die Harmonisierung der Prozesse und die Standardisierung der technischen Betriebsmodelle des Unternehmens auf ein neues Niveau.“ Liegt die digitale Zukunft des Handels in der Cloud?   Alex Kläger, President Middle & Eastern Europe von SAP, verwies darauf, dass die Rewe Group mit der Migration in die Cloud SAPs kontinuierliche Weiterentwicklungen, einschließlich der Innovationen im Bereich der künstlichen Intelligenz, optimal ausschöpfen könne. Für Marianne Janik, VP EMEA North Google Cloud, markiert die strategische Partnerschaft mit der Rewe Group einen wichtigen Meilenstein für die digitale Zukunft des Handels. Mit Rewe hat Alex Kläger, President Middle & Eastern Europe von SAP, einen wichtigen Kunden für sein Cloud-Geschäft gewonnen.SAP SE Die genossenschaftliche Rewe Group erzielte im Jahr 2024 einen Umsatz von über 96 Milliarden Euro. Das 1927 gegründete Handelsunternehmen beschäftigt rund 380.000 Menschen und ist in 21 europäischen Ländern präsent. Zu den Marken gehören neben Rewe unter anderem auch Nahkauf, der Discounter Penny, die Baumärkte von Toom sowie ZooRoyal und unter dem Dach der Dertour Group über 2.000 Reisebüros, Veranstalter sowie Hotelmarken und Online-Reiseportale.  Die Top-CIOs im Handel Um die IT kümmert sich Rewe digital – sowohl im stationären wie auch im Onlinehandel. Die IT-Einheit beschäftigt rund 2.250 Mitarbeitende an verschiedenen Standorten in Deutschland wie Köln, Berlin und Frankfurt bis hin zu Sofia, Varna, Plovdiv, Zielona Góra, Graz und Málaga.  

Rewe packt seine SAP-Systeme in die Google-Cloud​ Der Handelsriese Rewe geht mit seinen SAP-Systemen den Weg in die Google Cloud. Rewe

Der Handelsriese Rewe baut seine strategische Partnerschaft mit SAP weiter aus. Seit Anfang 2025 sei man dabei, schrittweise 73 neue SAP-Systeme in die Google Cloud zu überführen, gab der Konzern bekannt. Die Migration auf S/4HANA ist auf mehrere Jahre angelegt. Wir lang das Projekt genau dauern soll, wollten die Verantwortlichen nicht verraten. 

Mit RISE with SAP stelle die Rewe digital ihre bestehenden On-Premises-Systeme auf ein Cloud ERP (Enterprise Resource Planning) um, hieß es in einer offiziellen Mitteilung. Die IT-Einheit der Rewe Group habe dafür mit SAP einen langfristigen Vertrag mit einer Laufzeit von mehreren Jahren sowie einer Verlängerungsoption abgeschlossen. 

Der Einzelhändler setzt SAP eigenen Angaben zufolge vor allem in den Bereichen Finanz- und Rechnungswesen sowie für Personalbelange ein. Die Modernisierung und Harmonisierung der bislang genutzten SAP-Systeme sei ein entscheidender Schritt in Richtung harmonisierter und standardisierter IT-Prozesse sowie der digitalen Transformation in allen Geschäftsbereichen, hieß es. 

Vorstand Christoph Eltze: Rewe bündelt IT- und Digitalsparten

Künftig sollen alle SAP-Systeme von Rewe auf der Google Cloud Platform (GCP) laufen. Mit der Migration in die Cloud versprechen sich die Verantwortlichen eine höhere Skalierbarkeit der technischen Infrastruktur, mehr Effizienz in der IT-Landschaft sowie eine größere Flexibilität, das Unternehmen und seine technischen Ressourcen leichter an künftige Geschäftsveränderungen anpassen zu können. 

Rewe erwartet Millionen-Einsparungen mit dem Cloud-Umstieg 

Für den Handelskonzern geht es beim Transfer in die Google Cloud auch darum, Synergieeffekte und Effizienzgewinne in der IT-Landschaft zu erzielen sowie Innovationen voranzutreiben. Zudem soll die Standardisierung der technischen IT-Umgebung zu einer spürbaren Reduktion der Hardware- und Betriebskosten beitragen, so die klare Erwartungshaltung des Managements. Die IT-Tochter Rewe digital erwartet im Betrieb Einsparungen im zweistelligen Millionenbereich und damit eine signifikante Reduktion der Total Cost of Ownership (TCO).

IT-Modernisierung: Rewe Digital automatisiert Enterprise-Anwendungen

Guido Hoepfner, COO von Rewe digital, spricht von einem bedeutenden Fortschritt in der digitalen Transformation der gesamten Rewe Group. „Durch die vertieften Partnerschaften mit SAP und Google heben wir die Harmonisierung der Prozesse und die Standardisierung der technischen Betriebsmodelle des Unternehmens auf ein neues Niveau.“

Liegt die digitale Zukunft des Handels in der Cloud?  

Alex Kläger, President Middle & Eastern Europe von SAP, verwies darauf, dass die Rewe Group mit der Migration in die Cloud SAPs kontinuierliche Weiterentwicklungen, einschließlich der Innovationen im Bereich der künstlichen Intelligenz, optimal ausschöpfen könne. Für Marianne Janik, VP EMEA North Google Cloud, markiert die strategische Partnerschaft mit der Rewe Group einen wichtigen Meilenstein für die digitale Zukunft des Handels.

Mit Rewe hat Alex Kläger, President Middle & Eastern Europe von SAP, einen wichtigen Kunden für sein Cloud-Geschäft gewonnen.SAP SE

Die genossenschaftliche Rewe Group erzielte im Jahr 2024 einen Umsatz von über 96 Milliarden Euro. Das 1927 gegründete Handelsunternehmen beschäftigt rund 380.000 Menschen und ist in 21 europäischen Ländern präsent. Zu den Marken gehören neben Rewe unter anderem auch Nahkauf, der Discounter Penny, die Baumärkte von Toom sowie ZooRoyal und unter dem Dach der Dertour Group über 2.000 Reisebüros, Veranstalter sowie Hotelmarken und Online-Reiseportale. 

Die Top-CIOs im Handel

Um die IT kümmert sich Rewe digital – sowohl im stationären wie auch im Onlinehandel. Die IT-Einheit beschäftigt rund 2.250 Mitarbeitende an verschiedenen Standorten in Deutschland wie Köln, Berlin und Frankfurt bis hin zu Sofia, Varna, Plovdiv, Zielona Góra, Graz und Málaga. 

Rewe packt seine SAP-Systeme in die Google-Cloud​ Weiterlesen »

Nach oben scrollen
×