Computerhaus Quickborn

September 2024

Wie FinOps den Cloud-Einsatz effizienter macht​

Wie FinOps den Cloud-Einsatz effizienter macht​

Allgemein

Der Cloud-Betrieb kann beliebig komplex werden. Das treibt die Kosten in Höhe. Wer die Kontrolle behalten will, braucht die richtige Methode – FinOps kann dabei helfen.ArtemisDiana – shutterstock.com Multi-Cloud- oder Hybrid-Cloud-Umgebungen sind in den meisten Unternehmen inzwischen „State of the Art“ und deren Vorteile unbestritten. Mehr Flexibilität und Agilität, weniger Schatten-IT und nachhaltigeres IT-Business-Alignment sowie eine moderne cloud-basierte Softwareentwicklung – all diese Faktoren sind für den Erfolg der Cloud ausschlaggebend. Doch vielfach ging bei der Cloud Journey der Unternehmen Schnelligkeit vor Genauigkeit. Die Konsequenz: Die Orchestrierung einer Vielzahl von Handlungsoptionen und Services wurde technologisch und organisatorisch nur unzureichend gelöst, Die Auslagerung von Workloads in die Cloud geriet vielfach zu einer Kostenfalle. Auf dieses bei vielen Anwenderinnen und Anwendern vorherrschende Szenario zahlen FinOps ein. Die Abkürzung steht für „Financial Operations“. Besagte Operationen zielen darauf ab, die Cloud-Ausgaben der Firmen zu optimieren, was im Umkehrschluss bedeutet, die Effizienz und den Nutzen von Cloud-Ressourcen zu maximieren. Die FinOps-Methodik umfasst dabei eine Reihe von Verfahren, Tools und Best Practices, mit deren Hilfe Unternehmen ihre Investitionen und laufenden Betriebskosten der Cloud besser kontrollieren und managen können. Insbesondere geht es dabei um konkrete Verwendungsmuster einzelner Cloud-Services und deren Effizienz beziehungsweise Ineffizienz. Und es erfordert eine bessere Verzahnung von IT, Finanzabteilung und Fachbereichen in den Firmen. FinOps inzwischen etabliert Wie etabliert diese Methodik in den Unternehmen der DACH-Region ist, belegt die aktuelle Studie „FinOps“ des Research Teams von CIO, CSO und COMPUTERWOCHE. Demnach ist für fast 90 Prozent der befragten Firmen der Ansatz der Financial Operations inzwischen vertraut. Zumindest kennen sie die Thematik und haben sich in Ansätzen schon damit beschäftigt. Rund 27 Prozent der Studienteilnehmerinnen und Studienteilnehmer haben mit FinOps schon Erfahrungen in einem kleineren Rahmen gesammelt. Weitere 18 Prozent sprechen von ersten erfolgreichen Projekten. Knapp 21 Prozent wenden FinOps bereits aktiv und regelmäßig an, elf Prozent der Anwenderinnen und Anwender haben sogar bereits feste Prozesse und Strukturen in diesem Bereich etabliert. FinOps hat sich in den letzten Jahren als fester Bestandteil etabliert und ist heute unverzichtbar für das Management und die Optimierung von Cloud-Kosten, sagt Christopher Brune, FinOps Lead bei USU.USU GmbH Ein positives Zwischenfazit zur FinOps-Entwicklung zieht auch Christopher Brune, FinOps Lead bei der USU Software AG: „FinOps hat sich in den letzten Jahren in den Unternehmen als fester Bestandteil etabliert und ist heute unverzichtbar für das Management und die Optimierung von Cloud-Kosten. Verbesserungspotenzial besteht allerdings noch in der Zusammenarbeit zwischen IT, Finance und Controlling. Wenn das gelingt, können Firmen ihre Cloud-Ausgaben effektiv managen und den geschäftlichen Nutzen maximieren.“  Was der Branchenkenner damit meint, ist folgendes: Der Begriff FinOps meint inhaltlich eigentlich „Finanz- und Entwicklungsoperationen“. Doch diese Kombination hat es vielfach noch in sich, weil die Verantwortung für Finance- und Kostenmanagement nach wie vor beim Business liegt, während die IT die betrieblichen Abläufe sicherstellen und die Vorteile der Cloud-Nutzung im Hinblick auf Flexibilität, Geschwindigkeit und Service-Orientierung voll ausschöpfen soll. Im Tagesgeschäft führt dies häufig immer noch dazu, dass sich Entwickler-Teams über die laufenden Kosten ihrer Werkzeuge keine oder nur unzureichende Gedanken machen –  und die Fachbereiche ihre Cloud-Services, die sie selbst gefordert und ins Unternehmen geholt haben, zum Teil gar nicht mehr oder nur rudimentär nutzen. Jede Cloud-Migration ist individuell zu betrachten Experten zufolge können mit Blick auf die eingangs erwähnte Verzahnung von IT, Finanzabteilung und Fachbereichen die Rollen und Verantwortlichkeiten in den Unternehmen unterschiedlich sein. Sie sind letzten Endes abhängig vom Grad der „Cloudifizierung“, von der Charakteristik der ausgelagerten Workloads und von etwaigen Spezifika der jeweiligen Branche. Als allgemein gültig gelten indes diverse abteilungsübergreifende Disziplinen, für deren Zweck die FinOps-Methodiken angewendet werden sollten. Dazu zählen Kostenoptimierung, Kostentransparenz, Collaboration, Budgetplanung sowie Governance und Compliance. Lesen Sie mehr zum Thema FinOps: Wie sich mit FinOps Cloud-Kosten bändigen lassen Finops-Methoden: 7 Best Practices, um Cloud-Kosten zu senken Cloud-Kostenkontrolle: Funktioniert Ihr Finops-Programm? Gleichzeitig warnen Fachleute in diesem Zusammenhang aber auch vor falschen Vorgehensweisen und Erwartungshaltungen. So sollte man FinOPs nicht als reines „IT-Projekt“ aufsetzen, sondern sich von Beginn der Unterstützung aller entscheidenden Stake Holder versichern. Gleichzeitig gehe es darum, im Hinblick auf Kostenoptimierung nicht nur Gelder einzusparen, sondern den größtmöglichen Mehrwert aus einer Cloud-Applikation zu ziehen. Und: FinOps sollten nicht als „Eintagsfliege“ betrachtet werden, die nur im Rahmen einer Cloud-Migration zum Einsatz kommen. Sie sollten vielmehr als dauerhafte und strategische Management-Methodik etabliert werden. Zusammenarbeit der Stake Holder nimmt zu Laut Studie sind die Unternehmen hinsichtlich einer solchen Denkweise auf einem guten Weg. Knapp 30 Prozent der Studienteilnehmerinnen und Studienteilnehmer verweisen bei der Abrechnung von Cloud-Kosten auf eine sehr enge Zusammenarbeit zwischen der IT- und Finanzabteilung sowie anderen involvierten Fachbereichen. Und mehr als die Hälfte der Befragten berichten von einem zumindest engen Austausch der jeweiligen Mitarbeitenden.  Weitestgehend synchron zu diesen Resultaten ist auch das Meinungsbild der Befragten bei der Bewertung von Cloud-Kosten. Knapp 29 Prozent der Firmen berichten hier von einer gemeinsamen Sicht- und Vorgehensweise der zuständigen Entscheidungsträgerinnen und Entscheidungsträger. Research Services: Patrick Birnbreier Interessant ist insofern auch die Frage, ob und wie FinOps die Unternehmenskultur verändern?  Fast zwei Drittel der Anwenderinnen und Anwender können laut Studie von einer Stärkung der Zusammenarbeit zwischen Finance-Abteilung und IT-Organisation berichten. Als ebenso bedeutsamer Einflussfaktor von FinOps wird ein größeres Verständnis für den Wert von IT-Ressourcen genannt. Positive Auswirkungen sehen die IT- und Business-Verantwortlichen auch in puncto Innovationsfähigkeit und Agilität sowie einer höheren Wertschätzung des eigentlichen Wertbeitrages, den die Nutzung von Cloud-Services hervorbringt. Last, but not least tragen FinOps der Studie zufolge auch zu einem verstärkten Kostenbewusstsein bei. Welche genauen Ziele verfolgen die Firmen mit FinOps? Gibt es Prioritäten? Auch hier vermitteln die Studienergebnisse ein klares Meinungsbild. Bei 60 Prozent der Befragten steht demnach das Gleichgewicht zwischen Kostenoptimierung einerseits und der Nutzung cloudbasierter Ressourcen im Vordergrund. Knapp 28 Prozent verbinden mit dem Einsatz von FinOps die gezielte Förderung von Innovationen sowie die Stärkung der eigenen Wettbewerbsfähigkeit durch die Nutzung von Cloud-Services. Knapp acht Prozent erhoffen sich vor allem eine Senkung der Cloud-Kosten. Ein Blick auf das Thema IT-Infrastruktur und Application Management zeigt zudem, dass für fast ein Drittel der Unternehmen auch die Aspekte Automatisierung und Skalierbarkeit eine zentrale Rolle spielen. CIO gilt als Treiber Noch etwas ist bemerkenswert: In 40 Prozent der befragten Unternehmen treibt der CIO beziehungsweise IT-Verantwortliche das Thema FinOps federführend voran, 23 Prozent nennen den Finanzvorstand oder kaufmännischen Leiter. Bei knapp elf Prozent der Anwenderinnen und Anwender sorgt die Geschäftsführung selbst für die Implementierung und Umsetzung einer FinOps-Strategie. Erwähnenswert ist zudem, dass immer öfter auch neue Organisationsformen im Kontext von FinOps entstehen. So kümmert sich in elf Prozent der Unternehmen das so genannte Cloud Center of Excellence (CCoE) um diese Thematik, weitere acht Prozent haben dedizierte FinOps-Teams aufgestellt. Stichwort Application und Software Asset Management (SAM): Der ungebrochene Trend, immer mehr Applikationen und Prozesse in die Cloud auszulagern, hat auch seine Schattenseiten. Gemeint ist hier die Vielfalt an Services und Plattformen in der Enterprise Architektur eines Unternehmens. In diesem Kontext weist die Studie ein interessantes Einzelergebnis aus: Nur noch 23 Prozent der Befragten betreiben SAM-Werkzeuge und FinOPs isoliert voneinander. Vielmehr liebäugeln immer mehr Firmen damit, ihre einschlägigen Plattformen zu konsolidieren. Fast die Hälfte der Anwenderinnen und Anwender sind eher der Auffassung, dass FinOps ein Teil des SAM-Portfolios sind beziehungsweise werden müssen; knapp 15 Prozent sehen es genau umgekehrt und verorten SAM als integralen Bestandteil von FinOps. Unabhängig davon dürfte die Cloud unstrittig das zentrale und wichtigste Instrument für die Digitalisierung und damit Modernisierung der Unternehmen bleiben. Und mit Hilfe von FinOps sind Unternehmen in der Lage, die Verwendungsmuster ihrer Cloud-Lösungen besser zu verstehen, mangelnde Effizienzen zu erkennen und an entsprechenden kostensenkenden Lösungen zu arbeiten.   srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/09/Klaus-Stephan_Kyndryl.jpg?quality=50&strip=all 1605w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Klaus-Stephan_Kyndryl.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Klaus-Stephan_Kyndryl.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Klaus-Stephan_Kyndryl.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Klaus-Stephan_Kyndryl.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Klaus-Stephan_Kyndryl.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Klaus-Stephan_Kyndryl.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Klaus-Stephan_Kyndryl.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Klaus-Stephan_Kyndryl.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Klaus-Stephan_Kyndryl.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>FinOps wird essenziell in einer Zeit, in der Kosteneinsparungen in der Cloud eine immer eine immer wichtigere Rolle spielen, stellt Klaus Stephan, Cloud Practice Leader bei Kyndryl, fest.     Kyndryl Deutschland GmbH Klaus Stephan, Cloud Practice Leader, Kyndryl Deutschland, bringt noch einmal auf den Punkt, worauf es bei einer Cloud Migration und dem Einsatz von FinOps ankommt: „Ein einfaches Lift & Shift von Strukturen in die Cloud bringt keine Vorteile, da sich das gesamte Betriebsmodell mit dem Übergang, beispielsweise in die Hybrid Cloud, ändert. Automation und Integration sind insofern in einer hybriden Welt zentrale Themen, auf denen auch FinOps aufbaut. Und FinOps wird essenziell in einer Zeit, in der Kosteneinsparungen in der Cloud eine immer eine immer wichtigere Rolle spielen.“      Die neue Studie “FinOps 2024” von CIO Research Services Research Services: Patrick Birnbreier Studiensteckbrief Herausgeber: CIO, CSO und COMPUTERWOCHE Studienpartner: Kyndryl Deutschland GmbH; USU GmbH Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen der DACH-Region: Beteiligte an strategischen (IT-)Entscheidungsprozessen im C-Level-Bereich und in den Fachbereichen (LoBs); Entscheidungsbefugte sowie Experten und Expertinnen aus dem IT-Bereich Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels Gesamtstichprobe: 336 abgeschlossene und qualifizierte Interviews Untersuchungszeitraum: 29. Mai bis 05. Juni 2024 Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern 

Wie FinOps den Cloud-Einsatz effizienter macht​ Der Cloud-Betrieb kann beliebig komplex werden. Das treibt die Kosten in Höhe. Wer die Kontrolle behalten will, braucht die richtige Methode – FinOps kann dabei helfen.ArtemisDiana – shutterstock.com

Multi-Cloud- oder Hybrid-Cloud-Umgebungen sind in den meisten Unternehmen inzwischen „State of the Art“ und deren Vorteile unbestritten. Mehr Flexibilität und Agilität, weniger Schatten-IT und nachhaltigeres IT-Business-Alignment sowie eine moderne cloud-basierte Softwareentwicklung – all diese Faktoren sind für den Erfolg der Cloud ausschlaggebend. Doch vielfach ging bei der Cloud Journey der Unternehmen Schnelligkeit vor Genauigkeit. Die Konsequenz: Die Orchestrierung einer Vielzahl von Handlungsoptionen und Services wurde technologisch und organisatorisch nur unzureichend gelöst, Die Auslagerung von Workloads in die Cloud geriet vielfach zu einer Kostenfalle.

Auf dieses bei vielen Anwenderinnen und Anwendern vorherrschende Szenario zahlen FinOps ein. Die Abkürzung steht für „Financial Operations“. Besagte Operationen zielen darauf ab, die Cloud-Ausgaben der Firmen zu optimieren, was im Umkehrschluss bedeutet, die Effizienz und den Nutzen von Cloud-Ressourcen zu maximieren. Die FinOps-Methodik umfasst dabei eine Reihe von Verfahren, Tools und Best Practices, mit deren Hilfe Unternehmen ihre Investitionen und laufenden Betriebskosten der Cloud besser kontrollieren und managen können. Insbesondere geht es dabei um konkrete Verwendungsmuster einzelner Cloud-Services und deren Effizienz beziehungsweise Ineffizienz. Und es erfordert eine bessere Verzahnung von IT, Finanzabteilung und Fachbereichen in den Firmen.

FinOps inzwischen etabliert

Wie etabliert diese Methodik in den Unternehmen der DACH-Region ist, belegt die aktuelle Studie „FinOps“ des Research Teams von CIO, CSO und COMPUTERWOCHE. Demnach ist für fast 90 Prozent der befragten Firmen der Ansatz der Financial Operations inzwischen vertraut. Zumindest kennen sie die Thematik und haben sich in Ansätzen schon damit beschäftigt. Rund 27 Prozent der Studienteilnehmerinnen und Studienteilnehmer haben mit FinOps schon Erfahrungen in einem kleineren Rahmen gesammelt. Weitere 18 Prozent sprechen von ersten erfolgreichen Projekten. Knapp 21 Prozent wenden FinOps bereits aktiv und regelmäßig an, elf Prozent der Anwenderinnen und Anwender haben sogar bereits feste Prozesse und Strukturen in diesem Bereich etabliert.

FinOps hat sich in den letzten Jahren als fester Bestandteil etabliert und ist heute unverzichtbar für das Management und die Optimierung von Cloud-Kosten, sagt Christopher Brune, FinOps Lead bei USU.USU GmbH

Ein positives Zwischenfazit zur FinOps-Entwicklung zieht auch Christopher Brune, FinOps Lead bei der USU Software AG: „FinOps hat sich in den letzten Jahren in den Unternehmen als fester Bestandteil etabliert und ist heute unverzichtbar für das Management und die Optimierung von Cloud-Kosten. Verbesserungspotenzial besteht allerdings noch in der Zusammenarbeit zwischen IT, Finance und Controlling. Wenn das gelingt, können Firmen ihre Cloud-Ausgaben effektiv managen und den geschäftlichen Nutzen maximieren.“ 

Was der Branchenkenner damit meint, ist folgendes: Der Begriff FinOps meint inhaltlich eigentlich „Finanz- und Entwicklungsoperationen“. Doch diese Kombination hat es vielfach noch in sich, weil die Verantwortung für Finance- und Kostenmanagement nach wie vor beim Business liegt, während die IT die betrieblichen Abläufe sicherstellen und die Vorteile der Cloud-Nutzung im Hinblick auf Flexibilität, Geschwindigkeit und Service-Orientierung voll ausschöpfen soll. Im Tagesgeschäft führt dies häufig immer noch dazu, dass sich Entwickler-Teams über die laufenden Kosten ihrer Werkzeuge keine oder nur unzureichende Gedanken machen –  und die Fachbereiche ihre Cloud-Services, die sie selbst gefordert und ins Unternehmen geholt haben, zum Teil gar nicht mehr oder nur rudimentär nutzen.

Jede Cloud-Migration ist individuell zu betrachten

Experten zufolge können mit Blick auf die eingangs erwähnte Verzahnung von IT, Finanzabteilung und Fachbereichen die Rollen und Verantwortlichkeiten in den Unternehmen unterschiedlich sein. Sie sind letzten Endes abhängig vom Grad der „Cloudifizierung“, von der Charakteristik der ausgelagerten Workloads und von etwaigen Spezifika der jeweiligen Branche.

Als allgemein gültig gelten indes diverse abteilungsübergreifende Disziplinen, für deren Zweck die FinOps-Methodiken angewendet werden sollten. Dazu zählen Kostenoptimierung, Kostentransparenz, Collaboration, Budgetplanung sowie Governance und Compliance.

Lesen Sie mehr zum Thema FinOps:

Wie sich mit FinOps Cloud-Kosten bändigen lassen

Finops-Methoden: 7 Best Practices, um Cloud-Kosten zu senken

Cloud-Kostenkontrolle: Funktioniert Ihr Finops-Programm?

Gleichzeitig warnen Fachleute in diesem Zusammenhang aber auch vor falschen Vorgehensweisen und Erwartungshaltungen. So sollte man FinOPs nicht als reines „IT-Projekt“ aufsetzen, sondern sich von Beginn der Unterstützung aller entscheidenden Stake Holder versichern. Gleichzeitig gehe es darum, im Hinblick auf Kostenoptimierung nicht nur Gelder einzusparen, sondern den größtmöglichen Mehrwert aus einer Cloud-Applikation zu ziehen. Und: FinOps sollten nicht als „Eintagsfliege“ betrachtet werden, die nur im Rahmen einer Cloud-Migration zum Einsatz kommen. Sie sollten vielmehr als dauerhafte und strategische Management-Methodik etabliert werden.

Zusammenarbeit der Stake Holder nimmt zu

Laut Studie sind die Unternehmen hinsichtlich einer solchen Denkweise auf einem guten Weg. Knapp 30 Prozent der Studienteilnehmerinnen und Studienteilnehmer verweisen bei der Abrechnung von Cloud-Kosten auf eine sehr enge Zusammenarbeit zwischen der IT- und Finanzabteilung sowie anderen involvierten Fachbereichen. Und mehr als die Hälfte der Befragten berichten von einem zumindest engen Austausch der jeweiligen Mitarbeitenden.  Weitestgehend synchron zu diesen Resultaten ist auch das Meinungsbild der Befragten bei der Bewertung von Cloud-Kosten. Knapp 29 Prozent der Firmen berichten hier von einer gemeinsamen Sicht- und Vorgehensweise der zuständigen Entscheidungsträgerinnen und Entscheidungsträger.

Research Services: Patrick Birnbreier

Interessant ist insofern auch die Frage, ob und wie FinOps die Unternehmenskultur verändern?  Fast zwei Drittel der Anwenderinnen und Anwender können laut Studie von einer Stärkung der Zusammenarbeit zwischen Finance-Abteilung und IT-Organisation berichten. Als ebenso bedeutsamer Einflussfaktor von FinOps wird ein größeres Verständnis für den Wert von IT-Ressourcen genannt. Positive Auswirkungen sehen die IT- und Business-Verantwortlichen auch in puncto Innovationsfähigkeit und Agilität sowie einer höheren Wertschätzung des eigentlichen Wertbeitrages, den die Nutzung von Cloud-Services hervorbringt. Last, but not least tragen FinOps der Studie zufolge auch zu einem verstärkten Kostenbewusstsein bei.

Welche genauen Ziele verfolgen die Firmen mit FinOps? Gibt es Prioritäten? Auch hier vermitteln die Studienergebnisse ein klares Meinungsbild. Bei 60 Prozent der Befragten steht demnach das Gleichgewicht zwischen Kostenoptimierung einerseits und der Nutzung cloudbasierter Ressourcen im Vordergrund. Knapp 28 Prozent verbinden mit dem Einsatz von FinOps die gezielte Förderung von Innovationen sowie die Stärkung der eigenen Wettbewerbsfähigkeit durch die Nutzung von Cloud-Services. Knapp acht Prozent erhoffen sich vor allem eine Senkung der Cloud-Kosten. Ein Blick auf das Thema IT-Infrastruktur und Application Management zeigt zudem, dass für fast ein Drittel der Unternehmen auch die Aspekte Automatisierung und Skalierbarkeit eine zentrale Rolle spielen.

CIO gilt als Treiber

Noch etwas ist bemerkenswert: In 40 Prozent der befragten Unternehmen treibt der CIO beziehungsweise IT-Verantwortliche das Thema FinOps federführend voran, 23 Prozent nennen den Finanzvorstand oder kaufmännischen Leiter. Bei knapp elf Prozent der Anwenderinnen und Anwender sorgt die Geschäftsführung selbst für die Implementierung und Umsetzung einer FinOps-Strategie. Erwähnenswert ist zudem, dass immer öfter auch neue Organisationsformen im Kontext von FinOps entstehen. So kümmert sich in elf Prozent der Unternehmen das so genannte Cloud Center of Excellence (CCoE) um diese Thematik, weitere acht Prozent haben dedizierte FinOps-Teams aufgestellt.

Stichwort Application und Software Asset Management (SAM): Der ungebrochene Trend, immer mehr Applikationen und Prozesse in die Cloud auszulagern, hat auch seine Schattenseiten. Gemeint ist hier die Vielfalt an Services und Plattformen in der Enterprise Architektur eines Unternehmens. In diesem Kontext weist die Studie ein interessantes Einzelergebnis aus: Nur noch 23 Prozent der Befragten betreiben SAM-Werkzeuge und FinOPs isoliert voneinander. Vielmehr liebäugeln immer mehr Firmen damit, ihre einschlägigen Plattformen zu konsolidieren. Fast die Hälfte der Anwenderinnen und Anwender sind eher der Auffassung, dass FinOps ein Teil des SAM-Portfolios sind beziehungsweise werden müssen; knapp 15 Prozent sehen es genau umgekehrt und verorten SAM als integralen Bestandteil von FinOps.

Unabhängig davon dürfte die Cloud unstrittig das zentrale und wichtigste Instrument für die Digitalisierung und damit Modernisierung der Unternehmen bleiben. Und mit Hilfe von FinOps sind Unternehmen in der Lage, die Verwendungsmuster ihrer Cloud-Lösungen besser zu verstehen, mangelnde Effizienzen zu erkennen und an entsprechenden kostensenkenden Lösungen zu arbeiten.  

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/09/Klaus-Stephan_Kyndryl.jpg?quality=50&strip=all 1605w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Klaus-Stephan_Kyndryl.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Klaus-Stephan_Kyndryl.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Klaus-Stephan_Kyndryl.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Klaus-Stephan_Kyndryl.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Klaus-Stephan_Kyndryl.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Klaus-Stephan_Kyndryl.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Klaus-Stephan_Kyndryl.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Klaus-Stephan_Kyndryl.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Klaus-Stephan_Kyndryl.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>FinOps wird essenziell in einer Zeit, in der Kosteneinsparungen in der Cloud eine immer eine immer wichtigere Rolle spielen, stellt Klaus Stephan, Cloud Practice Leader bei Kyndryl, fest.     Kyndryl Deutschland GmbH

Klaus Stephan, Cloud Practice Leader, Kyndryl Deutschland, bringt noch einmal auf den Punkt, worauf es bei einer Cloud Migration und dem Einsatz von FinOps ankommt: „Ein einfaches Lift & Shift von Strukturen in die Cloud bringt keine Vorteile, da sich das gesamte Betriebsmodell mit dem Übergang, beispielsweise in die Hybrid Cloud, ändert. Automation und Integration sind insofern in einer hybriden Welt zentrale Themen, auf denen auch FinOps aufbaut. Und FinOps wird essenziell in einer Zeit, in der Kosteneinsparungen in der Cloud eine immer eine immer wichtigere Rolle spielen.“     

Die neue Studie “FinOps 2024” von CIO Research Services
Research Services: Patrick Birnbreier

Studiensteckbrief

Herausgeber: CIO, CSO und COMPUTERWOCHE

Studienpartner: Kyndryl Deutschland GmbH; USU GmbH

Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen der DACH-Region: Beteiligte an strategischen (IT-)Entscheidungsprozessen im C-Level-Bereich und in den Fachbereichen (LoBs); Entscheidungsbefugte sowie Experten und Expertinnen aus dem IT-Bereich

Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels

Gesamtstichprobe: 336 abgeschlossene und qualifizierte Interviews

Untersuchungszeitraum: 29. Mai bis 05. Juni 2024

Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern

Wie FinOps den Cloud-Einsatz effizienter macht​ Read More »

9 Tipps für bessere Build Pipelines​

9 Tipps für bessere Build Pipelines​

Allgemein

Wird Ihre Build Pipeline aktuellen Anforderungen noch gerecht – oder ist es Zeit für neue Impulse? Gorodenkoff | shutterstock.com Zu Mainframe-Zeiten gab es keine Notwendigkeit, eine Build Pipeline aufzubauen. Damals haben wir ein bisschen an den Frontpanels der Großrechner herumgespielt und der Code ist gelaufen – oder auch nicht. Softwareentwicklung war zu dieser Zeit noch eine ziemlich „straighte“, eher unkomplizierte Angelegenheit. Heute kann jede einzelne Codezeile diverse Maßnahmen durchlaufen. Der Build-Prozess ist inzwischen so aufwändig und komplex, dass selbst mittelgroße Teams meist nicht umhinkommen, einen oder mehrere Engineers in Vollzeit dafür abzustellen, diesen zu managen. Der Build-Prozess ist im Laufe der Jahre gehörig gewachsen, um den unterschiedlichsten Problemen zu begegnen: Ist der Code zu langsam, hilft ein Optimierungsprozess. Kommt es zu Programmabstürzen, unterstützen Unit Tests. Um zu überprüfen, ob die Unit Tests richtig laufen, sind Meta-Tests nötig. Und so weiter.     All diese Maßnahmen zahlen sich zweifellos aus. Dennoch lohnt es sich, von Zeit zu Zeit innezuhalten und sich mit dem Zustand Ihrer Build Pipeline zu befassen. Zum Beispiel, um zu überprüfen: ob es neue Entwicklungen und Innovationen in diesem Bereich gibt oder ob Ihre Build-Prozesse noch zeitgemäß sind. In diesem Artikel geben wir Ihnen neun Tipps an die Hand, die Sie dabei unterstützen. 1. 1JPM nutzen In der Vergangenheit verließen sich Java-Entwickler auf populäre Build Tools wie Ant, Maven oder Gradle, um Abhängigkeiten zu Standard-Bibliotheken zu behandeln und diverse Tests auszuführen. Das gewährleistete auch einen praktischen, zentralisierten Mechanismus, um alle Schritte des Prozesses zu organisieren. Dazu mussten diese lediglich in XML (für Ant und Maven) oder Groovy/Kotlin (für Gradle) formuliert werden.   Mit dem Open-Source-Tool 1JPM hat das ein Ende: Es ermöglicht Ihnen, Build-Anweisungen direkt in Java zu schreiben. Dabei stellt 1JPM im Wesentlichen einen Wrapper für Maven dar. Sie können also auf dessen Infrastruktur zurückgreifen. 1JPM verwandelt Ihre Java-Build-Datei in das entsprechende Maven-Pendant – das klassische pom.xml. 2. Notebooks verwenden Geht es darum, Code für Data-Science-Zwecke auszuliefern, sind Notebook-Formate eine beliebte Option. In einigen Umgebungen kommen sie auch als Ersatz für traditionelle Builds zum Einsatz. Das Notebook-Format kombiniert normalen Text mit Codeblöcken und Datenzugriff und ermöglicht den Rezipienten, den Textinhalt aufzunehmen und anschließend auf den Code zu klicken, um ihn auszuführen. Das bündelt alle Informationen und Data-Analytics-Schritte in einer Entität.   Inzwischen existieren mehrere, verschiedene hochwertige Notebook-Formate, die diverse Programmiersprachen unterstützen. Dabei ist das ursprüngliche Format – das IPython Notebook (.ipynb) – weiterhin eines der gängigsten, hat jedoch weitere Formate inspiriert. Zum Beispiel: R Markdown (.rmd), das auf der Sprache R basiert, Quarto (.qmd), das R und Python kombiniert oder Myst Markdown (.md), das R- und Python-Code in reguläre Markdown-Dateien überführt. Darüber hinaus existieren auch noch „Metaformate“ wie JupyterLab (.jlpb) und Observable Notebook (.ipynb). Diese fassen mehrere Notebooks in Websites zusammen, um Daten und Informationen zu sammeln. Die Popularität der Notebook-Formate hat dazu geführt, dass Jupyter Notebooks für weitere Sprachen angepasst wurden – in Form eines separaten Kernels, der die Kompilier- und Ausführungsarbeit übernimmt. Das bieten zum Beispiel die im Umfeld der Datenwissenschaft populären Sprachen: MATLAB, Julia, Java, Scala, Scheme und Octave. 3. Auf Low-Code setzen Die Buzzwords Low-Code und No Code adressieren im Regelfall eher Nicht-Programmierer, die entwickeln wollen. Allerdings haben einige Plattformen in diesem Bereich auch Anklang unter Devs gefunden. Schließlich lassen sich damit auch weite Teile der Build Pipeline automatisieren – die Dev-Spezialisten können sich hingegen auf ihre Kernaufgaben fokussieren. REI3 ist nur ein Beispiel für eine solche Low-Code-Lösung, mit der sich Webapplikationen mit nur wenigen Code-Zeilen erstellen lassen. Die Open-Source-Lösung wird mit MIT-Lizenz vertrieben und kann wahlweise lokal oder in der Cloud installiert werden. Für Funktionen, die in Code-Form hinzugefügt werden müssen, bietet das Tool auch einen integrierten Editor – ähnlich wie eine IDE. Es übernimmt den kompletten Build- und Distributionsprozess für Applikationen. 4. Java als Skriptsprache einsetzen Vor etlichen Dekaden war Java eine kompilierte Sprache für große Projekte, JavaScript sein kleiner Cousin für den Webbrowser. Im Laufe der Jahre haben viele, smarte Devs den kleinen Cousin zu einem riesigen Ökosystem weiterentwickelt, das große Entwicklungsprojekte mit Just-in-Time-Kompilierung unterstützt. Java hat sich hingegen parallel in die entgegengesetzte Richtung entwickelt, hin zur Imitation einer Skriptsprache. Inzwischen ist es allerdings möglich, ein Java-Programm in eine einzelne Datei zu schreiben – mit X.java. In diesem Fall übernimmt die Java-Infrastruktur alle Kompilierungs- und Build-Aufgaben. Entwickler, die an kleineren Projekten arbeiten, müssen sich so erst gar nicht mit der Build-Konfiguration herumschlagen. 5. Build-Kosten ermitteln Developer fokussieren sich meist auf Metriken wie die Ausführungszeit oder den RAM-Verbrauch. Bei erfolgreichen Projekten sind sie oft damit beschäftigt, zusätzliche Anpassungs- und Konfigurationsebenen hinzuzufügen, um den Code wartbar zu gestalten. Deshalb sind viele Entwickler nicht vorbereitet auf Fragen wie:   Wie viel wird es kosten, diesen Code auszuführen? oder Wie viel Hardware wird dazu benötigt? Auch an dieser Stelle können Devops-Teams auf Tools zurückgreifen, um Kosten nicht nur zu veranschaulichen, sondern auch unter Kontrolle zu halten. Das bewerkstelligen diese, indem sie im Rahmen des gesamten Build-Prozesses jeweils entsprechende Kostenschätzungen bereitstellen. So können Dev-Teams etwa ermitteln, wie viel ein Pull Request einspart – oder kostet. Empfehlenswerte Lösungen in diesem Bereich sind zum Beispiel: Infracost und Finout. 6. Build Pipeline dokumentieren In den frühen Jahren der Softwareentwicklung war die Dokumentation etwas, an das eher nachträglich gedacht wurde – wenn die „wirkliche“ Arbeit erledigt war. Das hat sich in den letzten Jahren grundlegend geändert. Inzwischen ist das Thema Dokumentation – ähnlich wie die Kostenschätzung – Bestandteil des Build-Prozesses geworden. Einige Programmiersprachen bieten zu diesem Zweck spezifische Formate – etwa JavaDoc oder PyDoc. Diese definieren eine starre Struktur für Code-Kommentare, die sich automatisch in Dokumentationsseiten für Webseiten umwandeln lassen. Andere Sprachen gehen an dieser Stelle noch einen Schritt weiter. Manche Datenwissenschaftler, die mit R oder Python arbeiten, nutzen Tools, um ihre finale Präsentation und ihren Code gleichzeitig zu schreiben. Das funktioniert mit Packages wie: Sweave, Pweave oder knitr. Die Idee dahinter ist, die Datenanalyse-Software mit dem Datenanalyse-Text zu bündeln, sodass Tabellen, Grafiken und Abbildungen zur Laufzeit direkt aus den Rohdaten generiert werden. 7. Von domänenspezifischen Sprachen profitieren Die Entwickler domänenspezifischer Sprachen (Domain-specific Languages; DSLs) haben zwar nicht damit gerechnet, Build Pipelines zu vereinfachen, es aber dennoch geschafft. Denn DSLs erfordern im Regelfall deutlich weniger Bibliotheken, weil ein Großteil der Komplexität bestimmter Tasks durch die Definition der Sprache selbst absorbiert wird. In einigen Fällen sind auch Semi-Standard-Tests enthalten. In anderen Fällen ist die DSL Teil eines größeren Tool-Systems oder einer integrierten Entwicklungsumgebung, was den Build-Prozess zusätzlich simplifizieren kann. Einige gute Beispiele dafür sind: UnrealScript, das im Bereich der Games-Entwicklung eingesetzt wird, QuantLib, das für grundlegende Finanzanalysen angewendet wird, oder das Robot Operating System, mit dem entsprechende Applikationen optimiert werden können. 8. Bibliotheken lokal erstellen In der Vergangenheit waren Programmierer in der Regel froh darüber, wenn jemand anderes ihre Bibliotheken und andere Komponenten erstellte. Das Motto: Binärdatei downloaden – fertig. Das änderte sich, nachdem kriminelle Hacker Bibliotheken zunehmend für sich entdeckt, Malware eingeschleust und Hintertüren eingebaut haben. Seitdem setzen viele Entwickler(-Teams) auf einen zusätzlichen Schritt innerhalb ihres Build-Prozesses: Sie bauen Drittanbieter-Bibliotheken auf lokaler Ebene nach. Das schließt zwar nicht aus, dass der zugrundeliegende Code frei von Kompromittierungen ist, erhöht aber die Chance, dass diese entdeckt werden. 9. Generative AI integrieren Inzwischen dürfte sich herumgesprochen haben, dass Large Language Models (LLMs) immer besser darin werden, Code zu erstellen. Weniger offensichtlich ist hingegen bislang, wie Generative AI (GenAI) die Build Pipeline bereichern kann. Bislang experimentieren die Build Engineers dieser Welt noch mit LLMs. Zum Beispiel nutzen sie GenAI, um: Code für High-Level-Dokumentationen zusammenzufassen. über natürlichsprachliche Queries nachzuvollziehen, wo ein Bug zum ersten Mal aufgetreten ist. ihren Code zu refaktorieren. bessere und umfassendere Test-Cases zu erstellen. LLMs dürften mit fortschreitender Entwicklung noch deutlich mehr zum Build-Prozess beitragen. Bis es so weit ist, sind weiterhin menschliche Experten gefragt, um Build Pipelines instand zuhalten. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

9 Tipps für bessere Build Pipelines​ Wird Ihre Build Pipeline aktuellen Anforderungen noch gerecht – oder ist es Zeit für neue Impulse?
Gorodenkoff | shutterstock.com

Zu Mainframe-Zeiten gab es keine Notwendigkeit, eine Build Pipeline aufzubauen. Damals haben wir ein bisschen an den Frontpanels der Großrechner herumgespielt und der Code ist gelaufen – oder auch nicht. Softwareentwicklung war zu dieser Zeit noch eine ziemlich „straighte“, eher unkomplizierte Angelegenheit.

Heute kann jede einzelne Codezeile diverse Maßnahmen durchlaufen. Der Build-Prozess ist inzwischen so aufwändig und komplex, dass selbst mittelgroße Teams meist nicht umhinkommen, einen oder mehrere Engineers in Vollzeit dafür abzustellen, diesen zu managen. Der Build-Prozess ist im Laufe der Jahre gehörig gewachsen, um den unterschiedlichsten Problemen zu begegnen: Ist der Code zu langsam, hilft ein Optimierungsprozess. Kommt es zu Programmabstürzen, unterstützen Unit Tests. Um zu überprüfen, ob die Unit Tests richtig laufen, sind Meta-Tests nötig. Und so weiter.    

All diese Maßnahmen zahlen sich zweifellos aus. Dennoch lohnt es sich, von Zeit zu Zeit innezuhalten und sich mit dem Zustand Ihrer Build Pipeline zu befassen. Zum Beispiel, um zu überprüfen:

ob es neue Entwicklungen und Innovationen in diesem Bereich gibt oder

ob Ihre Build-Prozesse noch zeitgemäß sind.

In diesem Artikel geben wir Ihnen neun Tipps an die Hand, die Sie dabei unterstützen.

1. 1JPM nutzen

In der Vergangenheit verließen sich Java-Entwickler auf populäre Build Tools wie Ant, Maven oder Gradle, um Abhängigkeiten zu Standard-Bibliotheken zu behandeln und diverse Tests auszuführen. Das gewährleistete auch einen praktischen, zentralisierten Mechanismus, um alle Schritte des Prozesses zu organisieren. Dazu mussten diese lediglich in XML (für Ant und Maven) oder Groovy/Kotlin (für Gradle) formuliert werden.  

Mit dem Open-Source-Tool 1JPM hat das ein Ende: Es ermöglicht Ihnen, Build-Anweisungen direkt in Java zu schreiben. Dabei stellt 1JPM im Wesentlichen einen Wrapper für Maven dar. Sie können also auf dessen Infrastruktur zurückgreifen. 1JPM verwandelt Ihre Java-Build-Datei in das entsprechende Maven-Pendant – das klassische pom.xml.

2. Notebooks verwenden

Geht es darum, Code für Data-Science-Zwecke auszuliefern, sind Notebook-Formate eine beliebte Option. In einigen Umgebungen kommen sie auch als Ersatz für traditionelle Builds zum Einsatz. Das Notebook-Format kombiniert normalen Text mit Codeblöcken und Datenzugriff und ermöglicht den Rezipienten, den Textinhalt aufzunehmen und anschließend auf den Code zu klicken, um ihn auszuführen. Das bündelt alle Informationen und Data-Analytics-Schritte in einer Entität.  

Inzwischen existieren mehrere, verschiedene hochwertige Notebook-Formate, die diverse Programmiersprachen unterstützen. Dabei ist das ursprüngliche Format – das IPython Notebook (.ipynb) – weiterhin eines der gängigsten, hat jedoch weitere Formate inspiriert. Zum Beispiel:

R Markdown (.rmd), das auf der Sprache R basiert,

Quarto (.qmd), das R und Python kombiniert oder

Myst Markdown (.md), das R- und Python-Code in reguläre Markdown-Dateien überführt.

Darüber hinaus existieren auch noch „Metaformate“ wie JupyterLab (.jlpb) und Observable Notebook (.ipynb). Diese fassen mehrere Notebooks in Websites zusammen, um Daten und Informationen zu sammeln.

Die Popularität der Notebook-Formate hat dazu geführt, dass Jupyter Notebooks für weitere Sprachen angepasst wurden – in Form eines separaten Kernels, der die Kompilier- und Ausführungsarbeit übernimmt. Das bieten zum Beispiel die im Umfeld der Datenwissenschaft populären Sprachen:

MATLAB,

Julia,

Java,

Scala,

Scheme und

Octave.

3. Auf Low-Code setzen

Die Buzzwords Low-Code und No Code adressieren im Regelfall eher Nicht-Programmierer, die entwickeln wollen. Allerdings haben einige Plattformen in diesem Bereich auch Anklang unter Devs gefunden. Schließlich lassen sich damit auch weite Teile der Build Pipeline automatisieren – die Dev-Spezialisten können sich hingegen auf ihre Kernaufgaben fokussieren.

REI3 ist nur ein Beispiel für eine solche Low-Code-Lösung, mit der sich Webapplikationen mit nur wenigen Code-Zeilen erstellen lassen. Die Open-Source-Lösung wird mit MIT-Lizenz vertrieben und kann wahlweise lokal oder in der Cloud installiert werden. Für Funktionen, die in Code-Form hinzugefügt werden müssen, bietet das Tool auch einen integrierten Editor – ähnlich wie eine IDE. Es übernimmt den kompletten Build- und Distributionsprozess für Applikationen.

4. Java als Skriptsprache einsetzen

Vor etlichen Dekaden war Java eine kompilierte Sprache für große Projekte, JavaScript sein kleiner Cousin für den Webbrowser. Im Laufe der Jahre haben viele, smarte Devs den kleinen Cousin zu einem riesigen Ökosystem weiterentwickelt, das große Entwicklungsprojekte mit Just-in-Time-Kompilierung unterstützt. Java hat sich hingegen parallel in die entgegengesetzte Richtung entwickelt, hin zur Imitation einer Skriptsprache.

Inzwischen ist es allerdings möglich, ein Java-Programm in eine einzelne Datei zu schreiben – mit X.java. In diesem Fall übernimmt die Java-Infrastruktur alle Kompilierungs- und Build-Aufgaben. Entwickler, die an kleineren Projekten arbeiten, müssen sich so erst gar nicht mit der Build-Konfiguration herumschlagen.

5. Build-Kosten ermitteln

Developer fokussieren sich meist auf Metriken wie die Ausführungszeit oder den RAM-Verbrauch. Bei erfolgreichen Projekten sind sie oft damit beschäftigt, zusätzliche Anpassungs- und Konfigurationsebenen hinzuzufügen, um den Code wartbar zu gestalten. Deshalb sind viele Entwickler nicht vorbereitet auf Fragen wie:  

Wie viel wird es kosten, diesen Code auszuführen? oder

Wie viel Hardware wird dazu benötigt?

Auch an dieser Stelle können Devops-Teams auf Tools zurückgreifen, um Kosten nicht nur zu veranschaulichen, sondern auch unter Kontrolle zu halten. Das bewerkstelligen diese, indem sie im Rahmen des gesamten Build-Prozesses jeweils entsprechende Kostenschätzungen bereitstellen. So können Dev-Teams etwa ermitteln, wie viel ein Pull Request einspart – oder kostet. Empfehlenswerte Lösungen in diesem Bereich sind zum Beispiel:

Infracost und

Finout.

6. Build Pipeline dokumentieren

In den frühen Jahren der Softwareentwicklung war die Dokumentation etwas, an das eher nachträglich gedacht wurde – wenn die „wirkliche“ Arbeit erledigt war. Das hat sich in den letzten Jahren grundlegend geändert. Inzwischen ist das Thema Dokumentation – ähnlich wie die Kostenschätzung – Bestandteil des Build-Prozesses geworden.

Einige Programmiersprachen bieten zu diesem Zweck spezifische Formate – etwa JavaDoc oder PyDoc. Diese definieren eine starre Struktur für Code-Kommentare, die sich automatisch in Dokumentationsseiten für Webseiten umwandeln lassen.

Andere Sprachen gehen an dieser Stelle noch einen Schritt weiter. Manche Datenwissenschaftler, die mit R oder Python arbeiten, nutzen Tools, um ihre finale Präsentation und ihren Code gleichzeitig zu schreiben. Das funktioniert mit Packages wie:

Sweave,

Pweave oder

knitr.

Die Idee dahinter ist, die Datenanalyse-Software mit dem Datenanalyse-Text zu bündeln, sodass Tabellen, Grafiken und Abbildungen zur Laufzeit direkt aus den Rohdaten generiert werden.

7. Von domänenspezifischen Sprachen profitieren

Die Entwickler domänenspezifischer Sprachen (Domain-specific Languages; DSLs) haben zwar nicht damit gerechnet, Build Pipelines zu vereinfachen, es aber dennoch geschafft. Denn DSLs erfordern im Regelfall deutlich weniger Bibliotheken, weil ein Großteil der Komplexität bestimmter Tasks durch die Definition der Sprache selbst absorbiert wird. In einigen Fällen sind auch Semi-Standard-Tests enthalten.

In anderen Fällen ist die DSL Teil eines größeren Tool-Systems oder einer integrierten Entwicklungsumgebung, was den Build-Prozess zusätzlich simplifizieren kann. Einige gute Beispiele dafür sind:

UnrealScript, das im Bereich der Games-Entwicklung eingesetzt wird,

QuantLib, das für grundlegende Finanzanalysen angewendet wird, oder

das Robot Operating System, mit dem entsprechende Applikationen optimiert werden können.

8. Bibliotheken lokal erstellen

In der Vergangenheit waren Programmierer in der Regel froh darüber, wenn jemand anderes ihre Bibliotheken und andere Komponenten erstellte. Das Motto: Binärdatei downloaden – fertig.

Das änderte sich, nachdem kriminelle Hacker Bibliotheken zunehmend für sich entdeckt, Malware eingeschleust und Hintertüren eingebaut haben. Seitdem setzen viele Entwickler(-Teams) auf einen zusätzlichen Schritt innerhalb ihres Build-Prozesses: Sie bauen Drittanbieter-Bibliotheken auf lokaler Ebene nach. Das schließt zwar nicht aus, dass der zugrundeliegende Code frei von Kompromittierungen ist, erhöht aber die Chance, dass diese entdeckt werden.

9. Generative AI integrieren

Inzwischen dürfte sich herumgesprochen haben, dass Large Language Models (LLMs) immer besser darin werden, Code zu erstellen. Weniger offensichtlich ist hingegen bislang, wie Generative AI (GenAI) die Build Pipeline bereichern kann. Bislang experimentieren die Build Engineers dieser Welt noch mit LLMs. Zum Beispiel nutzen sie GenAI, um:

Code für High-Level-Dokumentationen zusammenzufassen.

über natürlichsprachliche Queries nachzuvollziehen, wo ein Bug zum ersten Mal aufgetreten ist.

ihren Code zu refaktorieren.

bessere und umfassendere Test-Cases zu erstellen.

LLMs dürften mit fortschreitender Entwicklung noch deutlich mehr zum Build-Prozess beitragen. Bis es so weit ist, sind weiterhin menschliche Experten gefragt, um Build Pipelines instand zuhalten.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

9 Tipps für bessere Build Pipelines​ Read More »

Servant Leadership: Wie Konfliktlösung geht​

Servant Leadership: Wie Konfliktlösung geht​

Allgemein

Servant Leadership stellt das bisherige Führungsverständnis auf den Kopf. Transformative Mediation hilft bei der Lösung von Konflikten. Foto: sirtravelalot – shutterstock.comNiemand steckt gerne in Konflikten fest oder stellt sich ihnen bereitwillig. Als Projektmanager hat man allerdings nicht nur die Aufgabe, Projekte erfolgreich ohne Wenn und Aber abzuschließen, sondern auch die im Projektverlauf aufkommenden Konflikte zu klären. Das ist keine leichte Aufgabe. Es gibt Mitarbeiter, die bei jedem Thema unterschiedlicher Meinung sein können und Teams, die mehr über Zuständigkeiten als über Lösungen diskutieren. Das kann für Projekte zum Risiko werden. Wer Projekte auf Kurs halten möchte, braucht dazu die passende Strategie.Konfliktlösung in der VUCA-WeltWir leben in einem VUCA-Umfeld, das geprägt ist von Veränderung, Unsicherheit, Komplexität und Ambiguität (ursprünglich aus dem Englischen: VUCA – Volatility, Uncertainty, Complexity and Ambiguity). Aufgaben werden komplexer und Probleme unvorhersehbarer. Sie zu meistern erfordert Teamwork von Mitarbeitern, Teams und Abteilungen. Das ist nicht selbstverständlich.Deutlich zeigt sich das oftmals in der Zusammenarbeit mehrer Abteilungen über Ticketsysteme. Vieles erinnert an ein Tennisspiel: Ziel ist es, das Ticket in das Spielfeld der anderen Abteilung zu bringen. So werden IT-Tickets zwischen den Abteilungen hin- und hergespielt mit den Worten “Wir sind nicht zuständig”. Begrenzt wird das Spielfeld durch die Zuständigkeiten der jeweiligen Abteilung. Sind sich diese uneinig, ob eine Aufgabe noch in den Zuständigkeitsbereich fällt, wird an das Management eskaliert. Das agiert als Linienrichter und trifft die finale Entscheidung über Sieg oder Niederlage. Diese Art der Zusammenarbeit ist anstrengend und weder effektiv noch effizient. Über die Zeit hinweg können sich so Unzufriedenheit, Frust und Ärger aufstauen und sich in Diskussionen entladen, die den sachlichen Boden verlassen. Das ist ein idealer Nährboden für Projektverzögerungen.Lesetipp: 8 Tipps – So retten Sie gefährdete IT-ProjekteMediation und insbesondere der transformative Mediationsansatz kann Projektmanagern helfen, handlungsfähig zu bleiben. Wie? Ganz einfach: durch Empowerment und Recognition. Simon Sinek, ein erfolgreicher Visionär und Unternehmensberater, beschreibt Empowerment wie folgt: “Leadership is about empowering others to achieve things they didn’t think possible”. Und das trifft es auf den Punkt. Am erfolgreichsten sind Führungskräfte, die andere in die Lage versetzen, ihre Konflikte selbst zu lösen. So kann sich das ständige Tauziehen in ein kooperatives Miteinander verwandeln und die Zusammenarbeit pragmatischer, produktiver und vor allem kundenorientierter werden. Die bestmöglichen Ergebnisse erzielen Projektmanager, wenn sie dabei gewisse Fähigkeiten mitbringen.Servant Leadership – DefinitionEin Servant Leader dient seinen Mitarbeitern, dem Kunden und dem Unternehmen. Mit seiner Dienstleistungsorientierung stellt er das bisherige Führungsverständnis auf den Kopf. Die werteorientierte Führungshaltung wird auch hierzulande in Unternehmen immer populärer. Die wichtigsten fünf Charakteristiken der Servant Leadership sind:Empathie und aktives ZuhörenBewusstsein schaffenVoraussicht habenWachstum ermöglichenGemeinschaft erzeugenDiese Eigenschaften helfen bei dem Auftreten und der Lösung von Konflikten, vor allem, wenn man eine neutrale Position behält. Und sollte der Servant Leader doch vor einer scheinbar undurchdringlichen Wand stehen, hilft die transformative Mediation.Servant Leadership – Best PracticesDie transformative Mediation hat das Ziel, Konflikte systematisch zu lösen und Beziehungen zu stärken. Im Konflikt führen folgende fünf Praktiken am besten zu nachhaltigem Erfolg:Eigenverantwortung stärken: Sehen Sie die Konfliktbeteiligten als Experten in eigener Sache. Es ist nicht die Aufgabe des Projektleiters, die Verantwortung für die Konfliktlösung zu übernehmen. Im Gegenteil: Befähigen Sie andere, Konflikte selbst zu lösen. Geben Sie den Konfliktparteien die Zügel für das Ergebnis selbst in die Hand.Ressourcenorientierte Haltung: Denken Sie ressourcenorientiert. Alle Beteiligten sind selbst in der Lage, sich aus einer Situation zu befreien, die sie sich selbst eingebrockt haben. Doch um sich selbst aus der Situation herauszumanövrieren, brauchen sie neue Denkmuster und Perspektiven. In diesem Fall agiert ein Mediator oft als Wegbereiter, um Stärken zu aktivieren.Allparteilichkeit: Seien Sie nicht nur neutral, sondern versuchen Sie, die Perspektiven der verschiedenen Interessengruppen tiefgreifend zu verstehen. Erkennen Sie die jeweiligen Probleme, Wünsche und Bedürfnisse. Allparteilichkeit haben Sie erreicht, wenn sie erkennen, dass jeder aus seiner Perspektive heraus Recht hat.Kooperation fördern: Schaffen Sie ein Umfeld, das lösungsorientierte Diskussionen und kooperatives Verhalten ermöglicht. Das gelingt Ihnen, indem Sie die Parteien dabei unterstützen, die Situation des Gegenübers nachvollziehbar zu machen. Verstehen schafft Verständnis. Verständnis schafft Vertrauen. Vertrauen ist die Grundlage für Kooperation.Das große Ganze verstehen: Anstatt vorschnell der Meinung zu sein, die Ursache eines Konfliktes vermeintlich zu kennen, nehmen Sie das gesamte System unter die Lupe. Wie und weshalb ist der Konflikt entstanden? Welche Verhaltensmuster haben zu dem Problem in welchem Zusammenhang geführt? Seien Sie in der Lage, Wechselwirkungen zu erkennen und zu berücksichtigen. Vor allem in unserer komplexen Welt ist es wichtig, sich ein ganzheitliches Bild einer Situation zu verschaffen, um vorausschauend handeln zu können.Spannt man nun den Bogen zurück zum Anfang, wird offensichtlich, warum ein transformativer Ansatz für eine effektive Konfliktlösung in der VUCA-Welt unerlässlich ist. Erst wenn wir den Konflikt mit dem passenden Werkzeug bearbeiten, sind wir in der Lage, die beste Lösung zu finden. (pg/fm)Neue Führungspraxis für die digitale WeltDer Sportdirektor eines Vereins Foto: Sergey Kuznecov – shutterstock.comDer Sportdirektor eines Vereins stellt den Kader zusammen und gestaltet die Spiel- und Terminpläne für Wettkämpfe und Trainings. Er instruiert Talentscouts, kauft Spieler ein und stellt Bewegungsfreiheit für erforderliche Transfers sicher. Sein Ziel: Menschen zu finden und zu binden, die die Weiterentwicklung des Unternehmens konstant antreiben. Er erweitert die Suchkriterien für die Rekrutierung, stellt Mitarbeiter mit verschiedensten Hintergründen ein und ermöglicht Familien- und altersgerechte Arbeitszeitmodelle.Führung in der Digitalisierung Foto: SFIO CRACHO – shutterstock.comDie Studie “Die Haltung entscheidet. Neue Führungspraxis für die digitale Welt” stammt von LEAD (Mercator Capacity Building Center for Leadership & Advocacy) in Kooperation mit der Unternehmensberatung Company Companions sowie der School of Public Policy (Central European University, Budapest) und dem Center for Leadership and Values in Society (Universität St. Gallen). Die Autoren empfehlen acht Rollen als Orientierungshilfen.Die Landschaftsgärtnerin Foto: Africa Studio – shutterstock.comDie Landschaftsgärtnerin gestaltet und pflegt Grünanlagen. Sie versteht das gesamte Ökosystem und weiß, wann welche Pflanzen im Jahreszeitenwechsel an welcher Stelle ihre Wirkung entfalten und wie alles zusammenspielt. Ihr Ziel: Das Unternehmen langfristig auf zustellen, wenn Krise und Veränderung zum Normalfall geworden sind. Sie ermöglicht schnelles „Prototyping“, geht unkonventionelle Partnerschaften ein und bricht Silos mittels heterogener, cross-funktionaler Teams auf.Die Seismologin Foto: Filip Fuxa – shutterstock.comDie Seismologin muss wissen, wo die Erde beben könnte. Dafür analysiert sie Daten, registriert feinste Erschütterungen und erkennt Spannungen frühzeitig. Sie erliegt aber nicht der Illusion, die Zukunft genau vorhersagen zu können. Ihr Ziel: Grundlagen für gute Entscheidungen in einer unübersichtlichen Welt zu schaffen. Sie etabliert „Situation Rooms“ zur Entwicklung von Handlungsstrategien, greift über digitale Plattformen auf verborgenes Wissen zu und schult ihre Intuition als zusätzliche “Datenquelle”.Der Zen-Schüler Foto: Toranico – shutterstock.comDer Zen-Schüler ist in Ausbildung und Vorbereitung. Er lernt, reflektiert und prüft sich selbst. Achtsamkeit, Mitgefühl und Offenheit sind seine Tugenden, er pflegt eine disziplinierte (spirituelle) Praxis. Sein Ziel: Das finden, woran er sich festhalten kann, wenn sich alle an ihm festhalten. Er nutzt Coaching- und Mentoring-Programme, schafft physische Räume für den Ausgleich und richtet den Blick nach innen.Der DJ Foto: Vladimir Hodac – shutterstock.comDer Discjockey bringt mit seiner Musik die Menschen zum Tanzen. Er setzt einen Rahmen, der motiviert, anregt und gemeinsame Energie erzeugt. Zugleich hat er ein offenes Ohr für Anregungen und sensible Antennen für das richtige Stück im richtigen Moment. Sein Ziel: Eine Kultur der Zugewandtheit zu schaffen – aber mit dem Fokus auf Ergebnisorientierung. Dafür baut er Empathie als Führungskompetenz auf, schafft Räume, in denen Menschen gerne arbeiten, und agiert als Vorbild für Zugewandtheit und Leistungsorientierung.Die Intendantin eines Theaters Foto: Fer Gregory – shutterstock.comDie Intendantin eines Theaters wählt die Stücke für die Aufführung aus. Sie entwickelt den roten Faden und prägt die gesellschaftliche Wirkungskraft ihres Hauses. Die Künstler und deren Expertise bindet sie dabei ein. Ihr Ziel: in Zeiten großer Unsicherheit und Unplanbarkeit Orientierung zu geben. Über ein „Strategy Board“ schafft sie die Voraussetzung für Richtungsentscheidungen schaffen, erhöht mittels interaktiver Beteiligungsformen die Einigkeit über die Richtung – und hat den Mut zu klaren Ansage in der Krise.Die Trainerin Foto: El Nariz – shutterstock.comDie Trainerin leitet eine Mannschaft taktisch, technisch und konditionell an. Sie bestimmt Trainingsablauf, Mannschaftsaufstellung und Strategie. Sie muss für Misserfolge geradestehen, Erfolge lässt sie ihrem Team. Ihr Ziel: Die Mitarbeiter zu mehr Verantwortungsübernahme zu befähigen. Dafür entwickelt sie über zeitgemäße Lernformate Kompetenzen entwickeln, baut gegenseitiges Vertrauen auf und führt Anreize zur Übernahme von Verantwortung ein.Der Blogger Foto: g-stockstudio – shutterstock.comDer Blogger kommentiert Geschehnisse – zugespitzt, aufrüttelnd und meist aus einer persönlichen Sichtweise. Er will die Welt verstehen, erklären und übersetzen. Er lebt vom direkten Feedback der Leser. Sein Ziel: Veränderungsbereitschaft in die DNA des Unternehmens zu schreiben. Er kaskadiert die Geschichte der Veränderung in die Firma, moderiert gemeinsame Lernprozesse und gibt sichtbare Veränderungsanstöße. 

Servant Leadership: Wie Konfliktlösung geht​ Servant Leadership stellt das bisherige Führungsverständnis auf den Kopf. Transformative Mediation hilft bei der Lösung von Konflikten.
Foto: sirtravelalot – shutterstock.comNiemand steckt gerne in Konflikten fest oder stellt sich ihnen bereitwillig. Als Projektmanager hat man allerdings nicht nur die Aufgabe, Projekte erfolgreich ohne Wenn und Aber abzuschließen, sondern auch die im Projektverlauf aufkommenden Konflikte zu klären. Das ist keine leichte Aufgabe. Es gibt Mitarbeiter, die bei jedem Thema unterschiedlicher Meinung sein können und Teams, die mehr über Zuständigkeiten als über Lösungen diskutieren. Das kann für Projekte zum Risiko werden. Wer Projekte auf Kurs halten möchte, braucht dazu die passende Strategie.Konfliktlösung in der VUCA-WeltWir leben in einem VUCA-Umfeld, das geprägt ist von Veränderung, Unsicherheit, Komplexität und Ambiguität (ursprünglich aus dem Englischen: VUCA – Volatility, Uncertainty, Complexity and Ambiguity). Aufgaben werden komplexer und Probleme unvorhersehbarer. Sie zu meistern erfordert Teamwork von Mitarbeitern, Teams und Abteilungen. Das ist nicht selbstverständlich.Deutlich zeigt sich das oftmals in der Zusammenarbeit mehrer Abteilungen über Ticketsysteme. Vieles erinnert an ein Tennisspiel: Ziel ist es, das Ticket in das Spielfeld der anderen Abteilung zu bringen. So werden IT-Tickets zwischen den Abteilungen hin- und hergespielt mit den Worten “Wir sind nicht zuständig”. Begrenzt wird das Spielfeld durch die Zuständigkeiten der jeweiligen Abteilung. Sind sich diese uneinig, ob eine Aufgabe noch in den Zuständigkeitsbereich fällt, wird an das Management eskaliert. Das agiert als Linienrichter und trifft die finale Entscheidung über Sieg oder Niederlage. Diese Art der Zusammenarbeit ist anstrengend und weder effektiv noch effizient. Über die Zeit hinweg können sich so Unzufriedenheit, Frust und Ärger aufstauen und sich in Diskussionen entladen, die den sachlichen Boden verlassen. Das ist ein idealer Nährboden für Projektverzögerungen.Lesetipp: 8 Tipps – So retten Sie gefährdete IT-ProjekteMediation und insbesondere der transformative Mediationsansatz kann Projektmanagern helfen, handlungsfähig zu bleiben. Wie? Ganz einfach: durch Empowerment und Recognition. Simon Sinek, ein erfolgreicher Visionär und Unternehmensberater, beschreibt Empowerment wie folgt: “Leadership is about empowering others to achieve things they didn’t think possible”. Und das trifft es auf den Punkt. Am erfolgreichsten sind Führungskräfte, die andere in die Lage versetzen, ihre Konflikte selbst zu lösen. So kann sich das ständige Tauziehen in ein kooperatives Miteinander verwandeln und die Zusammenarbeit pragmatischer, produktiver und vor allem kundenorientierter werden. Die bestmöglichen Ergebnisse erzielen Projektmanager, wenn sie dabei gewisse Fähigkeiten mitbringen.Servant Leadership – DefinitionEin Servant Leader dient seinen Mitarbeitern, dem Kunden und dem Unternehmen. Mit seiner Dienstleistungsorientierung stellt er das bisherige Führungsverständnis auf den Kopf. Die werteorientierte Führungshaltung wird auch hierzulande in Unternehmen immer populärer. Die wichtigsten fünf Charakteristiken der Servant Leadership sind:Empathie und aktives ZuhörenBewusstsein schaffenVoraussicht habenWachstum ermöglichenGemeinschaft erzeugenDiese Eigenschaften helfen bei dem Auftreten und der Lösung von Konflikten, vor allem, wenn man eine neutrale Position behält. Und sollte der Servant Leader doch vor einer scheinbar undurchdringlichen Wand stehen, hilft die transformative Mediation.Servant Leadership – Best PracticesDie transformative Mediation hat das Ziel, Konflikte systematisch zu lösen und Beziehungen zu stärken. Im Konflikt führen folgende fünf Praktiken am besten zu nachhaltigem Erfolg:Eigenverantwortung stärken: Sehen Sie die Konfliktbeteiligten als Experten in eigener Sache. Es ist nicht die Aufgabe des Projektleiters, die Verantwortung für die Konfliktlösung zu übernehmen. Im Gegenteil: Befähigen Sie andere, Konflikte selbst zu lösen. Geben Sie den Konfliktparteien die Zügel für das Ergebnis selbst in die Hand.Ressourcenorientierte Haltung: Denken Sie ressourcenorientiert. Alle Beteiligten sind selbst in der Lage, sich aus einer Situation zu befreien, die sie sich selbst eingebrockt haben. Doch um sich selbst aus der Situation herauszumanövrieren, brauchen sie neue Denkmuster und Perspektiven. In diesem Fall agiert ein Mediator oft als Wegbereiter, um Stärken zu aktivieren.Allparteilichkeit: Seien Sie nicht nur neutral, sondern versuchen Sie, die Perspektiven der verschiedenen Interessengruppen tiefgreifend zu verstehen. Erkennen Sie die jeweiligen Probleme, Wünsche und Bedürfnisse. Allparteilichkeit haben Sie erreicht, wenn sie erkennen, dass jeder aus seiner Perspektive heraus Recht hat.Kooperation fördern: Schaffen Sie ein Umfeld, das lösungsorientierte Diskussionen und kooperatives Verhalten ermöglicht. Das gelingt Ihnen, indem Sie die Parteien dabei unterstützen, die Situation des Gegenübers nachvollziehbar zu machen. Verstehen schafft Verständnis. Verständnis schafft Vertrauen. Vertrauen ist die Grundlage für Kooperation.Das große Ganze verstehen: Anstatt vorschnell der Meinung zu sein, die Ursache eines Konfliktes vermeintlich zu kennen, nehmen Sie das gesamte System unter die Lupe. Wie und weshalb ist der Konflikt entstanden? Welche Verhaltensmuster haben zu dem Problem in welchem Zusammenhang geführt? Seien Sie in der Lage, Wechselwirkungen zu erkennen und zu berücksichtigen. Vor allem in unserer komplexen Welt ist es wichtig, sich ein ganzheitliches Bild einer Situation zu verschaffen, um vorausschauend handeln zu können.Spannt man nun den Bogen zurück zum Anfang, wird offensichtlich, warum ein transformativer Ansatz für eine effektive Konfliktlösung in der VUCA-Welt unerlässlich ist. Erst wenn wir den Konflikt mit dem passenden Werkzeug bearbeiten, sind wir in der Lage, die beste Lösung zu finden. (pg/fm)Neue Führungspraxis für die digitale WeltDer Sportdirektor eines Vereins
Foto: Sergey Kuznecov – shutterstock.comDer Sportdirektor eines Vereins stellt den Kader zusammen und gestaltet die Spiel- und Terminpläne für Wettkämpfe und Trainings. Er instruiert Talentscouts, kauft Spieler ein und stellt Bewegungsfreiheit für erforderliche Transfers sicher. Sein Ziel: Menschen zu finden und zu binden, die die Weiterentwicklung des Unternehmens konstant antreiben. Er erweitert die Suchkriterien für die Rekrutierung, stellt Mitarbeiter mit verschiedensten Hintergründen ein und ermöglicht Familien- und altersgerechte Arbeitszeitmodelle.Führung in der Digitalisierung
Foto: SFIO CRACHO – shutterstock.comDie Studie “Die Haltung entscheidet. Neue Führungspraxis für die digitale Welt” stammt von LEAD (Mercator Capacity Building Center for Leadership & Advocacy) in Kooperation mit der Unternehmensberatung Company Companions sowie der School of Public Policy (Central European University, Budapest) und dem Center for Leadership and Values in Society (Universität St. Gallen). Die Autoren empfehlen acht Rollen als Orientierungshilfen.Die Landschaftsgärtnerin
Foto: Africa Studio – shutterstock.comDie Landschaftsgärtnerin gestaltet und pflegt Grünanlagen. Sie versteht das gesamte Ökosystem und weiß, wann welche Pflanzen im Jahreszeitenwechsel an welcher Stelle ihre Wirkung entfalten und wie alles zusammenspielt. Ihr Ziel: Das Unternehmen langfristig auf zustellen, wenn Krise und Veränderung zum Normalfall geworden sind. Sie ermöglicht schnelles „Prototyping“, geht unkonventionelle Partnerschaften ein und bricht Silos mittels heterogener, cross-funktionaler Teams auf.Die Seismologin
Foto: Filip Fuxa – shutterstock.comDie Seismologin muss wissen, wo die Erde beben könnte. Dafür analysiert sie Daten, registriert feinste Erschütterungen und erkennt Spannungen frühzeitig. Sie erliegt aber nicht der Illusion, die Zukunft genau vorhersagen zu können. Ihr Ziel: Grundlagen für gute Entscheidungen in einer unübersichtlichen Welt zu schaffen. Sie etabliert „Situation Rooms“ zur Entwicklung von Handlungsstrategien, greift über digitale Plattformen auf verborgenes Wissen zu und schult ihre Intuition als zusätzliche “Datenquelle”.Der Zen-Schüler
Foto: Toranico – shutterstock.comDer Zen-Schüler ist in Ausbildung und Vorbereitung. Er lernt, reflektiert und prüft sich selbst. Achtsamkeit, Mitgefühl und Offenheit sind seine Tugenden, er pflegt eine disziplinierte (spirituelle) Praxis. Sein Ziel: Das finden, woran er sich festhalten kann, wenn sich alle an ihm festhalten. Er nutzt Coaching- und Mentoring-Programme, schafft physische Räume für den Ausgleich und richtet den Blick nach innen.Der DJ
Foto: Vladimir Hodac – shutterstock.comDer Discjockey bringt mit seiner Musik die Menschen zum Tanzen. Er setzt einen Rahmen, der motiviert, anregt und gemeinsame Energie erzeugt. Zugleich hat er ein offenes Ohr für Anregungen und sensible Antennen für das richtige Stück im richtigen Moment. Sein Ziel: Eine Kultur der Zugewandtheit zu schaffen – aber mit dem Fokus auf Ergebnisorientierung. Dafür baut er Empathie als Führungskompetenz auf, schafft Räume, in denen Menschen gerne arbeiten, und agiert als Vorbild für Zugewandtheit und Leistungsorientierung.Die Intendantin eines Theaters
Foto: Fer Gregory – shutterstock.comDie Intendantin eines Theaters wählt die Stücke für die Aufführung aus. Sie entwickelt den roten Faden und prägt die gesellschaftliche Wirkungskraft ihres Hauses. Die Künstler und deren Expertise bindet sie dabei ein. Ihr Ziel: in Zeiten großer Unsicherheit und Unplanbarkeit Orientierung zu geben. Über ein „Strategy Board“ schafft sie die Voraussetzung für Richtungsentscheidungen schaffen, erhöht mittels interaktiver Beteiligungsformen die Einigkeit über die Richtung – und hat den Mut zu klaren Ansage in der Krise.Die Trainerin
Foto: El Nariz – shutterstock.comDie Trainerin leitet eine Mannschaft taktisch, technisch und konditionell an. Sie bestimmt Trainingsablauf, Mannschaftsaufstellung und Strategie. Sie muss für Misserfolge geradestehen, Erfolge lässt sie ihrem Team. Ihr Ziel: Die Mitarbeiter zu mehr Verantwortungsübernahme zu befähigen. Dafür entwickelt sie über zeitgemäße Lernformate Kompetenzen entwickeln, baut gegenseitiges Vertrauen auf und führt Anreize zur Übernahme von Verantwortung ein.Der Blogger
Foto: g-stockstudio – shutterstock.comDer Blogger kommentiert Geschehnisse – zugespitzt, aufrüttelnd und meist aus einer persönlichen Sichtweise. Er will die Welt verstehen, erklären und übersetzen. Er lebt vom direkten Feedback der Leser. Sein Ziel: Veränderungsbereitschaft in die DNA des Unternehmens zu schreiben. Er kaskadiert die Geschichte der Veränderung in die Firma, moderiert gemeinsame Lernprozesse und gibt sichtbare Veränderungsanstöße.

Servant Leadership: Wie Konfliktlösung geht​ Read More »

Google Gemini: KI-Erweiterungen aktivieren​

Google Gemini: KI-Erweiterungen aktivieren​

Allgemein

Gemini-Seite öffnen Thomas Rieske Lösung: Besuchen Sie zunächst die Website von Google Gemini mit einem Browser Ihrer Wahl. Wenn Sie nicht automatisch mit Ihrem Google-Account eingeloggt werden, klicken Sie auf den Anmelden-Button. Login per E-Mail-Adresse oder Telefonnummer Thomas Rieske Nun geben Sie die E-Mail beziehungsweise Telefonnummer für Ihr Google-Konto an und klicken dann auf Weiter. Passwort eingeben Thomas Rieske Auf der nächsten Seite tippen Sie das dazugehörige Passwort ein und schließen das Login mit einem erneuten Klick auf den Weiter-Button ab. Erweiterungen aufrufen Thomas Rieske Klicken Sie anschließend in Gemini auf das Zahnradsymbol in der linken Seitenleiste. In dem Menü, das sich öffnet, wählen Sie den Punkt Erweiterungen. Erweiterungen aktivieren Thomas Rieske Sie sehen nun eine Seite mit derzeit insgesamt sechs Erweiterungen, etwa Google Maps, Google Workspace oder YouTube. Per Klick auf einen der daneben angeordneten Schalter lassen sich die Add-ons aktivieren und gegebenenfalls auch wieder deaktivieren. Bei einer Aktivierung kann Googles KI-System über diese Erweiterungen die entsprechenden persönlichen Informationen abrufen. Bestätigung erforderlich Thomas Rieske Wenn Sie eine Erweiterung das erste Mal aktivieren, erhalten Sie noch eine Rückfrage. Nachdem Sie Ihr OK gegeben haben, ist die Verknüpfung zwischen Gemini und den jeweiligen Daten freigeschaltet. Infos von Gmail anfordern Thomas Rieske Im Chat mit der KI können Sie eine aktivierte Erweiterung gezielt ansprechen. Dazu erwähnen Sie diese einfach im Prompt, indem Sie deren Namen mit vorangestelltem @-Zeichen eingeben. Wenn Sie zum Beispiel etwas über Ihre letzte eingetroffene E-Mail wissen möchten, tippen Sie ein: @Gmail Fasse meine letzte E-Mail im Posteingang zusammen. Vorschläge zu YouTube-Videos Thomas Rieske Genauso bequem ist das Vorgehen, wenn Sie etwa auf der Suche nach YouTube-Tutorials zu einem bestimmten Thema sind. Mit dem Prompt @YouTube Zeige mir Videos zum fachgerechten Ziehen von Silikonfugen erhalten Sie entsprechende Vorschläge für Heimwerker. Die Clips können Sie übrigens direkt in Gemini abspielen. Produkte: Der Trick funktioniert mit Google Gemini im Browser. 

Google Gemini: KI-Erweiterungen aktivieren​ Gemini-Seite öffnen

Thomas Rieske

Lösung: Besuchen Sie zunächst die Website von Google Gemini mit einem Browser Ihrer Wahl. Wenn Sie nicht automatisch mit Ihrem Google-Account eingeloggt werden, klicken Sie auf den Anmelden-Button.

Login per E-Mail-Adresse oder Telefonnummer

Thomas Rieske

Nun geben Sie die E-Mail beziehungsweise Telefonnummer für Ihr Google-Konto an und klicken dann auf Weiter.

Passwort eingeben

Thomas Rieske

Auf der nächsten Seite tippen Sie das dazugehörige Passwort ein und schließen das Login mit einem erneuten Klick auf den Weiter-Button ab.

Erweiterungen aufrufen

Thomas Rieske

Klicken Sie anschließend in Gemini auf das Zahnradsymbol in der linken Seitenleiste. In dem Menü, das sich öffnet, wählen Sie den Punkt Erweiterungen.

Erweiterungen aktivieren

Thomas Rieske

Sie sehen nun eine Seite mit derzeit insgesamt sechs Erweiterungen, etwa Google Maps, Google Workspace oder YouTube. Per Klick auf einen der daneben angeordneten Schalter lassen sich die Add-ons aktivieren und gegebenenfalls auch wieder deaktivieren. Bei einer Aktivierung kann Googles KI-System über diese Erweiterungen die entsprechenden persönlichen Informationen abrufen.

Bestätigung erforderlich

Thomas Rieske

Wenn Sie eine Erweiterung das erste Mal aktivieren, erhalten Sie noch eine Rückfrage. Nachdem Sie Ihr OK gegeben haben, ist die Verknüpfung zwischen Gemini und den jeweiligen Daten freigeschaltet.

Infos von Gmail anfordern

Thomas Rieske

Im Chat mit der KI können Sie eine aktivierte Erweiterung gezielt ansprechen. Dazu erwähnen Sie diese einfach im Prompt, indem Sie deren Namen mit vorangestelltem @-Zeichen eingeben. Wenn Sie zum Beispiel etwas über Ihre letzte eingetroffene E-Mail wissen möchten, tippen Sie ein: @Gmail Fasse meine letzte E-Mail im Posteingang zusammen.

Vorschläge zu YouTube-Videos

Thomas Rieske

Genauso bequem ist das Vorgehen, wenn Sie etwa auf der Suche nach YouTube-Tutorials zu einem bestimmten Thema sind. Mit dem Prompt @YouTube Zeige mir Videos zum fachgerechten Ziehen von Silikonfugen erhalten Sie entsprechende Vorschläge für Heimwerker. Die Clips können Sie übrigens direkt in Gemini abspielen.

Produkte: Der Trick funktioniert mit Google Gemini im Browser.

Google Gemini: KI-Erweiterungen aktivieren​ Read More »

Windows 11: NAS-Verbindungsfehler beheben​

Windows 11: NAS-Verbindungsfehler beheben​

Allgemein

Gruppenrichtlinien-Editor starten Thomas Rieske Lösung: Die von Microsoft vorgenommenen Sicherheitsverbesserungen, etwa die obligatorische SMB-Signierung, können zu Verbindungsproblemen mit älteren NAS-Geräten oder Routern mit USB-Speicher führen. Wenn Ihr NAS-Hersteller keine Firmware-Updates anbietet, die die SMB-Signierung unterstützen, können Sie die strengeren Sicherheitsvorgaben über Gruppenrichtlinien lockern. Dazu benötigen Sie Windows 11 Pro oder besser. Ist diese Voraussetzung erfüllt, starten Sie den Ausführen-Dialog, indem Sie die Windows-Taste + R drücken. Dann geben Sie in das Öffnen-Feld gpedit.msc ein und klicken auf die OK-Schaltfläche. Sicherheitsoptionen aufrufen Thomas Rieske Nun startet der Editor für lokale Gruppenrichtlinien in einem neuen Fenster. Navigieren Sie links unter Richtlinien für Lokaler Computer zu Computerkonfiguration und öffnen den Bereich Windows-Einstellungen. Nach dem gleichen Prinzip hangeln Sie sich weiter durch die Baumstruktur über Sicherheitseinstellungen / Lokale Richtlinien bis zum Eintrag Sicherheitsoptionen. Signatur-Option für Clients suchen Thomas Rieske Nachdem Sie die Sicherheitsoptionen markiert haben, wechseln Sie zum rechten Fensterbereich. Wenn Sie dort etwas nach unten scrollen, finden Sie den Punkt Microsoft-Netzwerk (Client): Kommunikation digital signieren (immer). Doppelklicken Sie darauf, um die Einstellung zu konfigurieren. Eigenschaften ändern Thomas Rieske In der Dialogbox, die sich anschließend öffnet, wählen Sie den Radio Button Deaktiviert. Dann übernehmen Sie Ihre Änderung per Klick auf den OK-Button. Vorgaben für Gastanmeldungen lockern Thomas Rieske Es gibt eine weitere Einstellung, die NAS-Verbindungsfehler hervorrufen kann. Diese erreichen Sie ebenfalls über den Gruppenrichtlinien-Editor, indem Sie nach dem oben beschriebenen Muster zu Computerkonfiguration / Administrative Vorlagen / Netzwerk / LanMan-Arbeitsstation navigieren. Einstellung für unsichere Gastanmeldungen öffnen Thomas Rieske Nun wechseln Sie wieder in den rechten Teil des Fensters. Dort doppelklicken Sie dann in der Spalte Einstellung auf Unsichere Gastanmeldungen aktivieren. Unsichere Gastanmeldungen zulassen Thomas Rieske Im folgenden Dialog wählen Sie zunächst oben links die Option Aktiviert. Anschließend speichern Sie die neue Einstellung, indem Sie auf die OK-Schaltfläche klicken. Beachten Sie bitte, dass die beschriebenen Anpassungen der Gruppenrichtlinien die Sicherheit beeinträchtigen können, worauf Microsoft explizit hinweist. Sie sollten daher die beschriebene Vorgehensweise als temporären Workaround verstehen. Als dauerhafte Lösung empfiehlt es sich, nach einer neueren Firmware für Ihre NAS-Geräte Ausschau zu halten oder gegebenenfalls auf Modelle umzusteigen, die die aktuellen Sicherheitsstandards unterstützen. Dies gilt insbesondere vor dem Hintergrund, dass Microsoft weitere SMB-Änderungen plant. Produkte: Der Trick funktioniert mit Windows 11 Pro, Version 24H2. 

Windows 11: NAS-Verbindungsfehler beheben​ Gruppenrichtlinien-Editor starten

Thomas Rieske

Lösung: Die von Microsoft vorgenommenen Sicherheitsverbesserungen, etwa die obligatorische SMB-Signierung, können zu Verbindungsproblemen mit älteren NAS-Geräten oder Routern mit USB-Speicher führen. Wenn Ihr NAS-Hersteller keine Firmware-Updates anbietet, die die SMB-Signierung unterstützen, können Sie die strengeren Sicherheitsvorgaben über Gruppenrichtlinien lockern. Dazu benötigen Sie Windows 11 Pro oder besser. Ist diese Voraussetzung erfüllt, starten Sie den Ausführen-Dialog, indem Sie die Windows-Taste + R drücken. Dann geben Sie in das Öffnen-Feld gpedit.msc ein und klicken auf die OK-Schaltfläche.

Sicherheitsoptionen aufrufen

Thomas Rieske

Nun startet der Editor für lokale Gruppenrichtlinien in einem neuen Fenster. Navigieren Sie links unter Richtlinien für Lokaler Computer zu Computerkonfiguration und öffnen den Bereich Windows-Einstellungen. Nach dem gleichen Prinzip hangeln Sie sich weiter durch die Baumstruktur über Sicherheitseinstellungen / Lokale Richtlinien bis zum Eintrag Sicherheitsoptionen.

Signatur-Option für Clients suchen

Thomas Rieske

Nachdem Sie die Sicherheitsoptionen markiert haben, wechseln Sie zum rechten Fensterbereich. Wenn Sie dort etwas nach unten scrollen, finden Sie den Punkt Microsoft-Netzwerk (Client): Kommunikation digital signieren (immer). Doppelklicken Sie darauf, um die Einstellung zu konfigurieren.

Eigenschaften ändern

Thomas Rieske

In der Dialogbox, die sich anschließend öffnet, wählen Sie den Radio Button Deaktiviert. Dann übernehmen Sie Ihre Änderung per Klick auf den OK-Button.

Vorgaben für Gastanmeldungen lockern

Thomas Rieske

Es gibt eine weitere Einstellung, die NAS-Verbindungsfehler hervorrufen kann. Diese erreichen Sie ebenfalls über den Gruppenrichtlinien-Editor, indem Sie nach dem oben beschriebenen Muster zu Computerkonfiguration / Administrative Vorlagen / Netzwerk / LanMan-Arbeitsstation navigieren.

Einstellung für unsichere Gastanmeldungen öffnen

Thomas Rieske

Nun wechseln Sie wieder in den rechten Teil des Fensters. Dort doppelklicken Sie dann in der Spalte Einstellung auf Unsichere Gastanmeldungen aktivieren.

Unsichere Gastanmeldungen zulassen

Thomas Rieske

Im folgenden Dialog wählen Sie zunächst oben links die Option Aktiviert. Anschließend speichern Sie die neue Einstellung, indem Sie auf die OK-Schaltfläche klicken.

Beachten Sie bitte, dass die beschriebenen Anpassungen der Gruppenrichtlinien die Sicherheit beeinträchtigen können, worauf Microsoft explizit hinweist. Sie sollten daher die beschriebene Vorgehensweise als temporären Workaround verstehen. Als dauerhafte Lösung empfiehlt es sich, nach einer neueren Firmware für Ihre NAS-Geräte Ausschau zu halten oder gegebenenfalls auf Modelle umzusteigen, die die aktuellen Sicherheitsstandards unterstützen. Dies gilt insbesondere vor dem Hintergrund, dass Microsoft weitere SMB-Änderungen plant.

Produkte: Der Trick funktioniert mit Windows 11 Pro, Version 24H2.

Windows 11: NAS-Verbindungsfehler beheben​ Read More »

Das sind Deutschlands beste IT-Dienstleister 2024​

Das sind Deutschlands beste IT-Dienstleister 2024​

Allgemein

Das sind Deutschlands kundenfreundlichste IT-Dienstleister 2024.IDG Auf dem ChannelPartner-Kongress 2024 haben Computerwoche und ChannelPartner bereits zum 17. Mal gemeinsam die kundenfreundlichsten IT-Dienstleister Deutschlands ausgezeichnet.Die 2.397 von iSCM zwischen dem 24. Mai und 17. Juli 2024 befragten IT-Entscheider in IT-Anwender-Unternehmen haben insgesamt 7.975 IT-Projekte bewertet, die sie gemeinsam mit ihren IT-Dienstleistern in den vergangenen 24 Monaten durchgeführt haben.Befragt wurden ausschließlich die in den Anwenderunternehmen für IT-Projekte verantwortlichen Personen, also CIOs, IT-Leiter, IT-Administratoren, Geschäftsführer und Fachbereichsleiter. FaQ zur Studie Die Bewertungskriterien Abgefragt wurden unterschiedliche Aspekte der Zusammenarbeit mit dem externen IT-Dienstleister: Wie einfach verlief die Zusammenarbeit? Wie schnell reagierte der IT-Dienstleister auf Anfragen des Kunden? Hat der IT-Service-Provider die vereinbarten Termine für die “Meilensteine” eingehalten? Verstand der IT-Dienstleister das Geschäftsmodell des Kunden? Wie kundenspezifisch war das Angebot? Wie gut war das Preis-Leistungs-Verhältnis? Woch hoch schätzte der Kunde die Beratungskompetenz seines IT-Dienstleisters ein? Wie gut war die Betreuung nach Projektabschluss? und noch viel mehr …. Bei der Umfrage zum “Besten IT-Dienstleister” wurden dieses Jahr 650 IT-Dienstleister bewertet, insgesamt waren mehr als 700 IT-Dienstleister im Rennen, 69 von ihnen gelang der Sprung in unsere Rankings. Die vier Umsatzklassen Basis der Award-Verleihung bildet die Gesamtnote eines IT-Dienstleisters über alle Projektkategorien hinweg. Um eine faire Grundlage für die Award-Vergabe zu gewährleisten, werden die Ergebnisse der Umfrage in vier Umsatzklassen ausgewertet. Als Klassifizierungsmerkmal gilt der Jahresumsatz, den die IT-Dienstleister 2023 in der Region DACH (Deutschland, Österreich, Schweiz) erwirtschaftet haben. Dabei haben wir die Umsatzgrenzen wie im Vorjahr bei 50 und 250 Millionen sowie bei einer Milliarde Euro gezogen. Daraus ergaben sich genauso wie 2021 vier Umsatzklassen: Umsatzklasse 1: IT-Dienstleister mit Jahresumsatz über einer Milliarde Euro Umsatzklasse 2: IT-Dienstleister mit Jahresumsatz zwischen 250 Millionen und einer Milliarde Euro Umsatzklasse 3: IT-Dienstleister mit Jahresumsatz zwischen 50 und 250 Millionen Euro Umsatzklasse 4: IT-Dienstleister mit Jahresumsatz unter 50 Millionen Euro Erfahrungsgemäß steigen von Jahr zu Jahr einige IT-Dienstleiter – bedingt durch höhere Umsätze – eine Umsatzklasse hinauf, Abstiege gibt es hier nicht. Manch ein Name verschwindet zwar, aber meist nach der Übernahme durch einen umsatzstärkeren IT-Dienstleister. Umsatzklasse 4 In der Umsatzklasse 4 (bis 50 Millionen Euro Jahresumsatz) schafften es in diesem Jahr 37 Firmen ins Ranking. Und der Gewinner heißt: Ext-Com IT. Damit hat das 2016 in München gegründete Systemhaus seinen Erfolg vom Frühjahr 2024 sogar noch getoppt, als es “lediglich” den zweiten Platz in der Riege der kundenfreundlichsten MSP (Managed Service Provider) errang. Platz 2 in der Umsatzklasse 4 geht an die Medialine-Tochter GID (Global Information Distribution). Damit schnitt sie deutlich besser als die Muttergesellschaft in der Umsatzklasse 3 ab. GID ist seit Ende 2022 Mitglied der Medialine-Gruppe, das 1994 in Köln gegründete Unternehmen beschäftigte damals 30 Mitarbeiter. Es agiert weiterhin unter der eigenen GID-Fahne und wurde deshalb auch unabhängig von Medialine bewertet. Kundenprojekte hat GID in den Segmenten Security, Storage und Software durchgeführt. Auch den dritten Rang in dieser Umsatzklasse belegt ein einzelnes Mitglied eines größeren Verbunds, nämlich die 1992 gegründete Lantana GmbH, die seit dem Herbst 2023 zu Connexta gehört. Am 1. Juli 2024 übernahm Carsten Dobers die Geschäftsleitung von den beiden Firmengründern Oliver Kohmann und Ulrich Garbers. Das norddeutsche Unternehmen beschäftigt über 20 Mitarbeiter und setzt jährlich rund zwölf Millionen Euro um. Umsatzklasse 3 In der Umsatzklasse über 50 bis 250 Millionen Euro schafften in diesem Jahr 18 Unternehmen den Sprung ins Ranking: In dieser Umsatzklasse gab es eine faustdicke Überraschung. Den Spitzenplatz eroberte völlig unerwartet die Converge Technology Solutions Germany GmbH. Erst 2021 gegründet ist der Markenname “Converge” offenbar vielen Kunden schon geläufig und wird von ihnen als Brand wohl klar wahrgenommen. Das ist eine beachtliche Leistung, wenn man bedenkt, dass sich hinter Converge ein so bekanntes Systemhaus wie Rednet verbirgt, das – 2004 in Mainz gegründet – sich zu einem der erfolgreichsten IT-Ausstatter von Schulen entwickelt hat. Der Apple-Rahmenvertrag war für die kanadische Converge-Gruppe sicherlich ein weiterer Grund, das Systemhaus aus dem Rheinland zu akquirieren. Rang 2 in der Umsatzklasse 3 ging an gleich zwei Unternernehmen, nämlich an MR Datentechnik und ORBIT IT-Solutions. Bei MR Datenechnik fand 2022 ein Generationswechsel an Spitze statt: Jochen Kraus übernahm einen Teil der Verantwortung vom Firmengründer Gerhardt Reinhardt. Sowohl Converge als auch MR Datentechnik wachsen derzeit sehr stark, so dass sie im kommenden Jahr unter Umständen in die nächsthöhere Umsatzklasse 2 (über 250 Millionen Euro) aufsteigen könnten. ORBIT überzeugte seine Kunden besonders mit der Breite des eigenen Portfolios (alle Microsoft-Produkte, ferner unterschiedliche Datacenter- und Security-Lösungen) sowie mit nachgewiesen Branchenkenntnissen, unter anderem im Maschinenbau, Handwerk, bei Dienstleistern und Mobilfunkbetreibern. Umsatzklasse 2 In der Umsatzklasse von 250 Millionen bis 1 Milliarde Euro konnten in diesem Jahr sieben IT-Dienstleister bei ihren Kunden punkten. Und es gibt einen neuen Sieger in dieser Umsatzklasse, denn der Vorjahresgewinner Axians Deutschland ist dieses Jahr in die Umsatzklasse 1 aufgerückt.Den Spitzenplatz belegt 2024 Ratiodata, damit bestätig der im Bankenumfeld tätige IT-Dienstleister auch seine Top-Platzierung als Deutschlands bester MSP 2024. Und so ist es auch nicht überraschend, dass Ratiodata bei seinen Kunden vor allem mit seiner Branchekompetenz aufwarten kann. Darüber hinaus bescheinigen Kunden dem IT-Dienstleister aus Münster, ihnen bei der Digitalisierung und Automatisierung von Geschäftsprozessen wesentlich geholfen zu haben. Auch die in der Umsatzklasse 2 zweitplatzierte Konica Minolta Business Solutions Deutschland GmbH gehört schon seit Jahren zu den von Kunden exzellent beurteilten IT-Dienstleistern. Besonders erfreulich für den DMS-Spezialisten ist die Verbesserung von Rang sechs im Vorjahr auf Platz zwei dieses Jahr. Besonders gut kommt bei Kunden Konica Minoltas Skalierbarkeit der Dienste (Managed Print Services) und die Flexibilität beim Erbringen dieser Services. Den dritten Platz in der Umsatzklasse 2 errang dieses Jahr – wie im Vorjahr – ACP. Ob dieser Erfolg sich nächstes Jahr ebenfalls einstellt, ist ungewiss. Denn der 1993 in Wien gegründete IT-Service-Provider könnte im nächsten Jahr in die Umsatzklasse 1 aufsteigen, 2023 ist der Umsatz der Gruppe in der DACH-Region noch knapp unter einer Milliarde Euro geblieben. Wohl nicht zuletzt aufgrund dieser Größe überzeugte ACP seine Kunden mit guter Skalierbarkeit seiner Dienste. Umsatzklasse 1 In der Umsatzklasse über 1 Milliarde Euro schafften es diese Jahr sieben IT-Dienstleistern ins Ranking. Der Vorjahressieger in der Umsatzklasse 1 ist auch 2024 ganz vorne dabei: SVA System Vertrieb Alexander. Was in allen Kriterien konnte sich SVA vor seinen großen Wettbewerbern platzieren, besonders gut bei seinen Kunden abgeschnitten hat der IT-Dienstleister aus Wiesbaden bei der Skalierbarkeit seiner Services, bei User-Help-Desk und bei der Beratungskompetenz im Vorfeld. Im vergangenen Jahr konnte sich noch SoftwareOne den zweiten Platz in der Umsatzklasse 1 sichern, 2024 wurde der Lizenzspezialist von einem Aufsteiger verdrängt, nämlich von der schon vorhin erwähnten Axians Deutschland-Gruppe. Dieses Jahr hat Axians in der DACH-Region beim Umsatz um mehr als eine Viertelmilliarde Euro zugelegt, nach der Übernahme der Fernao-Gruppe.Durch die Zugehörigkeit zu dem Mischkonzern Vinci Energies und die dadurch bedingte Präsenz im industriellen IoT-Markt überzeugt Axians seine Kunden vor allem mit seiner Portfolio-Breite, aber auch hinsichtlich der Sicherheit und der Stabilität der selbst erbrachten Services hat Axians im Vergleich sehr gut abgeschnitten. Bei der Breite des Portfolios kann SoftwareOne nicht punkten, dennoch gelang dem Software-Lizenz-Spezialisten auch dieses Jahr der Sprung aufs Treppchen. Als Deutschlands zweitbester MSP wurde das Unternehmen bereits im Frühjahr 2024 ausgezeichnet. Hier geht es zu den Ergebnissen: Die besten IT-Dienstleister in der Umsatzklasse über 1 Mrd. Euro Jahresumsatz Rang 2024Unternehmen1SVA System Vertrieb Alexander GmbH2Axians Deutschland3SoftwareOne Deutschland GmbH4Cancom SE5Bechtle AG6Telekom Deutschland GmbH7Computacenter AG & Co. oHG Die besten IT-Dienstleister der Umsatzklasse von 250 Mio. bis 1 Mrd. Euro Jahresumsatz Rang 2024Unternehmen1Ratiodata SE2Konica Minolta Business Solutions Deutschland GmbH3ACP IT Solutions4Controlware GmbH5NTS Deutschland GmbH5netgo group GmbH7Datagroup SE Die besten IT-Dienstleister der Umsatzklasse von 50 Mio. bis 250 Mio. Euro Jahresumsatz Rang 2024Unternehmen1Converge Technology Solutions Germany GmbH2MR Datentechnik Vertriebs- und Service GmbH2Orbit Gesellschaft für Applikations- und Informationssysteme mbH4Plenticon Group GmbH5AirITSystems GmbH6Spirit/21 GmbH7TechniData IT-Gruppe8Valley IT Group GmbH9noris network AG10avodaq AG11operational services GmbdH & Co.KG12NetPlans GmbH13teccle group14enthus GmbH15Proact Deutschland GmbH16IT-Haus GmbH17Medialine EuroTrade AG18K&P Computer Service- und Vertriebs-GmbH Die besten IT-Dienstleister der Umsatzklasse unter 50 Mio. Euro Jahresumsatz Rang 2024Unternehmen1Ext-Com IT GmbH2Global Information Distribution GmbH (GID) – Mitglied der Medialine Group3Lantana Gesellschaft für angewandte Daten- und Netzwerktechnik mbH – Mitglied von connexta4BITS – Brunner IT Services GmbH & Co. KG5Prodatec GmbH6interface systems GmbH – Mitglied der Medialine Group7niteflite networxx GmbH8PC-Mentor GmbH9fusic GmbH & Co. KG10IF-Tech AG – Mitglied von connexta11Hainke Computer GmbH & Co KG12Basys Brinova GmbH – Mitglied von connexta13ditpro GmbH & Co. KG14neam IT-Services GmbH – Mitglied von connexta15ID.Kom AG – Mitglied von connexta16wirverbindenwelten.de GmbH17IBH IT-Service GmbH18pco GmbH & Co. KG19IOK GmbH & Co. KG20InterConnect GmbH & Co. KG20Kutzschbach22Bürosysteme Irrgang & Lange GmbH & CO. Vertriebs KG23netlogix GmbH & Co. KG24Nösse Datentechnik25unique projects GmbH & Co. KG25Computer Manufaktur GmbH – Mitglied von connexta25Net at Work GmbH28esko systems GmbH & Co. KG – Mitglied von connexta29EDV-Beratung Neumann30EnBITCon GmbH31mobilplus Systemhaus GmbH31Hirschtec GmbH & Co. KG33Erik Sterck GmbH34ho.Systeme GmbH + Co. KG35aconitas GmbH36Netzint GmbH37große Austing GmbH Quelle: iSCM-Institute / ChannelPartner / Computerwoche 08/2024 

Das sind Deutschlands beste IT-Dienstleister 2024​ Das sind Deutschlands kundenfreundlichste IT-Dienstleister 2024.IDG

Auf dem ChannelPartner-Kongress 2024 haben Computerwoche und ChannelPartner bereits zum 17. Mal gemeinsam die kundenfreundlichsten IT-Dienstleister Deutschlands ausgezeichnet.Die 2.397 von iSCM zwischen dem 24. Mai und 17. Juli 2024 befragten IT-Entscheider in IT-Anwender-Unternehmen haben insgesamt 7.975 IT-Projekte bewertet, die sie gemeinsam mit ihren IT-Dienstleistern in den vergangenen 24 Monaten durchgeführt haben.Befragt wurden ausschließlich die in den Anwenderunternehmen für IT-Projekte verantwortlichen Personen, also CIOs, IT-Leiter, IT-Administratoren, Geschäftsführer und Fachbereichsleiter.

FaQ zur Studie

Die Bewertungskriterien

Abgefragt wurden unterschiedliche Aspekte der Zusammenarbeit mit dem externen IT-Dienstleister:

Wie einfach verlief die Zusammenarbeit?

Wie schnell reagierte der IT-Dienstleister auf Anfragen des Kunden?

Hat der IT-Service-Provider die vereinbarten Termine für die “Meilensteine” eingehalten?

Verstand der IT-Dienstleister das Geschäftsmodell des Kunden?

Wie kundenspezifisch war das Angebot?

Wie gut war das Preis-Leistungs-Verhältnis?

Woch hoch schätzte der Kunde die Beratungskompetenz seines IT-Dienstleisters ein?

Wie gut war die Betreuung nach Projektabschluss?

und noch viel mehr ….

Bei der Umfrage zum “Besten IT-Dienstleister” wurden dieses Jahr 650 IT-Dienstleister bewertet, insgesamt waren mehr als 700 IT-Dienstleister im Rennen, 69 von ihnen gelang der Sprung in unsere Rankings.

Die vier Umsatzklassen

Basis der Award-Verleihung bildet die Gesamtnote eines IT-Dienstleisters über alle Projektkategorien hinweg. Um eine faire Grundlage für die Award-Vergabe zu gewährleisten, werden die Ergebnisse der Umfrage in vier Umsatzklassen ausgewertet.

Als Klassifizierungsmerkmal gilt der Jahresumsatz, den die IT-Dienstleister 2023 in der Region DACH (Deutschland, Österreich, Schweiz) erwirtschaftet haben. Dabei haben wir die Umsatzgrenzen wie im Vorjahr bei 50 und 250 Millionen sowie bei einer Milliarde Euro gezogen. Daraus ergaben sich genauso wie 2021 vier Umsatzklassen:

Umsatzklasse 1: IT-Dienstleister mit Jahresumsatz über einer Milliarde Euro

Umsatzklasse 2: IT-Dienstleister mit Jahresumsatz zwischen 250 Millionen und einer Milliarde Euro

Umsatzklasse 3: IT-Dienstleister mit Jahresumsatz zwischen 50 und 250 Millionen Euro

Umsatzklasse 4: IT-Dienstleister mit Jahresumsatz unter 50 Millionen Euro

Erfahrungsgemäß steigen von Jahr zu Jahr einige IT-Dienstleiter – bedingt durch höhere Umsätze – eine Umsatzklasse hinauf, Abstiege gibt es hier nicht. Manch ein Name verschwindet zwar, aber meist nach der Übernahme durch einen umsatzstärkeren IT-Dienstleister.

Umsatzklasse 4

In der Umsatzklasse 4 (bis 50 Millionen Euro Jahresumsatz) schafften es in diesem Jahr 37 Firmen ins Ranking. Und der Gewinner heißt: Ext-Com IT. Damit hat das 2016 in München gegründete Systemhaus seinen Erfolg vom Frühjahr 2024 sogar noch getoppt, als es “lediglich” den zweiten Platz in der Riege der kundenfreundlichsten MSP (Managed Service Provider) errang.

Platz 2 in der Umsatzklasse 4 geht an die Medialine-Tochter GID (Global Information Distribution). Damit schnitt sie deutlich besser als die Muttergesellschaft in der Umsatzklasse 3 ab. GID ist seit Ende 2022 Mitglied der Medialine-Gruppe, das 1994 in Köln gegründete Unternehmen beschäftigte damals 30 Mitarbeiter. Es agiert weiterhin unter der eigenen GID-Fahne und wurde deshalb auch unabhängig von Medialine bewertet. Kundenprojekte hat GID in den Segmenten Security, Storage und Software durchgeführt.

Auch den dritten Rang in dieser Umsatzklasse belegt ein einzelnes Mitglied eines größeren Verbunds, nämlich die 1992 gegründete Lantana GmbH, die seit dem Herbst 2023 zu Connexta gehört. Am 1. Juli 2024 übernahm Carsten Dobers die Geschäftsleitung von den beiden Firmengründern Oliver Kohmann und Ulrich Garbers. Das norddeutsche Unternehmen beschäftigt über 20 Mitarbeiter und setzt jährlich rund zwölf Millionen Euro um.

Umsatzklasse 3

In der Umsatzklasse über 50 bis 250 Millionen Euro schafften in diesem Jahr 18 Unternehmen den Sprung ins Ranking:

In dieser Umsatzklasse gab es eine faustdicke Überraschung. Den Spitzenplatz eroberte völlig unerwartet die Converge Technology Solutions Germany GmbH. Erst 2021 gegründet ist der Markenname “Converge” offenbar vielen Kunden schon geläufig und wird von ihnen als Brand wohl klar wahrgenommen. Das ist eine beachtliche Leistung, wenn man bedenkt, dass sich hinter Converge ein so bekanntes Systemhaus wie Rednet verbirgt, das – 2004 in Mainz gegründet – sich zu einem der erfolgreichsten IT-Ausstatter von Schulen entwickelt hat. Der Apple-Rahmenvertrag war für die kanadische Converge-Gruppe sicherlich ein weiterer Grund, das Systemhaus aus dem Rheinland zu akquirieren.

Rang 2 in der Umsatzklasse 3 ging an gleich zwei Unternernehmen, nämlich an MR Datentechnik und ORBIT IT-Solutions. Bei MR Datenechnik fand 2022 ein Generationswechsel an Spitze statt: Jochen Kraus übernahm einen Teil der Verantwortung vom Firmengründer Gerhardt Reinhardt. Sowohl Converge als auch MR Datentechnik wachsen derzeit sehr stark, so dass sie im kommenden Jahr unter Umständen in die nächsthöhere Umsatzklasse 2 (über 250 Millionen Euro) aufsteigen könnten.

ORBIT überzeugte seine Kunden besonders mit der Breite des eigenen Portfolios (alle Microsoft-Produkte, ferner unterschiedliche Datacenter- und Security-Lösungen) sowie mit nachgewiesen Branchenkenntnissen, unter anderem im Maschinenbau, Handwerk, bei Dienstleistern und Mobilfunkbetreibern.

Umsatzklasse 2

In der Umsatzklasse von 250 Millionen bis 1 Milliarde Euro konnten in diesem Jahr sieben IT-Dienstleister bei ihren Kunden punkten.

Und es gibt einen neuen Sieger in dieser Umsatzklasse, denn der Vorjahresgewinner Axians Deutschland ist dieses Jahr in die Umsatzklasse 1 aufgerückt.Den Spitzenplatz belegt 2024 Ratiodata, damit bestätig der im Bankenumfeld tätige IT-Dienstleister auch seine Top-Platzierung als Deutschlands bester MSP 2024. Und so ist es auch nicht überraschend, dass Ratiodata bei seinen Kunden vor allem mit seiner Branchekompetenz aufwarten kann. Darüber hinaus bescheinigen Kunden dem IT-Dienstleister aus Münster, ihnen bei der Digitalisierung und Automatisierung von Geschäftsprozessen wesentlich geholfen zu haben.

Auch die in der Umsatzklasse 2 zweitplatzierte Konica Minolta Business Solutions Deutschland GmbH gehört schon seit Jahren zu den von Kunden exzellent beurteilten IT-Dienstleistern. Besonders erfreulich für den DMS-Spezialisten ist die Verbesserung von Rang sechs im Vorjahr auf Platz zwei dieses Jahr. Besonders gut kommt bei Kunden Konica Minoltas Skalierbarkeit der Dienste (Managed Print Services) und die Flexibilität beim Erbringen dieser Services.

Den dritten Platz in der Umsatzklasse 2 errang dieses Jahr – wie im Vorjahr – ACP. Ob dieser Erfolg sich nächstes Jahr ebenfalls einstellt, ist ungewiss. Denn der 1993 in Wien gegründete IT-Service-Provider könnte im nächsten Jahr in die Umsatzklasse 1 aufsteigen, 2023 ist der Umsatz der Gruppe in der DACH-Region noch knapp unter einer Milliarde Euro geblieben. Wohl nicht zuletzt aufgrund dieser Größe überzeugte ACP seine Kunden mit guter Skalierbarkeit seiner Dienste.

Umsatzklasse 1

In der Umsatzklasse über 1 Milliarde Euro schafften es diese Jahr sieben IT-Dienstleistern ins Ranking.

Der Vorjahressieger in der Umsatzklasse 1 ist auch 2024 ganz vorne dabei: SVA System Vertrieb Alexander. Was in allen Kriterien konnte sich SVA vor seinen großen Wettbewerbern platzieren, besonders gut bei seinen Kunden abgeschnitten hat der IT-Dienstleister aus Wiesbaden bei der Skalierbarkeit seiner Services, bei User-Help-Desk und bei der Beratungskompetenz im Vorfeld.

Im vergangenen Jahr konnte sich noch SoftwareOne den zweiten Platz in der Umsatzklasse 1 sichern, 2024 wurde der Lizenzspezialist von einem Aufsteiger verdrängt, nämlich von der schon vorhin erwähnten Axians Deutschland-Gruppe. Dieses Jahr hat Axians in der DACH-Region beim Umsatz um mehr als eine Viertelmilliarde Euro zugelegt, nach der Übernahme der Fernao-Gruppe.Durch die Zugehörigkeit zu dem Mischkonzern Vinci Energies und die dadurch bedingte Präsenz im industriellen IoT-Markt überzeugt Axians seine Kunden vor allem mit seiner Portfolio-Breite, aber auch hinsichtlich der Sicherheit und der Stabilität der selbst erbrachten Services hat Axians im Vergleich sehr gut abgeschnitten.

Bei der Breite des Portfolios kann SoftwareOne nicht punkten, dennoch gelang dem Software-Lizenz-Spezialisten auch dieses Jahr der Sprung aufs Treppchen. Als Deutschlands zweitbester MSP wurde das Unternehmen bereits im Frühjahr 2024 ausgezeichnet.

Hier geht es zu den Ergebnissen:

Die besten IT-Dienstleister in der Umsatzklasse über 1 Mrd. Euro Jahresumsatz

Rang 2024Unternehmen1SVA System Vertrieb Alexander GmbH2Axians Deutschland3SoftwareOne Deutschland GmbH4Cancom SE5Bechtle AG6Telekom Deutschland GmbH7Computacenter AG & Co. oHG

Die besten IT-Dienstleister der Umsatzklasse von 250 Mio. bis 1 Mrd. Euro Jahresumsatz

Rang 2024Unternehmen1Ratiodata SE2Konica Minolta Business Solutions Deutschland GmbH3ACP IT Solutions4Controlware GmbH5NTS Deutschland GmbH5netgo group GmbH7Datagroup SE

Die besten IT-Dienstleister der Umsatzklasse von 50 Mio. bis 250 Mio. Euro Jahresumsatz

Rang 2024Unternehmen1Converge Technology Solutions Germany GmbH2MR Datentechnik Vertriebs- und Service GmbH2Orbit Gesellschaft für Applikations- und Informationssysteme mbH4Plenticon Group GmbH5AirITSystems GmbH6Spirit/21 GmbH7TechniData IT-Gruppe8Valley IT Group GmbH9noris network AG10avodaq AG11operational services GmbdH & Co.KG12NetPlans GmbH13teccle group14enthus GmbH15Proact Deutschland GmbH16IT-Haus GmbH17Medialine EuroTrade AG18K&P Computer Service- und Vertriebs-GmbH

Die besten IT-Dienstleister der Umsatzklasse unter 50 Mio. Euro Jahresumsatz

Rang 2024Unternehmen1Ext-Com IT GmbH2Global Information Distribution GmbH (GID) – Mitglied der Medialine Group3Lantana Gesellschaft für angewandte Daten- und Netzwerktechnik mbH – Mitglied von connexta4BITS – Brunner IT Services GmbH & Co. KG5Prodatec GmbH6interface systems GmbH – Mitglied der Medialine Group7niteflite networxx GmbH8PC-Mentor GmbH9fusic GmbH & Co. KG10IF-Tech AG – Mitglied von connexta11Hainke Computer GmbH & Co KG12Basys Brinova GmbH – Mitglied von connexta13ditpro GmbH & Co. KG14neam IT-Services GmbH – Mitglied von connexta15ID.Kom AG – Mitglied von connexta16wirverbindenwelten.de GmbH17IBH IT-Service GmbH18pco GmbH & Co. KG19IOK GmbH & Co. KG20InterConnect GmbH & Co. KG20Kutzschbach22Bürosysteme Irrgang & Lange GmbH & CO. Vertriebs KG23netlogix GmbH & Co. KG24Nösse Datentechnik25unique projects GmbH & Co. KG25Computer Manufaktur GmbH – Mitglied von connexta25Net at Work GmbH28esko systems GmbH & Co. KG – Mitglied von connexta29EDV-Beratung Neumann30EnBITCon GmbH31mobilplus Systemhaus GmbH31Hirschtec GmbH & Co. KG33Erik Sterck GmbH34ho.Systeme GmbH + Co. KG35aconitas GmbH36Netzint GmbH37große Austing GmbH

Quelle: iSCM-Institute / ChannelPartner / Computerwoche 08/2024

Das sind Deutschlands beste IT-Dienstleister 2024​ Read More »

Die besten JavaScript-Frameworks im Vergleich​

Die besten JavaScript-Frameworks im Vergleich​

Allgemein

Ein (passendes) JavaScript-Framework auszuwählen, ist ein bisschen wie Schuhe kaufen: Mit Blick auf das Gesamtangebot gibt es alles, was sich Softwareentwickler wünschen – nur nicht kombiniert in einem Modell. Foto: RossHelen | shutterstock.comDen (richtigen) Technologie-Stack auszuwählen, ist eine der diffizilsten Herausforderungen in Sachen Softwareentwicklung: Ohne Framework kein Development – allerdings zeigen sich die wahren Stärken und Schwächen eines Rahmenwerks erst in der Praxis. Für Developer eine Zwickmühle, aus der auch Prototyping nur bedingt befreien kann. Schließlich besteht die allgemeine Tendenz dazu, Technologien zu vertrauen, die sich in der Vergangenheit bewährt haben. So können allerdings auch innovative Entwicklungen durch die Lappen gehen. Das ist speziell mit Blick auf den Bereich der JavaScript-Frameworks wahrscheinlich, da deren Entwicklung besonders rasant voranschreitet. Dass qualitativ hochwertige Rahmenwerke im Überfluß zur Verfügung stehen, macht die Sache nicht besser.In diesem Artikel werfen wir einen Blick auf die führenden JavaScript-(Frontend-)Frameworks und vergleichen diese auf Feature-Ebene miteinander. Folgende Frameworks werden dabei behandelt:ReactVueAngularPreactLitSvelteAlpineJSSolidJSHTMXQwikEs gibt diverse Möglichkeiten, sich der Entscheidung über ein JavaScript-Frontend-Framework anzunähern. Ein Faktor, den Sie dabei fokussieren sollten, ist Vertrautheit: Wenn Sie und Ihr Team mit einer bestimmten Technologie wirklich vertraut sind, sollten gute Gründe vorliegen, um davon abzuweichen. Diesbezüglich könnten folgende Fragen relevant sein:Entspricht die Technologie nicht mehr den Anforderungen des Projekts?Besteht die Gefahr, dass das von Ihnen verwendete Framework eingestellt wird?Sind interessante Funktionalitäten nicht existent?Wenn Sie alle Fragen mit ‘nein’ beantworten können, sollten Sie sich lieber zweimal überlegen, auf ein neues Framework umzusteigen. Dennoch ist es allgemein von Vorteil, neuen Frameworks offen gegenüberzustehen, die projektspezifische Benefits in den Bereichen Developer Experience, Performance oder Community Support realisieren können. Dazu kommt, dass JavaScript und speziell Frontend-Frameworks miteinander interagieren und sich gegenseitig stark beeinflussen. Sich mit einem Rahmenwerk zu befassen, kann deswegen oft zu synergetischen Insights führen. Anders ausgedrückt: Ein Frontend-Framework-Deepdive kann niemals schaden.Die 10 wichtigsten JavaScript-FrameworksUm einen Überblick über die führenden reaktiven Frameworks zu bekommen, werfen wir einen Blick auf die populärsten Abkömmlinge. Diese haben wir auf Grundlage ihrer jeweiligen Download-Zahlen auf dem Open Source Repository NPM ermittelt. Ein Klick auf den Link führt Sie zur jeweiligen NPM-Download-Seite inklusive der aktuellen Statistiken.ReactVue / Vue 3Angular (CLI)PreactLitSvelteAlpineJSSolidJSHTMXQwikObwohl Popularität kein besonders guter Indikator für Qualität ist, sagt sie doch viel darüber aus, wie es um die Verfügbarkeit von Developern steht, die mit dem Framework arbeiten können. Das könnte speziell für größere Teams und Projekte einen entscheidenden Faktor darstellen.Zu beachten ist mit Blick auf die Top Ten, dass es sich bei allen “Kandidaten” um reine Frontend-Frameworks handelt. Einige dieser Projekte beinhalten auch ein Fullstack-Framework – etwa Next oder SvelteKit, was Backend-Funktionalitäten wie Server-seitiges Rendering ermöglicht. Das ist für einige Teams und Projekte unter Umständen ein weiterer bedeutender Auswahlfaktor in Sachen JavaScript-Framework. Im Folgenden ein detaillierter Blick auf die führenden reaktiven Frameworks. Ein Klick auf die Verlinkung im Titel führt Sie direkt zum jeweiligen GitHub Repository beziehungsweise der Projekt-Webseite.ReactDas Flaggschiff der reaktiven Frameworks ist im Jahr 2013 bei Facebook respektive Meta entstanden und wird bis heute vom Social-Media-Konzern verwaltet. Wie auch die Download-Zahlen von React zeigen, ist das Framework mit großem Abstand das populärste der hier vorgestellten – und quasi die Standardwahl unter den Frontend-Rahmenwerken. Trotz seines Alters wurde React kontinuierlich von Meta auf dem aktuellen Stand gehalten. Dabei könnte auch eine Rolle spielen, dass Facebook immer noch auf dem Framework aufbaut.Das größte Argument gegen React: sein gewaltiger Umfang. Das kann den Einsatz beschwerlich gestalten, insbesondere wenn Sie an einem Projekt arbeiten, für das die meisten React-Features erst gar nicht nötig sind. Einige der nachfolgenden JavaScript-Frameworks sind nicht nur leichtgewichtiger, sondern bieten auch andere Ansätze.VueAuch bei Vue handelt es sich um ein ausgereiftes Framework, das in Sachen Support gut aufgestellt ist. Im Vergleich zu React ist Vue deutlich leichtgewichtiger und schneidet auch bei Performance-Tests besser ab.Vue steht in erster Linie im Ruf, eine moderate Lernkurve aufzuwerfen. Darüber hinaus kann das Framework mit einer ausgezeichneten Dokumentation und einer offenherzigen Community punkten. Einige Entwickler bevorzugen Vue auch wegen seines ausgeprägten Fokus auf die Developer Experience. Wenn Sie und Ihr Team gerne mit Vue arbeiten, kann das Framework langfristig dazu beitragen, die Benutzerfreundlichkeit und Mitarbeiterzufriedenheit zu erhöhen.Von den “Big Three” unter den JavaScript-Frontend-Frameworks (React, Angular und Vue) ist Vue das basisorientierteste, was seinen Reiz haben kann.AngularVon allen hier gelisteten Frameworks bietet Angular die wohl ausgeprägteste All-in-One-Entwicklungserfahrung. Das Framework ist als durchgängige Lösung konzipiert, die verspricht, alles nötige in einem konsistenten Paket zu liefern. In der Vergangenheit galt Angular vor allem als komplex – sowohl in der Theorie als auch in der Praxis. Zudem war ein Hauch von Overengineering bei Angular zu verspüren – eine Entwicklung die in erster Linie dem Design geschuldet war.Das hat sich inzwischen allerdings grundlegend geändert: Die Entwickler hinter dem Projekt haben das Framework (mit Version 17) in diversen Aspekten simplifiziert und die Entwicklererfahrung optimiert – zudem steht nun auch eine effektive Rendering-Engine für Server-seitige Tasks zur Verfügung. Darüber hinaus wurden auch die Dokumentation und die offizielle Webseite modernisiert.Ein wesentlicher Unterschied zu React und Vue: Angular ist eher “rechthaberisch” – für die meisten Dinge gibt es klar definierte Vorgaben. Das kann es erschweren, mit Angular Applikationen anzupassen oder unkonventionelle Wege zu gehen. Ob das von Vor- oder von Nachteil ist, hängt im Wesentlichen von Ihrem persönlichen Programmierstil ab.PreactDie Nomenklatur deutet es bereits an: Bei Preact handelt es sich um ein von React inspiriertes Framework – quasi eine abgespeckte Version desselbigen mit ähnlichen aber kleineren APIs. Einer der wesentlichen Unterschiede besteht dabei darin, dass Preact kein eigenes Eventing-System implementiert. Stattdessen nutzt es die in den Browser integrierten Event Listener. Im Vergleich mit React entwickeln Sie mit Preact schneller und schlanker – dafür müssen Sie auf einige Funktionalitäten des “Originals” verzichten. Sie können Preact allerdings mit einem zusätzlichen Layer ausstatten und so nahezu vollständige React-Kompatibilität erreichen. Diverse Komponenten aus dem React-Ökosystem funktionieren dann auch mit Preact.Wenn Sie auf kleinere APIs Wert legen, sich dabei aber weitgehend im React-Ökosystem bewegen möchten, ist dieses reaktive Framework möglicherweise eine gute Wahl.LitDas Alleinstellungsmerkmal von Lit: Es nutzt den Web-Components-Standard als Grundlage. Das hat zur Folge, dass die API und das Bundle selbst sehr klein sind. Der Fokus liegt darauf, die integrierten Web Components zu unterstützen. Darüber hinaus fußt Lit auf einer minimalistischen Entwicklungsphilosophie, die Ihnen maximale Flexibilität ermöglicht: Es gibt nur wenige festgeschriebene Wege, um Dinge mit Lit zu erledigen.Das Framework weist – gemessen an seiner Größe und Popularität – ein sehr umfangreiches Ökosystem auf.SvelteDieses reaktive Framework zeichnet sich in erster Linie dadurch aus, dass es einen Compiler zum Einsatz bringt. Der transformiert die Svelte-Syntax in ein kleines und performantes JavaScript-Bundle. Das ermöglicht dem Framework, einige Optimierungen bereits im Vorfeld vorzunehmen – und mit interessanten Syntax-Elementen zu experimentieren.Mit Blick auf die “Big Three” ist Svelte am ehesten mit Vue vergleichbar, weil es sich gut für unabhängige Experimente eignet. Die Dokumentation von Vue ist gut ausgestaltet und das Framework erfreut sich in der Open-Source-Community wachsender Beliebtheit.AlpineJSVon allen hier vorgestellten Frameworks ist AlpineJS das utilitaristischste. Es bietet eine kompakte Reactive-Bibliothek – das war’s. Trotz seines überschaubaren Footprints steckt in diesem reaktiven Framework jedoch eine ganze Menge Power. Wie HTMX (dazu später) will auch AlpineJS Komplexität beseitigen, dabei jedoch die Grundlagen moderner Frontend-Funktionalität gewährleisten. Um diese Funktionalität “auf die Straße zu bringen”, nutzt das JavaScript-Framework spezielle HTML-Eigenschaften.SolidJSIm Vergleich zu den anderen hier gelisteten JavaScript-Frontend-Frameworks ist Solid ein Vertreter der jüngeren Generation. Nichtsdestotrotz konnte SolidJS bereits (im positiven Sinn) für Furore sorgen und erfreut sich einer wachsenden Nutzerbasis.Das Framework fußt auf Signals (Reactive Primitives), die ihm eine flexible Grundlage verschaffen. Um die Funktionalität zu erweitern, können sowohl das Framework selbst als auch der Anwender-Code auf dieselben Features zugreifen. In Sachen Performance-Tests schneidet SolidJS gut ab.HTMXEinen völlig anderen Ansatz, um Web-Frontends zu entwickeln, wirft HTMX auf: Es versucht, so viel Komplexität wie möglich zu eliminieren, REST wie beabsichtigt einzusetzen und “reines” HTML (mit einigen grundlegenden Verbesserungen) zu nutzen, um modernen Anforderungen wie AJAX- und DOM-Interaktionen gerecht zu werden.HTMX kann eine lohnende Option sein, wenn Sie auf Dinge wie Server-seitiges Rendering verzichten können. Einer der größten Pluspunkte des Frameworks: Es ist relativ einfach zu erlernen. Wir können nur empfehlen, sich zumindest mit diesem Projekt zu beschäftigen – und sei es nur wegen der zugrundeliegenden Idee.QwikUnter der Haube ist Qwik eine exotische Implementierung, die die Performance in den Mittelpunkt rückt. Das Framework zerlegt Applikationen in unterscheidbare Elemente und orientiert sich dabei an “Grenzen” wie Eventing oder Komponenten – entlang derer aggressives Lazy Loading zum Einsatz kommt. Das Ergebnis: schnelleres Rendering.Reactive Frameworks im (Feature-)VergleichNachdem Sie die zehn wichtigsten Reactive-Framework-Optionen kennengelernt haben, geht es nun darum, die wichtigsten Funktionen und Merkmale miteinander zu vergleichen. Zunächst haben wir die reaktiven Rahmenwerke noch einmal in einer Übersicht zusammengetragen, die auf einen Blick Auskunft über die jeweiligen Lernkurven und Funktions-Highlights gibt.FrameworkLernkurveHighlightsReactmoderat bis steilkonservativste Option; riesiges Ökosystem und Community; Balance zwischen Innovation und Stabilität;Vuemoderatleicht zu erlernen und einzusetzen; ein etabliertes Framework das weniger “corporate” ist;Angularsteilein robustes Framework für große Projekte; Enterprise-orientiert; integrierter All-in-One-Ansatz;PreactmoderatReact-ähnlich mit schnelleren Ladezeiten; insbesondere für Mobile Development empfehlenswert;Litmoderatleichtgewichtig und performant mit Fokus auf Standards; leichter mit beispielsweise HTML kombinierbar; Sveltemoderatkleinerer Memory-Footprint; fokussiert die Entwicklererfahrung und Innovationen;Alpineflachleichtgewichtiges Toolset; einfach zu erlernen und beherrschen; gut geeignet für kleinere bis mittelgroße Projekte;SolidJSmoderat bis steilreaktiver Kern auf Signals-Basis; Performance-orientiert;HTMXflacheinfach zu erlernen und zu integrieren; einzigartige, vereinfachte REST-Architektur;Qwiksteilinnovativ und Performance-orientiert; integriert mit builder.io; Wenn Sie nun Wert auf ganz spezielle Funktionen legen, bringt Ihnen diese Tabelle natürlich wenig. Deswegen haben wir auch noch einen umfangreichen Feature-Vergleich der gelisteten JavaScript-Frontend-Frameworks für Sie erstellt. Diesen können Sie auch direkt über GitHub als PDF-Datei herunterladen (inklusive klickbarer Links). Die zehn wichtigsten JavaScript-Frameworks im Feature-Vergleich. Foto: Matthew Tyson | IDGPlaygroundsUm sich einen schnellen ersten Eindruck von einem Framework zu verschaffen, empfiehlt sich, es in einem Online-REPL respektive Playground zu testen. Dazu ist kein Tooling-Setup erforderlich – ein Webbrowser reicht, um mit der Syntax experimentieren zu können. Sämtliche hier vorgestellten Frameworks können das bieten. React hostet zwar keine eigenen REPLs, diese Lücke wird jedoch von Drittanbietern geschlossen. 

Die besten JavaScript-Frameworks im Vergleich​ Ein (passendes) JavaScript-Framework auszuwählen, ist ein bisschen wie Schuhe kaufen: Mit Blick auf das Gesamtangebot gibt es alles, was sich Softwareentwickler wünschen – nur nicht kombiniert in einem Modell.
Foto: RossHelen | shutterstock.comDen (richtigen) Technologie-Stack auszuwählen, ist eine der diffizilsten Herausforderungen in Sachen Softwareentwicklung: Ohne Framework kein Development – allerdings zeigen sich die wahren Stärken und Schwächen eines Rahmenwerks erst in der Praxis. Für Developer eine Zwickmühle, aus der auch Prototyping nur bedingt befreien kann. Schließlich besteht die allgemeine Tendenz dazu, Technologien zu vertrauen, die sich in der Vergangenheit bewährt haben. So können allerdings auch innovative Entwicklungen durch die Lappen gehen. Das ist speziell mit Blick auf den Bereich der JavaScript-Frameworks wahrscheinlich, da deren Entwicklung besonders rasant voranschreitet. Dass qualitativ hochwertige Rahmenwerke im Überfluß zur Verfügung stehen, macht die Sache nicht besser.In diesem Artikel werfen wir einen Blick auf die führenden JavaScript-(Frontend-)Frameworks und vergleichen diese auf Feature-Ebene miteinander. Folgende Frameworks werden dabei behandelt:ReactVueAngularPreactLitSvelteAlpineJSSolidJSHTMXQwikEs gibt diverse Möglichkeiten, sich der Entscheidung über ein JavaScript-Frontend-Framework anzunähern. Ein Faktor, den Sie dabei fokussieren sollten, ist Vertrautheit: Wenn Sie und Ihr Team mit einer bestimmten Technologie wirklich vertraut sind, sollten gute Gründe vorliegen, um davon abzuweichen. Diesbezüglich könnten folgende Fragen relevant sein:Entspricht die Technologie nicht mehr den Anforderungen des Projekts?Besteht die Gefahr, dass das von Ihnen verwendete Framework eingestellt wird?Sind interessante Funktionalitäten nicht existent?Wenn Sie alle Fragen mit ‘nein’ beantworten können, sollten Sie sich lieber zweimal überlegen, auf ein neues Framework umzusteigen. Dennoch ist es allgemein von Vorteil, neuen Frameworks offen gegenüberzustehen, die projektspezifische Benefits in den Bereichen Developer Experience, Performance oder Community Support realisieren können. Dazu kommt, dass JavaScript und speziell Frontend-Frameworks miteinander interagieren und sich gegenseitig stark beeinflussen. Sich mit einem Rahmenwerk zu befassen, kann deswegen oft zu synergetischen Insights führen. Anders ausgedrückt: Ein Frontend-Framework-Deepdive kann niemals schaden.Die 10 wichtigsten JavaScript-FrameworksUm einen Überblick über die führenden reaktiven Frameworks zu bekommen, werfen wir einen Blick auf die populärsten Abkömmlinge. Diese haben wir auf Grundlage ihrer jeweiligen Download-Zahlen auf dem Open Source Repository NPM ermittelt. Ein Klick auf den Link führt Sie zur jeweiligen NPM-Download-Seite inklusive der aktuellen Statistiken.ReactVue / Vue 3Angular (CLI)PreactLitSvelteAlpineJSSolidJSHTMXQwikObwohl Popularität kein besonders guter Indikator für Qualität ist, sagt sie doch viel darüber aus, wie es um die Verfügbarkeit von Developern steht, die mit dem Framework arbeiten können. Das könnte speziell für größere Teams und Projekte einen entscheidenden Faktor darstellen.Zu beachten ist mit Blick auf die Top Ten, dass es sich bei allen “Kandidaten” um reine Frontend-Frameworks handelt. Einige dieser Projekte beinhalten auch ein Fullstack-Framework – etwa Next oder SvelteKit, was Backend-Funktionalitäten wie Server-seitiges Rendering ermöglicht. Das ist für einige Teams und Projekte unter Umständen ein weiterer bedeutender Auswahlfaktor in Sachen JavaScript-Framework. Im Folgenden ein detaillierter Blick auf die führenden reaktiven Frameworks. Ein Klick auf die Verlinkung im Titel führt Sie direkt zum jeweiligen GitHub Repository beziehungsweise der Projekt-Webseite.ReactDas Flaggschiff der reaktiven Frameworks ist im Jahr 2013 bei Facebook respektive Meta entstanden und wird bis heute vom Social-Media-Konzern verwaltet. Wie auch die Download-Zahlen von React zeigen, ist das Framework mit großem Abstand das populärste der hier vorgestellten – und quasi die Standardwahl unter den Frontend-Rahmenwerken. Trotz seines Alters wurde React kontinuierlich von Meta auf dem aktuellen Stand gehalten. Dabei könnte auch eine Rolle spielen, dass Facebook immer noch auf dem Framework aufbaut.Das größte Argument gegen React: sein gewaltiger Umfang. Das kann den Einsatz beschwerlich gestalten, insbesondere wenn Sie an einem Projekt arbeiten, für das die meisten React-Features erst gar nicht nötig sind. Einige der nachfolgenden JavaScript-Frameworks sind nicht nur leichtgewichtiger, sondern bieten auch andere Ansätze.VueAuch bei Vue handelt es sich um ein ausgereiftes Framework, das in Sachen Support gut aufgestellt ist. Im Vergleich zu React ist Vue deutlich leichtgewichtiger und schneidet auch bei Performance-Tests besser ab.Vue steht in erster Linie im Ruf, eine moderate Lernkurve aufzuwerfen. Darüber hinaus kann das Framework mit einer ausgezeichneten Dokumentation und einer offenherzigen Community punkten. Einige Entwickler bevorzugen Vue auch wegen seines ausgeprägten Fokus auf die Developer Experience. Wenn Sie und Ihr Team gerne mit Vue arbeiten, kann das Framework langfristig dazu beitragen, die Benutzerfreundlichkeit und Mitarbeiterzufriedenheit zu erhöhen.Von den “Big Three” unter den JavaScript-Frontend-Frameworks (React, Angular und Vue) ist Vue das basisorientierteste, was seinen Reiz haben kann.AngularVon allen hier gelisteten Frameworks bietet Angular die wohl ausgeprägteste All-in-One-Entwicklungserfahrung. Das Framework ist als durchgängige Lösung konzipiert, die verspricht, alles nötige in einem konsistenten Paket zu liefern. In der Vergangenheit galt Angular vor allem als komplex – sowohl in der Theorie als auch in der Praxis. Zudem war ein Hauch von Overengineering bei Angular zu verspüren – eine Entwicklung die in erster Linie dem Design geschuldet war.Das hat sich inzwischen allerdings grundlegend geändert: Die Entwickler hinter dem Projekt haben das Framework (mit Version 17) in diversen Aspekten simplifiziert und die Entwicklererfahrung optimiert – zudem steht nun auch eine effektive Rendering-Engine für Server-seitige Tasks zur Verfügung. Darüber hinaus wurden auch die Dokumentation und die offizielle Webseite modernisiert.Ein wesentlicher Unterschied zu React und Vue: Angular ist eher “rechthaberisch” – für die meisten Dinge gibt es klar definierte Vorgaben. Das kann es erschweren, mit Angular Applikationen anzupassen oder unkonventionelle Wege zu gehen. Ob das von Vor- oder von Nachteil ist, hängt im Wesentlichen von Ihrem persönlichen Programmierstil ab.PreactDie Nomenklatur deutet es bereits an: Bei Preact handelt es sich um ein von React inspiriertes Framework – quasi eine abgespeckte Version desselbigen mit ähnlichen aber kleineren APIs. Einer der wesentlichen Unterschiede besteht dabei darin, dass Preact kein eigenes Eventing-System implementiert. Stattdessen nutzt es die in den Browser integrierten Event Listener. Im Vergleich mit React entwickeln Sie mit Preact schneller und schlanker – dafür müssen Sie auf einige Funktionalitäten des “Originals” verzichten. Sie können Preact allerdings mit einem zusätzlichen Layer ausstatten und so nahezu vollständige React-Kompatibilität erreichen. Diverse Komponenten aus dem React-Ökosystem funktionieren dann auch mit Preact.Wenn Sie auf kleinere APIs Wert legen, sich dabei aber weitgehend im React-Ökosystem bewegen möchten, ist dieses reaktive Framework möglicherweise eine gute Wahl.LitDas Alleinstellungsmerkmal von Lit: Es nutzt den Web-Components-Standard als Grundlage. Das hat zur Folge, dass die API und das Bundle selbst sehr klein sind. Der Fokus liegt darauf, die integrierten Web Components zu unterstützen. Darüber hinaus fußt Lit auf einer minimalistischen Entwicklungsphilosophie, die Ihnen maximale Flexibilität ermöglicht: Es gibt nur wenige festgeschriebene Wege, um Dinge mit Lit zu erledigen.Das Framework weist – gemessen an seiner Größe und Popularität – ein sehr umfangreiches Ökosystem auf.SvelteDieses reaktive Framework zeichnet sich in erster Linie dadurch aus, dass es einen Compiler zum Einsatz bringt. Der transformiert die Svelte-Syntax in ein kleines und performantes JavaScript-Bundle. Das ermöglicht dem Framework, einige Optimierungen bereits im Vorfeld vorzunehmen – und mit interessanten Syntax-Elementen zu experimentieren.Mit Blick auf die “Big Three” ist Svelte am ehesten mit Vue vergleichbar, weil es sich gut für unabhängige Experimente eignet. Die Dokumentation von Vue ist gut ausgestaltet und das Framework erfreut sich in der Open-Source-Community wachsender Beliebtheit.AlpineJSVon allen hier vorgestellten Frameworks ist AlpineJS das utilitaristischste. Es bietet eine kompakte Reactive-Bibliothek – das war’s. Trotz seines überschaubaren Footprints steckt in diesem reaktiven Framework jedoch eine ganze Menge Power. Wie HTMX (dazu später) will auch AlpineJS Komplexität beseitigen, dabei jedoch die Grundlagen moderner Frontend-Funktionalität gewährleisten. Um diese Funktionalität “auf die Straße zu bringen”, nutzt das JavaScript-Framework spezielle HTML-Eigenschaften.SolidJSIm Vergleich zu den anderen hier gelisteten JavaScript-Frontend-Frameworks ist Solid ein Vertreter der jüngeren Generation. Nichtsdestotrotz konnte SolidJS bereits (im positiven Sinn) für Furore sorgen und erfreut sich einer wachsenden Nutzerbasis.Das Framework fußt auf Signals (Reactive Primitives), die ihm eine flexible Grundlage verschaffen. Um die Funktionalität zu erweitern, können sowohl das Framework selbst als auch der Anwender-Code auf dieselben Features zugreifen. In Sachen Performance-Tests schneidet SolidJS gut ab.HTMXEinen völlig anderen Ansatz, um Web-Frontends zu entwickeln, wirft HTMX auf: Es versucht, so viel Komplexität wie möglich zu eliminieren, REST wie beabsichtigt einzusetzen und “reines” HTML (mit einigen grundlegenden Verbesserungen) zu nutzen, um modernen Anforderungen wie AJAX- und DOM-Interaktionen gerecht zu werden.HTMX kann eine lohnende Option sein, wenn Sie auf Dinge wie Server-seitiges Rendering verzichten können. Einer der größten Pluspunkte des Frameworks: Es ist relativ einfach zu erlernen. Wir können nur empfehlen, sich zumindest mit diesem Projekt zu beschäftigen – und sei es nur wegen der zugrundeliegenden Idee.QwikUnter der Haube ist Qwik eine exotische Implementierung, die die Performance in den Mittelpunkt rückt. Das Framework zerlegt Applikationen in unterscheidbare Elemente und orientiert sich dabei an “Grenzen” wie Eventing oder Komponenten – entlang derer aggressives Lazy Loading zum Einsatz kommt. Das Ergebnis: schnelleres Rendering.Reactive Frameworks im (Feature-)VergleichNachdem Sie die zehn wichtigsten Reactive-Framework-Optionen kennengelernt haben, geht es nun darum, die wichtigsten Funktionen und Merkmale miteinander zu vergleichen. Zunächst haben wir die reaktiven Rahmenwerke noch einmal in einer Übersicht zusammengetragen, die auf einen Blick Auskunft über die jeweiligen Lernkurven und Funktions-Highlights gibt.FrameworkLernkurveHighlightsReactmoderat bis steilkonservativste Option; riesiges Ökosystem und Community; Balance zwischen Innovation und Stabilität;Vuemoderatleicht zu erlernen und einzusetzen; ein etabliertes Framework das weniger “corporate” ist;Angularsteilein robustes Framework für große Projekte; Enterprise-orientiert; integrierter All-in-One-Ansatz;PreactmoderatReact-ähnlich mit schnelleren Ladezeiten; insbesondere für Mobile Development empfehlenswert;Litmoderatleichtgewichtig und performant mit Fokus auf Standards; leichter mit beispielsweise HTML kombinierbar; Sveltemoderatkleinerer Memory-Footprint; fokussiert die Entwicklererfahrung und Innovationen;Alpineflachleichtgewichtiges Toolset; einfach zu erlernen und beherrschen; gut geeignet für kleinere bis mittelgroße Projekte;SolidJSmoderat bis steilreaktiver Kern auf Signals-Basis; Performance-orientiert;HTMXflacheinfach zu erlernen und zu integrieren; einzigartige, vereinfachte REST-Architektur;Qwiksteilinnovativ und Performance-orientiert; integriert mit builder.io; Wenn Sie nun Wert auf ganz spezielle Funktionen legen, bringt Ihnen diese Tabelle natürlich wenig. Deswegen haben wir auch noch einen umfangreichen Feature-Vergleich der gelisteten JavaScript-Frontend-Frameworks für Sie erstellt. Diesen können Sie auch direkt über GitHub als PDF-Datei herunterladen (inklusive klickbarer Links). Die zehn wichtigsten JavaScript-Frameworks im Feature-Vergleich.
Foto: Matthew Tyson | IDGPlaygroundsUm sich einen schnellen ersten Eindruck von einem Framework zu verschaffen, empfiehlt sich, es in einem Online-REPL respektive Playground zu testen. Dazu ist kein Tooling-Setup erforderlich – ein Webbrowser reicht, um mit der Syntax experimentieren zu können. Sämtliche hier vorgestellten Frameworks können das bieten. React hostet zwar keine eigenen REPLs, diese Lücke wird jedoch von Drittanbietern geschlossen.

Die besten JavaScript-Frameworks im Vergleich​ Read More »

Was ist Data Analytics?​

Was ist Data Analytics?​

Allgemein

Data Analytics legt die Grundlage für optimierte Geschäftsprozesse und -entscheidungen. Das sollten Sie zum Thema wissen. Foto: Oleksii Lishchyshyn – shutterstock.comGeht es darum, Geschäftsprozesse zu analysieren und auszubilden, sowie bessere Entscheidungen zu treffen und Ergebnisse zu erzielen, führt kein Weg mehr an Data Analytics vorbei.Data Analytics – DefinitionBei Data Analytics geht es darum, Erkenntnisse aus Daten zu extrahieren. Der Begriff umfasst dabei sämtliche Prozesse, Werkzeuge und Techniken, die zu diesem Zweck zum Einsatz kommen. Er beinhaltet auch das Sammeln, Organisieren und Speichern der Daten. Das wesentliche Ziel von Data Analytics ist es, mit Hilfe von Technologie und statistischen Analysen Trends zu ermitteln und Probleme zu lösen.Beeinflusst wird der Data-Analytics-Bereich dabei von zahlreichen anderen Wissenschaften, beispielsweise der Informatik, Mathematik und Statistik. Die Analyse von Daten soll die Performance beschreiben, vorhersagen und letztendlich optimieren. Damit das zuverlässig funktioniert, bringen Data-Analytics-Teams zahlreiche verschiedene Datenmanagement-Techniken zum Einsatz, beispielsweise Data Mining, Data Cleansing, Data Modeling und andere.Data Analytics – MethodenEs gibt vier unterschiedliche Data-Analytics-Methoden:“Was ist in der Vergangenheit passiert?” und “Was passiert jetzt gerade” sind die entscheidenden Fragen bei Descriptive Analytics. Entsprechend werden aktuelle und historische Daten aus verschiedenen Quellen analysiert, um den Status Quo zu beschreiben und Trends und Muster in den Daten zu erkennen.Bei Diagnostic Analytics geht es um die Frage “Warum passiert das gerade?”. Die Daten die hierbei genutzt werden, sind oft das Ergebnis von Descriptive Analytics. Ermittelt werden sollen hierbei Faktoren beziehungsweise Gründe für bestimmte historische Leistungswerte. “Was wird in Zukunft geschehen?” ist die Frage, um die sich alles bei Predictive Analytics dreht. Hierbei kommen unter anderem Techniken aus der Statistik sowie Deep- und Machine Learning zum Einsatz, um die Ergebnisse von Descriptive und Diagnostic Analytics zu verwerten und auf dieser Grundlage zukünftige Ergebnisse vorherzusagen. Predictive Analytics wird oft auch als Unterkategorie von Advanced Analytics bezeichnet.Auch Prescriptive Analytics ist eine Unterkategorie von Advanced Analytics und konzentriert sich auf die Frage: “Was muss getan werden, um das Ziel zu erreichen?”. Prescriptive-Analytics-Lösungen nutzen Algorithmen, Application Testing, Machine Learning und andere Techniken, um Lösungen zu ermitteln, die zu definierten Ergebnissen führen.Data Analytics – TechnikenUm Daten zu analysieren, bringen Data Analysts eine ganze Reihe von Techniken und Methoden zum Einsatz. Laut Emily Stevens, Managing Editor beim US-Karriereportal Career Foundry, sind das die sieben populärsten:Bei der Regressionsanalyse wird ein Set von statistischen Prozessen dazu genutzt, die Beziehungen zwischen Variablen einzuschätzen. Dabei geht es auch darum, herauszufinden, wie sich Veränderungen an einer oder mehreren Variablen aufeinander auswirken. Zum Beispiel könnte es dabei um die Frage gehen, wie sich Social-Media-Investitionen auf das Sales-Geschäft auswirken.Mit der Monte-Carlo-Simulation kann die Wahrscheinlichkeit bestimmter Ergebnisse bestimmt werden, die wegen der Verflechtung vieler unterschiedlicher Variablen nur schwer vorherzusagen sind. Sie kommt regelmäßig bei der Risikoanalyse zur Anwendung.Die Faktorenanalyse ist eine statistische Methode, um große Datenmengen zu komprimieren. Das birgt den Vorteil, dass dabei oft versteckte Muster zum Vorschein kommen. Im Business-Umfeld wird die Faktorenanalyse zum Beispiel im Bereich Customer Loyalty eingesetzt.Mit der Kohortenanalyse wird ein Datenset zu Analysezwecken in verschiedene Gruppen aufgeteilt, die ähnliche Charakteristiken (Kohorten) aufweisen. Diese Analysetechnik wird zum Beispiel genutzt, um Kundensegmente zu analysieren.Mit Hilfe der Clusteranalyse lassen sich Objekte klassifizieren und in sogenannten Clustern zusammenfassen. Diese Technik kann dazu genutzt werden, bestimmte Strukturen in Daten aufzudecken. Versicherungsunternehmen könnten so zum Beispiel ermitteln, warum sich bestimmte Schadensfälle an spezifischen Orten häufen.Auch die Zeitreihenanalyse ist eine Technik aus der Statistik, die zur Analyse von Zeitreihen und für Trendanalysen genutzt wird. Sie kommt vorwiegend für Forecasts in den Bereichen Wirtschaft und Sales zum Einsatz.Bei der Sentimentanalyse kommen Tools wie Natural Language Processing oder Textanalyse zum Einsatz, um die Intention hinter den Daten “herauszulesen”. Während die anderen hier aufgeführten Techniken sich auf die Analyse von quantitiven Daten beschränken, interpretiert und klassifiziert die Sentimentanalyse qualitative Daten, indem sie sie in “Themes” ordnet. Diese Art der Analyse kommt regelmäßig zum Einsatz, um die Meinungen der Kunden zu bestimmten Marken, Produkten oder Services zu ermitteln.Data Analytics – BegriffsabgrenzungData Analytics vs. Data AnalysisDie beiden Begriffe werden häufig synonym gebraucht, allerdings ist die Data Analysis eine Unterkategorie von Data Analytics, die die Untersuchung, Bereinigung und Modellierung von Daten beschreibt, um daraus Schlüsse zu ziehen. Data Analytics beinhaltet die Tools und Techniken, die bei der Data Analysis zur Anwendung kommen.Data Analytics vs. Data ScienceData Analytics und Data Science sind eng verwandte Disziplinen, wobei erstgenannte eine Komponente der Datenwissenschaft darstellt. Die Ergebnisse von Data Analytics werden im Regelfall in Form von Reports und Visualisierungen präsentiert. Data Analytics beschreibt den aktuellen oder historischen Zustand der Realität, wohingegen Data Science diese Daten nutzt, um Vorhersagen oder Rückschlüsse für die Zukunft daraus zu ziehen.Data Analytics vs. Business AnalyticsAuch Business Analytics ist eine Unterkategorie von Data Analytics. Sie nutzt Datenanalysetechniken wie Data Mining, um optimierte Geschäftsentscheidungen herbeizuführen. Gartner definiert Business Analytics als “Lösungen, die mit Analysemodellen und Simulationen Szenarien kreieren, mit denen die Realität verstanden und die Zukunft vorhergesagt werden kann”.Data Analytics – BeispieleUnternehmen aus allen Branchen nutzen Data Analytics, um ihre Prozesse zu optimieren, ihre Gewinne zu steigern und ihre eigene Transformation voranzutreiben. Im Folgenden drei Beispiele.Zalando: ING: Adidas: 

Was ist Data Analytics?​ Data Analytics legt die Grundlage für optimierte Geschäftsprozesse und -entscheidungen. Das sollten Sie zum Thema wissen.
Foto: Oleksii Lishchyshyn – shutterstock.comGeht es darum, Geschäftsprozesse zu analysieren und auszubilden, sowie bessere Entscheidungen zu treffen und Ergebnisse zu erzielen, führt kein Weg mehr an Data Analytics vorbei.Data Analytics – DefinitionBei Data Analytics geht es darum, Erkenntnisse aus Daten zu extrahieren. Der Begriff umfasst dabei sämtliche Prozesse, Werkzeuge und Techniken, die zu diesem Zweck zum Einsatz kommen. Er beinhaltet auch das Sammeln, Organisieren und Speichern der Daten. Das wesentliche Ziel von Data Analytics ist es, mit Hilfe von Technologie und statistischen Analysen Trends zu ermitteln und Probleme zu lösen.Beeinflusst wird der Data-Analytics-Bereich dabei von zahlreichen anderen Wissenschaften, beispielsweise der Informatik, Mathematik und Statistik. Die Analyse von Daten soll die Performance beschreiben, vorhersagen und letztendlich optimieren. Damit das zuverlässig funktioniert, bringen Data-Analytics-Teams zahlreiche verschiedene Datenmanagement-Techniken zum Einsatz, beispielsweise Data Mining, Data Cleansing, Data Modeling und andere.Data Analytics – MethodenEs gibt vier unterschiedliche Data-Analytics-Methoden:“Was ist in der Vergangenheit passiert?” und “Was passiert jetzt gerade” sind die entscheidenden Fragen bei Descriptive Analytics. Entsprechend werden aktuelle und historische Daten aus verschiedenen Quellen analysiert, um den Status Quo zu beschreiben und Trends und Muster in den Daten zu erkennen.Bei Diagnostic Analytics geht es um die Frage “Warum passiert das gerade?”. Die Daten die hierbei genutzt werden, sind oft das Ergebnis von Descriptive Analytics. Ermittelt werden sollen hierbei Faktoren beziehungsweise Gründe für bestimmte historische Leistungswerte. “Was wird in Zukunft geschehen?” ist die Frage, um die sich alles bei Predictive Analytics dreht. Hierbei kommen unter anderem Techniken aus der Statistik sowie Deep- und Machine Learning zum Einsatz, um die Ergebnisse von Descriptive und Diagnostic Analytics zu verwerten und auf dieser Grundlage zukünftige Ergebnisse vorherzusagen. Predictive Analytics wird oft auch als Unterkategorie von Advanced Analytics bezeichnet.Auch Prescriptive Analytics ist eine Unterkategorie von Advanced Analytics und konzentriert sich auf die Frage: “Was muss getan werden, um das Ziel zu erreichen?”. Prescriptive-Analytics-Lösungen nutzen Algorithmen, Application Testing, Machine Learning und andere Techniken, um Lösungen zu ermitteln, die zu definierten Ergebnissen führen.Data Analytics – TechnikenUm Daten zu analysieren, bringen Data Analysts eine ganze Reihe von Techniken und Methoden zum Einsatz. Laut Emily Stevens, Managing Editor beim US-Karriereportal Career Foundry, sind das die sieben populärsten:Bei der Regressionsanalyse wird ein Set von statistischen Prozessen dazu genutzt, die Beziehungen zwischen Variablen einzuschätzen. Dabei geht es auch darum, herauszufinden, wie sich Veränderungen an einer oder mehreren Variablen aufeinander auswirken. Zum Beispiel könnte es dabei um die Frage gehen, wie sich Social-Media-Investitionen auf das Sales-Geschäft auswirken.Mit der Monte-Carlo-Simulation kann die Wahrscheinlichkeit bestimmter Ergebnisse bestimmt werden, die wegen der Verflechtung vieler unterschiedlicher Variablen nur schwer vorherzusagen sind. Sie kommt regelmäßig bei der Risikoanalyse zur Anwendung.Die Faktorenanalyse ist eine statistische Methode, um große Datenmengen zu komprimieren. Das birgt den Vorteil, dass dabei oft versteckte Muster zum Vorschein kommen. Im Business-Umfeld wird die Faktorenanalyse zum Beispiel im Bereich Customer Loyalty eingesetzt.Mit der Kohortenanalyse wird ein Datenset zu Analysezwecken in verschiedene Gruppen aufgeteilt, die ähnliche Charakteristiken (Kohorten) aufweisen. Diese Analysetechnik wird zum Beispiel genutzt, um Kundensegmente zu analysieren.Mit Hilfe der Clusteranalyse lassen sich Objekte klassifizieren und in sogenannten Clustern zusammenfassen. Diese Technik kann dazu genutzt werden, bestimmte Strukturen in Daten aufzudecken. Versicherungsunternehmen könnten so zum Beispiel ermitteln, warum sich bestimmte Schadensfälle an spezifischen Orten häufen.Auch die Zeitreihenanalyse ist eine Technik aus der Statistik, die zur Analyse von Zeitreihen und für Trendanalysen genutzt wird. Sie kommt vorwiegend für Forecasts in den Bereichen Wirtschaft und Sales zum Einsatz.Bei der Sentimentanalyse kommen Tools wie Natural Language Processing oder Textanalyse zum Einsatz, um die Intention hinter den Daten “herauszulesen”. Während die anderen hier aufgeführten Techniken sich auf die Analyse von quantitiven Daten beschränken, interpretiert und klassifiziert die Sentimentanalyse qualitative Daten, indem sie sie in “Themes” ordnet. Diese Art der Analyse kommt regelmäßig zum Einsatz, um die Meinungen der Kunden zu bestimmten Marken, Produkten oder Services zu ermitteln.Data Analytics – BegriffsabgrenzungData Analytics vs. Data AnalysisDie beiden Begriffe werden häufig synonym gebraucht, allerdings ist die Data Analysis eine Unterkategorie von Data Analytics, die die Untersuchung, Bereinigung und Modellierung von Daten beschreibt, um daraus Schlüsse zu ziehen. Data Analytics beinhaltet die Tools und Techniken, die bei der Data Analysis zur Anwendung kommen.Data Analytics vs. Data ScienceData Analytics und Data Science sind eng verwandte Disziplinen, wobei erstgenannte eine Komponente der Datenwissenschaft darstellt. Die Ergebnisse von Data Analytics werden im Regelfall in Form von Reports und Visualisierungen präsentiert. Data Analytics beschreibt den aktuellen oder historischen Zustand der Realität, wohingegen Data Science diese Daten nutzt, um Vorhersagen oder Rückschlüsse für die Zukunft daraus zu ziehen.Data Analytics vs. Business AnalyticsAuch Business Analytics ist eine Unterkategorie von Data Analytics. Sie nutzt Datenanalysetechniken wie Data Mining, um optimierte Geschäftsentscheidungen herbeizuführen. Gartner definiert Business Analytics als “Lösungen, die mit Analysemodellen und Simulationen Szenarien kreieren, mit denen die Realität verstanden und die Zukunft vorhergesagt werden kann”.Data Analytics – BeispieleUnternehmen aus allen Branchen nutzen Data Analytics, um ihre Prozesse zu optimieren, ihre Gewinne zu steigern und ihre eigene Transformation voranzutreiben. Im Folgenden drei Beispiele.Zalando:

ING:

Adidas:

Was ist Data Analytics?​ Read More »

Windows 11: Ordner- und Dateipfad im Explorer kopieren​

Windows 11: Ordner- und Dateipfad im Explorer kopieren​

Allgemein

Pfad per Kontextmenü oder Tastatur kopieren Thomas Rieske Lösung: Vieles lässt sich unter Windows per Rechtsklick auf ein Objekt erledigen. Das gilt auch, wenn Sie einen Pfad in die Zwischenablage übernehmen wollen. Dazu starten Sie den Windows-Explorer und navigieren zu der jeweiligen Datei oder dem Ordner. Dann klicken Sie mit der rechten Maustaste darauf und wählen im Kontextmenü, das sich öffnet, den Eintrag Als Pfad kopieren. Das funktioniert übrigens ebenfalls mit mehreren markierten Elementen. Wenn Sie die Tastatur bevorzugen, führen Sie keinen Rechtsklick aus, sondern drücken stattdessen Strg + Shift + C. Kopieren über die Explorer-Toolbar Thomas Rieske Eine weitere Möglichkeit lässt sich über die Werkzeugleiste des Windows-Explorers erreichen. Zunächst markieren Sie wieder die betreffende Datei oder den Ordner. Danach klicken Sie auf die drei Punkte, die Sie im rechten Bereich der Toolbar finden. Im Menü, das daraufhin angezeigt wird, wählen Sie den Befehl Pfad kopieren. Sonderfall Desktop-Verknüpfung Thomas Rieske Etwas kniffliger wird es bei einer Verknüpfung auf dem Desktop. Hier können Sie nicht immer sofort den kompletten Pfad zur entsprechenden Datei erkennen oder gar kopieren. Auch in dem Fall hilft es, als Erstes per Rechtsklick auf die Verknüpfung das Kontextmenü aufzurufen. Anschließend ist jedoch ein Umweg notwendig, denn bei einer Programmverknüpfung führt der Befehl Als Pfad kopieren nicht zum EXE-File. Wählen Sie stattdessen den Eintrag Dateipfad öffnen. Danach landen Sie im Windows-Explorer, wo die entsprechende Datei bereits markiert ist. Sie können nun mit den beiden oben beschriebenen Methoden den Pfad kopieren. Eigenschaften einer Desktop-Verknüpfung öffnen Thomas Rieske Falls Sie den Umweg über den Explorer scheuen, gibt es eine Alternative. Hierzu öffnen Sie ebenfalls zunächst das Kontextmenü der Verknüpfung und wählen den Punkt Eigenschaften. Oder Sie markieren den Desktop-Link und drücken Alt + Enter. Zielpfad kopieren Thomas Rieske Anschließend öffnet sich eine Dialogbox, die verschiedene Registerkarten enthält. Klicken Sie darin gegebenenfalls erst auf den Tab Verknüpfung. Dann wechseln Sie zum Feld Ziel, markieren den Inhalt und befördern ihn, etwa per Strg + C, in die Zwischenablage. Ganz gleich, welche Kopiermethode Sie nutzen: Von der Zwischenablage aus lässt sich der Pfad zum Beispiel mit der Tastenkombination Strg + V einfach an anderer Stelle einfügen, etwa in einen Text-Editor. Produkte: Der Trick funktioniert mit allen aktuellen Versionen von Windows 11. 

Windows 11: Ordner- und Dateipfad im Explorer kopieren​ Pfad per Kontextmenü oder Tastatur kopieren

Thomas Rieske

Lösung: Vieles lässt sich unter Windows per Rechtsklick auf ein Objekt erledigen. Das gilt auch, wenn Sie einen Pfad in die Zwischenablage übernehmen wollen. Dazu starten Sie den Windows-Explorer und navigieren zu der jeweiligen Datei oder dem Ordner. Dann klicken Sie mit der rechten Maustaste darauf und wählen im Kontextmenü, das sich öffnet, den Eintrag Als Pfad kopieren. Das funktioniert übrigens ebenfalls mit mehreren markierten Elementen. Wenn Sie die Tastatur bevorzugen, führen Sie keinen Rechtsklick aus, sondern drücken stattdessen Strg + Shift + C.

Kopieren über die Explorer-Toolbar

Thomas Rieske

Eine weitere Möglichkeit lässt sich über die Werkzeugleiste des Windows-Explorers erreichen. Zunächst markieren Sie wieder die betreffende Datei oder den Ordner. Danach klicken Sie auf die drei Punkte, die Sie im rechten Bereich der Toolbar finden. Im Menü, das daraufhin angezeigt wird, wählen Sie den Befehl Pfad kopieren.

Sonderfall Desktop-Verknüpfung

Thomas Rieske

Etwas kniffliger wird es bei einer Verknüpfung auf dem Desktop. Hier können Sie nicht immer sofort den kompletten Pfad zur entsprechenden Datei erkennen oder gar kopieren. Auch in dem Fall hilft es, als Erstes per Rechtsklick auf die Verknüpfung das Kontextmenü aufzurufen. Anschließend ist jedoch ein Umweg notwendig, denn bei einer Programmverknüpfung führt der Befehl Als Pfad kopieren nicht zum EXE-File. Wählen Sie stattdessen den Eintrag Dateipfad öffnen. Danach landen Sie im Windows-Explorer, wo die entsprechende Datei bereits markiert ist. Sie können nun mit den beiden oben beschriebenen Methoden den Pfad kopieren.

Eigenschaften einer Desktop-Verknüpfung öffnen

Thomas Rieske

Falls Sie den Umweg über den Explorer scheuen, gibt es eine Alternative. Hierzu öffnen Sie ebenfalls zunächst das Kontextmenü der Verknüpfung und wählen den Punkt Eigenschaften. Oder Sie markieren den Desktop-Link und drücken Alt + Enter.

Zielpfad kopieren

Thomas Rieske

Anschließend öffnet sich eine Dialogbox, die verschiedene Registerkarten enthält. Klicken Sie darin gegebenenfalls erst auf den Tab Verknüpfung. Dann wechseln Sie zum Feld Ziel, markieren den Inhalt und befördern ihn, etwa per Strg + C, in die Zwischenablage.

Ganz gleich, welche Kopiermethode Sie nutzen: Von der Zwischenablage aus lässt sich der Pfad zum Beispiel mit der Tastenkombination Strg + V einfach an anderer Stelle einfügen, etwa in einen Text-Editor.

Produkte: Der Trick funktioniert mit allen aktuellen Versionen von Windows 11.

Windows 11: Ordner- und Dateipfad im Explorer kopieren​ Read More »

Windows 11: Sudo-Befehl aktivieren​

Windows 11: Sudo-Befehl aktivieren​

Allgemein

Aktivieren über die Einstellungen Thomas Rieske Lösung: Standardmäßig ist Sudo ab Windows 11 24H2 an Bord. Dieses Release dürfte ab Oktober 2024 allgemein zur Verfügung stehen. Wer das Tool jetzt schon ausprobieren will, benötigt eine Insider-Version. Aber auch hier müssen Sie zunächst die Windows-Einstellungen aufrufen, etwa über das erweiterte Startmenü, das Sie per Rechtsklick auf den Start-Button erreichen. Alternativ drücken Sie die Tastenkombination Windows + i. System-Bereich aufrufen Thomas Rieske Sie befinden sich anschließend auf der Startseite der Einstellungen-App. Navigieren Sie nun auf der linken Seite zur Kategorie System. Entwickler-Seite öffnen Thomas Rieske Danach geht es im rechten Teil des Fensters weiter. Hier müssen Sie gegebenenfalls etwas nach unten scrollen, bevor der Bereich Für Entwickler angezeigt wird, zu dem Sie nun wechseln. Schalter umlegen Thomas Rieske Als letzten Punkt vor dem Abschnitt Dev Drive sehen Sie jetzt die Option sudo aktivieren. Klicken Sie auf den daneben angeordneten Schalter, der sich standardmäßig in der Aus-Position befindet. Aktion bestätigen Thomas Rieske Anschließend meldet sich die Benutzerkontensteuerung. Deren Nachfrage beantworten Sie mit einem Klick auf den Ja-Button. Sudo-Konfiguration festlegen Thomas Rieske Sudo für Windows unterstützt derzeit drei verschiedene Konfigurationsoptionen. Diese lassen sich auswählen, indem Sie das Pulldown-Menü neben der neu hinzugekommenen Einstellung Konfigurieren, wie sudo Anwendungen ausführt öffnen. Vorgegeben ist In einem neuen Fenster. Das ist nach unseren Erfahrungen unpraktisch, da dieses Fenster nach dem Ausführen eines Befehls sofort wieder geschlossen wird. Meist fährt man daher mit Inline besser. Diese Konfiguration führt den per sudo angestoßenen Befehl im aktuellen Fenster aus, was am ehesten dem etwa von Linux bekannten Verhalten entspricht. Kommandozeile öffnen Thomas Rieske Um Sudo auszuprobieren, können Sie das Terminal oder bei Bedarf direkt die Eingabeaufforderung starten. Für Letzteres tippen Sie cmd in die Suchbox der Windows-Task-Leiste ein und klicken auf den entsprechenden Treffer. Sudo-Syntax Thomas Rieske Wenn Sie mit der Befehlssyntax noch nicht vertraut sind, tippen Sie einfach sudo ein und drücken die Enter-Taste. Anschließend werden die grundlegenden Befehle, Argumente und Optionen angezeigt. Eine etwas ausführlichere Übersicht bietet diese Microsoft-Learn-Seite. Befehle mit Sudo nutzen Thomas Rieske Um Sudo für Windows zu verwenden, stellen Sie sudo einfach dem Befehl voran, den Sie als Administrator ausführen wollen. Wenn Sie zum Beispiel den Benutzer MaxPower auf Ihrem System anlegen möchten, setzen Sie den Befehl sudo net user MaxPower /add ab. Erneute Sicherheitsabfrage Thomas Rieske Da Sie den Befehl durch das vorangestellte sudo als Admin ausführen, öffnet sich anschließend wieder die Dialogbox der Benutzerkontensteuerung. Erst nachdem Sie Ihr OK gegeben haben, führt Windows das gewünschte Kommando aus. Produkte: Der Trick funktioniert ab Windows 11, Version 24H2. 

Windows 11: Sudo-Befehl aktivieren​ Aktivieren über die Einstellungen

Thomas Rieske

Lösung: Standardmäßig ist Sudo ab Windows 11 24H2 an Bord. Dieses Release dürfte ab Oktober 2024 allgemein zur Verfügung stehen. Wer das Tool jetzt schon ausprobieren will, benötigt eine Insider-Version. Aber auch hier müssen Sie zunächst die Windows-Einstellungen aufrufen, etwa über das erweiterte Startmenü, das Sie per Rechtsklick auf den Start-Button erreichen. Alternativ drücken Sie die Tastenkombination Windows + i.

System-Bereich aufrufen

Thomas Rieske

Sie befinden sich anschließend auf der Startseite der Einstellungen-App. Navigieren Sie nun auf der linken Seite zur Kategorie System.

Entwickler-Seite öffnen

Thomas Rieske

Danach geht es im rechten Teil des Fensters weiter. Hier müssen Sie gegebenenfalls etwas nach unten scrollen, bevor der Bereich Für Entwickler angezeigt wird, zu dem Sie nun wechseln.

Schalter umlegen

Thomas Rieske

Als letzten Punkt vor dem Abschnitt Dev Drive sehen Sie jetzt die Option sudo aktivieren. Klicken Sie auf den daneben angeordneten Schalter, der sich standardmäßig in der Aus-Position befindet.

Aktion bestätigen

Thomas Rieske

Anschließend meldet sich die Benutzerkontensteuerung. Deren Nachfrage beantworten Sie mit einem Klick auf den Ja-Button.

Sudo-Konfiguration festlegen

Thomas Rieske

Sudo für Windows unterstützt derzeit drei verschiedene Konfigurationsoptionen. Diese lassen sich auswählen, indem Sie das Pulldown-Menü neben der neu hinzugekommenen Einstellung Konfigurieren, wie sudo Anwendungen ausführt öffnen. Vorgegeben ist In einem neuen Fenster. Das ist nach unseren Erfahrungen unpraktisch, da dieses Fenster nach dem Ausführen eines Befehls sofort wieder geschlossen wird. Meist fährt man daher mit Inline besser. Diese Konfiguration führt den per sudo angestoßenen Befehl im aktuellen Fenster aus, was am ehesten dem etwa von Linux bekannten Verhalten entspricht.

Kommandozeile öffnen

Thomas Rieske

Um Sudo auszuprobieren, können Sie das Terminal oder bei Bedarf direkt die Eingabeaufforderung starten. Für Letzteres tippen Sie cmd in die Suchbox der Windows-Task-Leiste ein und klicken auf den entsprechenden Treffer.

Sudo-Syntax

Thomas Rieske

Wenn Sie mit der Befehlssyntax noch nicht vertraut sind, tippen Sie einfach sudo ein und drücken die Enter-Taste. Anschließend werden die grundlegenden Befehle, Argumente und Optionen angezeigt. Eine etwas ausführlichere Übersicht bietet diese Microsoft-Learn-Seite.

Befehle mit Sudo nutzen

Thomas Rieske

Um Sudo für Windows zu verwenden, stellen Sie sudo einfach dem Befehl voran, den Sie als Administrator ausführen wollen. Wenn Sie zum Beispiel den Benutzer MaxPower auf Ihrem System anlegen möchten, setzen Sie den Befehl sudo net user MaxPower /add ab.

Erneute Sicherheitsabfrage

Thomas Rieske

Da Sie den Befehl durch das vorangestellte sudo als Admin ausführen, öffnet sich anschließend wieder die Dialogbox der Benutzerkontensteuerung. Erst nachdem Sie Ihr OK gegeben haben, führt Windows das gewünschte Kommando aus.

Produkte: Der Trick funktioniert ab Windows 11, Version 24H2.

Windows 11: Sudo-Befehl aktivieren​ Read More »

Was macht ein Solution Architect?​

Was macht ein Solution Architect?​

Allgemein

Solution Architects sind Brückenbauer mit IT-Fokus. Lesen Sie, welche Skills Sie dafür brauchen und mit welchem Gehalt Sie rechnen können. Foto: Kutlayev Dmitry – shutterstock.comUnternehmen, die ihre Geschäftsziele und -bedarfe mit IT-Produkten, -Services, Software und Infrastruktur in Einklang bringen wollen, kommen an einem Solution Architect nicht vorbei.Solution Architect – DefinitionEin Solution Architect ist dafür verantwortlich, die Business Needs eines Unternehmens zu evaluieren und zu bestimmen, wie die IT diese mit Hilfe von Software, Hardware und Infrastruktur unterfüttern kann. IT- und Geschäftsstrategie in Einklang zu bringen, gehört heutzutage zum guten Ton. Solution Architects erarbeiten, entwickeln und optimieren technische Lösungen, um das in der Praxis umsetzen zu können.Sie können darüber hinaus als Schaltstelle zwischen IT und Business fungieren, um sicherzustellen, dass alle auf das gleiche gemeinsame Ziel – die Lösung eines Geschäftsproblems – hinarbeiten. Dieser Prozess erfordert regelmäßiges Feedback und Anpassungen, nur so kommen am Ende ordentlich designte und problemlos implementierbare Lösungen heraus.Solution Architecture an sich umfasst Business-, System-, Informations-, Security-, Application- und Technology Architecture. Praktische Beispiele für Solution Architecture wären etwa die Entwicklung einer Cloud-Infrastruktur um das Effizienzlevel zu steigern, Microservices für E-Commerce einzubinden oder Security-Maßnahmen für Daten, Systeme und Netzwerke einzuziehen.Solution Architect – AufgabenDas Einsatzgebiet, auf dem sich Solution Architects bewegen, ist breit gefächert – die Anforderungen unterscheiden sich je nach Branche und Unternehmen. Dennoch gibt es einige allgemeingültige Verantwortlichkeiten, Skills und Qualifikationen:Brainstorming-Prozesse leiten, in denen es um die Entwicklung möglicher Lösungen für spezifische Business-Probleme geht;Chancen für Prozessoptimierungen erkennen;Testing-Anforderungen erarbeiten und dokumentieren;Möglichkeiten erkennen, in denen die IT Geschäftsziele unterstützen kann;Gezielte Kooperation mit den Fachbereichen, um IT-Strategien zu entwickeln und bestehende Implementierungen zu optimieren;Software und Services für alle Unternehmensbereiche entwickeln und migrieren;Skalierbare Lösungen und Produkte mit den Product und Delivery Teams entwickeln;Kommunikation und Konsultation mit/von Kunden und internen Stakeholdern, um passgenaue Lösungen zu entwickeln;Softwarearchitekten arbeiten mit Führungskräften, Managern und Mitarbeitern aus allen Unternehmensbereichen zusammen. Ein Solution Architect, der in einem Product Team arbeitet, kann auch mit Kunden in Berührung kommen und sollte daher in der Lage sein, diesen die Erwartungen und Erfordernisse verständlich darzulegen. In einem solchen Fall sollte er auch wissen, wie man die Kundenzufriedenheit managt und die richtige Erwartungshaltung mit Blick auf das Endprodukt vermittelt.Solution Architect – SkillsUm IT-Lösungen an den Geschäftszielen ausrichten zu können, sollten Solution Architects ausgeprägte Führungs- und Kommunikationsfähigkeiten genauso mitbringen, wie technisches und unternehmerisches Verständnis. Letzteres ist unabdingbar, damit die Lösungen zu den Zielen passen. Ersteres hingegen ist von Bedeutung, um den Gesamtprozess steuern zu können, der die Identifikation der wichtigsten Geschäftsziele und die Ermittlung der dazu passenden Lösungen beinhaltet.Ein Studium der Informatik (oder verwandten Gebieten) ist Grundvoraussetzung für einen Job als Solution Architect. Je nach Ausgestaltung der individuellen Rolle können auch Fähigkeiten in speziellen IT-Gebieten nötig werden, beispielsweise Netzwerkadministration oder Softwareentwicklung. Laut dem US-Karriereportal PayScale sind die folgenden technischen Skills im Job als Solution Architect besonders gefragt:Software-ArchitekturSystem-ArchitekturIT ConsultingEnterprise SolutionsCloud ComputingSAP Business WarehouseITILDatenbank-AdministrationApache KafkaServiceNowHardware-KonfigurationJavaScriptInformaticaIT-Sicherheit und -InfrastrukturSolution Architect – GehaltAus der Datenlage des Karriere-Spezialisten Stepstone geht hervor, dass das Durchschnittsgehalt für Solution Architects in Deutschland bei circa 69.800 Euro liegt. Die Gehaltsspanne liegt zwischen 61.300 und 82.200 Euro. 

Was macht ein Solution Architect?​ Solution Architects sind Brückenbauer mit IT-Fokus. Lesen Sie, welche Skills Sie dafür brauchen und mit welchem Gehalt Sie rechnen können.
Foto: Kutlayev Dmitry – shutterstock.comUnternehmen, die ihre Geschäftsziele und -bedarfe mit IT-Produkten, -Services, Software und Infrastruktur in Einklang bringen wollen, kommen an einem Solution Architect nicht vorbei.Solution Architect – DefinitionEin Solution Architect ist dafür verantwortlich, die Business Needs eines Unternehmens zu evaluieren und zu bestimmen, wie die IT diese mit Hilfe von Software, Hardware und Infrastruktur unterfüttern kann. IT- und Geschäftsstrategie in Einklang zu bringen, gehört heutzutage zum guten Ton. Solution Architects erarbeiten, entwickeln und optimieren technische Lösungen, um das in der Praxis umsetzen zu können.Sie können darüber hinaus als Schaltstelle zwischen IT und Business fungieren, um sicherzustellen, dass alle auf das gleiche gemeinsame Ziel – die Lösung eines Geschäftsproblems – hinarbeiten. Dieser Prozess erfordert regelmäßiges Feedback und Anpassungen, nur so kommen am Ende ordentlich designte und problemlos implementierbare Lösungen heraus.Solution Architecture an sich umfasst Business-, System-, Informations-, Security-, Application- und Technology Architecture. Praktische Beispiele für Solution Architecture wären etwa die Entwicklung einer Cloud-Infrastruktur um das Effizienzlevel zu steigern, Microservices für E-Commerce einzubinden oder Security-Maßnahmen für Daten, Systeme und Netzwerke einzuziehen.Solution Architect – AufgabenDas Einsatzgebiet, auf dem sich Solution Architects bewegen, ist breit gefächert – die Anforderungen unterscheiden sich je nach Branche und Unternehmen. Dennoch gibt es einige allgemeingültige Verantwortlichkeiten, Skills und Qualifikationen:Brainstorming-Prozesse leiten, in denen es um die Entwicklung möglicher Lösungen für spezifische Business-Probleme geht;Chancen für Prozessoptimierungen erkennen;Testing-Anforderungen erarbeiten und dokumentieren;Möglichkeiten erkennen, in denen die IT Geschäftsziele unterstützen kann;Gezielte Kooperation mit den Fachbereichen, um IT-Strategien zu entwickeln und bestehende Implementierungen zu optimieren;Software und Services für alle Unternehmensbereiche entwickeln und migrieren;Skalierbare Lösungen und Produkte mit den Product und Delivery Teams entwickeln;Kommunikation und Konsultation mit/von Kunden und internen Stakeholdern, um passgenaue Lösungen zu entwickeln;Softwarearchitekten arbeiten mit Führungskräften, Managern und Mitarbeitern aus allen Unternehmensbereichen zusammen. Ein Solution Architect, der in einem Product Team arbeitet, kann auch mit Kunden in Berührung kommen und sollte daher in der Lage sein, diesen die Erwartungen und Erfordernisse verständlich darzulegen. In einem solchen Fall sollte er auch wissen, wie man die Kundenzufriedenheit managt und die richtige Erwartungshaltung mit Blick auf das Endprodukt vermittelt.Solution Architect – SkillsUm IT-Lösungen an den Geschäftszielen ausrichten zu können, sollten Solution Architects ausgeprägte Führungs- und Kommunikationsfähigkeiten genauso mitbringen, wie technisches und unternehmerisches Verständnis. Letzteres ist unabdingbar, damit die Lösungen zu den Zielen passen. Ersteres hingegen ist von Bedeutung, um den Gesamtprozess steuern zu können, der die Identifikation der wichtigsten Geschäftsziele und die Ermittlung der dazu passenden Lösungen beinhaltet.Ein Studium der Informatik (oder verwandten Gebieten) ist Grundvoraussetzung für einen Job als Solution Architect. Je nach Ausgestaltung der individuellen Rolle können auch Fähigkeiten in speziellen IT-Gebieten nötig werden, beispielsweise Netzwerkadministration oder Softwareentwicklung. Laut dem US-Karriereportal PayScale sind die folgenden technischen Skills im Job als Solution Architect besonders gefragt:Software-ArchitekturSystem-ArchitekturIT ConsultingEnterprise SolutionsCloud ComputingSAP Business WarehouseITILDatenbank-AdministrationApache KafkaServiceNowHardware-KonfigurationJavaScriptInformaticaIT-Sicherheit und -InfrastrukturSolution Architect – GehaltAus der Datenlage des Karriere-Spezialisten Stepstone geht hervor, dass das Durchschnittsgehalt für Solution Architects in Deutschland bei circa 69.800 Euro liegt. Die Gehaltsspanne liegt zwischen 61.300 und 82.200 Euro.

Was macht ein Solution Architect?​ Read More »

So übertragen Sie Dateien drahtlos zwischen Android und Windows​

So übertragen Sie Dateien drahtlos zwischen Android und Windows​

Allgemein

AVM Wer Dateien drahtlos von seinem Android-Smartphone auf Windows übertragen möchte, kann zwischen einigen Kombinationen aus App und Tool wählen. Bekannt sind zum Beispiel der My Phone Explorer, der viele weitere Funktionen bietet, oder das Tool Send2Phone, das wie ein Messenger aufgebaut ist. Es geht aber auch ohne App auf dem Smartphone. Denn Google hat mit Quick Share (ehemals Nearby Share) ein Bordmittel in Android integriert. Der volle Funktionsumfang von Quick Share steht ab Android 13 zur Verfügung, grundsätzlich funktioniert das Tool aber schon ab Android 6. Wenn die Funktion auf dem Android-Smartphone noch Nearby Share heißt, können Sie sie trotzdem nutzen. Wichtig: Die beiden Geräte, die Dateien austauschen, benötigen Bluetooth und WLAN. Das Windows-Programm Quick Share von Google empfängt und versendet Dateien von und an Android-Smartphones. Voraussetzung sind Bluetooth und WLAN.IDG Quick Share konfigurieren: Damit Sie Dateien mittels Quick Share übertragen können, müssen Sie die Funktion aktivieren und konfigurieren. Wischen Sie dazu auf Ihrem Android-Smartphone vom oberen Bildschirmrand nach unten (ggf. zweimal) und wählen Sie „Quick Share“. Sollte die Funktion nicht erscheinen, wählen Sie das Stift-Symbol im Android-Menü und fügen Sie „Quick Share“ per Drag & Drop hinzu. Alternativ können Sie in den Einstellungen von Android nach „Quick Share“ suchen. In den Einstellungen der Funktion legen Sie fest, ob die Daten mit allen, nur mit Ihren Kontakten oder nur mit Ihren Geräten geteilt werden können. Dateien von Android nach Windows oder Android übertragen: Das Praktische an der „Quick Share“-Funktion ist, dass sie im Teilen-Menü von Android erscheint. Wählen Sie eine oder mehrere Dateien in einer beliebigen App aus, zum Beispiel in Files von Google oder in der Foto-App, und tippen Sie auf das Teilen-Symbol. Die Option „Quick Share“ erscheint. Ein Tipp darauf startet sofort die Suche nach anderen Geräten in der Nähe. Google selbst spricht von einer Entfernung von maximal fünf Metern zwischen den Geräten. Im Test konnten wir auch weiter entfernte Geräte verbinden. Die maximale Bluetooth-Reichweite haben wir allerdings nicht erreicht. srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/09/Bildschirmfoto-2024-09-27-um-10.20.59.png?quality=50&strip=all 2024w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bildschirmfoto-2024-09-27-um-10.20.59.png?resize=300%2C195&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bildschirmfoto-2024-09-27-um-10.20.59.png?resize=768%2C499&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bildschirmfoto-2024-09-27-um-10.20.59.png?resize=1024%2C665&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bildschirmfoto-2024-09-27-um-10.20.59.png?resize=1536%2C997&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bildschirmfoto-2024-09-27-um-10.20.59.png?resize=1074%2C697&quality=50&strip=all 1074w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bildschirmfoto-2024-09-27-um-10.20.59.png?resize=259%2C168&quality=50&strip=all 259w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bildschirmfoto-2024-09-27-um-10.20.59.png?resize=129%2C84&quality=50&strip=all 129w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bildschirmfoto-2024-09-27-um-10.20.59.png?resize=739%2C480&quality=50&strip=all 739w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bildschirmfoto-2024-09-27-um-10.20.59.png?resize=555%2C360&quality=50&strip=all 555w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bildschirmfoto-2024-09-27-um-10.20.59.png?resize=385%2C250&quality=50&strip=all 385w” width=”1024″ height=”665″ sizes=”(max-width: 1024px) 100vw, 1024px”>Mit dem Bordmittel Quick Share unter Android lassen sich Dateien einfach an andere Android-Smartphones oder Windows-PCs versenden. Sie finden es als Option hinter der Share-Funktion.IDG Unter Windows installieren Sie das Tool Quick Share von Google und starten es. In dem Programm geben Sie auch an, für wen das System sichtbar sein soll (alle, nur Ihre Kontakte oder nur Ihre Geräte). Wenn die Teilen-Anfrage vom Smartphone auf Ihrem PC ankommt, müssen Sie diese bestätigen und erhalten dann die Dateien. Umgekehrt funktioniert es ebenso von Android zu Android. 

So übertragen Sie Dateien drahtlos zwischen Android und Windows​ AVM

Wer Dateien drahtlos von seinem Android-Smartphone auf Windows übertragen möchte, kann zwischen einigen Kombinationen aus App und Tool wählen. Bekannt sind zum Beispiel der My Phone Explorer, der viele weitere Funktionen bietet, oder das Tool Send2Phone, das wie ein Messenger aufgebaut ist.

Es geht aber auch ohne App auf dem Smartphone. Denn Google hat mit Quick Share (ehemals Nearby Share) ein Bordmittel in Android integriert. Der volle Funktionsumfang von Quick Share steht ab Android 13 zur Verfügung, grundsätzlich funktioniert das Tool aber schon ab Android 6. Wenn die Funktion auf dem Android-Smartphone noch Nearby Share heißt, können Sie sie trotzdem nutzen.

Wichtig: Die beiden Geräte, die Dateien austauschen, benötigen Bluetooth und WLAN.

Das Windows-Programm Quick Share von Google empfängt und versendet Dateien von und an Android-Smartphones. Voraussetzung sind Bluetooth und WLAN.IDG

Quick Share konfigurieren: Damit Sie Dateien mittels Quick Share übertragen können, müssen Sie die Funktion aktivieren und konfigurieren. Wischen Sie dazu auf Ihrem Android-Smartphone vom oberen Bildschirmrand nach unten (ggf. zweimal) und wählen Sie „Quick Share“.

Sollte die Funktion nicht erscheinen, wählen Sie das Stift-Symbol im Android-Menü und fügen Sie „Quick Share“ per Drag & Drop hinzu. Alternativ können Sie in den Einstellungen von Android nach „Quick Share“ suchen. In den Einstellungen der Funktion legen Sie fest, ob die Daten mit allen, nur mit Ihren Kontakten oder nur mit Ihren Geräten geteilt werden können.

Dateien von Android nach Windows oder Android übertragen: Das Praktische an der „Quick Share“-Funktion ist, dass sie im Teilen-Menü von Android erscheint. Wählen Sie eine oder mehrere Dateien in einer beliebigen App aus, zum Beispiel in Files von Google oder in der Foto-App, und tippen Sie auf das Teilen-Symbol.

Die Option „Quick Share“ erscheint. Ein Tipp darauf startet sofort die Suche nach anderen Geräten in der Nähe. Google selbst spricht von einer Entfernung von maximal fünf Metern zwischen den Geräten. Im Test konnten wir auch weiter entfernte Geräte verbinden. Die maximale Bluetooth-Reichweite haben wir allerdings nicht erreicht.

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/09/Bildschirmfoto-2024-09-27-um-10.20.59.png?quality=50&strip=all 2024w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bildschirmfoto-2024-09-27-um-10.20.59.png?resize=300%2C195&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bildschirmfoto-2024-09-27-um-10.20.59.png?resize=768%2C499&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bildschirmfoto-2024-09-27-um-10.20.59.png?resize=1024%2C665&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bildschirmfoto-2024-09-27-um-10.20.59.png?resize=1536%2C997&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bildschirmfoto-2024-09-27-um-10.20.59.png?resize=1074%2C697&quality=50&strip=all 1074w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bildschirmfoto-2024-09-27-um-10.20.59.png?resize=259%2C168&quality=50&strip=all 259w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bildschirmfoto-2024-09-27-um-10.20.59.png?resize=129%2C84&quality=50&strip=all 129w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bildschirmfoto-2024-09-27-um-10.20.59.png?resize=739%2C480&quality=50&strip=all 739w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bildschirmfoto-2024-09-27-um-10.20.59.png?resize=555%2C360&quality=50&strip=all 555w, https://b2b-contenthub.com/wp-content/uploads/2024/09/Bildschirmfoto-2024-09-27-um-10.20.59.png?resize=385%2C250&quality=50&strip=all 385w” width=”1024″ height=”665″ sizes=”(max-width: 1024px) 100vw, 1024px”>Mit dem Bordmittel Quick Share unter Android lassen sich Dateien einfach an andere Android-Smartphones oder Windows-PCs versenden. Sie finden es als Option hinter der Share-Funktion.IDG

Unter Windows installieren Sie das Tool Quick Share von Google und starten es. In dem Programm geben Sie auch an, für wen das System sichtbar sein soll (alle, nur Ihre Kontakte oder nur Ihre Geräte). Wenn die Teilen-Anfrage vom Smartphone auf Ihrem PC ankommt, müssen Sie diese bestätigen und erhalten dann die Dateien. Umgekehrt funktioniert es ebenso von Android zu Android.

So übertragen Sie Dateien drahtlos zwischen Android und Windows​ Read More »

Warum ich von einem iPhone 15 Pro Max zu einem iPhone 16 Plus wechsle​

Warum ich von einem iPhone 15 Pro Max zu einem iPhone 16 Plus wechsle​

Allgemein

Apple Seit mehreren iPhone-Generationen besitze ich ein Pro-Modell. Zuerst war es die Größe – ich habe ein iPhone 13 Pro Max gekauft, als es noch keine Plus-Variante gab -, aber auch die anderen Funktionen: das Promotion-Display, die 5fach-Telekamera, der A17-Pro-Chip, Dynamic Island und so weiter. Ich habe nie wirklich in Erwägung gezogen, kein Pro-Modell zu kaufen… bis zu diesem Jahr. Zum ersten Mal seit dem iPhone 12 werde ich mir in diesem Jahr ein „normales“ iPhone kaufen, das iPhone 16 Plus. Dafür gibt es eine Reihe von Gründen, die ich weiter unten erläutern werde, aber der Hauptgrund für meine Entscheidung ist, dass die Pro-Funktionen umfangreicher sind, als ich sie brauche. Die größten exklusiven neuen Funktionen in diesem Jahr sind Dolby Vision mit bis zu 4K bei 120 fps und etwas größere Bildschirme – keines davon macht die höherwertigen iPhones für mich zu einem Muss. Natürlich wird meine Entscheidung in einigen Bereichen einen Rückschritt bedeuten, vor allem beim Display. Das iPhone 16 Plus hat zwar die gleiche Größe wie das iPhone 15 Pro Max, das es ersetzen wird, ich muss auf Pro Motion und das Always-On-Display verzichten. Um mich darauf vorzubereiten, habe ich beim iPhone 15 Pro Max Always-on schon mal ausgeschaltet und das Display auf 60 Hertz begrenzt (Einstellungen > Bedienungshilfen > Bewegung > Bildrate begrenzen) und es war nicht so schlimm, wie ich dachte. Nach einem Tag oder so habe ich kaum noch einen Unterschied bemerkt. Ansonsten sind die meisten der neuen Funktionen auch bei den Standardmodellen verfügbar, einschließlich der Kamerasteuerung und der neuen Fotostile. Und im Vergleich zu den Vorjahren unterscheiden sich die Pro- und die normalen Modelle nicht allzu sehr: Der Prozessor: Nach einem Generationswechsel bei den Modellen iPhone 15 und 14 verfügen die Modelle iPhone 16 und 16 Pro jeweils über einen A18-Chip. Der Hauptunterschied ist ein zusätzlicher GPU-Kern beim A18 Pro, die meisten Nutzer werden das kaum bemerken. Kamera: Bei den Standardmodellen gibt es immer noch kein Teleobjektiv, aber verbaut ist jetzt eine 48-MP-Fusion-Kamera, dazu gibt es zahlreiche neue Funktionen, darunter räumliche Fotos und Videos und die neuesten fotografischen Stile. Der größte Unterschied gegenüber den Standardmodellen ist jedoch der hervorragende Makromodus von Apple, der seit Jahren exklusiv den Pro-Modellen vorbehalten war. Das Display: Die Pro-Modelle erhalten immer etwas größere Displays und verfügen weiterhin über Pro-Motion-Displays mit einer Bildwiederholrate von bis zu 120 Hertz als exklusives Merkmal der High-End-Smartphones. Wie ich oben schon sagte, ist die adaptive Bildwiederholung nett, aber die 60-Hertz-Bildschirme von Apple sind immer noch ziemlich gut. Und alle iPhones erhalten in diesem Jahr die einzige neue Funktion: Die Helligkeit geht bis auf 1 Nit herunter. Das Design: Auch in diesem Jahr sind die iPhone-16-Pro-Modelle aus Titan und nicht aus Aluminium wie bei den Standardmodellen. (Allerdings sind die Plus-Modelle immer noch etwas schwerer als die Standard-Modelle). Der Look ist dem von 2023 sehr ähnlich, aber die Standardmodelle haben eine viel kleinere und feinere Kameraanordnung. Farben: Die Pro-Farben sind wieder einmal sehr eintönig und langweilig, während die Standard-Modelle viel hellere Farbtöne erhalten. Ich habe ein iPhone 16 in Teal – Blaugrün – bestellt. Nachdem ich in den letzten zwölf Monaten ein iPhone 15 Pro in Natural Titanium genutzt hatte, freue ich mich auf etwas Farbe. Ansonsten sind die iPhones im Wesentlichen gleich: 5G, schnelleres Magsafe-Laden und natürlich die Apple Intelligence – so sie verfügbar ist, was in der EU noch dauern wird. Apple hat den Abstand zwischen den Standard- und den Pro-Smartphpnes in diesem Jahr deutlich verringert, und obwohl ich einige Pro-Funktionen vermissen werde, hat das iPhone 16 Plus fast alles, was ich brauche. Also werde ich das Standard-iPhone ein Jahr lang ausprobieren. Und dabei ein paar hundert Euro sparen. Was beim Umstieg von iPhone 14 Pro auf iPhone 15 gefehlt hat – und was nicht Die Erfahrungen von Michael Simon hat in vor etwa einem Jahr unser Kollege Peter Müller schon gemacht, als er von iPhone 14 Pro auf iPhone 15 umstieg. Sein Erfahrungsbericht wäre wohl ein anderer geworden oder gar nicht erst entstanden, wenn schon vor einem Jahr das Pro einen Fünffachzoom gehabt hätte – die Max-Version ist ihm einfach zu groß und zu teuer. Nur eine Sache vermisst er auch heute noch – diese Lücke würde nicht einmal das iPhone 16 schließen: Das Always-On-Display ist schon schick. (Macwelt) 

Warum ich von einem iPhone 15 Pro Max zu einem iPhone 16 Plus wechsle​ Apple

Seit mehreren iPhone-Generationen besitze ich ein Pro-Modell. Zuerst war es die Größe – ich habe ein iPhone 13 Pro Max gekauft, als es noch keine Plus-Variante gab -, aber auch die anderen Funktionen: das Promotion-Display, die 5fach-Telekamera, der A17-Pro-Chip, Dynamic Island und so weiter. Ich habe nie wirklich in Erwägung gezogen, kein Pro-Modell zu kaufen… bis zu diesem Jahr.

Zum ersten Mal seit dem iPhone 12 werde ich mir in diesem Jahr ein „normales“ iPhone kaufen, das iPhone 16 Plus. Dafür gibt es eine Reihe von Gründen, die ich weiter unten erläutern werde, aber der Hauptgrund für meine Entscheidung ist, dass die Pro-Funktionen umfangreicher sind, als ich sie brauche. Die größten exklusiven neuen Funktionen in diesem Jahr sind Dolby Vision mit bis zu 4K bei 120 fps und etwas größere Bildschirme – keines davon macht die höherwertigen iPhones für mich zu einem Muss.

Natürlich wird meine Entscheidung in einigen Bereichen einen Rückschritt bedeuten, vor allem beim Display. Das iPhone 16 Plus hat zwar die gleiche Größe wie das iPhone 15 Pro Max, das es ersetzen wird, ich muss auf Pro Motion und das Always-On-Display verzichten. Um mich darauf vorzubereiten, habe ich beim iPhone 15 Pro Max Always-on schon mal ausgeschaltet und das Display auf 60 Hertz begrenzt (Einstellungen > Bedienungshilfen > Bewegung > Bildrate begrenzen) und es war nicht so schlimm, wie ich dachte. Nach einem Tag oder so habe ich kaum noch einen Unterschied bemerkt.

Ansonsten sind die meisten der neuen Funktionen auch bei den Standardmodellen verfügbar, einschließlich der Kamerasteuerung und der neuen Fotostile. Und im Vergleich zu den Vorjahren unterscheiden sich die Pro- und die normalen Modelle nicht allzu sehr:

Der Prozessor: Nach einem Generationswechsel bei den Modellen iPhone 15 und 14 verfügen die Modelle iPhone 16 und 16 Pro jeweils über einen A18-Chip. Der Hauptunterschied ist ein zusätzlicher GPU-Kern beim A18 Pro, die meisten Nutzer werden das kaum bemerken.

Kamera: Bei den Standardmodellen gibt es immer noch kein Teleobjektiv, aber verbaut ist jetzt eine 48-MP-Fusion-Kamera, dazu gibt es zahlreiche neue Funktionen, darunter räumliche Fotos und Videos und die neuesten fotografischen Stile. Der größte Unterschied gegenüber den Standardmodellen ist jedoch der hervorragende Makromodus von Apple, der seit Jahren exklusiv den Pro-Modellen vorbehalten war.

Das Display: Die Pro-Modelle erhalten immer etwas größere Displays und verfügen weiterhin über Pro-Motion-Displays mit einer Bildwiederholrate von bis zu 120 Hertz als exklusives Merkmal der High-End-Smartphones. Wie ich oben schon sagte, ist die adaptive Bildwiederholung nett, aber die 60-Hertz-Bildschirme von Apple sind immer noch ziemlich gut. Und alle iPhones erhalten in diesem Jahr die einzige neue Funktion: Die Helligkeit geht bis auf 1 Nit herunter.

Das Design: Auch in diesem Jahr sind die iPhone-16-Pro-Modelle aus Titan und nicht aus Aluminium wie bei den Standardmodellen. (Allerdings sind die Plus-Modelle immer noch etwas schwerer als die Standard-Modelle). Der Look ist dem von 2023 sehr ähnlich, aber die Standardmodelle haben eine viel kleinere und feinere Kameraanordnung.

Farben: Die Pro-Farben sind wieder einmal sehr eintönig und langweilig, während die Standard-Modelle viel hellere Farbtöne erhalten. Ich habe ein iPhone 16 in Teal – Blaugrün – bestellt. Nachdem ich in den letzten zwölf Monaten ein iPhone 15 Pro in Natural Titanium genutzt hatte, freue ich mich auf etwas Farbe.

Ansonsten sind die iPhones im Wesentlichen gleich: 5G, schnelleres Magsafe-Laden und natürlich die Apple Intelligence – so sie verfügbar ist, was in der EU noch dauern wird. Apple hat den Abstand zwischen den Standard- und den Pro-Smartphpnes in diesem Jahr deutlich verringert, und obwohl ich einige Pro-Funktionen vermissen werde, hat das iPhone 16 Plus fast alles, was ich brauche. Also werde ich das Standard-iPhone ein Jahr lang ausprobieren. Und dabei ein paar hundert Euro sparen.

Was beim Umstieg von iPhone 14 Pro auf iPhone 15 gefehlt hat – und was nicht

Die Erfahrungen von Michael Simon hat in vor etwa einem Jahr unser Kollege Peter Müller schon gemacht, als er von iPhone 14 Pro auf iPhone 15 umstieg. Sein Erfahrungsbericht wäre wohl ein anderer geworden oder gar nicht erst entstanden, wenn schon vor einem Jahr das Pro einen Fünffachzoom gehabt hätte – die Max-Version ist ihm einfach zu groß und zu teuer. Nur eine Sache vermisst er auch heute noch – diese Lücke würde nicht einmal das iPhone 16 schließen: Das Always-On-Display ist schon schick. (Macwelt)

Warum ich von einem iPhone 15 Pro Max zu einem iPhone 16 Plus wechsle​ Read More »

Google Pixel 9 Pro vs Pixel 9 Pro XL: Welches Smartphone soll man kaufen?​

Google Pixel 9 Pro vs Pixel 9 Pro XL: Welches Smartphone soll man kaufen?​

Allgemein

Google Google hat vor einiger Zeit seine neuesten Smartphones der Pixel-9-Serie vorgestellt. Neben dem normalen Google Pixel 9 und Pixel 9 Pro gibt es auch die Version Pixel 9 Pro XL sowie das faltbare Pixel 9 Pro Fold. Das Pixel 9 ist das Basismodell, das Pixel 9 Pro Fold ist faltbar. Doch was ist der Unterschied zwischen den beiden Pro-Versionen? Beide bieten eine Reihe von hochmodernen Funktionen, unterscheiden sich jedoch in einigen wichtigen Aspekten, die Ihnen bei der Kaufentscheidung helfen werden. Nachfolgend finden Sie einen Vergleich des Pixel 9 Pro und 9 Pro XL, damit Sie wissen, welches Smartphone die bessere Wahl ist. Design Beide Smartphones sehen genau gleich aus, das Pro XL ist jedoch größer. Beide Modelle haben eine seidenmatte Rückseite mit einem polierten, flachen Metallrahmen, einen mittigen Lochausschnitt für die Selfie-Kamera und schmale Ränder. Auf der Rückseite befindet sich immer noch das bekannte Pixel-Design mit einer Kameraleiste, die jetzt aber nicht mehr bis zum Rand reicht, anders als beim Pixel 8 und Pixel 8 Pro. Die beiden Modelle sind mit Gorilla Glass Victus 2 auf der Vorder- und Rückseite versehen, was für zusätzliche Widerstandsfähigkeit sorgt. Überdies erfüllen beide Smartphones die Schutzklasse IP68 für Staub- und Wasserdichtigkeit. Beide Modelle sind in den Farben Porzellan, Obsidian, Haselnuss und Rosenquarz erhältlich. In Bezug auf die Bauweise unterscheiden sich die beiden Smartphones lediglich in Größe und Gewicht. Das Pixel 9 Pro misst 152,8 × 72,0 × 8,5 Millimeter, während das Pixel 9 Pro XL 162,8 × 76,6 × 8,5 Millimeter groß ist. Das Pixel 9 Pro wiegt 199 Gramm, das größere Pixel 9 Pro XL wiegt 221 Gramm. Display Die unterschiedlichen Abmessungen sorgen auch für unterschiedliche Display-Größen. Das Pixel 9 Pro hat ein 6,3-Zoll-Display mit einer Auflösung von 1.280 × 2.856 bei 495 ppi. Das Pixel 9 Pro XL hingegen verfügt über ein 6,8-Zoll-Display mit einer Auflösung von 1.344 × 2.992 bei 486 ppi. Bei beiden Bildschirmen handelt es sich um Super Actua LTPO OLED-Bildschirme mit einem Seitenverhältnis von 20:9, einer Bildwiederholfrequenz von 1 bis 120 Hertz und einer Helligkeit von bis zu 2000 Nits (HDR) und bis zu 3000 Nits (Spitzenhelligkeit). Leistung Unter der Haube werden sowohl das Pixel 9 Pro als auch das Pixel 9 Pro XL von Googles neuem Tensor G4-Chipsatz angetrieben, der auf der Exynos-Plattform von Samsung basiert. Dieser Prozessor verspricht deutliche Verbesserungen bei Geschwindigkeit, Effizienz und KI-Fähigkeiten. Er ist gepaart mit 16 Gigabyte RAM und 128 Gigabyte, 256 Gigabyte, 512 Gigabyte oder 1 Terabyte internem Speicher. Google Das Pixel 9 Pro XL mit seinem größeren Gehäuse könnte aufgrund der besseren Wärmeableitung einen Leistungsvorteil haben, wodurch es sich besser für intensive Aufgaben wie Spiele oder Videobearbeitung eignet. Dennoch sollte auch das Pixel 9 Pro trotz seiner geringeren Größe immer noch eine erstklassige Leistung bieten und einen reibungslosen und effizienten Betrieb für alltägliche Aufgaben und anspruchsvollere Anwendungen gewährleisten. Unseren ausführlichen Test zum Spitzenmodell Google Pixel 9 Pro XL finden Sie bereits bei uns. Kameras Beide Smartphones verfügen über die gleiche Kameraausstattung: eine 50 Megapixel Octa PD-Hauptkamera, eine 48 Megapixel Quad PD-Ultrawide-Kamera mit Autofokus und ein 48 Megapixel Quad PD-Teleobjektiv mit 5-fach optischem Zoom und Super Res (digitalem) Zoom bis zu 30x. Google Da beide Geräte auf die gleiche Hardware-Basis aufbauen, dürfte es auch keinen Unterschied zwischen den mit diesen Smartphones aufgenommenen Fotos geben. Und da das Pixel 8 Pro nach wie vor eines der besten Kamerahandys ist, das Sie kaufen können, können Sie auch hier wieder erstklassige Fotos erwarten. Akku & Laden Während das Pixel 9 Pro einen kleineren 4.700-Milliamperestunden-Akku hat, verfügt das Pixel 9 Pro XL über einen größeren 5.060-Milliamperestunden-Akku. Zum Vergleich: Das Pixel 8 Pro hat einen 5.050-Milliamperestunden-Akku. Google behauptet, dass Sie mit einer Akkulaufzeit von mehr als 24 Stunden rechnen können. Wenn der “Extreme Battery Saver”-Modus aktiviert ist, seien sogar bis zu 100 Stunden möglich. Nach Angaben des Unternehmens kann das Pixel 9 Pro in etwa 30 Minuten bis zu 55 Prozent aufgeladen werden. Das Pixel 9 Pro XL hingegen soll in etwa 30 Minuten bis zu 70 Prozent erreichen. Dafür ist ein kabelgebundenes 45-Watt-Ladegerät erforderlich, das nicht im Lieferumfang enthalten ist. Software Sowohl das Pixel 9 Pro als auch das Pixel 9 Pro XL werden mit Android 14 ausgeliefert. Beide Modelle werden jedoch zu den ersten gehören, die Updates erhalten, einschließlich des kommenden Android 15. Außerdem werden auf beiden Geräten sieben Jahre lang Betriebssystem- und Sicherheitsupdates garantiert. Google Der Tensor G4-Chip in beiden Geräten verbessert KI-Funktionen wie Magic Compose, Text-zu-Bild-Konvertierung und fortschrittliche Fotobearbeitungstools und sorgt dafür, dass die Nutzer die KI-gesteuerten Möglichkeiten von Google voll ausschöpfen können. Es gibt also keine Unterschiede zwischen beiden Modellen, was die Softwarefunktionen angeht. Preis & Verfügbarkeit Der Preis für das Pixel 9 Pro beginnt bei 1.099 Euro für die Version mit 128 Gigabyte Speicher. Es gibt auch ein Modell mit 256 Gigabyte, welches bei Amazon aktuell ebenfalls 1.099 Euro kostet. Das Modell mit 512 Gigabyte Speicher sorgt für einen Aufpreis von 100 Euro, bei Amazon ist es für 1.199 Euro erhältlich. Das Pixel 9 Pro XL kostet bei Amazon mit 128 oder 256 Gigabyte Speicher aktuell 1.199 Euro. Mit 512 Gigabyte Speicher steigt der Preis auf 1.299 Euro. Die Version mit 1 Terabyte Speicher ist mit 1.429 Euro noch einmal deutlich teurer. Wie Sie sehen können, ist die XL-Version in jeder Konfiguration etwa 100 Euro teurer als das reguläre Pixel 9 Pro. Google Sollten Sie das Pixel 9 Pro oder das Pixel 9 Pro XL kaufen? Die einzige Frage, die Sie sich bei der Wahl des Pixel 9 Pro oder Pixel 9 Pro XL stellen sollten, ist, ob Sie sich eher ein größeres oder ein kompakteres Gerät wünschen. Die einzigen Unterschiede zwischen diesen Smartphones sind die Größe des Bildschirms, die Akkukapazität, die Ladegeschwindigkeit (aufgrund der unterschiedlichen Akkugrößen) und vor allem der Preis. Wenn Geld also keine Rolle spielt und Sie größere Smartphones bevorzugen, sollten Sie das neue Pixel 9 Pro XL kaufen. Wenn Sie aber Wert auf ein kompakteres Smartphone legen oder einfach nur ein bisschen Geld sparen möchten, werden Sie mit dem normalen Pixel 9 Pro nicht viel verpassen. 

Google Pixel 9 Pro vs Pixel 9 Pro XL: Welches Smartphone soll man kaufen?​ Google

Google hat vor einiger Zeit seine neuesten Smartphones der Pixel-9-Serie vorgestellt. Neben dem normalen Google Pixel 9 und Pixel 9 Pro gibt es auch die Version Pixel 9 Pro XL sowie das faltbare Pixel 9 Pro Fold.

Das Pixel 9 ist das Basismodell, das Pixel 9 Pro Fold ist faltbar. Doch was ist der Unterschied zwischen den beiden Pro-Versionen? Beide bieten eine Reihe von hochmodernen Funktionen, unterscheiden sich jedoch in einigen wichtigen Aspekten, die Ihnen bei der Kaufentscheidung helfen werden.

Nachfolgend finden Sie einen Vergleich des Pixel 9 Pro und 9 Pro XL, damit Sie wissen, welches Smartphone die bessere Wahl ist.

Design

Beide Smartphones sehen genau gleich aus, das Pro XL ist jedoch größer.

Beide Modelle haben eine seidenmatte Rückseite mit einem polierten, flachen Metallrahmen, einen mittigen Lochausschnitt für die Selfie-Kamera und schmale Ränder. Auf der Rückseite befindet sich immer noch das bekannte Pixel-Design mit einer Kameraleiste, die jetzt aber nicht mehr bis zum Rand reicht, anders als beim Pixel 8 und Pixel 8 Pro.

Die beiden Modelle sind mit Gorilla Glass Victus 2 auf der Vorder- und Rückseite versehen, was für zusätzliche Widerstandsfähigkeit sorgt. Überdies erfüllen beide Smartphones die Schutzklasse IP68 für Staub- und Wasserdichtigkeit. Beide Modelle sind in den Farben Porzellan, Obsidian, Haselnuss und Rosenquarz erhältlich.

In Bezug auf die Bauweise unterscheiden sich die beiden Smartphones lediglich in Größe und Gewicht. Das Pixel 9 Pro misst 152,8 × 72,0 × 8,5 Millimeter, während das Pixel 9 Pro XL 162,8 × 76,6 × 8,5 Millimeter groß ist. Das Pixel 9 Pro wiegt 199 Gramm, das größere Pixel 9 Pro XL wiegt 221 Gramm.

Display

Die unterschiedlichen Abmessungen sorgen auch für unterschiedliche Display-Größen.

Das Pixel 9 Pro hat ein 6,3-Zoll-Display mit einer Auflösung von 1.280 × 2.856 bei 495 ppi. Das Pixel 9 Pro XL hingegen verfügt über ein 6,8-Zoll-Display mit einer Auflösung von 1.344 × 2.992 bei 486 ppi.

Bei beiden Bildschirmen handelt es sich um Super Actua LTPO OLED-Bildschirme mit einem Seitenverhältnis von 20:9, einer Bildwiederholfrequenz von 1 bis 120 Hertz und einer Helligkeit von bis zu 2000 Nits (HDR) und bis zu 3000 Nits (Spitzenhelligkeit).

Leistung

Unter der Haube werden sowohl das Pixel 9 Pro als auch das Pixel 9 Pro XL von Googles neuem Tensor G4-Chipsatz angetrieben, der auf der Exynos-Plattform von Samsung basiert. Dieser Prozessor verspricht deutliche Verbesserungen bei Geschwindigkeit, Effizienz und KI-Fähigkeiten.

Er ist gepaart mit 16 Gigabyte RAM und 128 Gigabyte, 256 Gigabyte, 512 Gigabyte oder 1 Terabyte internem Speicher.

Google

Das Pixel 9 Pro XL mit seinem größeren Gehäuse könnte aufgrund der besseren Wärmeableitung einen Leistungsvorteil haben, wodurch es sich besser für intensive Aufgaben wie Spiele oder Videobearbeitung eignet.

Dennoch sollte auch das Pixel 9 Pro trotz seiner geringeren Größe immer noch eine erstklassige Leistung bieten und einen reibungslosen und effizienten Betrieb für alltägliche Aufgaben und anspruchsvollere Anwendungen gewährleisten.

Unseren ausführlichen Test zum Spitzenmodell Google Pixel 9 Pro XL finden Sie bereits bei uns.

Kameras

Beide Smartphones verfügen über die gleiche Kameraausstattung: eine 50 Megapixel Octa PD-Hauptkamera, eine 48 Megapixel Quad PD-Ultrawide-Kamera mit Autofokus und ein 48 Megapixel Quad PD-Teleobjektiv mit 5-fach optischem Zoom und Super Res (digitalem) Zoom bis zu 30x.

Google

Da beide Geräte auf die gleiche Hardware-Basis aufbauen, dürfte es auch keinen Unterschied zwischen den mit diesen Smartphones aufgenommenen Fotos geben.

Und da das Pixel 8 Pro nach wie vor eines der besten Kamerahandys ist, das Sie kaufen können, können Sie auch hier wieder erstklassige Fotos erwarten.

Akku & Laden

Während das Pixel 9 Pro einen kleineren 4.700-Milliamperestunden-Akku hat, verfügt das Pixel 9 Pro XL über einen größeren 5.060-Milliamperestunden-Akku. Zum Vergleich: Das Pixel 8 Pro hat einen 5.050-Milliamperestunden-Akku.

Google behauptet, dass Sie mit einer Akkulaufzeit von mehr als 24 Stunden rechnen können. Wenn der “Extreme Battery Saver”-Modus aktiviert ist, seien sogar bis zu 100 Stunden möglich.

Nach Angaben des Unternehmens kann das Pixel 9 Pro in etwa 30 Minuten bis zu 55 Prozent aufgeladen werden. Das Pixel 9 Pro XL hingegen soll in etwa 30 Minuten bis zu 70 Prozent erreichen.

Dafür ist ein kabelgebundenes 45-Watt-Ladegerät erforderlich, das nicht im Lieferumfang enthalten ist.

Software

Sowohl das Pixel 9 Pro als auch das Pixel 9 Pro XL werden mit Android 14 ausgeliefert. Beide Modelle werden jedoch zu den ersten gehören, die Updates erhalten, einschließlich des kommenden Android 15. Außerdem werden auf beiden Geräten sieben Jahre lang Betriebssystem- und Sicherheitsupdates garantiert.

Google

Der Tensor G4-Chip in beiden Geräten verbessert KI-Funktionen wie Magic Compose, Text-zu-Bild-Konvertierung und fortschrittliche Fotobearbeitungstools und sorgt dafür, dass die Nutzer die KI-gesteuerten Möglichkeiten von Google voll ausschöpfen können.

Es gibt also keine Unterschiede zwischen beiden Modellen, was die Softwarefunktionen angeht.

Preis & Verfügbarkeit

Der Preis für das Pixel 9 Pro beginnt bei 1.099 Euro für die Version mit 128 Gigabyte Speicher. Es gibt auch ein Modell mit 256 Gigabyte, welches bei Amazon aktuell ebenfalls 1.099 Euro kostet. Das Modell mit 512 Gigabyte Speicher sorgt für einen Aufpreis von 100 Euro, bei Amazon ist es für 1.199 Euro erhältlich.

Das Pixel 9 Pro XL kostet bei Amazon mit 128 oder 256 Gigabyte Speicher aktuell 1.199 Euro. Mit 512 Gigabyte Speicher steigt der Preis auf 1.299 Euro. Die Version mit 1 Terabyte Speicher ist mit 1.429 Euro noch einmal deutlich teurer.

Wie Sie sehen können, ist die XL-Version in jeder Konfiguration etwa 100 Euro teurer als das reguläre Pixel 9 Pro.

Google

Sollten Sie das Pixel 9 Pro oder das Pixel 9 Pro XL kaufen?

Die einzige Frage, die Sie sich bei der Wahl des Pixel 9 Pro oder Pixel 9 Pro XL stellen sollten, ist, ob Sie sich eher ein größeres oder ein kompakteres Gerät wünschen.

Die einzigen Unterschiede zwischen diesen Smartphones sind die Größe des Bildschirms, die Akkukapazität, die Ladegeschwindigkeit (aufgrund der unterschiedlichen Akkugrößen) und vor allem der Preis.

Wenn Geld also keine Rolle spielt und Sie größere Smartphones bevorzugen, sollten Sie das neue Pixel 9 Pro XL kaufen. Wenn Sie aber Wert auf ein kompakteres Smartphone legen oder einfach nur ein bisschen Geld sparen möchten, werden Sie mit dem normalen Pixel 9 Pro nicht viel verpassen.

Google Pixel 9 Pro vs Pixel 9 Pro XL: Welches Smartphone soll man kaufen?​ Read More »

Metas Llama-Herde wächst​

Metas Llama-Herde wächst​

Allgemein

Am 25.09.2024 hat Meta die neuste Version 3.2 seines Llama Stacks veröffentlicht, in der mehrere Llama Stack-APIs gebündelt werden. Ziel ist es, die Entwicklung generativer KI-Anwendungen sowie grundsätzlich die Arbeit mit Llama Large Language Models (LLMs) in verschiedenen Umgebungen zu erleichtern. Doch woraus besteht der Stack und was kann er? Allgemein beinhaltet der Llama Stack folgende Schnittstellen (APIs): Schlussfolgerung Sicherheit Speicher Agentisches System Bewertung Post-Training Erzeugung synthetischer Daten Bewertung von Belohnungen Was Llama alles kann Zwei der größten Modelle der Llama 3.2-Kollektion, 11B und 90B, lassen sich dem Anbieter zufolge zum Beispiel im Bereich des sogenannten Image Reasoning anwenden. Dort sind sie dann zuständig für   das Verstehen von Dokumenten, einschließlich Diagrammen und Graphen, das Beschriften von Bildern und visuelle Aufgaben wie das gezielte Auffinden von Objekten in Bildern auf der Grundlage von Beschreibungen in natürlicher Sprache. Ein User könnte beispielsweise eine Frage stellen, in welchem Monat im vergangenen Jahr das eigene Unternehmen die besten Umsätze erzielt hatte. Llama 3.2 kann dann auf der Grundlage eines verfügbaren Diagramms Schlussfolgerungen ziehen und schnell die Antwort geben.  In einem anderen Beispiel könnte das Modell auf eine Karte zugreifen und Fragen beantworten, zum Beispiel an welchen Stellen einer Wanderung das Gelände steiler wird oder wie weit ein bestimmter Weg auf der Karte ist. Die Modelle 11B und 90B könnten den Meta-Verantwortlichen zufolge auch die Kluft zwischen Sehen und Sprechen überbrücken, indem sie Details aus einem Bild extrahieren, die Szene verstehen und dann einen oder zwei Sätze formulieren, die als Bildunterschrift verwendet werden können, um die abgebildete Geschichte zu erzählen. Der technische Unterbau Technisch gesehen setzt der Llama Stack hierbei auf verschiedene Bausteine, die  den gesamten Entwicklungszyklus umfassen, vom Modelltraining und der Feinabstimmung über die Produktevaluierung bis hin zum Aufbau und Betrieb von KI-Agenten und RAG-Anwendungen (Retrieval-Augmented Generation) in der Produktion. Immer mehr Anbieter Auf GitHub findet sich zudem ein Repository für die Llama Stack API-Spezifikationen.Meta möchte darüber hinaus auch weitere Anbieter für die Entwicklung von Llama Stack APIs gewinnen. Dadurch soll sichergestellt werden, dass Entwickler KI-Lösungen aus konsistenten, ineinandergreifenden Teilen plattformübergreifend zusammenstellen können. Die Llama Stack-Distributionen sollen es Entwicklern ermöglichen, mit Llama-Modellen in verschiedenen Umgebungen zu arbeiten. Hierzu zählen laut Meta On-Prem, Cloud, Single-Node und On-Device. Jede API besteht aus einer Sammlung von REST-Endpunkten. Die Einführung der Llama Stack-Distributionen erfolgt zeitgleich mit der Veröffentlichung von Meta’s Llama 3.2, das eine kleine und eine mittelgroße LLM-Version (11B und 90B) sowie leichtgewichtige, reine Textmodelle (1B und 3B) enthält, die auf Edge- und Mobilgeräte passen. 

Metas Llama-Herde wächst​ Am 25.09.2024 hat Meta die neuste Version 3.2 seines Llama Stacks veröffentlicht, in der mehrere Llama Stack-APIs gebündelt werden. Ziel ist es, die Entwicklung generativer KI-Anwendungen sowie grundsätzlich die Arbeit mit Llama Large Language Models (LLMs) in verschiedenen Umgebungen zu erleichtern.

Doch woraus besteht der Stack und was kann er?

Allgemein beinhaltet der Llama Stack folgende Schnittstellen (APIs):

Schlussfolgerung

Sicherheit

Speicher

Agentisches System

Bewertung

Post-Training

Erzeugung synthetischer Daten

Bewertung von Belohnungen

Was Llama alles kann

Zwei der größten Modelle der Llama 3.2-Kollektion, 11B und 90B, lassen sich dem Anbieter zufolge zum Beispiel im Bereich des sogenannten Image Reasoning anwenden. Dort sind sie dann zuständig für  

das Verstehen von Dokumenten, einschließlich Diagrammen und Graphen,

das Beschriften von Bildern und

visuelle Aufgaben wie das gezielte Auffinden von Objekten in Bildern auf der Grundlage von Beschreibungen in natürlicher Sprache.

Ein User könnte beispielsweise eine Frage stellen, in welchem Monat im vergangenen Jahr das eigene Unternehmen die besten Umsätze erzielt hatte. Llama 3.2 kann dann auf der Grundlage eines verfügbaren Diagramms Schlussfolgerungen ziehen und schnell die Antwort geben.

 In einem anderen Beispiel könnte das Modell auf eine Karte zugreifen und Fragen beantworten, zum Beispiel an welchen Stellen einer Wanderung das Gelände steiler wird oder wie weit ein bestimmter Weg auf der Karte ist.

Die Modelle 11B und 90B könnten den Meta-Verantwortlichen zufolge auch die Kluft zwischen Sehen und Sprechen überbrücken, indem sie Details aus einem Bild extrahieren, die Szene verstehen und dann einen oder zwei Sätze formulieren, die als Bildunterschrift verwendet werden können, um die abgebildete Geschichte zu erzählen.

Der technische Unterbau

Technisch gesehen setzt der Llama Stack hierbei auf verschiedene Bausteine, die  den gesamten Entwicklungszyklus umfassen, vom

Modelltraining und der Feinabstimmung

über die Produktevaluierung

bis hin zum Aufbau und Betrieb von KI-Agenten und RAG-Anwendungen (Retrieval-Augmented Generation) in der Produktion.

Immer mehr Anbieter

Auf GitHub findet sich zudem ein Repository für die Llama Stack API-Spezifikationen.Meta möchte darüber hinaus auch weitere Anbieter für die Entwicklung von Llama Stack APIs gewinnen. Dadurch soll sichergestellt werden, dass Entwickler KI-Lösungen aus konsistenten, ineinandergreifenden Teilen plattformübergreifend zusammenstellen können. Die Llama Stack-Distributionen sollen es Entwicklern ermöglichen, mit Llama-Modellen in verschiedenen Umgebungen zu arbeiten.

Hierzu zählen laut Meta On-Prem, Cloud, Single-Node und On-Device.

Jede API besteht aus einer Sammlung von REST-Endpunkten. Die Einführung der Llama Stack-Distributionen erfolgt zeitgleich mit der Veröffentlichung von Meta’s Llama 3.2, das eine kleine und eine mittelgroße LLM-Version (11B und 90B) sowie leichtgewichtige, reine Textmodelle (1B und 3B) enthält, die auf Edge- und Mobilgeräte passen.

Metas Llama-Herde wächst​ Read More »

Viele Amazon-Angestellte wollen weg​

Viele Amazon-Angestellte wollen weg​

Allgemein

Hinter den Kulissen rumort es bei Amazon. Viele Beschäftigte wollen nicht zurück ins Büro.Prathmesh T / Shutterstock Nachdem Amazon-Chef Andy Jassy angekündigt hatte, seine Angestellten wieder in die Büros zurückbeordern zu wollen, rumort es in der Belegschaft. Rund 350.000 Beschäftigte des weltgrößten Online-Händlers sollen ab 2025 wieder fünf Tage jede Woche im Firmen-Office arbeiten, so die Direktive des Chefs.  Die Anordnung aus Amazons Chefetage stößt jedoch bei den Mitarbeiterinnen und Mitarbeitern auf wenig Begeisterung. Im Gegenteil: Laut einer Umfrage von Blind, einem Forum für Angestellte aus der IT-Branche, sagten 91 Prozent der 2.585 befragten Amazon-Beschäftigten, sie seien mit der Entscheidung ihres Managements nicht einverstanden. Knapp drei Viertel (73 Prozent) gaben an, sie würden sich nach einem neuen Job umsehen.  „Die pauschale Return-to-Office- (RTO-)Politik ist verrückt, vor allem für diejenigen von uns, die remote arbeiten und weit weg von einem Büro eingestellt wurden“, äußerte ein Amazon-Mitarbeiter auf Blind. „Ich habe Kinder und Familie hier und bin daher nicht bereit, umzuziehen.“ Außerdem sei das Risiko zu groß, in ein paar Monaten entlassen zu werden. „Warum also einen Umzug riskieren?“ “Brauche keinen, der mir Regeln aufzwingt” Ein anderer Mitarbeiter sagte, er sei frustriert über die Ankündigung, wieder fünf Tage die Woche im Büro arbeiten zu müssen. Er sei aber gleichzeitig froh und dankbar, flexibel zu sein. „Ich habe keine Kinder, um die ich mich kümmern muss, und kann mein Leben leicht so gestalten, dass es meinen Bedürfnissen entspricht“, zitiert Blind den Mitarbeiter. „Entscheidungen wie die von Jassy sind ein wichtiger Grund, warum ich keine Kinder will. Ich brauche keine anderen, die mir Regeln aufzwingen, die meine Lebensqualität ruinieren.“  Die neuen Regeln dürften das Personal-Tableau bei Amazon also kräftig durchschütteln. Blind zufolge würden etliche Bewerber für Amazon-Jobs als Reaktion auf das bevorstehende Ende von Remote Work ihre laufenden Vorstellungsgespräche abbrechen. Ein Bewerber berichtete, ein Personalverantwortlicher von Amazon habe ihn innerhalb von 24 Stunden fünfmal angerufen und aufgefordert, seine Verfügbarkeit für ein Vorstellungsgespräch vor Ort mitzuteilen. „Ich habe den Personalverantwortlichen gefragt, warum sie es so eilig haben, neue Mitarbeiter einzustellen, und er sagte, dass die Personalverantwortlichen sauer sind, weil in den letzten 24 Stunden so viele Bewerber aus der Pipeline gefallen sind.“  Jassy: Teams sind im Office besser miteinander verbunden Amazon-CEO Jassy hatte am 16. September 2024 in einem Memo an die Belegschaft das Ende des in den vergangenen 15 Monaten gelebten Hybrid-Work- und Shared-Desk-Arbeitsmodells angekündigt. „Vor der Pandemie war es nicht selbstverständlich, dass die Leute zwei Tage pro Woche remote arbeiten konnten und das wird auch in Zukunft so bleiben“, schrieb er. Demnach sollen alle Amazon-Mitarbeiter ab dem 2. Januar 2025 fünf Tage die Woche das Büro aufsuchen – abgesehen von Notfällen und bereits vom Senior Management genehmigten Ausnahmen.  Vor der Pandemie sei es auch nicht selbstverständlich gewesen, dass die Leute zwei Tage pro Woche remote arbeiten konnten, sagt Amazon_CEO Andy Jassy.Bloomberg „Wir haben festgestellt, dass es für unsere Teamkollegen einfacher ist, unsere Kultur zu lernen, zu modellieren, zu praktizieren und zu stärken; Zusammenarbeit, Brainstorming und Innovationen sind einfacher und effektiver; das Lehren und Lernen voneinander ist nahtloser; und die Teams sind in der Regel besser miteinander verbunden“, begründete Jassy die Maßnahme. „Wenn überhaupt, haben die letzten 15 Monate, in denen wir mindestens drei Tage pro Woche wieder im Büro waren, uns von dessen Vorteilen überzeugt.”  width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/1zIzX2zyDVyU2gw07GJUO8?utm_source=oembed”> 

Viele Amazon-Angestellte wollen weg​ Hinter den Kulissen rumort es bei Amazon. Viele Beschäftigte wollen nicht zurück ins Büro.Prathmesh T / Shutterstock

Nachdem Amazon-Chef Andy Jassy angekündigt hatte, seine Angestellten wieder in die Büros zurückbeordern zu wollen, rumort es in der Belegschaft. Rund 350.000 Beschäftigte des weltgrößten Online-Händlers sollen ab 2025 wieder fünf Tage jede Woche im Firmen-Office arbeiten, so die Direktive des Chefs. 

Die Anordnung aus Amazons Chefetage stößt jedoch bei den Mitarbeiterinnen und Mitarbeitern auf wenig Begeisterung. Im Gegenteil: Laut einer Umfrage von Blind, einem Forum für Angestellte aus der IT-Branche, sagten 91 Prozent der 2.585 befragten Amazon-Beschäftigten, sie seien mit der Entscheidung ihres Managements nicht einverstanden. Knapp drei Viertel (73 Prozent) gaben an, sie würden sich nach einem neuen Job umsehen. 

„Die pauschale Return-to-Office- (RTO-)Politik ist verrückt, vor allem für diejenigen von uns, die remote arbeiten und weit weg von einem Büro eingestellt wurden“, äußerte ein Amazon-Mitarbeiter auf Blind. „Ich habe Kinder und Familie hier und bin daher nicht bereit, umzuziehen.“ Außerdem sei das Risiko zu groß, in ein paar Monaten entlassen zu werden. „Warum also einen Umzug riskieren?“

“Brauche keinen, der mir Regeln aufzwingt”

Ein anderer Mitarbeiter sagte, er sei frustriert über die Ankündigung, wieder fünf Tage die Woche im Büro arbeiten zu müssen. Er sei aber gleichzeitig froh und dankbar, flexibel zu sein. „Ich habe keine Kinder, um die ich mich kümmern muss, und kann mein Leben leicht so gestalten, dass es meinen Bedürfnissen entspricht“, zitiert Blind den Mitarbeiter. „Entscheidungen wie die von Jassy sind ein wichtiger Grund, warum ich keine Kinder will. Ich brauche keine anderen, die mir Regeln aufzwingen, die meine Lebensqualität ruinieren.“ 

Die neuen Regeln dürften das Personal-Tableau bei Amazon also kräftig durchschütteln. Blind zufolge würden etliche Bewerber für Amazon-Jobs als Reaktion auf das bevorstehende Ende von Remote Work ihre laufenden Vorstellungsgespräche abbrechen. Ein Bewerber berichtete, ein Personalverantwortlicher von Amazon habe ihn innerhalb von 24 Stunden fünfmal angerufen und aufgefordert, seine Verfügbarkeit für ein Vorstellungsgespräch vor Ort mitzuteilen. „Ich habe den Personalverantwortlichen gefragt, warum sie es so eilig haben, neue Mitarbeiter einzustellen, und er sagte, dass die Personalverantwortlichen sauer sind, weil in den letzten 24 Stunden so viele Bewerber aus der Pipeline gefallen sind.“ 

Jassy: Teams sind im Office besser miteinander verbunden

Amazon-CEO Jassy hatte am 16. September 2024 in einem Memo an die Belegschaft das Ende des in den vergangenen 15 Monaten gelebten Hybrid-Work- und Shared-Desk-Arbeitsmodells angekündigt. „Vor der Pandemie war es nicht selbstverständlich, dass die Leute zwei Tage pro Woche remote arbeiten konnten und das wird auch in Zukunft so bleiben“, schrieb er. Demnach sollen alle Amazon-Mitarbeiter ab dem 2. Januar 2025 fünf Tage die Woche das Büro aufsuchen – abgesehen von Notfällen und bereits vom Senior Management genehmigten Ausnahmen. 

Vor der Pandemie sei es auch nicht selbstverständlich gewesen, dass die Leute zwei Tage pro Woche remote arbeiten konnten, sagt Amazon_CEO Andy Jassy.Bloomberg

„Wir haben festgestellt, dass es für unsere Teamkollegen einfacher ist, unsere Kultur zu lernen, zu modellieren, zu praktizieren und zu stärken; Zusammenarbeit, Brainstorming und Innovationen sind einfacher und effektiver; das Lehren und Lernen voneinander ist nahtloser; und die Teams sind in der Regel besser miteinander verbunden“, begründete Jassy die Maßnahme. „Wenn überhaupt, haben die letzten 15 Monate, in denen wir mindestens drei Tage pro Woche wieder im Büro waren, uns von dessen Vorteilen überzeugt.” 

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/1zIzX2zyDVyU2gw07GJUO8?utm_source=oembed”>

Viele Amazon-Angestellte wollen weg​ Read More »

Integration Excellence​

Integration Excellence​

Allgemein

Wer Digitalisierungs- und Transformationsprojekte zum Erfolg führen will, benötigt einen Überblick über alle Schnittstellen. ra2 studio Digitalisierung, Cloud-Computing und Microservices-Architekturen haben die Zahl der Schnittstellen (Application Programming Interface, API) innerhalb und zwischen Applikationen rasant ansteigen lassen. API-Verzeichnisse wie ApisList, APIs.io oder Public API listen tausende öffentlicher Schnittstellen auf, weltweit gibt es mehr als 19 Millionen API-Entwickler. Mit knapp 30 Prozent Anteil an der gesamten Arbeitszeit ist das Programmieren von APIs zudem die Aufgabe, mit der Entwickler die meiste Zeit verbringen. Schnittstellen spielen aber nicht nur innerhalb und zwischen Anwendungen eine große Rolle, sondern auch in der Kommunikation mit Geschäftspartnern und Behörden. Anforderungen wie E-Invoicing oder das ESG-Reporting (Environmental, Social, Governance) lassen sich nur erfüllen, wenn geeignete Schnittstellen für die Datenübermittlung zur Verfügung stehen. Die große und stetig wachsende Zahl von APIs stellt Unternehmen allerdings vor große Herausforderungen. Eine zentrale Sicht auf alle Schnittstellen fehlt, die Dokumentation ist – wenn überhaupt vorhanden – oft unvollständig und veraltet, Qualitätssicherungsmaßnahmen und Validierungen existieren meist nur rudimentär, KPIs (Key Performance Indicator) wie Stabilität, Zuverlässigkeit und Robustheit von Schnittstellen lassen sich nur mit großer Mühe erfassen und überwachen. Wie gut ist Ihr Schnittstellenmanagement? Finden Sie es heraus mit dem Integration Excellence Maturity Assessment! Risiken mangelnder Schnittstellensichtbarkeit Ein fehlendes oder unzureichendes Schnittstellenmanagement kann zu einer ganzen Reihe von Problemen und Risiken führen. In Transformationsprojekten oder bei Übernahmen und Fusionen kommt es durch die mangelnde Übersicht über alle Schnittstellen zu Verzögerungen und zusätzlichen Kosten, weil zunächst alle Abhängigkeiten und Kommunikationswege innerhalb und zwischen den Applikationen analysiert werden müssen. Viele Unternehmen machen den Fehler, die Ergebnisse solcher Analysen nicht fortzuschreiben. Angesichts der enormen Dynamik und Veränderungsgeschwindigkeit sind die erhobenen Daten nach kurzer Zeit so veraltet, dass beim nächsten Projekt wieder von vorne begonnen werden muss. Mangelndes Schnittstellenmanagement führt auch im laufenden Betrieb zu Problemen. Werden Fehler, Inkonsistenzen, falsche oder unnötige Verknüpfungen zwischen Applikationen nicht erkannt, können ineffiziente Betriebsabläufe, Inkonsistenzen und Systemausfälle die Folge sein. Darüber hinaus gefährdet die fehlende Schnittstellentransparenz die Compliance und Sicherheit eines Unternehmens. Dem Open Worldwide Application Security Project (OWASP) zufolge gehört die fehlerhafte Authentifizierung und Autorisierung an den Schnittstellen zu den Top-Ten-Risiken bei der API-Nutzung, gefolgt von unbeschränkten Zugriffen auf Ressourcen und Geschäftsprozesse. Laut dem 2024 State of API Security Report nutzen 80 Prozent der Angreifer Sicherheitslücken aus der OWASP Top-Ten-Liste für Ihre Attacken. Middleware-Anwendungen lösen das Problem nur bedingt. Meist sind mehrere dieser Systeme im Einsatz, die jeweils nur einen Teil der Schnittstellen sehen und verwalten können. Hinzu kommen Punkt-zu-Punkt-Verbindungen, die von den Lösungen gar nicht erfasst werden. So bleiben blinde Flecken, die Schnittstellenlandschaft ist fragmentiert. In vier Schritten zur Integration Excellence Um diese Risiken zu minimieren und die Effizienz zu steigern, sollten Unternehmen ihr Schnittstellenmanagement auf folgende vier Säulen stellen: – Inventarisierung: Nur wenn alle Schnittstellen zentral erfasst sind, lassen sich die Abhängigkeiten und die Kommunikationswege innerhalb und zwischen Geschäftsprozessen nachvollziehen. Die Inventarliste muss kontinuierlich gepflegt werden, um beim Austausch einer Softwarekomponente, der Einführung neuer Lösungen, bei Fusionen und anderen Transformationsprojekten jederzeit den aktuellen Stand zu repräsentieren. Verknüpft man die Inventarinformationen mit Telemetriedaten aus der IT-Infrastruktur, lassen sich zudem instabile oder nicht mehr verwendete Schnittstellen schnell und sicher identifizieren. – Dokumentation: Eine ausführliche technische Beschreibung der verwendeten Schnittstellen sowie aller Änderungen erleichtert die Einarbeitung neuer Kollegen und trägt zum Wissenstransfer zwischen den Teams bei. Wie wichtig eine solche Dokumentation ist, zeigt sich spätestens, wenn ein Entwickler das Unternehmen verlässt. Undokumentierter Code ist in solchen Fällen nur noch schwer nachvollziehbar und kaum sinnvoll zu pflegen. – Qualitätssicherung: Während des Entwicklungsprozesses, aber auch im laufenden Betrieb sollten regelmäßig Qualitätskontrollen erfolgen. Werden beispielsweise Namenskonventionen eingehalten? Sind die Schnittstellen ausreichend dokumentiert? Sind alle Security- und Compliance-Anforderungen erfüllt? – Reporting: Um Aussagen über die Auslastung von Systemen und Applikationen machen zu können, muss der Verkehr zwischen den Schnittstellen erfasst und in regelmäßigen Reports dokumentiert werden. Keine Integration Excellence ohne Automatisierung Diese Aufgaben manuell zu erledigen, ist weder personell noch finanziell machbar. Unternehmen sollten daher eine vollautomatische Inventarisierung aller Schnittstellen einführen, wie sie beispielsweise das WHINT® Integration Cockpit bietet. Mit dem WHINT® Integration Cockpit können Schnittstellen vollautomatisch inventarisiert werden. whitepaper.id GmbH Eine vollautomatische Inventarisierung bietet eine aktuelle Sicht auf alle Integrationsprozesse und erlaubt es, jederzeit Transformationsprojekte, Analysen oder Optimierungen durchführen zu können. Die gewonnene Transparenz ermöglicht zudem eine verursachergerechte Leistungsverrechnung. EAM-Systeme (Enterprise Architecture Management) wie LeanIX, Hopex oder LUY können zudem automatisch aktualisiert werden. Integration Excellence ist ein Wettbewerbsfaktor Mit der zunehmenden Digitalisierung aller Geschäftsprozesse werden Schnittstellen in und zwischen Anwendungen sowie zu Geschäftspartnern und Behörden immer wichtiger. Die Zahl der APIs nimmt daher stetig zu. Unternehmen müssen die Komplexität ihrer Schnittstellenlandschaft beherrschen und den Überblick behalten, um Transformations- und Fusionsprojekte schnell durchführen, die Betriebseffizienz steigern und Sicherheitsrisiken minimieren zu können. Wie weit sind Sie auf diesem Weg schon gekommen? Finden Sie es heraus mit dem kostenlosen und unverbindlichen Integration Excellence Maturity Assessment. Es prüft Ihre Integration Excellence in den fünf Bereichen „Governance und Strategie“, „Organisation“, „Transparenz“, „Change-Management“ und „Betriebsmodell“. Bestimmen Sie jetzt den Reifegrad Ihres Unternehmens – hier geht’s zum Assessment. 

Integration Excellence​ Wer Digitalisierungs- und Transformationsprojekte zum Erfolg führen will, benötigt einen Überblick über alle Schnittstellen.
ra2 studio

Digitalisierung, Cloud-Computing und Microservices-Architekturen haben die Zahl der Schnittstellen (Application Programming Interface, API) innerhalb und zwischen Applikationen rasant ansteigen lassen. API-Verzeichnisse wie ApisList, APIs.io oder Public API listen tausende öffentlicher Schnittstellen auf, weltweit gibt es mehr als 19 Millionen API-Entwickler. Mit knapp 30 Prozent Anteil an der gesamten Arbeitszeit ist das Programmieren von APIs zudem die Aufgabe, mit der Entwickler die meiste Zeit verbringen.

Schnittstellen spielen aber nicht nur innerhalb und zwischen Anwendungen eine große Rolle, sondern auch in der Kommunikation mit Geschäftspartnern und Behörden. Anforderungen wie E-Invoicing oder das ESG-Reporting (Environmental, Social, Governance) lassen sich nur erfüllen, wenn geeignete Schnittstellen für die Datenübermittlung zur Verfügung stehen.

Die große und stetig wachsende Zahl von APIs stellt Unternehmen allerdings vor große Herausforderungen. Eine zentrale Sicht auf alle Schnittstellen fehlt, die Dokumentation ist – wenn überhaupt vorhanden – oft unvollständig und veraltet, Qualitätssicherungsmaßnahmen und Validierungen existieren meist nur rudimentär, KPIs (Key Performance Indicator) wie Stabilität, Zuverlässigkeit und Robustheit von Schnittstellen lassen sich nur mit großer Mühe erfassen und überwachen.

Wie gut ist Ihr Schnittstellenmanagement? Finden Sie es heraus mit dem Integration Excellence Maturity Assessment!

Risiken mangelnder Schnittstellensichtbarkeit

Ein fehlendes oder unzureichendes Schnittstellenmanagement kann zu einer ganzen Reihe von Problemen und Risiken führen. In Transformationsprojekten oder bei Übernahmen und Fusionen kommt es durch die mangelnde Übersicht über alle Schnittstellen zu Verzögerungen und zusätzlichen Kosten, weil zunächst alle Abhängigkeiten und Kommunikationswege innerhalb und zwischen den Applikationen analysiert werden müssen. Viele Unternehmen machen den Fehler, die Ergebnisse solcher Analysen nicht fortzuschreiben. Angesichts der enormen Dynamik und Veränderungsgeschwindigkeit sind die erhobenen Daten nach kurzer Zeit so veraltet, dass beim nächsten Projekt wieder von vorne begonnen werden muss.

Mangelndes Schnittstellenmanagement führt auch im laufenden Betrieb zu Problemen. Werden Fehler, Inkonsistenzen, falsche oder unnötige Verknüpfungen zwischen Applikationen nicht erkannt, können ineffiziente Betriebsabläufe, Inkonsistenzen und Systemausfälle die Folge sein.

Darüber hinaus gefährdet die fehlende Schnittstellentransparenz die Compliance und Sicherheit eines Unternehmens. Dem Open Worldwide Application Security Project (OWASP) zufolge gehört die fehlerhafte Authentifizierung und Autorisierung an den Schnittstellen zu den Top-Ten-Risiken bei der API-Nutzung, gefolgt von unbeschränkten Zugriffen auf Ressourcen und Geschäftsprozesse. Laut dem 2024 State of API Security Report nutzen 80 Prozent der Angreifer Sicherheitslücken aus der OWASP Top-Ten-Liste für Ihre Attacken.

Middleware-Anwendungen lösen das Problem nur bedingt. Meist sind mehrere dieser Systeme im Einsatz, die jeweils nur einen Teil der Schnittstellen sehen und verwalten können. Hinzu kommen Punkt-zu-Punkt-Verbindungen, die von den Lösungen gar nicht erfasst werden. So bleiben blinde Flecken, die Schnittstellenlandschaft ist fragmentiert.

In vier Schritten zur Integration Excellence

Um diese Risiken zu minimieren und die Effizienz zu steigern, sollten Unternehmen ihr Schnittstellenmanagement auf folgende vier Säulen stellen:

– Inventarisierung: Nur wenn alle Schnittstellen zentral erfasst sind, lassen sich die Abhängigkeiten und die Kommunikationswege innerhalb und zwischen Geschäftsprozessen nachvollziehen. Die Inventarliste muss kontinuierlich gepflegt werden, um beim Austausch einer Softwarekomponente, der Einführung neuer Lösungen, bei Fusionen und anderen Transformationsprojekten jederzeit den aktuellen Stand zu repräsentieren. Verknüpft man die Inventarinformationen mit Telemetriedaten aus der IT-Infrastruktur, lassen sich zudem instabile oder nicht mehr verwendete Schnittstellen schnell und sicher identifizieren.

– Dokumentation: Eine ausführliche technische Beschreibung der verwendeten Schnittstellen sowie aller Änderungen erleichtert die Einarbeitung neuer Kollegen und trägt zum Wissenstransfer zwischen den Teams bei. Wie wichtig eine solche Dokumentation ist, zeigt sich spätestens, wenn ein Entwickler das Unternehmen verlässt. Undokumentierter Code ist in solchen Fällen nur noch schwer nachvollziehbar und kaum sinnvoll zu pflegen.

– Qualitätssicherung: Während des Entwicklungsprozesses, aber auch im laufenden Betrieb sollten regelmäßig Qualitätskontrollen erfolgen. Werden beispielsweise Namenskonventionen eingehalten? Sind die Schnittstellen ausreichend dokumentiert? Sind alle Security- und Compliance-Anforderungen erfüllt?

– Reporting: Um Aussagen über die Auslastung von Systemen und Applikationen machen zu können, muss der Verkehr zwischen den Schnittstellen erfasst und in regelmäßigen Reports dokumentiert werden.

Keine Integration Excellence ohne Automatisierung

Diese Aufgaben manuell zu erledigen, ist weder personell noch finanziell machbar. Unternehmen sollten daher eine vollautomatische Inventarisierung aller Schnittstellen einführen, wie sie beispielsweise das WHINT® Integration Cockpit bietet.

Mit dem WHINT® Integration Cockpit können Schnittstellen vollautomatisch inventarisiert werden.
whitepaper.id GmbH

Eine vollautomatische Inventarisierung bietet eine aktuelle Sicht auf alle Integrationsprozesse und erlaubt es, jederzeit Transformationsprojekte, Analysen oder Optimierungen durchführen zu können. Die gewonnene Transparenz ermöglicht zudem eine verursachergerechte Leistungsverrechnung. EAM-Systeme (Enterprise Architecture Management) wie LeanIX, Hopex oder LUY können zudem automatisch aktualisiert werden.

Integration Excellence ist ein Wettbewerbsfaktor

Mit der zunehmenden Digitalisierung aller Geschäftsprozesse werden Schnittstellen in und zwischen Anwendungen sowie zu Geschäftspartnern und Behörden immer wichtiger. Die Zahl der APIs nimmt daher stetig zu. Unternehmen müssen die Komplexität ihrer Schnittstellenlandschaft beherrschen und den Überblick behalten, um Transformations- und Fusionsprojekte schnell durchführen, die Betriebseffizienz steigern und Sicherheitsrisiken minimieren zu können.

Wie weit sind Sie auf diesem Weg schon gekommen? Finden Sie es heraus mit dem kostenlosen und unverbindlichen Integration Excellence Maturity Assessment. Es prüft Ihre Integration Excellence in den fünf Bereichen „Governance und Strategie“, „Organisation“, „Transparenz“, „Change-Management“ und „Betriebsmodell“.

Bestimmen Sie jetzt den Reifegrad Ihres Unternehmens – hier geht’s zum Assessment.

Integration Excellence​ Read More »

Dell weitet Bürozwang aus​

Dell weitet Bürozwang aus​

Allgemein

Welcome back?ArieStudio | shutterstock.com Der IT-Riese Dell Technologies „beglückte“ seine Belegschaft bereits im Februar 2024 mit einer diskutablen Return-to-Office-Richtlinie. Diese sah mindestens drei Tage pro Woche im Office und einen Beförderungsstopp für Beschäftigte vor, die weiterhin remote arbeiten wollen. Unbeeindruckt von dem Unmut, den diese Maßnahme ausgelöst hat, legt Dell nun nach. Wie aus einem internen Memo hervorgeht, das auf Reddit veröffentlicht wurde, sollen die Sales-Mitarbeiter bei Dell auf globaler Ebene ab Ende September wieder Vollzeit ins Büro zurückkehren. >Dell is now 100% RTO, at least sales and sales operations byu/Sad_Marketing6577 inremotework Bürozwang statt Entlassung? „Um Energie nutzbar zu machen und Kompetenzen auszubauen, glauben wir, dass unsere Sales-Teams im Büro zusammenkommen müssen. Zudem zeigen unsere Daten, dass Vertriebs-Teams produktiver sind, wenn sie im Office arbeiten“, heißt es in der internen Mitteilung des Dell-Managements. In der Konsequenz, so der Konzern weiter, werde erwartet, dass sämtliche Mitglieder des globalen Sales-Teams, die die Möglichkeit haben, in einem Dell-Büro zu arbeiten, das ab dem 30. September wieder fünf Tage die Woche tun – unabhängig von ihrer Job-Rolle. Immerhin lässt das Dell-Management auch (leichte) empathische Ansätze erkennen: „Wir wissen, dass es Situationen geben wird, in denen Sie remote arbeiten müssen. Aber das sollte eher die Ausnahme als die Regel darstellen. Wir wissen auch, dass viele von Ihnen ihr Leben auf drei Tage im Büro ausgerichtet haben und vielleicht etwas Zeit brauchen, um sich an diese Veränderung anzupassen.“ Ob das die betroffenen Mitarbeiter vom neuerlichen Vollzeit-Bürozwang überzeugen kann, ist mindestens fraglich. Vielsagend stellt der IT-Riese in Aussicht, in den kommenden Wochen weitere Informationen für Remote Worker kommunizieren zu wollen. Die Ankündigung von Dell kommt nur wenige Tage, nachdem mit Amazon ein anderer Tech-Gigant angekündigt hatte, seine Belegschaft ab 2025 wieder zu fünf Tagen Büroanwesenheit pro Woche verpflichten zu wollen. Wie die Maßnahme bei den Beschäftigten ankommt, hat inzwischen Blind, ein Forum für IT-Spezialisten, im Rahmen einer Umfrage unter mehr als 2.500 Amazon-Mitarbeitern herausgefunden. Demnach: sind 91 Prozent der Befragten mit dem fünftägigen Bürozwang unzufrieden. erwägen 73 Prozent, sich wegen der Office-Richtlinie nach einem anderen Job umzusehen. Wie „The Register“ nach Gesprächen mit Dell-Mitarbeitern nahelegt, könnte die Ausweitung des Bürozwangs auf fünf Tage eine Strategie des Konzerns sein, um „die Notwendigkeit von Entlassungen zu reduzieren, indem genügend Mitarbeiter zur Kündigung getrieben werden“. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Dell weitet Bürozwang aus​ Welcome back?ArieStudio | shutterstock.com

Der IT-Riese Dell Technologies „beglückte“ seine Belegschaft bereits im Februar 2024 mit einer diskutablen Return-to-Office-Richtlinie. Diese sah mindestens drei Tage pro Woche im Office und einen Beförderungsstopp für Beschäftigte vor, die weiterhin remote arbeiten wollen.

Unbeeindruckt von dem Unmut, den diese Maßnahme ausgelöst hat, legt Dell nun nach. Wie aus einem internen Memo hervorgeht, das auf Reddit veröffentlicht wurde, sollen die Sales-Mitarbeiter bei Dell auf globaler Ebene ab Ende September wieder Vollzeit ins Büro zurückkehren.

>Dell is now 100% RTO, at least sales and sales operations byu/Sad_Marketing6577 inremotework

Bürozwang statt Entlassung?

„Um Energie nutzbar zu machen und Kompetenzen auszubauen, glauben wir, dass unsere Sales-Teams im Büro zusammenkommen müssen. Zudem zeigen unsere Daten, dass Vertriebs-Teams produktiver sind, wenn sie im Office arbeiten“, heißt es in der internen Mitteilung des Dell-Managements. In der Konsequenz, so der Konzern weiter, werde erwartet, dass sämtliche Mitglieder des globalen Sales-Teams, die die Möglichkeit haben, in einem Dell-Büro zu arbeiten, das ab dem 30. September wieder fünf Tage die Woche tun – unabhängig von ihrer Job-Rolle.

Immerhin lässt das Dell-Management auch (leichte) empathische Ansätze erkennen: „Wir wissen, dass es Situationen geben wird, in denen Sie remote arbeiten müssen. Aber das sollte eher die Ausnahme als die Regel darstellen. Wir wissen auch, dass viele von Ihnen ihr Leben auf drei Tage im Büro ausgerichtet haben und vielleicht etwas Zeit brauchen, um sich an diese Veränderung anzupassen.“

Ob das die betroffenen Mitarbeiter vom neuerlichen Vollzeit-Bürozwang überzeugen kann, ist mindestens fraglich. Vielsagend stellt der IT-Riese in Aussicht, in den kommenden Wochen weitere Informationen für Remote Worker kommunizieren zu wollen.

Die Ankündigung von Dell kommt nur wenige Tage, nachdem mit Amazon ein anderer Tech-Gigant angekündigt hatte, seine Belegschaft ab 2025 wieder zu fünf Tagen Büroanwesenheit pro Woche verpflichten zu wollen. Wie die Maßnahme bei den Beschäftigten ankommt, hat inzwischen Blind, ein Forum für IT-Spezialisten, im Rahmen einer Umfrage unter mehr als 2.500 Amazon-Mitarbeitern herausgefunden. Demnach:

sind 91 Prozent der Befragten mit dem fünftägigen Bürozwang unzufrieden.

erwägen 73 Prozent, sich wegen der Office-Richtlinie nach einem anderen Job umzusehen.

Wie „The Register“ nach Gesprächen mit Dell-Mitarbeitern nahelegt, könnte die Ausweitung des Bürozwangs auf fünf Tage eine Strategie des Konzerns sein, um „die Notwendigkeit von Entlassungen zu reduzieren, indem genügend Mitarbeiter zur Kündigung getrieben werden“.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Dell weitet Bürozwang aus​ Read More »

Was ist Data Governance?​

Was ist Data Governance?​

Allgemein

Wer die Hoheit über welche Daten besitzt, ist eine entscheidende Data-Governance-Frage. Das müssen Sie zum Thema wissen. Foto: Rena Schild – shutterstock.comUnternehmen, die das volle Potenzial von Big Data erschließen wollen, kommen an Datendemokratisierung nicht vorbei. Dabei ist entscheidend, dass nur Berechtigte Zugriff auf bestimmte Daten haben. Data Governance – DefinitionData Governance bezeichnet ein System, mit dem festgelegt wird, wer innerhalb einer Organisation die Autorität und Kontrolle über Datenbestände hat und wie diese Datenbestände verwendet werden dürfen. Das System umfasst die Personen, Prozesse und Technologien, die erforderlich sind, um die Daten sowie deren Wege in einem Unternehmen zu schützen und effizient zu verwalten.Das Data Governance Institute definiert es als “ein System von Entscheidungsrechten und Verantwortlichkeiten für informationsbezogene Prozesse, die nach vereinbarten Modellen ausgeführt werden, die beschreiben, wer welche Aktionen mit welchen Informationen wann, unter welchen Umständen und mit welchen Methoden ausführen darf”.Die Data Management Association (DAMA) International spricht von “Planung, Überwachung und Kontrolle der Verwaltung von Daten und der Nutzung von Daten und datenbezogenen Quellen”.Data Governance – FunktionIn Zeiten der Digitalisierung basieren ein Großteil der von Unternehmen getroffenen Entscheidungen auf der Analyse von Daten. Um jedoch das volle Potenzial von Big Data nutzen zu können, müssen sich Firmen verschiedenen Herausforderungen stellen. Dazu zählen unter anderem technische Defizite, begrenzte Leistungskapazitäten sowie fehlende Datenkompetenz. Das größte Problem ist hierbei jedoch, dass meist nur ausgewiesene Datenspezialisten, sogenannte Data Scientists, mit Daten arbeiten und damit das Gros der eigenen Mitarbeiter außen vor bleibt. Um dieses Problem zu lösen, wird Datendemokratisierung immer wichtiger. Datendemokratisierung bedeutet, dass möglichst viele Mitarbeiter Zugriff auf Daten bekommen. Ziel ist dabei, in der eigenen Arbeit produktiver und effizienter zu werden. Eine bessere Nutzung von Daten kann dabei der entscheidende Hebel sein.Genau an dieser Stelle kommt das System der Data Governance ins Spiel. Wer darf was wann und mit welchen Daten machen. All diese Fragen sollen sich durch Data Governance beantworten lassen, damit Daten weiterhin nur für befugte Personen zugänglich bleiben. Das ist insofern wichtig, weil Regelwerke wie die EU-DSGVO gerade der Nutzung von sensiblen Daten enge Grenzen setzen. Wer dagegen verstößt, dem drohen hohe Strafen. Hier soll Data Governance einen Beitrag leisten, die behördlichen Regularien einzuhalten.Data Governance vs. Data ManagementData Governance ist ein Teil des Datenmanagements, wenn auch ein wichtiger. Während es bei Data Governance um die Rollen, Verantwortlichkeiten und Prozesse zur Sicherstellung der Rechenschaft und des Eigentums an Datenbeständen geht, definiert DAMA Datenmanagement als “einen übergreifenden Begriff, der die Prozesse beschreibt, die zur Planung, Spezifikation, Aktivierung, Generierung, Beschaffung, Pflege, Verwendung, Archivierung, Abfrage, Kontrolle und Löschung von Daten verwendet werden”.Obwohl Datenmanagement ein gängiger Begriff für diese Disziplin geworden ist, wird sie manchmal auch als Datenressourcenmanagement oder Enterprise Information Management (EIM) bezeichnet. Gartner beschreibt EIM als “eine integrative Disziplin zur Strukturierung, Beschreibung und Verwaltung von Informationsbeständen über organisatorische und technische Grenzen hinweg, um die Effizienz zu verbessern, Transparenz zu fördern und Einblick in das Geschäft zu ermöglichen”.Data Governance – FrameworkData Governance kann man sich am besten als eine Art Set aus Funktionen, Regelwerk und Tools vorstellen, das die übergreifende Datenmanagement-Strategie einer Organisation unterstützt. Ein solches Framework bietet Unternehmen einen ganzheitlichen Ansatz für die Erfassung, Verwaltung, Sicherung und Speicherung von Daten. Um zu verstehen, was ein solches Framework umfassen sollte, stellen sich die Experten der DAMA das Datenmanagement als ein Rad vor, mit Data Governance als Knotenpunkt, von dem die folgenden zehn Bereiche des Datenmanagements ausgehen:Datenarchitektur: Die Gesamtstruktur von Daten und datenbezogenen Ressourcen als integraler Bestandteil der Unternehmensarchitektur;Datenmodellierung und -design: Analyse, Design, Aufbau, Test und Wartung;Datenspeicherung und -betrieb: Bereitstellung und Verwaltung von strukturierten physischen Datenspeichern;Datensicherheit: Sicherstellung von Datenschutz, Vertraulichkeit und angemessenem Zugriff;Datenintegration und Interoperabilität:Es klingelt an der Tür. Verschlucke mich vor Schreck an einem Hustenbonbon. Das Pizza-Abonnement ist heute aber früh dran. Sonst kommt er doch erst gegen 12 Uhr 15. Egal, dann mache ich eben jetzt Mittagspause und starte dann im Anschluss durch.Dokumente und Inhalte: Speichern, Schützen, Indizieren und Ermöglichen des Zugriffs auf Daten aus unstrukturierten Quellen sowie Bereitstellen dieser Daten für die Integration und Interoperabilität mit strukturierten Daten;Referenz- und Stammdaten: Verwaltung gemeinsam genutzter Daten, um Redundanzen zu reduzieren und eine bessere Datenqualität durch eine standardisierte Definition und damit ein einheitliches Verständnis von Daten sicherzustellen;Data Warehousing und Business Intelligence (BI): Verwaltung der analytischen Datenverarbeitung, um den Zugriff auf entscheidungsunterstützende Daten für Berichte und Analysen zu ermöglichen;Metadaten: Sammeln, Kategorisieren, Pflegen, Integrieren, Kontrollieren, Verwalten und Bereitstellen von Metadaten;Datenqualität: Definieren, Überwachen, Aufrechterhalten der Datenintegrität und Verbessern der Datenqualität.Beim Festlegen einer Datenstrategie sollte jede der oben genannten Facetten der Datensammlung, -verwaltung, -archivierung und -nutzung berücksichtigt werden.Das Business Application Research Center (BARC) warnt, dass es sich nicht um eine “Big-Bang-Initiative” handeln kann. Als hochkomplexes, fortlaufendes Programm läuft Data Governance Gefahr, dass die Beteiligten mit der Zeit Vertrauen und Interesse verlieren. Um dem entgegenzuwirken, empfiehlt BARC, mit einem überschaubaren oder anwendungsspezifischen Prototyp-Projekt zu beginnen. Anschließend können Erkenntnisse aus dem Projekt auf das gesamte Unternehmen ausgeweitet werden.BARC empfiehlt die folgenden Schritte zur Implementierung einer Data Governance:Ziele definieren und Nutzen verstehen;Ist-Zustand und Delta-Analyse analysieren;Eine Roadmap ableiten;Stakeholder überzeugen und Projekt budgetieren;Das Data-Governance-Programm entwickeln und planen;Das Data-Governance-Programm implementieren;Überwachen und steuern.Data Governance – ZieleDas Ziel ist es, die Methoden, Verantwortlichkeiten und Prozesse zu etablieren, um Unternehmensdaten zu standardisieren, zu integrieren, zu schützen und zu speichern. Laut BARC sollten die Hauptziele einer Organisation sein:Risiken zu minimieren;Interne Regeln für die Datennutzung aufzustellen;Compliance-Anforderungen umzusetzen;Interne sowie externe Kommunikation zu verbessern;den Wert der Daten zu erhöhen;Die Verwaltung zu erleichtern;Kosten zu reduzieren;Den Fortbestand des Unternehmens durch Risikomanagement und Optimierung zu sichernBARC weist darauf hin, dass solche Programme immer die strategische, taktische und operative Ebene in Unternehmen umfassen und als fortlaufende, iterative Prozesse behandelt werden müssen.Data Governance – VorteileDie meisten Unternehmen verfügen bereits über eine Form von Governance für einzelne Anwendungen, Geschäftsbereiche oder Funktionen. In der Praxis geht es darum, eine systematische, formal korrekte Kontrolle über diese Prozesse und Verantwortlichkeiten zu etablieren. Dies kann Unternehmen dabei helfen, reaktionsfähig zu bleiben, insbesondere wenn sie eine Größe erreichen, bei der es für einzelne Mitarbeiter zu unübersichtlich und damit nicht mehr effizient wird, funktionsübergreifende Aufgaben zu bewältigen. Mehrere Vorteile des Datenmanagements können erst dann realisiert werden, wenn das Unternehmen eine systematische Data Governance eingeführt hat. Einige dieser Vorteile beinhalten:Es klingelt an der Türe. Der Nachbar aus dem vierten Stock holt sein Paket ab. Der ist wirklich nett. Wir unterhalten uns kurz. Er hat´s derzeit beruflich auch nicht leicht.Klare Regeln für die Änderung von Prozessen und Daten, die dem Unternehmen und der IT helfen, agiler und skalierbarer zu werden;Geringere Kosten in anderen Bereichen der Datenverwaltung durch die Bereitstellung zentraler Kontrollmechanismen;Gesteigerte Effizienz durch die Möglichkeit der Wiederverwendung von Prozessen und Daten;Verbessertes Vertrauen in die Qualität der Daten und die Dokumentation der Datenprozesse;Verbesserte Compliance mit Datenvorschriften.Data Governance – Prinzipien Laut dem Data Governance Institute sollten folgende acht Prinzipien im Mittelpunkt eines erfolgreichen Data Governance- und Stewardship-Programms stehen:Alle Beteiligten müssen integer im Umgang miteinander sein. Sie müssen offen und ehrlich sein, wenn sie die Faktoren, Einschränkungen, Optionen und Auswirkungen von datenbezogenen Entscheidungen diskutieren.Data Governance- und Stewardship-Prozesse erfordern Transparenz. Es muss für alle Beteiligten und Auditoren klar sein, wie und wann datenbezogene Entscheidungen und Kontrollen in die Prozesse eingeführt wurden.Datenbezogene Entscheidungen, Prozesse und Kontrollen, die der Data Governance unterliegen, müssen überprüfbar sein. Sie müssen mit einer Dokumentation versehen sein, um die Anforderungen der Compliance und der betrieblichen Prüfung zu erfüllen.Sie müssen definieren, wer für funktionsübergreifende datenbezogene Entscheidungen, Prozesse und Kontrollen rechenschaftspflichtig ist.Sie müssen definieren, wer für Stewardship-Aktivitäten rechenschaftspflichtig ist, die in den Verantwortungsbereich einzelner Mitarbeiter und Gruppen von Datenverwaltern fallen.Die Programme müssen die Verantwortlichkeiten so definieren, dass ein gegenseitiges Kontrollsystem zwischen Geschäfts- und Technologie-Teams entsteht. Dies gilt gleichermaßen für diejenigen, die Daten anlegen/erfassen, diejenigen, die sie verwalten, diejenigen, die sie nutzen, und diejenigen, die Standards und Compliance-Anforderungen einführen.Das Programm muss die Standardisierung von Unternehmensdaten einführen und unterstützen.Programme müssen proaktives sowie reaktives Change Management für Referenzdatenwerte und die Struktur/Verwendung von Stammdaten und Metadaten unterstützen.Data Governance – RollenJedes Unternehmen setzt seine Data Governance anders zusammen, aber es gibt einige Gemeinsamkeiten.Steering CommitteeGovernance-Programme erstrecken sich über das gesamte Unternehmen und beginnen in der Regel mit einem Steuerungsgremium, das sich aus Mitgliedern des oberen Managements zusammensetzt. Oftmals handelt es sich dabei um Manager des C-Levels, die für verschiedene Geschäftsbereiche verantwortlich sind. Morgan Templar, Autor von “Get Governed: Building World Class Data Governance Programs“, beschreibt die Aufgaben der Mitglieder des Steering Committees folgendermaßen: Zu ihren Pflichten gehört es, die allgemeine Governance-Strategie mit spezifischen Ergebnissen festzulegen, die Arbeit der Data-Stewards zu unterstützen und die Governance-Organisation für die Einhaltung von Zeitplänen und Ergebnissen verantwortlich zu machen.Data OwnerLaut Templar sind Data Owner Personen, die dafür verantwortlich sind, dass die Informationen innerhalb einer bestimmten Datendomäne system- und bereichsübergreifend verwaltet werden. Sie sind in der Regel Mitglieder des Steuerungskomitees, auch wenn sie nicht stimmberechtigt sind. Dateneigentümer sind verantwortlich für:die Genehmigung von Datenglossaren und anderen Datendefinitionen;Sicherstellung der Richtigkeit von Informationen im gesamten Unternehmen;Direkte Datenqualitätsaktivitäten;Überprüfung und Genehmigung von Stammdatenmanagement-Ansätzen, -Ergebnissen und -Aktivitäten;Zusammenarbeit mit anderen Data Ownern zur Lösung von Datenproblemen;Second Level Review für von Data Stewards identifizierten Problemen;Bereitstellung von Input zu Softwarelösungen, Richtlinien oder regulatorischen Anforderungen für für das Steuerungskomitee.Data StewardData Stewards sind für die tägliche Verwaltung der Daten verantwortlich. Sie sind Fachexperten (Subject Matter Experts), die die Bedeutung und den Gebrauch von Daten verstehen und kommunizieren, sagt Templar. Darüber hinaus arbeiten sie mit anderen Data Stewards im gesamten Unternehmen zusammen und sind das leitende Organ für die meisten Datenentscheidungen. Data Stewards sind verantwortlich für:Subject Matter Experts für ihre Datendomäne zu sein;Identifizierung von Datenproblemen und Zusammenarbeit mit anderen Data Stewards, um diese zu lösen;Als Mitglied des Data Steward Councils zu handeln;Vorschlagen, Diskutieren und Abstimmen über Datenrichtlinien und Ausschussaktivitäten;Berichterstattung an den Dateneigentümer und andere Stakeholder innerhalb einer Datendomäne;Funktionsübergreifende Zusammenarbeit über Geschäftsbereiche hinweg, um sicherzustellen, dass die Daten des jeweiligen Bereichs verwaltet und verstanden werden.Data Governance – ToolsData Governance versteht sich zwar eher als eine Art fortlaufendes Programm. Doch auch dafür braucht es technische Unterstützung..Mittlerweile gibt es eine Reihe von Tools, die die Data Governance unterstützen können. Im Laufe der Zeit sind Marktbeobachtern zufolge die Tools für Data Management, Data Quality und Data Governance immer stärker zusammengewachsen, sodass aus den ursprünglichen Einzeldisziplinen komplette Suiten entstanden. Doch nicht jedes Tool kann für Ihr Unternehmen geeignet sein. Unterschiedliche Anforderungen und Budgets beeinflussen die Auswahl. Laut Berichten von Gartner gehören die folgenden Tools zu den beliebtesten Lösungen:Informatica Axon ist eine Sammelstelle und ein Datenmarktplatz für unterstützende Programme. Zu den wichtigsten Funktionen gehören ein kollaboratives Geschäftsglossar, die Möglichkeit, die Datenabfolge zu visualisieren und Datenqualitätsmessungen auf der Grundlage von Geschäftsdefinitionen zu generieren.IBM Cloud Pak for Data nutzt maschinelles Lernen, um Datenbestände zu sammeln und zu verwalten. Der integrierte Datenkatalog hilft Unternehmen, Daten zu finden, verwalten, zu analysieren, aufzubereiten und gemeinsam zu nutzen.Basierend auf der SAS-Plattform bietet SAS Data Management ein rollenbasiertes Graphical User Interface (GUI) für die Verwaltung von Prozessen und umfasst ein integriertes Business-Glossar, Metadatenmanagement sowie Lineage-Visualisierung.SAP Data Intelligence Cloud ist eine Lösung zur Datenorchestrierung, die Betriebe dabei unterstützt, alle Arten, Varianten und Mengen von Daten in Ihrer Datenlandschaft zu entdecken, zu verfeinern, anzureichern und zu verwalten. Das Tool unterstützt Unternehmen bei der Etablierung von Sicherheitseinstellungen und Identitätskontrollrichtlinien für Benutzer, Gruppen und Rollen sowie bei der Optimierung von Best Practices und Prozessen für die Richtlinienverwaltung und Sicherheitsprotokollierung.Zu den Herausforderern im Bereich IT-Solutions für Data Governance zählt Gartner Oracle, Experian und Innovative Systems. Außerdem gelten Ataccama, Information builders, MIOsoft sowie Infogix laut den Analysten als Visionäre. Auch eine Handvoll kleiner Startups, die Tools für Data Governance bereitstellen, sollte man laut Gartner als CIO durchaus im Blick behalten:Cinchy analysiert und gruppiert Anwendungen die mit Daten hantieren. Dabei geht es darum Datensilos aufzubrechen und Applikationen aus Datensicht miteinander zu integrieren. Das soll die Komplexität verringern und das Daten-Handling vereinfachen. Die Verantwortlichen von Cinchy definieren ihr Tool als Data Fabric, die Daten in den Mittelpunkt des Geschäftsbetriebs stellt.CluedIn bietet Lösungen für gängige Herausforderungen im Bereich Datenmanagement und -integration. Dazu gehören die Integration von Daten aus großen und komplexen Anwendungen, die Automatisierung der Datenaufbereitung, die Katalogisierung dieser Daten für das Unternehmen und die anschließende einfache und sichere gemeinsame Nutzung dieser Daten im gesamten UnternehmenInzata zielt darauf ab, den Wert von Daten durch erweiterte Profilierung, Strukturierung und Integration von Datenvielfalt zu erhöhen, um Insights zu unterstützen.TigerGraph ermöglicht Graph-Analysen für den Einsatz in Unternehmen. Seine GSQL-Sprache reduziert die Lernkurve für Benutzer, um Graph-Analysen durchzuführen, ohne die Leistung zu beeinträchtigen.Data Governance – ZertifizierungenMit der Datenschutzgrundverordnung hat die EU klare Regeln aufgestellt, wie Unternehmen mit Daten umzugehen haben. Die Verantwortlichen in den Betrieben müssen daher sicherstellen, dass jeder Umgang mit Daten regelkonform abläuft. Auch in diesem Bereich gibt es Spezialisten, die extern von Unternehmen wie SAP oder Verbänden wie der “Global Data Management Community” (DAMA) geschult werden. Nach erfolgreichem Abschluss erhalten die Teilnehmer ein Zertifikat, das Unternehmen helfen kann, einen den gesetzlichen Regelwerken entsprechenden Umgang mit Daten nachzuweisen und damit möglicherweise einen Vorteil im Wettbewerb zu erzielen. Zu den bekanntesten Zertifizierungen gehören:DAMA Certified Data Management Professional (CDMP);Fachmann für Datenverwaltung und -steuerung (DGSP);edX Unternehmensdatenmanagement;SAP Certified Application Associate – SAP Master Data Governance. 

Was ist Data Governance?​ Wer die Hoheit über welche Daten besitzt, ist eine entscheidende Data-Governance-Frage. Das müssen Sie zum Thema wissen.
Foto: Rena Schild – shutterstock.comUnternehmen, die das volle Potenzial von Big Data erschließen wollen, kommen an Datendemokratisierung nicht vorbei. Dabei ist entscheidend, dass nur Berechtigte Zugriff auf bestimmte Daten haben. Data Governance – DefinitionData Governance bezeichnet ein System, mit dem festgelegt wird, wer innerhalb einer Organisation die Autorität und Kontrolle über Datenbestände hat und wie diese Datenbestände verwendet werden dürfen. Das System umfasst die Personen, Prozesse und Technologien, die erforderlich sind, um die Daten sowie deren Wege in einem Unternehmen zu schützen und effizient zu verwalten.Das Data Governance Institute definiert es als “ein System von Entscheidungsrechten und Verantwortlichkeiten für informationsbezogene Prozesse, die nach vereinbarten Modellen ausgeführt werden, die beschreiben, wer welche Aktionen mit welchen Informationen wann, unter welchen Umständen und mit welchen Methoden ausführen darf”.Die Data Management Association (DAMA) International spricht von “Planung, Überwachung und Kontrolle der Verwaltung von Daten und der Nutzung von Daten und datenbezogenen Quellen”.Data Governance – FunktionIn Zeiten der Digitalisierung basieren ein Großteil der von Unternehmen getroffenen Entscheidungen auf der Analyse von Daten. Um jedoch das volle Potenzial von Big Data nutzen zu können, müssen sich Firmen verschiedenen Herausforderungen stellen. Dazu zählen unter anderem technische Defizite, begrenzte Leistungskapazitäten sowie fehlende Datenkompetenz. Das größte Problem ist hierbei jedoch, dass meist nur ausgewiesene Datenspezialisten, sogenannte Data Scientists, mit Daten arbeiten und damit das Gros der eigenen Mitarbeiter außen vor bleibt. Um dieses Problem zu lösen, wird Datendemokratisierung immer wichtiger. Datendemokratisierung bedeutet, dass möglichst viele Mitarbeiter Zugriff auf Daten bekommen. Ziel ist dabei, in der eigenen Arbeit produktiver und effizienter zu werden. Eine bessere Nutzung von Daten kann dabei der entscheidende Hebel sein.Genau an dieser Stelle kommt das System der Data Governance ins Spiel. Wer darf was wann und mit welchen Daten machen. All diese Fragen sollen sich durch Data Governance beantworten lassen, damit Daten weiterhin nur für befugte Personen zugänglich bleiben. Das ist insofern wichtig, weil Regelwerke wie die EU-DSGVO gerade der Nutzung von sensiblen Daten enge Grenzen setzen. Wer dagegen verstößt, dem drohen hohe Strafen. Hier soll Data Governance einen Beitrag leisten, die behördlichen Regularien einzuhalten.Data Governance vs. Data ManagementData Governance ist ein Teil des Datenmanagements, wenn auch ein wichtiger. Während es bei Data Governance um die Rollen, Verantwortlichkeiten und Prozesse zur Sicherstellung der Rechenschaft und des Eigentums an Datenbeständen geht, definiert DAMA Datenmanagement als “einen übergreifenden Begriff, der die Prozesse beschreibt, die zur Planung, Spezifikation, Aktivierung, Generierung, Beschaffung, Pflege, Verwendung, Archivierung, Abfrage, Kontrolle und Löschung von Daten verwendet werden”.Obwohl Datenmanagement ein gängiger Begriff für diese Disziplin geworden ist, wird sie manchmal auch als Datenressourcenmanagement oder Enterprise Information Management (EIM) bezeichnet. Gartner beschreibt EIM als “eine integrative Disziplin zur Strukturierung, Beschreibung und Verwaltung von Informationsbeständen über organisatorische und technische Grenzen hinweg, um die Effizienz zu verbessern, Transparenz zu fördern und Einblick in das Geschäft zu ermöglichen”.Data Governance – FrameworkData Governance kann man sich am besten als eine Art Set aus Funktionen, Regelwerk und Tools vorstellen, das die übergreifende Datenmanagement-Strategie einer Organisation unterstützt. Ein solches Framework bietet Unternehmen einen ganzheitlichen Ansatz für die Erfassung, Verwaltung, Sicherung und Speicherung von Daten. Um zu verstehen, was ein solches Framework umfassen sollte, stellen sich die Experten der DAMA das Datenmanagement als ein Rad vor, mit Data Governance als Knotenpunkt, von dem die folgenden zehn Bereiche des Datenmanagements ausgehen:Datenarchitektur: Die Gesamtstruktur von Daten und datenbezogenen Ressourcen als integraler Bestandteil der Unternehmensarchitektur;Datenmodellierung und -design: Analyse, Design, Aufbau, Test und Wartung;Datenspeicherung und -betrieb: Bereitstellung und Verwaltung von strukturierten physischen Datenspeichern;Datensicherheit: Sicherstellung von Datenschutz, Vertraulichkeit und angemessenem Zugriff;Datenintegration und Interoperabilität:Es klingelt an der Tür. Verschlucke mich vor Schreck an einem Hustenbonbon. Das Pizza-Abonnement ist heute aber früh dran. Sonst kommt er doch erst gegen 12 Uhr 15. Egal, dann mache ich eben jetzt Mittagspause und starte dann im Anschluss durch.Dokumente und Inhalte: Speichern, Schützen, Indizieren und Ermöglichen des Zugriffs auf Daten aus unstrukturierten Quellen sowie Bereitstellen dieser Daten für die Integration und Interoperabilität mit strukturierten Daten;Referenz- und Stammdaten: Verwaltung gemeinsam genutzter Daten, um Redundanzen zu reduzieren und eine bessere Datenqualität durch eine standardisierte Definition und damit ein einheitliches Verständnis von Daten sicherzustellen;Data Warehousing und Business Intelligence (BI): Verwaltung der analytischen Datenverarbeitung, um den Zugriff auf entscheidungsunterstützende Daten für Berichte und Analysen zu ermöglichen;Metadaten: Sammeln, Kategorisieren, Pflegen, Integrieren, Kontrollieren, Verwalten und Bereitstellen von Metadaten;Datenqualität: Definieren, Überwachen, Aufrechterhalten der Datenintegrität und Verbessern der Datenqualität.Beim Festlegen einer Datenstrategie sollte jede der oben genannten Facetten der Datensammlung, -verwaltung, -archivierung und -nutzung berücksichtigt werden.Das Business Application Research Center (BARC) warnt, dass es sich nicht um eine “Big-Bang-Initiative” handeln kann. Als hochkomplexes, fortlaufendes Programm läuft Data Governance Gefahr, dass die Beteiligten mit der Zeit Vertrauen und Interesse verlieren. Um dem entgegenzuwirken, empfiehlt BARC, mit einem überschaubaren oder anwendungsspezifischen Prototyp-Projekt zu beginnen. Anschließend können Erkenntnisse aus dem Projekt auf das gesamte Unternehmen ausgeweitet werden.BARC empfiehlt die folgenden Schritte zur Implementierung einer Data Governance:Ziele definieren und Nutzen verstehen;Ist-Zustand und Delta-Analyse analysieren;Eine Roadmap ableiten;Stakeholder überzeugen und Projekt budgetieren;Das Data-Governance-Programm entwickeln und planen;Das Data-Governance-Programm implementieren;Überwachen und steuern.Data Governance – ZieleDas Ziel ist es, die Methoden, Verantwortlichkeiten und Prozesse zu etablieren, um Unternehmensdaten zu standardisieren, zu integrieren, zu schützen und zu speichern. Laut BARC sollten die Hauptziele einer Organisation sein:Risiken zu minimieren;Interne Regeln für die Datennutzung aufzustellen;Compliance-Anforderungen umzusetzen;Interne sowie externe Kommunikation zu verbessern;den Wert der Daten zu erhöhen;Die Verwaltung zu erleichtern;Kosten zu reduzieren;Den Fortbestand des Unternehmens durch Risikomanagement und Optimierung zu sichernBARC weist darauf hin, dass solche Programme immer die strategische, taktische und operative Ebene in Unternehmen umfassen und als fortlaufende, iterative Prozesse behandelt werden müssen.Data Governance – VorteileDie meisten Unternehmen verfügen bereits über eine Form von Governance für einzelne Anwendungen, Geschäftsbereiche oder Funktionen. In der Praxis geht es darum, eine systematische, formal korrekte Kontrolle über diese Prozesse und Verantwortlichkeiten zu etablieren. Dies kann Unternehmen dabei helfen, reaktionsfähig zu bleiben, insbesondere wenn sie eine Größe erreichen, bei der es für einzelne Mitarbeiter zu unübersichtlich und damit nicht mehr effizient wird, funktionsübergreifende Aufgaben zu bewältigen. Mehrere Vorteile des Datenmanagements können erst dann realisiert werden, wenn das Unternehmen eine systematische Data Governance eingeführt hat. Einige dieser Vorteile beinhalten:Es klingelt an der Türe. Der Nachbar aus dem vierten Stock holt sein Paket ab. Der ist wirklich nett. Wir unterhalten uns kurz. Er hat´s derzeit beruflich auch nicht leicht.Klare Regeln für die Änderung von Prozessen und Daten, die dem Unternehmen und der IT helfen, agiler und skalierbarer zu werden;Geringere Kosten in anderen Bereichen der Datenverwaltung durch die Bereitstellung zentraler Kontrollmechanismen;Gesteigerte Effizienz durch die Möglichkeit der Wiederverwendung von Prozessen und Daten;Verbessertes Vertrauen in die Qualität der Daten und die Dokumentation der Datenprozesse;Verbesserte Compliance mit Datenvorschriften.Data Governance – Prinzipien Laut dem Data Governance Institute sollten folgende acht Prinzipien im Mittelpunkt eines erfolgreichen Data Governance- und Stewardship-Programms stehen:Alle Beteiligten müssen integer im Umgang miteinander sein. Sie müssen offen und ehrlich sein, wenn sie die Faktoren, Einschränkungen, Optionen und Auswirkungen von datenbezogenen Entscheidungen diskutieren.Data Governance- und Stewardship-Prozesse erfordern Transparenz. Es muss für alle Beteiligten und Auditoren klar sein, wie und wann datenbezogene Entscheidungen und Kontrollen in die Prozesse eingeführt wurden.Datenbezogene Entscheidungen, Prozesse und Kontrollen, die der Data Governance unterliegen, müssen überprüfbar sein. Sie müssen mit einer Dokumentation versehen sein, um die Anforderungen der Compliance und der betrieblichen Prüfung zu erfüllen.Sie müssen definieren, wer für funktionsübergreifende datenbezogene Entscheidungen, Prozesse und Kontrollen rechenschaftspflichtig ist.Sie müssen definieren, wer für Stewardship-Aktivitäten rechenschaftspflichtig ist, die in den Verantwortungsbereich einzelner Mitarbeiter und Gruppen von Datenverwaltern fallen.Die Programme müssen die Verantwortlichkeiten so definieren, dass ein gegenseitiges Kontrollsystem zwischen Geschäfts- und Technologie-Teams entsteht. Dies gilt gleichermaßen für diejenigen, die Daten anlegen/erfassen, diejenigen, die sie verwalten, diejenigen, die sie nutzen, und diejenigen, die Standards und Compliance-Anforderungen einführen.Das Programm muss die Standardisierung von Unternehmensdaten einführen und unterstützen.Programme müssen proaktives sowie reaktives Change Management für Referenzdatenwerte und die Struktur/Verwendung von Stammdaten und Metadaten unterstützen.Data Governance – RollenJedes Unternehmen setzt seine Data Governance anders zusammen, aber es gibt einige Gemeinsamkeiten.Steering CommitteeGovernance-Programme erstrecken sich über das gesamte Unternehmen und beginnen in der Regel mit einem Steuerungsgremium, das sich aus Mitgliedern des oberen Managements zusammensetzt. Oftmals handelt es sich dabei um Manager des C-Levels, die für verschiedene Geschäftsbereiche verantwortlich sind. Morgan Templar, Autor von “Get Governed: Building World Class Data Governance Programs“, beschreibt die Aufgaben der Mitglieder des Steering Committees folgendermaßen: Zu ihren Pflichten gehört es, die allgemeine Governance-Strategie mit spezifischen Ergebnissen festzulegen, die Arbeit der Data-Stewards zu unterstützen und die Governance-Organisation für die Einhaltung von Zeitplänen und Ergebnissen verantwortlich zu machen.Data OwnerLaut Templar sind Data Owner Personen, die dafür verantwortlich sind, dass die Informationen innerhalb einer bestimmten Datendomäne system- und bereichsübergreifend verwaltet werden. Sie sind in der Regel Mitglieder des Steuerungskomitees, auch wenn sie nicht stimmberechtigt sind. Dateneigentümer sind verantwortlich für:die Genehmigung von Datenglossaren und anderen Datendefinitionen;Sicherstellung der Richtigkeit von Informationen im gesamten Unternehmen;Direkte Datenqualitätsaktivitäten;Überprüfung und Genehmigung von Stammdatenmanagement-Ansätzen, -Ergebnissen und -Aktivitäten;Zusammenarbeit mit anderen Data Ownern zur Lösung von Datenproblemen;Second Level Review für von Data Stewards identifizierten Problemen;Bereitstellung von Input zu Softwarelösungen, Richtlinien oder regulatorischen Anforderungen für für das Steuerungskomitee.Data StewardData Stewards sind für die tägliche Verwaltung der Daten verantwortlich. Sie sind Fachexperten (Subject Matter Experts), die die Bedeutung und den Gebrauch von Daten verstehen und kommunizieren, sagt Templar. Darüber hinaus arbeiten sie mit anderen Data Stewards im gesamten Unternehmen zusammen und sind das leitende Organ für die meisten Datenentscheidungen. Data Stewards sind verantwortlich für:Subject Matter Experts für ihre Datendomäne zu sein;Identifizierung von Datenproblemen und Zusammenarbeit mit anderen Data Stewards, um diese zu lösen;Als Mitglied des Data Steward Councils zu handeln;Vorschlagen, Diskutieren und Abstimmen über Datenrichtlinien und Ausschussaktivitäten;Berichterstattung an den Dateneigentümer und andere Stakeholder innerhalb einer Datendomäne;Funktionsübergreifende Zusammenarbeit über Geschäftsbereiche hinweg, um sicherzustellen, dass die Daten des jeweiligen Bereichs verwaltet und verstanden werden.Data Governance – ToolsData Governance versteht sich zwar eher als eine Art fortlaufendes Programm. Doch auch dafür braucht es technische Unterstützung..Mittlerweile gibt es eine Reihe von Tools, die die Data Governance unterstützen können. Im Laufe der Zeit sind Marktbeobachtern zufolge die Tools für Data Management, Data Quality und Data Governance immer stärker zusammengewachsen, sodass aus den ursprünglichen Einzeldisziplinen komplette Suiten entstanden. Doch nicht jedes Tool kann für Ihr Unternehmen geeignet sein. Unterschiedliche Anforderungen und Budgets beeinflussen die Auswahl. Laut Berichten von Gartner gehören die folgenden Tools zu den beliebtesten Lösungen:Informatica Axon ist eine Sammelstelle und ein Datenmarktplatz für unterstützende Programme. Zu den wichtigsten Funktionen gehören ein kollaboratives Geschäftsglossar, die Möglichkeit, die Datenabfolge zu visualisieren und Datenqualitätsmessungen auf der Grundlage von Geschäftsdefinitionen zu generieren.IBM Cloud Pak for Data nutzt maschinelles Lernen, um Datenbestände zu sammeln und zu verwalten. Der integrierte Datenkatalog hilft Unternehmen, Daten zu finden, verwalten, zu analysieren, aufzubereiten und gemeinsam zu nutzen.Basierend auf der SAS-Plattform bietet SAS Data Management ein rollenbasiertes Graphical User Interface (GUI) für die Verwaltung von Prozessen und umfasst ein integriertes Business-Glossar, Metadatenmanagement sowie Lineage-Visualisierung.SAP Data Intelligence Cloud ist eine Lösung zur Datenorchestrierung, die Betriebe dabei unterstützt, alle Arten, Varianten und Mengen von Daten in Ihrer Datenlandschaft zu entdecken, zu verfeinern, anzureichern und zu verwalten. Das Tool unterstützt Unternehmen bei der Etablierung von Sicherheitseinstellungen und Identitätskontrollrichtlinien für Benutzer, Gruppen und Rollen sowie bei der Optimierung von Best Practices und Prozessen für die Richtlinienverwaltung und Sicherheitsprotokollierung.Zu den Herausforderern im Bereich IT-Solutions für Data Governance zählt Gartner Oracle, Experian und Innovative Systems. Außerdem gelten Ataccama, Information builders, MIOsoft sowie Infogix laut den Analysten als Visionäre. Auch eine Handvoll kleiner Startups, die Tools für Data Governance bereitstellen, sollte man laut Gartner als CIO durchaus im Blick behalten:Cinchy analysiert und gruppiert Anwendungen die mit Daten hantieren. Dabei geht es darum Datensilos aufzubrechen und Applikationen aus Datensicht miteinander zu integrieren. Das soll die Komplexität verringern und das Daten-Handling vereinfachen. Die Verantwortlichen von Cinchy definieren ihr Tool als Data Fabric, die Daten in den Mittelpunkt des Geschäftsbetriebs stellt.CluedIn bietet Lösungen für gängige Herausforderungen im Bereich Datenmanagement und -integration. Dazu gehören die Integration von Daten aus großen und komplexen Anwendungen, die Automatisierung der Datenaufbereitung, die Katalogisierung dieser Daten für das Unternehmen und die anschließende einfache und sichere gemeinsame Nutzung dieser Daten im gesamten UnternehmenInzata zielt darauf ab, den Wert von Daten durch erweiterte Profilierung, Strukturierung und Integration von Datenvielfalt zu erhöhen, um Insights zu unterstützen.TigerGraph ermöglicht Graph-Analysen für den Einsatz in Unternehmen. Seine GSQL-Sprache reduziert die Lernkurve für Benutzer, um Graph-Analysen durchzuführen, ohne die Leistung zu beeinträchtigen.Data Governance – ZertifizierungenMit der Datenschutzgrundverordnung hat die EU klare Regeln aufgestellt, wie Unternehmen mit Daten umzugehen haben. Die Verantwortlichen in den Betrieben müssen daher sicherstellen, dass jeder Umgang mit Daten regelkonform abläuft. Auch in diesem Bereich gibt es Spezialisten, die extern von Unternehmen wie SAP oder Verbänden wie der “Global Data Management Community” (DAMA) geschult werden. Nach erfolgreichem Abschluss erhalten die Teilnehmer ein Zertifikat, das Unternehmen helfen kann, einen den gesetzlichen Regelwerken entsprechenden Umgang mit Daten nachzuweisen und damit möglicherweise einen Vorteil im Wettbewerb zu erzielen. Zu den bekanntesten Zertifizierungen gehören:DAMA Certified Data Management Professional (CDMP);Fachmann für Datenverwaltung und -steuerung (DGSP);edX Unternehmensdatenmanagement;SAP Certified Application Associate – SAP Master Data Governance.

Was ist Data Governance?​ Read More »

Wie Porsche und SAP Apples Vision Pro einsetzen​

Wie Porsche und SAP Apples Vision Pro einsetzen​

Allgemein

Wie Beispiele zeigen, wissen inzwischen viele Unternehmen die Vorteile der Apple Vision Pro im Business-Einsatz zu nutzen. Apple In einen Magenta-Overall gekleidet, ruft die Moderatorin Barbara Schöneberger die Sprecher auf die Bühne der Digital X, der Digitalisierungsmesse der Deutschen Telekom. Apples World Wide Director Product Marketing, Dominic Liechti, tänzelt ähnlich wie Tim Cook und vor ihm Steve Jobs im dunklen Hemd und Jeans auf die Bühne – mit Frau Schöneberger weicht die Farbe aus dem Rampenlicht. Liechti referiert zunächst über die bekannten Vorteile des AR/VR-Headsets Vision Pro: Räumliches Computing, digitale Personas, virtuelle Arbeitsplätze und mehr. Jamf, der große MDM-Anbieter, hat bereits die Vision Pro in sein Programm genommen, das Headset lässt sich wie alle anderen Geräte von Apple einrichten und von der IT im Unternehmen verwalten. Noch etwas Interessantes verspricht Liechti fast in einem Nebensatz: Bald wird Apple den virtuellen Desktop der Vision Pro auf vier 4K-Displays erweitern, aktuell sind es nur zwei 4K-Displays. Porsche und seine virtuellen Autos Jörg Dietrich, Sales Director der Porsche-Tochter MHP, erzählt über einen der ersten Einsätze von Vision Pro in der Praxis: Die neuen Taycans & Co. lässt Porsche nun dreidimensional und im Raum platziert visualisieren. Der Kunde kann nicht nur auf Knopfdruck die Farbe der Lackierung ändern. Er oder sie kann ausprobieren, wie sich die Türen öffnen, kann sich in das Cockpit setzen und dort die Ausstattung überprüfen und die Steuerung ausprobieren. So ist das bislang nicht produzierte Auto deutlich greifbarer als die Darstellung auf einem Bildschirm. Die Porsche Group hat die Vision Pro noch in einem weiteren Bereich eingesetzt: Das letzte 24-Stunden-Rennen in Le Mans hat das Unternehmen komplett für die Vision Pro aufbereitet. Auf einer räumlichen Karte konnte man aus der Vogelperspektive das gesamte Rennen beobachten, auf mehreren Dashboards oberhalb das Geschehen aus Sicht des Fahrers und den Video-Stream aus diversen Punkten des Rennens am Boden. Das Rennen von Le Mans hat Porsche aus mehreren Blickwinkeln auf Vision Pro gestreamt.Porsche Die Entwickler der App synchronisierten sogar die Pulsdaten der Apple Watches der Fahrer, um nachzuverfolgen, wie die Anspannung hinter dem Lenkrad steigt oder wieder abebbt. Auch die genauen technischen Daten des Wagens kann man auf einem externen Dashboard genau beobachten, Vision Pro bietet genügend virtuellen Raum, um all die Daten an einem Ort übersichtlich darzustellen. SAP und neue Möglichkeiten zur Datenvisualisierung Nach den virtuellen Porsches präsentierte SAP etwas nüchterner virtuelle Daten. Das Unternehmen nutzt das Headset von Apple zur besseren Zusammenarbeit im Unternehmen. So behauptet Anna-Maria Oechsner, Senior UX Designer bei SAP, eine Unterhaltung von Kollegen in Form von 3D-Personas um eine virtuelle Karte mit visualisierten Daten sei deutlich effizienter als ein Meeting in Teams oder Zoom, bei dem einer der Teilnehmer eine Folie ein- und alle anderen Teilnehmer ausblendet. Datenvisualisierung auf einer Spatial Map von SAPSAP Welche Unternehmen noch Vision Pro bereits einsetzen Aber nicht nur Porsche und SAP nutzen die Vorteile vom räumlichen Computing im Arbeitsalltag. So ist Lowe’s der Partner der ersten Stunde bei Apple. Der US-amerikanische Möbelhersteller lässt die Bestellungen auf die Vision Pro der Kunden streamen, diese können dann in Echtzeit nachschauen, wie beispielsweise die Einbauküche im bestimmten Raum ausschauen wird. Bei Siemens wiederum können die Außenmitarbeiter vor Ort das einzubauende Gerät als virtuelle Kopie einblenden und die Einbaueinleitung direkt wiederholen. So lassen sich kostspielige Fehler vermeiden. Auch bei Installateur- und Sanitätsfirmen kann Vision Pro die langwierige Suche nach Fehlern verkürzen: Apples räumlicher Computer kann auf mehreren virtuellen Ebenen Rohre und Stromversorgung einblenden oder gar die Anweisungen der Kollegen, die davor vor Ort waren, einem womöglich kaputten Element zuordnen. Aber auch bei der Schulung und Ausbildung ist Vision Pro effizienter: Haitian Airways lässt seine Piloten in einem virtuellen Cockpit trainieren. So können die neuen Mitarbeiter nicht nur die Informationen zu den Bedienelementen sich aneignen, sondern auch gleich Muskelgedächtnis für manche Operationen entwickeln. Technik, die die Welt verändert Der räumliche Computer von Apple zeigt seine Stärken in den Bereichen, wofür die herkömmlichen Geräte nicht mehr ausreichen, entweder eingeschränkt durch die Display-Oberfläche oder durch deren Zweidimensionalität. Am besten hat die Zukunft von Vision Pro dabei nicht Dominic Liechti, sondern sein Vorredner, Mats Granryd von GSMA, zusammengefasst: “Zwar wissen wir nicht, wie diese neue Technologie die Welt verändert, doch dass sie die Welt verändert, steht außer Frage.” Granryd bezog sich in seinem Auftritt zwar auf Künstliche Intelligenz, doch sein Schlusswort passt perfekt zu Vision Pro, wenngleich Apples Headset auf die Ankunft der hauseigenen KI noch warten muss. 

Wie Porsche und SAP Apples Vision Pro einsetzen​ Wie Beispiele zeigen, wissen inzwischen viele Unternehmen die Vorteile der Apple Vision Pro im Business-Einsatz zu nutzen. Apple

In einen Magenta-Overall gekleidet, ruft die Moderatorin Barbara Schöneberger die Sprecher auf die Bühne der Digital X, der Digitalisierungsmesse der Deutschen Telekom. Apples World Wide Director Product Marketing, Dominic Liechti, tänzelt ähnlich wie Tim Cook und vor ihm Steve Jobs im dunklen Hemd und Jeans auf die Bühne – mit Frau Schöneberger weicht die Farbe aus dem Rampenlicht.

Liechti referiert zunächst über die bekannten Vorteile des AR/VR-Headsets Vision Pro: Räumliches Computing, digitale Personas, virtuelle Arbeitsplätze und mehr. Jamf, der große MDM-Anbieter, hat bereits die Vision Pro in sein Programm genommen, das Headset lässt sich wie alle anderen Geräte von Apple einrichten und von der IT im Unternehmen verwalten. Noch etwas Interessantes verspricht Liechti fast in einem Nebensatz: Bald wird Apple den virtuellen Desktop der Vision Pro auf vier 4K-Displays erweitern, aktuell sind es nur zwei 4K-Displays.

Porsche und seine virtuellen Autos

Jörg Dietrich, Sales Director der Porsche-Tochter MHP, erzählt über einen der ersten Einsätze von Vision Pro in der Praxis: Die neuen Taycans & Co. lässt Porsche nun dreidimensional und im Raum platziert visualisieren. Der Kunde kann nicht nur auf Knopfdruck die Farbe der Lackierung ändern. Er oder sie kann ausprobieren, wie sich die Türen öffnen, kann sich in das Cockpit setzen und dort die Ausstattung überprüfen und die Steuerung ausprobieren. So ist das bislang nicht produzierte Auto deutlich greifbarer als die Darstellung auf einem Bildschirm.

Die Porsche Group hat die Vision Pro noch in einem weiteren Bereich eingesetzt: Das letzte 24-Stunden-Rennen in Le Mans hat das Unternehmen komplett für die Vision Pro aufbereitet. Auf einer räumlichen Karte konnte man aus der Vogelperspektive das gesamte Rennen beobachten, auf mehreren Dashboards oberhalb das Geschehen aus Sicht des Fahrers und den Video-Stream aus diversen Punkten des Rennens am Boden.

Das Rennen von Le Mans hat Porsche aus mehreren Blickwinkeln auf Vision Pro gestreamt.Porsche

Die Entwickler der App synchronisierten sogar die Pulsdaten der Apple Watches der Fahrer, um nachzuverfolgen, wie die Anspannung hinter dem Lenkrad steigt oder wieder abebbt. Auch die genauen technischen Daten des Wagens kann man auf einem externen Dashboard genau beobachten, Vision Pro bietet genügend virtuellen Raum, um all die Daten an einem Ort übersichtlich darzustellen.

SAP und neue Möglichkeiten zur Datenvisualisierung

Nach den virtuellen Porsches präsentierte SAP etwas nüchterner virtuelle Daten. Das Unternehmen nutzt das Headset von Apple zur besseren Zusammenarbeit im Unternehmen. So behauptet Anna-Maria Oechsner, Senior UX Designer bei SAP, eine Unterhaltung von Kollegen in Form von 3D-Personas um eine virtuelle Karte mit visualisierten Daten sei deutlich effizienter als ein Meeting in Teams oder Zoom, bei dem einer der Teilnehmer eine Folie ein- und alle anderen Teilnehmer ausblendet.

Datenvisualisierung auf einer Spatial Map von SAPSAP

Welche Unternehmen noch Vision Pro bereits einsetzen

Aber nicht nur Porsche und SAP nutzen die Vorteile vom räumlichen Computing im Arbeitsalltag. So ist Lowe’s der Partner der ersten Stunde bei Apple. Der US-amerikanische Möbelhersteller lässt die Bestellungen auf die Vision Pro der Kunden streamen, diese können dann in Echtzeit nachschauen, wie beispielsweise die Einbauküche im bestimmten Raum ausschauen wird.

Bei Siemens wiederum können die Außenmitarbeiter vor Ort das einzubauende Gerät als virtuelle Kopie einblenden und die Einbaueinleitung direkt wiederholen. So lassen sich kostspielige Fehler vermeiden. Auch bei Installateur- und Sanitätsfirmen kann Vision Pro die langwierige Suche nach Fehlern verkürzen: Apples räumlicher Computer kann auf mehreren virtuellen Ebenen Rohre und Stromversorgung einblenden oder gar die Anweisungen der Kollegen, die davor vor Ort waren, einem womöglich kaputten Element zuordnen.

Aber auch bei der Schulung und Ausbildung ist Vision Pro effizienter: Haitian Airways lässt seine Piloten in einem virtuellen Cockpit trainieren. So können die neuen Mitarbeiter nicht nur die Informationen zu den Bedienelementen sich aneignen, sondern auch gleich Muskelgedächtnis für manche Operationen entwickeln.

Technik, die die Welt verändert

Der räumliche Computer von Apple zeigt seine Stärken in den Bereichen, wofür die herkömmlichen Geräte nicht mehr ausreichen, entweder eingeschränkt durch die Display-Oberfläche oder durch deren Zweidimensionalität. Am besten hat die Zukunft von Vision Pro dabei nicht Dominic Liechti, sondern sein Vorredner, Mats Granryd von GSMA, zusammengefasst: “Zwar wissen wir nicht, wie diese neue Technologie die Welt verändert, doch dass sie die Welt verändert, steht außer Frage.” Granryd bezog sich in seinem Auftritt zwar auf Künstliche Intelligenz, doch sein Schlusswort passt perfekt zu Vision Pro, wenngleich Apples Headset auf die Ankunft der hauseigenen KI noch warten muss.

Wie Porsche und SAP Apples Vision Pro einsetzen​ Read More »

Nach oben scrollen