Computerhaus Quickborn

Allgemein

Digitale Leuchtturmfabriken: Kann nur Siemens Digitalisierung?​

Digitale Leuchtturmfabriken: Kann nur Siemens Digitalisierung?​

Allgemein

Im Rahmen seines Global Lighthouse Networks zeichnet das Weltwirtschaftsforum (WEF) innovative Fertigungsstätten als digitale Leuchtturmfabriken aus. Damit würdigt das WEF Unternehmen, die in der Anwendung von Technologien der vierten industriellen Revolution führend sind.  Mit dem Gerätewerk Erlangen zeichnet das WEF die dritte Siemens-Fabrik als digitales Leuchtturm-Projekt aus.Siemens Mittlerweile hat die Stiftung rund um den Globus 172 digitale Leuchttürme ausgezeichnet, davon waren erst kürzlich Anfang Oktober 22 neu hinzugekommen. „Leuchttürme durchbrechen den KI-Hype und legen die Messlatte für die digitale Transformation höher“, erklärt Kiva Allgood, Leiterin des Centre for Advanced Manufacturing and Supply Chains beim Weltwirtschaftsforum. Gros der digitalen Leuchttürme in China „Diese Standorte integrieren fortschrittliche Technologien in ihre Abläufe, nicht nur, um die Produktivität zu steigern, sondern auch, um eine nachhaltige und integrative Zukunft für ihre Belegschaft und die breitere Gemeinschaft zu schaffen“, so Allgood weiter. Die jüngste Kohorte des Global Lighthouse Network widersetzt sich zudem dem Narrativ, dass die Auswirkungen des KI-Einsatzes oft hinter den Erwartungen zurückbleiben. In allen Projekten wurde KI genutzt, um eine bahnbrechende Wirkung zu erzielen. Unter diesem Aspekt sollten aber gerade an einem Industriestandort wie Deutschland alle Alarmglocken laut schrillen. Das Gros der digitalen Leuchtturmprojekte steht nämlich in China. Kann nur Siemens Digitalisierung? Lediglich Siemens zeigt mit seinem Gerätewerk in Erlangen, dass man auch in Deutschland 2024 Digitalisierung auf vergleichbarem internationalem Niveau beherrscht. So zeichnet das WEF das Werk für seine Green-Lean-Digital-Strategie aus. Mit über 100 KI-Algorithmen und dem umfassenden Einsatz digitaler Zwillinge, die auf einer flexiblen und modularen IT-Architektur basieren, verbesserte der Standort laut WEF die Arbeitsproduktivität um 69 Prozent. Für Cedrik Neike, Mitglied des Vorstands der Siemens AG und CEO von Digital Industries, ist das Gerätewerk Erlangen auch eine Blaupause für das Industrial Metaverse. Siemens Zudem wurde die Markteinführungszeit neuer Produkte um 40 Prozent verkürzt und der Energieverbrauch um 42 Prozent gesenkt. Das Werk in Erlangen ist bereits der dritte Siemensstandort neben den Werken in Amberg, Deutschland, und Chengdu, China, der vom WEF als eine der modernsten Fabriken der Welt gewürdigt wird. Digitale Anwendungsfälle Die Jury konnte das Gerätewerk in Erlangen mit fünf konkreten Anwendungsfällen digitaler Technologien im Fertigungsumfeld überzeugen. Seitens Siemens hebt man hier besonders die Leistungshalbleiter-Fertigung hervor. Innerhalb von elf Monaten sei es gelungen, eine Reinraumfertigung einzurichten, die Halbleiter für die neueste Generation des SINAMICS Frequenzumrichters produziert. Dank einer End-to-End-Datenanalyseplattform konnte dabei der Platzbedarf um 50 Prozent reduziert und der Materialverbrauch um 40 Prozent gesenkt werden – bei gleichbleibender Leistungsfähigkeit und verbesserter Energieeffizienz. Zudem hatte Siemens im vergangenen Jahr angekündigt, 500 Millionen Euro für Forschungskapazitäten und Infrastruktur in Erlangen bereitzustellen. Damit will der Konzern den Standort als weltweites Forschungs- und Entwicklungszentrum sowie als Nukleus für weltweite Technologieaktivitäten rund um das Industrial Metaverse etablieren. „Wir schaffen hier eine Blaupause für das industrielle Metaverse“, unterstreicht Cedrik Neike, Mitglied des Vorstands der Siemens AG und CEO von Digital Industries. 

Digitale Leuchtturmfabriken: Kann nur Siemens Digitalisierung?​ Im Rahmen seines Global Lighthouse Networks zeichnet das Weltwirtschaftsforum (WEF) innovative Fertigungsstätten als digitale Leuchtturmfabriken aus. Damit würdigt das WEF Unternehmen, die in der Anwendung von Technologien der vierten industriellen Revolution führend sind. 

Mit dem Gerätewerk Erlangen zeichnet das WEF die dritte Siemens-Fabrik als digitales Leuchtturm-Projekt aus.Siemens

Mittlerweile hat die Stiftung rund um den Globus 172 digitale Leuchttürme ausgezeichnet, davon waren erst kürzlich Anfang Oktober 22 neu hinzugekommen. „Leuchttürme durchbrechen den KI-Hype und legen die Messlatte für die digitale Transformation höher“, erklärt Kiva Allgood, Leiterin des Centre for Advanced Manufacturing and Supply Chains beim Weltwirtschaftsforum.

Gros der digitalen Leuchttürme in China

„Diese Standorte integrieren fortschrittliche Technologien in ihre Abläufe, nicht nur, um die Produktivität zu steigern, sondern auch, um eine nachhaltige und integrative Zukunft für ihre Belegschaft und die breitere Gemeinschaft zu schaffen“, so Allgood weiter. Die jüngste Kohorte des Global Lighthouse Network widersetzt sich zudem dem Narrativ, dass die Auswirkungen des KI-Einsatzes oft hinter den Erwartungen zurückbleiben. In allen Projekten wurde KI genutzt, um eine bahnbrechende Wirkung zu erzielen.

Unter diesem Aspekt sollten aber gerade an einem Industriestandort wie Deutschland alle Alarmglocken laut schrillen. Das Gros der digitalen Leuchtturmprojekte steht nämlich in China.

Kann nur Siemens Digitalisierung?

Lediglich Siemens zeigt mit seinem Gerätewerk in Erlangen, dass man auch in Deutschland 2024 Digitalisierung auf vergleichbarem internationalem Niveau beherrscht. So zeichnet das WEF das Werk für seine Green-Lean-Digital-Strategie aus. Mit über 100 KI-Algorithmen und dem umfassenden Einsatz digitaler Zwillinge, die auf einer flexiblen und modularen IT-Architektur basieren, verbesserte der Standort laut WEF die Arbeitsproduktivität um 69 Prozent.

Für Cedrik Neike, Mitglied des Vorstands der Siemens AG und CEO von Digital Industries, ist das Gerätewerk Erlangen auch eine Blaupause für das Industrial Metaverse.
Siemens

Zudem wurde die Markteinführungszeit neuer Produkte um 40 Prozent verkürzt und der Energieverbrauch um 42 Prozent gesenkt. Das Werk in Erlangen ist bereits der dritte Siemensstandort neben den Werken in Amberg, Deutschland, und Chengdu, China, der vom WEF als eine der modernsten Fabriken der Welt gewürdigt wird.

Digitale Anwendungsfälle

Die Jury konnte das Gerätewerk in Erlangen mit fünf konkreten Anwendungsfällen digitaler Technologien im Fertigungsumfeld überzeugen. Seitens Siemens hebt man hier besonders die Leistungshalbleiter-Fertigung hervor.

Innerhalb von elf Monaten sei es gelungen, eine Reinraumfertigung einzurichten, die Halbleiter für die neueste Generation des SINAMICS Frequenzumrichters produziert. Dank einer End-to-End-Datenanalyseplattform konnte dabei der Platzbedarf um 50 Prozent reduziert und der Materialverbrauch um 40 Prozent gesenkt werden – bei gleichbleibender Leistungsfähigkeit und verbesserter Energieeffizienz.

Zudem hatte Siemens im vergangenen Jahr angekündigt, 500 Millionen Euro für Forschungskapazitäten und Infrastruktur in Erlangen bereitzustellen. Damit will der Konzern den Standort als weltweites Forschungs- und Entwicklungszentrum sowie als Nukleus für weltweite Technologieaktivitäten rund um das Industrial Metaverse etablieren. „Wir schaffen hier eine Blaupause für das industrielle Metaverse“, unterstreicht Cedrik Neike, Mitglied des Vorstands der Siemens AG und CEO von Digital Industries.

Digitale Leuchtturmfabriken: Kann nur Siemens Digitalisierung?​ Read More »

Opera fordert die Konkurrenz mit Datenschutz und KI heraus​

Opera fordert die Konkurrenz mit Datenschutz und KI heraus​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/10/opera_16_9.jpg?quality=50&strip=all 2040w, https://b2b-contenthub.com/wp-content/uploads/2024/10/opera_16_9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/10/opera_16_9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/10/opera_16_9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/10/opera_16_9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/10/opera_16_9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/10/opera_16_9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/10/opera_16_9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/10/opera_16_9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/10/opera_16_9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Der norwegische Anbieter Opera nimmt das ungleiche Kräfteverhältnis im Browser-Markt mit Humor. Opera In den vergangenen 30 Jahren hat Opera die Internet-Standards und einheitlichen Regeln der W3C wie kein anderer mitbegründet und geprägt. Zahlreiche Funktionen, die heute wie selbstverständlich in jedem Browser zu finden sind, haben wir den europäischen Machern von Opera zu verdanken. Die wohl bekannteste Innovation von Opera war die Einführung von Tabs, sodass man mehrere Webseiten in einer Anwendungsinstanz öffnen kann. Und auch die integrierte Suche war eine Erfindung von Opera. Anstatt erst die Webseite von Altavista, Webcrawler, Yahoo oder Lycos öffnen zu müssen, bot Opera als erstes ein Suchfenster an; zunächst separat und heute, wie bei allen Browsern, in die Adressleiste integriert.  Weitere wichtige Erfindungen wie den   Ad-Blocker,   den Dark-Mode,   die Kurzwahl (Speed Dial) und   die Möglichkeit der Synchronisierung von Lesezeichen, Einstellungen und Passwörter über verschiedene Endgeräte hinweg   gehen ebenfalls auf Opera zurück. Auf diese Funktionen will heute niemand mehr verzichten.  Trotz dieser zahlreichen „World firsts“ spielt Opera im Browser-Markt zumindest bei der Verbreitung nur eine kleine Rolle. Abgesehen von einigen Schwellenländern, wo die Norweger dank ihres besonders ressourcenfreundlichen mobilen Browsers Opera Mini bis zu 90 Prozent Marktanteil verbuchen, liegen die Werte im einstelligen Bereich. Wegen der damit verbundenen Plattformen dominieren Safari (Apple) und Chrome (Google) den Browsermarkt – auch wenn immer mehr Nutzer bewusst nach Alternativen suchen.   Doch die Norweger geben nicht auf. Zwar profitieren Apple, Google und teilweise auch Microsoft weiter davon, dass ihr Browser bereits vorinstalliert ist oder mit anderer Software ausgeliefert wird. Das Beeindruckende an Opera jedoch ist, dass der Browser fast so alt ist wie das World– –Wide –Web selbst und dennoch nichts an Innovationskraft eingebüßt zu haben scheint.   63 Prozent Zuwachs der Nutzer in einem Monat  Während die dominierenden Wettbewerber wenig Druck verspüren, ihren Nutzern etwas Neues zu bieten, fußt die Firmenphilosophie der Norweger auf immer neuen Innovationen für Nutzer. Dabei wird stets der goldene Mittelweg zwischen Anwenderbedürfnissen und Kommerzialisierung gesucht.   Beispiele dafür sind etwa Datenschutz und VPN: Um Anwendern einen dauerhaft kostenlosen und stabilen VPN-Dienst ohne Kompromisse bieten zu können, werden die Kurzwahl-Felder (Speed Dials) auf dem Startbildschirm vermarktet. Wer sich daran stört, kann diese jedoch mit einem Klick ändern oder löschen. Für den ersten, speziell für Gamer entwickelten OperaGX wiederum geht Opera auch zahlreiche Partnerschaften mit Gaming-Publishern und Herstellern wie ASUS oder MSI ein, was die Anwender offensichtlich eher freut als stört. Gleichzeitig engagiert sich Opera wie kein anderer Browser für eine Wahlfreiheit des Anwenders auf allen Endgeräten und scheut dabei auch nicht den Weg zur Europäischen Kommission oder die langatmigen Wege durch gerichtliche Instanzen. Der Digital Markets Act (DMA) der EU bescherte Opera zwischen Februar und März einen Zuwachs von 63 Prozent an iOS-Nutzern in Europa. Und beim Marktanteil überholte der europäische Browser mittlerweile auch Microsofts Edge.    Neuer Wettbewerbsvorteil mit KI  Auch die Integration von generativer Künstlicher Intelligenz (GenAI) in den Browser und damit in den Alltag jedes Anwenders könnten Opera weitere neue Wettbewerbsvorteile bringen. Schon vor einem Jahr war Opera der erste Browser, der Anwendern mit dem eigenen, datenschutzkonformen Chatbot Aria einen schnellen und kostenlosen Zugang zu künstlicher Intelligenz bot. Mit der Eigenentwicklung Aria gelang es Opera, die raffinierten Ergebnisse des LLM eines ChatGPT mit aktuellen Ergebnissen und Quellen aus dem Internet zu verbinden.  Mit der nächsten Version von Opera (R2) sollen die Potenziale künstlicher Intelligenz nun noch weiter ausgeschöpft werden und beispielsweise Recherchen im Internet vereinfachen und beschleunigen. So soll Aria künftig Quellen im Internet durchsuchen und daraus unmittelbar eine zeitsparende Zusammenfassung für den Anwender erstellen. In Anbetracht der nahezu unendlichen Verfügbarkeit von Informationen im Netz sollen also mit Hilfe von KI die „Pflichtaufgaben“ der Internet-Nutzer vereinfacht und mehr Zeit für die Kür geschaffen werden, ohne dabei den Markenkern von Opera, beispielsweise beim Datenschutz, zu verletzen.  Unternehmen wollen ebenfalls Opera  Auf den ersten Blick überraschend, erfährt Opera mittlerweile auch große Unterstützung von Unternehmen. Während sich die Opera-Entwickler hauptsächlich auf Endanwender konzentrieren, werden immer mehr Unternehmen und Behörden auf die europäische Browser-Software aufmerksam. Der strenge Schutz persönlicher Daten und die Unabhängigkeit von US-Konzernen ist zweifellos auch für staatliche Institutionen und Unternehmen interessant, die gleichermaßen ihre Mitarbeiter wie auch sensible Informationen schützen möchten. So ist es nicht verwunderlich, dass immer mehr Unternehmen ihren Mitarbeitern die europäische Browser-Alternative ans Herz legen.  Einmal mehr beweist Opera also, dass Innovationsgeist und nutzerfreundliches Denken und Handeln sich auszahlen. So bleibt zu hoffen, dass die anderen Browser-Anbieter erneut dem Beispiel von Opera folgen – selbst, wenn sie wie bei der Fabel vom Hasen und Igel wieder einmal nicht die Nase vorne haben.  

Opera fordert die Konkurrenz mit Datenschutz und KI heraus​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/10/opera_16_9.jpg?quality=50&strip=all 2040w, https://b2b-contenthub.com/wp-content/uploads/2024/10/opera_16_9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/10/opera_16_9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/10/opera_16_9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/10/opera_16_9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/10/opera_16_9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/10/opera_16_9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/10/opera_16_9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/10/opera_16_9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/10/opera_16_9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Der norwegische Anbieter Opera nimmt das ungleiche Kräfteverhältnis im Browser-Markt mit Humor. Opera

In den vergangenen 30 Jahren hat Opera die Internet-Standards und einheitlichen Regeln der W3C wie kein anderer mitbegründet und geprägt. Zahlreiche Funktionen, die heute wie selbstverständlich in jedem Browser zu finden sind, haben wir den europäischen Machern von Opera zu verdanken. Die wohl bekannteste Innovation von Opera war die Einführung von Tabs, sodass man mehrere Webseiten in einer Anwendungsinstanz öffnen kann. Und auch die integrierte Suche war eine Erfindung von Opera. Anstatt erst die Webseite von Altavista, Webcrawler, Yahoo oder Lycos öffnen zu müssen, bot Opera als erstes ein Suchfenster an; zunächst separat und heute, wie bei allen Browsern, in die Adressleiste integriert. 

Weitere wichtige Erfindungen wie den  

Ad-Blocker,  

den Dark-Mode,  

die Kurzwahl (Speed Dial) und  

die Möglichkeit der Synchronisierung von Lesezeichen, Einstellungen und Passwörter über verschiedene Endgeräte hinweg  

gehen ebenfalls auf Opera zurück. Auf diese Funktionen will heute niemand mehr verzichten. 

Trotz dieser zahlreichen „World firsts“ spielt Opera im Browser-Markt zumindest bei der Verbreitung nur eine kleine Rolle. Abgesehen von einigen Schwellenländern, wo die Norweger dank ihres besonders ressourcenfreundlichen mobilen Browsers Opera Mini bis zu 90 Prozent Marktanteil verbuchen, liegen die Werte im einstelligen Bereich. Wegen der damit verbundenen Plattformen dominieren Safari (Apple) und Chrome (Google) den Browsermarkt – auch wenn immer mehr Nutzer bewusst nach Alternativen suchen.  

Doch die Norweger geben nicht auf. Zwar profitieren Apple, Google und teilweise auch Microsoft weiter davon, dass ihr Browser bereits vorinstalliert ist oder mit anderer Software ausgeliefert wird. Das Beeindruckende an Opera jedoch ist, dass der Browser fast so alt ist wie das World– –Wide –Web selbst und dennoch nichts an Innovationskraft eingebüßt zu haben scheint.  

63 Prozent Zuwachs der Nutzer in einem Monat

 Während die dominierenden Wettbewerber wenig Druck verspüren, ihren Nutzern etwas Neues zu bieten, fußt die Firmenphilosophie der Norweger auf immer neuen Innovationen für Nutzer. Dabei wird stets der goldene Mittelweg zwischen Anwenderbedürfnissen und Kommerzialisierung gesucht.  

Beispiele dafür sind etwa Datenschutz und VPN: Um Anwendern einen dauerhaft kostenlosen und stabilen VPN-Dienst ohne Kompromisse bieten zu können, werden die Kurzwahl-Felder (Speed Dials) auf dem Startbildschirm vermarktet. Wer sich daran stört, kann diese jedoch mit einem Klick ändern oder löschen. Für den ersten, speziell für Gamer entwickelten OperaGX wiederum geht Opera auch zahlreiche Partnerschaften mit Gaming-Publishern und Herstellern wie ASUS oder MSI ein, was die Anwender offensichtlich eher freut als stört.

Gleichzeitig engagiert sich Opera wie kein anderer Browser für eine Wahlfreiheit des Anwenders auf allen Endgeräten und scheut dabei auch nicht den Weg zur Europäischen Kommission oder die langatmigen Wege durch gerichtliche Instanzen. Der Digital Markets Act (DMA) der EU bescherte Opera zwischen Februar und März einen Zuwachs von 63 Prozent an iOS-Nutzern in Europa. Und beim Marktanteil überholte der europäische Browser mittlerweile auch Microsofts Edge.   

Neuer Wettbewerbsvorteil mit KI

 Auch die Integration von generativer Künstlicher Intelligenz (GenAI) in den Browser und damit in den Alltag jedes Anwenders könnten Opera weitere neue Wettbewerbsvorteile bringen. Schon vor einem Jahr war Opera der erste Browser, der Anwendern mit dem eigenen, datenschutzkonformen Chatbot Aria einen schnellen und kostenlosen Zugang zu künstlicher Intelligenz bot. Mit der Eigenentwicklung Aria gelang es Opera, die raffinierten Ergebnisse des LLM eines ChatGPT mit aktuellen Ergebnissen und Quellen aus dem Internet zu verbinden. 

Mit der nächsten Version von Opera (R2) sollen die Potenziale künstlicher Intelligenz nun noch weiter ausgeschöpft werden und beispielsweise Recherchen im Internet vereinfachen und beschleunigen. So soll Aria künftig Quellen im Internet durchsuchen und daraus unmittelbar eine zeitsparende Zusammenfassung für den Anwender erstellen. In Anbetracht der nahezu unendlichen Verfügbarkeit von Informationen im Netz sollen also mit Hilfe von KI die „Pflichtaufgaben“ der Internet-Nutzer vereinfacht und mehr Zeit für die Kür geschaffen werden, ohne dabei den Markenkern von Opera, beispielsweise beim Datenschutz, zu verletzen. 

Unternehmen wollen ebenfalls Opera 

Auf den ersten Blick überraschend, erfährt Opera mittlerweile auch große Unterstützung von Unternehmen. Während sich die Opera-Entwickler hauptsächlich auf Endanwender konzentrieren, werden immer mehr Unternehmen und Behörden auf die europäische Browser-Software aufmerksam. Der strenge Schutz persönlicher Daten und die Unabhängigkeit von US-Konzernen ist zweifellos auch für staatliche Institutionen und Unternehmen interessant, die gleichermaßen ihre Mitarbeiter wie auch sensible Informationen schützen möchten. So ist es nicht verwunderlich, dass immer mehr Unternehmen ihren Mitarbeitern die europäische Browser-Alternative ans Herz legen. 

Einmal mehr beweist Opera also, dass Innovationsgeist und nutzerfreundliches Denken und Handeln sich auszahlen. So bleibt zu hoffen, dass die anderen Browser-Anbieter erneut dem Beispiel von Opera folgen – selbst, wenn sie wie bei der Fabel vom Hasen und Igel wieder einmal nicht die Nase vorne haben. 

Opera fordert die Konkurrenz mit Datenschutz und KI heraus​ Read More »

Die COMPUTERWOCHE wird 50​

Die COMPUTERWOCHE wird 50​

Allgemein

Happy Birthday COMPUTERWOCHE – da gratuliert auch der GenAI-Malbot, auch wenn die KI noch so das eine oder andere Problem mit der Rechtschreibung hat 🙂Manfred Bremmer / ChatGPT Die COMPUTERWOCHE feiert 50. Geburtstag! 1974 – Bundeskanzler Willy Brandt und der US-Präsident Richard Nixon müssen zurücktreten, in Griechenland und Portugal enden Diktaturen und die Bundesrepublik Deutschland wird zum zweiten Mal Fußball-Weltmeister. Und am 9. Oktober 1974 erschien die erste Ausgabe der COMPUTERWOCHE – „Die aktuelle Wochenzeitung für die Computerwelt“, hieß es in der Unterzeile.  IDG IT, oder besser gesagt die EDV, war damals noch ein absolutes Nischenthema. Unternehmen wie Microsoft oder Oracle waren noch nicht gegründet. SAP werkelte mit gerade einmal 13 Mitarbeitern an ihren ersten Programmen. Intel hatte mit dem 8080 zwar den ersten echten 8-Bit-Mikroprozessor vorgestellt, von PCs oder gar Notebooks war allerdings noch keine Rede. Mobiltelefone oder Smartphones existierten nur im Reich der Science Fiction und an eine Plattform wie das Internet dachte damals niemand. Die DV bestimmte IBM mit seinen Mainframes.  Immerhin gab es schon 1974 spannende Geschichten zu berichten – und die Themen waren gar nicht so weit von dem entfernt, was die IT-Verantwortlichen heute umtreibt. Damals wie heute geht es ums Geld und die Budgets. „Tuning spart Anwender 1 Million Mark“, war die erste Geschichte auf der Titelseite. Es drehte sich um Programm-Durchlaufzeiten und die CPU-Auslastung – also um Optimierung. In den USA klagte die US-Regierung gegen IBM wegen Monopolvorwürfen – heute geht es in den Verfahren um die Marktmacht der Internetgiganten wie Amazon, Facebook und Google. Zudem wurde schon vor 50 Jahren das Thema Fachkräfte diskutiert: Vor allem der Bedarf an Operatoren, Programmierern und Systemanalytikern sollte weiter steigen, so die Prognosen des Bundesministeriums für Forschung und Technologie, wie es vor 50 Jahren hieß.  Das waren damals unter anderen die Themen der ersten Ausgabe der COMPUTERWOCHE. „Datenverarbeiter können Entscheidungen nur auf Basis richtiger und rechtzeitiger Informationen treffen, in Kenntnis aller Alternativen“, lautete das Credo des Redaktionsteams der ersten Stunde. „Die schnelllebige EDV-Branche braucht eine schnelle Zeitung.“ Schon vor 50 Jahren schrieben sich die Redakteurinnen und Redakteure der COMPUTERWOCHE auf die Fahnen, den Anwender in den Mittelpunkt zu stellen. „Ihm Entscheidungshilfen zu liefern neue Lösungen und Wege zu kostengünstigeren Verfahren aufzuzeigen, ist das Ziel der Redaktion.“ Kleine Randnotiz: Die DV war eindeutig noch viel extremer als heute eine Männerdomäne.  Nur die wenigsten unserer Leserinnen und Leser werden sich an diese Zeiten zurückerinnern. Aber vielleicht gibt es manche unter ihnen, die vor 50 Jahren schon erste Anknüpfungspunkte mit DV/IT hatten, oder jemanden kennen, der damals schon in der Branche unterwegs war. Erinnern Sie sich oder haben Sie eine interessante Geschichte mit der COMPUTERWOCHE erlebt? Ich würde mich sehr freuen, wenn Sie ihre Geschichten, Erlebnisse oder Anekdoten mit mir teilen: martin.bayer@foundryco.com  In diesem Sinne – ich freue mich auf Ihr Feedback und auf die nächsten 50 Jahre spannende IT-Entwicklungen und Berichterstattung.  Ihr Martin Bayer  Editor in Chief B2BCOMPUTERWOCHE | CIO | CSO 

Die COMPUTERWOCHE wird 50​ Happy Birthday COMPUTERWOCHE – da gratuliert auch der GenAI-Malbot, auch wenn die KI noch so das eine oder andere Problem mit der Rechtschreibung hat 🙂Manfred Bremmer / ChatGPT

Die COMPUTERWOCHE feiert 50. Geburtstag! 1974 – Bundeskanzler Willy Brandt und der US-Präsident Richard Nixon müssen zurücktreten, in Griechenland und Portugal enden Diktaturen und die Bundesrepublik Deutschland wird zum zweiten Mal Fußball-Weltmeister. Und am 9. Oktober 1974 erschien die erste Ausgabe der COMPUTERWOCHE – „Die aktuelle Wochenzeitung für die Computerwelt“, hieß es in der Unterzeile. 

IDG

IT, oder besser gesagt die EDV, war damals noch ein absolutes Nischenthema. Unternehmen wie Microsoft oder Oracle waren noch nicht gegründet. SAP werkelte mit gerade einmal 13 Mitarbeitern an ihren ersten Programmen. Intel hatte mit dem 8080 zwar den ersten echten 8-Bit-Mikroprozessor vorgestellt, von PCs oder gar Notebooks war allerdings noch keine Rede. Mobiltelefone oder Smartphones existierten nur im Reich der Science Fiction und an eine Plattform wie das Internet dachte damals niemand. Die DV bestimmte IBM mit seinen Mainframes. 

Immerhin gab es schon 1974 spannende Geschichten zu berichten – und die Themen waren gar nicht so weit von dem entfernt, was die IT-Verantwortlichen heute umtreibt. Damals wie heute geht es ums Geld und die Budgets. „Tuning spart Anwender 1 Million Mark“, war die erste Geschichte auf der Titelseite. Es drehte sich um Programm-Durchlaufzeiten und die CPU-Auslastung – also um Optimierung. In den USA klagte die US-Regierung gegen IBM wegen Monopolvorwürfen – heute geht es in den Verfahren um die Marktmacht der Internetgiganten wie Amazon, Facebook und Google. Zudem wurde schon vor 50 Jahren das Thema Fachkräfte diskutiert: Vor allem der Bedarf an Operatoren, Programmierern und Systemanalytikern sollte weiter steigen, so die Prognosen des Bundesministeriums für Forschung und Technologie, wie es vor 50 Jahren hieß. 

Das waren damals unter anderen die Themen der ersten Ausgabe der COMPUTERWOCHE. „Datenverarbeiter können Entscheidungen nur auf Basis richtiger und rechtzeitiger Informationen treffen, in Kenntnis aller Alternativen“, lautete das Credo des Redaktionsteams der ersten Stunde. „Die schnelllebige EDV-Branche braucht eine schnelle Zeitung.“ Schon vor 50 Jahren schrieben sich die Redakteurinnen und Redakteure der COMPUTERWOCHE auf die Fahnen, den Anwender in den Mittelpunkt zu stellen. „Ihm Entscheidungshilfen zu liefern neue Lösungen und Wege zu kostengünstigeren Verfahren aufzuzeigen, ist das Ziel der Redaktion.“ Kleine Randnotiz: Die DV war eindeutig noch viel extremer als heute eine Männerdomäne. 

Nur die wenigsten unserer Leserinnen und Leser werden sich an diese Zeiten zurückerinnern. Aber vielleicht gibt es manche unter ihnen, die vor 50 Jahren schon erste Anknüpfungspunkte mit DV/IT hatten, oder jemanden kennen, der damals schon in der Branche unterwegs war. Erinnern Sie sich oder haben Sie eine interessante Geschichte mit der COMPUTERWOCHE erlebt? Ich würde mich sehr freuen, wenn Sie ihre Geschichten, Erlebnisse oder Anekdoten mit mir teilen: martin.bayer@foundryco.com 

In diesem Sinne – ich freue mich auf Ihr Feedback und auf die nächsten 50 Jahre spannende IT-Entwicklungen und Berichterstattung. 

Ihr Martin Bayer 

Editor in Chief B2BCOMPUTERWOCHE | CIO | CSO

Die COMPUTERWOCHE wird 50​ Read More »

Chrome Remote Desktop Tutorial: So geht Fernzugriff per Google-Browser​

Chrome Remote Desktop Tutorial: So geht Fernzugriff per Google-Browser​

Allgemein

Fernzugriff funktioniert mit Chrome Remote Desktop denkbar schnell, einfach und kostenlos. Foto: Google In einer gar nicht so fernen Welt erforderte der Fernzugriff auf einen Computer noch jede Menge teure und komplexe Software sowie technische Expertise. Das sieht heutzutage glücklicherweise ganz anders aus – kostenlosen Services wie Chrome Remote Desktop von Google sei Dank. Die Software sorgt dafür, dass Sie Windows-, Mac- und Linux-Systeme aus der Ferne bedienen können, als säßen Sie direkt davor. Das kann sowohl beruflich als auch im privaten Bereich nützlich sein. Ebenso wertvoll ist jedoch die Möglichkeit, auch auf die Systeme anderer Benutzer aus der Ferne zugreifen zu können – nicht zu bösartigen Zwecken versteht sich, sondern beispielsweise, um Support für Kollegen oder Familienmitglieder zu leisten. Oder um selbst Hilfestellung zu erhalten. Das Beste an Chrome Remote Desktop: Die Lösung einzurichten und zu nutzen, ist denkbar einfach. Wie einfach, lesen Sie in diesem Tutorial. Dabei sollten Sie beachten, dass Googles Remote-Desktop-Lösung möglicherweise nicht mit Google-Workspace-Konten funktioniert, die von der Unternehmens-IT gemanagt werden. Mit Chrome Remote Desktop auf eigenen PC zugreifen Schritt 1: Rechner für Fernzugriff vorbereiten Wenn Sie von einem anderen Desktop oder Mobilgerät aus auf Ihren eigenen Computer zugreifen möchten: Öffnen Sie zunächst Chrome auf dem Host-Computer. Rufen Sie dann die URL remotedesktop.google.com/access auf. Anschließend navigieren Sie zu “Fernzugriff” innerhalb der Chrome Remote Desktop Web-App und klicken auf das blaue Pfeilsymbol im Feld “Fernzugriff einrichten”. Sie werden nun aufgefordert, die Chrome Remote Desktop Extension herunterzuladen. Folgen Sie der Aufforderung und klicken Sie auf die Schaltfläche “Zu Chrome hinzufügen”. Wechseln Sie anschließend wieder zu Ihrer ursprünglichen Registerkarte und klicken Sie nun auf “Einschalten”. Nachdem Sie dem Computer einen Namen gegeben haben, werden Sie aufgefordert, eine PIN mit mindestens sechs Ziffern zu erstellen. Diese benötigen Sie aus Sicherheitsgründen zusätzlich zur Anmeldung in Ihrem Google-Konto, um den Fernzugriff nutzen zu können (laut Google werden alle Remote-Desktop-Sitzungen zusätzlich auch verschlüsselt). Den Namen Ihres Rechners können Sie frei wählen. Hauptsache, Sie erkennen das Device anschließend zuverlässig. Foto: JR Raphael | IDG Damit haben Sie den ersten Schritt auch schon erledigt. Möglicherweise verlangt Ihr Betriebssystem weitere Berechtigungen, um eine Remote-Verbindung aufbauen zu können. Ist dieser Punkt erledigt, funktioniert der Fernzugriff, sobald der Rechner in der Ferne eingeschaltet ist und Chrome läuft (was es normalerweise immer tut, weil der Browser standardmäßig automatisch startet und im Hintergrund läuft). Falls Sie mit längerfristigen Remote-Desktop-Verbindungen planen, müssen Sie möglicherweise die Energiemanagement-Einstellungen Ihres Rechners anpassen, um sicherzustellen, dass das System nicht in den Ruhezustand wechselt. Wenn Sie Remote-Verbindungen deaktivieren möchten, stehen Ihnen zwei Wege zur Verfügung: Klicken Sie auf das Chrome-Remote-Desktop-Symbol im Erweiterungsmenü Ihres Browsers (das puzzleförmige Symbol rechts neben der Adressleiste) und klicken Sie anschließend auf das Papierkorbsymbol neben dem Namen Ihres Computers. Deinstallieren Sie die Chrome Remote Desktop Extension über das Browsermenü. Schritt 2: Über Desktop oder Mobilgerät auf den Rechner zugreifen Jetzt kommt der einfache Teil: Sobald der Fernzugriff auf Ihrem Host-Computer eingerichtet ist, müssen Sie lediglich erneut die URL remotedesktop.google.com/access in Chrome aufrufen, um von einem anderen Desktop-Computer zugreifen zu können. Das setzt lediglich voraus, dass Sie mit demselben Google-Konto, das Sie auf dem Host-System verwendet haben, bei Chrome angemeldet sind. Es sollte nun der zuvor zugewiesene Name Ihres Computers angezeigt werden – ein Klick darauf initialisiert zuerst die PIN-Eingabe und dann den Fernzugriff. Eine Seitenleiste bietet zudem Optionen, um die Anzeigenoptionen zu ändern und komplexe Befehle wie Strg+Alt+Entf zu senden. Chrome Remote Desktop realisiert Fernzugriff per Browser-Tab. Foto: JR Raphael | IDG Um über ein Mobilgerät aus der Ferne auf Ihren PC zuzugreifen, benötigen Sie die Chrome Remote Desktop-App für iOS oder Android. Vorausgesetzt, Sie sind auf Ihrem Mobiltelefon oder Tablet mit demselben Google-Konto angemeldet, zeigt die App automatisch den Remote-Rechner an. Ein Klick, respektive Tipp und die Eingabe der zuvor festgelegten PIN stellen eine Verbindung her. Wenn Ihr Telefon oder Tablet mit demselben Google-Konto angemeldet ist, das Sie auf Ihrem Computer verwendet haben, zeigt die App automatisch den Host-PC an und ermöglicht es Ihnen, mit einem kurzen Tippen und der Eingabe Ihrer PIN eine Verbindung herzustellen. Zur Steuerung stehen sowohl unter iOS als auch Android verschiedene Modi zur Wahl (“Trackpad”, “Direct Touch”, “Tastatur”). Die mobile Chrome-Remote-Desktop-Erfahrung ist für längere Fernzugriffs-Sessions eher nicht empfehlenswert. Foto: JR Raphael | IDG Unabhängig davon, welche Methode Sie wählen: Das ist nicht die eleganteste Art und Weise, einen Computer zielführend zu bedienen. Allerdings kann der Fernzugriff über ein Mobile Device trotzdem praktisch sein, wenn es um kleinere Tasks wie einen Systemneustart geht. Mit Chrome Remote Desktop einen Rechner freigeben Schritt 1: Bereiten Sie den Computer für Verbindungen vor Wenn Sie zu Support-Zwecken auf einen fremden Rechner zugreifen möchten oder selbst Unterstützung benötigen, sieht der Setup-Prozess von Chrome Remote Desktop etwas anders aus. Falls erstgenanntes Szenario greift, beinhaltet er auch die Kommunikation mit dem Dritten, der physisch auf den Rechner zugreifen kann, zu dem eine Remote-Verbindung aufgebaut werden soll. Auf diesem muss darüber hinaus auch die Chrome Remote Desktop Extension installiert sein. Der Ablauf: Öffnen Sie (beziehungsweise der Dritte) zunächst Chrome auf dem Host-Computer. Rufen Sie dann die URL remotedesktop.google.com/support auf. Navigieren Sie zu “Unterstützung erhalten” und klicken Sie auf “Herunterladen”. Ist die Erweiterung installiert, wählen Sie unter “Unterstützung erhalten” die Option “Code generieren”. Der resultierende Code ist einmalig und nur für fünf Minuten gültig und wird von der Person, die remote zugreifen möchte, genutzt, um die Verbindung herzustellen. Schritt 2: Mit dem Rechner verbinden Falls Sie Support leisten und per Fernzugriff auf den vorbereiteten PC zugreifen wollen, müssen Sie folgendermaßen vorgehen: Öffnen Sie Chrome uns rufen Sie die URL remotedesktop.google.com/support auf. Geben Sie den Zugangscode in das Feld “Unterstützung anbieten” ein. Anschließend stellen Sie mit einem Klick auf die entsprechende Schaltfläche die Verbindung her. Nun muss die Person am anderen Ende der Leitung nur noch den Fernzugriff genehmigen. MacOS-Benutzer müssen dazu möglicherweise auch Berechtigungen erteilen. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Chrome Remote Desktop Tutorial: So geht Fernzugriff per Google-Browser​ Fernzugriff funktioniert mit Chrome Remote Desktop denkbar schnell, einfach und kostenlos.
Foto: Google

In einer gar nicht so fernen Welt erforderte der Fernzugriff auf einen Computer noch jede Menge teure und komplexe Software sowie technische Expertise. Das sieht heutzutage glücklicherweise ganz anders aus – kostenlosen Services wie Chrome Remote Desktop von Google sei Dank. Die Software sorgt dafür, dass Sie Windows-, Mac- und Linux-Systeme aus der Ferne bedienen können, als säßen Sie direkt davor.

Das kann sowohl beruflich als auch im privaten Bereich nützlich sein. Ebenso wertvoll ist jedoch die Möglichkeit, auch auf die Systeme anderer Benutzer aus der Ferne zugreifen zu können – nicht zu bösartigen Zwecken versteht sich, sondern beispielsweise, um Support für Kollegen oder Familienmitglieder zu leisten. Oder um selbst Hilfestellung zu erhalten.

Das Beste an Chrome Remote Desktop: Die Lösung einzurichten und zu nutzen, ist denkbar einfach. Wie einfach, lesen Sie in diesem Tutorial. Dabei sollten Sie beachten, dass Googles Remote-Desktop-Lösung möglicherweise nicht mit Google-Workspace-Konten funktioniert, die von der Unternehmens-IT gemanagt werden.

Mit Chrome Remote Desktop auf eigenen PC zugreifen

Schritt 1: Rechner für Fernzugriff vorbereiten

Wenn Sie von einem anderen Desktop oder Mobilgerät aus auf Ihren eigenen Computer zugreifen möchten:

Öffnen Sie zunächst Chrome auf dem Host-Computer.

Rufen Sie dann die URL remotedesktop.google.com/access auf.

Anschließend navigieren Sie zu “Fernzugriff” innerhalb der Chrome Remote Desktop Web-App und klicken auf das blaue Pfeilsymbol im Feld “Fernzugriff einrichten”.

Sie werden nun aufgefordert, die Chrome Remote Desktop Extension herunterzuladen. Folgen Sie der Aufforderung und klicken Sie auf die Schaltfläche “Zu Chrome hinzufügen”.

Wechseln Sie anschließend wieder zu Ihrer ursprünglichen Registerkarte und klicken Sie nun auf “Einschalten”.

Nachdem Sie dem Computer einen Namen gegeben haben, werden Sie aufgefordert, eine PIN mit mindestens sechs Ziffern zu erstellen. Diese benötigen Sie aus Sicherheitsgründen zusätzlich zur Anmeldung in Ihrem Google-Konto, um den Fernzugriff nutzen zu können (laut Google werden alle Remote-Desktop-Sitzungen zusätzlich auch verschlüsselt).

Den Namen Ihres Rechners können Sie frei wählen. Hauptsache, Sie erkennen das Device anschließend zuverlässig.
Foto: JR Raphael | IDG

Damit haben Sie den ersten Schritt auch schon erledigt. Möglicherweise verlangt Ihr Betriebssystem weitere Berechtigungen, um eine Remote-Verbindung aufbauen zu können. Ist dieser Punkt erledigt, funktioniert der Fernzugriff, sobald der Rechner in der Ferne eingeschaltet ist und Chrome läuft (was es normalerweise immer tut, weil der Browser standardmäßig automatisch startet und im Hintergrund läuft). Falls Sie mit längerfristigen Remote-Desktop-Verbindungen planen, müssen Sie möglicherweise die Energiemanagement-Einstellungen Ihres Rechners anpassen, um sicherzustellen, dass das System nicht in den Ruhezustand wechselt.

Wenn Sie Remote-Verbindungen deaktivieren möchten, stehen Ihnen zwei Wege zur Verfügung:

Klicken Sie auf das Chrome-Remote-Desktop-Symbol im Erweiterungsmenü Ihres Browsers (das puzzleförmige Symbol rechts neben der Adressleiste) und klicken Sie anschließend auf das Papierkorbsymbol neben dem Namen Ihres Computers.

Deinstallieren Sie die Chrome Remote Desktop Extension über das Browsermenü.

Schritt 2: Über Desktop oder Mobilgerät auf den Rechner zugreifen

Jetzt kommt der einfache Teil: Sobald der Fernzugriff auf Ihrem Host-Computer eingerichtet ist, müssen Sie lediglich erneut die URL remotedesktop.google.com/access in Chrome aufrufen, um von einem anderen Desktop-Computer zugreifen zu können. Das setzt lediglich voraus, dass Sie mit demselben Google-Konto, das Sie auf dem Host-System verwendet haben, bei Chrome angemeldet sind.

Es sollte nun der zuvor zugewiesene Name Ihres Computers angezeigt werden – ein Klick darauf initialisiert zuerst die PIN-Eingabe und dann den Fernzugriff. Eine Seitenleiste bietet zudem Optionen, um die Anzeigenoptionen zu ändern und komplexe Befehle wie Strg+Alt+Entf zu senden.

Chrome Remote Desktop realisiert Fernzugriff per Browser-Tab.
Foto: JR Raphael | IDG

Um über ein Mobilgerät aus der Ferne auf Ihren PC zuzugreifen, benötigen Sie die Chrome Remote Desktop-App für iOS oder Android. Vorausgesetzt, Sie sind auf Ihrem Mobiltelefon oder Tablet mit demselben Google-Konto angemeldet, zeigt die App automatisch den Remote-Rechner an. Ein Klick, respektive Tipp und die Eingabe der zuvor festgelegten PIN stellen eine Verbindung her.

Wenn Ihr Telefon oder Tablet mit demselben Google-Konto angemeldet ist, das Sie auf Ihrem Computer verwendet haben, zeigt die App automatisch den Host-PC an und ermöglicht es Ihnen, mit einem kurzen Tippen und der Eingabe Ihrer PIN eine Verbindung herzustellen. Zur Steuerung stehen sowohl unter iOS als auch Android verschiedene Modi zur Wahl (“Trackpad”, “Direct Touch”, “Tastatur”).

Die mobile Chrome-Remote-Desktop-Erfahrung ist für längere Fernzugriffs-Sessions eher nicht empfehlenswert.
Foto: JR Raphael | IDG

Unabhängig davon, welche Methode Sie wählen: Das ist nicht die eleganteste Art und Weise, einen Computer zielführend zu bedienen. Allerdings kann der Fernzugriff über ein Mobile Device trotzdem praktisch sein, wenn es um kleinere Tasks wie einen Systemneustart geht.

Mit Chrome Remote Desktop einen Rechner freigeben

Schritt 1: Bereiten Sie den Computer für Verbindungen vor

Wenn Sie zu Support-Zwecken auf einen fremden Rechner zugreifen möchten oder selbst Unterstützung benötigen, sieht der Setup-Prozess von Chrome Remote Desktop etwas anders aus. Falls erstgenanntes Szenario greift, beinhaltet er auch die Kommunikation mit dem Dritten, der physisch auf den Rechner zugreifen kann, zu dem eine Remote-Verbindung aufgebaut werden soll. Auf diesem muss darüber hinaus auch die Chrome Remote Desktop Extension installiert sein. Der Ablauf:

Öffnen Sie (beziehungsweise der Dritte) zunächst Chrome auf dem Host-Computer.

Rufen Sie dann die URL remotedesktop.google.com/support auf.

Navigieren Sie zu “Unterstützung erhalten” und klicken Sie auf “Herunterladen”.

Ist die Erweiterung installiert, wählen Sie unter “Unterstützung erhalten” die Option “Code generieren”.

Der resultierende Code ist einmalig und nur für fünf Minuten gültig und wird von der Person, die remote zugreifen möchte, genutzt, um die Verbindung herzustellen.

Schritt 2: Mit dem Rechner verbinden

Falls Sie Support leisten und per Fernzugriff auf den vorbereiteten PC zugreifen wollen, müssen Sie folgendermaßen vorgehen:

Öffnen Sie Chrome uns rufen Sie die URL remotedesktop.google.com/support auf.

Geben Sie den Zugangscode in das Feld “Unterstützung anbieten” ein.

Anschließend stellen Sie mit einem Klick auf die entsprechende Schaltfläche die Verbindung her.

Nun muss die Person am anderen Ende der Leitung nur noch den Fernzugriff genehmigen. MacOS-Benutzer müssen dazu möglicherweise auch Berechtigungen erteilen.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Chrome Remote Desktop Tutorial: So geht Fernzugriff per Google-Browser​ Read More »

Was macht ein Projektleiter?​

Was macht ein Projektleiter?​

Allgemein

Interne und externe Stakeholder zur Projektplanung an einen Tisch zu holen, ist nur eine der Aufgaben einer Projektleiterin. Foto: fizkes – shutterstock.com Projektleiter und Projektleiterinnen gestalten Veränderung. Eine spannende Aufgabe, schließlich tragen Projekte zur Weiterentwicklung von Unternehmen bei, z. B. bei der Umsetzung von Innovationen oder der Optimierung bestehender Dinge – und zahlen so auf das Erreichen der Unternehmensziele ein. Das Arbeitsumfeld der Projektleiter ist insofern abwechslungsreich, mit immer neuen Themen und Kolleginnen und Kollegen aus dem gesamten Unternehmen, häufig auch hierarchieübergreifend. Entsprechend kompetent und flexibel muss die Person sein und sich auf neue Vorgaben, Ziele und Menschen einstellen können. Darum sind Führungskompetenzen und Soft Skills neben den reinen Projektmanagement-Techniken vonnöten. Der folgende Artikel beschreibt das Berufsbild und die besonderen Erfolgsfaktoren im Unternehmensalltag von Projektleitern. Projektleiter vs. Projektmanager Projektleiter oder Projektmanager? Beide Begriffe werden häufig synonym gebraucht. Dabei basiert diese unterschiedliche Benennung simpel auf deren Herkunft. Während der Projektleiter seinen Ursprung in der DIN und dem deutschen Sprachgebrauch findet, entstammt der Projektmanager eher den englischsprachigen Projektstandards. Darüber hinaus werden die beiden Begriffe in der Literatur auch inhaltlich unterschiedlich charakterisiert: Der Projektleiter verantwortet das Projektergebnis. Der Projektmanager stellt die operative Umsetzung und die Nutzung der entsprechenden Standards sicher. Damit hat der Projektleiter die umfassendere Projektverantwortung. In der Praxis empfiehlt es sich immer, die standardisierte Rollenbeschreibung in ihren spezifischen Aufgaben, Kompetenzen und Verantwortungen zu justieren und auf den individuellen Bedarf des Unternehmens, die Kultur und die Menschen auszurichten – unabhängig von der jeweiligen Etikettierung. Diese Beschreibung fokussiert auf den Projektleiter und meint implizit immer auch die Projektleiterin. Projektleiter – Berufsbild & Aufgaben Der Projektleiter verantwortet das Erreichen des Projektergebnisses. Was sich so einfach anhört, erfordert ein ganzes Bündel an Aufgaben. Und zwar auf unterschiedlichen Ebenen. Auf der rein projekttechnischen Ebene ist er für alle Aktivitäten entlang des Projektmanagement-Prozesses zuständig, nämlich: die Planung und Organisation der für die Zielerreichung zu erledigenden Aufgaben; das Schätzen der Aufwände; die Planung der Termine und Ressourcen; die Kalkulation der Kosten wie auch die Identifikation der Risiken; und die Kontrolle dieser Aufgaben sowie die Steuerung der Abweichungen. Darüber hinaus verantwortet der Projektleiter die professionelle und passgenaue Anwendung der ausgewählten Projektmanagement-Methoden (auch deren Kombination), die Dokumentation des Projektes, wie auch dessen Abschluss mit einem entsprechenden Review. In diesem Review geht es darum, die Erfahrungen aus diesem Projekt zu sichern und so zur weiteren Entwicklung der Projektkompetenz der Organisation beizutragen. All das sind Aufgaben, die Professionalität und Erfahrung erfordern, allein allerdings keinen Projekterfolg ausmachen. Dieser wird auf der zweiten Aufgaben-Ebene des Projektleiters entschieden. Wir wissen heute, dass Projekterfolg zu 80 Prozent auf der Führungskompetenz des Projektleiters basiert. Diesem Wissen trägt auch wieder die letzte Aktualisierung des Projektstandards der International Project Management Association (IPMA), die Individual Competence Baseline Version 4.0 (ICB 4), Rechnung. Der Kompetenzbereich der persönlichen und sozialen Kompetenzen, der People, umfasst zehn Kompetenzen von der Selbstreflexion und dem Selbstmanagement über Kommunikation und Führung bis hin zur Ergebnisorientierung. Die Aufgaben eines Projektleiters, um Projektziele zu erreichen, sind umfassend. Foto: Sabine Dietrich Projektleitung ist eine Führungsaufgabe Der Projektleiter wird häufig als “Führungskraft auf Zeit”, also für die Zeit seiner Projektleitung, verstanden. Dabei führt der Projektleiter häufig ohne disziplinarische Befugnisse, was wir als Führung PUR verstehen. Er muss ohne alle hierarchischen Instrumente oder auch Sterne auf den Schulterklappen auskommen und dennoch sein Team zum Erfolg führen. Zudem ist das Team häufig hierarchie- und bereichsübergreifend zusammengesetzt. In diesem Sinn nimmt der Projektleiter also alle notwendigen Führungsaufgaben wahr: Er verhandelt die Ziele mit dem Auftraggeber, er gestaltet sein Team, wobei erschwerend dazu kommt, dass er sich seine Teammitglieder häufig nicht auswählen kann. Er führt Mitarbeitergespräche, motiviert, löst Konflikte, eskaliert im Rahmen seiner Kompetenzen unlösbare Themen. Eskalationsmanagement ist eine häufig unterschätzte Aufgabe: Wann eskaliere ich was an wen? Diese Frage muss zu Anfang eines Projektes geklärt und anschließend auch entsprechend gelebt werden. Was auf der Grundlage zu Projektstart getroffener klarer Vereinbarungen immer einfacher ist als in einer kritischen, zu eskalierenden Situation im Projektverlauf. Der Projektleiter führt durch Meetings, moderiert Arbeitsgruppen und sorgt mit seiner Methodenkompetenz für Problemlösungen. Auf dieser Grundlage bereitet er Entscheidungsvorlagen nicht nur vor, sondern sorgt auch dafür, dass die notwendigen Entscheidungen getroffen werden. Um die Basis für den Projekterfolg zu legen, steuert er zudem die Stakeholder seines Projektes, also alle im Unternehmen und darüber hinaus, die Einfluss auf das Projekt und dessen Ergebnisse haben. Dazu ist die zielgruppengerechte Vertretung des Projektes nach außen, auch in den unterschiedlichen Gremien wie z.B. dem Lenkungsausschuss oder der Geschäftsführung, erforderlich – was ein gewisses Maß an politischem Geschick und Diplomatie sowie systemischem Denken erfordert. Letztlich muss der Projektleiter auf beiden Ebenen, der Projekttechnik wie der Führung, alles tun, um das Projektziel zu erreichen. Dazu muss er Strukturen schaffen und die richtigen Methoden einsetzen – jenseits der tradierten Führungsrolle von “command & control”. Projektleiter – Voraussetzungen & Ausbildung Ein Projektleiter muss also über vielfältige Kompetenzen verfügen: Neben der Projektmanagement-Kompetenz als Management-Technik sind ausgeprägte Führungskompetenzen erforderlich. Abhängig vom Unternehmenskontext und Projekt können auch unternehmerische und fachlich-inhaltliche Fähigkeiten relevant sein. Dabei stellt sich immer wieder die Frage, inwiefern der Projektleiter ein guter Fachmann sein muss. Nachdem jahrzehntelang der beste Fachmann Führungskraft oder Projektleiter wurde, wandelt sich diese Sichtweise in Unternehmen. Sicher muss ein Projektleiter die Inhalte und Ziele seines Projektes verstehen, er muss aber in keinem Fall in der Lage sein, alles fachlich selbst tun zu können. Vielmehr muss er Zusammenhänge und Strukturen erkennen und die richtigen Fragen stellen, z. B. um blinde Flecken der Fachleute auszuleuchten. Eine solide Fachkenntnis unterstützt dabei sicher. Als Projektleiter agieren in Unternehmen zumeist Mitarbeiterinnen oder Mitarbeiter, die sich im Rahmen ihres Berufswegs und ihrer Erfahrung zum Projektleiter qualifiziert haben und diese Rolle im Rahmen einer Weiterentwicklung übernehmen. Dabei garantiert eine spezifische Ausbildung oder gar ein Zertifikat (leider) keine erfolgreiche Projektleitung. Und schon gar nicht die vielfach beworbenen Lehrgänge “In 14 Tagen zum Projektleiter”. Die Frage nach dem WARUM lässt sich einfach beantworten. Oder kennen Sie einen Fahrschüler, der nach gerade bestandener Führerscheinprüfung Auto fahren kann? Sicher legt eine Ausbildung mit der Vermittlung des notwendigen Wissens einen Grundstein für eine erfolgreiche Projektleitung. Entscheidend ist letztlich aber die Anwendung des Wissens in der Praxis und die Erfahrung des Projektleiters. Voraussetzung für eine Projektleitung ist meist eine einschlägige Ausbildung im jeweiligen Fachbereich, häufig ein abgeschlossenes (Fach-) Hochschulstudium. Darüber hinaus sind wie auch in Führungspositionen sehr gut ausgeprägte Soft Skills entscheidend. Anpassungsfähigkeit und ein hohes Maß an Flexibilität gehören ebenso dazu wie ausgeprägte soziale Kompetenzen und exzellente kommunikative Fähigkeiten – verbunden mit dem Mut, auch NEIN zu sagen und Probleme zu eskalieren. Erfolgreiche Projektleitung erfordert zudem Rückgrat, ein klares Selbstbewusstsein des Projektleiters sowie einen souveränen Umgang mit dem Projektmanagement-Methodenset. Letztlich also Professionalität, die um so zwingender in Matrixorganisationen ist. Schließlich führen Projektleiter hier hierarchisch höher angesiedelte Führungskräfte, auch unternehmensweit – teilweise sogar die eigene Linienführungskraft. Projektleiter-Jobs – Ausbildungsmöglichkeiten Wie können Projektleiter die oben genannten Kompetenzen erwerben? Vorab: DIE klassische Ausbildung zum Projektleiter gibt es nicht. Aber sicher verschiedene Wege, um sich auf die Aufgabe vorzubereiten: Studium: Es existieren Studiengänge, die sich ausschließlich mit Projektmanagement befassen und den Studierenden die notwendigen Kompetenzen vermitteln. Darüber hinaus vermitteln zahlreiche Studiengänge neben den jeweiligen fachlichen Inhalten auch Managementkompetenzen im Fachbereich Projektmanagement.Wer also im Projektmanagement tätig sein möchte, sollte Angebote und Studienpläne der unterschiedlichen Universitäten und Fachhochschulen dahingehend prüfen, inwiefern ganze Studiengänge oder einzelne Projektmanagement-Module – mit welchem Schwerpunkt und Umfang – angeboten werden. Und sich die Frage beantworten, welche Intensität er an universitär vermittelten Projektmanagement-Kompetenzen für sein Berufsziel benötigt. Praxisbegleitende Projektmanagement-Fortbildung: Ein etablierter Weg findet sich auch in den Katalogen der zahlreichen Trainingsinstitute, die Projektmanagement-Ausbildungen und -Fortbildungen anbieten. Neben Grundausbildungen gibt es diverse Vertiefungsmöglichkeiten zu Spezialthemen, so dass letztlich alle erforderlichen Kompetenzen hier erworben werden können. Diese Qualifizierung können Projektleiter entweder einzeln bei dem jeweiligen Anbieter wahrnehmen oder Unternehmen bieten diese Aus- und Fortbildungen passgenau für ihren Bedarf als firmeninterne Veranstaltung an. Erfahrungsgemäß ist zumeist der zweite aufgezeigte Weg der firmeninternen Veranstaltung nachhaltiger, zumal hier die Möglichkeit der Individualisierung der Inhalte z. B. durch Einbindung vorhandener Prozesse, Methoden und Templates besteht. Darüber hinaus ist er bereits bei der Ausbildung einer geringen Anzahl von Projektleitern für Unternehmen weniger kostenintensiv. Erfolgsrelevant bei diesem Qualifizierungsweg ist in jedem Fall die Frage nach dem Trainer. Verfügt er oder sie neben dem erforderlichen theoretischen Wissen auch über ausreichend eigene Praxiserfahrung und kann so den Transfer in den Unternehmens- und Projektalltag unterstützen und für nachhaltig wirksame Ergebnisse sorgen? Die Vermittlung rein theoretischen Wissens oder angelesener Expertise ist zwar weit verbreitet, erweist sich jedoch letztlich im Projekt- und Unternehmensalltag als nicht wirksam. Projektmanagement-Qualifikation mit Zertifizierung: Ein dritter Weg geht über eine Projektmanagement-Qualifikation mit anschließender Zertifizierung nach einem der etablierten Standards. Die Angebote und Zertifizierungen unterscheiden sich nicht nur hinsichtlich des erforderlichen Aufwandes für die Prüfung, sondern auch in Hinblick auf die inhaltlichen Schwerpunkte, die Prüfungsmodalitäten und die Zugangsvoraussetzungen. So ist je nach Art des Zertifikats und des Levels beispielsweise zusätzlich Praxiserfahrung nachzuweisen. Hier gilt es zunächst vor allem zu prüfen, welcher Standard für die zu führenden Projekte, die Branche oder das Unternehmen perspektivisch am zielführendsten ist – und inwiefern die Zertifizierung als solche für die eigene Projektleitung oder auch die persönliche berufliche Weiterentwicklung relevant ist. Projektleiter – Karrieremöglichkeiten Projektleiter ist nicht gleich Projektleiter – das liegt auf der Hand. Der eine Projektleiter verantwortet den Umbau der Kantine oder einen kleineren Release einer App, während der andere für den Aufbau eines neuen Werkes in Mexiko oder für die unternehmensumfassende, globale Einführung eines neues SAP-Systems zuständig ist. Diese unterschiedlichen Projektgrößen sind mit entsprechend unterschiedlichen Anforderungen und mit unterschiedlicher Komplexität verbunden – und erfordern insofern auch einen anderen Kompetenz- und Erfahrungshorizont der Projektleiter. Die etablierten Projektmanagement-Standards bilden diese Unterschiedlichkeit mit entsprechenden Kompetenzmodellen auf verschiedenen Stufen ab. Die International Project Management Association entwickelt z. B. Projektleiter über fünf Level – vom Einsteiger bis zum Projektexperten auf höchstem Level. Der Standard des Project Management Instituts PMI bietet ebenfalls fünf Stufen und zusätzlich die Zertifizierung für bestimmte Themenstellungen des Projektmanagements. Diese Level veranschaulichen die formalisierten Entwicklungsmöglichkeiten eines Projektleiters. In Zeiten von flachen Hierarchien entwickeln viele Unternehmen eigene, spezifische Projektmanagement-Karrieremodelle, um parallel zur Führungs- oder Fachlaufbahn einen Karriereweg zu etablieren. Beim “Kampf um die besten Köpfe” werden so Mitarbeiterinnen und Mitarbeitern Entwicklungsperspektiven ermöglicht und so an das Unternehmen gebunden. Diese Projektmanagement-Laufbahnen sind sicher von Unternehmen zu Unternehmen verschieden. Allerdings sollte sie mindestens drei Karrierestufen enthalten und so attraktiv wie die Laufbahnen für Führungskräfte und Fachleute gestaltet sein – hinsichtlich Weiterbildung, Aufgabenumfang, Kompetenzen, Verantwortung sowie Gehalt. Neben diesen formalen Wegen qualifizieren sich viele Projektleiter in Unternehmen darüber hinaus implizit mit jeder erfolgreichen Projektleitung für die nächste, zumeist anspruchsvollere Aufgabe im Projektmanagement. Denn Projektleitung ist von der Aufgabe her immer mit erhöhter Sichtbarkeit verbunden und wird vielfach auch als Empfehlung für klassische Führungsaufgaben verstanden, wofür ein Projektleiter nach einem erfolgreiche Projekt in jedem Fall bestens gerüstet ist. Projektleiter – Die 5 Erfolgsfaktoren Zusammengefasst muss der Projektleiter eine Vielzahl an Aufgaben bedienen und damit auch entsprechende Rollen vereinen: Er ist Manager, Führungskraft, Kommunikator, Moderator, Konflikt- und Problemlöser, Fachmann und Unternehmer. Der Unterschied zur eierlegenden Wollmilchsau: Der Projektleiter kann all diese Rollen erfüllen und seine Aufgabe zum Erfolg bringen. Fünf Faktoren zahlen dabei direkt auf seinen Erfolg ein: Eine solide Projektmanagement-Qualifizierung, die Theorie und Praxiswissen vermittelt, Best Practices nutzt und so für nachhaltige Umsetzbarkeit sorgt. Seine Persönlichkeit mit ausgeprägten kommunikativen Fähigkeiten und einem gewissen politischen Geschick (vor allem in Großprojekten) – und der Bereitschaft, hierarchie- und bereichsübergreifend zu führen sowie dem Rückgrat, Dinge klar zu benennen und gegebenenfalls auch NEIN zu sagen. Ein klares Rollenprofil mit definierten Aufgaben, Kompetenzen und Verantwortung sowie einem Bewusstsein der eigenen Verantwortung und Rolle, was vor allem für in Unternehmen häufig vertretene Matrixorganisationen und die Projektleitung als “Zusatzaufgabe” relevant ist. Systemisches Denken in klaren Strukturen, um Zusammenhänge zu identifizieren und informelle Strukturen und Netzwerke innerhalb und außerhalb des Unternehmens passgenau nutzen und steuern zu können. Die Verankerung der Rolle der Projektleitung und der Projektorganisation insgesamt im Unternehmen, was dem Projektleiter Rückendeckung verschafft und auf die Akzeptanz einer Führung auf Zeit einzahlt, zudem eine transparente Ressourcenzuteilung ermöglicht. (bw) Fachkarrieren als Erfolgsprojekt zur MitarbeiterbindungPraxistipps: Wie Sie Karrierekonzepte für Fachkräfte umsetzen Foto: Sergey Nivens – shutterstock.comFachkräfte sind für den Unternehmenserfolg unverzichtbar. Für Arbeitgeber ist es deshalb besonders sinnvoll, diesen Spezialisten von vorneherein Karrierechancen aufzuzeigen, ohne ihr Potenzial zwangsläufig in Führungspositionen zu vergeuden. HR- und Organisationsexpertin Regina Bergdolt gibt Tipps, wie der Projekte für Fachkarrieren erfolgreich geplant und umgesetzt werden. Projektplan festlegen Foto: Robert Kneschke – shutterstock.comDefinieren Sie klar verständliche Ziele und einen Projektplan mit Meilensteinen. Gerade Vorstände brauchen Systematik, um Fachkarrieren zu unterstützen und Ressourcen freizumachen.Stakeholder definieren Foto: Robert Kneschke – shutterstock.comKlären Sie in einer Stakeholderanalyse: Wer treibt die Fachkarriere mit Ihnen, ein Machtpromotor, Führungskräfte, Mitarbeiter, Bewerber?Projektleitung auswählen Foto: Matej Kastelic – shutterstock.comWählen Sie eine Projektleitung mit HR-Erfahrung und Standing. Nicht alle HR-Abteilungen sind schon erfahren im Projektmanagement; das können Sie ändern. Expertise sicherstellen Foto: Jacek Dudzinski – shutterstock.comHolen Sie sich die Expertise ins Projekt, die Sie benötigen, anstatt an kritischen Punkten hängen zu bleiben.Fachkarriere aktiv bewerben Foto: Andrey_Popov – shutterstock.comNutzen Sie die Fachkarriere schon im Projektstadium aktiv als Angebot des Unternehmens: auf der Karriereseite und im Gespräch mit Bewerbern. 

Was macht ein Projektleiter?​ Interne und externe Stakeholder zur Projektplanung an einen Tisch zu holen, ist nur eine der Aufgaben einer Projektleiterin.
Foto: fizkes – shutterstock.com

Projektleiter und Projektleiterinnen gestalten Veränderung. Eine spannende Aufgabe, schließlich tragen Projekte zur Weiterentwicklung von Unternehmen bei, z. B. bei der Umsetzung von Innovationen oder der Optimierung bestehender Dinge – und zahlen so auf das Erreichen der Unternehmensziele ein. Das Arbeitsumfeld der Projektleiter ist insofern abwechslungsreich, mit immer neuen Themen und Kolleginnen und Kollegen aus dem gesamten Unternehmen, häufig auch hierarchieübergreifend. Entsprechend kompetent und flexibel muss die Person sein und sich auf neue Vorgaben, Ziele und Menschen einstellen können. Darum sind Führungskompetenzen und Soft Skills neben den reinen Projektmanagement-Techniken vonnöten.

Der folgende Artikel beschreibt das Berufsbild und die besonderen Erfolgsfaktoren im Unternehmensalltag von Projektleitern.

Projektleiter vs. Projektmanager

Projektleiter oder Projektmanager? Beide Begriffe werden häufig synonym gebraucht. Dabei basiert diese unterschiedliche Benennung simpel auf deren Herkunft. Während der Projektleiter seinen Ursprung in der DIN und dem deutschen Sprachgebrauch findet, entstammt der Projektmanager eher den englischsprachigen Projektstandards. Darüber hinaus werden die beiden Begriffe in der Literatur auch inhaltlich unterschiedlich charakterisiert:

Der Projektleiter verantwortet das Projektergebnis.

Der Projektmanager stellt die operative Umsetzung und die Nutzung der entsprechenden Standards sicher.

Damit hat der Projektleiter die umfassendere Projektverantwortung. In der Praxis empfiehlt es sich immer, die standardisierte Rollenbeschreibung in ihren spezifischen Aufgaben, Kompetenzen und Verantwortungen zu justieren und auf den individuellen Bedarf des Unternehmens, die Kultur und die Menschen auszurichten – unabhängig von der jeweiligen Etikettierung. Diese Beschreibung fokussiert auf den Projektleiter und meint implizit immer auch die Projektleiterin.

Projektleiter – Berufsbild & Aufgaben

Der Projektleiter verantwortet das Erreichen des Projektergebnisses. Was sich so einfach anhört, erfordert ein ganzes Bündel an Aufgaben. Und zwar auf unterschiedlichen Ebenen. Auf der rein projekttechnischen Ebene ist er für alle Aktivitäten entlang des Projektmanagement-Prozesses zuständig, nämlich:

die Planung und Organisation der für die Zielerreichung zu erledigenden Aufgaben;

das Schätzen der Aufwände;

die Planung der Termine und Ressourcen;

die Kalkulation der Kosten wie auch die Identifikation der Risiken; und

die Kontrolle dieser Aufgaben sowie die Steuerung der Abweichungen.

Darüber hinaus verantwortet der Projektleiter die professionelle und passgenaue Anwendung der ausgewählten Projektmanagement-Methoden (auch deren Kombination), die Dokumentation des Projektes, wie auch dessen Abschluss mit einem entsprechenden Review. In diesem Review geht es darum, die Erfahrungen aus diesem Projekt zu sichern und so zur weiteren Entwicklung der Projektkompetenz der Organisation beizutragen.

All das sind Aufgaben, die Professionalität und Erfahrung erfordern, allein allerdings keinen Projekterfolg ausmachen. Dieser wird auf der zweiten Aufgaben-Ebene des Projektleiters entschieden. Wir wissen heute, dass Projekterfolg zu 80 Prozent auf der Führungskompetenz des Projektleiters basiert. Diesem Wissen trägt auch wieder die letzte Aktualisierung des Projektstandards der International Project Management Association (IPMA), die Individual Competence Baseline Version 4.0 (ICB 4), Rechnung. Der Kompetenzbereich der persönlichen und sozialen Kompetenzen, der People, umfasst zehn Kompetenzen von der Selbstreflexion und dem Selbstmanagement über Kommunikation und Führung bis hin zur Ergebnisorientierung.

Die Aufgaben eines Projektleiters, um Projektziele zu erreichen, sind umfassend.
Foto: Sabine Dietrich

Projektleitung ist eine Führungsaufgabe

Der Projektleiter wird häufig als “Führungskraft auf Zeit”, also für die Zeit seiner Projektleitung, verstanden. Dabei führt der Projektleiter häufig ohne disziplinarische Befugnisse, was wir als Führung PUR verstehen. Er muss ohne alle hierarchischen Instrumente oder auch Sterne auf den Schulterklappen auskommen und dennoch sein Team zum Erfolg führen. Zudem ist das Team häufig hierarchie- und bereichsübergreifend zusammengesetzt.

In diesem Sinn nimmt der Projektleiter also alle notwendigen Führungsaufgaben wahr: Er verhandelt die Ziele mit dem Auftraggeber, er gestaltet sein Team, wobei erschwerend dazu kommt, dass er sich seine Teammitglieder häufig nicht auswählen kann. Er führt Mitarbeitergespräche, motiviert, löst Konflikte, eskaliert im Rahmen seiner Kompetenzen unlösbare Themen.

Eskalationsmanagement ist eine häufig unterschätzte Aufgabe: Wann eskaliere ich was an wen? Diese Frage muss zu Anfang eines Projektes geklärt und anschließend auch entsprechend gelebt werden. Was auf der Grundlage zu Projektstart getroffener klarer Vereinbarungen immer einfacher ist als in einer kritischen, zu eskalierenden Situation im Projektverlauf.

Der Projektleiter führt durch Meetings, moderiert Arbeitsgruppen und sorgt mit seiner Methodenkompetenz für Problemlösungen. Auf dieser Grundlage bereitet er Entscheidungsvorlagen nicht nur vor, sondern sorgt auch dafür, dass die notwendigen Entscheidungen getroffen werden.

Um die Basis für den Projekterfolg zu legen, steuert er zudem die Stakeholder seines Projektes, also alle im Unternehmen und darüber hinaus, die Einfluss auf das Projekt und dessen Ergebnisse haben. Dazu ist die zielgruppengerechte Vertretung des Projektes nach außen, auch in den unterschiedlichen Gremien wie z.B. dem Lenkungsausschuss oder der Geschäftsführung, erforderlich – was ein gewisses Maß an politischem Geschick und Diplomatie sowie systemischem Denken erfordert.

Letztlich muss der Projektleiter auf beiden Ebenen, der Projekttechnik wie der Führung, alles tun, um das Projektziel zu erreichen. Dazu muss er Strukturen schaffen und die richtigen Methoden einsetzen – jenseits der tradierten Führungsrolle von “command & control”.

Projektleiter – Voraussetzungen & Ausbildung

Ein Projektleiter muss also über vielfältige Kompetenzen verfügen: Neben der Projektmanagement-Kompetenz als Management-Technik sind ausgeprägte Führungskompetenzen erforderlich. Abhängig vom Unternehmenskontext und Projekt können auch unternehmerische und fachlich-inhaltliche Fähigkeiten relevant sein.

Dabei stellt sich immer wieder die Frage, inwiefern der Projektleiter ein guter Fachmann sein muss. Nachdem jahrzehntelang der beste Fachmann Führungskraft oder Projektleiter wurde, wandelt sich diese Sichtweise in Unternehmen. Sicher muss ein Projektleiter die Inhalte und Ziele seines Projektes verstehen, er muss aber in keinem Fall in der Lage sein, alles fachlich selbst tun zu können. Vielmehr muss er Zusammenhänge und Strukturen erkennen und die richtigen Fragen stellen, z. B. um blinde Flecken der Fachleute auszuleuchten. Eine solide Fachkenntnis unterstützt dabei sicher.

Als Projektleiter agieren in Unternehmen zumeist Mitarbeiterinnen oder Mitarbeiter, die sich im Rahmen ihres Berufswegs und ihrer Erfahrung zum Projektleiter qualifiziert haben und diese Rolle im Rahmen einer Weiterentwicklung übernehmen. Dabei garantiert eine spezifische Ausbildung oder gar ein Zertifikat (leider) keine erfolgreiche Projektleitung. Und schon gar nicht die vielfach beworbenen Lehrgänge “In 14 Tagen zum Projektleiter”. Die Frage nach dem WARUM lässt sich einfach beantworten. Oder kennen Sie einen Fahrschüler, der nach gerade bestandener Führerscheinprüfung Auto fahren kann?

Sicher legt eine Ausbildung mit der Vermittlung des notwendigen Wissens einen Grundstein für eine erfolgreiche Projektleitung. Entscheidend ist letztlich aber die Anwendung des Wissens in der Praxis und die Erfahrung des Projektleiters.

Voraussetzung für eine Projektleitung ist meist eine einschlägige Ausbildung im jeweiligen Fachbereich, häufig ein abgeschlossenes (Fach-) Hochschulstudium. Darüber hinaus sind wie auch in Führungspositionen sehr gut ausgeprägte Soft Skills entscheidend. Anpassungsfähigkeit und ein hohes Maß an Flexibilität gehören ebenso dazu wie ausgeprägte soziale Kompetenzen und exzellente kommunikative Fähigkeiten – verbunden mit dem Mut, auch NEIN zu sagen und Probleme zu eskalieren.

Erfolgreiche Projektleitung erfordert zudem Rückgrat, ein klares Selbstbewusstsein des Projektleiters sowie einen souveränen Umgang mit dem Projektmanagement-Methodenset. Letztlich also Professionalität, die um so zwingender in Matrixorganisationen ist. Schließlich führen Projektleiter hier hierarchisch höher angesiedelte Führungskräfte, auch unternehmensweit – teilweise sogar die eigene Linienführungskraft.

Projektleiter-Jobs – Ausbildungsmöglichkeiten

Wie können Projektleiter die oben genannten Kompetenzen erwerben? Vorab: DIE klassische Ausbildung zum Projektleiter gibt es nicht. Aber sicher verschiedene Wege, um sich auf die Aufgabe vorzubereiten:

Studium: Es existieren Studiengänge, die sich ausschließlich mit Projektmanagement befassen und den Studierenden die notwendigen Kompetenzen vermitteln. Darüber hinaus vermitteln zahlreiche Studiengänge neben den jeweiligen fachlichen Inhalten auch Managementkompetenzen im Fachbereich Projektmanagement.Wer also im Projektmanagement tätig sein möchte, sollte Angebote und Studienpläne der unterschiedlichen Universitäten und Fachhochschulen dahingehend prüfen, inwiefern ganze Studiengänge oder einzelne Projektmanagement-Module – mit welchem Schwerpunkt und Umfang – angeboten werden. Und sich die Frage beantworten, welche Intensität er an universitär vermittelten Projektmanagement-Kompetenzen für sein Berufsziel benötigt.

Praxisbegleitende Projektmanagement-Fortbildung: Ein etablierter Weg findet sich auch in den Katalogen der zahlreichen Trainingsinstitute, die Projektmanagement-Ausbildungen und -Fortbildungen anbieten. Neben Grundausbildungen gibt es diverse Vertiefungsmöglichkeiten zu Spezialthemen, so dass letztlich alle erforderlichen Kompetenzen hier erworben werden können. Diese Qualifizierung können Projektleiter entweder einzeln bei dem jeweiligen Anbieter wahrnehmen oder Unternehmen bieten diese Aus- und Fortbildungen passgenau für ihren Bedarf als firmeninterne Veranstaltung an. Erfahrungsgemäß ist zumeist der zweite aufgezeigte Weg der firmeninternen Veranstaltung nachhaltiger, zumal hier die Möglichkeit der Individualisierung der Inhalte z. B. durch Einbindung vorhandener Prozesse, Methoden und Templates besteht. Darüber hinaus ist er bereits bei der Ausbildung einer geringen Anzahl von Projektleitern für Unternehmen weniger kostenintensiv. Erfolgsrelevant bei diesem Qualifizierungsweg ist in jedem Fall die Frage nach dem Trainer. Verfügt er oder sie neben dem erforderlichen theoretischen Wissen auch über ausreichend eigene Praxiserfahrung und kann so den Transfer in den Unternehmens- und Projektalltag unterstützen und für nachhaltig wirksame Ergebnisse sorgen? Die Vermittlung rein theoretischen Wissens oder angelesener Expertise ist zwar weit verbreitet, erweist sich jedoch letztlich im Projekt- und Unternehmensalltag als nicht wirksam.

Projektmanagement-Qualifikation mit Zertifizierung: Ein dritter Weg geht über eine Projektmanagement-Qualifikation mit anschließender Zertifizierung nach einem der etablierten Standards. Die Angebote und Zertifizierungen unterscheiden sich nicht nur hinsichtlich des erforderlichen Aufwandes für die Prüfung, sondern auch in Hinblick auf die inhaltlichen Schwerpunkte, die Prüfungsmodalitäten und die Zugangsvoraussetzungen. So ist je nach Art des Zertifikats und des Levels beispielsweise zusätzlich Praxiserfahrung nachzuweisen. Hier gilt es zunächst vor allem zu prüfen, welcher Standard für die zu führenden Projekte, die Branche oder das Unternehmen perspektivisch am zielführendsten ist – und inwiefern die Zertifizierung als solche für die eigene Projektleitung oder auch die persönliche berufliche Weiterentwicklung relevant ist.

Projektleiter – Karrieremöglichkeiten

Projektleiter ist nicht gleich Projektleiter – das liegt auf der Hand. Der eine Projektleiter verantwortet den Umbau der Kantine oder einen kleineren Release einer App, während der andere für den Aufbau eines neuen Werkes in Mexiko oder für die unternehmensumfassende, globale Einführung eines neues SAP-Systems zuständig ist. Diese unterschiedlichen Projektgrößen sind mit entsprechend unterschiedlichen Anforderungen und mit unterschiedlicher Komplexität verbunden – und erfordern insofern auch einen anderen Kompetenz- und Erfahrungshorizont der Projektleiter.

Die etablierten Projektmanagement-Standards bilden diese Unterschiedlichkeit mit entsprechenden Kompetenzmodellen auf verschiedenen Stufen ab. Die International Project Management Association entwickelt z. B. Projektleiter über fünf Level – vom Einsteiger bis zum Projektexperten auf höchstem Level. Der Standard des Project Management Instituts PMI bietet ebenfalls fünf Stufen und zusätzlich die Zertifizierung für bestimmte Themenstellungen des Projektmanagements. Diese Level veranschaulichen die formalisierten Entwicklungsmöglichkeiten eines Projektleiters.

In Zeiten von flachen Hierarchien entwickeln viele Unternehmen eigene, spezifische Projektmanagement-Karrieremodelle, um parallel zur Führungs- oder Fachlaufbahn einen Karriereweg zu etablieren. Beim “Kampf um die besten Köpfe” werden so Mitarbeiterinnen und Mitarbeitern Entwicklungsperspektiven ermöglicht und so an das Unternehmen gebunden.

Diese Projektmanagement-Laufbahnen sind sicher von Unternehmen zu Unternehmen verschieden. Allerdings sollte sie mindestens drei Karrierestufen enthalten und so attraktiv wie die Laufbahnen für Führungskräfte und Fachleute gestaltet sein – hinsichtlich Weiterbildung, Aufgabenumfang, Kompetenzen, Verantwortung sowie Gehalt.

Neben diesen formalen Wegen qualifizieren sich viele Projektleiter in Unternehmen darüber hinaus implizit mit jeder erfolgreichen Projektleitung für die nächste, zumeist anspruchsvollere Aufgabe im Projektmanagement. Denn Projektleitung ist von der Aufgabe her immer mit erhöhter Sichtbarkeit verbunden und wird vielfach auch als Empfehlung für klassische Führungsaufgaben verstanden, wofür ein Projektleiter nach einem erfolgreiche Projekt in jedem Fall bestens gerüstet ist.

Projektleiter – Die 5 Erfolgsfaktoren

Zusammengefasst muss der Projektleiter eine Vielzahl an Aufgaben bedienen und damit auch entsprechende Rollen vereinen: Er ist Manager, Führungskraft, Kommunikator, Moderator, Konflikt- und Problemlöser, Fachmann und Unternehmer.

Der Unterschied zur eierlegenden Wollmilchsau: Der Projektleiter kann all diese Rollen erfüllen und seine Aufgabe zum Erfolg bringen. Fünf Faktoren zahlen dabei direkt auf seinen Erfolg ein:

Eine solide Projektmanagement-Qualifizierung, die Theorie und Praxiswissen vermittelt, Best Practices nutzt und so für nachhaltige Umsetzbarkeit sorgt.

Seine Persönlichkeit mit ausgeprägten kommunikativen Fähigkeiten und einem gewissen politischen Geschick (vor allem in Großprojekten) – und der Bereitschaft, hierarchie- und bereichsübergreifend zu führen sowie dem Rückgrat, Dinge klar zu benennen und gegebenenfalls auch NEIN zu sagen.

Ein klares Rollenprofil mit definierten Aufgaben, Kompetenzen und Verantwortung sowie einem Bewusstsein der eigenen Verantwortung und Rolle, was vor allem für in Unternehmen häufig vertretene Matrixorganisationen und die Projektleitung als “Zusatzaufgabe” relevant ist.

Systemisches Denken in klaren Strukturen, um Zusammenhänge zu identifizieren und informelle Strukturen und Netzwerke innerhalb und außerhalb des Unternehmens passgenau nutzen und steuern zu können.

Die Verankerung der Rolle der Projektleitung und der Projektorganisation insgesamt im Unternehmen, was dem Projektleiter Rückendeckung verschafft und auf die Akzeptanz einer Führung auf Zeit einzahlt, zudem eine transparente Ressourcenzuteilung ermöglicht. (bw)

Fachkarrieren als Erfolgsprojekt zur MitarbeiterbindungPraxistipps: Wie Sie Karrierekonzepte für Fachkräfte umsetzen
Foto: Sergey Nivens – shutterstock.comFachkräfte sind für den Unternehmenserfolg unverzichtbar. Für Arbeitgeber ist es deshalb besonders sinnvoll, diesen Spezialisten von vorneherein Karrierechancen aufzuzeigen, ohne ihr Potenzial zwangsläufig in Führungspositionen zu vergeuden. HR- und Organisationsexpertin Regina Bergdolt gibt Tipps, wie der Projekte für Fachkarrieren erfolgreich geplant und umgesetzt werden. Projektplan festlegen
Foto: Robert Kneschke – shutterstock.comDefinieren Sie klar verständliche Ziele und einen Projektplan mit Meilensteinen. Gerade Vorstände brauchen Systematik, um Fachkarrieren zu unterstützen und Ressourcen freizumachen.Stakeholder definieren
Foto: Robert Kneschke – shutterstock.comKlären Sie in einer Stakeholderanalyse: Wer treibt die Fachkarriere mit Ihnen, ein Machtpromotor, Führungskräfte, Mitarbeiter, Bewerber?Projektleitung auswählen
Foto: Matej Kastelic – shutterstock.comWählen Sie eine Projektleitung mit HR-Erfahrung und Standing. Nicht alle HR-Abteilungen sind schon erfahren im Projektmanagement; das können Sie ändern. Expertise sicherstellen
Foto: Jacek Dudzinski – shutterstock.comHolen Sie sich die Expertise ins Projekt, die Sie benötigen, anstatt an kritischen Punkten hängen zu bleiben.Fachkarriere aktiv bewerben
Foto: Andrey_Popov – shutterstock.comNutzen Sie die Fachkarriere schon im Projektstadium aktiv als Angebot des Unternehmens: auf der Karriereseite und im Gespräch mit Bewerbern.

Was macht ein Projektleiter?​ Read More »

Tutorial: So geht Docker​

Tutorial: So geht Docker​

Allgemein

Lesen Sie, wie Sie mit Docker unter Linux, Windows und macOS arbeiten. Aji Asmara | shutterstock.com Container machen Anwendungs-Workloads portabel. Ähnlich wie eine virtuelle Maschine (VM), aber ohne deren Overhead. So ermöglicht die Technologie, Apps und Services zu verpacken und frei zwischen physischen, virtuellen und Cloud-basierten Umgebungen zu verschieben. Docker macht sich die native Container-Funktionalität von Linux zunutze, um Container zu erstellen und zu managen. Diese stellt sie Endbenutzern über eine Befehlszeilenschnittstelle (Command-Line Interface, CLI) und eine Reihe von APIs zur Verfügung. Inzwischen sind diverse gängige Applikationskomponenten in Form vorgefertigter Docker-Container verfügbar. Das erleichtert es, Software-Stacks als entkoppelte Komponenten bereitzustellen.    In diesem Tutorial erfahren Sie nicht nur, wie Docker funktioniert, sondern unter anderem auch: wie Sie die Software unter Linux, Windows und macOS einrichten, wie Sie Docker-Container installieren, einrichten und erstellen, wie Sie eine Apache-Webserver-Instanz in einem Docker-Container installieren und wie Sie mit Dockerfiles Image-Builds automatisieren. Ein Docker-Produkt wählen Das Herzstück von Docker ist das Open-Source-Projekt Docker Engine. Dieses können Sie auch Standalone installieren und anschließend direkt über die Befehlszeile bedienen, allerdings ausschließlich unter Linux – oder über WSL unter Windows.   Die zweite Option ist Docker Desktop, eine praktische, GUI-basierte Anwendung, um mit Containern auf mehreren Plattformen zu arbeiten. Für Entwickler, die Microsoft Windows verwenden, ist das die bequemste Lösung. Der wichtigste Aspekt bei Docker Desktop ist die Lizenzierung: Für den privaten, nicht-kommerziellen Open-Source- und Bildungsbereich ist die Nutzung kostenlos. Für die kommerzielle Nutzung fallen jedoch Lizenzgebühren an. Deren Höhe variiert je nach Organisationsgröße. Docker Desktop bietet eine übersichtliche grafische Benutzeroberfläche, die auch ein eingebettetes Konsolen-Interface beinhaltet.IDG Darüber hinaus stehen auch Binary-Editionen der Docker Engine für Windows, macOS und Linux zur Verfügung. Weil Docker mehr als nur ein Artefakt ist, erfordert das jedoch, den gesamten Setup-Prozess manuell zu durchlaufen. Zudem verfügen die Standalone-Binaries nicht über einen Update-Mechanismus und lassen diverse Funktionen des vollständigen Docker-Produkts vermissen. Docker unter Linux, Windows und macOS installieren Linux Unter Linux können Sie die wichtigsten Open-Source-Funktionen von Docker direkt in Form der Docker Engine nutzen. Diese einzurichten, erfordert allerdings für jede (große) Linux-Distribution ein anderes Verfahren. Gleiches gilt unter Linux auch für Docker Desktop. Einmal installiert, bietet Docker Desktop unter Linux im Vergleich zur Befehlszeile bequemere Möglichkeiten, um ein Docker Setup zu managen. Windows Unter Windows kann Docker Desktop in einem von zwei Modi arbeiten: mit dem nativen Hyper-V-Virtualisierungssystem von Windows oder über eine Linux-Instanz in WSL2. Beide Backends bieten die gleiche Funktionalität und legen identische Anforderungen an die Hardware an: eine 64-Bit-CPU mit SLAT-Unterstützung, mindestens 4 GB RAM und BIOS-fähigen Support für Hardware-Virtualisierung. Von den beiden Optionen ist WSL2 die schlankere. Hyper-V ist zudem  anspruchsvoller und wird ausschließlich mit den Professional- oder Enterprise-Editionen von Windows 10 oder 11 ausgeliefert. Zu beachten ist dabei, dass Hyper-V ab Windows 11 und Windows Server 2022 erweiterte Funktionen bietet, um Prozesse zu isolieren. Das ist für Docker-Einsteiger aber auch nicht unbedingt erforderlich. Falls Sie ein anderes VM- oder Hypervisor-System verwenden wollen, um Container auszuführen, benötigen Sie eine Business- oder Enterprise-Edition von Docker. macOS Docker Desktop auf macOS-Systemen zu installieren, funktioniert ähnlich wie bei jeder anderen Desktop-Anwendung: Öffnen Sie die Docker.dmg-Datei per Doppelklick, um sie zu öffnen, und ziehen Sie dann das Docker-Symbol in Ihren Anwendungsordner. Es ist außerdem möglich, den Installationsvorgang über die Befehlszeile zu starten. Mit der Docker-CLI arbeiten Den Großteil Ihres Docker-„Daseins“ werden Sie sehr wahrscheinlich mit der docker-CLI-Utility verbringen. Sobald Docker installiert ist, können Sie docker über jede Konsole ausführen. Um alle verfügbaren Befehle einzusehen, genügt ein simpler docker-Befehl. Die offizielle Dokumentation des CLI-Client hält ausführliche Beschreibungen zu diesen bereit. Ein weiterer grundlegender Befehl ist docker info. Dieser liefert Ihnen Basisinformationen über Ihre Docker-Installation, zum Beispiel die Anzahl der Container und Images. Der (auszugweise) Output von ‚docker info‘.IDG Zu beachten ist dabei, dass Sie docker-Befehlen unter Linux möglicherweise sudo voranstellen müssen (Dieser Hinweis gilt auch für alle anderen Befehlsbeispiele in diesem Artikel). Der Docker-Desktop-Client ist übrigens nicht darauf konzipiert, die docker-CLI zu ersetzen. Vielmehr soll dieser eine Ergänzung darstellen, die eine praktische, grafische Benutzeroberfläche für alltägliche Container-Tasks bietet. Beispielsweise: Container ausführen, installierte Images untersuchen, erstellte Volumes überprüfen, Container-Image-Builds auflisten und Extensions für Docker Desktop zu steuern. Für direkten Konsolenzugriff bietet Docker Desktop außerdem einen eigenen, integrierten Konsolen-Host. Im Folgenden nutzen wir die Docker CLI als Standardmethode, um mit Docker zu interagieren. Mit Docker-Containern und -Images arbeiten Wie eingangs bereits erwähnt, sind Docker-Container deutlich effizienter als virtuelle Maschinen. Führt ein Container keinen Prozess aus, ist er vollständig inaktiv – und verbraucht (abgesehen von Speicherplatz) keine Ressourcen. Um Container auszuführen, ist allerdings ein Image nötig – das standardmäßig nicht in der Installation vorhanden ist. Sie müssen dieses deshalb herunterladen und dem lokalen Image-Repository hinzufügen. Wie Sie im folgenden Beispiel sehen, geht das auch halbautomatisch. Einen Docker-Container starten Um ein Basis-Image für Ubuntu Linux zu starten und die bash-Shell auszuführen, nutzen Sie folgenden Befehl: docker run -i -t ubuntu /bin/bash Das Ergebnis sieht in etwa wie folgt aus: PS C:Usersserda> docker run -i -t ubuntu /bin/bash Unable to find image ‘ubuntu:latest’ locally latest: Pulling from library/ubuntu dafa2b0c44d2: Pull complete Digest: sha256:dfc10878be8d8fc9c61cbff33166cb1d1fe44391539243703c72766894fa834a Status: Downloaded newer image for ubuntu:latest root@16fd4752b26a:/# Der Code zeigt an, wie Docker das Ubuntu-Image abruft und einen darauf basierenden Container startet. Die letzte Zeile stellt dabei den Prompt für die bash-Shell dar, die im Container ausgeführt wird und die Sie mit Befehlen füttern können. Zu beachten ist dabei, dass sich sämtliche Befehle, die an dieser Stelle einfließen, auf das Image beziehen – nicht auf das Gesamtsystem.  Laufende Container überprüfen Mit dem Befehl docker ps können Sie aktive und inaktive Container anzeigen. Denken Sie daran, diesen Befehl über die eigentliche Systemkonsole auszuführen. Der erweiterte Befehl docker ps -a zeigt sämtliche Container im System an, unabhängig von ihrem Status. Im Gegensatz dazu zeigt docker ps nur die laufenden Container an. Der folgende Output könnte etwa so aussehen: CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES 16fd4752b26a ubuntu “/bin/bash” 25 minutes ago Up 25 minutes stoic_gould Jeder laufende Container wird mit einer ID verknüpft. In unserem Fall ist es die mit „16fd“ beginnende Zeichenfolge. Außerdem werden hier auch Informationen darüber angezeigt welches Image verwendet wurde, um den Container zu erstellen sowie dessen Anzeigename (stoic_gould). Letzter lässt sich manuell über den –name-Switch oder beim Start zufällig zuweisen. Container abrufen Mit dem Kommando docker run haben Sie automatisch ein Ubuntu-Container-Image vom Registry-Service Docker Hub abgerufen. In der Praxis werden Sie dieses jedoch bevorzugt vorab in Ihren lokalen Cache ziehen wollen. Dazu nutzen Sie: docker pull ubuntu Eine vollständige, durchsuchbare Auflistung aller verfügbarer Images und Repositories ist auf Docker Hub einsehbar. Docker-Images vs. Container An dieser Stelle werfen wir einen kurzen Blick darauf, wie Images, Container und der Pull-/Push-Prozess zusammenwirken. Docker-Container werden aus Images erstellt, die im Wesentlichen Shells von Betriebssystemen sind. Sie enthalten die erforderlichen Binärdateien und Bibliotheken, um Applikationen in einem Container auszuführen. Images werden mit Tags, im Wesentlichen Metadaten, gelabelt. Das erleichtert es, verschiedene Versionen eines Images zu speichern und abzurufen. Ein einzelnes Image kann dabei mit mehreren Tags verknüpft werden – etwa ubuntu:16.04, ubuntu:xenial-20171201, ubuntu:xenial, ubuntu:latest. Der bereits bekannte Befehl docker pull ubuntu ruft das Standard-Image aus dem Ubuntu-Repository ab, das mit dem Tag latest versehen ist. Der Befehl docker pull ubuntu entspricht also docker pull ubuntu:latest. Der Befehl docker pull -a ubuntu hätte hingegen alle Bilder (das -a-Tag) im Ubuntu-Repository in das lokale System gezogen. Das ist praktisch, wenn Sie mit einer Vielzahl von Ubuntu-Images arbeiten wollen, ohne jedes einzeln abzurufen. Allerdings beansprucht das auch viel Speicherplatz auf lokaler Ebene. Im Regelfall greifen Sie jedoch entweder auf das Default-Image oder eine spezifische Version zu. Wollen Sie beispielsweise das Image für Ubuntu Saucy Salamander verwenden, würden Sie dieses mit docker pull -a ubuntu:saucy aus dem Repository abzurufen. Die gleiche Logik, die hinter Repositories und Tags steht, gilt auch für andere Image-Manipulationen: Wenn Sie das Saucy-Image abgerufen und ausgeführt haben, können Sie mit docker image rm ubuntu das Ubuntu-Image entfernen, das mit latest getaggt ist. Um andere Images wie Saucy zu entfernen, müssen Sie das entsprechende Tag angeben. Der richtige Befehl lautet also: docker image rm ubuntu:saucy. Docker-Images und Container-Workflows Sobald Sie ein Image abgerufen haben, startet der Befehl docker run einen Live-Container mit dessen Inhalten. Images sind grundsätzlich unveränderlich. Sie verändern sich also nicht, wenn Sie einen Container ausführen. Der Container ist zu Beginn im Wesentlichen eine Kopie des Image-Inhalts – wird er beendet, gehen auch sämtliche vorgenommenen Änderungen verloren. Um Änderungen an einem Image vorzunehmen, gibt es zwei Möglichkeiten: Sie können das Dockerfile des Images modifizieren und auf dieser Grundlage ein neues Image erstellen, oder Änderungen an einem laufenden Container vornehmen und mit dem Docker-Commit-Befehl ein neues Image erstellen, das diese enthält. Wenn Sie eigene Images erstellen, werden nur die Änderungen, die Sie am Basis-Image vornehmen, im neuen Image gespeichert. Dieses ist mit dem Basis-Image verknüpft. Das ermöglicht es, Images zu erstellen, die eine virtuelle Größe von mehreren Hundert MB aufweisen, aber nur ein paar Megabyte Festplattspeicher belegen. Vollständig konfigurierte Container können an ein zentrales Repository weitergeleitet werden, um an anderer Stelle in der Organisation verwendet oder auch öffentlich freigegeben zu werden. Docker-Image aus Container erstellen Nachdem wir die grundlegende Funktionsweise von Images und Containern behandelt haben, richten wir im folgenden Kapitel einen permanenten Apache-Webserver-Container ein. Neuen Docker-Container erstellen Dazu gilt es zuerst einen neuen Container zu erstellen. Um das zu tun, gibt es mehrere Möglichkeiten. Da Sie aber noch einige Befehle vor sich haben, empfiehlt es sich an dieser Stelle, eine Root-Shell in einem neuen Container zu starten. Dazu nutzen Sie folgenden Befehl: docker run -i -t –name apache_web ubuntu /bin/bash Nun haben Sie einen neuen Container mit einer eindeutigen ID und dem Namen apache_web erstellt. Außerdem erhalten Sie eine Root-Shell, weil Sie /bin/bash als auszuführenden Befehl angegeben haben. Anschließend installieren Sie den Apache-Webserver mit: apt-get install apache2 In diesem Fall müssen Sie nicht auf sudo zurückgreifen, weil dieser innerhalb des Containers als root ausgeführt wird. Nötig ist allerdings apt-get update, weil die Package-Liste innerhalb des Containers nicht mit der außerhalb des Containers identisch ist. Sobald die Installation abgeschlossen ist, können Sie Apache starten, curl installieren und die Installation testen – alles innerhalb Ihres Containers: service apache2 start apt-get install curl curl http://localhost Würden Sie an dieser Stelle innerhalb einer Produktionsumgebung agieren, würden Sie im nächsten Schritt Apache gemäß Ihren Anforderungen konfigurieren und eine Anwendung installieren, die von diesem Server bereitgestellt werden soll. Dabei ermöglicht Docker, Verzeichnisse außerhalb eines Containers mit Pfaden innerhalb zu verknüpfen. Sie könnten also Ihre Web App in einem Verzeichnis auf dem Host speichern und diese für den Container über ein Mapping sichtbar machen.  Startskript für einen Docker-Container erstellen Wie ebenfalls bereits erwähnt, wird ein Docker-Container nur so lange ausgeführt, wie sein Prozess oder seine Prozesse aktiv sind. Sobald der Prozess in den Hintergrund wechselt, den Sie ausgeführt haben um den Container zu starten (etwa ein System Daemon), stoppt Docker den Container. Sie müssen Apache zum Container-Launch also im Vordergrund ausführen, damit Ihr Container nicht sofort nach dem Start wieder beendet wird. Dazu erstellen Sie ein Skript: apt-get install nano nano /usr/local/sbin/startapache.sh Sie müssen dazu nicht den Nano-Editor verwenden, er ist an dieser Stelle aber praktisch. Der Inhalt von startapache.sh: #!/bin/bash . /etc/apache2/envvars /usr/sbin/apache2 -D FOREGROUND Speichern Sie nun die Datei und machen Sie sie ausführbar mit: chmod +x /usr/local/sbin/startapache.sh Diese kleine Skriptdatei sorgt lediglich dafür, dass die entsprechenden Umgebungsvariablen für Apache bereitgestellt werden und der Apache-Prozess im Vordergrund gestartet wird. Sie haben den Inhalt des Containers geändert und können diesen nun mit dem Befehl exit verlassen. Container committen, um ein neues Docker-Image zu erstellen Um die vorgenommenen Änderungen zu speichern, müssen Sie den Container „committen“. Das funktioniert mit: docker commit apache_web local:apache_web Der Commit speichert Ihren Container als neues Image und gibt eine eindeutige ID zurück. Das Argument local:apache_web bewirkt dabei, dass der Commit in einem lokalen Repository namens local mit dem Tag apache_web abgelegt wird. Einsehen können Sie das mit dem Befehl docker images. Der resultierende Output sieht in etwa folgendermaßen aus: REPOSITORY TAG IMAGE ID CREATED SIZE local apache_web 540faa63535d 24 seconds ago 233MB ubuntu latest b1e9cef3f297 4 weeks ago 78.1MB Docker-Netzwerkgrundlagen Nachdem Sie nun Ihr Image erstellt haben, können Sie Ihren Container starten und die Serving-Arbeit starten. Zuvor lohnt sich allerdings ein Blick darauf, wie Docker Netzwerke handhabt. Die Software ist in der Lage, verschiedene, virtuelle Netzwerke erstellen, die von Docker-Containern verwendet werden, um miteinander und mit der Außenwelt zu kommunizieren. Die drei (für den Anfang) wesentlichen sind: Mit dem bridge-Netzwerk sind Docker-Container standardmäßig verbunden. Es ermöglicht Containern, direkt miteinander zu kommunizieren, jedoch nicht mit dem Host-System. Im host-Netzwerk sind Container für den Host direkt sichtbar – so als würden alle darin enthaltenen Apps als lokale Netzwerkdienste ausgeführt. Bei none handelt es sich im Wesentlichen um ein Null- oder Loopback-Netzwerk. Ein damit verbundener Container kann nur sich selbst sehen. Wenn Sie einen Container starten möchten, der sowohl mit anderen Containern als auch mit der Außenwelt kommunizieren soll, müssen Sie dem Host die Ports von diesem Container manuell zuordnen. In unserem Beispiel können Sie das über die Befehlszeile bewerkstelligen, wenn Sie Ihren neu erstellten Container starten: docker run -d -p 8080:80 –name apache local:apache_web /usr/local/sbin/startapache.sh Für die Portzuordnung kommt in diesem Beispiel der -p-Switch zum Einsatz. Dabei wird Port 8080 auf dem Host dem Port 80 im Container zugeordnet. Sobald Sie diesen Befehl ausführen, sollten Sie die Standardseite des Apache-Webservers über einen Webbrowser abrufen können. Den Status Ihres Containers und seine TCP-Portzuordnungen zeigen Sie mit dem Befehl docker ps an. CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES 81d8985d0197 local:apache_web “/usr/local/sbin/sta…” 13 minutes ago Up 12 minutes 0.0.0.0:8080->80/tcp apache Zudem können Sie Netzwerkzuordnungen auch mit dem Befehl docker port abrufen, in diesem Fall docker port apache. 80/tcp -> 0.0.0.0:8080 Nun haben Sie einen voll funktionsfähigen Docker-Container, in dem Ihr Apache-Prozess ausgeführt wird. Wenn Sie den Container anhalten, verbleibt er im System und kann jederzeit mit dem Befehl docker restart neu gestartet werden. Mit Dockerfiles automatisieren So lehrreich es auch ist, Docker-Container manuell zu erstellen – so sehr verliert es auch mit jeder Wiederholung seinen Reiz. Um diesen Prozess einfach, konsistent und wiederholbar zu gestalten, bietet Docker auch eine Automatisierungsfunktion, um Images zu erstellen – die sogenannten Dockerfiles. Dabei handelt es sich um Textdateien, die zusammen mit Docker-Images in einem Repository gespeichert werden. Sie beschreiben, wie ein bestimmter Container erstellt wird, was Docker ermöglicht, diesen Prozess zu automatisieren. Nachfolgend ein Dockerfile-Beispiel für einen minimalen Container: FROM ubuntu:latest RUN apt-get update RUN apt-get install -y curl ENTRYPOINT [“/bin/bash”] Wenn Sie diese Datei als dftest in Ihrem lokalen Verzeichnis speichern, können Sie daraus ein Image namens ubuntu:testing erstellen. Dazu genügt folgender Befehl: docker build -t ubuntu:testing – In PowerShell würden Sie dieses Kommando verwenden: cat .dftest | docker build -t ubuntu:testing – Das veranlasst Docker ein neues Image auf der Grundlage von ubuntu:latest zu erstellen. Anschließend führt es innerhalb des Containers ein apt-get update aus und verwendet apt-get, um curl zu installieren. Schließlich wird der Standardbefehl, der beim Start des Containers ausgeführt werden soll, auf /bin/bash festgelegt. Nun können Sie folgenden Befehl ausführen: docker run -i -t ubuntu:testing Im Resultat erhalten Sie eine Root-Shell auf einem neuen Container, der nach diesen Spezifikationen erstellt wurde. Diesen könnten Sie auch starten mit: docker run -i -t dftest Für Dockerfiles stehen zahlreiche Operatoren zur Verfügung, beispielsweise um: Host-Verzeichnisse auf Container zu mappen, Umgebungsvariablen festzulegen, oder Trigger zu definieren, die in zukünftigen Builds verwendet werden sollen. Eine vollständige Auflistung finden Sie hier. Docker bietet noch weitaus mehr Möglichkeiten, als wir in diesem Tutorial behandelt haben. Sie sollten nun jedoch ein grundlegendes Verständnis für die Funktionsweise von Docker und seinen wichtigsten Konzepten erlangt haben und funktionale Container erstellen können. Die Docker-Webseite hält weitere Informationen bereit – inklusive eines tiefgehenden Online-Tutorials. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Tutorial: So geht Docker​ Lesen Sie, wie Sie mit Docker unter Linux, Windows und macOS arbeiten.
Aji Asmara | shutterstock.com

Container machen Anwendungs-Workloads portabel. Ähnlich wie eine virtuelle Maschine (VM), aber ohne deren Overhead. So ermöglicht die Technologie, Apps und Services zu verpacken und frei zwischen physischen, virtuellen und Cloud-basierten Umgebungen zu verschieben.

Docker macht sich die native Container-Funktionalität von Linux zunutze, um Container zu erstellen und zu managen. Diese stellt sie Endbenutzern über eine Befehlszeilenschnittstelle (Command-Line Interface, CLI) und eine Reihe von APIs zur Verfügung. Inzwischen sind diverse gängige Applikationskomponenten in Form vorgefertigter Docker-Container verfügbar. Das erleichtert es, Software-Stacks als entkoppelte Komponenten bereitzustellen.   

In diesem Tutorial erfahren Sie nicht nur, wie Docker funktioniert, sondern unter anderem auch:

wie Sie die Software unter Linux, Windows und macOS einrichten,

wie Sie Docker-Container installieren, einrichten und erstellen,

wie Sie eine Apache-Webserver-Instanz in einem Docker-Container installieren und

wie Sie mit Dockerfiles Image-Builds automatisieren.

Ein Docker-Produkt wählen

Das Herzstück von Docker ist das Open-Source-Projekt Docker Engine. Dieses können Sie auch Standalone installieren und anschließend direkt über die Befehlszeile bedienen, allerdings ausschließlich unter Linux – oder über WSL unter Windows.  

Die zweite Option ist Docker Desktop, eine praktische, GUI-basierte Anwendung, um mit Containern auf mehreren Plattformen zu arbeiten. Für Entwickler, die Microsoft Windows verwenden, ist das die bequemste Lösung. Der wichtigste Aspekt bei Docker Desktop ist die Lizenzierung: Für den privaten, nicht-kommerziellen Open-Source- und Bildungsbereich ist die Nutzung kostenlos. Für die kommerzielle Nutzung fallen jedoch Lizenzgebühren an. Deren Höhe variiert je nach Organisationsgröße.

Docker Desktop bietet eine übersichtliche grafische Benutzeroberfläche, die auch ein eingebettetes Konsolen-Interface beinhaltet.IDG

Darüber hinaus stehen auch Binary-Editionen der Docker Engine für Windows, macOS und Linux zur Verfügung. Weil Docker mehr als nur ein Artefakt ist, erfordert das jedoch, den gesamten Setup-Prozess manuell zu durchlaufen. Zudem verfügen die Standalone-Binaries nicht über einen Update-Mechanismus und lassen diverse Funktionen des vollständigen Docker-Produkts vermissen.

Docker unter Linux, Windows und macOS installieren

Linux

Unter Linux können Sie die wichtigsten Open-Source-Funktionen von Docker direkt in Form der Docker Engine nutzen. Diese einzurichten, erfordert allerdings für jede (große) Linux-Distribution ein anderes Verfahren. Gleiches gilt unter Linux auch für Docker Desktop.

Einmal installiert, bietet Docker Desktop unter Linux im Vergleich zur Befehlszeile bequemere Möglichkeiten, um ein Docker Setup zu managen.

Windows

Unter Windows kann Docker Desktop in einem von zwei Modi arbeiten:

mit dem nativen Hyper-V-Virtualisierungssystem von Windows oder

über eine Linux-Instanz in WSL2.

Beide Backends bieten die gleiche Funktionalität und legen identische Anforderungen an die Hardware an:

eine 64-Bit-CPU mit SLAT-Unterstützung,

mindestens 4 GB RAM und

BIOS-fähigen Support für Hardware-Virtualisierung.

Von den beiden Optionen ist WSL2 die schlankere. Hyper-V ist zudem  anspruchsvoller und wird ausschließlich mit den Professional- oder Enterprise-Editionen von Windows 10 oder 11 ausgeliefert. Zu beachten ist dabei, dass Hyper-V ab Windows 11 und Windows Server 2022 erweiterte Funktionen bietet, um Prozesse zu isolieren. Das ist für Docker-Einsteiger aber auch nicht unbedingt erforderlich.

Falls Sie ein anderes VM- oder Hypervisor-System verwenden wollen, um Container auszuführen, benötigen Sie eine Business- oder Enterprise-Edition von Docker.

macOS

Docker Desktop auf macOS-Systemen zu installieren, funktioniert ähnlich wie bei jeder anderen Desktop-Anwendung:

Öffnen Sie die Docker.dmg-Datei per Doppelklick, um sie zu öffnen, und

ziehen Sie dann das Docker-Symbol in Ihren Anwendungsordner.

Es ist außerdem möglich, den Installationsvorgang über die Befehlszeile zu starten.

Mit der Docker-CLI arbeiten

Den Großteil Ihres Docker-„Daseins“ werden Sie sehr wahrscheinlich mit der docker-CLI-Utility verbringen. Sobald Docker installiert ist, können Sie docker über jede Konsole ausführen. Um alle verfügbaren Befehle einzusehen, genügt ein simpler docker-Befehl. Die offizielle Dokumentation des CLI-Client hält ausführliche Beschreibungen zu diesen bereit.

Ein weiterer grundlegender Befehl ist docker info. Dieser liefert Ihnen Basisinformationen über Ihre Docker-Installation, zum Beispiel die Anzahl der Container und Images.

Der (auszugweise) Output von ‚docker info‘.IDG

Zu beachten ist dabei, dass Sie docker-Befehlen unter Linux möglicherweise sudo voranstellen müssen (Dieser Hinweis gilt auch für alle anderen Befehlsbeispiele in diesem Artikel).

Der Docker-Desktop-Client ist übrigens nicht darauf konzipiert, die docker-CLI zu ersetzen. Vielmehr soll dieser eine Ergänzung darstellen, die eine praktische, grafische Benutzeroberfläche für alltägliche Container-Tasks bietet. Beispielsweise:

Container ausführen,

installierte Images untersuchen,

erstellte Volumes überprüfen,

Container-Image-Builds auflisten und

Extensions für Docker Desktop zu steuern.

Für direkten Konsolenzugriff bietet Docker Desktop außerdem einen eigenen, integrierten Konsolen-Host. Im Folgenden nutzen wir die Docker CLI als Standardmethode, um mit Docker zu interagieren.

Mit Docker-Containern und -Images arbeiten

Wie eingangs bereits erwähnt, sind Docker-Container deutlich effizienter als virtuelle Maschinen. Führt ein Container keinen Prozess aus, ist er vollständig inaktiv – und verbraucht (abgesehen von Speicherplatz) keine Ressourcen.

Um Container auszuführen, ist allerdings ein Image nötig – das standardmäßig nicht in der Installation vorhanden ist. Sie müssen dieses deshalb herunterladen und dem lokalen Image-Repository hinzufügen. Wie Sie im folgenden Beispiel sehen, geht das auch halbautomatisch.

Einen Docker-Container starten

Um ein Basis-Image für Ubuntu Linux zu starten und die bash-Shell auszuführen, nutzen Sie folgenden Befehl:

docker run -i -t ubuntu /bin/bash

Das Ergebnis sieht in etwa wie folgt aus:

PS C:Usersserda> docker run -i -t ubuntu /bin/bash
Unable to find image ‘ubuntu:latest’ locally
latest: Pulling from library/ubuntu
dafa2b0c44d2: Pull complete
Digest: sha256:dfc10878be8d8fc9c61cbff33166cb1d1fe44391539243703c72766894fa834a
Status: Downloaded newer image for ubuntu:latest
root@16fd4752b26a:/#

Der Code zeigt an, wie Docker das Ubuntu-Image abruft und einen darauf basierenden Container startet. Die letzte Zeile stellt dabei den Prompt für die bash-Shell dar, die im Container ausgeführt wird und die Sie mit Befehlen füttern können. Zu beachten ist dabei, dass sich sämtliche Befehle, die an dieser Stelle einfließen, auf das Image beziehen – nicht auf das Gesamtsystem. 

Laufende Container überprüfen

Mit dem Befehl docker ps können Sie aktive und inaktive Container anzeigen. Denken Sie daran, diesen Befehl über die eigentliche Systemkonsole auszuführen. Der erweiterte Befehl docker ps -a zeigt sämtliche Container im System an, unabhängig von ihrem Status.

Im Gegensatz dazu zeigt docker ps nur die laufenden Container an. Der folgende Output könnte etwa so aussehen:

CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
16fd4752b26a ubuntu “/bin/bash” 25 minutes ago Up 25 minutes stoic_gould

Jeder laufende Container wird mit einer ID verknüpft. In unserem Fall ist es die mit „16fd“ beginnende Zeichenfolge. Außerdem werden hier auch Informationen darüber angezeigt welches Image verwendet wurde, um den Container zu erstellen sowie dessen Anzeigename (stoic_gould). Letzter lässt sich manuell über den –name-Switch oder beim Start zufällig zuweisen.

Container abrufen

Mit dem Kommando docker run haben Sie automatisch ein Ubuntu-Container-Image vom Registry-Service Docker Hub abgerufen. In der Praxis werden Sie dieses jedoch bevorzugt vorab in Ihren lokalen Cache ziehen wollen. Dazu nutzen Sie:

docker pull ubuntu

Eine vollständige, durchsuchbare Auflistung aller verfügbarer Images und Repositories ist auf Docker Hub einsehbar.

Docker-Images vs. Container

An dieser Stelle werfen wir einen kurzen Blick darauf, wie Images, Container und der Pull-/Push-Prozess zusammenwirken.

Docker-Container werden aus Images erstellt, die im Wesentlichen Shells von Betriebssystemen sind. Sie enthalten die erforderlichen Binärdateien und Bibliotheken, um Applikationen in einem Container auszuführen.

Images werden mit Tags, im Wesentlichen Metadaten, gelabelt. Das erleichtert es, verschiedene Versionen eines Images zu speichern und abzurufen. Ein einzelnes Image kann dabei mit mehreren Tags verknüpft werden – etwa ubuntu:16.04, ubuntu:xenial-20171201, ubuntu:xenial, ubuntu:latest. Der bereits bekannte Befehl docker pull ubuntu ruft das Standard-Image aus dem Ubuntu-Repository ab, das mit dem Tag latest versehen ist. Der Befehl docker pull ubuntu entspricht also docker pull ubuntu:latest.

Der Befehl docker pull -a ubuntu hätte hingegen alle Bilder (das -a-Tag) im Ubuntu-Repository in das lokale System gezogen. Das ist praktisch, wenn Sie mit einer Vielzahl von Ubuntu-Images arbeiten wollen, ohne jedes einzeln abzurufen. Allerdings beansprucht das auch viel Speicherplatz auf lokaler Ebene. Im Regelfall greifen Sie jedoch entweder auf das Default-Image oder eine spezifische Version zu. Wollen Sie beispielsweise das Image für Ubuntu Saucy Salamander verwenden, würden Sie dieses mit docker pull -a ubuntu:saucy aus dem Repository abzurufen.

Die gleiche Logik, die hinter Repositories und Tags steht, gilt auch für andere Image-Manipulationen: Wenn Sie das Saucy-Image abgerufen und ausgeführt haben, können Sie mit docker image rm ubuntu das Ubuntu-Image entfernen, das mit latest getaggt ist. Um andere Images wie Saucy zu entfernen, müssen Sie das entsprechende Tag angeben. Der richtige Befehl lautet also: docker image rm ubuntu:saucy.

Docker-Images und Container-Workflows

Sobald Sie ein Image abgerufen haben, startet der Befehl docker run einen Live-Container mit dessen Inhalten.

Images sind grundsätzlich unveränderlich. Sie verändern sich also nicht, wenn Sie einen Container ausführen. Der Container ist zu Beginn im Wesentlichen eine Kopie des Image-Inhalts – wird er beendet, gehen auch sämtliche vorgenommenen Änderungen verloren. Um Änderungen an einem Image vorzunehmen, gibt es zwei Möglichkeiten:

Sie können das Dockerfile des Images modifizieren und auf dieser Grundlage ein neues Image erstellen, oder

Änderungen an einem laufenden Container vornehmen und mit dem Docker-Commit-Befehl ein neues Image erstellen, das diese enthält.

Wenn Sie eigene Images erstellen, werden nur die Änderungen, die Sie am Basis-Image vornehmen, im neuen Image gespeichert. Dieses ist mit dem Basis-Image verknüpft. Das ermöglicht es, Images zu erstellen, die eine virtuelle Größe von mehreren Hundert MB aufweisen, aber nur ein paar Megabyte Festplattspeicher belegen.

Vollständig konfigurierte Container können an ein zentrales Repository weitergeleitet werden, um an anderer Stelle in der Organisation verwendet oder auch öffentlich freigegeben zu werden.

Docker-Image aus Container erstellen

Nachdem wir die grundlegende Funktionsweise von Images und Containern behandelt haben, richten wir im folgenden Kapitel einen permanenten Apache-Webserver-Container ein.

Neuen Docker-Container erstellen

Dazu gilt es zuerst einen neuen Container zu erstellen. Um das zu tun, gibt es mehrere Möglichkeiten. Da Sie aber noch einige Befehle vor sich haben, empfiehlt es sich an dieser Stelle, eine Root-Shell in einem neuen Container zu starten. Dazu nutzen Sie folgenden Befehl:

docker run -i -t –name apache_web ubuntu /bin/bash

Nun haben Sie einen neuen Container mit einer eindeutigen ID und dem Namen apache_web erstellt. Außerdem erhalten Sie eine Root-Shell, weil Sie /bin/bash als auszuführenden Befehl angegeben haben. Anschließend installieren Sie den Apache-Webserver mit:

apt-get install apache2

In diesem Fall müssen Sie nicht auf sudo zurückgreifen, weil dieser innerhalb des Containers als root ausgeführt wird. Nötig ist allerdings apt-get update, weil die Package-Liste innerhalb des Containers nicht mit der außerhalb des Containers identisch ist. Sobald die Installation abgeschlossen ist, können Sie Apache starten, curl installieren und die Installation testen – alles innerhalb Ihres Containers:

service apache2 start
apt-get install curl
curl http://localhost

Würden Sie an dieser Stelle innerhalb einer Produktionsumgebung agieren, würden Sie im nächsten Schritt Apache gemäß Ihren Anforderungen konfigurieren und eine Anwendung installieren, die von diesem Server bereitgestellt werden soll. Dabei ermöglicht Docker, Verzeichnisse außerhalb eines Containers mit Pfaden innerhalb zu verknüpfen. Sie könnten also Ihre Web App in einem Verzeichnis auf dem Host speichern und diese für den Container über ein Mapping sichtbar machen. 

Startskript für einen Docker-Container erstellen

Wie ebenfalls bereits erwähnt, wird ein Docker-Container nur so lange ausgeführt, wie sein Prozess oder seine Prozesse aktiv sind. Sobald der Prozess in den Hintergrund wechselt, den Sie ausgeführt haben um den Container zu starten (etwa ein System Daemon), stoppt Docker den Container. Sie müssen Apache zum Container-Launch also im Vordergrund ausführen, damit Ihr Container nicht sofort nach dem Start wieder beendet wird.

Dazu erstellen Sie ein Skript:

apt-get install nano
nano /usr/local/sbin/startapache.sh

Sie müssen dazu nicht den Nano-Editor verwenden, er ist an dieser Stelle aber praktisch.

Der Inhalt von startapache.sh:

#!/bin/bash
. /etc/apache2/envvars
/usr/sbin/apache2 -D FOREGROUND

Speichern Sie nun die Datei und machen Sie sie ausführbar mit:

chmod +x /usr/local/sbin/startapache.sh

Diese kleine Skriptdatei sorgt lediglich dafür, dass die entsprechenden Umgebungsvariablen für Apache bereitgestellt werden und der Apache-Prozess im Vordergrund gestartet wird.

Sie haben den Inhalt des Containers geändert und können diesen nun mit dem Befehl exit verlassen.

Container committen, um ein neues Docker-Image zu erstellen

Um die vorgenommenen Änderungen zu speichern, müssen Sie den Container „committen“. Das funktioniert mit:

docker commit apache_web local:apache_web

Der Commit speichert Ihren Container als neues Image und gibt eine eindeutige ID zurück. Das Argument local:apache_web bewirkt dabei, dass der Commit in einem lokalen Repository namens local mit dem Tag apache_web abgelegt wird.

Einsehen können Sie das mit dem Befehl docker images. Der resultierende Output sieht in etwa folgendermaßen aus:

REPOSITORY TAG IMAGE ID CREATED SIZE
local apache_web 540faa63535d 24 seconds ago 233MB
ubuntu latest b1e9cef3f297 4 weeks ago 78.1MB

Docker-Netzwerkgrundlagen

Nachdem Sie nun Ihr Image erstellt haben, können Sie Ihren Container starten und die Serving-Arbeit starten. Zuvor lohnt sich allerdings ein Blick darauf, wie Docker Netzwerke handhabt. Die Software ist in der Lage, verschiedene, virtuelle Netzwerke erstellen, die von Docker-Containern verwendet werden, um miteinander und mit der Außenwelt zu kommunizieren. Die drei (für den Anfang) wesentlichen sind:

Mit dem bridge-Netzwerk sind Docker-Container standardmäßig verbunden. Es ermöglicht Containern, direkt miteinander zu kommunizieren, jedoch nicht mit dem Host-System.

Im host-Netzwerk sind Container für den Host direkt sichtbar – so als würden alle darin enthaltenen Apps als lokale Netzwerkdienste ausgeführt.

Bei none handelt es sich im Wesentlichen um ein Null- oder Loopback-Netzwerk. Ein damit verbundener Container kann nur sich selbst sehen.

Wenn Sie einen Container starten möchten, der sowohl mit anderen Containern als auch mit der Außenwelt kommunizieren soll, müssen Sie dem Host die Ports von diesem Container manuell zuordnen. In unserem Beispiel können Sie das über die Befehlszeile bewerkstelligen, wenn Sie Ihren neu erstellten Container starten:

docker run -d -p 8080:80 –name apache local:apache_web /usr/local/sbin/startapache.sh

Für die Portzuordnung kommt in diesem Beispiel der -p-Switch zum Einsatz. Dabei wird Port 8080 auf dem Host dem Port 80 im Container zugeordnet. Sobald Sie diesen Befehl ausführen, sollten Sie die Standardseite des Apache-Webservers über einen Webbrowser abrufen können.

Den Status Ihres Containers und seine TCP-Portzuordnungen zeigen Sie mit dem Befehl docker ps an.

CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS
NAMES
81d8985d0197 local:apache_web “/usr/local/sbin/sta…” 13 minutes ago Up 12 minutes 0.0.0.0:8080->80/tcp apache

Zudem können Sie Netzwerkzuordnungen auch mit dem Befehl docker port abrufen, in diesem Fall docker port apache.

80/tcp -> 0.0.0.0:8080

Nun haben Sie einen voll funktionsfähigen Docker-Container, in dem Ihr Apache-Prozess ausgeführt wird. Wenn Sie den Container anhalten, verbleibt er im System und kann jederzeit mit dem Befehl docker restart neu gestartet werden.

Mit Dockerfiles automatisieren

So lehrreich es auch ist, Docker-Container manuell zu erstellen – so sehr verliert es auch mit jeder Wiederholung seinen Reiz. Um diesen Prozess einfach, konsistent und wiederholbar zu gestalten, bietet Docker auch eine Automatisierungsfunktion, um Images zu erstellen – die sogenannten Dockerfiles.

Dabei handelt es sich um Textdateien, die zusammen mit Docker-Images in einem Repository gespeichert werden. Sie beschreiben, wie ein bestimmter Container erstellt wird, was Docker ermöglicht, diesen Prozess zu automatisieren.

Nachfolgend ein Dockerfile-Beispiel für einen minimalen Container:

FROM ubuntu:latest
RUN apt-get update
RUN apt-get install -y curl
ENTRYPOINT [“/bin/bash”]

Wenn Sie diese Datei als dftest in Ihrem lokalen Verzeichnis speichern, können Sie daraus ein Image namens ubuntu:testing erstellen. Dazu genügt folgender Befehl:

docker build -t ubuntu:testing –

In PowerShell würden Sie dieses Kommando verwenden:

cat .dftest | docker build -t ubuntu:testing –

Das veranlasst Docker ein neues Image auf der Grundlage von ubuntu:latest zu erstellen. Anschließend führt es innerhalb des Containers ein apt-get update aus und verwendet apt-get, um curl zu installieren. Schließlich wird der Standardbefehl, der beim Start des Containers ausgeführt werden soll, auf /bin/bash festgelegt. Nun können Sie folgenden Befehl ausführen:

docker run -i -t ubuntu:testing

Im Resultat erhalten Sie eine Root-Shell auf einem neuen Container, der nach diesen Spezifikationen erstellt wurde. Diesen könnten Sie auch starten mit:

docker run -i -t dftest

Für Dockerfiles stehen zahlreiche Operatoren zur Verfügung, beispielsweise um:

Host-Verzeichnisse auf Container zu mappen,

Umgebungsvariablen festzulegen, oder

Trigger zu definieren, die in zukünftigen Builds verwendet werden sollen.

Eine vollständige Auflistung finden Sie hier.

Docker bietet noch weitaus mehr Möglichkeiten, als wir in diesem Tutorial behandelt haben. Sie sollten nun jedoch ein grundlegendes Verständnis für die Funktionsweise von Docker und seinen wichtigsten Konzepten erlangt haben und funktionale Container erstellen können. Die Docker-Webseite hält weitere Informationen bereit – inklusive eines tiefgehenden Online-Tutorials. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Tutorial: So geht Docker​ Read More »

So verdient BMW mit Mixed Reality Geld​

So verdient BMW mit Mixed Reality Geld​

Allgemein

Die Grenzen zwischen physischer und virtueller Welt aufheben, das zeigt der Münchner Autobauer mit BMW M Mixed Reality. Dabei wird ein reales M-Modell zum Controller für die Rundenhatz in der virtuellen Welt. Die Idee per se ist nicht neu: Wir hatten bereits vor zwei Jahren die Möglichkeit, einige Runden in der Mixed Reality zu drehen. Unser Fazit damals: „Einfach geil: Mixed Reality im BMW M2 erfahren“. Neuer Multiplayer-Modus Doch BMW hat jetzt nochmals nachgelegt. Konnte man bislang nur im Single-Player-Modus in die digitale Welt eintauchen, so können nun zwei M-Mixed-Reality-Kunden virtuell gegeneinander im Multiplayer-Modus antreten. Zudem können Endkunden die BMW M Mixed Reality mittlerweile im Rahmen der BMW M Driving Experience in Maisach buchen. Des Weiteren läuft in Kalifornien eine Pilotierung mit der BMW M Performance Driving School. Allerdings ist das Abtauchen in die Mixed Reality Experience nicht gerade günstig. Ein Stint a vier Runden kostet 190 Euro. srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/10/BMW1.jpg?quality=50&strip=all 1600w, https://b2b-contenthub.com/wp-content/uploads/2024/10/BMW1.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/10/BMW1.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/10/BMW1.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/10/BMW1.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/10/BMW1.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/10/BMW1.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/10/BMW1.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/10/BMW1.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/10/BMW1.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Die Grenzen zwischen virtueller und realer Welt verwischen. Links das Fahrzeug in der virtuellen Welt, rechts das real gefahrene Fahrzeug.BMW Group Darüber hinaus offeriert BMW seinen Partnern die Möglichkeit, die M Mixed Reality Welt mit einem individuellen Look und der eigenen CI auszustatten. Zudem wurde auch an die Zuschauer gedacht. Sie können mit personifizierten Avataren virtuell live von der BMW-M-Mixed- Reality-Brücke das Rennen verfolgen. Dafür müssen sie sich physisch nicht vor Ort befinden, wo die Multiplayer fahren. Vielmehr können sie mit Brillen wie der Meta Quest oder Apple Vision Pro virtuell zugeschaltet werden. Zuschauer können sich virtuell per VR-Brille zuschalten und Rennen live erleben. BMW Group Virtuelle Welt auf dem Dach Gefahren wird in der virtuellen Welt auf dem sogenannten BMW M Rooftop Circuit, umgeben von Wolkenkratzern, – während sich das reale Fahrzeug etwa in Maisach auf der Start- und Landebahn des ehemaligen Flughafens bewegt. Dabei gilt es, virtuellen Hindernissen auszuweichen und BMW-M-Münzen einzusammeln.  Der virtuelle Rennkurs. BMW Um die Position und Bewegung des Fahrzeugs in die virtuelle Welt zu übertragen, ist eine sehr genaue Ortung via GPS auf der befahrenen Fläche erforderlich. Schließlich muss jede Beschleunigung, jede Kurve und jeder Bremsvorgang latenzfrei in die virtuelle Welt gelangen. Laut BMW ist dies ohne zusätzliche Sensoren möglich, da die modernen, fahrzeuginternen Systeme mittlerweile alle benötigten Daten liefern. Mit den fahrzeuginternen Systemen wird das Headset verbunden, um die Bewegungen und Daten in Echtzeit zu synchronisieren. Auf diese Weise können verschiedene M-Modelle genutzt werden. Das umfasst Fahrzeuge mit herkömmlichen Verbrennungsmotoren wie den BMW M2 oder BMW M4 sowie Modelle mit vollelektrischem Antriebsstrang wie den BMW i5 M60. Zudem kann sich BMW auch vorstellen, den neuen BMW M5 mit der M Mixed Reality anzubieten. BMWs Mixed-Reality-Pläne Das reale Fahrzeug auf der Piste, das als Controller für die virtuelle Welt dient. BMW Group Darüber hinaus hat BMW in Sachen Mixed Reality noch weitere Zukunftspläne.  So soll künftig auch das Driften realisiert werden – wann genau steht noch nicht fest. Ferner ist geplant, auch für MINI-Kunden ein multisensorisches Mixed-Reality-Fahrerlebnis anzubieten. Zudem erkundet der Autobauer nach eigenen Angaben weitere Einsatzmöglichkeiten im Bereich der Fahrzeugentwicklung und der professionellen Instruktion. So könnten etwa bestehende Simulator-Fahrten im dynamischen Fahrbereich ergänzt werden. Ebenso ist ein Einsatz auf bestehenden Rennstrecken denkbar. Hier könnte ein Professional Track Trainer den Fahrern künftig Inhalte wie Ideallinie und Bremspunkte anzeigen, um sie noch präziser zu schulen. 

So verdient BMW mit Mixed Reality Geld​ Die Grenzen zwischen physischer und virtueller Welt aufheben, das zeigt der Münchner Autobauer mit BMW M Mixed Reality. Dabei wird ein reales M-Modell zum Controller für die Rundenhatz in der virtuellen Welt.

Die Idee per se ist nicht neu: Wir hatten bereits vor zwei Jahren die Möglichkeit, einige Runden in der Mixed Reality zu drehen. Unser Fazit damals: „Einfach geil: Mixed Reality im BMW M2 erfahren“.

Neuer Multiplayer-Modus

Doch BMW hat jetzt nochmals nachgelegt. Konnte man bislang nur im Single-Player-Modus in die digitale Welt eintauchen, so können nun zwei M-Mixed-Reality-Kunden virtuell gegeneinander im Multiplayer-Modus antreten. Zudem können Endkunden die BMW M Mixed Reality mittlerweile im Rahmen der BMW M Driving Experience in Maisach buchen. Des Weiteren läuft in Kalifornien eine Pilotierung mit der BMW M Performance Driving School. Allerdings ist das Abtauchen in die Mixed Reality Experience nicht gerade günstig. Ein Stint a vier Runden kostet 190 Euro.

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/10/BMW1.jpg?quality=50&strip=all 1600w, https://b2b-contenthub.com/wp-content/uploads/2024/10/BMW1.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/10/BMW1.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/10/BMW1.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/10/BMW1.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/10/BMW1.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/10/BMW1.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/10/BMW1.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/10/BMW1.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/10/BMW1.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Die Grenzen zwischen virtueller und realer Welt verwischen. Links das Fahrzeug in der virtuellen Welt, rechts das real gefahrene Fahrzeug.BMW Group

Darüber hinaus offeriert BMW seinen Partnern die Möglichkeit, die M Mixed Reality Welt mit einem individuellen Look und der eigenen CI auszustatten. Zudem wurde auch an die Zuschauer gedacht. Sie können mit personifizierten Avataren virtuell live von der BMW-M-Mixed- Reality-Brücke das Rennen verfolgen. Dafür müssen sie sich physisch nicht vor Ort befinden, wo die Multiplayer fahren. Vielmehr können sie mit Brillen wie der Meta Quest oder Apple Vision Pro virtuell zugeschaltet werden.

Zuschauer können sich virtuell per VR-Brille zuschalten und Rennen live erleben.
BMW Group

Virtuelle Welt auf dem Dach

Gefahren wird in der virtuellen Welt auf dem sogenannten BMW M Rooftop Circuit, umgeben von Wolkenkratzern, – während sich das reale Fahrzeug etwa in Maisach auf der Start- und Landebahn des ehemaligen Flughafens bewegt. Dabei gilt es, virtuellen Hindernissen auszuweichen und BMW-M-Münzen einzusammeln. 

Der virtuelle Rennkurs.
BMW

Um die Position und Bewegung des Fahrzeugs in die virtuelle Welt zu übertragen, ist eine sehr genaue Ortung via GPS auf der befahrenen Fläche erforderlich. Schließlich muss jede Beschleunigung, jede Kurve und jeder Bremsvorgang latenzfrei in die virtuelle Welt gelangen. Laut BMW ist dies ohne zusätzliche Sensoren möglich, da die modernen, fahrzeuginternen Systeme mittlerweile alle benötigten Daten liefern.

Mit den fahrzeuginternen Systemen wird das Headset verbunden, um die Bewegungen und Daten in Echtzeit zu synchronisieren. Auf diese Weise können verschiedene M-Modelle genutzt werden. Das umfasst Fahrzeuge mit herkömmlichen Verbrennungsmotoren wie den BMW M2 oder BMW M4 sowie Modelle mit vollelektrischem Antriebsstrang wie den BMW i5 M60. Zudem kann sich BMW auch vorstellen, den neuen BMW M5 mit der M Mixed Reality anzubieten.

BMWs Mixed-Reality-Pläne

Das reale Fahrzeug auf der Piste, das als Controller für die virtuelle Welt dient.
BMW Group

Darüber hinaus hat BMW in Sachen Mixed Reality noch weitere Zukunftspläne.  So soll künftig auch das Driften realisiert werden – wann genau steht noch nicht fest. Ferner ist geplant, auch für MINI-Kunden ein multisensorisches Mixed-Reality-Fahrerlebnis anzubieten.

Zudem erkundet der Autobauer nach eigenen Angaben weitere Einsatzmöglichkeiten im Bereich der Fahrzeugentwicklung und der professionellen Instruktion. So könnten etwa bestehende Simulator-Fahrten im dynamischen Fahrbereich ergänzt werden. Ebenso ist ein Einsatz auf bestehenden Rennstrecken denkbar. Hier könnte ein Professional Track Trainer den Fahrern künftig Inhalte wie Ideallinie und Bremspunkte anzeigen, um sie noch präziser zu schulen.

So verdient BMW mit Mixed Reality Geld​ Read More »

Forscher verbinden Wi-Fi und LoRa​

Forscher verbinden Wi-Fi und LoRa​

Allgemein

Die WiLo-Technologie könnte sich vor allem für Sensornetzwerke, wie sie in der Landwirtschaft oder in Smart Cities eingesetzt werden, eignen.metamorworks – Shutterstock WLAN ist eine weit verbreitete Methode für den drahtlosen Zugang zum Internet, hat aber auch diverse Einschränkungen, was den Einsatz in Lösungen für das Internet der Dinge (Internet of Things – IoT) angeht. Dazu zählen insbesondere eine relativ niedrige Reichweite und ein hoher Stromverbrauch. Im Gegensatz dazu ist das drahtlose Netzwerkprotokoll LoRa speziell auf hohe Reichweiten und Energieeffizienz ausgelegt und kommt entsprechend häufig in IoT-Anwendungen zum Einsatz. Forscher haben nun die beiden Kommunikationsprotokolle in WiLo (Wireless to LoRa) kombiniert. Die vorgeschlagene WiLo-Technologie ist dabei so konzipiert, dass sie mit vorhandener Wi-Fi- und LoRa-Hardware verwendet werden kann. Handelsüblicher LoRa-Receiver Wie die von verschiedenen Universitäten und Intel Deutschland stammenden Forscher in ihrem Research-Bericht beschreiben, kam bei ihren Experimenten ein handelsüblicher LoRa-Transceiver SX1280 von Semtech zum Einsatz. Dieser nutzt zwar wie Wi-Fi das 2.4 GHz-Funkband, allerdings sind Wi-Fi- und LoRa-Signale nicht kompatibel. Die Forscher entwickelten daher einen Algorithmus, um die Frequenz der Datenübertragungssignale von WLAN (das orthogonale Frequenzmultiplexverfahren (OFDM)), so zu manipulieren, dass sie mit den Chirp-Signalen des LoRa-Geräts (CSS) übereinstimmt. Die Ergebnisse können sich sehen lassen: Den Forschern zufolge zeigten die im Labor und im Freien durchgeführten Experimente über eine Strecke von bis zu 500 Metern eine in mehr als 96 Prozent erfolgreiche Übertragung. Wie Demin Gao, Professor am College für Informationswissenschaft und -technologie an der Nanjing Forestry University in China, gegenüber dem IEEE Spectrum ausführte, besteht ein Vorteil von WiLo darin, dass es auf bereits vorhandener Standardhardware ausgeführt werden kann. Daher entfielen hohe Bereitstellungskosten oder eine hohe Komplexität. Eine Einschränkung von WiLo sei allerdings der zusätzliche Stromverbrauch, der für WLAN-Geräte erforderlich ist, um gleichzeitig die Kommunikation und die Signalemulation zu bewältigen – ein Problem, das Gao und seine Kollegen genauso wie die Standardisierung und die Integration von Sicherheitsmaßnahmen für die technologieübergreifende Kommunikation in Zukunft angehen wollen. Als Einsatzszenarien sieht Gao insbesondere das Internet der Dinge  – etwa in Sensor-Netzen, wie sie in der Landwirtschaft oder in Smart Cities eingesetzt werden. 

Forscher verbinden Wi-Fi und LoRa​ Die WiLo-Technologie könnte sich vor allem für Sensornetzwerke, wie sie in der Landwirtschaft oder in Smart Cities eingesetzt werden, eignen.metamorworks – Shutterstock

WLAN ist eine weit verbreitete Methode für den drahtlosen Zugang zum Internet, hat aber auch diverse Einschränkungen, was den Einsatz in Lösungen für das Internet der Dinge (Internet of Things – IoT) angeht. Dazu zählen insbesondere eine relativ niedrige Reichweite und ein hoher Stromverbrauch. Im Gegensatz dazu ist das drahtlose Netzwerkprotokoll LoRa speziell auf hohe Reichweiten und Energieeffizienz ausgelegt und kommt entsprechend häufig in IoT-Anwendungen zum Einsatz.

Forscher haben nun die beiden Kommunikationsprotokolle in WiLo (Wireless to LoRa) kombiniert. Die vorgeschlagene WiLo-Technologie ist dabei so konzipiert, dass sie mit vorhandener Wi-Fi- und LoRa-Hardware verwendet werden kann.

Handelsüblicher LoRa-Receiver

Wie die von verschiedenen Universitäten und Intel Deutschland stammenden Forscher in ihrem Research-Bericht beschreiben, kam bei ihren Experimenten ein handelsüblicher LoRa-Transceiver SX1280 von Semtech zum Einsatz. Dieser nutzt zwar wie Wi-Fi das 2.4 GHz-Funkband, allerdings sind Wi-Fi- und LoRa-Signale nicht kompatibel. Die Forscher entwickelten daher einen Algorithmus, um die Frequenz der Datenübertragungssignale von WLAN (das orthogonale Frequenzmultiplexverfahren (OFDM)), so zu manipulieren, dass sie mit den Chirp-Signalen des LoRa-Geräts (CSS) übereinstimmt.

Die Ergebnisse können sich sehen lassen: Den Forschern zufolge zeigten die im Labor und im Freien durchgeführten Experimente über eine Strecke von bis zu 500 Metern eine in mehr als 96 Prozent erfolgreiche Übertragung.

Wie Demin Gao, Professor am College für Informationswissenschaft und -technologie an der Nanjing Forestry University in China, gegenüber dem IEEE Spectrum ausführte, besteht ein Vorteil von WiLo darin, dass es auf bereits vorhandener Standardhardware ausgeführt werden kann. Daher entfielen hohe Bereitstellungskosten oder eine hohe Komplexität. Eine Einschränkung von WiLo sei allerdings der zusätzliche Stromverbrauch, der für WLAN-Geräte erforderlich ist, um gleichzeitig die Kommunikation und die Signalemulation zu bewältigen – ein Problem, das Gao und seine Kollegen genauso wie die Standardisierung und die Integration von Sicherheitsmaßnahmen für die technologieübergreifende Kommunikation in Zukunft angehen wollen.

Als Einsatzszenarien sieht Gao insbesondere das Internet der Dinge  – etwa in Sensor-Netzen, wie sie in der Landwirtschaft oder in Smart Cities eingesetzt werden.

Forscher verbinden Wi-Fi und LoRa​ Read More »

SAP TechEd – das sind die wichtigsten Ankündigungen​

SAP TechEd – das sind die wichtigsten Ankündigungen​

Allgemein

width=”1683″ height=”947″ sizes=”(max-width: 1683px) 100vw, 1683px”>KI-Agenten sollen tief in alle SAP-Systeme eingebettet werden und dort auch immer komplexere User-Aufgaben lösen können. Photon photo – shutterstock.com Bei SAP dreht sich momentan alles um Joule. Der auf GenAI basierende Copilot stehe im Mittelpunkt einer völlig neuen Weise, Geschäfte zu tätigen, heißt es zur diesjährigen TechEd von SAP. Muhammad Alam, SAP-Vorstand und verantwortlich für das Product Engineering, verspricht seinen Kunden „konkrete Geschäftsergebnisse“ durch die auf der TechEd vorgestellten Innovationen. Diese würden helfen, die Leistungsfähigkeit von KI, Daten und neuen Entwicklungslösungen für Wachstum zu nutzen. „Diese KI-Innovationen begründen ein Miteinander zwischen Mensch und KI, das modernes Geschäftsleben neu gestalten wird“, kündigte Alam an.  Mehr Produktivität durch KI-Agenten  Konkret erweitert SAP seinen im vergangenen Jahr vorgestellten GenAI Copilot Joule um KI-Agenten. Der Softwarehersteller spricht von „kooperativen Multiagentensystemen“. Diese würden Anwenderunternehmen eine neue Ära der Produktivität eröffnen, verspricht Philipp Herzig, Chief Artificial Intelligence Officer (CAIO) bei SAP. Der SAP-Manager hebt vor allem den Umstand hervor, dass diese Agenten tief mit der in den SAP-Systemen steckenden Business Logik verzahnt seien. Damit ließen auch komplexere Aufgaben in Prozessen und Workflows bearbeiten als mit herkömmlichen Stand-alone-Agenten, die meist nur für einen speziellen Aufgabentyp trainiert seien.  Philipp Herzig, Chief Artificial Intelligence Officer (CAIO) von SAP, verspricht seinen Kunden mehr Produktivität mit den neuen “kooperativen Multiagentensystemen”.SAP SE Die Joule-Agenten könnten stattdessen kollaborativ zusammenarbeiten und so auch kompliziertere Anfragen der User beantworten. In diesen Multiagentensystemen würden KI-Agenten mit spezialisiertem Fachwissen bestimmte Aufgaben in komplexen Geschäftsprozessen übernehmen, beschreibt SAP die Funktionsweise. Sie arbeiteten dabei mit anderen spezialisierten KI-Agenten zusammen und könnten in dieser Kooperation ihre Strategien dynamisch anpassen, um die ihnen gestellten Aufgaben zu lösen.   Erste Agenten will SAP noch im vierten Quartal 2024 herausbringen. Zur TechEd stellen die Verantwortlichen des deutschen Softwarekonzerns zwei Einsatzszenarien vor. Demzufolge könnten die neuen Agenten Mitarbeiterinnen und Mitarbeitern in den Finanzabteilungen der Anwenderunternehmen beim Rechnungs-Workflow unter die Arme greifen, beispielsweise indem sie auf Fehler in Rechnungen hinwiesen. Darüber hinaus seien die KI-Agenten in der Lage, Finanzprozesse wie zum Beispiel die Abwicklung von Zahlungen oder Buchungen im Hauptbuch zu automatisieren und damit effizienter zu machen.  SAPs Vision eines GenAI-Copiloten, der die Sprache des Business versteht, wird damit wahr, lassen die SAP-Verantwortliche zur TechEd verlauten. Joule soll immer tiefer in die Softwarelandschaft der Walldorfer integriert werden, hieß es. Bis Ende des Jahres werde das KI-Werkzeug rund 80 Prozent der gängigsten Business-Aufgaben innerhalb von SAP unterstützen.  Weniger Komplexität dank Knowledge Graph  SAP passt darüber hinaus seine Datenbasis für eine stärkere KI-Nutzung an. Nachdem der Softwarekonzern im vergangenen Jahr bereits eine Vektor-Engine für seine Datenbank HANA vorgestellt hat, kommt nun ein Knowledge Graph hinzu. Die Technik soll ab dem ersten Quartal 2025 über SAPs Datenplattform Datasphere und Joule verfügbar sein.  Sapphire 2024: SAP trimmt seine Software auf KI-Kurs Der Knowledge Graph reduziert SAP zufolge die Komplexität der manuellen Datenmodellierung, indem vordefinierte Beziehungen zwischen verschiedenen Geschäftseinheiten wie Bestellungen, Rechnungen und Kunden bereitgestellt würden. Die SAP-Verantwortlichen sprechen von einem semantischen Metadaten-Layer, der über 450.000 ABAP-Tabellen und 7,3 Millionen Felder verknüpft.  Beziehungen und Kontexte innerhalb von SAPs Datenlandschaft würden über den Knowledge Graph neu geknüpft, so SAP. Darauf aufbauende KI-Anwendungen könnten damit genauere Ergebnisse liefern. Anwenderinnen und Anwender müssten sich weniger Gedanken um die Genauigkeit der zugrunde liegenden Daten machen, versprechen die SAP-Verantwortlichen.  KI-Funktionen in SAP Build  Auch SAP-Entwickler sollen in den Genuss neuer KI-Funktionen kommen. Entsprechende Features in SAP Entwicklerplattform Build würden die Entwicklungszeiten verkürzen, indem Java- und Javascript-Entwickler mit Hilfe von GenAI Funktionen wie Code-Erläuterungen und Dokumentationen weitgehend automatisieren könnten, behauptet der Anbieter. SAP-CEO Christian Klein: Alles, was wir tun, enthält KI Außerdem sollen sich Erweiterungen von SAP-Lösungen mit Hilfe eines Extensibility Wizards einfacher bauen und implementieren lassen. Das gilt allerdings nur für die S/4HANA Cloud Public Edition. Hier könnten Entwickler direkt aus dem SAP-System heraus auf Build zugreifen und Erweiterungen wie beispielsweise neue Felder oder Verknüpfungen in das SAP-System einbauen. Darüber hinaus soll Joule Studio Teil der Build-Plattform werden. Anwenderinnen und Anwender könnten damit eigene KI-Entwicklungen vorantreiben, beispielsweise um Drittsysteme anzubinden oder eigene KI-Agenten zu entwickeln.  Kooperationen mit KI-Anbietern  SAP kooperiert im Zuge der Nutzung von KI-Modellen mit verschiedenen Anbietern. Diese Large Language Models (LLMs) stellt der Anbieter seinen Kunden über den GenAI Hub zur Verfügung. SAPs Ansatz ziele jedoch darauf ab, die damit verbundene technische Komplexität unter der Haube des SAP-Gesamtsystems zu verbergen, erläutert SAPs KI-Chef Herzig. Die verschiedenen Modelle hätten ihre Stärken und Schwächen. Dementsprechend würden die in SAP eingebetteten KI-Features auf die jeweils am besten für bestimmte Aufgaben geeignete Modelle zurückgreifen. Kämen neue Modelle hinzu oder änderten sich die Rahmenparameter für bestehende Modelle, würde die notwendigen Rekonfiguration im Hintergrund der SAP-Systeme automatisiert ablaufen.  Zur TechEd 2024 kündigt SAP an, die Kooperationen mit Anthropic und Mistral ausbauen zu wollen. Im AI Hub will SAP künftig auch IBMs Granite-Modelle und Metas Llama 3.1 bereitstellen. Bis Ende 2024 werden SAP zufolge darüber hinaus folgende LLMs über den eigenen AI Hub zur Verfügung stehen:  Aleph Alpha Pharia-1  Amazon Titan Image Generator  Mistral Large 2  OpenAI Dell-E-3  Kommentar – SAP betritt allmählich die Agentenbühne  Nach Salesforce und Microsoft startet nun auch SAP in das Agentenzeitalter in Sachen GenAI. Das Versprechen hinter der Technik: Mit diesen Agenten sollen sich künftig auch komplexere Aufgaben lösen lassen. Das kann gerade im Business-Kontext der Schlüssel für viele Unternehmen sein, die derzeit nach konkreten Use Cases für den GenAI-Einsatz suchen, die vor allem auch Mehrwert bringen.  Der Softwarekonzern, der für sich in Anspruch nimmt, mit seinem System Business-Prozesse end-to-end abzudecken, könnte seine Agenten tief in die Geschäftslogik integrieren und mit den dafür relevanten Daten unterfüttern – durchaus ein Pluspunkt für die Walldorfer. Konkret wird der Erfolg der Strategie davon abhängen, wie schnell und wie viele Use Cases SAP ins Laufen bringt. Man fokussiere sich mit der KI-Strategie nicht auf die Technologie, sondern auf die Anwendungen, so  KI-Chef Herzig. „KI ist ein Anwendungs-Feature“, sagt er und damit dürfte er recht haben.  Die Zahl der Beispiele, die SAP konkret anführt, ist momentan aber noch überschaubar. Auch der Use Case, Fehler in Rechnungen zu finden oder Buchungen automatisiert abzuwickeln, hört sich erst einmal nicht besonders spektakulär an. Zudem ist von der durch SAP so hervorgehobenen Kompetenz seiner Agenten, hoch komplexe Aufgaben zu lösen, noch nicht so viel zu sehen. Da klang vor wenigen Wochen das Beispiel von Salesforce, deren KI-Agent einen Service-Call rund um die Retoure einer Ware mit verschiedenen Optionen in Sachen Umtausch, Lokalität und Timing vornimmt, schon eindrucksvoller.  SAP verspricht zumindest mehr Speed. Man habe 2023 die Grundlagen geschaffen, und jetzt beschleunige sich die Entwicklung, kündigt Herzig an. Mit jedem Use Case werde die Entwicklung einfacher und schneller, so der SAP-Manager. Bleibt am Ende nur noch die Frage, wer die neuen KI-Features der SAP überhaupt nutzen kann. Das bleibt der Wermutstropfen für große Teile der SAP-Klientel: Der Konzern hält an seiner Strategie fest, wonach die neue Technik allein den Cloud-Kunden mit entsprechenden RISE- und GROW-Verträgen vorbehalten bleibt. Die vielen On-Premises-Kunden bleiben in Sachen Joule und Multiagentensysteme außen vor. Immerhin stellt SAP seinen Kunden in Aussicht, dass der Weg in die Cloud mit KI-Hilfestellung einfacher und leichter fallen könnte. Beispielsweise sollen die neuen KI-Agenten Custom-Code identifizieren und Vorschläge machen können, wie Anwenderunternehmen damit umgehen sollten. Ob dieses Argument bei den Kunden zieht, bleibt abzuwarten. Vielleicht erfahren wir auf der Jahreskonferenz der Deutschsprachigen SAP Anwendergruppe (DSAG) Mitte Oktober in Leipzig mehr dazu. 

SAP TechEd – das sind die wichtigsten Ankündigungen​ width=”1683″ height=”947″ sizes=”(max-width: 1683px) 100vw, 1683px”>KI-Agenten sollen tief in alle SAP-Systeme eingebettet werden und dort auch immer komplexere User-Aufgaben lösen können. Photon photo – shutterstock.com

Bei SAP dreht sich momentan alles um Joule. Der auf GenAI basierende Copilot stehe im Mittelpunkt einer völlig neuen Weise, Geschäfte zu tätigen, heißt es zur diesjährigen TechEd von SAP. Muhammad Alam, SAP-Vorstand und verantwortlich für das Product Engineering, verspricht seinen Kunden „konkrete Geschäftsergebnisse“ durch die auf der TechEd vorgestellten Innovationen. Diese würden helfen, die Leistungsfähigkeit von KI, Daten und neuen Entwicklungslösungen für Wachstum zu nutzen. „Diese KI-Innovationen begründen ein Miteinander zwischen Mensch und KI, das modernes Geschäftsleben neu gestalten wird“, kündigte Alam an. 

Mehr Produktivität durch KI-Agenten 

Konkret erweitert SAP seinen im vergangenen Jahr vorgestellten GenAI Copilot Joule um KI-Agenten. Der Softwarehersteller spricht von „kooperativen Multiagentensystemen“. Diese würden Anwenderunternehmen eine neue Ära der Produktivität eröffnen, verspricht Philipp Herzig, Chief Artificial Intelligence Officer (CAIO) bei SAP. Der SAP-Manager hebt vor allem den Umstand hervor, dass diese Agenten tief mit der in den SAP-Systemen steckenden Business Logik verzahnt seien. Damit ließen auch komplexere Aufgaben in Prozessen und Workflows bearbeiten als mit herkömmlichen Stand-alone-Agenten, die meist nur für einen speziellen Aufgabentyp trainiert seien. 

Philipp Herzig, Chief Artificial Intelligence Officer (CAIO) von SAP, verspricht seinen Kunden mehr Produktivität mit den neuen “kooperativen Multiagentensystemen”.SAP SE

Die Joule-Agenten könnten stattdessen kollaborativ zusammenarbeiten und so auch kompliziertere Anfragen der User beantworten. In diesen Multiagentensystemen würden KI-Agenten mit spezialisiertem Fachwissen bestimmte Aufgaben in komplexen Geschäftsprozessen übernehmen, beschreibt SAP die Funktionsweise. Sie arbeiteten dabei mit anderen spezialisierten KI-Agenten zusammen und könnten in dieser Kooperation ihre Strategien dynamisch anpassen, um die ihnen gestellten Aufgaben zu lösen.  

Erste Agenten will SAP noch im vierten Quartal 2024 herausbringen. Zur TechEd stellen die Verantwortlichen des deutschen Softwarekonzerns zwei Einsatzszenarien vor. Demzufolge könnten die neuen Agenten Mitarbeiterinnen und Mitarbeitern in den Finanzabteilungen der Anwenderunternehmen beim Rechnungs-Workflow unter die Arme greifen, beispielsweise indem sie auf Fehler in Rechnungen hinwiesen. Darüber hinaus seien die KI-Agenten in der Lage, Finanzprozesse wie zum Beispiel die Abwicklung von Zahlungen oder Buchungen im Hauptbuch zu automatisieren und damit effizienter zu machen. 

SAPs Vision eines GenAI-Copiloten, der die Sprache des Business versteht, wird damit wahr, lassen die SAP-Verantwortliche zur TechEd verlauten. Joule soll immer tiefer in die Softwarelandschaft der Walldorfer integriert werden, hieß es. Bis Ende des Jahres werde das KI-Werkzeug rund 80 Prozent der gängigsten Business-Aufgaben innerhalb von SAP unterstützen. 

Weniger Komplexität dank Knowledge Graph 

SAP passt darüber hinaus seine Datenbasis für eine stärkere KI-Nutzung an. Nachdem der Softwarekonzern im vergangenen Jahr bereits eine Vektor-Engine für seine Datenbank HANA vorgestellt hat, kommt nun ein Knowledge Graph hinzu. Die Technik soll ab dem ersten Quartal 2025 über SAPs Datenplattform Datasphere und Joule verfügbar sein. 

Sapphire 2024: SAP trimmt seine Software auf KI-Kurs

Der Knowledge Graph reduziert SAP zufolge die Komplexität der manuellen Datenmodellierung, indem vordefinierte Beziehungen zwischen verschiedenen Geschäftseinheiten wie Bestellungen, Rechnungen und Kunden bereitgestellt würden. Die SAP-Verantwortlichen sprechen von einem semantischen Metadaten-Layer, der über 450.000 ABAP-Tabellen und 7,3 Millionen Felder verknüpft. 

Beziehungen und Kontexte innerhalb von SAPs Datenlandschaft würden über den Knowledge Graph neu geknüpft, so SAP. Darauf aufbauende KI-Anwendungen könnten damit genauere Ergebnisse liefern. Anwenderinnen und Anwender müssten sich weniger Gedanken um die Genauigkeit der zugrunde liegenden Daten machen, versprechen die SAP-Verantwortlichen. 

KI-Funktionen in SAP Build 

Auch SAP-Entwickler sollen in den Genuss neuer KI-Funktionen kommen. Entsprechende Features in SAP Entwicklerplattform Build würden die Entwicklungszeiten verkürzen, indem Java- und Javascript-Entwickler mit Hilfe von GenAI Funktionen wie Code-Erläuterungen und Dokumentationen weitgehend automatisieren könnten, behauptet der Anbieter.

SAP-CEO Christian Klein: Alles, was wir tun, enthält KI

Außerdem sollen sich Erweiterungen von SAP-Lösungen mit Hilfe eines Extensibility Wizards einfacher bauen und implementieren lassen. Das gilt allerdings nur für die S/4HANA Cloud Public Edition. Hier könnten Entwickler direkt aus dem SAP-System heraus auf Build zugreifen und Erweiterungen wie beispielsweise neue Felder oder Verknüpfungen in das SAP-System einbauen. Darüber hinaus soll Joule Studio Teil der Build-Plattform werden. Anwenderinnen und Anwender könnten damit eigene KI-Entwicklungen vorantreiben, beispielsweise um Drittsysteme anzubinden oder eigene KI-Agenten zu entwickeln. 

Kooperationen mit KI-Anbietern 

SAP kooperiert im Zuge der Nutzung von KI-Modellen mit verschiedenen Anbietern. Diese Large Language Models (LLMs) stellt der Anbieter seinen Kunden über den GenAI Hub zur Verfügung. SAPs Ansatz ziele jedoch darauf ab, die damit verbundene technische Komplexität unter der Haube des SAP-Gesamtsystems zu verbergen, erläutert SAPs KI-Chef Herzig. Die verschiedenen Modelle hätten ihre Stärken und Schwächen. Dementsprechend würden die in SAP eingebetteten KI-Features auf die jeweils am besten für bestimmte Aufgaben geeignete Modelle zurückgreifen. Kämen neue Modelle hinzu oder änderten sich die Rahmenparameter für bestehende Modelle, würde die notwendigen Rekonfiguration im Hintergrund der SAP-Systeme automatisiert ablaufen. 

Zur TechEd 2024 kündigt SAP an, die Kooperationen mit Anthropic und Mistral ausbauen zu wollen. Im AI Hub will SAP künftig auch IBMs Granite-Modelle und Metas Llama 3.1 bereitstellen. Bis Ende 2024 werden SAP zufolge darüber hinaus folgende LLMs über den eigenen AI Hub zur Verfügung stehen: 

Aleph Alpha Pharia-1 

Amazon Titan Image Generator 

Mistral Large 2 

OpenAI Dell-E-3 

Kommentar – SAP betritt allmählich die Agentenbühne 

Nach Salesforce und Microsoft startet nun auch SAP in das Agentenzeitalter in Sachen GenAI. Das Versprechen hinter der Technik: Mit diesen Agenten sollen sich künftig auch komplexere Aufgaben lösen lassen. Das kann gerade im Business-Kontext der Schlüssel für viele Unternehmen sein, die derzeit nach konkreten Use Cases für den GenAI-Einsatz suchen, die vor allem auch Mehrwert bringen. 

Der Softwarekonzern, der für sich in Anspruch nimmt, mit seinem System Business-Prozesse end-to-end abzudecken, könnte seine Agenten tief in die Geschäftslogik integrieren und mit den dafür relevanten Daten unterfüttern – durchaus ein Pluspunkt für die Walldorfer. Konkret wird der Erfolg der Strategie davon abhängen, wie schnell und wie viele Use Cases SAP ins Laufen bringt. Man fokussiere sich mit der KI-Strategie nicht auf die Technologie, sondern auf die Anwendungen, so  KI-Chef Herzig. „KI ist ein Anwendungs-Feature“, sagt er und damit dürfte er recht haben. 

Die Zahl der Beispiele, die SAP konkret anführt, ist momentan aber noch überschaubar. Auch der Use Case, Fehler in Rechnungen zu finden oder Buchungen automatisiert abzuwickeln, hört sich erst einmal nicht besonders spektakulär an. Zudem ist von der durch SAP so hervorgehobenen Kompetenz seiner Agenten, hoch komplexe Aufgaben zu lösen, noch nicht so viel zu sehen. Da klang vor wenigen Wochen das Beispiel von Salesforce, deren KI-Agent einen Service-Call rund um die Retoure einer Ware mit verschiedenen Optionen in Sachen Umtausch, Lokalität und Timing vornimmt, schon eindrucksvoller. 

SAP verspricht zumindest mehr Speed. Man habe 2023 die Grundlagen geschaffen, und jetzt beschleunige sich die Entwicklung, kündigt Herzig an. Mit jedem Use Case werde die Entwicklung einfacher und schneller, so der SAP-Manager. Bleibt am Ende nur noch die Frage, wer die neuen KI-Features der SAP überhaupt nutzen kann. Das bleibt der Wermutstropfen für große Teile der SAP-Klientel: Der Konzern hält an seiner Strategie fest, wonach die neue Technik allein den Cloud-Kunden mit entsprechenden RISE- und GROW-Verträgen vorbehalten bleibt. Die vielen On-Premises-Kunden bleiben in Sachen Joule und Multiagentensysteme außen vor.

Immerhin stellt SAP seinen Kunden in Aussicht, dass der Weg in die Cloud mit KI-Hilfestellung einfacher und leichter fallen könnte. Beispielsweise sollen die neuen KI-Agenten Custom-Code identifizieren und Vorschläge machen können, wie Anwenderunternehmen damit umgehen sollten. Ob dieses Argument bei den Kunden zieht, bleibt abzuwarten. Vielleicht erfahren wir auf der Jahreskonferenz der Deutschsprachigen SAP Anwendergruppe (DSAG) Mitte Oktober in Leipzig mehr dazu.

SAP TechEd – das sind die wichtigsten Ankündigungen​ Read More »

KI-Dienstleister finden: Der große AI-as-a-Service-Ratgeber​

KI-Dienstleister finden: Der große AI-as-a-Service-Ratgeber​

Allgemein

Wer nicht die Zeit oder das Geld hat, um eigene KI-Instanzen aufzusetzen, könnte mit einem AI-as-a-Service-Angebot glücklich werden. Insofern die Voraussetzungen stimmen. Foto: VesnaArt | shutterstock.com Künstliche Intelligenz (KI) ist weiter auf dem Vormarsch. Laut Gartner werden mehr als 80 Prozent aller Unternehmen bis zum Jahr 2026 in irgendeiner Form Generative-AI-APIs oder -Apps nutzen. Diejenigen, die dazu gehören, müssen sich überlegen, wie sie ihre KI-Instanzen optimal trainieren und einsetzen – On-Premises oder in der Cloud. Eine KI zu trainieren, erfordert spezielle Hardware, die im Vergleich zu Standard-Servern deutlich teurer ist. Die Kosten beginnen im mittleren sechsstelligen Bereich und können in die Millionen gehen. Allerdings kann das teure Equipment nicht für andere Zwecke (etwa Datenbanken) genutzt respektive wiederverwendet werden. Abgesehen von den Anschaffungs- und Wartungskosten stellt das KI-Training auch den schwierigsten und prozessintensivsten Part eines solchen Unterfangens dar. Je nach zugrundeliegendem Datensatz kann das Wochen oder auch Monate in Anspruch nehmen – die Sie unter Umständen nicht warten können oder wollen. Im Grunde haben Sie also zwei Möglichkeiten: Sie kaufen Hardware und setzen Ihre KI im DIY-Verfahren auf. Sie wenden sich an einen KI-Dienstleister. AI as a Service – kurz AIaaS – ist der neueste Schrei auf dem As-a-Service-Markt und speziell auf Initiativen in Zusammenhang mit künstlicher Intelligenz ausgerichtet. Cloud Services Provider – aber auch kleinere Anbieter – haben solche Dienstleistungsangebote im Portfolio. Im Folgenden werfen wir einen Blick darauf, wie AIaaS funktioniert, wo die Vor- und Nachteile des Modells liegen und wie die Schlüsselkriterien für entsprechende Plattformen aussehen. Abschließend stellen wir Ihnen die fünf wichtigsten KI-Dienstleister – und ihre Angebote – vor. Wie funktioniert AI as a Service? KI als Service bietet Anwenderunternehmen Cloud-basierten Zugang zu AI-Funktionalitäten, um diese in ihre Projekte oder Applikationen zu integrieren, ohne dafür eine eigene Infrastruktur aufbauen und pflegen zu müssen. Vorgefertigte respektive -trainierte KI-Modelle für grundlegende Anwendungsfälle wie Chatbots gewährleisten dabei, dass den Kunden zeitintensive Grundlagenarbeit erspart bleibt. “AI as a Service ermöglicht grundsätzlich, Anwendungen im Unternehmen schneller entwickeln und bereitzustellen”, konstatiert Gartner-Analyst Chirag Dekate. Dem Experten zufolge gibt es im Bereich AIaaS drei Einstiegspunkte: die Anwendungsebene, die Ebene der Modellentwicklung und die Ebene der benutzerdefinierten Modellentwicklung. Die Offerings der KI-Dienstleister beinhalten darüber hinaus oft Data Preparation für unstrukturierte Daten und die Möglichkeit, vom Anwender bereitgestellte Modelle zu trainieren. Vorgefertigte Modelle stehen im Regelfall für diverse Tasks zur Verfügung – unter anderem: Bilderkennung, Datenanalyse, Natural Language Processing und Predictive Analytics. Der Zugriff auf die AI Services erfolgt dabei entweder über APIs oder User Interfaces. Das ermöglicht, KI-Funktionen (oft) mit minimalem Programmieraufwand in eigene Applikationen und/oder Plattformen zu integrieren. KI als Service – Kosten und Anforderungen Die meisten AI-as-a-Service-Anbieter nutzen ein Pay-as-you-go-Modell – entweder auf Nutzungs- oder Flatrate-Basis. Das ist im Vergleich zu IaaS– oder PaaS-Szenarien deutlich kostenintensiver. So ruft beispielsweise Nvidia für seinen Supercomputer-Service DGX Cloud monatlich pauschal 37.000 Dollar auf. Das schlagende Argument für AIaaS sind die Kosten für die Hardware, die nötig ist, um KI On-Premises zu realisieren. Nvidias DGX Pod H100-Server ist beispielsweise ab 500.000 Dollar zu haben, das wesentlich größere Modell SuperPOD hat einen Einstiegspreis von 7.000.000 Dollar. Unternehmen, die das Preisgefüge von x86-Servern gewöhnt sind, dürften bei diesen Zahlen schnell einem Preisschock erliegen. Speziell für KMUs ist AI as a Service deshalb des Öfteren die einzige realistische Option. Laut Mike Gualtieri, Vice President und Chefanalyst bei Forrester Research, eignet sich KI als Service auch deshalb besonders gut, um zu experimentieren: “Ihre eigene Infrastruktur für 30 Use Cases hochzufahren, wenn vielleicht nur ein paar davon funktionieren, ist nicht wirtschaftlich. Dennoch brauchen Sie die Infrastruktur, um zu testen.” Neben den Kosten für die Hardware stellt sich außerdem die Frage der Verfügbarkeit: So hat Nvidia beispielsweise mit einem enormen Auftrags-Backlog zu kämpfen. Wer heute einen On-Premises SuperPOD kaufen möchte, muss bis zu acht Monaten warten. Selbst wenn Sie also kaufen möchten und das nötige Kleingeld dafür haben, ist die einzige Option für ein zeitnahes Deployment ein KI-Dienstleister. AI as a Service – Vor- und Nachteile Die Vorteile von AI as a Service im Überblick: Niedrigere Einstiegsschwelle: AIaaS ist wesentlich kostenintensiver als herkömmliche Cloud Services. Dennoch ist KI als Dienstleistung deutlich günstiger als die Hardware selbst anzuschaffen. Vom Modelltraining ganz zu schweigen. Kürzere Time-to-Market: KI-Hardware on Premises zu installieren und zu konfigurieren, ist ebenfalls kostspielig und zeitaufwändig. Zudem setzt das voraus, dass Sie auch die richtigen Experten an Bord haben, die entsprechende Lösungen bereitstellen und supporten können. Das Hardware-Management einem Serviceanbieter zu überlassen, spart Zeit und ermöglicht den Anwenderunternehmen, sich auf Kerngeschäft und -kompetenzen zu fokussieren. Zugang zu State-of-the-Art-Technologie: KI kann Wettbewerbsvorteile erschließen. Weil die Anbieter Kunden binden wollen, sind sie darauf bedacht, sich beständig zu verbessern und ihre Angebote weiterzuentwickeln. Skalierbarkeit: Da es sich um Cloud-basierte Dienstleistungen handelt, ist eines der wichtigsten Verkaufsargumente, dass sich AIaaS-Lösungen entsprechend den Bedürfnissen des Anwenderunternehmens anpassen lassen. Zugang zu KI-Expertise: KI steckt immer noch in den Kinderschuhen und die Anzahl der IT-Experten, die die Hardware konfigurieren und managen können, ist überschaubar – außer bei den großen Cloud Services Providern. Wo Licht ist, ist auch Schatten – da bildet AI as a Service keine Ausnahme: Vendor Lock-in. Wenn Sie sich einmal für eine Plattform entschieden haben, kann der Umstieg auf einen anderen Anbieter problematisch sein. Begrenzte Anpassungsmöglichkeiten. Vorgefertigte Modelle sind für allgemeine Zwecke gut geeignet, können aber nicht auf spezifische Anforderungen abgestimmt werden. Sie sind deshalb möglicherweise gezwungen, Ihre eigenen Modelle zu erstellen und zu verarbeiten. Security- und Datenschutzbedenken. Wenn es um Unternehmensdaten geht, ist sorgfältig abzuwägen, ob Drittanbieter miteinbezogen werden. AIaaS-Plattformen – Schlüsselkriterien Bei der Auswahl einer AIaaS-Plattform sollten Sie (unter anderem) verstärkt auf die folgenden Aspekte achten: Unterstützte Workloads: Laut Forrester-Chefanalyst Gaultieri ist das wichtigste Kriterium bei der Auswahl eines AIaaS-Anbieters, ob er alle KI-Phasen unterstützt: Datenvorbereitung, Modelltraining und Inferencing. Gerade ersteres wird in der KI-Debatte oft unter den Tisch gekehrt, ist jedoch unumgänglich, weil KI-Instanzen in der Regel auf unstrukturierte Daten zugreifen. Regionale Infrastruktur: Geht es nach Gartner-Analyst Dikate, sollten Anwender in erster Linie darauf achten, dass AIaaS-Anbieter über ausreichende Skalierungskapazitäten in ihrer Region verfügen. Nicht alle Cloud-Anbieter verfügen über global verteilte Ressourcen. Erfahrung sticht: Suchen Sie gezielt nach Anbietern mit Erfahrung in Ihrer Branche oder mit Projekten, die ähnliche Herausforderungen aufwerfen. Fragen Sie nach Fallstudien, Kundenreferenzen und Erfahrungsberichten. KI-Spezifizierung: Bilderkennung ist etwas völlig anderes als Intrusion Detection oder ein Chatbot. Nicht jeder AIaaS-Anbieter ist auf sämtliche KI-Arten spezialisiert. Sie sollten deshalb sicherstellen, dass die Spezialisierung Ihres KI-Dienstleisters möglichst Ihren Bedürfnissen entspricht. Daten- und Compliance-Kompatibilität: Stellen Sie sicher, dass die Anbieterplattform sowohl Ihr Datenformat als auch -volumen unterstützt. Wenn es sich um stark regulierte Daten handelt, sollten Sie sichergehen, dass der Anbieter entsprechend zertifiziert ist, um diese zu verarbeiten. Skalierbarkeit: KI-Dienstleister verfügen möglicherweise nicht mehr über die nötige Kapazität, wenn Ihr Bedarf weiter wächst. Natürlich sind Zukunftsprognosen schwierig, insbesondere bei sich rasant verändernden Branchen wie KI. Dennoch ist es ratsam, eine zufriedenstellende Zukunftsperspektive einzuholen. Modell-Updates und -Wartung: KI-Modelle funktionieren fast nie nur einmal und dann nie wieder. Sie müssen regelmäßig und routinemäßig auf den aktuellen Stand gebracht werden. Studieren Sie deshalb die Richtlinien des Anbieters mit Blick darauf, wie das Modell gespeichert und aktualisiert werden kann und wie es sich “aus dem System” On-Premises nehmen lässt. Workload Management Software: Schließlich sollten Sie sicherstellen, dass der Anbieter in der Lage ist, einen Workload neu zu starten, wenn während der Verarbeitung ein Problem auftritt. Gaultieri erklärt, warum: “Stellen Sie sich vor, Sie erstellen ein Large Language Model, lassen es eine Woche lang laufen und dann geht etwas schief. Wenn es sich um einen mehrwöchigen Workload handelt, möchten Sie nicht von vorne beginnen. Features wie Checkpointing sind deshalb ratsam.” Die 5 wichtigsten KI-Dienstleister AI as a Service ist kein kleines Unterfangen. Während neuere Anbieter wie Nvidia, OpenAI und auch einige Managed-Services-Anbieter auf den Plan treten, sind die wichtigsten Akteure im Bereich KI-Dienstleistungen in erster Linie die Cloud-Hyperscaler. Sie verfügen über die Ressourcen, um AIaaS im Enterprise-Maßstab zu supporten. Amazon Web Services Amazon Web Services (AWS) hat eine breite Palette von KI-Dienstleistungen im Angebot, angefangen bei vorgefertigten, sofort einsetzbaren Services, die den Start eines KI-Projekts erleichtern und den Bedarf an erfahrenen Datenwissenschaftlern und KI-Entwicklern minimieren können. Zu diesen Services gehören beispielsweise: Amazon Translate (Echtzeit-Übersetzungen), Amazon Rekognition (Bild- und Videoanalyse), Amazon Polly (Text-to-Speech) und Amazon Transcribe (Speech-to-Text). Zu den Tools im Bereich Managed Infrastructure gehören: Amazon SageMaker (Machine-Learning-Modelle erstellen, trainieren und bereitstellen), Amazon Machine Learning Drag-and-Drop-Tools und -Templates (ML-Modelle einfacher bereitstellen), Amazon Comprehend (Natural Language Processing), Amazon Forecast (akkurate Zeitreihenvorhersagen) und Amazon Personalize (personalisierte Produkt- und Content-Vorschläge). Im Bereich generative KI bietet AWS: Amazon Lex (KI-Chatbots erstellen), Amazon CodeGuru (Code analysieren und optimieren) sowie Amazon Kendra (intelligente Suchen). Microsoft Microsofts Azure KI Services richten sich an Entwickler und Datenwissenschaftler und basieren auf Anwendungen wie SQL Server, Office und Dynamics. Dabei haben die Redmonder künstliche Intelligenz in verschiedene Business-Apps integriert – sowohl in der Cloud als auch On-Premises. Bekanntermaßen ist Microsoft eine enge Partnerschaft mit ChatGPT-Entwickler OpenAI eingegangen. Entsprechend sind viele KI-Anwendungen auf dem Azure-Marktplatz zu finden. Darüber hinaus steht ein OpenAI Service mit vortrainierten Large Language Models wie GPT-3.5, Codex und DALL-E 2 zur Verfügung. Zu den vorgefertigten AI Services im Angebot von Microsoft zählen etwa: Spracherkennung, Textanalyse, Übersetzung, Bildverarbeitung und ML-Modell-Deployment. Google Cloud Der KI-Service von Google ist auf Data Analytics fokussiert und bietet Tools wie BigQuery und AI Platform sowie den Service AutoML, der Benutzern mit eingeschränkten Coding-Fähigkeiten ermöglicht, automatisch Modelle zu erstellen. Google Cloud bietet zudem die Plattform Vertex AI, um KI-Workflows zu optimieren und Entwicklung und Bereitstellung zu vereinfachen. Dazu gehört auch eine breite Palette von Services mit vorgefertigten Lösungen, benutzerdefiniertem Modelltraining und Generative-AI-Werkzeugen. Mit der Vertex AI Workbench stellt Google außerdem eine kollaborative KI-Projektumgebung für Datenwissenschaftler und Entwickler zur Verfügung. Die vorgefertigten KI-Lösungen von Google Cloud umfassen: Dialogflow (Plattform, um Chatbots und virtuelle Assistenten zu entwickeln), Natural Language API (Sentiment-Textanalysen, Entity-Extraktion etc.), Vision AI (Objekterkennung in Bildern und Videos), Translation API (maschinelle Übersetzungen in verschiedenen Sprachen) sowie Speech-to-Text und Text-to-Speech (Konversionen zwischen gesprochener Sprache und Text). Was Generative AI angeht, bietet Vertex AI Search and Conversation eine Tool-Sammlung, die speziell darauf konzipiert ist, GenAI-Applikationen wie Suchmaschinen und Chatbots zu entwickeln. Diese Suite enthält mehr als 130 vortrainierte Foundational-LLMs wie PaLM und Imagen, um Texte und/oder Bilder zu generieren. Darüber hinaus hat Google auch den Bard-Nachfolger Gemini im Programm, der (demnächst) in drei verschiedenen Versionen erhältlich ist: Gemini Nano für Smartphones, Gemini Pro sowie Gemini Ultra, das sich noch in der Entwicklung befindet und wesentlich leistungsfähiger als die Pro-Version sein soll. IBM IBMs Watsonx, ist ein umfassendes KI-Tool- und -Dienstleistungsangebot, das für seinen Fokus auf die Automatisierung komplexer Geschäftsprozesse und seine branchenspezifischen Lösungen, insbesondere für das Gesundheits- und Finanzwesen, bekannt ist. Watsonx.ai Studio ist das Herzstück dieser Plattform, auf der Sie KI-Modelle trainieren, validieren, abstimmen und einsetzen können – sowohl für maschinelles Lernen als auch für generative KI. Ein Data Lakehouse gewährleistet dabei ein sicheres und skalierbares Speichersystem für Ihre Daten (sowohl strukturierte als auch unstrukturierte). IBMs AI Toolkit ist eine Sammlung vorgefertigter Tools und Konnektoren, die die Integration von KI in Ihre bestehenden Workflows erleichtern. So lassen sich Tasks automatisieren, Erkenntnisse aus Daten gewinnen und intelligente Applikationen erstellen. Watsonx enthält auch eine Reihe vortrainierter KI-Modelle, die Sie direkt und ohne Training einsetzen können. Diese Modelle decken verschiedene Tasks ab – beispielsweise: Natural Language Processing, Computer Vision und Spracherkennung. Oracle Oracle liegt bislang weit hinter den Cloud-Hyperscalern zurück, bringt jedoch einige Vorteile mit, die Sie auf dem Schirm haben sollten – in erster Linie, weil es ein Riese in Sachen Business-Anwendungen und -Datenbanken ist. Alle On-Premises installierten Anwendungen können in die Cloud verlagert werden, um eine hybride Konfiguration zu verwirklichen. Das erleichtert es erheblich, Ihre lokalen Daten zu Data-Preparation- und Schulungszwecken in die Cloud zu verlagern. Oracle hat sehr stark in GPU-Technologie investiert, die derzeit das wichtigste Mittel zur KI-Datenverarbeitung darstellt. Wenn Sie also KI-Anwendungen auf Nvidia-Technologie laufen lassen wollen, können Sie sich an Oracle wenden. Ein weiterer gewichtiger Vorteil: Die KI-Dienstleistungen von Oracle sind mit die günstigsten. Die Oracle Cloud Infrastructure (OCI) AI Services decken ein breit gefächertes Portfolio von Tools und Services ab, um Unternehmen mit diversen KI-Funktionen zu versorgen. Ähnlich wie im Fall von IBMs Watsonx handelt es sich nicht um einen einzigen Service, sondern um eine Sammlung von Funktionen, die unterschiedliche Anforderungen erfüllen – darunter: Betrugserkennung und -prävention, Spracherkennung sowie Sprach- und Textanalyse. Oracles Generative-AI-Services unterstützt LLMs wie Cohere und Llama 2 und ermöglicht Anwendungsfälle wie: Schreib-Assistenten, Textzusammenfassungen, Chatbots oder Code-Generierung. Die Machine Learning Services von Oracle bieten Tools für Datenwissenschaftler, um ML-Modelle zu erstellen, zu trainieren und zu managen. Dabei werden populäre Open-Source-Frameworks wie TensorFlow und PyTorch unterstützt. Mit OCI Data Science ist es schließlich möglich, virtuelle Maschinen mit vorkonfigurierten Umgebungen für Data-Science-Aufgaben bereitzustellen – inklusive Jupyter-Notebooks und Zugang zu beliebten Bibliotheken, die die Datenexploration und den Modellentwicklungs-Workflow vereinfachen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

KI-Dienstleister finden: Der große AI-as-a-Service-Ratgeber​ Wer nicht die Zeit oder das Geld hat, um eigene KI-Instanzen aufzusetzen, könnte mit einem AI-as-a-Service-Angebot glücklich werden. Insofern die Voraussetzungen stimmen.
Foto: VesnaArt | shutterstock.com

Künstliche Intelligenz (KI) ist weiter auf dem Vormarsch. Laut Gartner werden mehr als 80 Prozent aller Unternehmen bis zum Jahr 2026 in irgendeiner Form Generative-AI-APIs oder -Apps nutzen. Diejenigen, die dazu gehören, müssen sich überlegen, wie sie ihre KI-Instanzen optimal trainieren und einsetzen – On-Premises oder in der Cloud.

Eine KI zu trainieren, erfordert spezielle Hardware, die im Vergleich zu Standard-Servern deutlich teurer ist. Die Kosten beginnen im mittleren sechsstelligen Bereich und können in die Millionen gehen. Allerdings kann das teure Equipment nicht für andere Zwecke (etwa Datenbanken) genutzt respektive wiederverwendet werden. Abgesehen von den Anschaffungs- und Wartungskosten stellt das KI-Training auch den schwierigsten und prozessintensivsten Part eines solchen Unterfangens dar. Je nach zugrundeliegendem Datensatz kann das Wochen oder auch Monate in Anspruch nehmen – die Sie unter Umständen nicht warten können oder wollen. Im Grunde haben Sie also zwei Möglichkeiten:

Sie kaufen Hardware und setzen Ihre KI im DIY-Verfahren auf.

Sie wenden sich an einen KI-Dienstleister.

AI as a Service – kurz AIaaS – ist der neueste Schrei auf dem As-a-Service-Markt und speziell auf Initiativen in Zusammenhang mit künstlicher Intelligenz ausgerichtet. Cloud Services Provider – aber auch kleinere Anbieter – haben solche Dienstleistungsangebote im Portfolio.

Im Folgenden werfen wir einen Blick darauf, wie AIaaS funktioniert, wo die Vor- und Nachteile des Modells liegen und wie die Schlüsselkriterien für entsprechende Plattformen aussehen. Abschließend stellen wir Ihnen die fünf wichtigsten KI-Dienstleister – und ihre Angebote – vor.

Wie funktioniert AI as a Service?

KI als Service bietet Anwenderunternehmen Cloud-basierten Zugang zu AI-Funktionalitäten, um diese in ihre Projekte oder Applikationen zu integrieren, ohne dafür eine eigene Infrastruktur aufbauen und pflegen zu müssen. Vorgefertigte respektive -trainierte KI-Modelle für grundlegende Anwendungsfälle wie Chatbots gewährleisten dabei, dass den Kunden zeitintensive Grundlagenarbeit erspart bleibt.

“AI as a Service ermöglicht grundsätzlich, Anwendungen im Unternehmen schneller entwickeln und bereitzustellen”, konstatiert Gartner-Analyst Chirag Dekate. Dem Experten zufolge gibt es im Bereich AIaaS drei Einstiegspunkte:

die Anwendungsebene,

die Ebene der Modellentwicklung und

die Ebene der benutzerdefinierten Modellentwicklung.

Die Offerings der KI-Dienstleister beinhalten darüber hinaus oft Data Preparation für unstrukturierte Daten und die Möglichkeit, vom Anwender bereitgestellte Modelle zu trainieren. Vorgefertigte Modelle stehen im Regelfall für diverse Tasks zur Verfügung – unter anderem:

Bilderkennung,

Datenanalyse,

Natural Language Processing und

Predictive Analytics.

Der Zugriff auf die AI Services erfolgt dabei entweder über APIs oder User Interfaces. Das ermöglicht, KI-Funktionen (oft) mit minimalem Programmieraufwand in eigene Applikationen und/oder Plattformen zu integrieren.

KI als Service – Kosten und Anforderungen

Die meisten AI-as-a-Service-Anbieter nutzen ein Pay-as-you-go-Modell – entweder auf Nutzungs- oder Flatrate-Basis. Das ist im Vergleich zu IaaS– oder PaaS-Szenarien deutlich kostenintensiver. So ruft beispielsweise Nvidia für seinen Supercomputer-Service DGX Cloud monatlich pauschal 37.000 Dollar auf.

Das schlagende Argument für AIaaS sind die Kosten für die Hardware, die nötig ist, um KI On-Premises zu realisieren. Nvidias DGX Pod H100-Server ist beispielsweise ab 500.000 Dollar zu haben, das wesentlich größere Modell SuperPOD hat einen Einstiegspreis von 7.000.000 Dollar. Unternehmen, die das Preisgefüge von x86-Servern gewöhnt sind, dürften bei diesen Zahlen schnell einem Preisschock erliegen. Speziell für KMUs ist AI as a Service deshalb des Öfteren die einzige realistische Option.

Laut Mike Gualtieri, Vice President und Chefanalyst bei Forrester Research, eignet sich KI als Service auch deshalb besonders gut, um zu experimentieren: “Ihre eigene Infrastruktur für 30 Use Cases hochzufahren, wenn vielleicht nur ein paar davon funktionieren, ist nicht wirtschaftlich. Dennoch brauchen Sie die Infrastruktur, um zu testen.”

Neben den Kosten für die Hardware stellt sich außerdem die Frage der Verfügbarkeit: So hat Nvidia beispielsweise mit einem enormen Auftrags-Backlog zu kämpfen. Wer heute einen On-Premises SuperPOD kaufen möchte, muss bis zu acht Monaten warten. Selbst wenn Sie also kaufen möchten und das nötige Kleingeld dafür haben, ist die einzige Option für ein zeitnahes Deployment ein KI-Dienstleister.

AI as a Service – Vor- und Nachteile

Die Vorteile von AI as a Service im Überblick:

Niedrigere Einstiegsschwelle: AIaaS ist wesentlich kostenintensiver als herkömmliche Cloud Services. Dennoch ist KI als Dienstleistung deutlich günstiger als die Hardware selbst anzuschaffen. Vom Modelltraining ganz zu schweigen.

Kürzere Time-to-Market: KI-Hardware on Premises zu installieren und zu konfigurieren, ist ebenfalls kostspielig und zeitaufwändig. Zudem setzt das voraus, dass Sie auch die richtigen Experten an Bord haben, die entsprechende Lösungen bereitstellen und supporten können. Das Hardware-Management einem Serviceanbieter zu überlassen, spart Zeit und ermöglicht den Anwenderunternehmen, sich auf Kerngeschäft und -kompetenzen zu fokussieren.

Zugang zu State-of-the-Art-Technologie: KI kann Wettbewerbsvorteile erschließen. Weil die Anbieter Kunden binden wollen, sind sie darauf bedacht, sich beständig zu verbessern und ihre Angebote weiterzuentwickeln.

Skalierbarkeit: Da es sich um Cloud-basierte Dienstleistungen handelt, ist eines der wichtigsten Verkaufsargumente, dass sich AIaaS-Lösungen entsprechend den Bedürfnissen des Anwenderunternehmens anpassen lassen.

Zugang zu KI-Expertise: KI steckt immer noch in den Kinderschuhen und die Anzahl der IT-Experten, die die Hardware konfigurieren und managen können, ist überschaubar – außer bei den großen Cloud Services Providern.

Wo Licht ist, ist auch Schatten – da bildet AI as a Service keine Ausnahme:

Vendor Lock-in. Wenn Sie sich einmal für eine Plattform entschieden haben, kann der Umstieg auf einen anderen Anbieter problematisch sein.

Begrenzte Anpassungsmöglichkeiten. Vorgefertigte Modelle sind für allgemeine Zwecke gut geeignet, können aber nicht auf spezifische Anforderungen abgestimmt werden. Sie sind deshalb möglicherweise gezwungen, Ihre eigenen Modelle zu erstellen und zu verarbeiten.

Security- und Datenschutzbedenken. Wenn es um Unternehmensdaten geht, ist sorgfältig abzuwägen, ob Drittanbieter miteinbezogen werden.

AIaaS-Plattformen – Schlüsselkriterien

Bei der Auswahl einer AIaaS-Plattform sollten Sie (unter anderem) verstärkt auf die folgenden Aspekte achten:

Unterstützte Workloads: Laut Forrester-Chefanalyst Gaultieri ist das wichtigste Kriterium bei der Auswahl eines AIaaS-Anbieters, ob er alle KI-Phasen unterstützt: Datenvorbereitung, Modelltraining und Inferencing. Gerade ersteres wird in der KI-Debatte oft unter den Tisch gekehrt, ist jedoch unumgänglich, weil KI-Instanzen in der Regel auf unstrukturierte Daten zugreifen.

Regionale Infrastruktur: Geht es nach Gartner-Analyst Dikate, sollten Anwender in erster Linie darauf achten, dass AIaaS-Anbieter über ausreichende Skalierungskapazitäten in ihrer Region verfügen. Nicht alle Cloud-Anbieter verfügen über global verteilte Ressourcen.

Erfahrung sticht: Suchen Sie gezielt nach Anbietern mit Erfahrung in Ihrer Branche oder mit Projekten, die ähnliche Herausforderungen aufwerfen. Fragen Sie nach Fallstudien, Kundenreferenzen und Erfahrungsberichten.

KI-Spezifizierung: Bilderkennung ist etwas völlig anderes als Intrusion Detection oder ein Chatbot. Nicht jeder AIaaS-Anbieter ist auf sämtliche KI-Arten spezialisiert. Sie sollten deshalb sicherstellen, dass die Spezialisierung Ihres KI-Dienstleisters möglichst Ihren Bedürfnissen entspricht.

Daten- und Compliance-Kompatibilität: Stellen Sie sicher, dass die Anbieterplattform sowohl Ihr Datenformat als auch -volumen unterstützt. Wenn es sich um stark regulierte Daten handelt, sollten Sie sichergehen, dass der Anbieter entsprechend zertifiziert ist, um diese zu verarbeiten.

Skalierbarkeit: KI-Dienstleister verfügen möglicherweise nicht mehr über die nötige Kapazität, wenn Ihr Bedarf weiter wächst. Natürlich sind Zukunftsprognosen schwierig, insbesondere bei sich rasant verändernden Branchen wie KI. Dennoch ist es ratsam, eine zufriedenstellende Zukunftsperspektive einzuholen.

Modell-Updates und -Wartung: KI-Modelle funktionieren fast nie nur einmal und dann nie wieder. Sie müssen regelmäßig und routinemäßig auf den aktuellen Stand gebracht werden. Studieren Sie deshalb die Richtlinien des Anbieters mit Blick darauf, wie das Modell gespeichert und aktualisiert werden kann und wie es sich “aus dem System” On-Premises nehmen lässt.

Workload Management Software: Schließlich sollten Sie sicherstellen, dass der Anbieter in der Lage ist, einen Workload neu zu starten, wenn während der Verarbeitung ein Problem auftritt. Gaultieri erklärt, warum: “Stellen Sie sich vor, Sie erstellen ein Large Language Model, lassen es eine Woche lang laufen und dann geht etwas schief. Wenn es sich um einen mehrwöchigen Workload handelt, möchten Sie nicht von vorne beginnen. Features wie Checkpointing sind deshalb ratsam.”

Die 5 wichtigsten KI-Dienstleister

AI as a Service ist kein kleines Unterfangen. Während neuere Anbieter wie Nvidia, OpenAI und auch einige Managed-Services-Anbieter auf den Plan treten, sind die wichtigsten Akteure im Bereich KI-Dienstleistungen in erster Linie die Cloud-Hyperscaler. Sie verfügen über die Ressourcen, um AIaaS im Enterprise-Maßstab zu supporten.

Amazon Web Services

Amazon Web Services (AWS) hat eine breite Palette von KI-Dienstleistungen im Angebot, angefangen bei vorgefertigten, sofort einsetzbaren Services, die den Start eines KI-Projekts erleichtern und den Bedarf an erfahrenen Datenwissenschaftlern und KI-Entwicklern minimieren können. Zu diesen Services gehören beispielsweise:

Amazon Translate (Echtzeit-Übersetzungen),

Amazon Rekognition (Bild- und Videoanalyse),

Amazon Polly (Text-to-Speech) und

Amazon Transcribe (Speech-to-Text).

Zu den Tools im Bereich Managed Infrastructure gehören:

Amazon SageMaker (Machine-Learning-Modelle erstellen, trainieren und bereitstellen),

Amazon Machine Learning Drag-and-Drop-Tools und -Templates (ML-Modelle einfacher bereitstellen),

Amazon Comprehend (Natural Language Processing),

Amazon Forecast (akkurate Zeitreihenvorhersagen) und

Amazon Personalize (personalisierte Produkt- und Content-Vorschläge).

Im Bereich generative KI bietet AWS:

Amazon Lex (KI-Chatbots erstellen),

Amazon CodeGuru (Code analysieren und optimieren) sowie

Amazon Kendra (intelligente Suchen).

Microsoft

Microsofts Azure KI Services richten sich an Entwickler und Datenwissenschaftler und basieren auf Anwendungen wie SQL Server, Office und Dynamics. Dabei haben die Redmonder künstliche Intelligenz in verschiedene Business-Apps integriert – sowohl in der Cloud als auch On-Premises.

Bekanntermaßen ist Microsoft eine enge Partnerschaft mit ChatGPT-Entwickler OpenAI eingegangen. Entsprechend sind viele KI-Anwendungen auf dem Azure-Marktplatz zu finden. Darüber hinaus steht ein OpenAI Service mit vortrainierten Large Language Models wie GPT-3.5, Codex und DALL-E 2 zur Verfügung.

Zu den vorgefertigten AI Services im Angebot von Microsoft zählen etwa:

Spracherkennung,

Textanalyse,

Übersetzung,

Bildverarbeitung und

ML-Modell-Deployment.

Google Cloud

Der KI-Service von Google ist auf Data Analytics fokussiert und bietet Tools wie BigQuery und AI Platform sowie den Service AutoML, der Benutzern mit eingeschränkten Coding-Fähigkeiten ermöglicht, automatisch Modelle zu erstellen. Google Cloud bietet zudem die Plattform Vertex AI, um KI-Workflows zu optimieren und Entwicklung und Bereitstellung zu vereinfachen. Dazu gehört auch eine breite Palette von Services mit vorgefertigten Lösungen, benutzerdefiniertem Modelltraining und Generative-AI-Werkzeugen. Mit der Vertex AI Workbench stellt Google außerdem eine kollaborative KI-Projektumgebung für Datenwissenschaftler und Entwickler zur Verfügung.

Die vorgefertigten KI-Lösungen von Google Cloud umfassen:

Dialogflow (Plattform, um Chatbots und virtuelle Assistenten zu entwickeln),

Natural Language API (Sentiment-Textanalysen, Entity-Extraktion etc.),

Vision AI (Objekterkennung in Bildern und Videos),

Translation API (maschinelle Übersetzungen in verschiedenen Sprachen) sowie

Speech-to-Text und Text-to-Speech (Konversionen zwischen gesprochener Sprache und Text).

Was Generative AI angeht, bietet Vertex AI Search and Conversation eine Tool-Sammlung, die speziell darauf konzipiert ist, GenAI-Applikationen wie Suchmaschinen und Chatbots zu entwickeln. Diese Suite enthält mehr als 130 vortrainierte Foundational-LLMs wie PaLM und Imagen, um Texte und/oder Bilder zu generieren.

Darüber hinaus hat Google auch den Bard-Nachfolger Gemini im Programm, der (demnächst) in drei verschiedenen Versionen erhältlich ist:

Gemini Nano für Smartphones,

Gemini Pro sowie

Gemini Ultra, das sich noch in der Entwicklung befindet und wesentlich leistungsfähiger als die Pro-Version sein soll.

IBM

IBMs Watsonx, ist ein umfassendes KI-Tool- und -Dienstleistungsangebot, das für seinen Fokus auf die Automatisierung komplexer Geschäftsprozesse und seine branchenspezifischen Lösungen, insbesondere für das Gesundheits- und Finanzwesen, bekannt ist. Watsonx.ai Studio ist das Herzstück dieser Plattform, auf der Sie KI-Modelle trainieren, validieren, abstimmen und einsetzen können – sowohl für maschinelles Lernen als auch für generative KI. Ein Data Lakehouse gewährleistet dabei ein sicheres und skalierbares Speichersystem für Ihre Daten (sowohl strukturierte als auch unstrukturierte).

IBMs AI Toolkit ist eine Sammlung vorgefertigter Tools und Konnektoren, die die Integration von KI in Ihre bestehenden Workflows erleichtern. So lassen sich Tasks automatisieren, Erkenntnisse aus Daten gewinnen und intelligente Applikationen erstellen. Watsonx enthält auch eine Reihe vortrainierter KI-Modelle, die Sie direkt und ohne Training einsetzen können. Diese Modelle decken verschiedene Tasks ab – beispielsweise:

Natural Language Processing,

Computer Vision und

Spracherkennung.

Oracle

Oracle liegt bislang weit hinter den Cloud-Hyperscalern zurück, bringt jedoch einige Vorteile mit, die Sie auf dem Schirm haben sollten – in erster Linie, weil es ein Riese in Sachen Business-Anwendungen und -Datenbanken ist. Alle On-Premises installierten Anwendungen können in die Cloud verlagert werden, um eine hybride Konfiguration zu verwirklichen. Das erleichtert es erheblich, Ihre lokalen Daten zu Data-Preparation- und Schulungszwecken in die Cloud zu verlagern. Oracle hat sehr stark in GPU-Technologie investiert, die derzeit das wichtigste Mittel zur KI-Datenverarbeitung darstellt. Wenn Sie also KI-Anwendungen auf Nvidia-Technologie laufen lassen wollen, können Sie sich an Oracle wenden. Ein weiterer gewichtiger Vorteil: Die KI-Dienstleistungen von Oracle sind mit die günstigsten.

Die Oracle Cloud Infrastructure (OCI) AI Services decken ein breit gefächertes Portfolio von Tools und Services ab, um Unternehmen mit diversen KI-Funktionen zu versorgen. Ähnlich wie im Fall von IBMs Watsonx handelt es sich nicht um einen einzigen Service, sondern um eine Sammlung von Funktionen, die unterschiedliche Anforderungen erfüllen – darunter:

Betrugserkennung und -prävention,

Spracherkennung sowie

Sprach- und Textanalyse.

Oracles Generative-AI-Services unterstützt LLMs wie Cohere und Llama 2 und ermöglicht Anwendungsfälle wie:

Schreib-Assistenten,

Textzusammenfassungen,

Chatbots oder

Code-Generierung.

Die Machine Learning Services von Oracle bieten Tools für Datenwissenschaftler, um ML-Modelle zu erstellen, zu trainieren und zu managen. Dabei werden populäre Open-Source-Frameworks wie TensorFlow und PyTorch unterstützt. Mit OCI Data Science ist es schließlich möglich, virtuelle Maschinen mit vorkonfigurierten Umgebungen für Data-Science-Aufgaben bereitzustellen – inklusive Jupyter-Notebooks und Zugang zu beliebten Bibliotheken, die die Datenexploration und den Modellentwicklungs-Workflow vereinfachen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

KI-Dienstleister finden: Der große AI-as-a-Service-Ratgeber​ Read More »

Was ist Retrieval Augmented Generation (RAG)?​

Was ist Retrieval Augmented Generation (RAG)?​

Allgemein

Retrieval Augmented Generation (RAG) kann zu präziseren, aktuelleren und fundierteren GenAI-Outputs beitragen. Foto: VectorMine | shutterstock.com In Zusammenhang mit großen Sprachmodellen (auch Large Language Models; LLMs) sorgen zwei Aspekte immer wieder für Probleme: veraltete Trainingsdatensätze und begrenzter Kontext. Retrieval Augmented Generation (RAG) will diese Problemfelder auflösen. In diesem Artikel lesen Sie, wie sich RAG definiert, inwiefern es zur Problemlösung beiträgt, und wie das konkret auf technischer Ebene funktioniert. Retrieval Augmented Generation – Definition Bei Retrieval Augmented Generation handelt es sich um eine Technik, die den KI-Forschungslaboren von Facebook, respektive Meta entsprungen ist (PDF) und LLMs mit spezifischen Datenquellen “erdet”. Dabei handelt es sich in vielen Fällen um Informationen, die nicht in den ursprünglichen Trainingsdatensätzen enthalten waren. Dieser Prozess läuft ganz generell in drei Schritten ab: Die Informationen werden aus einer spezifischen Quelle gewonnen (“Retrieval”); Anschließend der Prompt mit dem Kontext der Quelle angereichert (“Augmentation”); Bevor dann mit Hilfe des Modells und dem augmentierten Prompt der Output generiert wird (“Generation”). RAG zu implementieren, kann die Ergebnisse, die große Sprachmodelle zu Tage fördern, qualitativ verbessern. Insbesondere dann, wenn dem Basis-LLM aktuelle Informationen fehlen oder es zu halluzinieren beginnt. Allerdings ist der Einsatz von Retrieval Augmented Generation auch kein Garant dafür, dass Large Language Models nicht (mehr) halluzinieren. Diese Probleme will RAG lösen Es kostet jede Menge Zeit und Ressourcen, Large Language Models zu trainieren. Manchmal vergehen dabei Monate, in denen hochmoderne Server-GPUs wie Nvidias H100 auf Hochtouren laufen. Die Sprachmodelle per Retraining stets auf dem aktuellen Stand zu halten, ist dabei ein Ding der Unmöglichkeit – trotz der Möglichkeit, das Basismodell auf neueren Daten feinabzustimmen. Denn dieser Prozess bringt manchmal seine eigenen Nachteile mit sich: Beispielsweise können neue Funktionalitäten, die durch die Feinabstimmung Einzug halten, die im Basismodell bereits vorhandenen einschränken. Wenn Sie ein LLM, das auf Daten aus dem Jahr 2022 trainiert wurde, nach etwas fragen, das im Jahr 2023 stattgefunden hat, gibt es zwei Möglichkeiten: Das Modell stellt fest, dass es die angefragten Informationen nicht kennt. Dann wird es Ihnen typischerweise etwas über seine veralteten Trainingsdaten mitteilen. Das Modell weiß nicht, dass es die Daten nicht kennt. Dann wird es versuchen, eine Antwort auf der Grundlage ähnlicher, historischer Fragen zu liefern – oder es halluziniert. Um LLM-Halluzinationen zu vermeiden, kann es manchmal hilfreich sein, seinen Prompt mit dem spezifischen Datum eines Ereignisses, eine relevante URL oder ein entsprechendes Dokument anzugeben. Dabei finden diese Zusatzinformationen ihre Grenze, wenn das “Context Limit” des LLM erreicht ist. Diese Kontextgrenzen unterscheiden sich von LLM zu LLM. Wie Retrieval Augmented Generation funktioniert Auf hoher Ebene betrachtet, funktioniert Retrieval Augmented Generation, indem es Sprachmodelle mit einer Internet- oder Dokumentensuche kombiniert. Dabei werden die Probleme, die beide Schritte bei manueller Ausführung verursachen würden, umgangen. Etwa, dass der Output die Kontextgrenze des LLMs überschreitet. Bezogen auf die weiter oben vorgestellten drei Schritte des RAG-Prozesses hier noch einmal die technischen Abläufe der einzelnen Phasen: Retrieval: Eine Internet-, Dokumenten- oder Datenbanksuche wird genutzt, um Quellinformationen in eine dichte, hochdimensionale Form zu vektorisieren. Typischerweise geschieht das, indem ein Einbettungsvektor erzeugt und in einer Vektordatenbank gespeichert wird. Augmentation: Dann wird die Abfrage selbst vektorisiert und mit Hilfe von FAISS oder anderen Suchtechniken (typischerweise unter Verwendung einer Cosinus-Metrik für die Ähnlichkeit) mit der Vektordatenbank abgeglichen. So werden die relevantesten Teile der Quellinformationen extrahiert und dem LLM zusammen mit dem Query-Text präsentiert. Generation: Schließlich generiert das LLM eine Antwort. Das hört sich möglicherweise kompliziert an – in der Praxis resultiert das allerdings lediglich in fünf Zeilen Python-Code (wenn Sie das LangChain-Framework zu Orchestrierungszwecken verwenden): from langchain.document_loaders import WebBaseLoader from langchain.indexes import VectorstoreIndexCreator loader = WebBaseLoader(“https://www.promptingguide.ai/techniques/rag”) index = VectorstoreIndexCreator().from_loaders([loader]) index.query(“What is RAG?”) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Was ist Retrieval Augmented Generation (RAG)?​ Retrieval Augmented Generation (RAG) kann zu präziseren, aktuelleren und fundierteren GenAI-Outputs beitragen.
Foto: VectorMine | shutterstock.com

In Zusammenhang mit großen Sprachmodellen (auch Large Language Models; LLMs) sorgen zwei Aspekte immer wieder für Probleme:

veraltete Trainingsdatensätze und

begrenzter Kontext.

Retrieval Augmented Generation (RAG) will diese Problemfelder auflösen.

In diesem Artikel lesen Sie, wie sich RAG definiert, inwiefern es zur Problemlösung beiträgt, und wie das konkret auf technischer Ebene funktioniert.

Retrieval Augmented Generation – Definition

Bei Retrieval Augmented Generation handelt es sich um eine Technik, die den KI-Forschungslaboren von Facebook, respektive Meta entsprungen ist (PDF) und LLMs mit spezifischen Datenquellen “erdet”. Dabei handelt es sich in vielen Fällen um Informationen, die nicht in den ursprünglichen Trainingsdatensätzen enthalten waren. Dieser Prozess läuft ganz generell in drei Schritten ab:

Die Informationen werden aus einer spezifischen Quelle gewonnen (“Retrieval”);

Anschließend der Prompt mit dem Kontext der Quelle angereichert (“Augmentation”);

Bevor dann mit Hilfe des Modells und dem augmentierten Prompt der Output generiert wird (“Generation”).

RAG zu implementieren, kann die Ergebnisse, die große Sprachmodelle zu Tage fördern, qualitativ verbessern. Insbesondere dann, wenn dem Basis-LLM aktuelle Informationen fehlen oder es zu halluzinieren beginnt. Allerdings ist der Einsatz von Retrieval Augmented Generation auch kein Garant dafür, dass Large Language Models nicht (mehr) halluzinieren.

Diese Probleme will RAG lösen

Es kostet jede Menge Zeit und Ressourcen, Large Language Models zu trainieren. Manchmal vergehen dabei Monate, in denen hochmoderne Server-GPUs wie Nvidias H100 auf Hochtouren laufen. Die Sprachmodelle per Retraining stets auf dem aktuellen Stand zu halten, ist dabei ein Ding der Unmöglichkeit – trotz der Möglichkeit, das Basismodell auf neueren Daten feinabzustimmen. Denn dieser Prozess bringt manchmal seine eigenen Nachteile mit sich: Beispielsweise können neue Funktionalitäten, die durch die Feinabstimmung Einzug halten, die im Basismodell bereits vorhandenen einschränken.

Wenn Sie ein LLM, das auf Daten aus dem Jahr 2022 trainiert wurde, nach etwas fragen, das im Jahr 2023 stattgefunden hat, gibt es zwei Möglichkeiten:

Das Modell stellt fest, dass es die angefragten Informationen nicht kennt. Dann wird es Ihnen typischerweise etwas über seine veralteten Trainingsdaten mitteilen.

Das Modell weiß nicht, dass es die Daten nicht kennt. Dann wird es versuchen, eine Antwort auf der Grundlage ähnlicher, historischer Fragen zu liefern – oder es halluziniert.

Um LLM-Halluzinationen zu vermeiden, kann es manchmal hilfreich sein, seinen Prompt mit dem spezifischen Datum eines Ereignisses, eine relevante URL oder ein entsprechendes Dokument anzugeben. Dabei finden diese Zusatzinformationen ihre Grenze, wenn das “Context Limit” des LLM erreicht ist. Diese Kontextgrenzen unterscheiden sich von LLM zu LLM.

Wie Retrieval Augmented Generation funktioniert

Auf hoher Ebene betrachtet, funktioniert Retrieval Augmented Generation, indem es Sprachmodelle mit einer Internet- oder Dokumentensuche kombiniert. Dabei werden die Probleme, die beide Schritte bei manueller Ausführung verursachen würden, umgangen. Etwa, dass der Output die Kontextgrenze des LLMs überschreitet. Bezogen auf die weiter oben vorgestellten drei Schritte des RAG-Prozesses hier noch einmal die technischen Abläufe der einzelnen Phasen:

Retrieval: Eine Internet-, Dokumenten- oder Datenbanksuche wird genutzt, um Quellinformationen in eine dichte, hochdimensionale Form zu vektorisieren. Typischerweise geschieht das, indem ein Einbettungsvektor erzeugt und in einer Vektordatenbank gespeichert wird.

Augmentation: Dann wird die Abfrage selbst vektorisiert und mit Hilfe von FAISS oder anderen Suchtechniken (typischerweise unter Verwendung einer Cosinus-Metrik für die Ähnlichkeit) mit der Vektordatenbank abgeglichen. So werden die relevantesten Teile der Quellinformationen extrahiert und dem LLM zusammen mit dem Query-Text präsentiert.

Generation: Schließlich generiert das LLM eine Antwort.

Das hört sich möglicherweise kompliziert an – in der Praxis resultiert das allerdings lediglich in fünf Zeilen Python-Code (wenn Sie das LangChain-Framework zu Orchestrierungszwecken verwenden):

from langchain.document_loaders import WebBaseLoader

from langchain.indexes import VectorstoreIndexCreator

loader = WebBaseLoader(“https://www.promptingguide.ai/techniques/rag”)

index = VectorstoreIndexCreator().from_loaders([loader])

index.query(“What is RAG?”)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Was ist Retrieval Augmented Generation (RAG)?​ Read More »

10 Benefits, die sich Entwickler wünschen​

10 Benefits, die sich Entwickler wünschen​

Allgemein

Entwickler führen ein gewisses Eigenleben, um das Optimum aus ihren Codes herauszuholen. Mitunter haben sie dafür spezielle Wünsche für ihr Arbeitsleben. Roman Samborskyi – shutterstock.com Zugegeben: Einige Benefit-Ideen klingen absurd und werden es wahrscheinlich niemals in einem Arbeitsvertrag schaffen. Aber manchmal sind es gerade die skurrilen Wünsche, die uns am meisten über den wahren Arbeitsalltag verraten.     Tipp 1: Unbegrenzte Debugging-Tage Während viele von endlosem Urlaub träumen, gibt es für Entwicklerinnen und Entwickler nur eine Sache, die noch verlockender ist: unendliche Debugging-Tage. Keine Deadlines im Nacken und kein ständiger Druck, das nächste Feature zu liefern. Stattdessen endlose Stunden, um jeden noch so kleinen Bug zu jagen, jedes Detail zu perfektionieren und den Code so lange zu polieren, bis er fehlerfrei glänzt. Der wahre Reiz dieses Benefits liegt in der Möglichkeit, das Chaos zu bändigen und so lange zu suchen, bis endlich der entscheidende Fehler gefunden und behoben ist.  Tipp 2: “Dark Mode” Lounge Für alle, die das grelle Tageslicht meiden und sich in den sanften Schatten der Dunkelheit wohlfühlen, wäre die “Dark Mode” Lounge der ultimative Rückzugsort. In dieser Lounge gibt es kein blendendes Weiß, sondern nur die beruhigende Dunkelheit, in der Bildschirme die neuesten Nuancen von Schwarz erstrahlen lassen.   Die Einrichtung ist ganz auf das Wohlbefinden lichtempfindlicher Augen ausgelegt: gedämpftes Licht, das gerade genug Helligkeit bietet, um sich zurechtzufinden, und starker Kaffee, der doppelt so kräftig ist wie in jeder anderen Abteilung. Als akustische Untermalung hört man das sanfte Klicken von Tastaturen und Mäusen – eine Symphonie, die jedem Techie Ruhe und Konzentration schenkt.  Tipp 3: Stack Overflow Freitage  Jeden Freitag pausiert der hektische Entwickleralltag für einen Moment und verwandelt sich in einen Tag der Weisheit und Gemeinschaft. “Stack- Overflow-Freitage” sind der perfekte Zeitpunkt, um die eigenen Projekte beiseitezulegen und sich vollkommen auf die Hilfe der weltweiten Entwicklergemeinschaft zu konzentrieren.   An diesem Tag beantworten Developer nicht nur Fragen, sondern zeigen auch ihr umfassendes Wissen und ihre Bereitschaft, anderen zu helfen. Die besten Antworten werden nicht nur gefeiert, sondern der oder die Entwicklerin wird im nächsten Meeting als “Heldin des Tages” ausgezeichnet – ein Titel, der zeigt, dass wahre Größe darin liegt, Wissen zu teilen.  Tipp 4: Pizza-Algorithmus Wettbewerb  Pizza-Partys stehen gerade in den USA hoch im Kurs der HR-Abteilungen, wenn es um vermeintlich großartige Benefits geht. Um das für die heimischen Techies interessanter zu machen, könnten einmal im Monat Entwickler ihre Leidenschaft für Algorithmen mit ihrer Liebe zu Pizza kombinieren. Beim Pizza-Algorithmus-Wettbewerb geht es darum, den perfekten Algorithmus zu entwickeln, der die ultimative Pizza bestimmt – basierend auf Kalorien, Belag, Lieferzeit und natürlich dem persönlichen Geschmack. Der Gewinner wird mit einer 30-tägigen Pizza-Flatrate belohnt.  Tipp 5: Offizielle BRB-Klausel  Manchmal braucht man einfach eine Pause – und zwar sofort. Mit der offiziellen “BRB Clause” hätten Entwickler das Recht, bei kritischen Anfragen oder spontanen Meetings einfach “BRB” (Be Right Back) zu sagen und sich für unbestimmte Zeit zurückzuziehen. Kein Manager darf nachfragen, wo sie sind oder was sie tun. Eine ideale Lösung, um die nächste Slack-Bombe zu umgehen.  Tipp 6: Headhunter-Abwehrspray Der Arbeitsmarkt hat sich schon länger zugunsten der Arbeitnehmenden entwickelt und gerade Developer sind heiß begehrt. Das hat den unschönen Nebeneffekt, dass bei den Entwicklern regelmäßig Headhunter auf der Matte stehen. Was wäre, wenn es ein Spray gäbe, das Entwickler vor dem ständigen Ansturm der Headhunter schützt?  Ein Sprühstoß des exklusiven “Recruiter Repellent” würde dafür sorgen, dass alle LinkedIn-Nachrichten und E-Mails der Recruiter direkt im Spam-Ordner landen. So könnten Entwickler ungestört arbeiten, ohne ständig an neue Jobangebote erinnert zu werden – da würde das eigene Unternehmen sicher einen Jahresvorrat kostenfrei zur Verfügung stellen.  Tipp 7: Abteilungsübergreifendes Übersetzungsgerät Die Kommunikation zwischen Entwicklern und anderen Abteilungen könnte so viel einfacher sein – mit einem Abteilungsübersetzer Developer Relations. Dieses kleine, aber mächtige Gerät übersetzt Entwickler-Jargon automatisch in eine Sprache, die auch Sales, Marketing & Co. verstehen. Und umgekehrt! Schluss mit langwierigen Erklärungen, warum etwas nicht “einfach mal so” erledigt werden kann.  Tipp 8: Haustierübersetzer  Wenn wir schon bei Sprachbarrieren sind: Für die Developer, die von zu Hause aus arbeiten und dabei auf die Gesellschaft ihres Haustiers setzen, wäre ein Haustierübersetzer ein wahr gewordener Traum. Dieses Gerät würde jedes Bellen, Miauen oder Zwitschern in klare, verständliche Nachrichten übersetzen. So wüssten Developer endlich, warum ihre Katze über die Tastatur spaziert oder ihr Hund jetzt sofort Aufmerksamkeit braucht. Und das Beste: Es integriert sich nahtlos in die bevorzugte Entwicklungsumgebung!  Tipp 9: Bug Bounty Pausenraum Ein speziell designter Pausenraum, der speziell dafür designt wurde, um Developer für ihre harte Arbeit zu belohnen – aber auf eine Art, die sie wirklich zu schätzen wissen. In diesem Raum wird jedes gefixte Problem zu einer kleinen Siegesfeier: Von einem Schokoriegel für den schnellen Erfolg bis hin zu einem luxuriösen Massagegerät für die wirklich zähen Bugs, die den ganzen Tag beansprucht haben.   Die Devise lautet: Je größer und nerviger der Bug, desto größer die Belohnung! So verwandelt sich das Bugfixing in ein spaßiges und motivierendes Erlebnis. Jeder Bug wird zur Chance auf eine wohlverdiente Belohnung und der Pausenraum wird zu einem Ort, an dem Arbeit und Vergnügen Hand in Hand gehen.    Tipp 10: KI-Assistent für die Büropolitik Büropolitik kann für Entwickler, die lieber Code schreiben als in endlosen Meetings zu sitzen, eine echte Herausforderung sein. Hier kommt der KI-gesteuerte persönliche Assistent ins Spiel. Dieser clevere Helfer übernimmt all die unangenehmen Aspekte der Bürokommunikation: Er antwortet diplomatisch auf unzumutbare Anfragen, wendet geschickt ungewollte Meetings ab und navigiert sicher durch die oft komplexen sozialen Dynamiken im Büro.   Entwickelt, um Entwicklern das Leben leichter zu machen, sorgt der Assistent dafür, dass sie sich auf das konzentrieren können, was sie am besten können – ohne sich mit den Nebensächlichkeiten des Büroalltags belasten zu müssen. So wird der stressige Arbeitsalltag entlastet, und Developer können sich vollkommen ihrer kreativen Arbeit widmen.  

10 Benefits, die sich Entwickler wünschen​ Entwickler führen ein gewisses Eigenleben, um das Optimum aus ihren Codes herauszuholen. Mitunter haben sie dafür spezielle Wünsche für ihr Arbeitsleben. Roman Samborskyi – shutterstock.com

Zugegeben: Einige Benefit-Ideen klingen absurd und werden es wahrscheinlich niemals in einem Arbeitsvertrag schaffen. Aber manchmal sind es gerade die skurrilen Wünsche, die uns am meisten über den wahren Arbeitsalltag verraten.  

 

Tipp 1: Unbegrenzte Debugging-Tage

Während viele von endlosem Urlaub träumen, gibt es für Entwicklerinnen und Entwickler nur eine Sache, die noch verlockender ist: unendliche Debugging-Tage. Keine Deadlines im Nacken und kein ständiger Druck, das nächste Feature zu liefern. Stattdessen endlose Stunden, um jeden noch so kleinen Bug zu jagen, jedes Detail zu perfektionieren und den Code so lange zu polieren, bis er fehlerfrei glänzt. Der wahre Reiz dieses Benefits liegt in der Möglichkeit, das Chaos zu bändigen und so lange zu suchen, bis endlich der entscheidende Fehler gefunden und behoben ist. 

Tipp 2: “Dark Mode” Lounge

Für alle, die das grelle Tageslicht meiden und sich in den sanften Schatten der Dunkelheit wohlfühlen, wäre die “Dark Mode” Lounge der ultimative Rückzugsort. In dieser Lounge gibt es kein blendendes Weiß, sondern nur die beruhigende Dunkelheit, in der Bildschirme die neuesten Nuancen von Schwarz erstrahlen lassen.  

Die Einrichtung ist ganz auf das Wohlbefinden lichtempfindlicher Augen ausgelegt: gedämpftes Licht, das gerade genug Helligkeit bietet, um sich zurechtzufinden, und starker Kaffee, der doppelt so kräftig ist wie in jeder anderen Abteilung. Als akustische Untermalung hört man das sanfte Klicken von Tastaturen und Mäusen – eine Symphonie, die jedem Techie Ruhe und Konzentration schenkt. 

Tipp 3: Stack Overflow Freitage 

Jeden Freitag pausiert der hektische Entwickleralltag für einen Moment und verwandelt sich in einen Tag der Weisheit und Gemeinschaft. “Stack- Overflow-Freitage” sind der perfekte Zeitpunkt, um die eigenen Projekte beiseitezulegen und sich vollkommen auf die Hilfe der weltweiten Entwicklergemeinschaft zu konzentrieren.  

An diesem Tag beantworten Developer nicht nur Fragen, sondern zeigen auch ihr umfassendes Wissen und ihre Bereitschaft, anderen zu helfen. Die besten Antworten werden nicht nur gefeiert, sondern der oder die Entwicklerin wird im nächsten Meeting als “Heldin des Tages” ausgezeichnet – ein Titel, der zeigt, dass wahre Größe darin liegt, Wissen zu teilen. 

Tipp 4: Pizza-Algorithmus Wettbewerb 

Pizza-Partys stehen gerade in den USA hoch im Kurs der HR-Abteilungen, wenn es um vermeintlich großartige Benefits geht. Um das für die heimischen Techies interessanter zu machen, könnten einmal im Monat Entwickler ihre Leidenschaft für Algorithmen mit ihrer Liebe zu Pizza kombinieren. Beim Pizza-Algorithmus-Wettbewerb geht es darum, den perfekten Algorithmus zu entwickeln, der die ultimative Pizza bestimmt – basierend auf Kalorien, Belag, Lieferzeit und natürlich dem persönlichen Geschmack. Der Gewinner wird mit einer 30-tägigen Pizza-Flatrate belohnt. 

Tipp 5: Offizielle BRB-Klausel 

Manchmal braucht man einfach eine Pause – und zwar sofort. Mit der offiziellen “BRB Clause” hätten Entwickler das Recht, bei kritischen Anfragen oder spontanen Meetings einfach “BRB” (Be Right Back) zu sagen und sich für unbestimmte Zeit zurückzuziehen. Kein Manager darf nachfragen, wo sie sind oder was sie tun. Eine ideale Lösung, um die nächste Slack-Bombe zu umgehen. 

Tipp 6: Headhunter-Abwehrspray

Der Arbeitsmarkt hat sich schon länger zugunsten der Arbeitnehmenden entwickelt und gerade Developer sind heiß begehrt. Das hat den unschönen Nebeneffekt, dass bei den Entwicklern regelmäßig Headhunter auf der Matte stehen. Was wäre, wenn es ein Spray gäbe, das Entwickler vor dem ständigen Ansturm der Headhunter schützt? 

Ein Sprühstoß des exklusiven “Recruiter Repellent” würde dafür sorgen, dass alle LinkedIn-Nachrichten und E-Mails der Recruiter direkt im Spam-Ordner landen. So könnten Entwickler ungestört arbeiten, ohne ständig an neue Jobangebote erinnert zu werden – da würde das eigene Unternehmen sicher einen Jahresvorrat kostenfrei zur Verfügung stellen. 

Tipp 7: Abteilungsübergreifendes Übersetzungsgerät

Die Kommunikation zwischen Entwicklern und anderen Abteilungen könnte so viel einfacher sein – mit einem Abteilungsübersetzer Developer Relations. Dieses kleine, aber mächtige Gerät übersetzt Entwickler-Jargon automatisch in eine Sprache, die auch Sales, Marketing & Co. verstehen. Und umgekehrt! Schluss mit langwierigen Erklärungen, warum etwas nicht “einfach mal so” erledigt werden kann. 

Tipp 8: Haustierübersetzer 

Wenn wir schon bei Sprachbarrieren sind: Für die Developer, die von zu Hause aus arbeiten und dabei auf die Gesellschaft ihres Haustiers setzen, wäre ein Haustierübersetzer ein wahr gewordener Traum. Dieses Gerät würde jedes Bellen, Miauen oder Zwitschern in klare, verständliche Nachrichten übersetzen. So wüssten Developer endlich, warum ihre Katze über die Tastatur spaziert oder ihr Hund jetzt sofort Aufmerksamkeit braucht. Und das Beste: Es integriert sich nahtlos in die bevorzugte Entwicklungsumgebung! 

Tipp 9: Bug Bounty Pausenraum

Ein speziell designter Pausenraum, der speziell dafür designt wurde, um Developer für ihre harte Arbeit zu belohnen – aber auf eine Art, die sie wirklich zu schätzen wissen. In diesem Raum wird jedes gefixte Problem zu einer kleinen Siegesfeier: Von einem Schokoriegel für den schnellen Erfolg bis hin zu einem luxuriösen Massagegerät für die wirklich zähen Bugs, die den ganzen Tag beansprucht haben.  

Die Devise lautet: Je größer und nerviger der Bug, desto größer die Belohnung! So verwandelt sich das Bugfixing in ein spaßiges und motivierendes Erlebnis. Jeder Bug wird zur Chance auf eine wohlverdiente Belohnung und der Pausenraum wird zu einem Ort, an dem Arbeit und Vergnügen Hand in Hand gehen. 

 

Tipp 10: KI-Assistent für die Büropolitik

Büropolitik kann für Entwickler, die lieber Code schreiben als in endlosen Meetings zu sitzen, eine echte Herausforderung sein. Hier kommt der KI-gesteuerte persönliche Assistent ins Spiel. Dieser clevere Helfer übernimmt all die unangenehmen Aspekte der Bürokommunikation: Er antwortet diplomatisch auf unzumutbare Anfragen, wendet geschickt ungewollte Meetings ab und navigiert sicher durch die oft komplexen sozialen Dynamiken im Büro.  

Entwickelt, um Entwicklern das Leben leichter zu machen, sorgt der Assistent dafür, dass sie sich auf das konzentrieren können, was sie am besten können – ohne sich mit den Nebensächlichkeiten des Büroalltags belasten zu müssen. So wird der stressige Arbeitsalltag entlastet, und Developer können sich vollkommen ihrer kreativen Arbeit widmen. 

10 Benefits, die sich Entwickler wünschen​ Read More »

IT-Quereinsteiger: Mit Fortbildung und Zertifikaten Karriere machen​

IT-Quereinsteiger: Mit Fortbildung und Zertifikaten Karriere machen​

Allgemein

Wer in die IT-Branche drängt, benötigt nicht unbedingt ein Informatikstudium. Wichtig ist, dass Quereinsteiger Qualifizierungen und Zertifizierungen anstreben, die am Markt hoch nachgefragt sind. Foto: Olivier Le Moal – shutterstock.comPeter Müller arbeitete gut zwölf Jahre als Koch bei einem deutschen Versicherungsunternehmen – bis dahin sein ganzes Berufsleben lang. Montags Schnitzel mit Kartoffelsalat, so wie es traditionell in Wien serviert wird, freitags gegrillte Dorade auf Gemüsebett, das Lieblingsgericht des Vorstandsvorsitzenden, denn Müller war so gut in seinem Job, dass er sogar den Vorstand und dessen Gäste bekochen durfte. Doch irgendetwas fehlte, er sehnte sich nach einer neue Perspektive. Etwas mehr als drei Jahre sind seitdem vergangen. Zwar ist Müller noch immer bei seinem ursprünglichen Arbeitgeber beschäftigt, hat die Kochmütze aber längst an den Nagel der Unternehmenskantine gehängt. Heute sitzt er an der Schnittstelle von IT und dem Geschäftsbereich des Versicherers.Fortbildung und Qualifizierungen sind der SchlüsselWie hat er das geschafft? Die Antwort: Durch Fortbildungen und Qualifizierung. Er begann mit einer Fortbildung zum Business Analyst, weil ihn das Interesse an der Arbeit mit Daten reizte. Schließlich qualifizierte er sich zum Scrum Master und nahm an einer Zertifizierung teil, die sein Arbeitgeber finanzierte. Insgesamt investierte Müller selbst rund 4000 Euro in seine zweite Karriere. Schon nach wenigen Monaten amortisierten sich diese Ausgaben durch sein höheres Gehalt. Darüber hinaus konnte er die Fortbildung steuerlich geltend machen.Zugegeben, dieser Weg in den IT-Bereich ist nicht alltäglich. Aus diesem Beispiel kann man für den eigenen Karriereweg aber folgende Lehre ziehen: Unternehmen haben in vielen Fällen große Budgettöpfe für Weiterbildungen und IT-Zertifizierungen, die Angestellte unbedingt nutzen sollten.Microsoft oder Google halten beispielsweise regelmäßig kostenfreie Zertifizierungskurse wie die “AZ-900” für die Azure Fundamentals beziehungsweise Cloud-Konzepte ab. Des Weiteren bieten Organisationen wie zum Beispiel das Hasso Plattner Institut auf der Bildungsplattform “openHPI” Kurse zu aktuellen Themen wie KI, Machine Learning und Data Science günstig beziehungsweise in begrenztem Umfang kostenfrei an. Weitere Möglichkeiten liefern die Plattform Udemy oder Linkedin Learning. Ein Vorteil: Die jeweilige Zertifizierung ist direkt auf dem Karriereportal abrufbar und entsprechend für Personaler sichtbar.Beratungsgeschäft liefert Einblick in IT-OrganisationenDas Beispiel Peter Müller ist sehr speziell. Aber gerade die Wege von Quereinsteigern sind oft sehr individuell und immer auch ein bisschen einzigartig. Zum Beispiel sei Berufseinsteigern, die just mit einem Abschluss in Betriebswirtschaft die Universität verlassen haben und dennoch gern in den IT-Bereich gehen wollen, gesagt, dass Beratungsunternehmen dazu die perfekte Startrampe bieten. Top-Tier-Beratungen stellen eine sehr gute Referenz im Lebenslauf dar. Hier sind die Aufgaben allerdings zumeist sehr klar definiertund bewegen sich in einem einen bestimmten Rahmen. Im Gegensatz dazu eröffnen vor allem kleinere Beratungshäuser vielfältigere Chancen und mitunter punktuell auch eine bessere Förderung. Sie arbeiten ebenfalls mit namhaften Mandaten aus allen Branchen zusammen und haben dazu den Vorteil, dass die Job-Einstiegshürden nicht so hoch ausfallen.Hier lernen junge Talente beispielsweise in kurzer Zeit viele unterschiedliche Unternehmen aus der Innensicht kennen und arbeiten an unterschiedlichen Fragestellungen. Durch den Projektcharakter und die damit verbundenen Teams kommt man auch schnell mit vielen spannenden Personen aus unterschiedlichen Disziplinen auf Unternehmens- und Beratungsseite in Kontakt. Dieser Blick in den Maschinenraum eines Betriebs und die Sicht darauf, wie die IT organisiert und betrieben wird, liefern wichtige Erfahrungsschätze für die weitere Karriere. Das lernt man an keiner Universität dieser Welt. Von dieser Position aus ist der Absprung in eine IT-Rolle in einem Unternehmen oft einfacher, weil man bereits viele handelnde Akteure kennt.Wie das Netzwerk wirktIn der Tat ist das viel beschworene Netzwerk wichtig. Es genügt allerdings nicht, sich auf Branchenevents sehen zu lassen, Visitenkarten auszutauschen und ein bisschen Smalltalk zu betreiben, worunter das Netzwerken oft missverstanden wird. Branchentreffen und Events gehören zweifelsfrei dazu, sind allerdings nur ein sehr kleiner Anteil. Ein belastbares Netzwerk baut sich direkt im Arbeitsalltag auf. Wer gemeinsam Projekte gemeistert und voneinander gelernt hat, hat beispielsweise einen festen Netzwerk kontakt aufgebaut – Networking ist gleichermaßen ein Geben und Nehmen. Beide Parteien wissen um das Können des anderen, gerade in zeitkritischen Projektsituationen. Kurzum: Die Branche trifft sich im Projekt, nicht beim Abendevent.Gute Zeiten für KandidatenWer in die IT-Branche drängt, benötigt nicht unbedingt ein Informatikstudium. Auf der einen Seite wachsen Business und IT immer stärker zusammen (Business-IT-Alignment), auf der anderen Seite suchen Unternehmen nach Fachkräften. Wichtig ist, dass Quereinsteiger Qualifizierungen und Zertifizierungen anstreben, die am Markt hoch nachgefragt sind. Unternehmen gehen immer stärker dazu über, die benötigten Zertifizierungen im Haus selbst auszustellen. Profitieren Sie von dieser Entwicklung und zeigen dem Unternehmen, dass Sie diesen neuen Weg Ihrer Karriere gemeinsam gehen wollen. (pg)Die gefragtesten IT-JobsPlatz 1: Security-Experten Experten in der IT-Security können mit einem Jahresgehalt von 74.300 Euro rechnen. Platz 2: KI-Architekten KI-Architekten verdienen durchschnittlich 69.500 Euro im Jahr. Platz 3: DevOps EngineersDevOps Engineers nehmen den dritten Platz im Gehaltsranking ein: 66.200 Euro im Jahr. Platz 4: Data ScientistsDer beliebte Job des Data Scientist kann 65.500 Euro im Jahr versprechen. Platz 5: Data EngineersData Engineers richten Datenbanken ein und bekommen dafür ein Jahressalär von 59.300 Euro. Platz 6: Backend- und Frontend-Entwickler Fullstack Entwickler im Back- und Frontend können mit 57.000 Euro im Jahr rechnen.Platz 7: Web Developer Web Developer entwickeln interne Netzwerke und können dafür bis zu 48.700 Euro verdienen. Platz 8: Fachinformatiker für Daten und Prozessanalyse Fachinformatiker und -informatikerinnen für Daten und Prozessanalyse verdienen im Schnitt 47.400 Euro. Platz 9: Kaufleute für Digitalisierungsmanagement Die neue Berufsbezeichnung “Kaufleute für Digitalisierungsmanagement” meint das Jobprofil des Informatikkaufmanns- beziehungsweise der -kauffrau und schneitet mit 45.750 Euro am schlechtesten im Ranking der beliebtesten IT-Berufe ab. 

IT-Quereinsteiger: Mit Fortbildung und Zertifikaten Karriere machen​ Wer in die IT-Branche drängt, benötigt nicht unbedingt ein Informatikstudium. Wichtig ist, dass Quereinsteiger Qualifizierungen und Zertifizierungen anstreben, die am Markt hoch nachgefragt sind.
Foto: Olivier Le Moal – shutterstock.comPeter Müller arbeitete gut zwölf Jahre als Koch bei einem deutschen Versicherungsunternehmen – bis dahin sein ganzes Berufsleben lang. Montags Schnitzel mit Kartoffelsalat, so wie es traditionell in Wien serviert wird, freitags gegrillte Dorade auf Gemüsebett, das Lieblingsgericht des Vorstandsvorsitzenden, denn Müller war so gut in seinem Job, dass er sogar den Vorstand und dessen Gäste bekochen durfte. Doch irgendetwas fehlte, er sehnte sich nach einer neue Perspektive. Etwas mehr als drei Jahre sind seitdem vergangen. Zwar ist Müller noch immer bei seinem ursprünglichen Arbeitgeber beschäftigt, hat die Kochmütze aber längst an den Nagel der Unternehmenskantine gehängt. Heute sitzt er an der Schnittstelle von IT und dem Geschäftsbereich des Versicherers.Fortbildung und Qualifizierungen sind der SchlüsselWie hat er das geschafft? Die Antwort: Durch Fortbildungen und Qualifizierung. Er begann mit einer Fortbildung zum Business Analyst, weil ihn das Interesse an der Arbeit mit Daten reizte. Schließlich qualifizierte er sich zum Scrum Master und nahm an einer Zertifizierung teil, die sein Arbeitgeber finanzierte. Insgesamt investierte Müller selbst rund 4000 Euro in seine zweite Karriere. Schon nach wenigen Monaten amortisierten sich diese Ausgaben durch sein höheres Gehalt. Darüber hinaus konnte er die Fortbildung steuerlich geltend machen.Zugegeben, dieser Weg in den IT-Bereich ist nicht alltäglich. Aus diesem Beispiel kann man für den eigenen Karriereweg aber folgende Lehre ziehen: Unternehmen haben in vielen Fällen große Budgettöpfe für Weiterbildungen und IT-Zertifizierungen, die Angestellte unbedingt nutzen sollten.Microsoft oder Google halten beispielsweise regelmäßig kostenfreie Zertifizierungskurse wie die “AZ-900” für die Azure Fundamentals beziehungsweise Cloud-Konzepte ab. Des Weiteren bieten Organisationen wie zum Beispiel das Hasso Plattner Institut auf der Bildungsplattform “openHPI” Kurse zu aktuellen Themen wie KI, Machine Learning und Data Science günstig beziehungsweise in begrenztem Umfang kostenfrei an. Weitere Möglichkeiten liefern die Plattform Udemy oder Linkedin Learning. Ein Vorteil: Die jeweilige Zertifizierung ist direkt auf dem Karriereportal abrufbar und entsprechend für Personaler sichtbar.Beratungsgeschäft liefert Einblick in IT-OrganisationenDas Beispiel Peter Müller ist sehr speziell. Aber gerade die Wege von Quereinsteigern sind oft sehr individuell und immer auch ein bisschen einzigartig. Zum Beispiel sei Berufseinsteigern, die just mit einem Abschluss in Betriebswirtschaft die Universität verlassen haben und dennoch gern in den IT-Bereich gehen wollen, gesagt, dass Beratungsunternehmen dazu die perfekte Startrampe bieten. Top-Tier-Beratungen stellen eine sehr gute Referenz im Lebenslauf dar. Hier sind die Aufgaben allerdings zumeist sehr klar definiertund bewegen sich in einem einen bestimmten Rahmen. Im Gegensatz dazu eröffnen vor allem kleinere Beratungshäuser vielfältigere Chancen und mitunter punktuell auch eine bessere Förderung. Sie arbeiten ebenfalls mit namhaften Mandaten aus allen Branchen zusammen und haben dazu den Vorteil, dass die Job-Einstiegshürden nicht so hoch ausfallen.Hier lernen junge Talente beispielsweise in kurzer Zeit viele unterschiedliche Unternehmen aus der Innensicht kennen und arbeiten an unterschiedlichen Fragestellungen. Durch den Projektcharakter und die damit verbundenen Teams kommt man auch schnell mit vielen spannenden Personen aus unterschiedlichen Disziplinen auf Unternehmens- und Beratungsseite in Kontakt. Dieser Blick in den Maschinenraum eines Betriebs und die Sicht darauf, wie die IT organisiert und betrieben wird, liefern wichtige Erfahrungsschätze für die weitere Karriere. Das lernt man an keiner Universität dieser Welt. Von dieser Position aus ist der Absprung in eine IT-Rolle in einem Unternehmen oft einfacher, weil man bereits viele handelnde Akteure kennt.Wie das Netzwerk wirktIn der Tat ist das viel beschworene Netzwerk wichtig. Es genügt allerdings nicht, sich auf Branchenevents sehen zu lassen, Visitenkarten auszutauschen und ein bisschen Smalltalk zu betreiben, worunter das Netzwerken oft missverstanden wird. Branchentreffen und Events gehören zweifelsfrei dazu, sind allerdings nur ein sehr kleiner Anteil. Ein belastbares Netzwerk baut sich direkt im Arbeitsalltag auf. Wer gemeinsam Projekte gemeistert und voneinander gelernt hat, hat beispielsweise einen festen Netzwerk kontakt aufgebaut – Networking ist gleichermaßen ein Geben und Nehmen. Beide Parteien wissen um das Können des anderen, gerade in zeitkritischen Projektsituationen. Kurzum: Die Branche trifft sich im Projekt, nicht beim Abendevent.Gute Zeiten für KandidatenWer in die IT-Branche drängt, benötigt nicht unbedingt ein Informatikstudium. Auf der einen Seite wachsen Business und IT immer stärker zusammen (Business-IT-Alignment), auf der anderen Seite suchen Unternehmen nach Fachkräften. Wichtig ist, dass Quereinsteiger Qualifizierungen und Zertifizierungen anstreben, die am Markt hoch nachgefragt sind. Unternehmen gehen immer stärker dazu über, die benötigten Zertifizierungen im Haus selbst auszustellen. Profitieren Sie von dieser Entwicklung und zeigen dem Unternehmen, dass Sie diesen neuen Weg Ihrer Karriere gemeinsam gehen wollen. (pg)Die gefragtesten IT-JobsPlatz 1: Security-Experten Experten in der IT-Security können mit einem Jahresgehalt von 74.300 Euro rechnen. Platz 2: KI-Architekten KI-Architekten verdienen durchschnittlich 69.500 Euro im Jahr. Platz 3: DevOps EngineersDevOps Engineers nehmen den dritten Platz im Gehaltsranking ein: 66.200 Euro im Jahr. Platz 4: Data ScientistsDer beliebte Job des Data Scientist kann 65.500 Euro im Jahr versprechen. Platz 5: Data EngineersData Engineers richten Datenbanken ein und bekommen dafür ein Jahressalär von 59.300 Euro. Platz 6: Backend- und Frontend-Entwickler Fullstack Entwickler im Back- und Frontend können mit 57.000 Euro im Jahr rechnen.Platz 7: Web Developer Web Developer entwickeln interne Netzwerke und können dafür bis zu 48.700 Euro verdienen. Platz 8: Fachinformatiker für Daten und Prozessanalyse Fachinformatiker und -informatikerinnen für Daten und Prozessanalyse verdienen im Schnitt 47.400 Euro. Platz 9: Kaufleute für Digitalisierungsmanagement Die neue Berufsbezeichnung “Kaufleute für Digitalisierungsmanagement” meint das Jobprofil des Informatikkaufmanns- beziehungsweise der -kauffrau und schneitet mit 45.750 Euro am schlechtesten im Ranking der beliebtesten IT-Berufe ab.

IT-Quereinsteiger: Mit Fortbildung und Zertifikaten Karriere machen​ Read More »

KI statt Klimaziele?​

KI statt Klimaziele?​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/10/24486A5E-27C7-45A1-A3E05D5D4EFE2DFE_16z9j.jpeg?quality=50&strip=all 1895w, https://b2b-contenthub.com/wp-content/uploads/2024/10/24486A5E-27C7-45A1-A3E05D5D4EFE2DFE_16z9j.jpeg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/10/24486A5E-27C7-45A1-A3E05D5D4EFE2DFE_16z9j.jpeg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/10/24486A5E-27C7-45A1-A3E05D5D4EFE2DFE_16z9j.jpeg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/10/24486A5E-27C7-45A1-A3E05D5D4EFE2DFE_16z9j.jpeg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/10/24486A5E-27C7-45A1-A3E05D5D4EFE2DFE_16z9j.jpeg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/10/24486A5E-27C7-45A1-A3E05D5D4EFE2DFE_16z9j.jpeg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/10/24486A5E-27C7-45A1-A3E05D5D4EFE2DFE_16z9j.jpeg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/10/24486A5E-27C7-45A1-A3E05D5D4EFE2DFE_16z9j.jpeg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/10/24486A5E-27C7-45A1-A3E05D5D4EFE2DFE_16z9j.jpeg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Die KI wird’s schon richten – glaubt der frühere Google-Chef Eric SchmidtSCSP/YouTube Der mit ChatGPT ausgelöste KI-Boom hat dazu geführt, dass Unternehmen weltweit in den Bau neuer Rechenzentren investieren. Diese sollen die erforderliche Computerleistung bereitstellen, um die KI-Modelle zu trainieren und zu betreiben. Diese Entwicklung hat allerdings ihren Preis. Laut einer Studie des Forschungsinstituts Epoch AI, das wichtige KI-Trends untersucht, ist die für den Betrieb von großen Sprachmodellen (LLMs) benötigte Rechenkapazität seit 2010 jährlich um das Vier- bis Fünffache gestiegen. Nach Angaben des Weltwirtschaftsforums (WEF) verdoppelt sich zudem die für die KI-Weiterentwicklung erforderliche Rechenleistung etwa alle 100 Tage. Als Konsequenz befürchten inzwischen GenAI-Anbieter wie Google, dass sie ihr Ziel, bis 2030 emissionsneutral zu werden, nicht erreichen könnten. Etwas grotesk erscheint in diesem Zusammenhang der Vorschlag von Ex-Google-Chef Eric Schmidt auf dem AI + Energy Summit in Washington DC. Der Investor und Lobbyist Schmidt erklärte auf der SCSP-Veranstaltung, dass es zwar Möglichkeiten gebe, die negativen Auswirkungen von KI auf die Umwelt einzudämmen, etwa bessere Batterien und Stromleitungen für den Bau von Rechenzentren zu verwenden. Er gehe jedoch davon aus, dass das Wachstum der KI diese vorbeugenden Maßnahmen letztendlich übertreffen wird. „All das wird von den enormen Anforderungen dieser neuen Technologie überschwemmt werden“, erklärte Schmidt in einem Fireside Chat. „Wir mögen Fehler in Bezug auf die Art und Weise ihrer Nutzung machen, aber ich kann Ihnen versichern, dass wir nicht durch Umweltschutz zum Ziel gelangen werden“, so der 69-jährige Informatiker und Manager. Er glaube, dass „wir die Klimaziele sowieso nicht erreichen werden, weil wir nicht organisiert genug sind, um dies zu tun“. Sein Vorschlag: Vergessen wir die Klimaziele und entwickeln wir weiter! Sicher werde der Bedarf in diesem Bereich ein Problem darstellen, räumte Schmidt ein. Er würde aber eher darauf setzen, dass die KI das Problem löst, als die Entwicklung einzuschränken und dann ein anderes Problem zu haben. 

KI statt Klimaziele?​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/10/24486A5E-27C7-45A1-A3E05D5D4EFE2DFE_16z9j.jpeg?quality=50&strip=all 1895w, https://b2b-contenthub.com/wp-content/uploads/2024/10/24486A5E-27C7-45A1-A3E05D5D4EFE2DFE_16z9j.jpeg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/10/24486A5E-27C7-45A1-A3E05D5D4EFE2DFE_16z9j.jpeg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/10/24486A5E-27C7-45A1-A3E05D5D4EFE2DFE_16z9j.jpeg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/10/24486A5E-27C7-45A1-A3E05D5D4EFE2DFE_16z9j.jpeg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/10/24486A5E-27C7-45A1-A3E05D5D4EFE2DFE_16z9j.jpeg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/10/24486A5E-27C7-45A1-A3E05D5D4EFE2DFE_16z9j.jpeg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/10/24486A5E-27C7-45A1-A3E05D5D4EFE2DFE_16z9j.jpeg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/10/24486A5E-27C7-45A1-A3E05D5D4EFE2DFE_16z9j.jpeg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/10/24486A5E-27C7-45A1-A3E05D5D4EFE2DFE_16z9j.jpeg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Die KI wird’s schon richten – glaubt der frühere Google-Chef Eric SchmidtSCSP/YouTube

Der mit ChatGPT ausgelöste KI-Boom hat dazu geführt, dass Unternehmen weltweit in den Bau neuer Rechenzentren investieren. Diese sollen die erforderliche Computerleistung bereitstellen, um die KI-Modelle zu trainieren und zu betreiben.

Diese Entwicklung hat allerdings ihren Preis. Laut einer Studie des Forschungsinstituts Epoch AI, das wichtige KI-Trends untersucht, ist die für den Betrieb von großen Sprachmodellen (LLMs) benötigte Rechenkapazität seit 2010 jährlich um das Vier- bis Fünffache gestiegen. Nach Angaben des Weltwirtschaftsforums (WEF) verdoppelt sich zudem die für die KI-Weiterentwicklung erforderliche Rechenleistung etwa alle 100 Tage. Als Konsequenz befürchten inzwischen GenAI-Anbieter wie Google, dass sie ihr Ziel, bis 2030 emissionsneutral zu werden, nicht erreichen könnten.

Etwas grotesk erscheint in diesem Zusammenhang der Vorschlag von Ex-Google-Chef Eric Schmidt auf dem AI + Energy Summit in Washington DC. Der Investor und Lobbyist Schmidt erklärte auf der SCSP-Veranstaltung, dass es zwar Möglichkeiten gebe, die negativen Auswirkungen von KI auf die Umwelt einzudämmen, etwa bessere Batterien und Stromleitungen für den Bau von Rechenzentren zu verwenden. Er gehe jedoch davon aus, dass das Wachstum der KI diese vorbeugenden Maßnahmen letztendlich übertreffen wird. „All das wird von den enormen Anforderungen dieser neuen Technologie überschwemmt werden“, erklärte Schmidt in einem Fireside Chat.

„Wir mögen Fehler in Bezug auf die Art und Weise ihrer Nutzung machen, aber ich kann Ihnen versichern, dass wir nicht durch Umweltschutz zum Ziel gelangen werden“, so der 69-jährige Informatiker und Manager. Er glaube, dass „wir die Klimaziele sowieso nicht erreichen werden, weil wir nicht organisiert genug sind, um dies zu tun“.

Sein Vorschlag: Vergessen wir die Klimaziele und entwickeln wir weiter! Sicher werde der Bedarf in diesem Bereich ein Problem darstellen, räumte Schmidt ein. Er würde aber eher darauf setzen, dass die KI das Problem löst, als die Entwicklung einzuschränken und dann ein anderes Problem zu haben.

KI statt Klimaziele?​ Read More »

Fremdvergabe: Diese Vertragsmodelle eignen sich für agile Projekte​

Fremdvergabe: Diese Vertragsmodelle eignen sich für agile Projekte​

Allgemein

In diesem Artikel lesen Sie, wie eine Transformation hin zu agilen Arbeitsweisen erfolgversprechend vorangetrieben werden kann. Foto: Rawpixel.com – shutterstock.comAgile Projektmethoden, die zunächst nur in IT-Abteilungen eingesetzt wurden, setzen sich heute im ganzen Unternehmen durch. Darin liegen große Chancen, aber auch Herausforderungen. Nach ersten Erfolgen stellt sich inzwischen vermehrt Ernüchterung ein, die Transformation hin zur agilen Vorgehensweise kommt ins Stocken. Hauptgrund ist, dass diese Veränderung eben kein reines IT-Thema ist, sondern ganzheitlich angegangen werden muss und verschiedene Unternehmensbereiche beeinflusst. Zu den zentralen Themen gehören die Budgetierung und die verwendeten Vertragsmodelle bei der Zusammenarbeit mit Dienstleistern in agilen Projekten.Die Schwierigkeiten beginnen schon mit dem traditionellen jährliche Budgetplanungsprozess: Er passt nicht zu agil. Warum ist das so? Um die Frage zu beantworten, müssen wir uns nur einmal anzuschauen, wie dieser Prozess üblicherweise abläuft. Die Budgetverhandlungen beginnen damit, dass jeder mehr Geld als eigentlich notwendig einfordert, um die Unsicherheit einer längerfristigen Planung einzupreisen.Die fehlende unterjährige Flexibilität von Budgetanpassungen und die Tatsache, dass man im Zuge der Verhandlungen sowieso mit einer gewissen Kürzung rechnet, verstärkt diesen Effekt und blockt zudem Gelder, mit denen andere Projekte finanziert werden könnten. Das ist nicht nur ein aufwändiger und ineffizienter Prozess, der die Unzufriedenheit der Beteiligten schürt, er sorgt auch für ein Phänomen, das vor allem in Wasserfall-Projekten auftaucht, das sogenannte Sandbagging.Teams schieben ein nicht aufgebrauchtes Budget entgegen der eigentlichen Projektplanung von Monat zu Monat weiter, nur um am Ende des Planungsjahres damit konfrontiert zu sein, deutlich mehr Geld ausgeben zu müssen als notwendig, um nicht in unbequeme Gespräche über eine schlechte Projektplanung verwickelt zu werden. Gleichzeitig können aufgrund fehlender Budgets keine zusätzlichen Unternehmensvorteile mittels weiterer werthaltiger Projekte generiert werden. Kurzum: Die klassische Budgetplanung verfolgt das Ziel, möglichst viel Sicherheit bezüglich der nächsten zwölf Monate (oder noch darüber hinaus) zu bekommen. Doch diese Art der Planung funktioniert heute nicht mehr – insbesondere nicht in einer sich rasant verändernden und schwer vorhersehbaren Projektlandschaft.In der agilen Welt haben sich die Prioritäten verschoben. Nicht die “Planungssicherheit”, sondern die Fähigkeit, sich schnell an verändernde Bedingungen anpassen zu können und möglichst viel und schnell aus Kundenfeedback zu lernen, steht im Vordergrund. Richtigerweise geht man nun davon aus, dass Ideen scheitern und schnelle Anpassungen, auch budgetärer Art, notwendig werden können. Eine Optimierung des Investments mit geeigneten Streuungsmethoden unter unsicheren Begleitumständen ist das Ziel. Darin unterscheidet sich diese Art der Budgetierung vom bisherigen Vorgehen: Sie konzentriert sich auf üblicherweise kürzere Zeiträume von zum Beispiel drei oder maximal sechs Monaten und lässt Anpassungen zu.Das eine ist der Budgetplanungsprozess, das andere sind die Vertragsmodellen, die im Rahmen von Projekten die Zusammenarbeit mit Dienstleistern regeln. Oft werden die IT-Abteilungen mit beidem allein gelassen. Hier wäre eine ganzheitlich unternehmerische Betrachtung überfällig. Nur wenn die agile Transformation als Herausforderung angesehen wird, die verschiedene Unternehmensbereiche betrifft – und dabei beispielsweise auch Belange des Einkaufs und der Rechtsabteilung adressiert – lassen sich die Weichen für eine erfolgreiche Umsetzung gestellt. Vertragsmodelle und EntscheidungskriterienUm die Projektzusammenarbeit mit Dienstleistern zu regeln, gibt es folgende Vertragsmodelle:Time-and-Material (Dienstleistungsvertrag)Festpreis (Werkvertrag)Output-basiert (transaktionsbasiert)Outcome-basiertStory-Point-basiertProjektions-basiertEs gibt gute Gründe, sich für das eine oder andere Vertragsmodell zu entscheiden. Wichtig dabei ist es, sich über die Entscheidungskriterien für die Auswahl im Klaren zu sein. Üblicherweise werden Kriterien wie Sicherheit hinsichtlich des Lieferergebnisses oder der anfallenden Kosten herangezogen. Manchmal findet zusätzlich noch eine Risikoanalyse statt, die die Herausforderungen für den Dienstleister beziehungsweise das eigene Unternehmen beim jeweiligen Vertragsmodell unter die Lupe nimmt.Bei Time-and-Material werden die im Projekt zu liefernden Gegenstände nicht vertraglich vereinbart. Der Lieferant wird vielmehr aufgrund seines Zeit- und Materialeinsatzes bezahlt. Die Qualifikationen der eingesetzten Mitarbeiter sind dabei üblicherweise auch Vertragsbestandteil. Bei diesem Vertragsmodell kann es durchaus passieren, dass das Projektergebnis nicht den Erwartungen entspricht. Darin genau besteht das Risiko für den Auftragsgeber, da in einem solchen Fall oft weitere Kontingente beauftragt werden müssen, was zu erheblichen Mehrkosten führen kann. Dies zeigt auch, dass das Projektrisiko auf der Lieferantenseite gering ist. Vertrauen spielt also bei einem Dienstleitungsvertrag eine wichtige Rolle.Einen anderen Ansatz verfolgt das Festpreismodell. Hier werden die Liefergegenstände so gut es geht im Vorfeld definiert und es wird ein Festpreis für deren Erbringung vereinbart. Dieses Modell verlangt vorab einen detaillierten Anforderungskatalog, was oft dazu führt, dass sich der Projektstart verzögert. Hinzu kommt, dass die Anforderungen zu Beginn häufig gar nicht vollständig bekannt sind.Aus reiner Kostensicht ist das Festpreismodell für den Auftraggeber bequem. Allerdings kommt es in der Praxis häufig zu folgenden Problemen: Da der Dienstleister das höhere Kostenrisiko trägt und gerade bei IT-Projekten eben immer unerwartete Probleme auftreten können, versucht er gegen Ende der geplanten Projektlaufzeit das vorab festgelegte Lieferergebnis zu verwässern. Dabei hilft ihm, dass zu Beginn kaum alle Anforderungen ausreichend bekannt sein können. Sie werden nur durch grobe Absichtsbeschreibungen definiert. Im späteren Projektverlauf kann es dann dazu kommen, dass der Auftraggeber versucht, immer mehr Inhalte umsetzen zu lassen. Hier sprechen wir typischerweise von einem Scope Creep. Außerdem verleitet dieses Vertragsmodell zum Fingerpointing, indem sich Lieferant und Auftraggeber gegenseitig für das Scheitern verantwortlich machen. Festpreismodelle sind demnach nicht geeignet, wenn es um den Aufbau gegenseitigen Vertrauens geht.Output-basierte Vertragsmodelle kommen ursprünglich aus der Baubranche, der Ansatz wurde vor einigen Jahren auf IT-Projekte übertragen. Hier liegt das Hauptaugenmerk auf dem Lieferergebnis, nicht darauf, wie es erzielt wurde. Dieses Modell findet oft beim Erbringen von Serviceleistungen Anwendung, eher selten im Projektgeschäft.Ein typisches Beispiel ist ein Servicevertrag, der vorsieht, dass eine bestimmte Anzahl an Tickets innerhalb einer bestimmten Zeitdauer unter Einhaltung vereinbarter Reaktionszeiten bearbeitet wird. Das Risiko verteilt sich hier gleichmäßig auf beide Vertragspartner. Während der Dienstleister das Risiko trägt, gegebenenfalls in kurzer Zeit zusätzliche Ressourcen zur Verfügung stellen zu müssen, um einen Peak bedienen zu können, trägt der Auftraggeber das Risiko, die falsche Menge an Tickets vereinbart zu haben. Folge kann eine Beeinträchtigung des operativen Geschäfts sein. Obwohl die Kosten üblicherweise gut kontrollierbar sind, zeigt sich ein anderes Problem: Der vertraglich festgelegte Output ist meist nicht an den Geschäftszielen des Unternehmens ausgerichtet. Dieses Modell trägt auch nicht automatisch zur Qualitätsverbesserung des Produkts bei.Deshalb wurde das Outcome-basierte Vertragsmodell entwickelt. Das prominenteste Beispiel ist “Power by the Hour” von Rolls Royce. Die Flugzeugmotorensparte von Rolls Royce hatte in der Vergangenheit mit den Fluggesellschaften Serviceverträge nach dem Time-and-Material-Prinzip abgeschlossen. Bei diesen Verträgen standen die anfallenden Kosten in direktem Bezug zur Anzahl an Technikern und der Menge der verbrauchten Materialien. Im betrieblichen Alltag bedeutete das, dass Rolls Royce immer dann mit den Serviceverträgen verdiente, wenn die Flugzeuge der Kunden am Boden waren. Mit anderen Worten: Rolls Royce verdiente, wenn die Fluggesellschaften keinen Umsatz machten.Rolls Royce hat dieses Modell inzwischen gegen ein anderes ausgetauscht, das sich am Geschäftserfolg der Fluggesellschaften orientiert: Fluggesellschaften zahlen nun eine Gebühr pro Stunde basierend auf der Anzahl der Flugstunden für ein Flugzeugtriebwerk. Dieses Vertragsmodell richtet sich also an den Kundenbedürfnissen aus und führt letztendlich zu einer Win-Win-Situation.Solche Vertragsformen könnten sich beispielsweise auch am Zugewinn von Neukunden, der Kundenzufriedenheit oder der Verringerung der Kundenfluktuation ausrichten. Hier wird zwar eine bessere Risikoverteilung erreicht, unterm Strich erhöht sich aber das Risiko des Dienstleisters. Im schlimmsten Fall muss er sogar den gesamten Aufwand allein tragen. Ein solches Modell setzt ein hohes Maß an Vertrauen voraus, das ein Grundpfeiler der agilen Arbeitsweise ist. Weiterhin führt es einen wichtigen Entscheidungsfaktor ein, der häufig bei der Auswahl des Vertragsmodells gar nicht berücksichtigt wird – die Incentivierung.Ein Story-Point-basiertes Vertragsmodell setzt eine reife, agile Projektorganisation voraus. Wie der Name erahnen lässt, stammt dieses Modell aus dem Scrum-Umfeld. Das Lieferergebnis ist nicht von Beginn an detailliert ausdefiniert, sondern zeigt eine gewisse Flexibilität. Die Projektkosten werden, und darin liegt ein Kritikpunkt an diesem Vertragsmodell, in Story-Points angegeben. Dies widerspricht dem eigentlichen Prinzip von Story-Points und suggeriert eine mögliche Umrechnung von Story-Points in Geldeinheiten.Zudem bleibt die Frage nach der Verlässlichkeit einer abstrakten Schätzung auf nicht unbedingt detailliert definierte Lieferergebnisse, wobei es in der Natur der Story-Points liegt, dass diese Ergebnisse vielen Einflussfaktoren unterliegen und hohe Abweichungen damit einhergehen. Es kommt dann zu einer Vermischung einer – eher um Sicherheit bemühten – Wasserfall-basierenden Denkweise mit Begrifflichkeiten aus der agilen Welt.Beim Story-Point-Modell wird der Kostenrahmen als Kapazität angegeben. Nehmen wir zum Beispiel an, das Projektteam eines ERP-Projekts hat eine Kapazität von 1.000 Story-Points für den Rollout eines Templates zur Verfügung. Bei jeder neuen Anforderung ergeben sich nun zwei Optionen: Entweder wird sie neu entwickelt oder das Team verwendet eine bereits implementierte Funktion des Templates. Die erste Option, wird die zur Verfügung stehende Kapazität an Story-Points stärker belasten als die zweite.Damit wird das verfolgte Ziel bezüglich der Incentivierung deutlich. So oft wie möglich sollen schon vorhandene Funktionen verwendet und die Standardisierung gefördert werden, um Story-Points einzusparen und für andere, innovative Entwicklungen zu verwenden.Angelehnt an das Story-Point- und Output-basierte Vertragsmodell ist auch ein Projektions-basiertes Vertragsmodell denkbar. Hierbei wird anhand einer kurzen Erkundungsphase ein voraussichtliches Umsetzungsvolumen – zum Beispiel die Anzahl von umgesetzten Referenzelementen – innerhalb eines definierten Bearbeitungszeitraums oder eines Sprints abgeleitet. Ziel ist es, sowohl den Projektumfang als auch das Umsetzungsvolumen in einer bestimmten Zeiteinheit abschätzen zu können.Dadurch kann der Kostenrahmen als Umsetzungsvolumen angegeben werden und ermöglicht damit einen gewissen Output als Zielwert inklusive eines “Risk Shares”, also der Festlegung, wie bei signifikanten Abweichungen zu verfahren ist. Eine regelmäßige Überprüfung der Parameter im Projektverlauf eröffnet zudem die Chance, Anpassungen vorzunehmen. Die Incentivierung für den Dienstleister besteht darin, Abläufe in der Umsetzung sowie die Produktqualität zu verbessern. So kann er Mehraufwand verhindern. Der Auftraggeber sollte das Ziel verfolgen, sich auf werthaltige Anforderungen zu konzentrieren, damit der höchste Nutzen mit kalkulierbaren Kosten und kurzer Time-to-Market verbunden wird. Ein entscheidender Vorteil dieser Variante ist zudem, dass oft früh erkannt werden kann, ob das Projekt zu einem Erfolg führen wird (Stichwort fail fast).Voraussetzung ist hier ein mindestens zweiphasiges Vertragsmodell, wobei in der ersten Phase die Kosten (Time-and-Material oder Festpreis) für eine kurze Laufzeit zur Projekterkundung festgelegt werden. In dieser Phase ist es das Ziel, die minimal notwendigen Voraussetzungen für die technische Projektdurchführung zu ermitteln (zum Beispiel über einen bis drei Sprints bei Scrum) und elementare Anforderungen im Rahmen einer vollständigen, agilen Arbeitsweise umzusetzen (für einen bis drei Monate etwa).Anhand der Ergebnisse dieser Phase lässt sich ableiten, welches Aufkommen an neuen Anforderungen im Durchschnitt entstehen wird und wie viele davon über einen bestimmten Zeitraum bearbeitet werden können. In den folgenden Vertragsphasen wird ein Kostenrahmen für ein Umsetzungsvolumen vereinbart, wobei die Anforderungen nicht unbedingt weit im Voraus definiert werden müssen. Es reicht aus, dies jeweils vor dem Start der Bearbeitungsphase zu tun – zum Beispiel im Backlog Refinement vor der nächsten Sprint-Planung.Dieses Verfahren kann bei richtiger Anwendung eine gute Projektion hinsichtlich Kosten, Nutzen und Laufzeiten liefern. Ein weiterer Vorteil ist, dass nicht zwingend eine reife Projektorganisation für agile Methoden existieren muss. Durch regelmäßige Auswertungen der Ergebnisse über einen gewissen Zeitraum hinweg kann das Modell individuell an Leistungsänderungen angepasst werden.Die Outcome- und Story-Point-basierten Vertragsmodelle haben gezeigt, dass die Incentivierung im agilen Kontext ein wichtiges Entscheidungskriterium sein kann. Es können ganz im Sinne des agilen Grundgedankens Win-Win-Situationen entstehen. Das Time-and-Material-Modell ist weniger geeignet, da es dem Dienstleiser Anreize liefert, das Projektziel nur langsam zu erreichen, um mehr Ressourcen verkaufen zu können.Das Incentive bei einem Festpreis-Modell liegt für den Dienstleister darin, Ressourcen möglichst zu reduzieren. Das kann grundsätzlich im Sinne des Auftraggebers sein, da das Projektteam klein bleibt und nicht unnötig aufgebläht wird. Allerdings führt dies nicht zwangsweise zu einem besseren Projektprodukt. Beim Output-basierten Vertragsmodell gibt es im Prinzip kein Incentive, das dem agilen Gedanken entspricht. Anders sieht das beim Projektions-basierten Vertragsmodell aus. Die Incentives Optimierung der Lieferabläufe und Produktqualität für den Dienstleister sowie das Erstellen werthaltiger Anforderungen für den Auftraggeber entsprechen den agilen Grundprinzipien. Risk-Adapdability-MatrixDie Risk-Adaptability-Matrix bringt zwei wichtige Entscheidungsfaktoren bei agilen Projekten zusammen, nämlich die des Risikos und der Anpassungsfähigkeit hinsichtlich sich verändernder Anforderungen. Abbildung 1 zeigt die Einordnung der beschriebenen Vertragsmodelle in diese Matrix. Dabei wird bei der Einordnung des Risikos zwischen Auftraggeber (A) und Dienstleister (D) unterschieden.Risk-Adaptability-Matrix im agilen Projektumfeld. Foto: Brüggenkamp, Preuss, Renk Es zeigt sich eindeutig, dass Festpreis- und Output-basierte Kostenmodelle nicht für agile Projekte geeignet sind. Der Grund ist hauptsächlich die geringe Anpassungsfähigkeit, die beiden Vertragsmodellen zugrunde liegt. Sie hat wenig mit dem agilen Grundgedanken, offen für Veränderungen zu sein, gemeinsam. Beim Festpreis-Modell kommt hinzu, dass das Risiko sowohl für den Dienstleister als auch für den Auftraggeber hoch ist.Time-and-Material-, Outcome-basierte und Projektions-basierte Vertragsmodelle sind hingegen gut geeignet für agile Projekte. Sie zeigen ein vergleichsweise niedriges Risikoprofil und ein hohes Maß an Anpassungsfähigkeit. Dabei überrascht Time -and-Material mit einer im Vergleich höheren Flexibilität, die vor allem den sich ständig ändernden Anforderungen gerecht wird. Einzig die hohe Risikodiskrepanz zwischen Dienstleister und Auftraggeber erweist sich als schwierig.Der Schlüssel, um diese zu verringern, besteht in der richtigen Incentivierung des Projektteams, womit beide Parteien eingeschlossen sind. So wäre es denkbar, ein Incentive zu verwenden, das sich am Unternehmensziel orientiert, wie beispielsweise ein Zugewinn an Neukunden, Steigerungen von Downloadraten und Nutzungszeiten oder eine Verringerung der Kundenfluktuation, womit ein hybrides Vertragswerk aus Time-and -Material und Outcome-basierten Bestandteilen entsteht. Das Projektions-basierte Vertragsmodell zeigt eine hohe Anpassungsfähigkeit bei einem relativ geringen Risikoprofil, welches – und darin besteht ein Vorteil dieses Vertragsmodells – möglichst gleichmäßig auf Auftraggeber und Dienstleister verteilt ist.Ein Story-Point-basiertes Vertragsmodell ist prinzipiell für agile Projekte geeignet – jedoch ist hierfür eine stabile und reife Projektorganisation mit agilen Methoden die Voraussetzung. Als Incentive bei Software-Projekten steht hier eindeutig die unternehmensweite Standardisierung im Vordergrund. Darin liegen aber auch die Schwierigkeit und das erhöhte Risiko begründet. Dieses Incentive ist primär für den Auftraggeber wichtig, weniger für den Lieferanten. Hier gilt es also Vorsicht walten zu lassen. Nicht selten hat sich gezeigt, dass ein Story-Point-basiertes Modell bei wenig umsichtiger Verwendung schnell in eine Art traditionelles Time-and-Material verwandelt wird – zu Gunsten des Lieferanten und zu Ungunsten des Auftraggebers.Erwartungsgemäß gibt es keine klare und einfache Lösung für das komplexe Problem der Budgetierung und Vertragsgestaltung im agilen Kontext. Dabei haben wir am Beispiel einer Mischung aus Time-and- Material und Outcome-basiertem Modell oder dem Beispiel des Projektions-basierten Modells bereits gesehen, dass der Schlüssel in einer individualisierten, an den Projekt- und Unternehmenskontext angepassten Kombination verschiedener Modelle liegt, da dadurch die agilen Anforderungen am besten bedient werden können. Denkbar sind auch andere hybride Modelle. So könnte man einen gewissen Prozentsatz der gesamten Projektkosten als Festpreis abbilden und den verbleibenden Kostenblock an ein Outcome-basiertes Modell koppeln.Wichtig ist es, ein gesundes Maß zwischen der praktischen Anwendbarkeit eines Vertragsmodells und der Komplexität zu finden. Das ist notwendig, um für beide Vertragsparteien ein faires Modell zu entwickeln. Vertrauen, Anpassungsfähigkeit, IncentivierungWir haben in diesem Artikel verschiedene Vertragsmodelle hinsichtlich ihrer Anwendbarkeit für agile Projekte verglichen. Dabei spielen insbesondere drei Aspekte bei der Auswahl des passenden Vertragsmodells eine zentrale Rolle. Zum ersten ist zu häufig ein fehlendes Vertrauen zwischen den Vertragsparteien, aber auch unternehmensintern zwischen Fachbereichen und den IT-Abteilungen erkennbar. Vertrauensvolle Partnerschaften sind jedoch eine Grundvoraussetzung für jede agile Organisation. Time-and-Material, ein Outcome-basiertes oder ein Projektions-basiertes Vertragsmodell sind hier am geeignetsten.Zum zweiten ist die Anpassungsfähigkeit an sich ändernde Umstände essenziell. Dies überrascht wenig im agilen Kontext; allerdings gibt es wenige Vertragsmodelle, die diesem Aspekt wirklich Rechnung tragen und sinnvoll in der Praxis eingesetzt werden können. Festpreis- und Output-basierte Vertragsmodelle scheiden deshalb aus. Zum dritten wird das Thema Incentivierung bei der Auswahl des richtigen Vertragsmodells vor allem vor dem Hintergrund agiler Projekte immer wichtiger. Nur wenn mittels der richtigen Incentivierungen Win-Win-Situationen zwischen Lieferant und Auftraggeber (oder auch zwischen den Fachbereichen und der IT) geschaffen werden, kann eine Transformation hin zu agilen Arbeitsweisen erfolgversprechend vorangetrieben werden.Warum agile Organisationen und Methoden effizienter sind9 Gründe, weshalb agile Unternehmen ihr Business und Krisen besser meistern Foto: Mikko Lemola – shutterstock.comAgile Methoden haben in vielen Unternehmen zwar schon Einzug gehalten, meist aber nur in Einzelbereichen wie zum Beispiel der IT. Eine Studie der Technologieberatung BearingPoint zeigt jedoch, dass Unternehmen mit einer durchgängig agilen Organisation sowie in der Unternehmenskultur verankertem agilen Mindset den Alltag und Krisen schneller und besser meistern. Gute Gründe für mehr Agilität. Vereinfachte Prozesse Foto: Tashatuvango – shutterstock.comAgile Organisationen zeichnen sich durch hohe End-to-End-Prozessverantwortung, schlanke Prozesse, hohe Prozessautomatisierung und -standardisierung aus. Je leichtgewichtiger und standardisierter Prozesse sind, umso kosteneffizienter können Organisationen agieren.Vereinfachte Steuerungslogik Foto: keport – shutterstock.comOrganisationen, die in Abhängigkeit von Prioritätsänderungen flexibler steuern können, sind in Krisenzeiten besser in der Lage, schnell auf geänderte Parameter zu reagieren. Vereinfachte Organisationsstruktur Foto: patpitchaya – shutterstock.comAgile Organisationen zeichnen sich dadurch aus, dass anhand der Wertschöpfungskette durchgängig verantwortliche, autonome und cross-funktionale Teams aufgebaut und Abteilungsgrenzen aufgelöst werden. In Krisenzeiten profitieren agile Organisationen durch bessere Zusammenarbeit über Teams, Abteilungen oder Business Units hinweg. Höherer Innovationsgrad Foto: Olivier Le Moal – shutterstock.comInterdisziplinäre Teams wirken als Brutkasten für innovative Ideen und Ansätze. Außerdem verfügen agile Organisationen öfter über offene Ökosysteme und profitieren in Krisenzeiten von diesem Netzwerk.Schnelle Reaktionsfähigkeit Foto: TippaPatt – shutterstock.comEs gilt, die Krise als Chance zu sehen und Änderungen willkommen zu heißen. Strukturen und Prozesse wie agiles Portfolio Management oder Objektive and Key Results helfen kontinuierlich neu zu bewerten. Agile Organisationen arbeiten iterativ mit vielen Feedback-Schleifen und das ständige Hinterfragen und Reagieren auf Änderung ist Teil ihrer DNA.Kundennähe und Kundenzentriertheit Foto: Tashatuvango – shutterstock.comGerade in Krisenzeiten muss den Kundenbedürfnissen entsprechend noch zielgerichteter agiert werden. Schnelles Feedback ist hier extrem wertvoll. Als Organisation muss bewusst auch mit Teilprodukten auf den Markt zu gegangen werden, um etwaige Kundenwünsche oder Adaptionen früh genug berücksichtigen zu können. Hohe Selbstorganisation und Teamwork Foto: Sergey Nivens – shutterstock.comTeams, die es gewohnt sind, auch selbst Entscheidungen zu treffen, sind in Krisenzeiten flexibler und besser vorbereitet. Organisationen, deren Management sehr stark auf Selbstorganisation setzt und Entscheidungsbefugnisse weitgehend an die agilen Teams delegiert haben, sind schneller, was auch in Krisenzeiten ein immenser Vorteil ist.Neuer Leadership-Stil Foto: thodonal88 – shutterstock.comFührungskräfte sind in Krisenzeiten besonders gefordert und profitieren von Skills, die für agile Organisationen typisch sind. Eine starke und offene Kommunikation kann Sorgen und Unsicherheiten ausräumen und psychologische Sicherheit vermitteln. Führungskräfte, denen es gelingt, eine nachhaltige Fehlerkultur zu etablieren, fördern nicht nur das kontinuierliche Lernen, sondern sorgen auch dafür, dass Mitarbeiter bereit sind, Entscheidungen und Risiken zu treffen. Technologie-Führerschaft Foto: Preechar Bowonkitwanchai – shutterstock.comAgile Organisationen zeichnen sich durch eine Technologieführerschaft und den Einsatz moderner State-of-the-Art-Technologien aus. Organisationen, die bereits vor der Krise begonnen haben, ihre Kernsysteme auf eine Micro-Service-Architektur mit losen gekoppelten Services umzubauen und den Einsatz von Continuous-Integration-Systemen forciert haben, sind in der Lage, schneller und unabhängiger zu produzieren und kontinuierlich Releases zu veröffentlichen. 

Fremdvergabe: Diese Vertragsmodelle eignen sich für agile Projekte​ In diesem Artikel lesen Sie, wie eine Transformation hin zu agilen Arbeitsweisen erfolgversprechend vorangetrieben werden kann.
Foto: Rawpixel.com – shutterstock.comAgile Projektmethoden, die zunächst nur in IT-Abteilungen eingesetzt wurden, setzen sich heute im ganzen Unternehmen durch. Darin liegen große Chancen, aber auch Herausforderungen. Nach ersten Erfolgen stellt sich inzwischen vermehrt Ernüchterung ein, die Transformation hin zur agilen Vorgehensweise kommt ins Stocken. Hauptgrund ist, dass diese Veränderung eben kein reines IT-Thema ist, sondern ganzheitlich angegangen werden muss und verschiedene Unternehmensbereiche beeinflusst. Zu den zentralen Themen gehören die Budgetierung und die verwendeten Vertragsmodelle bei der Zusammenarbeit mit Dienstleistern in agilen Projekten.Die Schwierigkeiten beginnen schon mit dem traditionellen jährliche Budgetplanungsprozess: Er passt nicht zu agil. Warum ist das so? Um die Frage zu beantworten, müssen wir uns nur einmal anzuschauen, wie dieser Prozess üblicherweise abläuft. Die Budgetverhandlungen beginnen damit, dass jeder mehr Geld als eigentlich notwendig einfordert, um die Unsicherheit einer längerfristigen Planung einzupreisen.Die fehlende unterjährige Flexibilität von Budgetanpassungen und die Tatsache, dass man im Zuge der Verhandlungen sowieso mit einer gewissen Kürzung rechnet, verstärkt diesen Effekt und blockt zudem Gelder, mit denen andere Projekte finanziert werden könnten. Das ist nicht nur ein aufwändiger und ineffizienter Prozess, der die Unzufriedenheit der Beteiligten schürt, er sorgt auch für ein Phänomen, das vor allem in Wasserfall-Projekten auftaucht, das sogenannte Sandbagging.Teams schieben ein nicht aufgebrauchtes Budget entgegen der eigentlichen Projektplanung von Monat zu Monat weiter, nur um am Ende des Planungsjahres damit konfrontiert zu sein, deutlich mehr Geld ausgeben zu müssen als notwendig, um nicht in unbequeme Gespräche über eine schlechte Projektplanung verwickelt zu werden. Gleichzeitig können aufgrund fehlender Budgets keine zusätzlichen Unternehmensvorteile mittels weiterer werthaltiger Projekte generiert werden. Kurzum: Die klassische Budgetplanung verfolgt das Ziel, möglichst viel Sicherheit bezüglich der nächsten zwölf Monate (oder noch darüber hinaus) zu bekommen. Doch diese Art der Planung funktioniert heute nicht mehr – insbesondere nicht in einer sich rasant verändernden und schwer vorhersehbaren Projektlandschaft.In der agilen Welt haben sich die Prioritäten verschoben. Nicht die “Planungssicherheit”, sondern die Fähigkeit, sich schnell an verändernde Bedingungen anpassen zu können und möglichst viel und schnell aus Kundenfeedback zu lernen, steht im Vordergrund. Richtigerweise geht man nun davon aus, dass Ideen scheitern und schnelle Anpassungen, auch budgetärer Art, notwendig werden können. Eine Optimierung des Investments mit geeigneten Streuungsmethoden unter unsicheren Begleitumständen ist das Ziel. Darin unterscheidet sich diese Art der Budgetierung vom bisherigen Vorgehen: Sie konzentriert sich auf üblicherweise kürzere Zeiträume von zum Beispiel drei oder maximal sechs Monaten und lässt Anpassungen zu.Das eine ist der Budgetplanungsprozess, das andere sind die Vertragsmodellen, die im Rahmen von Projekten die Zusammenarbeit mit Dienstleistern regeln. Oft werden die IT-Abteilungen mit beidem allein gelassen. Hier wäre eine ganzheitlich unternehmerische Betrachtung überfällig. Nur wenn die agile Transformation als Herausforderung angesehen wird, die verschiedene Unternehmensbereiche betrifft – und dabei beispielsweise auch Belange des Einkaufs und der Rechtsabteilung adressiert – lassen sich die Weichen für eine erfolgreiche Umsetzung gestellt. Vertragsmodelle und EntscheidungskriterienUm die Projektzusammenarbeit mit Dienstleistern zu regeln, gibt es folgende Vertragsmodelle:Time-and-Material (Dienstleistungsvertrag)Festpreis (Werkvertrag)Output-basiert (transaktionsbasiert)Outcome-basiertStory-Point-basiertProjektions-basiertEs gibt gute Gründe, sich für das eine oder andere Vertragsmodell zu entscheiden. Wichtig dabei ist es, sich über die Entscheidungskriterien für die Auswahl im Klaren zu sein. Üblicherweise werden Kriterien wie Sicherheit hinsichtlich des Lieferergebnisses oder der anfallenden Kosten herangezogen. Manchmal findet zusätzlich noch eine Risikoanalyse statt, die die Herausforderungen für den Dienstleister beziehungsweise das eigene Unternehmen beim jeweiligen Vertragsmodell unter die Lupe nimmt.Bei Time-and-Material werden die im Projekt zu liefernden Gegenstände nicht vertraglich vereinbart. Der Lieferant wird vielmehr aufgrund seines Zeit- und Materialeinsatzes bezahlt. Die Qualifikationen der eingesetzten Mitarbeiter sind dabei üblicherweise auch Vertragsbestandteil. Bei diesem Vertragsmodell kann es durchaus passieren, dass das Projektergebnis nicht den Erwartungen entspricht. Darin genau besteht das Risiko für den Auftragsgeber, da in einem solchen Fall oft weitere Kontingente beauftragt werden müssen, was zu erheblichen Mehrkosten führen kann. Dies zeigt auch, dass das Projektrisiko auf der Lieferantenseite gering ist. Vertrauen spielt also bei einem Dienstleitungsvertrag eine wichtige Rolle.Einen anderen Ansatz verfolgt das Festpreismodell. Hier werden die Liefergegenstände so gut es geht im Vorfeld definiert und es wird ein Festpreis für deren Erbringung vereinbart. Dieses Modell verlangt vorab einen detaillierten Anforderungskatalog, was oft dazu führt, dass sich der Projektstart verzögert. Hinzu kommt, dass die Anforderungen zu Beginn häufig gar nicht vollständig bekannt sind.Aus reiner Kostensicht ist das Festpreismodell für den Auftraggeber bequem. Allerdings kommt es in der Praxis häufig zu folgenden Problemen: Da der Dienstleister das höhere Kostenrisiko trägt und gerade bei IT-Projekten eben immer unerwartete Probleme auftreten können, versucht er gegen Ende der geplanten Projektlaufzeit das vorab festgelegte Lieferergebnis zu verwässern. Dabei hilft ihm, dass zu Beginn kaum alle Anforderungen ausreichend bekannt sein können. Sie werden nur durch grobe Absichtsbeschreibungen definiert. Im späteren Projektverlauf kann es dann dazu kommen, dass der Auftraggeber versucht, immer mehr Inhalte umsetzen zu lassen. Hier sprechen wir typischerweise von einem Scope Creep. Außerdem verleitet dieses Vertragsmodell zum Fingerpointing, indem sich Lieferant und Auftraggeber gegenseitig für das Scheitern verantwortlich machen. Festpreismodelle sind demnach nicht geeignet, wenn es um den Aufbau gegenseitigen Vertrauens geht.Output-basierte Vertragsmodelle kommen ursprünglich aus der Baubranche, der Ansatz wurde vor einigen Jahren auf IT-Projekte übertragen. Hier liegt das Hauptaugenmerk auf dem Lieferergebnis, nicht darauf, wie es erzielt wurde. Dieses Modell findet oft beim Erbringen von Serviceleistungen Anwendung, eher selten im Projektgeschäft.Ein typisches Beispiel ist ein Servicevertrag, der vorsieht, dass eine bestimmte Anzahl an Tickets innerhalb einer bestimmten Zeitdauer unter Einhaltung vereinbarter Reaktionszeiten bearbeitet wird. Das Risiko verteilt sich hier gleichmäßig auf beide Vertragspartner. Während der Dienstleister das Risiko trägt, gegebenenfalls in kurzer Zeit zusätzliche Ressourcen zur Verfügung stellen zu müssen, um einen Peak bedienen zu können, trägt der Auftraggeber das Risiko, die falsche Menge an Tickets vereinbart zu haben. Folge kann eine Beeinträchtigung des operativen Geschäfts sein. Obwohl die Kosten üblicherweise gut kontrollierbar sind, zeigt sich ein anderes Problem: Der vertraglich festgelegte Output ist meist nicht an den Geschäftszielen des Unternehmens ausgerichtet. Dieses Modell trägt auch nicht automatisch zur Qualitätsverbesserung des Produkts bei.Deshalb wurde das Outcome-basierte Vertragsmodell entwickelt. Das prominenteste Beispiel ist “Power by the Hour” von Rolls Royce. Die Flugzeugmotorensparte von Rolls Royce hatte in der Vergangenheit mit den Fluggesellschaften Serviceverträge nach dem Time-and-Material-Prinzip abgeschlossen. Bei diesen Verträgen standen die anfallenden Kosten in direktem Bezug zur Anzahl an Technikern und der Menge der verbrauchten Materialien. Im betrieblichen Alltag bedeutete das, dass Rolls Royce immer dann mit den Serviceverträgen verdiente, wenn die Flugzeuge der Kunden am Boden waren. Mit anderen Worten: Rolls Royce verdiente, wenn die Fluggesellschaften keinen Umsatz machten.Rolls Royce hat dieses Modell inzwischen gegen ein anderes ausgetauscht, das sich am Geschäftserfolg der Fluggesellschaften orientiert: Fluggesellschaften zahlen nun eine Gebühr pro Stunde basierend auf der Anzahl der Flugstunden für ein Flugzeugtriebwerk. Dieses Vertragsmodell richtet sich also an den Kundenbedürfnissen aus und führt letztendlich zu einer Win-Win-Situation.Solche Vertragsformen könnten sich beispielsweise auch am Zugewinn von Neukunden, der Kundenzufriedenheit oder der Verringerung der Kundenfluktuation ausrichten. Hier wird zwar eine bessere Risikoverteilung erreicht, unterm Strich erhöht sich aber das Risiko des Dienstleisters. Im schlimmsten Fall muss er sogar den gesamten Aufwand allein tragen. Ein solches Modell setzt ein hohes Maß an Vertrauen voraus, das ein Grundpfeiler der agilen Arbeitsweise ist. Weiterhin führt es einen wichtigen Entscheidungsfaktor ein, der häufig bei der Auswahl des Vertragsmodells gar nicht berücksichtigt wird – die Incentivierung.Ein Story-Point-basiertes Vertragsmodell setzt eine reife, agile Projektorganisation voraus. Wie der Name erahnen lässt, stammt dieses Modell aus dem Scrum-Umfeld. Das Lieferergebnis ist nicht von Beginn an detailliert ausdefiniert, sondern zeigt eine gewisse Flexibilität. Die Projektkosten werden, und darin liegt ein Kritikpunkt an diesem Vertragsmodell, in Story-Points angegeben. Dies widerspricht dem eigentlichen Prinzip von Story-Points und suggeriert eine mögliche Umrechnung von Story-Points in Geldeinheiten.Zudem bleibt die Frage nach der Verlässlichkeit einer abstrakten Schätzung auf nicht unbedingt detailliert definierte Lieferergebnisse, wobei es in der Natur der Story-Points liegt, dass diese Ergebnisse vielen Einflussfaktoren unterliegen und hohe Abweichungen damit einhergehen. Es kommt dann zu einer Vermischung einer – eher um Sicherheit bemühten – Wasserfall-basierenden Denkweise mit Begrifflichkeiten aus der agilen Welt.Beim Story-Point-Modell wird der Kostenrahmen als Kapazität angegeben. Nehmen wir zum Beispiel an, das Projektteam eines ERP-Projekts hat eine Kapazität von 1.000 Story-Points für den Rollout eines Templates zur Verfügung. Bei jeder neuen Anforderung ergeben sich nun zwei Optionen: Entweder wird sie neu entwickelt oder das Team verwendet eine bereits implementierte Funktion des Templates. Die erste Option, wird die zur Verfügung stehende Kapazität an Story-Points stärker belasten als die zweite.Damit wird das verfolgte Ziel bezüglich der Incentivierung deutlich. So oft wie möglich sollen schon vorhandene Funktionen verwendet und die Standardisierung gefördert werden, um Story-Points einzusparen und für andere, innovative Entwicklungen zu verwenden.Angelehnt an das Story-Point- und Output-basierte Vertragsmodell ist auch ein Projektions-basiertes Vertragsmodell denkbar. Hierbei wird anhand einer kurzen Erkundungsphase ein voraussichtliches Umsetzungsvolumen – zum Beispiel die Anzahl von umgesetzten Referenzelementen – innerhalb eines definierten Bearbeitungszeitraums oder eines Sprints abgeleitet. Ziel ist es, sowohl den Projektumfang als auch das Umsetzungsvolumen in einer bestimmten Zeiteinheit abschätzen zu können.Dadurch kann der Kostenrahmen als Umsetzungsvolumen angegeben werden und ermöglicht damit einen gewissen Output als Zielwert inklusive eines “Risk Shares”, also der Festlegung, wie bei signifikanten Abweichungen zu verfahren ist. Eine regelmäßige Überprüfung der Parameter im Projektverlauf eröffnet zudem die Chance, Anpassungen vorzunehmen. Die Incentivierung für den Dienstleister besteht darin, Abläufe in der Umsetzung sowie die Produktqualität zu verbessern. So kann er Mehraufwand verhindern. Der Auftraggeber sollte das Ziel verfolgen, sich auf werthaltige Anforderungen zu konzentrieren, damit der höchste Nutzen mit kalkulierbaren Kosten und kurzer Time-to-Market verbunden wird. Ein entscheidender Vorteil dieser Variante ist zudem, dass oft früh erkannt werden kann, ob das Projekt zu einem Erfolg führen wird (Stichwort fail fast).Voraussetzung ist hier ein mindestens zweiphasiges Vertragsmodell, wobei in der ersten Phase die Kosten (Time-and-Material oder Festpreis) für eine kurze Laufzeit zur Projekterkundung festgelegt werden. In dieser Phase ist es das Ziel, die minimal notwendigen Voraussetzungen für die technische Projektdurchführung zu ermitteln (zum Beispiel über einen bis drei Sprints bei Scrum) und elementare Anforderungen im Rahmen einer vollständigen, agilen Arbeitsweise umzusetzen (für einen bis drei Monate etwa).Anhand der Ergebnisse dieser Phase lässt sich ableiten, welches Aufkommen an neuen Anforderungen im Durchschnitt entstehen wird und wie viele davon über einen bestimmten Zeitraum bearbeitet werden können. In den folgenden Vertragsphasen wird ein Kostenrahmen für ein Umsetzungsvolumen vereinbart, wobei die Anforderungen nicht unbedingt weit im Voraus definiert werden müssen. Es reicht aus, dies jeweils vor dem Start der Bearbeitungsphase zu tun – zum Beispiel im Backlog Refinement vor der nächsten Sprint-Planung.Dieses Verfahren kann bei richtiger Anwendung eine gute Projektion hinsichtlich Kosten, Nutzen und Laufzeiten liefern. Ein weiterer Vorteil ist, dass nicht zwingend eine reife Projektorganisation für agile Methoden existieren muss. Durch regelmäßige Auswertungen der Ergebnisse über einen gewissen Zeitraum hinweg kann das Modell individuell an Leistungsänderungen angepasst werden.Die Outcome- und Story-Point-basierten Vertragsmodelle haben gezeigt, dass die Incentivierung im agilen Kontext ein wichtiges Entscheidungskriterium sein kann. Es können ganz im Sinne des agilen Grundgedankens Win-Win-Situationen entstehen. Das Time-and-Material-Modell ist weniger geeignet, da es dem Dienstleiser Anreize liefert, das Projektziel nur langsam zu erreichen, um mehr Ressourcen verkaufen zu können.Das Incentive bei einem Festpreis-Modell liegt für den Dienstleister darin, Ressourcen möglichst zu reduzieren. Das kann grundsätzlich im Sinne des Auftraggebers sein, da das Projektteam klein bleibt und nicht unnötig aufgebläht wird. Allerdings führt dies nicht zwangsweise zu einem besseren Projektprodukt. Beim Output-basierten Vertragsmodell gibt es im Prinzip kein Incentive, das dem agilen Gedanken entspricht. Anders sieht das beim Projektions-basierten Vertragsmodell aus. Die Incentives Optimierung der Lieferabläufe und Produktqualität für den Dienstleister sowie das Erstellen werthaltiger Anforderungen für den Auftraggeber entsprechen den agilen Grundprinzipien. Risk-Adapdability-MatrixDie Risk-Adaptability-Matrix bringt zwei wichtige Entscheidungsfaktoren bei agilen Projekten zusammen, nämlich die des Risikos und der Anpassungsfähigkeit hinsichtlich sich verändernder Anforderungen. Abbildung 1 zeigt die Einordnung der beschriebenen Vertragsmodelle in diese Matrix. Dabei wird bei der Einordnung des Risikos zwischen Auftraggeber (A) und Dienstleister (D) unterschieden.Risk-Adaptability-Matrix im agilen Projektumfeld.
Foto: Brüggenkamp, Preuss, Renk Es zeigt sich eindeutig, dass Festpreis- und Output-basierte Kostenmodelle nicht für agile Projekte geeignet sind. Der Grund ist hauptsächlich die geringe Anpassungsfähigkeit, die beiden Vertragsmodellen zugrunde liegt. Sie hat wenig mit dem agilen Grundgedanken, offen für Veränderungen zu sein, gemeinsam. Beim Festpreis-Modell kommt hinzu, dass das Risiko sowohl für den Dienstleister als auch für den Auftraggeber hoch ist.Time-and-Material-, Outcome-basierte und Projektions-basierte Vertragsmodelle sind hingegen gut geeignet für agile Projekte. Sie zeigen ein vergleichsweise niedriges Risikoprofil und ein hohes Maß an Anpassungsfähigkeit. Dabei überrascht Time -and-Material mit einer im Vergleich höheren Flexibilität, die vor allem den sich ständig ändernden Anforderungen gerecht wird. Einzig die hohe Risikodiskrepanz zwischen Dienstleister und Auftraggeber erweist sich als schwierig.Der Schlüssel, um diese zu verringern, besteht in der richtigen Incentivierung des Projektteams, womit beide Parteien eingeschlossen sind. So wäre es denkbar, ein Incentive zu verwenden, das sich am Unternehmensziel orientiert, wie beispielsweise ein Zugewinn an Neukunden, Steigerungen von Downloadraten und Nutzungszeiten oder eine Verringerung der Kundenfluktuation, womit ein hybrides Vertragswerk aus Time-and -Material und Outcome-basierten Bestandteilen entsteht. Das Projektions-basierte Vertragsmodell zeigt eine hohe Anpassungsfähigkeit bei einem relativ geringen Risikoprofil, welches – und darin besteht ein Vorteil dieses Vertragsmodells – möglichst gleichmäßig auf Auftraggeber und Dienstleister verteilt ist.Ein Story-Point-basiertes Vertragsmodell ist prinzipiell für agile Projekte geeignet – jedoch ist hierfür eine stabile und reife Projektorganisation mit agilen Methoden die Voraussetzung. Als Incentive bei Software-Projekten steht hier eindeutig die unternehmensweite Standardisierung im Vordergrund. Darin liegen aber auch die Schwierigkeit und das erhöhte Risiko begründet. Dieses Incentive ist primär für den Auftraggeber wichtig, weniger für den Lieferanten. Hier gilt es also Vorsicht walten zu lassen. Nicht selten hat sich gezeigt, dass ein Story-Point-basiertes Modell bei wenig umsichtiger Verwendung schnell in eine Art traditionelles Time-and-Material verwandelt wird – zu Gunsten des Lieferanten und zu Ungunsten des Auftraggebers.Erwartungsgemäß gibt es keine klare und einfache Lösung für das komplexe Problem der Budgetierung und Vertragsgestaltung im agilen Kontext. Dabei haben wir am Beispiel einer Mischung aus Time-and- Material und Outcome-basiertem Modell oder dem Beispiel des Projektions-basierten Modells bereits gesehen, dass der Schlüssel in einer individualisierten, an den Projekt- und Unternehmenskontext angepassten Kombination verschiedener Modelle liegt, da dadurch die agilen Anforderungen am besten bedient werden können. Denkbar sind auch andere hybride Modelle. So könnte man einen gewissen Prozentsatz der gesamten Projektkosten als Festpreis abbilden und den verbleibenden Kostenblock an ein Outcome-basiertes Modell koppeln.Wichtig ist es, ein gesundes Maß zwischen der praktischen Anwendbarkeit eines Vertragsmodells und der Komplexität zu finden. Das ist notwendig, um für beide Vertragsparteien ein faires Modell zu entwickeln. Vertrauen, Anpassungsfähigkeit, IncentivierungWir haben in diesem Artikel verschiedene Vertragsmodelle hinsichtlich ihrer Anwendbarkeit für agile Projekte verglichen. Dabei spielen insbesondere drei Aspekte bei der Auswahl des passenden Vertragsmodells eine zentrale Rolle. Zum ersten ist zu häufig ein fehlendes Vertrauen zwischen den Vertragsparteien, aber auch unternehmensintern zwischen Fachbereichen und den IT-Abteilungen erkennbar. Vertrauensvolle Partnerschaften sind jedoch eine Grundvoraussetzung für jede agile Organisation. Time-and-Material, ein Outcome-basiertes oder ein Projektions-basiertes Vertragsmodell sind hier am geeignetsten.Zum zweiten ist die Anpassungsfähigkeit an sich ändernde Umstände essenziell. Dies überrascht wenig im agilen Kontext; allerdings gibt es wenige Vertragsmodelle, die diesem Aspekt wirklich Rechnung tragen und sinnvoll in der Praxis eingesetzt werden können. Festpreis- und Output-basierte Vertragsmodelle scheiden deshalb aus. Zum dritten wird das Thema Incentivierung bei der Auswahl des richtigen Vertragsmodells vor allem vor dem Hintergrund agiler Projekte immer wichtiger. Nur wenn mittels der richtigen Incentivierungen Win-Win-Situationen zwischen Lieferant und Auftraggeber (oder auch zwischen den Fachbereichen und der IT) geschaffen werden, kann eine Transformation hin zu agilen Arbeitsweisen erfolgversprechend vorangetrieben werden.Warum agile Organisationen und Methoden effizienter sind9 Gründe, weshalb agile Unternehmen ihr Business und Krisen besser meistern
Foto: Mikko Lemola – shutterstock.comAgile Methoden haben in vielen Unternehmen zwar schon Einzug gehalten, meist aber nur in Einzelbereichen wie zum Beispiel der IT. Eine Studie der Technologieberatung BearingPoint zeigt jedoch, dass Unternehmen mit einer durchgängig agilen Organisation sowie in der Unternehmenskultur verankertem agilen Mindset den Alltag und Krisen schneller und besser meistern. Gute Gründe für mehr Agilität. Vereinfachte Prozesse
Foto: Tashatuvango – shutterstock.comAgile Organisationen zeichnen sich durch hohe End-to-End-Prozessverantwortung, schlanke Prozesse, hohe Prozessautomatisierung und -standardisierung aus. Je leichtgewichtiger und standardisierter Prozesse sind, umso kosteneffizienter können Organisationen agieren.Vereinfachte Steuerungslogik
Foto: keport – shutterstock.comOrganisationen, die in Abhängigkeit von Prioritätsänderungen flexibler steuern können, sind in Krisenzeiten besser in der Lage, schnell auf geänderte Parameter zu reagieren. Vereinfachte Organisationsstruktur
Foto: patpitchaya – shutterstock.comAgile Organisationen zeichnen sich dadurch aus, dass anhand der Wertschöpfungskette durchgängig verantwortliche, autonome und cross-funktionale Teams aufgebaut und Abteilungsgrenzen aufgelöst werden. In Krisenzeiten profitieren agile Organisationen durch bessere Zusammenarbeit über Teams, Abteilungen oder Business Units hinweg. Höherer Innovationsgrad
Foto: Olivier Le Moal – shutterstock.comInterdisziplinäre Teams wirken als Brutkasten für innovative Ideen und Ansätze. Außerdem verfügen agile Organisationen öfter über offene Ökosysteme und profitieren in Krisenzeiten von diesem Netzwerk.Schnelle Reaktionsfähigkeit
Foto: TippaPatt – shutterstock.comEs gilt, die Krise als Chance zu sehen und Änderungen willkommen zu heißen. Strukturen und Prozesse wie agiles Portfolio Management oder Objektive and Key Results helfen kontinuierlich neu zu bewerten. Agile Organisationen arbeiten iterativ mit vielen Feedback-Schleifen und das ständige Hinterfragen und Reagieren auf Änderung ist Teil ihrer DNA.Kundennähe und Kundenzentriertheit
Foto: Tashatuvango – shutterstock.comGerade in Krisenzeiten muss den Kundenbedürfnissen entsprechend noch zielgerichteter agiert werden. Schnelles Feedback ist hier extrem wertvoll. Als Organisation muss bewusst auch mit Teilprodukten auf den Markt zu gegangen werden, um etwaige Kundenwünsche oder Adaptionen früh genug berücksichtigen zu können. Hohe Selbstorganisation und Teamwork
Foto: Sergey Nivens – shutterstock.comTeams, die es gewohnt sind, auch selbst Entscheidungen zu treffen, sind in Krisenzeiten flexibler und besser vorbereitet. Organisationen, deren Management sehr stark auf Selbstorganisation setzt und Entscheidungsbefugnisse weitgehend an die agilen Teams delegiert haben, sind schneller, was auch in Krisenzeiten ein immenser Vorteil ist.Neuer Leadership-Stil
Foto: thodonal88 – shutterstock.comFührungskräfte sind in Krisenzeiten besonders gefordert und profitieren von Skills, die für agile Organisationen typisch sind. Eine starke und offene Kommunikation kann Sorgen und Unsicherheiten ausräumen und psychologische Sicherheit vermitteln. Führungskräfte, denen es gelingt, eine nachhaltige Fehlerkultur zu etablieren, fördern nicht nur das kontinuierliche Lernen, sondern sorgen auch dafür, dass Mitarbeiter bereit sind, Entscheidungen und Risiken zu treffen. Technologie-Führerschaft
Foto: Preechar Bowonkitwanchai – shutterstock.comAgile Organisationen zeichnen sich durch eine Technologieführerschaft und den Einsatz moderner State-of-the-Art-Technologien aus. Organisationen, die bereits vor der Krise begonnen haben, ihre Kernsysteme auf eine Micro-Service-Architektur mit losen gekoppelten Services umzubauen und den Einsatz von Continuous-Integration-Systemen forciert haben, sind in der Lage, schneller und unabhängiger zu produzieren und kontinuierlich Releases zu veröffentlichen.

Fremdvergabe: Diese Vertragsmodelle eignen sich für agile Projekte​ Read More »

In sieben Schritten zum holakratischen Unternehmen: Nix für Feiglinge​

In sieben Schritten zum holakratischen Unternehmen: Nix für Feiglinge​

Allgemein

Ein holakratisches Organisationsmodell liegt voll im Trend der Zeit, in dem Mitarbeiter mehr mitmachen, aber auch mehr Verantwortung übernehmen sollen. Foto: Studio Romantic – shutterstock.comAls System der Selbstorganisation und Alternative zur Top-Down-Hierarchie ermöglicht es Holacracy jedem im Unternehmen, die Initiative zu ergreifen, Ideen einzubringen und Verantwortung zu übernehmen. So bleiben Prozesse schlank und schnell, da niemand mehr auf die Zustimmung eines Vorgesetzten warten muss, sondern im Rahmen seiner Verantwortlichkeiten selbst entscheiden kann. Der Grundsatz dabei lautet: Solange es dem Unternehmen nicht schadet, probieren wir es aus.Die Einführung von Holacracy bedeutet daher einen weitreichenden Wandel für ein Unternehmen und seine Mitarbeiterinnen und Mitarbeiter, der neben strukturellen auch kulturelle Veränderungen mit sich bringt. Damit dieser Transformationsprozess gelingt, sind die folgenden sieben Punkte zu beachten. 1. Die Frage nach dem WarumGrundlage für die holakratische Organisation ist die Ausrichtung am “Purpose”, dem Sinn und Zweck des Unternehmens. Am Anfang gilt es daher, die Frage nach dem Warum zu beantworten, die über jeder Handlung steht: Warum tun wir das, was wir tun, warum strengen wir uns an und gehen Risiken ein? Unter dem Dach des Purpose können sich die unterschiedlichsten Menschen mit ihren Talenten, Beweggründen und Erfahrungen vereinen, um auf ein gemeinsames Ziel hinzuarbeiten.Während es in hierarchisch organisierten Unternehmen feste Abteilungen gibt, in denen vom Management vorgegebene Ziele kaskadiert werden, gibt es bei Holacracy Kreise und Rollen, die alle einen eigenen Beitrag zur Erreichung des Purpose leisten. Das übergeordnete Ziel wird auch hier heruntergebrochen, der Weg dorthin kann aber dank der Holacracy-Struktur jederzeit und von jedem hinterfragt und verändert werden. So entstehen bei Bedarf neue Rollen oder Kreise und das Unternehmen verwaltet sich selbst. Das gesamte Unternehmen richtet sich dadurch konsequent am Unternehmenszweck und den benötigten Ressourcen aus – Führungspositionen, Titel oder Hierarchien spielen keine Rolle mehr.2. Ressourcen bereitstellenWer über die Einführung von Holacracy nachdenkt, sollte sich vorab klar machen, dass je nachdem, wie hierarchisch das Unternehmen aufgebaut ist, ein längerer Veränderungsprozess nötig ist, für den Ressourcen bereitgestellt werden müssen. Der Aufwand, der insbesondere auch für den kulturellen Wandel anfällt, ist nicht zu unterschätzen.3. Sich von Althergebrachtem lösenHolacracy fordert Manager und Mitarbeitende gleichermaßen, sich von althergebrachten Strukturen und Gedankenmustern zu lösen. Gerade (ehemalige) Chefs und Führungskräfte müssen loslassen können und den Veränderungsprozess aktiv vorantreiben. Das ist oft eine Herausforderung, birgt aber auch Chancen. Mit Holacracy profitiert das Unternehmen von den Kompetenzen und Erfahrungen aller und wird unabhängiger von Einzelpersonen. 4. Mitarbeiter begleiten(Ehemalige) Führungskräfte stehen mit der Holacracy-Einführung nicht nur vor der Aufgabe, Entscheidungsgewalt abzugeben, oft müssen sie auch die Mitarbeiterinnen und Mitarbeiter ermutigen, eigeninitiativ zu handeln. Sich selbst zu organisieren und eigenverantwortlich zu handeln, ist nicht für alle Beschäftigten leicht und kann manche überfordern. Menschen, die sich gerne sagen lassen, was zu tun ist, haben naturgemäß mehr Schwierigkeiten mit Holacracy als jemand, der gerne Verantwortung trägt und Neues wagt. Für eine erfolgreiche Transformation hin zu Holacracy und einer neuen Unternehmenskultur ist es daher wichtig, die Mitarbeitenden nicht nur in der Anfangsphase, sondern dauerhaft zu begleiten.Als wir Mitte 2020 Holacracy bei Enreach in Deutschland eingeführt haben, konnten wir von den Erfahrungen unserer Kolleginnen und Kollegen in den Niederlanden profitieren, die schon seit einigen Jahren in dieser Organisationsform arbeiten. Dadurch war es für unsere Mitarbeiterinnen und Mitarbeiter sehr nachvollziehbar, wie Holacracy funktioniert und welche Vorteile es bietet – eine wichtige Voraussetzung für eine erfolgreiche Transformation. Wir setzen zudem auf speziell ausgebildete Holacracy-Coaches, die als Multiplikatoren wirken und allen Mitarbeitenden dabei helfen, Prozesse und Strukturen umzustellen.5. Regeln beachtenHolacracy gibt dem Einzelnen viel Freiheit und Flexibilität, aber auch einen klaren Rahmen. Die Holacracy-Verfassung bietet einen Satz von Regeln und Prozessen, zum Beispiel für die Ausgestaltung der Rollen, den Informationsfluss zwischen Kreisen oder den Ablauf von Meetings, die als Basis für die praktische Umsetzung funktionieren.Die Verfassung selbst ist nicht dazu gedacht, angepasst zu werden, und dient dem Unternehmen als Referenzpunkt bei Unklarheiten. Darüber hinaus bietet der vorgegebene Rahmen ein hohes Maß an Flexibilität. Rollenwechsel und interdisziplinärer Austausch sind unglaublich einfach.6. Sich kontinuierlich weiterentwickelnMit Holacracy entsteht ein sich selbst verwaltendes, lernendes Unternehmen, das heißt, der (Weiter-)Entwicklungsprozess ist nie abgeschlossen. Jede und jeder im Unternehmen muss sich kontinuierlich weiterentwickeln und eingeschlagene Wege immer wieder in Frage stellen. Die bereits erwähnten Holacracy-Coaches kommen daher nicht nur in der Anfangsphase zum Einsatz, sondern helfen dauerhaft dabei, nicht in alte Verhaltensmuster zurückzufallen und das Unternehmen anhand der Holacracy-Vorgaben optimal aufzustellen.Wir bieten unseren Mitarbeiterinnen und Mitarbeitern daher umfassende Schulungen an, die schon während des Onboardings beginnen und unsere Mitarbeiterschaft kontinuierlich begleiten. Dazu gehören grundlegende Holacracy-Trainings genauso wie Mentalitäts-Workshops und vieles mehr.7. Unterstützende Tools nutzenEine Reihe von digitalen Tools unterstützen die praktische Umsetzung von Holacracy im Unternehmen. Dazu gehören Plattformen und Software-Lösungen zur Visualisierung der Organisation mit Kreisen, Rollen und Verantwortlichkeiten. Unternehmen sind gut beraten, solche Tools zu nutzen: Sie vereinfachen und vereinheitlichen die Dokumentation von Meetings und vielem mehr. Außerdem lassen sich so sich dynamisch verändernde Organisationen exakt und jederzeit für jeden transparent abbilden.Abschließend lässt sich festhalten, dass Holacracy als Organisationsform geradezu prädestiniert für die postpandemischen Arbeitswelt ist. Die flexiblen Strukturen innerhalb des klaren Regelwerks und das hohe Maß an Eigenverantwortung tragen dazu bei, dass Unternehmen in Zeiten von Veränderungen agil und resilient bleiben. In den vergangenen Pandemie-Jahren mussten sich viele Mitarbeiter zwangsläufig im Home-Office selbst organisieren, Führungskräfte mussten darauf vertrauen, dass ihre Mitarbeiter ihre Aufgaben erledigten – und in den meisten Fällen hat das sehr gut funktioniert. Damit ist die Basis gelegt für neue Formen der Organisation und Zusammenarbeit.Als Fazit lässt sich festhalten:– Holacracy ersetzt die traditionelle Entscheidungsfindung an der Unternehmensspitze und verteilt Verantwortung auf Mitarbeiterinnen und Mitarbeiter, die dynamische Rollen statt fester Positionen ausfüllen.– Das holakratische Modell der Selbstorganisation fördert eigenverantwortliches Arbeiten, schnelle Entscheidungen und Innovationskultur.– Je nachdem, wie hierarchisch ein Unternehmen organisiert ist, erfordert die Einführung einen längeren Veränderungsprozess, auf den sich Verantwortliche und Mitarbeitende einlassen müssen. 

In sieben Schritten zum holakratischen Unternehmen: Nix für Feiglinge​ Ein holakratisches Organisationsmodell liegt voll im Trend der Zeit, in dem Mitarbeiter mehr mitmachen, aber auch mehr Verantwortung übernehmen sollen.
Foto: Studio Romantic – shutterstock.comAls System der Selbstorganisation und Alternative zur Top-Down-Hierarchie ermöglicht es Holacracy jedem im Unternehmen, die Initiative zu ergreifen, Ideen einzubringen und Verantwortung zu übernehmen. So bleiben Prozesse schlank und schnell, da niemand mehr auf die Zustimmung eines Vorgesetzten warten muss, sondern im Rahmen seiner Verantwortlichkeiten selbst entscheiden kann. Der Grundsatz dabei lautet: Solange es dem Unternehmen nicht schadet, probieren wir es aus.Die Einführung von Holacracy bedeutet daher einen weitreichenden Wandel für ein Unternehmen und seine Mitarbeiterinnen und Mitarbeiter, der neben strukturellen auch kulturelle Veränderungen mit sich bringt. Damit dieser Transformationsprozess gelingt, sind die folgenden sieben Punkte zu beachten. 1. Die Frage nach dem WarumGrundlage für die holakratische Organisation ist die Ausrichtung am “Purpose”, dem Sinn und Zweck des Unternehmens. Am Anfang gilt es daher, die Frage nach dem Warum zu beantworten, die über jeder Handlung steht: Warum tun wir das, was wir tun, warum strengen wir uns an und gehen Risiken ein? Unter dem Dach des Purpose können sich die unterschiedlichsten Menschen mit ihren Talenten, Beweggründen und Erfahrungen vereinen, um auf ein gemeinsames Ziel hinzuarbeiten.Während es in hierarchisch organisierten Unternehmen feste Abteilungen gibt, in denen vom Management vorgegebene Ziele kaskadiert werden, gibt es bei Holacracy Kreise und Rollen, die alle einen eigenen Beitrag zur Erreichung des Purpose leisten. Das übergeordnete Ziel wird auch hier heruntergebrochen, der Weg dorthin kann aber dank der Holacracy-Struktur jederzeit und von jedem hinterfragt und verändert werden. So entstehen bei Bedarf neue Rollen oder Kreise und das Unternehmen verwaltet sich selbst. Das gesamte Unternehmen richtet sich dadurch konsequent am Unternehmenszweck und den benötigten Ressourcen aus – Führungspositionen, Titel oder Hierarchien spielen keine Rolle mehr.2. Ressourcen bereitstellenWer über die Einführung von Holacracy nachdenkt, sollte sich vorab klar machen, dass je nachdem, wie hierarchisch das Unternehmen aufgebaut ist, ein längerer Veränderungsprozess nötig ist, für den Ressourcen bereitgestellt werden müssen. Der Aufwand, der insbesondere auch für den kulturellen Wandel anfällt, ist nicht zu unterschätzen.3. Sich von Althergebrachtem lösenHolacracy fordert Manager und Mitarbeitende gleichermaßen, sich von althergebrachten Strukturen und Gedankenmustern zu lösen. Gerade (ehemalige) Chefs und Führungskräfte müssen loslassen können und den Veränderungsprozess aktiv vorantreiben. Das ist oft eine Herausforderung, birgt aber auch Chancen. Mit Holacracy profitiert das Unternehmen von den Kompetenzen und Erfahrungen aller und wird unabhängiger von Einzelpersonen. 4. Mitarbeiter begleiten(Ehemalige) Führungskräfte stehen mit der Holacracy-Einführung nicht nur vor der Aufgabe, Entscheidungsgewalt abzugeben, oft müssen sie auch die Mitarbeiterinnen und Mitarbeiter ermutigen, eigeninitiativ zu handeln. Sich selbst zu organisieren und eigenverantwortlich zu handeln, ist nicht für alle Beschäftigten leicht und kann manche überfordern. Menschen, die sich gerne sagen lassen, was zu tun ist, haben naturgemäß mehr Schwierigkeiten mit Holacracy als jemand, der gerne Verantwortung trägt und Neues wagt. Für eine erfolgreiche Transformation hin zu Holacracy und einer neuen Unternehmenskultur ist es daher wichtig, die Mitarbeitenden nicht nur in der Anfangsphase, sondern dauerhaft zu begleiten.Als wir Mitte 2020 Holacracy bei Enreach in Deutschland eingeführt haben, konnten wir von den Erfahrungen unserer Kolleginnen und Kollegen in den Niederlanden profitieren, die schon seit einigen Jahren in dieser Organisationsform arbeiten. Dadurch war es für unsere Mitarbeiterinnen und Mitarbeiter sehr nachvollziehbar, wie Holacracy funktioniert und welche Vorteile es bietet – eine wichtige Voraussetzung für eine erfolgreiche Transformation. Wir setzen zudem auf speziell ausgebildete Holacracy-Coaches, die als Multiplikatoren wirken und allen Mitarbeitenden dabei helfen, Prozesse und Strukturen umzustellen.5. Regeln beachtenHolacracy gibt dem Einzelnen viel Freiheit und Flexibilität, aber auch einen klaren Rahmen. Die Holacracy-Verfassung bietet einen Satz von Regeln und Prozessen, zum Beispiel für die Ausgestaltung der Rollen, den Informationsfluss zwischen Kreisen oder den Ablauf von Meetings, die als Basis für die praktische Umsetzung funktionieren.Die Verfassung selbst ist nicht dazu gedacht, angepasst zu werden, und dient dem Unternehmen als Referenzpunkt bei Unklarheiten. Darüber hinaus bietet der vorgegebene Rahmen ein hohes Maß an Flexibilität. Rollenwechsel und interdisziplinärer Austausch sind unglaublich einfach.6. Sich kontinuierlich weiterentwickelnMit Holacracy entsteht ein sich selbst verwaltendes, lernendes Unternehmen, das heißt, der (Weiter-)Entwicklungsprozess ist nie abgeschlossen. Jede und jeder im Unternehmen muss sich kontinuierlich weiterentwickeln und eingeschlagene Wege immer wieder in Frage stellen. Die bereits erwähnten Holacracy-Coaches kommen daher nicht nur in der Anfangsphase zum Einsatz, sondern helfen dauerhaft dabei, nicht in alte Verhaltensmuster zurückzufallen und das Unternehmen anhand der Holacracy-Vorgaben optimal aufzustellen.Wir bieten unseren Mitarbeiterinnen und Mitarbeitern daher umfassende Schulungen an, die schon während des Onboardings beginnen und unsere Mitarbeiterschaft kontinuierlich begleiten. Dazu gehören grundlegende Holacracy-Trainings genauso wie Mentalitäts-Workshops und vieles mehr.7. Unterstützende Tools nutzenEine Reihe von digitalen Tools unterstützen die praktische Umsetzung von Holacracy im Unternehmen. Dazu gehören Plattformen und Software-Lösungen zur Visualisierung der Organisation mit Kreisen, Rollen und Verantwortlichkeiten. Unternehmen sind gut beraten, solche Tools zu nutzen: Sie vereinfachen und vereinheitlichen die Dokumentation von Meetings und vielem mehr. Außerdem lassen sich so sich dynamisch verändernde Organisationen exakt und jederzeit für jeden transparent abbilden.Abschließend lässt sich festhalten, dass Holacracy als Organisationsform geradezu prädestiniert für die postpandemischen Arbeitswelt ist. Die flexiblen Strukturen innerhalb des klaren Regelwerks und das hohe Maß an Eigenverantwortung tragen dazu bei, dass Unternehmen in Zeiten von Veränderungen agil und resilient bleiben. In den vergangenen Pandemie-Jahren mussten sich viele Mitarbeiter zwangsläufig im Home-Office selbst organisieren, Führungskräfte mussten darauf vertrauen, dass ihre Mitarbeiter ihre Aufgaben erledigten – und in den meisten Fällen hat das sehr gut funktioniert. Damit ist die Basis gelegt für neue Formen der Organisation und Zusammenarbeit.Als Fazit lässt sich festhalten:– Holacracy ersetzt die traditionelle Entscheidungsfindung an der Unternehmensspitze und verteilt Verantwortung auf Mitarbeiterinnen und Mitarbeiter, die dynamische Rollen statt fester Positionen ausfüllen.– Das holakratische Modell der Selbstorganisation fördert eigenverantwortliches Arbeiten, schnelle Entscheidungen und Innovationskultur.– Je nachdem, wie hierarchisch ein Unternehmen organisiert ist, erfordert die Einführung einen längeren Veränderungsprozess, auf den sich Verantwortliche und Mitarbeitende einlassen müssen.

In sieben Schritten zum holakratischen Unternehmen: Nix für Feiglinge​ Read More »

Papierlos und schlau: KI macht’s möglich​

Papierlos und schlau: KI macht’s möglich​

Allgemein

Ob Berichte, Verträge, Lieferantenvereinbarungen oder Protokolle: Dokumente zu sichten und auszuwerten ist zeitaufwendig und beeinträchtigt die Arbeitseffizienz. Hier setzt Künstliche Intelligenz (KI) an: Sie vereinfacht nicht nur den Umgang mit Dokumenten, sondern hilft Unternehmen zunehmend, deren Inhalte schneller zu verstehen und automatisiert zu verarbeiten. KI-Effizienz für papierlose Prozesse Generative KI und natürliche Sprachverarbeitungstechniken analysieren Dokumente und extrahieren relevante Informationen. Dies geschieht schneller und präziser als bei manueller Bearbeitung und ermöglicht so einen effizienteren Umgang mit großen Datenmengen. Adobe hat einen smarten KI-Assistenten für Unternehmen entwickelt, der die Arbeit mit Dokumenten optimiert. So bleibt mehr Zeit für wertschöpfende Tätigkeiten. Acrobat KI-Assistent von Adobe verändert die tägliche Arbeit mit Dokumenten durch automatisierte Zusammenfassungen. Adobe Als führende Komplettlösung für produktive Dokumentenprozesse erleichtert Adobe Acrobat seit langem den Umgang mit Dokumenten aller Art. Mit dem bewährten PDF-Format setzt die Plattform den Standard für Dokumentenaustausch, Teamarbeit und Archivierung. Adobe fokussiert sich zunehmend auf generative KI in den eigenen Produkten. Mit der jetzt in Acrobat und Reader auf Deutsch verfügbaren Funktion KI-Assistent stellt Adobe neue Maßstäbe im Dokumentenmanagement mit KI auf. Das Tool erzeugt automatisch Zusammenfassungen, erstellt Inhaltsanalysen und bietet die Möglichkeit, Fragen direkt an Dokumente zu stellen. Antworten des KI-Assistenten und die Ergebnisse lassen sich durch Quellenverweise schnell im Dokument finden und überprüfen. Dabei führt Adobe die Daten auf das Quelldokument zurück, nicht auf das Web. Automatisierung schlägt manuelle Arbeit Das neue KI-Tool in Adobe Acrobat Pro und Adobe Reader hilft Mitarbeitenden, umfangreiche Dokumente effizienter zu bearbeiten. KI-Assistent verarbeitet neben PDFs auch andere im Tagesgeschäft vorkommende Dokumentenformate wie Word, PowerPoint oder Textdateien. Kernfunktionen sind das Erstellen von Zusammenfassungen und das Vergleichen mehrerer Dokumente. Außerdem extrahiert KI-Assistent auf Knopfdruck relevante Informationen für E-Mails, Berichte oder Präsentationen. Bis zu zehn Dateien mit jeweils maximal 600 Seiten können gleichzeitig durchsucht und ausgewertet werden. Durch die automatisierte Verarbeitung großer Datenmengen sparen Unternehmen mit KI-Assistent nicht nur Zeit bei der Entscheidungsfindung, sondern auch Ressourcen. Darüber hinaus minimiert KI-Assistent das Risiko menschlicher Fehler. Besonders praktisch ist die übersichtliche Darstellung langer Dokumente: Die Zusammenfassung von Überschriften und Hauptinhalten lenkt den Blick auf das Wesentliche. Die Auszüge erleichtern das Auffinden relevanter Informationen und das schnelle Navigieren dorthin. Langwieriges Blättern in verschiedenen Dokumenten gehört damit der Vergangenheit an. Gut: Der Assistent verweist bei Zusammenfassungen darauf, woher die Informationen stammen. Dazu generiert er anklickbare Links zu den entsprechenden Stellen im Dokument. Dadurch lassen sich die Quellen einfach überprüfen. Im Chat mehr aus Dokumenten herausholen Unternehmen haben im Wesentlichen zwei Bedürfnisse, wenn sie mit Dokumenten arbeiten: Sicheres papierloses Arbeiten und Prozessoptimierung. Ein Vorteil des KI-Tools von Adobe ist dabei die einfache Bedienung: Nutzer*innen können im Chat inhaltliche Fragen zu Dokumenten stellen und erhalten sofort eine Antwort. Dadurch kommen die Kreativität und Ideenfindung in Fahrt. Auf mobilen Geräten können die Prompts sogar bequem per Sprache eingegeben werden. Wenn der zündende Funke fehlt, unterstützt der KI-Assistent mit passenden Vorschlägen. Adobe „Mit dem neuen KI-Assistenten und der einfachen Eingabe von Prompts in PDF revolutioniert Adobe das Dokumentenmanagement. Er versteht, analysiert und verarbeitet Inhalte in Sekundenschnelle und spart Acrobat-Anwender*innen wertvolle Zeit für wichtigere Aufgaben“, resümiert Murat Erimel, Group Manager im Produktmarketing bei Adobe, den Mehrwert des neuen Tools. Sicherheit für digitale Workflows Sicherheit, Transparenz und Compliance sind wichtige Aspekte bei digitalen Dokumenten. Für Adobe spielt der Datenschutz bei der Entwicklung von KI-Assistent eine wichtige Rolle. Der Schutz der Nutzerdaten hat für Adobe oberste Priorität − die Daten gehören nur dem Anwender. Deshalb hat Adobe KI-Assistent direkt in Acrobat integriert. Außerdem werden keine Kundendaten für das Training der KI-Modelle verwendet. Nutzer*innen können generative KI-Funktionen manuell aktivieren oder deaktivieren und ihren privaten Chat-Verlauf löschen. KI-Assistent einsetzen Acrobat KI-Assistent ist ab sofort auch in deutscher Sprache als Abonnement für Desktop, Web und mobile Geräte verfügbar. Er wird als Zusatzabonnement für 5,99 Euro pro Monat angeboten. Adobe KI-Assistent jetzt kostenlos ausprobieren 

Papierlos und schlau: KI macht’s möglich​ Ob Berichte, Verträge, Lieferantenvereinbarungen oder Protokolle: Dokumente zu sichten und auszuwerten ist zeitaufwendig und beeinträchtigt die Arbeitseffizienz. Hier setzt Künstliche Intelligenz (KI) an: Sie vereinfacht nicht nur den Umgang mit Dokumenten, sondern hilft Unternehmen zunehmend, deren Inhalte schneller zu verstehen und automatisiert zu verarbeiten.

KI-Effizienz für papierlose Prozesse

Generative KI und natürliche Sprachverarbeitungstechniken analysieren Dokumente und extrahieren relevante Informationen. Dies geschieht schneller und präziser als bei manueller Bearbeitung und ermöglicht so einen effizienteren Umgang mit großen Datenmengen. Adobe hat einen smarten KI-Assistenten für Unternehmen entwickelt, der die Arbeit mit Dokumenten optimiert. So bleibt mehr Zeit für wertschöpfende Tätigkeiten.

Acrobat KI-Assistent von Adobe verändert die tägliche Arbeit mit Dokumenten durch automatisierte Zusammenfassungen.
Adobe

Als führende Komplettlösung für produktive Dokumentenprozesse erleichtert Adobe Acrobat seit langem den Umgang mit Dokumenten aller Art. Mit dem bewährten PDF-Format setzt die Plattform den Standard für Dokumentenaustausch, Teamarbeit und Archivierung. Adobe fokussiert sich zunehmend auf generative KI in den eigenen Produkten. Mit der jetzt in Acrobat und Reader auf Deutsch verfügbaren Funktion KI-Assistent stellt Adobe neue Maßstäbe im Dokumentenmanagement mit KI auf. Das Tool erzeugt automatisch Zusammenfassungen, erstellt Inhaltsanalysen und bietet die Möglichkeit, Fragen direkt an Dokumente zu stellen. Antworten des KI-Assistenten und die Ergebnisse lassen sich durch Quellenverweise schnell im Dokument finden und überprüfen. Dabei führt Adobe die Daten auf das Quelldokument zurück, nicht auf das Web.

Automatisierung schlägt manuelle Arbeit

Das neue KI-Tool in Adobe Acrobat Pro und Adobe Reader hilft Mitarbeitenden, umfangreiche Dokumente effizienter zu bearbeiten. KI-Assistent verarbeitet neben PDFs auch andere im Tagesgeschäft vorkommende Dokumentenformate wie Word, PowerPoint oder Textdateien. Kernfunktionen sind das Erstellen von Zusammenfassungen und das Vergleichen mehrerer Dokumente. Außerdem extrahiert KI-Assistent auf Knopfdruck relevante Informationen für E-Mails, Berichte oder Präsentationen. Bis zu zehn Dateien mit jeweils maximal 600 Seiten können gleichzeitig durchsucht und ausgewertet werden.

Durch die automatisierte Verarbeitung großer Datenmengen sparen Unternehmen mit KI-Assistent nicht nur Zeit bei der Entscheidungsfindung, sondern auch Ressourcen. Darüber hinaus minimiert KI-Assistent das Risiko menschlicher Fehler. Besonders praktisch ist die übersichtliche Darstellung langer Dokumente: Die Zusammenfassung von Überschriften und Hauptinhalten lenkt den Blick auf das Wesentliche. Die Auszüge erleichtern das Auffinden relevanter Informationen und das schnelle Navigieren dorthin. Langwieriges Blättern in verschiedenen Dokumenten gehört damit der Vergangenheit an.

Gut: Der Assistent verweist bei Zusammenfassungen darauf, woher die Informationen stammen. Dazu generiert er anklickbare Links zu den entsprechenden Stellen im Dokument. Dadurch lassen sich die Quellen einfach überprüfen.

Im Chat mehr aus Dokumenten herausholen

Unternehmen haben im Wesentlichen zwei Bedürfnisse, wenn sie mit Dokumenten arbeiten: Sicheres papierloses Arbeiten und Prozessoptimierung. Ein Vorteil des KI-Tools von Adobe ist dabei die einfache Bedienung: Nutzer*innen können im Chat inhaltliche Fragen zu Dokumenten stellen und erhalten sofort eine Antwort. Dadurch kommen die Kreativität und Ideenfindung in Fahrt. Auf mobilen Geräten können die Prompts sogar bequem per Sprache eingegeben werden.

Wenn der zündende Funke fehlt, unterstützt der KI-Assistent mit passenden Vorschlägen.
Adobe

„Mit dem neuen KI-Assistenten und der einfachen Eingabe von Prompts in PDF revolutioniert Adobe das Dokumentenmanagement. Er versteht, analysiert und verarbeitet Inhalte in Sekundenschnelle und spart Acrobat-Anwender*innen wertvolle Zeit für wichtigere Aufgaben“, resümiert Murat Erimel, Group Manager im Produktmarketing bei Adobe, den Mehrwert des neuen Tools.

Sicherheit für digitale Workflows

Sicherheit, Transparenz und Compliance sind wichtige Aspekte bei digitalen Dokumenten. Für Adobe spielt der Datenschutz bei der Entwicklung von KI-Assistent eine wichtige Rolle. Der Schutz der Nutzerdaten hat für Adobe oberste Priorität − die Daten gehören nur dem Anwender. Deshalb hat Adobe KI-Assistent direkt in Acrobat integriert. Außerdem werden keine Kundendaten für das Training der KI-Modelle verwendet. Nutzer*innen können generative KI-Funktionen manuell aktivieren oder deaktivieren und ihren privaten Chat-Verlauf löschen.

KI-Assistent einsetzen

Acrobat KI-Assistent ist ab sofort auch in deutscher Sprache als Abonnement für Desktop, Web und mobile Geräte verfügbar. Er wird als Zusatzabonnement für 5,99 Euro pro Monat angeboten.

Adobe KI-Assistent jetzt kostenlos ausprobieren

Papierlos und schlau: KI macht’s möglich​ Read More »

Firefox: KI-Chatbot aktivieren​

Firefox: KI-Chatbot aktivieren​

Allgemein

Browser-Einstellungen öffnen Thomas Rieske Lösung: Um einen KI-Chatbot in Firefox zu nutzen, rufen Sie als Erstes die Browser-Konfiguration auf. Dazu klicken Sie oben rechts auf die drei waagerechten Striche und wählen im Menü den Punkt Einstellungen. Firefox Labs aufrufen Thomas Rieske Auf der linken Seite wechseln Sie dann zum neuen Bereich Firefox Labs. Dort sind die Features, die sich noch in der Entwicklung befinden, zusammengefasst. Chatbot-Funktion aktivieren Thomas Rieske Setzen Sie nun ein Häkchen in die Checkbox KI-Chatbot. Erst im Anschluss sind die übrigen Optionen verfügbar. Chatbot auswählen Thomas Rieske Danach öffnen Sie das Dropdown-Menü unterhalb des Abschnitts Wählen Sie einen Chatbot. Aktuell finden Sie darin fünf Einträge, von denen die bekanntesten ChatGPT und Google Gemini sein dürften. Anthropic Claude ist eine KI-Lösung, die nach Herstellerangaben allgemein anerkannte ethische Standards einhält und auf Sicherheit in der KI besonderen Wert legt. Die beiden anderen Alternativen HuggingChat und Le Chat Mistral hingegen bieten sich als Open-Source-Alternativen zu ChatGPT an. Chatbot nutzen Thomas Rieske Wenn Sie Ihre Auswahl getroffen haben, in unserem Beispiel ChatGPT, öffnet sich links die Firefox-Seitenleiste. Diese Sidebar lässt sich unter anderem auch mit dem Shortcut Strg + B (für die Anzeige der Lesezeichen) oder mit Strg + H (für die Anzeige der Chronik) einblenden. Ohne Anmeldung beim Dienst meldet sich ChatGPT 40 mini, was zum Ausprobieren aber meistens ausreicht. Um einen neuen Chat zu starten, klicken Sie in der Seitenleiste oben links auf das Stift-Icon. Prompt eingeben Thomas Rieske Anschließend formulieren Sie in der unteren Zeile Ihre Frage oder Anweisung. Um sie abzuschicken, klicken Sie auf den Pfeil-Button rechts daneben. Antwort der KI Thomas Rieske Die Reaktion des Chatbots, erkennbar am jeweiligen Logo, erscheint wie üblich direkt nach Ihrem Prompt. Je nach Umfang müssen Sie aber nach unten scrollen, um den gesamten Text zu sehen. Die Sidebar lässt sich übrigens weiter nach rechts aufziehen, allerdings nicht auf die gesamte Fensterbreite. Schneller Zugriff beim Surfen Thomas Rieske Um möglichst bequem auf die KI zuzugreifen, können Sie auf einer Webseite Text, zu dem Sie Näheres wissen wollen, markieren. Unterhalb Ihrer Auswahl wird dann ein Button mit einem Stern eingeblendet. Wenn Sie den Mauszeiger darüberbewegen, öffnet sich ein kleines Menü. Daraus wählen Sie dann eine der angebotenen Optionen aus, beispielsweise Zusammenfassen. Automatisch formulierte Anweisung Thomas Rieske Firefox sendet daraufhin den selektierten Text, den Seitentitel und den entsprechend der gewählten Option formulierten Prompt an den Chatbot. Ergänzt wird hierbei unter anderem die Anweisung, eine präzise und prägnante Sprache zu verwenden und die Antwort übersichtlich aufzubereiten. Prompt erledigt Thomas Rieske Die von Firefox übermittelten Befehle reichen in der Regel aus, damit der KI-Chatbot die gewünschte Aktion fehlerfrei durchführt. Die Paradedisziplin besteht sicherlich darin, einen vorgegebenen Text zu paraphrasieren. Das funktioniert im Allgemeinen auch mit fremdsprachlichen Quellen mittlerweile ohne Probleme. Produkte: Der Trick funktioniert mit Firefox ab Version 130 für Windows. In anderen Umgebungen kann die Vorgehensweise abweichen. 

Firefox: KI-Chatbot aktivieren​ Browser-Einstellungen öffnen

Thomas Rieske

Lösung: Um einen KI-Chatbot in Firefox zu nutzen, rufen Sie als Erstes die Browser-Konfiguration auf. Dazu klicken Sie oben rechts auf die drei waagerechten Striche und wählen im Menü den Punkt Einstellungen.

Firefox Labs aufrufen

Thomas Rieske

Auf der linken Seite wechseln Sie dann zum neuen Bereich Firefox Labs. Dort sind die Features, die sich noch in der Entwicklung befinden, zusammengefasst.

Chatbot-Funktion aktivieren

Thomas Rieske

Setzen Sie nun ein Häkchen in die Checkbox KI-Chatbot. Erst im Anschluss sind die übrigen Optionen verfügbar.

Chatbot auswählen

Thomas Rieske

Danach öffnen Sie das Dropdown-Menü unterhalb des Abschnitts Wählen Sie einen Chatbot. Aktuell finden Sie darin fünf Einträge, von denen die bekanntesten ChatGPT und Google Gemini sein dürften. Anthropic Claude ist eine KI-Lösung, die nach Herstellerangaben allgemein anerkannte ethische Standards einhält und auf Sicherheit in der KI besonderen Wert legt. Die beiden anderen Alternativen HuggingChat und Le Chat Mistral hingegen bieten sich als Open-Source-Alternativen zu ChatGPT an.

Chatbot nutzen

Thomas Rieske

Wenn Sie Ihre Auswahl getroffen haben, in unserem Beispiel ChatGPT, öffnet sich links die Firefox-Seitenleiste. Diese Sidebar lässt sich unter anderem auch mit dem Shortcut Strg + B (für die Anzeige der Lesezeichen) oder mit Strg + H (für die Anzeige der Chronik) einblenden. Ohne Anmeldung beim Dienst meldet sich ChatGPT 40 mini, was zum Ausprobieren aber meistens ausreicht. Um einen neuen Chat zu starten, klicken Sie in der Seitenleiste oben links auf das Stift-Icon.

Prompt eingeben

Thomas Rieske

Anschließend formulieren Sie in der unteren Zeile Ihre Frage oder Anweisung. Um sie abzuschicken, klicken Sie auf den Pfeil-Button rechts daneben.

Antwort der KI

Thomas Rieske

Die Reaktion des Chatbots, erkennbar am jeweiligen Logo, erscheint wie üblich direkt nach Ihrem Prompt. Je nach Umfang müssen Sie aber nach unten scrollen, um den gesamten Text zu sehen. Die Sidebar lässt sich übrigens weiter nach rechts aufziehen, allerdings nicht auf die gesamte Fensterbreite.

Schneller Zugriff beim Surfen

Thomas Rieske

Um möglichst bequem auf die KI zuzugreifen, können Sie auf einer Webseite Text, zu dem Sie Näheres wissen wollen, markieren. Unterhalb Ihrer Auswahl wird dann ein Button mit einem Stern eingeblendet. Wenn Sie den Mauszeiger darüberbewegen, öffnet sich ein kleines Menü. Daraus wählen Sie dann eine der angebotenen Optionen aus, beispielsweise Zusammenfassen.

Automatisch formulierte Anweisung

Thomas Rieske

Firefox sendet daraufhin den selektierten Text, den Seitentitel und den entsprechend der gewählten Option formulierten Prompt an den Chatbot. Ergänzt wird hierbei unter anderem die Anweisung, eine präzise und prägnante Sprache zu verwenden und die Antwort übersichtlich aufzubereiten.

Prompt erledigt

Thomas Rieske

Die von Firefox übermittelten Befehle reichen in der Regel aus, damit der KI-Chatbot die gewünschte Aktion fehlerfrei durchführt. Die Paradedisziplin besteht sicherlich darin, einen vorgegebenen Text zu paraphrasieren. Das funktioniert im Allgemeinen auch mit fremdsprachlichen Quellen mittlerweile ohne Probleme.

Produkte: Der Trick funktioniert mit Firefox ab Version 130 für Windows. In anderen Umgebungen kann die Vorgehensweise abweichen.

Firefox: KI-Chatbot aktivieren​ Read More »

Tipps für die richtige Datenstrategie​

Tipps für die richtige Datenstrategie​

Allgemein

loading=”lazy” width=”400px”>Wer das Potenzial seiner Daten ausreizen möchte, muss sich eine Strategie überlegen. Dazu gehört nicht nur die Technik – auch Prozesse, Organisation und die Kultur sollten dabei bedacht werden.alphaspirit.it/Shutterstock Wie funktionieren Datenstrategien und brauchen Unternehmen so etwas überhaupt? Diese Frage beschäftigt heute viele Verantwortliche in den Unternehmen. Gleichzeitig stehen sie zunehmend unter Druck, wettbewerbsfähig und innovativ zu bleiben. Ein Schlüsselfaktor, dieses Ziels zu erreichen, ist die effektive Nutzung von Daten: Sie erlauben es, Effizienzreserven in Prozessen zu erkennen, Kunden besser zu verstehen, um Produkte und Dienstleistungen anzupassen oder gar neue Angebote zu entwickeln. Besteht Konsens darüber, was man mit den Daten erreichen möchte, so lässt sich daraus eine Datenstrategie ableiten – also ein konkreter Handlungsrahmen, um Maßnahmen zu strukturieren und das übergeordnete Ziel, den „Nordstern“, zu verfolgen. Aus vielen verschiedenen Einzelentscheidungen in unterschiedlichen Unternehmensbereichen entsteht mit einer Datenstrategie ein kohärentes Bestreben, ein gemeinsames Ziel zu erreichen. Im Beispiel betrachten wir ein Unternehmen, das das Ziel verfolgt, der führende Online-Optiker zu sein: Um Brillen erfolgreich online verkaufen zu können, muss das Unternehmen Daten aus unterschiedlichen Quellen zusammenführen, angefangen bei den Produktdaten von den Glas- und Rahmenproduzenten über Marketingdaten bis hin zu medizinischen Daten von Kunden oder Informationen über die  Auslastung von Lagern und Fertigungskapazitäten. Darüber hinaus muss der Online-Optiker eine erhebliche Menge an Fachwissen von Optikern in seinen Produktdaten kodieren. Dieses Fachwissen bestimmt beispielsweise die optimale Brillengröße, wobei Faktoren wie die Sehkraft des Kunden und die Geometrie der Gläser berücksichtigt werden. Durch die Kodierung dieses Wissens in den Produktdaten kann das Unternehmen sicherstellen, dass die Kunden die richtige Brille erhalten. Auf Basis all dieser Daten können die verschiedenen am Prozess beteiligten Abteilungen – Beschaffung, Produktion und E-Commerce – nahtlos zusammenarbeiten, um ein hochwertiges Ergebnis zu liefern, die Materialeinsatzplanung zu optimieren und Prognosen für zukünftige Entwicklungen zu erstellen. Keine Datenstrategie – kein Datenwert Bei einer Datenstrategie geht es nicht nur darum, Daten zu verwalten, sondern darum, wie Geschäftswissen am besten in Daten gespeichert und durch sie verstanden werden kann. Begleitet wird eine Datenstrategie von einer geeigneten Organisationskultur, die Mechanismen für den Ausgleich der Bedürfnisse verschiedener Interessengruppen bereithält und dabei unter anderem die Zusammenarbeit und den Wissensaustausch fördert. Studie Data-Driven Enterprise 2023: Das datengetriebene Unternehmen in der Praxis Ohne eine Datenstrategie zur Strukturierung unterschiedlicher Bemühungen bleibt in jeder Organisation ab einer gewissen Größe beziehungsweise Komplexität die Wertschöpfung aus Daten weit hinter den Möglichkeiten zurück. Daten werden dann im Wesentlichen nur lokal genutzt oder entlang relativ starrer Pfade aggregiert. Die Folge: Die Agilität des Unternehmens in Bezug auf notwendige Veränderungen bleibt gehemmt. Fehlt eine solche Strategie, können auch technische Konzepte und Architekturen diesen Wert kaum steigern. Eine gut durchdachte Datenstrategie kann auf unterschiedlichste Weisen formuliert sein. Sie umfasst eine Vielzahl verschiedener Facetten wie zum Beispiel Verfügbarkeit, Auffindbarkeit, Sicherheit, Schutz personenbezogener Daten, Kostenkontrolle, etc. Aus einer Vielzahl datenbezogener Projekte lassen sich jedoch vier Schlüsselaspekte identifizieren, die die Grundlage für eine Datenstrategie bilden: Identität, Bitemporalität, Vernetzung und Föderalismus. Die vier Schlüsselaspekte einer Datenstrategie Identität – Die Identität ist das erste zentrale Element einer Datenstrategie: Wie werden die Entitäten, die Attribute und ihre Werte identifiziert, das heißt, wie wird es möglich, eindeutig zu entscheiden, auf welches physische oder virtuelle Artefakt sich ein Datensatz bezieht und/oder ob sich mehrere Datensätze auf das Gleiche beziehen? Wer verantwortet die Entscheidung, ob zwei Entitäten identisch sind? Welche Bedeutung ist mit der Identität verknüpft?Im Beispiel unseres Online-Optikers müssen wir uns fragen, ob eine Art von Fassung oder eine Fassung in einer bestimmten Größe, Farbigkeit oder Materialausprägung oder gar eine konkrete individuelle Fassung identifiziert werden muss.In den einfachsten Fällen wird Identität bestimmt durch eine Single Source of Truth (SSOT), eine einzige Quelle beziehungsweise eine zentrale Referenzstelle, die Entitäten identifiziert. Alle nachfolgenden Systeme können dann die Identität aus der SSOT verwenden. Bei vielen Daten ist dieses einfache Modell jedoch nicht anwendbar. Bei Produktdaten zum Beispiel: Die Daten von Produkten unterschiedlicher Kategorien werden, zum Beispiel aus historischen Gründen, in unterschiedlichen Systemen und unter der Verantwortung unterschiedlicher Abteilungen identifiziert. Mitunter werden dabei auch unterschiedlich zusammengesetzte Schlüssel zur Identifikation verwendet, wenn etwa Produktvarianten den gleichen Code verwenden, konkret aber noch durch Farb- oder Größenattribute spezifiziert werden müssen. Die Datenstrategie muss also beantworten, wie Entitäten beziehungsweise Attribute und Attributwerte identifiziert werden. Bitemporalität – Das zweite zentrale Element einer Datenstrategie ist die sogenannte Bitemporalität, lose übersetzt also die Zwei-Zeitigkeit. Diese trennt den Zeitpunkt der Datenabfrage von dem Zeitpunkt, auf den sich die Anfrage bezieht: Ist ein Produkt aktuell (also genau jetzt, zum Zeitpunkt der Abfrage) lieferbar? Wird es (voraussichtlich) in 14 Tagen lieferbar sein? War das Produkt am 3. März 2024 um 10:17 CET lieferbar und wenn ja, welche Vor-Produkte steckten in dem am 3. März 2024 verkauften Produkt? Wie sah die Supply Chain dafür aus? Die Datenstrategie muss also klären, wie sich Informationen über den aktuellen Status einer Entität von Informationen über einen früheren Status abgrenzen. Vernetzbarkeit – Der dritte Faktor einer Datenstrategie muss die Frage klären, welche Informationen vernetzt, also sinnvoll zueinander in Beziehung gesetzt werden können. So können zum Beispiel im eCommece ähnliche oder zueinander passende Produkte miteinander vernetzt werden, um sie zum Beispiel zu empfehlen. Föderalismus – Föderalismus ist per Definition ein Ordnungsprinzip, das auf weitgehender Unabhängigkeit einzelner Einheiten beruht, die zusammen aber ein Ganzes bilden. Dieser vierte Aspekt einer Datenstrategie betrifft also die Organisation von Verantwortung für die betrachteten Daten.  Föderalismus bedeutet, dass es zwar auf lokaler Ebene Verantwortung für die Daten gibt, aber auch über diese Ebene hinaus geklärt ist, wie mit Daten umgegangen wird. In föderalistischen Strukturen ist geregelt, wie weit die Verantwortung auf jeder Verantwortungsebene reicht. Das heißt, wer was mit Daten machen darf und wie sie abgelegt/bereitgestellt werden müssen, damit auch andere Ebenen Zugriff haben. Ein sehr konkretes Beispiel, nämlich Markenlogos, verdeutlichen diese vier Elemente einer Datenstrategie: Identifiziert wird die Marke und erst darüber das Logo in einer konkreten Ausprägung (zu Beispiel Dateiformat oder Auflösung). Die Daten für Marke und Logo sind offensichtlich miteinander vernetzt, wie schon aus der Identifikation deutlich wird. Bei einem Wechsel des Logos beispielsweise bei einem Re-Branding kann so sichergestellt werden, dass die Referenz Bestand hat. Die Berücksichtigung der Bitemporalität stellt sicher, dass der Logowechsel in allen beteiligten Systemen zu einem definierten Zeitpunkt umgesetzt wird: Die Bitemporalität berücksichtigt Benachrichtigungen über zu erwartende Änderungen und erlaubt hier die Abfrage zukünftiger Inhalte, um die neuen Logos vorbereitend cachen zu können. Umgekehrt kann auch eine in die Vergangenheit gerichtete Abfrage sinnvoll sein, typischerweise aber eher bei Inhaltsstoffen, Preisen, Lieferbedingungen, etc. als bei einem Markenlogo. Die Festlegung, welche Marken es gibt, wie die Formate identifiziert werden, etc. kann nicht allein der Einkauf oder das Marketing festlegen. Dafür braucht es die notwendige Vernetzung. Diese Entscheidungen müssen durch eine gemeinsame Autorität festgelegt werden, eine Institution im föderalen System der Datenstrategie. Wie essentiell eine Datenstrategie für Unternehmen ist, beweist auch das Phänomen Produktdaten. Sie haben viele Quellen, beispielsweise die eigene Produktentwicklung,  aber auch „fremde“ Hersteller und Zwischenhändler. Sie sind wesentlicher Bestandteil wichtiger Geschäftsprozesse, werden in den unterschiedlichsten Abteilungen benötigt und sie werden in einer Vielzahl von Systemen genutzt: Im Katalog, gemeinsam mit Preisinformation, Verfügbarkeiten, Abbildungen, in der Bestandsverwaltung, im Retourenmanagement gemeinsam mit Lager- und Logistikinformation, zum Planning und zum Reporting, auf Artikel- oder Kategorieebene, zur Aggregation von Absatz- und Umsatzzahlen gemeinsam mit zeitlichen oder räumlichen Kriterien, im Stammdaten-, Bestellabwicklungs-, eCommerce- und Controlling-System und in vielen anderen Zusammenhängen. Wenn nicht klar ist, was Produktdaten identifizieren, in welchem Zusammenhang sie miteinander stehen und welche Regeln für ihre Domänen übergreifende Bereitstellung gelten, entsteht aus ihnen ein undurchdringlicher Datensumpf, der weder produktiv noch analytisch sinnvoll eingesetzt werden kann. Das gilt umso mehr, je größer und differenzierter ein Unternehmen ist. Viele große Unternehmen betreiben schließlich zahlreiche E-Commerce-Systeme, etliche Produktionsstraßen in unterschiedlichen Ländern und managen verschiedene Marken und Produktkategorien. Daten sind codiertes Mitarbeiterwissen Eine Datenstrategie legt ferner fest, wie Unternehmen das Wissen um ihre Produkte, Services, Prozesse und Geschäftsmodelle codieren. Damit werden Lösungen möglich, die auch eine automatisierte Entscheidungsunterstützung erlauben. Dazu kurz zurück zu unserem Online-Optiker:  Um Brillen online zu verkaufen, muss viel Optikerfachwissen codiert werden, damit der Kunde bei der Konfiguration seiner Brille nicht gravierende Fehler macht. Die optimale Größe der Gleitsicht-Brillengläser hängt nämlich unter anderem von der Sehstärke und der Glasgeometrie ab. Um erfolgreich Brillen online zu verkaufen, muss dieses Erfahrungswissen von Optikern in den Produktdaten codiert werden, und die verschiedenen Zuständigkeiten (Beschaffung, Produktion, eCommerce) müssen diese Daten pflegen, verbinden und nutzen. Ein Wissensgraph (Knowledge Graph) erfasst die Bedeutung der Daten und spielt eine besondere Rolle bei der Identifikation und der Vernetzung der Daten: Das dreischichtige Wissensgraph-Modell nach Dave McComb erweitert einen typischerweise zweischichtigen Blick auf Schemata beziehungsweise Klassen einerseits und Daten beziehungsweise Instanzen andererseits. McComb führt eine mittlere Ebene ein, die eine Zwitter-Rolle einnimmt und bezeichnet diese drei Ebenen als Konzepte, Kategorien und Daten. Ganz praktisch hat Katariina Kari, Lead Ontologist bei Inter Ikea Systems, mit Ihrem Team einen solchen Knowledge Graph eingeführt. An diesem Beispiel orientieren wir uns, übertragen das aber auf das Online-Optiker-Beispiel. In der obersten Schicht befinden sich die zentralen Konzepte, beispielsweise „Gestell“ mit „Eigenschaften“. Die Anzahl der Konzepte bewegt sich im Bereich von Hunderten. Sie werden eng abgestimmt und unterliegen einer rigorosen zentralen Governance. Auf der mittleren Ebene, den Kategorien, ist „Farbe“ als eine Eigenschaft definiert mit den Ausprägungen „Tortoise“ oder „Havana“. Die Zahl der Kategorien geht typischerweise in die Tausende, die Kategorien lassen sich aber thematisch unterteilen und die einzelnen thematischen Bereiche werden durch entsprechende Fachexperten definiert. Die unterste Schicht bezeichnet McComb als Daten und diese Schicht umfasst hier, was gefärbt wird, also zum Beispiel der Steg einer Brillenfassung. Die Zahl der Entitäten auf der Datenebene geht potentiell in die Millionen. Die Datenebene zerfällt in Bereiche, die jeweils der Kontrolle der Domänen unterliegen. Das Föderalismus-Prinzip ist hier also besonders gut zu erkennen. Die Integration der Kategorien und insbesondere der Daten in die gesamte Landschaft erfolgt über die Referenz auf die übergeordneten Ebenen, so dass eine Vernetzung darüber möglich ist. Es können also beispielsweise alle Fassungen mit der Steg-Farbe Tortoise verknüpft werden. Über Ähnlichkeiten können beispielsweise ähnliche Produkte im eCommerce-System vorgeschlagen werden. Elemente der Datenstrategie korrespondieren mit Data-Mesh-Prinzipien Das zurzeit viel diskutierte Konzept Data Mesh von Zhamak Dehghani, Technologiedirektorin des IT-Beratungsunternehmens ThoughtWorks ist nichts anderes als die konkrete Ausprägung einer Datenstrategie. Dieses soziotechnische Konzept basiert auf den vier Prinzipien Domain Ownership, Daten als Produkt, Self-Service-Datenplattform und föderierte Governance. Wir setzen dieses Konzept in Relation zu den vier Schlüsselaspekten Identität, Bitemporalität, Vernetzung und Föderalismus. Domain Ownership: Dieses Prinzip besagt, dass die Verantwortung für Daten nicht von einem zentralen Datenteam getragen wird, sondern in den Domänen, in denen sie entstehen.  Das heißt konkret: Das Team, das eine Fachlichkeit Ende-zu-Ende verantwortet, ist auch für die Daten verantwortlich, die in Zusammenhang mit dieser Fachlichkeit entstehen. Data as a Product: Sammeln, Aufbereiten und Bereitstellen von Daten ist kein Selbstzweck, sondern muss – wie jedes Produkt für seinen Nutzer – einen Wert stiften. Dies bedarf aber auch strategischer Planung, eines passenden Product-Market-Fits und der Vermarktung des jeweiligen Datenprodukts: Datenprodukte stellen den Daten-Konsumenten und seine Bedürfnisse in den Mittelpunkt, balancieren aber auch die unterschiedlichen Wünsche verschiedener Konsumenten aus. Die Gestalt eines Datenprodukts, beispielsweise als API, als Datenbank-Zugang, oder als Visualisierung, richtet sich dabei nach den Bedürfnissen der Konsumenten, und für unterschiedliche Bedürfnisse können durchaus unterschiedliche Datenprodukte aus den gleichen Daten erzeugt werden. Self Service Data Platform: Damit die Produktteams ihre Datenprodukte schnell und effizient bereitstellen können, benötigen sie entsprechende Werkzeuge, quasi eine Produktions- und Vertriebsstrecke für Datenprodukte. Diese Werkzeuge sollten dabei idealerweise so ineinandergreifen, dass auch für die Konsumenten die Vernetzung verschiedener Datenprodukte einfach möglich ist. „Self Service“ – oder vielleicht besser ausgedrückt, „dem Subsidiaritätsprinzip folgend“ – bedeutet dabei, dass die Data Owner eigenständig in der Lage sind, Datenprodukte anzubieten. Es ist also entgegen des Namens „Data Plattform“ gleichermaßen eine Frage der verfügbaren Infrastruktur und der Organisationsstruktur, die Teams so zu schneiden, dass diese Eigenständigkeit realisiert werden kann.Dieses Prinzip stellt in der Komplexität die größte Hürde für die Realisierung eines Data-Mesh-Ansatzes dar. Nicht etwa, weil die Verfügbarkeit von entsprechenden Datenplattformen fehlt, sondern weil die Balance von Kompetenzen innerhalb der Organisation entsprechend neu austariert werden muss. Federated Governance: Um Mehrwert zu erzeugen, betont der Data Mesh Ansatz Datenprodukte in lokaler Verantwortung. Unseren oben dargestellten Punkten entsprechend entsteht der Mehrwert gerade in der Vernetzung unterschiedlicher Domänen, in der Beziehung von Datenproduzenten und -konsumenten. Es gibt also Bereiche, spätestens vorgegeben durch externe Regulatorik in Bezug auf Sicherheit, Datenschutz, etc., die nicht lokal von den Data Ownern reguliert werden können. Es muss also übergeordnete Strukturen und Leitplanken geben, die festlegen, wie Daten in größeren Zusammenhängen organisiert und verwendet werden. Dabei gilt das föderale Prinzip der Subsidiarität: Ähnlich wie beim Zusammenspiel von Kommunen, Ländern und dem Bund werden Entscheidungen auf derjenigen institutionellen Ebene getroffen, deren Kompetenz dafür gerade ausreicht. Fehlen dem Einzelnen, der kleinsten Gruppe, der niedrigsten institutionellen Ebene die Kompetenzen, so greift eine entsprechend höhere Instanz. Identität, Bitemporalität, Vernetzung und Föderalismus in einem Data Mesh Je nach Business-Anforderungen und Komplexität der Datenströme in einem Unternehmen kann ein Data-Mesh die sinnvollste Realisierung einer Datenstrategie darstellen. Allzu oft wird dabei vor allem die technische und weniger die soziologische Seite betont. Wir sehen aber auch, dass die vier Prinzipien Domain Ownership, Data as a Product, Self Service Data Platform und Federated Governance wenig konkrete Orientierung geben: Was enthält ein Data Product? Wie steht es zu anderen Data Products in Verbindung? Was soll eine Self Service Data Platform ermöglichen? 6 Gründe: Warum Sie an Data-driven scheitern Hier kommen wir zurück zu den vier Schlüsselaspekten einer Datenstrategie: Identität, Bitemporalität, Vernetzung und Föderalismus. Diese Schlüsselaspekte fokussieren die Datenstrategie auf konkrete Punkte und können so beispielsweise der Realisierung eines Data Mesh Struktur geben: Welche Identitäten werden in den Datenprodukten exponiert? Welche Datenprodukte müssen gemeinsame Identitäten referenzieren, um Vernetzung zu ermöglichen? Müssen Datenprodukte nur „für den Moment“ realisiert werden oder für einen Blick nach vorne oder zurück – Stichwort Bitemporalität. Und über allem thront die Frage: Wer hat die Kompetenz, Entitäten zu identifizieren? Kompetenz bedeutet dabei sowohl das fachliche, technische und gestalterische Wissen als auch den allgemein anerkannten Auftrag zur Gestaltung der entsprechenden Informationsräume. Der Data Mesh Ansatz bezieht das föderale Prinzip explizit auf Governance, also auf die Verwaltung inklusive der Gestaltung der Verwaltung. Wir gehen mit unserem Verständnis von Föderalismus darüber hinaus und verstehen darunter explizit auch die Gestaltung der Datenräume: Auch die Erstellung und Pflege der Konzepte, Kategorien und Daten in einem Knowledge Graphen wird als föderale Struktur organisiert: Für die oberste Schicht, die Konzepte, ist eine zentrale Gestaltung notwendig. Die Ebene der Kategorien kann aufgebrochen und lokaler realisiert werden. Insbesondere können verschiedene Teilbereiche der zweiten Ebene von unterschiedlichen Teams verwaltet werden. Die Daten-Ebene entsteht dann wirklich lokal in den Domänen und unterliegt dem jeweiligen Owner eines Data Products. Datenstrategie setzt Kultur voraus In Anerkennung von Peter Druckers “Culture eats strategy for breakfast” ist auch für eine erfolgreiche Datenstrategie eine entsprechende Kultur quasi zwingende Voraussetzung. (Unternehmens-) Kultur umfasst die immateriellen Grundlagen gestaltender Leistungen einer Organisation. In Bezug auf die Daten-Kultur stellt sich also beispielsweise die Frage der Ausgestaltung der föderalen Strukturen: Betont eine Organisation eher zentrale Verantwortung oder lokale Verantwortung? Entsprechen föderale Ebenen auch hierarchischen Ebenen, werden Entscheidungen also über Führungskräfte eskaliert oder werden kompetente, das heißt entscheidungsfähige, Gremien auf andere Weise zusammengesetzt? Wie wird die dezentralisierte Kompetenz der Domänen ausbalanciert im Vergleich mit zentral bereitgestellten Plattformen, die mit möglichst geringer Lernkurve für die Nutzer aus den Domänen zu verwenden sind, dafür aber mit erheblichem Aufwand betrieben werden müssen. Pragmatisch – Schritt für Schritt zum Nordstern Unternehmen, die ihre Datenstrategie überdenken, sollten einen Nordstern entwickeln, dann aber sehr pragmatisch vorgehen. Der Nordstern steht für das Zielbild, das angestrebt wird: Will man Effizienz steigern, auf der Basis von Erkenntnissen aus den vorhandenen Daten Produkte oder Services verbessern und neue Geschäftsfelder erschließen? Wenn das Ziel einer Datenstrategie und entsprechender Initiativen nicht klar ist, dann ist die Realisierung zum Scheitern verurteilt. Erst wenn die Richtung klar ist, können praktisch realisierbare Schritte zum Erfolg führen. Die Organisation kann behutsam verändert werden, um beispielsweise föderale Governance-Strukturen aufzubauen, eine zentrale Steuerung des obersten Ontology-Layers realisiert und im Wechselspiel mit den Domänen angepasst und verbessert werden. Die Domänen müssen in die Lage versetzt werden, eigenständig Datenprodukte realisieren zu können, bei zentraler Definition der Policies, die für alle gelten müssen, beispielsweise in Bezug auf Identitäts- und Zugriffsmanagement. Und hier, beim Schaffen einer Plattform – geplant oder emergent als Ergebnis nur lose koordinierter Initiativen zur Reduktion des Kommunikations-Overheads –  nähert sich die Datenstrategie der klassischen IT-Strategie, insbesondere in Bezug auf Cloud-Architekturen. Fazit: Mit einer Datenstrategie zu fundierten Entscheidungen Wettbewerbsfähigkeit durch Innovation braucht eine gut durchdachte Datenstrategie. Durch die Orientierung an den Schlüsselaspekten Identität, Bitemporalität, Vernetzung und Föderalismus können Unternehmen das Potenzial ihrer Daten erschließen und fundierte Entscheidungen treffen. 7 Data-Strategy-Trends: Ist Ihre Datenstrategie noch zukunftsfähig? Dabei geht es nicht nur um das Sammeln und Analysieren von Daten, sondern um die Schaffung einer Kultur der datengesteuerten Entscheidungsfindung. Sie erfordert die Fähigkeit, ein Gleichgewicht zwischen Zentralisierung und Dezentralisierung herzustellen. Dabei wird ein Kernelement unserer Gesellschaft, der Föderalismus, zum strukturierenden Element. 

Tipps für die richtige Datenstrategie​ loading=”lazy” width=”400px”>Wer das Potenzial seiner Daten ausreizen möchte, muss sich eine Strategie überlegen. Dazu gehört nicht nur die Technik – auch Prozesse, Organisation und die Kultur sollten dabei bedacht werden.alphaspirit.it/Shutterstock

Wie funktionieren Datenstrategien und brauchen Unternehmen so etwas überhaupt? Diese Frage beschäftigt heute viele Verantwortliche in den Unternehmen. Gleichzeitig stehen sie zunehmend unter Druck, wettbewerbsfähig und innovativ zu bleiben. Ein Schlüsselfaktor, dieses Ziels zu erreichen, ist die effektive Nutzung von Daten: Sie erlauben es, Effizienzreserven in Prozessen zu erkennen, Kunden besser zu verstehen, um Produkte und Dienstleistungen anzupassen oder gar neue Angebote zu entwickeln.

Besteht Konsens darüber, was man mit den Daten erreichen möchte, so lässt sich daraus eine Datenstrategie ableiten – also ein konkreter Handlungsrahmen, um Maßnahmen zu strukturieren und das übergeordnete Ziel, den „Nordstern“, zu verfolgen. Aus vielen verschiedenen Einzelentscheidungen in unterschiedlichen Unternehmensbereichen entsteht mit einer Datenstrategie ein kohärentes Bestreben, ein gemeinsames Ziel zu erreichen.

Im Beispiel betrachten wir ein Unternehmen, das das Ziel verfolgt, der führende Online-Optiker zu sein: Um Brillen erfolgreich online verkaufen zu können, muss das Unternehmen Daten aus unterschiedlichen Quellen zusammenführen, angefangen bei den Produktdaten von den Glas- und Rahmenproduzenten über Marketingdaten bis hin zu medizinischen Daten von Kunden oder Informationen über die  Auslastung von Lagern und Fertigungskapazitäten.

Darüber hinaus muss der Online-Optiker eine erhebliche Menge an Fachwissen von Optikern in seinen Produktdaten kodieren. Dieses Fachwissen bestimmt beispielsweise die optimale Brillengröße, wobei Faktoren wie die Sehkraft des Kunden und die Geometrie der Gläser berücksichtigt werden. Durch die Kodierung dieses Wissens in den Produktdaten kann das Unternehmen sicherstellen, dass die Kunden die richtige Brille erhalten.

Auf Basis all dieser Daten können die verschiedenen am Prozess beteiligten Abteilungen – Beschaffung, Produktion und E-Commerce – nahtlos zusammenarbeiten, um ein hochwertiges Ergebnis zu liefern, die Materialeinsatzplanung zu optimieren und Prognosen für zukünftige Entwicklungen zu erstellen.

Keine Datenstrategie – kein Datenwert

Bei einer Datenstrategie geht es nicht nur darum, Daten zu verwalten, sondern darum, wie Geschäftswissen am besten in Daten gespeichert und durch sie verstanden werden kann. Begleitet wird eine Datenstrategie von einer geeigneten Organisationskultur, die Mechanismen für den Ausgleich der Bedürfnisse verschiedener Interessengruppen bereithält und dabei unter anderem die Zusammenarbeit und den Wissensaustausch fördert.

Studie Data-Driven Enterprise 2023: Das datengetriebene Unternehmen in der Praxis

Ohne eine Datenstrategie zur Strukturierung unterschiedlicher Bemühungen bleibt in jeder Organisation ab einer gewissen Größe beziehungsweise Komplexität die Wertschöpfung aus Daten weit hinter den Möglichkeiten zurück. Daten werden dann im Wesentlichen nur lokal genutzt oder entlang relativ starrer Pfade aggregiert. Die Folge: Die Agilität des Unternehmens in Bezug auf notwendige Veränderungen bleibt gehemmt. Fehlt eine solche Strategie, können auch technische Konzepte und Architekturen diesen Wert kaum steigern.

Eine gut durchdachte Datenstrategie kann auf unterschiedlichste Weisen formuliert sein. Sie umfasst eine Vielzahl verschiedener Facetten wie zum Beispiel Verfügbarkeit, Auffindbarkeit, Sicherheit, Schutz personenbezogener Daten, Kostenkontrolle, etc. Aus einer Vielzahl datenbezogener Projekte lassen sich jedoch vier Schlüsselaspekte identifizieren, die die Grundlage für eine Datenstrategie bilden: Identität, Bitemporalität, Vernetzung und Föderalismus.

Die vier Schlüsselaspekte einer Datenstrategie

Identität – Die Identität ist das erste zentrale Element einer Datenstrategie: Wie werden die Entitäten, die Attribute und ihre Werte identifiziert, das heißt, wie wird es möglich, eindeutig zu entscheiden, auf welches physische oder virtuelle Artefakt sich ein Datensatz bezieht und/oder ob sich mehrere Datensätze auf das Gleiche beziehen? Wer verantwortet die Entscheidung, ob zwei Entitäten identisch sind? Welche Bedeutung ist mit der Identität verknüpft?Im Beispiel unseres Online-Optikers müssen wir uns fragen, ob eine Art von Fassung oder eine Fassung in einer bestimmten Größe, Farbigkeit oder Materialausprägung oder gar eine konkrete individuelle Fassung identifiziert werden muss.In den einfachsten Fällen wird Identität bestimmt durch eine Single Source of Truth (SSOT), eine einzige Quelle beziehungsweise eine zentrale Referenzstelle, die Entitäten identifiziert. Alle nachfolgenden Systeme können dann die Identität aus der SSOT verwenden. Bei vielen Daten ist dieses einfache Modell jedoch nicht anwendbar. Bei Produktdaten zum Beispiel: Die Daten von Produkten unterschiedlicher Kategorien werden, zum Beispiel aus historischen Gründen, in unterschiedlichen Systemen und unter der Verantwortung unterschiedlicher Abteilungen identifiziert. Mitunter werden dabei auch unterschiedlich zusammengesetzte Schlüssel zur Identifikation verwendet, wenn etwa Produktvarianten den gleichen Code verwenden, konkret aber noch durch Farb- oder Größenattribute spezifiziert werden müssen. Die Datenstrategie muss also beantworten, wie Entitäten beziehungsweise Attribute und Attributwerte identifiziert werden.

Bitemporalität – Das zweite zentrale Element einer Datenstrategie ist die sogenannte Bitemporalität, lose übersetzt also die Zwei-Zeitigkeit. Diese trennt den Zeitpunkt der Datenabfrage von dem Zeitpunkt, auf den sich die Anfrage bezieht: Ist ein Produkt aktuell (also genau jetzt, zum Zeitpunkt der Abfrage) lieferbar? Wird es (voraussichtlich) in 14 Tagen lieferbar sein? War das Produkt am 3. März 2024 um 10:17 CET lieferbar und wenn ja, welche Vor-Produkte steckten in dem am 3. März 2024 verkauften Produkt? Wie sah die Supply Chain dafür aus? Die Datenstrategie muss also klären, wie sich Informationen über den aktuellen Status einer Entität von Informationen über einen früheren Status abgrenzen.

Vernetzbarkeit – Der dritte Faktor einer Datenstrategie muss die Frage klären, welche Informationen vernetzt, also sinnvoll zueinander in Beziehung gesetzt werden können. So können zum Beispiel im eCommece ähnliche oder zueinander passende Produkte miteinander vernetzt werden, um sie zum Beispiel zu empfehlen.

Föderalismus – Föderalismus ist per Definition ein Ordnungsprinzip, das auf weitgehender Unabhängigkeit einzelner Einheiten beruht, die zusammen aber ein Ganzes bilden. Dieser vierte Aspekt einer Datenstrategie betrifft also die Organisation von Verantwortung für die betrachteten Daten.  Föderalismus bedeutet, dass es zwar auf lokaler Ebene Verantwortung für die Daten gibt, aber auch über diese Ebene hinaus geklärt ist, wie mit Daten umgegangen wird. In föderalistischen Strukturen ist geregelt, wie weit die Verantwortung auf jeder Verantwortungsebene reicht. Das heißt, wer was mit Daten machen darf und wie sie abgelegt/bereitgestellt werden müssen, damit auch andere Ebenen Zugriff haben.

Ein sehr konkretes Beispiel, nämlich Markenlogos, verdeutlichen diese vier Elemente einer Datenstrategie:

Identifiziert wird die Marke und erst darüber das Logo in einer konkreten Ausprägung (zu Beispiel Dateiformat oder Auflösung). Die Daten für Marke und Logo sind offensichtlich miteinander vernetzt, wie schon aus der Identifikation deutlich wird. Bei einem Wechsel des Logos beispielsweise bei einem Re-Branding kann so sichergestellt werden, dass die Referenz Bestand hat.

Die Berücksichtigung der Bitemporalität stellt sicher, dass der Logowechsel in allen beteiligten Systemen zu einem definierten Zeitpunkt umgesetzt wird: Die Bitemporalität berücksichtigt Benachrichtigungen über zu erwartende Änderungen und erlaubt hier die Abfrage zukünftiger Inhalte, um die neuen Logos vorbereitend cachen zu können. Umgekehrt kann auch eine in die Vergangenheit gerichtete Abfrage sinnvoll sein, typischerweise aber eher bei Inhaltsstoffen, Preisen, Lieferbedingungen, etc. als bei einem Markenlogo.

Die Festlegung, welche Marken es gibt, wie die Formate identifiziert werden, etc. kann nicht allein der Einkauf oder das Marketing festlegen. Dafür braucht es die notwendige Vernetzung.

Diese Entscheidungen müssen durch eine gemeinsame Autorität festgelegt werden, eine Institution im föderalen System der Datenstrategie.

Wie essentiell eine Datenstrategie für Unternehmen ist, beweist auch das Phänomen Produktdaten. Sie haben viele Quellen, beispielsweise die eigene Produktentwicklung,  aber auch „fremde“ Hersteller und Zwischenhändler. Sie sind wesentlicher Bestandteil wichtiger Geschäftsprozesse, werden in den unterschiedlichsten Abteilungen benötigt und sie werden in einer Vielzahl von Systemen genutzt:

Im Katalog, gemeinsam mit Preisinformation, Verfügbarkeiten, Abbildungen,

in der Bestandsverwaltung,

im Retourenmanagement gemeinsam mit Lager- und Logistikinformation,

zum Planning und zum Reporting,

auf Artikel- oder Kategorieebene,

zur Aggregation von Absatz- und Umsatzzahlen gemeinsam mit zeitlichen oder räumlichen Kriterien,

im Stammdaten-,

Bestellabwicklungs-,

eCommerce- und

Controlling-System und

in vielen anderen Zusammenhängen.

Wenn nicht klar ist, was Produktdaten identifizieren, in welchem Zusammenhang sie miteinander stehen und welche Regeln für ihre Domänen übergreifende Bereitstellung gelten, entsteht aus ihnen ein undurchdringlicher Datensumpf, der weder produktiv noch analytisch sinnvoll eingesetzt werden kann. Das gilt umso mehr, je größer und differenzierter ein Unternehmen ist. Viele große Unternehmen betreiben schließlich zahlreiche E-Commerce-Systeme, etliche Produktionsstraßen in unterschiedlichen Ländern und managen verschiedene Marken und Produktkategorien.

Daten sind codiertes Mitarbeiterwissen

Eine Datenstrategie legt ferner fest, wie Unternehmen das Wissen um ihre Produkte, Services, Prozesse und Geschäftsmodelle codieren. Damit werden Lösungen möglich, die auch eine automatisierte Entscheidungsunterstützung erlauben. Dazu kurz zurück zu unserem Online-Optiker:  Um Brillen online zu verkaufen, muss viel Optikerfachwissen codiert werden, damit der Kunde bei der Konfiguration seiner Brille nicht gravierende Fehler macht. Die optimale Größe der Gleitsicht-Brillengläser hängt nämlich unter anderem von der Sehstärke und der Glasgeometrie ab. Um erfolgreich Brillen online zu verkaufen, muss dieses Erfahrungswissen von Optikern in den Produktdaten codiert werden, und die verschiedenen Zuständigkeiten (Beschaffung, Produktion, eCommerce) müssen diese Daten pflegen, verbinden und nutzen.

Ein Wissensgraph (Knowledge Graph) erfasst die Bedeutung der Daten und spielt eine besondere Rolle bei der Identifikation und der Vernetzung der Daten: Das dreischichtige Wissensgraph-Modell nach Dave McComb erweitert einen typischerweise zweischichtigen Blick auf Schemata beziehungsweise Klassen einerseits und Daten beziehungsweise Instanzen andererseits. McComb führt eine mittlere Ebene ein, die eine Zwitter-Rolle einnimmt und bezeichnet diese drei Ebenen als Konzepte, Kategorien und Daten.

Ganz praktisch hat Katariina Kari, Lead Ontologist bei Inter Ikea Systems, mit Ihrem Team einen solchen Knowledge Graph eingeführt. An diesem Beispiel orientieren wir uns, übertragen das aber auf das Online-Optiker-Beispiel.

In der obersten Schicht befinden sich die zentralen Konzepte, beispielsweise „Gestell“ mit „Eigenschaften“. Die Anzahl der Konzepte bewegt sich im Bereich von Hunderten. Sie werden eng abgestimmt und unterliegen einer rigorosen zentralen Governance.

Auf der mittleren Ebene, den Kategorien, ist „Farbe“ als eine Eigenschaft definiert mit den Ausprägungen „Tortoise“ oder „Havana“. Die Zahl der Kategorien geht typischerweise in die Tausende, die Kategorien lassen sich aber thematisch unterteilen und die einzelnen thematischen Bereiche werden durch entsprechende Fachexperten definiert.

Die unterste Schicht bezeichnet McComb als Daten und diese Schicht umfasst hier, was gefärbt wird, also zum Beispiel der Steg einer Brillenfassung. Die Zahl der Entitäten auf der Datenebene geht potentiell in die Millionen. Die Datenebene zerfällt in Bereiche, die jeweils der Kontrolle der Domänen unterliegen. Das Föderalismus-Prinzip ist hier also besonders gut zu erkennen.

Die Integration der Kategorien und insbesondere der Daten in die gesamte Landschaft erfolgt über die Referenz auf die übergeordneten Ebenen, so dass eine Vernetzung darüber möglich ist. Es können also beispielsweise alle Fassungen mit der Steg-Farbe Tortoise verknüpft werden. Über Ähnlichkeiten können beispielsweise ähnliche Produkte im eCommerce-System vorgeschlagen werden.

Elemente der Datenstrategie korrespondieren mit Data-Mesh-Prinzipien

Das zurzeit viel diskutierte Konzept Data Mesh von Zhamak Dehghani, Technologiedirektorin des IT-Beratungsunternehmens ThoughtWorks ist nichts anderes als die konkrete Ausprägung einer Datenstrategie. Dieses soziotechnische Konzept basiert auf den vier Prinzipien Domain Ownership, Daten als Produkt, Self-Service-Datenplattform und föderierte Governance. Wir setzen dieses Konzept in Relation zu den vier Schlüsselaspekten Identität, Bitemporalität, Vernetzung und Föderalismus.

Domain Ownership: Dieses Prinzip besagt, dass die Verantwortung für Daten nicht von einem zentralen Datenteam getragen wird, sondern in den Domänen, in denen sie entstehen.  Das heißt konkret: Das Team, das eine Fachlichkeit Ende-zu-Ende verantwortet, ist auch für die Daten verantwortlich, die in Zusammenhang mit dieser Fachlichkeit entstehen.

Data as a Product: Sammeln, Aufbereiten und Bereitstellen von Daten ist kein Selbstzweck, sondern muss – wie jedes Produkt für seinen Nutzer – einen Wert stiften. Dies bedarf aber auch strategischer Planung, eines passenden Product-Market-Fits und der Vermarktung des jeweiligen Datenprodukts: Datenprodukte stellen den Daten-Konsumenten und seine Bedürfnisse in den Mittelpunkt, balancieren aber auch die unterschiedlichen Wünsche verschiedener Konsumenten aus. Die Gestalt eines Datenprodukts, beispielsweise als API, als Datenbank-Zugang, oder als Visualisierung, richtet sich dabei nach den Bedürfnissen der Konsumenten, und für unterschiedliche Bedürfnisse können durchaus unterschiedliche Datenprodukte aus den gleichen Daten erzeugt werden.

Self Service Data Platform: Damit die Produktteams ihre Datenprodukte schnell und effizient bereitstellen können, benötigen sie entsprechende Werkzeuge, quasi eine Produktions- und Vertriebsstrecke für Datenprodukte. Diese Werkzeuge sollten dabei idealerweise so ineinandergreifen, dass auch für die Konsumenten die Vernetzung verschiedener Datenprodukte einfach möglich ist. „Self Service“ – oder vielleicht besser ausgedrückt, „dem Subsidiaritätsprinzip folgend“ – bedeutet dabei, dass die Data Owner eigenständig in der Lage sind, Datenprodukte anzubieten. Es ist also entgegen des Namens „Data Plattform“ gleichermaßen eine Frage der verfügbaren Infrastruktur und der Organisationsstruktur, die Teams so zu schneiden, dass diese Eigenständigkeit realisiert werden kann.Dieses Prinzip stellt in der Komplexität die größte Hürde für die Realisierung eines Data-Mesh-Ansatzes dar. Nicht etwa, weil die Verfügbarkeit von entsprechenden Datenplattformen fehlt, sondern weil die Balance von Kompetenzen innerhalb der Organisation entsprechend neu austariert werden muss.

Federated Governance: Um Mehrwert zu erzeugen, betont der Data Mesh Ansatz Datenprodukte in lokaler Verantwortung. Unseren oben dargestellten Punkten entsprechend entsteht der Mehrwert gerade in der Vernetzung unterschiedlicher Domänen, in der Beziehung von Datenproduzenten und -konsumenten. Es gibt also Bereiche, spätestens vorgegeben durch externe Regulatorik in Bezug auf Sicherheit, Datenschutz, etc., die nicht lokal von den Data Ownern reguliert werden können. Es muss also übergeordnete Strukturen und Leitplanken geben, die festlegen, wie Daten in größeren Zusammenhängen organisiert und verwendet werden. Dabei gilt das föderale Prinzip der Subsidiarität: Ähnlich wie beim Zusammenspiel von Kommunen, Ländern und dem Bund werden Entscheidungen auf derjenigen institutionellen Ebene getroffen, deren Kompetenz dafür gerade ausreicht. Fehlen dem Einzelnen, der kleinsten Gruppe, der niedrigsten institutionellen Ebene die Kompetenzen, so greift eine entsprechend höhere Instanz.

Identität, Bitemporalität, Vernetzung und Föderalismus in einem Data Mesh

Je nach Business-Anforderungen und Komplexität der Datenströme in einem Unternehmen kann ein Data-Mesh die sinnvollste Realisierung einer Datenstrategie darstellen. Allzu oft wird dabei vor allem die technische und weniger die soziologische Seite betont. Wir sehen aber auch, dass die vier Prinzipien Domain Ownership, Data as a Product, Self Service Data Platform und Federated Governance wenig konkrete Orientierung geben: Was enthält ein Data Product? Wie steht es zu anderen Data Products in Verbindung? Was soll eine Self Service Data Platform ermöglichen?

6 Gründe: Warum Sie an Data-driven scheitern

Hier kommen wir zurück zu den vier Schlüsselaspekten einer Datenstrategie: Identität, Bitemporalität, Vernetzung und Föderalismus. Diese Schlüsselaspekte fokussieren die Datenstrategie auf konkrete Punkte und können so beispielsweise der Realisierung eines Data Mesh Struktur geben:

Welche Identitäten werden in den Datenprodukten exponiert? Welche Datenprodukte müssen gemeinsame Identitäten referenzieren, um Vernetzung zu ermöglichen? Müssen Datenprodukte nur „für den Moment“ realisiert werden oder für einen Blick nach vorne oder zurück – Stichwort Bitemporalität.

Und über allem thront die Frage: Wer hat die Kompetenz, Entitäten zu identifizieren? Kompetenz bedeutet dabei sowohl das fachliche, technische und gestalterische Wissen als auch den allgemein anerkannten Auftrag zur Gestaltung der entsprechenden Informationsräume.

Der Data Mesh Ansatz bezieht das föderale Prinzip explizit auf Governance, also auf die Verwaltung inklusive der Gestaltung der Verwaltung. Wir gehen mit unserem Verständnis von Föderalismus darüber hinaus und verstehen darunter explizit auch die Gestaltung der Datenräume: Auch die Erstellung und Pflege der Konzepte, Kategorien und Daten in einem Knowledge Graphen wird als föderale Struktur organisiert: Für die oberste Schicht, die Konzepte, ist eine zentrale Gestaltung notwendig. Die Ebene der Kategorien kann aufgebrochen und lokaler realisiert werden. Insbesondere können verschiedene Teilbereiche der zweiten Ebene von unterschiedlichen Teams verwaltet werden. Die Daten-Ebene entsteht dann wirklich lokal in den Domänen und unterliegt dem jeweiligen Owner eines Data Products.

Datenstrategie setzt Kultur voraus

In Anerkennung von Peter Druckers “Culture eats strategy for breakfast” ist auch für eine erfolgreiche Datenstrategie eine entsprechende Kultur quasi zwingende Voraussetzung. (Unternehmens-) Kultur umfasst die immateriellen Grundlagen gestaltender Leistungen einer Organisation.

In Bezug auf die Daten-Kultur stellt sich also beispielsweise die Frage der Ausgestaltung der föderalen Strukturen: Betont eine Organisation eher zentrale Verantwortung oder lokale Verantwortung? Entsprechen föderale Ebenen auch hierarchischen Ebenen, werden Entscheidungen also über Führungskräfte eskaliert oder werden kompetente, das heißt entscheidungsfähige, Gremien auf andere Weise zusammengesetzt? Wie wird die dezentralisierte Kompetenz der Domänen ausbalanciert im Vergleich mit zentral bereitgestellten Plattformen, die mit möglichst geringer Lernkurve für die Nutzer aus den Domänen zu verwenden sind, dafür aber mit erheblichem Aufwand betrieben werden müssen.

Pragmatisch – Schritt für Schritt zum Nordstern

Unternehmen, die ihre Datenstrategie überdenken, sollten einen Nordstern entwickeln, dann aber sehr pragmatisch vorgehen. Der Nordstern steht für das Zielbild, das angestrebt wird: Will man Effizienz steigern, auf der Basis von Erkenntnissen aus den vorhandenen Daten Produkte oder Services verbessern und neue Geschäftsfelder erschließen? Wenn das Ziel einer Datenstrategie und entsprechender Initiativen nicht klar ist, dann ist die Realisierung zum Scheitern verurteilt. Erst wenn die Richtung klar ist, können praktisch realisierbare Schritte zum Erfolg führen.

Die Organisation kann behutsam verändert werden, um beispielsweise föderale Governance-Strukturen aufzubauen, eine zentrale Steuerung des obersten Ontology-Layers realisiert und im Wechselspiel mit den Domänen angepasst und verbessert werden. Die Domänen müssen in die Lage versetzt werden, eigenständig Datenprodukte realisieren zu können, bei zentraler Definition der Policies, die für alle gelten müssen, beispielsweise in Bezug auf Identitäts- und Zugriffsmanagement. Und hier, beim Schaffen einer Plattform – geplant oder emergent als Ergebnis nur lose koordinierter Initiativen zur Reduktion des Kommunikations-Overheads –  nähert sich die Datenstrategie der klassischen IT-Strategie, insbesondere in Bezug auf Cloud-Architekturen.

Fazit: Mit einer Datenstrategie zu fundierten Entscheidungen

Wettbewerbsfähigkeit durch Innovation braucht eine gut durchdachte Datenstrategie. Durch die Orientierung an den Schlüsselaspekten Identität, Bitemporalität, Vernetzung und Föderalismus können Unternehmen das Potenzial ihrer Daten erschließen und fundierte Entscheidungen treffen.

7 Data-Strategy-Trends: Ist Ihre Datenstrategie noch zukunftsfähig?

Dabei geht es nicht nur um das Sammeln und Analysieren von Daten, sondern um die Schaffung einer Kultur der datengesteuerten Entscheidungsfindung. Sie erfordert die Fähigkeit, ein Gleichgewicht zwischen Zentralisierung und Dezentralisierung herzustellen. Dabei wird ein Kernelement unserer Gesellschaft, der Föderalismus, zum strukturierenden Element.

Tipps für die richtige Datenstrategie​ Read More »

Gehaltsgespräch führen: 3 Fehler, die das Gehalt mindern​

Gehaltsgespräch führen: 3 Fehler, die das Gehalt mindern​

Allgemein

Wir verraten Ihnen, welche Fehler Sie in Gehaltsgesprächen vermeiden sollten. Foto: Inna Dodor – shutterstock.comViele Mitarbeiter haben in Gehaltsverhandlungen Angst davor, zu viel zu verlangen und erwarten dadurch lieber weniger. Manche denken sich: “Wenn ich einmal im Unternehmen bin, habe ich bessere Chancen aufzusteigen und mich finanziell zu verbessern.” Doch das ist der falsche Ansatz. 3 Fehler, die Ihr Gehalt mindernDer größte Gehalts- beziehungsweise Karrieresprung lässt sich in der Regel bei einem Arbeitgeberwechsel realisieren. Dabei sollten Sie folgende Fehler vermeiden:1. Aktuelles Gehalt nennenPersonaler fragen gerne: “Wie viel verdienen Sie aktuell?” – diese Frage wird oft vor der eigentlichen Frage nach dem Wunschgehalt gestellt und ist lediglich für den Personaler vorteilhaft. Denn die erste Zahl, die in einer Gehaltsverhandlung genannt wird, beeinflusst das Verhandlungsergebnis sehr stark. Das ist der sogenannte Anker, den man in (Gehalts-)Verhandlungen setzt. Er dominiert das Gespräch erheblich. Ist also Ihr aktuelles Gehalt viel niedriger als die Summe, die der Personaler für die Position vorgesehen hat, kann und wird er sehr wahrscheinlich sein Angebot herunterschrauben, weil er sein Personalbudget nicht unnötig belasten möchte. Es besteht grundsätzlich ein Interessenskonflikt: Arbeitgeber möchten leistungsstarkes Personal günstig einkaufen und Arbeitnehmer möchten für ihren Einsatz so gut wie möglich bezahlt werden. Dass der Personaler das maximal vorgesehene Gehalt nicht freiwillig anbietet, liegt auf der Hand.Ihr zukünftiges Gehalt ist unabhängig von Ihrem aktuellen Gehalt. Ob Sie durch den Arbeitgeberwechsel einen Gehaltssprung von fünf oder 50 Prozent erzielen, sollte nur Ihnen bekannt sein. Die Erfahrung mit Klienten und der Austausch mit HR-Managern zeigt, dass viele Bewerber bei der Frage nach dem Wunschgehalt ihr aktuelles Gehalt nennen, obwohl gar nicht danach gefragt wurde. Ein klassischer Fehler dabei ist: “Aktuell verdiene ich x Euro und ich möchte mich nicht verschlechtern.” Indem der Bewerber der eigentlichen Frage ausweicht, signalisiert er zudem, dass er seinen Wert nicht kennt.Es gibt sogar Fälle, in denen der Bewerber den Job nicht bekommt, weil er zu wenig Gehalt verlangt, was viele Manager bestätigen. Wenn jemand weniger verlangt, als der Personaler für die Position eingeplant hat, dann schließt er daraus, dass die Person für diesen Posten noch nicht bereit ist. Vor allem, wenn es um Führungspositionen und sechsstellige Gehälter geht.2. Mindestgehalt nennen“Ich möchte mindestens x Euro verdienen.” In Verhandlungen sollten Sie nie vom Minimum ausgehen, da Sie somit ihre eigenen Chancen reduzieren und sich selbst nicht die Möglichkeit geben, das bestmögliche Ergebnis zu erzielen. Definieren Sie für sich ein Mindest-, Optimal- und Maximalgehalt. Verhandeln Sie dann in dieser Spanne und gehen Sie mit dem Maximalgehalt ins Gespräch.3. Gegenfrage stellenViele Bewerber stellen im Gespräch die Gegenfrage, wie viel Budget für die Stelle geplant ist. Dadurch erhoffen sie sich, dass der künftige Arbeitgeber ein passendes Jahresgehalt anbietet. Aufgrund seines Interessenkonfliktes wird der Personaler aber in keinem Fall das höchstmögliche Gehalt nennen. Er wird höchstwahrscheinlich im unteren Drittel starten – in der Hoffnung, dass der Arbeitnehmer damit einverstanden ist. Auch mit dieser Frage signalisiert der Bewerber, dass er seinen eigenen Wert nicht kennt und verunsichert ist. Wenn ihm sein eigener Wert bewusst wäre, würde er eine konkrete Summe nennen.Gehalt: 5 Verhandlungstipps für FrauenStrategie ist TrumpfZum einen sollten sich Frauen grundsätzlich darauf einstellen, dass überhaupt verhandelt wird. Zum Zweiten geht es um das Konkrete: wie viel „Puffer“ kalkuliert man ein? Mit welchen Argumenten belegt man die eigene Forderung? Solche Fragen muss man vorbereiten.Sich selbst eine gute Spielpartnerin seinWer nicht wirklich von sich selbst überzeugt ist, könnte über den „innerlichen Kritiker“ stolpern. Eine typisch weibliche Schwäche. Frauen sollten sich bewusst machen, was sie schon geschafft haben. Sie können zum Beispiel Zeugnisse oder Auszeichnungen über ihrem Schreibtisch aufhängen oder sich die Mails mit den anerkennenden Worten ihrer Kunden durchlesen. Cool und professionell bleibenEs geht nicht um ein undurchsichtiges Pokerface. Wohl aber um sachliche Distanz. Will das Gegenüber Forderungen herunterhandeln, dann ist das bitte nicht als persönlicher Angriff zu verstehen. Der Verhandlungspartner versucht eben, für sich oder sein Unternehmen einen guten Preis herauszuholen.Pulver nicht zu schnell verschießenFrauen neigen zu der Haltung: Bevor wir hier noch ewig herum verhandeln, gebe ich eben nach – sonst geht ja nie was vorwärts. Sie müssen verstehen, dass die Verhandlung Teil ihrer Arbeit oder ihres Auftrags ist und kein lästiges Beiwerk.Die Verhandlung spielerisch sehenEine spielerische Haltung kann nicht schaden. Frauen können sich die Argumente als Karten vorstellen. Wer wird welchen Spielzug ausführen? Hier gilt das Motto: “Wer nicht wagt, der nicht gewinnt!”Sandra SchubertSandra Schubert versteht sich als Expertin für Verkauf und positive Psychologie. Sie engagiert sich außerdem als Mentorin für ein MINT-Programm an der Fachhochschule Rosenheim (Hochschule für angewandte Wissenschaften). Ihre Beobachtung: “Die jungen Frauen brauchen keine Schutzzäune mehr!”Tanja PetersTanja Peters ist Verhandlungsexpertin, systemische Beraterin und Trainerin. Weil Erfolg nicht nur Kopfsache ist, biete sie auch MUTMuskeltraining an. 

Gehaltsgespräch führen: 3 Fehler, die das Gehalt mindern​ Wir verraten Ihnen, welche Fehler Sie in Gehaltsgesprächen vermeiden sollten.
Foto: Inna Dodor – shutterstock.comViele Mitarbeiter haben in Gehaltsverhandlungen Angst davor, zu viel zu verlangen und erwarten dadurch lieber weniger. Manche denken sich: “Wenn ich einmal im Unternehmen bin, habe ich bessere Chancen aufzusteigen und mich finanziell zu verbessern.” Doch das ist der falsche Ansatz. 3 Fehler, die Ihr Gehalt mindernDer größte Gehalts- beziehungsweise Karrieresprung lässt sich in der Regel bei einem Arbeitgeberwechsel realisieren. Dabei sollten Sie folgende Fehler vermeiden:1. Aktuelles Gehalt nennenPersonaler fragen gerne: “Wie viel verdienen Sie aktuell?” – diese Frage wird oft vor der eigentlichen Frage nach dem Wunschgehalt gestellt und ist lediglich für den Personaler vorteilhaft. Denn die erste Zahl, die in einer Gehaltsverhandlung genannt wird, beeinflusst das Verhandlungsergebnis sehr stark. Das ist der sogenannte Anker, den man in (Gehalts-)Verhandlungen setzt. Er dominiert das Gespräch erheblich. Ist also Ihr aktuelles Gehalt viel niedriger als die Summe, die der Personaler für die Position vorgesehen hat, kann und wird er sehr wahrscheinlich sein Angebot herunterschrauben, weil er sein Personalbudget nicht unnötig belasten möchte. Es besteht grundsätzlich ein Interessenskonflikt: Arbeitgeber möchten leistungsstarkes Personal günstig einkaufen und Arbeitnehmer möchten für ihren Einsatz so gut wie möglich bezahlt werden. Dass der Personaler das maximal vorgesehene Gehalt nicht freiwillig anbietet, liegt auf der Hand.Ihr zukünftiges Gehalt ist unabhängig von Ihrem aktuellen Gehalt. Ob Sie durch den Arbeitgeberwechsel einen Gehaltssprung von fünf oder 50 Prozent erzielen, sollte nur Ihnen bekannt sein. Die Erfahrung mit Klienten und der Austausch mit HR-Managern zeigt, dass viele Bewerber bei der Frage nach dem Wunschgehalt ihr aktuelles Gehalt nennen, obwohl gar nicht danach gefragt wurde. Ein klassischer Fehler dabei ist: “Aktuell verdiene ich x Euro und ich möchte mich nicht verschlechtern.” Indem der Bewerber der eigentlichen Frage ausweicht, signalisiert er zudem, dass er seinen Wert nicht kennt.Es gibt sogar Fälle, in denen der Bewerber den Job nicht bekommt, weil er zu wenig Gehalt verlangt, was viele Manager bestätigen. Wenn jemand weniger verlangt, als der Personaler für die Position eingeplant hat, dann schließt er daraus, dass die Person für diesen Posten noch nicht bereit ist. Vor allem, wenn es um Führungspositionen und sechsstellige Gehälter geht.2. Mindestgehalt nennen“Ich möchte mindestens x Euro verdienen.” In Verhandlungen sollten Sie nie vom Minimum ausgehen, da Sie somit ihre eigenen Chancen reduzieren und sich selbst nicht die Möglichkeit geben, das bestmögliche Ergebnis zu erzielen. Definieren Sie für sich ein Mindest-, Optimal- und Maximalgehalt. Verhandeln Sie dann in dieser Spanne und gehen Sie mit dem Maximalgehalt ins Gespräch.3. Gegenfrage stellenViele Bewerber stellen im Gespräch die Gegenfrage, wie viel Budget für die Stelle geplant ist. Dadurch erhoffen sie sich, dass der künftige Arbeitgeber ein passendes Jahresgehalt anbietet. Aufgrund seines Interessenkonfliktes wird der Personaler aber in keinem Fall das höchstmögliche Gehalt nennen. Er wird höchstwahrscheinlich im unteren Drittel starten – in der Hoffnung, dass der Arbeitnehmer damit einverstanden ist. Auch mit dieser Frage signalisiert der Bewerber, dass er seinen eigenen Wert nicht kennt und verunsichert ist. Wenn ihm sein eigener Wert bewusst wäre, würde er eine konkrete Summe nennen.Gehalt: 5 Verhandlungstipps für FrauenStrategie ist TrumpfZum einen sollten sich Frauen grundsätzlich darauf einstellen, dass überhaupt verhandelt wird. Zum Zweiten geht es um das Konkrete: wie viel „Puffer“ kalkuliert man ein? Mit welchen Argumenten belegt man die eigene Forderung? Solche Fragen muss man vorbereiten.Sich selbst eine gute Spielpartnerin seinWer nicht wirklich von sich selbst überzeugt ist, könnte über den „innerlichen Kritiker“ stolpern. Eine typisch weibliche Schwäche. Frauen sollten sich bewusst machen, was sie schon geschafft haben. Sie können zum Beispiel Zeugnisse oder Auszeichnungen über ihrem Schreibtisch aufhängen oder sich die Mails mit den anerkennenden Worten ihrer Kunden durchlesen. Cool und professionell bleibenEs geht nicht um ein undurchsichtiges Pokerface. Wohl aber um sachliche Distanz. Will das Gegenüber Forderungen herunterhandeln, dann ist das bitte nicht als persönlicher Angriff zu verstehen. Der Verhandlungspartner versucht eben, für sich oder sein Unternehmen einen guten Preis herauszuholen.Pulver nicht zu schnell verschießenFrauen neigen zu der Haltung: Bevor wir hier noch ewig herum verhandeln, gebe ich eben nach – sonst geht ja nie was vorwärts. Sie müssen verstehen, dass die Verhandlung Teil ihrer Arbeit oder ihres Auftrags ist und kein lästiges Beiwerk.Die Verhandlung spielerisch sehenEine spielerische Haltung kann nicht schaden. Frauen können sich die Argumente als Karten vorstellen. Wer wird welchen Spielzug ausführen? Hier gilt das Motto: “Wer nicht wagt, der nicht gewinnt!”Sandra SchubertSandra Schubert versteht sich als Expertin für Verkauf und positive Psychologie. Sie engagiert sich außerdem als Mentorin für ein MINT-Programm an der Fachhochschule Rosenheim (Hochschule für angewandte Wissenschaften). Ihre Beobachtung: “Die jungen Frauen brauchen keine Schutzzäune mehr!”Tanja PetersTanja Peters ist Verhandlungsexpertin, systemische Beraterin und Trainerin. Weil Erfolg nicht nur Kopfsache ist, biete sie auch MUTMuskeltraining an.

Gehaltsgespräch führen: 3 Fehler, die das Gehalt mindern​ Read More »

Nach oben scrollen