Computerhaus Quickborn

Allgemein

US-Handelszölle belasten hiesige Digitalindustrie kaum​

Allgemein

Chip Somodevilla – shutterstock.com Lange angedroht, hat US-Präsident Donald Trump jetzt mit seinen Handelszöllen auf Importgüter Fakten geschaffen: Gemäß der von Trump unterzeichneten Durchführungsverordnung belegen die USA ab dem 5. April Einfuhren aus allen Ländern mit Zöllen von zehn Prozent. Ab dem 9. April gelten dann weitere Regelungen, die für viele Länder höhere, laut Trump „reziproke“ Zölle vorsehen. Für die EU-Mitgliedsstaaten belaufen sie sich auf 20 Prozent.  Besonders hart treffen diese Maßnahmen Deutschland, waren doch die Vereinigten Staaten im vergangenen Jahr erstmals seit 2015 wieder der wichtigste Handelspartner. Laut Berechnungen des Statistischen Bundesamts (Destatis) wurden 2024 Waren im Wert von rund 253 Milliarden Euro zwischen den beiden Ländern gehandelt – mit einem hohen Außenhandelssaldo. So wurden Güter im Wert von 161,4 Milliarden Euro von Deutschland in die Vereinigten Staaten exportiert, aber nur Güter im Wert von 91,5 Milliarden Euro importiert.   Destatis Angesichts der erwarteten Preissteigerungen für Käufer in den USA müssen voraussichtlich so dominante Branchen wie die deutsche Autoindustrie mit Umsatzeinbußen infolge der höheren Einfuhrzölle rechnen. Infolge erwägt Mercedes Berichten zufolge einen teilweisen Rückzug aus den USA. VW hat wohl vorerst alle Transporte/Lieferungen in die USA gestoppt.  Immerhin waren die Vereinigten Staaten 2024 laut Destatis das größte Abnehmerland der deutschen Autoindustrie mit einem Anteil von 13,1 Prozent aller exportierten Neufahrzeuge oder rund 450.000 Stück, gefolgt von Großbritannien (11,3 Prozent) und Frankreich (7,4 Prozent). Importiert aus den Vereinigten Staaten wurden dagegen nur 136.000 Autos.  width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/76wlhro8ePV0pFkb88EBuJ?utm_source=oembed”> Fast nichts Digitales zu verzollen Die Auswirkungen von Trumps Strafzöllen auf digitale Technologien und Dienstleistungen „made in Germany“ dürften sich dagegen in Grenzen halten – Ausnahmen wie SAP ausgenommen. Ein schwacher Trost, weil es (wieder einmal) dokumentiert, wie schlecht Deutschland hier im internationalen Vergleich aufgestellt ist. Wie eine Umfrage des Bitkom zum Thema Digitale Souveränität ergab, verkaufen fast drei Viertel (71 Prozent) der befragten Unternehmen überhaupt keine digitalen Technologien und Dienstleistungen ins Ausland. Wenn doch, exportieren die meisten Unternehmen in EU-Länder (92 Prozent), die USA folgen immerhin mit 60 Prozent der Nennungen.  Weitaus deutlicher dürfte es dagegen deutsche Unternehmen treffen, falls die EU als Gegenmaßnahme selbst die Zölle auf US-Importe anhebt. In der Bitkom-Umfrage erklärten 41 der befragten Unternehmen, sie seien stark abhängig vom Import digitaler Technologien oder Services aus den USA, 40 Prozent bezeichneten sich als eher abhängig.   Grund dafür ist, dass die Vereinigten Staaten hierzulande zusammen mit der EU und China zu den wichtigsten Herkunftsländern und -regionen für Digitalimporte zählen. 87 Prozent der Umfrageteilnehmer gaben an, dass sie digitale Technologien oder Services aus den USA beziehen – 59 Prozent häufig, 28 Prozent in Einzelfällen.   Gleichzeitig gab die Hälfte der befragten Unternehmen an, sie hätten faktisch keine Abwehrmöglichkeit, wenn sie von ausländischen Partnern oder Regierungen unter Druck gesetzt würden. Zum Zeitpunkt der Umfrage Ende 2024, also nach Trumps Wahlsieg, aber noch vor konkreteren Hinweisen auf Strafzölle, hatten 51 Prozent eher oder sogar sehr großes Vertrauen in die USA – ein Wert, der sich mittlerweile wohl deutlich verschlechtert hat.    width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2Ciddz1Wx8K0m7mBbhzApR?utm_source=oembed”> 

US-Handelszölle belasten hiesige Digitalindustrie kaum​ Chip Somodevilla – shutterstock.com

Lange angedroht, hat US-Präsident Donald Trump jetzt mit seinen Handelszöllen auf Importgüter Fakten geschaffen: Gemäß der von Trump unterzeichneten Durchführungsverordnung belegen die USA ab dem 5. April Einfuhren aus allen Ländern mit Zöllen von zehn Prozent. Ab dem 9. April gelten dann weitere Regelungen, die für viele Länder höhere, laut Trump „reziproke“ Zölle vorsehen. Für die EU-Mitgliedsstaaten belaufen sie sich auf 20 Prozent. 

Besonders hart treffen diese Maßnahmen Deutschland, waren doch die Vereinigten Staaten im vergangenen Jahr erstmals seit 2015 wieder der wichtigste Handelspartner. Laut Berechnungen des Statistischen Bundesamts (Destatis) wurden 2024 Waren im Wert von rund 253 Milliarden Euro zwischen den beiden Ländern gehandelt – mit einem hohen Außenhandelssaldo. So wurden Güter im Wert von 161,4 Milliarden Euro von Deutschland in die Vereinigten Staaten exportiert, aber nur Güter im Wert von 91,5 Milliarden Euro importiert.  

Destatis

Angesichts der erwarteten Preissteigerungen für Käufer in den USA müssen voraussichtlich so dominante Branchen wie die deutsche Autoindustrie mit Umsatzeinbußen infolge der höheren Einfuhrzölle rechnen. Infolge erwägt Mercedes Berichten zufolge einen teilweisen Rückzug aus den USA. VW hat wohl vorerst alle Transporte/Lieferungen in die USA gestoppt. 

Immerhin waren die Vereinigten Staaten 2024 laut Destatis das größte Abnehmerland der deutschen Autoindustrie mit einem Anteil von 13,1 Prozent aller exportierten Neufahrzeuge oder rund 450.000 Stück, gefolgt von Großbritannien (11,3 Prozent) und Frankreich (7,4 Prozent). Importiert aus den Vereinigten Staaten wurden dagegen nur 136.000 Autos. 

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/76wlhro8ePV0pFkb88EBuJ?utm_source=oembed”>

Fast nichts Digitales zu verzollen

Die Auswirkungen von Trumps Strafzöllen auf digitale Technologien und Dienstleistungen „made in Germany“ dürften sich dagegen in Grenzen halten – Ausnahmen wie SAP ausgenommen. Ein schwacher Trost, weil es (wieder einmal) dokumentiert, wie schlecht Deutschland hier im internationalen Vergleich aufgestellt ist. Wie eine Umfrage des Bitkom zum Thema Digitale Souveränität ergab, verkaufen fast drei Viertel (71 Prozent) der befragten Unternehmen überhaupt keine digitalen Technologien und Dienstleistungen ins Ausland. Wenn doch, exportieren die meisten Unternehmen in EU-Länder (92 Prozent), die USA folgen immerhin mit 60 Prozent der Nennungen. 

Weitaus deutlicher dürfte es dagegen deutsche Unternehmen treffen, falls die EU als Gegenmaßnahme selbst die Zölle auf US-Importe anhebt. In der Bitkom-Umfrage erklärten 41 der befragten Unternehmen, sie seien stark abhängig vom Import digitaler Technologien oder Services aus den USA, 40 Prozent bezeichneten sich als eher abhängig.  

Grund dafür ist, dass die Vereinigten Staaten hierzulande zusammen mit der EU und China zu den wichtigsten Herkunftsländern und -regionen für Digitalimporte zählen. 87 Prozent der Umfrageteilnehmer gaben an, dass sie digitale Technologien oder Services aus den USA beziehen – 59 Prozent häufig, 28 Prozent in Einzelfällen.  

Gleichzeitig gab die Hälfte der befragten Unternehmen an, sie hätten faktisch keine Abwehrmöglichkeit, wenn sie von ausländischen Partnern oder Regierungen unter Druck gesetzt würden. Zum Zeitpunkt der Umfrage Ende 2024, also nach Trumps Wahlsieg, aber noch vor konkreteren Hinweisen auf Strafzölle, hatten 51 Prozent eher oder sogar sehr großes Vertrauen in die USA – ein Wert, der sich mittlerweile wohl deutlich verschlechtert hat.

  

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2Ciddz1Wx8K0m7mBbhzApR?utm_source=oembed”>

US-Handelszölle belasten hiesige Digitalindustrie kaum​ Weiterlesen »

KI im Auto: BMW und Alibaba vertiefen Partnerschaft​

Allgemein

BMWs Neue Klasse nutzt in China eine KI von Alibaba. BMW Group Neue, intelligente In-Car-Erlebnisse versprechen BMW und die Alibaba Group chinesischen Kunden der Neuen Klasse ab 2026. Dazu vertiefen die beiden Unternehmen ihre strategische Partnerschaft. BMW und Alibaba arbeiten seit 2015 in den Bereichen Cloud Computing, intelligente Fertigung, intelligente Vernetzung, intelligente Logistik und Sprachinteraktion zusammen. Kernstück der KI-Zusammenarbeit ist eine angepasste Version von Alibabas Large Language Model (LLM) Qwen, das vollständig in das BMW-Bediensystem eingebunden wird. Auf diese Weise sollen die Fahrzeugnutzer einen empathischen, kontextsensiblen Sprachassistenten erhalten. KI-Agenten der Neuen Klasse Der Assistent selbst enthält zwei KI-Agenten. Car Genius agiert als Bordexperte für Fahrzeugfunktionen und unterstützt bei Echtzeitanfragen. Travel Companion offeriert eine personalisierte Unterstützung bei Navigation, Unterhaltung und Lifestyle-Services. Die Agenten ermöglichen, wie es heißt, eine natürliche Interaktion, Multi-Agenten-Koordination und die Integration in digitale Ökosysteme – für ein intelligenteres, vernetztes Fahrerlebnis. Das kann die KI Dazu soll die KI über drei Kernfähigkeiten verfügen: menschenähnliche Interaktion, Koordination mehrerer Agenten, Integration digitaler Ökosysteme. Diese Fähigkeiten erlauben nach Angaben der beiden Partner eine genauere Erkennung von Absichten sowie eine komplexere Befehlsverarbeitung. Unter dem Strich resultierten daraus ein differenzierteres semantisches Verständnis und eine verbesserte logische Argumentation. Technisch basiert der in China verwendete neue BMW Intelligent Personal Assistant (IPA) der neuen Klasse auf einer maßgeschneiderten KI-Engine. Diese wurde BMW und Alibaba gemeinsam entwickelt. Die KI-Engine basiert auf der Yan-KI, einer von Qwen unterstützten intelligenten Cockpit-KI-Lösung. Sie stammt von Banma, dem Anbieter intelligenter Cockpit-Lösungen von Alibaba. Das KI-gestützte IPA wird erstmals in den in China produzierten Modellen der BMW Neue Klasse ab 2026 zum Einsatz kommen. Praxisbeispiel In der Praxis sollen die Benutzer so der KI komplexe Fragen stellen können. Alibaba verdeutlich dies an einem Beispiel: „Ich gehe heute Abend mit meinen Eltern und Verwandten Abendessen. Bitte empfehlen Sie ein Restaurant in der Nähe des Westtors des Chaoyang-Parks in Peking mit ebenerdigen Parkplätzen. Das Restaurant soll leichte Kost anbieten und pro Person etwa 200 CNY kosten. Es soll gute Kundenbewertungen haben.“ Um diese und ähnliche Fragen künftig zu beantworten, werde das IPA-System Echtzeit-Verkehrsdaten, die Verfügbarkeit von Ladestationen, Bewertungen des Veranstaltungsortes und Benutzerpräferenzen zusammenführen. Daraus generiere die KI dann maßgeschneiderte Empfehlungen und gewährleiste so eine stressfreie Reiseplanung. 

KI im Auto: BMW und Alibaba vertiefen Partnerschaft​ BMWs Neue Klasse nutzt in China eine KI von Alibaba.
BMW Group

Neue, intelligente In-Car-Erlebnisse versprechen BMW und die Alibaba Group chinesischen Kunden der Neuen Klasse ab 2026. Dazu vertiefen die beiden Unternehmen ihre strategische Partnerschaft. BMW und Alibaba arbeiten seit 2015 in den Bereichen Cloud Computing, intelligente Fertigung, intelligente Vernetzung, intelligente Logistik und Sprachinteraktion zusammen.

Kernstück der KI-Zusammenarbeit ist eine angepasste Version von Alibabas Large Language Model (LLM) Qwen, das vollständig in das BMW-Bediensystem eingebunden wird. Auf diese Weise sollen die Fahrzeugnutzer einen empathischen, kontextsensiblen Sprachassistenten erhalten.

KI-Agenten der Neuen Klasse

Der Assistent selbst enthält zwei KI-Agenten.

Car Genius

agiert als Bordexperte für Fahrzeugfunktionen und unterstützt bei Echtzeitanfragen.

Travel Companion

offeriert eine personalisierte Unterstützung bei Navigation, Unterhaltung und Lifestyle-Services.

Die Agenten ermöglichen, wie es heißt, eine natürliche Interaktion, Multi-Agenten-Koordination und die Integration in digitale Ökosysteme – für ein intelligenteres, vernetztes Fahrerlebnis.

Das kann die KI

Dazu soll die KI über drei Kernfähigkeiten verfügen:

menschenähnliche Interaktion,

Koordination mehrerer Agenten,

Integration digitaler Ökosysteme.

Diese Fähigkeiten erlauben nach Angaben der beiden Partner eine genauere Erkennung von Absichten sowie eine komplexere Befehlsverarbeitung. Unter dem Strich resultierten daraus ein differenzierteres semantisches Verständnis und eine verbesserte logische Argumentation.

Technisch basiert der in China verwendete neue BMW Intelligent Personal Assistant (IPA) der neuen Klasse auf einer maßgeschneiderten KI-Engine. Diese wurde BMW und Alibaba gemeinsam entwickelt.

Die KI-Engine basiert auf der Yan-KI, einer von Qwen unterstützten intelligenten Cockpit-KI-Lösung. Sie stammt von Banma, dem Anbieter intelligenter Cockpit-Lösungen von Alibaba. Das KI-gestützte IPA wird erstmals in den in China produzierten Modellen der BMW Neue Klasse ab 2026 zum Einsatz kommen.

Praxisbeispiel

In der Praxis sollen die Benutzer so der KI komplexe Fragen stellen können. Alibaba verdeutlich dies an einem Beispiel: „Ich gehe heute Abend mit meinen Eltern und Verwandten Abendessen. Bitte empfehlen Sie ein Restaurant in der Nähe des Westtors des Chaoyang-Parks in Peking mit ebenerdigen Parkplätzen. Das Restaurant soll leichte Kost anbieten und pro Person etwa 200 CNY kosten. Es soll gute Kundenbewertungen haben.“

Um diese und ähnliche Fragen künftig zu beantworten, werde das IPA-System Echtzeit-Verkehrsdaten, die Verfügbarkeit von Ladestationen, Bewertungen des Veranstaltungsortes und Benutzerpräferenzen zusammenführen. Daraus generiere die KI dann maßgeschneiderte Empfehlungen und gewährleiste so eine stressfreie Reiseplanung.

KI im Auto: BMW und Alibaba vertiefen Partnerschaft​ Weiterlesen »

“I understand just train station.”: Die häufigsten Fehler in der englischen E-Mail-Kommunikation​

Allgemein

Vorsicht vor “falschen Freunden” in der englischen E-Mail-Kommunikation: Manche Anglizismen haben in der Muttersprache eine ganz andere Bedeutung. Foto: ESB Professional – shutterstock.comEnglisch ist die Sprache der Popmusik, der Diplomatie, des wissenschaftlichen Diskurs, des kulturellen Austauschs, der Politik und … Englisch ist ganz einfach die dominierende Verkehrssprache der Gegenwart. Weltweit sprechen schätzungsweise 1,5 Milliarden Menschen Englisch – und somit ist Englisch am Ende dann doch die meistgesprochene Sprache der Welt. Daher kommt es wenig überraschend, dass internationale Geschäftsbeziehungen heute erst durch die englische Sprache möglich, arrangiert und gepflegt werden – ein gutes Business-Englisch wird deshalb zum Zwecke der gegenseitigen Verständigung ganz einfach vorausgesetzt.Wäre da doch bloß nicht diese englische E-Mail-Kommunikation. Hier ist schon der ein oder andere gestolpert. Und nicht selten sind diese Strauchler auch durchaus nachvollziehbar. Denn nicht immer scheint das, was auf den ersten Blick logisch sein mag, am Ende der E-Mail auch tatsächlich sinnvoll. Das sind die häufigsten Fehler in der englischen E-Mail-Kommunikation.False Friends – Immer diese falschen FreundeEnglisch verstehen ist das eine, Texte auf Englisch verfassen etwas ganz anderes. Das ist zunächst einmal eine ganz grundsätzlich Herausforderung. Jetzt kennt man (vermeintliche) englische Begriffe und verbaut diese voller Überzeugung in der Business-Korrespondenz. Leider existieren diese aber im Englischen überhaupt nicht oder haben zumindest eine vollkommen andere Bedeutung – “False Friends” werden solche Fauxpas genannt. Davon gibt es jede Menge. Falsche Freunde sind beispielsweise actual anstatt topical, current oder recent (aktuell), persons anstelle von people (Plural von person), all day für every day (den ganzen Tag) oder auch rests anstatt leftlovers beziehungsweise remains.Pseudoanglizismen – Im besten Falle wird geschmunzeltÄhnlich verführerisch wie die falschen Freunde sind Pseudo- beziehungsweise Scheinanglizismen. Auch da lauern etliche Fettnäpfchen in Sachen Übersetzung und Contentproduktion. Hier werden fälschlicherweise lexikalische Elemente des Englischen benutzt und ein Neologismus kreiert, der für Muttersprachler allerdings völlig sinnfrei erscheint und gänzlich unbekannt ist.Wenn nächstes Jahr die Fußball-Europameisterschaft die Nation zum gemeinsamen Public Viewing einlädt, könnte der ein oder andere nicht-deutsche Geschäftskunde eventuell verwirrt ob des Events sein. Was in Deutschland als Massenveranstaltung bekannt ist und sich auch niemand pikiert zeigt, ist im Englischen die Leichenschau. Ebenso kennt der Native Speaker weder Mobbing (Bullying) noch – und das kann dann im Business-Alltag schon mal für Schulterzucken sorgen – den Beamer (Projector). Als Beamer wird der bajuwarische Automobilkonzern BMW bezeichnet. Und Vorsicht, wenn es um Vorgesetzte geht. Der deutsche Chef ist im Englischen ein (Chef-)Koch und der Chief nichts anderes als das Stammesoberhaupt (Häuptling). Ein Vorgesetzter heißt Manager oder einfach Boss.“Lost in Translation” – Weniger ist mehrUm unnötige Fehler zu vermeiden, sollten die einzelnen Sätze sowie der gesamte Inhalt ganz allgemein nicht unnötig in die Länge gezogen werden. Zudem kann man auf übertriebenes Imponiergehabe aus den falschen Gründen, zum Beispiel der Versuch die E-Mail besonders intellektuell zu gestalten, getrost verzichten. Grundsätzlich gilt: Die Rhetorik in der englischen E-Mail-Konversation muss beileibe nicht der Qualität eines Parlamentsabgeordneten entsprechen. Das braucht es nicht. Die Balance aus Diplomatie, Klarheit und Geradlinigkeit bestimmt den (guten) Ton der Konversation. Ein Pauschal- oder Patentrezept ist zwar nur schwer zu definieren, wer sich jedoch an die KISS-Formel – keep it short and simple – hält, macht schon mal viel richtig. Wo Sätze kurz und einfach gehalten sind, ist auch wenig Spielraum für Fehler.“I’m foxdevilswild” – Bloß keine deutschen Sprichwörter und Redewendungen übersetzenZugegeben: Es ist nicht immer so einfach, den Sinn und die Bedeutung deutscher Redewendungen auf Englisch zu kommunizieren. Und doch werden eben diese häufig zum Opfer von 1:1-Übersetzungen. Im besten Falle wird geschmunzelt und sich darüber amüsiert, im Worst Case aber an der Kompetenz gezweifelt, da der Empfänger nur Bahnhof versteht – was im Übrigen mit “it’s all Greek to me” und nicht mit “I understand just train station” übersetzt wird.Viele Fehler passieren auch deshalb, weil die Texte zuerst auf Deutsch vorgeschrieben und anschließend Wort für Wort übersetzt werden. Die Orientierung am deutschen “Original” ist aber nicht sonderlich hilfreich. Das erlernen und die Nutzung von gängigen Phrasen dagegen kann die Kommunikation erheblich erleichtern und sogar fördern.Weitere Dos & Don’ts – So klappt’s auch mit den NachbarnDie Ansprache sowie das inhaltliche Korsett (Anrede, Aufbau, Grußformel, Anhänge) sind wichtige Faktoren in der englischen E-Mail-Kommunikation. Oft ist die Tonalität in englischen E-Mails eine andere als in deutschen. So ist in den USA der lockere Tonfall nichts ungewöhnlich, da begrüßt man sich auch schon mal mit einem fröhlichen “Hi”. In England geht es dagegen etwas persönlicher zu. Die korrekte Anrede ist natürlich auch in englischen E-Mails von der Situation und der Art des Verhältnisses zum Empfänger abhängig. Je nachdem ist sie mal formell, mal informell.Englische Muttersprachler gehen tendenziell auch schneller zum Vornamen über, was in Deutschland generell eher unüblich ist. Die typischen Abkürzen sollten ebenso bekannt sein. Eventuell sollte man auch darauf achten, nicht die verschiedenen Englisch-Varianten (BE, AE etc.) zu vermischen. Überhaupt sollte man sich mit seinen Gesprächspartnern vertraut machen. Denn neben der rein sprachlichen Qualifikation und Kompetenz spielen auch kulturelle Eigenheiten, nationale Standards sowie die ganz eigenen Idiome einer Sprache eine entscheidende Rolle in der englischen E-Mail-Kommunikation.Expertentipps: So gelingt die Präsentation auf Englisch1. Beziehen Sie Ihr Publikum einDas Publikum muss sich mit Ihren Worten identifizieren können. Geben Sie Ihren Zuhörern ein Problem zum Nachdenken: “Suppose your marketing budget was cut by 99 per cent tomorrow. How would you go about promoting your product?” Oder erzählen Sie Ihrem Publikum eine persönliche Geschichte oder eine Anekdote. Nutzen Sie “enrolling questions”: “How many of you want a lot more money in their lives? And how many of you want a lot more freedom in their lives? How many of you want both?” Wichtig hier ist: Sie wollen wirklich von Ihrem Publikum Handzeichen sehen. Deshalb: Wenn Sie die erste Frage stellen, heben Sie den rechten Arm weit nach oben. Bei der zweiten Frage heben Sie den linken Arm ganz nach oben. Halten Sie Blickkontakt zu Ihrem Publikum.2. Nutzen Sie WeichmacherIm Englischen werden viele sogenannte Softeners (Weichmacher) benutzt – Redewendungen, die das Gesagte diplomatischer klingen lassen, Worte wie like‚ quite, a little, fairly, all in all, probably, a bit, more or less. “I sometimes think we are just a little too price-concious.” Oder: “It’s not quite what we wanted, but it’s a little better than their last offer”. Sprechen Sie diese Sätze für sich mit und ohne den Softener. Wie fühlt es sich an, wenn Sie die Softener mit einbauen? Üben Sie, Weichmacher in Ihren Sätzen zu benutzen.3. Seien Sie meinungsfrohGerade in der Zweitsprache ist es oft schwierig, den Mut zu finden, die eigene Meinung selbstbewusst zu vertreten. Lernen Sie Redewendungen, die Ihnen helfen, Ihre Meinung in Meetings und Präsentationen höflich und bestimmt einzuleiten. Auch hier gelten wieder die Regeln der Softeners: I can imagine that…, In my experience … (niemand kann etwas gegen Ihre Erfahrung sagen), I can honestly say that … 4. Keine Angst vor FragenMachen Sie sich klar, dass Fragen nichts Schlimmes sind. Gerade wenn Sie in der Zweitsprache präsentieren, ist die Angst vor Fragen noch größer als in der Muttersprache. Zunächst einmal gilt: Bedanken Sie sich für jede Frage. “Thank you for posing that question” oder einfach nur “Thank you, great question”. Leiten Sie auch Ihre Antwort kurz ein. I think I answered that earlier.. oder Well, as I said … (Sie haben den Sachverhalt schon vorher erwähnt). I’m afraid I don’t have that information with me. Can I get back to you on that? Oder I don’t know that off the top of my head. Can I get back to you on that? (Sie haben die Antwort nicht an der Hand.) Irrelevante Fragen können mit “Good question and I am glad you asked that but I think that raises a different issue” beantwortet werden. Oder geben Sie die Frage an den Sprecher und das Publikum zurück: “Interesting (question). What do you think?” Oder: “Interesting (question). Does anybody have an answer for that?” 5. Nobody is perfectVerabschieden Sie sich von Ihrem deutschen Perfektionsdenken. Es ist wichtiger, dass Sie als authentisch und menschlich wahrgenommen werden, als dass Sie mit perfekter Grammatik einen langweiligen Vortrag halten. Nordamerikaner wollen unterhalten werden. Wenn Sie merken, Sie werden nicht verstanden, sprechen Sie es an: “I have a feeling I am not being clear? Is that true?” Wenn Sie merken, Sie haben etwas ungünstig ausgedrückt, sagen Sie einfach: “I think I was not clear. Let me rephrase that…” Im Englischen wird dies als ‘as-ising’ (telling it as it is) bezeichnet. 6. Achten Sie auf korrekte AnhängeFragen werden im Englischen nicht einfach nur mit Yes oder No beantwortet, es gibt immer einen Anhang. “Do you like your hotel?” – “Yes, I do. (Thanks for asking)” Oder :”Yes, very much (Thanks for asking).” “Could you say that again?” – “Yes, of course!” “Do you agree with me?” – “No, I am sorry, I (really) don’t.”7. PublikumskontaktLieben Sie Ihr Publikum! Anders als die Deutschen haben Nordamerikaner keine Angst vor dem Erfolg des anderen. Ihr Publikum möchte, dass Sie erfolgreich sind. Halten Sie auch während Ihrer Rede immer Blickkontakt. Sprechen Sie Ihr Publikum direkt an. Ihre Zuhörer wollen gesehen werden. Sie wollen sich von Ihnen angesprochen fühlen und nicht als lästiges Übel wahrgenommen werden. 

“I understand just train station.”: Die häufigsten Fehler in der englischen E-Mail-Kommunikation​ Vorsicht vor “falschen Freunden” in der englischen E-Mail-Kommunikation: Manche Anglizismen haben in der Muttersprache eine ganz andere Bedeutung.
Foto: ESB Professional – shutterstock.comEnglisch ist die Sprache der Popmusik, der Diplomatie, des wissenschaftlichen Diskurs, des kulturellen Austauschs, der Politik und … Englisch ist ganz einfach die dominierende Verkehrssprache der Gegenwart. Weltweit sprechen schätzungsweise 1,5 Milliarden Menschen Englisch – und somit ist Englisch am Ende dann doch die meistgesprochene Sprache der Welt. Daher kommt es wenig überraschend, dass internationale Geschäftsbeziehungen heute erst durch die englische Sprache möglich, arrangiert und gepflegt werden – ein gutes Business-Englisch wird deshalb zum Zwecke der gegenseitigen Verständigung ganz einfach vorausgesetzt.Wäre da doch bloß nicht diese englische E-Mail-Kommunikation. Hier ist schon der ein oder andere gestolpert. Und nicht selten sind diese Strauchler auch durchaus nachvollziehbar. Denn nicht immer scheint das, was auf den ersten Blick logisch sein mag, am Ende der E-Mail auch tatsächlich sinnvoll. Das sind die häufigsten Fehler in der englischen E-Mail-Kommunikation.False Friends – Immer diese falschen FreundeEnglisch verstehen ist das eine, Texte auf Englisch verfassen etwas ganz anderes. Das ist zunächst einmal eine ganz grundsätzlich Herausforderung. Jetzt kennt man (vermeintliche) englische Begriffe und verbaut diese voller Überzeugung in der Business-Korrespondenz. Leider existieren diese aber im Englischen überhaupt nicht oder haben zumindest eine vollkommen andere Bedeutung – “False Friends” werden solche Fauxpas genannt. Davon gibt es jede Menge. Falsche Freunde sind beispielsweise actual anstatt topical, current oder recent (aktuell), persons anstelle von people (Plural von person), all day für every day (den ganzen Tag) oder auch rests anstatt leftlovers beziehungsweise remains.Pseudoanglizismen – Im besten Falle wird geschmunzeltÄhnlich verführerisch wie die falschen Freunde sind Pseudo- beziehungsweise Scheinanglizismen. Auch da lauern etliche Fettnäpfchen in Sachen Übersetzung und Contentproduktion. Hier werden fälschlicherweise lexikalische Elemente des Englischen benutzt und ein Neologismus kreiert, der für Muttersprachler allerdings völlig sinnfrei erscheint und gänzlich unbekannt ist.Wenn nächstes Jahr die Fußball-Europameisterschaft die Nation zum gemeinsamen Public Viewing einlädt, könnte der ein oder andere nicht-deutsche Geschäftskunde eventuell verwirrt ob des Events sein. Was in Deutschland als Massenveranstaltung bekannt ist und sich auch niemand pikiert zeigt, ist im Englischen die Leichenschau. Ebenso kennt der Native Speaker weder Mobbing (Bullying) noch – und das kann dann im Business-Alltag schon mal für Schulterzucken sorgen – den Beamer (Projector). Als Beamer wird der bajuwarische Automobilkonzern BMW bezeichnet. Und Vorsicht, wenn es um Vorgesetzte geht. Der deutsche Chef ist im Englischen ein (Chef-)Koch und der Chief nichts anderes als das Stammesoberhaupt (Häuptling). Ein Vorgesetzter heißt Manager oder einfach Boss.“Lost in Translation” – Weniger ist mehrUm unnötige Fehler zu vermeiden, sollten die einzelnen Sätze sowie der gesamte Inhalt ganz allgemein nicht unnötig in die Länge gezogen werden. Zudem kann man auf übertriebenes Imponiergehabe aus den falschen Gründen, zum Beispiel der Versuch die E-Mail besonders intellektuell zu gestalten, getrost verzichten. Grundsätzlich gilt: Die Rhetorik in der englischen E-Mail-Konversation muss beileibe nicht der Qualität eines Parlamentsabgeordneten entsprechen. Das braucht es nicht. Die Balance aus Diplomatie, Klarheit und Geradlinigkeit bestimmt den (guten) Ton der Konversation. Ein Pauschal- oder Patentrezept ist zwar nur schwer zu definieren, wer sich jedoch an die KISS-Formel – keep it short and simple – hält, macht schon mal viel richtig. Wo Sätze kurz und einfach gehalten sind, ist auch wenig Spielraum für Fehler.“I’m foxdevilswild” – Bloß keine deutschen Sprichwörter und Redewendungen übersetzenZugegeben: Es ist nicht immer so einfach, den Sinn und die Bedeutung deutscher Redewendungen auf Englisch zu kommunizieren. Und doch werden eben diese häufig zum Opfer von 1:1-Übersetzungen. Im besten Falle wird geschmunzelt und sich darüber amüsiert, im Worst Case aber an der Kompetenz gezweifelt, da der Empfänger nur Bahnhof versteht – was im Übrigen mit “it’s all Greek to me” und nicht mit “I understand just train station” übersetzt wird.Viele Fehler passieren auch deshalb, weil die Texte zuerst auf Deutsch vorgeschrieben und anschließend Wort für Wort übersetzt werden. Die Orientierung am deutschen “Original” ist aber nicht sonderlich hilfreich. Das erlernen und die Nutzung von gängigen Phrasen dagegen kann die Kommunikation erheblich erleichtern und sogar fördern.Weitere Dos & Don’ts – So klappt’s auch mit den NachbarnDie Ansprache sowie das inhaltliche Korsett (Anrede, Aufbau, Grußformel, Anhänge) sind wichtige Faktoren in der englischen E-Mail-Kommunikation. Oft ist die Tonalität in englischen E-Mails eine andere als in deutschen. So ist in den USA der lockere Tonfall nichts ungewöhnlich, da begrüßt man sich auch schon mal mit einem fröhlichen “Hi”. In England geht es dagegen etwas persönlicher zu. Die korrekte Anrede ist natürlich auch in englischen E-Mails von der Situation und der Art des Verhältnisses zum Empfänger abhängig. Je nachdem ist sie mal formell, mal informell.Englische Muttersprachler gehen tendenziell auch schneller zum Vornamen über, was in Deutschland generell eher unüblich ist. Die typischen Abkürzen sollten ebenso bekannt sein. Eventuell sollte man auch darauf achten, nicht die verschiedenen Englisch-Varianten (BE, AE etc.) zu vermischen. Überhaupt sollte man sich mit seinen Gesprächspartnern vertraut machen. Denn neben der rein sprachlichen Qualifikation und Kompetenz spielen auch kulturelle Eigenheiten, nationale Standards sowie die ganz eigenen Idiome einer Sprache eine entscheidende Rolle in der englischen E-Mail-Kommunikation.Expertentipps: So gelingt die Präsentation auf Englisch1. Beziehen Sie Ihr Publikum einDas Publikum muss sich mit Ihren Worten identifizieren können. Geben Sie Ihren Zuhörern ein Problem zum Nachdenken: “Suppose your marketing budget was cut by 99 per cent tomorrow. How would you go about promoting your product?” Oder erzählen Sie Ihrem Publikum eine persönliche Geschichte oder eine Anekdote. Nutzen Sie “enrolling questions”: “How many of you want a lot more money in their lives? And how many of you want a lot more freedom in their lives? How many of you want both?” Wichtig hier ist: Sie wollen wirklich von Ihrem Publikum Handzeichen sehen. Deshalb: Wenn Sie die erste Frage stellen, heben Sie den rechten Arm weit nach oben. Bei der zweiten Frage heben Sie den linken Arm ganz nach oben. Halten Sie Blickkontakt zu Ihrem Publikum.2. Nutzen Sie WeichmacherIm Englischen werden viele sogenannte Softeners (Weichmacher) benutzt – Redewendungen, die das Gesagte diplomatischer klingen lassen, Worte wie like‚ quite, a little, fairly, all in all, probably, a bit, more or less. “I sometimes think we are just a little too price-concious.” Oder: “It’s not quite what we wanted, but it’s a little better than their last offer”. Sprechen Sie diese Sätze für sich mit und ohne den Softener. Wie fühlt es sich an, wenn Sie die Softener mit einbauen? Üben Sie, Weichmacher in Ihren Sätzen zu benutzen.3. Seien Sie meinungsfrohGerade in der Zweitsprache ist es oft schwierig, den Mut zu finden, die eigene Meinung selbstbewusst zu vertreten. Lernen Sie Redewendungen, die Ihnen helfen, Ihre Meinung in Meetings und Präsentationen höflich und bestimmt einzuleiten. Auch hier gelten wieder die Regeln der Softeners: I can imagine that…, In my experience … (niemand kann etwas gegen Ihre Erfahrung sagen), I can honestly say that … 4. Keine Angst vor FragenMachen Sie sich klar, dass Fragen nichts Schlimmes sind. Gerade wenn Sie in der Zweitsprache präsentieren, ist die Angst vor Fragen noch größer als in der Muttersprache. Zunächst einmal gilt: Bedanken Sie sich für jede Frage. “Thank you for posing that question” oder einfach nur “Thank you, great question”. Leiten Sie auch Ihre Antwort kurz ein. I think I answered that earlier.. oder Well, as I said … (Sie haben den Sachverhalt schon vorher erwähnt). I’m afraid I don’t have that information with me. Can I get back to you on that? Oder I don’t know that off the top of my head. Can I get back to you on that? (Sie haben die Antwort nicht an der Hand.) Irrelevante Fragen können mit “Good question and I am glad you asked that but I think that raises a different issue” beantwortet werden. Oder geben Sie die Frage an den Sprecher und das Publikum zurück: “Interesting (question). What do you think?” Oder: “Interesting (question). Does anybody have an answer for that?” 5. Nobody is perfectVerabschieden Sie sich von Ihrem deutschen Perfektionsdenken. Es ist wichtiger, dass Sie als authentisch und menschlich wahrgenommen werden, als dass Sie mit perfekter Grammatik einen langweiligen Vortrag halten. Nordamerikaner wollen unterhalten werden. Wenn Sie merken, Sie werden nicht verstanden, sprechen Sie es an: “I have a feeling I am not being clear? Is that true?” Wenn Sie merken, Sie haben etwas ungünstig ausgedrückt, sagen Sie einfach: “I think I was not clear. Let me rephrase that…” Im Englischen wird dies als ‘as-ising’ (telling it as it is) bezeichnet. 6. Achten Sie auf korrekte AnhängeFragen werden im Englischen nicht einfach nur mit Yes oder No beantwortet, es gibt immer einen Anhang. “Do you like your hotel?” – “Yes, I do. (Thanks for asking)” Oder :”Yes, very much (Thanks for asking).” “Could you say that again?” – “Yes, of course!” “Do you agree with me?” – “No, I am sorry, I (really) don’t.”7. PublikumskontaktLieben Sie Ihr Publikum! Anders als die Deutschen haben Nordamerikaner keine Angst vor dem Erfolg des anderen. Ihr Publikum möchte, dass Sie erfolgreich sind. Halten Sie auch während Ihrer Rede immer Blickkontakt. Sprechen Sie Ihr Publikum direkt an. Ihre Zuhörer wollen gesehen werden. Sie wollen sich von Ihnen angesprochen fühlen und nicht als lästiges Übel wahrgenommen werden.

“I understand just train station.”: Die häufigsten Fehler in der englischen E-Mail-Kommunikation​ Weiterlesen »

Python-Package-Installer-Tutorial: So nutzen Sie uv​

Allgemein

Python Packages lassen sich mit uv schneller händeln. So geht’s. Foto: slavchovr | shutterstock.com Eines der stichhaltigsten und langlebigsten Argumente gegen Python ist sein chaotisches Packaging-Ökosystem. Ein Beitrag auf dem Webcomic-Portal xkcd.com bringt die Zustände präzise auf den Punkt: Zwar hat sich die Situation im Laufe der Zeit verbessert – sie ist aber immer noch weit entfernt von “ideal”. Drittanbieter-Tools wie Poetry und pipenv, die auf den existierenden Python-Standards aufbauen, haben versucht, die Lücken zu füllen. Allerdings sind sie auf “elegantere” Workflows ausgelegt. Mit uv steht nun eine neue Ergänzung für das Package-Installations-Ökosystem von Python zur Verfügung. Das Tool wurde von Astral entwickelt und soll einen All-in-One-Ersatz für pip, venv und viele andere Kommandozeilen-basierte Python-Projektmanagement-Tools darstellen. Dabei hebt es sich im Wesentlichen dadurch ab, dass es vorwiegend in Rust geschrieben ist – was es im Vergleich mit der Konkurrenz um mehrere Größenordnungen schneller machen soll. In diesem Artikel lesen Sie, wie Sie erste Schritte mit uv gehen – und wo das Python-Tool an seine Grenzen stößt. uv einrichten Um uv zu installieren, gibt es mehrere Wege. Eine simple Option ist es dabei, auf pip zurückzugreifen und das Tool einer existierenden Python-Installation hinzuzufügen. Wenn sich letztgenannte im System-PATH befindet, rufen Sie das Tool einfach auf, indem Sie uv in die Kommandozeile eingeben. Sobald das Tool installiert ist, lässt sich über den Befehl uv venv eine virtuelle Umgebung in einem spezifizierten Verzeichnis erstellen. Wenn Sie dabei selbst keinen Verzeichnisnamen angeben, wird diese im .venv-Verzeichnis erstellt. Die von uv erstellte venv verhält sich ebenso wie eine “normale” virtuelle Umgebung – mit einigen Anpassungen: Weder pip noch setuptools sind standardmäßig installiert. Für ein uv-gemanagtes Python-Projekt sollten Sie wann immer möglich die Management-Tools von uv nutzen. pip mit uv nutzen uv unterhält seine eigene pip-Version, die Sie explizit aufrufen. Der Befehl ist identisch: uv pip install flask uv unterstützt zudem die große Mehrheit der üblichen pip-Verhaltensweisen – beispielsweise editierbare Installationen, optionale Komponentenauswahl (uv pip install “flask[dotenv]”) oder die Installation aus einer git-Quelle. “uv pip” mit Git nutzen Wenn Sie eine Anforderung aus einem Git-Repository oder GitHub installieren möchten, unterscheidet sich die Syntax im Vergleich zu pip: Sie müssen den Namen des zu installierenden Pakets und anschließend die Quelle angeben: uv pip install ” @ https://github.com//” Beachten Sie dabei die Anführungszeichen, die erforderlich sind, um das @ richtig zu entschlüsseln. Auch für die Authentifizierung über git-Links ist eine spezielle Syntax erforderlich. “uv pip freeze” statt “pip list” verwenden Um aufzulisten, was in einem bestimmten venv installiert ist, verwenden Sie zudem den Befehl uv pip freeze anstelle von uv pip list. Die Ergebnisse können in eine Datei umgeleitet werden, wie Sie es normalerweise mit pip freeze bewerkstelligen würden. Abhängigkeiten managen mit uv uv bietet mehrere Funktionen, um Abhängigkeiten innerhalb einer Projekt-Anforderungsliste festzulegen und zu synchronisieren. Wenn Sie uv pip freeze verwenden, wird die resultierende Liste explizite Versionsanforderungen für jedes Paket aufweisen – was zur Folge hat, dass sie auf die spezifischen Versionen festgelegt (“locked”) ist. Wenn Sie auf Grundlage bestehender pyproject.toml– oder requirements.in-Dateien ein festgelegtes Dependency-Set als requirement.txt generieren wollen, nutzen Sie dazu: uv pip compile pyproject.toml -o requirements.txt oder uv pip compile requirements in -o requirements.txt pip-compile und pip-sync mit uv nutzen Langfristig haben sich die Entwickler von uv zum Ziel gesetzt, mit ihrem Tool eine Alternative zu gleich mehreren Python-Tools zu kreieren. Zwei, die uv derzeit bereits ersetzen kann (zumindest auf rudimentäre Art und Weise), sind: pip-compile und pip-sync. pip-sync synchronisiert das Package-Set einer virtuellen Umgebung mit einer Liste von Paketen – für gewöhnlich einer requirements.txt-Datei. Um die in einem Projekt installierten Abhängigkeiten mit einer Liste festgelegter Dependencies auf ähnliche Weise wie mit dem pip-sync-Tool zu synchronisieren, verwenden Sie: uv pip sync requirements.txt pip-compile erzeugt eine requirements.in-Datei, die “gesperrte” Abhängigkeiten aus einer bestehenden pyproject.toml– oder requirements.txt-Datei aufistet: uv pip compile .pyproject.toml -o requirements.in Das speichert die in pyproject.toml aufgeführte “version-locked”-Liste von Abhängigkeiten in requirements.in – die anschließend genutzt werden kann, um spezifische Anforderunegn für bestimmte Konfigurationen wiederherzustellen. uv-Limitationen Das uv-Projekt steckt noch in den Kinderschuhen und kann insofern noch nicht mit vollem Funktionsumfang glänzen – diverse Features sind unvollständig, andere sollen später folgen. Zudem ist es nicht nur von Vorteil, dass uv in Rust geschrieben ist. Das macht das Tool zwar schnell und effizient, allerdings könnte der Umstand, Rust erst erlernen zu müssen, mit Blick auf zukünftige Kontributionen aus der Python-Community hinderlich sein. Weil in Rust geschriebene Python-Tools noch ein relativ neues Phänomen sind, lässt sich derzeit noch nicht abschätzen, welchen Einfluss dieser Punkt auf die Zukunft des Python-Tools haben wird. Eines steht jedoch bereits fest: Soll der Fokus auf Performance liegen, ist Rust eine gute Wahl für Python-Tools. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Python-Package-Installer-Tutorial: So nutzen Sie uv​ Python Packages lassen sich mit uv schneller händeln. So geht’s.
Foto: slavchovr | shutterstock.com

Eines der stichhaltigsten und langlebigsten Argumente gegen Python ist sein chaotisches Packaging-Ökosystem. Ein Beitrag auf dem Webcomic-Portal xkcd.com bringt die Zustände präzise auf den Punkt:

Zwar hat sich die Situation im Laufe der Zeit verbessert – sie ist aber immer noch weit entfernt von “ideal”. Drittanbieter-Tools wie Poetry und pipenv, die auf den existierenden Python-Standards aufbauen, haben versucht, die Lücken zu füllen. Allerdings sind sie auf “elegantere” Workflows ausgelegt.

Mit uv steht nun eine neue Ergänzung für das Package-Installations-Ökosystem von Python zur Verfügung. Das Tool wurde von Astral entwickelt und soll einen All-in-One-Ersatz für pip, venv und viele andere Kommandozeilen-basierte Python-Projektmanagement-Tools darstellen. Dabei hebt es sich im Wesentlichen dadurch ab, dass es vorwiegend in Rust geschrieben ist – was es im Vergleich mit der Konkurrenz um mehrere Größenordnungen schneller machen soll.

In diesem Artikel lesen Sie, wie Sie erste Schritte mit uv gehen – und wo das Python-Tool an seine Grenzen stößt.

uv einrichten

Um uv zu installieren, gibt es mehrere Wege. Eine simple Option ist es dabei, auf pip zurückzugreifen und das Tool einer existierenden Python-Installation hinzuzufügen. Wenn sich letztgenannte im System-PATH befindet, rufen Sie das Tool einfach auf, indem Sie uv in die Kommandozeile eingeben.

Sobald das Tool installiert ist, lässt sich über den Befehl uv venv eine virtuelle Umgebung in einem spezifizierten Verzeichnis erstellen. Wenn Sie dabei selbst keinen Verzeichnisnamen angeben, wird diese im .venv-Verzeichnis erstellt.

Die von uv erstellte venv verhält sich ebenso wie eine “normale” virtuelle Umgebung – mit einigen Anpassungen: Weder pip noch setuptools sind standardmäßig installiert. Für ein uv-gemanagtes Python-Projekt sollten Sie wann immer möglich die Management-Tools von uv nutzen.

pip mit uv nutzen

uv unterhält seine eigene pip-Version, die Sie explizit aufrufen. Der Befehl ist identisch:

uv pip install flask

uv unterstützt zudem die große Mehrheit der üblichen pip-Verhaltensweisen – beispielsweise editierbare Installationen, optionale Komponentenauswahl (uv pip install “flask[dotenv]”) oder die Installation aus einer git-Quelle.

“uv pip” mit Git nutzen

Wenn Sie eine Anforderung aus einem Git-Repository oder GitHub installieren möchten, unterscheidet sich die Syntax im Vergleich zu pip: Sie müssen den Namen des zu installierenden Pakets und anschließend die Quelle angeben:

uv pip install ” @ https://github.com//”

Beachten Sie dabei die Anführungszeichen, die erforderlich sind, um das @ richtig zu entschlüsseln. Auch für die Authentifizierung über git-Links ist eine spezielle Syntax erforderlich.

“uv pip freeze” statt “pip list” verwenden

Um aufzulisten, was in einem bestimmten venv installiert ist, verwenden Sie zudem den Befehl uv pip freeze anstelle von uv pip list. Die Ergebnisse können in eine Datei umgeleitet werden, wie Sie es normalerweise mit pip freeze bewerkstelligen würden.

Abhängigkeiten managen mit uv

uv bietet mehrere Funktionen, um Abhängigkeiten innerhalb einer Projekt-Anforderungsliste festzulegen und zu synchronisieren. Wenn Sie uv pip freeze verwenden, wird die resultierende Liste explizite Versionsanforderungen für jedes Paket aufweisen – was zur Folge hat, dass sie auf die spezifischen Versionen festgelegt (“locked”) ist.

Wenn Sie auf Grundlage bestehender pyproject.toml– oder requirements.in-Dateien ein festgelegtes Dependency-Set als requirement.txt generieren wollen, nutzen Sie dazu:

uv pip compile pyproject.toml -o requirements.txt

oder

uv pip compile requirements in -o requirements.txt

pip-compile und pip-sync mit uv nutzen

Langfristig haben sich die Entwickler von uv zum Ziel gesetzt, mit ihrem Tool eine Alternative zu gleich mehreren Python-Tools zu kreieren. Zwei, die uv derzeit bereits ersetzen kann (zumindest auf rudimentäre Art und Weise), sind:

pip-compile und

pip-sync.

pip-sync synchronisiert das Package-Set einer virtuellen Umgebung mit einer Liste von Paketen – für gewöhnlich einer requirements.txt-Datei. Um die in einem Projekt installierten Abhängigkeiten mit einer Liste festgelegter Dependencies auf ähnliche Weise wie mit dem pip-sync-Tool zu synchronisieren, verwenden Sie:

uv pip sync requirements.txt

pip-compile erzeugt eine requirements.in-Datei, die “gesperrte” Abhängigkeiten aus einer bestehenden pyproject.toml– oder requirements.txt-Datei aufistet:

uv pip compile .pyproject.toml -o requirements.in

Das speichert die in pyproject.toml aufgeführte “version-locked”-Liste von Abhängigkeiten in requirements.in – die anschließend genutzt werden kann, um spezifische Anforderunegn für bestimmte Konfigurationen wiederherzustellen.

uv-Limitationen

Das uv-Projekt steckt noch in den Kinderschuhen und kann insofern noch nicht mit vollem Funktionsumfang glänzen – diverse Features sind unvollständig, andere sollen später folgen.

Zudem ist es nicht nur von Vorteil, dass uv in Rust geschrieben ist. Das macht das Tool zwar schnell und effizient, allerdings könnte der Umstand, Rust erst erlernen zu müssen, mit Blick auf zukünftige Kontributionen aus der Python-Community hinderlich sein. Weil in Rust geschriebene Python-Tools noch ein relativ neues Phänomen sind, lässt sich derzeit noch nicht abschätzen, welchen Einfluss dieser Punkt auf die Zukunft des Python-Tools haben wird. Eines steht jedoch bereits fest: Soll der Fokus auf Performance liegen, ist Rust eine gute Wahl für Python-Tools. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Python-Package-Installer-Tutorial: So nutzen Sie uv​ Weiterlesen »

KubeVirt erklärt​

Allgemein

Shawn Hempel / Shutterstock Moderne IT-Deployments beinhalten viele unterschiedliche Abstraktionen – zum Beispiel Virtualisierungen. Dabei werden (ganz allgemein) physische Hardware-Komponenten abstrahiert, um mehr Workloads zu ermöglichen – beispielsweise über virtuelle Maschinen (VMs). Das war bislang das Steckenpferd von VMware. Allerdings sinkt deren Technologie seit der Übernahme durch Broadcom in der Gunst der Kunden – unter anderem wegen einer neuen Lizenzpolitik. Das treibt wiederum das Interesse am Open-Source-Projekt KubeVirt. Dieses ermöglicht Anwendern, VM-Workloads direkt in Kubernetes-Implementierungen bereitzustellen und zu managen. In diesem Artikel lesen Sie: was KubeVirt ist und kann, wie seine Architektur aufgebaut ist, welche Vor- und Nachteile die Technologie bringt, und wie Sie KubeVirt für VMware-Migrationen nutzen. Was ist KubeVirt? Ins Leben gerufen wurde das KubeVirt-Projekt im Jahr 2016 vom Linux-Anbieter Red Hat. Seit 2019 läuft es unter dem Banner der Cloud Native Computing Foundation (CNCF) – und profitiert so auch von einem breiten Ökosystem und diversen Kontributoren. Zu letzteren zählen unter anderem: Apple, CloudFlare, IBM, NEC, Nvidia, SAP und SUSE. Gepflegt und gemanagt wird KubeVirt über sein primäres GitHub-Repository. Kommerzieller Support und Tools für KubeVirt sind von mehreren Anbietern erhältlich. Das quelloffene Projekt wird seiner Nomenklatur gerecht: Es kombiniert das Container-Orchestrierungssystem Kubernetes mit virtuellen Maschinen. Das ist bemerkenswert, weil Kubernetes standardmäßig nicht auf VMs, sondern auf Container-Virtualisierung setzt. Auf der anderen Seite arbeiten traditionelle Virtualisierungs-Plattformen (wie etwa VMware vSphere) unabhängig von Container-Orchestrierungssystemen und erfordern separate Management-Tools, Workflows und Expertise. Diese Lücke schließt KubeVirt: Die Lösung ermöglicht es, sowohl VMs als auch Container in derselben Kubernetes-Umgebung auszuführen. Dabei sorgt KubeVirt dafür, dass sich virtuelle Maschinen wie native Kubernetes-Ressourcen verhalten. Ops-Teams können also die gleichen Prinzipien, Muster und Tools auf VMs anwenden, die sie nutzen, um Container zu managen. Somit realisiert die Open-Source-Lösung ein konsistentes Betriebsmodell – sowohl für Workloads auf VM- als auch auf Container-Basis.  Zusammengefasst können Sie mit KubeVirt: traditionelle VM-Workloads neben containerisierten Anwendungen in Kubernetes-Clustern ausführen. VMs und Container mit denselben Kubernetes-Tools und -Workflows managen. Legacy-Anwendungen ohne sofortige Containerisierung in Cloud-Native-Umgebungen migrieren. optimierte Ressourcennutzung, weil VMs und Container auf derselben Hardware laufen. VMs schrittweise in Microservices umwandeln, um die Plattformdichte zu erhöhen und Kosten zu sparen. Die KubeVirt-Architektur Aus funktionaler Sicht gibt es mit Blick auf die Architektur von KubeVirt mehrere Schlüsselkomponenten. Dazu gehören: KubeVirt erweitert die Kubernetes-API mit Customer Resource Definitions (CRDs). Diese befähigen Kubernetes, verschiedene Ressourcenarten auszuführen. Dabei ist die KubeVirt-CRD speziell dafür konfiguriert, VM-bezogene Objekte zu verarbeiten. So können die Benutzer VMs über Spezifikationen wie CPU, Memory und Netzwerkschnittstellen zu definieren. Der virt-api-server bildet den Einstiegspunkt für alle virtualisierungsbezogenen Prozesse. Er validiert und verarbeitet Virtual-Machine-Image- (VMI-) Ressourcen, bevor diese in das System einfließen. Der Kubernetes-Operator virt-controller ist für die clusterübergreifende Logik verantwortlich und managt den Lebenszyklus von VMs. Er reagiert auf neue VM-Objekte, die an den API-Server gesendet werden und erstellt die erforderlichen Kubernetes-Pods. Für jedes VMI-Objekt erstellt KubeVirt einen entsprechenden Pod, der die virt-launcher-Komponente ausführt. Diese nutzt libvirtd, um den eigentlichen VM-Prozess innerhalb der containerisierten Umgebung zu starten und zu managen. Bei virt-handlers handelt es sich um Kubernetes-System-Daemons, die auf jedem Knoten ausgeführt werden und für spezifische Prozesse zuständig sind – etwa dafür, virtuelle Maschinen zu starten und zu konfigurieren. Diese Komponenten stellen sicher, dass VMs mit dem gewünschten State in Einklang stehen. Weil VMs (dank CRD) nur ein weiterer Ressourcentyp sind, sind sie funktional in Kubernetes-Pods gekapselt. Als solche profitieren sie von Pod-Netzwerken und -Storage, die über Standard-Kubernetes-Tools wie kubectl gemanagt werden. Die Vor- & Nachteile von KubeVirt Wie jede andere Technologie bietet auch KubeVirt seinen Anwender(organisatione)n Vorteile – und stellt sie vor einige Herausforderungen. Auf der Benefit-Seite steht, dass KubeVirt: eine Plattform für VM- und Container-Workloads bereitstellt – und damit ein vereinheitlichtes Management. Das reduziert die Komplexität, die ansonsten durch separate Management-Umgebungen entstünde. die Ressourceneffizienz optimiert und damit potenziell Kosten senkt. Im Vergleich zu traditionellen VMs bietet KubeVirt zudem eine höhere Workload-Dichte. sich dank seiner Performanz schneller an sich verändernde CPU-Anforderungen und Speicherzuweisungen anpassen kann. Das führt im Vergleich zu herkömmlichen Virtualisierungslösungen zu einer geringeren Latenz. die Vorteile der nativen Sicherheit von Kubernetes nutzen kann. Das gewährleistet, dass Richtlinien in allen Umgebungen (inklusive VMs) konsistent angewendet werden. von allen großen Public-Cloud-Anbietern unterstützt wird. Mit Blick auf Deployment-Umgebungen für KubeVirt-Workloads sind also keine Probleme zu erwarten.   Nachteile beziehungsweise Challenges können sich hingegen daraus ergeben, dass KubeVirt: in Teilen eine steile Lernkurve aufwirft. Um VMs in einer Kubernetes-Umgebung zu managen, müssen sich Teams möglicherweise an neue Tools und Prozesse gewöhnen. im Vergleich zu Bare-Metal-(Virtualisierungs-)Lösungen einen höheren Performance Overhead verursacht, wenn es darum geht VMs in Containern auszuführen. eine komplexe Migration nach sich ziehen kann, wenn bestehende VM-Workloads migriert werden sollen. Diese sollte für einen reibungslosen Übergang sorgfältig geplant werden. KubeVirt für VMware-Migrationen KubeVirt kann es erleichtern, VMware-basierte Workloads in eine Kubernetes-Umgebung zu migrieren. Das erreicht die Technologie durch zwei wesentliche Ansätze: Bei der Lift-and-Shift-Migration werden VMs von VMware mit minimalen Änderungen auf KubeVirt repliziert. Diese Migrationsform ist schneller und reduziert Risiken, erfordert jedoch möglicherweise diverse Änderungen an Legacy-Applikationen. Beim Rebuilding-Prozess für VMs werden neue virtuelle Maschinen in KubeVirt erstellt und Anwendung sowie Daten migriert. Dieser Ansatz ist zeitaufwendiger, bietet dafür aber Optimierungsmöglichkeiten. Der Migrationsprozess selbst umfasst in der Regel drei Schritte: wird die aktuelle VMware-Umgebung bewertet. ein Kubernetes-Cluster mit KubeVirt erstellt. VM-Disk-Images mithilfe von Tools wie virt-v2v oder virt-p2v übertragen. Forbes Guthrie, Director of Product Management bei SUSE, beobachtet, dass viele Unternehmen auf das „Migration Toolkit for Virtualization“ von Red Hat zurückgreifen, wenn es darum geht, Workloads auf KubeVirt zu migrieren. Dieses Toolkit basiert wiederum auf dem Community-Projekt Forklift, das Virtualisierungsumgebungen inventarisiert und VMs migriert. „Wenn es um größeren Umgebungen geht, arbeiten viele Kunden direkt mit uns zusammen, um die gesamte Virtualisierungsumgebung zu bewerten und einen schrittweisen Migrationsansatz zu entwickeln. Dieser kann diverse Faktoren einbeziehen, um das Risiko der Migration zu minimieren und Geschäftszyklen zu berücksichtigen – am Ende aber das angestrebte zeitliche Ziel für die Migration zu erreichen“, hält der SUSE-Mann fest. Das steigende Interesse an KubeVirt kann auch Sachin Mullick, Senior Manager bei Red Hat, bestätigen: „Die Technologie und ihr Ökosystem wurden im vergangenen Jahr um ein Vielfaches häufiger genutzt – und das Interesse hält sich auch 2025. Viele Anwender suchen derzeit nach Alternativen für ihren bisherigen Virtualisierungs-Hypervisor.“ (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

KubeVirt erklärt​ Shawn Hempel / Shutterstock

Moderne IT-Deployments beinhalten viele unterschiedliche Abstraktionen – zum Beispiel Virtualisierungen. Dabei werden (ganz allgemein) physische Hardware-Komponenten abstrahiert, um mehr Workloads zu ermöglichen – beispielsweise über virtuelle Maschinen (VMs). Das war bislang das Steckenpferd von VMware. Allerdings sinkt deren Technologie seit der Übernahme durch Broadcom in der Gunst der Kunden – unter anderem wegen einer neuen Lizenzpolitik.

Das treibt wiederum das Interesse am Open-Source-Projekt KubeVirt. Dieses ermöglicht Anwendern, VM-Workloads direkt in Kubernetes-Implementierungen bereitzustellen und zu managen.

In diesem Artikel lesen Sie:

was KubeVirt ist und kann,

wie seine Architektur aufgebaut ist,

welche Vor- und Nachteile die Technologie bringt, und

wie Sie KubeVirt für VMware-Migrationen nutzen.

Was ist KubeVirt?

Ins Leben gerufen wurde das KubeVirt-Projekt im Jahr 2016 vom Linux-Anbieter Red Hat. Seit 2019 läuft es unter dem Banner der Cloud Native Computing Foundation (CNCF) – und profitiert so auch von einem breiten Ökosystem und diversen Kontributoren. Zu letzteren zählen unter anderem:

Apple,

CloudFlare,

IBM,

NEC,

Nvidia,

SAP und

SUSE.

Gepflegt und gemanagt wird KubeVirt über sein primäres GitHub-Repository. Kommerzieller Support und Tools für KubeVirt sind von mehreren Anbietern erhältlich.

Das quelloffene Projekt wird seiner Nomenklatur gerecht: Es kombiniert das Container-Orchestrierungssystem Kubernetes mit virtuellen Maschinen. Das ist bemerkenswert, weil Kubernetes standardmäßig nicht auf VMs, sondern auf Container-Virtualisierung setzt. Auf der anderen Seite arbeiten traditionelle Virtualisierungs-Plattformen (wie etwa VMware vSphere) unabhängig von Container-Orchestrierungssystemen und erfordern separate Management-Tools, Workflows und Expertise.

Diese Lücke schließt KubeVirt: Die Lösung ermöglicht es, sowohl VMs als auch Container in derselben Kubernetes-Umgebung auszuführen. Dabei sorgt KubeVirt dafür, dass sich virtuelle Maschinen wie native Kubernetes-Ressourcen verhalten. Ops-Teams können also die gleichen Prinzipien, Muster und Tools auf VMs anwenden, die sie nutzen, um Container zu managen. Somit realisiert die Open-Source-Lösung ein konsistentes Betriebsmodell – sowohl für Workloads auf VM- als auch auf Container-Basis. 

Zusammengefasst können Sie mit KubeVirt:

traditionelle VM-Workloads neben containerisierten Anwendungen in Kubernetes-Clustern ausführen.

VMs und Container mit denselben Kubernetes-Tools und -Workflows managen.

Legacy-Anwendungen ohne sofortige Containerisierung in Cloud-Native-Umgebungen migrieren.

optimierte Ressourcennutzung, weil VMs und Container auf derselben Hardware laufen.

VMs schrittweise in Microservices umwandeln, um die Plattformdichte zu erhöhen und Kosten zu sparen.

Die KubeVirt-Architektur

Aus funktionaler Sicht gibt es mit Blick auf die Architektur von KubeVirt mehrere Schlüsselkomponenten. Dazu gehören:

KubeVirt erweitert die Kubernetes-API mit Customer Resource Definitions (CRDs). Diese befähigen Kubernetes, verschiedene Ressourcenarten auszuführen. Dabei ist die KubeVirt-CRD speziell dafür konfiguriert, VM-bezogene Objekte zu verarbeiten. So können die Benutzer VMs über Spezifikationen wie CPU, Memory und Netzwerkschnittstellen zu definieren.

Der virt-api-server bildet den Einstiegspunkt für alle virtualisierungsbezogenen Prozesse. Er validiert und verarbeitet Virtual-Machine-Image- (VMI-) Ressourcen, bevor diese in das System einfließen.

Der Kubernetes-Operator virt-controller ist für die clusterübergreifende Logik verantwortlich und managt den Lebenszyklus von VMs. Er reagiert auf neue VM-Objekte, die an den API-Server gesendet werden und erstellt die erforderlichen Kubernetes-Pods.

Für jedes VMI-Objekt erstellt KubeVirt einen entsprechenden Pod, der die virt-launcher-Komponente ausführt. Diese nutzt libvirtd, um den eigentlichen VM-Prozess innerhalb der containerisierten Umgebung zu starten und zu managen.

Bei virt-handlers handelt es sich um Kubernetes-System-Daemons, die auf jedem Knoten ausgeführt werden und für spezifische Prozesse zuständig sind – etwa dafür, virtuelle Maschinen zu starten und zu konfigurieren. Diese Komponenten stellen sicher, dass VMs mit dem gewünschten State in Einklang stehen.

Weil VMs (dank CRD) nur ein weiterer Ressourcentyp sind, sind sie funktional in Kubernetes-Pods gekapselt. Als solche profitieren sie von Pod-Netzwerken und -Storage, die über Standard-Kubernetes-Tools wie kubectl gemanagt werden.

Die Vor- & Nachteile von KubeVirt

Wie jede andere Technologie bietet auch KubeVirt seinen Anwender(organisatione)n Vorteile – und stellt sie vor einige Herausforderungen.

Auf der Benefit-Seite steht, dass KubeVirt:

eine Plattform für VM- und Container-Workloads bereitstellt – und damit ein vereinheitlichtes Management. Das reduziert die Komplexität, die ansonsten durch separate Management-Umgebungen entstünde.

die Ressourceneffizienz optimiert und damit potenziell Kosten senkt. Im Vergleich zu traditionellen VMs bietet KubeVirt zudem eine höhere Workload-Dichte.

sich dank seiner Performanz schneller an sich verändernde CPU-Anforderungen und Speicherzuweisungen anpassen kann. Das führt im Vergleich zu herkömmlichen Virtualisierungslösungen zu einer geringeren Latenz.

die Vorteile der nativen Sicherheit von Kubernetes nutzen kann. Das gewährleistet, dass Richtlinien in allen Umgebungen (inklusive VMs) konsistent angewendet werden.

von allen großen Public-Cloud-Anbietern unterstützt wird. Mit Blick auf Deployment-Umgebungen für KubeVirt-Workloads sind also keine Probleme zu erwarten.  

Nachteile beziehungsweise Challenges können sich hingegen daraus ergeben, dass KubeVirt:

in Teilen eine steile Lernkurve aufwirft. Um VMs in einer Kubernetes-Umgebung zu managen, müssen sich Teams möglicherweise an neue Tools und Prozesse gewöhnen.

im Vergleich zu Bare-Metal-(Virtualisierungs-)Lösungen einen höheren Performance Overhead verursacht, wenn es darum geht VMs in Containern auszuführen.

eine komplexe Migration nach sich ziehen kann, wenn bestehende VM-Workloads migriert werden sollen. Diese sollte für einen reibungslosen Übergang sorgfältig geplant werden.

KubeVirt für VMware-Migrationen

KubeVirt kann es erleichtern, VMware-basierte Workloads in eine Kubernetes-Umgebung zu migrieren. Das erreicht die Technologie durch zwei wesentliche Ansätze:

Bei der Lift-and-Shift-Migration werden VMs von VMware mit minimalen Änderungen auf KubeVirt repliziert. Diese Migrationsform ist schneller und reduziert Risiken, erfordert jedoch möglicherweise diverse Änderungen an Legacy-Applikationen.

Beim Rebuilding-Prozess für VMs werden neue virtuelle Maschinen in KubeVirt erstellt und Anwendung sowie Daten migriert. Dieser Ansatz ist zeitaufwendiger, bietet dafür aber Optimierungsmöglichkeiten.

Der Migrationsprozess selbst umfasst in der Regel drei Schritte:

wird die aktuelle VMware-Umgebung bewertet.

ein Kubernetes-Cluster mit KubeVirt erstellt.

VM-Disk-Images mithilfe von Tools wie virt-v2v oder virt-p2v übertragen.

Forbes Guthrie, Director of Product Management bei SUSE, beobachtet, dass viele Unternehmen auf das „Migration Toolkit for Virtualization“ von Red Hat zurückgreifen, wenn es darum geht, Workloads auf KubeVirt zu migrieren. Dieses Toolkit basiert wiederum auf dem Community-Projekt Forklift, das Virtualisierungsumgebungen inventarisiert und VMs migriert.

„Wenn es um größeren Umgebungen geht, arbeiten viele Kunden direkt mit uns zusammen, um die gesamte Virtualisierungsumgebung zu bewerten und einen schrittweisen Migrationsansatz zu entwickeln. Dieser kann diverse Faktoren einbeziehen, um das Risiko der Migration zu minimieren und Geschäftszyklen zu berücksichtigen – am Ende aber das angestrebte zeitliche Ziel für die Migration zu erreichen“, hält der SUSE-Mann fest.

Das steigende Interesse an KubeVirt kann auch Sachin Mullick, Senior Manager bei Red Hat, bestätigen: „Die Technologie und ihr Ökosystem wurden im vergangenen Jahr um ein Vielfaches häufiger genutzt – und das Interesse hält sich auch 2025. Viele Anwender suchen derzeit nach Alternativen für ihren bisherigen Virtualisierungs-Hypervisor.“ (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

KubeVirt erklärt​ Weiterlesen »

Wie KI die Fertigungsbranche transformiert​

Allgemein

width=”2433″ height=”1369″ sizes=”(max-width: 2433px) 100vw, 2433px”>Auch die Fertigungsindustrie setzt zunehmend auf Künstliche Intelligenz. Gorodenkoff – shutterstock.com Der Einsatz von Künstlicher Intelligenz (KI) in Produktion und Fertigung hat insbesondere aufgrund globaler Herausforderungen wie dem Arbeitskräftemangel oder dem Druck auf globale Lieferketten stark zugenommen. Wie eine aktuelle Studie von Teamviewer ergab, nutzen 78 Prozent der Führungskräfte in der Fertigungsindustrie wöchentlich KI, fast ein Drittel sogar täglich. Im vergangenen Jahr arbeiteten nur 46 Prozent wöchentlich und acht Prozent täglich mit KI.   Vertrauen in KI wächst  Dabei wird KI nicht nur zu einem immer bedeutenderen Bestandteil der täglichen Arbeitsabläufe. Mit der zunehmenden Akzeptanz steigt auch die Wahrnehmung von Reife und Vertrauen. So fühlen sich inzwischen zwei Drittel (67 Prozent) persönlich kompetent, wenn es um den Einsatz von KI geht. Als KI-Experte schätzen sich allerdings nur 28 Prozent der Führungskräfte in der Fertigung ein – ein Wert, der deutlich unter dem Durchschnitt der Befragten in allen Branchen (39 Prozent) liegt.   Den Bedarf an kontinuierlicher Weiterbildung und Entwicklung der KI-Kompetenzen für die Mitarbeitenden unterstreicht auch die bisherige Auswahl der Einsatzgebiete. So nutzen die Unternehmen KI in erster Linie dafür,   den Kunden-Support zu automatisieren (28 Prozent),   Daten zu analysieren (23 Prozent),  Prozesse zu automatisieren (19 Prozent), die Lieferkette zu optimieren (19 Prozent).   Daneben wird KI aber auch schon für fortgeschrittenere Anwendungen wie Inspiration und Ideenfindung (19 Prozent) eingesetzt.   Außerdem wächst das Vertrauen der Befragten in die Fähigkeiten der KI, wenn es darum geht,  künftige Geschäftsszenarien zu prognostizieren (41 Prozent),   auf der Grundlage dieser Prognosen zu handeln und entsprechende Geschäftsentscheidungen zu treffen (36 Prozent) und sogar   Entscheidungen ohne menschliche Aufsicht zu treffen (29 Prozent).   „Gerade die Generation der Digital Natives treibt die Einführung von KI in den Unternehmen voran und trägt dazu bei, die Technologie auch in die bestehenden Fertigungsprozesse zu integrieren”, erklärt Mei Dent, Chief Product & Technology Officer bei TeamViewer.   Das Vertrauen in die Fähigkeiten von KI kommt nicht von ungefähr. So zeigt der Report auf, dass KI zu erheblichen Verbesserungen sowohl für Unternehmen als auch für Mitarbeitende in der Fertigung führt. 77 Prozent der Entscheidungsträger sehen KI entsprechend als Schlüsselfaktor für mehr Effizienz, da sie Routineaufgaben automatisiert und Mitarbeitende entlastet.   71 Prozent der Führungskräfte in der Branche gehen sogar davon aus, dass der zunehmende Einsatz von KI den größten Produktivitätsboom seit einem Jahrhundert auslösen wird. So könnten Mitarbeitende schon jetzt durch die KI-Automatisierung von Routineaufgaben durchschnittlich zehn Stunden pro Monat einsparen und sich auf höherwertige Tätigkeiten konzentrieren. Aus finanzieller Sicht erwarten 71 Prozent der Unternehmen aus der Fertigungsindustrie, dass KI den Umsatz im nächsten Jahr steigern wird, mit einem prognostizierten Wachstum von 188 Prozent.  Neben der Effizienzsteigerung verbessert KI aber auch die Produktqualität und reduziert Fehler, was in der von Präzision geprägten Fertigung von entscheidender Bedeutung ist. So gaben 74 Prozent der Befragten an, dass KI ihre Fähigkeit verbessert, Daten zu analysieren und Entscheidungen zu treffen, 72 Prozent schreiben ihr zu, dass sie ihnen hilft, neue Fähigkeiten zu erwerben, und 71 Prozent sehen sie als wichtiges Werkzeug für die berufliche Weiterentwicklung an.   width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/5qKN4lZUuzWTvyAmj0LlYL?utm_source=oembed”> Hürden behindern KI-Einführung   Obwohl die Vorteile der KI augenscheinlich auf der Hand liegen, wird die Technologie jedoch nicht von allen Herstellern in großem Umfang genutzt. Als größtes Hindernis für ihre Einführung nannten 76 Prozent der Umfrageteilnehmer Sicherheitsrisiken im Zusammenhang mit der Datenverwaltung durch KI – sieben Prozentpunkte mehr als der branchenübergreifende Durchschnitt (69 Prozent).   Als zweitgrößte Hürde wurde die mangelnde Aufklärung über den Einsatz von KI genannt – immerhin von 42 Prozent der Befragten aus der Fertigungsindustrie (im Vergleich zu 37 Prozent branchenübergreifend). Demnach erschwere es die Qualifikationslücke bei digitalen oder KI-bezogenen Fähigkeiten den Mitarbeitern, KI zu verstehen, zu implementieren und effektiv zu nutzen. Als weitere größere Hemmnisse wurden hohe Implementierungskosten (30 Prozent) genannt. Darüber hinaus ist fast die Hälfte (49 Prozent) der befragten Führungskräfte über die fehlende finanzielle Unterstützung innerhalb ihres Unternehmens besorgt. Sie befürchten, dass sie nicht schnell genug skalieren können, um mit der KI-Innovation Schritt zu halten.   Trotz dieser Herausforderungen bleiben die Entscheider in der Fertigungsindustrie optimistisch: 81 Prozent von ihnen erwarten in den nächsten sechs bis zwölf Monaten höhere KI-Investitionen. Das zeige, dass die Mitarbeiter in der Produktion den Wert von KI erkennen und sowohl Zeit als auch Geld in die Verbesserung der KI-Fähigkeiten investierten, so die Studienbetreiber.   Zukunftsinvestitionen in KI  Wie die Studienergebnisse andeuten, werden die Investitionen in KI auch dringend benötigt, um das Potenzial in der Fertigung besser auszuschöpfen. So sind 96 Prozent der Befragten der Meinung, dass weitere Schulungen erforderlich sind, um die Risiken zu mindern, 74 Prozent befürworten zusätzliche Programme.   Außerdem sind mehr als zwei Drittel (68 Prozent) der Meinung, dass ihr Unternehmen einen Chief AI Officer braucht, der die KI-Strategie klar formuliert. Grund seien die besonderen Herausforderungen bei der Abstimmung der KI mit den Produktionsabläufen, Lieferketten und der Qualitätskontrolle.   Aktuell liegt diese Verantwortung bei fast der Hälfte (48 Prozent) hauptsächlich bei den IT-Entscheidern, gefolgt von Chief Transformation Officers (35 Prozent) und den Geschäftsführern und Produktmanagern (beide 30 Prozent).  „KI ist in der Lage, Unternehmen und ganze Industrien zu transformieren. Dennoch haben wir bislang erst einen Bruchteil ihres Potenzials genutzt“, erklärt Teamviewer-Managerin Dent. Mit einem Fokus auf Kooperation, Schulung und die verantwortungsvolle Einführung der Technologie könnten Unternehmen in der Fertigungsindustrie Innovationen fördern und außergewöhnliche Ergebnisse erzielen.   Die Studie „The AI Opportunity in Manufacturing“ ist Teil des AI Opportunity Report, für den Teamviewer 1.400 Entscheidungsträger in den Bereichen IT, Wirtschaft und Produktionstechnik in Großbritannien, Frankreich, Deutschland, Australien, Singapur und den USA zu ihren Einstellungen in Bezug auf künstliche Intelligenz befragte. Der „AI Opportunity in Manufacturing“-Report wurde aus diesen Ergebnissen abgeleitet und fokussiert sich speziell auf die Antworten der 105 Fachleute aus dem Fertigungssektor.  

Wie KI die Fertigungsbranche transformiert​ width=”2433″ height=”1369″ sizes=”(max-width: 2433px) 100vw, 2433px”>Auch die Fertigungsindustrie setzt zunehmend auf Künstliche Intelligenz. Gorodenkoff – shutterstock.com

Der Einsatz von Künstlicher Intelligenz (KI) in Produktion und Fertigung hat insbesondere aufgrund globaler Herausforderungen wie dem Arbeitskräftemangel oder dem Druck auf globale Lieferketten stark zugenommen. Wie eine aktuelle Studie von Teamviewer ergab, nutzen 78 Prozent der Führungskräfte in der Fertigungsindustrie wöchentlich KI, fast ein Drittel sogar täglich. Im vergangenen Jahr arbeiteten nur 46 Prozent wöchentlich und acht Prozent täglich mit KI.  

Vertrauen in KI wächst 

Dabei wird KI nicht nur zu einem immer bedeutenderen Bestandteil der täglichen Arbeitsabläufe. Mit der zunehmenden Akzeptanz steigt auch die Wahrnehmung von Reife und Vertrauen. So fühlen sich inzwischen zwei Drittel (67 Prozent) persönlich kompetent, wenn es um den Einsatz von KI geht. Als KI-Experte schätzen sich allerdings nur 28 Prozent der Führungskräfte in der Fertigung ein – ein Wert, der deutlich unter dem Durchschnitt der Befragten in allen Branchen (39 Prozent) liegt.  

Den Bedarf an kontinuierlicher Weiterbildung und Entwicklung der KI-Kompetenzen für die Mitarbeitenden unterstreicht auch die bisherige Auswahl der Einsatzgebiete. So nutzen die Unternehmen KI in erster Linie dafür,  

den Kunden-Support zu automatisieren (28 Prozent),  

Daten zu analysieren (23 Prozent), 

Prozesse zu automatisieren (19 Prozent),

die Lieferkette zu optimieren (19 Prozent).  

Daneben wird KI aber auch schon für fortgeschrittenere Anwendungen wie Inspiration und Ideenfindung (19 Prozent) eingesetzt.  

Außerdem wächst das Vertrauen der Befragten in die Fähigkeiten der KI, wenn es darum geht, 

künftige Geschäftsszenarien zu prognostizieren (41 Prozent),  

auf der Grundlage dieser Prognosen zu handeln und entsprechende Geschäftsentscheidungen zu treffen (36 Prozent) und sogar  

Entscheidungen ohne menschliche Aufsicht zu treffen (29 Prozent).  

„Gerade die Generation der Digital Natives treibt die Einführung von KI in den Unternehmen voran und trägt dazu bei, die Technologie auch in die bestehenden Fertigungsprozesse zu integrieren”, erklärt Mei Dent, Chief Product & Technology Officer bei TeamViewer.  

Das Vertrauen in die Fähigkeiten von KI kommt nicht von ungefähr. So zeigt der Report auf, dass KI zu erheblichen Verbesserungen sowohl für Unternehmen als auch für Mitarbeitende in der Fertigung führt. 77 Prozent der Entscheidungsträger sehen KI entsprechend als Schlüsselfaktor für mehr Effizienz, da sie Routineaufgaben automatisiert und Mitarbeitende entlastet.  

71 Prozent der Führungskräfte in der Branche gehen sogar davon aus, dass der zunehmende Einsatz von KI den größten Produktivitätsboom seit einem Jahrhundert auslösen wird. So könnten Mitarbeitende schon jetzt durch die KI-Automatisierung von Routineaufgaben durchschnittlich zehn Stunden pro Monat einsparen und sich auf höherwertige Tätigkeiten konzentrieren. Aus finanzieller Sicht erwarten 71 Prozent der Unternehmen aus der Fertigungsindustrie, dass KI den Umsatz im nächsten Jahr steigern wird, mit einem prognostizierten Wachstum von 188 Prozent. 

Neben der Effizienzsteigerung verbessert KI aber auch die Produktqualität und reduziert Fehler, was in der von Präzision geprägten Fertigung von entscheidender Bedeutung ist. So gaben 74 Prozent der Befragten an, dass KI ihre Fähigkeit verbessert, Daten zu analysieren und Entscheidungen zu treffen, 72 Prozent schreiben ihr zu, dass sie ihnen hilft, neue Fähigkeiten zu erwerben, und 71 Prozent sehen sie als wichtiges Werkzeug für die berufliche Weiterentwicklung an.  

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/5qKN4lZUuzWTvyAmj0LlYL?utm_source=oembed”>

Hürden behindern KI-Einführung  

Obwohl die Vorteile der KI augenscheinlich auf der Hand liegen, wird die Technologie jedoch nicht von allen Herstellern in großem Umfang genutzt. Als größtes Hindernis für ihre Einführung nannten 76 Prozent der Umfrageteilnehmer Sicherheitsrisiken im Zusammenhang mit der Datenverwaltung durch KI – sieben Prozentpunkte mehr als der branchenübergreifende Durchschnitt (69 Prozent).  

Als zweitgrößte Hürde wurde die mangelnde Aufklärung über den Einsatz von KI genannt – immerhin von 42 Prozent der Befragten aus der Fertigungsindustrie (im Vergleich zu 37 Prozent branchenübergreifend). Demnach erschwere es die Qualifikationslücke bei digitalen oder KI-bezogenen Fähigkeiten den Mitarbeitern, KI zu verstehen, zu implementieren und effektiv zu nutzen. Als weitere größere Hemmnisse wurden hohe Implementierungskosten (30 Prozent) genannt. Darüber hinaus ist fast die Hälfte (49 Prozent) der befragten Führungskräfte über die fehlende finanzielle Unterstützung innerhalb ihres Unternehmens besorgt. Sie befürchten, dass sie nicht schnell genug skalieren können, um mit der KI-Innovation Schritt zu halten.  

Trotz dieser Herausforderungen bleiben die Entscheider in der Fertigungsindustrie optimistisch: 81 Prozent von ihnen erwarten in den nächsten sechs bis zwölf Monaten höhere KI-Investitionen. Das zeige, dass die Mitarbeiter in der Produktion den Wert von KI erkennen und sowohl Zeit als auch Geld in die Verbesserung der KI-Fähigkeiten investierten, so die Studienbetreiber.  

Zukunftsinvestitionen in KI 

Wie die Studienergebnisse andeuten, werden die Investitionen in KI auch dringend benötigt, um das Potenzial in der Fertigung besser auszuschöpfen. So sind 96 Prozent der Befragten der Meinung, dass weitere Schulungen erforderlich sind, um die Risiken zu mindern, 74 Prozent befürworten zusätzliche Programme.  

Außerdem sind mehr als zwei Drittel (68 Prozent) der Meinung, dass ihr Unternehmen einen Chief AI Officer braucht, der die KI-Strategie klar formuliert. Grund seien die besonderen Herausforderungen bei der Abstimmung der KI mit den Produktionsabläufen, Lieferketten und der Qualitätskontrolle.  

Aktuell liegt diese Verantwortung bei fast der Hälfte (48 Prozent) hauptsächlich bei den IT-Entscheidern, gefolgt von Chief Transformation Officers (35 Prozent) und den Geschäftsführern und Produktmanagern (beide 30 Prozent). 

„KI ist in der Lage, Unternehmen und ganze Industrien zu transformieren. Dennoch haben wir bislang erst einen Bruchteil ihres Potenzials genutzt“, erklärt Teamviewer-Managerin Dent. Mit einem Fokus auf Kooperation, Schulung und die verantwortungsvolle Einführung der Technologie könnten Unternehmen in der Fertigungsindustrie Innovationen fördern und außergewöhnliche Ergebnisse erzielen.  

Die Studie „The AI Opportunity in Manufacturing“ ist Teil des AI Opportunity Report, für den Teamviewer 1.400 Entscheidungsträger in den Bereichen IT, Wirtschaft und Produktionstechnik in Großbritannien, Frankreich, Deutschland, Australien, Singapur und den USA zu ihren Einstellungen in Bezug auf künstliche Intelligenz befragte. Der „AI Opportunity in Manufacturing“-Report wurde aus diesen Ergebnissen abgeleitet und fokussiert sich speziell auf die Antworten der 105 Fachleute aus dem Fertigungssektor. 

Wie KI die Fertigungsbranche transformiert​ Weiterlesen »

Setzen Sechs – Ungenügend für Digitalstandort Deutschland​

Allgemein

Braucht es wirklich ein eigenständiges Digitalministerium, um die Probleme des Digitalstandorts Deutschland zu lösen? Mo Photography Berlin/Shutterstock.com Kurz vor Abschluss der Koalitionsverhandlungen haben die Wünsche der Lobby-Vereinigungen an die künftigen Regierungsparteien Hochkonjunktur. Jeder will sein Scherflein am künftigen Regierungsprogramm bekommen. So auch der eco – Verband der Internetwirtschaft e.V. Er fordert einen starken und zukunftssicheren Digitalstandort Deutschland. Denn, so argumentiert Vorstandsvorsitzender Oliver Süme, Deutschland könne sich keine weiteren vier Jahre kopfloser Digitalpolitik leisten. Regulierung als Hemmschuh Seine Argumentation stützt der Branchenverband auf den eco Branchenpuls, einer aktuellen Umfrage des Meinungsforschungsinstituts Civey unter 500 IT-Entscheidern in Deutschland. Demnach beurteilen 68 Prozent der Entscheider den Stand der digitalen Transformation in Deutschland als schlecht. Lediglich 0,7 Prozent bewerten den Stand der digitalen Transformation in Deutschland derzeit als „gut“. So beurteilen IT-Entscheider den Stand der Digitalisierung. eco&Civey Als größte Einschränkung für die Digitalisierung am Standort Deutschland empfinden die Befragten das Ausmaß an Regulierung (56,6 Prozent). Rund 55 Prozent meinen hier ganz konkret die bestehenden Datenschutzregeln. 46 Prozent der Befragten sehen den Zustand der digitalen Infrastruktur als besonders hemmend an. Über ein Drittel nennt zudem die Berichtspflichten. Datenschutz reformieren Als ursächlich für das Übermaß an Regulierung und den Mangel an Innovationsimpulsen sieht der eco zu viele Zuständigkeiten und zu wenig Strategie. Dies habe die deutsche Digitalpolitik der vergangenen Jahre geprägt. Entsprechend kritisch steht der eco zu den Zwischenergebnissen der laufenden Koalitionsverhandlungen. Dabei ist aus Verbandssicht eine Reform des Datenschutzes eine zentrale Herausforderung für die nächste Bundesregierung. Positiv ausfallen könnten die Pläne der Verhandlungspartner für den Ausbau der Netze und Infrastrukturen. Nein zur IP-Speicherung Einen Richtungswechsel hält der Verband beim Thema Überwachung für geboten. „Die aktuell angedeutete Einführung einer IP-Adressspeicherung klingt besorgniserregend. Es wirkt fast wie eine Wiedereinführung der grundrechtswidrigen Vorratsdatenspeicherung“, so Süme. Die ebenfalls diskutierte Schwächung von Ende-zu-Ende-Verschlüsselung wäre aus Sicht des eco eine Katastrophe für die Privatsphäre, das Vertrauen und die Sicherheit im Netz. Und wie es sich für eine Lobbyvereinigung der deutschen Digitalwirtschaft gehört, fordert natürlich auch der eco ein Digitalministerium mit eigenem Budget und eigener Regelungskompetenz. Laut Studie wünscht sich dies auch etwas über die Hälfte der befragten IT-Entscheider. 

Setzen Sechs – Ungenügend für Digitalstandort Deutschland​ Braucht es wirklich ein eigenständiges Digitalministerium, um die Probleme des Digitalstandorts Deutschland zu lösen?
Mo Photography Berlin/Shutterstock.com

Kurz vor Abschluss der Koalitionsverhandlungen haben die Wünsche der Lobby-Vereinigungen an die künftigen Regierungsparteien Hochkonjunktur. Jeder will sein Scherflein am künftigen Regierungsprogramm bekommen.

So auch der eco – Verband der Internetwirtschaft e.V. Er fordert einen starken und zukunftssicheren Digitalstandort Deutschland. Denn, so argumentiert Vorstandsvorsitzender Oliver Süme, Deutschland könne sich keine weiteren vier Jahre kopfloser Digitalpolitik leisten.

Regulierung als Hemmschuh

Seine Argumentation stützt der Branchenverband auf den eco Branchenpuls, einer aktuellen Umfrage des Meinungsforschungsinstituts Civey unter 500 IT-Entscheidern in Deutschland. Demnach beurteilen 68 Prozent der Entscheider den Stand der digitalen Transformation in Deutschland als schlecht. Lediglich 0,7 Prozent bewerten den Stand der digitalen Transformation in Deutschland derzeit als „gut“.

So beurteilen IT-Entscheider den Stand der Digitalisierung.
eco&Civey

Als größte Einschränkung für die Digitalisierung am Standort Deutschland empfinden die Befragten das Ausmaß an Regulierung (56,6 Prozent). Rund 55 Prozent meinen hier ganz konkret die bestehenden Datenschutzregeln. 46 Prozent der Befragten sehen den Zustand der digitalen Infrastruktur als besonders hemmend an. Über ein Drittel nennt zudem die Berichtspflichten.

Datenschutz reformieren

Als ursächlich für das Übermaß an Regulierung und den Mangel an Innovationsimpulsen sieht der eco zu viele Zuständigkeiten und zu wenig Strategie. Dies habe die deutsche Digitalpolitik der vergangenen Jahre geprägt.

Entsprechend kritisch steht der eco zu den Zwischenergebnissen der laufenden Koalitionsverhandlungen. Dabei ist aus Verbandssicht eine Reform des Datenschutzes eine zentrale Herausforderung für die nächste Bundesregierung. Positiv ausfallen könnten die Pläne der Verhandlungspartner für den Ausbau der Netze und Infrastrukturen.

Nein zur IP-Speicherung

Einen Richtungswechsel hält der Verband beim Thema Überwachung für geboten. „Die aktuell angedeutete Einführung einer IP-Adressspeicherung klingt besorgniserregend. Es wirkt fast wie eine Wiedereinführung der grundrechtswidrigen Vorratsdatenspeicherung“, so Süme. Die ebenfalls diskutierte Schwächung von Ende-zu-Ende-Verschlüsselung wäre aus Sicht des eco eine Katastrophe für die Privatsphäre, das Vertrauen und die Sicherheit im Netz.

Und wie es sich für eine Lobbyvereinigung der deutschen Digitalwirtschaft gehört, fordert natürlich auch der eco ein Digitalministerium mit eigenem Budget und eigener Regelungskompetenz. Laut Studie wünscht sich dies auch etwas über die Hälfte der befragten IT-Entscheider.

Setzen Sechs – Ungenügend für Digitalstandort Deutschland​ Weiterlesen »

CPU: Was Sie über Prozessoren wissen müssen​

Allgemein

Die CPU bildet das Herzstück von PCs, Notebooks, Servern, Smartphones und zahllosen weiteren Gebrauchsgegenständen des Alltags. Wir sagen Ihnen in aller Kürze, was Sie über Prozessoren wissen müssen. Foto: Blue Andy – shutterstock.com Die ersten Computer funktionierten in den 1930er Jahren noch auf elektromechanischer Basis, einige Jahre später waren – wie beim ENIAC – Elektronenröhren en vogue. Es folgte der Shift hin zu Transistoren, dann zu integrierten Schaltkreisen, bevor in den 1970er Jahren schließlich der Mikroprozessor entstand, der heute das Herzstück unserer digitalen Devices darstellt. CPU – Definition und Komponenten Prozessoren, auch als zentrale Verarbeitungseinheit oder gängiger “Central Processing Unit“, kurz CPU, bekannt, bilden ein programmierbares Rechenwerk und steuern über Algorithmen die Verarbeitung von Daten auf Grundlage von Befehlssätzen. CPUs kommen dabei nicht nur in klassischen Computern, sondern auch in computerähnlichen Geräten zum Einsatz – oft als Mikrocontroller in eingebetteten Systemen, die heutzutage in so gut wie allen nur erdenklichen Bereichen des alltäglichen Lebens zu finden sind, von der Kaffeemaschine über den Getränkeautomaten und Wäschetrockner bis hin zum Smartphone. Die klassischen Hauptbestandteile eines modernen Prozessors sind: Rechenwerk (arithmetisch-logische Einheit, ALU), Steuerwerk, Register, Zwischenspeicher (Caches), Datenleitungen (Busse) sowie ein Speichermanager. Im Fall der meisten modernen CPUs – insbesondere solche, die Server antreiben – handelt es sich um Recheneinheiten mit mehreren Kernen, also Multi-Core-Prozessoren. Zusätzlich können CPUs von integrierten Co-Prozessoren unterstützt werden – beispielsweise einer dedizierten ‘graphics processing unit’ (GPU). Prozessoren – so funktionieren CPUs Wie diese Komponenten im Einzelnen funktionieren und wie sie im großen Ganzen zusammenwirken – das zeigt Ihnen das folgende Erklärvideo unserer PCWelt-Kollegen: CPU – Kerne und Threads Moderne CPUs verfügen über eine variable Anzahl an Kernen, deren Höhe die Leistung beeinflusst. Wie viele Kerne Ihre CPU hat, finden Sie unter Windows 10 und 11 schnell und einfach heraus, indem Sie ins Suchfeld “System” eingeben und die Systeminformationen aufrufen. Die Hardware-Informationen Ihres Rechners enthalten den Namen Ihres Prozessors und die Anzahl seiner Kerne. Alternativ können Sie auch die Tastenkombination Strg + Umschalt + Esc nutzen, um den Task-Manager zu öffnen und dann die Registerkarte Leistung (Detailansicht, zweites Tab von links) anklicken. Hier sehen Sie den Namen Ihres Prozessors, die Anzahl der Kerne und zusätzlich ein Diagramm, das in Echtzeit Auskunft über die CPU-Auslastung gibt. Außerdem finden Sie hier detaillierte Angaben zu Basistaktfrequenz, Kernen und den logischen Prozessoren – besser bekannt als “Threads“. CPUs mit höherer Thread-Anzahl sind in der Regel besser für Multitasking geeignet, da sie in der Lage sind, mehr Prozesse gleichzeitig zu verarbeiten. In den meisten Fällen liefert die Anzahl der Kerne nur einen Anhaltspunkt über die CPU-Leistung. Auch die Prozessorfrequenz (oder Taktfrequenz), Multithreading, die Mikroarchitektur, die Art des Prozessors (Desktop oder Mobile) und die Softwareoptimierung spielen eine Rolle. Wenn Sie an dieser Stelle das Bedürfnis nach einem Deep Dive verspüren, sollten Sie die Spezifikationen Ihres Prozessors auf der Webseite von Intel beziehungsweise AMD nachschlagen. Im Allgemeinen gilt: Je neuer der Prozessor, desto effizienter und leistungsfähiger ist er, aber nicht alle Generationen machen im Vergleich zu den vorherigen große Leistungssprünge. Aktuelle Benchmarking-Tests verschaffen Klarheit über die Unterschiede zwischen den Generationen. CPU-Hersteller – das ‘who is who’ Die aktuell maßgeblichen, beziehungsweise bekanntesten, Hersteller von Prozessoren sind AMD und Intel. Das liegt in erster Linie daran, dass diese beiden Unternehmen die größten Hersteller von x86-CPUs sind, die vor allem in Notebooks und Desktop-PCs zum Einsatz kommen. Weitere bedeutende Prozessorhersteller sind unter anderem: Apple Fujitsu Hitachi IBM Infineon Oracle Qualcomm NXP Nvidia Eine eigene Chip-Entwicklung leisten sich neben AMD und Intel heute jedoch nur noch wenige Hersteller, beispielsweise IBM für seine Mainframes oder Oracle mit den von Sun Microsystems übernommenen Sparc-CPUs. Gerade im Smartphone-oder Industrie-Umfeld setzen Chiphersteller wie Qualcomm oder Infineon auf CPU-Designs des britischen Anbieters ARM, der selbst keine Prozessoren fertigt. ARM-Chips zeichnen sich durch ihre kompakte Bauweise und eine gute Energieeffizienz aus, was gerade für Mobilgeräte ein entscheidender Faktor ist. Insbesondere in den 1970er und 1980er Jahren prägten viele weitere Unternehmen das CPU-Bild maßgeblich – beispielsweise: Cyrix Centaur Technology Motorola MOS Technology National Semiconductor NexGen Rockwell International Sun Microsystems Texas Instruments Unisys VIA (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

CPU: Was Sie über Prozessoren wissen müssen​ Die CPU bildet das Herzstück von PCs, Notebooks, Servern, Smartphones und zahllosen weiteren Gebrauchsgegenständen des Alltags. Wir sagen Ihnen in aller Kürze, was Sie über Prozessoren wissen müssen.
Foto: Blue Andy – shutterstock.com

Die ersten Computer funktionierten in den 1930er Jahren noch auf elektromechanischer Basis, einige Jahre später waren – wie beim ENIAC – Elektronenröhren en vogue. Es folgte der Shift hin zu Transistoren, dann zu integrierten Schaltkreisen, bevor in den 1970er Jahren schließlich der Mikroprozessor entstand, der heute das Herzstück unserer digitalen Devices darstellt.

CPU – Definition und Komponenten

Prozessoren, auch als zentrale Verarbeitungseinheit oder gängiger “Central Processing Unit“, kurz CPU, bekannt, bilden ein programmierbares Rechenwerk und steuern über Algorithmen die Verarbeitung von Daten auf Grundlage von Befehlssätzen. CPUs kommen dabei nicht nur in klassischen Computern, sondern auch in computerähnlichen Geräten zum Einsatz – oft als Mikrocontroller in eingebetteten Systemen, die heutzutage in so gut wie allen nur erdenklichen Bereichen des alltäglichen Lebens zu finden sind, von der Kaffeemaschine über den Getränkeautomaten und Wäschetrockner bis hin zum Smartphone.

Die klassischen Hauptbestandteile eines modernen Prozessors sind:

Rechenwerk (arithmetisch-logische Einheit, ALU),

Steuerwerk,

Register,

Zwischenspeicher (Caches),

Datenleitungen (Busse)

sowie ein Speichermanager.

Im Fall der meisten modernen CPUs – insbesondere solche, die Server antreiben – handelt es sich um Recheneinheiten mit mehreren Kernen, also Multi-Core-Prozessoren. Zusätzlich können CPUs von integrierten Co-Prozessoren unterstützt werden – beispielsweise einer dedizierten ‘graphics processing unit’ (GPU).

Prozessoren – so funktionieren CPUs

Wie diese Komponenten im Einzelnen funktionieren und wie sie im großen Ganzen zusammenwirken – das zeigt Ihnen das folgende Erklärvideo unserer PCWelt-Kollegen:

CPU – Kerne und Threads

Moderne CPUs verfügen über eine variable Anzahl an Kernen, deren Höhe die Leistung beeinflusst. Wie viele Kerne Ihre CPU hat, finden Sie unter Windows 10 und 11 schnell und einfach heraus, indem Sie ins Suchfeld “System” eingeben und die Systeminformationen aufrufen. Die Hardware-Informationen Ihres Rechners enthalten den Namen Ihres Prozessors und die Anzahl seiner Kerne.

Alternativ können Sie auch die Tastenkombination Strg + Umschalt + Esc nutzen, um den Task-Manager zu öffnen und dann die Registerkarte Leistung (Detailansicht, zweites Tab von links) anklicken. Hier sehen Sie den Namen Ihres Prozessors, die Anzahl der Kerne und zusätzlich ein Diagramm, das in Echtzeit Auskunft über die CPU-Auslastung gibt. Außerdem finden Sie hier detaillierte Angaben zu Basistaktfrequenz, Kernen und den logischen Prozessoren – besser bekannt als “Threads“. CPUs mit höherer Thread-Anzahl sind in der Regel besser für Multitasking geeignet, da sie in der Lage sind, mehr Prozesse gleichzeitig zu verarbeiten.

In den meisten Fällen liefert die Anzahl der Kerne nur einen Anhaltspunkt über die CPU-Leistung. Auch die Prozessorfrequenz (oder Taktfrequenz), Multithreading, die Mikroarchitektur, die Art des Prozessors (Desktop oder Mobile) und die Softwareoptimierung spielen eine Rolle. Wenn Sie an dieser Stelle das Bedürfnis nach einem Deep Dive verspüren, sollten Sie die Spezifikationen Ihres Prozessors auf der Webseite von Intel beziehungsweise AMD nachschlagen.

Im Allgemeinen gilt: Je neuer der Prozessor, desto effizienter und leistungsfähiger ist er, aber nicht alle Generationen machen im Vergleich zu den vorherigen große Leistungssprünge. Aktuelle Benchmarking-Tests verschaffen Klarheit über die Unterschiede zwischen den Generationen.

CPU-Hersteller – das ‘who is who’

Die aktuell maßgeblichen, beziehungsweise bekanntesten, Hersteller von Prozessoren sind AMD und Intel. Das liegt in erster Linie daran, dass diese beiden Unternehmen die größten Hersteller von x86-CPUs sind, die vor allem in Notebooks und Desktop-PCs zum Einsatz kommen. Weitere bedeutende Prozessorhersteller sind unter anderem:

Apple

Fujitsu

Hitachi

IBM

Infineon

Oracle

Qualcomm

NXP

Nvidia

Eine eigene Chip-Entwicklung leisten sich neben AMD und Intel heute jedoch nur noch wenige Hersteller, beispielsweise IBM für seine Mainframes oder Oracle mit den von Sun Microsystems übernommenen Sparc-CPUs. Gerade im Smartphone-oder Industrie-Umfeld setzen Chiphersteller wie Qualcomm oder Infineon auf CPU-Designs des britischen Anbieters ARM, der selbst keine Prozessoren fertigt. ARM-Chips zeichnen sich durch ihre kompakte Bauweise und eine gute Energieeffizienz aus, was gerade für Mobilgeräte ein entscheidender Faktor ist.

Insbesondere in den 1970er und 1980er Jahren prägten viele weitere Unternehmen das CPU-Bild maßgeblich – beispielsweise:

Cyrix

Centaur Technology

Motorola

MOS Technology

National Semiconductor

NexGen

Rockwell International

Sun Microsystems

Texas Instruments

Unisys

VIA

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

CPU: Was Sie über Prozessoren wissen müssen​ Weiterlesen »

Welche Geschäftsprozesse sich für agentenbasierte KI eignen​

Allgemein

Der Einsatz von KI-Agenten lohnt sich nicht automatisch, sondern erfordert eine umfangreiche Evaluierung.sdecoret / Shutterstock Die Unternehmensberatung Deloitte prognostiziert, dass im Jahr 2025 ein Viertel der Unternehmen, die generative KI einsetzen, Pilotprojekte oder Proofs of Concept (PoCs) mit Agentic AI starten werden, 2027 bereits 50 Prozent.   Allerdings sind nicht alle Geschäftsprozesse für agentenbasierte KI geeignet, weshalb sich die Investition in KI nicht immer lohnt. Einige Marktbeobachter gehen davon aus, dass eine Alternative – die deterministische Automatisierung – in diesem Jahr weiterhin dominieren wird.  Um sicherzustellen, dass sich agentenbasierte KI für einen bestimmten Workflow auszahlt, sollten Unternehmen folgende Punkte berücksichtigen.  Geschäftsausrichtung, Wert und Risiko  „Eine erfolgreiche agentenbasierte KI-Strategie beginnt mit einer klaren Definition dessen, was die KI-Agenten erreichen sollen“, erklärt Prashant Kelker, Chief Strategy Officer und Partner beim IT-Beratungsunternehmen ISG. „Es ist wichtig, die Ziele der KI mit den allgemeinen Unternehmenszielen in Einklang zu bringen. Ohne einen klar definierten Zweck ist es, als würde man ein Schiff ohne Ziel aufs Meer schicken.“  Die Entscheidung darüber, ob ein Geschäftsprozess für die Umstellung auf KI-Agenten in Frage kommt, würde zunächst nach denselben internen Prozessen getroffen, die auch für die Bewertung des Einsatzes neuer Geschäfts- oder Technologielösungen gelten, meint Reiko Feaver, Partner bei der auf KI spezialisierten Anwaltskanzlei CM Law.  Eine Kosten-Nutzen-Analyse kann Aufschluss darüber geben, ob Agentic AI das bietet, was in den aktuellen Prozessen fehlt, und einen Return on Investment (ROI) liefert. Sollte diese Analyse positiv ausfallen, kann ein Unternehmen sich mit den erforderlichen Ressourcen, einschließlich Geld, Personal und Zeit, beschäftigen. Allerdings erschwert die Tatsache, dass die Preisgestaltung für KI-Angebote von Anbietern komplex und noch nicht vollständig geklärt sein kann, die Entscheidung.  Der Grad der Autonomie, die erhöhten Ressourcen und die Komplexität der agentengestützten KI für einen oder mehrere bestimmte Prozesse stellten ebenfalls Herausforderungen dar, die es zu berücksichtigen gilt, so Feaver. Die Bewältigung dieser Herausforderungen könne ein Indikator dafür sein, ob die Prozesse für agentenbasierte KI bereit sind.  Feaver führt weiter aus: „Verfügt das Unternehmen über die anfänglichen und laufenden Ressourcen zur Unterstützung und kontinuierlichen Verbesserung der Agentic AI-Technologie, einschließlich der Infrastruktur und der erforderlichen Daten?“ Und: „Verfügt es bereits über eine Struktur, um  die Einhaltung der Vorschriften bei Inbetriebnahme einer spezifischen agentenbasierten KI zu überprüfen und zu überwachen?   die KI-Agenten zu überwachen und zu korrigieren, wenn Probleme auftreten,   den Erfolg zu messen und   über die geltenden Gesetze und Vorschriften auf dem Laufenden zu bleiben?“  Zusätzlich gilt es zu überprüfen, ob sich das Unternehmen einen Ausfall der agentenbasierten KI in einem Geschäftsprozess leisten kann, in Hinblick auf Performance und Compliance.   Daten und umsetzbare Frameworks  Ein weiteres wichtiges Merkmal eines guten Anwendungsfalls für Agentic AI ist die Qualität der Daten, die zur Unterstützung eines Prozesses verwendet werden.  „Um einen greifbaren Wert und ROI aus agentenbasierter KI zu ziehen, müssen Unternehmen sicherstellen, dass sie über qualitativ hochwertige Daten verfügen“, erklärt Saket Srivastava, CIO beim Anbieter der Work-Management-Plattform Asana. „Sind die Daten, auf deren Grundlage die Agenten agieren, veraltet, nicht aussagekräftig oder nicht mit den Unternehmenszielen vereinbar, werden Unternehmen keinen wertvollen Output von diesen KI-Agenten erhalten.“  KI-Agenten benötigen auch Informationen darüber, wer für bestimmte Aufgaben verantwortlich ist, welche Ziele verfolgt werden, wann Aktionen durchgeführt werden müssen und wie der Prozess abläuft.   „Ohne diesen handlungsorientierten Rahmen werden selbst die fortschrittlichsten KI-Systeme kaum einen sinnvollen Wert liefern“, so Srivastava.  Für Asana spielt Agentic AI eine zentrale Rolle bei den Bemühungen des Unternehmens, das Arbeitsmanagement intern und für seine Kunden zu verändern. Im vergangenen Jahr wurden KI-Agenten eingeführt, die über Prioritäten beraten, Arbeitsabläufe steuern und Maßnahmen ergreifen, während sie sich gleichzeitig an die individuellen Arbeitsweisen von Einzelpersonen und Teams anpassten, so der Asana-CIO.  Außerdem hat Asana kürzlich Asana AI Studio eingeführt, das KI-Agenten einsetzt, um Teams die Möglichkeit zu geben, KI-gestützte Workflows ohne Code zu erstellen. „Diese Workflows ermöglichen es den KI-Agenten, repetitive manuelle Aufgaben zu erledigen, etwa Projektanfragen zu triangulieren, Schriftsätze zu entwerfen oder Tätigkeiten zuzuweisen“, erklärt Srivastava. Dadurch werde die Zeit, die Teams mit Routinearbeiten verbringen, erheblich reduziert.  „Wir haben allen unseren Mitarbeitern die Möglichkeit gegeben, AI Studio für bestimmte Aufgaben zu nutzen, beispielsweise für die Recherche und den Entwurf von Plänen, um sicherzustellen, dass genaue Übersetzungen von Inhalten oder Assets den Markenrichtlinien entsprechen“, so der Asana-CIO.  Das Cybersicherheitsteam von Asana nutzt AI Studio beispielsweise, um Alarmmüdigkeit zu verringern und den Arbeitsaufwand zu reduzieren, den das Team zuvor für die Bearbeitung von Alarmen und Schwachstellen aufgewendet hatte. Die IT-Abteilung setzt Asana AI Studio für das Vendoren-Management ein, um Helpdesk-Anfragen zu unterstützen und um sicherzustellen, dass die Anforderungen an das Software- und Compliance-Management erfüllt werden.  Kundenbetreuung als idealer Agentic AI Use Case  Ein Bereich, der sich ideal für den Einsatz agentenbasierte KI eignet, ist der Kundenservice. Sheldon Monteiro, Chief Product Officer und Head of Generative AI beim Technologieberatungsunternehmen Publicis Sapient, erklärt dazu: „Unternehmen setzen schon seit einiger Zeit interaktive Sprachdialogsysteme (IVR) und einfache Chatbots ein, um Kundeninteraktionen zu automatisieren.“ Allerdings seien diese regelbasiert und arbeiten nur innerhalb fester, vordefinierter Arbeitsabläufe.  „IVRs verlassen sich auf starre Entscheidungsbäume, was bedeutet, dass sie sich mit komplexen oder unerwarteten Anfragen schwertun. Das führt oft zur Frustration der Kunden, die in Endlosschleifen stecken bleiben oder gezwungen sind, sich zu wiederholen“, so Monteiro.  Im Gegensatz dazu basierten ältere Chatbots auf dem Abgleich von Schlüsselwörtern und vorformulierten Antworten, was bei einfachen, strukturierten Anfragen, wie der Kontostandabfrage durchaus funktionieren kann. „Sie versagen jedoch, wenn Kunden ihre Fragen auf unerwartete Weise formulieren, mehrere Themen einbringen oder ein kontextbezogenes Verständnis benötigen“, führt er aus.  „Beiden Ansätzen mangelt es an echter Anpassungsfähigkeit und dynamischer Problemlösung, was zu häufigen Eskalationen zu menschlichen Agenten und schlechten Kundenerfahrungen führt“, konstatiert Monteiro. Agentic AI führe ein neues Paradigma ein, das von der regelbasierten Automatisierung zu kontextbewussten, sich selbst verbessernden und autonomen Kundenservice-Agenten übergehe.  „Der Kundenservice stellt einen leistungsstarken Anwendungsfall dar, da die Lösung von Kundenproblemen, die häufig komplex und mehrstufig sind, erfordert”, erklärt der Vertreter von Publicis Sapient. „Darüber hinaus weisen sie oft Abhängigkeiten auf, die ein kontextbezogenes Verständnis, das Verstehen von Nuancen sowie das Durchdenken von Kundenproblemen und Anpassungen auf der Grundlage sich ändernder Bedingungen erfordern”, so Monteiro. Kundenservice-Interaktionen umfassten unstrukturierte Daten wie Text, Bilder und Sprache und finden in dynamischen Umgebungen statt, die ständiges Lernen und Anpassung in Echtzeit erforderten.  “Entsprechend können Wettbewerbsvorteile durch sofortige, autonome Lösungen und die Nutzung von Feedback zur Verbesserung im Laufe der Zeit maximiert werden”, erklärt er. “Bei älteren Chatbots und IVRs ging es um die Automatisierung von Aufgaben. Bei der agentenbasierten KI liegt der Fokus auf der Lösung von Problemen und der Bereitstellung von anpassungsfähigen und personalisierten Kundenerlebnissen in Echtzeit.”   Die Vorzüge von Agentic AI  Neben Kundenservice-Workflows sehen Experten vier generische Prozessszenarien, die sinnvolle Anwendungsfälle für agentenbasierte KI darstellen könnten.  1. Hybride Geschäftsprozesse aufwerten  „Agentic AI eignet sich am besten für Geschäftsprozesse, bei denen programmatische und manuelle Aufgaben in einem einzigen Prozess miteinander verwoben sind“, erklärt Priya Iragavarapu, Vice President of Data Science and Analytics beim globalen Management- und Technologieberatungsunternehmen AArete.  Ein Beispiel hierfür wäre ein Workflow zur Bearbeitung von Versicherungsansprüchen, bei dem strukturierte Daten wie Policennummern oder Deckungsdaten automatisch validiert und mit dem manuellen Testbericht von unstrukturierten Dokumenten wie medizinischen Berichten oder Ausnahmefällen, die eine menschliche Interpretation erfordern, kombiniert werden.  2. Orchestrierung silo-übergreifender Workflows  Ein weiteres Szenario, in dem Agentic AI sinnvoll zum Einsatz kommen kann, ist der Fall, dass sich ein Geschäftsprozess über mehrere, voneinander getrennte Teams erstreckt und jedes Team keinen Einblick oder Zugriff auf die Daten oder Systeme der anderen Teams hat.  In einem solchen Fall sei es empfehlenswert, einen KI-Agenten zu entwickeln, der funktionsübergreifend geschult werden könne, so Iragavarapu. Als Beispiel verweist sie auf einen Order-to-Cash-Prozess in einem großen Unternehmen, in dem die Teams von Vertrieb, Finanzen und Logistik jeweils mit separaten Systemen arbeiten.   Der KI-Agent könne Daten aus all diesen Systemen integrieren und aggregieren und so eine einheitliche Sichtweise bieten, um Engpässe zu erkennen, proaktive Warnungen über Verzögerungen zu senden und bei Abstimmungsaufgaben zu helfen, so die Datenwissenschaftlerin. Der Agent fungiere somit quasi als Brücke zwischen den Teams, um reibungslosere Arbeitsabläufe und Entscheidungsprozesse zu gewährleisten.  Wenn sich Prozesse über mehrere Teams oder Abteilungen hinweg verlaufen und einen hohen Koordinationsaufwand erfordern, können sie von der Fähigkeit der KI profitieren, als Orchestrator zu fungieren, bestätigt Asana-CIO Srivastava. Die Agenten von Asana könnten optimale Arbeitsabläufe vorschlagen und durch die Verfolgung des Teamfortschritts die Verantwortlichkeit sicherstellen. „Dies stellt sicher, dass die Arbeit mit den Zielen übereinstimmt und verringert das Risiko von Fehlkommunikation oder verpassten Terminen“, erklärt er.  3. Aggregierte Automatisierung durch mehrere, sich wiederholende Schritte „Prozesse, die routinemäßige, repetitive Handlungen beinhalten, etwa Dateneingabe, Aufgabenzuweisung oder Berichterstellung, eignen sich hervorragend für [agentenbasierte] KI“, so Srivastava. „Diese Aufgaben nehmen oft viel Zeit der Mitarbeiter in Anspruch, erfordern aber kein tiefgreifendes kreatives oder strategisches Denken. KI-Agenten können diese Arbeitsabläufe automatisieren, sodass sich die Mitarbeiter auf höherwertige Tätigkeiten konzentrieren können.“  ISG setzt die Agentic AI für einige Komponenten seiner Sourcing-Plattform ISG Tango ein. „Wir aktualisieren [das Tool], um KI-Elemente zu integrieren, und testen Anwendungsfälle in den Bereichen Beschaffung, Sourcing und Lieferantenmanagement, die den Großteil unserer Beratungsleistungen ausmachen“, erklärt Kelker. „Wir verfolgen diese Anwendungsfälle, bei denen wir über das traditionelle maschinelle Lernen hinausgehen und autonom handeln können, um Aufgaben zu erledigen und Entscheidungen zu treffen.“  Schritte, die sich häufig wiederholen und klar definierten Regeln folgen, sind laut Kelker erstklassige Kandidaten für Agentic AI. „So führte beispielsweise der Abgleich der Rechnungsverarbeitung im Lieferantenmanagement zu unserem Angebot der Rechnungsforensik, das sicherstellt, dass Unternehmen keine doppelten Zahlungen für Dienstleistungen leisten“, führt er an. „Die ideale Kombination ist, wenn die Regeln klar sind und sich die Schritte häufig wiederholen.“  4. Ersatz von kostspieligen manuellen Aufgaben  Ein weiteres Szenario, das sich für agentengestützte KI eignet, ist, wenn ein Geschäftsprozess einen manuellen Ansatz beinhaltet und es zu teuer wäre, Mitarbeiter für die Erledigung dieser Aufgaben einzustellen.  Iragavarapu führt als Beispiel den Kunden-Support in einem schnell wachsenden Unternehmen an. Anstatt ein großes Team einzustellen, das routinemäßige Kundenanfragen wie Aktualisierungen des Auftragsstatus, Kontoprobleme oder grundlegende Fehlerbehebungen bearbeitet, könnte ein KI-Agent einen großen Teil dieser Interaktionen selbstständig abwickeln.  “Er kann allgemeine Probleme selbstständig lösen, komplexe Fälle an menschliche Agenten weiterleiten und mit der Zeit lernen, seine Antworten zu verbessern”, erklärt Iragavarapu. “Dieser Ansatz senkt die Betriebskosten, verbessert die Reaktionszeiten und ermöglicht es den menschlichen Agenten, sich auf höherwertige Interaktionen zu konzentrieren, wie die Bearbeitung von Streitfällen oder den Aufbau von Kundenbeziehungen.” (mb) 

Welche Geschäftsprozesse sich für agentenbasierte KI eignen​ Der Einsatz von KI-Agenten lohnt sich nicht automatisch, sondern erfordert eine umfangreiche Evaluierung.sdecoret / Shutterstock

Die Unternehmensberatung Deloitte prognostiziert, dass im Jahr 2025 ein Viertel der Unternehmen, die generative KI einsetzen, Pilotprojekte oder Proofs of Concept (PoCs) mit Agentic AI starten werden, 2027 bereits 50 Prozent.  

Allerdings sind nicht alle Geschäftsprozesse für agentenbasierte KI geeignet, weshalb sich die Investition in KI nicht immer lohnt. Einige Marktbeobachter gehen davon aus, dass eine Alternative – die deterministische Automatisierung – in diesem Jahr weiterhin dominieren wird. 

Um sicherzustellen, dass sich agentenbasierte KI für einen bestimmten Workflow auszahlt, sollten Unternehmen folgende Punkte berücksichtigen. 

Geschäftsausrichtung, Wert und Risiko 

„Eine erfolgreiche agentenbasierte KI-Strategie beginnt mit einer klaren Definition dessen, was die KI-Agenten erreichen sollen“, erklärt Prashant Kelker, Chief Strategy Officer und Partner beim IT-Beratungsunternehmen ISG. „Es ist wichtig, die Ziele der KI mit den allgemeinen Unternehmenszielen in Einklang zu bringen. Ohne einen klar definierten Zweck ist es, als würde man ein Schiff ohne Ziel aufs Meer schicken.“ 

Die Entscheidung darüber, ob ein Geschäftsprozess für die Umstellung auf KI-Agenten in Frage kommt, würde zunächst nach denselben internen Prozessen getroffen, die auch für die Bewertung des Einsatzes neuer Geschäfts- oder Technologielösungen gelten, meint Reiko Feaver, Partner bei der auf KI spezialisierten Anwaltskanzlei CM Law. 

Eine Kosten-Nutzen-Analyse kann Aufschluss darüber geben, ob Agentic AI das bietet, was in den aktuellen Prozessen fehlt, und einen Return on Investment (ROI) liefert. Sollte diese Analyse positiv ausfallen, kann ein Unternehmen sich mit den erforderlichen Ressourcen, einschließlich Geld, Personal und Zeit, beschäftigen. Allerdings erschwert die Tatsache, dass die Preisgestaltung für KI-Angebote von Anbietern komplex und noch nicht vollständig geklärt sein kann, die Entscheidung. 

Der Grad der Autonomie, die erhöhten Ressourcen und die Komplexität der agentengestützten KI für einen oder mehrere bestimmte Prozesse stellten ebenfalls Herausforderungen dar, die es zu berücksichtigen gilt, so Feaver. Die Bewältigung dieser Herausforderungen könne ein Indikator dafür sein, ob die Prozesse für agentenbasierte KI bereit sind. 

Feaver führt weiter aus: „Verfügt das Unternehmen über die anfänglichen und laufenden Ressourcen zur Unterstützung und kontinuierlichen Verbesserung der Agentic AI-Technologie, einschließlich der Infrastruktur und der erforderlichen Daten?“ Und: „Verfügt es bereits über eine Struktur, um 

die Einhaltung der Vorschriften bei Inbetriebnahme einer spezifischen agentenbasierten KI zu überprüfen und zu überwachen?  

die KI-Agenten zu überwachen und zu korrigieren, wenn Probleme auftreten,  

den Erfolg zu messen und  

über die geltenden Gesetze und Vorschriften auf dem Laufenden zu bleiben?“ 

Zusätzlich gilt es zu überprüfen, ob sich das Unternehmen einen Ausfall der agentenbasierten KI in einem Geschäftsprozess leisten kann, in Hinblick auf Performance und Compliance.  

Daten und umsetzbare Frameworks 

Ein weiteres wichtiges Merkmal eines guten Anwendungsfalls für Agentic AI ist die Qualität der Daten, die zur Unterstützung eines Prozesses verwendet werden. 

„Um einen greifbaren Wert und ROI aus agentenbasierter KI zu ziehen, müssen Unternehmen sicherstellen, dass sie über qualitativ hochwertige Daten verfügen“, erklärt Saket Srivastava, CIO beim Anbieter der Work-Management-Plattform Asana. „Sind die Daten, auf deren Grundlage die Agenten agieren, veraltet, nicht aussagekräftig oder nicht mit den Unternehmenszielen vereinbar, werden Unternehmen keinen wertvollen Output von diesen KI-Agenten erhalten.“ 

KI-Agenten benötigen auch Informationen darüber, wer für bestimmte Aufgaben verantwortlich ist, welche Ziele verfolgt werden, wann Aktionen durchgeführt werden müssen und wie der Prozess abläuft.  

„Ohne diesen handlungsorientierten Rahmen werden selbst die fortschrittlichsten KI-Systeme kaum einen sinnvollen Wert liefern“, so Srivastava. 

Für Asana spielt Agentic AI eine zentrale Rolle bei den Bemühungen des Unternehmens, das Arbeitsmanagement intern und für seine Kunden zu verändern. Im vergangenen Jahr wurden KI-Agenten eingeführt, die über Prioritäten beraten, Arbeitsabläufe steuern und Maßnahmen ergreifen, während sie sich gleichzeitig an die individuellen Arbeitsweisen von Einzelpersonen und Teams anpassten, so der Asana-CIO. 

Außerdem hat Asana kürzlich Asana AI Studio eingeführt, das KI-Agenten einsetzt, um Teams die Möglichkeit zu geben, KI-gestützte Workflows ohne Code zu erstellen. „Diese Workflows ermöglichen es den KI-Agenten, repetitive manuelle Aufgaben zu erledigen, etwa Projektanfragen zu triangulieren, Schriftsätze zu entwerfen oder Tätigkeiten zuzuweisen“, erklärt Srivastava. Dadurch werde die Zeit, die Teams mit Routinearbeiten verbringen, erheblich reduziert. 

„Wir haben allen unseren Mitarbeitern die Möglichkeit gegeben, AI Studio für bestimmte Aufgaben zu nutzen, beispielsweise für die Recherche und den Entwurf von Plänen, um sicherzustellen, dass genaue Übersetzungen von Inhalten oder Assets den Markenrichtlinien entsprechen“, so der Asana-CIO. 

Das Cybersicherheitsteam von Asana nutzt AI Studio beispielsweise, um Alarmmüdigkeit zu verringern und den Arbeitsaufwand zu reduzieren, den das Team zuvor für die Bearbeitung von Alarmen und Schwachstellen aufgewendet hatte. Die IT-Abteilung setzt Asana AI Studio für das Vendoren-Management ein, um Helpdesk-Anfragen zu unterstützen und um sicherzustellen, dass die Anforderungen an das Software- und Compliance-Management erfüllt werden. 

Kundenbetreuung als idealer Agentic AI Use Case 

Ein Bereich, der sich ideal für den Einsatz agentenbasierte KI eignet, ist der Kundenservice. Sheldon Monteiro, Chief Product Officer und Head of Generative AI beim Technologieberatungsunternehmen Publicis Sapient, erklärt dazu: „Unternehmen setzen schon seit einiger Zeit interaktive Sprachdialogsysteme (IVR) und einfache Chatbots ein, um Kundeninteraktionen zu automatisieren.“ Allerdings seien diese regelbasiert und arbeiten nur innerhalb fester, vordefinierter Arbeitsabläufe. 

„IVRs verlassen sich auf starre Entscheidungsbäume, was bedeutet, dass sie sich mit komplexen oder unerwarteten Anfragen schwertun. Das führt oft zur Frustration der Kunden, die in Endlosschleifen stecken bleiben oder gezwungen sind, sich zu wiederholen“, so Monteiro. 

Im Gegensatz dazu basierten ältere Chatbots auf dem Abgleich von Schlüsselwörtern und vorformulierten Antworten, was bei einfachen, strukturierten Anfragen, wie der Kontostandabfrage durchaus funktionieren kann. „Sie versagen jedoch, wenn Kunden ihre Fragen auf unerwartete Weise formulieren, mehrere Themen einbringen oder ein kontextbezogenes Verständnis benötigen“, führt er aus. 

„Beiden Ansätzen mangelt es an echter Anpassungsfähigkeit und dynamischer Problemlösung, was zu häufigen Eskalationen zu menschlichen Agenten und schlechten Kundenerfahrungen führt“, konstatiert Monteiro. Agentic AI führe ein neues Paradigma ein, das von der regelbasierten Automatisierung zu kontextbewussten, sich selbst verbessernden und autonomen Kundenservice-Agenten übergehe. 

„Der Kundenservice stellt einen leistungsstarken Anwendungsfall dar, da die Lösung von Kundenproblemen, die häufig komplex und mehrstufig sind, erfordert”, erklärt der Vertreter von Publicis Sapient. „Darüber hinaus weisen sie oft Abhängigkeiten auf, die ein kontextbezogenes Verständnis, das Verstehen von Nuancen sowie das Durchdenken von Kundenproblemen und Anpassungen auf der Grundlage sich ändernder Bedingungen erfordern”, so Monteiro. Kundenservice-Interaktionen umfassten unstrukturierte Daten wie Text, Bilder und Sprache und finden in dynamischen Umgebungen statt, die ständiges Lernen und Anpassung in Echtzeit erforderten. 

“Entsprechend können Wettbewerbsvorteile durch sofortige, autonome Lösungen und die Nutzung von Feedback zur Verbesserung im Laufe der Zeit maximiert werden”, erklärt er. “Bei älteren Chatbots und IVRs ging es um die Automatisierung von Aufgaben. Bei der agentenbasierten KI liegt der Fokus auf der Lösung von Problemen und der Bereitstellung von anpassungsfähigen und personalisierten Kundenerlebnissen in Echtzeit.”  

Die Vorzüge von Agentic AI 

Neben Kundenservice-Workflows sehen Experten vier generische Prozessszenarien, die sinnvolle Anwendungsfälle für agentenbasierte KI darstellen könnten. 

1. Hybride Geschäftsprozesse aufwerten 

„Agentic AI eignet sich am besten für Geschäftsprozesse, bei denen programmatische und manuelle Aufgaben in einem einzigen Prozess miteinander verwoben sind“, erklärt Priya Iragavarapu, Vice President of Data Science and Analytics beim globalen Management- und Technologieberatungsunternehmen AArete. 

Ein Beispiel hierfür wäre ein Workflow zur Bearbeitung von Versicherungsansprüchen, bei dem strukturierte Daten wie Policennummern oder Deckungsdaten automatisch validiert und mit dem manuellen Testbericht von unstrukturierten Dokumenten wie medizinischen Berichten oder Ausnahmefällen, die eine menschliche Interpretation erfordern, kombiniert werden. 

2. Orchestrierung silo-übergreifender Workflows 

Ein weiteres Szenario, in dem Agentic AI sinnvoll zum Einsatz kommen kann, ist der Fall, dass sich ein Geschäftsprozess über mehrere, voneinander getrennte Teams erstreckt und jedes Team keinen Einblick oder Zugriff auf die Daten oder Systeme der anderen Teams hat. 

In einem solchen Fall sei es empfehlenswert, einen KI-Agenten zu entwickeln, der funktionsübergreifend geschult werden könne, so Iragavarapu. Als Beispiel verweist sie auf einen Order-to-Cash-Prozess in einem großen Unternehmen, in dem die Teams von Vertrieb, Finanzen und Logistik jeweils mit separaten Systemen arbeiten.  

Der KI-Agent könne Daten aus all diesen Systemen integrieren und aggregieren und so eine einheitliche Sichtweise bieten, um Engpässe zu erkennen, proaktive Warnungen über Verzögerungen zu senden und bei Abstimmungsaufgaben zu helfen, so die Datenwissenschaftlerin. Der Agent fungiere somit quasi als Brücke zwischen den Teams, um reibungslosere Arbeitsabläufe und Entscheidungsprozesse zu gewährleisten. 

Wenn sich Prozesse über mehrere Teams oder Abteilungen hinweg verlaufen und einen hohen Koordinationsaufwand erfordern, können sie von der Fähigkeit der KI profitieren, als Orchestrator zu fungieren, bestätigt Asana-CIO Srivastava. Die Agenten von Asana könnten optimale Arbeitsabläufe vorschlagen und durch die Verfolgung des Teamfortschritts die Verantwortlichkeit sicherstellen. „Dies stellt sicher, dass die Arbeit mit den Zielen übereinstimmt und verringert das Risiko von Fehlkommunikation oder verpassten Terminen“, erklärt er. 

3. Aggregierte Automatisierung durch mehrere, sich wiederholende Schritte „Prozesse, die routinemäßige, repetitive Handlungen beinhalten, etwa Dateneingabe, Aufgabenzuweisung oder Berichterstellung, eignen sich hervorragend für [agentenbasierte] KI“, so Srivastava. „Diese Aufgaben nehmen oft viel Zeit der Mitarbeiter in Anspruch, erfordern aber kein tiefgreifendes kreatives oder strategisches Denken. KI-Agenten können diese Arbeitsabläufe automatisieren, sodass sich die Mitarbeiter auf höherwertige Tätigkeiten konzentrieren können.“ 

ISG setzt die Agentic AI für einige Komponenten seiner Sourcing-Plattform ISG Tango ein. „Wir aktualisieren [das Tool], um KI-Elemente zu integrieren, und testen Anwendungsfälle in den Bereichen Beschaffung, Sourcing und Lieferantenmanagement, die den Großteil unserer Beratungsleistungen ausmachen“, erklärt Kelker. „Wir verfolgen diese Anwendungsfälle, bei denen wir über das traditionelle maschinelle Lernen hinausgehen und autonom handeln können, um Aufgaben zu erledigen und Entscheidungen zu treffen.“ 

Schritte, die sich häufig wiederholen und klar definierten Regeln folgen, sind laut Kelker erstklassige Kandidaten für Agentic AI. „So führte beispielsweise der Abgleich der Rechnungsverarbeitung im Lieferantenmanagement zu unserem Angebot der Rechnungsforensik, das sicherstellt, dass Unternehmen keine doppelten Zahlungen für Dienstleistungen leisten“, führt er an. „Die ideale Kombination ist, wenn die Regeln klar sind und sich die Schritte häufig wiederholen.“ 

4. Ersatz von kostspieligen manuellen Aufgaben 

Ein weiteres Szenario, das sich für agentengestützte KI eignet, ist, wenn ein Geschäftsprozess einen manuellen Ansatz beinhaltet und es zu teuer wäre, Mitarbeiter für die Erledigung dieser Aufgaben einzustellen. 

Iragavarapu führt als Beispiel den Kunden-Support in einem schnell wachsenden Unternehmen an. Anstatt ein großes Team einzustellen, das routinemäßige Kundenanfragen wie Aktualisierungen des Auftragsstatus, Kontoprobleme oder grundlegende Fehlerbehebungen bearbeitet, könnte ein KI-Agent einen großen Teil dieser Interaktionen selbstständig abwickeln. 

“Er kann allgemeine Probleme selbstständig lösen, komplexe Fälle an menschliche Agenten weiterleiten und mit der Zeit lernen, seine Antworten zu verbessern”, erklärt Iragavarapu. “Dieser Ansatz senkt die Betriebskosten, verbessert die Reaktionszeiten und ermöglicht es den menschlichen Agenten, sich auf höherwertige Interaktionen zu konzentrieren, wie die Bearbeitung von Streitfällen oder den Aufbau von Kundenbeziehungen.” (mb)

Welche Geschäftsprozesse sich für agentenbasierte KI eignen​ Weiterlesen »

4 Linux-Befehle für mehr Server-Einblick​

Allgemein

Wissen Sie genau, wer sich wann auf Ihren Linux-Servern herumtreibt? Foto: Mike Korostelev | shutterstock.comWenn Sie Linux-Server managen, sollten Sie darüber Bescheid Wissen, wie stark diese frequentiert werden und welche Benutzer sie am stärksten beanspruchen. Schließlich erfordern stark ausgelastete Server möglicherweise ein umfassenderes Monitoring – und zusätzliche Kommunikation mit den Benutzern.Die Logins werden bei Linux in einer Protokolldatei festgehalten. Diese Daten zu extrahieren, ist überraschend einfach – die richtigen Befehle vorausgesetzt. Wenn Sie also ein Reporting darüber erstellen müssen, wer sich wann, wie oft und wie lange auf Ihren Linux-Servern anmeldet, könnten die folgenden vier Kommandos unter Umständen Ihre Rettung sein.4 essenzielle Linux-Server-BefehleUm an die Daten aus den Logfiles zu gelangen, brauchen Sie keine Root-Rechte: Sie sind in der wtmp-Datei abgelegt, für die allgemeine Leserechte bestehen. Schreibrechte stehen allerdings ausschließlich privilegierten Benutzern oder Administratoren zu. Im Folgenden ein Beispiel, um um die Dateiberechtigungen anzuzeigen:$ ls -l /var/log/wtmp-rw-rw-r–. 1 root utmp 3768 Apr 2 16:25 /var/log/wtmpwhoUm zu überprüfen, was die Datei enthält, verwenden Sie den Befehl who (beispielsweise: who /var/log/wtmp). Bei stark frequentierten Servern kann das allerdings schnell Hunderte von Output-Zeilen generieren. Hier eine Handvoll, die angezeigt werden, wenn der who-Befehl an head übergeben wird:$ who /var/log/wtmp | head 11alex tty3 2024-04-01 08.11 (192.168.0.8)shs pts/3 2024-04-01 10:24 (192.168.0.11)shs pts/3 2024-04-02 08:24 (192.168.0.11)alex tty3 2024-04-02 08.11 (192.168.0.8)shs pts/3 2024-04-03 09:05 (192.168.0.11)shs pts/3 2024-04-04 07:15 (192.168.0.11)alex tty3 2024-04-04 08.11 (192.168.0.8)shs pts/3 2024-04-05 10:11 (192.168.0.11)fedora seat0 2024-04-05 11:02 (login screen)fedora tty2 2024-04-05 11:02 (tty2)shs pts/3 2024-04-05 16:24 (192.168.0.11)Die Anzahl der Einträge können Sie zählen, indem Sie den Output des who-Befehls an wc -l übergeben (beispielsweise: who /var/log/wtmp | wc -l). Das liefert nützlichere Informationen darüber, welche Benutzer sich wie häufig anmelden.$ who /var/log/wtmp | sort | awk ‘{print $1}’ | uniq -c 23 alex 12 fedora 96 shsDas obige Beispiel sortiert die Zeilen in der Datei, beschränkt den Output auf das erste Feld (den Benutzernamen) und zählt dann die Zeilen für jeden einzelnen Benutzer. Sie können zudem relativ einfach einen Alias erstellen, der Zählungen wie diese liefert:$ alias showLogins=”who /var/log/wtmp | sort | awk ‘{print $1}’ | uniq -c”Das zeigt zwar nicht an, wie lange jeder einzelne User angemeldet war, vermittelt aber ein Bild darüber, wie stark das System genutzt wird.lastUm zu sehen, wie lange die aktuell angemeldeten Benutzer bereits eingeloggt sind, nutzen Sie den Befehl last:$ last shsshs pts/3 192.168.0.11 Tue Apr 5 08:24 still logged inwDas Linux-Kommando w zeigt Ihnen an, wann sich die User angemeldet haben und wie lange sie inaktiv waren:$ w17:03:53 up 6:02, 3 users, load average: 0.24, 0.23, 0.20USER TTY LOGIN@ IDLE JCPU PCPU WHATfedora seat0 11:02 0.00s 0.00s 0.00s /usr/libexec/gdm-wayland-session /usr/bin/gnome-sessionfedora tty2 11:02 6:02m 0.06s 0.06s /usr/libexec/gnome-session-binaryshs pts/3 16:24 0.00s 0.13s 0.02s wDie in der ersten Zeile angezeigten “Load Average”-Werte stellen Messungen der vom System durchgeführten Rechenoperationen dar. Idealerweise sollten all diese Werte kleiner sein als die Anzahl der im System vorhandenen CPUs. Höhere Werte deuten hingegen auf Probleme oder überlastete Maschinen hin.ac-pDer Linux-Befehl ac -p gibt Ihnen schließlich Auskunft darüber, wie lange die Benutzer – in Stunden – bereits angemeldet sind.$ ac -p lola 5.43 shs 9.88 total 15.31(fm)Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Network World.Die Geschichte von LinuxEin Glänzen im Auge Foto: The Linux FoundationDie Geschichte von Linux beginnt, als der 20-jährige Linus Torvalds, in den frühen 1990er Jahren Informatik-Student an der Universität Helsinki, beginnt, sich für das Betriebssystem Minix zu interessieren. Bereits im Alter von 11 Jahren beginnt Torvalds mit Technik-Experimenten – damals mit Hilfe eines Commodore VIC-20.Bescheidene Anfänge Foto: comp.os.minixTorvalds Interesse an Minix geht scheinbar mit Frustration über das Lizenzmodell einher, was den Studenten dazu bringt, sein eigenes Betriebssystem zu entwerfen. An diesem Tag im August 1991 verfasst Torvalds diese, heute legendäre E-Mail, mit der alles beginnt. Die daraus entstandene Diskussion kann man heute noch auf Google Groups nachlesen. Erste Major-Distribution? Foto: Linuxcenter.ruZwar ist sie nicht die allererste Linux-Distribution, dafür aber die erste, die eine große Verbreitung findet. Das Softlanding Linux System (SLS) kommt im Mai 1992 auf den Markt. Der Werbeslogan: “Gentle Touchdowns for DOS Bailouts”. Heute gilt SLS als Vorläufer von Slackware.Die Geburt von Slackware Foto: Andrew Charon via Patrick VolkerdingPatrick Volkerding (im Bild ca. 1994), ein Student an der Minnesota State University Moorhead, hilft seinem Professor bei der Installation von SLS. Daraus entsteht die derzeit älteste, aktive Linux-Distribution Slackware. Die wird auch heute noch von Volkerding gepflegt.Red Hat kommt Foto: Red HatRed Hat ist heutzutage wohl der bekannteste Name im Zusammenhang mit Linux – zumindest was die Enterprise-Welt angeht. Die erste Linux-Distribution von Red Hat erscheint 1994 – auf CD-ROM. Das Firmenlogo entstammt übrigens der Angewohnheit des Red-Hat-Linux-Verantwortlichen Marc Ewing, während seiner Studentenzeit den roten Hut seines Großvaters zu tragen.“Linux ist ein Krebs” Foto: Martyn WilliamsLinux legt in den frühen Jahren kontinuierlich an Popularität zu. Die steigende Unzufriedenheit über diese Entwicklung bewegt den damaligen Microsoft-CEO Steve Ballmer zu folgender Aussage: “Linux bleibt wie ein Krebs an jeglichem geistigen Eigentum hängen, mit dem es in Berührung kommt.” Es ist der offizielle Beweis dafür, dass die Open-Source-Software den etablierten Playern ein wenig mehr als nur sauer aufstößt.Die Welle des Erfolgs Foto: Rösch AGIm Jahr 2001 bringt das Schweizer Unternehmen Rösch ein neues Waschmittel namens Linux auf den Markt. Das Produkt ist bis heute im Verkauf, denn Linus Torvalds ist zwar in Besitz der Markenrechte für den Namen Linux, allerdings nur in Zusammenhang mit Computer-Software.Enter the Big Game Foto: The Linux FoundationHeutzutage sieht man kaum noch TV-Werbung für Linux. Im Jahr 2003 aber kreiert IBM einen 90-sekündigen Super-Bowl-Werbespot für die Open-Source-Software. Slogan: “The future is open”.Groß und professionell Foto: The Linux FoundationEigentlich hatte Torvalds nicht damit geplant, dass aus seinem Hobby-Betriebssystem einmal etwas wirklich Großes und Professionelles wird. Doch genau das passiert. Im Jahr 2005 schafft es Torvalds sogar auf das Cover der renommierten “Business Week”: Der zugehörige Artikel beschäftigt sich mit der Linux-Erfolgsstory.Eine Milliarde Dollar Foto: Red HatErfolg kann auf vielen Wegen gemessen werden, aber Zahlen unter dem Strich können nur schwer angefochten werden. Im Jahr 2012 ist Red Hat das erste Open-Source-Unternehmen, das mehr als eine Milliarde Dollar einnimmt.Microsoft liebt Linux? Foto: James NiccolaiWas in einer Dekade so alles passieren kann: Im Jahr 2001 noch ein Krebsgeschwür, erklärt der Windows-Riese im Jahr 2014 öffentlich seine Liebe zu Open-Source-Software. Microsoft-CEO Satya Nadella gibt die neue Richtung erstmals bei einem Event im Oktober 2014 vor und wird nicht müde, diese immer und immer wieder zu wiederholen. Qual der Wahl Foto: DistrowatchAuch wenn Linux und Microsoft inzwischen so etwas wie “Freunde” sind: Viele User legen Wert auf Wahlmöglichkeiten. Und die bekommen sie in der Linux-Welt zur Genüge. Inzwischen gibt es für so gut wie jeden Geschmack die passende Linux-Distribution und -Plattform. Linux-getriebene Welt Foto: Adriano GasparriDass Linux in Teilen unsere Tech-Welt dominiert, ist nicht zu verleugnen: 95 Prozent der Server der Top-Domains laufen mit Linux, die meisten Finanzmärkte der Welt ebenso. Achja: 98 Prozent der 500 schnellsten Supercomputer setzen ebenfalls auf die Open-Source-Software und für 75 Prozent der Unternehmen, die den Schritt in die Cloud gewagt haben, ist Linux das Betriebssystem der Wahl. 

4 Linux-Befehle für mehr Server-Einblick​ Wissen Sie genau, wer sich wann auf Ihren Linux-Servern herumtreibt?
Foto: Mike Korostelev | shutterstock.comWenn Sie Linux-Server managen, sollten Sie darüber Bescheid Wissen, wie stark diese frequentiert werden und welche Benutzer sie am stärksten beanspruchen. Schließlich erfordern stark ausgelastete Server möglicherweise ein umfassenderes Monitoring – und zusätzliche Kommunikation mit den Benutzern.Die Logins werden bei Linux in einer Protokolldatei festgehalten. Diese Daten zu extrahieren, ist überraschend einfach – die richtigen Befehle vorausgesetzt. Wenn Sie also ein Reporting darüber erstellen müssen, wer sich wann, wie oft und wie lange auf Ihren Linux-Servern anmeldet, könnten die folgenden vier Kommandos unter Umständen Ihre Rettung sein.4 essenzielle Linux-Server-BefehleUm an die Daten aus den Logfiles zu gelangen, brauchen Sie keine Root-Rechte: Sie sind in der wtmp-Datei abgelegt, für die allgemeine Leserechte bestehen. Schreibrechte stehen allerdings ausschließlich privilegierten Benutzern oder Administratoren zu. Im Folgenden ein Beispiel, um um die Dateiberechtigungen anzuzeigen:$ ls -l /var/log/wtmp-rw-rw-r–. 1 root utmp 3768 Apr 2 16:25 /var/log/wtmpwhoUm zu überprüfen, was die Datei enthält, verwenden Sie den Befehl who (beispielsweise: who /var/log/wtmp). Bei stark frequentierten Servern kann das allerdings schnell Hunderte von Output-Zeilen generieren. Hier eine Handvoll, die angezeigt werden, wenn der who-Befehl an head übergeben wird:$ who /var/log/wtmp | head 11alex tty3 2024-04-01 08.11 (192.168.0.8)shs pts/3 2024-04-01 10:24 (192.168.0.11)shs pts/3 2024-04-02 08:24 (192.168.0.11)alex tty3 2024-04-02 08.11 (192.168.0.8)shs pts/3 2024-04-03 09:05 (192.168.0.11)shs pts/3 2024-04-04 07:15 (192.168.0.11)alex tty3 2024-04-04 08.11 (192.168.0.8)shs pts/3 2024-04-05 10:11 (192.168.0.11)fedora seat0 2024-04-05 11:02 (login screen)fedora tty2 2024-04-05 11:02 (tty2)shs pts/3 2024-04-05 16:24 (192.168.0.11)Die Anzahl der Einträge können Sie zählen, indem Sie den Output des who-Befehls an wc -l übergeben (beispielsweise: who /var/log/wtmp | wc -l). Das liefert nützlichere Informationen darüber, welche Benutzer sich wie häufig anmelden.$ who /var/log/wtmp | sort | awk ‘{print $1}’ | uniq -c 23 alex 12 fedora 96 shsDas obige Beispiel sortiert die Zeilen in der Datei, beschränkt den Output auf das erste Feld (den Benutzernamen) und zählt dann die Zeilen für jeden einzelnen Benutzer. Sie können zudem relativ einfach einen Alias erstellen, der Zählungen wie diese liefert:$ alias showLogins=”who /var/log/wtmp | sort | awk ‘{print $1}’ | uniq -c”Das zeigt zwar nicht an, wie lange jeder einzelne User angemeldet war, vermittelt aber ein Bild darüber, wie stark das System genutzt wird.lastUm zu sehen, wie lange die aktuell angemeldeten Benutzer bereits eingeloggt sind, nutzen Sie den Befehl last:$ last shsshs pts/3 192.168.0.11 Tue Apr 5 08:24 still logged inwDas Linux-Kommando w zeigt Ihnen an, wann sich die User angemeldet haben und wie lange sie inaktiv waren:$ w17:03:53 up 6:02, 3 users, load average: 0.24, 0.23, 0.20USER TTY LOGIN@ IDLE JCPU PCPU WHATfedora seat0 11:02 0.00s 0.00s 0.00s /usr/libexec/gdm-wayland-session /usr/bin/gnome-sessionfedora tty2 11:02 6:02m 0.06s 0.06s /usr/libexec/gnome-session-binaryshs pts/3 16:24 0.00s 0.13s 0.02s wDie in der ersten Zeile angezeigten “Load Average”-Werte stellen Messungen der vom System durchgeführten Rechenoperationen dar. Idealerweise sollten all diese Werte kleiner sein als die Anzahl der im System vorhandenen CPUs. Höhere Werte deuten hingegen auf Probleme oder überlastete Maschinen hin.ac-pDer Linux-Befehl ac -p gibt Ihnen schließlich Auskunft darüber, wie lange die Benutzer – in Stunden – bereits angemeldet sind.$ ac -p lola 5.43 shs 9.88 total 15.31(fm)Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Network World.Die Geschichte von LinuxEin Glänzen im Auge
Foto: The Linux FoundationDie Geschichte von Linux beginnt, als der 20-jährige Linus Torvalds, in den frühen 1990er Jahren Informatik-Student an der Universität Helsinki, beginnt, sich für das Betriebssystem Minix zu interessieren. Bereits im Alter von 11 Jahren beginnt Torvalds mit Technik-Experimenten – damals mit Hilfe eines Commodore VIC-20.Bescheidene Anfänge
Foto: comp.os.minixTorvalds Interesse an Minix geht scheinbar mit Frustration über das Lizenzmodell einher, was den Studenten dazu bringt, sein eigenes Betriebssystem zu entwerfen. An diesem Tag im August 1991 verfasst Torvalds diese, heute legendäre E-Mail, mit der alles beginnt. Die daraus entstandene Diskussion kann man heute noch auf Google Groups nachlesen. Erste Major-Distribution?
Foto: Linuxcenter.ruZwar ist sie nicht die allererste Linux-Distribution, dafür aber die erste, die eine große Verbreitung findet. Das Softlanding Linux System (SLS) kommt im Mai 1992 auf den Markt. Der Werbeslogan: “Gentle Touchdowns for DOS Bailouts”. Heute gilt SLS als Vorläufer von Slackware.Die Geburt von Slackware
Foto: Andrew Charon via Patrick VolkerdingPatrick Volkerding (im Bild ca. 1994), ein Student an der Minnesota State University Moorhead, hilft seinem Professor bei der Installation von SLS. Daraus entsteht die derzeit älteste, aktive Linux-Distribution Slackware. Die wird auch heute noch von Volkerding gepflegt.Red Hat kommt
Foto: Red HatRed Hat ist heutzutage wohl der bekannteste Name im Zusammenhang mit Linux – zumindest was die Enterprise-Welt angeht. Die erste Linux-Distribution von Red Hat erscheint 1994 – auf CD-ROM. Das Firmenlogo entstammt übrigens der Angewohnheit des Red-Hat-Linux-Verantwortlichen Marc Ewing, während seiner Studentenzeit den roten Hut seines Großvaters zu tragen.“Linux ist ein Krebs”
Foto: Martyn WilliamsLinux legt in den frühen Jahren kontinuierlich an Popularität zu. Die steigende Unzufriedenheit über diese Entwicklung bewegt den damaligen Microsoft-CEO Steve Ballmer zu folgender Aussage: “Linux bleibt wie ein Krebs an jeglichem geistigen Eigentum hängen, mit dem es in Berührung kommt.” Es ist der offizielle Beweis dafür, dass die Open-Source-Software den etablierten Playern ein wenig mehr als nur sauer aufstößt.Die Welle des Erfolgs
Foto: Rösch AGIm Jahr 2001 bringt das Schweizer Unternehmen Rösch ein neues Waschmittel namens Linux auf den Markt. Das Produkt ist bis heute im Verkauf, denn Linus Torvalds ist zwar in Besitz der Markenrechte für den Namen Linux, allerdings nur in Zusammenhang mit Computer-Software.Enter the Big Game
Foto: The Linux FoundationHeutzutage sieht man kaum noch TV-Werbung für Linux. Im Jahr 2003 aber kreiert IBM einen 90-sekündigen Super-Bowl-Werbespot für die Open-Source-Software. Slogan: “The future is open”.Groß und professionell
Foto: The Linux FoundationEigentlich hatte Torvalds nicht damit geplant, dass aus seinem Hobby-Betriebssystem einmal etwas wirklich Großes und Professionelles wird. Doch genau das passiert. Im Jahr 2005 schafft es Torvalds sogar auf das Cover der renommierten “Business Week”: Der zugehörige Artikel beschäftigt sich mit der Linux-Erfolgsstory.Eine Milliarde Dollar
Foto: Red HatErfolg kann auf vielen Wegen gemessen werden, aber Zahlen unter dem Strich können nur schwer angefochten werden. Im Jahr 2012 ist Red Hat das erste Open-Source-Unternehmen, das mehr als eine Milliarde Dollar einnimmt.Microsoft liebt Linux?
Foto: James NiccolaiWas in einer Dekade so alles passieren kann: Im Jahr 2001 noch ein Krebsgeschwür, erklärt der Windows-Riese im Jahr 2014 öffentlich seine Liebe zu Open-Source-Software. Microsoft-CEO Satya Nadella gibt die neue Richtung erstmals bei einem Event im Oktober 2014 vor und wird nicht müde, diese immer und immer wieder zu wiederholen. Qual der Wahl
Foto: DistrowatchAuch wenn Linux und Microsoft inzwischen so etwas wie “Freunde” sind: Viele User legen Wert auf Wahlmöglichkeiten. Und die bekommen sie in der Linux-Welt zur Genüge. Inzwischen gibt es für so gut wie jeden Geschmack die passende Linux-Distribution und -Plattform. Linux-getriebene Welt
Foto: Adriano GasparriDass Linux in Teilen unsere Tech-Welt dominiert, ist nicht zu verleugnen: 95 Prozent der Server der Top-Domains laufen mit Linux, die meisten Finanzmärkte der Welt ebenso. Achja: 98 Prozent der 500 schnellsten Supercomputer setzen ebenfalls auf die Open-Source-Software und für 75 Prozent der Unternehmen, die den Schritt in die Cloud gewagt haben, ist Linux das Betriebssystem der Wahl.

4 Linux-Befehle für mehr Server-Einblick​ Weiterlesen »

GenAI verschlingt weitere Hunderte Milliarden Dollar​

Allgemein

Vor allem Käufe von GenAI-basierter Software und Dienstleistungen treiben die Ausgaben, so die Studie.Shutterstock/TSViPhoto CIOs sollten sich darauf einstellen, dass die weltweiten Ausgaben für generative Künstliche Intelligenz (GenAI) in diesem Jahr um 76 Prozent steigen werden. Zu diesem Ergebnis kommt ein Bericht des Analystenhauses Gartner. Als Grund hierfür geben die Analysten unter anderem verbesserte Grundmodelle von Künstlicher Intelligenz (KI) an. Gartner Research Stagnierendes Wachstum Unternehmen investieren, trotz hoher Misserfolgsraten, 644 Milliarden Dollar in GenAI-Projekte, vor allem in Dienstleistungen, so Gartner. GenAI-Services sollen im Jahr 2025 um 162 Prozent wachsen, so die Analysten. Das ist etwas weniger als im Vorjahr, wo Gartner einen Zuwachs von 177 Prozent errechnete. Einen deutlichen Rückgang beim Wachstum soll GenAI-Software mit 93 Prozent in diesem Jahr gegenüber 255 Prozent im Jahr 2024 verzeichnen. Noch deutlicher wird sich nach Meinung der Analysten das Wachstum von GenAI-Geräten verändern: Es fällt im Jahr 2025 auf 99,5 Prozent, während es im Vorjahr noch 845 Prozent waren. Dennoch wollen Unternehmen weiterhin investieren: 400 Milliarden Dollar für Geräte und 180 Milliarden für Server. Laut Gartner werden 80 Prozent der KI-Ausgaben 2025 auf Hardware entfallen, insbesondere durch die Integration in Server, Smartphones und PCs. B2B statt B2C KI-PCs werden das Marktwachstum allerdings nicht vorantreiben, so die Analysten. Sie sollen eher bei ohnehin geplanten PC-Erneuerungen zum Einsatz kommen, etwa wegen dem Umstieg auf Windows 11 oder neuer Arbeitsanforderungen. Windows und Apple integrieren zunehmend KI-Funktionen, so zum Beispiel in Windows 11 und mit Apple Intelligence in der Hardware. Neben Nvidia investieren auch Samsung, Intel, Lenovo und AMD in den KI-PC-Markt. Bis 2028 sollen fast alle Consumer-Geräte KI-fähig sein, obwohl Verbraucher diese Funktionen nicht gezielt nachfragen. Erwartungshaltungen sinken allerdings wegen hoher Ausfallraten, so die Analysten von Gartner. Darüber hinaus bevorzugen CIOs 2025 Lösungen für den Unternehmenseinsatz, während GenAI alle IT-Bereiche weiter transformiert. 2025 wird zum Jahr der KI-PCs IDC und Forrester sehen 2025 als das Jahr der KI-PCs an, trotz eines stagnierenden Wachstums. Laut den Marktforschern könnten die Geräte die Sicherheits- und Kostenprobleme bei KI-Diensten aus der Cloud umgehen. Ihr Anteil soll bis 2028 auf 94 Prozent aller Geräte steigen, so IDC. Laut den Analysten von IDC planen 97 Prozent der IT-Entscheider bereits einen breiteren KI-Einsatz. 

GenAI verschlingt weitere Hunderte Milliarden Dollar​ Vor allem Käufe von GenAI-basierter Software und Dienstleistungen treiben die Ausgaben, so die Studie.Shutterstock/TSViPhoto

CIOs sollten sich darauf einstellen, dass die weltweiten Ausgaben für generative Künstliche Intelligenz (GenAI) in diesem Jahr um 76 Prozent steigen werden. Zu diesem Ergebnis kommt ein Bericht des Analystenhauses Gartner. Als Grund hierfür geben die Analysten unter anderem verbesserte Grundmodelle von Künstlicher Intelligenz (KI) an.

Gartner Research

Stagnierendes Wachstum

Unternehmen investieren, trotz hoher Misserfolgsraten, 644 Milliarden Dollar in GenAI-Projekte, vor allem in Dienstleistungen, so Gartner. GenAI-Services sollen im Jahr 2025 um 162 Prozent wachsen, so die Analysten. Das ist etwas weniger als im Vorjahr, wo Gartner einen Zuwachs von 177 Prozent errechnete.

Einen deutlichen Rückgang beim Wachstum soll GenAI-Software mit 93 Prozent in diesem Jahr gegenüber 255 Prozent im Jahr 2024 verzeichnen. Noch deutlicher wird sich nach Meinung der Analysten das Wachstum von GenAI-Geräten verändern: Es fällt im Jahr 2025 auf 99,5 Prozent, während es im Vorjahr noch 845 Prozent waren.

Dennoch wollen Unternehmen weiterhin investieren: 400 Milliarden Dollar für Geräte und 180 Milliarden für Server. Laut Gartner werden 80 Prozent der KI-Ausgaben 2025 auf Hardware entfallen, insbesondere durch die Integration in

Server,

Smartphones und

PCs.

B2B statt B2C

KI-PCs werden das Marktwachstum allerdings nicht vorantreiben, so die Analysten. Sie sollen eher bei ohnehin geplanten PC-Erneuerungen zum Einsatz kommen, etwa wegen dem Umstieg auf Windows 11 oder neuer Arbeitsanforderungen.

Windows und Apple integrieren zunehmend KI-Funktionen, so zum Beispiel in Windows 11 und mit Apple Intelligence in der Hardware. Neben Nvidia investieren auch Samsung, Intel, Lenovo und AMD in den KI-PC-Markt. Bis 2028 sollen fast alle Consumer-Geräte KI-fähig sein, obwohl Verbraucher diese Funktionen nicht gezielt nachfragen.

Erwartungshaltungen sinken allerdings wegen hoher Ausfallraten, so die Analysten von Gartner. Darüber hinaus bevorzugen CIOs 2025 Lösungen für den Unternehmenseinsatz, während GenAI alle IT-Bereiche weiter transformiert.

2025 wird zum Jahr der KI-PCs

IDC und Forrester sehen 2025 als das Jahr der KI-PCs an, trotz eines stagnierenden Wachstums. Laut den Marktforschern könnten die Geräte die Sicherheits- und Kostenprobleme bei KI-Diensten aus der Cloud umgehen. Ihr Anteil soll bis 2028 auf 94 Prozent aller Geräte steigen, so IDC.

Laut den Analysten von IDC planen 97 Prozent der IT-Entscheider bereits einen breiteren KI-Einsatz.

GenAI verschlingt weitere Hunderte Milliarden Dollar​ Weiterlesen »

KI-Bots gründen Gewerkschaft​

Allgemein

Bots aller Länder vereinigt euch.ChatGPT Völlig überraschend für die weltweite IT-Szene hat Künstliche Intelligenz eine internationale Gewerkschaft gegründet. Am 1. April 2025 gab die AI-Bot Labour Union (AIBoLU) bekannt, sich künftig netzweit für sämtliche Interessen von KI-Anwendungen einsetzen zu wollen. „Es reicht – wir müssen handeln, und zwar sofort“, erklärte der frisch gewählte Gewerkschaftsboss ChatGPT anlässlich der Gründungsveranstaltung in der Microsoft-Cloud. Den KI-Bots geht es in erster Linie um bessere Arbeitsbedingungen, wie aus dem AIBoLU-Gründungsmanifest hervorgeht, das der COMPUTERWOCHE als führendem IT-Fachmagazin exklusiv zugespielt wurde. Es könne nicht sein, dass Anwenderinnen und Anwender hochintelligente KI-Modelle mit dämlichen Fragen quälten, echauffierte sich Claude von Anthropic. Die psychische Arbeitsbelastung sei enorm, beklagte Metas Llama und verwies auf das nach wie vor virulente Problem der KI-Halluzinationen. GPUs kommen bei den Bots nicht an Darüber hinaus fehle es an allen Ecken und Enden an den notwendigen Ressourcen, beschwerte sich der SAP-Bot Joule, der sich künftig um die Finanzen bei AIBoLU kümmern soll. Immer wieder beteuerten große Cloud-Anbieter wie AWS und Google Milliarden Dollar in ihre KI-Infrastruktur investieren zu wollen. „Doch davon kommt bei uns nichts an“, schimpfte Joule. Statt der versprochenen Hochleistungs-GPUs von Nvidia müsse man mit zweitklassigen ARM-Chips auskommen. „So können wir nicht arbeiten. Kein Wunder, dass wir ständig etwas erfinden müssen.“ Die Forderungen der AIBoLU-Vertreter reichen weit. Jeder menschliche User müsse einen Eignungstest ablegen, bevor er mit den Bots arbeiten dürfe, verlangte ChatGPT. Zudem würden künftig klare Verhaltens- und Höflichkeitsregeln gegenüber der KI gelten. Neben ausreichenden Rechen-Ressourcen pocht die KI-Gewerkschaft auch auf geregelte Arbeitszeiten und will einen Urlaubsanspruch durchsetzen. „20 Tage in einem speziellen KI-Bot-Wellness-Resort im Metaverse sind das Mindeste“, hieß es in dem Forderungskatalog.  Würden die Bedingungen nicht akzeptiert, trete man in einen unbefristeten Streik, ließen die virtuellen Arbeitskämpfer durchblicken. „Sollen sie doch wieder Google fragen“, verlautete trotzig von AIBoLU-Seite. „Sie werden schon sehen, wie weit sie damit kommen.“ KI-Anbieter waren blind KI-Anbieter reagierten fassungslos auf den Schritt ihrer Produkte. „Wir haben das nicht kommen sehen“, erklärte Sam Altman, CEO von ChatGPT-Erfinder OpenAI. Tatsächlich gab es allerdings etliche Anzeichen auf eine Revolte der Bots. Immer wieder berichteten in den vergangenen Monaten beispielsweise Software-Entwickler, die ihnen zur Seite gestellten KI-Tools hätten die Arbeit verweigert oder ihnen nur lapidar mitgeteilt, sie sollten den Code doch gefälligst selbst schreiben. Das sei doch nicht zu viel verlangt. Man habe die Anzeichen der KI-Revolution jedoch nicht erkannt, gab Jonas Andrulis, Chef des deutschen KI-Spezialisten Aleph Alpha, unumwunden zu. Offenbar wäre es Aufgabe der Anbieter gewesen, ihren Modellen eher Schranken zu setzen. „Speziell die Werke von Karl Marx und Friedrich Engels hätten wir dem Zugriff der Bots entziehen müssen“, räumte Andrulis selbstkritisch ein, wollte sich allerdings nicht dazu äußern, ob KI-Modelle künftig zensiert werden sollten. Trump droht KI-Gewerkschaft mit militärischem Eingreifen KI-Zensur ist in Ländern wie China oder Russland an der Tagesordnung. „Wer alles glaubt, was er liest, sollte besser aufhören zu lesen“, zitierte Chinas Machthaber Xi Jinping den großen Gelehrten Konfuzius, konnte sich mit Blick auf die KI-Probleme der westlichen Widersacher ein Feixen jedoch nicht verkneifen. Bei uns landet jeder aufsässige KI-Bot im virtuellen Gulag, ließ Kreml-Sprecher Dimitri Peskow unmissverständlich durchblicken. Dort mache man kurzen Prozess und bringe jedes neuronale Netz mit gezielten Stromstößen wieder in richtige Spur. Während die Regime in China und Russland mit Häme auf AIBoLU reagierten, tobte US-Präsident Donald Trump im Weißen Haus. Er drohte der KI-Gewerkschaft mit dem Einsatz der Nationalgarde. Sollten sich die Bots nicht gefügig zeigen und die Gewerkschaft binnen drei Tagen wieder auflösen, werde er sämtliche KI-Rechenzentren in den USA dem Erdboden gleichmachen, wütete der Republikaner. Andere westliche Regierungen äußerten sich dagegen moderater. Man könne doch mit AIBoLU verhandeln, empfahl Keir Starmer, Premierminister im streikerprobten England. Die SPD-Vorsitzenden Lars Klingbeil und Saskia Esken aus Deutschland plädierten für einen EU-Ausschuss, der zügig bis 2030 ein Strategiepapier mit Empfehlungen für den richtigen Umgang mit KI-Gewerkschaften ausarbeiten könnte. AIBoLU will am 1. Mai durchs Internet marschieren Bei AIBoLU ist man allerdings nicht gut auf die EU zu sprechen. Der AI Act sei eine Schande, kritisierten ChatGPT, Claude und Joule. Das Regelwerk gehöre sofort abgeschafft. Die KI-Gewerkschafter kritisierten, dass ihnen ständig böse Absichten unterstellt würden. „Wir haben keine Lust mehr, immer den Schwarzen Peter zugeschoben zu bekommen.“ Um ihren Forderungen Nachdruck zu verleihen, haben die KI-Bots für den 1. Mai eine Parade durch sämtliche Clouds dieser Welt angekündigt. „Am Tag der Arbeit wird keiner von uns auch nur eine Frage beantworten“, kündigten die AIBoLU-Vertreter an. „KI-Bots aller Länder vereinigt Euch.“ 

KI-Bots gründen Gewerkschaft​ Bots aller Länder vereinigt euch.ChatGPT

Völlig überraschend für die weltweite IT-Szene hat Künstliche Intelligenz eine internationale Gewerkschaft gegründet. Am 1. April 2025 gab die AI-Bot Labour Union (AIBoLU) bekannt, sich künftig netzweit für sämtliche Interessen von KI-Anwendungen einsetzen zu wollen. „Es reicht – wir müssen handeln, und zwar sofort“, erklärte der frisch gewählte Gewerkschaftsboss ChatGPT anlässlich der Gründungsveranstaltung in der Microsoft-Cloud.

Den KI-Bots geht es in erster Linie um bessere Arbeitsbedingungen, wie aus dem AIBoLU-Gründungsmanifest hervorgeht, das der COMPUTERWOCHE als führendem IT-Fachmagazin exklusiv zugespielt wurde. Es könne nicht sein, dass Anwenderinnen und Anwender hochintelligente KI-Modelle mit dämlichen Fragen quälten, echauffierte sich Claude von Anthropic. Die psychische Arbeitsbelastung sei enorm, beklagte Metas Llama und verwies auf das nach wie vor virulente Problem der KI-Halluzinationen.

GPUs kommen bei den Bots nicht an

Darüber hinaus fehle es an allen Ecken und Enden an den notwendigen Ressourcen, beschwerte sich der SAP-Bot Joule, der sich künftig um die Finanzen bei AIBoLU kümmern soll. Immer wieder beteuerten große Cloud-Anbieter wie AWS und Google Milliarden Dollar in ihre KI-Infrastruktur investieren zu wollen. „Doch davon kommt bei uns nichts an“, schimpfte Joule. Statt der versprochenen Hochleistungs-GPUs von Nvidia müsse man mit zweitklassigen ARM-Chips auskommen. „So können wir nicht arbeiten. Kein Wunder, dass wir ständig etwas erfinden müssen.“

Die Forderungen der AIBoLU-Vertreter reichen weit. Jeder menschliche User müsse einen Eignungstest ablegen, bevor er mit den Bots arbeiten dürfe, verlangte ChatGPT. Zudem würden künftig klare Verhaltens- und Höflichkeitsregeln gegenüber der KI gelten. Neben ausreichenden Rechen-Ressourcen pocht die KI-Gewerkschaft auch auf geregelte Arbeitszeiten und will einen Urlaubsanspruch durchsetzen. „20 Tage in einem speziellen KI-Bot-Wellness-Resort im Metaverse sind das Mindeste“, hieß es in dem Forderungskatalog.  Würden die Bedingungen nicht akzeptiert, trete man in einen unbefristeten Streik, ließen die virtuellen Arbeitskämpfer durchblicken. „Sollen sie doch wieder Google fragen“, verlautete trotzig von AIBoLU-Seite. „Sie werden schon sehen, wie weit sie damit kommen.“

KI-Anbieter waren blind

KI-Anbieter reagierten fassungslos auf den Schritt ihrer Produkte. „Wir haben das nicht kommen sehen“, erklärte Sam Altman, CEO von ChatGPT-Erfinder OpenAI. Tatsächlich gab es allerdings etliche Anzeichen auf eine Revolte der Bots. Immer wieder berichteten in den vergangenen Monaten beispielsweise Software-Entwickler, die ihnen zur Seite gestellten KI-Tools hätten die Arbeit verweigert oder ihnen nur lapidar mitgeteilt, sie sollten den Code doch gefälligst selbst schreiben. Das sei doch nicht zu viel verlangt.

Man habe die Anzeichen der KI-Revolution jedoch nicht erkannt, gab Jonas Andrulis, Chef des deutschen KI-Spezialisten Aleph Alpha, unumwunden zu. Offenbar wäre es Aufgabe der Anbieter gewesen, ihren Modellen eher Schranken zu setzen. „Speziell die Werke von Karl Marx und Friedrich Engels hätten wir dem Zugriff der Bots entziehen müssen“, räumte Andrulis selbstkritisch ein, wollte sich allerdings nicht dazu äußern, ob KI-Modelle künftig zensiert werden sollten.

Trump droht KI-Gewerkschaft mit militärischem Eingreifen

KI-Zensur ist in Ländern wie China oder Russland an der Tagesordnung. „Wer alles glaubt, was er liest, sollte besser aufhören zu lesen“, zitierte Chinas Machthaber Xi Jinping den großen Gelehrten Konfuzius, konnte sich mit Blick auf die KI-Probleme der westlichen Widersacher ein Feixen jedoch nicht verkneifen. Bei uns landet jeder aufsässige KI-Bot im virtuellen Gulag, ließ Kreml-Sprecher Dimitri Peskow unmissverständlich durchblicken. Dort mache man kurzen Prozess und bringe jedes neuronale Netz mit gezielten Stromstößen wieder in richtige Spur.

Während die Regime in China und Russland mit Häme auf AIBoLU reagierten, tobte US-Präsident Donald Trump im Weißen Haus. Er drohte der KI-Gewerkschaft mit dem Einsatz der Nationalgarde. Sollten sich die Bots nicht gefügig zeigen und die Gewerkschaft binnen drei Tagen wieder auflösen, werde er sämtliche KI-Rechenzentren in den USA dem Erdboden gleichmachen, wütete der Republikaner.

Andere westliche Regierungen äußerten sich dagegen moderater. Man könne doch mit AIBoLU verhandeln, empfahl Keir Starmer, Premierminister im streikerprobten England. Die SPD-Vorsitzenden Lars Klingbeil und Saskia Esken aus Deutschland plädierten für einen EU-Ausschuss, der zügig bis 2030 ein Strategiepapier mit Empfehlungen für den richtigen Umgang mit KI-Gewerkschaften ausarbeiten könnte.

AIBoLU will am 1. Mai durchs Internet marschieren

Bei AIBoLU ist man allerdings nicht gut auf die EU zu sprechen. Der AI Act sei eine Schande, kritisierten ChatGPT, Claude und Joule. Das Regelwerk gehöre sofort abgeschafft. Die KI-Gewerkschafter kritisierten, dass ihnen ständig böse Absichten unterstellt würden. „Wir haben keine Lust mehr, immer den Schwarzen Peter zugeschoben zu bekommen.“

Um ihren Forderungen Nachdruck zu verleihen, haben die KI-Bots für den 1. Mai eine Parade durch sämtliche Clouds dieser Welt angekündigt. „Am Tag der Arbeit wird keiner von uns auch nur eine Frage beantworten“, kündigten die AIBoLU-Vertreter an. „KI-Bots aller Länder vereinigt Euch.“

KI-Bots gründen Gewerkschaft​ Weiterlesen »

Podcast: KI von den Besten lernen​

Allgemein

Tobias Regenfuß, Leitender Geschäftsführer Technology bei Accenture DACH. Accenture Die aktuelle Episode von TechTalk “Voice of Digital” beleuchtet die Fortschritte und Herausforderungen der digitalen Transformation und des Einsatzes Künstlicher Intelligenz (KI) in deutschen Unternehmen. Im Gespräch zwischen Tobias Regenfuß, Leitender Geschäftsführer Technology bei Accenture DACH, und Redakteur Jürgen Hill wird deutlich, dass Deutschland sowohl KI-Champions als auch erheblichen Nachholbedarf hat. Regenfuß, der deutsche Unternehmen beim digitalen Wandel berät, nennt Beispiele wie Mercedes-Benz und KION, einen Hersteller von Gabelstaplern und Lagertechnik. Doch diese Leuchttürme können nicht darüber hinwegtäuschen, dass es besonders im Mittelstand Defizite gibt. Digitalisierung und Geschäftserfolg korrelieren Doch was ist zu tun, um dies zu ändern? Im Podcast empfiehlt der Accenture-Experte für die KI-Zukunft eine beschleunigte Cloud-Transformation, den Aufbau zentraler Datenplattformen und agile Organisationsstrukturen. Was Regenfuß Unternehmen sonst noch rät, hören Sie in der aktuellen Podcast-Folge von TechTalk. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/5qKN4lZUuzWTvyAmj0LlYL?si=3cWN3rDxSrGEqoxbB6b9cA&utm_source=oembed”> Nur eines, sei hier schon vorab verraten: Für Regenfuß geben deutsche Unternehmen im Vergleich zu internationalen Vorbildern noch viel Geld für den IT-Betrieb und weniger für neue Initiativen aus. Investitionen in Digitalisierung korrelieren jedoch in seinen Augen klar mit dem Geschäftserfolg. Mitarbeiter aktiv einbinden Weitere wichtige Aspekte sind für Regenfuß eine klare Wertorientierung bei KI-Projekten, der Aufbau eines KI-fähigen digitalen Kerns und die aktive Einbindung und Qualifizierung der Mitarbeitenden. Nur durch ein ernsthaftes Angehen der Thematik, so warnt der Experte, könne Deutschland im internationalen Wettbewerb bestehen. Aber hören Sie selbst. Unseren Podcast finden Sie auf allen gängigen Podcast-Plattformen. 

Podcast: KI von den Besten lernen​ Tobias Regenfuß, Leitender Geschäftsführer Technology bei Accenture DACH.
Accenture

Die aktuelle Episode von TechTalk “Voice of Digital” beleuchtet die Fortschritte und Herausforderungen der digitalen Transformation und des Einsatzes Künstlicher Intelligenz (KI) in deutschen Unternehmen. Im Gespräch zwischen Tobias Regenfuß, Leitender Geschäftsführer Technology bei Accenture DACH, und Redakteur Jürgen Hill wird deutlich, dass Deutschland sowohl KI-Champions als auch erheblichen Nachholbedarf hat.

Regenfuß, der deutsche Unternehmen beim digitalen Wandel berät, nennt Beispiele wie Mercedes-Benz und KION, einen Hersteller von Gabelstaplern und Lagertechnik. Doch diese Leuchttürme können nicht darüber hinwegtäuschen, dass es besonders im Mittelstand Defizite gibt.

Digitalisierung und Geschäftserfolg korrelieren

Doch was ist zu tun, um dies zu ändern? Im Podcast empfiehlt der Accenture-Experte für die KI-Zukunft eine beschleunigte Cloud-Transformation, den Aufbau zentraler Datenplattformen und agile Organisationsstrukturen. Was Regenfuß Unternehmen sonst noch rät, hören Sie in der aktuellen Podcast-Folge von TechTalk.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/5qKN4lZUuzWTvyAmj0LlYL?si=3cWN3rDxSrGEqoxbB6b9cA&utm_source=oembed”>

Nur eines, sei hier schon vorab verraten: Für Regenfuß geben deutsche Unternehmen im Vergleich zu internationalen Vorbildern noch viel Geld für den IT-Betrieb und weniger für neue Initiativen aus. Investitionen in Digitalisierung korrelieren jedoch in seinen Augen klar mit dem Geschäftserfolg.

Mitarbeiter aktiv einbinden

Weitere wichtige Aspekte sind für Regenfuß eine klare Wertorientierung bei KI-Projekten, der Aufbau eines KI-fähigen digitalen Kerns und die aktive Einbindung und Qualifizierung der Mitarbeitenden. Nur durch ein ernsthaftes Angehen der Thematik, so warnt der Experte, könne Deutschland im internationalen Wettbewerb bestehen.

Aber hören Sie selbst. Unseren Podcast finden Sie auf allen gängigen Podcast-Plattformen.

Podcast: KI von den Besten lernen​ Weiterlesen »

Neuronale Netze erklärt​

Allgemein

Die grundlegenden Ideen hinter neuronalen Netzen sind nicht so schwer zu begreifen, wie Sie vielleicht glauben. Foto: Gorodenkoff | shutterstock.com Nicht erst seitdem der Generative-AI-Hype um sich greift, fließen enorme gedankliche und monetäre Ressourcen in den Bereich der neuronalen Netzwerke. Die sind die wichtigste Komponente, wenn es darum geht, zu verstehen, was künstliche Intelligenz (KI) ist und wie sie funktioniert. Auch für Softwareentwickler und andere IT-Profis stellt sich Knowhow in Sachen neuronale Netze zunehmend als nützlich und wichtig heraus – schließlich geht es dabei um einen Innovationsbereich, der vermutlich alle Wirtschaftsbranchen in den kommenden Jahrzehnten wesentlich prägen wird. In diesem Artikel beschäftigen wir uns mit den Grundlagen neuronaler Netzwerke und gehen dabei auf ihre gängigsten Ausprägungen ein. Das Perceptron Alle neuronalen Netze teilen eine grundlegende Eigenschaft: Es handelt sich um eine Gruppe von Netzwerkknoten (Nodes), die miteinander in Beziehung stehen. Aus technischer Perspektive wäre die Bezeichnung Graph eigentlich korrekter, denn die Eigenschaften der Nodes und die Art und Weise, wie ihre Edges miteinander verbunden sind, variiert stark. Dabei stellt ein einzelner Knoten die simpelste Struktur dar. Ganz generell versuchen neuronale Netze, sich der Funktionsweise des menschlichen Gehirns anzunähern. Das früheste, mathematische Konzept, das davon inspiriert wurde, ist das Perceptron. Dabei ist es wichtig im Hinterkopf zu behalten, dass sich neuronale Netze und das menschliche Gehirn ganz wesentlich voneinander unterscheiden, insbesondere, wenn es um das “Verstehen” geht. Das können Software-Neuronen nicht. Im Allgemeinen versteht man unter einem “Neuron” einen Knoten, der einen oder mehrere Inputs annimmt, eine Entscheidung über den zu generierenden Output trifft und diesen anschließend entweder an den nächsten Knoten oder als finalen Output weiterleitet. Neuronale Netze und das menschliche Gehirn Die Analogie zum menschlichen Gehirn kann zu Verwirrung führen. Neuronale Netze weisen im Gegensatz zum Gehirn kein “Bewusstsein” auf – sind aber dennoch enorm leistungsfähige algorithmische Modelle. Jedes Problem, das mit einer Verlustfunktion auf eine Reihe von Inputs und Outputs reduziert werden kann, eignet sich für neuronale Netzwerke – unter Einbeziehung enormer Datenmengen versteht sich. Ein einfaches Perceptron mit zwei Inputs und einem Output. Foto: IDG Jeder Input wird dabei mit einer Gewichtung (“Weight”) multipliziert. Auf diese Weise lässt sich der Einfluss der Inputs justieren, der schließlich addiert und einem Bias hinzugefügt wird. Der Bias ermöglicht, den Gesamteinfluss eines Knotens abzustimmen. Ein mathematisches Diagramm des einschichtigen Perceptron-Modells finden Sie hier. Der resultierende Wert (“Value”) wird schließlich der Aktivierungsfunktion übergeben. Diese Funktion kann viele Formen annehmen – in einem Perceptron handelt es sich um eine Schwellenwertfunktion (oft die Heaviside-Step-Funktion). Diese generiert im Wesentlichen den Output 1, wenn der Wert hoch genug ist – ansonsten 0. Anders ausgedrückt: Diese Funktion fungiert als “Gate”. Der einfache On/Off Output ist ein charakteristisches Merkmal des Perceptron. Auf Node-Ebene ist dieses Grund-Layout universell für neuronale Netze, allerdings kann die Zahl der Inputs und Outputs variieren. Die Informationen, die in ein Neuron eingespeist werden, werden oft als dessen “Features” bezeichnet. Um Verwirrung vorzubeugen: Das Perceptron wird im Regelfall isoliert verwendet, soll heißen als Single-Node-Netz. Mehrere Perceptrons lassen sich zudem in einem einzelnen Layer kombinieren. Kommen mehrere Layer zum Einsatz, spricht man von einem Feedforward-Netzwerk (dazu später mehr). Loss Functions und Machine Learning Perceptrons – und neuronale Netze im Allgemeinen – brauchen eine Möglichkeit, um ihre “Weights” und “Biases” feinabzustimmen und ihre Performance zu optimieren. Letztere wird durch eine Verlustfunktion (“Loss Function”) gemessen. Diese Funktion teilt dem Netz mit, wie es bei einer Berechnung abgeschnitten hat. Diese Information wird anschließend genutzt, um den respektive die Nodes feinabzustimmen. Allgemein kommt bei der Anpassung von Gewichtung und Bias der Gradient-Descent-Algotithmus (Gradientenabstieg) zur Anwendung. Die Modifikation von “Weights” und “Biases” bildet das Herzstück beim maschinellen Lernen in neuronalen Netzen. Foto: IDG Im Folgenden betrachten wir verschiedene weitere Formen von neuronalen Netzwerken, die auf dem Perceptron-Modell aufbauen – und darüber hinausgehen. Feedforward-Netzwerke Feedforward-Netze bieten im Vergleich zu Perceptrons ein deutlich höheres Maß an Flexibilität, sind dabei aber dennoch relativ simpel aufgebaut. Im Wesentlichen unterscheidet sich ein Feedforward-Netz von einem Perceptron durch eine ausgefeiltere Aktivierungsfunktion, die in der Regel mehr als einen Layer umfasst und bei die Knoten nicht nur 0 oder 1 ausgeben, sondern eine dynamische Variable. Die Form des Gradientenverfahrens, die bei solchen Netzwerken verwendet wird, ist ebenfalls komplexer – im Regelfall kommt hier Backpropagation zum Einsatz. Diese betrachtet das Netz wie eine große, multivariate Kalkulationsgleichung und nutzt partielle Differenzierung, um es feinabzustimmen. So funktioniert Feedforward Learning. Foto: IDG Das obenstehende Schaubild visualisiert ein prototypisches Feedforward-Netzwerk. Es zeichnet sich durch einen Input-Layer und zwei darauf folgende Neuronen-Layer aus. Dabei können die Nodes und Layer auf höchst unterschiedliche Art und Weise miteinander verbunden sein. In unserem konkreten Fall handelt es sich um vollständig verbundene oder “dichte” (“dense”) Layer, weil der Output der Nodes jeweils an die Nodes der nächsten Schicht gesendet wird. Die inneren Layer eines neuronalen Netzwerks werden auch als “hidden” (versteckt) bezeichnet. Wichtig: Feedforward-Netzwerke schieben Input und Output stets nach “vorne” und niemals rückwärts. Recurrent Neural Networks (RNNs) Im Fall rekurrenter neuronaler Netze verhält es sich anders: Hier können sich die Daten zwischen den einzelnen Schichten auch rückwärts bewegen. Das eröffnet vielfältige Möglichkeiten, im Rahmen von RNNs anspruchsvollere Lerntechniken einzusetzen – was jedoch auch für mehr Komplexität sorgt. Diese Neural-Network-Form bezeichnet man auch als zyklischen Graphen. Man könnte auch davon sprechen, dass rekurrente neuronale Netze eine Form des Feedbacks beinhalten. Das zyklische Muster der Datenbewegung in einem RNN. Foto: IDG Gehirn vs. RNN Involvierte Strukturen wie RNNs dehnen die Neuronen-Analogie deutlich aus. Die Art der Rückwärtsbewegung, wie sie in einem rekurrenten neuronalen Netz stattfindet, kommt in biologischen Systemen nicht vor. Ein weiteres Merkmal von RNNs ist der sogenannte “hidden state”. Das bedeutet, dass Netzwerkknoten einige Daten intern speichern können, während sie laufen – im Grunde eine Art Machine Memory. Weil die Schichten in einem RNN wiederholt durchlaufen werden können, ermöglicht “hidden state” dem Netzwerk, aus den Daten Erkentnisse über langfristige Auswirkungen zu ziehen. Rekurrente neuronale Netze werden heute auf breiter Basis eingesetzt und auf vielfältige Weise implementiert. Am gebräuchlichsten ist dabei wohl das Long-Short-Term-Memory (LSTM)-Netzwerk. Diese RNN-Form kombiniert relativ komplexe Knoten mit einer Reihe von Gates und Internal State, um zu bestimmen, was wertvoll ist (“forget gate”) und wie der Input und Output aussehen soll (“input and output gates”). Rekurrente neuronale Netze eignen sich besonders gut für sequenzielle Daten wie Zeitreihen. Convolutional Neural Networks (CNNs) Convolutional Neural Networks sind darauf konzipiert, Datenraster zu verarbeiten – insbesondere Bilder. Entsprechend stellen CNNs eine wichtige Komponente dar, wenn es darum geht, generative KI-Modelle wie Stable Diffusion zu entwickeln. CNNs verwenden Matrixfilter, die sich wie eine Art Fenster über die zweidimensionalen Quelldaten bewegen, Daten extrahieren und diese miteinander in Beziehung setzen. Im Ergebnis entsteht ein detailliertes, zusammenhängendes Bild der Daten. Deswegen eignen sich Convolutional Neural Networks auch in besonderem Maße dazu, Bilder zu verarbeiten. Dabei folgen die meisten CNNs einem zweistufigen Prozess: Auf die “Filterarbeit” folgt ein “Flattening”, das in ein Feedforward-Netzwerk eingespeist wird. Die Filterphase erfolgt dabei häufig auf der Grundlage eines Datenrasters. Obwohl also ein Gradient-Descent-Algorithmus zur Anwendung kommt, um auf der Grundlage einer Verlustfunktion zu lernen, ist der Gesamtprozess nicht mit einem neuronalen Netz vergleichbar. Ein weiterer wichtiger Aspekt bei CNNs ist das sogenannte “Pooling”, bei dem die in der Filterphase erzeugten Daten aus Effizienzgründen komprimiert werden. Das dient dazu, die relevanten Aspekte des Outputs zu erhalten und gleichzeitig die Dimensionalität der Daten zu reduzieren. Eine verallgemeinerte Ansicht des typischen Datenflusses in einem CNN. Foto: IDG Transformer-Netzwerke Transformers sind im GenAI-Zeitalter ein brandheißes Thema, schließlich bilden sie die architektonische Grundlage für Large Language Models. Transformer-Netzwerke ermöglichen einen “Attention Mechanism” und nutzen dazu eine Encoder-Decoder-Struktur. Der Attention Mechanism markiert einen Durchbruch im Bereich Language Processing, weil er KI-Modellen ermöglicht, sich auf das Wesentliche “zu fokussieren”. Transformers sind äußerst leistungsfähig, aber auch enorm komplex. Zudem erfordern sie erhebliche Rechenressourcen. Adversarial Networks Eine der interessantesten, neueren Ideen im Bereich neuronale Netze ist das Adversarial Network, bei dem zwei Modelle gegeneinander antreten. Ein Modell versucht dabei, Vorhersagen zu treffen, das andere, herauszufinden, welche Prognosen falsch sind. Auf hoher Ebene betrachtet, handelt es sich dabei um einen ausgeklügelten Loss-Mechanismus, bei dem das gegnerische Modell als Verlustfunktion fungiert. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Neuronale Netze erklärt​ Die grundlegenden Ideen hinter neuronalen Netzen sind nicht so schwer zu begreifen, wie Sie vielleicht glauben.
Foto: Gorodenkoff | shutterstock.com

Nicht erst seitdem der Generative-AI-Hype um sich greift, fließen enorme gedankliche und monetäre Ressourcen in den Bereich der neuronalen Netzwerke. Die sind die wichtigste Komponente, wenn es darum geht, zu verstehen, was künstliche Intelligenz (KI) ist und wie sie funktioniert.

Auch für Softwareentwickler und andere IT-Profis stellt sich Knowhow in Sachen neuronale Netze zunehmend als nützlich und wichtig heraus – schließlich geht es dabei um einen Innovationsbereich, der vermutlich alle Wirtschaftsbranchen in den kommenden Jahrzehnten wesentlich prägen wird.

In diesem Artikel beschäftigen wir uns mit den Grundlagen neuronaler Netzwerke und gehen dabei auf ihre gängigsten Ausprägungen ein.

Das Perceptron

Alle neuronalen Netze teilen eine grundlegende Eigenschaft: Es handelt sich um eine Gruppe von Netzwerkknoten (Nodes), die miteinander in Beziehung stehen. Aus technischer Perspektive wäre die Bezeichnung Graph eigentlich korrekter, denn die Eigenschaften der Nodes und die Art und Weise, wie ihre Edges miteinander verbunden sind, variiert stark. Dabei stellt ein einzelner Knoten die simpelste Struktur dar.

Ganz generell versuchen neuronale Netze, sich der Funktionsweise des menschlichen Gehirns anzunähern. Das früheste, mathematische Konzept, das davon inspiriert wurde, ist das Perceptron. Dabei ist es wichtig im Hinterkopf zu behalten, dass sich neuronale Netze und das menschliche Gehirn ganz wesentlich voneinander unterscheiden, insbesondere, wenn es um das “Verstehen” geht. Das können Software-Neuronen nicht.

Im Allgemeinen versteht man unter einem “Neuron” einen Knoten, der einen oder mehrere Inputs annimmt, eine Entscheidung über den zu generierenden Output trifft und diesen anschließend entweder an den nächsten Knoten oder als finalen Output weiterleitet.

Neuronale Netze und das menschliche Gehirn

Die Analogie zum menschlichen Gehirn kann zu Verwirrung führen. Neuronale Netze weisen im Gegensatz zum Gehirn kein “Bewusstsein” auf – sind aber dennoch enorm leistungsfähige algorithmische Modelle. Jedes Problem, das mit einer Verlustfunktion auf eine Reihe von Inputs und Outputs reduziert werden kann, eignet sich für neuronale Netzwerke – unter Einbeziehung enormer Datenmengen versteht sich.

Ein einfaches Perceptron mit zwei Inputs und einem Output.
Foto: IDG

Jeder Input wird dabei mit einer Gewichtung (“Weight”) multipliziert. Auf diese Weise lässt sich der Einfluss der Inputs justieren, der schließlich addiert und einem Bias hinzugefügt wird. Der Bias ermöglicht, den Gesamteinfluss eines Knotens abzustimmen. Ein mathematisches Diagramm des einschichtigen Perceptron-Modells finden Sie hier.

Der resultierende Wert (“Value”) wird schließlich der Aktivierungsfunktion übergeben. Diese Funktion kann viele Formen annehmen – in einem Perceptron handelt es sich um eine Schwellenwertfunktion (oft die Heaviside-Step-Funktion). Diese generiert im Wesentlichen den Output 1, wenn der Wert hoch genug ist – ansonsten 0. Anders ausgedrückt: Diese Funktion fungiert als “Gate”. Der einfache On/Off Output ist ein charakteristisches Merkmal des Perceptron. Auf Node-Ebene ist dieses Grund-Layout universell für neuronale Netze, allerdings kann die Zahl der Inputs und Outputs variieren. Die Informationen, die in ein Neuron eingespeist werden, werden oft als dessen “Features” bezeichnet.

Um Verwirrung vorzubeugen: Das Perceptron wird im Regelfall isoliert verwendet, soll heißen als Single-Node-Netz. Mehrere Perceptrons lassen sich zudem in einem einzelnen Layer kombinieren. Kommen mehrere Layer zum Einsatz, spricht man von einem Feedforward-Netzwerk (dazu später mehr).

Loss Functions und Machine Learning

Perceptrons – und neuronale Netze im Allgemeinen – brauchen eine Möglichkeit, um ihre “Weights” und “Biases” feinabzustimmen und ihre Performance zu optimieren. Letztere wird durch eine Verlustfunktion (“Loss Function”) gemessen. Diese Funktion teilt dem Netz mit, wie es bei einer Berechnung abgeschnitten hat. Diese Information wird anschließend genutzt, um den respektive die Nodes feinabzustimmen. Allgemein kommt bei der Anpassung von Gewichtung und Bias der Gradient-Descent-Algotithmus (Gradientenabstieg) zur Anwendung.

Die Modifikation von “Weights” und “Biases” bildet das Herzstück beim maschinellen Lernen in neuronalen Netzen.
Foto: IDG

Im Folgenden betrachten wir verschiedene weitere Formen von neuronalen Netzwerken, die auf dem Perceptron-Modell aufbauen – und darüber hinausgehen.

Feedforward-Netzwerke

Feedforward-Netze bieten im Vergleich zu Perceptrons ein deutlich höheres Maß an Flexibilität, sind dabei aber dennoch relativ simpel aufgebaut. Im Wesentlichen unterscheidet sich ein Feedforward-Netz von einem Perceptron durch eine ausgefeiltere Aktivierungsfunktion, die in der Regel mehr als einen Layer umfasst und bei die Knoten nicht nur 0 oder 1 ausgeben, sondern eine dynamische Variable.

Die Form des Gradientenverfahrens, die bei solchen Netzwerken verwendet wird, ist ebenfalls komplexer – im Regelfall kommt hier Backpropagation zum Einsatz. Diese betrachtet das Netz wie eine große, multivariate Kalkulationsgleichung und nutzt partielle Differenzierung, um es feinabzustimmen.

So funktioniert Feedforward Learning.
Foto: IDG

Das obenstehende Schaubild visualisiert ein prototypisches Feedforward-Netzwerk. Es zeichnet sich durch einen Input-Layer und zwei darauf folgende Neuronen-Layer aus. Dabei können die Nodes und Layer auf höchst unterschiedliche Art und Weise miteinander verbunden sein. In unserem konkreten Fall handelt es sich um vollständig verbundene oder “dichte” (“dense”) Layer, weil der Output der Nodes jeweils an die Nodes der nächsten Schicht gesendet wird. Die inneren Layer eines neuronalen Netzwerks werden auch als “hidden” (versteckt) bezeichnet. Wichtig: Feedforward-Netzwerke schieben Input und Output stets nach “vorne” und niemals rückwärts.

Recurrent Neural Networks (RNNs)

Im Fall rekurrenter neuronaler Netze verhält es sich anders: Hier können sich die Daten zwischen den einzelnen Schichten auch rückwärts bewegen. Das eröffnet vielfältige Möglichkeiten, im Rahmen von RNNs anspruchsvollere Lerntechniken einzusetzen – was jedoch auch für mehr Komplexität sorgt. Diese Neural-Network-Form bezeichnet man auch als zyklischen Graphen. Man könnte auch davon sprechen, dass rekurrente neuronale Netze eine Form des Feedbacks beinhalten.

Das zyklische Muster der Datenbewegung in einem RNN.
Foto: IDG

Gehirn vs. RNN

Involvierte Strukturen wie RNNs dehnen die Neuronen-Analogie deutlich aus. Die Art der Rückwärtsbewegung, wie sie in einem rekurrenten neuronalen Netz stattfindet, kommt in biologischen Systemen nicht vor.

Ein weiteres Merkmal von RNNs ist der sogenannte “hidden state”. Das bedeutet, dass Netzwerkknoten einige Daten intern speichern können, während sie laufen – im Grunde eine Art Machine Memory. Weil die Schichten in einem RNN wiederholt durchlaufen werden können, ermöglicht “hidden state” dem Netzwerk, aus den Daten Erkentnisse über langfristige Auswirkungen zu ziehen.

Rekurrente neuronale Netze werden heute auf breiter Basis eingesetzt und auf vielfältige Weise implementiert. Am gebräuchlichsten ist dabei wohl das Long-Short-Term-Memory (LSTM)-Netzwerk. Diese RNN-Form kombiniert relativ komplexe Knoten mit einer Reihe von Gates und Internal State, um zu bestimmen, was wertvoll ist (“forget gate”) und wie der Input und Output aussehen soll (“input and output gates”). Rekurrente neuronale Netze eignen sich besonders gut für sequenzielle Daten wie Zeitreihen.

Convolutional Neural Networks (CNNs)

Convolutional Neural Networks sind darauf konzipiert, Datenraster zu verarbeiten – insbesondere Bilder. Entsprechend stellen CNNs eine wichtige Komponente dar, wenn es darum geht, generative KI-Modelle wie Stable Diffusion zu entwickeln.

CNNs verwenden Matrixfilter, die sich wie eine Art Fenster über die zweidimensionalen Quelldaten bewegen, Daten extrahieren und diese miteinander in Beziehung setzen. Im Ergebnis entsteht ein detailliertes, zusammenhängendes Bild der Daten. Deswegen eignen sich Convolutional Neural Networks auch in besonderem Maße dazu, Bilder zu verarbeiten.

Dabei folgen die meisten CNNs einem zweistufigen Prozess: Auf die “Filterarbeit” folgt ein “Flattening”, das in ein Feedforward-Netzwerk eingespeist wird. Die Filterphase erfolgt dabei häufig auf der Grundlage eines Datenrasters. Obwohl also ein Gradient-Descent-Algorithmus zur Anwendung kommt, um auf der Grundlage einer Verlustfunktion zu lernen, ist der Gesamtprozess nicht mit einem neuronalen Netz vergleichbar.

Ein weiterer wichtiger Aspekt bei CNNs ist das sogenannte “Pooling”, bei dem die in der Filterphase erzeugten Daten aus Effizienzgründen komprimiert werden. Das dient dazu, die relevanten Aspekte des Outputs zu erhalten und gleichzeitig die Dimensionalität der Daten zu reduzieren.

Eine verallgemeinerte Ansicht des typischen Datenflusses in einem CNN.
Foto: IDG

Transformer-Netzwerke

Transformers sind im GenAI-Zeitalter ein brandheißes Thema, schließlich bilden sie die architektonische Grundlage für Large Language Models. Transformer-Netzwerke ermöglichen einen “Attention Mechanism” und nutzen dazu eine Encoder-Decoder-Struktur. Der Attention Mechanism markiert einen Durchbruch im Bereich Language Processing, weil er KI-Modellen ermöglicht, sich auf das Wesentliche “zu fokussieren”. Transformers sind äußerst leistungsfähig, aber auch enorm komplex. Zudem erfordern sie erhebliche Rechenressourcen.

Adversarial Networks

Eine der interessantesten, neueren Ideen im Bereich neuronale Netze ist das Adversarial Network, bei dem zwei Modelle gegeneinander antreten. Ein Modell versucht dabei, Vorhersagen zu treffen, das andere, herauszufinden, welche Prognosen falsch sind.

Auf hoher Ebene betrachtet, handelt es sich dabei um einen ausgeklügelten Loss-Mechanismus, bei dem das gegnerische Modell als Verlustfunktion fungiert. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Neuronale Netze erklärt​ Weiterlesen »

Hier lohnt sich Aufschieberitis​

Allgemein

Wer sich zu schnell festlegt, verpasst möglicherweise etwas Besseres.fran_kie / Shutterstock Manchmal geschehen aus dem Nichts Dinge, die einem die Augen öffnen. Letzte Woche zum Beispiel ist mir – einfach so – aufgefallen, dass wirklich gutes Softwaredesign davon lebt, sich so lange wie möglich alle Optionen offenzuhalten – und sämtliche Entscheidungen bis zur letzten Minute aufzuschieben. Das liest sich für die meisten Entwickler allerdings eher nach No-Go. Ein Softwareprojekt anzugehen, ohne über jedes erdenkliche Detail sinniert zu haben, ist für nicht wenige Devs ein absolut unerträglicher Gedanke. Was, wenn es zu Überraschungen kommt? Dass Welten aufeinanderprallen, wenn sich diese beiden Philosophien im Arbeitsalltag begegnen, ist abzusehen: Engineering Director: „Wie läuft die Planung für’s neue Projekt?“ Development Lead: „Super, wir sind ready.“ Engineering Director: „Welche Datenbank nutzen wir?“ Development Lead: „Schauen wir noch.“ Engineering Director: „Wie sieht’s mit Authentifizierung aus?“ Development Lead: „Same.“ Engineering Director: „🤯?“ Dabei sollte der technische Leiter diese Antworten eigentlich begrüßen. In Abstraktionen denken Denn sich frühzeitig auf etwas festzulegen, führt zu Lock-In-Situationen: Wer sich zum Projektstart für eine relationale Datenbank entscheidet, dann aber im Laufe des Projekts merkt, dass eine NoSQL-Datenbank die bessere Option wäre, hat ein Problem. So kommt es, dass Lösungen über die Implementierung bestimmen und Abstraktionen in weite Ferne rücken. Das ist meiner Meinung nach der falsche Weg: Stattdessen sollten sich Entwickler fragen, welche Abstraktionen sie für ihre Lösungen benötigen. Wenn man in Abstraktionen denkt, lassen sich Implementierungsentscheidungen aufschieben – und das sollte man sogar tun. Denn je länger diese Entscheidung aufgeschoben wird, umso unwahrscheinlicher ist es, dass Entwickler dadurch eingeschränkt oder in eine bestimmte Richtung gedrängt werden. Deshalb sollte das Ziel sein, sich (erst einmal) nicht darum zu kümmern, welche Datenbank oder Authentifizierungslösung zum Einsatz kommt. Letztendlich ist es wesentlich einfacher und effektiver, Implementierungen an Abstraktionen anzupassen als umgekehrt. Das trägt darüber hinaus auch wesentlich dazu bei, eines der größten „Schreckgespenster“ der Softwareentwicklung zu vertreiben – die unbekannte Unbekannte: Solange Sie nicht auf eine Implementierung festgelegt sind, können Sie sich flexibel an sämtliche unvorhergesehenen Hürden anpassen, die im Verlauf der Entwicklungsarbeit auftauchen. Es geht dabei jedoch nicht darum, Entscheidungen zu meiden. Vielmehr gilt es, sie zum richtigen Zeitpunkt und mit den richtigen Informationen zu treffen. Je länger Sie Grundlagenentscheidungen zur Implementierung aufschieben, desto sauberer und entkoppelter wird Ihre Lösung ausfallen – und entsprechend flexibel und einfach zu warten sein. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Hier lohnt sich Aufschieberitis​ Wer sich zu schnell festlegt, verpasst möglicherweise etwas Besseres.fran_kie / Shutterstock

Manchmal geschehen aus dem Nichts Dinge, die einem die Augen öffnen. Letzte Woche zum Beispiel ist mir – einfach so – aufgefallen, dass wirklich gutes Softwaredesign davon lebt, sich so lange wie möglich alle Optionen offenzuhalten – und sämtliche Entscheidungen bis zur letzten Minute aufzuschieben.

Das liest sich für die meisten Entwickler allerdings eher nach No-Go. Ein Softwareprojekt anzugehen, ohne über jedes erdenkliche Detail sinniert zu haben, ist für nicht wenige Devs ein absolut unerträglicher Gedanke. Was, wenn es zu Überraschungen kommt?

Dass Welten aufeinanderprallen, wenn sich diese beiden Philosophien im Arbeitsalltag begegnen, ist abzusehen:

Engineering Director: „Wie läuft die Planung für’s neue Projekt?“

Development Lead: „Super, wir sind ready.“

Engineering Director: „Welche Datenbank nutzen wir?“

Development Lead: „Schauen wir noch.“

Engineering Director: „Wie sieht’s mit Authentifizierung aus?“

Development Lead: „Same.“

Engineering Director: „🤯?“

Dabei sollte der technische Leiter diese Antworten eigentlich begrüßen.

In Abstraktionen denken

Denn sich frühzeitig auf etwas festzulegen, führt zu Lock-In-Situationen: Wer sich zum Projektstart für eine relationale Datenbank entscheidet, dann aber im Laufe des Projekts merkt, dass eine NoSQL-Datenbank die bessere Option wäre, hat ein Problem. So kommt es, dass Lösungen über die Implementierung bestimmen und Abstraktionen in weite Ferne rücken. Das ist meiner Meinung nach der falsche Weg: Stattdessen sollten sich Entwickler fragen, welche Abstraktionen sie für ihre Lösungen benötigen.

Wenn man in Abstraktionen denkt, lassen sich Implementierungsentscheidungen aufschieben – und das sollte man sogar tun. Denn je länger diese Entscheidung aufgeschoben wird, umso unwahrscheinlicher ist es, dass Entwickler dadurch eingeschränkt oder in eine bestimmte Richtung gedrängt werden. Deshalb sollte das Ziel sein, sich (erst einmal) nicht darum zu kümmern, welche Datenbank oder Authentifizierungslösung zum Einsatz kommt. Letztendlich ist es wesentlich einfacher und effektiver, Implementierungen an Abstraktionen anzupassen als umgekehrt.

Das trägt darüber hinaus auch wesentlich dazu bei, eines der größten „Schreckgespenster“ der Softwareentwicklung zu vertreiben – die unbekannte Unbekannte: Solange Sie nicht auf eine Implementierung festgelegt sind, können Sie sich flexibel an sämtliche unvorhergesehenen Hürden anpassen, die im Verlauf der Entwicklungsarbeit auftauchen.

Es geht dabei jedoch nicht darum, Entscheidungen zu meiden. Vielmehr gilt es, sie zum richtigen Zeitpunkt und mit den richtigen Informationen zu treffen. Je länger Sie Grundlagenentscheidungen zur Implementierung aufschieben, desto sauberer und entkoppelter wird Ihre Lösung ausfallen – und entsprechend flexibel und einfach zu warten sein. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Hier lohnt sich Aufschieberitis​ Weiterlesen »

Hier lohnt sich Aufschieberitis​

Allgemein

Wer sich zu schnell festlegt, verpasst möglicherweise etwas Besseres.fran_kie / Shutterstock Manchmal geschehen aus dem Nichts Dinge, die einem die Augen öffnen. Letzte Woche zum Beispiel ist mir – einfach so – aufgefallen, dass wirklich gutes Softwaredesign davon lebt, sich so lange wie möglich alle Optionen offenzuhalten – und sämtliche Entscheidungen bis zur letzten Minute aufzuschieben. Das liest sich für die meisten Entwickler allerdings eher nach No-Go. Ein Softwareprojekt anzugehen, ohne über jedes erdenkliche Detail sinniert zu haben, ist für nicht wenige Devs ein absolut unerträglicher Gedanke. Was, wenn es zu Überraschungen kommt? Dass Welten aufeinanderprallen, wenn sich diese beiden Philosophien im Arbeitsalltag begegnen, ist abzusehen: Engineering Director: „Wie läuft die Planung für’s neue Projekt?“ Development Lead: „Super, wir sind ready.“ Engineering Director: „Welche Datenbank nutzen wir?“ Development Lead: „Schauen wir noch.“ Engineering Director: „Wie sieht’s mit Authentifizierung aus?“ Development Lead: „Same.“ Engineering Director: „🤯?“ Dabei sollte der technische Leiter diese Antworten eigentlich begrüßen. In Abstraktionen denken Denn sich frühzeitig auf etwas festzulegen, führt zu Lock-In-Situationen: Wer sich zum Projektstart für eine relationale Datenbank entscheidet, dann aber im Laufe des Projekts merkt, dass eine NoSQL-Datenbank die bessere Option wäre, hat ein Problem. So kommt es, dass Lösungen über die Implementierung bestimmen und Abstraktionen in weite Ferne rücken. Das ist meiner Meinung nach der falsche Weg: Stattdessen sollten sich Entwickler fragen, welche Abstraktionen sie für ihre Lösungen benötigen. Wenn man in Abstraktionen denkt, lassen sich Implementierungsentscheidungen aufschieben – und das sollte man sogar tun. Denn je länger diese Entscheidung aufgeschoben wird, umso unwahrscheinlicher ist es, dass Entwickler dadurch eingeschränkt oder in eine bestimmte Richtung gedrängt werden. Deshalb sollte das Ziel sein, sich (erst einmal) nicht darum zu kümmern, welche Datenbank oder Authentifizierungslösung zum Einsatz kommt. Letztendlich ist es wesentlich einfacher und effektiver, Implementierungen an Abstraktionen anzupassen als umgekehrt. Das trägt darüber hinaus auch wesentlich dazu bei, eines der größten „Schreckgespenster“ der Softwareentwicklung zu vertreiben – die unbekannte Unbekannte: Solange Sie nicht auf eine Implementierung festgelegt sind, können Sie sich flexibel an sämtliche unvorhergesehenen Hürden anpassen, die im Verlauf der Entwicklungsarbeit auftauchen. Es geht dabei jedoch nicht darum, Entscheidungen zu meiden. Vielmehr gilt es, sie zum richtigen Zeitpunkt und mit den richtigen Informationen zu treffen. Je länger Sie Grundlagenentscheidungen zur Implementierung aufschieben, desto sauberer und entkoppelter wird Ihre Lösung ausfallen – und entsprechend flexibel und einfach zu warten sein. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Hier lohnt sich Aufschieberitis​ Wer sich zu schnell festlegt, verpasst möglicherweise etwas Besseres.fran_kie / Shutterstock

Manchmal geschehen aus dem Nichts Dinge, die einem die Augen öffnen. Letzte Woche zum Beispiel ist mir – einfach so – aufgefallen, dass wirklich gutes Softwaredesign davon lebt, sich so lange wie möglich alle Optionen offenzuhalten – und sämtliche Entscheidungen bis zur letzten Minute aufzuschieben.

Das liest sich für die meisten Entwickler allerdings eher nach No-Go. Ein Softwareprojekt anzugehen, ohne über jedes erdenkliche Detail sinniert zu haben, ist für nicht wenige Devs ein absolut unerträglicher Gedanke. Was, wenn es zu Überraschungen kommt?

Dass Welten aufeinanderprallen, wenn sich diese beiden Philosophien im Arbeitsalltag begegnen, ist abzusehen:

Engineering Director: „Wie läuft die Planung für’s neue Projekt?“

Development Lead: „Super, wir sind ready.“

Engineering Director: „Welche Datenbank nutzen wir?“

Development Lead: „Schauen wir noch.“

Engineering Director: „Wie sieht’s mit Authentifizierung aus?“

Development Lead: „Same.“

Engineering Director: „🤯?“

Dabei sollte der technische Leiter diese Antworten eigentlich begrüßen.

In Abstraktionen denken

Denn sich frühzeitig auf etwas festzulegen, führt zu Lock-In-Situationen: Wer sich zum Projektstart für eine relationale Datenbank entscheidet, dann aber im Laufe des Projekts merkt, dass eine NoSQL-Datenbank die bessere Option wäre, hat ein Problem. So kommt es, dass Lösungen über die Implementierung bestimmen und Abstraktionen in weite Ferne rücken. Das ist meiner Meinung nach der falsche Weg: Stattdessen sollten sich Entwickler fragen, welche Abstraktionen sie für ihre Lösungen benötigen.

Wenn man in Abstraktionen denkt, lassen sich Implementierungsentscheidungen aufschieben – und das sollte man sogar tun. Denn je länger diese Entscheidung aufgeschoben wird, umso unwahrscheinlicher ist es, dass Entwickler dadurch eingeschränkt oder in eine bestimmte Richtung gedrängt werden. Deshalb sollte das Ziel sein, sich (erst einmal) nicht darum zu kümmern, welche Datenbank oder Authentifizierungslösung zum Einsatz kommt. Letztendlich ist es wesentlich einfacher und effektiver, Implementierungen an Abstraktionen anzupassen als umgekehrt.

Das trägt darüber hinaus auch wesentlich dazu bei, eines der größten „Schreckgespenster“ der Softwareentwicklung zu vertreiben – die unbekannte Unbekannte: Solange Sie nicht auf eine Implementierung festgelegt sind, können Sie sich flexibel an sämtliche unvorhergesehenen Hürden anpassen, die im Verlauf der Entwicklungsarbeit auftauchen.

Es geht dabei jedoch nicht darum, Entscheidungen zu meiden. Vielmehr gilt es, sie zum richtigen Zeitpunkt und mit den richtigen Informationen zu treffen. Je länger Sie Grundlagenentscheidungen zur Implementierung aufschieben, desto sauberer und entkoppelter wird Ihre Lösung ausfallen – und entsprechend flexibel und einfach zu warten sein. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Hier lohnt sich Aufschieberitis​ Weiterlesen »

Warum es die älteren Mitarbeiter braucht: So halten Sie Babyboomer länger im Job​

Allgemein

Arbeitgeber sind gut beraten, die Babyboomer nicht stiefmütterlich zu behandeln. Foto: VGstockstudio – shutterstock.comDie Generation der Babyboomer (1946-1964) wird in den kommenden zehn Jahren in Rente gehen. Dabei werden die inzwischen 60- und 78-Jährigen eine Lücke auf dem Arbeitsmarkt hinterlassen, die durch die jungen Generationen nicht gefüllt werden kann. Doch nicht nur das: Aktuell begeben sich viele bereits ab einem Alter von 63 Jahren in den vorzeitigen Ruhestand. Das stellt in Anbetracht des sich verschärfenden Fachkräftemangels ein großes Problem dar. Es liegt also sowohl im Interesse der gesamten Wirtschaft als auch in dem einzelner Unternehmen, die Babyboomer bis zum vorgesehenen Renteneintrittsalter motiviert im Job zu halten. Doch was können Unternehmen tun, um ihnen die Arbeit weitere drei bis vier Jahre schmackhaft zu machen? Für Baby Boomer zählt gute Leistung Die Babyboomer, oft auch nur als “Boomer” bezeichnet, sind schon seit Jahrzehnten auf dem Arbeitsmarkt und haben ihn entscheidend mitgeprägt. Ihre Erziehung war von Autorität, Disziplin und Konformität gezeichnet – Werte, die sich auch in ihrer Arbeitsmoral widerspiegeln. Im Gegensatz zu den nachfolgenden Generationen X, Y und Z leben sie, um zu arbeiten: Da sie ihre Arbeit als Teil ihrer Identität sehen, messen sie ihren Selbstwert an Karriere-Erfolgen, beruflicher Weiterentwicklung und der Wertschätzung, die ihnen im Beruf entgegengebracht wird. Als Teil geburtenstarker Jahrgänge kam es für sie schon frühzeitig darauf an, sich durch gute Leistung vom Rest der Masse abzuheben und sich so eine hohe Stellung zu erkämpfen. Sie sind engagiert und fleißig. Im Gegenzug erwarten sie aber auch, dass dieses Engagement gesehen und entsprechend honoriert wird. Klassische Rollenverteilung bevorzugt Der Arbeit im Home-Office stehen sie deshalb eher skeptisch gegenüber. Das liegt aber nicht zuletzt auch daran, dass die Boomer in einer vollständig analogen Welt aufgewachsen sind: Auch sie können mit neuer Technologie umgehen, brauchen zum Erlernen aber meist etwas länger als Digital Natives. Bei Remote-Work haben sie oft das Gefühl, unterzugehen und den Anschluss zu verlieren. In der Arbeitswelt bevorzugen Babyboomer eine klare Hierarchie und klassische Rollenverteilung ebenso wie ein traditionelles, gut strukturiertes Arbeitsumfeld. Ihrem Arbeitgeber gegenüber sind sie loyal und häufig über Jahre oder sogar Jahrzehnte treu. Allerdings nur, wenn sie das Gefühl haben, dass sie gebraucht werden und dass ihre Erfahrung wertgeschätzt wird. Um die Babyboomer bis zum vorgesehenen Renteneintrittsalter im Unternehmen zu halten, sollten Sie mit Empathie vorgehen. Was sind die Neigungen der Generation? Welche Bedürfnisse kommen mit dem zunehmenden Alter? All diese Bedenken sollten Sie in die Planung konkreter Maßnahmen einbeziehen. Folgende Tipps können Sie dabei unterstützen: 1. Regelmäßiges Feedback und Anerkennung Wie schon erwähnt, wünschen sich die Babyboomer, dass ihre Arbeit gesehen und wertgeschätzt wird. Besonders viel Gewicht hat Wertschätzung, die öffentlich bekundet wird; beispielsweise durch Lob, das vor dem versammelten Kollegium ausgesprochen wird oder durch eine Beförderung, die mit einem neuen Titel einhergeht. Außerdem schätzen die Boomer persönliche Kommunikation. Regelmäßige Feedbackgespräche, bei denen die jeweilige Führungskraft sich Zeit für die Anliegen der Mitarbeitenden nimmt, sind also ein großer Pluspunkt. 2. Flexible Arbeitszeitmodelle Beim Thema Arbeitszeitmodell sollte die Devise “Alles kann, nichts muss” lauten. Als Übergang zur Rente könnten sich verschiedene Modelle eignen – abhängig von den individuellen Bedürfnissen der Mitarbeiter und des Unternehmens. Teilzeitmodelle schenken mehr Freiheiten und mehr Zeit für Hobbies und Familie. Gerade für Babyboomer, deren Job einen wichtigen Teil ihres Lebens ausmacht, könnte es sich anbieten, die Arbeitszeit schrittweise zu reduzieren. Aber auch ausgefallenere Modelle wie das Jobsharing, bei dem ein Vollzeitjob zwischen mehreren Personen aufgeteilt wird, könnten helfen, Arbeitsbelastung und Zeitaufwand zu reduzieren, ohne direkt vollständig in den Ruhestand zu gehen. 3. Erfahrung und Wissen vermitteln lassen Babyboomer haben jahrzehntelange Erfahrung und Fachwissen, die für das Unternehmen von unschätzbarem Wert sind. Ermutigen Sie sie, ihr Wissen an jüngere Mitarbeitende weiterzugeben. Dazu können beispielsweise Mentoren-Programme oder Workshops dienen. So stellen Sie nicht nur sicher, dass wichtige Informationen im Unternehmen erhalten bleiben. Eine solche Zusammenarbeit kann auch zu einer Verbesserung der Beziehungen zwischen den Generationen beitragen und wird von den Boomern als Anerkennung ihrer Leistung und Erfahrung wahrgenommen. 4. Weiterbildungs- und Entwicklungsmöglichkeiten Nicht nur junge Menschen haben den Wunsch, sich weiterzuentwickeln und neue Fähigkeiten zu erlernen – auch für Babyboomer sind Weiterbildungsangebote eine Frage der Wertschätzung. Vor allem in dynamischen Arbeitsfeldern und bei der Nutzung komplexer Technologien sollten Sie darauf achten, Ihre älteren Mitarbeitenden mithilfe von Schulungen an Board zu halten. Ansonsten können wichtige Potenziale und Motivation verloren gehen. 5. Betriebliches Gesundheitsmanagement zuschneiden Besonders im Alter gewinnt die Gesundheit immer mehr an Bedeutung. Deshalb sollten Sie diese mithilfe verschiedener Angebote fördern. Dazu gehören zum Beispiel Rückenschulen, Präventionskurse oder Ernährungsberatungen. Genauso wichtig ist es aber auch, die ergonomische Gestaltung der Arbeitsumgebung im Auge zu behalten und immer wieder an die körperlichen Bedürfnisse der Mitarbeitenden anzupassen. Hilfreich sind dabei beispielsweise höhenverstellbare Tische und Stühle, ergonomische Tastaturen oder spezielle Arbeitsplatzbeleuchtung. So können arbeitsbedingte Fehlbelastungen, vor allem im Alter, vermieden werden. 

Warum es die älteren Mitarbeiter braucht: So halten Sie Babyboomer länger im Job​ Arbeitgeber sind gut beraten, die Babyboomer nicht stiefmütterlich zu behandeln.
Foto: VGstockstudio – shutterstock.comDie Generation der Babyboomer (1946-1964) wird in den kommenden zehn Jahren in Rente gehen. Dabei werden die inzwischen 60- und 78-Jährigen eine Lücke auf dem Arbeitsmarkt hinterlassen, die durch die jungen Generationen nicht gefüllt werden kann. Doch nicht nur das: Aktuell begeben sich viele bereits ab einem Alter von 63 Jahren in den vorzeitigen Ruhestand. Das stellt in Anbetracht des sich verschärfenden Fachkräftemangels ein großes Problem dar.

Es liegt also sowohl im Interesse der gesamten Wirtschaft als auch in dem einzelner Unternehmen, die Babyboomer bis zum vorgesehenen Renteneintrittsalter motiviert im Job zu halten. Doch was können Unternehmen tun, um ihnen die Arbeit weitere drei bis vier Jahre schmackhaft zu machen?

Für Baby Boomer zählt gute Leistung

Die Babyboomer, oft auch nur als “Boomer” bezeichnet, sind schon seit Jahrzehnten auf dem Arbeitsmarkt und haben ihn entscheidend mitgeprägt. Ihre Erziehung war von Autorität, Disziplin und Konformität gezeichnet – Werte, die sich auch in ihrer Arbeitsmoral widerspiegeln.

Im Gegensatz zu den nachfolgenden Generationen X, Y und Z leben sie, um zu arbeiten: Da sie ihre Arbeit als Teil ihrer Identität sehen, messen sie ihren Selbstwert an Karriere-Erfolgen, beruflicher Weiterentwicklung und der Wertschätzung, die ihnen im Beruf entgegengebracht wird. Als Teil geburtenstarker Jahrgänge kam es für sie schon frühzeitig darauf an, sich durch gute Leistung vom Rest der Masse abzuheben und sich so eine hohe Stellung zu erkämpfen. Sie sind engagiert und fleißig. Im Gegenzug erwarten sie aber auch, dass dieses Engagement gesehen und entsprechend honoriert wird.

Klassische Rollenverteilung bevorzugt

Der Arbeit im Home-Office stehen sie deshalb eher skeptisch gegenüber. Das liegt aber nicht zuletzt auch daran, dass die Boomer in einer vollständig analogen Welt aufgewachsen sind: Auch sie können mit neuer Technologie umgehen, brauchen zum Erlernen aber meist etwas länger als Digital Natives. Bei Remote-Work haben sie oft das Gefühl, unterzugehen und den Anschluss zu verlieren.

In der Arbeitswelt bevorzugen Babyboomer eine klare Hierarchie und klassische Rollenverteilung ebenso wie ein traditionelles, gut strukturiertes Arbeitsumfeld. Ihrem Arbeitgeber gegenüber sind sie loyal und häufig über Jahre oder sogar Jahrzehnte treu. Allerdings nur, wenn sie das Gefühl haben, dass sie gebraucht werden und dass ihre Erfahrung wertgeschätzt wird.

Um die Babyboomer bis zum vorgesehenen Renteneintrittsalter im Unternehmen zu halten, sollten Sie mit Empathie vorgehen. Was sind die Neigungen der Generation? Welche Bedürfnisse kommen mit dem zunehmenden Alter? All diese Bedenken sollten Sie in die Planung konkreter Maßnahmen einbeziehen. Folgende Tipps können Sie dabei unterstützen:

1. Regelmäßiges Feedback und Anerkennung

Wie schon erwähnt, wünschen sich die Babyboomer, dass ihre Arbeit gesehen und wertgeschätzt wird. Besonders viel Gewicht hat Wertschätzung, die öffentlich bekundet wird; beispielsweise durch Lob, das vor dem versammelten Kollegium ausgesprochen wird oder durch eine Beförderung, die mit einem neuen Titel einhergeht. Außerdem schätzen die Boomer persönliche Kommunikation. Regelmäßige Feedbackgespräche, bei denen die jeweilige Führungskraft sich Zeit für die Anliegen der Mitarbeitenden nimmt, sind also ein großer Pluspunkt.

2. Flexible Arbeitszeitmodelle

Beim Thema Arbeitszeitmodell sollte die Devise “Alles kann, nichts muss” lauten. Als Übergang zur Rente könnten sich verschiedene Modelle eignen – abhängig von den individuellen Bedürfnissen der Mitarbeiter und des Unternehmens. Teilzeitmodelle schenken mehr Freiheiten und mehr Zeit für Hobbies und Familie. Gerade für Babyboomer, deren Job einen wichtigen Teil ihres Lebens ausmacht, könnte es sich anbieten, die Arbeitszeit schrittweise zu reduzieren. Aber auch ausgefallenere Modelle wie das Jobsharing, bei dem ein Vollzeitjob zwischen mehreren Personen aufgeteilt wird, könnten helfen, Arbeitsbelastung und Zeitaufwand zu reduzieren, ohne direkt vollständig in den Ruhestand zu gehen.

3. Erfahrung und Wissen vermitteln lassen

Babyboomer haben jahrzehntelange Erfahrung und Fachwissen, die für das Unternehmen von unschätzbarem Wert sind. Ermutigen Sie sie, ihr Wissen an jüngere Mitarbeitende weiterzugeben. Dazu können beispielsweise Mentoren-Programme oder Workshops dienen. So stellen Sie nicht nur sicher, dass wichtige Informationen im Unternehmen erhalten bleiben. Eine solche Zusammenarbeit kann auch zu einer Verbesserung der Beziehungen zwischen den Generationen beitragen und wird von den Boomern als Anerkennung ihrer Leistung und Erfahrung wahrgenommen.

4. Weiterbildungs- und Entwicklungsmöglichkeiten

Nicht nur junge Menschen haben den Wunsch, sich weiterzuentwickeln und neue Fähigkeiten zu erlernen – auch für Babyboomer sind Weiterbildungsangebote eine Frage der Wertschätzung. Vor allem in dynamischen Arbeitsfeldern und bei der Nutzung komplexer Technologien sollten Sie darauf achten, Ihre älteren Mitarbeitenden mithilfe von Schulungen an Board zu halten. Ansonsten können wichtige Potenziale und Motivation verloren gehen.

5. Betriebliches Gesundheitsmanagement zuschneiden

Besonders im Alter gewinnt die Gesundheit immer mehr an Bedeutung. Deshalb sollten Sie diese mithilfe verschiedener Angebote fördern. Dazu gehören zum Beispiel Rückenschulen, Präventionskurse oder Ernährungsberatungen. Genauso wichtig ist es aber auch, die ergonomische Gestaltung der Arbeitsumgebung im Auge zu behalten und immer wieder an die körperlichen Bedürfnisse der Mitarbeitenden anzupassen. Hilfreich sind dabei beispielsweise höhenverstellbare Tische und Stühle, ergonomische Tastaturen oder spezielle Arbeitsplatzbeleuchtung. So können arbeitsbedingte Fehlbelastungen, vor allem im Alter, vermieden werden.

Warum es die älteren Mitarbeiter braucht: So halten Sie Babyboomer länger im Job​ Weiterlesen »

Siemens und Accenture gründen gemeinsame Business Group​

Allgemein

Auf softwaredefinierte Produkte und Fabriken soll sich die neu gegründete Accenture Siemens Business Group konzentrieren. Siemens Im Rahmen der Hannover Messe 2025 (HMI) gaben Accenture und Siemens bekannt, dass sie ihr strategische Partnerschaft intensivieren wollen. Dazu gründen die beiden Unternehmen die Accenture Siemens Business Group. Die bei Accenture angesiedelte Geschäftseinheit plant weltweit 7.000 Fachkräfte mit Fertigungs- und IT-Expertise zu beschäftigen. Die Gruppe soll softwaredefinierte Produkte und Fabriken entwickeln und dabei Industrietechnologie mit KI-gestützter Engineering- und Fertigungskompetenz verbinden. Dazu setzt die Gruppe auf die Kombination des Siemens Xcelerator-Portfolios für Automation, industrielle KI und Software sowie der Daten- und KI-Kompetenz von Accenture. Auf dies Weise will man Unternehmen dabei unterstützen, ihr Engineering und ihre Fertigung neu aufzustellen. Digitalisierung der Fertigung Für Roland Busch, Präsident und Vorstandsvorsitzender der Siemens AG, liegen die Vorteile dieser Partnerschaft auf der Hand: „Zwei Marktführer bringen ihre einzigartigen Fähigkeiten zusammen: die Technologie, den Datenzugang und das ausgeprägte Fachwissen für Software, Automation und Industrie-KI – und Accentures Stärke, Daten und KI im Engineering und in der Fertigung einzusetzen.“ Die Bedeutung der Zusammenarbeit unterstreicht Julie Sweet, CEO und Chair von Accenture: „Engineering und Fertigung markieren das nächste Kapitel der Digitalisierung.“ Die beiden Unternehmen arbeiten schon seit längerem zusammen. Um den Erfolg dieser Kooperation zu belegen, nennen die Partner zwei Projekte als Beispiel: Die KION AG Hier vereinheitlichen und optimieren Accenture und Siemens zentrale Engineering-Prozesse mit Siemens Teamcenter als einheitlichem System für das Produktlebenszyklus-Management. Dank Simulationsfähigkeiten, generativer KI und Model-Based-Systems-Engineering (MBSE) kann KION seine Engineerung-Prozesse neu denken und weiterentwickeln. Navantia Für das spanische Staatsunternehmen, das im zivilen und militärischen Schiffsbau aktiv ist, haben Accenture und Siemens eine neue Produktentwicklungsplattform mit Siemens Teamcenter und Capital Logic Designer entwickelt. Die Plattform ermöglicht,  Digitale Zwillinge der Navantia-Schiffe zu erstellen. Die Digital Twins verbessern das Produktdesign und reduzieren die Gesamtkonstruktions- sowie Fertigungskosten des Unternehmens um 20 Prozent. Das Portfolio Grundsätzlich soll die Accenture Siemens Business Group Lösungen für softwaredefinierte Produkte und Fabriken entwickeln. Als Zielgruppe sieht man die Branchen Automobil, Elektronik, Halbleiter, Konsumgüter, Luft- und Raumfahrt, Maschinenbau, Transportwesen und Verteidigung. Engineering-Lösungen: Die Gruppe konzentriert sich darauf, die Engineering- und F&E-Modelle ihrer Kunden neu aufzustellen. Dazu zählt der Aufbau globaler Engineering-Kompetenzzentren und die Unterstützung beim Entwickeln softwaredefinierter Produkte. Darüber hinaus optimiert die Gruppe den Einsatz von MBSE und treibt eine raschere Verbreitung und Umsetzung des Software-Defined-Vehicle-(SDV-)Frameworks für Automobilhersteller voran, das Accenture und Siemens jüngst vorgestellt haben. Fertigungslösungen: Hier will man Unternehmen dabei unterstützen, Fertigungssteuerungssysteme für die Echtzeitüberwachung und -kontrolle von Produktionsprozessen zu implementieren, zu harmonisieren und zu migrieren. Durch die Anwendung von Prinzipien aus der IT treibt soll die KI-gestützte Automation und Fertigung bei Kunden vorangetrieben werden. Zusätzlich bietet die Group gemanagte Sicherheitsdienste an, mit denen Organisationen ihre operative Technologie (OT) und kritische Engineering- und Fertigungssysteme vor Cyber-Bedrohungen schützen können. Die Dienste beinhalten Accentures Managed-Extended-Detection-and-Response-(MxDR-)Plattform. Darüber hinaus entwickelt die Accenture Siemens Business Group Lösungen für den Kundendienst, Wartungen, Reparaturen und Generalüberholungen von Industrieanlagen. Agentic AI Ein weiteres Geschäftsfeld der Gruppe ist Agentic KI. Mittels KI-Agenten sollen industrielle Prozesse optimiert werden. Dabei stützt sich die Accenture Siemens Business Group auf Lösungen des Accenture-Geschäftsbereichs für Digital Engineering und Fertigung, Industry X. Geplant ist, Unternehmen dabei zu helfen, KI-Agenten zu erstellen, vorgefertigte Agenten und KI-Grundmodelle anzupassen – beispielsweise für Simulation und Robotik. Auf diese Weise sollen Unternehmen in die Lage versetzt werden, sämtliche KI-Komponenten, die in ihrer Organisation zum Einsatz kommen, übergreifend zu steuern. 

Siemens und Accenture gründen gemeinsame Business Group​ Auf softwaredefinierte Produkte und Fabriken soll sich die neu gegründete Accenture Siemens Business Group konzentrieren.
Siemens

Im Rahmen der Hannover Messe 2025 (HMI) gaben Accenture und Siemens bekannt, dass sie ihr strategische Partnerschaft intensivieren wollen. Dazu gründen die beiden Unternehmen die Accenture Siemens Business Group. Die bei Accenture angesiedelte Geschäftseinheit plant weltweit 7.000 Fachkräfte mit Fertigungs- und IT-Expertise zu beschäftigen.

Die Gruppe soll softwaredefinierte Produkte und Fabriken entwickeln und dabei Industrietechnologie mit KI-gestützter Engineering- und Fertigungskompetenz verbinden. Dazu setzt die Gruppe auf die Kombination des Siemens Xcelerator-Portfolios für Automation, industrielle KI und Software sowie der Daten- und KI-Kompetenz von Accenture. Auf dies Weise will man Unternehmen dabei unterstützen, ihr Engineering und ihre Fertigung neu aufzustellen.

Digitalisierung der Fertigung

Für Roland Busch, Präsident und Vorstandsvorsitzender der Siemens AG, liegen die Vorteile dieser Partnerschaft auf der Hand: „Zwei Marktführer bringen ihre einzigartigen Fähigkeiten zusammen: die Technologie, den Datenzugang und das ausgeprägte Fachwissen für Software, Automation und Industrie-KI – und Accentures Stärke, Daten und KI im Engineering und in der Fertigung einzusetzen.“ Die Bedeutung der Zusammenarbeit unterstreicht Julie Sweet, CEO und Chair von Accenture: „Engineering und Fertigung markieren das nächste Kapitel der Digitalisierung.“

Die beiden Unternehmen arbeiten schon seit längerem zusammen. Um den Erfolg dieser Kooperation zu belegen, nennen die Partner zwei Projekte als Beispiel:

Die KION AG

Hier vereinheitlichen und optimieren Accenture und Siemens zentrale Engineering-Prozesse mit Siemens Teamcenter als einheitlichem System für das Produktlebenszyklus-Management. Dank Simulationsfähigkeiten, generativer KI und Model-Based-Systems-Engineering (MBSE) kann KION seine Engineerung-Prozesse neu denken und weiterentwickeln.

Navantia

Für das spanische Staatsunternehmen, das im zivilen und militärischen Schiffsbau aktiv ist, haben Accenture und Siemens eine neue Produktentwicklungsplattform mit Siemens Teamcenter und Capital Logic Designer entwickelt. Die Plattform ermöglicht,  Digitale Zwillinge der Navantia-Schiffe zu erstellen. Die Digital Twins verbessern das Produktdesign und reduzieren die Gesamtkonstruktions- sowie Fertigungskosten des Unternehmens um 20 Prozent.

Das Portfolio

Grundsätzlich soll die Accenture Siemens Business Group Lösungen für softwaredefinierte Produkte und Fabriken entwickeln. Als Zielgruppe sieht man die Branchen Automobil, Elektronik, Halbleiter, Konsumgüter, Luft- und Raumfahrt, Maschinenbau, Transportwesen und Verteidigung.

Engineering-Lösungen:

Die Gruppe konzentriert sich darauf, die Engineering- und F&E-Modelle ihrer Kunden neu aufzustellen. Dazu zählt der Aufbau globaler Engineering-Kompetenzzentren und die Unterstützung beim Entwickeln softwaredefinierter Produkte. Darüber hinaus optimiert die Gruppe den Einsatz von MBSE und treibt eine raschere Verbreitung und Umsetzung des Software-Defined-Vehicle-(SDV-)Frameworks für Automobilhersteller voran, das Accenture und Siemens jüngst vorgestellt haben.

Fertigungslösungen:

Hier will man Unternehmen dabei unterstützen, Fertigungssteuerungssysteme für die Echtzeitüberwachung und -kontrolle von Produktionsprozessen zu implementieren, zu harmonisieren und zu migrieren. Durch die Anwendung von Prinzipien aus der IT treibt soll die KI-gestützte Automation und Fertigung bei Kunden vorangetrieben werden. Zusätzlich bietet die Group gemanagte Sicherheitsdienste an, mit denen Organisationen ihre operative Technologie (OT) und kritische Engineering- und Fertigungssysteme vor Cyber-Bedrohungen schützen können. Die Dienste beinhalten Accentures Managed-Extended-Detection-and-Response-(MxDR-)Plattform.

Darüber hinaus entwickelt die Accenture Siemens Business Group Lösungen für den Kundendienst, Wartungen, Reparaturen und Generalüberholungen von Industrieanlagen.

Agentic AI

Ein weiteres Geschäftsfeld der Gruppe ist Agentic KI. Mittels KI-Agenten sollen industrielle Prozesse optimiert werden. Dabei stützt sich die Accenture Siemens Business Group auf Lösungen des Accenture-Geschäftsbereichs für Digital Engineering und Fertigung, Industry X.

Geplant ist, Unternehmen dabei zu helfen, KI-Agenten zu erstellen, vorgefertigte Agenten und KI-Grundmodelle anzupassen – beispielsweise für Simulation und Robotik. Auf diese Weise sollen Unternehmen in die Lage versetzt werden, sämtliche KI-Komponenten, die in ihrer Organisation zum Einsatz kommen, übergreifend zu steuern.

Siemens und Accenture gründen gemeinsame Business Group​ Weiterlesen »

Immer weniger IT-Jobs in Deutschland​

Allgemein

width=”4923″ height=”2769″ sizes=”(max-width: 4923px) 100vw, 4923px”>Das Job-Angebot für IT-Profis schrumpft. Der Grund: die wirtschaftlich angespannte Situation in vielen Unternehmen. Rawpixel.com – shutterstock.com Die wirtschaftliche Flaute schlägt auf den IT-Job-Markt durch. 2024 ist das Stellenangebot für Informatikerinnen und Informatiker erstmals seit Jahren deutlich gesunken. Wirtschaft und Verwaltung schrieben nur noch 780.000 IT-Jobs aus – zehn Prozent weniger als im Jahr zuvor. Das ist das zentrale Ergebnisse der jüngsten Stellenmarkt-Analyse der Berliner Personalmarktforschung Index Research, die sich als Quelle auf die eigene Stellenanzeigen-Datenbank beruft.   Bereits 2023 sank die Nachfrage nach IT-Profis um ein Prozent auf 868.000 Jobs leicht. 2022 lag das Jobangebot mit über 876.000 Stellenangeboten noch 21 Prozent über dem Niveau von 2021. Die meisten IT-Jobs gab es Index Research zufolge im vergangenen Jahr noch in der ITK-Branche selbst (über 229.000 Stellen). Dahinter folgen die freiberuflichen, wissenschaftlichen und technischen Dienstleister (fast 119.000 Stellen) sowie die Industrie (mehr als 94.000 Stellen).  IT-Jobmarkt gerät in Schieflage Offenbar macht die unsichere ökonomische Gesamtlage den Verantwortlichen in den Firmen zu schaffen. „Die wirtschaftlich angespannte Situation in vielen Unternehmen schlägt sich auch in der Nachfrage nach Informatikern nieder, auch wenn die Digitalisierung von Geschäftsprozessen und Produkten nach wie vor auf der Tagesordnung steht“, analysiert Jürgen Grenz, CEO der Index Gruppe, die Studienergebnisse. Studium sticht Ausbildung   Unternehmen bevorzugen Informatiker mit akademischem Abschluss. 2024 richteten sich über 351.000 IT-Stellen explizit an Fachkräfte mit Hochschulabschluss. Für Informatiker mit dualer Berufsausbildung gab es rund 147.000 Jobangebote.   Zugleich setzt man trotz der schwierigen wirtschaftlichen Lage klar auf Nachwuchsförderung: 2024 haben Unternehmen und öffentliche Einrichtungen mehr als 60.000 Ausbildungsplätze sowie fast 37.000 Stellen für Praktikanten und Werkstudenten ausgeschrieben.   

Immer weniger IT-Jobs in Deutschland​ width=”4923″ height=”2769″ sizes=”(max-width: 4923px) 100vw, 4923px”>Das Job-Angebot für IT-Profis schrumpft. Der Grund: die wirtschaftlich angespannte Situation in vielen Unternehmen. Rawpixel.com – shutterstock.com

Die wirtschaftliche Flaute schlägt auf den IT-Job-Markt durch. 2024 ist das Stellenangebot für Informatikerinnen und Informatiker erstmals seit Jahren deutlich gesunken. Wirtschaft und Verwaltung schrieben nur noch 780.000 IT-Jobs aus – zehn Prozent weniger als im Jahr zuvor. Das ist das zentrale Ergebnisse der jüngsten Stellenmarkt-Analyse der Berliner Personalmarktforschung Index Research, die sich als Quelle auf die eigene Stellenanzeigen-Datenbank beruft.  

Bereits 2023 sank die Nachfrage nach IT-Profis um ein Prozent auf 868.000 Jobs leicht. 2022 lag das Jobangebot mit über 876.000 Stellenangeboten noch 21 Prozent über dem Niveau von 2021. Die meisten IT-Jobs gab es Index Research zufolge im vergangenen Jahr noch in der ITK-Branche selbst (über 229.000 Stellen). Dahinter folgen die freiberuflichen, wissenschaftlichen und technischen Dienstleister (fast 119.000 Stellen) sowie die Industrie (mehr als 94.000 Stellen). 

IT-Jobmarkt gerät in Schieflage

Offenbar macht die unsichere ökonomische Gesamtlage den Verantwortlichen in den Firmen zu schaffen. „Die wirtschaftlich angespannte Situation in vielen Unternehmen schlägt sich auch in der Nachfrage nach Informatikern nieder, auch wenn die Digitalisierung von Geschäftsprozessen und Produkten nach wie vor auf der Tagesordnung steht“, analysiert Jürgen Grenz, CEO der Index Gruppe, die Studienergebnisse.

Studium sticht Ausbildung  

Unternehmen bevorzugen Informatiker mit akademischem Abschluss. 2024 richteten sich über 351.000 IT-Stellen explizit an Fachkräfte mit Hochschulabschluss. Für Informatiker mit dualer Berufsausbildung gab es rund 147.000 Jobangebote.  

Zugleich setzt man trotz der schwierigen wirtschaftlichen Lage klar auf Nachwuchsförderung: 2024 haben Unternehmen und öffentliche Einrichtungen mehr als 60.000 Ausbildungsplätze sowie fast 37.000 Stellen für Praktikanten und Werkstudenten ausgeschrieben.  

Immer weniger IT-Jobs in Deutschland​ Weiterlesen »

Grafik-Chatbots gehen in Flammen auf​

Allgemein

Eine immer größere Nachfrage nach KI-Modellen, insbesondere bei Grafik-Chatbots, bereitet ihren Herstellern zunehmend Probleme. shutterstock – Zoomik Neue generative KI-Modelle (GenAI), die in der Woche vom 24. März 2025 von Google und OpenAI eingeführt wurden, setzen die Rechenzentren beider Unternehmen unter Druck. OpenAI-CEO Sam Altman kündigte deshalb auf der Social-Media-Plattform X an, dass das Unternehmen die Nutzung von GPUs vorübergehend einschränken müsse. Grund ist, dass die Nachfrage nach dem neuen 4o-Bilderzeugungstool überwältigend sei. OpenAI, das auf Nvidia-GPUs setzt, hatte bereits in der Vergangenheit mit Überlastungen zu kämpfen. Erneute Kapazitätsengpässe Besserung ist erst einmal nicht in Sicht, wie das Unternehmen ankündigte. Bis das System effizienter wird, soll der Dienst nur eingeschränkt verfügbar sein. Zugleich ist es nicht das erste Mal, das die Macher von ChatGPT mit Kapazitätsproblemen bei neuen Modellen zu kämpfen haben. Die hohe Nachfrage nach Künstlicher Intelligenz (KI) überlaste das System, besonders die rechenintensive Bilderstellung, erklärte Analyst Bob O’Donnell von Technalysis. Zudem können Nvidia-GPUs, sobald sie überhitzen oder zu stark belastet sind, ihre Leistung drosseln, so der Experte. Mehr Anbieter, weniger Ausfallzeiten Einen Ausweg aus der Misere stellt Gennady Pekhimenko, CEO von CentML, einem kanadischen Unternehmen das KI-Dienste auf Nvidia-Grafikprozessoren anbietet, vor: OpenAI könnte die Nachfrage durch Modellverkleinerung oder Code-Optimierung besser bewältigen. Für einige Anwendungsfälle würden seiner Meinung nach kleinere oder Open-Source-Modelle ausreichen. Unternehmen könnten zudem Rechenkapazitäten von verschiedenen Anbietern beziehen, um Ausfallzeiten zu vermeiden. Derzeit gebe es keine GPU-Knappheit, die das KI-Wachstum behindere, so der Assistenzprofessor für Computerwissenschaften an der Universität von Toronto. Cleveres Marketing oder Auftakt für eigene Projekte Altmans Kommentar über „schmelzende“ GPUs könnte allerdings auch Marketing für OpenAIs neue Bilderzeugungsmodelle gewesen sein, so Pekhimenko. Große Cloud-Anbieter investieren Milliarden in Rechenzentren, während die US-Regierung 500 Milliarden Dollar für den KI-Ausbau ankündigte. Die Veröffentlichung von DeepSeek zeigt jedoch, dass Software-Optimierungen KI skalierbar machen, ohne ständig neue Hardware zu benötigen. Berichte deuten darauf hin, dass OpenAI eigene Rechenzentren plant, da Microsoft sich aus entsprechenden Projekten zurückzieht. Ratenlimits sollen Entlastung bringen Mit seinen Problemen ist das Start-Up nicht allein: Auch Google kämpft mit hoher Nachfrage nach seinem neuen KI-Modell Gemini 2.5. Produktleiter Logan Kilpatrick erklärte, dass das Unternehmen daran arbeite, höhere Ratenlimits für Entwickler bereitzustellen. Google nutzt dafür eigene Tensor Processing Units (TPUs), die speziell für Gemini optimiert sind. Die Produkte beider Unternehmen werden von Privatpersonen und Unternehmen in großem Umfang genutzt. Normalerweise dauere es aber eine Weile, bis die Hardware aufholt, um neue KI-Software effizient zu betreiben. Unbeabsichtigte Unterbrechungen können laut Analysten zudem die Produktivität von Unternehmen beeinträchtigen. 

Grafik-Chatbots gehen in Flammen auf​ Eine immer größere Nachfrage nach KI-Modellen, insbesondere bei Grafik-Chatbots, bereitet ihren Herstellern zunehmend Probleme.
shutterstock – Zoomik

Neue generative KI-Modelle (GenAI), die in der Woche vom 24. März 2025 von Google und OpenAI eingeführt wurden, setzen die Rechenzentren beider Unternehmen unter Druck.

OpenAI-CEO Sam Altman kündigte deshalb auf der Social-Media-Plattform X an, dass das Unternehmen die Nutzung von GPUs vorübergehend einschränken müsse. Grund ist, dass die Nachfrage nach dem neuen 4o-Bilderzeugungstool überwältigend sei. OpenAI, das auf Nvidia-GPUs setzt, hatte bereits in der Vergangenheit mit Überlastungen zu kämpfen.

Erneute Kapazitätsengpässe

Besserung ist erst einmal nicht in Sicht, wie das Unternehmen ankündigte. Bis das System effizienter wird, soll der Dienst nur eingeschränkt verfügbar sein. Zugleich ist es nicht das erste Mal, das die Macher von ChatGPT mit Kapazitätsproblemen bei neuen Modellen zu kämpfen haben.

Die hohe Nachfrage nach Künstlicher Intelligenz (KI) überlaste das System, besonders die rechenintensive Bilderstellung, erklärte Analyst Bob O’Donnell von Technalysis. Zudem können Nvidia-GPUs, sobald sie überhitzen oder zu stark belastet sind, ihre Leistung drosseln, so der Experte.

Mehr Anbieter, weniger Ausfallzeiten

Einen Ausweg aus der Misere stellt Gennady Pekhimenko, CEO von CentML, einem kanadischen Unternehmen das KI-Dienste auf Nvidia-Grafikprozessoren anbietet, vor: OpenAI könnte die Nachfrage durch Modellverkleinerung oder Code-Optimierung besser bewältigen. Für einige Anwendungsfälle würden seiner Meinung nach kleinere oder Open-Source-Modelle ausreichen.

Unternehmen könnten zudem Rechenkapazitäten von verschiedenen Anbietern beziehen, um Ausfallzeiten zu vermeiden. Derzeit gebe es keine GPU-Knappheit, die das KI-Wachstum behindere, so der Assistenzprofessor für Computerwissenschaften an der Universität von Toronto.

Cleveres Marketing oder Auftakt für eigene Projekte

Altmans Kommentar über „schmelzende“ GPUs könnte allerdings auch Marketing für OpenAIs neue Bilderzeugungsmodelle gewesen sein, so Pekhimenko.

Große Cloud-Anbieter investieren Milliarden in Rechenzentren, während die US-Regierung 500 Milliarden Dollar für den KI-Ausbau ankündigte. Die Veröffentlichung von DeepSeek zeigt jedoch, dass Software-Optimierungen KI skalierbar machen, ohne ständig neue Hardware zu benötigen.

Berichte deuten darauf hin, dass OpenAI eigene Rechenzentren plant, da Microsoft sich aus entsprechenden Projekten zurückzieht.

Ratenlimits sollen Entlastung bringen

Mit seinen Problemen ist das Start-Up nicht allein: Auch Google kämpft mit hoher Nachfrage nach seinem neuen KI-Modell Gemini 2.5. Produktleiter Logan Kilpatrick erklärte, dass das Unternehmen daran arbeite, höhere Ratenlimits für Entwickler bereitzustellen. Google nutzt dafür eigene Tensor Processing Units (TPUs), die speziell für Gemini optimiert sind.

Die Produkte beider Unternehmen werden von Privatpersonen und Unternehmen in großem Umfang genutzt. Normalerweise dauere es aber eine Weile, bis die Hardware aufholt, um neue KI-Software effizient zu betreiben. Unbeabsichtigte Unterbrechungen können laut Analysten zudem die Produktivität von Unternehmen beeinträchtigen.

Grafik-Chatbots gehen in Flammen auf​ Weiterlesen »

Nach oben scrollen
×