Computerhaus Quickborn

Allgemein

So nutzten Spammer ChatGPT​

Allgemein

Individuell generierte Texte erschweren die Erkennung als Spam. Dank KI können sie zudem schneller geschrieben werden.RerF_Studio – shutterstock Large Language Models (LLMs) werden immer häufiger von Kriminellen eingesetzt. Experten des Sicherheitsunternehmens SentinelLabs haben am 9. April 2025 bekanntgegeben, dass die Gruppe AkiraBot den Chatbot ChatGPT von OpenAI benutzt hatte, um Spam zu verbreiten. Beim AkiraBot handelt es sich um ein Framework, das das Versenden von Nachrichten in großen Mengen automatisiert, um dubiose Suchoptimierungsdienste für kleine und mittelgroße Websites zu bewerben. Die Macher hinter dem Framework verwenden dafür Python-basierte Skripte, um die in den Nachrichten beworbenen Domänennamen zu rotieren. So könnte eine von AkiraBot verwendete KI-Chat-Eingabeaufforderung laut Experten ausgesehen haben. SentinelLabs Personalisierter Spam-Versand Im Falle von ChatGPT nutzte AkiraBot das OpenAI-Modell gpt-4o-mini über die Chat-API, um individuell zugeschnittene Spam- bzw. Marketing-Nachrichten für verschiedene Websites zu generieren. Diese wurden über Kontaktformulare und Live-Chats versendet. Durch die dynamische Anpassung an jede Zielseite wirkten die Nachrichten personalisiert und waren schwer als Spam erkennbar. Den Forschern zufolge erschwert diese Einzigartigkeit der KI-generierten Inhalte die Spam-Abwehr, da herkömmliche Erkennungsmerkmale wie standardisierte Textvorlagen fehlen. Lediglich rotierende Domains sollen sich noch leicht blockieren lassen. Reaktiv statt proaktiv SentinelLabs erhielt Log-Dateien, die AkiraBot auf einem Server hinterließ, um die Erfolgs- und Misserfolgsraten zu messen. Eine Datei zeigte, dass die Gruppe zwischen September 2024 und Januar 2025 an mehr als 80.000 Websites erfolgreich einzigartige Nachrichten versendet hatten. Im Vergleich dazu schlugen Nachrichten, die auf etwa 11.000 Domains abzielten, fehl. OpenAI bedankte sich bei den Forschern und wies erneut darauf hin, dass eine solche Nutzung seiner Chatbots gegen seine Nutzungsbedingungen verstößt. OpenAI hat, nachdem sie diese Nachricht erhalten hatten, das Konto der Spammer gesperrt. Die vier Monate, in denen die Aktivitäten unbemerkt blieben, zeigen allerdings, dass gegen solche Verstöße oft eher reaktiv als proaktiv vorgegangen wird. 

So nutzten Spammer ChatGPT​ Individuell generierte Texte erschweren die Erkennung als Spam. Dank KI können sie zudem schneller geschrieben werden.RerF_Studio – shutterstock

Large Language Models (LLMs) werden immer häufiger von Kriminellen eingesetzt. Experten des Sicherheitsunternehmens SentinelLabs haben am 9. April 2025 bekanntgegeben, dass die Gruppe AkiraBot den Chatbot ChatGPT von OpenAI benutzt hatte, um Spam zu verbreiten.

Beim AkiraBot handelt es sich um ein Framework, das das Versenden von Nachrichten in großen Mengen automatisiert, um dubiose Suchoptimierungsdienste für kleine und mittelgroße Websites zu bewerben. Die Macher hinter dem Framework verwenden dafür Python-basierte Skripte, um die in den Nachrichten beworbenen Domänennamen zu rotieren.

So könnte eine von AkiraBot verwendete KI-Chat-Eingabeaufforderung laut Experten ausgesehen haben.
SentinelLabs

Personalisierter Spam-Versand

Im Falle von ChatGPT nutzte AkiraBot das OpenAI-Modell gpt-4o-mini über die Chat-API, um individuell zugeschnittene Spam- bzw. Marketing-Nachrichten für verschiedene Websites zu generieren. Diese wurden über Kontaktformulare und Live-Chats versendet. Durch die dynamische Anpassung an jede Zielseite wirkten die Nachrichten personalisiert und waren schwer als Spam erkennbar.

Den Forschern zufolge erschwert diese Einzigartigkeit der KI-generierten Inhalte die Spam-Abwehr, da herkömmliche Erkennungsmerkmale wie standardisierte Textvorlagen fehlen. Lediglich rotierende Domains sollen sich noch leicht blockieren lassen.

Reaktiv statt proaktiv

SentinelLabs erhielt Log-Dateien, die AkiraBot auf einem Server hinterließ, um die Erfolgs- und Misserfolgsraten zu messen. Eine Datei zeigte, dass die Gruppe zwischen September 2024 und Januar 2025 an mehr als 80.000 Websites erfolgreich einzigartige Nachrichten versendet hatten.

Im Vergleich dazu schlugen Nachrichten, die auf etwa 11.000 Domains abzielten, fehl. OpenAI bedankte sich bei den Forschern und wies erneut darauf hin, dass eine solche Nutzung seiner Chatbots gegen seine Nutzungsbedingungen verstößt.

OpenAI hat, nachdem sie diese Nachricht erhalten hatten, das Konto der Spammer gesperrt. Die vier Monate, in denen die Aktivitäten unbemerkt blieben, zeigen allerdings, dass gegen solche Verstöße oft eher reaktiv als proaktiv vorgegangen wird.

So nutzten Spammer ChatGPT​ Weiterlesen »

IT-Produkte der Woche​

Allgemein

SSD der fünften Generation für Rechenzentren  Kingston Digital hat eine neue SSD für Rechenzentren vorgestellt. Die DC3000ME PCIe 5.0 NVMe U.2 ist für Serveranwendungen konzipiert. Die SSD verfügt über eine PCIe-5.0-NVMe-Schnittstelle und ist mit 3D-eTLC-NAND-Speicherbausteinen bestückt. Als Einsatzgebiet sieht Kingston Serveranwendungen wie KI, HPC, OLTP, Cloud-Dienste und Edge-Computing. Hier erfülle die SSD strenge QoS-Anforderungen, um E/A-Konsistenz und niedrige Latenzen zu gewährleisten. Zur Datensicherheit hat der Speicher eine AES-256-Bit-Verschlüsselung an Bord. Gegen plötzliche Stromausfälle soll ein integrierter Stromausfallschutz schützen. Die DC3000ME ist mit Speicherkapazitäten von 3,84TB, 7,68TB und 15,36TB zu haben. Kingston gibt auf die SSD eine Fünf-Jahres-Garantie und verspricht kostenlosen technischen Support. Die technischen Spezifikationen im Detail finden Sie hier.  Kingston Digital QNAP-Switches per Cloud managen  QNAP Systems rüstet seine Verwaltungsplattform AMIZcloud auf. Künftig sollen damit auch die Switches des Herstellers aus der Ferne verwaltet werden können. Zu den derzeit unterstützten Switch-Modellen gehören: QSW-M3224-24T, QSW-IM3216-8S8T, QSW-M3216R-8S8T, QSW-M3212R-8S4T und QSW-M7308R-4X. Weitere Switches sollen laut Hersteller in Zukunft unterstützt werden. AMIZcloud ist ein Cloud-basiertes zentralisiertes Steuerungssystem, das es IT-Administratoren ermöglicht, QNAP NAS, Switches und andere VNF-Netzwerkgeräte über eine einzige Schnittstelle zu verwalten. Damit sollen zusätzliche Verwaltungsserver überflüssig sein. Zudem reduziere dies den Aufwand für die Hardwareverwaltung. Um die Switches für die zentrale Verwaltung in der AMIZcloud nutzen zu können, müssen die Geräte auf die neueste QSS-v4.1- oder QSS-Pro v4.1-Softwareversion aktualisiert werden.  QNAP IBM bringt KI-Mainframe z17  Mit dem IBM z17 bringt das Unternehmen eine neue Mainframe-Generation auf den Markt, die dediziert für den KI-Einsatz entwickelt wurde. Angetrieben vom neuen IBM Telum-II-Prozessor, erweitert IBM z17 die Funktionalität des Systems über transaktionale KI-Funktionen hinaus, um neue Workloads zu ermöglichen. Des Weiteren verspricht IBM eine völlig neu konzipierte Nutzererfahrung durch neue KI- Assistenten und -Agenten. Mit dem z17 sollen Unternehmen 100 Prozent ihrer Transaktionen in Echtzeit bewerten können. Zudem sei der z17 in der Lage, 50 Prozent mehr KI-Inferenzoperationen pro Tag zu verarbeiten als der z16. Laut IBM stecken in dem neuen Mainframe fünf Jahre Design- und Entwicklungsarbeit. Zudem habe man mehr als 300 Patentanmeldungen beim US-Patent- und Markenamt eingereicht. Mit z/OS 3.2, der nächsten Version des Betriebssystems für IBM Z, soll im Herbst 2025 ein Betriebssystem für KI folgen. Es wurde, wie es heißt, entwickelt, um hardwarebeschleunigte KI-Funktionen im gesamten System und betriebliche KI-Erkenntnisse für Systemverwaltungsfunktionen zu unterstützen. Der IBM z17 soll ab dem 18. Juni 2025 allgemein verfügbar sein.  IBM Alibaba weitet KI-Angebot aus  Für internationale Kunden baut Alibaba Cloud sein KI-Angebot aus. Dazu gehören neue KI-Modelle, PaaS-Funktionen und Infrastruktur-Updates. Über die Availability Zones in Singapur stehen internationalen Kunden nun unter anderem folgende Modelle aus der unternehmenseigenen LLM-Serie Qwen zur Verfügung:  Qwen-Max – ein skalierbares Mixture-of-Experts-(MoE-)Modell,  QwQ-Plus – ein auf präzise Schlussfolgerungen spezialisiertes Modell für komplexe Aufgaben,  QVQ-Max – ein visuelles Reasoning-Modell mit multimodalen Fähigkeiten,  5-Omni-7B – ein multimodales End-to-End-Modell.  Zudem hat das Unternehmen seine Platform for AI (PAI) überarbeitet. Der PAI-Elastic Algorithm Service (EAS) unterstützt nun verteilte Inferenz auf Basis einer Multi-Node-Architektur. Damit eignet sich der Dienst laut Alibaba für den Betrieb von besonders großen MoE-Modellen und Anwendungen mit extrem langen Texteingaben. Ausgebaut wurde auch die PAI-Model-Gallery. Sie umfasst nun rund 300 Open-Source-Modelle, darunter die vollständigen Qwen- und Wan-Modelle von Alibaba Cloud.  

IT-Produkte der Woche​ SSD der fünften Generation für Rechenzentren 

Kingston Digital hat eine neue SSD für Rechenzentren vorgestellt. Die DC3000ME PCIe 5.0 NVMe U.2 ist für Serveranwendungen konzipiert. Die SSD verfügt über eine PCIe-5.0-NVMe-Schnittstelle und ist mit 3D-eTLC-NAND-Speicherbausteinen bestückt. Als Einsatzgebiet sieht Kingston Serveranwendungen wie KI, HPC, OLTP, Cloud-Dienste und Edge-Computing. Hier erfülle die SSD strenge QoS-Anforderungen, um E/A-Konsistenz und niedrige Latenzen zu gewährleisten. Zur Datensicherheit hat der Speicher eine AES-256-Bit-Verschlüsselung an Bord. Gegen plötzliche Stromausfälle soll ein integrierter Stromausfallschutz schützen. Die DC3000ME ist mit Speicherkapazitäten von 3,84TB, 7,68TB und 15,36TB zu haben. Kingston gibt auf die SSD eine Fünf-Jahres-Garantie und verspricht kostenlosen technischen Support. Die technischen Spezifikationen im Detail finden Sie hier. 

Kingston Digital

QNAP-Switches per Cloud managen 

QNAP Systems rüstet seine Verwaltungsplattform AMIZcloud auf. Künftig sollen damit auch die Switches des Herstellers aus der Ferne verwaltet werden können. Zu den derzeit unterstützten Switch-Modellen gehören: QSW-M3224-24T, QSW-IM3216-8S8T, QSW-M3216R-8S8T, QSW-M3212R-8S4T und QSW-M7308R-4X. Weitere Switches sollen laut Hersteller in Zukunft unterstützt werden. AMIZcloud ist ein Cloud-basiertes zentralisiertes Steuerungssystem, das es IT-Administratoren ermöglicht, QNAP NAS, Switches und andere VNF-Netzwerkgeräte über eine einzige Schnittstelle zu verwalten. Damit sollen zusätzliche Verwaltungsserver überflüssig sein. Zudem reduziere dies den Aufwand für die Hardwareverwaltung. Um die Switches für die zentrale Verwaltung in der AMIZcloud nutzen zu können, müssen die Geräte auf die neueste QSS-v4.1- oder QSS-Pro v4.1-Softwareversion aktualisiert werden. 

QNAP

IBM bringt KI-Mainframe z17 

Mit dem IBM z17 bringt das Unternehmen eine neue Mainframe-Generation auf den Markt, die dediziert für den KI-Einsatz entwickelt wurde. Angetrieben vom neuen IBM Telum-II-Prozessor, erweitert IBM z17 die Funktionalität des Systems über transaktionale KI-Funktionen hinaus, um neue Workloads zu ermöglichen. Des Weiteren verspricht IBM eine völlig neu konzipierte Nutzererfahrung durch neue KI- Assistenten und -Agenten. Mit dem z17 sollen Unternehmen 100 Prozent ihrer Transaktionen in Echtzeit bewerten können. Zudem sei der z17 in der Lage, 50 Prozent mehr KI-Inferenzoperationen pro Tag zu verarbeiten als der z16. Laut IBM stecken in dem neuen Mainframe fünf Jahre Design- und Entwicklungsarbeit. Zudem habe man mehr als 300 Patentanmeldungen beim US-Patent- und Markenamt eingereicht. Mit z/OS 3.2, der nächsten Version des Betriebssystems für IBM Z, soll im Herbst 2025 ein Betriebssystem für KI folgen. Es wurde, wie es heißt, entwickelt, um hardwarebeschleunigte KI-Funktionen im gesamten System und betriebliche KI-Erkenntnisse für Systemverwaltungsfunktionen zu unterstützen. Der IBM z17 soll ab dem 18. Juni 2025 allgemein verfügbar sein. 

IBM

Alibaba weitet KI-Angebot aus 

Für internationale Kunden baut Alibaba Cloud sein KI-Angebot aus. Dazu gehören neue KI-Modelle, PaaS-Funktionen und Infrastruktur-Updates. Über die Availability Zones in Singapur stehen internationalen Kunden nun unter anderem folgende Modelle aus der unternehmenseigenen LLM-Serie Qwen zur Verfügung: 

Qwen-Max – ein skalierbares Mixture-of-Experts-(MoE-)Modell, 

QwQ-Plus – ein auf präzise Schlussfolgerungen spezialisiertes Modell für komplexe Aufgaben, 

QVQ-Max – ein visuelles Reasoning-Modell mit multimodalen Fähigkeiten, 

5-Omni-7B – ein multimodales End-to-End-Modell. 

Zudem hat das Unternehmen seine Platform for AI (PAI) überarbeitet. Der PAI-Elastic Algorithm Service (EAS) unterstützt nun verteilte Inferenz auf Basis einer Multi-Node-Architektur. Damit eignet sich der Dienst laut Alibaba für den Betrieb von besonders großen MoE-Modellen und Anwendungen mit extrem langen Texteingaben. Ausgebaut wurde auch die PAI-Model-Gallery. Sie umfasst nun rund 300 Open-Source-Modelle, darunter die vollständigen Qwen- und Wan-Modelle von Alibaba Cloud. 

IT-Produkte der Woche​ Weiterlesen »

Startup vs. Unternehmensgründung: Worauf Jungunternehmer achten sollten​

Allgemein

In einem der renommiertesten Inkubatoren für Startups in Deutschland sitzen sich in einem Besprechungsraum zwei Startup-Geschäftsführer gegenüber. Der Raum wird hier allerdings “Innovation Thinking Space” genannt. Sie tauschen sich über ihre Erfahrungen während der ersten Phase ihrer Gründung aus. Stefan ist Gründer eines Online-Handels für Energieriegel auf Bio-Erbsenbasis. Joshua entwickelt eine App für die Verknüpfung von Bewerbern mit Stellenanbietern für das spezielle Segment der Softwareentwickler.So cool und innovativ Startups sein mögen – Jungunternehmer sollten sich genau überlegen, wo sie am besten hineinpassen. Foto: 4 PM production – shutterstock.comBeide nehmen am “Booster”-Programm des Inkubators teil, in dem sie während der verschiedenen Phasen ihrer Geschäftstätigkeit durch Mentoren, Workshops, vor allem aber durch die Hoffnung auf einen großen Investor, begleitet werden. Sie haben ein straffes Programm, denn regelmäßig gilt es, ihre Geschäftsidee auf professionelle und knackige Weise vor wichtigen Gremien zu präsentieren. Das alles findet im lockeren Umfeld statt, alle sagen “Du” zueinander, man trifft sich regelmäßig zu “Brunches” und “Coffees” und “Booster Nights”, die Möglichkeiten zum “Networking” sind unbegrenzt.Stefan: “Gefällt Dir das Booster-Programm?”Markus: “Ja sehr, es macht unglaublich viel Spaß!”“Bist Du nächste Woche bei der Pitch-Night auch dabei?”“Na klar bin ich dabei. Ich hoffe, ich finde einen passenden Investor! Wenn es klappt, dann feiern wir!”“Wenn es nicht klappt, feiern wir auch und zwar bei der Fuck up Night!” Beide lachen.“Ich habe morgen einen Termin mit dem Mentor für die Steuerberatung, das wird bestimmt interessant”“Ich nehme am Workshop für Präsentations-Skills teil, darauf freue ich mich schon.”“Hast Du schon gehört? Anna von ‘IT Wonder’ hat letzte Woche schon 500.000 Euro eingesammelt, das ist großartig!”“Ja, das ist es! Sie bekommt hier jetzt ein eigenes Büro für sich selbst und noch zwei weitere Mitarbeiter, jetzt geht es bei ihr richtig los!”“Das ist super. Ich wünschte, ich könnte auch bald ein eigenes Büro anmieten. Der Open Space ist cool, aber es ist auch ziemlich laut. Allmählich möchte ich mich auch nicht wie ein Student auf dem Campus fühlen, sondern schon eher wie ein echter Geschäftsführer!” Beide lachen wieder.Klassische Firmengründung oder Startup?Zwei Straßen weiter legt Angelo den Pinsel aus der Hand und betrachtet stolz sein Werk. Die Wände sehen toll aus. Morgen kommt die Lieferung der Tische und Stühle, die Dekoration ist auch schon vorbereitet. Nächste Woche eröffnet Angelo sein eigenes italienisches Lokal. Die Besonderheit: Die Pizza wird besonders hochwertig sein, mit Teig nicht nur auf Weizenbasis, sondern auch mit Dinkel, Amaranth und Kichererbsen. Er hat lange herumprobiert an seinen Rezepten und ist jetzt bereit, sie dem Markt zu präsentieren. Nach langem Hin und Her hat die Bank ihm den notwendigen Kredit gewährt, im Zweifel hat Angelo damit das Haus seines Onkels auf dem Gewissen, der für ihn gebürgt hat. 100.000 Euro hat Angelo bekommen, um sein Glück zu machen und er ist fest davon überzeugt, dass es funktionieren wird.Beide Geschichten sind frei erfunden und stehen damit beispielhaft für die Unterscheidung von Startup und Unternehmensgründung. Was genau ist eigentlich der Unterschied zwischen einem Startup und einem “regulär” gegründeten Unternehmen? Warum ist die Eröffnung eines italienischen Lokals kein Startup, die Einrichtung eines neuen Internetportals für Stellenvermittlung oder der Vertrieb von Eiweißriegeln aber schon? Warum ist es eine Unternehmensgründung, uninteressant für Pitches, wenn ein Student einen Getränkehandel über zehn Jahre hinweg langsam aufbaut und entwickelt, von den ersten Wasserkisten im Kofferraum seines Kleinwagens, bis hin zu einer Flotte von 20 Fahrzeugen und 2000 Kisten Lieferung pro Tag? Und warum ist das gleiche Modell ein Startup, nur weil für einen Getränkehandel sofort 10 oder 20 Millionen Euro verfügbar gemacht werden, so dass – von heute auf morgen – eine Flotte von 50 Fahrzeugen unterwegs sein kann? Warum ist der Versand von Obst- und Gemüsekisten mit Rezepten ein Startup, die Hauslieferung des Supermarktes um die Ecke aber nicht?Was muss man also tun, um als Unternehmensgründer ein “Startup” sein zu können, um relativ zügig viel Geld zur Verfügung zu haben? Suchen wir nach einer Definition, so wird erklärt, dass ein Startup immer mit großem Wachstumspotenzial verbunden ist. Es geht darum, in möglichst kurzer Zeit möglichst viel Gewinn mit der neuen Geschäftsidee zu machen. Ziel ist dann, das Geschäft mit ebendiesem Gewinn weiter zu veräußern. Die Gründer sehen in ihrer Geschäftsidee somit nicht unbedingt ein eigenes “Baby”, das sie hegen und pflegen, um es langsam groß zu machen.Es geht in erster Linie um eine gute Idee, die um das schnelle Geld, das schnelle Wachstum verspricht. Zur Beschleunigung, und um das Wachstumspotenzial überhaupt umsetzen zu können, braucht es schon in der frühen Phase der Geschäftstätigkeit größere Mengen an Geld, um das notwendige Tempo im Wachstum zu erreichen. Die Förderung durch einen “Inkubator”, der einen ganzen Stab von Mentoren, Informationen, Netzwerk, Information, Austausch, Workshops, Business Angels, Pitches, etc zur Verfügung stellt, bietet den Rahmen für die notwendige Förderung hin zum maximalen Nutzen der neuen Geschäftsidee. Startup-Gründer lernen, ihre eigene Geschäftsidee möglichst gut zu präsentieren, um in einem “Pitch” möglichst viel Geld einzusammeln. Es geht noch nicht einmal mehr darum, selbständig etwas voran zu bringen, eine Idee wachsen zu lassen oder sorgsam zu entwickeln. Es geht nur noch um die Idee und darum, die möglichst gut zu präsentieren mit dem Ziel, sie meistbietend an einen Investor zu verkaufen. Das Startup befindet sich somit schon von Tag eins des Daseins in einer gewissen Abhängigkeit, die weit über das Maß der Abhängigkeit eines “regulären” Gründers hinausgeht. Zudem finden Startup-Gründer ihr erstes Zuhause oft in den Inkubatoren, die ihnen mit einer bereits vorgegebenen Kultur entgegentreten, sie aufnehmen und zum Erfolg begleiten und tragen, wie ein Elternhaus, in dem immer noch für alles gesorgt wird und man nur noch die gute Idee weiterentwickeln muss, mit etwas Hoffnung, dass sie auch irgendein anderer gut findet, idealerweise jemand mit einem Portemonnaie, in dem eine Million Euro locker zur Verfügung steht.Startups – die große Abhängigkeit vom GeldHier erleben wir den Unterschied zu einem “regulären” Gründer. Ziel der Geschäftsgründung ist es nicht, eine neue Idee möglichst schnell wachsen und zu Geld werden zu lassen, um sie dann zu verkaufen. Vielmehr geht es darum, die Idee mit eigenen Fähigkeiten und Fertigkeiten zu unterlegen und dem Markt zu präsentieren, um daraus etwas zu schaffen, das man selbst umsetzen und weiterentwickeln kann. Es geht also mehr um die Entwicklung und Ausgestaltung der Idee als um die reine Ausrichtung auf den Erfolg, der schon nach kurzer Zeit in einer gewinnbringenden Veräußerung liegt.Natürlich braucht auch der Firmengründer Geld für die Umsetzung seiner Träume. In der Regel hat er jedoch ein wenig mehr Zeit, das Unternehmen wachsen zu lassen. Außer der Abhängigkeit von der Bank, die eine Rückzahlung des Kredits erwartet, liegen in der Regel keine weiteren Abhängigkeiten vor. Ist der Kredit abbezahlt, gehört das Geschäft allein dem Geschäftsführer und er kann damit machen was er möchte. Wenn er entscheidet, einen Partner mit hinzuzunehmen, geschieht das in der Regel nach seinen Bedingungen.Bei einer Startup-Investition ist die Abhängigkeit gleich viel größer. Investoren tragen in der Regel einen sehr hohen Anteil, wenn nicht sogar die gesamte Finanzierung. Als Gründer ist man dann Teil einer größeren Maschinerie, die wesentlich höhere Gewinne und Publicity ermöglichen kann, die aber auch weniger Freiheit für die persönliche Entwicklung lässt.Ein weiterer Unterschied darf dabei keinesfalls übersehen werden: Die Möglichkeiten, in sehr kurzer Zeit sehr (!) viel Geld zu verdienen, ist bei einem Startup das von Investoren unterstützt wird, ungleich höher als bei einer Firmengründung aus eigener Kraft. Ist man als Gründer also darauf aus, zügig zu einem gewissen Wohlstand zu kommen, ist der Startup-Pitch auf jeden Fall der bessere Weg als der Gang zur Bank und die Verhandlungen um einen Gründungskredit.Der Fragenkatalog der JungunternehmerWenn man also eine eigene Geschäftsidee umsetzen möchte, sollte man sich im Vorfeld die Frage stellen: Was will ich? Möchte ich schnell Geld verdienen, Teil sein der absolut spannenden und grandiosen Startup-Welt, in der ich viele interessante Leute treffen werde, mich mit Gleichgesinnten austauschen kann, gefühlt das Studentenleben im Rahmen des Inkubators noch weit über meinen Studienabschluss hinaus fortsetzen kann? Bin ich bereit, das Risiko einzugehen, auch einmal (oder mehrmals) zu verlieren, keine Investition zu bekommen, meine Idee tatsächlich zu verkaufen um dann zu sehen, dass andere sie groß machen und ich keinen Beitrag mehr dazu leisten kann?Oder brauche ich den Austausch mit den anderen nicht so dringend, konzentriere mich lieber auf meine Sache, kümmere mich um die Idee in ihrem Inneren, lasse mein Geschäft auch MEIN Geschäft sein und entwickle es so, wie ich es möchte? Ich bin dann möglicherweise alleine mit meiner Idee, muss alleine mit der Bank verhandeln, muss alleine sehen, wie ich die Finanzierung stemme; muss vielleicht erleben, wie ich selbst nach 15 Jahren erfolgreich etwas aufgebaut habe, um dann in fünf Monaten von einem Venture-Capital-geförderten Startup am Markt überholt zu werden, das mit einer ähnlichen Geschäftsidee und zehn Mllionen Euro Förderung plötzlich ganz schnell viel mehr Möglichkeiten hat als ich. Der Schlüssel liegt nicht unbedingt in der Frage: “Was will ich?” Die Frage ist eher “WER will ich sein?” oder auch “WER soll mein Geschäft sein?”Unternehmenskultur vs Startup-KulturDamit sind wir beim Kernthema angekommen: Wie wichtig ist es, dass ein Unternehmen eine eigene Persönlichkeit hat, eine Kultur, um erfolgreich zu sein? Wir hören ja oft von Unternehmenskultur, Umgang mit Mitarbeitern und Unternehmensidentität. Aber wie wichtig ist dies in der heutigen Welt der Startups? Kann ein Gründer in der bunten Welt eines Inkubators, im Rahmen von Co-Working und Booster-Programm, Mentoren-Workshop und Startup-Brunch, überhaupt eine eigene Identität entwickeln?Muss er das überhaupt? Vermutlich ja, und zwar spätestens dann, wenn das Unternehmen wächst und der Gründer doch noch eine Rolle als Geschäftsführer spielen kann. Unternehmen wie Zalando, AirBnB oder trivago verfügen sehr wohl über eine Unternehmenskultur. Ob diese so gestaltet ist, wie die Gründer es sich zu Beginn vorgestellt haben, lässt sich von außen nicht klar beantworten.Wichtig ist lediglich, dass die Gestaltung einer Unternehmenskultur ab einem bestimmten Punkt eine Rolle spielt. Zurück zu unserem Gespräch zwischen Stefan und Markus. Beide beneiden Anna, die jetzt ein eigenes Büro bekommen wird. Ein eigenes Büro, das ist ein Stück eigene Welt, ein Stück Intimsphäre, und damit ein Stück Kultur durch die Schaffung einer eigenen Identität. Mit dem Firmenlogo an der Tür, den Bildern an der Wand, die man sich selbst ausgesucht hat, fängt die Gestaltung der Kultur an.Wir hören viel von der “Startup-Kultur“. Sie beschreibt aber lediglich die Kultur der Startup-Welt insgesamt. Startup-Kultur bedeutet Flexibilität, Ausprobieren, Fehler machen dürfen, Networking, Brunches, Dinners, Pitches, Workshops, Austausch, buntes Treiben, Studentenfeeling, ein junges Gefühl. Der Reiz des StartupsDie Kultur des einzelnen Startups ist anders. Die Kultur des einzelnen Unternehmens ist das, was der Gründer daraus macht, bzw. das, was die Investoren gestatten, daraus entstehen zu lassen.Und diese Kultur ist es, die letztlich die Einzigartigkeit am Markt gestalten kann, wenn es darum geht, Menschen für das Unternehmen zu begeistern. Dabei geht es nicht länger nur um die Kunden, sondern vielmehr um die Geschäftspartner und Mitarbeiter, die das Unternehmen früher oder später in seinem Wachstum begleiten und unterstützen sollen. Und dann steht eins außer Frage: Ein Unternehmen mit einer ansprechenden Kultur wird immer in der Lage sein, Mitarbeiter zu finden, die die Ziele des Unternehmens mit Begeisterung voranbringen. Ein Unternehmen, das langsam und organisch gewachsen ist, hat somit den deutlichen Vorteil, seinen Mitarbeitern ein stabiles Umfeld bieten zu können, das auch einem Wandel im Markt aufgrund seiner guten Basis, die die Kultur ihm gibt, standhalten kann.Andererseits hat die Startup-Welt einen gewissen “Buzz”, eine Atmosphäre, die für viele Menschen genau den Reiz in der Arbeitswelt ausmachen. Nicht zuletzt aus diesem Grund unterhalten große Unternehmen ebenfalls Büros innerhalb von Co-Working-Häusern und Inkubatoren, um dort im Rahmen von Projekten oder “Spin Offs” diese besondere, junge und moderne, Atmosphäre aufnehmen und daraus Erfolg für ihre Innovationen schöpfen zu können. Sie versprechen sich, dass die Mitarbeiter, die in diesen Projekten tätig sind, in dem bunten und lebendigen Umfeld deutlich bessere Ergebnisse erzielen können, als innerhalb der gewohnten Konzernluft.Die Frage “Wer will ich sein?” ist nicht nur eine Frage für den Gründer, sondern auch für die Menschen, die sich ein neues Wirkungsfeld suchen und überlegen, ob sie sich einem reinen Startup, oder einem auf andere Weise gewachsenen Unternehmen anschließen möchten. Nach welcher Identität suche ich in meinem Arbeitsalltag? Habe ich Lust auf ein bewegtes Umfeld, teilweise doch noch recht unprofessionelle Vorgehensweise, eher unstrukturiertes und unkonventionelles Arbeiten, Lust auf WG-Feeling mit allen Höhen und Tiefen? Oder brauche ich Struktur, geübte Vorgehensweisen, Professionalität und klare Rahmenbedingungen?Wenn die Firma kein Startup mehr istSo attraktiv, jung, innovativ und erfolgreich die Startup-Welt auch erscheinen mag: Sie ist nicht für jedermann gemacht und nicht jedermann ist für sie gemacht. Das ist im Übrigen auch gar nicht schlimm, sofern man sich der eigenen Identität bewusst ist und weiß, was einem selbst im Arbeitsalltag guttut, so dass man die eigene Persönlichkeit mit Selbstbewusstsein vertreten kann, anstatt sich einem Umfeld anzupassen, das einem nicht wirklich liegt.Gleiches gilt natürlich vor allem auch für einen Unternehmensgründer. Nur wenn ich wirklich Lust darauf habe, mich in das bunte Leben zu stürzen, Freude daran habe, mich mit anderen auszutauschen, meine Arbeitszeit bunt gemischt auf 24 Stunden an sieben Tagen zu verteilen, meinen Schreibtisch auch mal anderen zur Verfügung zu stellen, sollte ich über die Gründung eines klassischen Startups nachdenken. Ich genieße dann die Vorteile einer großen Gemeinschaft zu dem Preis, stets sehr transparent und ansprechbar zu sein, wenig Ruhe zu haben und nicht ganz so sehr “mein Ding” machen zu können.“Mein Ding” kommt dann trotzdem auf mich zu, nämlich dann, wenn meine Idee erfolgreich ist und mein Unternehmen kein Startup mehr ist, sondern größer wird. Spätestens dann ist der Punkt gekommen, mich von der Co-Working-Welt verabschieden zu müssen und eine eigene Identität und damit Kultur für mein Unternehmen zu schaffen.P.S. Ja, wir wissen durchaus, dass der Vergleich zwischen einer “klassischen Unternehmensgründung” und einem “Startup” hier ein wenig Schwarz und Weiß gezeichnet ist. Natürlich findet sich in allem immer auch eine Mischung, und man kann nichts verallgemeinern. Trotzdem finden sich gewisse Stereotypen immer wieder bestätigt, somit lohnt es sich, die Antennen ausgefahren und die Aufmerksamkeit hoch zu halten, wenn plötzlich eine Idee daherkommt, mit der man sich gerne selbständig machen möchte. (bw) 

Startup vs. Unternehmensgründung: Worauf Jungunternehmer achten sollten​ In einem der renommiertesten Inkubatoren für Startups in Deutschland sitzen sich in einem Besprechungsraum zwei Startup-Geschäftsführer gegenüber. Der Raum wird hier allerdings “Innovation Thinking Space” genannt. Sie tauschen sich über ihre Erfahrungen während der ersten Phase ihrer Gründung aus. Stefan ist Gründer eines Online-Handels für Energieriegel auf Bio-Erbsenbasis. Joshua entwickelt eine App für die Verknüpfung von Bewerbern mit Stellenanbietern für das spezielle Segment der Softwareentwickler.So cool und innovativ Startups sein mögen – Jungunternehmer sollten sich genau überlegen, wo sie am besten hineinpassen.
Foto: 4 PM production – shutterstock.comBeide nehmen am “Booster”-Programm des Inkubators teil, in dem sie während der verschiedenen Phasen ihrer Geschäftstätigkeit durch Mentoren, Workshops, vor allem aber durch die Hoffnung auf einen großen Investor, begleitet werden. Sie haben ein straffes Programm, denn regelmäßig gilt es, ihre Geschäftsidee auf professionelle und knackige Weise vor wichtigen Gremien zu präsentieren. Das alles findet im lockeren Umfeld statt, alle sagen “Du” zueinander, man trifft sich regelmäßig zu “Brunches” und “Coffees” und “Booster Nights”, die Möglichkeiten zum “Networking” sind unbegrenzt.Stefan: “Gefällt Dir das Booster-Programm?”Markus: “Ja sehr, es macht unglaublich viel Spaß!”“Bist Du nächste Woche bei der Pitch-Night auch dabei?”“Na klar bin ich dabei. Ich hoffe, ich finde einen passenden Investor! Wenn es klappt, dann feiern wir!”“Wenn es nicht klappt, feiern wir auch und zwar bei der Fuck up Night!” Beide lachen.“Ich habe morgen einen Termin mit dem Mentor für die Steuerberatung, das wird bestimmt interessant”“Ich nehme am Workshop für Präsentations-Skills teil, darauf freue ich mich schon.”“Hast Du schon gehört? Anna von ‘IT Wonder’ hat letzte Woche schon 500.000 Euro eingesammelt, das ist großartig!”“Ja, das ist es! Sie bekommt hier jetzt ein eigenes Büro für sich selbst und noch zwei weitere Mitarbeiter, jetzt geht es bei ihr richtig los!”“Das ist super. Ich wünschte, ich könnte auch bald ein eigenes Büro anmieten. Der Open Space ist cool, aber es ist auch ziemlich laut. Allmählich möchte ich mich auch nicht wie ein Student auf dem Campus fühlen, sondern schon eher wie ein echter Geschäftsführer!” Beide lachen wieder.Klassische Firmengründung oder Startup?Zwei Straßen weiter legt Angelo den Pinsel aus der Hand und betrachtet stolz sein Werk. Die Wände sehen toll aus. Morgen kommt die Lieferung der Tische und Stühle, die Dekoration ist auch schon vorbereitet. Nächste Woche eröffnet Angelo sein eigenes italienisches Lokal. Die Besonderheit: Die Pizza wird besonders hochwertig sein, mit Teig nicht nur auf Weizenbasis, sondern auch mit Dinkel, Amaranth und Kichererbsen. Er hat lange herumprobiert an seinen Rezepten und ist jetzt bereit, sie dem Markt zu präsentieren. Nach langem Hin und Her hat die Bank ihm den notwendigen Kredit gewährt, im Zweifel hat Angelo damit das Haus seines Onkels auf dem Gewissen, der für ihn gebürgt hat. 100.000 Euro hat Angelo bekommen, um sein Glück zu machen und er ist fest davon überzeugt, dass es funktionieren wird.Beide Geschichten sind frei erfunden und stehen damit beispielhaft für die Unterscheidung von Startup und Unternehmensgründung. Was genau ist eigentlich der Unterschied zwischen einem Startup und einem “regulär” gegründeten Unternehmen? Warum ist die Eröffnung eines italienischen Lokals kein Startup, die Einrichtung eines neuen Internetportals für Stellenvermittlung oder der Vertrieb von Eiweißriegeln aber schon? Warum ist es eine Unternehmensgründung, uninteressant für Pitches, wenn ein Student einen Getränkehandel über zehn Jahre hinweg langsam aufbaut und entwickelt, von den ersten Wasserkisten im Kofferraum seines Kleinwagens, bis hin zu einer Flotte von 20 Fahrzeugen und 2000 Kisten Lieferung pro Tag? Und warum ist das gleiche Modell ein Startup, nur weil für einen Getränkehandel sofort 10 oder 20 Millionen Euro verfügbar gemacht werden, so dass – von heute auf morgen – eine Flotte von 50 Fahrzeugen unterwegs sein kann? Warum ist der Versand von Obst- und Gemüsekisten mit Rezepten ein Startup, die Hauslieferung des Supermarktes um die Ecke aber nicht?Was muss man also tun, um als Unternehmensgründer ein “Startup” sein zu können, um relativ zügig viel Geld zur Verfügung zu haben? Suchen wir nach einer Definition, so wird erklärt, dass ein Startup immer mit großem Wachstumspotenzial verbunden ist. Es geht darum, in möglichst kurzer Zeit möglichst viel Gewinn mit der neuen Geschäftsidee zu machen. Ziel ist dann, das Geschäft mit ebendiesem Gewinn weiter zu veräußern. Die Gründer sehen in ihrer Geschäftsidee somit nicht unbedingt ein eigenes “Baby”, das sie hegen und pflegen, um es langsam groß zu machen.Es geht in erster Linie um eine gute Idee, die um das schnelle Geld, das schnelle Wachstum verspricht. Zur Beschleunigung, und um das Wachstumspotenzial überhaupt umsetzen zu können, braucht es schon in der frühen Phase der Geschäftstätigkeit größere Mengen an Geld, um das notwendige Tempo im Wachstum zu erreichen. Die Förderung durch einen “Inkubator”, der einen ganzen Stab von Mentoren, Informationen, Netzwerk, Information, Austausch, Workshops, Business Angels, Pitches, etc zur Verfügung stellt, bietet den Rahmen für die notwendige Förderung hin zum maximalen Nutzen der neuen Geschäftsidee. Startup-Gründer lernen, ihre eigene Geschäftsidee möglichst gut zu präsentieren, um in einem “Pitch” möglichst viel Geld einzusammeln. Es geht noch nicht einmal mehr darum, selbständig etwas voran zu bringen, eine Idee wachsen zu lassen oder sorgsam zu entwickeln. Es geht nur noch um die Idee und darum, die möglichst gut zu präsentieren mit dem Ziel, sie meistbietend an einen Investor zu verkaufen. Das Startup befindet sich somit schon von Tag eins des Daseins in einer gewissen Abhängigkeit, die weit über das Maß der Abhängigkeit eines “regulären” Gründers hinausgeht. Zudem finden Startup-Gründer ihr erstes Zuhause oft in den Inkubatoren, die ihnen mit einer bereits vorgegebenen Kultur entgegentreten, sie aufnehmen und zum Erfolg begleiten und tragen, wie ein Elternhaus, in dem immer noch für alles gesorgt wird und man nur noch die gute Idee weiterentwickeln muss, mit etwas Hoffnung, dass sie auch irgendein anderer gut findet, idealerweise jemand mit einem Portemonnaie, in dem eine Million Euro locker zur Verfügung steht.Startups – die große Abhängigkeit vom GeldHier erleben wir den Unterschied zu einem “regulären” Gründer. Ziel der Geschäftsgründung ist es nicht, eine neue Idee möglichst schnell wachsen und zu Geld werden zu lassen, um sie dann zu verkaufen. Vielmehr geht es darum, die Idee mit eigenen Fähigkeiten und Fertigkeiten zu unterlegen und dem Markt zu präsentieren, um daraus etwas zu schaffen, das man selbst umsetzen und weiterentwickeln kann. Es geht also mehr um die Entwicklung und Ausgestaltung der Idee als um die reine Ausrichtung auf den Erfolg, der schon nach kurzer Zeit in einer gewinnbringenden Veräußerung liegt.Natürlich braucht auch der Firmengründer Geld für die Umsetzung seiner Träume. In der Regel hat er jedoch ein wenig mehr Zeit, das Unternehmen wachsen zu lassen. Außer der Abhängigkeit von der Bank, die eine Rückzahlung des Kredits erwartet, liegen in der Regel keine weiteren Abhängigkeiten vor. Ist der Kredit abbezahlt, gehört das Geschäft allein dem Geschäftsführer und er kann damit machen was er möchte. Wenn er entscheidet, einen Partner mit hinzuzunehmen, geschieht das in der Regel nach seinen Bedingungen.Bei einer Startup-Investition ist die Abhängigkeit gleich viel größer. Investoren tragen in der Regel einen sehr hohen Anteil, wenn nicht sogar die gesamte Finanzierung. Als Gründer ist man dann Teil einer größeren Maschinerie, die wesentlich höhere Gewinne und Publicity ermöglichen kann, die aber auch weniger Freiheit für die persönliche Entwicklung lässt.Ein weiterer Unterschied darf dabei keinesfalls übersehen werden: Die Möglichkeiten, in sehr kurzer Zeit sehr (!) viel Geld zu verdienen, ist bei einem Startup das von Investoren unterstützt wird, ungleich höher als bei einer Firmengründung aus eigener Kraft. Ist man als Gründer also darauf aus, zügig zu einem gewissen Wohlstand zu kommen, ist der Startup-Pitch auf jeden Fall der bessere Weg als der Gang zur Bank und die Verhandlungen um einen Gründungskredit.Der Fragenkatalog der JungunternehmerWenn man also eine eigene Geschäftsidee umsetzen möchte, sollte man sich im Vorfeld die Frage stellen: Was will ich? Möchte ich schnell Geld verdienen, Teil sein der absolut spannenden und grandiosen Startup-Welt, in der ich viele interessante Leute treffen werde, mich mit Gleichgesinnten austauschen kann, gefühlt das Studentenleben im Rahmen des Inkubators noch weit über meinen Studienabschluss hinaus fortsetzen kann? Bin ich bereit, das Risiko einzugehen, auch einmal (oder mehrmals) zu verlieren, keine Investition zu bekommen, meine Idee tatsächlich zu verkaufen um dann zu sehen, dass andere sie groß machen und ich keinen Beitrag mehr dazu leisten kann?Oder brauche ich den Austausch mit den anderen nicht so dringend, konzentriere mich lieber auf meine Sache, kümmere mich um die Idee in ihrem Inneren, lasse mein Geschäft auch MEIN Geschäft sein und entwickle es so, wie ich es möchte? Ich bin dann möglicherweise alleine mit meiner Idee, muss alleine mit der Bank verhandeln, muss alleine sehen, wie ich die Finanzierung stemme; muss vielleicht erleben, wie ich selbst nach 15 Jahren erfolgreich etwas aufgebaut habe, um dann in fünf Monaten von einem Venture-Capital-geförderten Startup am Markt überholt zu werden, das mit einer ähnlichen Geschäftsidee und zehn Mllionen Euro Förderung plötzlich ganz schnell viel mehr Möglichkeiten hat als ich. Der Schlüssel liegt nicht unbedingt in der Frage: “Was will ich?” Die Frage ist eher “WER will ich sein?” oder auch “WER soll mein Geschäft sein?”Unternehmenskultur vs Startup-KulturDamit sind wir beim Kernthema angekommen: Wie wichtig ist es, dass ein Unternehmen eine eigene Persönlichkeit hat, eine Kultur, um erfolgreich zu sein? Wir hören ja oft von Unternehmenskultur, Umgang mit Mitarbeitern und Unternehmensidentität. Aber wie wichtig ist dies in der heutigen Welt der Startups? Kann ein Gründer in der bunten Welt eines Inkubators, im Rahmen von Co-Working und Booster-Programm, Mentoren-Workshop und Startup-Brunch, überhaupt eine eigene Identität entwickeln?Muss er das überhaupt? Vermutlich ja, und zwar spätestens dann, wenn das Unternehmen wächst und der Gründer doch noch eine Rolle als Geschäftsführer spielen kann. Unternehmen wie Zalando, AirBnB oder trivago verfügen sehr wohl über eine Unternehmenskultur. Ob diese so gestaltet ist, wie die Gründer es sich zu Beginn vorgestellt haben, lässt sich von außen nicht klar beantworten.Wichtig ist lediglich, dass die Gestaltung einer Unternehmenskultur ab einem bestimmten Punkt eine Rolle spielt. Zurück zu unserem Gespräch zwischen Stefan und Markus. Beide beneiden Anna, die jetzt ein eigenes Büro bekommen wird. Ein eigenes Büro, das ist ein Stück eigene Welt, ein Stück Intimsphäre, und damit ein Stück Kultur durch die Schaffung einer eigenen Identität. Mit dem Firmenlogo an der Tür, den Bildern an der Wand, die man sich selbst ausgesucht hat, fängt die Gestaltung der Kultur an.Wir hören viel von der “Startup-Kultur“. Sie beschreibt aber lediglich die Kultur der Startup-Welt insgesamt. Startup-Kultur bedeutet Flexibilität, Ausprobieren, Fehler machen dürfen, Networking, Brunches, Dinners, Pitches, Workshops, Austausch, buntes Treiben, Studentenfeeling, ein junges Gefühl.

Der Reiz des StartupsDie Kultur des einzelnen Startups ist anders. Die Kultur des einzelnen Unternehmens ist das, was der Gründer daraus macht, bzw. das, was die Investoren gestatten, daraus entstehen zu lassen.Und diese Kultur ist es, die letztlich die Einzigartigkeit am Markt gestalten kann, wenn es darum geht, Menschen für das Unternehmen zu begeistern. Dabei geht es nicht länger nur um die Kunden, sondern vielmehr um die Geschäftspartner und Mitarbeiter, die das Unternehmen früher oder später in seinem Wachstum begleiten und unterstützen sollen. Und dann steht eins außer Frage: Ein Unternehmen mit einer ansprechenden Kultur wird immer in der Lage sein, Mitarbeiter zu finden, die die Ziele des Unternehmens mit Begeisterung voranbringen. Ein Unternehmen, das langsam und organisch gewachsen ist, hat somit den deutlichen Vorteil, seinen Mitarbeitern ein stabiles Umfeld bieten zu können, das auch einem Wandel im Markt aufgrund seiner guten Basis, die die Kultur ihm gibt, standhalten kann.Andererseits hat die Startup-Welt einen gewissen “Buzz”, eine Atmosphäre, die für viele Menschen genau den Reiz in der Arbeitswelt ausmachen. Nicht zuletzt aus diesem Grund unterhalten große Unternehmen ebenfalls Büros innerhalb von Co-Working-Häusern und Inkubatoren, um dort im Rahmen von Projekten oder “Spin Offs” diese besondere, junge und moderne, Atmosphäre aufnehmen und daraus Erfolg für ihre Innovationen schöpfen zu können. Sie versprechen sich, dass die Mitarbeiter, die in diesen Projekten tätig sind, in dem bunten und lebendigen Umfeld deutlich bessere Ergebnisse erzielen können, als innerhalb der gewohnten Konzernluft.Die Frage “Wer will ich sein?” ist nicht nur eine Frage für den Gründer, sondern auch für die Menschen, die sich ein neues Wirkungsfeld suchen und überlegen, ob sie sich einem reinen Startup, oder einem auf andere Weise gewachsenen Unternehmen anschließen möchten. Nach welcher Identität suche ich in meinem Arbeitsalltag? Habe ich Lust auf ein bewegtes Umfeld, teilweise doch noch recht unprofessionelle Vorgehensweise, eher unstrukturiertes und unkonventionelles Arbeiten, Lust auf WG-Feeling mit allen Höhen und Tiefen? Oder brauche ich Struktur, geübte Vorgehensweisen, Professionalität und klare Rahmenbedingungen?Wenn die Firma kein Startup mehr istSo attraktiv, jung, innovativ und erfolgreich die Startup-Welt auch erscheinen mag: Sie ist nicht für jedermann gemacht und nicht jedermann ist für sie gemacht. Das ist im Übrigen auch gar nicht schlimm, sofern man sich der eigenen Identität bewusst ist und weiß, was einem selbst im Arbeitsalltag guttut, so dass man die eigene Persönlichkeit mit Selbstbewusstsein vertreten kann, anstatt sich einem Umfeld anzupassen, das einem nicht wirklich liegt.Gleiches gilt natürlich vor allem auch für einen Unternehmensgründer. Nur wenn ich wirklich Lust darauf habe, mich in das bunte Leben zu stürzen, Freude daran habe, mich mit anderen auszutauschen, meine Arbeitszeit bunt gemischt auf 24 Stunden an sieben Tagen zu verteilen, meinen Schreibtisch auch mal anderen zur Verfügung zu stellen, sollte ich über die Gründung eines klassischen Startups nachdenken. Ich genieße dann die Vorteile einer großen Gemeinschaft zu dem Preis, stets sehr transparent und ansprechbar zu sein, wenig Ruhe zu haben und nicht ganz so sehr “mein Ding” machen zu können.“Mein Ding” kommt dann trotzdem auf mich zu, nämlich dann, wenn meine Idee erfolgreich ist und mein Unternehmen kein Startup mehr ist, sondern größer wird. Spätestens dann ist der Punkt gekommen, mich von der Co-Working-Welt verabschieden zu müssen und eine eigene Identität und damit Kultur für mein Unternehmen zu schaffen.P.S. Ja, wir wissen durchaus, dass der Vergleich zwischen einer “klassischen Unternehmensgründung” und einem “Startup” hier ein wenig Schwarz und Weiß gezeichnet ist. Natürlich findet sich in allem immer auch eine Mischung, und man kann nichts verallgemeinern. Trotzdem finden sich gewisse Stereotypen immer wieder bestätigt, somit lohnt es sich, die Antennen ausgefahren und die Aufmerksamkeit hoch zu halten, wenn plötzlich eine Idee daherkommt, mit der man sich gerne selbständig machen möchte. (bw)

Startup vs. Unternehmensgründung: Worauf Jungunternehmer achten sollten​ Weiterlesen »

Mitarbeiter (legal) abwerben: 5 Tipps für den War for Talents​

Allgemein

Im Kampf um IT-Spezialisten und Marktanteile kann es ein probates Mittel sein, Talente – mit legalen Methoden – von der Konkurrenz abzuwerben. Foto: eamesBot – shutterstock.comUnbesetzte IT-Positionen stellen viele Unternehmen vor große Herausforderungen, sehen sich diese bei der Kandidatensuche mit einem leergefegten und von Opportunismus getriebenen Arbeitsmarkt konfrontiert. Nicht selten richtet sich der Blick da zur Konkurrenz und deren Angestellten. Die Verlockung, die Mitarbeitenden eines anderen Betriebs anzuwerben, scheint groß. Doch viele schrecken davor zurück, weil sie rechtliche und moralische Zweifel hegen. Müssen sie aber nicht, denn bis auf wenige Praktiken ist das Abwerben unbedenklich. Mitarbeiter abwerben: Was nicht erlaubt istDer freie Arbeitsplatzwechsel ist in unserer sozialen Marktwirtschaft vorgesehen und unter den meisten Umständen auch völlig legal. Das Abwerben fremder Mitarbeiterinnen und Mitarbeiter ist nur dann nicht erlaubt, wenn es vorsätzlich zur Schädigung des Konkurrenzunternehmens eingesetzt wird. Das ist beispielsweise der Fall: wenn Angestellte der Konkurrenz abgeworben, anschließend aber doch nicht eingestellt werden; wenn Sie mit der Intention handeln, die Betriebsgeheimnisse oder Interna eines anderen Unternehmens durch die Abwerbung in Erfahrung zu bringen;wenn Arbeitnehmende durch falsche Versprechungen oder negative Aussagen über ihren aktuellen Arbeitgeber ins eigene Unternehmen gelockt werden sollen;wenn Beschäftigte zum Vertragsbruch oder zu Handlungen, die eine sofortige Kündigung nach sich ziehen würden, aufgefordert werden;wenn Arbeitnehmende mit einem bereits aufgesetzten Kündigungsschreiben überrumpelt und unter Druck gesetzt werden. Ein Tabu ist ferner, frisch akquirierte – aber noch nicht eingestellte – Talente zum Abwerben ihrer Kolleginnen und Kollegen anzustiften oder ihnen gar Prämien dafür zu versprechen. Arbeitnehmende dürfen bei einem Unternehmenswechsel keine Teammitglieder abwerben, denn solange ihr Arbeitsverhältnis besteht, sind sie vertraglich zur Treue verpflichtet. Das bedeutet natürlich nicht, dass sich das Team nicht über einen geplanten Stellenwechsel austauschen darf, auch wenn ein Talent dabei die Vorzüge des Konkurrenzunternehmens hervorhebt. Hat der Wechsel aber bereits stattgefunden und der Arbeitsvertrag ist aufgelöst, gelten für ehemalige Mitarbeitende die gleichen Regeln wie für Personalverantwortliche. Falls Sie sich nicht an die genannten Regeln halten, verhalten Sie sich wettbewerbswidrig. Das kann rechtliche Konsequenzen haben. Werden Sie von der Konkurrenz oder dem Talent, das Sie eigentlich für sich gewinnen wollten, gemeldet, kann es zu einer Unterlassungsklage kommen. Werben Sie ein Talent auf illegalem Wege ab, können Sie zudem auf Schadensersatz verklagt werden. Im Fall der Fälle kann auch ein zeitlich begrenztes Beschäftigungsverbot für den neuen Mitarbeiter oder die neue Mitarbeiterin verhängt werden. Mitarbeiter legal abwerben: In 5 Schritten zum ErfolgKonzentrieren Sie sich also lieber auf die legalen Methoden des Abwerbens; diese bergen ohnehin den Vorteil, dass Sie die frisch gewonnenen Talente langfristig an Ihr Unternehmen binden. Doch wie gehen Sie dabei am besten vor? Die folgenden fünf Schritte versprechen ein erfolgreiches Abwerben. 1. Gelungenes Employer Branding Wollen Sie ein Talent von der Arbeit in Ihrem Unternehmen überzeugen, sollten Sie zuerst eine attraktive Arbeitgebermarke schaffen. Dazu müssen Sie wissen, was Ihr Unternehmen ausmacht. Welche Werte werden vertreten? Welche Kultur wird in Ihrer Organisation gelebt? Haben Sie diese Fragen beantwortet, sollten Sie sich entsprechend positionieren und Ihre Unternehmensbotschaften über Ihre Website, Social-Media-Kanäle, Newsletter und weitere firmeneigene Kanäle kommunizieren. Auch die Pflege bekannter Bewertungsportale für Arbeitgeber wie kununu oder Glassdoor sollte im Employer Branding einen entscheidenden Platz einnehmen. Zuletzt können Ihre Mitarbeitenden einen echten Unterschied machen, indem sie ihre persönlichen Erfahrungen mit dem Rest der Welt teilen. Als sogenannte Corporate Influencer können sie beispielsweise Einblicke in ihren Arbeitsalltag und das Miteinander im Team geben. 2. Kontaktaufnahme Haben Sie ein Talent gefunden, das auf Ihr Stellenprofil passt, sollten Sie mit einer ersten Kontaktaufnahme starten. Hierbei ist es jedoch entscheidend, dass Sie das Thema Datenschutz nicht außer Acht lassen. Die DSGVO erlaubt nämlich nur, dass Sie öffentlich zugängliche Kontaktinformationen oder -möglichkeiten nutzen – wie beispielsweise ein öffentliches Profil in einem Karrierenetzwerk oder einem Fachportal. Haben Sie mit einer Nachricht, beispielsweise über LinkedIn, den Kontakt aufgenommen und eine Telefonnummer oder eine Mailadresse erhalten, müssen Sie das Talent über die Verarbeitung dieser Daten informieren und sich seine Einwilligung einholen. Der Kandidat oder die Kandidatin muss zu jeder Zeit die Option haben, seine oder ihre Daten einzusehen, diese ändern oder löschen zu lassen. Kurz gesagt: Die DSGVO und ihre Stolpersteine führen dazu, dass vermehrt Headhunter zum Abwerben eingesetzt werden – denn diese haben durch ihr großes Netzwerk und professionelle Tools oft deutlich mehr Gestaltungsspielraum bei der Kaltakquise. Sitzen Sie beim Thema Datenschutz jedoch fest im Sattel und entscheiden sich für eine direkte Kontaktaufnahme, treten Sie dabei verbindlich, aber höflich zurückhaltend auf. In keinem Fall sollte sich Ihr Gegenüber bedrängt oder belästigt fühlen. 3. Attraktive Arbeitsbedingungen Um Ihre Konkurrenz auszustechen, sollten Sie attraktivere Arbeitsbedingungen als Ihre Wettbewerber bieten. Dazu gehören zum einen moderne Strukturen und damit die Möglichkeit, remote zu arbeiten und sich die Arbeitszeiten flexibel einzuteilen. Darüber hinaus können Sie natürlich mit großzügigen Benefits und einem überdurchschnittlichen Gehalt punkten. Gerade für IT-Fachkräfte ist auch die technische Ausstattung im Unternehmen ein entscheidender Faktor. Außerdem sind viele an der Arbeit in interdisziplinären Teams interessiert – das stärkt den Zusammenhalt innerhalb der Belegschaft und verleiht außerdem jeder Position eine besondere Rolle. 4. Onboarding angenehm gestalten Konnten Sie das Talent von Ihrem Unternehmen überzeugen, gilt es, potenzielle Hindernisse abzubauen, die einem Wechsel im Wege stehen könnten. Dazu zählen zum einen formale Hürden wie das Einreichen eines Motivationsschreibens. Sie kennen den Lebenslauf und die Qualifikationen der Fachkraft, zusätzlich haben Sie sie in Gesprächen kennengelernt. Alle wichtigen Fragen sollten dabei beantwortet worden sein. Auch auf fachlicher Ebene sollten Sie Bedenken aus dem Weg räumen. Beschreiben Sie dem Kandidaten oder der Kandidatin, wie das Onboarding ablaufen wird und wie Sie eventuelle fachliche Lücken schließen möchten. Nicht zuletzt kann auch das soziale Umfeld eine Hürde für den Wechsel darstellen. Stellen Sie deshalb sicher, dass sich Ihr bestehendes Team auf den Neuzugang freut und dass das neue Mitglied schnell Anschluss findet – beispielsweise mit Hilfe von Teamevents oder einem Mentorenprogramm innerhalb der ersten Wochen. 5. Maßnahmen zur Mitarbeiterzufriedenheit Dieser letzte Schritt lohnt sich in doppelter Hinsicht: Zum einen binden Sie die frisch gewonnenen Talente an Ihr Unternehmen, zum anderen stärken Sie natürlich Ihre Arbeitgebermarke und stellen die Weichen für zukünftige Erfolge beim Abwerben. Um die Zufriedenheit Ihrer Mitarbeitenden zu steigern, ist vor allem Kommunikation gefragt. Dazu gehört es, sich regelmäßig Feedback einzuholen und daran die Employee Experience zu messen. Also: Wie positiv oder negativ sind die Erlebnisse und Erfahrungen, die Ihre Angestellten an ihrem Arbeitsplatz sammeln? Auch in Zeiten von Hybrid oder Remote Work sollten sich alle zugehörig und nicht isoliert fühlen. Genauso wichtig ist auch die Wertschätzung. Geben Sie Ihren Angestellten das Gefühl, dass ihre erbrachte Leistung gesehen wird. Geäußerte Wünsche und Bedürfnisse sollten in die Planung künftiger Projekte mit einbezogen werden. Schenken Sie Ihrem Team Vertrauen und Freiheiten in der Prozessgestaltung sowie die Möglichkeit zur Weiterbildung. (pg/fm)Wie Unternehmen ihr Recruiting weiter optimierenTipps zur Fachkräfte- und Talentsuche Foto: Gajus – shutterstock.comUngeachtet der Auswirkungen der COVID-19-Pandemie sind Fachkräfte und Talente weiter stark gesucht, insbesondere in der IT-Branche. BEST RECUITERS gibt Tipps, wie Unternehmen ihr Recruitment sowie ihre Talentsuche zusätzlich pushen können. Wie du mir, so ich dir Foto: fizkes – shutterstock.comHinterfragen sie kritisch, welche Anforderungen Sie an Bewerber richten – speziell was die Soft Skills anbelangt – und ob Ihre Candidate Journey diese auch widerspiegelt. Wenn Sie also flexible Mitarbeiter suchen: Bieten Sie selbst eben diese Flexibilität im Recruiting-Prozess, zum Beispiel indem Sie mehrere Bewerbungskanäle zur Wahl stellen? Tagesaktuelle Informationenn Foto: Dmitry Demidovich – shutterstock.comRecruiting-Prozesse sind nicht zuletzt aufgrund von Corona digitaler geworden. Informieren Sie Kandidaten über die Veränderungen in Ihrem Unternehmen, beispielsweise welche Software im virtuellen Erstrunden-Interview zum Einsatz kommt oder wie (teil-)digitales Onboarding bei Ihnen gelebt wird. Denken Sie auch an entsprechende Tipps, damit Bewerber sich optimal vorbereiten können. Vertrauen schaffen Foto: Olga Danylenko – shutterstock.comJobsuchende erhoffen sich heute eines mehr denn je: Sicherheit. Holen Sie sie ab, indem Sie zeigen, wie Sie Ihren Mitarbeitern Vertrauen entgegenbringen, zum Beispiel durch Vertrauensarbeitszeit oder auch Lohntransparenz in Stellenanzeigen. Erfahrungen aus erster Hand Foto: dizain – shutterstock.comLaden Sie Mitarbeiter ein, auf der Karriere-Website und in anderen Recruiting-Kanälen zu erzählen, wie sie die letzte Zeit mit Ihnen als Arbeitgeber erlebt haben. Von IT-Profi zu IT-Profi Foto: Photographee.eu – shutterstock.comViele IT-Spezialisten wünschen sich schon vor einem Bewerbungsprozess den Kontakt zum Fachbereich. Im Rahmen digitaler Events gelingt dieser Austausch mit potenziellen Kollegen unkompliziert und ohne großen zeitlichen Aufwand für Ihre IT-Abteilung. 

Mitarbeiter (legal) abwerben: 5 Tipps für den War for Talents​ Im Kampf um IT-Spezialisten und Marktanteile kann es ein probates Mittel sein, Talente – mit legalen Methoden – von der Konkurrenz abzuwerben.
Foto: eamesBot – shutterstock.comUnbesetzte IT-Positionen stellen viele Unternehmen vor große Herausforderungen, sehen sich diese bei der Kandidatensuche mit einem leergefegten und von Opportunismus getriebenen Arbeitsmarkt konfrontiert. Nicht selten richtet sich der Blick da zur Konkurrenz und deren Angestellten. Die Verlockung, die Mitarbeitenden eines anderen Betriebs anzuwerben, scheint groß. Doch viele schrecken davor zurück, weil sie rechtliche und moralische Zweifel hegen. Müssen sie aber nicht, denn bis auf wenige Praktiken ist das Abwerben unbedenklich. Mitarbeiter abwerben: Was nicht erlaubt istDer freie Arbeitsplatzwechsel ist in unserer sozialen Marktwirtschaft vorgesehen und unter den meisten Umständen auch völlig legal. Das Abwerben fremder Mitarbeiterinnen und Mitarbeiter ist nur dann nicht erlaubt, wenn es vorsätzlich zur Schädigung des Konkurrenzunternehmens eingesetzt wird. Das ist beispielsweise der Fall: wenn Angestellte der Konkurrenz abgeworben, anschließend aber doch nicht eingestellt werden; wenn Sie mit der Intention handeln, die Betriebsgeheimnisse oder Interna eines anderen Unternehmens durch die Abwerbung in Erfahrung zu bringen;wenn Arbeitnehmende durch falsche Versprechungen oder negative Aussagen über ihren aktuellen Arbeitgeber ins eigene Unternehmen gelockt werden sollen;wenn Beschäftigte zum Vertragsbruch oder zu Handlungen, die eine sofortige Kündigung nach sich ziehen würden, aufgefordert werden;wenn Arbeitnehmende mit einem bereits aufgesetzten Kündigungsschreiben überrumpelt und unter Druck gesetzt werden. Ein Tabu ist ferner, frisch akquirierte – aber noch nicht eingestellte – Talente zum Abwerben ihrer Kolleginnen und Kollegen anzustiften oder ihnen gar Prämien dafür zu versprechen. Arbeitnehmende dürfen bei einem Unternehmenswechsel keine Teammitglieder abwerben, denn solange ihr Arbeitsverhältnis besteht, sind sie vertraglich zur Treue verpflichtet. Das bedeutet natürlich nicht, dass sich das Team nicht über einen geplanten Stellenwechsel austauschen darf, auch wenn ein Talent dabei die Vorzüge des Konkurrenzunternehmens hervorhebt. Hat der Wechsel aber bereits stattgefunden und der Arbeitsvertrag ist aufgelöst, gelten für ehemalige Mitarbeitende die gleichen Regeln wie für Personalverantwortliche. Falls Sie sich nicht an die genannten Regeln halten, verhalten Sie sich wettbewerbswidrig. Das kann rechtliche Konsequenzen haben. Werden Sie von der Konkurrenz oder dem Talent, das Sie eigentlich für sich gewinnen wollten, gemeldet, kann es zu einer Unterlassungsklage kommen. Werben Sie ein Talent auf illegalem Wege ab, können Sie zudem auf Schadensersatz verklagt werden. Im Fall der Fälle kann auch ein zeitlich begrenztes Beschäftigungsverbot für den neuen Mitarbeiter oder die neue Mitarbeiterin verhängt werden. Mitarbeiter legal abwerben: In 5 Schritten zum ErfolgKonzentrieren Sie sich also lieber auf die legalen Methoden des Abwerbens; diese bergen ohnehin den Vorteil, dass Sie die frisch gewonnenen Talente langfristig an Ihr Unternehmen binden. Doch wie gehen Sie dabei am besten vor? Die folgenden fünf Schritte versprechen ein erfolgreiches Abwerben. 1. Gelungenes Employer Branding Wollen Sie ein Talent von der Arbeit in Ihrem Unternehmen überzeugen, sollten Sie zuerst eine attraktive Arbeitgebermarke schaffen. Dazu müssen Sie wissen, was Ihr Unternehmen ausmacht. Welche Werte werden vertreten? Welche Kultur wird in Ihrer Organisation gelebt? Haben Sie diese Fragen beantwortet, sollten Sie sich entsprechend positionieren und Ihre Unternehmensbotschaften über Ihre Website, Social-Media-Kanäle, Newsletter und weitere firmeneigene Kanäle kommunizieren. Auch die Pflege bekannter Bewertungsportale für Arbeitgeber wie kununu oder Glassdoor sollte im Employer Branding einen entscheidenden Platz einnehmen. Zuletzt können Ihre Mitarbeitenden einen echten Unterschied machen, indem sie ihre persönlichen Erfahrungen mit dem Rest der Welt teilen. Als sogenannte Corporate Influencer können sie beispielsweise Einblicke in ihren Arbeitsalltag und das Miteinander im Team geben. 2. Kontaktaufnahme Haben Sie ein Talent gefunden, das auf Ihr Stellenprofil passt, sollten Sie mit einer ersten Kontaktaufnahme starten. Hierbei ist es jedoch entscheidend, dass Sie das Thema Datenschutz nicht außer Acht lassen. Die DSGVO erlaubt nämlich nur, dass Sie öffentlich zugängliche Kontaktinformationen oder -möglichkeiten nutzen – wie beispielsweise ein öffentliches Profil in einem Karrierenetzwerk oder einem Fachportal. Haben Sie mit einer Nachricht, beispielsweise über LinkedIn, den Kontakt aufgenommen und eine Telefonnummer oder eine Mailadresse erhalten, müssen Sie das Talent über die Verarbeitung dieser Daten informieren und sich seine Einwilligung einholen. Der Kandidat oder die Kandidatin muss zu jeder Zeit die Option haben, seine oder ihre Daten einzusehen, diese ändern oder löschen zu lassen. Kurz gesagt: Die DSGVO und ihre Stolpersteine führen dazu, dass vermehrt Headhunter zum Abwerben eingesetzt werden – denn diese haben durch ihr großes Netzwerk und professionelle Tools oft deutlich mehr Gestaltungsspielraum bei der Kaltakquise. Sitzen Sie beim Thema Datenschutz jedoch fest im Sattel und entscheiden sich für eine direkte Kontaktaufnahme, treten Sie dabei verbindlich, aber höflich zurückhaltend auf. In keinem Fall sollte sich Ihr Gegenüber bedrängt oder belästigt fühlen. 3. Attraktive Arbeitsbedingungen Um Ihre Konkurrenz auszustechen, sollten Sie attraktivere Arbeitsbedingungen als Ihre Wettbewerber bieten. Dazu gehören zum einen moderne Strukturen und damit die Möglichkeit, remote zu arbeiten und sich die Arbeitszeiten flexibel einzuteilen. Darüber hinaus können Sie natürlich mit großzügigen Benefits und einem überdurchschnittlichen Gehalt punkten. Gerade für IT-Fachkräfte ist auch die technische Ausstattung im Unternehmen ein entscheidender Faktor. Außerdem sind viele an der Arbeit in interdisziplinären Teams interessiert – das stärkt den Zusammenhalt innerhalb der Belegschaft und verleiht außerdem jeder Position eine besondere Rolle. 4. Onboarding angenehm gestalten Konnten Sie das Talent von Ihrem Unternehmen überzeugen, gilt es, potenzielle Hindernisse abzubauen, die einem Wechsel im Wege stehen könnten. Dazu zählen zum einen formale Hürden wie das Einreichen eines Motivationsschreibens. Sie kennen den Lebenslauf und die Qualifikationen der Fachkraft, zusätzlich haben Sie sie in Gesprächen kennengelernt. Alle wichtigen Fragen sollten dabei beantwortet worden sein. Auch auf fachlicher Ebene sollten Sie Bedenken aus dem Weg räumen. Beschreiben Sie dem Kandidaten oder der Kandidatin, wie das Onboarding ablaufen wird und wie Sie eventuelle fachliche Lücken schließen möchten. Nicht zuletzt kann auch das soziale Umfeld eine Hürde für den Wechsel darstellen. Stellen Sie deshalb sicher, dass sich Ihr bestehendes Team auf den Neuzugang freut und dass das neue Mitglied schnell Anschluss findet – beispielsweise mit Hilfe von Teamevents oder einem Mentorenprogramm innerhalb der ersten Wochen. 5. Maßnahmen zur Mitarbeiterzufriedenheit Dieser letzte Schritt lohnt sich in doppelter Hinsicht: Zum einen binden Sie die frisch gewonnenen Talente an Ihr Unternehmen, zum anderen stärken Sie natürlich Ihre Arbeitgebermarke und stellen die Weichen für zukünftige Erfolge beim Abwerben. Um die Zufriedenheit Ihrer Mitarbeitenden zu steigern, ist vor allem Kommunikation gefragt. Dazu gehört es, sich regelmäßig Feedback einzuholen und daran die Employee Experience zu messen. Also: Wie positiv oder negativ sind die Erlebnisse und Erfahrungen, die Ihre Angestellten an ihrem Arbeitsplatz sammeln? Auch in Zeiten von Hybrid oder Remote Work sollten sich alle zugehörig und nicht isoliert fühlen. Genauso wichtig ist auch die Wertschätzung. Geben Sie Ihren Angestellten das Gefühl, dass ihre erbrachte Leistung gesehen wird. Geäußerte Wünsche und Bedürfnisse sollten in die Planung künftiger Projekte mit einbezogen werden. Schenken Sie Ihrem Team Vertrauen und Freiheiten in der Prozessgestaltung sowie die Möglichkeit zur Weiterbildung. (pg/fm)Wie Unternehmen ihr Recruiting weiter optimierenTipps zur Fachkräfte- und Talentsuche
Foto: Gajus – shutterstock.comUngeachtet der Auswirkungen der COVID-19-Pandemie sind Fachkräfte und Talente weiter stark gesucht, insbesondere in der IT-Branche. BEST RECUITERS gibt Tipps, wie Unternehmen ihr Recruitment sowie ihre Talentsuche zusätzlich pushen können. Wie du mir, so ich dir
Foto: fizkes – shutterstock.comHinterfragen sie kritisch, welche Anforderungen Sie an Bewerber richten – speziell was die Soft Skills anbelangt – und ob Ihre Candidate Journey diese auch widerspiegelt. Wenn Sie also flexible Mitarbeiter suchen: Bieten Sie selbst eben diese Flexibilität im Recruiting-Prozess, zum Beispiel indem Sie mehrere Bewerbungskanäle zur Wahl stellen? Tagesaktuelle Informationenn
Foto: Dmitry Demidovich – shutterstock.comRecruiting-Prozesse sind nicht zuletzt aufgrund von Corona digitaler geworden. Informieren Sie Kandidaten über die Veränderungen in Ihrem Unternehmen, beispielsweise welche Software im virtuellen Erstrunden-Interview zum Einsatz kommt oder wie (teil-)digitales Onboarding bei Ihnen gelebt wird. Denken Sie auch an entsprechende Tipps, damit Bewerber sich optimal vorbereiten können. Vertrauen schaffen
Foto: Olga Danylenko – shutterstock.comJobsuchende erhoffen sich heute eines mehr denn je: Sicherheit. Holen Sie sie ab, indem Sie zeigen, wie Sie Ihren Mitarbeitern Vertrauen entgegenbringen, zum Beispiel durch Vertrauensarbeitszeit oder auch Lohntransparenz in Stellenanzeigen. Erfahrungen aus erster Hand
Foto: dizain – shutterstock.comLaden Sie Mitarbeiter ein, auf der Karriere-Website und in anderen Recruiting-Kanälen zu erzählen, wie sie die letzte Zeit mit Ihnen als Arbeitgeber erlebt haben. Von IT-Profi zu IT-Profi
Foto: Photographee.eu – shutterstock.comViele IT-Spezialisten wünschen sich schon vor einem Bewerbungsprozess den Kontakt zum Fachbereich. Im Rahmen digitaler Events gelingt dieser Austausch mit potenziellen Kollegen unkompliziert und ohne großen zeitlichen Aufwand für Ihre IT-Abteilung.

Mitarbeiter (legal) abwerben: 5 Tipps für den War for Talents​ Weiterlesen »

Digitale Souveränität: Geht es auch ohne AWS und Co.?​

Allgemein

Sollte die EU mit Gegenzöllen auf digitale Services reagieren, wird es für deutsche Unternehmen teuer. Zu groß ist die Abhängigkeit von den US-Hyperscalern. GAlexS – shutterstock.com Was passiert, wenn die US-Cloud-Dienste morgen wegfallen? Weil etwa die EU auf die US-Strafzölle mit Gegenzöllen auf digitale Dienstleistungen reagiert. Cloud-Dienste wie AWS, Microsoft Azure oder Google Cloud könnten drastisch teurer oder regulatorisch eingeschränkt werden. Diese Frage hat sich Tobias von der Heydt, Geschäftsführer von Prior1, einem auf die Planung und den Bau von Serverräumen und Rechenzentren spezialisierten Unternehmen, gestellt. Und er kommt zu einem vernichtenden Ergebnis: Der plötzliche Verlust oder die Verteuerung zentraler Cloud-Infrastrukturen würde Deutschland ins Mark treffen. So digital verwundbar ist Deutschland Tobias von der Heydt, Geschäftsführer von Prior1, geht der Frage nach, wie es um Deutschlands digitale Souveränität bestellt ist. Prior 1 Was das für Deutschland konkret bedeutet, veranschaulicht der Geschäftsführer an zwei Zahlenbeispielen: Es müssten 1.200 MW zusätzliche RZ-Leistung gebaut werden und es würden 40 Exabyte Speicher fehlen. Um diese Lücken zu schließen, wären Milliarden-Investitionen erforderlich. Von der erforderlichen Zeit im überbürokratisierten Deutschland – in dem Genehmigungszeiten von fünf Jahren schon als schnell gelten – noch gar nicht geredet. Doch auf dem Weg zur digitalen Souveränität hakt es in Deutschland noch an mehr Ecken, wie von der Heydt analysiert hat. So ist Frankfurt mit über 1.050 MW installierter IT-Leistung zwar Europas führender Rechenzentrumsstandort und blickt auf  eine Wachstumspipeline von bis zu 1,3 GW. Doch das Wachstum stößt an Grenzen: 82 Prozent der Netzanschlusskapazitäten sind bereits ausgelastet, neue Projekte benötigen Direktanschlüsse ans Übertragungsnetz. Dabei dauern Stromanschlüsse in Frankfurt laut McKinsey oft drei bis fünf Jahre – ein erheblicher Wachstumsengpass. Die US-Dominanz Fast 72 Prozent der europäischen Cloud-Kapazitäten stellen die US-Hyperscaler bereit. Caureem – shutterstock.com Die US-Anbieter kontrollieren 65 bis 72 Prozent der europäischen Cloud-Kapazitäten. Zudem stellen sie 85 Prozent der GPU-Kapazitäten für KI-Anwendungen bereit. Damit sind sie ein zentraler Faktor für datengetriebene Dienste. Die Hyperscaler AWS, Microsoft und Google betreiben allein in Deutschland mehr Infrastruktur als alle europäischen Anbieter zusammen. Deutschlands RZ-Landschaft In Deutschland sind rund 2.000 Rechenzentren mit mindestens 50 kW IT-Leistung aktiv. Die größten Cluster befinden sich in Frankfurt, Berlin, München, dem Rheinland und Hamburg. Außerhalb dieser Hotspots fehlt es häufig an der Energieinfrastruktur, was den Ausbau neuer Standorte verzögert. Das fehlt zur digitalen Autarkie Ohne die US-Clouds müsste Deutschland kurzfristig rund 1.200 Megawatt zusätzliche IT-Anschlussleistung kompensieren. Das entspricht rund 40 Prozent der aktuellen Gesamtkapazität von 2.700 Megawatt, die vor allem in Frankfurt, Berlin und dem Rheinland konzentriert ist. Um digital autark zu werden, müsste Deutschland 1.200 MW an Rechenleistung neu bauen. Lukasz Pawel Szczepanski – shutterstock.com Auch beim Speicherbedarf klafft eine enorme Lücke: Laut Borderstep Institute und AWS würde ein Wegfall der US-Hyperscaler eine Versorgungslücke von mindestens 40 Exabyte hinterlassen – vor allem bei datenintensiven Cloud- und KI-Anwendungen. Europäische Anbieter könnten diese Kapazitäten kurzfristig nicht bereitstellen. Hinzu kommt: Der Ausbau neuer Rechenzentren wird durch langwierige Genehmigungen, fehlende Energieinfrastruktur und Flächenengpässe massiv behindert. Fehlende Cloud-Dienste Noch gravierender wäre bei einem Zollstreit um digitale Services der Ausfall spezialisierter Dienste: Rund 80 bis 90 Prozent der KI-Recheninfrastruktur in Deutschland – insbesondere GPU-Cluster für Machine Learning – entfallen auf US-Hyperscaler wie AWS, Microsoft Azure und Google Cloud. Europa verfügt laut Geopolitique.eu lediglich über vier Prozent der globalen KI-Kapazitäten. 70 Prozent liegen dagegen in den USA – davon 80 Prozent in den Händen amerikanischer Hyperscaler. Auch die meisten KI-Anwendungen deutscher Unternehmen basieren auf US-Diensten. Noch deutlicher ist die Abhängigkeit im High-Performance-Computing: Zwei Drittel der HPC-Dienste für Industrie und Forschung in Deutschland laufen über Azure und AWS. Abhängige KRITIS Der schnelle RZ-Ausbau scheitert hierzulande auch an der Energieversorgung. Alexey Krav – shutterstock.com Energieversorgung, Gesundheitswesen, Finanzsektor, öffentliche Verwaltung und Industrie sind in hohem Maße auf US-Cloud-Infrastrukturen angewiesen – etwa für Smart Grids, digitale Gesundheitsanwendungen, Zahlungssysteme oder Verwaltungsdatenbanken. Laut dem Atlantic Council nutzen zentrale Sektoren wie Energie, Gesundheit und Finanzen cloudbasierte Systeme zur Steuerung kritischer Prozesse. Im Energiesektor etwa basieren Smart Grids auf cloudgestützten Plattformen für Netzüberwachung und Lastmanagement. Der Ausfall solcher Dienste hätte unmittelbare Folgen: Laut CyberTheory drohen binnen Stunden massive Störungen – etwa durch den Ausfall cloudbasierter Zahlungssysteme wie TARGET2 im Finanzbereich oder die Instabilität intelligenter Stromnetze. Die Erfahrung eines globalen IT-Ausfalls 2024 zeigt: Bereits temporäre Unterbrechungen führen zu Produktionsstopps, Flugausfällen und geschlossenen Supermärkten. Auch die öffentliche Verwaltung wäre betroffen: Trotz Projekten wie der Deutschen Verwaltungscloud liegen viele Daten weiter in Public Clouds. Digitale Katasterämter oder Steuerdatenbanken laufen oft auf US-Infrastruktur – der Exit ist technisch und organisatorisch komplex. Was tun? Theoretische Kapazitätslücken sind laut von der Heydt das eine – die Frage, wie schnell und unter welchen Bedingungen sie realistisch geschlossen werden könnten, sei dagegen weit komplexer. Der Neubau eines hochverfügbaren Rechenzentrums dauert in Deutschland, so rechnet der Geschäftsführer vor, im Schnitt 18 bis 24 Monate – vom Grundstückskauf über Genehmigungen bis zur Inbetriebnahme. Im Notfall ließen sich modulare Containerlösungen innerhalb von sechs bis neun Monaten errichten. Diese eigneten sich jedoch eher für kleinere Edge-Lösungen. Fehlende Ressourcen Doch auch an anderer Stelle mangelt es in Deutschland. So fehlen aktuell rund 149.000 IT-Fachkräfte – bis 2040 dürfte diese Lücke auf über 660.000 anwachsen, wenn nicht gegengesteuert wird. Der Aufbau neuer RZ-Kapazitäten scheitert zudem laut von der Heydt oft an der Verfügbarkeit von Transformatoren, Notstrom-Anlagen und Spezialkühlung – viele dieser Komponenten unterliegen internationalen Lieferketten mit mehrmonatigen Vorlaufzeiten. Milliarden Investitionsbedarf Die Errichtung zusätzlicher 1.200 MW IT-Kapazität würde – je nach Standort, baulicher Ausführung und technischer Ausstattung – Investitionen zwischen 14,4 und 24 Milliarden Euro erfordern. Colocation-Rechenzentren liegen aktuell bei durchschnittlich 12 Millionen Euro pro Megawatt. Hochspezialisierte Hyperscale-Zentren mit AI-Fokus können bis zu 20 Millionen Euro pro Megawatt kosten. Politik gefordert Angesichts dieser Herausforderungen sieht von der Heydt die Politik gefordert: Sie müsse die digitale Souveränität zur Priorität machen. Dazu gehört für ihn eine rechtliche Einstufung von Rechenzentren als kritische Infrastruktur ebenso wie ein beschleunigter Regulierungsrahmen für Planung und Bau. Stufenplan entwerfen Ferne sei digitale Souveränität kein binärer Zustand, sondern ein strategisches Ziel mit Zwischenschritten. Kurzfristig gelte es, kritische Abhängigkeiten transparent zu machen und durch Multi-Cloud-Strategien, Notfallpläne und gezielte Migration zu entschärfen. Mittelfristig müssen für von der Heydt Rechenzentrums- und Cloud-Kapazitäten europaweit verdichtet und gezielt gefördert werden – etwa durch beschleunigte Genehmigungen, strategische Netzausbauprojekte und eine engere Verzahnung von Industrie, Staat und Energieversorgern. Langfristig brauche Europa eine eigene, skalierbare Daten- und KI-Infrastruktur – technologisch souverän, regulatorisch abgesichert, geopolitisch resilient. Resilienz ist kein Luxus An die Unternehmen appelliert der Geschäftsführer, auch mit dem Ausfall der digitalen Systeme zu kalkulieren. Zudem sollten sie ihre Abhängigkeiten von US-Anbietern offenlegen, bewerten und gezielt reduzieren. Lösungen hierzu könnten etwa Multi-Cloud-Strategien, die Migration kritischer Systeme zu europäischen Providern und Notfallpläne für Rechenzentrums- und Cloud-Ausfälle sein. Unter dem Strich müsse die IT-Diversifikation in Entwicklung, Hosting und Beschaffung nicht nur als Sicherheitsfaktor, sondern auch als strategischer Wettbewerbsvorteil begriffen werden. 

Digitale Souveränität: Geht es auch ohne AWS und Co.?​ Sollte die EU mit Gegenzöllen auf digitale Services reagieren, wird es für deutsche Unternehmen teuer. Zu groß ist die Abhängigkeit von den US-Hyperscalern.
GAlexS – shutterstock.com

Was passiert, wenn die US-Cloud-Dienste morgen wegfallen? Weil etwa die EU auf die US-Strafzölle mit Gegenzöllen auf digitale Dienstleistungen reagiert. Cloud-Dienste wie AWS, Microsoft Azure oder Google Cloud könnten drastisch teurer oder regulatorisch eingeschränkt werden.

Diese Frage hat sich Tobias von der Heydt, Geschäftsführer von Prior1, einem auf die Planung und den Bau von Serverräumen und Rechenzentren spezialisierten Unternehmen, gestellt. Und er kommt zu einem vernichtenden Ergebnis: Der plötzliche Verlust oder die Verteuerung zentraler Cloud-Infrastrukturen würde Deutschland ins Mark treffen.

So digital verwundbar ist Deutschland

Tobias von der Heydt, Geschäftsführer von Prior1, geht der Frage nach, wie es um Deutschlands digitale Souveränität bestellt ist.
Prior 1

Was das für Deutschland konkret bedeutet, veranschaulicht der Geschäftsführer an zwei Zahlenbeispielen: Es müssten 1.200 MW zusätzliche RZ-Leistung gebaut werden und es würden 40 Exabyte Speicher fehlen. Um diese Lücken zu schließen, wären Milliarden-Investitionen erforderlich. Von der erforderlichen Zeit im überbürokratisierten Deutschland – in dem Genehmigungszeiten von fünf Jahren schon als schnell gelten – noch gar nicht geredet.

Doch auf dem Weg zur digitalen Souveränität hakt es in Deutschland noch an mehr Ecken, wie von der Heydt analysiert hat. So ist Frankfurt mit über 1.050 MW installierter IT-Leistung zwar Europas führender Rechenzentrumsstandort und blickt auf  eine Wachstumspipeline von bis zu 1,3 GW. Doch das Wachstum stößt an Grenzen: 82 Prozent der Netzanschlusskapazitäten sind bereits ausgelastet, neue Projekte benötigen Direktanschlüsse ans Übertragungsnetz. Dabei dauern Stromanschlüsse in Frankfurt laut McKinsey oft drei bis fünf Jahre – ein erheblicher Wachstumsengpass.

Die US-Dominanz

Fast 72 Prozent der europäischen Cloud-Kapazitäten stellen die US-Hyperscaler bereit.
Caureem – shutterstock.com

Die US-Anbieter kontrollieren 65 bis 72 Prozent der europäischen Cloud-Kapazitäten. Zudem stellen sie 85 Prozent der GPU-Kapazitäten für KI-Anwendungen bereit. Damit sind sie ein zentraler Faktor für datengetriebene Dienste. Die Hyperscaler AWS, Microsoft und Google betreiben allein in Deutschland mehr Infrastruktur als alle europäischen Anbieter zusammen.

Deutschlands RZ-Landschaft

In Deutschland sind rund 2.000 Rechenzentren mit mindestens 50 kW IT-Leistung aktiv. Die größten Cluster befinden sich in Frankfurt, Berlin, München, dem Rheinland und Hamburg. Außerhalb dieser Hotspots fehlt es häufig an der Energieinfrastruktur, was den Ausbau neuer Standorte verzögert.

Das fehlt zur digitalen Autarkie

Ohne die US-Clouds müsste Deutschland kurzfristig rund 1.200 Megawatt zusätzliche IT-Anschlussleistung kompensieren. Das entspricht rund 40 Prozent der aktuellen Gesamtkapazität von 2.700 Megawatt, die vor allem in Frankfurt, Berlin und dem Rheinland konzentriert ist.

Um digital autark zu werden, müsste Deutschland 1.200 MW an Rechenleistung neu bauen.
Lukasz Pawel Szczepanski – shutterstock.com

Auch beim Speicherbedarf klafft eine enorme Lücke: Laut Borderstep Institute und AWS würde ein Wegfall der US-Hyperscaler eine Versorgungslücke von mindestens 40 Exabyte hinterlassen – vor allem bei datenintensiven Cloud- und KI-Anwendungen. Europäische Anbieter könnten diese Kapazitäten kurzfristig nicht bereitstellen. Hinzu kommt: Der Ausbau neuer Rechenzentren wird durch langwierige Genehmigungen, fehlende Energieinfrastruktur und Flächenengpässe massiv behindert.

Fehlende Cloud-Dienste

Noch gravierender wäre bei einem Zollstreit um digitale Services der Ausfall spezialisierter Dienste: Rund 80 bis 90 Prozent der KI-Recheninfrastruktur in Deutschland – insbesondere GPU-Cluster für Machine Learning – entfallen auf US-Hyperscaler wie AWS, Microsoft Azure und Google Cloud. Europa verfügt laut Geopolitique.eu lediglich über vier Prozent der globalen KI-Kapazitäten.

70 Prozent liegen dagegen in den USA – davon 80 Prozent in den Händen amerikanischer Hyperscaler. Auch die meisten KI-Anwendungen deutscher Unternehmen basieren auf US-Diensten. Noch deutlicher ist die Abhängigkeit im High-Performance-Computing: Zwei Drittel der HPC-Dienste für Industrie und Forschung in Deutschland laufen über Azure und AWS.

Abhängige KRITIS

Der schnelle RZ-Ausbau scheitert hierzulande auch an der Energieversorgung.
Alexey Krav – shutterstock.com

Energieversorgung, Gesundheitswesen, Finanzsektor, öffentliche Verwaltung und Industrie sind in hohem Maße auf US-Cloud-Infrastrukturen angewiesen – etwa für Smart Grids, digitale Gesundheitsanwendungen, Zahlungssysteme oder Verwaltungsdatenbanken. Laut dem Atlantic Council nutzen zentrale Sektoren wie Energie, Gesundheit und Finanzen cloudbasierte Systeme zur Steuerung kritischer Prozesse. Im Energiesektor etwa basieren Smart Grids auf cloudgestützten Plattformen für Netzüberwachung und Lastmanagement.

Der Ausfall solcher Dienste hätte unmittelbare Folgen: Laut CyberTheory drohen binnen Stunden massive Störungen – etwa durch den Ausfall cloudbasierter Zahlungssysteme wie TARGET2 im Finanzbereich oder die Instabilität intelligenter Stromnetze. Die Erfahrung eines globalen IT-Ausfalls 2024 zeigt: Bereits temporäre Unterbrechungen führen zu Produktionsstopps, Flugausfällen und geschlossenen Supermärkten.

Auch die öffentliche Verwaltung wäre betroffen: Trotz Projekten wie der Deutschen Verwaltungscloud liegen viele Daten weiter in Public Clouds. Digitale Katasterämter oder Steuerdatenbanken laufen oft auf US-Infrastruktur – der Exit ist technisch und organisatorisch komplex.

Was tun?

Theoretische Kapazitätslücken sind laut von der Heydt das eine – die Frage, wie schnell und unter welchen Bedingungen sie realistisch geschlossen werden könnten, sei dagegen weit komplexer. Der Neubau eines hochverfügbaren Rechenzentrums dauert in Deutschland, so rechnet der Geschäftsführer vor, im Schnitt 18 bis 24 Monate – vom Grundstückskauf über Genehmigungen bis zur Inbetriebnahme.

Im Notfall ließen sich modulare Containerlösungen innerhalb von sechs bis neun Monaten errichten. Diese eigneten sich jedoch eher für kleinere Edge-Lösungen.

Fehlende Ressourcen

Doch auch an anderer Stelle mangelt es in Deutschland. So fehlen aktuell rund 149.000 IT-Fachkräfte – bis 2040 dürfte diese Lücke auf über 660.000 anwachsen, wenn nicht gegengesteuert wird.

Der Aufbau neuer RZ-Kapazitäten scheitert zudem laut von der Heydt oft an der Verfügbarkeit von Transformatoren, Notstrom-Anlagen und Spezialkühlung – viele dieser Komponenten unterliegen internationalen Lieferketten mit mehrmonatigen Vorlaufzeiten.

Milliarden Investitionsbedarf

Die Errichtung zusätzlicher 1.200 MW IT-Kapazität würde – je nach Standort, baulicher Ausführung und technischer Ausstattung – Investitionen zwischen 14,4 und 24 Milliarden Euro erfordern. Colocation-Rechenzentren liegen aktuell bei durchschnittlich 12 Millionen Euro pro Megawatt. Hochspezialisierte Hyperscale-Zentren mit AI-Fokus können bis zu 20 Millionen Euro pro Megawatt kosten.

Politik gefordert

Angesichts dieser Herausforderungen sieht von der Heydt die Politik gefordert: Sie müsse die digitale Souveränität zur Priorität machen. Dazu gehört für ihn eine rechtliche Einstufung von Rechenzentren als kritische Infrastruktur ebenso wie ein beschleunigter Regulierungsrahmen für Planung und Bau.

Stufenplan entwerfen

Ferne sei digitale Souveränität kein binärer Zustand, sondern ein strategisches Ziel mit Zwischenschritten. Kurzfristig gelte es, kritische Abhängigkeiten transparent zu machen und durch Multi-Cloud-Strategien, Notfallpläne und gezielte Migration zu entschärfen. Mittelfristig müssen für von der Heydt Rechenzentrums- und Cloud-Kapazitäten europaweit verdichtet und gezielt gefördert werden – etwa durch beschleunigte Genehmigungen, strategische Netzausbauprojekte und eine engere Verzahnung von Industrie, Staat und Energieversorgern. Langfristig brauche Europa eine eigene, skalierbare Daten- und KI-Infrastruktur – technologisch souverän, regulatorisch abgesichert, geopolitisch resilient.

Resilienz ist kein Luxus

An die Unternehmen appelliert der Geschäftsführer, auch mit dem Ausfall der digitalen Systeme zu kalkulieren. Zudem sollten sie ihre Abhängigkeiten von US-Anbietern offenlegen, bewerten und gezielt reduzieren. Lösungen hierzu könnten etwa Multi-Cloud-Strategien, die Migration kritischer Systeme zu europäischen Providern und Notfallpläne für Rechenzentrums- und Cloud-Ausfälle sein. Unter dem Strich müsse die IT-Diversifikation in Entwicklung, Hosting und Beschaffung nicht nur als Sicherheitsfaktor, sondern auch als strategischer Wettbewerbsvorteil begriffen werden.

Digitale Souveränität: Geht es auch ohne AWS und Co.?​ Weiterlesen »

4 KI-Chat-Tools im Vergleichstest​

Allgemein

NotebookLM vs. ChatGPT vs. Claude vs. Perplexity – wer ist Chatbot-König?Vnwhy | shutterstock.com Informationen zu finden und zusammenzufassen ist zugegebenermaßen nicht der reizvollste Generative-AI (GenAI)-Task – in bestimmten Situationen aber höchst praktisch und nützlich. Etwa, wenn Sie einen bestimmten Social-Media-Post wiederfinden oder die Antwort auf eine einfache Frage bekommen wollen – ohne sich dazu vorher durch Endlos-Feeds zu scrollen, beziehungsweise ein Softwarehandbuch durchzuackern.   Um große Sprachmodelle (LLMs) mit Daten zu füttern und sie anschließend zu diesen zu befragen, gibt es diverse Möglichkeiten. Die simpelste, weil Coding-freie: einen Web-basierten Service wie NotebookLM, ChatGPT Projects, Claude Projects oder Perplexity Spaces zu nutzen. Diesen vier GenAI-Diensten haben wir im Rahmen eines Vergleichstests vier verschiedene Beispielaufgaben gestellt. Dabei ging es darum: Informationen aus einer Softwaredokumentation zu extrahieren, nach Beiträgen auf LinkedIn zu suchen, eine Variablen-ID für ein bestimmtes Thema zu ermitteln, und Daten zu IT-Fachkonferenzen abzurufen. Die getesteten KI-Chatplattformen Bevor wir auf die konkreten Testergebnisse eingehen – und darauf, welches Tool am besten abgeschnitten hat – die getesteten Generative-AI-Dienste inklusive ihrer wichtigsten Eigenschaften im Überblick: 1. NotebookLM Der Google-Service NotebookLM: steht kostenlos zur Verfügung. erfordert keine speziellen Prompts, um hochgeladene Informationen gezielt zu durchsuchen. liefert standardmäßig Antworten mit Angaben zu den Quellen, aus denen sie generiert wurden. akzeptiert URLs als Quellen. verspricht, Chats und Daten nicht dazu zu nutzen, seine Modelle zu trainieren. 2. ChatGPT Projects Der OpenAI-Service ChatGPT Projects: steht ausschließlich Benutzern mit Abonnement zur Verfügung. sammelt Chats, Dateien und benutzerdefinierte Instruktionen an einem zentralen Ort. braucht spezifische Anweisungen, um Quellenangaben zu Antworten zu liefern. liefert dafür aber übersichtliche Ergebnisse mit ansprechender Formatierung.  lässt sich entsprechend konfigurieren, um zu verhindern, dass eingegebene Daten genutzt werden, um KI-Modelle zu trainieren. 3. Claude Projects Anthropics Chat-Service auf Claude-Basis: ist ausschließlich für Nutzer mit Abo verfügbar. setzt im Vergleich zur Konkurrenz engere Grenzen für Kontextfenster.   kann mit GitHub-Konten integriert werden. akzeptiert ausschließlich GitHub und Google Docs als Onlinequellen. nutzt Chats und Daten standardmäßig nicht zum KI-Modelltraining. 4. Perplexity Spaces Der KI-Chat-Service von Perplexity: steht auch kostenlos zur Verfügung. akzeptiert nicht nur URLs, sondern auch Domains als Quellen. eignet sich besonders gut für Websuchen. erfordert ein zahlungspflichtiges Abo, um eigene Daten hochzuladen. kann so konfiguriert werden, dass hochgeladene Daten nicht zum Modelltraining genutzt werden. Der Chatbot-Test – Tasks & Ergebnisse Bevor wir die Resultate im Einzelnen erörtern, hier die gestellten Aufgaben und Testergebnisse im Überblick: AufgabeNotebookLMChatGPT ProjectsClaude ProjectsPerplexity SpacesEinfache Dokumentensuche1110,5Social-Media-Suche10,510Variablen-ID bestimmen1101Konferenz finden0,510,51Konferenz-Sessions finden110,50Gesamtergebnis4,54,532,5 1 = korrekte Anwort; 0,5 = teilweise korrekt; 0 = nicht korrekt oder keine Antwort; 1. Einfache Dokumentensuche Frage: „Wie kann man am einfachsten überflüssige Leerzeichen in einem Text entfernen?“ Informationsquelle: Die Dokumentation des stringr-Packages für die Programmiersprache R. Dieses enthält eine praktische str_squish()-Funktion, um überflüssige Leerzeichen zu löschen. Ergebnisse: Claude, NotebookLM und ChatGPT lieferten mit str_squish() die korrekte Antwort. Perplexity ging hingegen davon aus, dass lediglich Leerzeichen am Anfang und am Ende des Textes interessant sind. Erst nach einer Anschlussfrage kam auch dieser Service auf die korrekte Antwort. 2. Social-Media-Suche Frage: „Mir hat ein Computerworld-Artikel zum Thema LLMs vom Autor Lucas Mearian sehr gut gefallen. Liefere mir die Einzelheiten zu diesem Artikel auf Grundlage meiner LinkedIn-Beiträge der letzten zwei Jahre.” Informationsquelle: LinkedIn-Posts über den Zeitraum von zwei Jahren. Ergebnisse: NotebookLM und Claude haben mit ihren Antworten ins Schwarze getroffen und jeweils zwei Posts angeboten, von denen einer der gesuchte war. ChatGPT lieferte hingegen einen thematisch verwandten Artikel, aber nicht den gesuchten. Perplexity konnte keinen Artikel liefern und behauptete, dass kein entsprechender Beitrag im Rahmen von LinkedIn-Posts erwähnt wurde.  3. Variablen-ID bestimmen Frage: „Welche Variable eignet sich am besten, um Informationen über den Prozentsatz der Arbeitnehmer zu finden, die von zu Hause aus arbeiten?“ Informationsquelle: Viele (US-)Unternehmen nutzen die American Community Survey (ACS) des Census Bureau, um an demografische Daten zu kommen. Dabei diejenigen Datenvariablen zu bestimmen, die die gewünschten Informationen enthalten, kann diffizil ausfallen. Deshalb haben wir mehrere Listen von ACS-Tabellenvariablen-IDs heruntergeladen und gefiltert (weil einige Listen zu umfangreich waren). Diese haben wir mit einer allgemeinen Erklärung der ACS-Tabellen von der Website des Census Bureau kombiniert. Da nicht alle getesteten Plattformen .csv-Dateien in Projekten akzeptieren, haben wir die Daten als tabulatorgetrennte .txt-Dateien gespeichert. Ergebnisse: Kyle Walker, Autor des tidycensus R-Pakets, hat in einem seiner Beispiele die Variable „DP03_0024P“ verwendet. Das wäre entsprechend die korrekte Antwort gewesen. NotebookLM, ChatGPT und Perplexity lieferten hier verwertbare Ergebnisse (ChatGPT und Perplexity fanden beide sogar noch zusätzliche Variablen, die die Vorgaben erfüllt haben). Claude konnte bei dieser Aufgabe hingegen nicht mithalten, da die .txt-Dateien das „Project Knowledge“-Limit überschritten.   4.  Konferenz(-Sessions) finden Frage 1: „Suche nach Events, bei denen es um das Thema künstliche Intelligenz geht. Der Zielort sollte von Boston aus innerhalb von zwei Stunden per Flugzeug zu erreichen sein.“ Informationsquelle: Der Global Events Calendar (PDF) von IDG. Ergebnisse: Die vollständige und korrekte Antwort beinhaltet zwei „FutureIT“-Veranstaltungen in New York und Toronto. Eine mögliche dritte Option wäre ein Event in Nashville gewesen, dessen Flugzeit die Vorgabe nur leicht übersteigt. ChatGPT konnte bei diesem Task sowohl mit seinem o3-mini-High-, als auch mit dem 4o-Modell punkten und die ersten beiden Events als Ergebnis liefern. Auch Perplexity gab diese beiden Events zurück und schlug einen zusätzlichen vor – inklusive Hinweis, dass es mit der anvisierten Flugzeit von zwei Stunden in diesem Fall nicht klappt. NotebookLM lieferte zwar die eingangs genannte, dritte Option in Nashville und den Event in New York als Ergebnis – ließ jedoch die Veranstaltung in Toronto außen vor. Claude lieferte mit seinem älteren Modell Sonnet 3.5 ebenfalls die beiden erwarteten Veranstaltungen als Ergebnis – und schlug noch einige andere außerhalb der definierten Entfernung vor (allerdings nicht die in Nashville). Mit Sonnet 3.7 und der Option „Extended Reasoning“ lieferte der Anthropic-Service schließlich bessere Resultate in Form der Events in New York und Toronto. Frage 2: „Identifiziere sämtliche Sessions auf der NICAR-Konferenz, die sich an Personen richten, die bereits Erfahrung mit Tabellenkalkulationen haben, aber ihre Fähigkeiten verbessern möchten.“ Datenquelle: Eine Textdatei mit der vollständigen Agenda der NICA-Konferenz für Datenjournalismus. Ergebnisse: NotebookLM lieferte bei dieser Aufgabe mehr als ein Dutzend interessanter Vorschläge zu Google Sheets, Excel und Airtable, die (bis auf eine Ausnahme) relevant waren. Auch ChatGPT konnte überzeugen und hat mehr als 12 interessante Sessions zum Thema vorgeschlagen – nach Datum und Uhrzeit sortiert und ansprechend formatiert. Claude konnte zwar nicht mithalten, was die Zahl der Vorschläge angeht – dafür waren alle Ergebnisse relevant. Perplexity enttäuschte hingegen mit lediglich drei Vorschlägen. Das Testfazit zum GenAI-Vergleich Cloud-basierte Generative-AI-Dienste können hilfreich sein, um Fragen über Daten zu beantworten und manchmal auch, um neue Insights aufzutun. Nach unserem Vergleichstest fällt unser Fazit wie folgt aus: Wenn Sie eine Plattform suchen, die möglichst simpel und kostenlos ist, empfiehlt sich Googles NotebookLM – insbesondere wegen dem Feature, die herangezogenen Quellen direkt überprüfen zu können. Fall Sie bereits ein ChatGPT-Abonnement abgeschlossen haben, ist Projects zumindest wert, getestet zu werden. Claude Projects ist eine gute Option, wenn Sie nicht über große Datenmengen pro Projekt verfügen, Fragen zu Daten in einem GitHub-Projekt – und bereits ein Abonnement – haben. Perplexity Spaces konnte uns zwar im Test nicht nachhaltig überzeugen, allerdings ist fairerweise auch zuzugeben, dass die Stärke dieses LLM-Service vor allem darin liegt, Fragen auf Web-Basis, beziehungsweise online abrufbaren Informationen zu beantworten.   (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

4 KI-Chat-Tools im Vergleichstest​ NotebookLM vs. ChatGPT vs. Claude vs. Perplexity – wer ist Chatbot-König?Vnwhy | shutterstock.com

Informationen zu finden und zusammenzufassen ist zugegebenermaßen nicht der reizvollste Generative-AI (GenAI)-Task – in bestimmten Situationen aber höchst praktisch und nützlich. Etwa, wenn Sie einen bestimmten Social-Media-Post wiederfinden oder die Antwort auf eine einfache Frage bekommen wollen – ohne sich dazu vorher durch Endlos-Feeds zu scrollen, beziehungsweise ein Softwarehandbuch durchzuackern.  

Um große Sprachmodelle (LLMs) mit Daten zu füttern und sie anschließend zu diesen zu befragen, gibt es diverse Möglichkeiten. Die simpelste, weil Coding-freie: einen Web-basierten Service wie NotebookLM, ChatGPT Projects, Claude Projects oder Perplexity Spaces zu nutzen. Diesen vier GenAI-Diensten haben wir im Rahmen eines Vergleichstests vier verschiedene Beispielaufgaben gestellt. Dabei ging es darum:

Informationen aus einer Softwaredokumentation zu extrahieren,

nach Beiträgen auf LinkedIn zu suchen,

eine Variablen-ID für ein bestimmtes Thema zu ermitteln, und

Daten zu IT-Fachkonferenzen abzurufen.

Die getesteten KI-Chatplattformen

Bevor wir auf die konkreten Testergebnisse eingehen – und darauf, welches Tool am besten abgeschnitten hat – die getesteten Generative-AI-Dienste inklusive ihrer wichtigsten Eigenschaften im Überblick:

1. NotebookLM

Der Google-Service NotebookLM:

steht kostenlos zur Verfügung.

erfordert keine speziellen Prompts, um hochgeladene Informationen gezielt zu durchsuchen.

liefert standardmäßig Antworten mit Angaben zu den Quellen, aus denen sie generiert wurden.

akzeptiert URLs als Quellen.

verspricht, Chats und Daten nicht dazu zu nutzen, seine Modelle zu trainieren.

2. ChatGPT Projects

Der OpenAI-Service ChatGPT Projects:

steht ausschließlich Benutzern mit Abonnement zur Verfügung.

sammelt Chats, Dateien und benutzerdefinierte Instruktionen an einem zentralen Ort.

braucht spezifische Anweisungen, um Quellenangaben zu Antworten zu liefern.

liefert dafür aber übersichtliche Ergebnisse mit ansprechender Formatierung. 

lässt sich entsprechend konfigurieren, um zu verhindern, dass eingegebene Daten genutzt werden, um KI-Modelle zu trainieren.

3. Claude Projects

Anthropics Chat-Service auf Claude-Basis:

ist ausschließlich für Nutzer mit Abo verfügbar.

setzt im Vergleich zur Konkurrenz engere Grenzen für Kontextfenster.  

kann mit GitHub-Konten integriert werden.

akzeptiert ausschließlich GitHub und Google Docs als Onlinequellen.

nutzt Chats und Daten standardmäßig nicht zum KI-Modelltraining.

4. Perplexity Spaces

Der KI-Chat-Service von Perplexity:

steht auch kostenlos zur Verfügung.

akzeptiert nicht nur URLs, sondern auch Domains als Quellen.

eignet sich besonders gut für Websuchen.

erfordert ein zahlungspflichtiges Abo, um eigene Daten hochzuladen.

kann so konfiguriert werden, dass hochgeladene Daten nicht zum Modelltraining genutzt werden.

Der Chatbot-Test – Tasks & Ergebnisse

Bevor wir die Resultate im Einzelnen erörtern, hier die gestellten Aufgaben und Testergebnisse im Überblick:

AufgabeNotebookLMChatGPT ProjectsClaude ProjectsPerplexity SpacesEinfache Dokumentensuche1110,5Social-Media-Suche10,510Variablen-ID bestimmen1101Konferenz finden0,510,51Konferenz-Sessions finden110,50Gesamtergebnis4,54,532,5 1 = korrekte Anwort; 0,5 = teilweise korrekt; 0 = nicht korrekt oder keine Antwort;

1. Einfache Dokumentensuche

Frage: „Wie kann man am einfachsten überflüssige Leerzeichen in einem Text entfernen?“

Informationsquelle: Die Dokumentation des stringr-Packages für die Programmiersprache R. Dieses enthält eine praktische str_squish()-Funktion, um überflüssige Leerzeichen zu löschen.

Ergebnisse: Claude, NotebookLM und ChatGPT lieferten mit str_squish() die korrekte Antwort. Perplexity ging hingegen davon aus, dass lediglich Leerzeichen am Anfang und am Ende des Textes interessant sind. Erst nach einer Anschlussfrage kam auch dieser Service auf die korrekte Antwort.

2. Social-Media-Suche

Frage: „Mir hat ein Computerworld-Artikel zum Thema LLMs vom Autor Lucas Mearian sehr gut gefallen. Liefere mir die Einzelheiten zu diesem Artikel auf Grundlage meiner LinkedIn-Beiträge der letzten zwei Jahre.”

Informationsquelle: LinkedIn-Posts über den Zeitraum von zwei Jahren.

Ergebnisse: NotebookLM und Claude haben mit ihren Antworten ins Schwarze getroffen und jeweils zwei Posts angeboten, von denen einer der gesuchte war. ChatGPT lieferte hingegen einen thematisch verwandten Artikel, aber nicht den gesuchten. Perplexity konnte keinen Artikel liefern und behauptete, dass kein entsprechender Beitrag im Rahmen von LinkedIn-Posts erwähnt wurde. 

3. Variablen-ID bestimmen

Frage: „Welche Variable eignet sich am besten, um Informationen über den Prozentsatz der Arbeitnehmer zu finden, die von zu Hause aus arbeiten?“

Informationsquelle: Viele (US-)Unternehmen nutzen die American Community Survey (ACS) des Census Bureau, um an demografische Daten zu kommen. Dabei diejenigen Datenvariablen zu bestimmen, die die gewünschten Informationen enthalten, kann diffizil ausfallen. Deshalb haben wir mehrere Listen von ACS-Tabellenvariablen-IDs heruntergeladen und gefiltert (weil einige Listen zu umfangreich waren). Diese haben wir mit einer allgemeinen Erklärung der ACS-Tabellen von der Website des Census Bureau kombiniert. Da nicht alle getesteten Plattformen .csv-Dateien in Projekten akzeptieren, haben wir die Daten als tabulatorgetrennte .txt-Dateien gespeichert.

Ergebnisse: Kyle Walker, Autor des tidycensus R-Pakets, hat in einem seiner Beispiele die Variable „DP03_0024P“ verwendet. Das wäre entsprechend die korrekte Antwort gewesen. NotebookLM, ChatGPT und Perplexity lieferten hier verwertbare Ergebnisse (ChatGPT und Perplexity fanden beide sogar noch zusätzliche Variablen, die die Vorgaben erfüllt haben). Claude konnte bei dieser Aufgabe hingegen nicht mithalten, da die .txt-Dateien das „Project Knowledge“-Limit überschritten.  

4.  Konferenz(-Sessions) finden

Frage 1: „Suche nach Events, bei denen es um das Thema künstliche Intelligenz geht. Der Zielort sollte von Boston aus innerhalb von zwei Stunden per Flugzeug zu erreichen sein.“

Informationsquelle: Der Global Events Calendar (PDF) von IDG.

Ergebnisse: Die vollständige und korrekte Antwort beinhaltet zwei „FutureIT“-Veranstaltungen in New York und Toronto. Eine mögliche dritte Option wäre ein Event in Nashville gewesen, dessen Flugzeit die Vorgabe nur leicht übersteigt. ChatGPT konnte bei diesem Task sowohl mit seinem o3-mini-High-, als auch mit dem 4o-Modell punkten und die ersten beiden Events als Ergebnis liefern. Auch Perplexity gab diese beiden Events zurück und schlug einen zusätzlichen vor – inklusive Hinweis, dass es mit der anvisierten Flugzeit von zwei Stunden in diesem Fall nicht klappt. NotebookLM lieferte zwar die eingangs genannte, dritte Option in Nashville und den Event in New York als Ergebnis – ließ jedoch die Veranstaltung in Toronto außen vor. Claude lieferte mit seinem älteren Modell Sonnet 3.5 ebenfalls die beiden erwarteten Veranstaltungen als Ergebnis – und schlug noch einige andere außerhalb der definierten Entfernung vor (allerdings nicht die in Nashville). Mit Sonnet 3.7 und der Option „Extended Reasoning“ lieferte der Anthropic-Service schließlich bessere Resultate in Form der Events in New York und Toronto.

Frage 2: „Identifiziere sämtliche Sessions auf der NICAR-Konferenz, die sich an Personen richten, die bereits Erfahrung mit Tabellenkalkulationen haben, aber ihre Fähigkeiten verbessern möchten.“

Datenquelle: Eine Textdatei mit der vollständigen Agenda der NICA-Konferenz für Datenjournalismus.

Ergebnisse: NotebookLM lieferte bei dieser Aufgabe mehr als ein Dutzend interessanter Vorschläge zu Google Sheets, Excel und Airtable, die (bis auf eine Ausnahme) relevant waren. Auch ChatGPT konnte überzeugen und hat mehr als 12 interessante Sessions zum Thema vorgeschlagen – nach Datum und Uhrzeit sortiert und ansprechend formatiert. Claude konnte zwar nicht mithalten, was die Zahl der Vorschläge angeht – dafür waren alle Ergebnisse relevant. Perplexity enttäuschte hingegen mit lediglich drei Vorschlägen.

Das Testfazit zum GenAI-Vergleich

Cloud-basierte Generative-AI-Dienste können hilfreich sein, um Fragen über Daten zu beantworten und manchmal auch, um neue Insights aufzutun. Nach unserem Vergleichstest fällt unser Fazit wie folgt aus:

Wenn Sie eine Plattform suchen, die möglichst simpel und kostenlos ist, empfiehlt sich Googles NotebookLM – insbesondere wegen dem Feature, die herangezogenen Quellen direkt überprüfen zu können.

Fall Sie bereits ein ChatGPT-Abonnement abgeschlossen haben, ist Projects zumindest wert, getestet zu werden.

Claude Projects ist eine gute Option, wenn Sie nicht über große Datenmengen pro Projekt verfügen, Fragen zu Daten in einem GitHub-Projekt – und bereits ein Abonnement – haben.

Perplexity Spaces konnte uns zwar im Test nicht nachhaltig überzeugen, allerdings ist fairerweise auch zuzugeben, dass die Stärke dieses LLM-Service vor allem darin liegt, Fragen auf Web-Basis, beziehungsweise online abrufbaren Informationen zu beantworten.  

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

4 KI-Chat-Tools im Vergleichstest​ Weiterlesen »

Worst Practices: Wie IT-Erfolg ausbleibt​

Allgemein

Der Weg vom Best Practice zum Worst Nightmare ist oft nicht weit. Foto: Kaspar Grinvalds – shutterstock.comWenn ganze IT-Abteilungen auf den Abgrund zusteuern, kann das vielerlei Gründe haben – unter Umständen aber auch daran liegen, dass “Industry Best Practices” adaptiert wurden. Manche dieser Empfehlungen aus der Praxis sehen nämlich in einigen Fällen nur aus einem Kilometer Entfernung sinnvoll aus.Je näher man jedoch kommt, desto offensichtlicher wird, dass statt IT-Erfolg ein saftiger Fail winkt. Wir haben 13 Worst Practices für Sie zusammengetragen, die IT-Abteilungen unter allen Umständen vermeiden sollten.Kunde fällt ausWollen Sie einen Fail herausfordern? Dazu müssen Sie lediglich sicherstellen, dass sich jedes Mitglied Ihres IT-Teams gegenüber allen anderen Abteilungen als Dienstleister ausgibt, der versucht mit Sprüchen wie: “Ich betrachte dich als meinen Kunden.”; “Mein Job ist es, deine Erwartungen zu übertreffen”; oder noch schlimmer: “Ich möchte dich glücklich machen”;Eindruck zu schinden. Mitarbeiter anderer Abteilungen sind nämlich keine Kunden der IT, sondern deren Kollegen. Darum sollten sie sich auch auf Augenhöhe begegnen.Die Idee vom Internal Customer weist der IT eine unterwürfige Rolle zu. In der hat sie zu tun, was den “Kunden” glücklich macht – ganz egal, ob das nun Sinn ergibt oder auf Geschäftsziele einzahlt. Ganz davon zu schweigen, ob den als dienstbarer Dienstleister auftretenden IT-Spezialisten seine Rolle mit Glück erfüllt.SLA-ContractingWollen Sie mal ein bisschen Schaden anrichten? Dann ziehen Sie formale Service Level Agreements auf. Anschließend bestehen Sie darauf, dass alle Internal Customer diese unterzeichnen. Fertig. Denn ist der Vertrag erstmal besiegelt, muss er auch zu jeder Zeit voll und ganz erfüllt werden.Um die IT-Abteilung mit in den Abgrund zu reißen, empfiehlt es sich, Streitgespräche anzuregen. Im Idealfall darüber, ob die internen Kunden (schönes Wording, oder?) Recht damit haben, wenn Sie sich darüber beschweren, dass die IT nicht das tut was sie soll. Eine erquickende Art und Weise, Beziehungen sämtlicher Art auf maximaler Distanz zu halten. Gute Beziehungen – beruflicher wie privater Natur – sollten auf Vertrauen basieren. Das wird im beruflichen Umfeld allerdings nicht dadurch erzeugt, die Kollegen nicht als Kollegen zu betrachten: Oder arbeiten Sie gerne mit Leuten zusammen, die ihnen unsympathisch sind? Dazu wird es nämlich kommen, wenn die Service Level Agreements als festes Vertragswerk verstanden werden, die die zwischenmenschlichen Beziehungen definieren. Stellen Sie einfach einmal vor, welche Folgen fehlendes Vertrauen im Fall eines ernsten IT-Notfalls nach sich ziehen kann.DAU-ShamingDAU-Stories kennt (und liest) wohl jeder gern. Auch wir:Problematisch wird das Ganze, wenn die IT-Mannschaft solche Stories mit den Klarnamen der eigenen Kollegen verbreitet. Am besten Sie sorgen dafür, dass die Stories per E-Mail-Verteiler unter die Mitarbeiter gebracht werden. Schneller lassen Sie nicht erkennen, dass gegenseitiger Respekt in Ihrem Laden Mangelware ist.Budget-BattleEin hervorragender Weg, die Inanspruchnahme der IT auszubremsen: Streit ums Budget. Dazu richten Sie idealerweise innerhalb der IT weitere Unterkostenstellen ein. Beispielsweise für CPU-Zyklen, SAN- und NAS-Storage-Nutzung, die Anzahl der Entwicklungsstunden oder Anrufe beim Helpdesk (Tipp: In 10-Minuten-Schritten abrechnen).Schließlich existiert nichts, was die Collaboration mehr beflügeln würde als der Streit darüber, ob die Beträge auch akkurat in die richtigen Budgetbeutel geflossen sind.ROI-ZwangWenn Sie erreichen wollen, dass erfolgskritische Projekte nicht finanziert werden, sollten Sie mit Nachdruck darauf bestehen, dass der IT-Governance-Prozess einen klaren, greifbaren ROI aufweisen muss. Das führt geradewegs in die Obsoleszenz – während Technologien, die den Fachbereichen dabei helfen könnten, die Kundenzufriedenheit zu steigern, nur belächelt werden. Ebenso wie die, die sich für deren Einsatz stark gemacht haben.Nach mir die IT-Projekt-SintflutEine weitere Erfolgsformel für IT-Fehlschläge besteht darin, den Projektabschluss so zu definieren, dass die IT-Arbeit getan ist, wenn die Software den Anforderungen und Spezifikationen entspricht. Wenn sich dann das Management beschweren sollte, dass die Software nicht so funktioniert, wie sie soll, sind Sie in einer traumhaften Position und können Sätze wie “Wenn die Software die Specs erfüllt, funktioniert sie auch so, wie sie soll.” droppen. Sollte das nicht zur erwünschten Wirkung führen, können Sie immer noch ausweichen auf: “Dann waren wohl die Anforderungen nicht richtig gewählt.”. Der Fehler liegt jedenfalls nicht bei Ihnen, sondern ausschließlich bei denen, die die Spezifikationen abgesegnet haben.Wenn Sie allerdings Interesse am Erfolg von IT-Projekten haben, sollten Sie diese am angestrebten Geschäftszweck ausrichten (beispielsweise die Sales-Effektivität erhöhen) und nicht an der Software selbst.Projekt-SponsorenIn Projektmanagement-Kreisen gilt es als offenes Geheimnis, dass jedes Projekt einen Business Sponsor braucht, wenn es in Erfolg kulminieren soll. Wenn der Fail nur eine Frage der Zeit sein soll, bestimmen Sie einfach einen solchen Sponsor.Projektsponsoren – also echte Sponsoren, nicht solche, die nur so heißen – brennen dafür, dass ihre Projekte erfolgreich sind und sind auch bereit, dafür Risiken einzugehen. Ein Mensch, dem diese Rolle zugewiesen oder unter Umständen sogar aufgezwungen wird, dürfte diese Motivationslage sehr wahrscheinlich vermissen lassen.Head in the CloudsEine Cloud-Computing-Strategie kann ebenfalls den Pfad zu einem beachtlichen IT-Fail eröffnen. Zumindest wenn von der Strategie auf die Lösung geschlossen wird: Sie müssen ja in die Cloud, darum ist Sinn und Zweck der Strategie, dort hin zu kommen. Auf keinen Fall sollten Sie den Fehler begehen und über diesen Sachverhalt länger als nötig nachdenken. Verdrängen Sie einfach Dinge wie Architekturfragen oder Terms of Services. Das führt am Ende nur dazu, dass Sie irgendwann auf den Gedanken kommen, die Services wären das, was Sie brauchen und die Cloud nur der Weg zum Ziel.Soll das mit der Cloud-Strategie hingegen etwas werden, gilt die alte Regel: Form follows function. Und Services sind in diesem Fall die “functions”, die unter Umständen in cloudifizierter Form verwirklicht werden.Agiles OffshoringAgile Methoden haben viele Vorteile. Damit sie zum Erfolg führen, ist ein hohes Level an informeller User-Beteiligung unabdingbar, damit Kurskorrekturen zwar in hoher Frequenz möglich sind, aber klein ausfallen, die Entwickler jeden Tag Fortschritte sehen können und auch das User-Akzeptanz-Testing nicht zu kurz kommt. Offshoring bringt einen wesentlichen Benefit: geringere Kosten. Was allerdings nicht läuft, ist ein hohes Level an informeller User-Beteiligung.Wenn Sie nun zwölf verschiedene Zeitzonen mit Sprachbarrieren, kulturellen Unterschieden und Videokonferenzen als einzige Interaktionsmöglichkeit kombinieren, wird es mit dem Agile-Erfolg diffizil.Natürlich lässt sich auch Agiles Offshoring bewerkstelligen, aber das ist ein komplexes Unterfangen und keinesfalls für IT-Abteilungen geeignet, die im Agile Game noch neu sind. Ist das der Fall, sollten Sie sich zwischen Agile und Offshoring entscheiden. UnterbrechungspotenzierungNachhaltige IT-Fails lassen sich auch erzeugen, indem Sie darauf bestehen, dass jeder im Team Multitasking betreibt. Schließlich ist die Fähigkeit, mehrere Dinge gleichzeitig zu tun, äußerst erstrebenswert.In der Realität ist ausuferndes Multitasking lediglich der Produktivität und Qualität abträglich und erhöht das Stresslevel ungemein. Wann immer Sie die Versuchung verspüren, ein Mitglied Ihres Teams darum zu bitten, sich mit etwas anderem zu beschäftigen, sollten Sie daran denken, dass Menschen nicht wirklich Multitasking-fähig sind. Das Beste was sie tun können, ist von einem Task zum nächsten zu wechseln. Jedes Mal wenn Sie das tun, geht dabei Zeit verloren, um sich mental neu auszurichten. Je mehr Konzentration eine Aufgabe erfordert, desto mehr Zeit kostet das “Switchen” zwischen den Tasks.ProjektitisWenn Sie sich zum Ziel gesetzt haben, dass alle IT-Projekte substanziell mehr Zeit in Anspruch nehmen, dabei mehr kosten und unterirdische Ergebnisse zu Tage fördern sollen – dann empfiehlt sich folgende Vorgehensweise: Sie starten bei möglichst dünner Personallage jede Menge neuer Projekte, um einfach alles was gefordert wird, umzusetzen und schieben ihre IT-Experten von einem Projekt zum nächsten.Wenn Ihnen dagegen etwas daran liegt, dass Ihre IT eine gute Reputation vorweisen kann, sollten Sie nur eine Regel umsetzen: Jedes Projekt, das gestartet wird, wird mit voller Mannschaft gefahren. Das heißt: Projekte, die warten, bis alle Beteiligten daran arbeiten können, gibt es nicht. Ewiges SchattenboxenKeine Frage: Wenn Fachabteilungen hinter dem Rücken der IT-Abteilungen ihre eigenen technischen Lösungen einziehen, kann das verheerende Folgen haben. Das ist allerdings nur ein Teil der Geschichte. Die Fachbereiche greifen nämlich in der Regel auf DIY-Lösungen zurück, weil die IT nicht genügend Manpower zur Verfügung hat.Dennoch ist es schon rein logistisch ein unmögliches Unterfangen, jede Form der Schatten-IT aus Unternehmen zu verbannen. Ganz zu schweigen davon, dass der IT in diesem Fall die Rolle des allmächtigen Verhinderers einnimmt, was ihrer Reputation alles andere als zuträglich ist.Schwarz vs. WeißZum Abschluss noch ein Dauerbrenner, wenn es darum geht die IT zu versenken: Antworten Sie auf Anfragen einfach immer mit Ja oder Nein. Letzteres führt zu sinkender Reputation und der Beschädigung von Arbeitsbeziehungen. Ersteres dazu, dass Sie Dinge versprechen, die Sie am Ende nicht halten können.Die richtige Antwort wäre: “Das können wir machen – und zwar unter folgenden Voraussetzungen…”So klären Sie über die Erfordernisse auf, die nötig sind, um die Erwartungen zu erfüllen, ohne dabei zuviel zu versprechen. Im Anschluss folgt dann auch eher eine Diskussion als ein Streitgespräch. (fm) 

Worst Practices: Wie IT-Erfolg ausbleibt​ Der Weg vom Best Practice zum Worst Nightmare ist oft nicht weit.
Foto: Kaspar Grinvalds – shutterstock.comWenn ganze IT-Abteilungen auf den Abgrund zusteuern, kann das vielerlei Gründe haben – unter Umständen aber auch daran liegen, dass “Industry Best Practices” adaptiert wurden. Manche dieser Empfehlungen aus der Praxis sehen nämlich in einigen Fällen nur aus einem Kilometer Entfernung sinnvoll aus.Je näher man jedoch kommt, desto offensichtlicher wird, dass statt IT-Erfolg ein saftiger Fail winkt. Wir haben 13 Worst Practices für Sie zusammengetragen, die IT-Abteilungen unter allen Umständen vermeiden sollten.Kunde fällt ausWollen Sie einen Fail herausfordern? Dazu müssen Sie lediglich sicherstellen, dass sich jedes Mitglied Ihres IT-Teams gegenüber allen anderen Abteilungen als Dienstleister ausgibt, der versucht mit Sprüchen wie: “Ich betrachte dich als meinen Kunden.”; “Mein Job ist es, deine Erwartungen zu übertreffen”; oder noch schlimmer: “Ich möchte dich glücklich machen”;Eindruck zu schinden. Mitarbeiter anderer Abteilungen sind nämlich keine Kunden der IT, sondern deren Kollegen. Darum sollten sie sich auch auf Augenhöhe begegnen.Die Idee vom Internal Customer weist der IT eine unterwürfige Rolle zu. In der hat sie zu tun, was den “Kunden” glücklich macht – ganz egal, ob das nun Sinn ergibt oder auf Geschäftsziele einzahlt. Ganz davon zu schweigen, ob den als dienstbarer Dienstleister auftretenden IT-Spezialisten seine Rolle mit Glück erfüllt.SLA-ContractingWollen Sie mal ein bisschen Schaden anrichten? Dann ziehen Sie formale Service Level Agreements auf. Anschließend bestehen Sie darauf, dass alle Internal Customer diese unterzeichnen. Fertig. Denn ist der Vertrag erstmal besiegelt, muss er auch zu jeder Zeit voll und ganz erfüllt werden.Um die IT-Abteilung mit in den Abgrund zu reißen, empfiehlt es sich, Streitgespräche anzuregen. Im Idealfall darüber, ob die internen Kunden (schönes Wording, oder?) Recht damit haben, wenn Sie sich darüber beschweren, dass die IT nicht das tut was sie soll. Eine erquickende Art und Weise, Beziehungen sämtlicher Art auf maximaler Distanz zu halten. Gute Beziehungen – beruflicher wie privater Natur – sollten auf Vertrauen basieren. Das wird im beruflichen Umfeld allerdings nicht dadurch erzeugt, die Kollegen nicht als Kollegen zu betrachten: Oder arbeiten Sie gerne mit Leuten zusammen, die ihnen unsympathisch sind? Dazu wird es nämlich kommen, wenn die Service Level Agreements als festes Vertragswerk verstanden werden, die die zwischenmenschlichen Beziehungen definieren. Stellen Sie einfach einmal vor, welche Folgen fehlendes Vertrauen im Fall eines ernsten IT-Notfalls nach sich ziehen kann.DAU-ShamingDAU-Stories kennt (und liest) wohl jeder gern. Auch wir:Problematisch wird das Ganze, wenn die IT-Mannschaft solche Stories mit den Klarnamen der eigenen Kollegen verbreitet. Am besten Sie sorgen dafür, dass die Stories per E-Mail-Verteiler unter die Mitarbeiter gebracht werden. Schneller lassen Sie nicht erkennen, dass gegenseitiger Respekt in Ihrem Laden Mangelware ist.Budget-BattleEin hervorragender Weg, die Inanspruchnahme der IT auszubremsen: Streit ums Budget. Dazu richten Sie idealerweise innerhalb der IT weitere Unterkostenstellen ein. Beispielsweise für CPU-Zyklen, SAN- und NAS-Storage-Nutzung, die Anzahl der Entwicklungsstunden oder Anrufe beim Helpdesk (Tipp: In 10-Minuten-Schritten abrechnen).Schließlich existiert nichts, was die Collaboration mehr beflügeln würde als der Streit darüber, ob die Beträge auch akkurat in die richtigen Budgetbeutel geflossen sind.ROI-ZwangWenn Sie erreichen wollen, dass erfolgskritische Projekte nicht finanziert werden, sollten Sie mit Nachdruck darauf bestehen, dass der IT-Governance-Prozess einen klaren, greifbaren ROI aufweisen muss. Das führt geradewegs in die Obsoleszenz – während Technologien, die den Fachbereichen dabei helfen könnten, die Kundenzufriedenheit zu steigern, nur belächelt werden. Ebenso wie die, die sich für deren Einsatz stark gemacht haben.Nach mir die IT-Projekt-SintflutEine weitere Erfolgsformel für IT-Fehlschläge besteht darin, den Projektabschluss so zu definieren, dass die IT-Arbeit getan ist, wenn die Software den Anforderungen und Spezifikationen entspricht. Wenn sich dann das Management beschweren sollte, dass die Software nicht so funktioniert, wie sie soll, sind Sie in einer traumhaften Position und können Sätze wie “Wenn die Software die Specs erfüllt, funktioniert sie auch so, wie sie soll.” droppen. Sollte das nicht zur erwünschten Wirkung führen, können Sie immer noch ausweichen auf: “Dann waren wohl die Anforderungen nicht richtig gewählt.”. Der Fehler liegt jedenfalls nicht bei Ihnen, sondern ausschließlich bei denen, die die Spezifikationen abgesegnet haben.Wenn Sie allerdings Interesse am Erfolg von IT-Projekten haben, sollten Sie diese am angestrebten Geschäftszweck ausrichten (beispielsweise die Sales-Effektivität erhöhen) und nicht an der Software selbst.Projekt-SponsorenIn Projektmanagement-Kreisen gilt es als offenes Geheimnis, dass jedes Projekt einen Business Sponsor braucht, wenn es in Erfolg kulminieren soll. Wenn der Fail nur eine Frage der Zeit sein soll, bestimmen Sie einfach einen solchen Sponsor.Projektsponsoren – also echte Sponsoren, nicht solche, die nur so heißen – brennen dafür, dass ihre Projekte erfolgreich sind und sind auch bereit, dafür Risiken einzugehen. Ein Mensch, dem diese Rolle zugewiesen oder unter Umständen sogar aufgezwungen wird, dürfte diese Motivationslage sehr wahrscheinlich vermissen lassen.Head in the CloudsEine Cloud-Computing-Strategie kann ebenfalls den Pfad zu einem beachtlichen IT-Fail eröffnen. Zumindest wenn von der Strategie auf die Lösung geschlossen wird: Sie müssen ja in die Cloud, darum ist Sinn und Zweck der Strategie, dort hin zu kommen. Auf keinen Fall sollten Sie den Fehler begehen und über diesen Sachverhalt länger als nötig nachdenken. Verdrängen Sie einfach Dinge wie Architekturfragen oder Terms of Services. Das führt am Ende nur dazu, dass Sie irgendwann auf den Gedanken kommen, die Services wären das, was Sie brauchen und die Cloud nur der Weg zum Ziel.Soll das mit der Cloud-Strategie hingegen etwas werden, gilt die alte Regel: Form follows function. Und Services sind in diesem Fall die “functions”, die unter Umständen in cloudifizierter Form verwirklicht werden.Agiles OffshoringAgile Methoden haben viele Vorteile. Damit sie zum Erfolg führen, ist ein hohes Level an informeller User-Beteiligung unabdingbar, damit Kurskorrekturen zwar in hoher Frequenz möglich sind, aber klein ausfallen, die Entwickler jeden Tag Fortschritte sehen können und auch das User-Akzeptanz-Testing nicht zu kurz kommt. Offshoring bringt einen wesentlichen Benefit: geringere Kosten. Was allerdings nicht läuft, ist ein hohes Level an informeller User-Beteiligung.Wenn Sie nun zwölf verschiedene Zeitzonen mit Sprachbarrieren, kulturellen Unterschieden und Videokonferenzen als einzige Interaktionsmöglichkeit kombinieren, wird es mit dem Agile-Erfolg diffizil.Natürlich lässt sich auch Agiles Offshoring bewerkstelligen, aber das ist ein komplexes Unterfangen und keinesfalls für IT-Abteilungen geeignet, die im Agile Game noch neu sind. Ist das der Fall, sollten Sie sich zwischen Agile und Offshoring entscheiden.

UnterbrechungspotenzierungNachhaltige IT-Fails lassen sich auch erzeugen, indem Sie darauf bestehen, dass jeder im Team Multitasking betreibt. Schließlich ist die Fähigkeit, mehrere Dinge gleichzeitig zu tun, äußerst erstrebenswert.In der Realität ist ausuferndes Multitasking lediglich der Produktivität und Qualität abträglich und erhöht das Stresslevel ungemein. Wann immer Sie die Versuchung verspüren, ein Mitglied Ihres Teams darum zu bitten, sich mit etwas anderem zu beschäftigen, sollten Sie daran denken, dass Menschen nicht wirklich Multitasking-fähig sind. Das Beste was sie tun können, ist von einem Task zum nächsten zu wechseln. Jedes Mal wenn Sie das tun, geht dabei Zeit verloren, um sich mental neu auszurichten. Je mehr Konzentration eine Aufgabe erfordert, desto mehr Zeit kostet das “Switchen” zwischen den Tasks.ProjektitisWenn Sie sich zum Ziel gesetzt haben, dass alle IT-Projekte substanziell mehr Zeit in Anspruch nehmen, dabei mehr kosten und unterirdische Ergebnisse zu Tage fördern sollen – dann empfiehlt sich folgende Vorgehensweise: Sie starten bei möglichst dünner Personallage jede Menge neuer Projekte, um einfach alles was gefordert wird, umzusetzen und schieben ihre IT-Experten von einem Projekt zum nächsten.Wenn Ihnen dagegen etwas daran liegt, dass Ihre IT eine gute Reputation vorweisen kann, sollten Sie nur eine Regel umsetzen: Jedes Projekt, das gestartet wird, wird mit voller Mannschaft gefahren. Das heißt: Projekte, die warten, bis alle Beteiligten daran arbeiten können, gibt es nicht. Ewiges SchattenboxenKeine Frage: Wenn Fachabteilungen hinter dem Rücken der IT-Abteilungen ihre eigenen technischen Lösungen einziehen, kann das verheerende Folgen haben. Das ist allerdings nur ein Teil der Geschichte. Die Fachbereiche greifen nämlich in der Regel auf DIY-Lösungen zurück, weil die IT nicht genügend Manpower zur Verfügung hat.Dennoch ist es schon rein logistisch ein unmögliches Unterfangen, jede Form der Schatten-IT aus Unternehmen zu verbannen. Ganz zu schweigen davon, dass der IT in diesem Fall die Rolle des allmächtigen Verhinderers einnimmt, was ihrer Reputation alles andere als zuträglich ist.Schwarz vs. WeißZum Abschluss noch ein Dauerbrenner, wenn es darum geht die IT zu versenken: Antworten Sie auf Anfragen einfach immer mit Ja oder Nein. Letzteres führt zu sinkender Reputation und der Beschädigung von Arbeitsbeziehungen. Ersteres dazu, dass Sie Dinge versprechen, die Sie am Ende nicht halten können.Die richtige Antwort wäre: “Das können wir machen – und zwar unter folgenden Voraussetzungen…”So klären Sie über die Erfordernisse auf, die nötig sind, um die Erwartungen zu erfüllen, ohne dabei zuviel zu versprechen. Im Anschluss folgt dann auch eher eine Diskussion als ein Streitgespräch. (fm)

Worst Practices: Wie IT-Erfolg ausbleibt​ Weiterlesen »

Apple hamstert iPhones nach neuen US-Zöllen​

Allgemein

Nicht nur iPhones: Apple hat eine Vielzahl an Produkten aus Indien und China in die USA eingeflogen.Michael Derrer Fuchs – shutterstock.com Neue Zölle der USA treffen Anfang April 2025 eines der wertvollsten Unternehmen der Welt hart. Besonders stark betroffenen sind Waren, die aus China aber auch aus Indien eingeführt werden. Prominentes Opfer ist Apple. Der Techkonzern stellt derzeit seine gesamte iPhone 15- und iPhone 16-Produktpalette in Indien und China her. Auf Produkte, die aus Indien in die USA eingeführt werden, entfallen 17 Prozent Zölle, stammen sie aus China werden Zölle in Höhe von 104 Prozent fällig. Zwischenzeitlich wurden Waren aus dem Reich der Mitte „nur“ mit 54 Prozent Zollabgabe versehen. Dabei handelt es sich um eine deutliche Steigerung gegenüber dem ersten Zollpaket vom 5. April 2025, wo ein Basissatz von zehn Prozent auf alle Einfuhren in die Vereinigten Staaten in Kraft festgelegt worden war. Zollaufschub durch strategische Vorräte Apple will diese Mehrkosten nicht an seine Kunden weitergeben, weswegen der Konzern mit Hochdruck daran arbeitet, so viele Lagerbestände zu alten Zollkonditionen wie möglich in den Vereinigten Staaten anzulegen. Laut hochrangigen indischen Beamten hat Apple in der letzten Märzwoche „in nur drei Tagen fünf Flugzeuge voller iPhones und anderer Produkte aus Indien und China ausgeflogen.“ Unklar ist, wie viel Lagerbestand der Konzern derzeit in den USA hortet. Die Kalifornier wollen die Auswirkungen der Zölle hinauszögern. Ziel ist es laut Apple eine Erhöhung der iPhone-Preise bis zur Markteinführung des iPhone 17 im Herbst zu vermeiden. Für das iPhone 17 könnte Apple dann die Verkaufspreise anpassen und die Zölle einberechnen, so Marktbeobachter. Lieferkette bleibt China-zentriert Bei anderen Produkten scheint das Unternehmen jedoch weniger Glück zu haben: Die meisten Mac-Konfigurationen, die auf Bestellung gefertigt werden, erhalten Verbraucher in den Vereinigten Staaten direkt aus den Apple-Fabriken in China. Ob Apple Produktionskapazitäten in die USA verlegen wird, bleibt abzuwarten. Das Tech-Unternehmen benötigte allein für den Umzug von China nach Indien sowie den Aufbau der Produktionskapazitäten drei Jahre. Zuletzt stellte Apple schätzungsweise 25 Millionen iPhones in Indien her. Vorher hatte das Unternehmen zwischen 15 und 20 Jahre in den Aufbau seiner Lieferkette zwischen den USA und China investiert. 

Apple hamstert iPhones nach neuen US-Zöllen​ Nicht nur iPhones: Apple hat eine Vielzahl an Produkten aus Indien und China in die USA eingeflogen.Michael Derrer Fuchs – shutterstock.com

Neue Zölle der USA treffen Anfang April 2025 eines der wertvollsten Unternehmen der Welt hart. Besonders stark betroffenen sind Waren, die aus China aber auch aus Indien eingeführt werden. Prominentes Opfer ist Apple. Der Techkonzern stellt derzeit seine gesamte iPhone 15- und iPhone 16-Produktpalette in Indien und China her.

Auf Produkte, die aus Indien in die USA eingeführt werden, entfallen 17 Prozent Zölle, stammen sie aus China werden Zölle in Höhe von 104 Prozent fällig. Zwischenzeitlich wurden Waren aus dem Reich der Mitte „nur“ mit 54 Prozent Zollabgabe versehen.

Dabei handelt es sich um eine deutliche Steigerung gegenüber dem ersten Zollpaket vom 5. April 2025, wo ein Basissatz von zehn Prozent auf alle Einfuhren in die Vereinigten Staaten in Kraft festgelegt worden war.

Zollaufschub durch strategische Vorräte

Apple will diese Mehrkosten nicht an seine Kunden weitergeben, weswegen der Konzern mit Hochdruck daran arbeitet, so viele Lagerbestände zu alten Zollkonditionen wie möglich in den Vereinigten Staaten anzulegen.

Laut hochrangigen indischen Beamten hat Apple in der letzten Märzwoche „in nur drei Tagen fünf Flugzeuge voller iPhones und anderer Produkte aus Indien und China ausgeflogen.“ Unklar ist, wie viel Lagerbestand der Konzern derzeit in den USA hortet.

Die Kalifornier wollen die Auswirkungen der Zölle hinauszögern. Ziel ist es laut Apple eine Erhöhung der iPhone-Preise bis zur Markteinführung des iPhone 17 im Herbst zu vermeiden. Für das iPhone 17 könnte Apple dann die Verkaufspreise anpassen und die Zölle einberechnen, so Marktbeobachter.

Lieferkette bleibt China-zentriert

Bei anderen Produkten scheint das Unternehmen jedoch weniger Glück zu haben: Die meisten Mac-Konfigurationen, die auf Bestellung gefertigt werden, erhalten Verbraucher in den Vereinigten Staaten direkt aus den Apple-Fabriken in China.

Ob Apple Produktionskapazitäten in die USA verlegen wird, bleibt abzuwarten. Das Tech-Unternehmen benötigte allein für den Umzug von China nach Indien sowie den Aufbau der Produktionskapazitäten drei Jahre.

Zuletzt stellte Apple schätzungsweise 25 Millionen iPhones in Indien her. Vorher hatte das Unternehmen zwischen 15 und 20 Jahre in den Aufbau seiner Lieferkette zwischen den USA und China investiert.

Apple hamstert iPhones nach neuen US-Zöllen​ Weiterlesen »

Industrie im Aufbruch, Weltpolitik im Umbruch​

Allgemein

Können die neuen Zölle die Produktion in den USA ankurbeln? Es spricht einiges dagegen.Shutterstock/Bigc Studio Noch während sich die führenden Unternehmen der Branche auf der Hannover Messe versammelten, um bahnbrechende Automatisierungslösungen und digitale Innovationen zu präsentieren, geriet unversehens die Weltbühne unter ihren Füßen in Bewegung. Die von der US-Regierung angekündigte neue Runde weitreichender Zölle macht die ohnehin schon volatile globale Handelslandschaft noch komplexer und zwingt Hersteller, Technologieanbieter und Investoren, sich anzupassen.  In einer zunehmend vernetzten Welt ist kein Unternehmen eine Insel. Auch wenn Zölle für Unternehmen, die ausschließlich in den USA produzieren und verkaufen, kurzfristig von Vorteil sein können, sind solche Szenarien selten. Moderne Produkte – egal ob Autos, Flugzeuge oder Industriemaschinen – hängen von globalen Lieferketten ab. Diese Netzwerke zu verlagern oder zu vereinfachen, ist nicht nur teuer und zeitaufwändig, sondern oft auch unrealistisch. Und da die Dauer der neu eingeführten Zölle noch ungewiss ist, stehen die meisten Unternehmen vor einer ungewissen Zukunft.  Die neue Zolllandschaft  Präsident Trump hat im Rahmen des International Emergency Economic Powers Act (IEEPA) weitreichende Zölle angekündigt:  Ein Zollsatz von zehn Prozent auf alle Importgüter aus allen Ländern, der am 5. April 2025 in Kraft trat.  Ab dem 9. April 2025 höhere „reziproke“ Zölle für Länder, mit denen die USA die größten Handelsdefizite haben.  Es gibt einige Ausnahmen, darunter:  Stahl, Aluminium, Autos und Autoteile, die bereits den Zöllen nach Section 232 unterliegen.  Kritische Materialien wie Kupfer, Halbleiter und Holz.  Bestimmte Mineralien und Energieressourcen, die in den USA nicht verfügbar sind.  Die vom Weißen Haus veröffentlichte Zollliste sieht auch erhebliche Erhöhungen für asiatische Importe vor:  54 Prozent auf chinesische Importe (ein neuer Zoll von 34 Prozent zusätzlich zu den bestehenden 20 Prozent).  46 Prozent auf Importe aus Vietnam.  32 Prozent auf Importe aus Taiwan, einem wichtigen Halbleiterlieferanten.  Die Ankündigung löste an den Finanzmärkten Panik aus. Binnen weniger Stunden gingen an den Börsen mehrere hundert Milliarden Dollar an Marktwert der so genannten Magnificent Seven – darunter Apple, Microsoft, Nvidia und Amazon – in Rauch auf.   Straffer Zeitplan für den Ausbau der US-Produktion  Während die Unternehmen darüber nachdenken, wie sie darauf reagieren sollen, erfordert eine vorgeschlagene Strategie – die Verlagerung der Produktion in die USA – eine langfristige Perspektive. Der Auf- oder Ausbau von Produktionsstätten in den USA ist keine Kleinigkeit, insbesondere wenn es sich um komplexe oder hochtechnologische Betriebe handelt.  GenAI-Modelle schätzen den Zeitrahmen für den Bau einer Fabrik in den USA wie folgt ein:  Genehmigungen und Zulassungen: sechs Monate bis zwei Jahre (je nach Bundesstaat und regulatorischen Hürden).  Standortvorbereitung und Infrastruktur: drei bis zwölf Monate.  Bau: zwölf bis 36 Monate (länger für Groß- oder High-Tech-Anlagen).  Installation und Inbetriebnahme des Equipments: sechs bis 18 Monate.  Typische Zeitpläne nach Branche:  Kleine/mittlere Fertigungsanlagen (allgemeine Güter): zirka 1,5 bis drei Jahre.  Automobilfabrik: zwei bis vier Jahre.  Halbleiterfabrik: drei bis fünf Jahre (oder länger).  Pharmazeutische/Biotech-Einrichtungen: zwei bis vier Jahre.  Diese Prognosen berücksichtigen jedoch nicht die Ausbildung der Mitarbeiter – ein wichtiger Faktor für eine qualitativ hochwertige Produktion in großem Maßstab. Vom ersten Spatenstich bis zur Rentabilität können also fünf oder mehr Jahre vergehen.  Auch wenn das Reshoring mit den strategischen und politischen Zielen übereinstimmt, bleibt die Frage offen, welche Art von Arbeitsplätzen geschaffen werden. Und sind die in den USA hergestellten Produkte auf den Weltmärkten überhaupt wettbewerbsfähig?  Die Zukunft der Fertigung und der digitalen Technologie  So fügt sich die Verlagerung der Produktion in die USA zwar in die umfassenderen nationalen Prioritäten des Landes ein. Ihr Erfolg hängt aber von mehr als nur der Infrastruktur ab. Um in diesem sich wandelnden Umfeld erfolgreich zu sein, müssen Unternehmen agil bleiben und die digitale Transformation und KI-gestützte Erkenntnisse nutzen, um Prozesse zu optimieren und Risiken zu managen.  Kurz gesagt: Die Spielregeln ändern sich. Die Gewinner werden diejenigen sein, die sich schnell anpassen und intelligenter bauen, nicht nur größer.  

Industrie im Aufbruch, Weltpolitik im Umbruch​ Können die neuen Zölle die Produktion in den USA ankurbeln? Es spricht einiges dagegen.Shutterstock/Bigc Studio

Noch während sich die führenden Unternehmen der Branche auf der Hannover Messe versammelten, um bahnbrechende Automatisierungslösungen und digitale Innovationen zu präsentieren, geriet unversehens die Weltbühne unter ihren Füßen in Bewegung. Die von der US-Regierung angekündigte neue Runde weitreichender Zölle macht die ohnehin schon volatile globale Handelslandschaft noch komplexer und zwingt Hersteller, Technologieanbieter und Investoren, sich anzupassen. 

In einer zunehmend vernetzten Welt ist kein Unternehmen eine Insel. Auch wenn Zölle für Unternehmen, die ausschließlich in den USA produzieren und verkaufen, kurzfristig von Vorteil sein können, sind solche Szenarien selten. Moderne Produkte – egal ob Autos, Flugzeuge oder Industriemaschinen – hängen von globalen Lieferketten ab. Diese Netzwerke zu verlagern oder zu vereinfachen, ist nicht nur teuer und zeitaufwändig, sondern oft auch unrealistisch. Und da die Dauer der neu eingeführten Zölle noch ungewiss ist, stehen die meisten Unternehmen vor einer ungewissen Zukunft. 

Die neue Zolllandschaft 

Präsident Trump hat im Rahmen des International Emergency Economic Powers Act (IEEPA) weitreichende Zölle angekündigt: 

Ein Zollsatz von zehn Prozent auf alle Importgüter aus allen Ländern, der am 5. April 2025 in Kraft trat. 

Ab dem 9. April 2025 höhere „reziproke“ Zölle für Länder, mit denen die USA die größten Handelsdefizite haben. 

Es gibt einige Ausnahmen, darunter: 

Stahl, Aluminium, Autos und Autoteile, die bereits den Zöllen nach Section 232 unterliegen. 

Kritische Materialien wie Kupfer, Halbleiter und Holz. 

Bestimmte Mineralien und Energieressourcen, die in den USA nicht verfügbar sind. 

Die vom Weißen Haus veröffentlichte Zollliste sieht auch erhebliche Erhöhungen für asiatische Importe vor: 

54 Prozent auf chinesische Importe (ein neuer Zoll von 34 Prozent zusätzlich zu den bestehenden 20 Prozent). 

46 Prozent auf Importe aus Vietnam. 

32 Prozent auf Importe aus Taiwan, einem wichtigen Halbleiterlieferanten. 

Die Ankündigung löste an den Finanzmärkten Panik aus. Binnen weniger Stunden gingen an den Börsen mehrere hundert Milliarden Dollar an Marktwert der so genannten Magnificent Seven – darunter Apple, Microsoft, Nvidia und Amazon – in Rauch auf.  

Straffer Zeitplan für den Ausbau der US-Produktion 

Während die Unternehmen darüber nachdenken, wie sie darauf reagieren sollen, erfordert eine vorgeschlagene Strategie – die Verlagerung der Produktion in die USA – eine langfristige Perspektive. Der Auf- oder Ausbau von Produktionsstätten in den USA ist keine Kleinigkeit, insbesondere wenn es sich um komplexe oder hochtechnologische Betriebe handelt. 

GenAI-Modelle schätzen den Zeitrahmen für den Bau einer Fabrik in den USA wie folgt ein: 

Genehmigungen und Zulassungen: sechs Monate bis zwei Jahre (je nach Bundesstaat und regulatorischen Hürden). 

Standortvorbereitung und Infrastruktur: drei bis zwölf Monate. 

Bau: zwölf bis 36 Monate (länger für Groß- oder High-Tech-Anlagen). 

Installation und Inbetriebnahme des Equipments: sechs bis 18 Monate. 

Typische Zeitpläne nach Branche: 

Kleine/mittlere Fertigungsanlagen (allgemeine Güter): zirka 1,5 bis drei Jahre. 

Automobilfabrik: zwei bis vier Jahre. 

Halbleiterfabrik: drei bis fünf Jahre (oder länger). 

Pharmazeutische/Biotech-Einrichtungen: zwei bis vier Jahre. 

Diese Prognosen berücksichtigen jedoch nicht die Ausbildung der Mitarbeiter – ein wichtiger Faktor für eine qualitativ hochwertige Produktion in großem Maßstab. Vom ersten Spatenstich bis zur Rentabilität können also fünf oder mehr Jahre vergehen. 

Auch wenn das Reshoring mit den strategischen und politischen Zielen übereinstimmt, bleibt die Frage offen, welche Art von Arbeitsplätzen geschaffen werden. Und sind die in den USA hergestellten Produkte auf den Weltmärkten überhaupt wettbewerbsfähig? 

Die Zukunft der Fertigung und der digitalen Technologie 

So fügt sich die Verlagerung der Produktion in die USA zwar in die umfassenderen nationalen Prioritäten des Landes ein. Ihr Erfolg hängt aber von mehr als nur der Infrastruktur ab. Um in diesem sich wandelnden Umfeld erfolgreich zu sein, müssen Unternehmen agil bleiben und die digitale Transformation und KI-gestützte Erkenntnisse nutzen, um Prozesse zu optimieren und Risiken zu managen. 

Kurz gesagt: Die Spielregeln ändern sich. Die Gewinner werden diejenigen sein, die sich schnell anpassen und intelligenter bauen, nicht nur größer. 

Industrie im Aufbruch, Weltpolitik im Umbruch​ Weiterlesen »

5 Alternativen zu VMware vSphere​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?quality=50&strip=all 8000w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Lesen Sie, welche alternativen Virtualisierungsplattformen Analysten abwanderungswilligen VMware-Kunden ans Herz legen.JLStock | shutterstock.com Es gibt viele Alternativen für Organisationen, die mit der Richtung, die Broadcom mit der VMware-Virtualisierungsplattform einschlägt, unzufrieden sind. Zum Beispiel, indem sie virtuelle Maschinen (VMs) hinter sich lassen und: Workloads stattdessen in die Public Cloud verlagern, oder auf containerisierte Plattformen wie Red Hat OpenShift setzen.    Es gibt jedoch genug Anwender, für die keine der beiden Optionen in Frage kommt – sie suchen ausschließlich nach einer alternativen Virtualisierungsplattform. Die fünf (ihrer Meinung nach) besten Alternativen in diesem Bereich haben die Analysten der Data Center Intelligence Group (DCIG) identifiziert (Download gegen Daten). Diese stellen wir Ihnen nachfolgend (in alphabetischer Reihenfolge) inklusive einer kurzen Beschreibung vor.   1. HiveIO Hive Fabric Bei HiveIO handelt es sich um eine VM-Plattform auf Basis des Linux Kernels (KVM), die mit diversen Features aufwarten kann. Darunter beispielsweise: ein intelligenter Message-Bus, Pool-Orchestrierung, Benutzerprofil-Management und Shared Storage. Der Cloud-basierte Monitoring-Service HiveSense sorgt dabei für proaktives Monitoring und erkennt Anomalien. Die Plattform von HiveIO ist in drei Lizenzierungsstufen verfügbar – darunter auch eine kostenlose Community-Edition. Der Enterprise-Plan umfasst unter anderem: HCI, VDI, sowie Gast- / Applikations-Pools. 2. Microsoft Azure Local Für Microsoft-zentrische Unternehmen ist Azure Stack HCI eine Alternative zu VMwares vSphere-Plattform. Die Plattform läuft bei den Redmondern inzwischen unter dem Banner von Azure Local und nutzt erwartungsgemäß die Azure Cloud und Microsofts Hyper-V-Technologie. Die Anwender können dabei zwischen zwei Ansätzen wählen: Im Fall von Azure Stack HCI Hardware-as-a-Service sind Hardware und Software vorinstalliert. Unternehmen können jedoch auch validierte Knoten kaufen und sich selbst darum kümmern, die zugrundeliegende Hardware zu beschaffen, zu dimensionieren und bereitzustellen. Eine weitere nennenswerte Funktion von Azure Stack HCI ist beispielsweise ein Migrations-Tool, das dabei hilft, vorhandene VMware-Workloads zu überführen. Davon abgesehen ermöglicht die Microsoft-Lösung, Applikationen, VMs oder containerbasierte Workloads entweder On-Premises oder über die Azure Cloud auszuführen – und das zugehörige Portal zu managen. Zudem unterstützt Azure Stack HCI auch GPU-Partitionierung – laut den DCIG-Analysten ein entscheidendes Feature für vSphere-Anwender, die nach einer alternativen Lösung suchen.   3. Nutanix Cloud Infrastructure Anwender, die ihre Virtualisierungsstrategie unabhängig von Broadcom weiterführen wollen und sich in diesem Zuge für Nutanix entscheiden, haben den Vorteil, den Hypervisor nicht wechseln zu müssen. Denn diese Plattform unterstützt neben dem hauseigenen Acropolis Hypervisor (AHV) auch vSphere und Hyper-V. Entsprechend forsch positioniert sich auch Nutanix als alternative Anlaufstelle für verärgerte VMware-Kunden. Die Storage Services des Anbieters aggregieren Ressourcen in Pools und stellen diese jeder Art von virtueller Maschine zur Verfügung. Zu den Features der Plattform zählen unter anderem: Datenkomprimierung und -deduplizierung, Hochverfügbarkeits-Cluster, sowie die Möglichkeit, Snapshots zu erstellen. Dabei denkt Nutanix auch an Anwender, die High-Performance-Datenbanken betreiben und dazu im Regelfall auf externe Storage-Arrays zurückgreifen. Diesen Bedarf deckt der Anbieter durch Storage-Zertifizierungen für SAP HANA und Oracle RAC ab. 4. Scale Computing Platform Mit der Scale Computing Platform bekommen abwanderungswillige VMware-Kunden ein All-In-One-Paket, das Software, Hardware und sämtliche nötigen Lizenzen bündelt. Zu den Features auf Softwareseite zählen unter anderem: High-Availability Clustering (inklusive zentralisiertem Management), integrierte Disaster Recovery, Datenreplikation, sowie Software-Defined Storage. Scale bietet zudem ein Tool an, um vSphere-Migrationen automatisiert zu bewältigen. Auch diese Plattform setzt auf Storage Pools und bietet darüber hinaus die Möglichkeit, unterschiedliche Hardware Appliances in einem Cluster zusammenzuführen. 5. VergeIO VergeIO ist nach eigener Aussage „mehr als eine VMware-Alternative“. Das liegt in erster Linie am Konzept der „Ultraconverged Infrastructure“ (UCI), das der Anbieter verfolgt: Dabei wird Virtualisierung, Storage und Networking in einem Betriebssystem für Rechenzentren integriert – VergeOS. Die Plattform virtualisiert also nicht nur den „normalen“ Rechen-, Netzwerk- und Storage-Stack, sondern implementiert auch Mandantenfähigkeit in Form von Virtual Data Centers (VDCs). Die Anwender können jedes VDC – ähnlich wie die von den Hyperscalern angebotenen Virtual Private Clouds – einzeln managen und nutzen. Dieses Modell soll laut VergeIO eine erhöhte Workload-Dichte realisieren, die wiederum beiträgt zu: niedrigeren Kosten, optimierter Verfügbarkeit, und vereinfachten IT-Prozessen. Auch VergeIO hat seine Bemühungen verstärkt, gezielt VMware-Kunden zu gewinnen. Deshalb bietet das Unternehmen etwa auch einen Migrationsservice für vSphere an und ermöglicht es Anwendern außerdem, vorhandene Server wiederzuverwenden, um VergeOS zu hosten. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

5 Alternativen zu VMware vSphere​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?quality=50&strip=all 8000w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/JLStock_shutterstock_2331332763_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Lesen Sie, welche alternativen Virtualisierungsplattformen Analysten abwanderungswilligen VMware-Kunden ans Herz legen.JLStock | shutterstock.com

Es gibt viele Alternativen für Organisationen, die mit der Richtung, die Broadcom mit der VMware-Virtualisierungsplattform einschlägt, unzufrieden sind. Zum Beispiel, indem sie virtuelle Maschinen (VMs) hinter sich lassen und:

Workloads stattdessen in die Public Cloud verlagern, oder

auf containerisierte Plattformen wie Red Hat OpenShift setzen.   

Es gibt jedoch genug Anwender, für die keine der beiden Optionen in Frage kommt – sie suchen ausschließlich nach einer alternativen Virtualisierungsplattform. Die fünf (ihrer Meinung nach) besten Alternativen in diesem Bereich haben die Analysten der Data Center Intelligence Group (DCIG) identifiziert (Download gegen Daten). Diese stellen wir Ihnen nachfolgend (in alphabetischer Reihenfolge) inklusive einer kurzen Beschreibung vor.  

1. HiveIO Hive Fabric

Bei HiveIO handelt es sich um eine VM-Plattform auf Basis des Linux Kernels (KVM), die mit diversen Features aufwarten kann. Darunter beispielsweise:

ein intelligenter Message-Bus,

Pool-Orchestrierung,

Benutzerprofil-Management und

Shared Storage.

Der Cloud-basierte Monitoring-Service HiveSense sorgt dabei für proaktives Monitoring und erkennt Anomalien. Die Plattform von HiveIO ist in drei Lizenzierungsstufen verfügbar – darunter auch eine kostenlose Community-Edition. Der Enterprise-Plan umfasst unter anderem:

HCI,

VDI, sowie

Gast- / Applikations-Pools.

2. Microsoft Azure Local

Für Microsoft-zentrische Unternehmen ist Azure Stack HCI eine Alternative zu VMwares vSphere-Plattform. Die Plattform läuft bei den Redmondern inzwischen unter dem Banner von Azure Local und nutzt erwartungsgemäß die Azure Cloud und Microsofts Hyper-V-Technologie. Die Anwender können dabei zwischen zwei Ansätzen wählen:

Im Fall von Azure Stack HCI Hardware-as-a-Service sind Hardware und Software vorinstalliert.

Unternehmen können jedoch auch validierte Knoten kaufen und sich selbst darum kümmern, die zugrundeliegende Hardware zu beschaffen, zu dimensionieren und bereitzustellen.

Eine weitere nennenswerte Funktion von Azure Stack HCI ist beispielsweise ein Migrations-Tool, das dabei hilft, vorhandene VMware-Workloads zu überführen. Davon abgesehen ermöglicht die Microsoft-Lösung, Applikationen, VMs oder containerbasierte Workloads entweder On-Premises oder über die Azure Cloud auszuführen – und das zugehörige Portal zu managen. Zudem unterstützt Azure Stack HCI auch GPU-Partitionierung – laut den DCIG-Analysten ein entscheidendes Feature für vSphere-Anwender, die nach einer alternativen Lösung suchen.  

3. Nutanix Cloud Infrastructure

Anwender, die ihre Virtualisierungsstrategie unabhängig von Broadcom weiterführen wollen und sich in diesem Zuge für Nutanix entscheiden, haben den Vorteil, den Hypervisor nicht wechseln zu müssen. Denn diese Plattform unterstützt neben dem hauseigenen Acropolis Hypervisor (AHV) auch vSphere und Hyper-V. Entsprechend forsch positioniert sich auch Nutanix als alternative Anlaufstelle für verärgerte VMware-Kunden.

Die Storage Services des Anbieters aggregieren Ressourcen in Pools und stellen diese jeder Art von virtueller Maschine zur Verfügung. Zu den Features der Plattform zählen unter anderem:

Datenkomprimierung und -deduplizierung,

Hochverfügbarkeits-Cluster, sowie

die Möglichkeit, Snapshots zu erstellen.

Dabei denkt Nutanix auch an Anwender, die High-Performance-Datenbanken betreiben und dazu im Regelfall auf externe Storage-Arrays zurückgreifen. Diesen Bedarf deckt der Anbieter durch Storage-Zertifizierungen für SAP HANA und Oracle RAC ab.

4. Scale Computing Platform

Mit der Scale Computing Platform bekommen abwanderungswillige VMware-Kunden ein All-In-One-Paket, das Software, Hardware und sämtliche nötigen Lizenzen bündelt. Zu den Features auf Softwareseite zählen unter anderem:

High-Availability Clustering (inklusive zentralisiertem Management),

integrierte Disaster Recovery,

Datenreplikation, sowie

Software-Defined Storage.

Scale bietet zudem ein Tool an, um vSphere-Migrationen automatisiert zu bewältigen. Auch diese Plattform setzt auf Storage Pools und bietet darüber hinaus die Möglichkeit, unterschiedliche Hardware Appliances in einem Cluster zusammenzuführen.

5. VergeIO

VergeIO ist nach eigener Aussage „mehr als eine VMware-Alternative“. Das liegt in erster Linie am Konzept der „Ultraconverged Infrastructure“ (UCI), das der Anbieter verfolgt: Dabei wird Virtualisierung, Storage und Networking in einem Betriebssystem für Rechenzentren integriert – VergeOS. Die Plattform virtualisiert also nicht nur den „normalen“ Rechen-, Netzwerk- und Storage-Stack, sondern implementiert auch Mandantenfähigkeit in Form von Virtual Data Centers (VDCs).

Die Anwender können jedes VDC – ähnlich wie die von den Hyperscalern angebotenen Virtual Private Clouds – einzeln managen und nutzen. Dieses Modell soll laut VergeIO eine erhöhte Workload-Dichte realisieren, die wiederum beiträgt zu:

niedrigeren Kosten,

optimierter Verfügbarkeit, und

vereinfachten IT-Prozessen.

Auch VergeIO hat seine Bemühungen verstärkt, gezielt VMware-Kunden zu gewinnen. Deshalb bietet das Unternehmen etwa auch einen Migrationsservice für vSphere an und ermöglicht es Anwendern außerdem, vorhandene Server wiederzuverwenden, um VergeOS zu hosten.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

5 Alternativen zu VMware vSphere​ Weiterlesen »

Cyber-Security: Wie Sie sich gegen KI als Einbruchswerkzeug wehren​

Allgemein

Ob verbesserter Kundenservice, effizientere Energienutzung, optimierte Maschinenwartung oder höhere Produktionsleistung in der Industrie – Künstliche Intelligenz eröffnet Firmen weltweit die Möglichkeit, Produkte und Dienstleistungen auf einem neuen Level zu entwickeln. Die Kehrseite der Medaille: Auch Cyber-Kriminelle rund um den Globus wissen inzwischen den Werkzeugkasten an KI-Tool virtuos einzusetzen, um sich Zugriff auf sensible Unternehmensinformationen verschaffen. Deepfake-Imitationen sind heute so realitätsnah, dass Mitarbeiter sie kaum noch auf ihren Wahrheitsgehalt prüfen können. Kriminelle nutzen insbesondere generative KI, um perfekte, personalisierte Phishing-E-Mails und -Texte zu erstellen. Offensichtliche Grammatikfehler gehören längst der Vergangenheit an. Die Erstellung kompromittierender E-Mails erfolgt ausgefeilt, ihre Verteilung zielgerichtet, so dass selbst aufmerksame Empfänger in die Falle tappen. Was also tun, um Unternehmensdaten vor unberechtigtem Zugriff zu schützen? Und wie sollen sich Unternehmen im sich aufschaukelnden Kampf um die effektivsten KI-Werkzeuge in Cyber-Welt aufstellen? Ein CIO Webcast im Kooperation mit Sophos zeigt, wie Cyber-Angreifer tatsächlich vorgehen und wie sich Unternehmen am besten gegen diese Attacken wehren. Der Sicherheitsexperte Sascha Pfeiffer von Sophos erklärt, welche Rolle KI bei Cyber-Angriffen tatsächlich spielt, und wo umgekehrt KI die IT-Sicherheit entscheidend verbessern kann – aber auch, wo ihr Einsatz wenig sinnvoll ist. Webcast: Cybersecurity – Die zwei Gesichter der KIErfahren Sie im CIO-Webcast, welche Risiken, aber auch Chancen KI für die Cyber-Sicherheit bedeutet.Registrieren Sie sich jetzt 

Cyber-Security: Wie Sie sich gegen KI als Einbruchswerkzeug wehren​ Ob verbesserter Kundenservice, effizientere Energienutzung, optimierte Maschinenwartung oder höhere Produktionsleistung in der Industrie – Künstliche Intelligenz eröffnet Firmen weltweit die Möglichkeit, Produkte und Dienstleistungen auf einem neuen Level zu entwickeln. Die Kehrseite der Medaille: Auch Cyber-Kriminelle rund um den Globus wissen inzwischen den Werkzeugkasten an KI-Tool virtuos einzusetzen, um sich Zugriff auf sensible Unternehmensinformationen verschaffen. Deepfake-Imitationen sind heute so realitätsnah, dass Mitarbeiter sie kaum noch auf ihren Wahrheitsgehalt prüfen können.

Kriminelle nutzen insbesondere generative KI, um perfekte, personalisierte Phishing-E-Mails und -Texte zu erstellen. Offensichtliche Grammatikfehler gehören längst der Vergangenheit an. Die Erstellung kompromittierender E-Mails erfolgt ausgefeilt, ihre Verteilung zielgerichtet, so dass selbst aufmerksame Empfänger in die Falle tappen. Was also tun, um Unternehmensdaten vor unberechtigtem Zugriff zu schützen? Und wie sollen sich Unternehmen im sich aufschaukelnden Kampf um die effektivsten KI-Werkzeuge in Cyber-Welt aufstellen?

Ein CIO Webcast im Kooperation mit Sophos zeigt, wie Cyber-Angreifer tatsächlich vorgehen und wie sich Unternehmen am besten gegen diese Attacken wehren. Der Sicherheitsexperte Sascha Pfeiffer von Sophos erklärt, welche Rolle KI bei Cyber-Angriffen tatsächlich spielt, und wo umgekehrt KI die IT-Sicherheit entscheidend verbessern kann – aber auch, wo ihr Einsatz wenig sinnvoll ist.

Webcast: Cybersecurity – Die zwei Gesichter der KIErfahren Sie im CIO-Webcast, welche Risiken, aber auch Chancen KI für die Cyber-Sicherheit bedeutet.Registrieren Sie sich jetzt

Cyber-Security: Wie Sie sich gegen KI als Einbruchswerkzeug wehren​ Weiterlesen »

5 Disaster-Recovery-Tipps: So geht Business Continuity in der Cloud​

Allgemein

Wie gut sind Sie gegen Cloud-Katastrophen gewappnet? Foto: Evgeniyqw – shutterstock.com Es ist Freitagnachmittag. Plötzlich ruft Ihr CIO Sie an und teilt Ihnen mit, dass Daten von einem Public-Cloud-Server verschwunden sind und er die so schnell wie möglich wiederbenötigt. Doch es kommt noch schlimmer: Es liegen keine aktuellen Sicherungskopien der Daten vor. Bei den Backups, die Ihr Cloud-Anbieter in Ihrem Namen erstellt, handelt es sich lediglich um Kernsystem-Backups. Diese sind also für Ihre Zwecke unbrauchbar. Es existieren weder eine Business Continuity und Disaster Recovery (BCDR) -Strategie, noch Prozesse oder ein Playbook, die im Fall von Sicherheitsvorfällen oder Ausfällen weiterhelfen könnten. Eine häufige Fehlannahme: In der Cloud geschieht das automatisch. Neben diesen fatalen Missverständnissen ist auch die Annahme weit verbreitet, dass diejenigen, die für den Betrieb und die Sicherheit von Cloud-Systemen zuständig sind, das Problem schon im Griff haben werden. Der traditionelle BCDR-Ansatz fokussiert auf physische Infrastrukturen und On-Premises-Lösungen. Für Unternehmen gilt es nun, sich diesbezüglich an die dynamische Natur der Cloud anzupassen. Flexibilität, Skalierbarkeit und Kosteneffizienz dieser Systeme bringen schließlich auch neue Komplexitäten und Schwachstellen mit sich. Entsprechend sollten Unternehmen auf moderne Business-Continuity- und Disaster-Recovery-Methoden setzen. That moment when you wish you had a Disaster Recovery plan.#CloudArchitect #FunOps #DevOps #DevOops #Meme #CloudDisasterRecovery pic.twitter.com/prRtjrSCLx— __ubk (@__ubk) May 7, 2023 5 Disaster-Recovery-Tipps für die Cloud Für die meisten Cloud-Anbieter besteht zwar ein finanzieller Anreiz, sich um die Betriebszeit Ihrer Systeme zu kümmern – und viele Anbieter verfügen auch über automatisierte BCDR-Prozesse und -Mechanismen. Dennoch handelt es sich immer noch um ein Shared-Responsibility-Modell. Soll heißen: Ihr Anbieter sorgt dafür, dass alles läuft, aber Sie sind weiterhin für den Schutz Ihrer Daten verantwortlich. Gleiches gilt für die Bereiche Datensicherheit, -Governance und Disaster Recovery. Folgende fünf Punkte sollten Unternehmen in Angriff nehmen, um Ihre Cloud-Systeme in Sachen Business Continuity und Disaster Recovery bestmöglich aufzustellen: Testing und Validierung: Viele Unternehmen unterschätzen, wie wichtig es ist, ihre Disaster-Recovery-Pläne regelmäßig zu testen und zu validieren. Erstgenanntes gewährleistet, dass die Disaster-Recovery-Mechanismen wie erwartet funktionieren und die Wiederherstellungsziele innerhalb des gewünschten Zeitrahmens erreicht werden können. Wird das Testing vernachlässigt, kann das zu Fehleinschätzungen über die Recovery-Fähigkeiten und letzten Endes dazu führen, dass im Katastrophenfall nicht gehandelt werden kann. Datenreplikation und -Backup: Möglicherweise vernachlässigen es einige Unternehmen auch, in Sachen Cloud robuste Data-Replication- und Backup-Strategien zu implementieren. Sich bei der Datenredundanz ausschließlich auf die Infrastruktur des Cloud-Anbieters zu verlassen, ist allerdings riskant. Um vor Datenverlust oder -beschädigung geschützt zu sein, sind angemessene Backups unverzichtbar, auch an Offsite-Standorten. Dass Daten, die auf Cloud-basierten Systemen gespeichert sind, bereits geschützt sind, entspricht selten der Wahrheit. Gehen Sie stattdessen davon aus, dass es keinen Schutz gibt und dass Sie allein für Backup und Recovery verantwortlich sind. Geografische Redundanz: Cloud-Anbieter bieten geografisch verteilte Rechenzentren an. Unternehmen, die versäumen, redundante Cloud-Implementierungen über mehrere Regionen hinweg einzurichten, schaffen im Ernstfall einen Single Point of Failure. Geografisch redundante Systeme ermöglichen es hingegen, regionale Störungen auszugleichen. Es kann in diesem Zusammenhang Sinn machen, auf Backup- und Recovery-Lösungen in SaaS-Form zu setzen – geografische Redundanz gehört hier im Regelfall mit zum Servicepaket. Recovery Time Objectives (RTO) und Recovery Point Objectives (RPO): Die Definition und Abstimmung von RTOs und RPOs mit Cloud-Funktionen zu vernachlässigen, kann in ungenügende Wiederherstellungsstrategien münden. Unternehmen sollten unbedingt wissen, wie lange es dauert, ihre Anwendungen und Systeme in der Cloud wiederherzustellen – und wie viele Daten im Falle einer Störung verloren gehen könnten. RTOs und RPOs auf die Cloud-Funktionen abzustimmen, hilft dabei, realistische Erwartungen festzulegen und ermöglicht eine angemessene Wiederherstellungsplanung. Kommunikation und Stakeholder-Management: Wirksame Kommunikation ist im Fall einer Katastrophe essenziell: Unternehmen müssen klare Kommunikationskanäle und -protokolle einrichten, um Stakeholder, Mitarbeiter und Kunden über die Auswirkungen von Geschäftsunterbrechungen und die Schritte zur Wiederherstellung zu informieren. Dieser Plan sollte in schriftlicher Form vorliegen. Wird dieser Punkt vernachlässigt, ist das für die Firmen in der Regel wesentlich kostspieliger als der Schaden, der durch Datenverletzungen oder -verlust entsteht. Es muss ein solides Regelwerk geben, das genau festlegt, wer zu welchem Zweck kontaktiert wird und wie der Vorfall innerhalb und außerhalb des Unternehmens kommuniziert wird. All diese Maßnahmen lassen sich relativ kostengünstig einführen. Sobald diese Lösungen implementiert sind und einige Betriebskosten wegfallen (etwa für Backup und Recovery innerhalb der Cloud), ist es in der Regel günstiger, externe SaaS-basierte Backup- und Recovery-Services in Anspruch zu nehmen. (fm) Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld. 

5 Disaster-Recovery-Tipps: So geht Business Continuity in der Cloud​ Wie gut sind Sie gegen Cloud-Katastrophen gewappnet?
Foto: Evgeniyqw – shutterstock.com

Es ist Freitagnachmittag. Plötzlich ruft Ihr CIO Sie an und teilt Ihnen mit, dass Daten von einem Public-Cloud-Server verschwunden sind und er die so schnell wie möglich wiederbenötigt. Doch es kommt noch schlimmer:

Es liegen keine aktuellen Sicherungskopien der Daten vor. Bei den Backups, die Ihr Cloud-Anbieter in Ihrem Namen erstellt, handelt es sich lediglich um Kernsystem-Backups. Diese sind also für Ihre Zwecke unbrauchbar.

Es existieren weder eine Business Continuity und Disaster Recovery (BCDR) -Strategie, noch Prozesse oder ein Playbook, die im Fall von Sicherheitsvorfällen oder Ausfällen weiterhelfen könnten. Eine häufige Fehlannahme: In der Cloud geschieht das automatisch.

Neben diesen fatalen Missverständnissen ist auch die Annahme weit verbreitet, dass diejenigen, die für den Betrieb und die Sicherheit von Cloud-Systemen zuständig sind, das Problem schon im Griff haben werden.

Der traditionelle BCDR-Ansatz fokussiert auf physische Infrastrukturen und On-Premises-Lösungen. Für Unternehmen gilt es nun, sich diesbezüglich an die dynamische Natur der Cloud anzupassen. Flexibilität, Skalierbarkeit und Kosteneffizienz dieser Systeme bringen schließlich auch neue Komplexitäten und Schwachstellen mit sich. Entsprechend sollten Unternehmen auf moderne Business-Continuity- und Disaster-Recovery-Methoden setzen.

That moment when you wish you had a Disaster Recovery plan.#CloudArchitect #FunOps #DevOps #DevOops #Meme #CloudDisasterRecovery pic.twitter.com/prRtjrSCLx— __ubk (@__ubk) May 7, 2023

5 Disaster-Recovery-Tipps für die Cloud

Für die meisten Cloud-Anbieter besteht zwar ein finanzieller Anreiz, sich um die Betriebszeit Ihrer Systeme zu kümmern – und viele Anbieter verfügen auch über automatisierte BCDR-Prozesse und -Mechanismen. Dennoch handelt es sich immer noch um ein Shared-Responsibility-Modell. Soll heißen: Ihr Anbieter sorgt dafür, dass alles läuft, aber Sie sind weiterhin für den Schutz Ihrer Daten verantwortlich. Gleiches gilt für die Bereiche Datensicherheit, -Governance und Disaster Recovery.

Folgende fünf Punkte sollten Unternehmen in Angriff nehmen, um Ihre Cloud-Systeme in Sachen Business Continuity und Disaster Recovery bestmöglich aufzustellen:

Testing und Validierung: Viele Unternehmen unterschätzen, wie wichtig es ist, ihre Disaster-Recovery-Pläne regelmäßig zu testen und zu validieren. Erstgenanntes gewährleistet, dass die Disaster-Recovery-Mechanismen wie erwartet funktionieren und die Wiederherstellungsziele innerhalb des gewünschten Zeitrahmens erreicht werden können. Wird das Testing vernachlässigt, kann das zu Fehleinschätzungen über die Recovery-Fähigkeiten und letzten Endes dazu führen, dass im Katastrophenfall nicht gehandelt werden kann.

Datenreplikation und -Backup: Möglicherweise vernachlässigen es einige Unternehmen auch, in Sachen Cloud robuste Data-Replication- und Backup-Strategien zu implementieren. Sich bei der Datenredundanz ausschließlich auf die Infrastruktur des Cloud-Anbieters zu verlassen, ist allerdings riskant. Um vor Datenverlust oder -beschädigung geschützt zu sein, sind angemessene Backups unverzichtbar, auch an Offsite-Standorten. Dass Daten, die auf Cloud-basierten Systemen gespeichert sind, bereits geschützt sind, entspricht selten der Wahrheit. Gehen Sie stattdessen davon aus, dass es keinen Schutz gibt und dass Sie allein für Backup und Recovery verantwortlich sind.

Geografische Redundanz: Cloud-Anbieter bieten geografisch verteilte Rechenzentren an. Unternehmen, die versäumen, redundante Cloud-Implementierungen über mehrere Regionen hinweg einzurichten, schaffen im Ernstfall einen Single Point of Failure. Geografisch redundante Systeme ermöglichen es hingegen, regionale Störungen auszugleichen. Es kann in diesem Zusammenhang Sinn machen, auf Backup- und Recovery-Lösungen in SaaS-Form zu setzen – geografische Redundanz gehört hier im Regelfall mit zum Servicepaket.

Recovery Time Objectives (RTO) und Recovery Point Objectives (RPO): Die Definition und Abstimmung von RTOs und RPOs mit Cloud-Funktionen zu vernachlässigen, kann in ungenügende Wiederherstellungsstrategien münden. Unternehmen sollten unbedingt wissen, wie lange es dauert, ihre Anwendungen und Systeme in der Cloud wiederherzustellen – und wie viele Daten im Falle einer Störung verloren gehen könnten. RTOs und RPOs auf die Cloud-Funktionen abzustimmen, hilft dabei, realistische Erwartungen festzulegen und ermöglicht eine angemessene Wiederherstellungsplanung.

Kommunikation und Stakeholder-Management: Wirksame Kommunikation ist im Fall einer Katastrophe essenziell: Unternehmen müssen klare Kommunikationskanäle und -protokolle einrichten, um Stakeholder, Mitarbeiter und Kunden über die Auswirkungen von Geschäftsunterbrechungen und die Schritte zur Wiederherstellung zu informieren. Dieser Plan sollte in schriftlicher Form vorliegen. Wird dieser Punkt vernachlässigt, ist das für die Firmen in der Regel wesentlich kostspieliger als der Schaden, der durch Datenverletzungen oder -verlust entsteht. Es muss ein solides Regelwerk geben, das genau festlegt, wer zu welchem Zweck kontaktiert wird und wie der Vorfall innerhalb und außerhalb des Unternehmens kommuniziert wird.

All diese Maßnahmen lassen sich relativ kostengünstig einführen. Sobald diese Lösungen implementiert sind und einige Betriebskosten wegfallen (etwa für Backup und Recovery innerhalb der Cloud), ist es in der Regel günstiger, externe SaaS-basierte Backup- und Recovery-Services in Anspruch zu nehmen. (fm)

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.

5 Disaster-Recovery-Tipps: So geht Business Continuity in der Cloud​ Weiterlesen »

Anthropic expandiert in Europa​

Allgemein

Finanziell gut ausgestattet, geht Anthropic die Expansion in Europa an. T. Schneider / Shutterstock Anthropic plant, mehr als 100 neue Stellen in ganz Europa zu besetzen. Die neuen Stellen umfassen die Bereiche Vertrieb, Technik, Forschung und Geschäftsbetrieb. Die meisten Neueinstellungen konzentrieren sich auf Dublin und London, so ein Bericht von Reuters.  Das Unternehmen hat außerdem den ehemaligen Stripe-Manager Guillaume Princen zum Chef für Europa, den Nahen Osten und Afrika ernannt.  Der Schritt wurde durch eine Finanzspritze in Höhe von 3,5 Milliarden Dollar unterstützt, die Anthropic im März erhielt. Im Monat zuvor hatte das Unternehmen Claude 3.7 Sonnet auf den Markt gebracht, sein bisher fortschrittlichstes KI-Modell und das erste mit Hybrid-Reasoning-Fähigkeiten.  Expansion und Lokalisierung im Fokus   Marktbeobachter werten die Expansion nach Europa als Zeichen dafür, dass Anthropic seine globale Präsenz angesichts der steigenden Nachfrage nach unternehmenstauglichen KI-Tools weiter ausbauen will.  „Jedes KI-Startup, das eine Milliarde Dollar eingesammelt hat, kämpft um die globale Vorherrschaft“, sagt Hyoun Park, CEO und Chefanalyst von Amalgam Insights. „Die jüngste 3,5-Milliarden-Dollar-Runde von Anthropic ist keine Ausnahme: Das Unternehmen will der führende Anbieter von KI-Modellen in Amerika, Europa, Asien und Afrika werden. Um dieses Wachstum zu ermöglichen, macht es Sinn, dass sich die europäischen Neueinstellungen vor allem auf Vertrieb, Marketing und Technik konzentrieren.“  Der regionale Vorstoß des Unternehmens ist auch ein Zeichen für die wachsende Bedeutung der Lokalisierung in der KI-Entwicklung, zumal regionale Vorschriften und Anreize die Entwicklung und den Einsatz der Technologien beeinflussen.   „Indem Anthropic Mitarbeiter vor Ort in Europa einstellt, könnte das Unternehmen sicherstellen, dass seine Angebote den europäischen Anforderungen entsprechen“, folgert Abhishek Sengupta, Practice Director bei der Everest Group. Hier gebe es Unterschiede zu den USA – insbesondere bei der KI-Governance. „Ein weiterer Grund sind mögliche geschäftliche Anreize, da immer mehr Länder Mittel für die Entwicklung eines lokalen KI-Ökosystems bereitstellen wollen.“  Konkurrenz belebt das Geschäft   Die wachsende Präsenz von Anthropic in Europa könnte den Beginn eines direkten Wettbewerbs mit Unternehmen signalisieren, die sich als regional konforme KI-Anbieter positionieren. So weist Park darauf hin, dass Anthropic damit frontal das kanadische KI-Start-up Cohere angreife. Das Unternehmen positioniert sich aktiv als europäische, EU-konforme Alternative.  Gleichzeitig komme diese Belebung des Wettbewerbs auf dem Markt auch anderen Akteuren entgegen, da die EU für ihr aggressives Vorgehen gegen Monopole bekannt sei, so der Analyst. „Wenn sich Anthropic stärker auf die EU konzentriert, haben Cohere, OpenAI, Microsoft, Google und andere KI-Unternehmen möglicherweise mehr Spielraum, um dort Geschäfte zu machen.“  Für KI-Firmen mit globalen Ambitionen macht es Park zufolge hingegen wenig Sinn, eine größere Präsenz in der EU aufzubauen. „Es sieht so aus, als ob es in naher Zukunft weniger KI-Regulierung in den USA geben wird, wovon Meta, OpenAI und xAI profitieren könnten“, fügt der Analyst hinzu. Gleichzeitig werde die EU in naher Zukunft wahrscheinlich einen Großteil der globalen KI-Politik der Ersten Welt bestimmen, da andere globale Zentren der Ersten Welt zögerten, KI-Standards und -Governance zu definieren. Park merkt zum Schluss noch an, dass Anthropics besonnener und sicherheitsorientierter Ansatz besser zu den Anforderungen stark regulierter Märkte passen könnte. (mb) 

Anthropic expandiert in Europa​ Finanziell gut ausgestattet, geht Anthropic die Expansion in Europa an. T. Schneider / Shutterstock

Anthropic plant, mehr als 100 neue Stellen in ganz Europa zu besetzen. Die neuen Stellen umfassen die Bereiche Vertrieb, Technik, Forschung und Geschäftsbetrieb. Die meisten Neueinstellungen konzentrieren sich auf Dublin und London, so ein Bericht von Reuters. 

Das Unternehmen hat außerdem den ehemaligen Stripe-Manager Guillaume Princen zum Chef für Europa, den Nahen Osten und Afrika ernannt. 

Der Schritt wurde durch eine Finanzspritze in Höhe von 3,5 Milliarden Dollar unterstützt, die Anthropic im März erhielt. Im Monat zuvor hatte das Unternehmen Claude 3.7 Sonnet auf den Markt gebracht, sein bisher fortschrittlichstes KI-Modell und das erste mit Hybrid-Reasoning-Fähigkeiten. 

Expansion und Lokalisierung im Fokus  

Marktbeobachter werten die Expansion nach Europa als Zeichen dafür, dass Anthropic seine globale Präsenz angesichts der steigenden Nachfrage nach unternehmenstauglichen KI-Tools weiter ausbauen will. 

„Jedes KI-Startup, das eine Milliarde Dollar eingesammelt hat, kämpft um die globale Vorherrschaft“, sagt Hyoun Park, CEO und Chefanalyst von Amalgam Insights. „Die jüngste 3,5-Milliarden-Dollar-Runde von Anthropic ist keine Ausnahme: Das Unternehmen will der führende Anbieter von KI-Modellen in Amerika, Europa, Asien und Afrika werden. Um dieses Wachstum zu ermöglichen, macht es Sinn, dass sich die europäischen Neueinstellungen vor allem auf Vertrieb, Marketing und Technik konzentrieren.“ 

Der regionale Vorstoß des Unternehmens ist auch ein Zeichen für die wachsende Bedeutung der Lokalisierung in der KI-Entwicklung, zumal regionale Vorschriften und Anreize die Entwicklung und den Einsatz der Technologien beeinflussen.  

„Indem Anthropic Mitarbeiter vor Ort in Europa einstellt, könnte das Unternehmen sicherstellen, dass seine Angebote den europäischen Anforderungen entsprechen“, folgert Abhishek Sengupta, Practice Director bei der Everest Group. Hier gebe es Unterschiede zu den USA – insbesondere bei der KI-Governance. „Ein weiterer Grund sind mögliche geschäftliche Anreize, da immer mehr Länder Mittel für die Entwicklung eines lokalen KI-Ökosystems bereitstellen wollen.“ 

Konkurrenz belebt das Geschäft  

Die wachsende Präsenz von Anthropic in Europa könnte den Beginn eines direkten Wettbewerbs mit Unternehmen signalisieren, die sich als regional konforme KI-Anbieter positionieren. So weist Park darauf hin, dass Anthropic damit frontal das kanadische KI-Start-up Cohere angreife. Das Unternehmen positioniert sich aktiv als europäische, EU-konforme Alternative. 

Gleichzeitig komme diese Belebung des Wettbewerbs auf dem Markt auch anderen Akteuren entgegen, da die EU für ihr aggressives Vorgehen gegen Monopole bekannt sei, so der Analyst. „Wenn sich Anthropic stärker auf die EU konzentriert, haben Cohere, OpenAI, Microsoft, Google und andere KI-Unternehmen möglicherweise mehr Spielraum, um dort Geschäfte zu machen.“ 

Für KI-Firmen mit globalen Ambitionen macht es Park zufolge hingegen wenig Sinn, eine größere Präsenz in der EU aufzubauen. „Es sieht so aus, als ob es in naher Zukunft weniger KI-Regulierung in den USA geben wird, wovon Meta, OpenAI und xAI profitieren könnten“, fügt der Analyst hinzu. Gleichzeitig werde die EU in naher Zukunft wahrscheinlich einen Großteil der globalen KI-Politik der Ersten Welt bestimmen, da andere globale Zentren der Ersten Welt zögerten, KI-Standards und -Governance zu definieren. Park merkt zum Schluss noch an, dass Anthropics besonnener und sicherheitsorientierter Ansatz besser zu den Anforderungen stark regulierter Märkte passen könnte. (mb)

Anthropic expandiert in Europa​ Weiterlesen »

Diese 12 Tech-Disruptoren werden Geschäftssysteme prägen​

Allgemein

Gartner nennt zwölf technologische Umwälzungen für die Zukunft der Geschäftssysteme, von denen vier besonders wichtig werden sollen.  shutterstock – metamorworks Laut einer Studie von Gartner sollten Technologieführer in den nächsten fünf Jahren vor allem innovative Techniken wie generative KI (GenAI), Code-Architektur, Desinformationssicherheit und Erdintelligenz (Geospatial Intelligence) priorisieren. Gartner Research „Diese Technologien bieten Wettbewerbschancen und werden bald zum Standard in Unternehmen“, so die Analysten. Darüber hinaus sollen sie neue Lösungen für Geschäftsprozesse schaffen und das Wachstum spezialisierter Sprachmodelle fördern. GenAI für mehr Dynamik Die Gartner-Experten gehen ebenfalls davon aus, dass GenAI-Lösungen, die Freiform-Text und Multimedia nutzen, die traditionellen, formularbasierten Benutzeroberflächen in Unternehmenssoftware ersetzen und neue Nutzungsmöglichkeiten schaffen werden. Das Analystenhaus prognostiziert auch, dass bis 2029 mehr als 50 Prozent der Benutzerinteraktionen in Unternehmen große Sprachmodelle einsetzen werden, aktuell sind es nur fünf Prozent. Ziel ist es, die traditionelle Benutzeroberfläche zu umgehen. Schutz vor externen Bedrohungen Ein neues Fachgebiet ist Desinformationssicherheit, das sich mit externen Bedrohungen wie Deepfakes, Identitätsfälschung und Reputationsangriffen befasst. Ziel ist es, Unternehmen beim Schutz ihrer Marke und Online-Präsenz zu unterstützen. Desinformationsangriffe nutzen schwer kontrollierbare Plattformen wie soziale Medien. Laut den Analysten sollten Technologieführer KI und maschinelles Lernen einsetzen, um Inhalte zu überprüfen und ihre Herkunft nachzuverfolgen. „Bis 2030 werden über die Hälfte der Unternehmen entsprechende Schutztechnologien nutzen“, so Gartner. Im Jahr 2024 waren es weniger als fünf Prozent. Intelligenz der Erde Die Studienmacher gehen zudem davon aus, dass bis zum Jahr 2028 acht von zehn der wichtigsten Objekte auf der Erdoberfläche weltweit von aktiven Satelliten überwacht werden. Earth Intelligence nutzt hierfür Künstliche Intelligenz (KI) um Satelliten-, Luft- und Bodendaten zu analysieren, die Ressourcen und Aktivitäten der Erde zu überwachen und Erkenntnisse für die Entscheidungsfindung zu gewinnen. Hierbei liefert diese Technologie nicht nur Karten und Diagramme, sondern auch umfassende Datenanalysen zu Themen wie Rohstoffproduktion, Landwirtschaft oder wirtschaftlicher Entwicklung. Auch die Bundesregierung verfügt seit 2025 über die Deutsche Gruppe zur Erdbeobachtung (D-GEO) als nationale Koordinationsstruktur. Ursprünglich vom US-Verteidigungsministerium genutzt, findet es heute branchenübergreifend Anwendung. Der Markt gliedert sich dabei in Datenerhebung, Analyse und branchenspezifische Nutzung. „Unternehmen können Earth Intelligence strategisch einsetzen, um bestehende Systeme zu optimieren oder neue Wettbewerbsvorteile zu schaffen“, erklären die Analysten. 

Diese 12 Tech-Disruptoren werden Geschäftssysteme prägen​ Gartner nennt zwölf technologische Umwälzungen für die Zukunft der Geschäftssysteme, von denen vier besonders wichtig werden sollen. 
shutterstock – metamorworks

Laut einer Studie von Gartner sollten Technologieführer in den nächsten fünf Jahren vor allem innovative Techniken wie

generative KI (GenAI),

Code-Architektur,

Desinformationssicherheit und

Erdintelligenz (Geospatial Intelligence)

priorisieren.

Gartner Research

„Diese Technologien bieten Wettbewerbschancen und werden bald zum Standard in Unternehmen“, so die Analysten. Darüber hinaus sollen sie neue Lösungen für Geschäftsprozesse schaffen und das Wachstum spezialisierter Sprachmodelle fördern.

GenAI für mehr Dynamik

Die Gartner-Experten gehen ebenfalls davon aus, dass GenAI-Lösungen, die Freiform-Text und Multimedia nutzen, die traditionellen, formularbasierten Benutzeroberflächen in Unternehmenssoftware ersetzen und neue Nutzungsmöglichkeiten schaffen werden.

Das Analystenhaus prognostiziert auch, dass bis 2029 mehr als 50 Prozent der Benutzerinteraktionen in Unternehmen große Sprachmodelle einsetzen werden, aktuell sind es nur fünf Prozent. Ziel ist es, die traditionelle Benutzeroberfläche zu umgehen.

Schutz vor externen Bedrohungen

Ein neues Fachgebiet ist Desinformationssicherheit, das sich mit externen Bedrohungen wie Deepfakes, Identitätsfälschung und Reputationsangriffen befasst. Ziel ist es, Unternehmen beim Schutz ihrer Marke und Online-Präsenz zu unterstützen.

Desinformationsangriffe nutzen schwer kontrollierbare Plattformen wie soziale Medien. Laut den Analysten sollten Technologieführer KI und maschinelles Lernen einsetzen, um Inhalte zu überprüfen und ihre Herkunft nachzuverfolgen.

„Bis 2030 werden über die Hälfte der Unternehmen entsprechende Schutztechnologien nutzen“, so Gartner. Im Jahr 2024 waren es weniger als fünf Prozent.

Intelligenz der Erde

Die Studienmacher gehen zudem davon aus, dass bis zum Jahr 2028 acht von zehn der wichtigsten Objekte auf der Erdoberfläche weltweit von aktiven Satelliten überwacht werden.

Earth Intelligence nutzt hierfür Künstliche Intelligenz (KI) um

Satelliten-, Luft- und Bodendaten zu analysieren,

die Ressourcen und Aktivitäten der Erde zu überwachen und

Erkenntnisse für die Entscheidungsfindung zu gewinnen.

Hierbei liefert diese Technologie nicht nur Karten und Diagramme, sondern auch umfassende Datenanalysen zu Themen wie

Rohstoffproduktion,

Landwirtschaft oder

wirtschaftlicher Entwicklung.

Auch die Bundesregierung verfügt seit 2025 über die Deutsche Gruppe zur Erdbeobachtung (D-GEO) als nationale Koordinationsstruktur.

Ursprünglich vom US-Verteidigungsministerium genutzt, findet es heute branchenübergreifend Anwendung. Der Markt gliedert sich dabei in Datenerhebung, Analyse und branchenspezifische Nutzung. „Unternehmen können Earth Intelligence strategisch einsetzen, um bestehende Systeme zu optimieren oder neue Wettbewerbsvorteile zu schaffen“, erklären die Analysten.

Diese 12 Tech-Disruptoren werden Geschäftssysteme prägen​ Weiterlesen »

9 Gründe gegen SQL​

Allgemein

Zeit, SQL über Bord zu werfen (?) Foto: Vector Artworks | shutterstock.com Seiner Popularität und seinem Erfolg zum Trotz, ist die Datenbanksprache SQL ein Paradoxon. Sie kann unglaublich umständlich und langatmig sein – dennoch stellt sie für Developer oft den einfachsten Weg dar, ohne Umwege die Daten zu extrahieren, die sie benötigen (falls die Abfrage korrekt geschrieben ist). Das tabellarische SQL-Modell ist dabei so dominant, dass auch viele Nicht-SQL-Projekte auf Wunsch der Benutzer SQL-ähnliche Schnittstellen hinzufügen. Das gilt auch für Projekte im Bereich NoSQL, der eigentlich geschaffen wurde, um sich vom alten Paradigma zu lösen (das war wohl nichts). Fakt ist allerdings auch: Die Probleme von SQL sind real und: erhöhen den Stress für Entwickler, führen unter Umständen zu Verzögerungen, und bei manchen Projekten sogar zum Reengineering. Wir haben neun Gründe für Sie zusammengestellt, die dafür sprechen würden, SQL endlich über Bord zu werfen – auch wenn wir alle wissen, dass das wohl nie passieren wird. 1. Tabellen skalieren nicht Das relationale Datenbankmodell von SQL fokussiert auf Tabellen. Was für kleine oder normal große Datenbanken auch in Ordnung ist. Im Fall von großen DBs beginnt das SQL-Modell allerdings in sich zusammenzubrechen. Das versuchen manche zu verhindern, indem sie beispielsweise Sharding in ältere Open-Source-Datenbanken integrieren. Das kann das Datenmanagement vereinfachen und bietet eine vermeintlich grenzenlose Skalierung. Allerdings kann ein JOIN– oder SELECT-Befehl mitunter auch extrem lange dauern – je nachdem, wie viele Daten die Shards beinhalten. 2. JSON? YAML? XML? SQL mag ein Dauerbrenner sein, verträgt sich aber nicht besonders gut mit neueren Datenaustauschformaten wie JSON, YAML und XML. Es ist zwar relativ einfach, dieses Problem mit ein bisschen Klebstoff-Code zu übertünchen – das bezahlen Entwickler allerdings mit einem erhöhten Zeitaufwand. Manche SQL-Datenbanken sind inzwischen auch in der Lage, JSON, XML, GraphQL oder YAML als native Funktionen zu kodieren und zu dekodieren. Das Problem dabei: Die Daten werden in der Regel nach demselben alten Tabellenmodell gespeichert und indiziert – bleiben also im Kern dem relationalen Ansatz verhaftet. So lange, bis irgendein cleverer Datenbankentwickler einen Weg findet, den Zeitaufwand für die Datenkonvertierung zu eliminieren, gibt es wohl nur einen (schlechten) Ausweg: den SQL Parser. 3. Marhsalling frisst Zeit SQL-Datenbanken speichern Informationen im Tabellenformat ab. Das stellt Developer vor Probleme, denn der Code, den sie schreiben, arbeitet mit Objekten. Der Prozess, die strukturierten Daten in das Objektformat zu überführen, wird Marshalling genannt – und verschlingt Unmengen an Zeit. Schließlich müssen die Datenfelder des Objekts im Rahmen eines Demarshaling-Prozesses auch wieder in einem SQL-Upsert freigegeben werden. Ein unmittelbar einsetzbares Datenformat wäre an dieser Stelle ein echter Fortschritt. 4. Echtzeit entfällt Das SQL-Konzept hat bereits einige Jahrzehnte auf dem Buckel und stammt aus einer Zeit, in der man Datenbanken isoliert betrachtete. Ursprünglich waren SQL-DBs deshalb für Stapelverarbeitung und Interactive Mode konzipiert. Das Konzept von Streaming-Daten und langen Verarbeitungs-Pipelines passt nicht wirklich in diese alte Welt. Denn wie ein Guru auf einem Datenberg zu thronen, ist kein Konzept für moderne Applikationen: Sie erfordern immer öfter Echtzeit-Performance. Die Datenbanken, die für diese neue Welt konzipiert sind, stellen höchste Anforderungen an Geschwindigkeit und Reaktionsfähigkeit. Aufwendige SQL-Abfragen, die alles zum Stillstand bringen, sind hier fehl am Platz. 5. JOINs sind schmerzintensiv Die große Stärke von relationalen Datenbanken besteht darin, Daten in kleinere, übersichtlichere Tabellen aufzuteilen. Das bereitet vor allem im Nachgang regelmäßig Kopfzerbrechen, vor allem wenn entsprechende Datenmengen vorliegen und diese mit JOINs zusammengeführt werden sollen. JOINs an sich sind schon unfassbar verwirrend – den Unterschied zwischen einem “inner” und einem “outer” JOIN zu verstehen, ist dabei nur der erste Schritt. Geht es darum, den besten Weg zu identifizieren, um mehrere JOINs miteinander zu verknüpfen, steigt das Schmerz-Level regelmäßig auf unerträglich. Interne Optimizer (dazu später mehr) können an dieser Stelle helfen – allerdings nur, wenn keine besonders komplexen Kombinationen gefordert sind. 6. Problembehaftete Spalten Eine große Errungenschaft der NoSQL-Bewegung: den Benutzern mehr Freiheit zu ermöglichen. Einen neuen Wert zu einem Datenbankeintrag hinzuzufügen, funktioniert über Columns (Spalten) – mit beliebigen Tags und Namen. Es besteht keine Notwendigkeit, dafür das Schema zu aktualisieren. Für SQL-Verfechter ist dies Konzept-gewordenes Chaos. Sie legen Wert auf die Ordnung, die Daten in Tabellenform vermitteln. Spontan neue Felder hinzuzufügen, ist für sie ein Unding. Das ist ein guter Punkt – allerdings kann es ziemlich teuer und zeitaufwändig sein, Daten “komplett” nachträglich hinzuzufügen – insbesondere bei umfangreichen Datensätzen. Will man die neuen Daten in separate Spalten einfügen und sie mit JOINs abgleichen, wird das Ganze noch komplexer. 7. Wenn Optimizer nicht mehr helfen Um Datenbankabfragen bestmöglich zu zerlegen und die einzelnen Prozesse zu ordnen, haben Datenbank-Anbieter und -Entwickler Optimizer entwickelt. Diese können beträchtliche Vorteile realisieren – allerdings sind ihre Möglichkeiten begrenzt, wenn es darum geht, besonders umfangreiche oder komplexe Antworten zu liefern. Das merken manche Datenbankadministratoren erst, wenn ihre Anwendung beginnt zu skalieren. Wenn es für die Testdatensätze im Rahmen der Entwicklung noch gereicht hat, für die Praxis aber nicht, führt das zu Problemen. 8. Denormalisierung macht alles zunichte Developer finden sich oft zwischen den Stühlen wieder: Auf der einen Seite stehen die User, die sich eine bessere Performance wünschen. Auf der anderen die Erbsenzähler aus der Buchhaltung, die der Anschaffung besserer (und damit meist teurerer) Hardware meist abweisend gegenüberstehen. Ein gängiger Ausweg besteht darin, Tabellen zu denormalisieren. Das sorgt dafür, dass komplexe JOINs oder tabellenübergreifende Elemente beseitigt werden. Das ist zwar per se keine schlechte technische Lösung – dieses Vorgehen sorgt aber auch dafür, dass die cleversten Parts des SQL-Konzepts über Bord geworfen werden. Eine Datenbank, die einer exzessiven .csv-Datei gleichkommt, fällt sehr wahrscheinlich nicht in die Kategorie “smart”. 9. Plötzlicher Datenbanktod SQL wird seit Jahrzehnten immer wieder um neue Funktionen erweitert. Einige davon sind auch ziemlich nützlich. Auf der anderen Seite sind viele dieser Funktionen aber auch eher “angeflanscht” – was nicht nur zu Nachteilen, sondern unter Umständen zum kompletten Zusammenbruch der Datenbank führen kann – Stichwort Subqueries. In den meisten Fällen werden Probleme in diesem Bereich erst erkannt, wenn es bereits zu spät ist. Dann kann in der Regel nur noch ein krisenerprobter SQL-Silverback dabei helfen, den Fehler zu finden, indem er sich durch unzählige Schichten arbeitet. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

9 Gründe gegen SQL​ Zeit, SQL über Bord zu werfen (?)
Foto: Vector Artworks | shutterstock.com

Seiner Popularität und seinem Erfolg zum Trotz, ist die Datenbanksprache SQL ein Paradoxon. Sie kann unglaublich umständlich und langatmig sein – dennoch stellt sie für Developer oft den einfachsten Weg dar, ohne Umwege die Daten zu extrahieren, die sie benötigen (falls die Abfrage korrekt geschrieben ist).

Das tabellarische SQL-Modell ist dabei so dominant, dass auch viele Nicht-SQL-Projekte auf Wunsch der Benutzer SQL-ähnliche Schnittstellen hinzufügen. Das gilt auch für Projekte im Bereich NoSQL, der eigentlich geschaffen wurde, um sich vom alten Paradigma zu lösen (das war wohl nichts). Fakt ist allerdings auch: Die Probleme von SQL sind real und:

erhöhen den Stress für Entwickler,

führen unter Umständen zu Verzögerungen, und

bei manchen Projekten sogar zum Reengineering.

Wir haben neun Gründe für Sie zusammengestellt, die dafür sprechen würden, SQL endlich über Bord zu werfen – auch wenn wir alle wissen, dass das wohl nie passieren wird.

1. Tabellen skalieren nicht

Das relationale Datenbankmodell von SQL fokussiert auf Tabellen. Was für kleine oder normal große Datenbanken auch in Ordnung ist. Im Fall von großen DBs beginnt das SQL-Modell allerdings in sich zusammenzubrechen.

Das versuchen manche zu verhindern, indem sie beispielsweise Sharding in ältere Open-Source-Datenbanken integrieren. Das kann das Datenmanagement vereinfachen und bietet eine vermeintlich grenzenlose Skalierung. Allerdings kann ein JOIN– oder SELECT-Befehl mitunter auch extrem lange dauern – je nachdem, wie viele Daten die Shards beinhalten.

2. JSON? YAML? XML?

SQL mag ein Dauerbrenner sein, verträgt sich aber nicht besonders gut mit neueren Datenaustauschformaten wie JSON, YAML und XML. Es ist zwar relativ einfach, dieses Problem mit ein bisschen Klebstoff-Code zu übertünchen – das bezahlen Entwickler allerdings mit einem erhöhten Zeitaufwand.

Manche SQL-Datenbanken sind inzwischen auch in der Lage, JSON, XML, GraphQL oder YAML als native Funktionen zu kodieren und zu dekodieren. Das Problem dabei: Die Daten werden in der Regel nach demselben alten Tabellenmodell gespeichert und indiziert – bleiben also im Kern dem relationalen Ansatz verhaftet.

So lange, bis irgendein cleverer Datenbankentwickler einen Weg findet, den Zeitaufwand für die Datenkonvertierung zu eliminieren, gibt es wohl nur einen (schlechten) Ausweg: den SQL Parser.

3. Marhsalling frisst Zeit

SQL-Datenbanken speichern Informationen im Tabellenformat ab. Das stellt Developer vor Probleme, denn der Code, den sie schreiben, arbeitet mit Objekten.

Der Prozess, die strukturierten Daten in das Objektformat zu überführen, wird Marshalling genannt – und verschlingt Unmengen an Zeit. Schließlich müssen die Datenfelder des Objekts im Rahmen eines Demarshaling-Prozesses auch wieder in einem SQL-Upsert freigegeben werden. Ein unmittelbar einsetzbares Datenformat wäre an dieser Stelle ein echter Fortschritt.

4. Echtzeit entfällt

Das SQL-Konzept hat bereits einige Jahrzehnte auf dem Buckel und stammt aus einer Zeit, in der man Datenbanken isoliert betrachtete. Ursprünglich waren SQL-DBs deshalb für Stapelverarbeitung und Interactive Mode konzipiert. Das Konzept von Streaming-Daten und langen Verarbeitungs-Pipelines passt nicht wirklich in diese alte Welt.

Denn wie ein Guru auf einem Datenberg zu thronen, ist kein Konzept für moderne Applikationen: Sie erfordern immer öfter Echtzeit-Performance. Die Datenbanken, die für diese neue Welt konzipiert sind, stellen höchste Anforderungen an Geschwindigkeit und Reaktionsfähigkeit. Aufwendige SQL-Abfragen, die alles zum Stillstand bringen, sind hier fehl am Platz.

5. JOINs sind schmerzintensiv

Die große Stärke von relationalen Datenbanken besteht darin, Daten in kleinere, übersichtlichere Tabellen aufzuteilen. Das bereitet vor allem im Nachgang regelmäßig Kopfzerbrechen, vor allem wenn entsprechende Datenmengen vorliegen und diese mit JOINs zusammengeführt werden sollen.

JOINs an sich sind schon unfassbar verwirrend – den Unterschied zwischen einem “inner” und einem “outer” JOIN zu verstehen, ist dabei nur der erste Schritt. Geht es darum, den besten Weg zu identifizieren, um mehrere JOINs miteinander zu verknüpfen, steigt das Schmerz-Level regelmäßig auf unerträglich. Interne Optimizer (dazu später mehr) können an dieser Stelle helfen – allerdings nur, wenn keine besonders komplexen Kombinationen gefordert sind.

6. Problembehaftete Spalten

Eine große Errungenschaft der NoSQL-Bewegung: den Benutzern mehr Freiheit zu ermöglichen. Einen neuen Wert zu einem Datenbankeintrag hinzuzufügen, funktioniert über Columns (Spalten) – mit beliebigen Tags und Namen. Es besteht keine Notwendigkeit, dafür das Schema zu aktualisieren.

Für SQL-Verfechter ist dies Konzept-gewordenes Chaos. Sie legen Wert auf die Ordnung, die Daten in Tabellenform vermitteln. Spontan neue Felder hinzuzufügen, ist für sie ein Unding. Das ist ein guter Punkt – allerdings kann es ziemlich teuer und zeitaufwändig sein, Daten “komplett” nachträglich hinzuzufügen – insbesondere bei umfangreichen Datensätzen. Will man die neuen Daten in separate Spalten einfügen und sie mit JOINs abgleichen, wird das Ganze noch komplexer.

7. Wenn Optimizer nicht mehr helfen

Um Datenbankabfragen bestmöglich zu zerlegen und die einzelnen Prozesse zu ordnen, haben Datenbank-Anbieter und -Entwickler Optimizer entwickelt. Diese können beträchtliche Vorteile realisieren – allerdings sind ihre Möglichkeiten begrenzt, wenn es darum geht, besonders umfangreiche oder komplexe Antworten zu liefern.

Das merken manche Datenbankadministratoren erst, wenn ihre Anwendung beginnt zu skalieren. Wenn es für die Testdatensätze im Rahmen der Entwicklung noch gereicht hat, für die Praxis aber nicht, führt das zu Problemen.

8. Denormalisierung macht alles zunichte

Developer finden sich oft zwischen den Stühlen wieder: Auf der einen Seite stehen die User, die sich eine bessere Performance wünschen. Auf der anderen die Erbsenzähler aus der Buchhaltung, die der Anschaffung besserer (und damit meist teurerer) Hardware meist abweisend gegenüberstehen.

Ein gängiger Ausweg besteht darin, Tabellen zu denormalisieren. Das sorgt dafür, dass komplexe JOINs oder tabellenübergreifende Elemente beseitigt werden. Das ist zwar per se keine schlechte technische Lösung – dieses Vorgehen sorgt aber auch dafür, dass die cleversten Parts des SQL-Konzepts über Bord geworfen werden. Eine Datenbank, die einer exzessiven .csv-Datei gleichkommt, fällt sehr wahrscheinlich nicht in die Kategorie “smart”.

9. Plötzlicher Datenbanktod

SQL wird seit Jahrzehnten immer wieder um neue Funktionen erweitert. Einige davon sind auch ziemlich nützlich. Auf der anderen Seite sind viele dieser Funktionen aber auch eher “angeflanscht” – was nicht nur zu Nachteilen, sondern unter Umständen zum kompletten Zusammenbruch der Datenbank führen kann – Stichwort Subqueries.

In den meisten Fällen werden Probleme in diesem Bereich erst erkannt, wenn es bereits zu spät ist. Dann kann in der Regel nur noch ein krisenerprobter SQL-Silverback dabei helfen, den Fehler zu finden, indem er sich durch unzählige Schichten arbeitet. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

9 Gründe gegen SQL​ Weiterlesen »

Das ultimative 3-Maßnahmen-Paket gegen IT-Fachkräftemangel​

Allgemein

Unternehmen können es kaum schaffen, ihren Bedarf an Fachkräften allein durch die Suche am Arbeitsmarkt zu decken. Deshalb ist die naheliegendste Möglichkeit die Qualifizierung ihrer bestehenden Mitarbeiter für gefragte Fachpositionen.FrankHH – Shutterstock 2368301113 Der IT-Fachkräftemangel in Deutschland verschärft sich trotz steigender Arbeitslosenzahlen weiter. Prognosen des Bitkom aus dem vergangenen Jahr zeigen, dass bis 2040 eine Lücke von rund 663.000 IT-Spezialisten droht. Schon heute befinden sich Cybersicherheit, Informationstechnologie (IT) und künstliche Intelligenz (KI) unter den Top 5 am meisten nachgefragten Kompetenzen auf dem deutschen Arbeitsmarkt.  Der anhaltend hohe Bedarf an IT-Fachkräften lässt sich auf drei miteinander verknüpfte Entwicklungen zurückführen. Zum einen hat sich die anfängliche Skepsis gegenüber Cloud-Computing gelegt, die vor allem auf Bedenken hinsichtlich Datensouveränität und Cybersicherheit basierte. Angesichts der wirtschaftlichen Stagnation setzen deutsche Unternehmen nun doch verstärkt auf die Cloud, um ihre Agilität zu erhöhen und ihre internationale Wettbewerbsfähigkeit zu stärken. Infolgedessen ist Deutschland zum größten Cloud-Computing-Markt in Europa avanciert.  Zum anderen steigt mit der Verlagerung von Geschäftsprozessen in die Cloud der Bedarf an qualifizierten Fachkräften, die diese Umstellung begleiten. Die Rekrutierung solcher Cloud-Computing-Experten gestaltet sich jedoch schwierig.   Da deutsche Unternehmen zunehmend die Vorteile der Cloud erkennen, steigt parallel auch der Bedarf an qualifizierten Sicherheitsexperten. Angesichts täglicher Meldungen über Ransomware-Angriffe, Datenlecks und DSGVO-Strafen ist das Bewusstsein für Cyberrisiken hoch – nicht zuletzt, weil Cyberangriffe die deutsche Wirtschaft jährlich 148 Milliarden Euro kosten.  Erstaunlicherweise ergreifen fast ein Drittel der Unternehmen (32 Prozent) aktuell keine Maßnahmen gegen den IT-Fachkräftemangel. Für die meisten, die proaktiv versuchen, das Problem anzugehen, erweist sich die Suche nach geeigneten Talenten jedoch als eine sehr schwierige Aufgabe.     Herausforderung bei der Personalakquise Was den Fachkräftemangel besonders verschärft, ist die Tatsache, dass die Unternehmen mit mehr oder weniger dem gleichen Qualifikationsprofil nach Talenten suchen. Diese Kandidaten sind jedoch auf dem Arbeitsmarkt kaum noch zu finden.  Gefragt sind vor allem Fachkräfte mit spezifischen Qualifikationen und Zertifizierungen. Die Mehrheit der Unternehmen bevorzugt erfahrene IT-Spezialisten mit mindestens fünf Jahren Berufserfahrung, während jüngere Nachwuchskräfte seltener gesucht werden. Zusätzlich erschwert die Notwendigkeit deutscher Sprachkenntnisse die Rekrutierung internationaler Talente. Und selbst wenn passende Qualifikationsprofile vorliegen, ist es für interne HR-Mitarbeiter, die für die Personalakquise zuständig sind, oft nahezu unmöglich, diese Kandidaten zu identifizieren – es sei denn, sie verfügen selbst über die notwendige Branchenerfahrung.  Eine naheliegende Möglichkeit für Unternehmen ist die Qualifizierung ihrer bestehenden Mitarbeiter für gefragte Fachpositionen. Allerdings nutzen derzeit nur rund ein Drittel der Unternehmen diesen Ansatz, denn viele sehen darin ein Risiko. Es wird befürchtet, dass eine Weiterbildung die Mitarbeiter für den externen Arbeitsmarkt attraktiver macht und sie das Unternehmen dann verlassen.  Diese Bedenken erweisen sich jedoch bei näherer Betrachtung als unbegründet. Unternehmen sollten sich nicht fragen: „Was ist, wenn wir in die Weiterbildung eines Mitarbeiters investieren und er uns verlässt?“, sondern vielmehr: „Was ist, wenn wir nicht in seine Entwicklung investieren und er bleibt?“ Zudem ist es erwiesen, dass gezielte Weiterbildung und die Förderung der Mitarbeiterentwicklung zu einer Stärkung der Mitarbeiterbindung beitragen.  Darüber hinaus bietet ein gutes, internes Schulungs- und Ausbildungsprogramm den Unternehmen die Möglichkeit, jüngere, weniger erfahrene Talente einzustellen. Diese sind leichter zu finden und können mittels gezielter Weiterbildung qualifiziert werden. Um wettbewerbsfähig zu bleiben, müssen Unternehmen in die berufliche Entwicklung ihrer Mitarbeiter investieren. Der aktuelle Fachkräftemangel verdeutlicht das Ausmaß der Versäumnisse in den vergangenen Jahren, doch die negative Entwicklung lässt sich umkehren.    Kompetenzlücken schließen Es gibt eine Reihe von kurz- und langfristigen Maßnahmen, die Unternehmen ergreifen können, um dem Mangel an IT-Fachkräften zu begegnen.  Eine Schlüsselstrategie zur langfristigen Bekämpfung des IT-Fachkräftemangels ist die signifikante Erhöhung des Frauenanteils in der Branche. Aktuelle LinkedIn-Daten zeigen, dass in Deutschland nur 14 Prozent der Cybersicherheitsexperten Frauen sind. Würde dieser Anteil der proportionalen Verteilung von Frauen in der Gesellschaft besser entsprechen, könnte dies dazu beitragen, den Fachkräftemangel zu verringern.  Um diesen Trend umzukehren, ist eine enge Zusammenarbeit von Unternehmen mit Schulen, gemeinnützigen Organisationen und anderen Institutionen unerlässlich. Gemeinsam muss sichergestellt werden, dass junge Mädchen für IT-Berufe begeistert werden und die Kultur und die Arbeitsbedingungen in den Unternehmen ihren Bedürfnissen gerecht werden.  Für die kurzfristige Umsetzung sollten Unternehmen folgende drei Optionen in Betracht ziehen;  Proaktive Weiterbildungsinitiativen: Unternehmen sollten unverzüglich Aus- und Weiterbildungsprogramme priorisieren, insbesondere für Nachwuchskräfte. Die Integration von Schulungen als zentraler Bestandteil der Unternehmenskultur fördert kontinuierliches Lernen und persönliche Entwicklung. Durch Investitionen in die Qualifizierung und Entwicklung der bestehenden Belegschaft werden nicht nur die Kompetenzen der Mitarbeiter erweitert, sondern auch die Mitarbeiterbindung gestärkt. Dies ermöglicht es, aktuelle Mitarbeiter zu Experten von morgen zu entwickeln.  Die Expertise von freien Mitarbeitern nutzen: Die temporäre Einbindung von Freelance-Experten ermöglicht eine flexible Erweiterung der Belegschaft und fördert den Wissenstransfer an weniger erfahrene Mitarbeiter. Diese Fachkräfte bringen spezialisierte Kompetenzen und Netzwerke mit, die eine effektive Identifizierung und Rekrutierung geeigneter Kandidaten sowie die Entwicklung zielgerichteter Trainingsmodule ermöglichen. Spezialisten in verschiedenen IT-Bereichen können spezifische Schulungen durchführen und sicherstellen, dass die Belegschaft nicht nur an Größe, sondern auch an Kompetenz gewinnt.  Entwicklung einer Outsourcing-Strategie: Die Auslagerung von Teilbereichen der IT-Kompetenzen ermöglicht einen zügigen Zugang zu qualifiziertem Personal und bietet die notwendige Flexibilität, um die Belegschaft an sich ändernde Anforderungen anzupassen. In einigen Fällen ist Outsourcing jedoch ungeeignet, da die Gefahr eines Kontrollverlusts über Arbeitsprozesse oder einer unzureichenden Kommunikation besteht.   Dies gilt insbesondere bei der Zusammenarbeit in verschiedenen Zeitzonen. Daher ist es wichtig, eine Strategie zu entwickeln, die festlegt, welche Rollen ausgelagert und welche intern besetzt werden sollten. Wesentliche Faktoren umfassen dabei den Projektumfang und dessen Komplexität, die Dringlichkeit des Personalbedarfs (Outsourcing beschleunigt die Besetzung), budgetäre Aspekte (Insourcing erweist sich langfristig als kosteneffizienter) sowie die Verfügbarkeit interner Talente, die zur Erfüllung der Anforderungen weitergebildet werden könnten.  

Das ultimative 3-Maßnahmen-Paket gegen IT-Fachkräftemangel​ Unternehmen können es kaum schaffen, ihren Bedarf an Fachkräften allein durch die Suche am Arbeitsmarkt zu decken. Deshalb ist die naheliegendste Möglichkeit die Qualifizierung ihrer bestehenden Mitarbeiter für gefragte Fachpositionen.FrankHH – Shutterstock 2368301113

Der IT-Fachkräftemangel in Deutschland verschärft sich trotz steigender Arbeitslosenzahlen weiter. Prognosen des Bitkom aus dem vergangenen Jahr zeigen, dass bis 2040 eine Lücke von rund 663.000 IT-Spezialisten droht. Schon heute befinden sich Cybersicherheit, Informationstechnologie (IT) und künstliche Intelligenz (KI) unter den Top 5 am meisten nachgefragten Kompetenzen auf dem deutschen Arbeitsmarkt. 

Der anhaltend hohe Bedarf an IT-Fachkräften lässt sich auf drei miteinander verknüpfte Entwicklungen zurückführen. Zum einen hat sich die anfängliche Skepsis gegenüber Cloud-Computing gelegt, die vor allem auf Bedenken hinsichtlich Datensouveränität und Cybersicherheit basierte. Angesichts der wirtschaftlichen Stagnation setzen deutsche Unternehmen nun doch verstärkt auf die Cloud, um ihre Agilität zu erhöhen und ihre internationale Wettbewerbsfähigkeit zu stärken. Infolgedessen ist Deutschland zum größten Cloud-Computing-Markt in Europa avanciert. 

Zum anderen steigt mit der Verlagerung von Geschäftsprozessen in die Cloud der Bedarf an qualifizierten Fachkräften, die diese Umstellung begleiten. Die Rekrutierung solcher Cloud-Computing-Experten gestaltet sich jedoch schwierig.  

Da deutsche Unternehmen zunehmend die Vorteile der Cloud erkennen, steigt parallel auch der Bedarf an qualifizierten Sicherheitsexperten. Angesichts täglicher Meldungen über Ransomware-Angriffe, Datenlecks und DSGVO-Strafen ist das Bewusstsein für Cyberrisiken hoch – nicht zuletzt, weil Cyberangriffe die deutsche Wirtschaft jährlich 148 Milliarden Euro kosten. 

Erstaunlicherweise ergreifen fast ein Drittel der Unternehmen (32 Prozent) aktuell keine Maßnahmen gegen den IT-Fachkräftemangel. Für die meisten, die proaktiv versuchen, das Problem anzugehen, erweist sich die Suche nach geeigneten Talenten jedoch als eine sehr schwierige Aufgabe.  

 

Herausforderung bei der Personalakquise

Was den Fachkräftemangel besonders verschärft, ist die Tatsache, dass die Unternehmen mit mehr oder weniger dem gleichen Qualifikationsprofil nach Talenten suchen. Diese Kandidaten sind jedoch auf dem Arbeitsmarkt kaum noch zu finden. 

Gefragt sind vor allem Fachkräfte mit spezifischen Qualifikationen und Zertifizierungen. Die Mehrheit der Unternehmen bevorzugt erfahrene IT-Spezialisten mit mindestens fünf Jahren Berufserfahrung, während jüngere Nachwuchskräfte seltener gesucht werden. Zusätzlich erschwert die Notwendigkeit deutscher Sprachkenntnisse die Rekrutierung internationaler Talente. Und selbst wenn passende Qualifikationsprofile vorliegen, ist es für interne HR-Mitarbeiter, die für die Personalakquise zuständig sind, oft nahezu unmöglich, diese Kandidaten zu identifizieren – es sei denn, sie verfügen selbst über die notwendige Branchenerfahrung. 

Eine naheliegende Möglichkeit für Unternehmen ist die Qualifizierung ihrer bestehenden Mitarbeiter für gefragte Fachpositionen. Allerdings nutzen derzeit nur rund ein Drittel der Unternehmen diesen Ansatz, denn viele sehen darin ein Risiko. Es wird befürchtet, dass eine Weiterbildung die Mitarbeiter für den externen Arbeitsmarkt attraktiver macht und sie das Unternehmen dann verlassen. 

Diese Bedenken erweisen sich jedoch bei näherer Betrachtung als unbegründet. Unternehmen sollten sich nicht fragen: „Was ist, wenn wir in die Weiterbildung eines Mitarbeiters investieren und er uns verlässt?“, sondern vielmehr: „Was ist, wenn wir nicht in seine Entwicklung investieren und er bleibt?“ Zudem ist es erwiesen, dass gezielte Weiterbildung und die Förderung der Mitarbeiterentwicklung zu einer Stärkung der Mitarbeiterbindung beitragen. 

Darüber hinaus bietet ein gutes, internes Schulungs- und Ausbildungsprogramm den Unternehmen die Möglichkeit, jüngere, weniger erfahrene Talente einzustellen. Diese sind leichter zu finden und können mittels gezielter Weiterbildung qualifiziert werden. Um wettbewerbsfähig zu bleiben, müssen Unternehmen in die berufliche Entwicklung ihrer Mitarbeiter investieren. Der aktuelle Fachkräftemangel verdeutlicht das Ausmaß der Versäumnisse in den vergangenen Jahren, doch die negative Entwicklung lässt sich umkehren. 

 

Kompetenzlücken schließen

Es gibt eine Reihe von kurz- und langfristigen Maßnahmen, die Unternehmen ergreifen können, um dem Mangel an IT-Fachkräften zu begegnen. 

Eine Schlüsselstrategie zur langfristigen Bekämpfung des IT-Fachkräftemangels ist die signifikante Erhöhung des Frauenanteils in der Branche. Aktuelle LinkedIn-Daten zeigen, dass in Deutschland nur 14 Prozent der Cybersicherheitsexperten Frauen sind. Würde dieser Anteil der proportionalen Verteilung von Frauen in der Gesellschaft besser entsprechen, könnte dies dazu beitragen, den Fachkräftemangel zu verringern. 

Um diesen Trend umzukehren, ist eine enge Zusammenarbeit von Unternehmen mit Schulen, gemeinnützigen Organisationen und anderen Institutionen unerlässlich. Gemeinsam muss sichergestellt werden, dass junge Mädchen für IT-Berufe begeistert werden und die Kultur und die Arbeitsbedingungen in den Unternehmen ihren Bedürfnissen gerecht werden. 

Für die kurzfristige Umsetzung sollten Unternehmen folgende drei Optionen in Betracht ziehen; 

Proaktive Weiterbildungsinitiativen: Unternehmen sollten unverzüglich Aus- und Weiterbildungsprogramme priorisieren, insbesondere für Nachwuchskräfte. Die Integration von Schulungen als zentraler Bestandteil der Unternehmenskultur fördert kontinuierliches Lernen und persönliche Entwicklung. Durch Investitionen in die Qualifizierung und Entwicklung der bestehenden Belegschaft werden nicht nur die Kompetenzen der Mitarbeiter erweitert, sondern auch die Mitarbeiterbindung gestärkt. Dies ermöglicht es, aktuelle Mitarbeiter zu Experten von morgen zu entwickeln. 

Die Expertise von freien Mitarbeitern nutzen: Die temporäre Einbindung von Freelance-Experten ermöglicht eine flexible Erweiterung der Belegschaft und fördert den Wissenstransfer an weniger erfahrene Mitarbeiter. Diese Fachkräfte bringen spezialisierte Kompetenzen und Netzwerke mit, die eine effektive Identifizierung und Rekrutierung geeigneter Kandidaten sowie die Entwicklung zielgerichteter Trainingsmodule ermöglichen. Spezialisten in verschiedenen IT-Bereichen können spezifische Schulungen durchführen und sicherstellen, dass die Belegschaft nicht nur an Größe, sondern auch an Kompetenz gewinnt. 

Entwicklung einer Outsourcing-Strategie: Die Auslagerung von Teilbereichen der IT-Kompetenzen ermöglicht einen zügigen Zugang zu qualifiziertem Personal und bietet die notwendige Flexibilität, um die Belegschaft an sich ändernde Anforderungen anzupassen. In einigen Fällen ist Outsourcing jedoch ungeeignet, da die Gefahr eines Kontrollverlusts über Arbeitsprozesse oder einer unzureichenden Kommunikation besteht.  

Dies gilt insbesondere bei der Zusammenarbeit in verschiedenen Zeitzonen. Daher ist es wichtig, eine Strategie zu entwickeln, die festlegt, welche Rollen ausgelagert und welche intern besetzt werden sollten. Wesentliche Faktoren umfassen dabei den Projektumfang und dessen Komplexität, die Dringlichkeit des Personalbedarfs (Outsourcing beschleunigt die Besetzung), budgetäre Aspekte (Insourcing erweist sich langfristig als kosteneffizienter) sowie die Verfügbarkeit interner Talente, die zur Erfüllung der Anforderungen weitergebildet werden könnten. 

Das ultimative 3-Maßnahmen-Paket gegen IT-Fachkräftemangel​ Weiterlesen »

Intels neuer CEO propagiert Software-First-Design​

Allgemein

Intels neuer Chef Lip-Bu Tan will sich auf das Kerngeschäft konzentrieren. Intel Während andere mit 65 langsam an den Ruhestand denken, hat Lip-Bu Tan in diesem Alter eine neue Herausforderung angenommen als CEO des angeschlagenen Chipherstellers Intel. Ein Job, der ihm keine Schonfrist gönnt. Erst zwei Wochen im Amt, musste er auf der Intel-Vision-Konferenz einen Ausblick auf die künftige Strategie des Konzerns geben. Im Gegensatz zur Vergangenheit präsentierte sich dabei kein Intel-Chef, der vor Kraft und Stolz nur so strotzte, sondern ein CEO im Büßergewand. „Intel ist bei Innovationen schon seit geraumer Zeit ins Hintertreffen geraten“, so sein vernichtendes Fazit. Software First Weiter räumte er ein, dass Intel in der Vergangenheit Hardware entworfen habe und die Partner dann herausfinden mussten, wie die Software entwickelt werden muss, damit sie funktioniert. Damit soll nun Schluss sein. Tans neues Credo lautet: „Wir benötigen eine Software-2.0-Mentalität, was bedeutet, dass wir ein Software-First-Design haben.“ Details, wie diese neue Strategie aussehen könnte, nannte Tan noch nicht. Er versicherte lediglich, fragwürdige Teile des Intel-Geschäfts auf den Prüfstand zu stellen. Dazu zählen für ihn unter anderem der KI-Accelerator Gaudi, eigene GPUs und das Foundry-Geschäft. Aufs Kerngeschäft konzentrieren „Wir werden in Zukunft einige unserer Strategien neu definieren und einige der Nicht-Kerngeschäfte freigeben“, so Tan. Und weiter kündigte der neue CEO an: „Wir werden diese Bereiche ausgliedern, uns wirklich auf unser Kerngeschäft konzentrieren und darauf, wie wir dieses mithilfe von KI und Software erweitern können.“ Allerdings ging Tan, der vor der schwierigen Aufgabe steht, Intel wieder auf Kurs zu bringen, nicht weiter auf Details ein. Dafür ermunterte er die Kunden zu offener und ehrlicher Kritik. 

Intels neuer CEO propagiert Software-First-Design​ Intels neuer Chef Lip-Bu Tan will sich auf das Kerngeschäft konzentrieren.
Intel

Während andere mit 65 langsam an den Ruhestand denken, hat Lip-Bu Tan in diesem Alter eine neue Herausforderung angenommen als CEO des angeschlagenen Chipherstellers Intel. Ein Job, der ihm keine Schonfrist gönnt. Erst zwei Wochen im Amt, musste er auf der Intel-Vision-Konferenz einen Ausblick auf die künftige Strategie des Konzerns geben.

Im Gegensatz zur Vergangenheit präsentierte sich dabei kein Intel-Chef, der vor Kraft und Stolz nur so strotzte, sondern ein CEO im Büßergewand. „Intel ist bei Innovationen schon seit geraumer Zeit ins Hintertreffen geraten“, so sein vernichtendes Fazit.

Software First

Weiter räumte er ein, dass Intel in der Vergangenheit Hardware entworfen habe und die Partner dann herausfinden mussten, wie die Software entwickelt werden muss, damit sie funktioniert. Damit soll nun Schluss sein. Tans neues Credo lautet: „Wir benötigen eine Software-2.0-Mentalität, was bedeutet, dass wir ein Software-First-Design haben.“

Details, wie diese neue Strategie aussehen könnte, nannte Tan noch nicht. Er versicherte lediglich, fragwürdige Teile des Intel-Geschäfts auf den Prüfstand zu stellen. Dazu zählen für ihn unter anderem der KI-Accelerator Gaudi, eigene GPUs und das Foundry-Geschäft.

Aufs Kerngeschäft konzentrieren

„Wir werden in Zukunft einige unserer Strategien neu definieren und einige der Nicht-Kerngeschäfte freigeben“, so Tan. Und weiter kündigte der neue CEO an: „Wir werden diese Bereiche ausgliedern, uns wirklich auf unser Kerngeschäft konzentrieren und darauf, wie wir dieses mithilfe von KI und Software erweitern können.“

Allerdings ging Tan, der vor der schwierigen Aufgabe steht, Intel wieder auf Kurs zu bringen, nicht weiter auf Details ein. Dafür ermunterte er die Kunden zu offener und ehrlicher Kritik.

Intels neuer CEO propagiert Software-First-Design​ Weiterlesen »

So schützen Sie digitale Daten bei der Einreise in die USA​

Allgemein

Ab Mai 2025 könnte es strengere Visa-Kontrollen in die USA geben – Social-Media-Check inklusive. shutterstock – DesignRage Wer in die USA einreisen möchte, muss bereits seit Januar 2025 damit rechnen, dass die Behörden das Visum verstärkt überprüfen. So sieht es die Exekutivanordnung „Schutz der Vereinigten Staaten vor ausländischen Terroristen und anderen Bedrohungen der nationalen und öffentlichen Sicherheit“ von Donald Trump vor. Im März 2025 legte dann die US-Einwanderungsbehörde (USCIS), die dem Heimatschutzministerium (DHS) untersteht, einen Änderungsvorschlag vor, der noch eine zusätzliche Überprüfung von Social-Media-Profilen als Teil des Verfahrens zur Überprüfung und Genehmigung von Leistungen vorsieht. Elektronische Kontrolle an der US-Grenze Nach US-Recht behält sich die Grenzbehörde CBP (United States Customs and Border Protection), die ebenfalls Teil des DHS ist, das Recht vor, elektronische Geräte, die die Grenze überschreiten, unter der Prämisse der nationalen Sicherheit zu inspizieren. Dieses Vorgehen ist auch als elektronische Kontrolle bekannt. US-Bürger haben das Recht, die Durchsuchung von Geräten abzulehnen, ohne dass ihnen die Einreise verweigert werden kann. Personen ohne ständige Aufenthaltsgenehmigung und ausländische Besucher können mit härteren Verhören rechnen oder dürfen bisweilen gar nicht einreisen. In beiden Fällen darf die Behörde elektronische Geräte beschlagnahmen und einbehalten. Zwei Stufen der Gerätekontrolle Wenn ein Gerät von einem Grenzschutzbeamten beschlagnahmt wird, führt der Beamte entweder eine „einfache“ oder eine „erweiterte“ Suche durch: Die einfache Durchsuchung umfasst eine manuelle Suche nach leicht zugänglichen Inhalten auf dem Gerät. Dabei bleibt das Gerät offline, Grenzschutzbeamte dürfen keine persönlichen E-Mail-Postfächer oder Cloud-Speicher durchsuchen. Sie können aber öffentliche Social-Media-Inhalte einsehen, weshalb Nutzer, die dies nicht wünschen, ihre Profile auf privat stellen und sensible Beiträge löschen sollten. Bei der erweiterten Durchsuchung werden externe Geräte eingesetzt, die den Inhalt Ihres Geräts analysieren und kopieren können. Dies soll nur bei Verdacht auf illegale Aktivitäten und mit einer höheren Genehmigung erfolgen. Geräte vor der Einreise absichern Aufgrund des Schutzes vor Selbstbezichtigung, der im fünften Verfassungszusatz verankert ist, haben die Strafverfolgungsbehörden das Recht, eine Person aufzufordern, ihr Mobiltelefon mithilfe eines biometrischen Passworts wie Gesichtserkennung oder Fingerabdrücke zu entsperren. Sie können aber nicht verlangen, dass ihnen numerische Passwörter gegeben werden. Reisende können vor der Einreise in die USA den Zugriff auf ihre Geräte dadurch erschweren, dass sie Face ID deaktivieren und einen starken Passcode verwenden. Mit einem Code gesperrte Apps oder Fotobibliotheken können zusätzliche Sicherheit bieten. Allgemeine Tipps Neben dem Wissen um ihre Rechte und Pflichten, können Reisende sich auch noch durch andere Maßnahmen schützen, indem sie: nur notwendige Geräte mitnehmen und diese beim Grenzübertritt ausschalten, Geräte verschlüsseln, sensible Daten wie Ausweise, Kreditkarteninformationen oder persönliche Fotos vor der Reise – auch aus dem Papierkorb – löschen und wichtige Daten extern sichern, aber nicht mitführen. bei Bedenken bezüglich des Aufenthaltsstatus Rücksprache mit einem Einwanderungsanwalt nehmen 

So schützen Sie digitale Daten bei der Einreise in die USA​ Ab Mai 2025 könnte es strengere Visa-Kontrollen in die USA geben – Social-Media-Check inklusive.
shutterstock – DesignRage

Wer in die USA einreisen möchte, muss bereits seit Januar 2025 damit rechnen, dass die Behörden das Visum verstärkt überprüfen. So sieht es die Exekutivanordnung „Schutz der Vereinigten Staaten vor ausländischen Terroristen und anderen Bedrohungen der nationalen und öffentlichen Sicherheit“ von Donald Trump vor.

Im März 2025 legte dann die US-Einwanderungsbehörde (USCIS), die dem Heimatschutzministerium (DHS) untersteht, einen Änderungsvorschlag vor, der noch eine zusätzliche Überprüfung von Social-Media-Profilen als Teil des Verfahrens zur Überprüfung und Genehmigung von Leistungen vorsieht.

Elektronische Kontrolle an der US-Grenze

Nach US-Recht behält sich die Grenzbehörde CBP (United States Customs and Border Protection), die ebenfalls Teil des DHS ist, das Recht vor, elektronische Geräte, die die Grenze überschreiten, unter der Prämisse der nationalen Sicherheit zu inspizieren. Dieses Vorgehen ist auch als elektronische Kontrolle bekannt.

US-Bürger haben das Recht, die Durchsuchung von Geräten abzulehnen, ohne dass ihnen die Einreise verweigert werden kann. Personen ohne ständige Aufenthaltsgenehmigung und ausländische Besucher können mit härteren Verhören rechnen oder dürfen bisweilen gar nicht einreisen. In beiden Fällen darf die Behörde elektronische Geräte beschlagnahmen und einbehalten.

Zwei Stufen der Gerätekontrolle

Wenn ein Gerät von einem Grenzschutzbeamten beschlagnahmt wird, führt der Beamte entweder eine „einfache“ oder eine „erweiterte“ Suche durch:

Die einfache Durchsuchung umfasst eine manuelle Suche nach leicht zugänglichen Inhalten auf dem Gerät. Dabei bleibt das Gerät offline, Grenzschutzbeamte dürfen keine persönlichen E-Mail-Postfächer oder Cloud-Speicher durchsuchen. Sie können aber öffentliche Social-Media-Inhalte einsehen, weshalb Nutzer, die dies nicht wünschen, ihre Profile auf privat stellen und sensible Beiträge löschen sollten.

Bei der erweiterten Durchsuchung werden externe Geräte eingesetzt, die den Inhalt Ihres Geräts analysieren und kopieren können. Dies soll nur bei Verdacht auf illegale Aktivitäten und mit einer höheren Genehmigung erfolgen.

Geräte vor der Einreise absichern

Aufgrund des Schutzes vor Selbstbezichtigung, der im fünften Verfassungszusatz verankert ist, haben die Strafverfolgungsbehörden das Recht, eine Person aufzufordern, ihr Mobiltelefon mithilfe eines biometrischen Passworts wie Gesichtserkennung oder Fingerabdrücke zu entsperren. Sie können aber nicht verlangen, dass ihnen numerische Passwörter gegeben werden.

Reisende können vor der Einreise in die USA den Zugriff auf ihre Geräte dadurch erschweren, dass sie Face ID deaktivieren und einen starken Passcode verwenden. Mit einem Code gesperrte Apps oder Fotobibliotheken können zusätzliche Sicherheit bieten.

Allgemeine Tipps

Neben dem Wissen um ihre Rechte und Pflichten, können Reisende sich auch noch durch andere Maßnahmen schützen, indem sie:

nur notwendige Geräte mitnehmen und diese beim Grenzübertritt ausschalten,

Geräte verschlüsseln,

sensible Daten wie Ausweise, Kreditkarteninformationen oder persönliche Fotos vor der Reise – auch aus dem Papierkorb – löschen und

wichtige Daten extern sichern, aber nicht mitführen.

bei Bedenken bezüglich des Aufenthaltsstatus Rücksprache mit einem Einwanderungsanwalt nehmen

So schützen Sie digitale Daten bei der Einreise in die USA​ Weiterlesen »

Einfacher, länger und günstiger drucken mit Tankdruckern​

Allgemein

Für kleine Unternehmen und Homeoffice-Arbeitsplätze sind Farbdruck und hohe Druckvolumina oft eine finanzielle Belastung. Mit den nachfüllbaren Tankdruckern der nächsten Generation von HP ändert sich das: Sie kombinieren kostengünstigen Farb- und Schwarz-weiß-Druck mit hoher Qualität und einfacher Handhabung. Der Tintenvorrat für bis zu drei Jahre ist inklusive. Wie unterscheiden sich die Tankdrucker von herkömmlichen Geräten, die mit Tonerkartuschen und Tintenpatronen arbeiten? Hohe Druckkosten sind ein Produktivitätskiller Bei regelmäßigem Gebrauch können klassische Drucklösungen durch häufige Nachkäufe und eingeschränkte Reichweite schnell ins Geld gehen – besonders für Nutzer mit hohem Dokumentendruck im Alltag. Teure und umständliche Farbdrucke führen oft dazu, dass auf die Ausgabe in Farbe verzichtet wird, obwohl sie die Wirkung von Präsentationen und Dokumenten deutlich erhöht. Wichtige Unterlagen werden nur in Schwarz-weiß gedruckt oder kreative Projekte werden ausgelagert, was mit einem hohen Aufwand verbunden ist. Darunter leiden Effizienz, Kommunikation und Motivation, was letztlich die Produktivität senkt. Die nachfüllbaren Drucker mit innovativer Smart-Tank-Technologie der nächsten Generation von HP bringen den entscheidenden Wandel: Sie sind sparsam, langlebig, zuverlässig und nachhaltig. Einfacher, länger und günstiger drucken Die neuen Business-Tankdrucker HP Smart Tank 7005 und HP Smart Tank 7305 sind 3-in-1-Multifunktionsgeräte, die Drucken, Scannen und Kopieren vereinen. Ihr Fokus liegt auf langfristiger Nutzung und Kosteneffizienz. Ein wesentliches Merkmal ist der mitgelieferte Tintenvorrat, der für bis zu drei Jahre Drucken ausreicht. Das bedeutet: über Jahre hinweg kein Nachdenken über Nachfüllungen oder Folgekosten – ideal für alle, die klare Planungssicherheit und Ruhe im Alltag schätzen. Das entspricht einer Druckleistung von bis zu 12.000 Seiten in Schwarz-weiß und 8.000 Seiten in Farbe. Der großzügige Tintenvorrat stellt eine lange Nutzungsdauer auch bei größeren Druckaufträgen ohne Nachkauf von Tinte sicher. Das Vertrauen in die Langlebigkeit unterstreicht HP mit einer dreijährigen Herstellergarantie bei Registrierung. HP Smart Tank 7005 und HP Smart Tank 7305 sind 3-in-1-Multifunktionsdrucker mit drei Jahren Tintenvorrat für bis zu 12.000 Schwarz-weiß- und 8.000 Farbseiten. Dazu kommen drei Jahre HP Garantie.HP Der HP Smart Tank 7005 bietet Dual-Band-WLAN und LAN, automatischen Duplexdruck, AirPrint und ein Papierfach für 150 Blatt. Er erreicht Druckgeschwindigkeiten von bis zu 15 Seiten pro Minute in Schwarz-weiß und 9 Seiten pro Minute in Farbe. Die HP Smart App ermöglicht flexibles mobiles Drucken und Scannen. Shortcuts in der App beschleunigen die Organisation von Dokumenten. Der HP Smart Tank 7305 ist ein 3-in-1-Multifunktionsdrucker für kostengünstiges Drucken in hoher Qualität. WLAN, LAN, Duplexdruck, automatischer Seiteneinzug, drei Jahre Tinte und drei Jahre Garantie bei Registrierung sind inklusive.*HP 20 Euro Cashback sichern: HP Drucker Cashback innerhalb von 30 Kalendertagen nach Kauf unter dem folgenden Link (Deutschland & Österreich) online bis zum 30. April 2025 beantragen: hp.com/go/hpcashback Der HP Smart Tank 7305 ist zusätzlich mit einem automatischen Dokumenteneinzug (ADF) ausgestattet. Mit dem ADF können mehrere Seiten nacheinander kopiert oder gescannt werden, was die Verarbeitung mehrseitiger Dokumente erleichtert. 30 Euro Cashback sichern: HP Drucker Cashback innerhalb von 30 Kalendertagen nach Kauf unter dem folgenden Link (Deutschland & Österreich) online bis zum 30. April 2025 beantragen: hp.com/go/hpcashback Drucken ohne Drama – so einfach geht’s Der HP Smart Tank 7005 und der HP Smart Tank 7305 stehen für erstklassige Tintentank-Druckqualität und einfache Handhabung. Sie sind mit einem großen Tintentank ausgestattet, der den Einsatz von Patronen oder Kartuschen überflüssig macht. Durch das tropffreie Nachfüllen mit Tintenflaschen stehen die HP Smart Tank Drucker für erstklassige Druckqualität und einfaches Handling.HP Dank der intuitiven Nachfülllösung und der leicht verständlichen Anleitung gelingt der Einstieg auch ohne technisches Vorwissen – ideal für Nutzer, die es bequem und sicher mögen. So entstehen saubere Dokumente und leuchtende Fotos, die professionelle Ansprüche an Druckqualität erfüllen. Füllstandsensoren sorgen für lückenlose Kontrolle und rechtzeitiges Nachfüllen. Austauschbare Druckköpfe und recycelbare Tintenflaschen unterstreichen das nachhaltige und umweltfreundliche Konzept. Zuverlässig ohne Aufwand: Mit der HP App – hier mit dem HP Smart Tank 7305 – von überall drucken, den Füllstand prüfen und Dokumente organisieren. HP Das selbstheilende WLAN sorgt bei beiden Modellen für schnelle und zuverlässige kabellose Verbindungen. Die Selbstheilungsfunktion ist praktisch für kleine Unternehmen, in denen die IT-Ressourcen oft begrenzt sind. Auch im privaten Bereich ist das von Vorteil – besonders für Nutzer, die eine zuverlässige Verbindung wünschen, ohne sich mit technischen Einstellungen beschäftigen zu müssen. Das umweltfreundliche Design steht für Nachhaltigkeit im Büro: Beide Smart-Tank-Drucker enthalten mehr als 25 Prozent recycelte Kunststoffe. Das hilft kleinen Unternehmen, ihre Umweltziele zu erreichen. Mehr zu den nachfüllbaren Tintentankdruckern von HP erfahren Sie unter hp.com/de/smarttank. * Smart Tank 7000 Serie: Basierend auf einem Volumen von 200 Seiten pro Monat bei HP Smart Tank Kund:innen. Die tatsächliche Reichweite kann je nach Inhalt der gedruckten Seiten und anderen Faktoren erheblich variieren. Die durchschnittliche Reichweite basiert auf ISO/IEC 24711 bzw. der HP Testmethode und kontinuierlichem Drucken im Standardmodus. Ein Teil der Tinte der im Lieferumfang enthaltenen Tintenflaschen wird für die Inbetriebnahme des Druckers genutzt. Weitere Details finden Sie unter www.hp.com/go/learnaboutsupplies. 

Einfacher, länger und günstiger drucken mit Tankdruckern​ Für kleine Unternehmen und Homeoffice-Arbeitsplätze sind Farbdruck und hohe Druckvolumina oft eine finanzielle Belastung. Mit den nachfüllbaren Tankdruckern der nächsten Generation von HP ändert sich das: Sie kombinieren kostengünstigen Farb- und Schwarz-weiß-Druck mit hoher Qualität und einfacher Handhabung. Der Tintenvorrat für bis zu drei Jahre ist inklusive. Wie unterscheiden sich die Tankdrucker von herkömmlichen Geräten, die mit Tonerkartuschen und Tintenpatronen arbeiten?

Hohe Druckkosten sind ein Produktivitätskiller

Bei regelmäßigem Gebrauch können klassische Drucklösungen durch häufige Nachkäufe und eingeschränkte Reichweite schnell ins Geld gehen – besonders für Nutzer mit hohem Dokumentendruck im Alltag. Teure und umständliche Farbdrucke führen oft dazu, dass auf die Ausgabe in Farbe verzichtet wird, obwohl sie die Wirkung von Präsentationen und Dokumenten deutlich erhöht. Wichtige Unterlagen werden nur in Schwarz-weiß gedruckt oder kreative Projekte werden ausgelagert, was mit einem hohen Aufwand verbunden ist. Darunter leiden Effizienz, Kommunikation und Motivation, was letztlich die Produktivität senkt. Die nachfüllbaren Drucker mit innovativer Smart-Tank-Technologie der nächsten Generation von HP bringen den entscheidenden Wandel: Sie sind sparsam, langlebig, zuverlässig und nachhaltig.

Einfacher, länger und günstiger drucken

Die neuen Business-Tankdrucker HP Smart Tank 7005 und HP Smart Tank 7305 sind 3-in-1-Multifunktionsgeräte, die Drucken, Scannen und Kopieren vereinen. Ihr Fokus liegt auf langfristiger Nutzung und Kosteneffizienz. Ein wesentliches Merkmal ist der mitgelieferte Tintenvorrat, der für bis zu drei Jahre Drucken ausreicht. Das bedeutet: über Jahre hinweg kein Nachdenken über Nachfüllungen oder Folgekosten – ideal für alle, die klare Planungssicherheit und Ruhe im Alltag schätzen. Das entspricht einer Druckleistung von bis zu 12.000 Seiten in Schwarz-weiß und 8.000 Seiten in Farbe. Der großzügige Tintenvorrat stellt eine lange Nutzungsdauer auch bei größeren Druckaufträgen ohne Nachkauf von Tinte sicher. Das Vertrauen in die Langlebigkeit unterstreicht HP mit einer dreijährigen Herstellergarantie bei Registrierung.

HP Smart Tank 7005 und HP Smart Tank 7305 sind 3-in-1-Multifunktionsdrucker mit drei Jahren Tintenvorrat für bis zu 12.000 Schwarz-weiß- und 8.000 Farbseiten. Dazu kommen drei Jahre HP Garantie.HP

Der HP Smart Tank 7005 bietet Dual-Band-WLAN und LAN, automatischen Duplexdruck, AirPrint und ein Papierfach für 150 Blatt. Er erreicht Druckgeschwindigkeiten von bis zu 15 Seiten pro Minute in Schwarz-weiß und 9 Seiten pro Minute in Farbe. Die HP Smart App ermöglicht flexibles mobiles Drucken und Scannen. Shortcuts in der App beschleunigen die Organisation von Dokumenten.

Der HP Smart Tank 7305 ist ein 3-in-1-Multifunktionsdrucker für kostengünstiges Drucken in hoher Qualität. WLAN, LAN, Duplexdruck, automatischer Seiteneinzug, drei Jahre Tinte und drei Jahre Garantie bei Registrierung sind inklusive.*HP

20 Euro Cashback sichern: HP Drucker Cashback innerhalb von 30 Kalendertagen nach Kauf unter dem folgenden Link (Deutschland & Österreich) online bis zum 30. April 2025 beantragen: hp.com/go/hpcashback

Der HP Smart Tank 7305 ist zusätzlich mit einem automatischen Dokumenteneinzug (ADF) ausgestattet. Mit dem ADF können mehrere Seiten nacheinander kopiert oder gescannt werden, was die Verarbeitung mehrseitiger Dokumente erleichtert.

30 Euro Cashback sichern: HP Drucker Cashback innerhalb von 30 Kalendertagen nach Kauf unter dem folgenden Link (Deutschland & Österreich) online bis zum 30. April 2025 beantragen: hp.com/go/hpcashback

Drucken ohne Drama – so einfach geht’s

Der HP Smart Tank 7005 und der HP Smart Tank 7305 stehen für erstklassige Tintentank-Druckqualität und einfache Handhabung. Sie sind mit einem großen Tintentank ausgestattet, der den Einsatz von Patronen oder Kartuschen überflüssig macht.

Durch das tropffreie Nachfüllen mit Tintenflaschen stehen die HP Smart Tank Drucker für erstklassige Druckqualität und einfaches Handling.HP

Dank der intuitiven Nachfülllösung und der leicht verständlichen Anleitung gelingt der Einstieg auch ohne technisches Vorwissen – ideal für Nutzer, die es bequem und sicher mögen. So entstehen saubere Dokumente und leuchtende Fotos, die professionelle Ansprüche an Druckqualität erfüllen. Füllstandsensoren sorgen für lückenlose Kontrolle und rechtzeitiges Nachfüllen. Austauschbare Druckköpfe und recycelbare Tintenflaschen unterstreichen das nachhaltige und umweltfreundliche Konzept.

Zuverlässig ohne Aufwand: Mit der HP App – hier mit dem HP Smart Tank 7305 – von überall drucken, den Füllstand prüfen und Dokumente organisieren.
HP

Das selbstheilende WLAN sorgt bei beiden Modellen für schnelle und zuverlässige kabellose Verbindungen. Die Selbstheilungsfunktion ist praktisch für kleine Unternehmen, in denen die IT-Ressourcen oft begrenzt sind. Auch im privaten Bereich ist das von Vorteil – besonders für Nutzer, die eine zuverlässige Verbindung wünschen, ohne sich mit technischen Einstellungen beschäftigen zu müssen. Das umweltfreundliche Design steht für Nachhaltigkeit im Büro: Beide Smart-Tank-Drucker enthalten mehr als 25 Prozent recycelte Kunststoffe. Das hilft kleinen Unternehmen, ihre Umweltziele zu erreichen.

Mehr zu den nachfüllbaren Tintentankdruckern von HP erfahren Sie unter hp.com/de/smarttank.

* Smart Tank 7000 Serie: Basierend auf einem Volumen von 200 Seiten pro Monat bei HP Smart Tank Kund:innen. Die tatsächliche Reichweite kann je nach Inhalt der gedruckten Seiten und anderen Faktoren erheblich variieren. Die durchschnittliche Reichweite basiert auf ISO/IEC 24711 bzw. der HP Testmethode und kontinuierlichem Drucken im Standardmodus. Ein Teil der Tinte der im Lieferumfang enthaltenen Tintenflaschen wird für die Inbetriebnahme des Druckers genutzt. Weitere Details finden Sie unter www.hp.com/go/learnaboutsupplies.

Einfacher, länger und günstiger drucken mit Tankdruckern​ Weiterlesen »

KI wird immer wichtiger für den Online-Handel​

Allgemein

Online-Shopping mit KI wird immer beliebter bei den Deutschen, wie eine aktuelle Studie herausfand. shutterstock – Julien Tromeur KI-Assistenten werden zunehmend in den Alltag integriert und beeinflussen die Art und Weise, wie Menschen online suchen und einkaufen, erheblich. Zu diesem Schluss kommt die aktuelle AI Consumer Survey von Adobe. Durchgeführt wurde sie im Februar 2025 mit fast 1.000 Verbraucherinnen und Verbrauchern in Deutschland. Sie beleuchtet die tiefgreifenden Veränderungen, die KI-Anwendungen wie ChatGPT, Copilot und andere auf das Online-Such- und Einkaufsverhalten der Deutschen haben. KI-Anwendungen werden breit genutzt​​ Die Studienmacher fanden heraus, dass mehr als jeder vierte Deutsche regelmäßig KI-Assistenten wie ChatGPT, Claude, Copilot oder DeepSeek nutzt. Weitere ​​45 Prozent machen von ihnen gelegentlich Gebrauch. Benutzt werden diese Anwendungen vor allem für die Online-Recherche (36 Prozent), als Alternative zur traditionellen Online-Suche (35 Prozent), für Tipps und Empfehlungen zu Produkten oder Freizeitaktivitäten (27 Prozent), zur Unterstützung bei zeitintensiven Aufgaben (24 Prozent) und zum Preisvergleich (21 Prozent). Die veränderte Customer Journey ​​ Von den KI-Nutzern verwendet eine große Mehrheit (85 Prozent) die Tools dazu, um Produkte zu recherchieren, bevor sie nach den besten Angeboten suchen. Ein ähnlich großer Anteil ist der Meinung, dass KI ihr Online-Shopping-Erlebnis verbessert hat und sie sich bei größeren oder komplexeren Einkäufen auf KI verlassen können. ​ Bei so vielen verschieden Anwendungsmöglichkeiten glauben sieben von zehn Verbrauchenden, dass Agentic AI ihr Leben erleichtern wird. Knapp zwei Drittel der Befragten sind der Ansicht, dass sie die Nutzung weiterbringt. Generationsübergreifende Akzeptanz KI-Anwendungen werden über alle Generationen hinweg genutzt: Mehr als ein Fünftel der Befragten nutzt KI-Assistenten für Themen wie Reisen und Finanzen. ​​ Besonders häufig kommen die Tools beim Online-Shopping zum Einsatz, hier verwenden drei von zehn Teilnehmenden KI-Assistenten.​ Wenig überraschend führen dabei GenZ (37 Prozent beim Online-Shopping, 40 Prozent bei Finanzthemen) und Millennials (34 Prozent beim Online-Shopping) den Trend an. Engagement und Conversion Rates ​ Die Studienmacher fanden zudem heraus, dass KI-Apps im Vergleich zu traditionellen Kanälen eine etwas höhere Engagement Rate auf den Seiten der Marken und Online-Händler erzielen. KI-Weiterleitungen liegen bei 78 Prozent, klassische bei 73 Prozent. ​​ Allerdings besteht bei der Conversion Rate noch Aufholbedarf, da diese bei KI-Referrals mit rund 1,2 Prozent deutlich unter der Rate bei Weiterleitungen über traditionelle Marketingkanäle mit 1,9 Prozent liegt. ​​ Ein weiteres interessantes Ergebnis der Studie: Besonders Millennials und Baby Boomer (jeweils 33 Prozent) bevorzugen KI-Empfehlungen mit direktem Link zur Verkäufer-Webseite und überspringen so den Browsing-Prozess. ​​ 

KI wird immer wichtiger für den Online-Handel​ Online-Shopping mit KI wird immer beliebter bei den Deutschen, wie eine aktuelle Studie herausfand.
shutterstock – Julien Tromeur

KI-Assistenten werden zunehmend in den Alltag integriert und beeinflussen die Art und Weise, wie Menschen online suchen und einkaufen, erheblich. Zu diesem Schluss kommt die aktuelle AI Consumer Survey von Adobe. Durchgeführt wurde sie im Februar 2025 mit fast 1.000 Verbraucherinnen und Verbrauchern in Deutschland. Sie beleuchtet die tiefgreifenden Veränderungen, die KI-Anwendungen wie ChatGPT, Copilot und andere auf das Online-Such- und Einkaufsverhalten der Deutschen haben.

KI-Anwendungen werden breit genutzt​​

Die Studienmacher fanden heraus, dass mehr als jeder vierte Deutsche regelmäßig KI-Assistenten wie ChatGPT, Claude, Copilot oder DeepSeek nutzt. Weitere ​​45 Prozent machen von ihnen gelegentlich Gebrauch.

Benutzt werden diese Anwendungen vor allem

für die Online-Recherche (36 Prozent),

als Alternative zur traditionellen Online-Suche (35 Prozent),

für Tipps und Empfehlungen zu Produkten oder Freizeitaktivitäten (27 Prozent),

zur Unterstützung bei zeitintensiven Aufgaben (24 Prozent) und

zum Preisvergleich (21 Prozent).

Die veränderte Customer Journey ​​

Von den KI-Nutzern verwendet eine große Mehrheit (85 Prozent) die Tools dazu, um Produkte zu recherchieren, bevor sie nach den besten Angeboten suchen. Ein ähnlich großer Anteil ist der Meinung, dass

KI ihr Online-Shopping-Erlebnis verbessert hat und

sie sich bei größeren oder komplexeren Einkäufen auf KI verlassen können. ​

Bei so vielen verschieden Anwendungsmöglichkeiten glauben sieben von zehn Verbrauchenden, dass Agentic AI ihr Leben erleichtern wird. Knapp zwei Drittel der Befragten sind der Ansicht, dass sie die Nutzung weiterbringt.

Generationsübergreifende Akzeptanz

KI-Anwendungen werden über alle Generationen hinweg genutzt: Mehr als ein Fünftel der Befragten nutzt KI-Assistenten für Themen wie Reisen und Finanzen. ​​ Besonders häufig kommen die Tools beim Online-Shopping zum Einsatz, hier verwenden drei von zehn Teilnehmenden KI-Assistenten.​

Wenig überraschend führen dabei GenZ (37 Prozent beim Online-Shopping, 40 Prozent bei Finanzthemen) und Millennials (34 Prozent beim Online-Shopping) den Trend an.

Engagement und Conversion Rates ​

Die Studienmacher fanden zudem heraus, dass KI-Apps im Vergleich zu traditionellen Kanälen eine etwas höhere Engagement Rate auf den Seiten der Marken und Online-Händler erzielen. KI-Weiterleitungen liegen bei 78 Prozent, klassische bei 73 Prozent. ​​

Allerdings besteht bei der Conversion Rate noch Aufholbedarf, da diese bei KI-Referrals mit rund 1,2 Prozent deutlich unter der Rate bei Weiterleitungen über traditionelle Marketingkanäle mit 1,9 Prozent liegt. ​​

Ein weiteres interessantes Ergebnis der Studie: Besonders Millennials und Baby Boomer (jeweils 33 Prozent) bevorzugen KI-Empfehlungen mit direktem Link zur Verkäufer-Webseite und überspringen so den Browsing-Prozess. ​​

KI wird immer wichtiger für den Online-Handel​ Weiterlesen »

Nach oben scrollen
×