Computerhaus Quickborn

Allgemein

Motorola Razr 60 Ultra im Test: Fast perfektes Klapp-Smartphone​

Allgemein

Anyron Copeman / Foundry Auf einen Blick Pro Atemberaubendes, robustes Design Wunderschöne Displays Erstklassige Leistung Hervorragende Akkulaufzeit Nützliches Titelbild Kontra Keine Teleobjektivkamera Nur vier Jahre Updates Teuer Fazit Das Razr 60 Ultra ist zweifellos das beste Klapphandy, das derzeit auf dem Markt ist, und ich erwarte nicht, dass Samsungs Galaxy Z Flip 7 es schlagen kann. Allerdings gibt es genug Nachteile, die einen zweimal überlegen lassen, bevor man es kauft, besonders zu diesem Preis. Ich liebe faltbare Smartphones. Vielleicht bin ich zu sehr von der Nostalgie der klassischen Handys aus den 2000er-Jahren beeinflusst. Aber irgendetwas an dieser Gerätegattung fühlt sich einfach cool an. In der modernen Ära der Klapp-Handys dominieren mittlerweile zwei Marken: Samsung und Motorola. Motorola hat vielleicht nicht die gleiche Schlagkraft wie sein koreanischer Konkurrent. Aber der Hersteller hat wohl die Oberhand, wenn es um die eigentlichen Geräte geht. Vergangenes Jahr haben wir das Razr 50 Ultra und nicht das Galaxy Z Flip 6 zum besten Klapp-Handy des Jahres gekürt. Im Jahr 2025 hat Motorola eine Reihe von Verbesserungen für das neue Razr 60 Ultra eingeführt, die es zur Konkurrenz der nicht klappbaren Flaggschiffe aufschließen lassen. Dies gilt zumindest für die technischen Daten. Und wenn Sie das 60 Ultra das erste Mal in die Hand nehmen, werden Sie feststellen, dass Motorola seine Führung bei den Klapp-Handys weiter ausgebaut hat. Design und Ausführung Wunderschönes Design, einschließlich Alcantara- oder Holzoberflächen Strapazierfähige, robuste Bauweise Wasser- und staubdicht nach IP48 Das Razr 60 Ultra ist zweifellos das schönste Handy, das ich je benutzt habe. Das hat viel mit den verfügbaren Oberflächen zu tun, die alle auf Motorolas Partnerschaft mit Pantone beruhen. Ich habe alle vier ausprobiert, und so auffällig die Farben „Rio Red“ und „Cabaret“ auch sind, die beiden anderen stechen sofort ins Auge. Mit „Scarab“ hält das weiche Alcantara-Material zum ersten Mal Einzug auf dem Handy, und ich bin begeistert, wie es aussieht und sich anfühlt. Allerdings ist mir schon bei meiner kurzen praktischen Anwendung aufgefallen, wie leicht sich sichtbarer Staub und Schmutz ansammeln. Daher ist mein Favorit der „Mountain Trail“, der zufällig die Version ist, die ich für diesen Bericht getestet habe. Sie besteht zum Teil aus echtem Holz und bietet ein einzigartiges natürliches Finish, das die Griffigkeit erhöht und die Ansammlung von Schmutz verhindert. Ich liebe es. Anyron Copeman / Foundry Das Gleiche gilt für die Kameraringe, die innerhalb von Sekunden nach der Benutzung schmutzig und staubig werden. Da sie jedoch vom Cover-Display umgeben sind, sehe ich keine Alternative, es sei denn, die Linsen sitzen bündig mit der Rückseite des Telefons. Es ist erwähnenswert, dass die einzigartigen Oberflächen nur für die untere Hälfte der Rückseite des Geräts gelten, die nicht von einem Bildschirm bedeckt ist. Die Seiten des Geräts sind stattdessen mit Aluminium ausgestattet, obwohl diese ungefähr der Farbe des Telefons entsprechen, für das Sie sich entscheiden. An den Seiten des Geräts gibt es zwei bemerkenswerte Merkmale. Das erste ist ein Fingerabdrucksensor, der in die Einschalttaste statt in eines der Displays integriert ist. Das macht Sinn, denn so können Sie das Gerät nahtlos entsperren, während Sie entweder das Cover oder den internen Bildschirm verwenden. Er ist schnell, zuverlässig und fühlt sich sehr natürlich an – hier gibt es also keine Beschwerden. Die andere ist die spezielle „Moto AI“-Taste auf der gegenüberliegenden Seite. Ich werde im Abschnitt „Software & Funktionen“ mehr über die Leistung dieser Taste sagen, aber ihre Platzierung verhindert zumindest eine Verwechslung mit den Power- und Lautstärkereglern. Motorola bietet eine Hülle für das Razr 60 Ultra an, die für zusätzlichen Schutz sorgt. Aber wenn es jemals ein Handy gab, das ich empfehlen würde, ohne Hülle zu benutzen, dann ist es dieses. Nicht nur, dass man das atemberaubende Design nicht verdecken möchte, es fühlt sich auch robust genug an. Das Cover-Display ist mit dem widerstandsfähigen Gorilla Glass Ceramic ausgestattet, das Stürze auf harte Oberflächen überstehen soll. Und auf der Innenseite sorgt eine vorinstallierte Displayschutzfolie für zusätzlichen Schutz. Das Scharnier, eine offensichtliche Schwachstelle bei Klapphandys, fühlt sich beeindruckend stabil und robust an. Ich bin während meiner Tests nicht gerade sanft damit umgegangen, aber es gab keinerlei Anzeichen von Schwäche. Die verbesserte Staubresistenz ist ein weiterer Grund, sich wohlzufühlen. Dank IP48-Zertifizierung ist das Razr 60 Ultra jetzt vor Objekten geschützt ist, die größer als 1 mm sind, zusätzlich zum bestehenden Schutz gegen das Eintauchen in bis zu 1,5 m tiefes Süßwasser. Ich wäre immer noch vorsichtig, wenn ich es mit an den Strand nehmen würde, aber eine IP68-Zertifizierung auf Flaggschiff-Niveau zu erreichen, scheint bei einem faltbaren Gerät fast unmöglich. Mit einem Gewicht von 199 g ist das Razr 60 Ultra im Vergleich zu modernen Handys eher ein Leichtgewicht. Durch das 7-Zoll-Display im Inneren ist es jedoch alles andere als unauffällig, wenn es aufgeklappt ist. Als Falt-Smartphone passt es bequem in die Hosen- oder Handtasche. Bildschirme und Lautsprecher 4-Zoll-AMOLED-Deckel-Bildschirm 7-Zoll-AMOLED-Innenbildschirm Stereo-Lautsprecher Als Klapphandy hat das Razr 60 Ultra natürlich zwei Bildschirme. Sie sind beide hervorragend. Auf der Außenseite finden Sie ein 4-Zoll-AMOLED-Panel, das fast die Hälfte der gesamten Rückseite des Telefons einnimmt. Abgesehen von der bereits erwähnten Gorilla Glass Ceramic-Beschichtung und einer verbesserten Spitzenhelligkeit ist es gegenüber dem Razr 50 Ultra unverändert. Aber es bleibt der größte Bildschirm, den Sie auf einem Flip-Phone finden, und ein spürbares Upgrade im Vergleich zum 3,4-Zoll-Display auf der Außenseite des Galaxy Z Flip 6. Die Full-HD-Auflösung (1272 x 1080) sorgt für eine hervorragende Detailgenauigkeit, während die Bildwiederholfrequenz von 165 Hz Übergänge angenehm weich und flüssig macht. Beeindruckend ist, dass das interne Display sogar noch bessere Spezifikationen aufweist. Dieses 7-Zoll-AMOLED-Panel erhöht die Auflösung auf Full HD+ (1224 x 2912), während die seidenweiche 165Hz-Bildwiederholrate beibehalten wird. Beide Bildschirme sind LTPO-fähig: Die Bildwiederholfrequenz kann automatisch auf bis zu 1 Hz gesenkt werden, um den Akku zu schonen. Anyron Copeman / Foundry Motorola gibt eine Spitzenhelligkeit von 4500 nits an, aber selbst die bescheidenen 474 nits, die ich bei maximaler Helligkeit gemessen habe, gewährleisten eine ausgezeichnete Sichtbarkeit unter allen Bedingungen, einschließlich hellem Sonnenlicht. Das Unternehmen hat auch gute Arbeit geleistet, um die Störung durch die Falte zu minimieren. Man spürt sie beim Scrollen, aber sie ist nie sichtbar, es sei denn, der Bildschirm ist ausgeschaltet. Wenn Sie nicht mit Flip-Telefonen vertraut sind, könnte dies anfangs störend wirken, aber Sie werden sich schnell daran gewöhnen. Razr 60 und 60 UltraAnyron Copeman / Foundry Um Platz für den Scharniermechanismus zu schaffen, ist der Rahmen um das Display aus Kunststoff und etwas dicker als bei vielen Flaggschiff-Handys. Zusammen mit dem 7-Zoll-Display macht dies das Razr 60 Ultra zu einem der größten und längsten Handys auf dem Markt, wenn es geöffnet ist. Ich persönlich sehe den Vorteil eines so großen Displays nicht. Es ist nur ein paar Millimeter größer als die meisten nicht aufklappbaren Handys, aber ich fand es viel umständlicher zu bedienen. Nicht nur, dass man das Handy immer mit zwei Händen bedienen muss, man muss es auch umständlich neu einstellen, wenn man vom Fingerabdrucksensor zum unteren Teil des Bildschirms wechseln will. In Anbetracht der Tatsache, dass das reguläre Razr 60 ähnliche Abmessungen hat, würde ich mir wünschen, dass Motorola eine Alternative für Leute anbietet, die etwas Kompakteres suchen. Anyron Copeman / Foundry An der Qualität der beiden Displays des Razr 60 Ultra gibt es jedoch nichts auszusetzen – sie gehören zu den besten, die es auf einem Handy gibt. Unabhängig davon, was man tut, sieht der Inhalt klar, scharf und lebendig aus, mit Farben, die wirklich knallen. Das Gleiche kann man von den Stereolautsprechern nicht ganz behaupten, obwohl sie besser sind, als ich erwartet hatte. Das übliche, nach unten gerichtete Gitter wird mit einer überdurchschnittlich großen Hörmuschel kombiniert und liefert einen kräftigen Klang, der beeindruckend laut ist. Anyron Copeman / Foundry Selbst bei diesen hohen Lautstärken werden hörbare Verzerrungen auf ein Minimum reduziert. Allerdings klingt Musik oft blechern und es fehlt der Bass, den man von High-End-Lautsprechern kennt. Glücklicherweise sorgt die Kombination aus Bluetooth 5.4 und Qualcomms hochauflösenden aptX”-Codecs für ein besseres Erlebnis, wenn Sie ein hochwertiges Paar Kopfhörer anschließen. Technische Daten & Ausstattung Snapdragon 8 Elite-Chipsatz 16 GB Arbeitsspeicher 512GB oder 1TB interner Speicher Der Chipsatz des Razr 60 Ultra ist wohl sein größtes Upgrade. Während das Razr 50 Ultra mit dem Snapdragon 8s Gen 3 ausgestattet war und damit eine Stufe unter dem Flaggschiff-Chip von Qualcomm lag, geht sein Nachfolger keine Kompromisse ein und verwendet den Snapdragon 8 Elite. Und mit satten 16 GB RAM hat Motorola in puncto Leistung alles aus sich herausgeholt. Die Ergebnisse sind vorhersehbar hervorragend – das Razr 60 Ultra bietet die beste Leistung, die man bei einem Flip-Phone finden kann. Alles, was ich in den Testberichten zu anderen Snapdragon 8 Elite-Telefonen gesagt habe, könnte hier kopiert und eingefügt werden. Wir sprechen hier von blitzschnellen Geschwindigkeiten, schnellen Übergängen und keinerlei Anzeichen von Verlangsamung oder Zögern. Beim Surfen im Internet, bei Messaging, E-Mail, Social Media, Fotografie und Musik-Streaming fühlt sich das Razr 60 Ultra an, als hätte es tonnenweise Leistung in Reserve. Das eröffnet die Möglichkeit, dass das Telefon ein echtes Gaming-Gerät ist. Allerdings wird der faltbare Formfaktor bei diesen anspruchsvollen Aufgaben wahrscheinlich immer Probleme bereiten. Das Razr 60 Ultra kann anspruchsvolle Titel wie Genshin Impact, Call of Duty: Mobile und Real Racing 3 ohne Ruckeln oder Bildaussetzer spielen, aber die Rückseite des Telefons wird schnell unangenehm heiß. Bei längeren Sessions würde ich erwarten, dass dies Auswirkungen auf die Leistung hat. Das Razr 60 Ultra eignet sich gut für Gelegenheitsspiele und gelegentliche anspruchsvolle Titel. Wenn du aber ernsthaft mobil spielen willst, solltest du ein Handy wählen, das nicht klappbar ist, oder sogar ein spezielles Gaming-Handy. Neben den 16 GB RAM können Sie zwischen 512 GB und 1 TB internem Speicher wählen. Eine Erweiterung über eine Micro-SD-Karte wird nicht unterstützt, aber bei diesen großzügigen Kapazitäten werden Sie sie wohl kaum benötigen. Rechenleistung Kameras 50Mp, f/1.8 Hauptkamera 50Mp, f/2.0 ultraweit 50Mp, f/2.0 intern Motorola hat bei den Kameras des Razr 60 Ultra einige Änderungen vorgenommen. Während der 50Mp-Hauptsensor etwas größer ist, ist das unterstützende 50Mp-Objektiv nun ein Ultrawide-Objektiv anstelle eines 2x-Teleobjektivs. Oberflächlich betrachtet fühlt sich dies wie eine Verschlechterung an, da Motorola den 2-fachen optischen Zoom zugunsten eines 122-fachen Teleobjektivs geopfert hat. Da das Razr 50 Ultra jedoch auf einen Digitalzoom mit mehr als 2facher Vergrößerung angewiesen war, hatte es nur begrenzte Zoom-Möglichkeiten. Und ich habe die Flexibilität des Ultraweitwinkelobjektivs sehr genossen, das eine ähnliche Bildqualität wie das 50-Megapixel-Hauptobjektiv bietet. Im Allgemeinen sind die Aufnahmen scharf und detailliert und bieten lebendige Farben, die richtig knallen. Trotzdem würde ich mir ein besseres Teleobjektiv mit stärkerem optischen Zoom wünschen. Wenn man sich ausschließlich auf den digitalen Zoom verlässt, lässt die Qualität schnell nach, sobald man über den 2-fachen Wert hinausgeht. Wenn ich jedoch die Wahl zwischen einem 2-fachen Teleobjektiv und diesem anständigen Ultraweitwinkelobjektiv hätte, würde ich mich immer für letzteres entscheiden. Das 50-Megapixel-Hauptobjektiv ist ein kleiner, aber spürbarer Schritt nach vorn und liefert genauere Farben und einen besseren Dynamikbereich.In einigen Szenarien sind die Aufnahmen mit denen der besten Handykameras vergleichbar, vor allem bei schlechten Lichtverhältnissen. Ich habe jedoch festgestellt, dass es oft Probleme mit der Belichtung und den Schatten hatte, was bedeutet, dass die Fotos oft über- oder unterbelichtet waren. Das passiert nicht jedes Mal, aber es ist nicht konsistent, also ist dies kein Handy, auf das man sich für Point-and-Shoot-Fotografie verlassen kann. Der Porträtmodus ist im Allgemeinen gut und ermöglicht einen attraktiven Bokeh-Effekt.Ich finde es gut, dass man die Stärke der Hintergrundunschärfe vor der Aufnahme einstellen kann, obwohl es oft schwierig ist, zu erkennen, wo das Motiv endet und der Hintergrund beginnt. Auch der Makromodus ist erwähnenswert. Nahaufnahmen sind zwar gut, aber die Detailgenauigkeit ist nicht garantiert, wenn man nicht genau weiß, wo man steht, daher würde ich mich nicht zu sehr darauf verlassen. Aber eines der Dinge, die ich an Klapphandys liebe, ist, dass man die Hauptkameras für Selfies verwenden kann. Das Ergebnis ist eine viel bessere Qualität als alles, was man mit der Frontlinse eines Handys ohne Klappfunktion machen kann, und ich finde es toll, dass man für Gruppen-Selfies auf die Ultrawide-Kamera umschalten kann. Motorola hat immer noch eine 50-Megapixel-Selfie-Kamera am oberen Rand des internen Bildschirms eingebaut. Sie ist brauchbar, aber ich würde empfehlen, sie nur für Videoanrufe zu verwenden. Apropos Video: Das Razr 60 Ultra kann bis zu 8K bei 30 Bildern pro Sekunde aufnehmen, obwohl die Standardeinstellung von 4K bei 30 Bildern pro Sekunde für die meisten Menschen ausreichend ist. Trotz OIS (optischer Bildstabilisierung) am Hauptobjektiv sind die Aufnahmen jedoch oft ruckelig, wenn man sich stark bewegt. Positiv zu erwähnen ist der Camcorder-Modus, der automatisch mit der Videoaufnahme beginnt, wenn man sich in der Kamera-App befindet und das Gerät teilweise schließt, was die Einrichtung eines Camcorders alter Schule imitiert. Akkulaufzeit & Aufladen 4700-mAh-Akku 68 W kabelgebundenes Laden 30 W kabelloses Laden Motorola hat auch seinem Flaggschiff Razr einen großen Akku verpasst. Das 60 Ultra verfügt über einen 4700-mAh-Akku – ein deutliches Upgrade im Vergleich zum 4000-mAh-Akku des Razr 50 Ultra. Es ist jedoch immer noch kleiner als die meisten nicht klappbaren Handys, und es gibt zwei hochwertige Bildschirme, die damit betrieben werden. Wie hat es sich also geschlagen? Erfreulicherweise sehr gut, auch wenn ich etwa 90 % meiner Zeit mit dem internen Display verbracht habe. In unserem regulären PCMark-Akkutest, der reale Aufgaben bei einer Helligkeit von 200 cd/m² simuliert (typisch für viele Menschen), erreichte das Razr 60 Ultra beeindruckende 14 Stunden und 30 Minuten. An anspruchsvollen Tagen mit viel Helligkeit, GPS und mobilen Daten wird der Akku natürlich viel schneller leer sein. Aber wenn Sie nicht vorhaben, mehrere Stunden lang zu spielen oder nonstop Fotos und Videos aufzunehmen, wird eine volle Ladung bequem bis zum Ende des Tages reichen. Motorola hat auch bei den Ladegeschwindigkeiten per Kabel überzeugt. Das Razr 60 Ultra kann 68 Watt erreichen, obwohl (wie heutzutage üblich) kein Ladegerät in der Verpackung enthalten ist. Mit einem 65-Watt-Ladegerät, das ich bereits hatte, erreichte das Handy nach 15 Minuten 29 % und nach einer halben Stunde 55 %. Eine volle Ladung dauerte etwas mehr als eine Stunde, was gar nicht so schlecht ist. Es ist jedoch erwähnenswert, dass die schnelleren Geschwindigkeiten davon abhängen, dass der „TurboPower“-Modus aktiviert ist, was bedeutet, dass das Telefon schnell sehr heiß wird. Ich würde mich nicht wohl dabei fühlen, wenn es so schnell aufgeladen wird, und ich kann keine Möglichkeit sehen, dies zu deaktivieren. Stattdessen würde ich erwägen, die Einstellung „Überladungsschutz“ zu aktivieren, die den Ladevorgang auf 80 % begrenzt, um „Ihren Akku gesund zu halten“. Sie können es immer noch vor anstrengenden Tagen ausschalten, während es einmal pro Woche unabhängig davon 100 % erreichen wird. Die kabellosen Ladegeschwindigkeiten sind ebenfalls gut – wir sprechen hier von 30 Watt bei Verwendung eines Qi-Pads oder 5 Watt, wenn Sie Ihr Telefon zum kabellosen Aufladen von Zubehör wie Kopfhörern verwenden möchten. Software und Apps Android 15 KI-Funktionen über eine spezielle Taste 3 Jahre Betriebssystem-Updates, 4 Jahre Sicherheits-Patches Das Razr 60 Ultra läuft ab Werk mit Android 15. Motorola hat in der Regel eine leichte Herangehensweise an seine Android-Oberfläche gewählt, so dass die Erfahrung hier jedem vertraut sein wird, der ein aktuelles Pixel-Telefon verwendet hat. Allerdings gibt es auch einige bemerkenswerte Unterschiede. Das Menü für die Standard-Schriftart und die Schnelleinstellungen sind ein wenig anders, wie die Squircle-Symbole (Quadrat-Kreis-Hybrid) und das Schubladen-App-Design. Motorola hat auch eine Reihe von eigenen Apps integriert: einige davon sind nützlich, andere sind lästige Bloatware. Aber insgesamt ist die allgemeine Benutzeroberfläche im Vergleich zum sogenannten „Stock“-Android weitgehend unverändert.Ein wichtiger Bereich, in dem sich das Razr 60 Ultra von der Konkurrenz abhebt, ist die spezielle “Moto AI”-Taste auf der linken Seite. Ein langer Druck bietet einfachen Zugang zu Motorolas wichtigsten KI-Tools, die es wert sind, eines nach dem anderen erkundet zu werden. Zunächst einmal gibt es drei Funktionen, die bereits auf dem Razr 50 Ultra verfügbar waren. Die Funktion „Mich aktualisieren“ fasst Anrufe und Benachrichtigungen gut zusammen, vor allem, wenn es viele davon gibt. Notizen machen“ ist eine nützliche Abkürzung für die Audioaufnahme, mit sofortiger Transkription, die in den meisten Fällen korrekt ist. Und mit „Merken“ kann Moto AI die Informationen in Fotos oder Screenshots analysieren und verstehen, sodass Sie später Fragen dazu stellen können. Und dann sind da noch die neuen Funktionen des 60 Ultra. Image Studio“ nutzt generative KI, um Bilder, Sticker, Avatare und mehr auf der Grundlage Ihrer Texteingabe zu erstellen. Playlist Studio“ erstellt benutzerdefinierte Wiedergabelisten für den Musik-Streaming-Dienst Ihrer Wahl. Motorola verfügt auch über einen eigenen Sprachassistenten, der bei der Beantwortung gängiger Fragen recht gut zu sein scheint, sich aber mit den eigentlichen Funktionen, wie dem Ändern von Geräteeinstellungen, schwer tut. Eine Partnerschaft mit der KI-Antwort-Engine von Perplexity ist vielversprechend, aber ich verwende lieber Google Gemini, das wie üblich durch einen langen Druck auf die Einschalttaste aktiviert wird. Beide erfordern ein monatliches Abonnement, um den vollen Funktionsumfang nutzen zu können. Mein Favorit unter den KI-Funktionen ist wohl die verbesserte Suchfunktion. Bei der Suche über die App-Schublade oder das Einstellungsmenü können Sie mit natürlicher Sprache finden, wonach Sie suchen. Wenn man zum Beispiel „Automatische Helligkeit“ eingibt, wird die Einstellung für „Adaptive Helligkeit“ angezeigt. Doch wie bei so vielen KI-Funktionen auf aktuellen Handys gibt es auch hier nichts Bahnbrechendes. Umso frustrierender ist die Entscheidung von Motorola, die Zuordnung der Moto AI-Taste zu etwas potenziell Nützlicherem zu blockieren. Entweder man verwendet sie für den vorgesehenen Zweck oder man versucht, sie zu vergessen, bis man sie unweigerlich versehentlich aus der Tasche auslöst. Ein Bereich, in dem Motorola viel Lob verdient, ist sein Ansatz für den Titelbildschirm. Im Gegensatz zum Galaxy Z Flip 6 bietet das Razr 60 Ultra völlige Flexibilität bei der Auswahl der Apps, die man auf dem Außendisplay ausführen möchte. Eine Mini-Version jeder einzelnen App kann auf dem Titelbildschirm ausgeführt werden, mit nur einer kurzen Warnung, dass die App „möglicherweise nicht für diese Bildschirmgröße ausgelegt ist“, wenn Sie sie zum ersten Mal öffnen. Ich kann verstehen, warum Motorola dies eingebaut hat – wenn es im Vollbildmodus angezeigt wird, blockieren die Kameraringe oft wichtige Tasten oder Informationen.Das lässt sich aber leicht beheben, indem man die Navigationsleiste gedrückt hält. Dadurch wird das Display kleiner, weil der gesamte Inhalt über die Kameras verschoben wird. Für mich ist das die perfekte Lösung. Umso verwirrender ist Samsungs Entscheidung, Sie durch so viele Hürden springen zu lassen. Ich persönlich beschränke den Titelbildschirm auf eine Handvoll wichtiger Tools und Widgets, was zu einer bewussteren Nutzung anregt. Aber man könnte das Telefon nie öffnen und trotzdem nicht auf eine Funktion verzichten. In Bezug auf Software-Updates hat sich Motorola verpflichtet, drei Jahre lang wichtige Betriebssystem-Updates und vier Jahre lang Sicherheits-Patches bereitzustellen, was das Gerät auf Android 18 und 2029 bringt. Das sollte zwar kein Hindernis sein, ist aber deutlich weniger als die sieben Jahre, die Samsung für das Galaxy Z Flip 6 bietet. Wenn man so viel für ein Gerät bezahlt, kann man natürlich mehr erwarten. Preis und Verfügbarkeit Apropos Preis: Sie haben wahrscheinlich schon gemerkt, dass das Razr 60 Ultra/Razr Ultra 2025 nicht gerade billig ist. Die unverbindliche Preisempfehlung liegt bei 1.299 Euro, wofür Sie 512 GB Speicherplatz erhalten. Die Straßenpreise sind aber bereits am sinken, die Dunkelgrüne Variante bekommen Sie aktuell ab 1.164 Euro. Das macht es zu einem der teuersten Handys, die Sie kaufen können. Sein großer Konkurrent ist das Samsung Galaxy Z Flip 6 ab 812 Euro, der Nachfolger Z Flip 7 lässt allerdings nicht mehr lange auf sich warten. Sollten Sie das Motorola Razr 60 Ultra kaufen? Wenn Sie das absolut beste Flip-Handy wollen und bereit sind, dafür zu bezahlen, ja. Das Razr 60 Ultra ist ein klarer Fortschritt gegenüber dem Galaxy Z Flip 6, und das wird es wahrscheinlich auch für das Z Flip 7 sein, es sei denn, lange Software-Unterstützung ist eine Top-Priorität. Motorola beherrscht das Cover-Display besser als jeder andere Hersteller von Klapphandys, und auch das große interne Display ist nicht schlecht. Wenn Sie zwischen den beiden Displays hin- und herschalten, können Sie das atemberaubende Design bewundern, vor allem, wenn Sie sich für die Holzoberfläche entscheiden. Mit einer Leistung auf Flaggschiff-Niveau, einer exzellenten Akkulaufzeit und mehr als nur einer Prise KI hat das Razr 60 Ultra fast alle Grundvoraussetzungen erfüllt. Die große Ausnahme ist das Fehlen einer Telekamera und die (nach heutigen Maßstäben) relativ geringe Bereitschaft zu längerfristigen Software-Updates. Aber wenn Geld keine Rolle spielt, ist das Razr 60 Ultra das Flip-Telefon des Jahres 2025, das es zu schlagen gilt. Vergewissern Sie sich nur, dass das günstigere normale Razr 60 noch alles bietet, was Sie suchen. Technische Daten 4-Zoll, 165Hz Full HD AMOLED-Display 7-Zoll, 120Hz Full HD+ AMOLED-Hauptdisplay Qualcomm Snapdragon 8 Elite 16 GB RAM256/512 GB Speicher 256/512 GB Speicher 50Mp, f/1.8 Hauptkamera mit OIS 50Mp, f/2.0 Ultraweitwinkel-Kamera50Mp, f/2.0 Selfie-Kamera 4700mAh Akku68W kabelgebundenes Laden 30W drahtloses Aufladen5 W drahtlose Rückwärtsaufladung Stereo-Lautsprecher IP48 Wasser- und Staubschutz Gorilla Glass Ceramic (Bildschirmabdeckung) 5G Bluetooth 5.4 171,5,1 x 74 x 7,2 mm (offen), 88,1 x 74 x 15,7 mm (geschlossen) 199g Android 15 (PC-Welt) 

Motorola Razr 60 Ultra im Test: Fast perfektes Klapp-Smartphone​ Anyron Copeman / Foundry

Auf einen Blick

Pro

Atemberaubendes, robustes Design

Wunderschöne Displays

Erstklassige Leistung

Hervorragende Akkulaufzeit

Nützliches Titelbild

Kontra

Keine Teleobjektivkamera

Nur vier Jahre Updates

Teuer

Fazit

Das Razr 60 Ultra ist zweifellos das beste Klapphandy, das derzeit auf dem Markt ist, und ich erwarte nicht, dass Samsungs Galaxy Z Flip 7 es schlagen kann. Allerdings gibt es genug Nachteile, die einen zweimal überlegen lassen, bevor man es kauft, besonders zu diesem Preis.

Ich liebe faltbare Smartphones. Vielleicht bin ich zu sehr von der Nostalgie der klassischen Handys aus den 2000er-Jahren beeinflusst. Aber irgendetwas an dieser Gerätegattung fühlt sich einfach cool an.

In der modernen Ära der Klapp-Handys dominieren mittlerweile zwei Marken: Samsung und Motorola. Motorola hat vielleicht nicht die gleiche Schlagkraft wie sein koreanischer Konkurrent. Aber der Hersteller hat wohl die Oberhand, wenn es um die eigentlichen Geräte geht.

Vergangenes Jahr haben wir das Razr 50 Ultra und nicht das Galaxy Z Flip 6 zum besten Klapp-Handy des Jahres gekürt. Im Jahr 2025 hat Motorola eine Reihe von Verbesserungen für das neue Razr 60 Ultra eingeführt, die es zur Konkurrenz der nicht klappbaren Flaggschiffe aufschließen lassen. Dies gilt zumindest für die technischen Daten.

Und wenn Sie das 60 Ultra das erste Mal in die Hand nehmen, werden Sie feststellen, dass Motorola seine Führung bei den Klapp-Handys weiter ausgebaut hat.

Design und Ausführung

Wunderschönes Design, einschließlich Alcantara- oder Holzoberflächen

Strapazierfähige, robuste Bauweise

Wasser- und staubdicht nach IP48

Das Razr 60 Ultra ist zweifellos das schönste Handy, das ich je benutzt habe. Das hat viel mit den verfügbaren Oberflächen zu tun, die alle auf Motorolas Partnerschaft mit Pantone beruhen.

Ich habe alle vier ausprobiert, und so auffällig die Farben „Rio Red“ und „Cabaret“ auch sind, die beiden anderen stechen sofort ins Auge. Mit „Scarab“ hält das weiche Alcantara-Material zum ersten Mal Einzug auf dem Handy, und ich bin begeistert, wie es aussieht und sich anfühlt. Allerdings ist mir schon bei meiner kurzen praktischen Anwendung aufgefallen, wie leicht sich sichtbarer Staub und Schmutz ansammeln.

Daher ist mein Favorit der „Mountain Trail“, der zufällig die Version ist, die ich für diesen Bericht getestet habe. Sie besteht zum Teil aus echtem Holz und bietet ein einzigartiges natürliches Finish, das die Griffigkeit erhöht und die Ansammlung von Schmutz verhindert. Ich liebe es.

Anyron Copeman / Foundry

Das Gleiche gilt für die Kameraringe, die innerhalb von Sekunden nach der Benutzung schmutzig und staubig werden. Da sie jedoch vom Cover-Display umgeben sind, sehe ich keine Alternative, es sei denn, die Linsen sitzen bündig mit der Rückseite des Telefons.

Es ist erwähnenswert, dass die einzigartigen Oberflächen nur für die untere Hälfte der Rückseite des Geräts gelten, die nicht von einem Bildschirm bedeckt ist. Die Seiten des Geräts sind stattdessen mit Aluminium ausgestattet, obwohl diese ungefähr der Farbe des Telefons entsprechen, für das Sie sich entscheiden.

An den Seiten des Geräts gibt es zwei bemerkenswerte Merkmale. Das erste ist ein Fingerabdrucksensor, der in die Einschalttaste statt in eines der Displays integriert ist. Das macht Sinn, denn so können Sie das Gerät nahtlos entsperren, während Sie entweder das Cover oder den internen Bildschirm verwenden. Er ist schnell, zuverlässig und fühlt sich sehr natürlich an – hier gibt es also keine Beschwerden.

Die andere ist die spezielle „Moto AI“-Taste auf der gegenüberliegenden Seite. Ich werde im Abschnitt „Software & Funktionen“ mehr über die Leistung dieser Taste sagen, aber ihre Platzierung verhindert zumindest eine Verwechslung mit den Power- und Lautstärkereglern. Motorola bietet eine Hülle für das Razr 60 Ultra an, die für zusätzlichen Schutz sorgt. Aber wenn es jemals ein Handy gab, das ich empfehlen würde, ohne Hülle zu benutzen, dann ist es dieses. Nicht nur, dass man das atemberaubende Design nicht verdecken möchte, es fühlt sich auch robust genug an.

Das Cover-Display ist mit dem widerstandsfähigen Gorilla Glass Ceramic ausgestattet, das Stürze auf harte Oberflächen überstehen soll. Und auf der Innenseite sorgt eine vorinstallierte Displayschutzfolie für zusätzlichen Schutz.

Das Scharnier, eine offensichtliche Schwachstelle bei Klapphandys, fühlt sich beeindruckend stabil und robust an. Ich bin während meiner Tests nicht gerade sanft damit umgegangen, aber es gab keinerlei Anzeichen von Schwäche.

Die verbesserte Staubresistenz ist ein weiterer Grund, sich wohlzufühlen. Dank IP48-Zertifizierung ist das Razr 60 Ultra jetzt vor Objekten geschützt ist, die größer als 1 mm sind, zusätzlich zum bestehenden Schutz gegen das Eintauchen in bis zu 1,5 m tiefes Süßwasser. Ich wäre immer noch vorsichtig, wenn ich es mit an den Strand nehmen würde, aber eine IP68-Zertifizierung auf Flaggschiff-Niveau zu erreichen, scheint bei einem faltbaren Gerät fast unmöglich.

Mit einem Gewicht von 199 g ist das Razr 60 Ultra im Vergleich zu modernen Handys eher ein Leichtgewicht. Durch das 7-Zoll-Display im Inneren ist es jedoch alles andere als unauffällig, wenn es aufgeklappt ist. Als Falt-Smartphone passt es bequem in die Hosen- oder Handtasche.

Bildschirme und Lautsprecher

4-Zoll-AMOLED-Deckel-Bildschirm

7-Zoll-AMOLED-Innenbildschirm

Stereo-Lautsprecher

Als Klapphandy hat das Razr 60 Ultra natürlich zwei Bildschirme. Sie sind beide hervorragend.

Auf der Außenseite finden Sie ein 4-Zoll-AMOLED-Panel, das fast die Hälfte der gesamten Rückseite des Telefons einnimmt. Abgesehen von der bereits erwähnten Gorilla Glass Ceramic-Beschichtung und einer verbesserten Spitzenhelligkeit ist es gegenüber dem Razr 50 Ultra unverändert.

Aber es bleibt der größte Bildschirm, den Sie auf einem Flip-Phone finden, und ein spürbares Upgrade im Vergleich zum 3,4-Zoll-Display auf der Außenseite des Galaxy Z Flip 6. Die Full-HD-Auflösung (1272 x 1080) sorgt für eine hervorragende Detailgenauigkeit, während die Bildwiederholfrequenz von 165 Hz Übergänge angenehm weich und flüssig macht.

Beeindruckend ist, dass das interne Display sogar noch bessere Spezifikationen aufweist. Dieses 7-Zoll-AMOLED-Panel erhöht die Auflösung auf Full HD+ (1224 x 2912), während die seidenweiche 165Hz-Bildwiederholrate beibehalten wird. Beide Bildschirme sind LTPO-fähig: Die Bildwiederholfrequenz kann automatisch auf bis zu 1 Hz gesenkt werden, um den Akku zu schonen.

Anyron Copeman / Foundry

Motorola gibt eine Spitzenhelligkeit von 4500 nits an, aber selbst die bescheidenen 474 nits, die ich bei maximaler Helligkeit gemessen habe, gewährleisten eine ausgezeichnete Sichtbarkeit unter allen Bedingungen, einschließlich hellem Sonnenlicht.

Das Unternehmen hat auch gute Arbeit geleistet, um die Störung durch die Falte zu minimieren. Man spürt sie beim Scrollen, aber sie ist nie sichtbar, es sei denn, der Bildschirm ist ausgeschaltet. Wenn Sie nicht mit Flip-Telefonen vertraut sind, könnte dies anfangs störend wirken, aber Sie werden sich schnell daran gewöhnen.

Razr 60 und 60 UltraAnyron Copeman / Foundry

Um Platz für den Scharniermechanismus zu schaffen, ist der Rahmen um das Display aus Kunststoff und etwas dicker als bei vielen Flaggschiff-Handys. Zusammen mit dem 7-Zoll-Display macht dies das Razr 60 Ultra zu einem der größten und längsten Handys auf dem Markt, wenn es geöffnet ist.

Ich persönlich sehe den Vorteil eines so großen Displays nicht. Es ist nur ein paar Millimeter größer als die meisten nicht aufklappbaren Handys, aber ich fand es viel umständlicher zu bedienen.

Nicht nur, dass man das Handy immer mit zwei Händen bedienen muss, man muss es auch umständlich neu einstellen, wenn man vom Fingerabdrucksensor zum unteren Teil des Bildschirms wechseln will. In Anbetracht der Tatsache, dass das reguläre Razr 60 ähnliche Abmessungen hat, würde ich mir wünschen, dass Motorola eine Alternative für Leute anbietet, die etwas Kompakteres suchen.

Anyron Copeman / Foundry

An der Qualität der beiden Displays des Razr 60 Ultra gibt es jedoch nichts auszusetzen – sie gehören zu den besten, die es auf einem Handy gibt. Unabhängig davon, was man tut, sieht der Inhalt klar, scharf und lebendig aus, mit Farben, die wirklich knallen.

Das Gleiche kann man von den Stereolautsprechern nicht ganz behaupten, obwohl sie besser sind, als ich erwartet hatte. Das übliche, nach unten gerichtete Gitter wird mit einer überdurchschnittlich großen Hörmuschel kombiniert und liefert einen kräftigen Klang, der beeindruckend laut ist.

Anyron Copeman / Foundry

Selbst bei diesen hohen Lautstärken werden hörbare Verzerrungen auf ein Minimum reduziert. Allerdings klingt Musik oft blechern und es fehlt der Bass, den man von High-End-Lautsprechern kennt. Glücklicherweise sorgt die Kombination aus Bluetooth 5.4 und Qualcomms hochauflösenden aptX”-Codecs für ein besseres Erlebnis, wenn Sie ein hochwertiges Paar Kopfhörer anschließen.

Technische Daten & Ausstattung

Snapdragon 8 Elite-Chipsatz

16 GB Arbeitsspeicher

512GB oder 1TB interner Speicher

Der Chipsatz des Razr 60 Ultra ist wohl sein größtes Upgrade. Während das Razr 50 Ultra mit dem Snapdragon 8s Gen 3 ausgestattet war und damit eine Stufe unter dem Flaggschiff-Chip von Qualcomm lag, geht sein Nachfolger keine Kompromisse ein und verwendet den Snapdragon 8 Elite.

Und mit satten 16 GB RAM hat Motorola in puncto Leistung alles aus sich herausgeholt. Die Ergebnisse sind vorhersehbar hervorragend – das Razr 60 Ultra bietet die beste Leistung, die man bei einem Flip-Phone finden kann.

Alles, was ich in den Testberichten zu anderen Snapdragon 8 Elite-Telefonen gesagt habe, könnte hier kopiert und eingefügt werden. Wir sprechen hier von blitzschnellen Geschwindigkeiten, schnellen Übergängen und keinerlei Anzeichen von Verlangsamung oder Zögern. Beim Surfen im Internet, bei Messaging, E-Mail, Social Media, Fotografie und Musik-Streaming fühlt sich das Razr 60 Ultra an, als hätte es tonnenweise Leistung in Reserve.

Das eröffnet die Möglichkeit, dass das Telefon ein echtes Gaming-Gerät ist. Allerdings wird der faltbare Formfaktor bei diesen anspruchsvollen Aufgaben wahrscheinlich immer Probleme bereiten.

Das Razr 60 Ultra kann anspruchsvolle Titel wie Genshin Impact, Call of Duty: Mobile und Real Racing 3 ohne Ruckeln oder Bildaussetzer spielen, aber die Rückseite des Telefons wird schnell unangenehm heiß.

Bei längeren Sessions würde ich erwarten, dass dies Auswirkungen auf die Leistung hat. Das Razr 60 Ultra eignet sich gut für Gelegenheitsspiele und gelegentliche anspruchsvolle Titel. Wenn du aber ernsthaft mobil spielen willst, solltest du ein Handy wählen, das nicht klappbar ist, oder sogar ein spezielles Gaming-Handy.

Neben den 16 GB RAM können Sie zwischen 512 GB und 1 TB internem Speicher wählen. Eine Erweiterung über eine Micro-SD-Karte wird nicht unterstützt, aber bei diesen großzügigen Kapazitäten werden Sie sie wohl kaum benötigen.

Rechenleistung

Kameras

50Mp, f/1.8 Hauptkamera

50Mp, f/2.0 ultraweit

50Mp, f/2.0 intern

Motorola hat bei den Kameras des Razr 60 Ultra einige Änderungen vorgenommen. Während der 50Mp-Hauptsensor etwas größer ist, ist das unterstützende 50Mp-Objektiv nun ein Ultrawide-Objektiv anstelle eines 2x-Teleobjektivs. Oberflächlich betrachtet fühlt sich dies wie eine Verschlechterung an, da Motorola den 2-fachen optischen Zoom zugunsten eines 122-fachen Teleobjektivs geopfert hat.

Da das Razr 50 Ultra jedoch auf einen Digitalzoom mit mehr als 2facher Vergrößerung angewiesen war, hatte es nur begrenzte Zoom-Möglichkeiten. Und ich habe die Flexibilität des Ultraweitwinkelobjektivs sehr genossen, das eine ähnliche Bildqualität wie das 50-Megapixel-Hauptobjektiv bietet. Im Allgemeinen sind die Aufnahmen scharf und detailliert und bieten lebendige Farben, die richtig knallen.

Trotzdem würde ich mir ein besseres Teleobjektiv mit stärkerem optischen Zoom wünschen. Wenn man sich ausschließlich auf den digitalen Zoom verlässt, lässt die Qualität schnell nach, sobald man über den 2-fachen Wert hinausgeht. Wenn ich jedoch die Wahl zwischen einem 2-fachen Teleobjektiv und diesem anständigen Ultraweitwinkelobjektiv hätte, würde ich mich immer für letzteres entscheiden.

Das 50-Megapixel-Hauptobjektiv ist ein kleiner, aber spürbarer Schritt nach vorn und liefert genauere Farben und einen besseren Dynamikbereich.In einigen Szenarien sind die Aufnahmen mit denen der besten Handykameras vergleichbar, vor allem bei schlechten Lichtverhältnissen.

Ich habe jedoch festgestellt, dass es oft Probleme mit der Belichtung und den Schatten hatte, was bedeutet, dass die Fotos oft über- oder unterbelichtet waren. Das passiert nicht jedes Mal, aber es ist nicht konsistent, also ist dies kein Handy, auf das man sich für Point-and-Shoot-Fotografie verlassen kann.

Der Porträtmodus ist im Allgemeinen gut und ermöglicht einen attraktiven Bokeh-Effekt.Ich finde es gut, dass man die Stärke der Hintergrundunschärfe vor der Aufnahme einstellen kann, obwohl es oft schwierig ist, zu erkennen, wo das Motiv endet und der Hintergrund beginnt.

Auch der Makromodus ist erwähnenswert. Nahaufnahmen sind zwar gut, aber die Detailgenauigkeit ist nicht garantiert, wenn man nicht genau weiß, wo man steht, daher würde ich mich nicht zu sehr darauf verlassen.

Aber eines der Dinge, die ich an Klapphandys liebe, ist, dass man die Hauptkameras für Selfies verwenden kann. Das Ergebnis ist eine viel bessere Qualität als alles, was man mit der Frontlinse eines Handys ohne Klappfunktion machen kann, und ich finde es toll, dass man für Gruppen-Selfies auf die Ultrawide-Kamera umschalten kann.

Motorola hat immer noch eine 50-Megapixel-Selfie-Kamera am oberen Rand des internen Bildschirms eingebaut. Sie ist brauchbar, aber ich würde empfehlen, sie nur für Videoanrufe zu verwenden.

Apropos Video: Das Razr 60 Ultra kann bis zu 8K bei 30 Bildern pro Sekunde aufnehmen, obwohl die Standardeinstellung von 4K bei 30 Bildern pro Sekunde für die meisten Menschen ausreichend ist. Trotz OIS (optischer Bildstabilisierung) am Hauptobjektiv sind die Aufnahmen jedoch oft ruckelig, wenn man sich stark bewegt.

Positiv zu erwähnen ist der Camcorder-Modus, der automatisch mit der Videoaufnahme beginnt, wenn man sich in der Kamera-App befindet und das Gerät teilweise schließt, was die Einrichtung eines Camcorders alter Schule imitiert.

Akkulaufzeit & Aufladen

4700-mAh-Akku

68 W kabelgebundenes Laden

30 W kabelloses Laden

Motorola hat auch seinem Flaggschiff Razr einen großen Akku verpasst. Das 60 Ultra verfügt über einen 4700-mAh-Akku – ein deutliches Upgrade im Vergleich zum 4000-mAh-Akku des Razr 50 Ultra.

Es ist jedoch immer noch kleiner als die meisten nicht klappbaren Handys, und es gibt zwei hochwertige Bildschirme, die damit betrieben werden. Wie hat es sich also geschlagen?

Erfreulicherweise sehr gut, auch wenn ich etwa 90 % meiner Zeit mit dem internen Display verbracht habe. In unserem regulären PCMark-Akkutest, der reale Aufgaben bei einer Helligkeit von 200 cd/m² simuliert (typisch für viele Menschen), erreichte das Razr 60 Ultra beeindruckende 14 Stunden und 30 Minuten.

An anspruchsvollen Tagen mit viel Helligkeit, GPS und mobilen Daten wird der Akku natürlich viel schneller leer sein. Aber wenn Sie nicht vorhaben, mehrere Stunden lang zu spielen oder nonstop Fotos und Videos aufzunehmen, wird eine volle Ladung bequem bis zum Ende des Tages reichen.

Motorola hat auch bei den Ladegeschwindigkeiten per Kabel überzeugt. Das Razr 60 Ultra kann 68 Watt erreichen, obwohl (wie heutzutage üblich) kein Ladegerät in der Verpackung enthalten ist. Mit einem 65-Watt-Ladegerät, das ich bereits hatte, erreichte das Handy nach 15 Minuten 29 % und nach einer halben Stunde 55 %. Eine volle Ladung dauerte etwas mehr als eine Stunde, was gar nicht so schlecht ist.

Es ist jedoch erwähnenswert, dass die schnelleren Geschwindigkeiten davon abhängen, dass der „TurboPower“-Modus aktiviert ist, was bedeutet, dass das Telefon schnell sehr heiß wird. Ich würde mich nicht wohl dabei fühlen, wenn es so schnell aufgeladen wird, und ich kann keine Möglichkeit sehen, dies zu deaktivieren.

Stattdessen würde ich erwägen, die Einstellung „Überladungsschutz“ zu aktivieren, die den Ladevorgang auf 80 % begrenzt, um „Ihren Akku gesund zu halten“. Sie können es immer noch vor anstrengenden Tagen ausschalten, während es einmal pro Woche unabhängig davon 100 % erreichen wird.

Die kabellosen Ladegeschwindigkeiten sind ebenfalls gut – wir sprechen hier von 30 Watt bei Verwendung eines Qi-Pads oder 5 Watt, wenn Sie Ihr Telefon zum kabellosen Aufladen von Zubehör wie Kopfhörern verwenden möchten.

Software und Apps

Android 15

KI-Funktionen über eine spezielle Taste

3 Jahre Betriebssystem-Updates, 4 Jahre Sicherheits-Patches

Das Razr 60 Ultra läuft ab Werk mit Android 15. Motorola hat in der Regel eine leichte Herangehensweise an seine Android-Oberfläche gewählt, so dass die Erfahrung hier jedem vertraut sein wird, der ein aktuelles Pixel-Telefon verwendet hat.

Allerdings gibt es auch einige bemerkenswerte Unterschiede. Das Menü für die Standard-Schriftart und die Schnelleinstellungen sind ein wenig anders, wie die Squircle-Symbole (Quadrat-Kreis-Hybrid) und das Schubladen-App-Design.

Motorola hat auch eine Reihe von eigenen Apps integriert: einige davon sind nützlich, andere sind lästige Bloatware. Aber insgesamt ist die allgemeine Benutzeroberfläche im Vergleich zum sogenannten „Stock“-Android weitgehend unverändert.Ein wichtiger Bereich, in dem sich das Razr 60 Ultra von der Konkurrenz abhebt, ist die spezielle “Moto AI”-Taste auf der linken Seite. Ein langer Druck bietet einfachen Zugang zu Motorolas wichtigsten KI-Tools, die es wert sind, eines nach dem anderen erkundet zu werden.

Zunächst einmal gibt es drei Funktionen, die bereits auf dem Razr 50 Ultra verfügbar waren.

Die Funktion „Mich aktualisieren“ fasst Anrufe und Benachrichtigungen gut zusammen, vor allem, wenn es viele davon gibt. Notizen machen“ ist eine nützliche Abkürzung für die Audioaufnahme, mit sofortiger Transkription, die in den meisten Fällen korrekt ist. Und mit „Merken“ kann Moto AI die Informationen in Fotos oder Screenshots analysieren und verstehen, sodass Sie später Fragen dazu stellen können.

Und dann sind da noch die neuen Funktionen des 60 Ultra. Image Studio“ nutzt generative KI, um Bilder, Sticker, Avatare und mehr auf der Grundlage Ihrer Texteingabe zu erstellen. Playlist Studio“ erstellt benutzerdefinierte Wiedergabelisten für den Musik-Streaming-Dienst Ihrer Wahl.

Motorola verfügt auch über einen eigenen Sprachassistenten, der bei der Beantwortung gängiger Fragen recht gut zu sein scheint, sich aber mit den eigentlichen Funktionen, wie dem Ändern von Geräteeinstellungen, schwer tut.

Eine Partnerschaft mit der KI-Antwort-Engine von Perplexity ist vielversprechend, aber ich verwende lieber Google Gemini, das wie üblich durch einen langen Druck auf die Einschalttaste aktiviert wird. Beide erfordern ein monatliches Abonnement, um den vollen Funktionsumfang nutzen zu können.

Mein Favorit unter den KI-Funktionen ist wohl die verbesserte Suchfunktion. Bei der Suche über die App-Schublade oder das Einstellungsmenü können Sie mit natürlicher Sprache finden, wonach Sie suchen. Wenn man zum Beispiel „Automatische Helligkeit“ eingibt, wird die Einstellung für „Adaptive Helligkeit“ angezeigt.

Doch wie bei so vielen KI-Funktionen auf aktuellen Handys gibt es auch hier nichts Bahnbrechendes. Umso frustrierender ist die Entscheidung von Motorola, die Zuordnung der Moto AI-Taste zu etwas potenziell Nützlicherem zu blockieren. Entweder man verwendet sie für den vorgesehenen Zweck oder man versucht, sie zu vergessen, bis man sie unweigerlich versehentlich aus der Tasche auslöst.

Ein Bereich, in dem Motorola viel Lob verdient, ist sein Ansatz für den Titelbildschirm. Im Gegensatz zum Galaxy Z Flip 6 bietet das Razr 60 Ultra völlige Flexibilität bei der Auswahl der Apps, die man auf dem Außendisplay ausführen möchte.

Eine Mini-Version jeder einzelnen App kann auf dem Titelbildschirm ausgeführt werden, mit nur einer kurzen Warnung, dass die App „möglicherweise nicht für diese Bildschirmgröße ausgelegt ist“, wenn Sie sie zum ersten Mal öffnen.

Ich kann verstehen, warum Motorola dies eingebaut hat – wenn es im Vollbildmodus angezeigt wird, blockieren die Kameraringe oft wichtige Tasten oder Informationen.Das lässt sich aber leicht beheben, indem man die Navigationsleiste gedrückt hält. Dadurch wird das Display kleiner, weil der gesamte Inhalt über die Kameras verschoben wird.

Für mich ist das die perfekte Lösung. Umso verwirrender ist Samsungs Entscheidung, Sie durch so viele Hürden springen zu lassen. Ich persönlich beschränke den Titelbildschirm auf eine Handvoll wichtiger Tools und Widgets, was zu einer bewussteren Nutzung anregt. Aber man könnte das Telefon nie öffnen und trotzdem nicht auf eine Funktion verzichten.

In Bezug auf Software-Updates hat sich Motorola verpflichtet, drei Jahre lang wichtige Betriebssystem-Updates und vier Jahre lang Sicherheits-Patches bereitzustellen, was das Gerät auf Android 18 und 2029 bringt.

Das sollte zwar kein Hindernis sein, ist aber deutlich weniger als die sieben Jahre, die Samsung für das Galaxy Z Flip 6 bietet. Wenn man so viel für ein Gerät bezahlt, kann man natürlich mehr erwarten.

Preis und Verfügbarkeit

Apropos Preis: Sie haben wahrscheinlich schon gemerkt, dass das Razr 60 Ultra/Razr Ultra 2025 nicht gerade billig ist. Die unverbindliche Preisempfehlung liegt bei 1.299 Euro, wofür Sie 512 GB Speicherplatz erhalten. Die Straßenpreise sind aber bereits am sinken, die Dunkelgrüne Variante bekommen Sie aktuell ab 1.164 Euro.

Das macht es zu einem der teuersten Handys, die Sie kaufen können. Sein großer Konkurrent ist das Samsung Galaxy Z Flip 6 ab 812 Euro, der Nachfolger Z Flip 7 lässt allerdings nicht mehr lange auf sich warten.

Sollten Sie das Motorola Razr 60 Ultra kaufen?

Wenn Sie das absolut beste Flip-Handy wollen und bereit sind, dafür zu bezahlen, ja. Das Razr 60 Ultra ist ein klarer Fortschritt gegenüber dem Galaxy Z Flip 6, und das wird es wahrscheinlich auch für das Z Flip 7 sein, es sei denn, lange Software-Unterstützung ist eine Top-Priorität.

Motorola beherrscht das Cover-Display besser als jeder andere Hersteller von Klapphandys, und auch das große interne Display ist nicht schlecht. Wenn Sie zwischen den beiden Displays hin- und herschalten, können Sie das atemberaubende Design bewundern, vor allem, wenn Sie sich für die Holzoberfläche entscheiden.

Mit einer Leistung auf Flaggschiff-Niveau, einer exzellenten Akkulaufzeit und mehr als nur einer Prise KI hat das Razr 60 Ultra fast alle Grundvoraussetzungen erfüllt. Die große Ausnahme ist das Fehlen einer Telekamera und die (nach heutigen Maßstäben) relativ geringe Bereitschaft zu längerfristigen Software-Updates.

Aber wenn Geld keine Rolle spielt, ist das Razr 60 Ultra das Flip-Telefon des Jahres 2025, das es zu schlagen gilt. Vergewissern Sie sich nur, dass das günstigere normale Razr 60 noch alles bietet, was Sie suchen.

Technische Daten

4-Zoll, 165Hz Full HD AMOLED-Display

7-Zoll, 120Hz Full HD+ AMOLED-Hauptdisplay

Qualcomm Snapdragon 8 Elite

16 GB RAM256/512 GB Speicher

256/512 GB Speicher

50Mp, f/1.8 Hauptkamera mit OIS

50Mp, f/2.0 Ultraweitwinkel-Kamera50Mp, f/2.0 Selfie-Kamera

4700mAh Akku68W kabelgebundenes Laden

30W drahtloses Aufladen5 W drahtlose Rückwärtsaufladung

Stereo-Lautsprecher

IP48 Wasser- und Staubschutz

Gorilla Glass Ceramic (Bildschirmabdeckung)

5G

Bluetooth 5.4

171,5,1 x 74 x 7,2 mm (offen), 88,1 x 74 x 15,7 mm (geschlossen)

199g

Android 15

(PC-Welt)

Motorola Razr 60 Ultra im Test: Fast perfektes Klapp-Smartphone​ Weiterlesen »

Fragen im Bewerbungsgespräch: Sind Sie darauf im Vorstellungsgespräch gefasst?​

Allgemein

In Bewerbungsgesprächen wenden Personaler in der Regel unterschiedliche Fragetechniken an, um den bestmöglichen Jobkandidaten aus allen Bewerbern herauszufiltern. Foto: Gutesa – shutterstock.comDa ist sie endlich: Die ersehnte Einladung zum Vorstellungsgespräch bei ihrem bevorzugten Arbeitgeber. Bei vielen Bewerbern steigt mit dem Eintreffen der Einladung auch gleichzeitig die Nervosität. Das muss jedoch nicht sein, denn auf ein Vorstellungsgespräch kann man sich ganz ausgezeichnet vorbereitet. Vor allem auf typische Bewerbungsfragen, die zum Repertoire eines jeden Personaler gehören. Fragen im Bewerbungsgespräch: TypenDiese Fragetypen können Ihnen begegnen: 1. StressfragenPersonalverantwortliche stellen einige Fragen nicht nur, um etwas über die Daten und Fakten Ihres bisherigen Werdegangs herauszufinden. Einige Fragen im Bewerbungsgespräch dienen auch dazu, Ihre Reaktion zu überprüfen. Besonders bei den sogenannten Stressfragen möchte der Personaler sehen, wie Sie sich in Situationen verhalten, die Ihnen zumindest ein wenig unangenehm sind. Der Grund: Solche Situationen werden Ihnen mit Sicherheit im Joballtag begegnen. Die Aufgabe des Personalers ist es, denjenigen Kandidaten unter den verschiedenen Bewerbern auszuwählen, der seiner Meinung nach das meiste Potenzial hat, um die anstehenden Aufgaben auch unter Stress am besten zu meistern. Und Stressfragen im Bewerbungsgespräch sollen ihm dabei helfen, seine Auswahl zu treffen. Diese Bewerbungsfragen sind nämlich wie geschaffen dafür, um Sie aus der Reserve zu locken. Damit verspricht sich der Personalverantwortliche einen möglichst authentischen Eindruck davon zu bekommen, wie Sie in ebenso stressigen Situationen im Job reagieren könnten. 2. Offene FragenNeben den Stressfragen nutzen Personaler im Vorstellungsgespräch aber auch sogenannte offene Fragen. Damit sind Fragen gemeint, die Ihnen als Bewerber im Jobinterview die Möglichkeit geben, ein wenig über sich zu berichten. Im Unterschied zu den geschlossenen Fragen, die sich mit einem einfachen Ja oder Nein beantworten lassen, laden diese Fragen zum Erzählen ein. Nutzen Sie diese Chance! Offene Fragen erkennen Sie unter anderem an den typischen Fragewörtern: Wie Was Weshalb Warum Wann Wieso Diese und andere W-Fragewörter sind ein Hinweis darauf, dass der Personaler nun bereit ist, im Bewerbungsgespräch ein wenig mehr Informationen von Ihnen zu hören. Tipp: Personaler verwenden hin und wieder halboffene Fragen. Hier haben Sie die Wahl, ob Sie mit einem simplen Ja oder Nein oder mit einer längeren Erklärung antworten. Da es im Bewerbungsgespräch darum geht, sich selbst zu präsentieren, sollten Sie sich in den meisten Fällen für die längere Variante entscheiden. Wenn Sie natürlich nichts von Belang zu der Frage zu sagen haben, ist die kürzere Antwort zu bevorzugen. Halboffene Fragen sind zum Beispiel: Arbeiten Sie lieber in einem Großraum- oder einem Einzelbüro? Wenn Sie wählen können: Entscheiden Sie sich für Teamwork oder bearbeiten Sie Aufgaben lieber für sich in Eigenregie? Sind Sie eher stolz auf Ihre bisherigen beruflichen Erfolge oder Ihre erworbenen Qualifikationen? 3. SuggestivfragenStellt Ihnen der Personaler im Bewerbungsgespräch eine Frage dieser Kategorie ist Vorsicht geboten. Denn Suggestivfragen sind dazu da, den Antwortenden in eine ganz bestimmte Richtung bei seiner Erwiderung zu lenken. Im Privatleben lautet eine typische Suggestivfrage zum Beispiel: “Findest du nicht auch, dass unser Treffen heute richtig schön war?” Was soll man auf diese Frage denn antworten? Ein schnödes Nein möchte der Fragende mit Sicherheit nicht hören. Ähnlich verhält es sich im Bewerbungsgespräch. Auch hier kann der Personalverantwortliche auf Fragen zurückgreifen, die die bevorzugte Antwort bereits beinhalten. Für Kandidaten ist es daher gar nicht so einfach, auf diese Art von Bewerbungsfragen zu antworten. Ihre Antwortmöglichkeit hängt von der konkreten Suggestivfrage ab. Möchte der Personaler im Jobinterview beispielsweise von Ihnen wissen, ob Sie es nicht auch eigenartig finden, mehrmals in der Probezeit noch den Arbeitgeber gewechselt zu haben, dürfen Sie ruhig widersprechen. Gehen Sie dabei nicht zu sehr auf den Vorwurf ein, der in der Bewerbungsfrage steckt, sondern liefern Sie handfeste Erklärungen dafür. Hüten Sie sich jedoch davor, sich zu rechtfertigen. Das versetzt Sie in eine schwache Position und kann das weitere Bewerbungsgespräch ungünstig beeinflussen. Bleiben Sie stattdessen ruhig und antworten Sie bestimmt auf die Suggestivfrage des Personalers. Damit sammeln Sie Pluspunkte. Neben bestimmter Fragetechniken nutzen Personaler aber auch ganz typische Bewerbungsfragen. Im folgenden finden Sie einige mögliche Fragen (und zugehörige Antworten), die Sie im Vorstellungsgepräch erwarten. Vorstellungsgespräch: Fragen zur GesprächseröffnungPersonalverantwortliche starten gerne mit einer Frage nach Ihrer Anreise ins Gespräch. Die könnte zum Beispiel lauten: “Hatten Sie eine angenehme Anreise?” “Haben Sie unser Unternehmen gut gefunden?” “Sind Sie mit der Bahn oder dem eigenen Pkw angereist?” Schon diese erste Frage gibt Ihnen als Bewerber im Gespräch die Möglichkeit, ein wenig zu plaudern und für eine entspannte Atmosphäre zu sorgen. Denn wenn Sie auf diese Bewerbungsfragen offen und freundlich antworten, ist das Eis gebrochen und das nachfolgende Gespräch wird besser laufen. Eine andere Art der Gesprächseröffnung ist Frage nach Ihrem Befinden. Möchte der Personaler wissen, wie es Ihnen geht, ist auch das eine Chance für Sie, das Eis zu brechen und sich dank geschickten Smalltalks von Ihrer besten Seite zu präsentieren. Gerade in Jobs, in denen Sie Kundenkontakt haben, wie beispielsweise im Vertrieb oder am Empfang, sollten Sie diese Bewerbungsfrage nicht unterschätzen. Denn Smalltalk gehört in diesen Positionen zu den Fähigkeiten, die ein guter Kandidat mitbringen muss. Fragen im Bewerbungsgespräch: Thema Job-MotivationNicht fehlen dürfen die Fragen nach dem Grund für die Bewerbung bei dem Unternehmen. Genauer gesagt möchte der Personalverantwortliche im Vorstellungsgespräch wissen, warum Sie sich gerade auf diese Position und warum gerade bei seinem Arbeitgeber beworben haben. Bewerbungsfragen, die in diese Richtung gehen, lauten zum Beispiel: “Warum haben Sie sich bei uns beworben?” “Warum möchten Sie bei uns arbeiten?” “Was wissen Sie über unser Unternehmen?” “Warum denken Sie, dass wir der richtige Arbeitgeber für Sie sein könnten?” “Warum bewerben Sie sich aktuell?” “Aus welchem Grund möchten Sie ihren aktuellen Arbeitgeber verlassen?” Da eine dieser Bewerbungsfragen in nahezu jedem Jobinterview gestellt wird, sollten Sie sich davon nicht überraschen lassen. Recherchieren Sie vorab möglichst viele Informationen, die Sie über das Unternehmen bekommen können. Das muss übrigens nicht nur die Firmen-Homepage sein. Generell im Netz oder auf Arbeitgeber-Bewertungsportalen finden Sie ebenfalls Hinweise und Informationen zu Ihrem potenziellen Arbeitgeber. Sammeln Sie diese Angaben und filtern Sie diejenigen heraus, die zu Ihnen und dem Grund für Ihre Bewerbung passen. Je exklusiver die Information ist, mit der Sie im Bewerbungsgespräch aufwarten können, umso mehr Eindruck machen Sie beim Personaler. Denn das zeigt, dass Sie sich ernsthaft und gründlich mit dem Unternehmen beschäftigt haben. Vorstellungsgespräch: Fragen zur SelbstpräsentationWenn nach der Motivation für die Bewerbung gefragt wird, sind Bewerbungsfragen zu dem Themenkomplex Selbstpräsentation sicherlich auch nicht weit. Fragen aus dieser Kategorie lauten zum Beispiel: “Erzählen Sie uns kurz etwas über sich.” “Wie würden Sie sich einem Fremden beschreiben?” “Wo liegen Ihre größten Stärken und Schwächen?” “Nennen Sie uns drei Dinge, die Sie besonders gut beherrschen.” “Welche drei Eigenschaften an anderen Personen bringen Sie aus der Fassung?” “Welche Eigenschaft schätzt Ihr ehemaliger Chef ganz besonders an ihnen?” Diese Bewerbungsfragen gehören nicht gerade zu den Favoriten bei Bewerbern. Denn hier bewegen sie sich auf dünnem Eis: Einerseits sollten sie die Frage ehrlich beantworten, auf der anderen Seite dürfen sie sich natürlich nicht schlecht darstellen. Hier ist also Fingerspitzengefühl gefragt. Ein recht gutes Vorgehen lautet: Nennen Sie zwar Schwächen, liefern Sie jedoch sofort eine Lösung für das Problem. Ein Beispiel: Wenn Sie sich auf eine Position beworben haben, für die Sie Erfahrungen in einem bestimmten Bereich brauchen, die Sie jedoch noch nicht besitzen, machen Sie genau das deutlich. Sie haben die Erfahrung noch nicht. Dass das kein Problem ist, zeigen Sie anhand Ihres bisherigen Werdegangs. Sicherlich haben Sie während ihres Berufslebens schon Aufgaben übernommen, ohne die entsprechende Erfahrung zu haben. Das ist auch ganz natürlich. Irgendwann machen wir Dinge eben immer zum ersten Mal. Können Sie dann noch belegen, dass das damals reibungslos funktioniert hat, sollte es auch dieses Mal ohne Rückschläge klappen. Fragen bei der Bewerbung: Fachliche Eignung Bei allen persönlichen Nachfragen möchte der Personaler auch wissen, ob Sie die nötigen fachlichen Kenntnisse und Qualifikationen für den Job mitbringen. Danach könnte er beispielsweise so fragen: “Beschreiben Sie ihre bisherigen Aufgaben bei ihren ehemaligen Arbeitgebern.” “Welche Kenntnisse und Fertigkeiten für die ausgeschriebene Position bringen Sie mit? “Warum sind Sie der richtige Kandidat für den Job?” “Welche Programme und Tools beherrschen Sie?” “Was tun Sie, um sich fachlich auf dem Laufenden zu halten?” Bereiten Sie daher schon vorab stichpunktartig die wichtigsten Punkte Ihres bisherigen Lebenslaufs vor. Konzentrieren Sie sich dabei auf diejenigen Punkte, die zum Unternehmen und der ausgeschriebenen Position passen. Die finden Sie heraus, indem Sie sich die Stellenausschreibung und alle weiteren Informationen, die Sie zu dem Job finden konnten, genau ansehen. Die Übereinstimmungen zwischen Ihrem Werdegang und den Anforderungen der Position, sollten Sie möglichst präzise erklären. Bewerbungsgespräch: Fragen zur ZukunftsperspektiveEin weiterer Aspekt im Bewerbungsgespräch ist das persönliche Fortkommen des Bewerbers. Sie sollten sich daher von Fragen nach Ihren weiteren Karriereplänen nicht überrumpeln lassen. Diese Bewerbungsfragen können zum Beispiel sein: “Welches Ziel möchten Sie in drei Jahren erreicht haben?” “Haben Sie einen Plan für die nächsten fünf Jahre?” “Wie stellen Sie sich Ihren weiteren beruflichen Werdegang vor?” “Gibt es einen bestimmten Karriereschritt, den Sie bei uns erreichen möchten?” Hier lautet das Ziel: realistisch bleiben. Es ist wenig sinnvoll, dem Personaler von Vorhaben zu berichten, die völlig utopisch sind. Fragen Sie sich daher schon vor dem Bewerbungsgespräch ganz ehrlich, welche Dinge Sie in den nächsten drei oder fünf Jahren erreichen könnten -?und legen Sie dann die Latte ein wenig höher. Der Personaler sucht nicht nach einem Kandidaten, der sich mit dem Durchschnitt zufriedengibt, sondern nach einem Bewerber, der sich für seine Ziele und damit auch den Unternehmenserfolg einsetzt.Unzulässige Fragen im BewerbungsgesprächSchwanger? Foto: Syda Productions – shutterstock.comSo ist zum Beispiel die Frage nach einer Schwangerschaft unzulässig. Eine Ausnahme wäre es nur dann, wenn die Tätigkeit das Ungeborene schädigen könnte. Fragen nach der Familienplanung Foto: YanLev – shutterstock.comAuch die Frage nach der persönlichen Familienplanung ist unzulässig. Sind Sie religiös? Foto: Amanda Carden – shutterstock.comAuch hier darf man lügen. Ausnahme: Man bewirbt sich bei einem kirchlichen Arbeitgeber. Wenn morgen Wahl wäre Foto: ibreakstock – shutterstock.comAuch hier muss nur geantwortet werden, wenn der Arbeitgeber ein Tendenzbetrieb ist, etwa eine Partei.Lohnpfändungen und Vermögensverhältnisse Foto: Singkham – shutterstock.comFragen zu diesen Themen sind ebenfalls unzulässig. Eine Ausnahme besteht nur dann, wenn der Bewerber sich auf eine Position mit umfangreichem Geldverkehr bewirbt. Vorbestraft? Foto: OFFFSTOCK – shutterstock.comDie Frage ist unzulässig, außer die Vorstrafe ist von direkter Bedeutung für die Tätigkeit. Fragen nach Aids-Erkrankung Foto: Production Perig – shutterstock.comFragen nach einer Aids-Infektion müssen dann beantwortet werden, wenn die Tätigkeit andere Menschen gefährden kann. Die Frage nach einer Aids-Erkrankung muss wahrheitsgemäß beantwortet werden.Gewerkschaftsmitglied Foto: Rawpixel.com – shutterstock.comHier gilt das gleiche wie bei der Konfession und der Parteizugehörigkeit. Wer sich nicht bei einem Tendenzbetrieb bewirbt, darf lügen. Souverän antworten Foto: Herrndorff – shutterstock.comAuf unzulässige Fragen lieber nicht “Das dürfen Sie nicht!” sagen. Besser gelassen und souverän reagieren, bei der Wahrheit muss man nicht bleiben. 

Fragen im Bewerbungsgespräch: Sind Sie darauf im Vorstellungsgespräch gefasst?​ In Bewerbungsgesprächen wenden Personaler in der Regel unterschiedliche Fragetechniken an, um den bestmöglichen Jobkandidaten aus allen Bewerbern herauszufiltern.
Foto: Gutesa – shutterstock.comDa ist sie endlich: Die ersehnte Einladung zum Vorstellungsgespräch bei ihrem bevorzugten Arbeitgeber. Bei vielen Bewerbern steigt mit dem Eintreffen der Einladung auch gleichzeitig die Nervosität. Das muss jedoch nicht sein, denn auf ein Vorstellungsgespräch kann man sich ganz ausgezeichnet vorbereitet. Vor allem auf typische Bewerbungsfragen, die zum Repertoire eines jeden Personaler gehören. Fragen im Bewerbungsgespräch: TypenDiese Fragetypen können Ihnen begegnen: 1. StressfragenPersonalverantwortliche stellen einige Fragen nicht nur, um etwas über die Daten und Fakten Ihres bisherigen Werdegangs herauszufinden. Einige Fragen im Bewerbungsgespräch dienen auch dazu, Ihre Reaktion zu überprüfen. Besonders bei den sogenannten Stressfragen möchte der Personaler sehen, wie Sie sich in Situationen verhalten, die Ihnen zumindest ein wenig unangenehm sind. Der Grund: Solche Situationen werden Ihnen mit Sicherheit im Joballtag begegnen. Die Aufgabe des Personalers ist es, denjenigen Kandidaten unter den verschiedenen Bewerbern auszuwählen, der seiner Meinung nach das meiste Potenzial hat, um die anstehenden Aufgaben auch unter Stress am besten zu meistern. Und Stressfragen im Bewerbungsgespräch sollen ihm dabei helfen, seine Auswahl zu treffen. Diese Bewerbungsfragen sind nämlich wie geschaffen dafür, um Sie aus der Reserve zu locken. Damit verspricht sich der Personalverantwortliche einen möglichst authentischen Eindruck davon zu bekommen, wie Sie in ebenso stressigen Situationen im Job reagieren könnten. 2. Offene FragenNeben den Stressfragen nutzen Personaler im Vorstellungsgespräch aber auch sogenannte offene Fragen. Damit sind Fragen gemeint, die Ihnen als Bewerber im Jobinterview die Möglichkeit geben, ein wenig über sich zu berichten. Im Unterschied zu den geschlossenen Fragen, die sich mit einem einfachen Ja oder Nein beantworten lassen, laden diese Fragen zum Erzählen ein. Nutzen Sie diese Chance! Offene Fragen erkennen Sie unter anderem an den typischen Fragewörtern: Wie Was Weshalb Warum Wann Wieso Diese und andere W-Fragewörter sind ein Hinweis darauf, dass der Personaler nun bereit ist, im Bewerbungsgespräch ein wenig mehr Informationen von Ihnen zu hören. Tipp: Personaler verwenden hin und wieder halboffene Fragen. Hier haben Sie die Wahl, ob Sie mit einem simplen Ja oder Nein oder mit einer längeren Erklärung antworten. Da es im Bewerbungsgespräch darum geht, sich selbst zu präsentieren, sollten Sie sich in den meisten Fällen für die längere Variante entscheiden. Wenn Sie natürlich nichts von Belang zu der Frage zu sagen haben, ist die kürzere Antwort zu bevorzugen. Halboffene Fragen sind zum Beispiel: Arbeiten Sie lieber in einem Großraum- oder einem Einzelbüro? Wenn Sie wählen können: Entscheiden Sie sich für Teamwork oder bearbeiten Sie Aufgaben lieber für sich in Eigenregie? Sind Sie eher stolz auf Ihre bisherigen beruflichen Erfolge oder Ihre erworbenen Qualifikationen? 3. SuggestivfragenStellt Ihnen der Personaler im Bewerbungsgespräch eine Frage dieser Kategorie ist Vorsicht geboten. Denn Suggestivfragen sind dazu da, den Antwortenden in eine ganz bestimmte Richtung bei seiner Erwiderung zu lenken. Im Privatleben lautet eine typische Suggestivfrage zum Beispiel: “Findest du nicht auch, dass unser Treffen heute richtig schön war?” Was soll man auf diese Frage denn antworten? Ein schnödes Nein möchte der Fragende mit Sicherheit nicht hören. Ähnlich verhält es sich im Bewerbungsgespräch. Auch hier kann der Personalverantwortliche auf Fragen zurückgreifen, die die bevorzugte Antwort bereits beinhalten. Für Kandidaten ist es daher gar nicht so einfach, auf diese Art von Bewerbungsfragen zu antworten. Ihre Antwortmöglichkeit hängt von der konkreten Suggestivfrage ab. Möchte der Personaler im Jobinterview beispielsweise von Ihnen wissen, ob Sie es nicht auch eigenartig finden, mehrmals in der Probezeit noch den Arbeitgeber gewechselt zu haben, dürfen Sie ruhig widersprechen. Gehen Sie dabei nicht zu sehr auf den Vorwurf ein, der in der Bewerbungsfrage steckt, sondern liefern Sie handfeste Erklärungen dafür. Hüten Sie sich jedoch davor, sich zu rechtfertigen. Das versetzt Sie in eine schwache Position und kann das weitere Bewerbungsgespräch ungünstig beeinflussen. Bleiben Sie stattdessen ruhig und antworten Sie bestimmt auf die Suggestivfrage des Personalers. Damit sammeln Sie Pluspunkte. Neben bestimmter Fragetechniken nutzen Personaler aber auch ganz typische Bewerbungsfragen. Im folgenden finden Sie einige mögliche Fragen (und zugehörige Antworten), die Sie im Vorstellungsgepräch erwarten. Vorstellungsgespräch: Fragen zur GesprächseröffnungPersonalverantwortliche starten gerne mit einer Frage nach Ihrer Anreise ins Gespräch. Die könnte zum Beispiel lauten: “Hatten Sie eine angenehme Anreise?” “Haben Sie unser Unternehmen gut gefunden?” “Sind Sie mit der Bahn oder dem eigenen Pkw angereist?” Schon diese erste Frage gibt Ihnen als Bewerber im Gespräch die Möglichkeit, ein wenig zu plaudern und für eine entspannte Atmosphäre zu sorgen. Denn wenn Sie auf diese Bewerbungsfragen offen und freundlich antworten, ist das Eis gebrochen und das nachfolgende Gespräch wird besser laufen. Eine andere Art der Gesprächseröffnung ist Frage nach Ihrem Befinden. Möchte der Personaler wissen, wie es Ihnen geht, ist auch das eine Chance für Sie, das Eis zu brechen und sich dank geschickten Smalltalks von Ihrer besten Seite zu präsentieren. Gerade in Jobs, in denen Sie Kundenkontakt haben, wie beispielsweise im Vertrieb oder am Empfang, sollten Sie diese Bewerbungsfrage nicht unterschätzen. Denn Smalltalk gehört in diesen Positionen zu den Fähigkeiten, die ein guter Kandidat mitbringen muss. Fragen im Bewerbungsgespräch: Thema Job-MotivationNicht fehlen dürfen die Fragen nach dem Grund für die Bewerbung bei dem Unternehmen. Genauer gesagt möchte der Personalverantwortliche im Vorstellungsgespräch wissen, warum Sie sich gerade auf diese Position und warum gerade bei seinem Arbeitgeber beworben haben. Bewerbungsfragen, die in diese Richtung gehen, lauten zum Beispiel: “Warum haben Sie sich bei uns beworben?” “Warum möchten Sie bei uns arbeiten?” “Was wissen Sie über unser Unternehmen?” “Warum denken Sie, dass wir der richtige Arbeitgeber für Sie sein könnten?” “Warum bewerben Sie sich aktuell?” “Aus welchem Grund möchten Sie ihren aktuellen Arbeitgeber verlassen?” Da eine dieser Bewerbungsfragen in nahezu jedem Jobinterview gestellt wird, sollten Sie sich davon nicht überraschen lassen. Recherchieren Sie vorab möglichst viele Informationen, die Sie über das Unternehmen bekommen können. Das muss übrigens nicht nur die Firmen-Homepage sein. Generell im Netz oder auf Arbeitgeber-Bewertungsportalen finden Sie ebenfalls Hinweise und Informationen zu Ihrem potenziellen Arbeitgeber. Sammeln Sie diese Angaben und filtern Sie diejenigen heraus, die zu Ihnen und dem Grund für Ihre Bewerbung passen. Je exklusiver die Information ist, mit der Sie im Bewerbungsgespräch aufwarten können, umso mehr Eindruck machen Sie beim Personaler. Denn das zeigt, dass Sie sich ernsthaft und gründlich mit dem Unternehmen beschäftigt haben. Vorstellungsgespräch: Fragen zur SelbstpräsentationWenn nach der Motivation für die Bewerbung gefragt wird, sind Bewerbungsfragen zu dem Themenkomplex Selbstpräsentation sicherlich auch nicht weit. Fragen aus dieser Kategorie lauten zum Beispiel: “Erzählen Sie uns kurz etwas über sich.” “Wie würden Sie sich einem Fremden beschreiben?” “Wo liegen Ihre größten Stärken und Schwächen?” “Nennen Sie uns drei Dinge, die Sie besonders gut beherrschen.” “Welche drei Eigenschaften an anderen Personen bringen Sie aus der Fassung?” “Welche Eigenschaft schätzt Ihr ehemaliger Chef ganz besonders an ihnen?” Diese Bewerbungsfragen gehören nicht gerade zu den Favoriten bei Bewerbern. Denn hier bewegen sie sich auf dünnem Eis: Einerseits sollten sie die Frage ehrlich beantworten, auf der anderen Seite dürfen sie sich natürlich nicht schlecht darstellen. Hier ist also Fingerspitzengefühl gefragt. Ein recht gutes Vorgehen lautet: Nennen Sie zwar Schwächen, liefern Sie jedoch sofort eine Lösung für das Problem. Ein Beispiel: Wenn Sie sich auf eine Position beworben haben, für die Sie Erfahrungen in einem bestimmten Bereich brauchen, die Sie jedoch noch nicht besitzen, machen Sie genau das deutlich. Sie haben die Erfahrung noch nicht. Dass das kein Problem ist, zeigen Sie anhand Ihres bisherigen Werdegangs. Sicherlich haben Sie während ihres Berufslebens schon Aufgaben übernommen, ohne die entsprechende Erfahrung zu haben. Das ist auch ganz natürlich. Irgendwann machen wir Dinge eben immer zum ersten Mal. Können Sie dann noch belegen, dass das damals reibungslos funktioniert hat, sollte es auch dieses Mal ohne Rückschläge klappen. Fragen bei der Bewerbung: Fachliche Eignung Bei allen persönlichen Nachfragen möchte der Personaler auch wissen, ob Sie die nötigen fachlichen Kenntnisse und Qualifikationen für den Job mitbringen. Danach könnte er beispielsweise so fragen: “Beschreiben Sie ihre bisherigen Aufgaben bei ihren ehemaligen Arbeitgebern.” “Welche Kenntnisse und Fertigkeiten für die ausgeschriebene Position bringen Sie mit? “Warum sind Sie der richtige Kandidat für den Job?” “Welche Programme und Tools beherrschen Sie?” “Was tun Sie, um sich fachlich auf dem Laufenden zu halten?” Bereiten Sie daher schon vorab stichpunktartig die wichtigsten Punkte Ihres bisherigen Lebenslaufs vor. Konzentrieren Sie sich dabei auf diejenigen Punkte, die zum Unternehmen und der ausgeschriebenen Position passen. Die finden Sie heraus, indem Sie sich die Stellenausschreibung und alle weiteren Informationen, die Sie zu dem Job finden konnten, genau ansehen. Die Übereinstimmungen zwischen Ihrem Werdegang und den Anforderungen der Position, sollten Sie möglichst präzise erklären. Bewerbungsgespräch: Fragen zur ZukunftsperspektiveEin weiterer Aspekt im Bewerbungsgespräch ist das persönliche Fortkommen des Bewerbers. Sie sollten sich daher von Fragen nach Ihren weiteren Karriereplänen nicht überrumpeln lassen. Diese Bewerbungsfragen können zum Beispiel sein: “Welches Ziel möchten Sie in drei Jahren erreicht haben?” “Haben Sie einen Plan für die nächsten fünf Jahre?” “Wie stellen Sie sich Ihren weiteren beruflichen Werdegang vor?” “Gibt es einen bestimmten Karriereschritt, den Sie bei uns erreichen möchten?” Hier lautet das Ziel: realistisch bleiben. Es ist wenig sinnvoll, dem Personaler von Vorhaben zu berichten, die völlig utopisch sind. Fragen Sie sich daher schon vor dem Bewerbungsgespräch ganz ehrlich, welche Dinge Sie in den nächsten drei oder fünf Jahren erreichen könnten -?und legen Sie dann die Latte ein wenig höher. Der Personaler sucht nicht nach einem Kandidaten, der sich mit dem Durchschnitt zufriedengibt, sondern nach einem Bewerber, der sich für seine Ziele und damit auch den Unternehmenserfolg einsetzt.Unzulässige Fragen im BewerbungsgesprächSchwanger?
Foto: Syda Productions – shutterstock.comSo ist zum Beispiel die Frage nach einer Schwangerschaft unzulässig. Eine Ausnahme wäre es nur dann, wenn die Tätigkeit das Ungeborene schädigen könnte. Fragen nach der Familienplanung
Foto: YanLev – shutterstock.comAuch die Frage nach der persönlichen Familienplanung ist unzulässig. Sind Sie religiös?
Foto: Amanda Carden – shutterstock.comAuch hier darf man lügen. Ausnahme: Man bewirbt sich bei einem kirchlichen Arbeitgeber. Wenn morgen Wahl wäre
Foto: ibreakstock – shutterstock.comAuch hier muss nur geantwortet werden, wenn der Arbeitgeber ein Tendenzbetrieb ist, etwa eine Partei.Lohnpfändungen und Vermögensverhältnisse
Foto: Singkham – shutterstock.comFragen zu diesen Themen sind ebenfalls unzulässig. Eine Ausnahme besteht nur dann, wenn der Bewerber sich auf eine Position mit umfangreichem Geldverkehr bewirbt. Vorbestraft?
Foto: OFFFSTOCK – shutterstock.comDie Frage ist unzulässig, außer die Vorstrafe ist von direkter Bedeutung für die Tätigkeit. Fragen nach Aids-Erkrankung
Foto: Production Perig – shutterstock.comFragen nach einer Aids-Infektion müssen dann beantwortet werden, wenn die Tätigkeit andere Menschen gefährden kann. Die Frage nach einer Aids-Erkrankung muss wahrheitsgemäß beantwortet werden.Gewerkschaftsmitglied
Foto: Rawpixel.com – shutterstock.comHier gilt das gleiche wie bei der Konfession und der Parteizugehörigkeit. Wer sich nicht bei einem Tendenzbetrieb bewirbt, darf lügen. Souverän antworten
Foto: Herrndorff – shutterstock.comAuf unzulässige Fragen lieber nicht “Das dürfen Sie nicht!” sagen. Besser gelassen und souverän reagieren, bei der Wahrheit muss man nicht bleiben.

Fragen im Bewerbungsgespräch: Sind Sie darauf im Vorstellungsgespräch gefasst?​ Weiterlesen »

Was ist Fake Work?​

Allgemein

Längst nicht immer ist mit Arbeit auch ein produktiver Output verbunden. Foto: Stock-Asso – shutterstock.comWer kennt das nicht: Obwohl der Arbeitstag vollgepackt ist mit Aufgaben wie Meetings und Telefonaten, der Bearbeitung von To-Do-Listen und der Erledigung von Dokumentationen, stehen letztlich wenig produktive Ergebnisse zu Buche. Wenn das regelmäßig der Fall ist, könnte es sein, dass Beschäftigte von Fake Work – oder Scheinarbeit – betroffen sind.Fake Work definiertFake Work bezeichnet Tätigkeiten, die letztlich keinen tieferen Nutzen bringen – obwohl es auf den ersten Blick so aussieht, als ob die betreffenden Mitarbeiter ständig beschäftigt sind. Das Problem: Die Ziele eines Unternehmens oder das Ergebnis eines Projekts werden dabei häufig nicht – oder nur spärlich – unterstützt. Oft liegt es allerdings nicht an den Beschäftigten selbst, wenn sie Aufgaben bearbeiten, die mit wenig Mehrwert verbunden sind. In der Regel sind es die Rahmenbedingungen, die es ihnen erschweren, wirklich produktiv zu sein. Ende der 2000er-Jahre wurde der Begriff durch die US-amerikanischen Unternehmer Brent D. Peterson und Gaylan W. Nielson geprägt. Schon zu dieser Zeit war das Phänomen nicht völlig neu, allerdings gewinnt es in der heutigen Arbeitswelt zunehmend an Bedeutung. Dafür sind verschiedene Aspekte ursächlich:Reportings nehmen eine immer wichtigere Rolle ein. Vielfach wird die Leistung der Menschen in Unternehmen ausschließlich über Kennzahlen bewertet.Wachsende bürokratische Hürden und Dokumentationspflichten verlagern per se Ressourcen in unproduktive Tätigkeiten.Bedingt durch mobiles und hybrides Arbeiten finden immer mehr Online-Meetings ohne konkrete Agenda statt.Das Angebot an Informationskanälen und Medien, die Aufmerksamkeit absorbieren und das Konzentrationsniveau senken, wächst stetig.Was Fake Work im Unternehmen begünstigt. Foto: Mystery MindsLaut einer Slack-Studie verbringen Arbeitnehmende in Deutschland knapp 30 Prozent ihrer Arbeitszeit mit unproduktiven Aufgaben. Über ein Drittel der in diesem Rahmen befragten Fach- und Führungskräfte gibt demnach an, von zu vielen Besprechungen und E-Mails abgelenkt zu sein. Dazu kommt noch das Beschaffen von Informationen und die Zusammenarbeit mit Kollegen. Das alles führt laut den Studienautoren dazu, dass viele Mitarbeitende regelmäßig demotiviert sind und sich schlecht konzentrieren können. Flexible Arbeitspläne seien demnach die beste Methode für Arbeitgeber, um die Mitarbeiterproduktivität zu steigern.Fake-Work-KonsequenzenWenn Mitarbeiter weniger produktive Arbeit leisten können, resultieren daraus für Unternehmen insbesondere auf lange Sicht eine Reihe von Problemen:Projekte benötigen mehr Zeit, um abgeschlossen zu werden – daraus können auch finanzielle Einbußen für das Unternehmen resultieren.Fehlende Struktur führt oft zu Redundanzen – und mehrere Abteilungen erledigen die gleiche Arbeit. Das ist nicht nur Zeit- sondern auch Geldverschwendung. Mitarbeiter engagieren sich ausschließlich, um definierte Kennzahlen zu erfüllen.Da die Produktivität mit Scheinarbeit sinkt, werden mehr Mitarbeiter benötigt, um die gleichen Ergebnisse zu erzielen – der Personalstand steigt.Strategische und aus unternehmerischer Sicht wichtige Ziele können nicht erreicht werden, worin sich Wettbewerbsnachteile manifestieren.Forschung und Entwicklung findet nur unter Einschränkungen statt. Die in der heutigen Zeit so wichtigen Innovationen können nicht realisiert werden.Auch davon betroffene Mitarbeiter und Führungskräfte verschaffen sich selbst keine Vorteile, wenn sie lediglich nach außen hin vorgeben, produktiv zu sein. Vielmehr leiden Menschen darunter, wenn ihnen die Möglichkeit genommen wird, ihren Beitrag zu nachhaltiger Wertschöpfung zu leisten:Fake Work raubt Arbeitnehmern die Motivation. Es fehlt an der Freude, die sinnstiftende Arbeit generiert.Beschäftigte leiden darunter, wenn sie bei ihrer Arbeit regelmäßig von Besprechungen und unstrukturierten Anfragen unterbrochen werden. Verpflichtende Meetings und Telefonate, die keine Ergebnisse bringen, können frustrieren.Angestellte verlieren durch Scheinarbeit den Gesamtblick auf die Ziele des Unternehmens. Innovationskraft und Experimentierfreudigkeit werden beeinträchtigt.Individueller Kreativität und Denkweisen werden abseits von KPIs keine Bedeutung zugemessen. Scheinarbeit verhindernWenn für Beschäftigte der “Purpose” fehlt, steht dies am Ende einer Kette: Zugrunde liegt dem eine Unternehmenskultur, die zwar auf Produktivität ausgerichtet ist, diese jedoch eindimensional betrachtet. Doch tatsächlich ist Produktivität die Quintessenz einer Kultur der Offenheit. Wenn Unternehmen Fake Work verringern wollen, sollten sie zu allererst eine Feedbackkultur etablieren. Das Management muss nicht nur Feedback aufnehmen, sondern dieses auch nutzen, um Veränderungen voranzutreiben. Allzu häufig ignorieren Vorgesetzte jedoch Mitarbeiter, die Verbesserungsvorschläge einbringen – oder sie tragen das Feedback in die nächste Führungsebene, wo es abgeheftet und vergessen wird.Die folgenden Schritte helfen Unternehmen dabei, eine positive Unternehmenskultur auf den Weg zu bringen, in der jeder Kollege das nötige Gehör findet: Ein sicheres Umfeld schaffen, in dem Feedback vom Management wirklich ernstgenommen und berücksichtigt wird.Mitarbeiter bei der Prioritätensetzung unterstützen.Meetings etablieren, in denen Arbeitsweisen offen diskutiert und hinterfragt werden.Diese 4 Schritte können dabei helfen, Scheinarbeit im Unternehmen zu identifizieren und langfristig zu vermeiden. Foto: Mystery MindsUm wertschöpfende Arbeit zu ermöglichen und das Unternehmen fit für die Zukunft zu machen – beispielsweise mit Innovationen – ist es auch notwendig, einzelnen Mitarbeitern mehr Verantwortung zu übertragen. Sie sollten Entscheidungsfreiheit haben, wo immer das möglich und sinnvoll ist. Damit sind sie etwa befugt, Meetings abzulehnen, wenn diese für sie keinen Sinn ergeben. Das bezieht sich auch auf Jour Fixes mit dem Vorgesetzten, die aus reiner Gewohnheit stattfinden. Ebenso entfallen sollten unnötige Analysen und Berichte, in deren Zuge Mitarbeiter vor allem viel Zeit verlieren. Jegliche Dokumentation sollte auf ihre Sinnhaftigkeit überprüft werden. Selbst bei automatisierten Reportings sollten die Empfänger abwägen, ob die Zeit, die zum Lesen benötigt wird, sinnvoll investiert ist. Vorgesetzte wiederum können sich in einem solchen Umfeld darauf konzentrieren, Hürden zu beseitigen und ihre Teams dabei zu unterstützen, Projekte effizient voranzubringen und abzuschließen. (fm) 

Was ist Fake Work?​ Längst nicht immer ist mit Arbeit auch ein produktiver Output verbunden.
Foto: Stock-Asso – shutterstock.comWer kennt das nicht: Obwohl der Arbeitstag vollgepackt ist mit Aufgaben wie Meetings und Telefonaten, der Bearbeitung von To-Do-Listen und der Erledigung von Dokumentationen, stehen letztlich wenig produktive Ergebnisse zu Buche. Wenn das regelmäßig der Fall ist, könnte es sein, dass Beschäftigte von Fake Work – oder Scheinarbeit – betroffen sind.Fake Work definiertFake Work bezeichnet Tätigkeiten, die letztlich keinen tieferen Nutzen bringen – obwohl es auf den ersten Blick so aussieht, als ob die betreffenden Mitarbeiter ständig beschäftigt sind. Das Problem: Die Ziele eines Unternehmens oder das Ergebnis eines Projekts werden dabei häufig nicht – oder nur spärlich – unterstützt. Oft liegt es allerdings nicht an den Beschäftigten selbst, wenn sie Aufgaben bearbeiten, die mit wenig Mehrwert verbunden sind. In der Regel sind es die Rahmenbedingungen, die es ihnen erschweren, wirklich produktiv zu sein. Ende der 2000er-Jahre wurde der Begriff durch die US-amerikanischen Unternehmer Brent D. Peterson und Gaylan W. Nielson geprägt. Schon zu dieser Zeit war das Phänomen nicht völlig neu, allerdings gewinnt es in der heutigen Arbeitswelt zunehmend an Bedeutung. Dafür sind verschiedene Aspekte ursächlich:Reportings nehmen eine immer wichtigere Rolle ein. Vielfach wird die Leistung der Menschen in Unternehmen ausschließlich über Kennzahlen bewertet.Wachsende bürokratische Hürden und Dokumentationspflichten verlagern per se Ressourcen in unproduktive Tätigkeiten.Bedingt durch mobiles und hybrides Arbeiten finden immer mehr Online-Meetings ohne konkrete Agenda statt.Das Angebot an Informationskanälen und Medien, die Aufmerksamkeit absorbieren und das Konzentrationsniveau senken, wächst stetig.Was Fake Work im Unternehmen begünstigt.
Foto: Mystery MindsLaut einer Slack-Studie verbringen Arbeitnehmende in Deutschland knapp 30 Prozent ihrer Arbeitszeit mit unproduktiven Aufgaben. Über ein Drittel der in diesem Rahmen befragten Fach- und Führungskräfte gibt demnach an, von zu vielen Besprechungen und E-Mails abgelenkt zu sein. Dazu kommt noch das Beschaffen von Informationen und die Zusammenarbeit mit Kollegen. Das alles führt laut den Studienautoren dazu, dass viele Mitarbeitende regelmäßig demotiviert sind und sich schlecht konzentrieren können. Flexible Arbeitspläne seien demnach die beste Methode für Arbeitgeber, um die Mitarbeiterproduktivität zu steigern.Fake-Work-KonsequenzenWenn Mitarbeiter weniger produktive Arbeit leisten können, resultieren daraus für Unternehmen insbesondere auf lange Sicht eine Reihe von Problemen:Projekte benötigen mehr Zeit, um abgeschlossen zu werden – daraus können auch finanzielle Einbußen für das Unternehmen resultieren.Fehlende Struktur führt oft zu Redundanzen – und mehrere Abteilungen erledigen die gleiche Arbeit. Das ist nicht nur Zeit- sondern auch Geldverschwendung. Mitarbeiter engagieren sich ausschließlich, um definierte Kennzahlen zu erfüllen.Da die Produktivität mit Scheinarbeit sinkt, werden mehr Mitarbeiter benötigt, um die gleichen Ergebnisse zu erzielen – der Personalstand steigt.Strategische und aus unternehmerischer Sicht wichtige Ziele können nicht erreicht werden, worin sich Wettbewerbsnachteile manifestieren.Forschung und Entwicklung findet nur unter Einschränkungen statt. Die in der heutigen Zeit so wichtigen Innovationen können nicht realisiert werden.Auch davon betroffene Mitarbeiter und Führungskräfte verschaffen sich selbst keine Vorteile, wenn sie lediglich nach außen hin vorgeben, produktiv zu sein. Vielmehr leiden Menschen darunter, wenn ihnen die Möglichkeit genommen wird, ihren Beitrag zu nachhaltiger Wertschöpfung zu leisten:Fake Work raubt Arbeitnehmern die Motivation. Es fehlt an der Freude, die sinnstiftende Arbeit generiert.Beschäftigte leiden darunter, wenn sie bei ihrer Arbeit regelmäßig von Besprechungen und unstrukturierten Anfragen unterbrochen werden. Verpflichtende Meetings und Telefonate, die keine Ergebnisse bringen, können frustrieren.Angestellte verlieren durch Scheinarbeit den Gesamtblick auf die Ziele des Unternehmens. Innovationskraft und Experimentierfreudigkeit werden beeinträchtigt.Individueller Kreativität und Denkweisen werden abseits von KPIs keine Bedeutung zugemessen. Scheinarbeit verhindernWenn für Beschäftigte der “Purpose” fehlt, steht dies am Ende einer Kette: Zugrunde liegt dem eine Unternehmenskultur, die zwar auf Produktivität ausgerichtet ist, diese jedoch eindimensional betrachtet. Doch tatsächlich ist Produktivität die Quintessenz einer Kultur der Offenheit. Wenn Unternehmen Fake Work verringern wollen, sollten sie zu allererst eine Feedbackkultur etablieren. Das Management muss nicht nur Feedback aufnehmen, sondern dieses auch nutzen, um Veränderungen voranzutreiben. Allzu häufig ignorieren Vorgesetzte jedoch Mitarbeiter, die Verbesserungsvorschläge einbringen – oder sie tragen das Feedback in die nächste Führungsebene, wo es abgeheftet und vergessen wird.Die folgenden Schritte helfen Unternehmen dabei, eine positive Unternehmenskultur auf den Weg zu bringen, in der jeder Kollege das nötige Gehör findet: Ein sicheres Umfeld schaffen, in dem Feedback vom Management wirklich ernstgenommen und berücksichtigt wird.Mitarbeiter bei der Prioritätensetzung unterstützen.Meetings etablieren, in denen Arbeitsweisen offen diskutiert und hinterfragt werden.Diese 4 Schritte können dabei helfen, Scheinarbeit im Unternehmen zu identifizieren und langfristig zu vermeiden.
Foto: Mystery MindsUm wertschöpfende Arbeit zu ermöglichen und das Unternehmen fit für die Zukunft zu machen – beispielsweise mit Innovationen – ist es auch notwendig, einzelnen Mitarbeitern mehr Verantwortung zu übertragen. Sie sollten Entscheidungsfreiheit haben, wo immer das möglich und sinnvoll ist. Damit sind sie etwa befugt, Meetings abzulehnen, wenn diese für sie keinen Sinn ergeben. Das bezieht sich auch auf Jour Fixes mit dem Vorgesetzten, die aus reiner Gewohnheit stattfinden. Ebenso entfallen sollten unnötige Analysen und Berichte, in deren Zuge Mitarbeiter vor allem viel Zeit verlieren. Jegliche Dokumentation sollte auf ihre Sinnhaftigkeit überprüft werden. Selbst bei automatisierten Reportings sollten die Empfänger abwägen, ob die Zeit, die zum Lesen benötigt wird, sinnvoll investiert ist. Vorgesetzte wiederum können sich in einem solchen Umfeld darauf konzentrieren, Hürden zu beseitigen und ihre Teams dabei zu unterstützen, Projekte effizient voranzubringen und abzuschließen. (fm)

Was ist Fake Work?​ Weiterlesen »

TCL 50 Pro Nxtpaper im Test: Smartphone mit einem speziellen Lesemodus​

Allgemein

Josh Brown Auf einen Blick Pro Gute Gesamtleistung Attraktiver Preis Gut für Filme und zum Lesen geeignet Fantastische Akkulaufzeit bei Bedarf Kontra Schwache Kameras mit schlechter Videounterstützung Den Lautsprechern fehlt es an Wärme und Details Viele überflüssige Apps Fazit Für einen fairen Preis ist das TCL 50 Pro Nxtpaper ein wunderbares Smartphone für Menschen, die gerne am kleinen Display lesen oder auch für diejenigen, die einfach nur ihre Augen schonen wollen. Während ein dedizierter E-Reader vornehmlich auf Komfort getrimmt ist, hat TCL den perfekten Hybriden geschmiedet, der lediglich die absolute Farbgenauigkeit opfert, um ein erhabenes tragbares Leseerlebnis zu bieten. Und das auf Knopfdruck. Schon 2023 hat TCL ein preisgünstiges Smartphone vorgestellt, das gleichzeitig ein wunderbarer E-Reader ist. Die Idee mit dem Handy am Tag und dem Buch am Abend war spannend − hatte aber im Alltag ein großes Problem: Der Wechsel zwischen den beiden Modi war etwas (zu) mühsam. Jetzt ist ein neues Modell verfügbar und es behebt die Unzulänglichkeiten mit einem Hardware-Kippschalter, der direkt unter der Einschalttaste sitzt. Aber bietet das TCL 50 Pro Nxtpaper genug Power, um ein breites Publikum anzusprechen? Werfen wir einen Blick darauf. Design & Aufbau Solide Konstruktion Komfortabler Griff mit abgerundeten Ecken Zahlreiche Farben und Oberflächenbehandlungen Das TCL 50 Pro Nxtpaper ist in verschiedenen Farben erhältlich und sieht luxuriöser aus, als sein günstiger Preis vermuten lässt. In Deutschland sind die Modelle in dunklen Grau- und Blautönen erhältlich. Das Gehäuse ist stabil, abgerundet und gerade dick genug, um gut in der Hand zu liegen. Der glatte, entspiegelte Bildschirm lässt das Smartphone fast wie eine Attrappe aussehen, wenn es auf der Rückseite liegt. Das 2D-Basalt-Design auf der Rückseite meines mondgrauen Exemplars bietet einen subtilen, wellenförmigen Schimmer, der in verschiedenen Winkeln neue Muster zeigt. Josh Brown Nur auf der rechten Seite des TCL 50 Pro Nxtpaper befinden sich Tasten: die übliche Lautstärkewippe, eine Einschalttaste, die gleichzeitig als sehr empfindlicher Fingerabdruckscanner dient, und ein griffiger Schieberegler, mit dem Sie die für das Smartphone charakteristische Nxtpaper-Funktion aktivieren können – also genau das, was bei der Erstausgabe schmerzlich vermisst wurde. Auf der Unterseite befindet sich mittig ein USB-C-Anschluss für schnelles Aufladen und Datenübertragung. Dort finden Sie auch einen 3,5-mm-Kopfhöreranschluss, ein Mikrofon und einen breiten Lautsprecher mit drei Gittern. Josh Brown Während ein Ladegerät und ein USB-C/A-Kabel im Lieferumfang enthalten sind, sind die dünne Folio-Tasche und der mitgelieferte Stift ein optionales Extra. Bildschirm & Lautsprecher Breites, filmtaugliches 1080p-Display Antireflektierende Beschichtung und glatte, matte Oberfläche Tönende Lautsprecher Das TCL 50 Pro Nxtpaper ist groß. Mit seinem 20,5:9-Seitenverhältnis ist es praktisch perfekt für kinoreife Inhalte im Querformat geeignet. Das Display ist auch hoch genug, um mehr Wörter Ihrer nächsten Bettlektüre auf den Bildschirm zu bringen. Wofür Sie sich auch entscheiden, die Auflösung von 2.460 × 1.080 Pixeln sorgt dafür, dass die Inhalte auf dem 6,8 Zoll großen Display gestochen scharf dargestellt werden. Joshua Brown Mit der typischen Spitzenhelligkeit von etwa 450 Nits kann es schwierig sein, Farbinhalte unter sehr hellen Bedingungen zu genießen. Allerdings lässt sich das Nxtpaper-Display in unseren Test bis auf 10 Nits reduzieren. Die Gefahr, dass nächtliches digitales Lesen Ihren Schlaf beeinträchtigt, sollte damit der Vergangenheit angehören. Durch die matte Oberfläche kann das Smartphone keine wirklich akkuraten Farben darstellen, verleiht dem standardmäßigen Hintergrund mit Farbverlauf jedoch einen sanften Übergang, der beim Wechsel zwischen den verschiedenen Bildschirmmodi sehr angenehm für die Augen ist. Sie werden auch eine papierähnliche Textur spüren, wenn Sie mit Ihren Fingern über das Display gleiten, wodurch sich das Umblättern einer digitalen Seite realistischer anfühlt. Übrigens: Es gibt eine vom TÜV Rheinland zertifizierte Blaulichtreduzierung und das Erhalten der Originalfarben ohne Vergilbung und ohne Bildschirmreflexion (matter Effekt), damit Sie die Bildschirminhalte aus jedem Winkel sehen können.  Joshua Brown Apropos: Mit dem Nxtpaper-Schalter können Sie zwischen drei verschiedenen Lesemodi umschalten, die Sie bevorzugen: normal, farbiges Papier und Tintenpapier (wie ein E-Reader). Der erste Modus spart Energie, indem er die Anzahl der verfügbaren Apps einschränkt und darüber hinaus ein gestochen scharfes Schwarz-Weiß-Display eingeschaltet wird. Der Lautsprecher mit drei Gittern an der Unterseite und eine größere Hörmuschel an der Stelle, an der man sie erwarten würde, sind alles andere als herausragend. Joshua Brown Der Gesang in YouTube-Videos im Talking Head-Stil ist zwar verständlich, wirkt aber blechern und ohne echte Wärme oder Bass. Das ist ein Ergebnis, das man bei einem Smartphone in dieser Preisklasse und Konfiguration eigentlich erwarten kann, aber es ist trotzdem schade. Die gute Nachricht: Es ist laut für diejenigen, die das Extra an Power benötigen. Für alle anderen sollten Sie die Lautstärke nicht zu hoch einstellen oder Kopfhörer anschließen, um das beste Erlebnis zu haben. Spezifikationen & Leistung Reibungsloser Bildlauf mit 120 Hertz Der Speicher sorgt dafür, dass Apps schnell geöffnet werden und bleiben Anständiges Spielpotenzial für diejenigen, die es interessiert Das TCL 50 Pro Nxtpaper wird von einem 8-Kern MediaTek Dimensity 6300 Prozessor unterstützt und liegt mit einem Geekbench-Ergebnis von 1.881 etwas hinter konventionelleren Geräten wie dem Motorola Moto G85 zurück. Joshua Brown Da es in anspruchsvolleren 3D-Tests keine zweistelligen Bildraten erreicht, wird es nicht für diejenigen geeignet sein, die auf der Suche nach immersiven Spielerlebnissen sind. Aber Gelegenheits- oder Wettkampfspiele? Nur zu. Für den allgemeinen Gebrauch eignet sich das 120-Hertz-Display hervorragend zum Scrollen von Artikeln. Die 8 Gigabyte Arbeitsspeicher reichen aus, um den Alltag reibungslos zu gestalten. Joshua Brown Es gibt 512 GB Speicherplatz (andere Flaggschiff-iPhones und Galaxys haben 128 GB) als Standard und einen Mikro-SD-Kartenslot, falls Sie mehr internen Speicher benötigen. Am wichtigsten ist, dass Apps schnell und weitgehend ruckelfrei geöffnet werden, dass große Downloads immer noch ausreichend schnell sind und das gesamte Benutzererlebnis butterweich ist. Benchmarks Kameras Dreifach-Sensor-System 108-MP-Hauptkamera Maximale 1080p-Aufnahme mit 30 fps Das TCL 50 Pro Nxtpaper besitzt drei rückwärtige Kamerasensoren: eine 8-Megapixel-Weitwinkelkamera, eine 2-Megapixel-Makrokamera und eine 108-Megapixel-Hauptkamera. Die volle Auflösung der letzteren Kamera ist hinter einer Schnellauswahloption auf dem Sucherbildschirm verborgen. Allerdings lässt sie sich als Standardoption aktivieren, sofern Sie keine bewegten Motive fotografieren wollen. Obwohl Sie den Wert dieser Funktion aufgrund der natürlich unscharfen Darstellung im Moment kaum erkennen können, werden Sie einige halbwegs anständige Aufnahmen machen. Überzeugen Sie sich vom Ergebnis, wenn Sie die Fotos auf einem großen Bildschirm betrachten. Sie werden nicht in der Lage sein, den Text eines weit entfernten Schildes zu lesen, und unter nicht perfekten Bedingungen kann es zu einer Art VHS-Korn und viel Streulicht bei hellem Licht kommen. Die Kamera ist ungefähr so brauchbar wie die Systeme anderer Smartphones in dieser Preisklasse. Andernorts kann es schwierig sein, die anderen Objektive ohne helle, ruhige Aufnahmebedingungen optimal einzusetzen. Die 108-MP-Aufnahmen brauchen einige Zeit, um erfasst und verarbeitet zu werden. Der Versuch einer Porträtaufnahme hat gezeigt, dass die TCL 50 Pro Nxtpaper Schwierigkeiten hat, die Ränder einer Katze als Motiv herauszuarbeiten. Mit gefiltertem Licht und einem weitgehend unbewegten Motiv lief es viel besser. Das Ergebnis ist eine besonders stimmungsvolle Aufnahme eines Welpen, der Millisekunden davon entfernt ist, Aufmerksamkeit zu verlangen. Das “Super-Makro”-Objektiv erwies sich als schwierig zu nutzen, da es schwer ist, nah genug an die Herbstblumen heranzukommen. Wenige nutzen es wirklich. Das Zoom-Potenzial ist vorhanden, aber Details von entfernten Hügeln wirken verschwommen. Näher gelegene Objekte gelingen besser. Ein Doppelklick auf die Lautstärkewippe, um Fotos aufzunehmen, ohne die Kamera-App zu öffnen, ist praktisch, aber beansprucht den Akku stark. Leider sind Aufnahmen über 1080p bei 30 fps nicht möglich, vermutlich wegen der Prozessorbeschränkungen. Die Verarbeitung der 108-MP-Fotos dauert zudem recht lange. Es handelt sich um ein sensibles System, das Geduld erfordert, aber unter den richtigen Bedingungen seine Aufgabe erfüllen kann. Es wird jedoch nicht empfohlen, es für die Aufnahme wertvoller Erinnerungen zu verwenden. Das Mobiltelefon dient hauptsächlich als praktisches digitales Lesegerät und zuverlässiges Kommunikationsgerät. Die Kamera hat hierbei nur eine untergeordnete Rolle. Akkulaufzeit & Aufladen Große Akkukapazität Reichlich Energiesparfunktionen 33-Watt-Schnellladung mit dem mitgelieferten Ladegerät Der 5.010-mAh-Akku unter der Haube zeichnet sich durch seine bemerkenswerte Kapazität aus. Die Größe des Geräts entspricht in etwa der von anderen leistungsorientierten Handys derselben Größe. In Kombination mit dem papierähnlichen Bildschirm ist eine lange Nutzungsdauer zu erwarten. Dies ist zumindest die Theorie. Im Rahmen unseres typischen Akkuleistungstests erreicht das TCL 50 Pro Nxtpaper eine Nutzungsdauer von rund neun Stunden. Dies ist der Fall, wenn das Gerät wie ein PC und nicht wie ein Buch verwendet wird. Der Test simuliert typische Nutzungsszenarien bei geringer Helligkeit und aktiviertem Hintergrundbetrieb des Telefons. Es besteht ein erhebliches Potenzial für Optimierungen, die nicht nur durch die üblichen Batteriesparmodi, sondern auch durch die dynamische Reduzierung der Bildschirmauflösung, sofern dies sinnvoll ist, erreicht werden können. Joshua Brown Das Smartphone hat bei maximaler Einstellung von Nxtpaper eine Laufzeit von etwa einem Monat vorhergesagt. Während einer 45-minütigen Busfahrt haben wir einen Ladungsabfall von vier Prozent mit der Kindle-App festgestellt. Daher sollten Sie diese hohen Schätzungen mit Vorsicht genießen. In den folgenden Wochen mussten wir uns nur noch zweimal in sieben Tagen um den Ladevorgang kümmern, wenn das Gerät hauptsächlich als Lesegerät und Teilzeitkamera verwendet wurde. Ein Pluspunkt ist, dass das TCL 50 Pro Nxtpaper das Schnellladen unterstützt. Mit 33 Watt über das mitgelieferte Kabel und das Ladegerät brachte es eine bescheidene 30-minütige Aufladung von leer auf 73 Prozent. Eine schnelle 15-minütige Aufladung, zum Beispiel beim Duschen oder Frühstücken, kann fast die Hälfte einer vollen Ladung bringen. Das ist für ein so günstiges Smartphone beeindruckend. Es gibt keine Option für kabelloses Laden, wie Sie sich vielleicht vorstellen können. Erwarten Sie also nicht, dass Sie es unterwegs aufladen können, es sei denn, Sie haben zumindest ein Kabel dabei, um im Bus, in der Bibliothek oder anderswo Steckdosen anzuzapfen. Aber das werden Sie nur selten benötigen. Software & Apps Starke Bloatware Fünf Jahre Software-Unterstützung Nützliche Einstellungen für Gesundheit und Benutzerfreundlichkeit Ärgerlich ist für uns beim TCL 50 Pro Nxtpaper die schiere Menge an Bloatware, die vorinstalliert ist. Der Hauptbildschirm verbirgt sie gut mit Dienstprogrammen, um die Leistung zu beschleunigen. Wenn Sie jedoch auf den zweiten Bildschirm wechseln, werden Sie mit sozialen Plattformen, Coupons, Hotelbuchungs-Apps und sogar ein paar Apps von Microsoft konfrontiert. Joshua Brown Ein weiterer Aspekt, der zu berücksichtigen ist, ist die Existenz eines Ordners mit einer Auswahl von “Hot-Apps”, die mit nur einem Fingertipp installiert werden können. Diese können zwar problemlos ausgeblendet, entfernt oder deinstalliert werden, es ist jedoch bedauerlich, dass diese fast schon dreiste Praxis auf einem Smartphone zu sehen ist, das für die ältere Generation gedacht ist. Wenn Sie sich für das Etui mit dem mitgelieferten Stift entscheiden, sollten Sie wissen: Die erste App, die Sie vermutlich nutzen werden – das vorinstallierte Jnotes – lockt bei jedem Start mit einem zusätzlichen Abo-Modell. Außerdem wird für das Stift-Tool selbst ein Aufpreis fällig. Positiv hervorzuheben sind die durchdachten Verbesserungen im Einstellungsmenü des TCL 50 Pro Nxtpaper. Text und Symbole sind bereits in einer angemessenen Größe dargestellt, können aber bei Bedarf vergrößert oder verkleinert werden. Joshua Brown Der Lesemodus von Nxtpaper lässt sich flexibel anpassen: Sie können die Intensität des Effekts, der über den Kippschalter aktiviert wird, individuell einstellen. Zusätzlich lassen sich ähnliche Displayeffekte auch app-spezifisch aktivieren. Sie können beispielsweise Ihren bevorzugten Lesemodus automatisch über die Kindle-App aktivieren lassen. Verwenden Sie den Nxtpaper-Schalter, um das Lesen eines textlastigen Artikels zu erleichtern. Schalten Sie dann schnell wieder auf Farbe um, wenn Sie bereit sind, durch Pinterest, Facebook oder den endlosen Katalog einer Bekleidungs-Website zu blättern. Das TCL-Smartphone unterstützt Sie aktiv beim Augenschutz: Es warnt Sie bei zu wenig Umgebungslicht, einer ungünstigen Haltung oder wenn Sie zu nah am Bildschirm lesen – etwa in einer ruckelnden Umgebung. Nach längerer Lesezeit erinnert die Software Sie außerdem automatisch an eine Pause. Joshua Brown Bitte beachten Sie, dass einige dieser Funktionen die Kamera erfordern und somit die Akkulaufzeit beeinträchtigen können. Es ist jedoch immer hilfreich, über eine entsprechende Option zu verfügen. Das Gerät wird ab Werk mit Android 14 ausgeliefert und kann durch ein Update auf Android 16 Sicherheitsupdates bis 2029 erhalten. Eine Akkulaufzeit von fünf Jahren ist in dieser Preisklasse bemerkenswert – ein echter Pluspunkt in Sachen Nachhaltigkeit. Fazit Wir sind zwar nicht davon überzeugt, dass der Nxtpaper-Modus die gleichen Vorteile bietet wie ein dediziertes E-Ink-Gerät, aber die Vorteile eines Hybrid-Displays liegen auf der Hand. Für den Preis eines hochwertigen E-Readers erhalten Sie ein sehr leistungsfähiges Gerät mit allen notwendigen Sensoren, die Ihnen beim Umblättern von Seite zu Seite helfen. Das TCL 50 Pro Nxtpaper besitzt einen Hardware-Umschalter, mit dem Sie zwischen dem Tinten- und dem Farbmodus hin- und herschalten können. Gepaart mit einer Bildwiederholfrequenz von 120 Hertz und einem Akku, der problemlos länger durchhält als der Konkurrenz, ist der TCL durchaus zu empfehlen. Technische Daten Prozessor: MediaTek Dimensity 6300 Octa-Core Bildschirm: 6,8 Zoll, Auflösung 1.080 × 2.460 Pixel, 396 PPI mit 550 Nits, Seitenverhältnis 20,5:9 Bildwiederholfrequenz: 120 Hertz Akku: 5.010 mAh, 33-Watt-Schnellladung per USB-C Arbeitsspeicher: 8 GB Interner Speicher: 512 GB, erweiterbar per Micro-SD Kamera: 108 MP, 8 MP und 2 MP hinten, 32 MP vorn (maximale Aufnahme 1080p/30fps) Software: Vierteljährliche Sicherheitsupdates bis März 2029 (bei Aktualisierung auf Android 16) Abmessungen: 167,6 × 75,5 × 7,99 mm (H × B × T) Gewicht: 196 g Tasten: Fingerabdruck-/Einschalttaste, Lautstärkewippe, Nxtpaper-Schalter (PC-Welt) 

TCL 50 Pro Nxtpaper im Test: Smartphone mit einem speziellen Lesemodus​ Josh Brown

Auf einen Blick

Pro

Gute Gesamtleistung

Attraktiver Preis

Gut für Filme und zum Lesen geeignet

Fantastische Akkulaufzeit bei Bedarf

Kontra

Schwache Kameras mit schlechter Videounterstützung

Den Lautsprechern fehlt es an Wärme und Details

Viele überflüssige Apps

Fazit

Für einen fairen Preis ist das TCL 50 Pro Nxtpaper ein wunderbares Smartphone für Menschen, die gerne am kleinen Display lesen oder auch für diejenigen, die einfach nur ihre Augen schonen wollen. Während ein dedizierter E-Reader vornehmlich auf Komfort getrimmt ist, hat TCL den perfekten Hybriden geschmiedet, der lediglich die absolute Farbgenauigkeit opfert, um ein erhabenes tragbares Leseerlebnis zu bieten. Und das auf Knopfdruck.

Schon 2023 hat TCL ein preisgünstiges Smartphone vorgestellt, das gleichzeitig ein wunderbarer E-Reader ist. Die Idee mit dem Handy am Tag und dem Buch am Abend war spannend − hatte aber im Alltag ein großes Problem: Der Wechsel zwischen den beiden Modi war etwas (zu) mühsam.

Jetzt ist ein neues Modell verfügbar und es behebt die Unzulänglichkeiten mit einem Hardware-Kippschalter, der direkt unter der Einschalttaste sitzt. Aber bietet das TCL 50 Pro Nxtpaper genug Power, um ein breites Publikum anzusprechen? Werfen wir einen Blick darauf.

Design & Aufbau

Solide Konstruktion

Komfortabler Griff mit abgerundeten Ecken

Zahlreiche Farben und Oberflächenbehandlungen

Das TCL 50 Pro Nxtpaper ist in verschiedenen Farben erhältlich und sieht luxuriöser aus, als sein günstiger Preis vermuten lässt. In Deutschland sind die Modelle in dunklen Grau- und Blautönen erhältlich.

Das Gehäuse ist stabil, abgerundet und gerade dick genug, um gut in der Hand zu liegen. Der glatte, entspiegelte Bildschirm lässt das Smartphone fast wie eine Attrappe aussehen, wenn es auf der Rückseite liegt.

Das 2D-Basalt-Design auf der Rückseite meines mondgrauen Exemplars bietet einen subtilen, wellenförmigen Schimmer, der in verschiedenen Winkeln neue Muster zeigt.

Josh Brown

Nur auf der rechten Seite des TCL 50 Pro Nxtpaper befinden sich Tasten: die übliche Lautstärkewippe, eine Einschalttaste, die gleichzeitig als sehr empfindlicher Fingerabdruckscanner dient, und ein griffiger Schieberegler, mit dem Sie die für das Smartphone charakteristische Nxtpaper-Funktion aktivieren können – also genau das, was bei der Erstausgabe schmerzlich vermisst wurde.

Auf der Unterseite befindet sich mittig ein USB-C-Anschluss für schnelles Aufladen und Datenübertragung. Dort finden Sie auch einen 3,5-mm-Kopfhöreranschluss, ein Mikrofon und einen breiten Lautsprecher mit drei Gittern.

Josh Brown

Während ein Ladegerät und ein USB-C/A-Kabel im Lieferumfang enthalten sind, sind die dünne Folio-Tasche und der mitgelieferte Stift ein optionales Extra.

Bildschirm & Lautsprecher

Breites, filmtaugliches 1080p-Display

Antireflektierende Beschichtung und glatte, matte Oberfläche

Tönende Lautsprecher

Das TCL 50 Pro Nxtpaper ist groß. Mit seinem 20,5:9-Seitenverhältnis ist es praktisch perfekt für kinoreife Inhalte im Querformat geeignet.

Das Display ist auch hoch genug, um mehr Wörter Ihrer nächsten Bettlektüre auf den Bildschirm zu bringen. Wofür Sie sich auch entscheiden, die Auflösung von 2.460 × 1.080 Pixeln sorgt dafür, dass die Inhalte auf dem 6,8 Zoll großen Display gestochen scharf dargestellt werden.

Joshua Brown

Mit der typischen Spitzenhelligkeit von etwa 450 Nits kann es schwierig sein, Farbinhalte unter sehr hellen Bedingungen zu genießen. Allerdings lässt sich das Nxtpaper-Display in unseren Test bis auf 10 Nits reduzieren. Die Gefahr, dass nächtliches digitales Lesen Ihren Schlaf beeinträchtigt, sollte damit der Vergangenheit angehören.

Durch die matte Oberfläche kann das Smartphone keine wirklich akkuraten Farben darstellen, verleiht dem standardmäßigen Hintergrund mit Farbverlauf jedoch einen sanften Übergang, der beim Wechsel zwischen den verschiedenen Bildschirmmodi sehr angenehm für die Augen ist.

Sie werden auch eine papierähnliche Textur spüren, wenn Sie mit Ihren Fingern über das Display gleiten, wodurch sich das Umblättern einer digitalen Seite realistischer anfühlt.

Übrigens: Es gibt eine vom TÜV Rheinland zertifizierte Blaulichtreduzierung und das Erhalten der Originalfarben ohne Vergilbung und ohne Bildschirmreflexion (matter Effekt), damit Sie die Bildschirminhalte aus jedem Winkel sehen können. 

Joshua Brown

Apropos: Mit dem Nxtpaper-Schalter können Sie zwischen drei verschiedenen Lesemodi umschalten, die Sie bevorzugen: normal, farbiges Papier und Tintenpapier (wie ein E-Reader).

Der erste Modus spart Energie, indem er die Anzahl der verfügbaren Apps einschränkt und darüber hinaus ein gestochen scharfes Schwarz-Weiß-Display eingeschaltet wird.

Der Lautsprecher mit drei Gittern an der Unterseite und eine größere Hörmuschel an der Stelle, an der man sie erwarten würde, sind alles andere als herausragend.

Joshua Brown

Der Gesang in YouTube-Videos im Talking Head-Stil ist zwar verständlich, wirkt aber blechern und ohne echte Wärme oder Bass. Das ist ein Ergebnis, das man bei einem Smartphone in dieser Preisklasse und Konfiguration eigentlich erwarten kann, aber es ist trotzdem schade.

Die gute Nachricht: Es ist laut für diejenigen, die das Extra an Power benötigen. Für alle anderen sollten Sie die Lautstärke nicht zu hoch einstellen oder Kopfhörer anschließen, um das beste Erlebnis zu haben.

Spezifikationen & Leistung

Reibungsloser Bildlauf mit 120 Hertz

Der Speicher sorgt dafür, dass Apps schnell geöffnet werden und bleiben

Anständiges Spielpotenzial für diejenigen, die es interessiert

Das TCL 50 Pro Nxtpaper wird von einem 8-Kern MediaTek Dimensity 6300 Prozessor unterstützt und liegt mit einem Geekbench-Ergebnis von 1.881 etwas hinter konventionelleren Geräten wie dem Motorola Moto G85 zurück.

Joshua Brown

Da es in anspruchsvolleren 3D-Tests keine zweistelligen Bildraten erreicht, wird es nicht für diejenigen geeignet sein, die auf der Suche nach immersiven Spielerlebnissen sind. Aber Gelegenheits- oder Wettkampfspiele? Nur zu.

Für den allgemeinen Gebrauch eignet sich das 120-Hertz-Display hervorragend zum Scrollen von Artikeln. Die 8 Gigabyte Arbeitsspeicher reichen aus, um den Alltag reibungslos zu gestalten.

Joshua Brown

Es gibt 512 GB Speicherplatz (andere Flaggschiff-iPhones und Galaxys haben 128 GB) als Standard und einen Mikro-SD-Kartenslot, falls Sie mehr internen Speicher benötigen.

Am wichtigsten ist, dass Apps schnell und weitgehend ruckelfrei geöffnet werden, dass große Downloads immer noch ausreichend schnell sind und das gesamte Benutzererlebnis butterweich ist.

Benchmarks

Kameras

Dreifach-Sensor-System

108-MP-Hauptkamera

Maximale 1080p-Aufnahme mit 30 fps

Das TCL 50 Pro Nxtpaper besitzt drei rückwärtige Kamerasensoren: eine 8-Megapixel-Weitwinkelkamera, eine 2-Megapixel-Makrokamera und eine 108-Megapixel-Hauptkamera.

Die volle Auflösung der letzteren Kamera ist hinter einer Schnellauswahloption auf dem Sucherbildschirm verborgen. Allerdings lässt sie sich als Standardoption aktivieren, sofern Sie keine bewegten Motive fotografieren wollen.

Obwohl Sie den Wert dieser Funktion aufgrund der natürlich unscharfen Darstellung im Moment kaum erkennen können, werden Sie einige halbwegs anständige Aufnahmen machen. Überzeugen Sie sich vom Ergebnis, wenn Sie die Fotos auf einem großen Bildschirm betrachten.

Sie werden nicht in der Lage sein, den Text eines weit entfernten Schildes zu lesen, und unter nicht perfekten Bedingungen kann es zu einer Art VHS-Korn und viel Streulicht bei hellem Licht kommen. Die Kamera ist ungefähr so brauchbar wie die Systeme anderer Smartphones in dieser Preisklasse.

Andernorts kann es schwierig sein, die anderen Objektive ohne helle, ruhige Aufnahmebedingungen optimal einzusetzen. Die 108-MP-Aufnahmen brauchen einige Zeit, um erfasst und verarbeitet zu werden.

Der Versuch einer Porträtaufnahme hat gezeigt, dass die TCL 50 Pro Nxtpaper Schwierigkeiten hat, die Ränder einer Katze als Motiv herauszuarbeiten.

Mit gefiltertem Licht und einem weitgehend unbewegten Motiv lief es viel besser. Das Ergebnis ist eine besonders stimmungsvolle Aufnahme eines Welpen, der Millisekunden davon entfernt ist, Aufmerksamkeit zu verlangen.

Das “Super-Makro”-Objektiv erwies sich als schwierig zu nutzen, da es schwer ist, nah genug an die Herbstblumen heranzukommen. Wenige nutzen es wirklich. Das Zoom-Potenzial ist vorhanden, aber Details von entfernten Hügeln wirken verschwommen. Näher gelegene Objekte gelingen besser.

Ein Doppelklick auf die Lautstärkewippe, um Fotos aufzunehmen, ohne die Kamera-App zu öffnen, ist praktisch, aber beansprucht den Akku stark.

Leider sind Aufnahmen über 1080p bei 30 fps nicht möglich, vermutlich wegen der Prozessorbeschränkungen. Die Verarbeitung der 108-MP-Fotos dauert zudem recht lange.

Es handelt sich um ein sensibles System, das Geduld erfordert, aber unter den richtigen Bedingungen seine Aufgabe erfüllen kann. Es wird jedoch nicht empfohlen, es für die Aufnahme wertvoller Erinnerungen zu verwenden. Das Mobiltelefon dient hauptsächlich als praktisches digitales Lesegerät und zuverlässiges Kommunikationsgerät. Die Kamera hat hierbei nur eine untergeordnete Rolle.

Akkulaufzeit & Aufladen

Große Akkukapazität

Reichlich Energiesparfunktionen

33-Watt-Schnellladung mit dem mitgelieferten Ladegerät

Der 5.010-mAh-Akku unter der Haube zeichnet sich durch seine bemerkenswerte Kapazität aus. Die Größe des Geräts entspricht in etwa der von anderen leistungsorientierten Handys derselben Größe. In Kombination mit dem papierähnlichen Bildschirm ist eine lange Nutzungsdauer zu erwarten. Dies ist zumindest die Theorie.

Im Rahmen unseres typischen Akkuleistungstests erreicht das TCL 50 Pro Nxtpaper eine Nutzungsdauer von rund neun Stunden. Dies ist der Fall, wenn das Gerät wie ein PC und nicht wie ein Buch verwendet wird.

Der Test simuliert typische Nutzungsszenarien bei geringer Helligkeit und aktiviertem Hintergrundbetrieb des Telefons. Es besteht ein erhebliches Potenzial für Optimierungen, die nicht nur durch die üblichen Batteriesparmodi, sondern auch durch die dynamische Reduzierung der Bildschirmauflösung, sofern dies sinnvoll ist, erreicht werden können.

Joshua Brown

Das Smartphone hat bei maximaler Einstellung von Nxtpaper eine Laufzeit von etwa einem Monat vorhergesagt. Während einer 45-minütigen Busfahrt haben wir einen Ladungsabfall von vier Prozent mit der Kindle-App festgestellt. Daher sollten Sie diese hohen Schätzungen mit Vorsicht genießen.

In den folgenden Wochen mussten wir uns nur noch zweimal in sieben Tagen um den Ladevorgang kümmern, wenn das Gerät hauptsächlich als Lesegerät und Teilzeitkamera verwendet wurde.

Ein Pluspunkt ist, dass das TCL 50 Pro Nxtpaper das Schnellladen unterstützt. Mit 33 Watt über das mitgelieferte Kabel und das Ladegerät brachte es eine bescheidene 30-minütige Aufladung von leer auf 73 Prozent. Eine schnelle 15-minütige Aufladung, zum Beispiel beim Duschen oder Frühstücken, kann fast die Hälfte einer vollen Ladung bringen. Das ist für ein so günstiges Smartphone beeindruckend.

Es gibt keine Option für kabelloses Laden, wie Sie sich vielleicht vorstellen können. Erwarten Sie also nicht, dass Sie es unterwegs aufladen können, es sei denn, Sie haben zumindest ein Kabel dabei, um im Bus, in der Bibliothek oder anderswo Steckdosen anzuzapfen. Aber das werden Sie nur selten benötigen.

Software & Apps

Starke Bloatware

Fünf Jahre Software-Unterstützung

Nützliche Einstellungen für Gesundheit und Benutzerfreundlichkeit

Ärgerlich ist für uns beim TCL 50 Pro Nxtpaper die schiere Menge an Bloatware, die vorinstalliert ist. Der Hauptbildschirm verbirgt sie gut mit Dienstprogrammen, um die Leistung zu beschleunigen. Wenn Sie jedoch auf den zweiten Bildschirm wechseln, werden Sie mit sozialen Plattformen, Coupons, Hotelbuchungs-Apps und sogar ein paar Apps von Microsoft konfrontiert.

Joshua Brown

Ein weiterer Aspekt, der zu berücksichtigen ist, ist die Existenz eines Ordners mit einer Auswahl von “Hot-Apps”, die mit nur einem Fingertipp installiert werden können.

Diese können zwar problemlos ausgeblendet, entfernt oder deinstalliert werden, es ist jedoch bedauerlich, dass diese fast schon dreiste Praxis auf einem Smartphone zu sehen ist, das für die ältere Generation gedacht ist.

Wenn Sie sich für das Etui mit dem mitgelieferten Stift entscheiden, sollten Sie wissen: Die erste App, die Sie vermutlich nutzen werden – das vorinstallierte Jnotes – lockt bei jedem Start mit einem zusätzlichen Abo-Modell. Außerdem wird für das Stift-Tool selbst ein Aufpreis fällig.

Positiv hervorzuheben sind die durchdachten Verbesserungen im Einstellungsmenü des TCL 50 Pro Nxtpaper. Text und Symbole sind bereits in einer angemessenen Größe dargestellt, können aber bei Bedarf vergrößert oder verkleinert werden.

Joshua Brown

Der Lesemodus von Nxtpaper lässt sich flexibel anpassen: Sie können die Intensität des Effekts, der über den Kippschalter aktiviert wird, individuell einstellen. Zusätzlich lassen sich ähnliche Displayeffekte auch app-spezifisch aktivieren.

Sie können beispielsweise Ihren bevorzugten Lesemodus automatisch über die Kindle-App aktivieren lassen. Verwenden Sie den Nxtpaper-Schalter, um das Lesen eines textlastigen Artikels zu erleichtern. Schalten Sie dann schnell wieder auf Farbe um, wenn Sie bereit sind, durch Pinterest, Facebook oder den endlosen Katalog einer Bekleidungs-Website zu blättern.

Das TCL-Smartphone unterstützt Sie aktiv beim Augenschutz: Es warnt Sie bei zu wenig Umgebungslicht, einer ungünstigen Haltung oder wenn Sie zu nah am Bildschirm lesen – etwa in einer ruckelnden Umgebung. Nach längerer Lesezeit erinnert die Software Sie außerdem automatisch an eine Pause.

Joshua Brown

Bitte beachten Sie, dass einige dieser Funktionen die Kamera erfordern und somit die Akkulaufzeit beeinträchtigen können. Es ist jedoch immer hilfreich, über eine entsprechende Option zu verfügen.

Das Gerät wird ab Werk mit Android 14 ausgeliefert und kann durch ein Update auf Android 16 Sicherheitsupdates bis 2029 erhalten. Eine Akkulaufzeit von fünf Jahren ist in dieser Preisklasse bemerkenswert – ein echter Pluspunkt in Sachen Nachhaltigkeit.

Fazit

Wir sind zwar nicht davon überzeugt, dass der Nxtpaper-Modus die gleichen Vorteile bietet wie ein dediziertes E-Ink-Gerät, aber die Vorteile eines Hybrid-Displays liegen auf der Hand.

Für den Preis eines hochwertigen E-Readers erhalten Sie ein sehr leistungsfähiges Gerät mit allen notwendigen Sensoren, die Ihnen beim Umblättern von Seite zu Seite helfen. Das TCL 50 Pro Nxtpaper besitzt einen Hardware-Umschalter, mit dem Sie zwischen dem Tinten- und dem Farbmodus hin- und herschalten können.

Gepaart mit einer Bildwiederholfrequenz von 120 Hertz und einem Akku, der problemlos länger durchhält als der Konkurrenz, ist der TCL durchaus zu empfehlen.

Technische Daten

Prozessor: MediaTek Dimensity 6300 Octa-Core

Bildschirm: 6,8 Zoll, Auflösung 1.080 × 2.460 Pixel, 396 PPI mit 550 Nits, Seitenverhältnis 20,5:9

Bildwiederholfrequenz: 120 Hertz

Akku: 5.010 mAh, 33-Watt-Schnellladung per USB-C

Arbeitsspeicher: 8 GB

Interner Speicher: 512 GB, erweiterbar per Micro-SD

Kamera: 108 MP, 8 MP und 2 MP hinten, 32 MP vorn (maximale Aufnahme 1080p/30fps)

Software: Vierteljährliche Sicherheitsupdates bis März 2029 (bei Aktualisierung auf Android 16)

Abmessungen: 167,6 × 75,5 × 7,99 mm (H × B × T)

Gewicht: 196 g

Tasten: Fingerabdruck-/Einschalttaste, Lautstärkewippe, Nxtpaper-Schalter

(PC-Welt)

TCL 50 Pro Nxtpaper im Test: Smartphone mit einem speziellen Lesemodus​ Weiterlesen »

Mangelnde Softwarequalität verursacht Millionenschäden​

Allgemein

width=”2432″ height=”1368″ sizes=”(max-width: 2432px) 100vw, 2432px”>Wer nicht auf die Qualität seiner Software achtet, nimmt unnötige Risiken in Kauf.88studio – shutterstock.com Der Takt, in dem Unternehmen neue Software bauen und ausrollen, beschleunigt sich. Während die Release-Zyklen immer kürzer werden, müssen die Verantwortlichen sorgfältig abwägen, wie sich die drei entscheidenden Faktoren Geschwindigkeit, Qualität und Kosten ausbalancieren lassen.  Das erweist sich jedoch als alles andere als trivial. Technologieverantwortliche und Fachkräfte sind offenbar uneins darüber, wie man Geschwindigkeit, Qualität und Kosten in der Softwareentwicklung gewichten sollte. Nur eines scheint klar: In diesem Bermuda-Dreieck leidet die Softwarequalität. Das ist das zentrale Ergebnis des „2025 Quality Transformation Report“ von Tricentis, einem Anbieter von Lösungen für Continuous Testing und Quality Engineering.  Wie Continuous Testing mit GenAI Schritt hält Der Report basiert auf einer weltweiten Umfrage vom März 2025 unter rund 2.750 Teilnehmern aus zehn Ländern. Zu den Befragten gehörten CIOs, CTOs, leitende Ingenieure, DevOps- und Quality-Assurance- (QA-)Verantwortliche sowie Softwareentwickler aus verschiedenen Branchen – darunter der öffentliche Sektor, Energie- und Versorgungswirtschaft, Fertigung und Finanzdienstleistungen.  Mehr Tempo geht zu Lasten der Qualität Die Umfrage hat gezeigt, vor welchen wachsenden Herausforderungen Unternehmen bei der Bereitstellung hochwertiger Software stehen. Demzufolge leidet die Softwarequalität unter konkurrierenden organisatorischen Zwängen. Während viele Betriebe vor allem darauf drängten, mit Hilfe von Softwareunterstützung Produktivitätsgewinne zu erzielen, konzentrierten sich die Delivery-Teams überwiegend darauf, die Liefergeschwindigkeit zu erhöhen (global: 45 Prozent, Deutschland: 44 Prozent). Die Verbesserung der Softwarequalität haben dagegen die wenigsten auf dem Schirm (global: 13 Prozent, Deutschland: neun Prozent).  6 Maßnahmen für bessere CI/CD-Pipelines Fast zwei Drittel (63 Prozent) der befragten Unternehmen weltweit räumten ein, Codeänderungen herauszugeben, ohne sie vollständig zu testen. In Deutschland sind es sogar 74 Prozent. Als Hauptgründe für diese Nachlässigkeit nennen die Befragten die Notwendigkeit, Release-Zyklen zu beschleunigen (global: 46 Prozent, Deutschland: 47 Prozent) sowie schlichtweg Schlampigkeit, weil nicht getesteter Code unbeabsichtigt veröffentlicht wird (global: 40 Prozent, Deutschland: 35 Prozent).  Millionenschäden durch schlechte Softwarequalität Das hat Folgen, denn die Mängel in der Softwarequalität kosten die Unternehmen Millionen. Gut vier von zehn der befragten Betriebe (global: 42 Prozent, Deutschland 41 Prozent) schätzten dass mangelhafte Softwarequalität jährliche Schäden in Höhe von einer Million Dollar oder mehr verursacht – besonders hoch sind die Verluste im Finanzsektor. Zwei Drittel rechnen im Zuge der Qualitätsprobleme mit Softwareausfällen.  Laut Umfrage verhindern in erster Linie Unstimmigkeiten zwischen Entwicklern und Führungskräften Bemühungen hinsichtlich einer besseren Softwarequalität. Schlechte Kommunikation zwischen Softwareentwicklungs- und Qualitätssicherungs-Teams (global: 33 Prozent, Deutschland: 35 Prozent) und eine fehlende Abstimmung zwischen Führung und Softwareentwicklungs-Teams (global: 28 Prozent, Deutschland: 31 Prozent) erweisen sich als die größten Hindernisse. 5 Tipps gegen Deployment-Desaster „Die jüngsten Softwareausfälle aufgrund ungeprüfter oder ungetesteter Codeänderungen zeigen, wie entscheidend hochwertige Software für das gesamte organisatorische Ökosystem ist“, erklärte Kevin Thompson, Chief Executive Officer von Tricentis. Es sei von größter Bedeutung, das richtige Gleichgewicht zwischen Qualität und Geschwindigkeit zu finden, um den sich entwickelnden technologischen Anforderungen gerecht zu werden. Bessere Software durch Künstliche Intelligenz? Viele Hoffnungen, die Softwarequalität zu verbessern, ruhen auf KI. Die Mehrheit der befragten Organisationen (global: 82 Prozent, Deutschland: 75 Prozent) setzt darauf, monotone Aufgaben im Entwicklungs- und Bereitstellungsprozess an KI-Agenten abzugeben – und so mehr Zeit für strategischere und erfüllendere Arbeit zu gewinnen. Insgesamt glauben 84 Prozent der Befragten (Deutschland 80 Prozent), dass KI Entwicklungsteams dabei unterstützen wird, Software auch unter immer engeren Zeitvorgaben bereitzustellen.  Fast neun von zehn CIOs, CTOs und Software-Delivery-Verantwortlichen sind zuversichtlich, dass KI eigenständig Entscheidungen über Software-Releases treffen könne. Praktisch alle Befragten schätzen autonomes Testen als nützlich für die Qualitätssicherung ein. Die Bereiche, in denen der größte Nutzen durch den KI-Einsatz erwartet wird, sind:  Steigerung der Softwaregeschwindigkeit insgesamt (global: 28 Prozent, Deutschland: 31 Prozent),  generelle Verbesserung der Qualität (global: 28 Prozent, Deutschland: 26 Prozent),  Analyse von Testergebnissen (global: 25 Prozent, Deutschland: 24 Prozent) sowie  Wartung von Testfällen (global: 23 Prozent, Deutschland: 24 Prozent).  

Mangelnde Softwarequalität verursacht Millionenschäden​ width=”2432″ height=”1368″ sizes=”(max-width: 2432px) 100vw, 2432px”>Wer nicht auf die Qualität seiner Software achtet, nimmt unnötige Risiken in Kauf.88studio – shutterstock.com

Der Takt, in dem Unternehmen neue Software bauen und ausrollen, beschleunigt sich. Während die Release-Zyklen immer kürzer werden, müssen die Verantwortlichen sorgfältig abwägen, wie sich die drei entscheidenden Faktoren Geschwindigkeit, Qualität und Kosten ausbalancieren lassen. 

Das erweist sich jedoch als alles andere als trivial. Technologieverantwortliche und Fachkräfte sind offenbar uneins darüber, wie man Geschwindigkeit, Qualität und Kosten in der Softwareentwicklung gewichten sollte. Nur eines scheint klar: In diesem Bermuda-Dreieck leidet die Softwarequalität. Das ist das zentrale Ergebnis des „2025 Quality Transformation Report“ von Tricentis, einem Anbieter von Lösungen für Continuous Testing und Quality Engineering. 

Wie Continuous Testing mit GenAI Schritt hält

Der Report basiert auf einer weltweiten Umfrage vom März 2025 unter rund 2.750 Teilnehmern aus zehn Ländern. Zu den Befragten gehörten CIOs, CTOs, leitende Ingenieure, DevOps- und Quality-Assurance- (QA-)Verantwortliche sowie Softwareentwickler aus verschiedenen Branchen – darunter der öffentliche Sektor, Energie- und Versorgungswirtschaft, Fertigung und Finanzdienstleistungen. 

Mehr Tempo geht zu Lasten der Qualität

Die Umfrage hat gezeigt, vor welchen wachsenden Herausforderungen Unternehmen bei der Bereitstellung hochwertiger Software stehen. Demzufolge leidet die Softwarequalität unter konkurrierenden organisatorischen Zwängen. Während viele Betriebe vor allem darauf drängten, mit Hilfe von Softwareunterstützung Produktivitätsgewinne zu erzielen, konzentrierten sich die Delivery-Teams überwiegend darauf, die Liefergeschwindigkeit zu erhöhen (global: 45 Prozent, Deutschland: 44 Prozent). Die Verbesserung der Softwarequalität haben dagegen die wenigsten auf dem Schirm (global: 13 Prozent, Deutschland: neun Prozent). 

6 Maßnahmen für bessere CI/CD-Pipelines

Fast zwei Drittel (63 Prozent) der befragten Unternehmen weltweit räumten ein, Codeänderungen herauszugeben, ohne sie vollständig zu testen. In Deutschland sind es sogar 74 Prozent. Als Hauptgründe für diese Nachlässigkeit nennen die Befragten die Notwendigkeit, Release-Zyklen zu beschleunigen (global: 46 Prozent, Deutschland: 47 Prozent) sowie schlichtweg Schlampigkeit, weil nicht getesteter Code unbeabsichtigt veröffentlicht wird (global: 40 Prozent, Deutschland: 35 Prozent). 

Millionenschäden durch schlechte Softwarequalität

Das hat Folgen, denn die Mängel in der Softwarequalität kosten die Unternehmen Millionen. Gut vier von zehn der befragten Betriebe (global: 42 Prozent, Deutschland 41 Prozent) schätzten dass mangelhafte Softwarequalität jährliche Schäden in Höhe von einer Million Dollar oder mehr verursacht – besonders hoch sind die Verluste im Finanzsektor. Zwei Drittel rechnen im Zuge der Qualitätsprobleme mit Softwareausfällen. 

Laut Umfrage verhindern in erster Linie Unstimmigkeiten zwischen Entwicklern und Führungskräften Bemühungen hinsichtlich einer besseren Softwarequalität. Schlechte Kommunikation zwischen Softwareentwicklungs- und Qualitätssicherungs-Teams (global: 33 Prozent, Deutschland: 35 Prozent) und eine fehlende Abstimmung zwischen Führung und Softwareentwicklungs-Teams (global: 28 Prozent, Deutschland: 31 Prozent) erweisen sich als die größten Hindernisse.

5 Tipps gegen Deployment-Desaster

„Die jüngsten Softwareausfälle aufgrund ungeprüfter oder ungetesteter Codeänderungen zeigen, wie entscheidend hochwertige Software für das gesamte organisatorische Ökosystem ist“, erklärte Kevin Thompson, Chief Executive Officer von Tricentis. Es sei von größter Bedeutung, das richtige Gleichgewicht zwischen Qualität und Geschwindigkeit zu finden, um den sich entwickelnden technologischen Anforderungen gerecht zu werden.

Bessere Software durch Künstliche Intelligenz?

Viele Hoffnungen, die Softwarequalität zu verbessern, ruhen auf KI. Die Mehrheit der befragten Organisationen (global: 82 Prozent, Deutschland: 75 Prozent) setzt darauf, monotone Aufgaben im Entwicklungs- und Bereitstellungsprozess an KI-Agenten abzugeben – und so mehr Zeit für strategischere und erfüllendere Arbeit zu gewinnen. Insgesamt glauben 84 Prozent der Befragten (Deutschland 80 Prozent), dass KI Entwicklungsteams dabei unterstützen wird, Software auch unter immer engeren Zeitvorgaben bereitzustellen. 

Fast neun von zehn CIOs, CTOs und Software-Delivery-Verantwortlichen sind zuversichtlich, dass KI eigenständig Entscheidungen über Software-Releases treffen könne. Praktisch alle Befragten schätzen autonomes Testen als nützlich für die Qualitätssicherung ein. Die Bereiche, in denen der größte Nutzen durch den KI-Einsatz erwartet wird, sind: 

Steigerung der Softwaregeschwindigkeit insgesamt (global: 28 Prozent, Deutschland: 31 Prozent), 

generelle Verbesserung der Qualität (global: 28 Prozent, Deutschland: 26 Prozent), 

Analyse von Testergebnissen (global: 25 Prozent, Deutschland: 24 Prozent) sowie 

Wartung von Testfällen (global: 23 Prozent, Deutschland: 24 Prozent). 

Mangelnde Softwarequalität verursacht Millionenschäden​ Weiterlesen »

HPE „morpht“ sein Private-Cloud-Portfolio​

Allgemein

Mit der Übernahme und Integration von Morpheus kann HPE sein Hybrid-Cloud-Portfolio ausweiten. Andrey_Popov – Shutterstock Neun Monate nach dem Kauf von Morpheus Data präsentiert HPE neue Funktionen als Teil des integrierten HPE-Morpheus-Softwareportfolios. Das Ziel der Lösungen ist dabei, die Herausforderungen bei der Verwaltung hybrider Umgebungen zu verringern.  „Unternehmen stehen von allen Seiten unter enormem Druck. Ausufernde Clouds, technische Schulden und astronomische Virtualisierungskosten behindern ihre Fähigkeit, in KI zu investieren und diese einzuführen“, erklärt Cheri Williams, Senior Vice President und General Manager of Private Cloud and Flex Solutions bei HPE, während eines Pressegesprächs. „Das ist einfach nicht nachhaltig und zwingt Unternehmen dazu, alles zu überdenken – Public Cloud, Private Cloud und was sie von beidem in einem hybriden Ökosystem brauchen.“  Die wichtigsten Ankündigungen auf einen Blick:  HPE Morpheus VM Essentials: Eine Hypervisor-Lösung, die darauf abzielt, die Lizenzkosten für die Virtualisierung zu senken.  HPE Morpheus Enterprise: Eine einheitliche Cloud-Management-Plattform, die es ermöglicht, jeder Arbeitslast in jeder Cloud-Umgebung zu verwalten.  Enhanced Private Cloud Business Edition: Integriert sich jetzt sowohl für Rechenzentren als auch für Edge-Implementierungen mit der HPE-Morpheus-Software und bietet angeblich einen 2,5-mal niedrigeren TCO.  Neue Speichergarantien: Zero-Data-Loss-, Cyberresilienz- und Energieverbrauchsgarantien für HPE-Alletra-Storage-MP-Kunden.  StoreOnce Appliances der Einstiegsklasse: Neue HPE-StoreOnce-3720- und 3760-Modelle für kleine und mittlere Unternehmen und Außenstellen mit 67 Prozent höherer Dichte und 29 Prozent geringerem Stromverbrauch.  Vereinheitlichtes Cloud-Management mit Morpheus Software  Als HPE Morpheus übernahm, versprach man sich davon mehr Möglichkeiten für das Cloud-Management. Das ist es, was das neue HPE Morpheus Enterprise Angebot bietet: Es ermöglicht Anwendern, virtuelle Maschinen (VMs), Container oder Bare- Metal. Workloads zu managen, um sie in privaten oder öffentlichen Clouds bereitzustellen.   „Was wir unseren Kunden damit bieten, ist die Flexibilität, jeden Workload in jeder Cloud zu verwalten“, erklärt Rajeev Bhardwaj, Vice President und Chief Product Officer für Private Cloud und Flex Solutions, entsprechend in dem Presse-Briefing.  Wie Bhardwaj betont, bietet die Software eine Self-Service-ähnliche Public-Cloud-Erfahrung. Sie integriere Governance, richtlinienbasierte Kostenkontrolle sowie die Verwaltung von Cloud-Ausgaben und Rückbuchungsfunktionen. Darüber hinaus sei das System als offene, erweiterbare Plattform konzipiert, die es Kunden ermöglichet, Dienste von Drittanbietern zu integrieren und eigene Tools zu entwickeln.  Als Teil der erweiterbaren Plattform, die HPE mit Morpheus bewirbt, werden auch einige Funktionen aus dem breiteren HPE-Portfolio integriert. Eine davon ist die Integration mit HPE Aruba für die Mikrosegmentierung von Netzwerken. Viele Nutzer von HPE Morpheus benötigten dieses Feature, um sicherzustellen, dass der Datenverkehr zwischen zwei virtuellen Maschinen auf einem Server sicher sei,  wie Bhardwaj anmerkt.  „Der traditionelle Ansatz, dies zu tun, ist auf dem Hypervisor, aber das kostet Zyklen“, so der HPE-Manager. „So wie es heute angeboten wird, müssen die Kunden offen gesagt zusätzliche Kosten für den Server bezahlen.“  Mit dem HPE -Aruba-Plugin, das jetzt mit HPE Morpheus zusammenarbeitet, kann die Mikrosegmentierungsfunktion auf Switch-Ebene aktiviert werden, womit laut Bhardwaj die Kosten gesenkt und die Leistung gesteigert werden können.  Die Integration bringt zusätzliche Funktionen mit sich, darunter die Möglichkeit, VPN und Network Address Translation (NAT) auf integrierte Weise zwischen dem Switch und dem Hypervisor zu unterstützen.  Hypervisor-Unterstützung – nicht nur für VMware  Der HPE Morpheus VM Essentials Hypervisor ist ein weiteres neues Element in HPEs Cloud-Portfolio und wird in die Private- Cloud-Angebote von HPE sowohl für Rechenzentren als auch für Edge-Implementierungen integriert.  „Kunden haben die Flexibilität, VMware einzusetzen, und sie haben jetzt auch die Flexibilität, unseren Hypervisor einzusetzen“, erklärt Bhardwaj. „Sie können beide parallel einsetzen, verwaltet von unserer HPE Morpheus Cloud Management Plattform. Das gibt den Kunden die Flexibilität, entsprechend ihrer Workload-Anforderungen die richtige Plattform zu wählen.  Senkung der Virtualisierungskosten  Ein weiterer wichtiger Aspekt der Ankündigung von HPE ist der dramatische Anstieg der Kosten für Virtualisierungslizenzen, mit dem viele Unternehmen nach der Übernahme von VMware durch Broadcom konfrontiert sind.  Um dieser Herausforderung zu begegnen, wird der Preis für HPE Morpheus VM Essentials Hypervisor pro Sockel und nicht pro Kern berechnet, was laut HPE die Lizenzkosten um 90 Prozent senken soll.  Neben den Einsparungen bei der Lizenzierung soll die Private Cloud Business Edition des Unternehmens durch ihre disaggregierte Architektur weitere Kostenvorteile realisieren. Das wird durch eine unabhängige Skalierung von Rechen- und Speicherressourcen erreicht, was sowohl die Anschaffungskosten als auch den betrieblichen Aufwand reduziert.  Verbesserte Cyberresilienz  Sein Speicherportfolio stärkt HPE mit neuen Garantien, die auf die wachsende Bedrohung durch Ransomware und andere Cyberangriffe ausgerichtet sind.  „Wir werden eine neue Cyberresilienz-Garantie anbieten, die unseren nativen Schutz vor Ransomware beinhaltet, einschließlich Immutability-Funktion und aktuelle AIOps-Technologien, um Anomalien und Entropie zu erkennen“, erklärt Sanjay Jagad, Vice President of Structured Data bei HPE Storage, während des Pressebriefings.  Weitere Garantien beziehen sich auf den Schutz vor Datenverlusten und Ausfallzeiten sowie Produktivitätssteigerungen durch KI-gestützte Abläufe. Jagad zufolge könne HPE seinen Kunden dabei helfen, ihre Betriebszeiten um 40 Prozent zu reduzieren und gleichzeitig Probleme zehnmal schneller vorherzusagen und zu beheben.  Für kleinere Unternehmen sollen die neuen StoreOnce-Backup-Appliances der Einstiegsklasse Schutz auf Unternehmensniveau zu einem niedrigeren Preis bieten, der bei nur 18 Terabyte Kapazität beginnt.  „Modernisierung findet nicht isoliert statt, Kunden brauchen ein Ökosystem, nicht nur einen Anbieter“, fasst HPE-Managerin Williams das Ziel der Ankündigungen zusammen. „Die Modernisierung beginnt damit, dass wir die Kunden dort abholen, wo sie stehen, und ihnen helfen, schneller voranzukommen.“ (mb)  

HPE „morpht“ sein Private-Cloud-Portfolio​ Mit der Übernahme und Integration von Morpheus kann HPE sein Hybrid-Cloud-Portfolio ausweiten. Andrey_Popov – Shutterstock

Neun Monate nach dem Kauf von Morpheus Data präsentiert HPE neue Funktionen als Teil des integrierten HPE-Morpheus-Softwareportfolios. Das Ziel der Lösungen ist dabei, die Herausforderungen bei der Verwaltung hybrider Umgebungen zu verringern. 

„Unternehmen stehen von allen Seiten unter enormem Druck. Ausufernde Clouds, technische Schulden und astronomische Virtualisierungskosten behindern ihre Fähigkeit, in KI zu investieren und diese einzuführen“, erklärt Cheri Williams, Senior Vice President und General Manager of Private Cloud and Flex Solutions bei HPE, während eines Pressegesprächs. „Das ist einfach nicht nachhaltig und zwingt Unternehmen dazu, alles zu überdenken – Public Cloud, Private Cloud und was sie von beidem in einem hybriden Ökosystem brauchen.“ 

Die wichtigsten Ankündigungen auf einen Blick: 

HPE Morpheus VM Essentials: Eine Hypervisor-Lösung, die darauf abzielt, die Lizenzkosten für die Virtualisierung zu senken. 

HPE Morpheus Enterprise: Eine einheitliche Cloud-Management-Plattform, die es ermöglicht, jeder Arbeitslast in jeder Cloud-Umgebung zu verwalten. 

Enhanced Private Cloud Business Edition: Integriert sich jetzt sowohl für Rechenzentren als auch für Edge-Implementierungen mit der HPE-Morpheus-Software und bietet angeblich einen 2,5-mal niedrigeren TCO. 

Neue Speichergarantien: Zero-Data-Loss-, Cyberresilienz- und Energieverbrauchsgarantien für HPE-Alletra-Storage-MP-Kunden. 

StoreOnce Appliances der Einstiegsklasse: Neue HPE-StoreOnce-3720- und 3760-Modelle für kleine und mittlere Unternehmen und Außenstellen mit 67 Prozent höherer Dichte und 29 Prozent geringerem Stromverbrauch. 

Vereinheitlichtes Cloud-Management mit Morpheus Software 

Als HPE Morpheus übernahm, versprach man sich davon mehr Möglichkeiten für das Cloud-Management. Das ist es, was das neue HPE Morpheus Enterprise Angebot bietet: Es ermöglicht Anwendern, virtuelle Maschinen (VMs), Container oder Bare- Metal. Workloads zu managen, um sie in privaten oder öffentlichen Clouds bereitzustellen. 

 „Was wir unseren Kunden damit bieten, ist die Flexibilität, jeden Workload in jeder Cloud zu verwalten“, erklärt Rajeev Bhardwaj, Vice President und Chief Product Officer für Private Cloud und Flex Solutions, entsprechend in dem Presse-Briefing. 

Wie Bhardwaj betont, bietet die Software eine Self-Service-ähnliche Public-Cloud-Erfahrung. Sie integriere Governance, richtlinienbasierte Kostenkontrolle sowie die Verwaltung von Cloud-Ausgaben und Rückbuchungsfunktionen. Darüber hinaus sei das System als offene, erweiterbare Plattform konzipiert, die es Kunden ermöglichet, Dienste von Drittanbietern zu integrieren und eigene Tools zu entwickeln. 

Als Teil der erweiterbaren Plattform, die HPE mit Morpheus bewirbt, werden auch einige Funktionen aus dem breiteren HPE-Portfolio integriert. Eine davon ist die Integration mit HPE Aruba für die Mikrosegmentierung von Netzwerken. Viele Nutzer von HPE Morpheus benötigten dieses Feature, um sicherzustellen, dass der Datenverkehr zwischen zwei virtuellen Maschinen auf einem Server sicher sei,  wie Bhardwaj anmerkt. 

„Der traditionelle Ansatz, dies zu tun, ist auf dem Hypervisor, aber das kostet Zyklen“, so der HPE-Manager. „So wie es heute angeboten wird, müssen die Kunden offen gesagt zusätzliche Kosten für den Server bezahlen.“ 

Mit dem HPE -Aruba-Plugin, das jetzt mit HPE Morpheus zusammenarbeitet, kann die Mikrosegmentierungsfunktion auf Switch-Ebene aktiviert werden, womit laut Bhardwaj die Kosten gesenkt und die Leistung gesteigert werden können. 

Die Integration bringt zusätzliche Funktionen mit sich, darunter die Möglichkeit, VPN und Network Address Translation (NAT) auf integrierte Weise zwischen dem Switch und dem Hypervisor zu unterstützen. 

Hypervisor-Unterstützung – nicht nur für VMware 

Der HPE Morpheus VM Essentials Hypervisor ist ein weiteres neues Element in HPEs Cloud-Portfolio und wird in die Private- Cloud-Angebote von HPE sowohl für Rechenzentren als auch für Edge-Implementierungen integriert. 

„Kunden haben die Flexibilität, VMware einzusetzen, und sie haben jetzt auch die Flexibilität, unseren Hypervisor einzusetzen“, erklärt Bhardwaj. „Sie können beide parallel einsetzen, verwaltet von unserer HPE Morpheus Cloud Management Plattform. Das gibt den Kunden die Flexibilität, entsprechend ihrer Workload-Anforderungen die richtige Plattform zu wählen. 

Senkung der Virtualisierungskosten 

Ein weiterer wichtiger Aspekt der Ankündigung von HPE ist der dramatische Anstieg der Kosten für Virtualisierungslizenzen, mit dem viele Unternehmen nach der Übernahme von VMware durch Broadcom konfrontiert sind. 

Um dieser Herausforderung zu begegnen, wird der Preis für HPE Morpheus VM Essentials Hypervisor pro Sockel und nicht pro Kern berechnet, was laut HPE die Lizenzkosten um 90 Prozent senken soll. 

Neben den Einsparungen bei der Lizenzierung soll die Private Cloud Business Edition des Unternehmens durch ihre disaggregierte Architektur weitere Kostenvorteile realisieren. Das wird durch eine unabhängige Skalierung von Rechen- und Speicherressourcen erreicht, was sowohl die Anschaffungskosten als auch den betrieblichen Aufwand reduziert. 

Verbesserte Cyberresilienz 

Sein Speicherportfolio stärkt HPE mit neuen Garantien, die auf die wachsende Bedrohung durch Ransomware und andere Cyberangriffe ausgerichtet sind. 

„Wir werden eine neue Cyberresilienz-Garantie anbieten, die unseren nativen Schutz vor Ransomware beinhaltet, einschließlich Immutability-Funktion und aktuelle AIOps-Technologien, um Anomalien und Entropie zu erkennen“, erklärt Sanjay Jagad, Vice President of Structured Data bei HPE Storage, während des Pressebriefings. 

Weitere Garantien beziehen sich auf den Schutz vor Datenverlusten und Ausfallzeiten sowie Produktivitätssteigerungen durch KI-gestützte Abläufe. Jagad zufolge könne HPE seinen Kunden dabei helfen, ihre Betriebszeiten um 40 Prozent zu reduzieren und gleichzeitig Probleme zehnmal schneller vorherzusagen und zu beheben. 

Für kleinere Unternehmen sollen die neuen StoreOnce-Backup-Appliances der Einstiegsklasse Schutz auf Unternehmensniveau zu einem niedrigeren Preis bieten, der bei nur 18 Terabyte Kapazität beginnt. 

„Modernisierung findet nicht isoliert statt, Kunden brauchen ein Ökosystem, nicht nur einen Anbieter“, fasst HPE-Managerin Williams das Ziel der Ankündigungen zusammen. „Die Modernisierung beginnt damit, dass wir die Kunden dort abholen, wo sie stehen, und ihnen helfen, schneller voranzukommen.“ (mb) 

HPE „morpht“ sein Private-Cloud-Portfolio​ Weiterlesen »

Proofpoint übernimmt Hornetsecurity​

Allgemein

Der US-Sicherheitsanbieter Proofpoint will mit der Übernahme von Hornetsecurity seinen “Wirkungskreis” auch auf kleine und mittlere Unternehmen ausweiten.JHVEPhoto | shutterstock.com Der amerikanische Cybersecurity-Riese Proofpoint hat bekanntgegeben, die Hannoveraner Hornetsecurity Group übernehmen zu wollen. Medienberichten zufolge sollen die Amerikaner für den deutschen E-Mail-Security-Spezialisten über eine Milliarde Dollar locker machen. Damit wäre die Akquisition von Hornetsecurity der bislang größte Zukauf in der Historie von Proofpoint. Mit dem Kauf des deutschen Sicherheitsunternehmens weitet das US-Unternehmen seine Zielgruppe von Großkonzernen nun auch auf kleine und mittlere Unternehmen (KMU) aus, wie auch Proofpoint-CEO Sumit Dhawan in einem X-Post zum Deal andeutet: I am thrilled to share the news that @Proofpoint has entered a definitive agreement to acquire @Hornetsecurity, a pan-European leader in AI-powered M365 security, data protection, compliance, and security awareness services for SMBs and MSPs. https://t.co/bJGtGUskjtThis… pic.twitter.com/qPPyhtsEi7— Sumit Dhawan (@sumit_dhawan) May 15, 2025 Wie Hornetsecurity Proofpoint bereichert Hornetsecurity ist darauf spezialisiert, Microsoft-365-Produkte abzusichern. Das bisherige Flaggschiffprodukt des im Jahr 2007 gegründeten Unternehmens ist die Sicherheitssuite “365 Total Protection”. Sie verspricht, sämtliche Security-, Risiko-, Governance-, Compliance- und Backup-Aspekte in Zusammenhang mit Microsoft-Umgebungen abzudecken. Hornetsecurity bedient mit seinen Lösungen mehr als 12.000 Vertriebspartner und Managed Service Provider sowie rund 125.000 KMU in ganz Europa. Proofpoint dürfte dabei auch von der Akquisitionsstrategie von Hornetsecurity profitieren: Die Hannoveraner haben in den vergangenen Jahren selbst diverse Zukäufe getätigt (etwa mit Vade, Altospam, IT-Seal oder Zerospam). “Mit Hornetsecurity bereichert ein hoch performantes Unternehmen künftig das Portfolio von Proofpoint”, heißt in der Pressemitteilung der US-Amerikaner zur Übernahme. Als Beleg dafür führt Proofpoint unter anderem das jährliche Wachstum des deutschen Sicherheitsanbieters von mehr als 20 Prozent sowie seinen wiederkehrenden Jahresumsatz von mehr als 160 Millionen Dollar an. “Es ist eine interessante Entwicklung, dass Proofpoint sich diversifiziert und neben seinem Brot-und-Butter-Enterprise-Geschäft nun auch darauf setzt, kleine und mittlere Firmen zu adressieren”, konstatiert David Shipley, CEO und Mitbegründer des Proofpoint-Konkurrenten Beauceron Security. Er fügt hinzu: “Wahrscheinlich sind die Vertriebspartner von Hornetsecurity und die aktuellen Umsätze des Unternehmens für Proofpoint gleichermaßen attraktive Bestandteile dieses Deals.” “Die KI-gestützte Sicherheitsplattform von Hornetsecurity ermöglicht es Tausenden von MSPs, ihren KMU-Kunden in ganz Europa Schutz auf Enterprise-Niveau zu bieten. Durch den Zusammenschluss können wir unsere Partner und Kunden besser bedienen und den Schutz global ausweiten, um MSPs weltweit dabei zu helfen, die Mitarbeiter, Daten und Prozesse ihrer Kunden zu schützen”, kommentiert Daniel Hofmann, Gründer und CEO von Hornetsecurity, den Deal. Die Übernahme soll in der zweiten Jahreshälfte 2025 abgeschlossen werden. Wie Hornetsecurity mitteilt, sollen sowohl CEO Hoffman als auch das übrige Management-Team an Bord bleiben. Proofpoint rüstet sich Proofpoint fährt aktuell eine aggressive Akquisitionsstrategie und hat zudem Anfang 2025 angekündigt, seine Partnerschaft mit Microsoft zu vertiefen. Dabei dürfte auch eine Rolle spielen, dass der Sicherheitsanbieter Medienberichten zufolge für 2026 erneut einen Gang an die Börse plant. Der Kauf von Hornetsecurity steht im Einklang mit dem anhaltenden Konsolidierungstrend am Sicherheitsmarkt: Im März 2025 überraschte Google mit der Ankündigung, das Cloud-Sicherheitsunternehmen Wiz nun doch übernehmen zu wollen – für 32 Milliarden Dollar. Unterdessen erwarb Palo Alto Networks Ende April 2025 das KI- und ML-Sicherheitsunternehmen Protect AI für rund 700 Millionen Dollar. Cisco investierte 2024 satte 28 Milliarden Dollar in die Übernahme der Cloud-Sicherheitsplattform Splunk. Das Investment-Unternehmen Thoma Bravo (das 2021 auch Proofpoint für mehr als 12 Milliarden Dollar gekauft hatte) konnte sich im Oktober 2024 für 5,3 Milliarden Dollar auch den KI-Sicherheitsspezialisten Darktrace einverleiben. “Diese Akquisitionen begründen sich im Wesentlichen in zwei Faktoren: Innovation durch Übernahmen zu schaffen und Wachstum durch strategische Marktdurchdringung zu beschleunigen”, analysiert Jimmie Lee, CEO und Gründer der Unternehmensberatung JLEE & Associates. In zunehmend wettbewerbsintensiven Märkten gelte es für große Unternehmen, schnell zu handeln, so der Berater: “Ohne Übernahmen kann es Jahre dauern, bis man in neue Bereiche expandieren kann.” Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Proofpoint übernimmt Hornetsecurity​ Der US-Sicherheitsanbieter Proofpoint will mit der Übernahme von Hornetsecurity seinen “Wirkungskreis” auch auf kleine und mittlere Unternehmen ausweiten.JHVEPhoto | shutterstock.com

Der amerikanische Cybersecurity-Riese Proofpoint hat bekanntgegeben, die Hannoveraner Hornetsecurity Group übernehmen zu wollen. Medienberichten zufolge sollen die Amerikaner für den deutschen E-Mail-Security-Spezialisten über eine Milliarde Dollar locker machen. Damit wäre die Akquisition von Hornetsecurity der bislang größte Zukauf in der Historie von Proofpoint.

Mit dem Kauf des deutschen Sicherheitsunternehmens weitet das US-Unternehmen seine Zielgruppe von Großkonzernen nun auch auf kleine und mittlere Unternehmen (KMU) aus, wie auch Proofpoint-CEO Sumit Dhawan in einem X-Post zum Deal andeutet:

I am thrilled to share the news that @Proofpoint has entered a definitive agreement to acquire @Hornetsecurity, a pan-European leader in AI-powered M365 security, data protection, compliance, and security awareness services for SMBs and MSPs. https://t.co/bJGtGUskjtThis… pic.twitter.com/qPPyhtsEi7— Sumit Dhawan (@sumit_dhawan) May 15, 2025

Wie Hornetsecurity Proofpoint bereichert

Hornetsecurity ist darauf spezialisiert, Microsoft-365-Produkte abzusichern. Das bisherige Flaggschiffprodukt des im Jahr 2007 gegründeten Unternehmens ist die Sicherheitssuite “365 Total Protection”. Sie verspricht, sämtliche Security-, Risiko-, Governance-, Compliance- und Backup-Aspekte in Zusammenhang mit Microsoft-Umgebungen abzudecken. Hornetsecurity bedient mit seinen Lösungen mehr als 12.000 Vertriebspartner und Managed Service Provider sowie rund 125.000 KMU in ganz Europa. Proofpoint dürfte dabei auch von der Akquisitionsstrategie von Hornetsecurity profitieren: Die Hannoveraner haben in den vergangenen Jahren selbst diverse Zukäufe getätigt (etwa mit Vade, Altospam, IT-Seal oder Zerospam).

“Mit Hornetsecurity bereichert ein hoch performantes Unternehmen künftig das Portfolio von Proofpoint”, heißt in der Pressemitteilung der US-Amerikaner zur Übernahme. Als Beleg dafür führt Proofpoint unter anderem das jährliche Wachstum des deutschen Sicherheitsanbieters von mehr als 20 Prozent sowie seinen wiederkehrenden Jahresumsatz von mehr als 160 Millionen Dollar an.

“Es ist eine interessante Entwicklung, dass Proofpoint sich diversifiziert und neben seinem Brot-und-Butter-Enterprise-Geschäft nun auch darauf setzt, kleine und mittlere Firmen zu adressieren”, konstatiert David Shipley, CEO und Mitbegründer des Proofpoint-Konkurrenten Beauceron Security. Er fügt hinzu: “Wahrscheinlich sind die Vertriebspartner von Hornetsecurity und die aktuellen Umsätze des Unternehmens für Proofpoint gleichermaßen attraktive Bestandteile dieses Deals.”

“Die KI-gestützte Sicherheitsplattform von Hornetsecurity ermöglicht es Tausenden von MSPs, ihren KMU-Kunden in ganz Europa Schutz auf Enterprise-Niveau zu bieten. Durch den Zusammenschluss können wir unsere Partner und Kunden besser bedienen und den Schutz global ausweiten, um MSPs weltweit dabei zu helfen, die Mitarbeiter, Daten und Prozesse ihrer Kunden zu schützen”, kommentiert Daniel Hofmann, Gründer und CEO von Hornetsecurity, den Deal.

Die Übernahme soll in der zweiten Jahreshälfte 2025 abgeschlossen werden. Wie Hornetsecurity mitteilt, sollen sowohl CEO Hoffman als auch das übrige Management-Team an Bord bleiben.

Proofpoint rüstet sich

Proofpoint fährt aktuell eine aggressive Akquisitionsstrategie und hat zudem Anfang 2025 angekündigt, seine Partnerschaft mit Microsoft zu vertiefen. Dabei dürfte auch eine Rolle spielen, dass der Sicherheitsanbieter Medienberichten zufolge für 2026 erneut einen Gang an die Börse plant.

Der Kauf von Hornetsecurity steht im Einklang mit dem anhaltenden Konsolidierungstrend am Sicherheitsmarkt:

Im März 2025 überraschte Google mit der Ankündigung, das Cloud-Sicherheitsunternehmen Wiz nun doch übernehmen zu wollen – für 32 Milliarden Dollar.

Unterdessen erwarb Palo Alto Networks Ende April 2025 das KI- und ML-Sicherheitsunternehmen Protect AI für rund 700 Millionen Dollar.

Cisco investierte 2024 satte 28 Milliarden Dollar in die Übernahme der Cloud-Sicherheitsplattform Splunk.

Das Investment-Unternehmen Thoma Bravo (das 2021 auch Proofpoint für mehr als 12 Milliarden Dollar gekauft hatte) konnte sich im Oktober 2024 für 5,3 Milliarden Dollar auch den KI-Sicherheitsspezialisten Darktrace einverleiben.

“Diese Akquisitionen begründen sich im Wesentlichen in zwei Faktoren: Innovation durch Übernahmen zu schaffen und Wachstum durch strategische Marktdurchdringung zu beschleunigen”, analysiert Jimmie Lee, CEO und Gründer der Unternehmensberatung JLEE & Associates. In zunehmend wettbewerbsintensiven Märkten gelte es für große Unternehmen, schnell zu handeln, so der Berater: “Ohne Übernahmen kann es Jahre dauern, bis man in neue Bereiche expandieren kann.”

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Proofpoint übernimmt Hornetsecurity​ Weiterlesen »

Was Ernst & Young über GenAI in Unternehmen denkt​

Allgemein

KI in der Softwareentwicklung: Mehr Effizienz, aber kein Jobkiller. Zu diesem Schluss kommt Julie Teigland von Ernst & Young.Ernst & Young Generative KI (GenAI) verspricht Unternehmen erhebliche Effizienz- und Kostenvorteile, insbesondere im Bereich der Automatisierung. Unternehmen setzten sie jedoch noch zögerlich ein, da sie erhebliche Probleme wie fehlerhaften Antworten, Datenfragmentierung und Fachkräftemangel hat. Unsere US-Schwesterpublikation Computerworld sprach mit Julie Teigland, Managing Partner und Global Vice Chair für Allianzen und Ökosysteme beim Beratungsunternehmen Ernst & Young (EY), darüber, warum GenAI sowie verwandte Technologien noch nicht so weit verbreitet sind und wie Unternehmen ihren KI-Sweetspot finden können. Im Jahr 2024 stellte sie fest, dass Künstliche Intelligenz (KI) bei vielen CEOs noch Thema experimenteller Pilotprojekte war. „Ich denke, das hat sich geändert. Ich denke, KI wird breiter aufgestellt“, so Teigland. Wirtschaftliche Unsicherheit führt zu Investitionszurückhaltung Inzwischen entwickelt sich KI zunehmend zum Mainstream und wird branchenweit strategisch eingesetzt, so die Global Vice Chair. Dennoch bestehe weiterhin Zurückhaltung – die Technologie sei noch nicht flächendeckend angenommen.          Drei zentrale Hürden bremsen den breiten Einsatz von KI in Unternehmen allerdings noch: fehlende Fachkräfte unstrukturierte und schwer nutzbare Daten sowie hohe Infrastrukturkosten. Auch angesichts wirtschaftlicher Unsicherheit agieren viele Unternehmen vorsichtig und prüfen Investitionen sorgfältig, bevor sie in KI-Lösungen investieren. Dabei werde es aber nicht bleiben, meint Teigland: „Ich glaube nicht, dass das Risiko sie [die Unternehmen] davon abhalten wird, aber ich denke, es lässt sie innehalten.“ Daten- und KI-Expertise bleibt stark gefragt Zugleich würden Unternehmen, auch EY selbst, nach Data und AI Scientists suchen. Diese Berufe seien nach wie vor äußerst gefragt, da Daten die Grundlage für den Einsatz von KI bilden. Zudem bleibe laut Teigland die Qualifikationslücke in der Datenwissenschaft weiterhin groß. Ein mögliche Lösung sieht die Expertin in Kooperationen: „Ich sehe Unternehmen, die sich mit anderen Unternehmen zusammentun, um sicherzustellen, dass sie alles Verfügbare nutzen, von Gig-Workern über die Nutzung von Hyperscalern bis hin zu Partnerschaften für gemeinsame Projekte, um Dinge zu realisieren.” Das sei zwar nicht das verbreitetste Erfolgsrezept, aber sie sehe, dass das im Markt gemacht wird. Eine weitere mögliche Strategie, um dem Fachkräftemangel bei der Umsetzung zu begegnen, ist, auf die Unterstützung Dritter zurückzugreifen. Anschließend gilt es aber auch, die Lösungen längerfristig zu betrieben, sodass auch diese Aufgabe ausgelagert werden müsste. Effizienzgewinn ohne Jobverlust Auf die Frage, wie sich KI auf Arbeitsplätze in der Softwareentwicklung auswirken werde, antworte die Managerin, dass momentan „Vibe Coding“ sehr verbreitet sei. Hierbei sagen die Menschen GenAI, was sie mit dem Code erreichen wollen. Die Chatbots legen dann einfach los und setzen es um. Diser Trend steckt aber noch in den Kinderschuhen. Teigland; „Ich denke, es wird viel weniger Standard-Basiscode geben. Aber seien wir ehrlich, wenn dieser Code herauskommt, muss er immer noch überprüft, überarbeitet und angepasst werden. Der Code, den KI produziert, ist nicht perfekt, und ich weiß, dass wir bei EY experimentiert haben. Es gibt also auch hier einen Qualitätsaspekt. KI-Tools ermöglichen es uns, viel effizienter zu programmieren, aber das bedeutet noch nicht, dass wir die [Entwickler] entlassen können. Im Moment erlaubt man den Leuten nur zu erforschen, was sie mit der Technologie machen können.“ Bei Ernst & Young werden bereits so viele KI-Tools wie möglich genutzt, um die Effizienz zu steigern und die Einsatzmöglichkeiten zu erkunden. EY müsse alles erst einmal selbst ausprobiert haben, bevor die Berater Kunden nahelegen können, selbst ein KI-Projekt zu starten.  ROI bleibt zentrale Herausforderung für KI Für Unternehmen ist allerdings auch wichtig, dass der Return of Investment (ROI) sich lohnt. Laut Teigland habe KI bereits zu spürbaren Produktivitätssteigerungen geführt. Hervorzuheben sei hierbei, dass sie Mitarbeitende bei Routineaufgaben unterstütze und ihnen mehr Raum für kreative Arbeit lasse. Auch hier stünden Unternehmen jedoch noch am Anfang, so dass sich der ROI noch nicht klar quantifizieren ließe. Entscheidend sei, ob die Produktivitätsgewinne groß genug sind, um die nötigen Investitionen – etwa in Fachkräfte mit KI-Kenntnissen, Infrastruktur und unternehmensweiten Datenzugang – zu rechtfertigen. Wie das Fließband Der ROI für KI-Einsätze sei umso leichter messbar, je konkreter der Anwendungsfall ist. Besonders im Gesundheitswesen zeigen sich bereits klare Produktivitätsgewinne durch den Einsatz von KI in Bereichen wie Dokumentation, Patientenmanagement und Lieferkettenanalyse. Auch in Forschung und Entwicklung sowie der Pharmaindustrie gebe es Fortschritte, auch wenn das volle Potenzial noch nicht erreicht sei, so Teigland. Eine vollständige Automatisierung durch KI liege zudem noch in weiter Ferne. Zugleich bezeichnet Teigland KI als eine revolutionäre Technologie, die tiefgreifender wirkt als frühere Innovationen. Besonders im Bereich der professionellen Dienstleistungen werde sie die Denk- und Arbeitsweise grundlegend verändern. Ähnlich wie das Fließband die Autoindustrie revolutionierte, zwingt KI Unternehmen dazu, ihre Prozesse neu zu gestalten, so die Managerin. Dabei wird KI als zusätzliches Werkzeug gesehen, das zur Weiterentwicklung anregt, nicht als Ersatz für den bisherigen Nutzen professioneller Dienstleistungen wie Beratung und Transformation. Quantencomputer und KI im globalen Wettlauf Quantencomputing soll laut Teigland ein ähnlich leistungsfähiges Werkzeug wie KI sein, das jedoch auch nicht für alle Zwecke die ultimative Lösung ist. Laut der Beraterin könnten beide Technologien in Kombination jedoch bahnbrechend sein, besonders in Bereichen wie Medizin, Klimaschutz und Naturwissenschaften. KI verändere bereits heute Prozesse, den Umgang mit Daten und fördert intelligente Entscheidungen. Die Managing Partnerin kritisiert allerdings den Begriff „künstliche Intelligenz“. Sie hält „erweiterte Intelligenz“ für passender, da KI den Menschen unterstützt, aber (noch) nicht ersetzt. „Quantencomputer und künstliche Intelligenz sind im Moment in einem Wettlauf. Es gibt nur fünf Unternehmen auf der Welt, die dem wirklich nahe sind. Aber es wird kommen, und das wird wirklich aufregend werden“, ergänzt sie. Obwohl Quantencomputer nicht für alle Unternehmen notwendig seien, sieht Teigland diese als Schlüsseltechnologie der Zukunft. Erste Quantensysteme funktionieren bereits, einen Durchbruch mit neuen Berufsfeldern und einer nachhaltig veränderten Arbeitswelt erwartet sie in etwa 18 Monaten. 

Was Ernst & Young über GenAI in Unternehmen denkt​ KI in der Softwareentwicklung: Mehr Effizienz, aber kein Jobkiller. Zu diesem Schluss kommt Julie Teigland von Ernst & Young.Ernst & Young

Generative KI (GenAI) verspricht Unternehmen erhebliche Effizienz- und Kostenvorteile, insbesondere im Bereich der Automatisierung. Unternehmen setzten sie jedoch noch zögerlich ein, da sie erhebliche Probleme wie

fehlerhaften Antworten,

Datenfragmentierung und

Fachkräftemangel

hat.

Unsere US-Schwesterpublikation Computerworld sprach mit Julie Teigland, Managing Partner und Global Vice Chair für Allianzen und Ökosysteme beim Beratungsunternehmen Ernst & Young (EY), darüber, warum GenAI sowie verwandte Technologien noch nicht so weit verbreitet sind und wie Unternehmen ihren KI-Sweetspot finden können.

Im Jahr 2024 stellte sie fest, dass Künstliche Intelligenz (KI) bei vielen CEOs noch Thema experimenteller Pilotprojekte war. „Ich denke, das hat sich geändert. Ich denke, KI wird breiter aufgestellt“, so Teigland.

Wirtschaftliche Unsicherheit führt zu Investitionszurückhaltung

Inzwischen entwickelt sich KI zunehmend zum Mainstream und wird branchenweit strategisch eingesetzt, so die Global Vice Chair. Dennoch bestehe weiterhin Zurückhaltung – die Technologie sei noch nicht flächendeckend angenommen.         

Drei zentrale Hürden bremsen den breiten Einsatz von KI in Unternehmen allerdings noch:

fehlende Fachkräfte

unstrukturierte und schwer nutzbare Daten sowie

hohe Infrastrukturkosten.

Auch angesichts wirtschaftlicher Unsicherheit agieren viele Unternehmen vorsichtig und prüfen Investitionen sorgfältig, bevor sie in KI-Lösungen investieren.

Dabei werde es aber nicht bleiben, meint Teigland: „Ich glaube nicht, dass das Risiko sie [die Unternehmen] davon abhalten wird, aber ich denke, es lässt sie innehalten.“

Daten- und KI-Expertise bleibt stark gefragt

Zugleich würden Unternehmen, auch EY selbst, nach Data und AI Scientists suchen. Diese Berufe seien nach wie vor äußerst gefragt, da Daten die Grundlage für den Einsatz von KI bilden. Zudem bleibe laut Teigland die Qualifikationslücke in der Datenwissenschaft weiterhin groß.

Ein mögliche Lösung sieht die Expertin in Kooperationen: „Ich sehe Unternehmen, die sich mit anderen Unternehmen zusammentun, um sicherzustellen, dass sie alles Verfügbare nutzen, von Gig-Workern über die Nutzung von Hyperscalern bis hin zu Partnerschaften für gemeinsame Projekte, um Dinge zu realisieren.” Das sei zwar nicht das verbreitetste Erfolgsrezept, aber sie sehe, dass das im Markt gemacht wird.

Eine weitere mögliche Strategie, um dem Fachkräftemangel bei der Umsetzung zu begegnen, ist, auf die Unterstützung Dritter zurückzugreifen. Anschließend gilt es aber auch, die Lösungen längerfristig zu betrieben, sodass auch diese Aufgabe ausgelagert werden müsste.

Effizienzgewinn ohne Jobverlust

Auf die Frage, wie sich KI auf Arbeitsplätze in der Softwareentwicklung auswirken werde, antworte die Managerin, dass momentan „Vibe Coding“ sehr verbreitet sei. Hierbei sagen die Menschen GenAI, was sie mit dem Code erreichen wollen. Die Chatbots legen dann einfach los und setzen es um.

Diser Trend steckt aber noch in den Kinderschuhen. Teigland; „Ich denke, es wird viel weniger Standard-Basiscode geben. Aber seien wir ehrlich, wenn dieser Code herauskommt, muss er immer noch überprüft, überarbeitet und angepasst werden. Der Code, den KI produziert, ist nicht perfekt, und ich weiß, dass wir bei EY experimentiert haben. Es gibt also auch hier einen Qualitätsaspekt. KI-Tools ermöglichen es uns, viel effizienter zu programmieren, aber das bedeutet noch nicht, dass wir die [Entwickler] entlassen können. Im Moment erlaubt man den Leuten nur zu erforschen, was sie mit der Technologie machen können.“

Bei Ernst & Young werden bereits so viele KI-Tools wie möglich genutzt, um die Effizienz zu steigern und die Einsatzmöglichkeiten zu erkunden. EY müsse alles erst einmal selbst ausprobiert haben, bevor die Berater Kunden nahelegen können, selbst ein KI-Projekt zu starten. 

ROI bleibt zentrale Herausforderung für KI

Für Unternehmen ist allerdings auch wichtig, dass der Return of Investment (ROI) sich lohnt. Laut Teigland habe KI bereits zu spürbaren Produktivitätssteigerungen geführt. Hervorzuheben sei hierbei, dass sie Mitarbeitende bei Routineaufgaben unterstütze und ihnen mehr Raum für kreative Arbeit lasse.

Auch hier stünden Unternehmen jedoch noch am Anfang, so dass sich der ROI noch nicht klar quantifizieren ließe. Entscheidend sei, ob die Produktivitätsgewinne groß genug sind, um die nötigen Investitionen – etwa in Fachkräfte mit KI-Kenntnissen, Infrastruktur und unternehmensweiten Datenzugang – zu rechtfertigen.

Wie das Fließband

Der ROI für KI-Einsätze sei umso leichter messbar, je konkreter der Anwendungsfall ist. Besonders im Gesundheitswesen zeigen sich bereits klare Produktivitätsgewinne durch den Einsatz von KI in Bereichen wie

Dokumentation,

Patientenmanagement und

Lieferkettenanalyse.

Auch in Forschung und Entwicklung sowie der Pharmaindustrie gebe es Fortschritte, auch wenn das volle Potenzial noch nicht erreicht sei, so Teigland. Eine vollständige Automatisierung durch KI liege zudem noch in weiter Ferne.

Zugleich bezeichnet Teigland KI als eine revolutionäre Technologie, die tiefgreifender wirkt als frühere Innovationen. Besonders im Bereich der professionellen Dienstleistungen werde sie die Denk- und Arbeitsweise grundlegend verändern.

Ähnlich wie das Fließband die Autoindustrie revolutionierte, zwingt KI Unternehmen dazu, ihre Prozesse neu zu gestalten, so die Managerin. Dabei wird KI als zusätzliches Werkzeug gesehen, das zur Weiterentwicklung anregt, nicht als Ersatz für den bisherigen Nutzen professioneller Dienstleistungen wie Beratung und Transformation.

Quantencomputer und KI im globalen Wettlauf

Quantencomputing soll laut Teigland ein ähnlich leistungsfähiges Werkzeug wie KI sein, das jedoch auch nicht für alle Zwecke die ultimative Lösung ist. Laut der Beraterin könnten beide Technologien in Kombination jedoch bahnbrechend sein, besonders in Bereichen wie

Medizin,

Klimaschutz und

Naturwissenschaften.

KI verändere bereits heute Prozesse, den Umgang mit Daten und fördert intelligente Entscheidungen. Die Managing Partnerin kritisiert allerdings den Begriff „künstliche Intelligenz“. Sie hält „erweiterte Intelligenz“ für passender, da KI den Menschen unterstützt, aber (noch) nicht ersetzt.

„Quantencomputer und künstliche Intelligenz sind im Moment in einem Wettlauf. Es gibt nur fünf Unternehmen auf der Welt, die dem wirklich nahe sind. Aber es wird kommen, und das wird wirklich aufregend werden“, ergänzt sie.

Obwohl Quantencomputer nicht für alle Unternehmen notwendig seien, sieht Teigland diese als Schlüsseltechnologie der Zukunft. Erste Quantensysteme funktionieren bereits, einen Durchbruch mit neuen Berufsfeldern und einer nachhaltig veränderten Arbeitswelt erwartet sie in etwa 18 Monaten.

Was Ernst & Young über GenAI in Unternehmen denkt​ Weiterlesen »

Zwischen Public Clouds migrieren – so geht‘s​

Allgemein

Keine (Public) Cloud ist für die Ewigkeit. Mit diesen Best Practices gelingt die Cloud-zu-Cloud-Migration.Sinesp | shutterstock.com In der Vergangenheit war Cloud-Migration vor allem ein Synonym dafür, lokale Workloads in Public-Cloud-Infrastrukturen zu verlagern. Zu diesem Zweck gibt es auch jede Menge unterstützende Leitfäden und Tools. Mittlerweile ist rund die Hälfte aller Unternehmen in der Public Cloud angekommen – nur um mit einer neuen Migrationsherausforderung konfrontiert zu werden: Wie lassen sich Workloads optimal von einer Public Cloud in eine andere verschieben? Cloud-zu-Cloud-Migrationen sind für die meisten Anwender absolutes Neuland. Leider stehen hilfreiche, unterstützende Ressourcen zu diesem Thema ebenfalls nur in überschaubarem Umfang zur Verfügung. Zwar bieten einige Cloud-Anbieter dedizierte Tools (etwa Azure Migrate oder AWS Server Migration Service), mit denen bestimmte Objekttypen zwischen Clouds migriert werden können. Diese lassen jedoch komplexe Probleme außen vor, die beispielsweise entstehen, wenn Netzwerke neu konfiguriert oder Hunderte von Terabyte an Daten mit begrenzter Bandbreite übertragen werden müssen. Mit diesem Artikel möchte ich Business-Anwendern auf Grundlage meiner Cloud-Expertise eine Hilfestellung an die Hand geben, um möglichst reibungslos von einer Public Cloud in eine andere zu migrieren. Dazu blicken wir zunächst auf die Gründe für solche Migrationsvorhaben sowie die Problemstellungen, die dabei entstehen können. Abschließend geben wir Ihnen einige Best Practices für Cloud-zu-Cloud-Migrationen an die Hand. Warum Unternehmen die Public Cloud wechseln Es gibt verschiedene Gründe, warum Unternehmen von einer Public Cloud in eine andere wechseln wollen – oder müssen. Zum Beispiel, weil: nach einer Übernahme oder Fusion mehrere Cloud-Instanzen genutzt werden, die im Rahmen einer IT-Umstrukturierung in einer Plattform konsolidiert werden sollen. eine spezifische Public Cloud aufgrund ihres Preisgefüges, ihrer Performance oder den verfügbaren Standorten nicht mehr optimal geeignet ist, sodass ein Wechsel zu einer alternativen Public-Cloud-Plattform nötig wird. Auch wenn ein Multicloud-Ansatz an dieser Stelle einige Flexibilitäts- und Kostenvorteile erschließen könnte, er bringt auch Nachteile mit sich. Ein ganz wesentlicher ist die zusätzliche Komplexität: Mehrere Clouds zu nutzen, bedeutet auch zusätzliche Ressourcen überwachen und managen zu müssen – und erfordert außerdem zusätzliche Tools, um sämtliche potenziellen Performance- und Security-Probleme identifizieren zu können. Und dann haben wir noch nicht über die dafür nötigen IT-Experten gesprochen. Deshalb ist es für diverse Anwenderunternehmen attraktiver, sich auf eine Public Cloud zu fokussieren – statt zu versuchen, mehrere verschiedene zu nutzen.   Scott Wheeler ist Cloud Practice Lead bei Asperitas Consulting.Scott Wheeler 5 Cloud-zu-Cloud-Migrationshürden Auf den ersten Blick scheint es nicht besonders diffizil, von einer Public Cloud in eine andere zu wechseln. Schließlich bieten sämtliche Public Clouds in etwa dieselben Kern-Services und basieren auf denselben Konzepten. Auf den zweiten Blick erkennt man jedoch schnell, dass Public-Cloud-Plattformen weit weniger einheitlich sind, als sie zunächst scheinen. Die folgenden Hürden können eine Cloud-zu-Cloud-Migration erschweren – oder zumindest verlangsamen: 1. Service-Differenzen Obwohl die grundlegenden Arten von Services, die Public Clouds bieten, weitgehend identisch sind, gibt es mit Blick auf die Implementierung Unterschiede. Einen Workload von einer Cloud in die andere zu verschieben und einfach davon auszugehen, dass alles einwandfrei funktioniert, kann deshalb zu bösen Überraschungen führen. Sie sollten davon ausgehen, Ihre Konfigurationen anpassen zu müssen. Nehmen wir als Beispiel CosmosDB und DynamoDB: Es handelt sich um verwaltete NoSQL-Datenbanken, die auf Azure, beziehungsweise AWS bereitgestellt werden. Auf hoher Ebene erfüllen sie denselben Zweck. Im Hintergrund werden Prozesse wie Datenreplikation oder -indizierung jedoch unterschiedlich gehandhabt. Auch preislich unterscheiden sich die Angebote. Und es gibt keine Garantie dafür, dass eine Konfiguration, die die Performance für CosmosDB optimiert, das auch im Fall von DynamoDB (in gleichem Maße) tut. Aus diesem (und weiteren) Gründen ist es nicht ratsam, Daten aus Cosmos zu extrahieren und einfach in DynamoDB zu übertragen. Stattdessen steht ein komplexer Migrationsprozess an, bei dem die Daten offline genommen, transformiert und anschließend übertragen werden müssen. Das erfordert möglicherweise auch umfassende Änderungen an Konfigurationen und Datenstrukturen. 2. Latenz-Challenges Wie schnell Daten innerhalb einer Public-Cloud-Instanz verschoben werden können, hängt in hohem Maße davon ab, wo sich der spezifische Workload oder Service befindet. Daten zwischen Cloud-Regionen auf demselben Kontinent zu verschieben, ist in der Regel mit geringeren Latenzen verbunden als bei einer interkontinentalen Datenübertragung. Weil sich die Regionen der einzelnen Cloud-Anbieter jedoch mit Blick auf die jeweilige Verortung der Rechenzentren unterscheiden, kann die Latenz nach einer Cloud-Migration zu einem Problem werden, wenn die Regionen in der neuen Cloud nicht sorgfältig ausgewählt und konfiguriert werden.   Latenzprobleme können auch auftreten, wenn ein Unternehmen SaaS-Dienste oder lokale Anwendungen nutzt, die nicht in der Cloud gehostet werden – dabei aber Daten über Public-Cloud-Ressourcen gesendet oder empfangen werden müssen. In diesem Fall kann die Entfernung des Rechenzentrums zum Standort, an dem SaaS- und lokale Ressourcen gehostet sind, die Übertragungsgeschwindigkeit beeinträchtigen und damit Netzwerkverzögerungen begünstigen. Es ist deshalb essenziell, die Cloud-Abhängigkeiten und -Wechselwirkungen mit Blick auf die gesamte IT-Umgebung des Unternehmens zu verstehen. 3. Automatisierungs-Umschwung Um ihre Kunden dabei zu unterstützen, Workloads zu integrieren und Daten zu migrieren, bieten die Cloud-Provider Automatisierungs-Tools an. Diese sind im Regelfall mit weiteren Tools verbunden, die ausschließlich in der jeweiligen Cloud-Umgebung funktionieren – und von deren jeweiligen Konfigurationseinstellungen und Sprachen abhängig sind. Auch in diesem Bereich ist es nicht möglich, die Tools einfach von einer Public Cloud in die andere zu schieben. Vielmehr müssen diese übersetzt oder neu erstellt werden – es sei denn, es handelt sich um Cloud-unabhängige Lösungen von Drittanbietern. Selbst in diesem Fall ist die Wahrscheinlichkeit jedoch hoch, dass zumindest die entsprechenden Konfigurationen aktualisiert werden müssen. 4. Kosten-Explosionen Selbst bei vergleichbaren Service-Typen kann deren Preisgestaltung erheblich von Anbieter zu Anbieter variieren. Eine Workload-Konfiguration, die in einer Cloud aus Preis-Leistungs-Perspektive optimal ist, kann deshalb in einer anderen suboptimal sein. Das kann potenziell zu massiver Geldverschwendung führen, wenn die Konfiguration im Rahmen des Migrationsprozesses nicht an die neue Preisstruktur angepasst wird. 5. Bandbreiten-Einschränkungen Die einfachste Möglichkeit, Daten während einer Migration von einer Public Cloud in eine andere zu verschieben, führt über eine VPN-Verbindung. Leider wird dabei das öffentliche Internet der Cloud-Anbieter genutzt, was die Datenübertragungsleistung einschränkt. Außerdem kann das im Fall von großen Datenmengen wesentlich teurer ausfallen als eine dedizierte Verbindung. Sollen bei einer Cloud-zu-Cloud-Migration also viele Terabyte an Daten übertragen werden, kann das erhebliche logistische und finanzielle Hürden aufwerfen. 5 Best Practices, um zwischen Public Clouds zu migrieren Eine Zauberformel – oder zumindest eine spezielle Migrationssoftware – für Cloud-zu-Cloud-Migrationen wäre toll, ist aber nicht existent. Unabhängig davon, wie genau Sie vorgehen, ist eines sicher: Von einer Public Cloud in eine andere zu wechseln, ist komplex und erfordert jede Menge Zeit und Aufwand. Allerdings gibt es aus meiner Sicht einige Best Practices, die Sie einsetzen können, um diesen Prozess so reibungslos wie möglich zu gestalten: 1. Besser planen Eine möglichst sorgfältige Planung ist in Zusammenhang mit Cloud-zu-Cloud-Migrationen das A und O. Entwickeln Sie belastbare Strategien, testen Sie diese mit Dummy-Workloads und finden Sie heraus, was funktioniert und was nicht. Je mehr Zeit Sie für den Planungsprozess aufwenden, desto geringer ist das Risiko, während der Migration auf unerwartete Hindernisse zu stoßen. 2. Realistische Zeitpläne definieren Zeitpläne, die auf realistischen Erwartungen beruhen, sind von Seiten des Managements des Öfteren nicht zu erwarten, weil die Führungskräfte in der Regel die Feinheiten solcher Migrationsprojekte nicht auf dem Schirm haben. Deshalb empfiehlt es sich, von vorneherein transparent zu kommunizieren, wenn es um die Dauer eines Migrationsvorhabens geht. Die schlechte Alternative wäre, dem Management Dinge zu versprechen, die nicht gehalten werden können – und den Zeitplan während der Migration immer wieder anzupassen. 3. Unkritische Workloads zuerst Starten Sie eine Cloud-zu-Cloud-Migration nicht mit Business-kritischen Workloads. Fokussieren Sie sich lieber auf solche, die sich in der Entwicklungs- oder Testphase befinden. Wenn aufgrund einer Planungslücke etwas schiefgeht, machen sich Probleme bei unkritischen Workloads „besser“. Geschäftskritische Applikationen und Daten sollten sie für eine spätere Migrationsphase „reservieren“. 4. Neue Deployments pausieren Ein wichtiger, aber regelmäßig übersehener Aspekt bei der Cloud-zu-Cloud-Migration: Neue Deployments für Anwendungen sowie Änderungen an Plattformen oder Konfigurationen sollten während des Migrationsprozesses auf Eis gelegt werden. Angenommen die Entwickler stellen die neue Version einer Anwendung in einer Cloud bereit, während das IT-Team gerade dabei ist, die ältere Version in eine andere Cloud zu verschieben: In diesem Fall müssten Sie die Migration komplett wiederholen und sämtliche Änderungen, die während der Migration an einer Cloud-Plattform vorgenommen werden, in der neuen Plattform reproduzieren. 5. Interconnection-Services nutzen Die Internetverbindungen zwischen Public Clouds sind relativ langsam. Eine Möglichkeit, die Bandbreite zu erhöhen – und damit die Migration von Cloud zu Cloud zu beschleunigen – führt über Cloud-Interconnections. Diese Lösungen (wie sie beispielsweise Megaport, NuSummit oder Equinix anbieten) bieten dedizierte Verbindungen zwischen Clouds mit hoher Bandbreite. Das ermöglicht, Daten wesentlich schneller zu migrieren. Der Nachteil: Interconnection-Services sind nicht billig. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Zwischen Public Clouds migrieren – so geht‘s​ Keine (Public) Cloud ist für die Ewigkeit. Mit diesen Best Practices gelingt die Cloud-zu-Cloud-Migration.Sinesp | shutterstock.com

In der Vergangenheit war Cloud-Migration vor allem ein Synonym dafür, lokale Workloads in Public-Cloud-Infrastrukturen zu verlagern. Zu diesem Zweck gibt es auch jede Menge unterstützende Leitfäden und Tools. Mittlerweile ist rund die Hälfte aller Unternehmen in der Public Cloud angekommen – nur um mit einer neuen Migrationsherausforderung konfrontiert zu werden: Wie lassen sich Workloads optimal von einer Public Cloud in eine andere verschieben?

Cloud-zu-Cloud-Migrationen sind für die meisten Anwender absolutes Neuland. Leider stehen hilfreiche, unterstützende Ressourcen zu diesem Thema ebenfalls nur in überschaubarem Umfang zur Verfügung. Zwar bieten einige Cloud-Anbieter dedizierte Tools (etwa Azure Migrate oder AWS Server Migration Service), mit denen bestimmte Objekttypen zwischen Clouds migriert werden können. Diese lassen jedoch komplexe Probleme außen vor, die beispielsweise entstehen, wenn Netzwerke neu konfiguriert oder Hunderte von Terabyte an Daten mit begrenzter Bandbreite übertragen werden müssen.

Mit diesem Artikel möchte ich Business-Anwendern auf Grundlage meiner Cloud-Expertise eine Hilfestellung an die Hand geben, um möglichst reibungslos von einer Public Cloud in eine andere zu migrieren. Dazu blicken wir zunächst auf die Gründe für solche Migrationsvorhaben sowie die Problemstellungen, die dabei entstehen können. Abschließend geben wir Ihnen einige Best Practices für Cloud-zu-Cloud-Migrationen an die Hand.

Warum Unternehmen die Public Cloud wechseln

Es gibt verschiedene Gründe, warum Unternehmen von einer Public Cloud in eine andere wechseln wollen – oder müssen. Zum Beispiel, weil:

nach einer Übernahme oder Fusion mehrere Cloud-Instanzen genutzt werden, die im Rahmen einer IT-Umstrukturierung in einer Plattform konsolidiert werden sollen.

eine spezifische Public Cloud aufgrund ihres Preisgefüges, ihrer Performance oder den verfügbaren Standorten nicht mehr optimal geeignet ist, sodass ein Wechsel zu einer alternativen Public-Cloud-Plattform nötig wird.

Auch wenn ein Multicloud-Ansatz an dieser Stelle einige Flexibilitäts- und Kostenvorteile erschließen könnte, er bringt auch Nachteile mit sich. Ein ganz wesentlicher ist die zusätzliche Komplexität: Mehrere Clouds zu nutzen, bedeutet auch zusätzliche Ressourcen überwachen und managen zu müssen – und erfordert außerdem zusätzliche Tools, um sämtliche potenziellen Performance- und Security-Probleme identifizieren zu können. Und dann haben wir noch nicht über die dafür nötigen IT-Experten gesprochen.

Deshalb ist es für diverse Anwenderunternehmen attraktiver, sich auf eine Public Cloud zu fokussieren – statt zu versuchen, mehrere verschiedene zu nutzen.  

Scott Wheeler ist Cloud Practice Lead bei Asperitas Consulting.Scott Wheeler

5 Cloud-zu-Cloud-Migrationshürden

Auf den ersten Blick scheint es nicht besonders diffizil, von einer Public Cloud in eine andere zu wechseln. Schließlich bieten sämtliche Public Clouds in etwa dieselben Kern-Services und basieren auf denselben Konzepten. Auf den zweiten Blick erkennt man jedoch schnell, dass Public-Cloud-Plattformen weit weniger einheitlich sind, als sie zunächst scheinen.

Die folgenden Hürden können eine Cloud-zu-Cloud-Migration erschweren – oder zumindest verlangsamen:

1. Service-Differenzen

Obwohl die grundlegenden Arten von Services, die Public Clouds bieten, weitgehend identisch sind, gibt es mit Blick auf die Implementierung Unterschiede. Einen Workload von einer Cloud in die andere zu verschieben und einfach davon auszugehen, dass alles einwandfrei funktioniert, kann deshalb zu bösen Überraschungen führen. Sie sollten davon ausgehen, Ihre Konfigurationen anpassen zu müssen.

Nehmen wir als Beispiel CosmosDB und DynamoDB: Es handelt sich um verwaltete NoSQL-Datenbanken, die auf Azure, beziehungsweise AWS bereitgestellt werden. Auf hoher Ebene erfüllen sie denselben Zweck. Im Hintergrund werden Prozesse wie Datenreplikation oder -indizierung jedoch unterschiedlich gehandhabt. Auch preislich unterscheiden sich die Angebote. Und es gibt keine Garantie dafür, dass eine Konfiguration, die die Performance für CosmosDB optimiert, das auch im Fall von DynamoDB (in gleichem Maße) tut. Aus diesem (und weiteren) Gründen ist es nicht ratsam, Daten aus Cosmos zu extrahieren und einfach in DynamoDB zu übertragen. Stattdessen steht ein komplexer Migrationsprozess an, bei dem die Daten offline genommen, transformiert und anschließend übertragen werden müssen. Das erfordert möglicherweise auch umfassende Änderungen an Konfigurationen und Datenstrukturen.

2. Latenz-Challenges

Wie schnell Daten innerhalb einer Public-Cloud-Instanz verschoben werden können, hängt in hohem Maße davon ab, wo sich der spezifische Workload oder Service befindet. Daten zwischen Cloud-Regionen auf demselben Kontinent zu verschieben, ist in der Regel mit geringeren Latenzen verbunden als bei einer interkontinentalen Datenübertragung. Weil sich die Regionen der einzelnen Cloud-Anbieter jedoch mit Blick auf die jeweilige Verortung der Rechenzentren unterscheiden, kann die Latenz nach einer Cloud-Migration zu einem Problem werden, wenn die Regionen in der neuen Cloud nicht sorgfältig ausgewählt und konfiguriert werden.  

Latenzprobleme können auch auftreten, wenn ein Unternehmen SaaS-Dienste oder lokale Anwendungen nutzt, die nicht in der Cloud gehostet werden – dabei aber Daten über Public-Cloud-Ressourcen gesendet oder empfangen werden müssen. In diesem Fall kann die Entfernung des Rechenzentrums zum Standort, an dem SaaS- und lokale Ressourcen gehostet sind, die Übertragungsgeschwindigkeit beeinträchtigen und damit Netzwerkverzögerungen begünstigen. Es ist deshalb essenziell, die Cloud-Abhängigkeiten und -Wechselwirkungen mit Blick auf die gesamte IT-Umgebung des Unternehmens zu verstehen.

3. Automatisierungs-Umschwung

Um ihre Kunden dabei zu unterstützen, Workloads zu integrieren und Daten zu migrieren, bieten die Cloud-Provider Automatisierungs-Tools an. Diese sind im Regelfall mit weiteren Tools verbunden, die ausschließlich in der jeweiligen Cloud-Umgebung funktionieren – und von deren jeweiligen Konfigurationseinstellungen und Sprachen abhängig sind.

Auch in diesem Bereich ist es nicht möglich, die Tools einfach von einer Public Cloud in die andere zu schieben. Vielmehr müssen diese übersetzt oder neu erstellt werden – es sei denn, es handelt sich um Cloud-unabhängige Lösungen von Drittanbietern. Selbst in diesem Fall ist die Wahrscheinlichkeit jedoch hoch, dass zumindest die entsprechenden Konfigurationen aktualisiert werden müssen.

4. Kosten-Explosionen

Selbst bei vergleichbaren Service-Typen kann deren Preisgestaltung erheblich von Anbieter zu Anbieter variieren. Eine Workload-Konfiguration, die in einer Cloud aus Preis-Leistungs-Perspektive optimal ist, kann deshalb in einer anderen suboptimal sein. Das kann potenziell zu massiver Geldverschwendung führen, wenn die Konfiguration im Rahmen des Migrationsprozesses nicht an die neue Preisstruktur angepasst wird.

5. Bandbreiten-Einschränkungen

Die einfachste Möglichkeit, Daten während einer Migration von einer Public Cloud in eine andere zu verschieben, führt über eine VPN-Verbindung. Leider wird dabei das öffentliche Internet der Cloud-Anbieter genutzt, was die Datenübertragungsleistung einschränkt. Außerdem kann das im Fall von großen Datenmengen wesentlich teurer ausfallen als eine dedizierte Verbindung. Sollen bei einer Cloud-zu-Cloud-Migration also viele Terabyte an Daten übertragen werden, kann das erhebliche logistische und finanzielle Hürden aufwerfen.

5 Best Practices, um zwischen Public Clouds zu migrieren

Eine Zauberformel – oder zumindest eine spezielle Migrationssoftware – für Cloud-zu-Cloud-Migrationen wäre toll, ist aber nicht existent. Unabhängig davon, wie genau Sie vorgehen, ist eines sicher: Von einer Public Cloud in eine andere zu wechseln, ist komplex und erfordert jede Menge Zeit und Aufwand.

Allerdings gibt es aus meiner Sicht einige Best Practices, die Sie einsetzen können, um diesen Prozess so reibungslos wie möglich zu gestalten:

1. Besser planen

Eine möglichst sorgfältige Planung ist in Zusammenhang mit Cloud-zu-Cloud-Migrationen das A und O. Entwickeln Sie belastbare Strategien, testen Sie diese mit Dummy-Workloads und finden Sie heraus, was funktioniert und was nicht.

Je mehr Zeit Sie für den Planungsprozess aufwenden, desto geringer ist das Risiko, während der Migration auf unerwartete Hindernisse zu stoßen.

2. Realistische Zeitpläne definieren

Zeitpläne, die auf realistischen Erwartungen beruhen, sind von Seiten des Managements des Öfteren nicht zu erwarten, weil die Führungskräfte in der Regel die Feinheiten solcher Migrationsprojekte nicht auf dem Schirm haben.

Deshalb empfiehlt es sich, von vorneherein transparent zu kommunizieren, wenn es um die Dauer eines Migrationsvorhabens geht. Die schlechte Alternative wäre, dem Management Dinge zu versprechen, die nicht gehalten werden können – und den Zeitplan während der Migration immer wieder anzupassen.

3. Unkritische Workloads zuerst

Starten Sie eine Cloud-zu-Cloud-Migration nicht mit Business-kritischen Workloads. Fokussieren Sie sich lieber auf solche, die sich in der Entwicklungs- oder Testphase befinden.

Wenn aufgrund einer Planungslücke etwas schiefgeht, machen sich Probleme bei unkritischen Workloads „besser“. Geschäftskritische Applikationen und Daten sollten sie für eine spätere Migrationsphase „reservieren“.

4. Neue Deployments pausieren

Ein wichtiger, aber regelmäßig übersehener Aspekt bei der Cloud-zu-Cloud-Migration: Neue Deployments für Anwendungen sowie Änderungen an Plattformen oder Konfigurationen sollten während des Migrationsprozesses auf Eis gelegt werden.

Angenommen die Entwickler stellen die neue Version einer Anwendung in einer Cloud bereit, während das IT-Team gerade dabei ist, die ältere Version in eine andere Cloud zu verschieben: In diesem Fall müssten Sie die Migration komplett wiederholen und sämtliche Änderungen, die während der Migration an einer Cloud-Plattform vorgenommen werden, in der neuen Plattform reproduzieren.

5. Interconnection-Services nutzen

Die Internetverbindungen zwischen Public Clouds sind relativ langsam. Eine Möglichkeit, die Bandbreite zu erhöhen – und damit die Migration von Cloud zu Cloud zu beschleunigen – führt über Cloud-Interconnections. Diese Lösungen (wie sie beispielsweise Megaport, NuSummit oder Equinix anbieten) bieten dedizierte Verbindungen zwischen Clouds mit hoher Bandbreite. Das ermöglicht, Daten wesentlich schneller zu migrieren. Der Nachteil: Interconnection-Services sind nicht billig. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Zwischen Public Clouds migrieren – so geht‘s​ Weiterlesen »

Sind Zölle für Fertigungsunternehmen das neue COVID-19?​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_2225023043_16.jpg?quality=50&strip=all 5376w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_2225023043_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_2225023043_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_2225023043_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_2225023043_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_2225023043_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_2225023043_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_2225023043_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_2225023043_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_2225023043_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_2225023043_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Ähnlich wie Corona zwingen auch die US-Zölle Fertigungsunternehmen zum Handeln.alexkich – Shutterstock COVID-19 schickte Schockwellen durch die globale Produktion und zwang Unternehmen dazu, die digitale Transformation zu beschleunigen und der Widerstandsfähigkeit Priorität einzuräumen. Die aktuelle Welle von Zöllen verursacht ganz ähnliche Verwerfungen: Wieder einmal sind die Hersteller gezwungen, ihre Kostenstrukturen zu überdenken, ihre betriebliche Effizienz zu verbessern und ihre langfristige Wettbewerbsfähigkeit zu sichern.  Nächste Allgemeine Verunsicherung  Während der Pandemie hatten die Unternehmen keine andere Wahl, als digitale, datengesteuerte Abläufe zu beschleunigen. Selbst nachdem die unmittelbare Krise vorbei war, wurden viele dieser Innovationen zum festen Bestandteil des Arbeitsalltags. Nun befinden sie sich angesichts steigender Zölle und neuer Handelsschranken an einem weiteren entscheidenden Punkt – sie navigieren durch eine Landschaft, in der Agilität nicht mehr nur ein Vorteil, sondern eine Notwendigkeit ist.  In einer vernetzten Welt ist kein Hersteller auf sich allein gestellt. Zölle mögen zwar einen kurzfristigen Schutz für auf die USA fokussierte Unternehmen bieten, aber nur wenige Unternehmen genießen diesen Luxus. Moderne Produkte – ob Fahrzeuge, Elektronik oder Industriemaschinen – sind abhängig von eng verwobenen, globalen Lieferketten.  Diese Netzwerke umzustrukturieren oder zu verlagern ist kostspielig, zeitintensiv und oft unpraktisch. Und da nicht klar ist, wie lange die derzeitigen Zollregelungen noch gelten werden, sehen sich die Hersteller einer langen Phase der Unsicherheit gegenüber.  Reshoring ist keine schnelle Lösung  Für viele scheint Reshoring – also eine Rückverlagerung der Produktion in die USA – die logische Antwort zu sein. Aber das umzusetzen, gleicht eher einem Marathonlauf als einem Sprint. Je nach Branche kann es Jahre dauern, bis die Fabriken wieder neu stehen. So kann es laut Intel beispielsweise drei bis vier Jahre dauern, neue Halbleiterfabriken aufzubauen. Und dabei ist die Ausbildung der Mitarbeiter noch nicht eingerechnet, die für eine qualitativ hochwertige Produktion in großem Maßstab entscheidend ist. Vom ersten Spatenstich bis zur Rentabilität können so leicht fünf Jahre oder mehr ins Land ziehen.  Auch wenn Reshoring mit US-Prioritäten und der dortigen politischen Rhetorik übereinstimmen mag, bleiben Fragen offen:   Welche Arten von Arbeitsplätzen werden dadurch geschaffen?   Können in den USA hergestellte Produkte auf den globalen Märkten preislich konkurrieren?  Digitale Transformation als strategischer Imperativ  Trotz des wirtschaftlichen Gegenwinds steigen die Investitionen in den digitalen Bereich stark an. Das sagen auch Analysten:   Forrester sagt voraus, dass in diesem Jahr die weltweiten Ausgaben für Technologie um 5,6 Prozent steigen werden. Gartner schätzt, dass 2025 die Ausgaben für generative künstliche Intelligenz 644 Milliarden Dollar erreichen werden (ein Anstieg von 76 Prozent gegenüber dem Vorjahr).   IDC prognostiziert, dass KI bis 2030 2,3 Billionen Dollar zur Weltwirtschaft beitragen wird.  Die US-Zölle mögen ein Katalysator sein, aber der breitere Wandel ist klar: Intelligente, vernetzte und widerstandsfähige Abläufe sind die Zukunft der Fertigung. Um wettbewerbsfähig zu bleiben, müssen Unternehmen über die physische Infrastruktur hinausgehen und starke, digitale Kerne aufbauen.  Wie sieht also der Weg nach vorn aus?  Die Zölle haben gezeigt, wie anfällig die traditionellen Lieferketten sind. Die Hersteller können sich nicht mehr nur auf geografische Verlagerungen oder Kostensenkungen verlassen. Die nächste Grenze ist die kreative Effizienz. Anders ausgedrückt: Es gilt, die Art und Weise zu überdenken, wie Wertschöpfung von innen nach außen erfolgt.  Dabei spielt ohne Zweifel auch Reshoring eine Rolle. Aber Agilität beginnt intern: bei der Art und Weise, wie Daten, Prozesse und Menschen orchestriert werden.  Die moderne Fertigung braucht einen schlanken operativen Kern, der von einem vernetzten, digitalen Backbone unterstützt wird. Ein einheitliches Daten-Ökosystem, das die Systeme für Enterprise Resource Planning (ERP), Manufacturing Execution Systeme (MES) und Product Lifecycle Management (PLM) integriert, schafft nahtlose Transparenz und Kontrolle.  Wenn sie KI-gestützte Kontrolltürme für die Lieferkette hinzufügen, erhalten die Hersteller Echtzeiteinblicke in die Logistik auf allen Kontinenten. Und mit dem industriellen Metaverse und digitalen Zwillingen können Produktionslinien und ganze Werke ein neues Maß an Flexibilität und Risikominderung erschließen.  Die Komplexität der heutigen globalen Operationen erfordert eine intelligentere Reaktion. Hier kommt die industrielle KI ins Spiel: Von der Vorhersage von Lieferkettenunterbrechungen bis zur Optimierung des Energieverbrauchs – KI verwandelt Daten überwältigend schnell in verwertbare Erkenntnisse. Tools wie industrielle Copiloten und KI-Agenten steigern die Produktivität der Mitarbeiter, automatisieren Routineentscheidungen und beschleunigen die Ausführung.  Unabhängig davon, ob die derzeitige Zollwelle anhält oder abebbt, eines ist sicher: Die Disruption ist real. Und sie sollte ein Weckruf sein. Digitalisierung und Automatisierung sind nicht mehr nur ein Wettbewerbsvorteil, sondern eine Überlebensstrategie. Hersteller, die heute intelligente, widerstandsfähige, technologiegestützte Betriebe aufbauen, werden für alles gerüstet sein, was die Zukunft bringt.  Denn in der neuen Ära der globalen Fertigung geht es nicht darum, der Größte zu sein. Es geht darum, sich am schnellsten anzupassen. (mb) 

Sind Zölle für Fertigungsunternehmen das neue COVID-19?​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_2225023043_16.jpg?quality=50&strip=all 5376w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_2225023043_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_2225023043_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_2225023043_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_2225023043_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_2225023043_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_2225023043_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_2225023043_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_2225023043_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_2225023043_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_2225023043_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Ähnlich wie Corona zwingen auch die US-Zölle Fertigungsunternehmen zum Handeln.alexkich – Shutterstock

COVID-19 schickte Schockwellen durch die globale Produktion und zwang Unternehmen dazu, die digitale Transformation zu beschleunigen und der Widerstandsfähigkeit Priorität einzuräumen. Die aktuelle Welle von Zöllen verursacht ganz ähnliche Verwerfungen: Wieder einmal sind die Hersteller gezwungen, ihre Kostenstrukturen zu überdenken, ihre betriebliche Effizienz zu verbessern und ihre langfristige Wettbewerbsfähigkeit zu sichern. 

Nächste Allgemeine Verunsicherung 

Während der Pandemie hatten die Unternehmen keine andere Wahl, als digitale, datengesteuerte Abläufe zu beschleunigen. Selbst nachdem die unmittelbare Krise vorbei war, wurden viele dieser Innovationen zum festen Bestandteil des Arbeitsalltags. Nun befinden sie sich angesichts steigender Zölle und neuer Handelsschranken an einem weiteren entscheidenden Punkt – sie navigieren durch eine Landschaft, in der Agilität nicht mehr nur ein Vorteil, sondern eine Notwendigkeit ist. 

In einer vernetzten Welt ist kein Hersteller auf sich allein gestellt. Zölle mögen zwar einen kurzfristigen Schutz für auf die USA fokussierte Unternehmen bieten, aber nur wenige Unternehmen genießen diesen Luxus. Moderne Produkte – ob Fahrzeuge, Elektronik oder Industriemaschinen – sind abhängig von eng verwobenen, globalen Lieferketten. 

Diese Netzwerke umzustrukturieren oder zu verlagern ist kostspielig, zeitintensiv und oft unpraktisch. Und da nicht klar ist, wie lange die derzeitigen Zollregelungen noch gelten werden, sehen sich die Hersteller einer langen Phase der Unsicherheit gegenüber. 

Reshoring ist keine schnelle Lösung 

Für viele scheint Reshoring – also eine Rückverlagerung der Produktion in die USA – die logische Antwort zu sein. Aber das umzusetzen, gleicht eher einem Marathonlauf als einem Sprint. Je nach Branche kann es Jahre dauern, bis die Fabriken wieder neu stehen. So kann es laut Intel beispielsweise drei bis vier Jahre dauern, neue Halbleiterfabriken aufzubauen. Und dabei ist die Ausbildung der Mitarbeiter noch nicht eingerechnet, die für eine qualitativ hochwertige Produktion in großem Maßstab entscheidend ist. Vom ersten Spatenstich bis zur Rentabilität können so leicht fünf Jahre oder mehr ins Land ziehen. 

Auch wenn Reshoring mit US-Prioritäten und der dortigen politischen Rhetorik übereinstimmen mag, bleiben Fragen offen:  

Welche Arten von Arbeitsplätzen werden dadurch geschaffen?  

Können in den USA hergestellte Produkte auf den globalen Märkten preislich konkurrieren? 

Digitale Transformation als strategischer Imperativ 

Trotz des wirtschaftlichen Gegenwinds steigen die Investitionen in den digitalen Bereich stark an. Das sagen auch Analysten:  

Forrester sagt voraus, dass in diesem Jahr die weltweiten Ausgaben für Technologie um 5,6 Prozent steigen werden.

Gartner schätzt, dass 2025 die Ausgaben für generative künstliche Intelligenz 644 Milliarden Dollar erreichen werden (ein Anstieg von 76 Prozent gegenüber dem Vorjahr).  

IDC prognostiziert, dass KI bis 2030 2,3 Billionen Dollar zur Weltwirtschaft beitragen wird. 

Die US-Zölle mögen ein Katalysator sein, aber der breitere Wandel ist klar: Intelligente, vernetzte und widerstandsfähige Abläufe sind die Zukunft der Fertigung. Um wettbewerbsfähig zu bleiben, müssen Unternehmen über die physische Infrastruktur hinausgehen und starke, digitale Kerne aufbauen. 

Wie sieht also der Weg nach vorn aus? 

Die Zölle haben gezeigt, wie anfällig die traditionellen Lieferketten sind. Die Hersteller können sich nicht mehr nur auf geografische Verlagerungen oder Kostensenkungen verlassen. Die nächste Grenze ist die kreative Effizienz. Anders ausgedrückt: Es gilt, die Art und Weise zu überdenken, wie Wertschöpfung von innen nach außen erfolgt. 

Dabei spielt ohne Zweifel auch Reshoring eine Rolle. Aber Agilität beginnt intern: bei der Art und Weise, wie Daten, Prozesse und Menschen orchestriert werden. 

Die moderne Fertigung braucht einen schlanken operativen Kern, der von einem vernetzten, digitalen Backbone unterstützt wird. Ein einheitliches Daten-Ökosystem, das die Systeme für Enterprise Resource Planning (ERP), Manufacturing Execution Systeme (MES) und Product Lifecycle Management (PLM) integriert, schafft nahtlose Transparenz und Kontrolle. 

Wenn sie KI-gestützte Kontrolltürme für die Lieferkette hinzufügen, erhalten die Hersteller Echtzeiteinblicke in die Logistik auf allen Kontinenten. Und mit dem industriellen Metaverse und digitalen Zwillingen können Produktionslinien und ganze Werke ein neues Maß an Flexibilität und Risikominderung erschließen. 

Die Komplexität der heutigen globalen Operationen erfordert eine intelligentere Reaktion. Hier kommt die industrielle KI ins Spiel: Von der Vorhersage von Lieferkettenunterbrechungen bis zur Optimierung des Energieverbrauchs – KI verwandelt Daten überwältigend schnell in verwertbare Erkenntnisse. Tools wie industrielle Copiloten und KI-Agenten steigern die Produktivität der Mitarbeiter, automatisieren Routineentscheidungen und beschleunigen die Ausführung. 

Unabhängig davon, ob die derzeitige Zollwelle anhält oder abebbt, eines ist sicher: Die Disruption ist real. Und sie sollte ein Weckruf sein. Digitalisierung und Automatisierung sind nicht mehr nur ein Wettbewerbsvorteil, sondern eine Überlebensstrategie. Hersteller, die heute intelligente, widerstandsfähige, technologiegestützte Betriebe aufbauen, werden für alles gerüstet sein, was die Zukunft bringt. 

Denn in der neuen Ära der globalen Fertigung geht es nicht darum, der Größte zu sein. Es geht darum, sich am schnellsten anzupassen. (mb)

Sind Zölle für Fertigungsunternehmen das neue COVID-19?​ Weiterlesen »

Bauchgefühl: Wann wir uns auf unsere Intuition verlassen sollten​

Allgemein

Immer wieder gibt es Situationen, in denen man sich fragt, ob man nach Bauchgefühl entscheiden oder sich vom Verstand leiten lassen soll. Ersteres lässt sich trainieren, so dass man eine gute Mischung aus Bauch und Verstand schafft. Foto: Lensw0rId – shutterstock.com“Der hat den sechsten Sinn.” Das sagen wir oft über Menschen, bei denen wir registrieren: Sie entscheiden und verhalten sich intuitiv meist richtig. Und das, obwohl in der jeweiligen Situation scheinbar noch nicht absehbar ist, was richtig und was falsch ist. Zum Beispiel wenn Gefahr droht. Oder wenn es Chancen zu nutzen gilt. Rational können wir es uns nicht erklären, warum manche Personen scheinbar mit traumwandlerischer Sicherheit durchs Leben gehen, während andere in jedes Fettnäpfchen tappen. Nicht selten wünschen wir uns denn auch im Alltag, wenn wir vor Entscheidungen stehen, einen inneren Kompass, der uns zielsicher durchs Leben führt. Keine Angst! Sie haben ihn. Studien belegen: Jeder Mensch verfügt über die Fähigkeit, Menschen und Situationen intuitiv richtig einzuschätzen. Sie ist nur verschieden stark ausgeprägt. Und: ezDiese Fähigkeit lässt sich trainieren. Denn ob sich bei uns das richtige Gefühl einstellt, hängt auch von unserem Vorwissen und unserer Erfahrung ab.Intuition basiert oft auf ErfahrungSo nimmt zum Beispiel eine Person, die schon jahrelang Auto fährt, meist brenzlige Verkehrssituationen eher wahr, als eine Person, die gerade den Führerschein gemacht hat. Ähnlich ist es in unserem Arbeitsbereich. Erfahrenen Führungskräften sagt häufig ihr Bauchgefühl, welchem Mitarbeiter sie eine heikle Aufgabe anvertrauen sollten. Und Techniker, die schon seit Jahren bestimmte Maschinen warten und reparieren? Sie müssen zuweilen eine Maschine nur ansehen und schon wissen sie, warum diese nicht funktioniert. Doch wie können wir unsere Intuition trainieren? Eine wichtige Voraussetzung hierfür ist: Wir müssen zunächst akzeptieren, dass Emotionen sowie unser Unterbewusstsein viel stärker unser Verhalten bestimmen, als wir dies gemeinhin vermuten. Wir ticken nicht so rational, wie wir meist denken. Eine weitere Voraussetzung ist: Wir sollten bereit sein, auf unseren Bauch beziehungsweise unsere innere Stimme zu hören.Auf die Signale des Körpers hörenWenn dies der Fall ist, können Sie selbst zahllose Übungen zum Schulen Ihrer unbewussten Wahrnehmung entwerfen. Angenommen zum Beispiel Sie stehen mit vielen Menschen an einer Bushaltestelle. Dann können Sie sich, bevor der Bus ankommt und die Tür öffnet, fragen: Welche Personen werden wohl als erste den Bus besteigen? Oder Sie sitzen in einem Meeting. Dann können Sie sich fragen: Wann wird mein Kollege Mayer das Wort ergreifen und was wird er sagen? Wenn Sie sich solche Aufgaben regelmäßig stellen, werden Sie nach einiger Zeit merken: Ihre Prognosen sind häufiger richtig.Eine weitere Übung zum Schulen Ihrer Intuition ist die Selbstreflexion. Fragen Sie sich jeden Abend: Welche Entscheidungen traf ich heute weitgehend intuitiv? Sie werden registrieren: Es sind mehr als Sie vermuten. Fragen Sie sich dann, ob diese richtig oder falsch waren. Und überlegen Sie sich anschließend, welches Gefühl Sie hatten, als Sie sich von Ihrer Intuition leiten ließen. Verspürten Sie ein Prickeln im Bauch als Aufforderung, etwas zu tun? Oder ein Gefühl der Verspannung im Nacken als Warnung, Ihrer ersten Eingebung nicht zu folgen?Intuition lässt sich trainierenBesonders gut können wir unsere Intuition in unserer Freizeit trainieren. Denn wer gestresst ist, arbeitet in der Regel Dinge nur mechanisch ab. Er ist nicht offen für Neues. Dasselbe gilt, wenn wir Angst haben. Dann verkrampfen wir und nehmen unsere Umwelt nur noch durch einen Filter wahr. Anders ist dies, wenn wir relaxt sind. Dann nehmen wir unsere Umwelt und Empfindungen sensibler wahr. Deshalb sollten wir uns, wenn wir das Unterbewusstsein als Ideenquelle nutzen möchten, zunächst in eine adäquate Stimmung versetzen. Zum Beispiel, indem wir Entspannungsübungen machen oder Entspannungsmusik hören. Auch beim Spazierengehen oder abends in der Badewanne fällt Menschen oft plötzlich die Lösung für ein Problem ein, über das sie schon wochenlang gegrübelt haben.Das Problem mit anderen Augen sehenWer entspannt ist, kann es auch mal mit der “Metaphorischen Problemlösung” versuchen. Dabei betrachten Sie Ihr Problem mit anderen Augen als gewohnt. Stellen Sie sich zum Beispiel vor, Ihr Problem sei eine Landschaft. Wie würde diese aussehen? Dunkel und bedrohlich oder eher hell und sonnendurchflutet? Eher geordnet wie ein Park oder wie ein Urwald? Oder stellen Sie sich vor, die Herausforderung, vor der Sie stehen, wäre ein Theaterstück. Oder eine Maschine. Wenn Sie das tun, werden Sie feststellen: Sie gewinnen einen neuen Blick auf Ihr Problem und in Ihnen steigen ganz neue Gedanken und Ideen empor.Dabei sollten Sie jedoch stets bedenken: Nicht jeder Gedanke, der in uns aufkommt, ist eine “zündende Idee”. Nicht jede Emotion ist eine zielführende Intuition. Wer sich rein auf sein Bauchgefühl verlässt, war schon oft verlassen. Deshalb kann der Rat nur lauten: Hören Sie zwar auf Ihre innere Stimme und schulen Sie diese, damit Sie einen inneren Kompass für “richtig” und “falsch” haben. Doch vertrauen Sie Ihren Emotionen nicht blind. Denn gerade, wenn es um wegweisende Weichenstellungen in unserem Leben geht, ist oft auch unser Verstand gefragt. 

Bauchgefühl: Wann wir uns auf unsere Intuition verlassen sollten​ Immer wieder gibt es Situationen, in denen man sich fragt, ob man nach Bauchgefühl entscheiden oder sich vom Verstand leiten lassen soll. Ersteres lässt sich trainieren, so dass man eine gute Mischung aus Bauch und Verstand schafft.
Foto: Lensw0rId – shutterstock.com“Der hat den sechsten Sinn.” Das sagen wir oft über Menschen, bei denen wir registrieren: Sie entscheiden und verhalten sich intuitiv meist richtig. Und das, obwohl in der jeweiligen Situation scheinbar noch nicht absehbar ist, was richtig und was falsch ist. Zum Beispiel wenn Gefahr droht. Oder wenn es Chancen zu nutzen gilt. Rational können wir es uns nicht erklären, warum manche Personen scheinbar mit traumwandlerischer Sicherheit durchs Leben gehen, während andere in jedes Fettnäpfchen tappen.

Nicht selten wünschen wir uns denn auch im Alltag, wenn wir vor Entscheidungen stehen, einen inneren Kompass, der uns zielsicher durchs Leben führt. Keine Angst! Sie haben ihn. Studien belegen: Jeder Mensch verfügt über die Fähigkeit, Menschen und Situationen intuitiv richtig einzuschätzen. Sie ist nur verschieden stark ausgeprägt. Und: ezDiese Fähigkeit lässt sich trainieren. Denn ob sich bei uns das richtige Gefühl einstellt, hängt auch von unserem Vorwissen und unserer Erfahrung ab.Intuition basiert oft auf ErfahrungSo nimmt zum Beispiel eine Person, die schon jahrelang Auto fährt, meist brenzlige Verkehrssituationen eher wahr, als eine Person, die gerade den Führerschein gemacht hat. Ähnlich ist es in unserem Arbeitsbereich. Erfahrenen Führungskräften sagt häufig ihr Bauchgefühl, welchem Mitarbeiter sie eine heikle Aufgabe anvertrauen sollten. Und Techniker, die schon seit Jahren bestimmte Maschinen warten und reparieren? Sie müssen zuweilen eine Maschine nur ansehen und schon wissen sie, warum diese nicht funktioniert.

Doch wie können wir unsere Intuition trainieren? Eine wichtige Voraussetzung hierfür ist: Wir müssen zunächst akzeptieren, dass Emotionen sowie unser Unterbewusstsein viel stärker unser Verhalten bestimmen, als wir dies gemeinhin vermuten. Wir ticken nicht so rational, wie wir meist denken. Eine weitere Voraussetzung ist: Wir sollten bereit sein, auf unseren Bauch beziehungsweise unsere innere Stimme zu hören.Auf die Signale des Körpers hörenWenn dies der Fall ist, können Sie selbst zahllose Übungen zum Schulen Ihrer unbewussten Wahrnehmung entwerfen. Angenommen zum Beispiel Sie stehen mit vielen Menschen an einer Bushaltestelle. Dann können Sie sich, bevor der Bus ankommt und die Tür öffnet, fragen: Welche Personen werden wohl als erste den Bus besteigen? Oder Sie sitzen in einem Meeting. Dann können Sie sich fragen: Wann wird mein Kollege Mayer das Wort ergreifen und was wird er sagen? Wenn Sie sich solche Aufgaben regelmäßig stellen, werden Sie nach einiger Zeit merken: Ihre Prognosen sind häufiger richtig.Eine weitere Übung zum Schulen Ihrer Intuition ist die Selbstreflexion. Fragen Sie sich jeden Abend: Welche Entscheidungen traf ich heute weitgehend intuitiv? Sie werden registrieren: Es sind mehr als Sie vermuten. Fragen Sie sich dann, ob diese richtig oder falsch waren. Und überlegen Sie sich anschließend, welches Gefühl Sie hatten, als Sie sich von Ihrer Intuition leiten ließen. Verspürten Sie ein Prickeln im Bauch als Aufforderung, etwas zu tun? Oder ein Gefühl der Verspannung im Nacken als Warnung, Ihrer ersten Eingebung nicht zu folgen?Intuition lässt sich trainierenBesonders gut können wir unsere Intuition in unserer Freizeit trainieren. Denn wer gestresst ist, arbeitet in der Regel Dinge nur mechanisch ab. Er ist nicht offen für Neues. Dasselbe gilt, wenn wir Angst haben. Dann verkrampfen wir und nehmen unsere Umwelt nur noch durch einen Filter wahr. Anders ist dies, wenn wir relaxt sind. Dann nehmen wir unsere Umwelt und Empfindungen sensibler wahr.

Deshalb sollten wir uns, wenn wir das Unterbewusstsein als Ideenquelle nutzen möchten, zunächst in eine adäquate Stimmung versetzen. Zum Beispiel, indem wir Entspannungsübungen machen oder Entspannungsmusik hören. Auch beim Spazierengehen oder abends in der Badewanne fällt Menschen oft plötzlich die Lösung für ein Problem ein, über das sie schon wochenlang gegrübelt haben.Das Problem mit anderen Augen sehenWer entspannt ist, kann es auch mal mit der “Metaphorischen Problemlösung” versuchen. Dabei betrachten Sie Ihr Problem mit anderen Augen als gewohnt. Stellen Sie sich zum Beispiel vor, Ihr Problem sei eine Landschaft. Wie würde diese aussehen? Dunkel und bedrohlich oder eher hell und sonnendurchflutet? Eher geordnet wie ein Park oder wie ein Urwald? Oder stellen Sie sich vor, die Herausforderung, vor der Sie stehen, wäre ein Theaterstück. Oder eine Maschine. Wenn Sie das tun, werden Sie feststellen: Sie gewinnen einen neuen Blick auf Ihr Problem und in Ihnen steigen ganz neue Gedanken und Ideen empor.Dabei sollten Sie jedoch stets bedenken: Nicht jeder Gedanke, der in uns aufkommt, ist eine “zündende Idee”. Nicht jede Emotion ist eine zielführende Intuition. Wer sich rein auf sein Bauchgefühl verlässt, war schon oft verlassen. Deshalb kann der Rat nur lauten: Hören Sie zwar auf Ihre innere Stimme und schulen Sie diese, damit Sie einen inneren Kompass für “richtig” und “falsch” haben. Doch vertrauen Sie Ihren Emotionen nicht blind. Denn gerade, wenn es um wegweisende Weichenstellungen in unserem Leben geht, ist oft auch unser Verstand gefragt.

Bauchgefühl: Wann wir uns auf unsere Intuition verlassen sollten​ Weiterlesen »

Start-ups als Motor für generative KI in Deutschland​

Allgemein

Unternehmen mit spezialisierten Einheiten für Open Innovation haben höhere Erfolgsquoten im der Zusammenarbeit mit innovativen KI-Start-ups. Gorgev – shutterstock.com Start-ups spielen eine zentrale Rolle in der KI-Transformation vieler Unternehmen. Drei von vier deutschen Firmen mit Start-up-Kooperationen sehen diese als Schlüsselpartner für ihre KI-Strategie. Europaweit betrachten 70 Prozent der Betriebe Start-ups als festen Bestandteil ihrer Innovationsstrategie – insbesondere große Konzerne setzen stark auf diese Partnerschaften. Start-ups als Treiber der KI-Transformation Der Fokus liegt dabei vor allem auf generativer KI (GenAI), da Start-ups mit ihrer Agilität und technologischen Kompetenz Prozesse beschleunigen. In etablierten Unternehmen sind diese oft zu langsam.  Rund die Hälfte der deutschen Unternehmen plant, ihre KI-Strategie künftig gemeinsam mit Start-ups zu entwickeln. Laut dem „Open Innovation Report 2025“ von Sopra Steria liegt Deutschland damit im europäischen Spitzenfeld. Zwölf Länder im Vergleich Für den Open Innovation Report 2025 wurden insgesamt 1.643 Unternehmen und Start-ups aus zwölf europäischen Ländern befragt Die Studie wurde gemeinsam mit Ipsos und der INSEAD Business School durchgeführt. In der Praxis hinken viele Unternehmen jedoch hinterher: Nur 22 Prozent haben in den letzten zwei Jahren tatsächlich Start-up-Kooperationen umgesetzt – trotz vergleichsweise hoher Ambitionen. Mehr Erfolg durch Spezialisten Der Erfolg von Kooperationen mit Start-ups hängt stark von internen Strukturen ab. In Deutschland verfügen nur 64 Prozent der Unternehmen über eine eigene Open-Innovation-Abteilung – ein europaweit unterdurchschnittlicher Wert. Fehlen klare Zuständigkeiten, bleibt Open Innovation oft sporadisch. Unternehmen mit spezialisierten Einheiten erzielen dagegen deutlich höhere Erfolgsquoten (73 Prozent, gegenüber 51 Prozent bei Betrieben ohne solche Abteilungen). Entscheidend ist laut den Experten nicht nur der Kooperationswille, sondern eine systematische Einbindung der Start-ups durch klare Strategien, Partner mit Branchenkenntnis und operative Verantwortung im Innovationsprozess. Strukturelle Schwächen bremsen Potenzial Deutschlands Führungsrolle in der KI-Strategie-Kollaboration macht es zu einem Schlüsselakteur in der europäischen Innovationslandschaft. Um seinen Wettbewerbsvorteil zu erhalten, müssen deutsche Unternehmen laut den Studienmachern jedoch strukturelle Lücken schließen. Hierzu zählen unter anderem die oben erwähnten begrenzte Open-Innovation-Aktivitäten und das Fehlen von speziellen Abteilungen. Werden diese Bereiche gestärkt, sollte Deutschland in der Lage sein, sein Potenzial für KI-getriebenen Partnerschaften voll auszuschöpfen. Zusätzlich kann es seine Position als führender europäischer Innovationsstandort sichern, so die Experten. Andere Länder, andere Stärken Im europäischen Vergleich agieren Unternehmen in anderen Ländern allerdings schon jetzt teils systematischer bei solchen Partnerschaften. Während Deutschland bei der Zusammenarbeit im Bereich der KI-Strategie hervorragend abschneidet, zeigen andere Länder Stärken in anderen Bereichen: Vereinigtes Königreich: Das Vereinigte Königreich ist in Europa führend beim Erfolg von Open Innovation und erreicht die Ziele in 75 Prozent der Projekte – die höchste Rate in der Region. Es steht auch an erster Stelle, wenn es darum geht, Start-ups als entscheidend für die KI-Strategie zu beurteilen, wobei 81 Prozent der Unternehmen deren Bedeutung betonen. Das Vereinigte Königreich ist auch führend bei der Zusammenarbeit im Quanten Computing und bei nachhaltiger Innovation. Frankreich: Französische Unternehmen messen der Zusammenarbeit mit Start-ups die größte strategische Bedeutung bei: 91 Prozent halten sie für entscheidend für ihren Erfolg. Frankreich ist auch führend in Europa bei der Zusammenarbeit im Bereich der Cybersicherheit: 59 Prozent der Unternehmen sind dort an solchen Partnerschaften beteiligt. Belgien: Trotz des letzten Platzes in Europa bei der Priorisierung der KI-Integration schneidet Belgien bei der Zufriedenheit mit Open Innovation hervorragend ab: 90 Prozent der Unternehmen äußern sich zufrieden – der höchste Wert in Europa. Schweiz: Schweizer Unternehmen sind europaweit führend bei GenAI-Kooperationen, 71 Prozent der Projekte konzentrieren sich auf diesen Bereich.  Allerdings sehen nur 47 Prozent der Unternehmen Start-ups als entscheidend für die Umsetzung ihrer KI-Strategien an – das ist der zweitniedrigste Wert in Europa.​ Die Niederlande: Die niederländischen Unternehmen sind die zukunftsorientiertesten in Europa: 87 Prozent planen, in den nächsten zwei Jahren mit Start-ups zusammenzuarbeiten. Allerdings berichten sie über die zweitniedrigste Anzahl von KI-Kooperationen (38 Prozent) und sehen sich mit strukturellen Hindernissen konfrontiert. Hierzu zählen zum Beispiel mangelnde Risikotoleranz und fehlende Kontrolle durch das mittlere Management. Italien: Italienische Unternehmen haben den höchsten Anteil an speziellen Open-Innovation-Abteilungen (76 Prozent) und rangieren an dritter Stelle bei der Beurteilung von Start-ups als entscheidend für die KI-Strategie. Allerdings haben sich nur 37 Prozent an generativen KI-Kooperationen beteiligt, der zweitniedrigste Wert in Europa. Norwegen: Norwegische Unternehmen erkennen KI als entscheidend für ihr Geschäft an, mehr als jedes andere Land (72 Prozent). Nur 41 Prozent sehen jedoch Startups als entscheidend für ihre KI-Strategie an – der niedrigste Wert in Europa. Norwegen kämpft auch mit der Skalierung von Lösungen: 61 Prozent geben dies als den schwierigsten Teil der Zusammenarbeit an. 

Start-ups als Motor für generative KI in Deutschland​ Unternehmen mit spezialisierten Einheiten für Open Innovation haben höhere Erfolgsquoten im der Zusammenarbeit mit innovativen KI-Start-ups.
Gorgev – shutterstock.com

Start-ups spielen eine zentrale Rolle in der KI-Transformation vieler Unternehmen. Drei von vier deutschen Firmen mit Start-up-Kooperationen sehen diese als Schlüsselpartner für ihre KI-Strategie. Europaweit betrachten 70 Prozent der Betriebe Start-ups als festen Bestandteil ihrer Innovationsstrategie – insbesondere große Konzerne setzen stark auf diese Partnerschaften.

Start-ups als Treiber der KI-Transformation

Der Fokus liegt dabei vor allem auf generativer KI (GenAI), da Start-ups mit ihrer Agilität und technologischen Kompetenz Prozesse beschleunigen. In etablierten Unternehmen sind diese oft zu langsam. 

Rund die Hälfte der deutschen Unternehmen plant, ihre KI-Strategie künftig gemeinsam mit Start-ups zu entwickeln. Laut dem „Open Innovation Report 2025“ von Sopra Steria liegt Deutschland damit im europäischen Spitzenfeld.

Zwölf Länder im Vergleich

Für den Open Innovation Report 2025 wurden insgesamt 1.643 Unternehmen und Start-ups aus zwölf europäischen Ländern befragt Die Studie wurde gemeinsam mit Ipsos und der INSEAD Business School durchgeführt.

In der Praxis hinken viele Unternehmen jedoch hinterher: Nur 22 Prozent haben in den letzten zwei Jahren tatsächlich Start-up-Kooperationen umgesetzt – trotz vergleichsweise hoher Ambitionen.

Mehr Erfolg durch Spezialisten

Der Erfolg von Kooperationen mit Start-ups hängt stark von internen Strukturen ab. In Deutschland verfügen nur 64 Prozent der Unternehmen über eine eigene Open-Innovation-Abteilung – ein europaweit unterdurchschnittlicher Wert. Fehlen klare Zuständigkeiten, bleibt Open Innovation oft sporadisch.

Unternehmen mit spezialisierten Einheiten erzielen dagegen deutlich höhere Erfolgsquoten (73 Prozent, gegenüber 51 Prozent bei Betrieben ohne solche Abteilungen). Entscheidend ist laut den Experten nicht nur der Kooperationswille, sondern eine systematische Einbindung der Start-ups durch

klare Strategien,

Partner mit Branchenkenntnis und

operative Verantwortung im Innovationsprozess.

Strukturelle Schwächen bremsen Potenzial

Deutschlands Führungsrolle in der KI-Strategie-Kollaboration macht es zu einem Schlüsselakteur in der europäischen Innovationslandschaft. Um seinen Wettbewerbsvorteil zu erhalten, müssen deutsche Unternehmen laut den Studienmachern jedoch strukturelle Lücken schließen.

Hierzu zählen unter anderem die oben erwähnten begrenzte Open-Innovation-Aktivitäten und das Fehlen von speziellen Abteilungen. Werden diese Bereiche gestärkt, sollte Deutschland in der Lage sein, sein Potenzial für KI-getriebenen Partnerschaften voll auszuschöpfen. Zusätzlich kann es seine Position als führender europäischer Innovationsstandort sichern, so die Experten.

Andere Länder, andere Stärken

Im europäischen Vergleich agieren Unternehmen in anderen Ländern allerdings schon jetzt teils systematischer bei solchen Partnerschaften. Während Deutschland bei der Zusammenarbeit im Bereich der KI-Strategie hervorragend abschneidet, zeigen andere Länder Stärken in anderen Bereichen:

Vereinigtes Königreich: Das Vereinigte Königreich ist in Europa führend beim Erfolg von Open Innovation und erreicht die Ziele in 75 Prozent der Projekte – die höchste Rate in der Region. Es steht auch an erster Stelle, wenn es darum geht, Start-ups als entscheidend für die KI-Strategie zu beurteilen, wobei 81 Prozent der Unternehmen deren Bedeutung betonen. Das Vereinigte Königreich ist auch führend bei der Zusammenarbeit im Quanten Computing und bei nachhaltiger Innovation.

Frankreich: Französische Unternehmen messen der Zusammenarbeit mit Start-ups die größte strategische Bedeutung bei: 91 Prozent halten sie für entscheidend für ihren Erfolg. Frankreich ist auch führend in Europa bei der Zusammenarbeit im Bereich der Cybersicherheit: 59 Prozent der Unternehmen sind dort an solchen Partnerschaften beteiligt.

Belgien: Trotz des letzten Platzes in Europa bei der Priorisierung der KI-Integration schneidet Belgien bei der Zufriedenheit mit Open Innovation hervorragend ab: 90 Prozent der Unternehmen äußern sich zufrieden – der höchste Wert in Europa.

Schweiz: Schweizer Unternehmen sind europaweit führend bei GenAI-Kooperationen, 71 Prozent der Projekte konzentrieren sich auf diesen Bereich.  Allerdings sehen nur 47 Prozent der Unternehmen Start-ups als entscheidend für die Umsetzung ihrer KI-Strategien an – das ist der zweitniedrigste Wert in Europa.​

Die Niederlande: Die niederländischen Unternehmen sind die zukunftsorientiertesten in Europa: 87 Prozent planen, in den nächsten zwei Jahren mit Start-ups zusammenzuarbeiten. Allerdings berichten sie über die zweitniedrigste Anzahl von KI-Kooperationen (38 Prozent) und sehen sich mit strukturellen Hindernissen konfrontiert. Hierzu zählen zum Beispiel mangelnde Risikotoleranz und fehlende Kontrolle durch das mittlere Management.

Italien: Italienische Unternehmen haben den höchsten Anteil an speziellen Open-Innovation-Abteilungen (76 Prozent) und rangieren an dritter Stelle bei der Beurteilung von Start-ups als entscheidend für die KI-Strategie. Allerdings haben sich nur 37 Prozent an generativen KI-Kooperationen beteiligt, der zweitniedrigste Wert in Europa.

Norwegen: Norwegische Unternehmen erkennen KI als entscheidend für ihr Geschäft an, mehr als jedes andere Land (72 Prozent). Nur 41 Prozent sehen jedoch Startups als entscheidend für ihre KI-Strategie an – der niedrigste Wert in Europa. Norwegen kämpft auch mit der Skalierung von Lösungen: 61 Prozent geben dies als den schwierigsten Teil der Zusammenarbeit an.

Start-ups als Motor für generative KI in Deutschland​ Weiterlesen »

Freelancer-Nachfrage explodiert, KI-Agenten sei Dank​

Allgemein

KI-Texte vermenschlichen ist nur eine Aufgabe, die Freelancern dank ChatGPT & Co. angeboten bekommen.insta_photos – Shutterstock.com Wie die Frühjahrsausgabe 2025 des „Business Trends Index“ von Fiverr zeigt, suchen Unternehmen nach Fachkräften, die KI-Agenten effektiv implementieren können. Neuen Daten der Freelancer-Plattform zufolge, sind die Suchanfragen nach diesem Fachwissen in den letzten sechs Monaten um 18.347 Prozent gestiegen. In Deutschland legten die Anfragen sogar um 19.033 Prozent zu.  KI-Agenten beflügeln Auftragslage für Freiberufler   Hintergrund, so Fiverr, sind die technologischen Fortschritte im Bereich KI-Agenten. Diese ermöglichten es den „digitalen Kollegen“, Aufgaben wie das Lesen von E-Mails, das Planen von Meetings oder die Beantwortung von Kundenanfragen selbstständig und ohne ständige Überwachung zu erledigen. Während Experten voraussagen, dass sich Agentic AI zu einem Billionen-Dollar-Markt entwickeln könnte, kämpfen viele Unternehmen mit den Herausforderungen, die Technologie zu implementieren – weswegen sie Freelancer mit diesen spezifischen Fähigkeiten einsetzen.  „Fast 30 Prozent meiner Fiverr-Aufträge betreffen die Entwicklung von KI-Agenten, wobei sich die Nachfrage dramatisch von einfachen Chatbots zu Multi-Agenten-Systemen verlagert hat, die über Web-, WhatsApp- und Sprachkanäle arbeiten“, berichtet etwa Mark Kashef, ein KI-Berater auf Fiverr und Gründer und CEO von Prompt Advisors. „Unternehmen sind von der Frage ‘Was kann KI?’ zu der Frage ‘Wie schnell können wir KI in unsere Arbeitsabläufe integrieren?’ übergegangen – mit Automatisierungs-, Sprach- und Integrationsanfragen, die jetzt 49 Prozent meiner Projektpipeline ausmachen.“  Yoav Hornung, Head of Verticals bei Fiverr, begründet die gestiegene Nachfrage mit der starken Diskrepanz zwischen den Ambitionen der Unternehmen und ihren technischen Realitäten. Trotz des großen Interesses an KI-Agenten wüssten die meisten Unternehmen nicht genau, was diese eigentlich sind oder wie sie eingesetzt werden können. Diese Wissenslücke führe zu einer steigenden Nachfrage nach Freelancern. „Da generative KI nun weithin verfügbar ist, wenden sich viele Unternehmen an Freelancer, um ihre Inhalte durch neue Perspektiven, Kreativität und Fachwissen hervorzuheben, die ihre Arbeit über das hinausheben, was Automatisierung allein erreichen kann“, so Hornung.  Dieses Paradoxon spiegelt sich laut Fiverr in der weltweit um 641 Prozent gestiegenen Nachfrage nach Freelancern wider, die KI-Inhalte „vermenschlichen“ können – also Chatbot-Skripte, Marketing-E-Mails und Website-Inhalte so umschreiben, dass sie natürlicher wirken.  „Ich dachte, meine Copywriting-Dienste wären nach der Einführung von ChatGPT nicht mehr so gefragt, aber ich bekomme fast täglich Anfragen, KI-Texte zu überarbeiten, damit sie immer noch menschlich klingen“, zitiert der Plattformbetreiber Gabrielle Gerbus, eine freiberufliche Markenentwicklerin.   Neben KI selbst setzen Unternehmen außerdem zunehmend auf Freelance-Experten, um Tools zur Workflow-Automatisierung zu implementieren. So zeigen die Daten von Fiverr eine steigende Nachfrage nach Experten für Workflow-Tools wie Go High Level (plus 1.489 Prozent) und Make.com (plus 1.083 Prozent). Ebenfalls zunehmend gefragt sind Experten, die Newsletter auf Trendplattformen wie Substack (plus 2.028 Prozent) und Beehiiv (plus 1.211 Prozent) erstellen können.  

Freelancer-Nachfrage explodiert, KI-Agenten sei Dank​ KI-Texte vermenschlichen ist nur eine Aufgabe, die Freelancern dank ChatGPT & Co. angeboten bekommen.insta_photos – Shutterstock.com

Wie die Frühjahrsausgabe 2025 des „Business Trends Index“ von Fiverr zeigt, suchen Unternehmen nach Fachkräften, die KI-Agenten effektiv implementieren können. Neuen Daten der Freelancer-Plattform zufolge, sind die Suchanfragen nach diesem Fachwissen in den letzten sechs Monaten um 18.347 Prozent gestiegen. In Deutschland legten die Anfragen sogar um 19.033 Prozent zu. 

KI-Agenten beflügeln Auftragslage für Freiberufler  

Hintergrund, so Fiverr, sind die technologischen Fortschritte im Bereich KI-Agenten. Diese ermöglichten es den „digitalen Kollegen“, Aufgaben wie das Lesen von E-Mails, das Planen von Meetings oder die Beantwortung von Kundenanfragen selbstständig und ohne ständige Überwachung zu erledigen. Während Experten voraussagen, dass sich Agentic AI zu einem Billionen-Dollar-Markt entwickeln könnte, kämpfen viele Unternehmen mit den Herausforderungen, die Technologie zu implementieren – weswegen sie Freelancer mit diesen spezifischen Fähigkeiten einsetzen. 

„Fast 30 Prozent meiner Fiverr-Aufträge betreffen die Entwicklung von KI-Agenten, wobei sich die Nachfrage dramatisch von einfachen Chatbots zu Multi-Agenten-Systemen verlagert hat, die über Web-, WhatsApp- und Sprachkanäle arbeiten“, berichtet etwa Mark Kashef, ein KI-Berater auf Fiverr und Gründer und CEO von Prompt Advisors. „Unternehmen sind von der Frage ‘Was kann KI?’ zu der Frage ‘Wie schnell können wir KI in unsere Arbeitsabläufe integrieren?’ übergegangen – mit Automatisierungs-, Sprach- und Integrationsanfragen, die jetzt 49 Prozent meiner Projektpipeline ausmachen.“ 

Yoav Hornung, Head of Verticals bei Fiverr, begründet die gestiegene Nachfrage mit der starken Diskrepanz zwischen den Ambitionen der Unternehmen und ihren technischen Realitäten. Trotz des großen Interesses an KI-Agenten wüssten die meisten Unternehmen nicht genau, was diese eigentlich sind oder wie sie eingesetzt werden können. Diese Wissenslücke führe zu einer steigenden Nachfrage nach Freelancern. „Da generative KI nun weithin verfügbar ist, wenden sich viele Unternehmen an Freelancer, um ihre Inhalte durch neue Perspektiven, Kreativität und Fachwissen hervorzuheben, die ihre Arbeit über das hinausheben, was Automatisierung allein erreichen kann“, so Hornung. 

Dieses Paradoxon spiegelt sich laut Fiverr in der weltweit um 641 Prozent gestiegenen Nachfrage nach Freelancern wider, die KI-Inhalte „vermenschlichen“ können – also Chatbot-Skripte, Marketing-E-Mails und Website-Inhalte so umschreiben, dass sie natürlicher wirken. 

„Ich dachte, meine Copywriting-Dienste wären nach der Einführung von ChatGPT nicht mehr so gefragt, aber ich bekomme fast täglich Anfragen, KI-Texte zu überarbeiten, damit sie immer noch menschlich klingen“, zitiert der Plattformbetreiber Gabrielle Gerbus, eine freiberufliche Markenentwicklerin.  

Neben KI selbst setzen Unternehmen außerdem zunehmend auf Freelance-Experten, um Tools zur Workflow-Automatisierung zu implementieren. So zeigen die Daten von Fiverr eine steigende Nachfrage nach Experten für Workflow-Tools wie Go High Level (plus 1.489 Prozent) und Make.com (plus 1.083 Prozent). Ebenfalls zunehmend gefragt sind Experten, die Newsletter auf Trendplattformen wie Substack (plus 2.028 Prozent) und Beehiiv (plus 1.211 Prozent) erstellen können. 

Freelancer-Nachfrage explodiert, KI-Agenten sei Dank​ Weiterlesen »

Microsoft ändert Plan zum MS365-App-Support​

Allgemein

Microsoft rät Nutzern aktiv zum Umstieg auf Windows 11, während Windows 10 noch eingeschränkt Updates erhält. putrakurniawan78 – shutterstock.com Die Microsoft 365-Apps für Windows 10 werden bis zum 10. Oktober 2028 weiterhin Sicherheitsupdates erhalten, so Microsoft in einem Blogpost. Der Support für Windows 10 als Betriebssystem soll allerdings weiterhin wie geplant im Oktober 2025 eingestellt werden. Upgrade auf Windows 11 als empfohlene Lösung Gleichzeitig wies das Unternehmen darauf hin, dass es im Laufe der Zeit zu Leistungsproblemen bei der Ausführung von Anwendungen unter Windows 10 kommen kann. Wenn ein Kunde den Support wegen eines Problems mit einer M365-App für Windows 10 kontaktiert, das unter Windows 11 nicht auftritt, wird der Kunde aufgefordert, ein Upgrade auf Windows 11 durchzuführen. Ist dies nicht möglich, hilft der Support nur bei der Behebung des Problems. Technische Lösungen sind möglicherweise nur begrenzt oder gar nicht verfügbar. Und es wird nicht möglich sein, Fehler zu melden oder andere Produktaktualisierungen anzufordern. Die Verlängerung des M365-Supports weicht von Microsofts Plänen aus dem Januar 2025 ab, als es hieß, der Support würde im Oktober 2025 enden. 

Microsoft ändert Plan zum MS365-App-Support​ Microsoft rät Nutzern aktiv zum Umstieg auf Windows 11, während Windows 10 noch eingeschränkt Updates erhält.
putrakurniawan78 – shutterstock.com

Die Microsoft 365-Apps für Windows 10 werden bis zum 10. Oktober 2028 weiterhin Sicherheitsupdates erhalten, so Microsoft in einem Blogpost. Der Support für Windows 10 als Betriebssystem soll allerdings weiterhin wie geplant im Oktober 2025 eingestellt werden.

Upgrade auf Windows 11 als empfohlene Lösung

Gleichzeitig wies das Unternehmen darauf hin, dass es im Laufe der Zeit zu Leistungsproblemen bei der Ausführung von Anwendungen unter Windows 10 kommen kann. Wenn ein Kunde den Support wegen eines Problems mit einer M365-App für Windows 10 kontaktiert, das unter Windows 11 nicht auftritt, wird der Kunde aufgefordert, ein Upgrade auf Windows 11 durchzuführen.

Ist dies nicht möglich, hilft der Support nur bei der Behebung des Problems. Technische Lösungen sind möglicherweise nur begrenzt oder gar nicht verfügbar. Und es wird nicht möglich sein, Fehler zu melden oder andere Produktaktualisierungen anzufordern.

Die Verlängerung des M365-Supports weicht von Microsofts Plänen aus dem Januar 2025 ab, als es hieß, der Support würde im Oktober 2025 enden.

Microsoft ändert Plan zum MS365-App-Support​ Weiterlesen »

IBM setzt auf KI-Agenten und Orchestrierung​

Allgemein

Mit KI-Agenten sollen Frontend-Systeme zu Backend-Systemen werden. Wanan Wanan – shutterstock.com Die Ära der reinen KI-Experimente neigt sich dem Ende zu. Das ist die zentrale Botschaft, die von der jüngsten IBM-Think-Konferenz ausgeht. Wie Rolf Löwisch, Director & Head of AI (DACH) bei IBM, betont, trifft das Zitat von Arvind Krishna, dem CEO von IBM, “Die Ära der KI-Experimente ist vorbei”, genau den Nerv der Zeit. So herrsche auf dem Markt Konsens: Nach einer Phase breiter KI-Experimente gehe es nun darum, KI in Systemanwendungen und Prozesse zu integrieren, um einen echten Mehrwert zu generieren und einen Wettbewerbsvorteil zu schaffen. Die Notwendigkeit dieses Paradigmenwechsels unterstrichen nüchterne Zahlen, so Löwisch. So zeige die jüngste CIO-Studie von IBM, dass lediglich 25 Prozent der KI-Projekte erfolgreich im Sinne des erwarteten ROIs waren und die Erwartungen erfüllten. Laut dem IBM-AI-in-Action-Report befinden sich noch 85 Prozent der Unternehmen in der Experimentierphase, oft mit einfachen Anwendungsfällen. Agentic AI als nächster Evolutionsschritt Demgegenüber stehen 15 Prozent der Unternehmen, die bereits tiefer in die Integration eingestiegen sind und signifikant zusätzliche Werte durch die vertiefte Nutzung von KI generieren. Löwisch zufolge zeigen KI-Erfolgsgeschichten wie von Phoenix Technologies, L’Oréal oder Ferrari, wie Unternehmen mit KI ihr Geschäft neu definieren können. Noch befinden sich 85 Prozent der Unternehmen in einer Lernphase mit einfachen Anwendungsfällen. IBM AI in Action Report Eine Technologie, die diesen Wandel vorantreiben soll, ist die agentische KI. Agentic AI, so der KI-Experte, hat das Potenzial, die heutigen Frontend-Systeme, über die Mitarbeiter, Kunden und Partner interagieren, zu Backend-Systemen zu machen. Dies sei eine logische Fortsetzung der KI-Entwicklung: von Vorhersagen (klassischem Machine Learning) über Generierung (generative KI) und dem Chatten mit Dokumenten hin zu Agenten, die tatsächlich eine Wertschöpfung leisten, indem sie automatisierte Transaktionen in Systemen ausführen. Neue IBM-Angebote Auf diesem Weg will IBM die Unternehmen künftig in dreifacher Hinsicht unterstützen: Watsonx Orchestrate, Agent Builder, Tracing und Governance. Watsonx Orchestrate Mit der zunehmenden Verbreitung von Agenten stellt sich die Frage, wer diese integriert. Genau dieses Thema will IBM mit Watsonx Orchestrate als Multi-Agent-Orchestrator adressieren. Er ermöglicht laut Löwisch die Integration von Agenten unterschiedlicher Hersteller. Dabei agiert er als Integrator für verschiedene User Interfaces und steuert den Kontext von Transaktionen über verschiedene Agenten hinweg. Ziel von IBM ist es, Unternehmen zu ermöglichen, Investitionen in verschiedene KI-Projekte zu schützen und gleichzeitig zu skalieren, indem Agenten breiter verfügbar gemacht werden. Agent Builder Der Agent Builder soll Fachbereichen ermöglichen, ohne Coding-Kenntnisse in kurzer Zeit – oft nur wenigen Minuten – eigene Agenten zu erstellen und einzusetzen. Löwisch, der dies als eine Demokratisierung von AI Agents bezeichnet, geht davon aus, dass künftig weniger als fünf Minuten erforderlich sind, um einen vorgefertigten Agenten in der Produktion einzusetzen. Die Oberfläche des Agent Builders ist eine No-Code-Oberfläche, auf der man einen Agenten “from Scratch” aufbauen kann, beispielsweise zur Bearbeitung von Retouren. Der User beginnt quasi mit einer leeren Hülle und fügt Kontextwissen hinzu, indem er Dokumente wie Stornierungs- oder Rückgaberichtlinien hochlädt. Dann werden die Backendsysteme über APIs integriert, die aus einem Katalog vordefinierter Integrationen (etwa für Bestellstatus oder Kundendetails) ausgewählt und hinzugefügt. Der so kreierte Agent kann dann im Testszenario direkt mit konkreten Daten aus den Backend-Systemen interagieren. Anpassungen können, so Löwisch, jederzeit, vorgenommen werden, und die Bereitstellung erfolgt einfach per Klick. Nach der Bereitstellung sei der Agent sofort produktiv nutzbar und könne in Webseiten oder Unternehmensprozesse eingebunden werden. Tools zur Nachverfolgung des Nutzungsverhaltens und der Anfragen ermöglichten ein kontinuierliches Lernen und Optimierung des Agents. Tracing und Governance Auf die Mitarbeiter kommt im Zeitalter der autonom handelnden Agenten eine neue Rolle zu: Statt als reine Genehmiger agieren sie künftig als Kontrolleure. Dies erfordert ein Tracing und Governance von Agenten. Tracing, um zu sehen, welche Entscheidungen wann getroffen wurden und die Aktionen nachzuvollziehen zu können. Die Governance-Komponente wiederum stellt sicher, dass ein Agent tut, was er soll. Sie erkennt Drifts, dokumentiert Abläufe, macht Risiken sichtbar, sichert KPIs und gewährleistet die Compliance mit regulatorischen Anforderungen. Hierzu stellt IBM etwa den Compliance Accelerator with Credo AI bereit – eine Bibliothek mit regulatorischen Inhalten und Verpflichtungen. Ready-to-use-Agenten Neben Tools zum Erstellen und Verwalten eigener Agenten offeriert IBM auch vorgefertigte, “Ready to use Agents”. Sie basieren auf IBMs eigenen KI-Agenten in Bereichen wie HR, Sales und Procurement. Sie werden laut Löwisch als Produkte angeboten und beinhalten einen umfangreichen Katalog von über 80 Integrationen zu namhaften Anbietern wie Workday, SAP SuccessFactors (für HR), Salesforce (für Sales) etc. Dies soll die Anbindung an bestehende IT-Landschaften zu erleichtern. Zudem würden solche Querschnittsfunktionen ein Potenzial für einen signifikanten ROI bieten und eine schnelle produktive Nutzung ermöglichen. 

IBM setzt auf KI-Agenten und Orchestrierung​ Mit KI-Agenten sollen Frontend-Systeme zu Backend-Systemen werden.
Wanan Wanan – shutterstock.com

Die Ära der reinen KI-Experimente neigt sich dem Ende zu. Das ist die zentrale Botschaft, die von der jüngsten IBM-Think-Konferenz ausgeht. Wie Rolf Löwisch, Director & Head of AI (DACH) bei IBM, betont, trifft das Zitat von Arvind Krishna, dem CEO von IBM, “Die Ära der KI-Experimente ist vorbei”, genau den Nerv der Zeit. So herrsche auf dem Markt Konsens: Nach einer Phase breiter KI-Experimente gehe es nun darum, KI in Systemanwendungen und Prozesse zu integrieren, um einen echten Mehrwert zu generieren und einen Wettbewerbsvorteil zu schaffen.

Die Notwendigkeit dieses Paradigmenwechsels unterstrichen nüchterne Zahlen, so Löwisch. So zeige die jüngste CIO-Studie von IBM, dass lediglich 25 Prozent der KI-Projekte erfolgreich im Sinne des erwarteten ROIs waren und die Erwartungen erfüllten. Laut dem IBM-AI-in-Action-Report befinden sich noch 85 Prozent der Unternehmen in der Experimentierphase, oft mit einfachen Anwendungsfällen.

Agentic AI als nächster Evolutionsschritt

Demgegenüber stehen 15 Prozent der Unternehmen, die bereits tiefer in die Integration eingestiegen sind und signifikant zusätzliche Werte durch die vertiefte Nutzung von KI generieren. Löwisch zufolge zeigen KI-Erfolgsgeschichten wie von Phoenix Technologies, L’Oréal oder Ferrari, wie Unternehmen mit KI ihr Geschäft neu definieren können.

Noch befinden sich 85 Prozent der Unternehmen in einer Lernphase mit einfachen Anwendungsfällen.
IBM AI in Action Report

Eine Technologie, die diesen Wandel vorantreiben soll, ist die agentische KI. Agentic AI, so der KI-Experte, hat das Potenzial, die heutigen Frontend-Systeme, über die Mitarbeiter, Kunden und Partner interagieren, zu Backend-Systemen zu machen. Dies sei eine logische Fortsetzung der KI-Entwicklung: von Vorhersagen (klassischem Machine Learning) über Generierung (generative KI) und dem Chatten mit Dokumenten hin zu Agenten, die tatsächlich eine Wertschöpfung leisten, indem sie automatisierte Transaktionen in Systemen ausführen.

Neue IBM-Angebote

Auf diesem Weg will IBM die Unternehmen künftig in dreifacher Hinsicht unterstützen:

Watsonx Orchestrate,

Agent Builder,

Tracing und Governance.

Watsonx Orchestrate

Mit der zunehmenden Verbreitung von Agenten stellt sich die Frage, wer diese integriert. Genau dieses Thema will IBM mit Watsonx Orchestrate als Multi-Agent-Orchestrator adressieren. Er ermöglicht laut Löwisch die Integration von Agenten unterschiedlicher Hersteller. Dabei agiert er als Integrator für verschiedene User Interfaces und steuert den Kontext von Transaktionen über verschiedene Agenten hinweg. Ziel von IBM ist es, Unternehmen zu ermöglichen, Investitionen in verschiedene KI-Projekte zu schützen und gleichzeitig zu skalieren, indem Agenten breiter verfügbar gemacht werden.

Agent Builder

Der Agent Builder soll Fachbereichen ermöglichen, ohne Coding-Kenntnisse in kurzer Zeit – oft nur wenigen Minuten – eigene Agenten zu erstellen und einzusetzen. Löwisch, der dies als eine Demokratisierung von AI Agents bezeichnet, geht davon aus, dass künftig weniger als fünf Minuten erforderlich sind, um einen vorgefertigten Agenten in der Produktion einzusetzen.

Die Oberfläche des Agent Builders ist eine No-Code-Oberfläche, auf der man einen Agenten “from Scratch” aufbauen kann, beispielsweise zur Bearbeitung von Retouren. Der User beginnt quasi mit einer leeren Hülle und fügt Kontextwissen hinzu, indem er Dokumente wie Stornierungs- oder Rückgaberichtlinien hochlädt. Dann werden die Backendsysteme über APIs integriert, die aus einem Katalog vordefinierter Integrationen (etwa für Bestellstatus oder Kundendetails) ausgewählt und hinzugefügt.

Der so kreierte Agent kann dann im Testszenario direkt mit konkreten Daten aus den Backend-Systemen interagieren. Anpassungen können, so Löwisch, jederzeit, vorgenommen werden, und die Bereitstellung erfolgt einfach per Klick. Nach der Bereitstellung sei der Agent sofort produktiv nutzbar und könne in Webseiten oder Unternehmensprozesse eingebunden werden. Tools zur Nachverfolgung des Nutzungsverhaltens und der Anfragen ermöglichten ein kontinuierliches Lernen und Optimierung des Agents.

Tracing und Governance

Auf die Mitarbeiter kommt im Zeitalter der autonom handelnden Agenten eine neue Rolle zu: Statt als reine Genehmiger agieren sie künftig als Kontrolleure. Dies erfordert ein Tracing und Governance von Agenten. Tracing, um zu sehen, welche Entscheidungen wann getroffen wurden und die Aktionen nachzuvollziehen zu können. Die Governance-Komponente wiederum stellt sicher, dass ein Agent tut, was er soll. Sie erkennt Drifts, dokumentiert Abläufe, macht Risiken sichtbar, sichert KPIs und gewährleistet die Compliance mit regulatorischen Anforderungen. Hierzu stellt IBM etwa den Compliance Accelerator with Credo AI bereit – eine Bibliothek mit regulatorischen Inhalten und Verpflichtungen.

Ready-to-use-Agenten

Neben Tools zum Erstellen und Verwalten eigener Agenten offeriert IBM auch vorgefertigte, “Ready to use Agents”. Sie basieren auf IBMs eigenen KI-Agenten in Bereichen wie HR, Sales und Procurement. Sie werden laut Löwisch als Produkte angeboten und beinhalten einen umfangreichen Katalog von über 80 Integrationen zu namhaften Anbietern wie Workday, SAP SuccessFactors (für HR), Salesforce (für Sales) etc. Dies soll die Anbindung an bestehende IT-Landschaften zu erleichtern. Zudem würden solche Querschnittsfunktionen ein Potenzial für einen signifikanten ROI bieten und eine schnelle produktive Nutzung ermöglichen.

IBM setzt auf KI-Agenten und Orchestrierung​ Weiterlesen »

Databricks kauft DB-Startup Neon​

Allgemein

Mit der Übernahme von Neon will sich Databricks für die Agentic-AI-Zukunft positionieren.Databricks Databricks hat angekündigt, das Datenbank-Startup Neon für rund eine Milliarde Dollar übernehmen zu wollen. Die quelloffene Plattform von Neon ist in der Lage, Datenbankinstanzen in weniger als einer Sekunde hochzufahren – und damit ideal geeignet, um Agentic-AI-Workflows zu unterstützen. Denn diverse Aufgaben, die KI-Agenten übernehmen, erfordern eine Datenbank, um Informationen abzufragen. Je schneller das vonstatten geht, desto besser. Entsprechend soll Neons Serverless-Postgres-Architektur nach Abschluss der Übernahme in die Data Intelligence Platform von Databricks integriert werden. Im Ergebnis sollen Entwickler KI-Agenten wesentlich schneller erstellen und bereitstellen können, ohne parallel Rechenleistung und Speicherplatz skalieren zu müssen – verspricht Databricks. Demnach könne dieser Ansatz künftig: Bottlenecks verhindern, die Infrastruktur vereinfachen, sowie Kosten senken. We’re excited to announce that we have agreed to acquire @neondatabase, a developer-first serverless Postgres company. The Neon team engineered a new database architecture that offers speed, elastic scaling, and branching and forking. The capabilities that make Neon great for… pic.twitter.com/ppViZ2amBb— Databricks (@databricks) May 14, 2025 Der große Agenten-Coup? Die Plattform von Neon wurde 2022 eingeführt und entwickelte sich in der Folge zu einer der am schnellsten wachsenden Datenbanklösungen für Entwickler am Markt. Das Jungunternehmen selbst gibt an, dass seine Lösung eine vollständig isolierte Postgres-Instanz in nur 500 Millisekunden (oder weniger) hochfahren kann und dabei auch unterstützt, Datenbankschemata und Daten direkt zu verzweigen und aufzuspalten. Die Open-Source-Plattform ermöglicht KI-Agenten jedoch nicht nur, schneller zu reagieren: Es ist auch möglich, für jeden einzelnen Agenten separate Kopien der Datenbankinhalte zu erstellen. Das soll gewährleisten, dass DBs nicht mit Agenten-Requests überflutet werden. Zu den Kunden des Startups zählen unter anderem: Replit, die Boston Consulting Group, Vercel, Cloudera und Cloudflare. Databricks hat bereits zuvor strategische Akquisitionen getätigt, um sich als führende Plattform für KI-Lösungen zu positionieren: Im Jahr 2023 akquirierte Databricks die quelloffene LLM-Trainingsplattform MosaicML für 1,3 Milliarden Dollar. 2024 investierte das Unternehmen erneut mehr als eine Milliarde Dollar in das Storage-Unternehmen Tabular. Nach Ansicht von Analysten könnte Databricks mit der Übernahme von Neon nun ein (weiterer) großer Wurf gelungen sein. So ist etwa Scott Bickley, Advisory Fellow bei der Info-Tech Research Group, davon überzeugt, dass Databricks mit der Übernahme seine KI-Infrastrukturkapazitäten stärken kann: „Insbesondere, wenn es darum geht, Datenbanken KI-gesteuert bereitzustellen und KI-Agenten zu entwickeln, könnte sich diese Akquisition auszahlen. Databricks strebt danach, diese Lücken zu schließen, auch weil der Konkurrent Snowflake in diesem Bereich bislang nichts zu bieten hat“, ordnet der Analyst ein. „Herkömmliche Datenbanksysteme können mit der Größe und Variabilität agentenbasierter Architekturen nicht Schritt halten: In diesen gilt es, Tausende temporärer Datenbanken schnell zu starten und wieder zu schließen“, erklärt Robert Kramer, Chefanalyst bei Moor Insights & Strategy. Das Serverless-Postgres-Modell von Neon biete in Verbindung mit der Databricks-Plattform die Möglichkeit, Lösungen sofort bereitzustellen, Rechenleistung und Speicher voneinander zu trennen, sowie API-First-Management umzusetzen, so Kramer. Er fügt hinzu: „Ob die Kunden die neuen Funktionen der Neon-Plattform nach der Integration dann auch effektiv in großem Maßstab nutzen können, ohne dass dabei zusätzliche Komplexität Einzug hält, wird die erste echte Bewährungsprobe sein.“   Was IT-Einkäufer beachten sollten Analyst Bickley mahnt IT-Einkäufer schon vorab zur Vorsicht, wenn es um die künftige Preisgestaltung geht und weist darauf hin, dass Neon bislang mit einer Scale-to-Zero-Funktion ein effizientes Mittel zur Kostenkontrolle biete. Darüber hinaus rät Bickely Unternehmensanwendern, ein Auge auf die Lizenzierung zu werfen (bislang läuft die Neon-Plattform unter der Apache-2.0-Lizenz): „Es ist zu erwarten, dass Databricks einige proprietäre kostenpflichtige Produkte – etwa verwaltete Neon-Instanzen – auf den Markt bringen wird. Wahrscheinlich ist auch, dass Funktionen von Mosaic und Tabular integriert werden“, prophezeit Bickley.   Alles in allem stärke die Übernahme von Neon die umfassenden Datenmanagement-Fähigkeiten der Databricks-Plattform weiter, so der Branchenkenner: „Einkäufern bietet sich dadurch die Möglichkeit, ihre Data-Management-Anbieter zu konsolidieren. Die Integration erstklassiger Serverless-Datenbankfunktionen und deren Erweiterung durch Agentic AI hebt Databricks derzeit von seiner Konkurrenz ab.“ (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Databricks kauft DB-Startup Neon​ Mit der Übernahme von Neon will sich Databricks für die Agentic-AI-Zukunft positionieren.Databricks

Databricks hat angekündigt, das Datenbank-Startup Neon für rund eine Milliarde Dollar übernehmen zu wollen. Die quelloffene Plattform von Neon ist in der Lage, Datenbankinstanzen in weniger als einer Sekunde hochzufahren – und damit ideal geeignet, um Agentic-AI-Workflows zu unterstützen. Denn diverse Aufgaben, die KI-Agenten übernehmen, erfordern eine Datenbank, um Informationen abzufragen. Je schneller das vonstatten geht, desto besser.

Entsprechend soll Neons Serverless-Postgres-Architektur nach Abschluss der Übernahme in die Data Intelligence Platform von Databricks integriert werden. Im Ergebnis sollen Entwickler KI-Agenten wesentlich schneller erstellen und bereitstellen können, ohne parallel Rechenleistung und Speicherplatz skalieren zu müssen – verspricht Databricks. Demnach könne dieser Ansatz künftig:

Bottlenecks verhindern,

die Infrastruktur vereinfachen, sowie

Kosten senken.

We’re excited to announce that we have agreed to acquire @neondatabase, a developer-first serverless Postgres company. The Neon team engineered a new database architecture that offers speed, elastic scaling, and branching and forking. The capabilities that make Neon great for… pic.twitter.com/ppViZ2amBb— Databricks (@databricks) May 14, 2025

Der große Agenten-Coup?

Die Plattform von Neon wurde 2022 eingeführt und entwickelte sich in der Folge zu einer der am schnellsten wachsenden Datenbanklösungen für Entwickler am Markt. Das Jungunternehmen selbst gibt an, dass seine Lösung eine vollständig isolierte Postgres-Instanz in nur 500 Millisekunden (oder weniger) hochfahren kann und dabei auch unterstützt, Datenbankschemata und Daten direkt zu verzweigen und aufzuspalten. Die Open-Source-Plattform ermöglicht KI-Agenten jedoch nicht nur, schneller zu reagieren: Es ist auch möglich, für jeden einzelnen Agenten separate Kopien der Datenbankinhalte zu erstellen. Das soll gewährleisten, dass DBs nicht mit Agenten-Requests überflutet werden.

Zu den Kunden des Startups zählen unter anderem:

Replit,

die Boston Consulting Group,

Vercel,

Cloudera und

Cloudflare.

Databricks hat bereits zuvor strategische Akquisitionen getätigt, um sich als führende Plattform für KI-Lösungen zu positionieren:

Im Jahr 2023 akquirierte Databricks die quelloffene LLM-Trainingsplattform MosaicML für 1,3 Milliarden Dollar.

2024 investierte das Unternehmen erneut mehr als eine Milliarde Dollar in das Storage-Unternehmen Tabular.

Nach Ansicht von Analysten könnte Databricks mit der Übernahme von Neon nun ein (weiterer) großer Wurf gelungen sein. So ist etwa Scott Bickley, Advisory Fellow bei der Info-Tech Research Group, davon überzeugt, dass Databricks mit der Übernahme seine KI-Infrastrukturkapazitäten stärken kann: „Insbesondere, wenn es darum geht, Datenbanken KI-gesteuert bereitzustellen und KI-Agenten zu entwickeln, könnte sich diese Akquisition auszahlen. Databricks strebt danach, diese Lücken zu schließen, auch weil der Konkurrent Snowflake in diesem Bereich bislang nichts zu bieten hat“, ordnet der Analyst ein.

„Herkömmliche Datenbanksysteme können mit der Größe und Variabilität agentenbasierter Architekturen nicht Schritt halten: In diesen gilt es, Tausende temporärer Datenbanken schnell zu starten und wieder zu schließen“, erklärt Robert Kramer, Chefanalyst bei Moor Insights & Strategy. Das Serverless-Postgres-Modell von Neon biete in Verbindung mit der Databricks-Plattform die Möglichkeit, Lösungen sofort bereitzustellen, Rechenleistung und Speicher voneinander zu trennen, sowie API-First-Management umzusetzen, so Kramer. Er fügt hinzu: „Ob die Kunden die neuen Funktionen der Neon-Plattform nach der Integration dann auch effektiv in großem Maßstab nutzen können, ohne dass dabei zusätzliche Komplexität Einzug hält, wird die erste echte Bewährungsprobe sein.“  

Was IT-Einkäufer beachten sollten

Analyst Bickley mahnt IT-Einkäufer schon vorab zur Vorsicht, wenn es um die künftige Preisgestaltung geht und weist darauf hin, dass Neon bislang mit einer Scale-to-Zero-Funktion ein effizientes Mittel zur Kostenkontrolle biete. Darüber hinaus rät Bickely Unternehmensanwendern, ein Auge auf die Lizenzierung zu werfen (bislang läuft die Neon-Plattform unter der Apache-2.0-Lizenz): „Es ist zu erwarten, dass Databricks einige proprietäre kostenpflichtige Produkte – etwa verwaltete Neon-Instanzen – auf den Markt bringen wird. Wahrscheinlich ist auch, dass Funktionen von Mosaic und Tabular integriert werden“, prophezeit Bickley.  

Alles in allem stärke die Übernahme von Neon die umfassenden Datenmanagement-Fähigkeiten der Databricks-Plattform weiter, so der Branchenkenner: „Einkäufern bietet sich dadurch die Möglichkeit, ihre Data-Management-Anbieter zu konsolidieren. Die Integration erstklassiger Serverless-Datenbankfunktionen und deren Erweiterung durch Agentic AI hebt Databricks derzeit von seiner Konkurrenz ab.“ (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Databricks kauft DB-Startup Neon​ Weiterlesen »

Ist Ihre Enterprise Architecture einfach nur IT?​

Allgemein

Transformative Enterprise Architecture – oder nur imposant von außen?Felix Lipov | shutterstock.com Enterprise Architecture (EA) hat sich längst über Governance und Dokumentation hinaus zu einem Business Accelerator entwickelt. Wird EA strategisch umgesetzt, kann sie: Kosten durch optimierte IT-Investitionen senken, die Transformation durch bessere Entscheidungsfindung beschleunigen, sowie Wettbewerbsvorteile realisieren, indem sie Business und Technologie aufeinander abstimmt. Allerdings haben viele Unternehmen Probleme, ihre EA-Teams so zu strukturieren, dass sie maximale Wirkung erzielen. Fehlt ein klarer Fahrplan, kann Enterprise Architecture zu einer reaktiven IT-Funktion verkommen. Der Schlüssel, um das Potenzial von EA voll auszuschöpfen, ist ein strukturierter, phasenweiser Ansatz, der messbare Business-Vorteile bringt. Wie das Konzept der EA-Benefit-Leiter, das ich Ihnen in diesem Artikel näherbringen möchte. Es handelt sich um ein Framework, mit dem Unternehmen ihre Enterprise-Architecture-Reife in drei Stufen vorantreiben können: Foundational EA schafft Stabilität und Transparenz, Operational EA fördert die Umsetzung und Effizienz, und Strategic EA realisiert Wettbewerbsvorteile. Dieses Modell ist in der Lage, sukzessive Mehrwert zu liefern und parallel Komplexität und Risiken zu minimieren.  Stufe 1: Foundational Enterprise Architecture Viele Unternehmen stürzen sich in fortgeschrittene EA-Initiativen, bevor sie eine solide Grundlage geschaffen haben. Das führt zu: uneinheitlichen Prioritäten zwischen IT- und Business-Teams, redundanten Technologieinvestitionen, sowie mangelndem Vertrauen der Führungskräfte in den strategischen Wert von EA. Eine gut strukturierte EA-Grundlage bringt hingegen die Governance und Transparenz, die für eine nachhaltige, langfristige Wirkung erforderlich sind. Wichtige Initiativen der Foundational EA: Das richtige Team: Definieren Sie klare Rollen und Verantwortlichkeiten für ein interdisziplinäres Team aus Business-, Anwendungs-, Daten- und Technologiearchitekten. Die richtigen Tools: Ein zentrales EA-Repository ermöglicht unternehmensweite Transparenz über Systeme, Abhängigkeiten und Risiken. Die richtigen Maßnahmen: Governance stellt sicher, dass EA-Strategien nicht nur Modelle auf dem Papier bleiben, sondern zu umsetzbaren Rahmenwerken werden, die Ergebnisse liefern. Business Impact: beseitigt Ineffizienzen, indem redundante IT-Investitionen minimiert werden; schafft Transparenz in der Technologielandschaft, um bessere Entscheidungen treffen können; optimiert die Abstimmung zwischen IT und Business und stellt damit sicher, dass Technologie auf die Unternehmensstrategie einzahlt. Kevin Donovan ist Chief Architect bei der Technologieberatung WVE. Zuvor hatte er leitende Positionen bei diversen Technologieunternehmen inne, darunter EPAM Systems und IBM.Silas Eriksen Stufe 2: Operational Enterprise Architecture Ist die grundlegende Struktur etabliert, kann Enterprise Architecture von statischer Dokumentation zur aktiven Umsetzung übergehen. In der operativen Phase spielt EA eine Schlüsselrolle bei Transformationsinitiativen und ermöglicht Business Agility, Kostenoptimierungen und eine verkürzte Time-to-Market. Leider verharren viele Unternehmen jedoch in der Foundational-Phase und betrachten EA als passive Support-Funktion statt als Wegbereiter für die Umsetzung. Das führt dazu, dass: EA-Erkenntnisse in Transformationsinitiativen ungenutzt bleiben, sich wegen unzureichendem Lifecycle Management technische Schulden anhäufen, und IT- und Geschäftsstrategien weiterhin voneinander isoliert bleiben. Um das volle Potenzial der operativen EA auszuschöpfen, gilt es, Operational EA direkt in Transformations- und Entscheidungsprozesse einzubetten. Wichtige Initiativen der Operational EA: EA in Transformationsprogramme integrieren: Stellen Sie sicher, dass EA-Insights die Geschäftsstrategie vorantreiben. Technologieportfolios optimieren: Reduzieren Sie Redundanzen, beseitigen Sie technische Schulden und optimieren Sie Kosten. Interoperabilität ermöglichen: Unterstützen Sie einenahtlose Integration über Geschäftsbereiche und IT-Ökosysteme hinweg. Business Impact: beschleunigt die digitale Transformation durch architektonische Echtzeit-Insights; optimiert Kosten durch bessere Ressourcenzuweisung und Technologie-Lifecyle-Management; richtet IT-Investitionen an Geschäftsprioritäten aus und stellt sicher, dass die Technologie die Strategie unterstützt. Stufe 3: Strategic Enterprise Architecture Auf der höchsten Reifegradstufe ist EA nicht mehr nur ein Wegbereiter, sondern nimmt direkten, strategischen Einfluss auf die Unternehmensentscheidungen. In dieser Phase geht es also nicht mehr nur um IT-Architektur, sondern um Business-Architektur, Innovation und strategische Umsetzung. Statt auf Geschäftsanforderungen zu reagieren, gestaltet die strategische EA die Zukunft des Unternehmens und stellt sicher, dass Technologieinvestitionen in Wachstum, Innovation und Agilität münden. Von der operativen unterscheidet sich die strategische EA dadurch, dass sie: aktiv die Entscheidungen von Führungskräfte beeinflusst, statt nur die IT-Umsetzung. Technologie-Roadmaps an Geschäftsmodellen ausrichtet, um sicherzustellen, dass Investitionen Wettbewerbsvorteile bringen. in die Transformation des Unternehmens eingebettet ist und so schnellere Technologiewechsel und Innovationszyklen ermöglicht. Wichtige Initiativen der Strategic EA: EA in die Führungsetage tragen: Stellen Sie sicher, dass EA-Erkenntnisse in Investitionsentscheidungen einfließen. Chancen neuer Technologien identifizieren: Nutzen Sie EA, um Innovationsinitiativen zu steuern. Geschäftsmodelle weiterentwickeln: Agilität und Skalierbarkeit ermöglichen architektonischen Fortschritt. Business Impact: verbessert die Agilität, um sich schnell an Marktveränderungen anpassen zu können. treibt Innovation und positioniert EA als Quelle für Wachstum statt nur als Mittel zur Kostenoptimierung. stärkt den Wettbewerbsvorteil und stellt sicher, dass Technologieinvestitionen einen maximalen Return on Investment (RoI) erzielen. Die goldene Enterprise-Architecture-Zukunft Die Rolle von EA besteht nicht mehr nur darin, IT-Landschaften zu dokumentieren, sondern den Geschäftserfolg zu gestalten. Diejenigen Unternehmen, die EA strategisch einsetzen, profitieren von folgenden Benefits: Sie können sich schneller an Veränderungen anpassen. Sie können Technologie und Geschäftszielen besser aufeinander abstimmen. Sie generieren nachhaltige Innovationen und langfristiges Wachstum. Der Weg zur strategischer EA ist ein langer – und erfordert eine strukturierte Umsetzung, iteratives Lernen und die Abstimmung mit dem Business. Doch das lohnt sich für IT-Entscheider, die Enterprise Architecture nicht mehr nur als IT-Framework, sondern als strategisches Unterscheidungsmerkmal betrachten und einsetzen wollen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Ist Ihre Enterprise Architecture einfach nur IT?​ Transformative Enterprise Architecture – oder nur imposant von außen?Felix Lipov | shutterstock.com

Enterprise Architecture (EA) hat sich längst über Governance und Dokumentation hinaus zu einem Business Accelerator entwickelt. Wird EA strategisch umgesetzt, kann sie:

Kosten durch optimierte IT-Investitionen senken,

die Transformation durch bessere Entscheidungsfindung beschleunigen, sowie

Wettbewerbsvorteile realisieren, indem sie Business und Technologie aufeinander abstimmt.

Allerdings haben viele Unternehmen Probleme, ihre EA-Teams so zu strukturieren, dass sie maximale Wirkung erzielen. Fehlt ein klarer Fahrplan, kann Enterprise Architecture zu einer reaktiven IT-Funktion verkommen. Der Schlüssel, um das Potenzial von EA voll auszuschöpfen, ist ein strukturierter, phasenweiser Ansatz, der messbare Business-Vorteile bringt.

Wie das Konzept der EA-Benefit-Leiter, das ich Ihnen in diesem Artikel näherbringen möchte. Es handelt sich um ein Framework, mit dem Unternehmen ihre Enterprise-Architecture-Reife in drei Stufen vorantreiben können:

Foundational EA schafft Stabilität und Transparenz,

Operational EA fördert die Umsetzung und Effizienz, und

Strategic EA realisiert Wettbewerbsvorteile.

Dieses Modell ist in der Lage, sukzessive Mehrwert zu liefern und parallel Komplexität und Risiken zu minimieren. 

Stufe 1: Foundational Enterprise Architecture

Viele Unternehmen stürzen sich in fortgeschrittene EA-Initiativen, bevor sie eine solide Grundlage geschaffen haben. Das führt zu:

uneinheitlichen Prioritäten zwischen IT- und Business-Teams,

redundanten Technologieinvestitionen, sowie

mangelndem Vertrauen der Führungskräfte in den strategischen Wert von EA.

Eine gut strukturierte EA-Grundlage bringt hingegen die Governance und Transparenz, die für eine nachhaltige, langfristige Wirkung erforderlich sind.

Wichtige Initiativen der Foundational EA:

Das richtige Team: Definieren Sie klare Rollen und Verantwortlichkeiten für ein interdisziplinäres Team aus Business-, Anwendungs-, Daten- und Technologiearchitekten.

Die richtigen Tools: Ein zentrales EA-Repository ermöglicht unternehmensweite Transparenz über Systeme, Abhängigkeiten und Risiken.

Die richtigen Maßnahmen: Governance stellt sicher, dass EA-Strategien nicht nur Modelle auf dem Papier bleiben, sondern zu umsetzbaren Rahmenwerken werden, die Ergebnisse liefern.

Business Impact:

beseitigt Ineffizienzen, indem redundante IT-Investitionen minimiert werden;

schafft Transparenz in der Technologielandschaft, um bessere Entscheidungen treffen können;

optimiert die Abstimmung zwischen IT und Business und stellt damit sicher, dass Technologie auf die Unternehmensstrategie einzahlt.

Kevin Donovan ist Chief Architect bei der Technologieberatung WVE. Zuvor hatte er leitende Positionen bei diversen Technologieunternehmen inne, darunter EPAM Systems und IBM.Silas Eriksen

Stufe 2: Operational Enterprise Architecture

Ist die grundlegende Struktur etabliert, kann Enterprise Architecture von statischer Dokumentation zur aktiven Umsetzung übergehen. In der operativen Phase spielt EA eine Schlüsselrolle bei Transformationsinitiativen und ermöglicht Business Agility, Kostenoptimierungen und eine verkürzte Time-to-Market. Leider verharren viele Unternehmen jedoch in der Foundational-Phase und betrachten EA als passive Support-Funktion statt als Wegbereiter für die Umsetzung. Das führt dazu, dass:

EA-Erkenntnisse in Transformationsinitiativen ungenutzt bleiben,

sich wegen unzureichendem Lifecycle Management technische Schulden anhäufen, und

IT- und Geschäftsstrategien weiterhin voneinander isoliert bleiben.

Um das volle Potenzial der operativen EA auszuschöpfen, gilt es, Operational EA direkt in Transformations- und Entscheidungsprozesse einzubetten.

Wichtige Initiativen der Operational EA:

EA in Transformationsprogramme integrieren: Stellen Sie sicher, dass EA-Insights die Geschäftsstrategie vorantreiben.

Technologieportfolios optimieren: Reduzieren Sie Redundanzen, beseitigen Sie technische Schulden und optimieren Sie Kosten.

Interoperabilität ermöglichen: Unterstützen Sie einenahtlose Integration über Geschäftsbereiche und IT-Ökosysteme hinweg.

Business Impact:

beschleunigt die digitale Transformation durch architektonische Echtzeit-Insights;

optimiert Kosten durch bessere Ressourcenzuweisung und Technologie-Lifecyle-Management;

richtet IT-Investitionen an Geschäftsprioritäten aus und stellt sicher, dass die Technologie die Strategie unterstützt.

Stufe 3: Strategic Enterprise Architecture

Auf der höchsten Reifegradstufe ist EA nicht mehr nur ein Wegbereiter, sondern nimmt direkten, strategischen Einfluss auf die Unternehmensentscheidungen. In dieser Phase geht es also nicht mehr nur um IT-Architektur, sondern um Business-Architektur, Innovation und strategische Umsetzung.

Statt auf Geschäftsanforderungen zu reagieren, gestaltet die strategische EA die Zukunft des Unternehmens und stellt sicher, dass Technologieinvestitionen in Wachstum, Innovation und Agilität münden. Von der operativen unterscheidet sich die strategische EA dadurch, dass sie:

aktiv die Entscheidungen von Führungskräfte beeinflusst, statt nur die IT-Umsetzung.

Technologie-Roadmaps an Geschäftsmodellen ausrichtet, um sicherzustellen, dass Investitionen Wettbewerbsvorteile bringen.

in die Transformation des Unternehmens eingebettet ist und so schnellere Technologiewechsel und Innovationszyklen ermöglicht.

Wichtige Initiativen der Strategic EA:

EA in die Führungsetage tragen: Stellen Sie sicher, dass EA-Erkenntnisse in Investitionsentscheidungen einfließen.

Chancen neuer Technologien identifizieren: Nutzen Sie EA, um Innovationsinitiativen zu steuern.

Geschäftsmodelle weiterentwickeln: Agilität und Skalierbarkeit ermöglichen architektonischen Fortschritt.

Business Impact:

verbessert die Agilität, um sich schnell an Marktveränderungen anpassen zu können.

treibt Innovation und positioniert EA als Quelle für Wachstum statt nur als Mittel zur Kostenoptimierung.

stärkt den Wettbewerbsvorteil und stellt sicher, dass Technologieinvestitionen einen maximalen Return on Investment (RoI) erzielen.

Die goldene Enterprise-Architecture-Zukunft

Die Rolle von EA besteht nicht mehr nur darin, IT-Landschaften zu dokumentieren, sondern den Geschäftserfolg zu gestalten. Diejenigen Unternehmen, die EA strategisch einsetzen, profitieren von folgenden Benefits:

Sie können sich schneller an Veränderungen anpassen.

Sie können Technologie und Geschäftszielen besser aufeinander abstimmen.

Sie generieren nachhaltige Innovationen und langfristiges Wachstum.

Der Weg zur strategischer EA ist ein langer – und erfordert eine strukturierte Umsetzung, iteratives Lernen und die Abstimmung mit dem Business.

Doch das lohnt sich für IT-Entscheider, die Enterprise Architecture nicht mehr nur als IT-Framework, sondern als strategisches Unterscheidungsmerkmal betrachten und einsetzen wollen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Ist Ihre Enterprise Architecture einfach nur IT?​ Weiterlesen »

Outlook Add-Ins: 7 Booster für die Teamarbeit​

Allgemein

Mammutprojekte stemmt man am besten gemeinsam. Mit diesen Outlook Add-Ins für Collaboration-Zwecke sparen Sie Zeit und verbessern Ihre Effizienz. Foto: zairiazmal – shutterstock.com Die Vielzahl der Plattformen und Tools für Collaboration-Zwecke kann überfordern. Wie viel Zeit verbringen Sie damit, zwischen Apps wie Dropbox, Slack und anderen hin und her zu springen? Wenn Sie Microsoft Outlook nutzen, können Sie Ihren Zeitaufwand deutlich reduzieren – dazu brauchen Sie nur auf folgende Add-Ins zurückgreifen, die sich direkt in Outlook einbinden lassen. So können Sie mit andere zusammenarbeiten, ohne dafür den Posteingang zu verlassen. Anmerkung: Die Screenshots in diesem Artikel entstammen der Online-Version von Outlook (OWA). Die gezeigten Add-Ins funktionieren aber ebenso mit den Desktop Apps von Outlook für Windows und Mac. Boomerang Boomerang fügt Outlook mehrere Funktionen hinzu. So können Sie beispielsweise Ihren Posteingang für einen definierten Zeitraum filtern, so dass nur E-Mails, die unter bestimmten Kriterien gesendet wurden, zugestellt werden. Außerdem können Sie Benachrichtigungen über Mail-Öffnungen erhalten und den Versand Ihrer E-Mails zeitversetzt planen. In Sachen Collaboration kann Boomerang Sie dabei unterstützen, Besprechungen mit den Kollegen zu planen – ohne das übliche Hin und Her, weil kein Termin für alle passt. Mit dem Add-In markieren Sie die Zeiten, zu denen Sie verfügbar sind, in einem Kalender, der in eine E-Mail eingebettet ist. Jeder Teilnehmer wählt dort einen Zeitpunkt an dem er verfügbar ist – anschließend sendet der Boomerang-Server automatisch eine Einladung an alle Teilnehmer. Boomerang hilft Ihnen dabei, schneller Meeting-Termine zu ermitteln, die für alle passen. Foto: IDG Funktioniert mit: Outlook 2013 oder höher (Windows), Outlook für Microsoft 365 (Windows und Mac), OWA; Preise: Basic (kostenlos), Personal (5 Dollar pro Monat), Pro (15 Dollar pro Monat), Teams-Tarif für Unternehmen mit zentralisierter Abrechnung (Preis auf Anfrage); DocuSign für Outlook Das DocuSign Add-In macht es einfach, Dokumente zu versenden, die eine digitale Unterschrift benötigen. Während Sie eine E-Mail verfassen, klicken Sie dazu nur auf die Schaltfläche in der unteren Symbolleiste, um die DocuSign-Seitenleiste zu öffnen. Diese führt Sie durch die nächsten Schritte und startet dann eine Web-App über die Outlook-Hauptseite. Hier erhalten Sie eine Vorschau des Dokuments und können darüber hinaus markieren, wo der Empfänger digital unterschreiben soll. Funktioniert mit: Outlook 2013 oder höher (Windows), Outlook für Microsoft 365 (Windows und Mac), OWA; Preise: Kostenlose Testversion für 30 Tage; Preise ab 9 Euro pro User monatlich; Dropbox für Outlook Wenn Sie und Ihre Kollegen Dropbox zum Freigeben von Dateien verwenden, dürfte das offizielle Dropbox Add-In für Outlook allen Beteiligten das Leben erleichtern. Anstatt eine Datei anzuhängen, die auf Ihrem PC gespeichert ist, können Sie diese an Ihr Dropbox-Konto “anhängen” (Link zu Ihrer Dropbox-Datei wird in die E-Mail eingebettet). Wenn der Empfänger der E-Mail über ein eigenes Dropbox-Konto verfügt, kann er sofort auf die gesendete Datei zugreifen. So lassen sich auch extrem große Dateien komfortabel über Microsoft Outlook teilen, ohne sie zuvor hochladen zu müssen, um sie als E-Mail-Anhang zu versenden. Mit dem Dropbox Add-In für Outlook spielt die Größe des Dateianhangs keine Rolle mehr. Foto: IDG Funktioniert mit: Outlook 2013 oder höher (Windows), Outlook für Microsoft 365 (Windows und Mac), OWA; Preise: Basic (kostenlos, 2 GB Speicherplatz), Professional (17 Euro pro Monat, 3TB), Standard (10 Euro pro Nutzer pro Monat, 5TB), Advanced (15 Euro pro Nutzer pro Monat, unbegrenzter Speicherplatz); Google Meet Add-In Wenn Sie Outlook verwenden, ist die Chance groß, dass Sie für Videokonferenzen Microsoft Teams einsetzen. Eine beliebte Alternative dazu ist Google Meet. Das Add-In für Outlook können Sie dazu verwenden, Google-Meet-Termine direkt über Microsofts E-Mail-Programm zu erstellen. Sobald das Add-In installiert ist, klicken Sie einfach auf das Symbol am oberen Bildschirmrand, ähnlich wie Sie ein Meeting in Outlook erstellen. Die Einladung wird als Link in einer E-Mail gesendet und in Ihrem Outlook-Kalender festgehalten. Die Empfänger können auf den Link klicken, um zum geplanten Termin an der Besprechung teilzunehmen. Google-Meet-Videokonferenzen lassen sich mit dem Add-In direkt über Outlook aufsetzen. Foto: IDG Funktioniert mit: Outlook 2016 oder höher (Windows und Mac), Outlook für Microsoft 365 (Windows und Mac), OWA; Preise: kostenlos, einige Funktionen nur mit einer kostenpflichtigen Google-Workspace-Lizenz verfügbar; Microsoft Polls Microsofts Polls Add-In arbeitet mit der Web-App Microsoft Forms, die Teil von Microsoft 365 ist und bettet Umfragen in Ihre E-Mails ein. Die sind auf ein Multiple-Choice-Format festgelegt, bei dem die Empfänger eine Frage lesen und dann auf eine oder mehrere Antwortmöglichkeiten klicken können. Die Ergebnisse der Abstimmung werden als Balkendiagramm visualisiert. Das funktioniert denkbar einfach: Wenn Sie eine E-Mail verfassen, klicken Sie auf das Drei-Punkte-Symbol in der unteren Symbolleiste und wählen im Menü die Option Schnellumfrage, um die Seitenleiste des Add-Ins zu öffnen. Geben Sie dann in der Seitenleiste Frage und Antworten ein, fertig. Das Polls Add-In reichert Ihre E-Mails mit Umfragen an. Foto: IDG Funktioniert mit: Outlook 2016 oder höher (Windows und Mac), Outlook für Microsoft 365 (Windows und Mac), OWA; Preise: kostenlos, Microsoft-365-Konto erforderlich; Slack für Outlook Wenn Sie und Ihr Team über Slack zusammenarbeiten, können Sie mit dem offiziellen Add-In eine E-Mail oder einen E-Mail-Thread aus Outlook an Ihr Slack-Team weiterleiten. Alles, was Sie dazu tun müssen, ist, die entsprechende Nachricht zu öffnen und auf das Slack-Symbol rechts neben der Kopfzeile zu klicken. In der Seitenleiste können Sie im ersten Feld wählen, ob die E-Mail an einen Slack-Kanal oder einzelne Teammitglieder weitergeleitet werden soll. Wenn die E-Mail Dateianhänge enthält, können Sie diese optional ebenfalls weitergeleiten. In Ihrem Slack-Team wird die E-Mail unter Ihrem Benutzernamen dann als Nachricht an den Kanal oder als direkte Nachricht an das Teammitglied gepostet. Einige Klicks genügen, um eine Outlook-E-Mail mit Ihrem Slack Channel zu teilen. Foto: IDG Funktioniert mit: Outlook 2013 oder höher (Windows), Outlook für Microsoft 365 (Windows und Mac), OWA, Outlook Mobile App (Android und iOS); Preise: Microsoft 365/Microsoft 365 Business oder Enterprise sowie Slack-Konto erforderlich; Slack kostenlos oder ab 6,25 Euro pro Monat; Zoom für Outlook Zoom ist eine weitere beliebte Videokonferenzplattform, die in vielen Unternehmen – meist neben Microsoft Teams – eingesetzt wird. Das Zoom Add-In funktioniert ähnlich wie sein Google-Meet-Pendant: Klicken Sie einfach auf das Zoom-Symbol oben im Meeting-Planungsfenster von Outlook, um es in ein Zoom-Meeting zu verwandeln. Die Teilnehmer erhalten eine E-Mail mit einem Link, auf den sie klicken können, um dem Meeting beizutreten. Auch Zoom-Videocalls lassen sich direkt über Outlook initiieren. Foto: IDG Funktioniert mit: Outlook 2016 oder höher (Windows und Mac), Outlook für Microsoft 365 (Windows und Mac), OWA, Outlook Mobile App (Android); Preise: kostenlos; für Unternehmen ab 140 Euro pro Nutzer pro Jahr; Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Outlook Add-Ins: 7 Booster für die Teamarbeit​ Mammutprojekte stemmt man am besten gemeinsam. Mit diesen Outlook Add-Ins für Collaboration-Zwecke sparen Sie Zeit und verbessern Ihre Effizienz.
Foto: zairiazmal – shutterstock.com

Die Vielzahl der Plattformen und Tools für Collaboration-Zwecke kann überfordern. Wie viel Zeit verbringen Sie damit, zwischen Apps wie Dropbox, Slack und anderen hin und her zu springen? Wenn Sie Microsoft Outlook nutzen, können Sie Ihren Zeitaufwand deutlich reduzieren – dazu brauchen Sie nur auf folgende Add-Ins zurückgreifen, die sich direkt in Outlook einbinden lassen. So können Sie mit andere zusammenarbeiten, ohne dafür den Posteingang zu verlassen.

Anmerkung: Die Screenshots in diesem Artikel entstammen der Online-Version von Outlook (OWA). Die gezeigten Add-Ins funktionieren aber ebenso mit den Desktop Apps von Outlook für Windows und Mac.

Boomerang

Boomerang fügt Outlook mehrere Funktionen hinzu. So können Sie beispielsweise Ihren Posteingang für einen definierten Zeitraum filtern, so dass nur E-Mails, die unter bestimmten Kriterien gesendet wurden, zugestellt werden. Außerdem können Sie Benachrichtigungen über Mail-Öffnungen erhalten und den Versand Ihrer E-Mails zeitversetzt planen.

In Sachen Collaboration kann Boomerang Sie dabei unterstützen, Besprechungen mit den Kollegen zu planen – ohne das übliche Hin und Her, weil kein Termin für alle passt. Mit dem Add-In markieren Sie die Zeiten, zu denen Sie verfügbar sind, in einem Kalender, der in eine E-Mail eingebettet ist. Jeder Teilnehmer wählt dort einen Zeitpunkt an dem er verfügbar ist – anschließend sendet der Boomerang-Server automatisch eine Einladung an alle Teilnehmer.

Boomerang hilft Ihnen dabei, schneller Meeting-Termine zu ermitteln, die für alle passen.
Foto: IDG

Funktioniert mit: Outlook 2013 oder höher (Windows), Outlook für Microsoft 365 (Windows und Mac), OWA;

Preise: Basic (kostenlos), Personal (5 Dollar pro Monat), Pro (15 Dollar pro Monat), Teams-Tarif für Unternehmen mit zentralisierter Abrechnung (Preis auf Anfrage);

DocuSign für Outlook

Das DocuSign Add-In macht es einfach, Dokumente zu versenden, die eine digitale Unterschrift benötigen. Während Sie eine E-Mail verfassen, klicken Sie dazu nur auf die Schaltfläche in der unteren Symbolleiste, um die DocuSign-Seitenleiste zu öffnen. Diese führt Sie durch die nächsten Schritte und startet dann eine Web-App über die Outlook-Hauptseite. Hier erhalten Sie eine Vorschau des Dokuments und können darüber hinaus markieren, wo der Empfänger digital unterschreiben soll.

Funktioniert mit: Outlook 2013 oder höher (Windows), Outlook für Microsoft 365 (Windows und Mac), OWA;

Preise: Kostenlose Testversion für 30 Tage; Preise ab 9 Euro pro User monatlich;

Dropbox für Outlook

Wenn Sie und Ihre Kollegen Dropbox zum Freigeben von Dateien verwenden, dürfte das offizielle Dropbox Add-In für Outlook allen Beteiligten das Leben erleichtern. Anstatt eine Datei anzuhängen, die auf Ihrem PC gespeichert ist, können Sie diese an Ihr Dropbox-Konto “anhängen” (Link zu Ihrer Dropbox-Datei wird in die E-Mail eingebettet). Wenn der Empfänger der E-Mail über ein eigenes Dropbox-Konto verfügt, kann er sofort auf die gesendete Datei zugreifen. So lassen sich auch extrem große Dateien komfortabel über Microsoft Outlook teilen, ohne sie zuvor hochladen zu müssen, um sie als E-Mail-Anhang zu versenden.

Mit dem Dropbox Add-In für Outlook spielt die Größe des Dateianhangs keine Rolle mehr.
Foto: IDG

Funktioniert mit: Outlook 2013 oder höher (Windows), Outlook für Microsoft 365 (Windows und Mac), OWA;

Preise: Basic (kostenlos, 2 GB Speicherplatz), Professional (17 Euro pro Monat, 3TB), Standard (10 Euro pro Nutzer pro Monat, 5TB), Advanced (15 Euro pro Nutzer pro Monat, unbegrenzter Speicherplatz);

Google Meet Add-In

Wenn Sie Outlook verwenden, ist die Chance groß, dass Sie für Videokonferenzen Microsoft Teams einsetzen. Eine beliebte Alternative dazu ist Google Meet. Das Add-In für Outlook können Sie dazu verwenden, Google-Meet-Termine direkt über Microsofts E-Mail-Programm zu erstellen.

Sobald das Add-In installiert ist, klicken Sie einfach auf das Symbol am oberen Bildschirmrand, ähnlich wie Sie ein Meeting in Outlook erstellen. Die Einladung wird als Link in einer E-Mail gesendet und in Ihrem Outlook-Kalender festgehalten. Die Empfänger können auf den Link klicken, um zum geplanten Termin an der Besprechung teilzunehmen.

Google-Meet-Videokonferenzen lassen sich mit dem Add-In direkt über Outlook aufsetzen.
Foto: IDG

Funktioniert mit: Outlook 2016 oder höher (Windows und Mac), Outlook für Microsoft 365 (Windows und Mac), OWA;

Preise: kostenlos, einige Funktionen nur mit einer kostenpflichtigen Google-Workspace-Lizenz verfügbar;

Microsoft Polls

Microsofts Polls Add-In arbeitet mit der Web-App Microsoft Forms, die Teil von Microsoft 365 ist und bettet Umfragen in Ihre E-Mails ein. Die sind auf ein Multiple-Choice-Format festgelegt, bei dem die Empfänger eine Frage lesen und dann auf eine oder mehrere Antwortmöglichkeiten klicken können. Die Ergebnisse der Abstimmung werden als Balkendiagramm visualisiert.

Das funktioniert denkbar einfach: Wenn Sie eine E-Mail verfassen, klicken Sie auf das Drei-Punkte-Symbol in der unteren Symbolleiste und wählen im Menü die Option Schnellumfrage, um die Seitenleiste des Add-Ins zu öffnen. Geben Sie dann in der Seitenleiste Frage und Antworten ein, fertig.

Das Polls Add-In reichert Ihre E-Mails mit Umfragen an.
Foto: IDG

Funktioniert mit: Outlook 2016 oder höher (Windows und Mac), Outlook für Microsoft 365 (Windows und Mac), OWA;

Preise: kostenlos, Microsoft-365-Konto erforderlich;

Slack für Outlook

Wenn Sie und Ihr Team über Slack zusammenarbeiten, können Sie mit dem offiziellen Add-In eine E-Mail oder einen E-Mail-Thread aus Outlook an Ihr Slack-Team weiterleiten.

Alles, was Sie dazu tun müssen, ist, die entsprechende Nachricht zu öffnen und auf das Slack-Symbol rechts neben der Kopfzeile zu klicken. In der Seitenleiste können Sie im ersten Feld wählen, ob die E-Mail an einen Slack-Kanal oder einzelne Teammitglieder weitergeleitet werden soll. Wenn die E-Mail Dateianhänge enthält, können Sie diese optional ebenfalls weitergeleiten. In Ihrem Slack-Team wird die E-Mail unter Ihrem Benutzernamen dann als Nachricht an den Kanal oder als direkte Nachricht an das Teammitglied gepostet.

Einige Klicks genügen, um eine Outlook-E-Mail mit Ihrem Slack Channel zu teilen.
Foto: IDG

Funktioniert mit: Outlook 2013 oder höher (Windows), Outlook für Microsoft 365 (Windows und Mac), OWA, Outlook Mobile App (Android und iOS);

Preise: Microsoft 365/Microsoft 365 Business oder Enterprise sowie Slack-Konto erforderlich; Slack kostenlos oder ab 6,25 Euro pro Monat;

Zoom für Outlook

Zoom ist eine weitere beliebte Videokonferenzplattform, die in vielen Unternehmen – meist neben Microsoft Teams – eingesetzt wird. Das Zoom Add-In funktioniert ähnlich wie sein Google-Meet-Pendant: Klicken Sie einfach auf das Zoom-Symbol oben im Meeting-Planungsfenster von Outlook, um es in ein Zoom-Meeting zu verwandeln. Die Teilnehmer erhalten eine E-Mail mit einem Link, auf den sie klicken können, um dem Meeting beizutreten.

Auch Zoom-Videocalls lassen sich direkt über Outlook initiieren.
Foto: IDG

Funktioniert mit: Outlook 2016 oder höher (Windows und Mac), Outlook für Microsoft 365 (Windows und Mac), OWA, Outlook Mobile App (Android);

Preise: kostenlos; für Unternehmen ab 140 Euro pro Nutzer pro Jahr;

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Outlook Add-Ins: 7 Booster für die Teamarbeit​ Weiterlesen »

Coding-Hassliebe: 8 Sprachen, die Programmierer zur Weißglut treiben​

Allgemein

Als Entwickler ruhig zu bleiben, ist kein leichtes Unterfangen. Diese Programmiersprachen erzürnen die Dev-Gemüter – auch in Zukunft. Foto: Ekaterina Minaeva – shutterstock.com Der gut gemeinte Ratschlag, stets die Ruhe zu bewahren, geht sicher nicht auf einen Menschen zurück, der sich beruflich mit Computern herumschlagen musste. Denn wer sich eine Zeit lang mit der diabolischen Logik von Programmiersprachen befasst, weiß, wie es in der Hölle aussieht: Die vermeintlich logischen Mechanismen verwirren allzu oft – oder lassen verzweifeln. Es kann gut sein, dass der jeweilige Mensch daran Schuld trägt, weil er die Sprache falsch benutzt oder unzureichend programmiert hat. Doch zum Unglück gehören meistens zwei: Wenn eine Programmiersprache ihren Benutzern Gehirnakrobatik abverlangt, darf man sie guten Gewissens für das Übel mitverantwortlich machen. Allzu oft kann man sich schließlich auch einfach nicht wehren – etwa, wenn die Installationsbasis zu umfassend ist, um eine Sprache “mal schnell” über Bord zu werfen. Die grausame Wahrheit: Es gibt in den meisten Fällen sehr wahrscheinlich keine bessere Option. Im Folgenden haben wir acht Programmiersprachen zusammengestellt, mit denen Entwickler eine Hassliebe verbindet: Es geht kaum mit – aber auch nicht ohne sie. C C sollte man eher als portablen Assembler denn als vollständige Computersprache sehen. Oder schreibt irgendjemand gerne separate Header Files? Und die viel wichtigere Frage: Hat schon mal irgendjemand den Preprocessor für etwas Sinnvolles genutzt, ohne dabei durchzudrehen? Theoretisch sollten wir in der Lage sein, die Macht der Pointer-Arithmetik zu nutzen, um superclevere Dinge zu tun. In der Realität wagt es kaum jemand, mehr zu tun, als Datenstrukturen zuzuweisen. Ist es überhaupt eine gute Idee, zu versuchen clever zu sein, wenn es um Pointer geht? Das Ding mit cleveren Ideen ist auch: Die Cleverness zu dokumentieren, frisst sämtliche Zeit, die man zuvor dadurch gespart hat. Darüber hinaus dürfte es kaum jemanden geben, der alle Regeln für das Coden in C im Kopf hat und so alle möglichen Sicherheitslücken vermeiden kann. Dennoch bleibt keine andere Wahl: Unix ist in C geschrieben – worauf wiederum die meisten Smartphones und weite Teile der Cloud basieren. Nicht jeder, der Code für diese Plattformen schreibt, muss C verwenden – aber irgendjemand muss diesbezüglich auf dem Laufenden bleiben, sonst fällt alles auseinander. Inzwischen wenden sich sogar die Unix-Entwickler langsam von C ab: In den letzten Jahren wurden einige der Patches für den Linux-Kernel in Rust veröffentlicht. Die Entwickler sind der Meinung, dass die strengere Struktur der Sprache einige der Sicherheitslücken von C verhindert. Diese Umstellung wird jedoch noch Jahre dauern. JavaScript Die Schöpfer von JavaScript haben versucht, etwas Modernes zu erschaffen. Leider haben sie uns mit ihrer Cleverness dazu verdammt, geschweifte, eckige Klammern und herkömmliche Klammern zu zählen – und dabei sicherzustellen, dass diese richtig verschachtelt sind. Zwischen den anonymen Funktionen, den Closures und den JSON-Datenstrukturen ist das echtes Fingertraining. Hinzu kommen weitere, seltsame Details: Wenn x eine Zeichenkette ist, die das Zeichen für 1 enthält, dann ergibt x+1 die Zeichenkette 11, und x-1 ergibt die Zahl Null. Erinnert sich noch jemand an den Unterschied zwischen false, null, NaN und undefined? Sie hören sich ähnlich an – die Frage ist nur, warum es in JavaScript alle vier gibt und sie sich nicht einheitlich verhalten. Zu den seltsamen Details gesellt sich ein abrupter Wandel: Dank neuerer Funktionen zum Packen und Entpacken von Objekten und Arrays sieht neues JavaScript oft nicht mehr so aus wie altes JavaScript. Das führt zu Code, der einem Meer aus doppelten und dreifachen Anführungszeichen, Fragezeichen und Punkten ähnelt. An dieser Stelle sei auch daran erinnert, dass => ein Pfeil ist, der eine Funktion aufruft, während >= eine Möglichkeit darstellt, Zahlen zu vergleichen. Die neuen Funktionen sind toll (wenn man sie mag), sorgen aber bei der Mehrheit der Benutzer für Verwirrung und dafür, mit ECMAScript-Versionsnummern jonglieren zu müssen. Das Gejammer nützt allerdings nichts: Das Internet, das World Wide Web und zahllose Browser werden nicht mehr verschwinden. Das clevere Node.js-Team baute dann noch eine Plattform auf, um JavaScript auf Servern zum Laufen zu bringen. Inzwischen ist das eine der populärsten Arten, progressive Web Apps zu erstellen. JavaScript wird uns also noch über Jahrzehnte auf Trab halten. PHP PHP ist nicht wirklich eine Computersprache – vielmehr ein Tool, um statischem HTML ein bisschen Intelligenz zu verleihen: Sie können Informationen in einer Datenbank speichern und sie mit statischen Tags verknüpfen. Vielleicht gibt es noch ein paar weitere Funktionen, aber im Grunde ist alles, was mit PHP erledigt wird, Strings aus einer Datenbank zusammenzufügen Zumindest war das für lange Zeit so. Einige PHP-Entwickler haben sich das User Feedback zu Herzen genommen und Features wie ein stärkeres Type-System, smartere Strings und eine bessere Integration mit MySQL hinzugefügt. Das klingt zwar erst einmal gut, allerdings altern die vorhandenen Funktionen, während neue hinzugefügt werden. Es ist also nur eine Frage der Zeit, bis der alte Code nicht mehr funktioniert. Mit WordPress, Joomla und Drupal wird der größte Teil der Inhalte im Web über PHP-Code bereitgestellt. Und dann gibt es noch ein kleines Ding namens Facebook, das in PHP geschrieben wurde. Man kann aber froh sein, dass Facebook die HipHop Virtual Machine entwickelt hat, die Zend zur Entwicklung von PHP 8.2 inspiriert hat. Diese neuen PHP-Engines sind oft doppelt so schnell, was am Ende Energiekosten in Millionenhöhe spart – und sicherstellt, dass uns PHP noch eine lange Zeit erhalten bleibt. Cobol Cobol wurde im Jahr 1959 entwickelt und sollte – auch wegen seiner komplexen Syntax, die Hunderte von ‘Restricted Words’ enthält – inzwischen längst beerdigt sein. Dennoch entwickeln Cobol-Connaisseure immer neue Versionen, leihen sich Ideen aus anderen Sprachen und spannen sie auf einen 60 Jahre alten Rahmen. Eine neue Version namens Cobol 2014 enthält dynamische Tabellen, ein Feature, das für die Sprache schon seit 2002 im Gespräch war. Und dann wäre da noch Visual Cobol 8.0, das Cobol mit Java oder .NET Code verlinkt und es einfacher denn je macht, alten Code neben modernen Stacks am Laufen zu halten. Es gibt zwar bessere Werkzeuge um eine Geschäftslogik für die Bearbeitung von Datenbanken zu erstellen. Aber die Mühe scheint sich kaum jemand zu machen – es ist schlicht einfacher, einen größeren Rechner anzuschaffen und den Cobol-Code weiterlaufen zu lassen. Ein Blick auf den Arbeitsmarkt zeigt, dass Cobol alles andere als tot ist. Entwickler mit Knowhow sind branchenübergreifend gefragt. Während Computerwissenschaftler sich in Grauen abwenden, gilt bei den Entscheidern die Devise: “Kauft einfach einen größeren Mainframe.” R R wurde für die Datenwissenschaft entwickelt und wird immer noch von vielen Data Scientists verwendet – auch wenn einige zu Python gewechselt sind, weil sie R zu undurchsichtig finden. Einige traditionelle Programmierer hat die interaktive Natur von R abgeschreckt, die nicht ohne Grund manchmal als “Scratchpad-Modus” bezeichnet wird. Jeder, der ein paar Zahlen addieren oder die Standardabweichung eines Datensatzes berechnen muss, kann einfach ein paar Zeichen in die Eingabeaufforderung eingeben und erhält sofort die Antwort. R ist genauso ein Werkzeug, das man benutzt wie eine Programmiersprache, mit der man etwas bauen kann. Die Sprache selbst kann leider ein wenig seltsam anmuten und verwirren. Viele Befehle sind auf Schnelligkeit und Prägnanz ausgelegt – was gut ist, wenn man im Labor mit Reagenzgläsern jongliert und R nebenbei eine Zahl berechnen soll. Interpunktionen sind dabei unglaublich mächtig: Ein fehlendes Komma kann für stundenlanges Kopfzerbrechen sorgen. Die Syntax-Rätsel und Datenstruktur-Herausforderungen von R frustrieren Datenwissenschaftler – und werden das auch in den kommenden Jahren tun, angesichts der Installationsbasis und dem weiter wachsenden Ökosystem von R. Immerhin: Es ist besser sich an den Doppelklammern in R die Zähne auszubeißen, als endlos Pakete in einer anderen Sprache neu zu schreiben. Java Die Virtual Machine und die Bibliotheken von Java entstammen zwar den 1990er Jahren, seine Syntax steckt jedoch in den 1970er Jahren fest. Automatisches Memory Management klingt erst einmal nach einem großen Fortschritt – bis sich Ihr Code dazu entscheidet, abzutreten, während die Garbage Collection die Kontrolle übernimmt. Java-Programmierer beschweren sich seit langem über diverse Probleme, von denen einige inzwischen behoben oder zumindest von Oracle in Angriff genommen worden sind. Das schafft allerdings auch neue Probleme: Einige der neueren Codes und Bibliotheken sind nicht mit den alten VMs kompatibel. Es scheint beinahe so, als ob jede Version von Java nach 1.4 eine andere Sprache wäre. Dazu kommt, dass sich das Release-Zyklus-Rad bei Java schneller denn je dreht. Das ist mit Blick auf neue Funktionen positiv, bedeutet aber auch, dass es komplexer wird, Code stabil und lauffähig zu halten. Dennoch ist und bleibt Java die Grundlage für Internet und Mobiltelefone. Die Bibliotheken-Sammlung ist so umfangreich und wertvoll wie bei kaum einer anderen Programmiersprache. Und nicht nur das: Viele neue Sprachen basieren auf Java, weil sie zu Java-Bytecode kompilieren. Java wird also immer einen Platz im Stack haben. Akzeptieren Sie es einfach. Python Python ist eine moderne Sprache, die vor allem jüngere Entwickler anspricht. Die Zeichensetzung ist spärlich und der Code sieht sauberer aus. Was es daran auszusetzen gibt? Statt geschweifte Klammern zählen Sie hier Leerzeichen und achten darauf, dass die Spalten richtig ausgerichtet sind. Dabei empfiehlt sich dringend, eine Monospace-Schriftart zu verwenden. Eines der größten Probleme von Python sind auch die Lücken zwischen den Versionen. Insbesondere neuere Versionen enthalten Aktualisierungen, die unter Umständen Code beschädigen können. So geben Funktionen, die früher 0 oder 1 zurückgaben, in Python 3.6 plötzlich Boolesche Werte zurück. Wörter wie “async” und “await” wurden mit Version 3.7 zu reservierten Keywords. Natürlich hat das Entwicklungsteam keine Wahl, wenn es Python weiterentwickeln und optimieren will. Für Nutzer, die in größeren Projekten mit älteren Bibliotheken arbeiten, bedeutet das jedoch, immer wieder überprüfen zu müssen, welche Version installiert ist. Noch komplizierter wird die Sache durch den Umstand, dass viele der gängigen Linux-Distributionen Python für Systemaufgaben verwenden. Selbst wenn Sie die Versionen für Ihren Code aufrechterhalten können, kann es deshalb sein, dass die Distribution eine andere Version verwendet. Ein Upgrade im Hintergrund kann so unter Umständen Ihren Code lahmlegen. Dennoch: Auch Python werden wir nicht mehr so schnell los. Swift Es stimmt nicht ganz, dass Swift eine Apple-exklusive Sprache ist: Eine kleine Gruppe von Enthusiasten feiert die Verwendung von Swift auf einem Server. Aber zum größten Teil ist es nur eine spezielle, nicht ganz so geheime Handshake-Sprache, die nur innerhalb der Apple-Festung verwendet werden kann. Dabei ist Swift ohne Zweifel besser als sein Vorgänger Objective C: Die Zeichensetzung ist sauberer, die Typisierung besser. Header-Dateien gibt es nicht mehr und die Speicherverwaltung läuft automatisiert. Aber für Entwickler ist das Leben trotz all dieser Verbesserungen nicht leichter: Swift ist umfangreich, was es schwierig macht, sie zu durchdringen. Mit all den ausgefallenen, neuen Funktionen, die ständig hinzukommen, lassen sich Hunderte Bücher füllen. Das ist ein ganz anderer Ansatz, als ihn beispielsweise Google mit Go fährt: Go ist so einfach wie möglich gestaltet, damit der Code einfacher zu lesen und zu verstehen ist. Die unzähligen cleveren Funktionen von Swift können gelegentlich Zeit sparen, wenn die Programmierer wissen, wie man sie richtig nutzt. Dabei ist die Chance allerdings hoch, dass der nächste Entwickler, der den Code lesen muss, nicht gleichermaßen damit vertraut ist. Doch Apple liebt seine Sprache und wird daran festhalten. Die beste Lösung ist also, sich mit Swift auseinanderzusetzen und sich eventuell auf einen Teilbereich seiner Funktionen zu beschränken. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Coding-Hassliebe: 8 Sprachen, die Programmierer zur Weißglut treiben​ Als Entwickler ruhig zu bleiben, ist kein leichtes Unterfangen. Diese Programmiersprachen erzürnen die Dev-Gemüter – auch in Zukunft.
Foto: Ekaterina Minaeva – shutterstock.com

Der gut gemeinte Ratschlag, stets die Ruhe zu bewahren, geht sicher nicht auf einen Menschen zurück, der sich beruflich mit Computern herumschlagen musste. Denn wer sich eine Zeit lang mit der diabolischen Logik von Programmiersprachen befasst, weiß, wie es in der Hölle aussieht: Die vermeintlich logischen Mechanismen verwirren allzu oft – oder lassen verzweifeln.

Es kann gut sein, dass der jeweilige Mensch daran Schuld trägt, weil er die Sprache falsch benutzt oder unzureichend programmiert hat. Doch zum Unglück gehören meistens zwei: Wenn eine Programmiersprache ihren Benutzern Gehirnakrobatik abverlangt, darf man sie guten Gewissens für das Übel mitverantwortlich machen. Allzu oft kann man sich schließlich auch einfach nicht wehren – etwa, wenn die Installationsbasis zu umfassend ist, um eine Sprache “mal schnell” über Bord zu werfen.

Die grausame Wahrheit: Es gibt in den meisten Fällen sehr wahrscheinlich keine bessere Option. Im Folgenden haben wir acht Programmiersprachen zusammengestellt, mit denen Entwickler eine Hassliebe verbindet: Es geht kaum mit – aber auch nicht ohne sie.

C

C sollte man eher als portablen Assembler denn als vollständige Computersprache sehen. Oder schreibt irgendjemand gerne separate Header Files? Und die viel wichtigere Frage: Hat schon mal irgendjemand den Preprocessor für etwas Sinnvolles genutzt, ohne dabei durchzudrehen?

Theoretisch sollten wir in der Lage sein, die Macht der Pointer-Arithmetik zu nutzen, um superclevere Dinge zu tun. In der Realität wagt es kaum jemand, mehr zu tun, als Datenstrukturen zuzuweisen. Ist es überhaupt eine gute Idee, zu versuchen clever zu sein, wenn es um Pointer geht? Das Ding mit cleveren Ideen ist auch: Die Cleverness zu dokumentieren, frisst sämtliche Zeit, die man zuvor dadurch gespart hat. Darüber hinaus dürfte es kaum jemanden geben, der alle Regeln für das Coden in C im Kopf hat und so alle möglichen Sicherheitslücken vermeiden kann.

Dennoch bleibt keine andere Wahl: Unix ist in C geschrieben – worauf wiederum die meisten Smartphones und weite Teile der Cloud basieren. Nicht jeder, der Code für diese Plattformen schreibt, muss C verwenden – aber irgendjemand muss diesbezüglich auf dem Laufenden bleiben, sonst fällt alles auseinander.

Inzwischen wenden sich sogar die Unix-Entwickler langsam von C ab: In den letzten Jahren wurden einige der Patches für den Linux-Kernel in Rust veröffentlicht. Die Entwickler sind der Meinung, dass die strengere Struktur der Sprache einige der Sicherheitslücken von C verhindert. Diese Umstellung wird jedoch noch Jahre dauern.

JavaScript

Die Schöpfer von JavaScript haben versucht, etwas Modernes zu erschaffen. Leider haben sie uns mit ihrer Cleverness dazu verdammt, geschweifte, eckige Klammern und herkömmliche Klammern zu zählen – und dabei sicherzustellen, dass diese richtig verschachtelt sind. Zwischen den anonymen Funktionen, den Closures und den JSON-Datenstrukturen ist das echtes Fingertraining.

Hinzu kommen weitere, seltsame Details: Wenn x eine Zeichenkette ist, die das Zeichen für 1 enthält, dann ergibt x+1 die Zeichenkette 11, und x-1 ergibt die Zahl Null. Erinnert sich noch jemand an den Unterschied zwischen false, null, NaN und undefined? Sie hören sich ähnlich an – die Frage ist nur, warum es in JavaScript alle vier gibt und sie sich nicht einheitlich verhalten.

Zu den seltsamen Details gesellt sich ein abrupter Wandel: Dank neuerer Funktionen zum Packen und Entpacken von Objekten und Arrays sieht neues JavaScript oft nicht mehr so aus wie altes JavaScript. Das führt zu Code, der einem Meer aus doppelten und dreifachen Anführungszeichen, Fragezeichen und Punkten ähnelt. An dieser Stelle sei auch daran erinnert, dass => ein Pfeil ist, der eine Funktion aufruft, während >= eine Möglichkeit darstellt, Zahlen zu vergleichen. Die neuen Funktionen sind toll (wenn man sie mag), sorgen aber bei der Mehrheit der Benutzer für Verwirrung und dafür, mit ECMAScript-Versionsnummern jonglieren zu müssen. Das Gejammer nützt allerdings nichts: Das Internet, das World Wide Web und zahllose Browser werden nicht mehr verschwinden.

Das clevere Node.js-Team baute dann noch eine Plattform auf, um JavaScript auf Servern zum Laufen zu bringen. Inzwischen ist das eine der populärsten Arten, progressive Web Apps zu erstellen. JavaScript wird uns also noch über Jahrzehnte auf Trab halten.

PHP

PHP ist nicht wirklich eine Computersprache – vielmehr ein Tool, um statischem HTML ein bisschen Intelligenz zu verleihen: Sie können Informationen in einer Datenbank speichern und sie mit statischen Tags verknüpfen. Vielleicht gibt es noch ein paar weitere Funktionen, aber im Grunde ist alles, was mit PHP erledigt wird, Strings aus einer Datenbank zusammenzufügen

Zumindest war das für lange Zeit so. Einige PHP-Entwickler haben sich das User Feedback zu Herzen genommen und Features wie ein stärkeres Type-System, smartere Strings und eine bessere Integration mit MySQL hinzugefügt. Das klingt zwar erst einmal gut, allerdings altern die vorhandenen Funktionen, während neue hinzugefügt werden. Es ist also nur eine Frage der Zeit, bis der alte Code nicht mehr funktioniert.

Mit WordPress, Joomla und Drupal wird der größte Teil der Inhalte im Web über PHP-Code bereitgestellt. Und dann gibt es noch ein kleines Ding namens Facebook, das in PHP geschrieben wurde. Man kann aber froh sein, dass Facebook die HipHop Virtual Machine entwickelt hat, die Zend zur Entwicklung von PHP 8.2 inspiriert hat. Diese neuen PHP-Engines sind oft doppelt so schnell, was am Ende Energiekosten in Millionenhöhe spart – und sicherstellt, dass uns PHP noch eine lange Zeit erhalten bleibt.

Cobol

Cobol wurde im Jahr 1959 entwickelt und sollte – auch wegen seiner komplexen Syntax, die Hunderte von ‘Restricted Words’ enthält – inzwischen längst beerdigt sein. Dennoch entwickeln Cobol-Connaisseure immer neue Versionen, leihen sich Ideen aus anderen Sprachen und spannen sie auf einen 60 Jahre alten Rahmen. Eine neue Version namens Cobol 2014 enthält dynamische Tabellen, ein Feature, das für die Sprache schon seit 2002 im Gespräch war. Und dann wäre da noch Visual Cobol 8.0, das Cobol mit Java oder .NET Code verlinkt und es einfacher denn je macht, alten Code neben modernen Stacks am Laufen zu halten.

Es gibt zwar bessere Werkzeuge um eine Geschäftslogik für die Bearbeitung von Datenbanken zu erstellen. Aber die Mühe scheint sich kaum jemand zu machen – es ist schlicht einfacher, einen größeren Rechner anzuschaffen und den Cobol-Code weiterlaufen zu lassen. Ein Blick auf den Arbeitsmarkt zeigt, dass Cobol alles andere als tot ist. Entwickler mit Knowhow sind branchenübergreifend gefragt. Während Computerwissenschaftler sich in Grauen abwenden, gilt bei den Entscheidern die Devise: “Kauft einfach einen größeren Mainframe.”

R

R wurde für die Datenwissenschaft entwickelt und wird immer noch von vielen Data Scientists verwendet – auch wenn einige zu Python gewechselt sind, weil sie R zu undurchsichtig finden. Einige traditionelle Programmierer hat die interaktive Natur von R abgeschreckt, die nicht ohne Grund manchmal als “Scratchpad-Modus” bezeichnet wird. Jeder, der ein paar Zahlen addieren oder die Standardabweichung eines Datensatzes berechnen muss, kann einfach ein paar Zeichen in die Eingabeaufforderung eingeben und erhält sofort die Antwort. R ist genauso ein Werkzeug, das man benutzt wie eine Programmiersprache, mit der man etwas bauen kann.

Die Sprache selbst kann leider ein wenig seltsam anmuten und verwirren. Viele Befehle sind auf Schnelligkeit und Prägnanz ausgelegt – was gut ist, wenn man im Labor mit Reagenzgläsern jongliert und R nebenbei eine Zahl berechnen soll. Interpunktionen sind dabei unglaublich mächtig: Ein fehlendes Komma kann für stundenlanges Kopfzerbrechen sorgen.

Die Syntax-Rätsel und Datenstruktur-Herausforderungen von R frustrieren Datenwissenschaftler – und werden das auch in den kommenden Jahren tun, angesichts der Installationsbasis und dem weiter wachsenden Ökosystem von R. Immerhin: Es ist besser sich an den Doppelklammern in R die Zähne auszubeißen, als endlos Pakete in einer anderen Sprache neu zu schreiben.

Java

Die Virtual Machine und die Bibliotheken von Java entstammen zwar den 1990er Jahren, seine Syntax steckt jedoch in den 1970er Jahren fest. Automatisches Memory Management klingt erst einmal nach einem großen Fortschritt – bis sich Ihr Code dazu entscheidet, abzutreten, während die Garbage Collection die Kontrolle übernimmt.

Java-Programmierer beschweren sich seit langem über diverse Probleme, von denen einige inzwischen behoben oder zumindest von Oracle in Angriff genommen worden sind. Das schafft allerdings auch neue Probleme: Einige der neueren Codes und Bibliotheken sind nicht mit den alten VMs kompatibel. Es scheint beinahe so, als ob jede Version von Java nach 1.4 eine andere Sprache wäre. Dazu kommt, dass sich das Release-Zyklus-Rad bei Java schneller denn je dreht. Das ist mit Blick auf neue Funktionen positiv, bedeutet aber auch, dass es komplexer wird, Code stabil und lauffähig zu halten.

Dennoch ist und bleibt Java die Grundlage für Internet und Mobiltelefone. Die Bibliotheken-Sammlung ist so umfangreich und wertvoll wie bei kaum einer anderen Programmiersprache. Und nicht nur das: Viele neue Sprachen basieren auf Java, weil sie zu Java-Bytecode kompilieren. Java wird also immer einen Platz im Stack haben. Akzeptieren Sie es einfach.

Python

Python ist eine moderne Sprache, die vor allem jüngere Entwickler anspricht. Die Zeichensetzung ist spärlich und der Code sieht sauberer aus. Was es daran auszusetzen gibt? Statt geschweifte Klammern zählen Sie hier Leerzeichen und achten darauf, dass die Spalten richtig ausgerichtet sind. Dabei empfiehlt sich dringend, eine Monospace-Schriftart zu verwenden.

Eines der größten Probleme von Python sind auch die Lücken zwischen den Versionen. Insbesondere neuere Versionen enthalten Aktualisierungen, die unter Umständen Code beschädigen können. So geben Funktionen, die früher 0 oder 1 zurückgaben, in Python 3.6 plötzlich Boolesche Werte zurück. Wörter wie “async” und “await” wurden mit Version 3.7 zu reservierten Keywords. Natürlich hat das Entwicklungsteam keine Wahl, wenn es Python weiterentwickeln und optimieren will. Für Nutzer, die in größeren Projekten mit älteren Bibliotheken arbeiten, bedeutet das jedoch, immer wieder überprüfen zu müssen, welche Version installiert ist.

Noch komplizierter wird die Sache durch den Umstand, dass viele der gängigen Linux-Distributionen Python für Systemaufgaben verwenden. Selbst wenn Sie die Versionen für Ihren Code aufrechterhalten können, kann es deshalb sein, dass die Distribution eine andere Version verwendet. Ein Upgrade im Hintergrund kann so unter Umständen Ihren Code lahmlegen. Dennoch: Auch Python werden wir nicht mehr so schnell los.

Swift

Es stimmt nicht ganz, dass Swift eine Apple-exklusive Sprache ist: Eine kleine Gruppe von Enthusiasten feiert die Verwendung von Swift auf einem Server. Aber zum größten Teil ist es nur eine spezielle, nicht ganz so geheime Handshake-Sprache, die nur innerhalb der Apple-Festung verwendet werden kann. Dabei ist Swift ohne Zweifel besser als sein Vorgänger Objective C: Die Zeichensetzung ist sauberer, die Typisierung besser. Header-Dateien gibt es nicht mehr und die Speicherverwaltung läuft automatisiert.

Aber für Entwickler ist das Leben trotz all dieser Verbesserungen nicht leichter: Swift ist umfangreich, was es schwierig macht, sie zu durchdringen. Mit all den ausgefallenen, neuen Funktionen, die ständig hinzukommen, lassen sich Hunderte Bücher füllen. Das ist ein ganz anderer Ansatz, als ihn beispielsweise Google mit Go fährt: Go ist so einfach wie möglich gestaltet, damit der Code einfacher zu lesen und zu verstehen ist. Die unzähligen cleveren Funktionen von Swift können gelegentlich Zeit sparen, wenn die Programmierer wissen, wie man sie richtig nutzt. Dabei ist die Chance allerdings hoch, dass der nächste Entwickler, der den Code lesen muss, nicht gleichermaßen damit vertraut ist.

Doch Apple liebt seine Sprache und wird daran festhalten. Die beste Lösung ist also, sich mit Swift auseinanderzusetzen und sich eventuell auf einen Teilbereich seiner Funktionen zu beschränken. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Coding-Hassliebe: 8 Sprachen, die Programmierer zur Weißglut treiben​ Weiterlesen »

Schatten-KI reißt Löcher in die IT-Security​

Allgemein

width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Nur wer weiß, welche Tools sich in den eigenen Systemen herumtreiben, behält die Kontrolle und kann die Sicherheit gewährleisten.Toma Stepunina – shutterstock.com Der Einsatz von KI-Tools scheint viele deutsche Unternehmen zu überfordern. Laut dem aktuellen „CyberArk 2025 Identity Security Landscape Report“ räumen zwei Drittel aller Betriebe hierzulande ein, nicht in der Lage zu sein, alle verwendeten Schatten-KI-Tools zu sichern und zu verwalten. Vier von zehn befragten Firmen gaben zu, dass in der eigenen Organisation nicht nur freigegebene Werkzeuge genutzt würden, sondern auch nicht autorisierte Tools.  Die unsichtbare Gefahr durch GenAI Der Report, den Sicherheitsanbieter CyberArk beim Marktforschungsunternehmen Vanson Bourne in Auftrag gegeben hat, wirft ein besonderes Schlaglicht auf den KI-Einsatz in Unternehmen weltweit. Befragt wurden 2.600 Cybersecurity-Entscheider in Deutschland, Frankreich, Großbritannien, Italien, den Niederlanden, Spanien, Australien, Brasilien, Hongkong, Indien, Israel, Japan, Kanada, Mexiko, Saudi-Arabien, Singapur, Südafrika, Taiwan sowie den USA und den Vereinigten Arabischen Emiraten. Mehr maschinelle Identitäten – mehr Security-Probleme Mit dem verstärkten KI-Einsatz ist ein neuer, bedeutender Angriffsvektor entstanden, lautet das Fazit der Studienautoren. 94 Prozent der befragten Unternehmen in Deutschland nutzen inzwischen KI und große Sprachmodelle (LLMs). 82 Prozent bestätigte, dass der KI- und LLM-Zugriff auf große Mengen sensibler Daten erhebliche Security-Risiken mit sich bringt. Wie Schatten-KI den Tech-Stack bereichert Das liegt in erster Linie an den dazugehörigen Zugriffsprivilegien. Die Studie hat gezeigt, dass die Zahl der maschinellen Identitäten in den Betrieben hierzulande deutlich wächst. Im Durchschnitt kämen auf eine menschliche Identität in den IT-Systemen mittlerweile mehr als 80 Maschinenidentitäten. Dieses Wachstum berge ein hohes Sicherheitsrisiko, hieß es. Denn 42 Prozent dieser maschinellen Identitäten haben Zugriff auf sensible geschäftskritische Systeme. Die damit verbundenen Gefahren würden indes oft verkannt, mahnen die Security-Experten. Nur jedes zehnte Unternehmen stufe Maschinenidentitäten als privilegierte User ein. Wer bringt die KI-Agenten unter Kontrolle? Das Problem könnte mit dem Boom von KI-Agenten eine neue Dimension erreichen. Immer mehr Anbieter von Business-Software bauen entsprechende Features in ihre Suite ein. Salesforce-Chef Marc Benioff fabulierte erst vor wenigen Monaten, dass sich schon bald eine Milliarde solcher KI-Agenten im Salesforce-Universum tummeln könnten.  Für die IT-Security-Verantwortlichen möglicherweise ein Albtraum. Wenn diese KI-Agenten selbstständig Aufgaben übernehmen und abarbeiten sollen, brauchen sie Zugriff auf Systeme und Daten. An dieser Stelle eine funktionierende Rechte- und Identitätenverwaltung aufzubauen und vor allem in einem sich ständig verändernden Gesamtsystem aufrecht zu erhalten, dürfte alles andere als einfach werden.   Weitere Untersuchungsergebnisse aus dem „CyberArk 2025 Identity Security Landscape Report“ zu deutschen Unternehmen im Überblick:  Zwar verwenden 94 Prozent der hiesigen Unternehmen Tools, um Cloud-Sessions zu überwachen und abzusichern. Allerdings bestätigt fast die Hälfte (49 Prozent), keinen vollständigen Überblick über die Berechtigungen und Zugriffsrechte in ihren Cloud-Umgebungen zu haben.  Die zunehmende Abhängigkeit von Cloud-Plattformen und -Entwicklungstools hat die Angriffsfläche vergrößert: So nennen 36 Prozent der deutschen Unternehmen die Cloud-Infrastruktur und -Workloads als die anfälligsten IT-Umgebungen, gefolgt von DevOps und CI/CD-Pipelines (34 Prozent) sowie Quellcode-Repositories (34 Prozent).  Phishing- und Vishing-Angriffe zählen nach wie vor zu den Hauptbedrohungen: 79 Prozent der identitätsbezogenen Sicherheitsverletzungen wurden bei den deutschen Unternehmen durch Phishing verursacht, einschließlich Deepfake-Betrug. Mehr als die Hälfte (51 Prozent) der Unternehmen fielen diesen Angriffen mehrfach zum Opfer und 90 Prozent waren im letzten Jahr von einer Attacke betroffen.  Schwachstellen von Anwendungen und der Diebstahl von Anmeldedaten bleiben große Risiken: 68 Prozent der Sicherheitsverletzungen sind auf gestohlene Anmeldedaten zurückzuführen. 64 Prozent berichten dabei von Sicherheitsvorfällen durch Identitätskompromittierungen durch Dritte und Angriffen auf, respektive über die Lieferkette.  79 Prozent der Sicherheitsexperten beklagen, dass in ihrer Organisation die betriebliche Effizienz Vorrang vor einer robusten Cybersicherheit hat.  87 Prozent der Befragten hierzulande geben an, dass Identitätssilos Cyberrisiken in Unternehmen verursachen. Die Hauptursache für Identitätssilos sind Schatten-IT und nicht autorisierte KI-Anwendungen, die Abhängigkeit von Identitäts-Stacks der Cloud-Plattformen und das Fehlen eines zentralisierten Identitätsmanagements.   Versicherer fordern verbesserte Kontrollen von Privilegien: 86 Prozent geben an, dass Cyberversicherer im Rahmen ihrer Policies strengere Sicherheitsanforderungen durchsetzen, insbesondere im Hinblick auf die Kontrolle von Berechtigungen.  

Schatten-KI reißt Löcher in die IT-Security​ width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Nur wer weiß, welche Tools sich in den eigenen Systemen herumtreiben, behält die Kontrolle und kann die Sicherheit gewährleisten.Toma Stepunina – shutterstock.com

Der Einsatz von KI-Tools scheint viele deutsche Unternehmen zu überfordern. Laut dem aktuellen „CyberArk 2025 Identity Security Landscape Report“ räumen zwei Drittel aller Betriebe hierzulande ein, nicht in der Lage zu sein, alle verwendeten Schatten-KI-Tools zu sichern und zu verwalten. Vier von zehn befragten Firmen gaben zu, dass in der eigenen Organisation nicht nur freigegebene Werkzeuge genutzt würden, sondern auch nicht autorisierte Tools. 

Die unsichtbare Gefahr durch GenAI

Der Report, den Sicherheitsanbieter CyberArk beim Marktforschungsunternehmen Vanson Bourne in Auftrag gegeben hat, wirft ein besonderes Schlaglicht auf den KI-Einsatz in Unternehmen weltweit. Befragt wurden 2.600 Cybersecurity-Entscheider in Deutschland, Frankreich, Großbritannien, Italien, den Niederlanden, Spanien, Australien, Brasilien, Hongkong, Indien, Israel, Japan, Kanada, Mexiko, Saudi-Arabien, Singapur, Südafrika, Taiwan sowie den USA und den Vereinigten Arabischen Emiraten.

Mehr maschinelle Identitäten – mehr Security-Probleme

Mit dem verstärkten KI-Einsatz ist ein neuer, bedeutender Angriffsvektor entstanden, lautet das Fazit der Studienautoren. 94 Prozent der befragten Unternehmen in Deutschland nutzen inzwischen KI und große Sprachmodelle (LLMs). 82 Prozent bestätigte, dass der KI- und LLM-Zugriff auf große Mengen sensibler Daten erhebliche Security-Risiken mit sich bringt.

Wie Schatten-KI den Tech-Stack bereichert

Das liegt in erster Linie an den dazugehörigen Zugriffsprivilegien. Die Studie hat gezeigt, dass die Zahl der maschinellen Identitäten in den Betrieben hierzulande deutlich wächst. Im Durchschnitt kämen auf eine menschliche Identität in den IT-Systemen mittlerweile mehr als 80 Maschinenidentitäten. Dieses Wachstum berge ein hohes Sicherheitsrisiko, hieß es. Denn 42 Prozent dieser maschinellen Identitäten haben Zugriff auf sensible geschäftskritische Systeme. Die damit verbundenen Gefahren würden indes oft verkannt, mahnen die Security-Experten. Nur jedes zehnte Unternehmen stufe Maschinenidentitäten als privilegierte User ein.

Wer bringt die KI-Agenten unter Kontrolle?

Das Problem könnte mit dem Boom von KI-Agenten eine neue Dimension erreichen. Immer mehr Anbieter von Business-Software bauen entsprechende Features in ihre Suite ein. Salesforce-Chef Marc Benioff fabulierte erst vor wenigen Monaten, dass sich schon bald eine Milliarde solcher KI-Agenten im Salesforce-Universum tummeln könnten. 

Für die IT-Security-Verantwortlichen möglicherweise ein Albtraum. Wenn diese KI-Agenten selbstständig Aufgaben übernehmen und abarbeiten sollen, brauchen sie Zugriff auf Systeme und Daten. An dieser Stelle eine funktionierende Rechte- und Identitätenverwaltung aufzubauen und vor allem in einem sich ständig verändernden Gesamtsystem aufrecht zu erhalten, dürfte alles andere als einfach werden.  

Weitere Untersuchungsergebnisse aus dem „CyberArk 2025 Identity Security Landscape Report“ zu deutschen Unternehmen im Überblick: 

Zwar verwenden 94 Prozent der hiesigen Unternehmen Tools, um Cloud-Sessions zu überwachen und abzusichern. Allerdings bestätigt fast die Hälfte (49 Prozent), keinen vollständigen Überblick über die Berechtigungen und Zugriffsrechte in ihren Cloud-Umgebungen zu haben. 

Die zunehmende Abhängigkeit von Cloud-Plattformen und -Entwicklungstools hat die Angriffsfläche vergrößert: So nennen 36 Prozent der deutschen Unternehmen die Cloud-Infrastruktur und -Workloads als die anfälligsten IT-Umgebungen, gefolgt von DevOps und CI/CD-Pipelines (34 Prozent) sowie Quellcode-Repositories (34 Prozent). 

Phishing- und Vishing-Angriffe zählen nach wie vor zu den Hauptbedrohungen: 79 Prozent der identitätsbezogenen Sicherheitsverletzungen wurden bei den deutschen Unternehmen durch Phishing verursacht, einschließlich Deepfake-Betrug. Mehr als die Hälfte (51 Prozent) der Unternehmen fielen diesen Angriffen mehrfach zum Opfer und 90 Prozent waren im letzten Jahr von einer Attacke betroffen. 

Schwachstellen von Anwendungen und der Diebstahl von Anmeldedaten bleiben große Risiken: 68 Prozent der Sicherheitsverletzungen sind auf gestohlene Anmeldedaten zurückzuführen. 64 Prozent berichten dabei von Sicherheitsvorfällen durch Identitätskompromittierungen durch Dritte und Angriffen auf, respektive über die Lieferkette. 

79 Prozent der Sicherheitsexperten beklagen, dass in ihrer Organisation die betriebliche Effizienz Vorrang vor einer robusten Cybersicherheit hat. 

87 Prozent der Befragten hierzulande geben an, dass Identitätssilos Cyberrisiken in Unternehmen verursachen. Die Hauptursache für Identitätssilos sind Schatten-IT und nicht autorisierte KI-Anwendungen, die Abhängigkeit von Identitäts-Stacks der Cloud-Plattformen und das Fehlen eines zentralisierten Identitätsmanagements.  

Versicherer fordern verbesserte Kontrollen von Privilegien: 86 Prozent geben an, dass Cyberversicherer im Rahmen ihrer Policies strengere Sicherheitsanforderungen durchsetzen, insbesondere im Hinblick auf die Kontrolle von Berechtigungen. 

Schatten-KI reißt Löcher in die IT-Security​ Weiterlesen »

Nach oben scrollen
×