Computerhaus Quickborn

Allgemein

Poco F7 Pro: Gelungenes Mittelklasse-Smartphone im Test​

Allgemein

Connor Jewiss/Foundry Auf einen Blick Pro Flaggschiff-Chip Snapdragon 8 Gen 3 Beeindruckendes Display Zuverlässige Akkulaufzeit Hochwertiges, IP68-zertifiziertes Gehäuse Kontra Ultraweitwinkel-Kamera ist gerade noch okay Das Display ist nicht hell genug Vorinstallierte Bloatware Fazit Mit dem Snapdragon 8 Gen 3, einem atemberaubenden 2K-AMOLED-Display, IP68-Wasser- und Staubresistenz und blitzschnellem Aufladen bietet das Poco F7 Pro echte Flaggschiff-Qualitäten. Dabei kostet das Smartphone nur die Hälfte dessen, was sonst für High-End-Modelle aufgerufen wird. Es gibt Kompromisse, darunter Schwächen bei der Kamera, dem Display und zu viel Bloatware. Aber es ist schwer, ein Smartphone zu finden, das so viel Leistung für weniger Geld bietet. Das Poco F7 Pro bringt echte Flaggschiff-Power in die Smartphone-Mittelklasse. Dazu kommen elegantes Design, ein 2K-Display und einer der effizientesten Chipsätze der letzten Zeit. Wenn Sie sich die Leistung eines Flaggschiffs, eine exzellente Akkulaufzeit und ein brillantes Display wünschen, ohne Ihr Budget zu sprengen, dann ist das Poco F7 Pro in jeder Hinsicht das Richtige für Sie. Das Smartphone ist dennoch nicht perfekt. Die Ultraweitwinkel-Kamera ist nur durchschnittlich, das Display nicht hell genug und es gibt kein kabelloses Laden. Aber diese Kompromisse sind leicht zu verzeihen, wenn man bedenkt, was Sie für den Preis bekommen. Design & Verarbeitung Schlanke Konstruktion aus Glas und Metall IP68 Wasser- und Staubschutz Ins Display integrierter Ultraschall-Fingerabdruckscanner Das Poco F7 Pro setzt in diesem Jahr auf eine raffiniertere Ästhetik, die hochwertiges Design mit Zweckmäßigkeit verbindet. Wo ältere Poco-Geräte noch an Gamer-Smartphones erinnerten, geht das F7 Pro in eine erwachsene Richtung. Dieses Mittelklasse-Smartphone bietet symmetrische Rundungen, einen Kontrast aus Matt und Glanz auf der Rückseite und einen stabilen Aluminiumrahmen. Connor Jewiss / Foundry Das ergibt einen dezenten Look, besonders in der silbernen Ausführung, die ich getestet habe. Und es fühlt sich deutlich hochwertiger an als das F6 Pro aus dem vergangenen Jahr. Mein einziger Kritikpunkt an dieser Farbe ist, dass sie ein wahrer Magnet für Fingerabdrücke und Staub ist. Es wird dadurch schwer, Ihr Gerät wie neu aussehen zu lassen, es sei denn, Sie verwenden eine Hülle. Doch dies würde den Sinn eines so interessanten Designs zunichtemachen. Das runde Kameramodul erinnert ebenfalls an Flaggschiff-Geräte, und das Smartphone liegt unglaublich gut in der Hand. Das Modul befindet sich in der oberen Ecke des Geräts und nicht in der Mitte, was leicht an das iPhone erinnert. Doch genau dieses Kameramodul ist ebenfalls ein Magnet für Staub und Fussel. Connor Jewiss / Foundry Auf der Rückseite befindet sich ein ziemlich großes Poco-Logo, unter dem sich alle regulatorischen Hinweise befinden. Das ist kein Mangel, aber es ist etwas, das man beachten sollte. Denn dadurch wirkt das untere Drittel des Smartphones wie eine Werbeanzeige. Mit 206 Gramm und einer Dicke von 8,12 Millimetern ist das Smartphone gut ausbalanciert. Dazu kommt die IP68-Zertifizierung. Endlich ist ein Poco-Smartphone wasser- und staubdicht! Das ist etwas, was ich mir schon lange gewünscht habe, denn immer mehr Mittelklassegeräte erfüllen diese Schutzklasse. Das allein ist schon ein großes Upgrade und stellt das F7 Pro in direkten Wettbewerb mit weitaus teureren Mittelklasse-Smartphones, darunter das F7 Ultra. Das Poco F7 Pro setzt in diesem Jahr auf eine raffiniertere Ästhetik, die hochwertiges Design mit Zweckmäßigkeit verbindet. Auf der Vorderseite schützt Gorilla Glass 7i das 6,67-Zoll-Display, während Poco darunter einen Ultraschall-Fingerabdrucksensor verbaut hat. Er ist ein echtes Upgrade gegenüber den optischen Fingerabdrucksensoren vieler Konkurrenten. Er ist schnell, genau und funktioniert auch mit nassen oder fettigen Fingern. Rund um das Gehäuse finden Sie außerdem Stereolautsprecher, einen IR-Sender, Dual-SIM-Unterstützung und eine Haptik, die sich sehr hochwertig anfühlt – etwas, was man von Handys in dieser Preisklasse normalerweise nicht behaupten kann. Bildschirm & Lautsprecher Atemberaubendes 2K Flow AMOLED-Display mit 1.440p-Auflösung 120-Hertz-Bildwiederholfrequenz mit Dolby Vision und HDR10 Die Helligkeit ist in hellen Umgebungen enttäuschend Der Bildschirm des Poco F7 Pro ist für seine Klasse außergewöhnlich. Sie erhalten ein 6,67 Zoll großes AMOLED-Display mit einer scharfen Auflösung von 3.200 × 1.440 Pixeln, einer Bildwiederholfrequenz von 120 Hertz und Unterstützung für Dolby Vision und HDR10. Die Farben sind akkurat und die Bilder sehen meistens lebendig und scharf aus, vor allem, wenn Sie sich HDR-Inhalte ansehen. Connor Jewiss / Foundry Allerdings ist dieser Bildschirm bei Weitem nicht so hell, wie ich es erwartet hätte. Schauen Sie sich einfach das Bild oben an – Sie können sehen, wie schwach das Display ist, wenn Sie es im Freien im hellen Sonnenlicht verwenden. Mittelklasse-Smartphones sind nie so hell wie Flaggschiffe, aber beim Poco F7 Pro scheint dies besonders auffällig zu sein. Das ist enttäuschend, wenn man bedenkt, dass Pocos neuestes Modell über eine Technologie zur zirkularen Polarisation verfügt, die das natürliche Licht nachahmt und so für mehr Sehkomfort sorgt. Außerdem gibt es eine 3.840 Hertz PWM-Dimmung und Zertifizierungen für geringes blaues Licht und eine flimmerfreie Nutzung. Wenn Sie viel Zeit mit Ihrem Smartphone verbringen, ist dieser Bildschirm für die Augen angenehmer als die meisten anderen. Der Bildschirm des Poco F7 Pro ist für seine Klasse außergewöhnlich Der Klang ist genau so, wie Sie es von einem Mittelklasse-Smartphone erwarten würden. Die Stereolautsprecher sind passabel, wenn Sie Inhalte laut wiedergeben möchten. Aber ich würde Ihnen empfehlen, einen Kopfhörer zu verwenden, wenn Sie sich Filme anschauen oder Musik hören möchten. Die Lautsprecher des F7 Pro klingen dennoch weniger blechern als bei anderen Mittelklasse-Smartphones, die ich getestet habe. Es gibt keine Buchse für Kopfhörer, aber das haben Sie wahrscheinlich auch nicht erwartet. Spezifikationen & Leistung Snapdragon 8 Gen 3 ist auch im Jahr 2025 noch sehr schnell Multitasking funktioniert sehr flüssig Das Gerät bietet eine gute Spielleistung Die Entscheidung von Poco, den Snapdragon 8 Gen 3 aus dem letzten Jahr und nicht den neueren 8 Elite zu verwenden, ist klug. Sie macht es möglich, dieses Gerät unter 500 Euro anzubieten. Aber seien Sie unbesorgt – dieser Chipsatz ist immer noch ein absolutes Kraftpaket und effizienter als viele neue Mittelklasse-Chipsätze. Connor Jewiss / Foundry Im Geekbench 6 erzielt das F7 Pro einen beeindruckenden Wert von 5.605 im Multi-Core-Bereich – auf Augenhöhe mit dem Galaxy S23 Ultra. Das zeigt, wie viel Leistung Sie aus Pocos neuestem Mittelklassegerät herausquetschen können. Diese Zahl ist gleichzeitig viel höher als die Ergebnisse der Pixel 9-Serie mit Tensor G4. Bei der täglichen Nutzung dieses Smartphones erwarten Sie keine Verzögerungen oder Verlangsamungen, etwas, das ich von anderen Mittelklassegeräten kleinerer Marken eigentlich immer erwarte. Das Poco schafft es hingegen, schnell und einfach zwischen Apps zu wechseln oder ressourcenintensive Aufgaben wie Videoaufnahmen verzögerungsfrei auszuführen. Allerdings kann sich das Smartphone dabei erwärmen, wenn Sie seine Leistung voll ausschöpfen. In Benchmark-Tests habe ich beobachtet, dass sich das Gerät dann sehr warm anfühlt. Das passiert zwar nicht im täglichen Gebrauch und Sie werden das Poco F7 Pro wahrscheinlich nicht häufig ausreizen, aber es ist dennoch zu beachten. Die Entscheidung von Poco, den Snapdragon 8 Gen 3 aus dem letzten Jahr und nicht den neueren 8 Elite zu verwenden, ist klug. Sie macht es möglich, dieses Gerät unter 500 Euro anzubieten. Die Spielleistung ist ebenfalls ziemlich gut. Poco gibt an, dass “Genshin Impact” dank der “WildBoost Optimization 4.0” und dem “IceLoop”-Flüssigkeitskühlsystem mit 90 Bildern pro Sekunde und anhaltend flüssig laufen soll. Obwohl ich kein großer Gamer bin, konnte ich diese Ergebnisse nur reproduzieren, wenn ich die Qualität herunterschraubte. Bei höheren Auflösungen kommt es, wie zu erwarten, zu Verzögerungen. Einfachere Spiele laufen hingegen mit Leichtigkeit, obwohl das Smartphone nach einer Weile recht warm wird. Die Latenz bei Berührungen ist beeindruckend niedrig, und die neue “Smart Frame Rate” sorgt dafür, dass auch bei anspruchsvolleren Titeln alles flüssig läuft. Der Speicher ist mit UFS 4.1 angebunden – der schnellste verfügbare Standard – und die Zugriffsgeschwindigkeiten des F7 Pro übertreffen sogar einige teurere Modelle wie das Galaxy S24 aus dem letzten Jahr. Die RAM-Ausstattung ist mit 12 Gigabyte LPDDR5X ebenfalls großartig, und obwohl es keine Unterstützung für Micro-SD-Erweiterung gibt, bedeutet die Option mit 256 oder 512 Gigabyte internem Speicher, dass nur wenige Menschen eine solche benötigen würden. Poco bietet auch weiterhin seinen hervorragenden IR-Blaster, Stereo-Lautsprecher, NFC, Wi-Fi 7 und sogar Dual-Frequenz-GPS. Poco F7 Pro Benchmarks Kameras 50-Megapixel-Hauptsensor mit OIS Liefert solide HDR- und Low-Light-Leistung 8-Megapixel-Ultraweitwinkel-Kamera eher mittelmäßig Das Kamera-Set-up des F7 Pro ist einfach, aber effektiv: eine 50-Megapixel-Hauptkamera mit OIS, die den gleichen Light Fusion 800-Sensor verwendet, den wir schon in einigen Xiaomi-Flaggschiffen gesehen haben, gepaart mit einer 8-Megapixel-Ultraweitwinkel- und einer 20-Megapixel-Selfie-Kamera. Connor Jewiss / Foundry Die Fotos der Hauptkamera sind scharf, lebendig und gut belichtet, insbesondere bei Tageslicht. Der Dynamikbereich ist ausgezeichnet, mit guter Kontrolle der Lichter und tiefen Schatten. Die Farbwiedergabe ist gut abgestimmt, mit natürlich wirkenden Tönen. Ich war tatsächlich überrascht, wie scharf die Bilder sind, und sie behalten sogar viele Details, wenn Sie anfangen zu zoomen. Wenn Sie die Fotos mit der 2x-Zoom-Option aufnehmen, sehen sie etwas weniger scharf aus. Das ist besonders auffällig, wenn Sie versuchen, weiter in das Foto hineinzuzoomen. Das liegt daran, dass es sich um einen digitalen Zoom handelt – das F7 Pro verfügt nicht über ein Teleobjektiv. Obwohl ich bei diesem mittleren Preis nicht unbedingt ein Tele erwarten würde, wäre es eine willkommene Ergänzung – und vielleicht nützlicher als der Ultraweitwinkel-Sensor, der stattdessen verbaut wurde. Auch die Nachtaufnahmen sind dank KI-unterstütztem HDR und computergestützter Fotografie erstaunlich gut. Die Bilder bleiben trotz der schlechten Lichtverhältnisse ziemlich scharf und detailliert. Auch die Farbgenauigkeit ist ziemlich gut – die Bildverarbeitung kompensiert nicht übermäßig. Eine Funktion, die mir gut gefallen hat, ist, dass das Smartphone automatisch den Nachtmodus aktiviert, wenn Sie im Dunkeln fotografieren. Das klingt zwar selbstverständlich, aber die meisten Mittelklasse-Handys, die ich getestet habe, tun dies nicht. Außerdem erhalten Sie einige clevere Fotofunktionen wie “UltraSnap”, das bis zu 150 Bilder in schneller Folge aufnimmt, und den “AI Creativity Assistant” für die Bearbeitung und Retusche. Die Videoqualität erreicht in 4K-Auflösung 60 Bilder pro Sekunde und bietet eine gute Stabilisierung, obwohl die Aufnahmen bei schlechten Lichtverhältnissen verrauscht sein können. Connor Jewiss/Foundry Die Ultraweitwinkel-Kamera fühlt sich jedoch wie ein nachträglicher Einfall an. Bei Tageslicht sind die Ergebnisse noch annehmbar, aber bei schwächerem Licht werden die Fotos schnell verrauscht, sodass der Qualitätsunterschied zwischen dem Haupt- und dem Zweitobjektiv deutlich wird. Da dies die Kameraoption ist, die am seltensten benutzt wird, verstehe ich, warum sich Poco dazu entschieden hat. Aber ein hochwertigerer Sensor oder sogar ein Teleobjektiv wären besser gewesen. Was die Selfie-Kamera angeht, so ist diese gut, auch wenn die Porträtkantenerkennung bislang nicht optimal funktioniert. Alle Selfie-Aufnahmen, die Sie für soziale Medien machen, sind mehr als gut genug, und das gilt auch für Videos, die Sie aufnehmen. Der Porträtmodus funktioniert zuverlässiger, wenn Sie die rückwärtige Kamera verwenden, obwohl die Kantenerkennung weiterhin nicht perfekt ist – ich vermute, dass dies an der Bildverarbeitung von Poco liegt. Die Fotos der Hauptkamera sind scharf, lebendig und gut belichtet – besonders bei Tageslicht Alles in allem ist die Kamera des F7 Pro nicht bahnbrechend, aber sie beherrscht die Grundlagen und nutzt die Intelligenz der Software, um mehr aus der Hardware herauszuholen. Das ist bei einem Mittelklasse-Smartphone nicht immer der Fall, also ein großes Lob an Poco dafür. Das Smartphone ist kein Konkurrent für das Pixel 9a, was die reine Bildqualität angeht, aber es ist immer noch mehr als gut genug für soziale Medien und alltägliche Aufnahmen. Akkulaufzeit & Aufladen Der 6.000-Milliamperestunden-Akku hält locker einen ganzen Tag durch 90 Watt HyperCharge füllt den Akku in 37 Minuten von 0 auf 100 Prozent auf Intelligentes KI-Akku-Management verlängert die Langlebigkeit Die Akkulaufzeit ist ein weiterer großer Pluspunkt des Poco F7 Pro. Mit einer 6.000-Milliamperestunden-Zelle hält dieses Mittelklasse-Smartphone meist mehr als einen Tag durch, selbst bei intensiver Nutzung. Ich habe dieses Gerät einen Tag lang auf Reisen benutzt – Videos ansehen, Musik abspielen, Wegbeschreibung und die üblichen Aufgaben – und es war am Ende des Tages immer noch nicht vollkommen leer. Im Flugzeugmodus hat das Smartphone mehr als eine Woche mit minimaler Nutzung überstanden. Das liegt teilweise an der Effizienz des Snapdragon 8 Gen 3, aber auch an der KI-gesteuerten Energieverwaltung von HyperOS. Connor Jewiss / Foundry An einem typischen Tag mit gemischter Nutzung – Musik hören, 5G, Videoanrufe und Hintergrundsynchronisation – hatte ich am Ende nur noch etwas mehr als 35 Prozent Akku übrig. Das ist beeindruckend, primär in Anbetracht des hochauflösenden 2K-Panels. Das Aufladen klappt ebenfalls gut. Poco gibt an, dass das mitgelieferte 90-Watt-HyperCharge-Netzteil das Smartphone in etwa 37 Minuten vollständig aufladen kann, wobei eine 50-prozentige Aufladung nur 15 Minuten dauert. In meinen Tests hat das Smartphone fast identische Ergebnisse erzielt und nur ein paar Minuten länger gebraucht. Wenn Sie ein normales 50-Watt-Netzteil verwenden, das Sie vielleicht zu Hause haben, dauert der Ladevorgang etwas länger, nämlich 1 Stunde und 15 Minuten. Auch das Wärmemanagement ist gut, sodass das Smartphone beim Laden nicht überhitzt. Die Akkulaufzeit ist ein weiterer großer Pluspunkt des Poco F7 Pro Diese Art von Akku- und Ladefunktionen würde man sonst eher von viel teureren Flaggschiffen erwarten. Dies ist damit ein weiterer Bereich, in dem Poco den Nutzern Flaggschiff-Funktionen ohne das dafür normalerweise fällige Preisschild anbietet. Software & Eigenschaften Läuft mit Xiaomi HyperOS 2 (basierend auf Android 15) Beinhaltet Gemini AI und HyperAI Integrationen Ein wenig Bloatware im Lieferumfang, aber das meiste davon ist entfernbar Das Poco F7 Pro wird mit HyperOS 2 ausgeliefert, Xiaomis neuester Systemsoftware, die auf Android 15 basiert. HyperOS sorgt für eine verfeinerte Benutzeroberfläche mit höherer Animationsgeschwindigkeit, saubererem Schriftbild und etwas weniger Durcheinander, obwohl es sich immer noch deutlich nach einem Xiaomi-Smartphone anfühlt. Mir gefällt dieses Design, auch wenn man durchaus erkennen kann, wo sich die Marke von Apples iOS hat inspirieren lassen. Connor Jewiss / Foundry Sie finden eine Handvoll vorinstallierter Apps, darunter ein paar Spiele und Xiaomis eigene App-Suite. Aber die meisten davon können deinstalliert werden. Das ist bei einem Mittelklasse-Smartphone zu erwarten. Doch das F7 Pro hat weniger Bloatware an Bord als andere Geräte, die ich getestet habe. Trotzdem ist es für mich ein massives Problem, das erwähnt werden sollte. Poco verlässt sich in diesem Jahr stark auf KI. Sowohl Google Gemini als auch HyperAI sind in System-Apps wie Notizen, Kalender und die Kamera integriert. KI-Zusammenfassungen, Transkription und Tools zur Bildverbesserung sind ebenfalls bereits enthalten. Sie erhalten diese Funktionen auf den meisten Handys mit Android 15, aber es ist schön, die tiefere Integration von HyperAI zu sehen. HyperOS sorgt für eine verfeinerte Benutzeroberfläche mit höherer Animationsgeschwindigkeit, saubererem Schriftbild und etwas weniger Durcheinander Das einzige wirkliche Fragezeichen ist die Softwareunterstützung. Xiaomi hat sich zu drei Android-Updates und vier Jahren Sicherheitspatches verpflichtet. Das ist anständig, kann aber nicht ganz mit Samsung oder Google mithalten, die in dieser Preisklasse sechs oder sieben Jahre bieten. Dennoch ist es eine Verbesserung gegenüber den Vorjahren. Preis & Verfügbarkeit Das Poco F7 Pro können Sie ab sofort kaufen. Bei der Markteinführung wurden die folgenden Preise aufgerufen, aber es gibt oft Rabatte: 12 Gigabyte RAM und 256 Gigabyte Speicher: 499 Euro 12 Gigabyte RAM und 512 Gigabyte Speicherplatz: 549 Euro Zur Auswahl stehen die Farben Schwarz, Silber und Blau. Das ist nicht unbedingt die aufregendste Auswahl, aber es gibt immer noch eine gewisse Flexibilität, um eine Option zu finden, die Ihnen gefällt. Sie können das Poco F7 Pro direkt im Xiaomi-Store kaufen. Auch bei Amazon wird das Smartphone zum gleichen Preis angeboten. Connor Jewiss / Foundry Mit einem Preis von 499 Euro liegt das Poco F7 Pro Kopf an Kopf mit dem Google Pixel 9a und dem Samsung Galaxy A56 (beide ebenfalls 499 Euro). Aber es gibt noch viele andere Mittelklasse-Alternativen, darunter das Nothing Phone (3a), das mit 329 Euro einen viel günstigeren Startpreis hat. Sollten Sie das Poco F7 Pro kaufen? Das Poco F7 Pro ist ein Flaggschiff-Killer im wahrsten Sinne des Wortes. Es versucht nicht, alles zu können – aber das, was es kann, macht es gut … meistens. Der Snapdragon 8 Gen 3 bietet eine exzellente Leistung für den Preis, das 2K-AMOLED-Display ist einfach wunderschön und die Akkulaufzeit ist erstklassig. Wenn Sie dann noch ein 90 Watt-Ladegerät, IP68-Wasser- und Staubschutz und einige intelligente KI-Funktionen hinzufügen, erhalten Sie eines der am besten abgerundeten Smartphones in diesem Marktsegment. Sicher, die Ultraweitwinkel-Kamera ist einfach gehalten, es gibt viel Bloatware, die entfernt werden muss, und ich würde mir ein helleres Display wünschen, das Sie auch im Freien verwenden können. Aber das sind nur Kleinigkeiten angesichts dessen, was Sie insgesamt für Ihr Geld bekommen. Mit einem so aggressiven Preis ist das F7 Pro meiner Meinung nach eines der besten Angebote des Jahres 2025. Wenn Sie im Alltag mehr Wert auf Geschwindigkeit, Akku und Optik als auf hochmoderne Kamerafunktionen legen, dann ist das Poco F7 Pro das richtige Handy für Sie. Prüfen Sie nur vor dem Kauf, ob das teurere Poco F7 Ultra nicht besser zu Ihnen passen würde. Spezifikationen HyperOS 2, basierend auf Android 15 6,67-Zoll, 1.440 x 3.200, OLED, 120-Hertz-Display Ultraschall-Fingerabdruckleser unter dem Display Qualcomm Snapdragon 8 Gen 3 12-Gigabyte-RAM 256 Gigabyte / 512 Gigabyte Speicher Kameras: 50-Megapixel-Hauptsensor 8-Megapixel-Ultraweitwinkel 20-Megapixel-Selfie-Kamera Stereo-Lautsprecher Dual-SIM Wi-Fi 802.11 a/b/g/n/ac/6e/7 Bluetooth 5.4 6.000 Milliamperestunden Akku 90 Watt kabelgebundenes Laden 160,3 × 75 × 8,1 Millimeter IP68 zertifiziert 206 Gramm Farben: Schwarz, Silber, Blau (PC-Welt) 

Poco F7 Pro: Gelungenes Mittelklasse-Smartphone im Test​ Connor Jewiss/Foundry

Auf einen Blick

Pro

Flaggschiff-Chip Snapdragon 8 Gen 3

Beeindruckendes Display

Zuverlässige Akkulaufzeit

Hochwertiges, IP68-zertifiziertes Gehäuse

Kontra

Ultraweitwinkel-Kamera ist gerade noch okay

Das Display ist nicht hell genug

Vorinstallierte Bloatware

Fazit

Mit dem Snapdragon 8 Gen 3, einem atemberaubenden 2K-AMOLED-Display, IP68-Wasser- und Staubresistenz und blitzschnellem Aufladen bietet das Poco F7 Pro echte Flaggschiff-Qualitäten. Dabei kostet das Smartphone nur die Hälfte dessen, was sonst für High-End-Modelle aufgerufen wird. Es gibt Kompromisse, darunter Schwächen bei der Kamera, dem Display und zu viel Bloatware. Aber es ist schwer, ein Smartphone zu finden, das so viel Leistung für weniger Geld bietet.

Das Poco F7 Pro bringt echte Flaggschiff-Power in die Smartphone-Mittelklasse. Dazu kommen elegantes Design, ein 2K-Display und einer der effizientesten Chipsätze der letzten Zeit.

Wenn Sie sich die Leistung eines Flaggschiffs, eine exzellente Akkulaufzeit und ein brillantes Display wünschen, ohne Ihr Budget zu sprengen, dann ist das Poco F7 Pro in jeder Hinsicht das Richtige für Sie.

Das Smartphone ist dennoch nicht perfekt. Die Ultraweitwinkel-Kamera ist nur durchschnittlich, das Display nicht hell genug und es gibt kein kabelloses Laden. Aber diese Kompromisse sind leicht zu verzeihen, wenn man bedenkt, was Sie für den Preis bekommen.

Design & Verarbeitung

Schlanke Konstruktion aus Glas und Metall

IP68 Wasser- und Staubschutz

Ins Display integrierter Ultraschall-Fingerabdruckscanner

Das Poco F7 Pro setzt in diesem Jahr auf eine raffiniertere Ästhetik, die hochwertiges Design mit Zweckmäßigkeit verbindet. Wo ältere Poco-Geräte noch an Gamer-Smartphones erinnerten, geht das F7 Pro in eine erwachsene Richtung. Dieses Mittelklasse-Smartphone bietet symmetrische Rundungen, einen Kontrast aus Matt und Glanz auf der Rückseite und einen stabilen Aluminiumrahmen.

Connor Jewiss / Foundry

Das ergibt einen dezenten Look, besonders in der silbernen Ausführung, die ich getestet habe. Und es fühlt sich deutlich hochwertiger an als das F6 Pro aus dem vergangenen Jahr. Mein einziger Kritikpunkt an dieser Farbe ist, dass sie ein wahrer Magnet für Fingerabdrücke und Staub ist. Es wird dadurch schwer, Ihr Gerät wie neu aussehen zu lassen, es sei denn, Sie verwenden eine Hülle. Doch dies würde den Sinn eines so interessanten Designs zunichtemachen.

Das runde Kameramodul erinnert ebenfalls an Flaggschiff-Geräte, und das Smartphone liegt unglaublich gut in der Hand. Das Modul befindet sich in der oberen Ecke des Geräts und nicht in der Mitte, was leicht an das iPhone erinnert. Doch genau dieses Kameramodul ist ebenfalls ein Magnet für Staub und Fussel.

Connor Jewiss / Foundry

Auf der Rückseite befindet sich ein ziemlich großes Poco-Logo, unter dem sich alle regulatorischen Hinweise befinden. Das ist kein Mangel, aber es ist etwas, das man beachten sollte. Denn dadurch wirkt das untere Drittel des Smartphones wie eine Werbeanzeige.

Mit 206 Gramm und einer Dicke von 8,12 Millimetern ist das Smartphone gut ausbalanciert. Dazu kommt die IP68-Zertifizierung. Endlich ist ein Poco-Smartphone wasser- und staubdicht! Das ist etwas, was ich mir schon lange gewünscht habe, denn immer mehr Mittelklassegeräte erfüllen diese Schutzklasse. Das allein ist schon ein großes Upgrade und stellt das F7 Pro in direkten Wettbewerb mit weitaus teureren Mittelklasse-Smartphones, darunter das F7 Ultra.

Das Poco F7 Pro setzt in diesem Jahr auf eine raffiniertere Ästhetik, die hochwertiges Design mit Zweckmäßigkeit verbindet.

Auf der Vorderseite schützt Gorilla Glass 7i das 6,67-Zoll-Display, während Poco darunter einen Ultraschall-Fingerabdrucksensor verbaut hat. Er ist ein echtes Upgrade gegenüber den optischen Fingerabdrucksensoren vieler Konkurrenten. Er ist schnell, genau und funktioniert auch mit nassen oder fettigen Fingern.

Rund um das Gehäuse finden Sie außerdem Stereolautsprecher, einen IR-Sender, Dual-SIM-Unterstützung und eine Haptik, die sich sehr hochwertig anfühlt – etwas, was man von Handys in dieser Preisklasse normalerweise nicht behaupten kann.

Bildschirm & Lautsprecher

Atemberaubendes 2K Flow AMOLED-Display mit 1.440p-Auflösung

120-Hertz-Bildwiederholfrequenz mit Dolby Vision und HDR10

Die Helligkeit ist in hellen Umgebungen enttäuschend

Der Bildschirm des Poco F7 Pro ist für seine Klasse außergewöhnlich. Sie erhalten ein 6,67 Zoll großes AMOLED-Display mit einer scharfen Auflösung von 3.200 × 1.440 Pixeln, einer Bildwiederholfrequenz von 120 Hertz und Unterstützung für Dolby Vision und HDR10. Die Farben sind akkurat und die Bilder sehen meistens lebendig und scharf aus, vor allem, wenn Sie sich HDR-Inhalte ansehen.

Connor Jewiss / Foundry

Allerdings ist dieser Bildschirm bei Weitem nicht so hell, wie ich es erwartet hätte. Schauen Sie sich einfach das Bild oben an – Sie können sehen, wie schwach das Display ist, wenn Sie es im Freien im hellen Sonnenlicht verwenden.

Mittelklasse-Smartphones sind nie so hell wie Flaggschiffe, aber beim Poco F7 Pro scheint dies besonders auffällig zu sein. Das ist enttäuschend, wenn man bedenkt, dass Pocos neuestes Modell über eine Technologie zur zirkularen Polarisation verfügt, die das natürliche Licht nachahmt und so für mehr Sehkomfort sorgt.

Außerdem gibt es eine 3.840 Hertz PWM-Dimmung und Zertifizierungen für geringes blaues Licht und eine flimmerfreie Nutzung. Wenn Sie viel Zeit mit Ihrem Smartphone verbringen, ist dieser Bildschirm für die Augen angenehmer als die meisten anderen.

Der Bildschirm des Poco F7 Pro ist für seine Klasse außergewöhnlich

Der Klang ist genau so, wie Sie es von einem Mittelklasse-Smartphone erwarten würden. Die Stereolautsprecher sind passabel, wenn Sie Inhalte laut wiedergeben möchten. Aber ich würde Ihnen empfehlen, einen Kopfhörer zu verwenden, wenn Sie sich Filme anschauen oder Musik hören möchten.

Die Lautsprecher des F7 Pro klingen dennoch weniger blechern als bei anderen Mittelklasse-Smartphones, die ich getestet habe. Es gibt keine Buchse für Kopfhörer, aber das haben Sie wahrscheinlich auch nicht erwartet.

Spezifikationen & Leistung

Snapdragon 8 Gen 3 ist auch im Jahr 2025 noch sehr schnell

Multitasking funktioniert sehr flüssig

Das Gerät bietet eine gute Spielleistung

Die Entscheidung von Poco, den Snapdragon 8 Gen 3 aus dem letzten Jahr und nicht den neueren 8 Elite zu verwenden, ist klug. Sie macht es möglich, dieses Gerät unter 500 Euro anzubieten.

Aber seien Sie unbesorgt – dieser Chipsatz ist immer noch ein absolutes Kraftpaket und effizienter als viele neue Mittelklasse-Chipsätze.

Connor Jewiss / Foundry

Im Geekbench 6 erzielt das F7 Pro einen beeindruckenden Wert von 5.605 im Multi-Core-Bereich – auf Augenhöhe mit dem Galaxy S23 Ultra. Das zeigt, wie viel Leistung Sie aus Pocos neuestem Mittelklassegerät herausquetschen können. Diese Zahl ist gleichzeitig viel höher als die Ergebnisse der Pixel 9-Serie mit Tensor G4.

Bei der täglichen Nutzung dieses Smartphones erwarten Sie keine Verzögerungen oder Verlangsamungen, etwas, das ich von anderen Mittelklassegeräten kleinerer Marken eigentlich immer erwarte. Das Poco schafft es hingegen, schnell und einfach zwischen Apps zu wechseln oder ressourcenintensive Aufgaben wie Videoaufnahmen verzögerungsfrei auszuführen.

Allerdings kann sich das Smartphone dabei erwärmen, wenn Sie seine Leistung voll ausschöpfen. In Benchmark-Tests habe ich beobachtet, dass sich das Gerät dann sehr warm anfühlt. Das passiert zwar nicht im täglichen Gebrauch und Sie werden das Poco F7 Pro wahrscheinlich nicht häufig ausreizen, aber es ist dennoch zu beachten.

Die Entscheidung von Poco, den Snapdragon 8 Gen 3 aus dem letzten Jahr und nicht den neueren 8 Elite zu verwenden, ist klug. Sie macht es möglich, dieses Gerät unter 500 Euro anzubieten.

Die Spielleistung ist ebenfalls ziemlich gut. Poco gibt an, dass “Genshin Impact” dank der “WildBoost Optimization 4.0” und dem “IceLoop”-Flüssigkeitskühlsystem mit 90 Bildern pro Sekunde und anhaltend flüssig laufen soll.

Obwohl ich kein großer Gamer bin, konnte ich diese Ergebnisse nur reproduzieren, wenn ich die Qualität herunterschraubte. Bei höheren Auflösungen kommt es, wie zu erwarten, zu Verzögerungen. Einfachere Spiele laufen hingegen mit Leichtigkeit, obwohl das Smartphone nach einer Weile recht warm wird. Die Latenz bei Berührungen ist beeindruckend niedrig, und die neue “Smart Frame Rate” sorgt dafür, dass auch bei anspruchsvolleren Titeln alles flüssig läuft.

Der Speicher ist mit UFS 4.1 angebunden – der schnellste verfügbare Standard – und die Zugriffsgeschwindigkeiten des F7 Pro übertreffen sogar einige teurere Modelle wie das Galaxy S24 aus dem letzten Jahr.

Die RAM-Ausstattung ist mit 12 Gigabyte LPDDR5X ebenfalls großartig, und obwohl es keine Unterstützung für Micro-SD-Erweiterung gibt, bedeutet die Option mit 256 oder 512 Gigabyte internem Speicher, dass nur wenige Menschen eine solche benötigen würden.

Poco bietet auch weiterhin seinen hervorragenden IR-Blaster, Stereo-Lautsprecher, NFC, Wi-Fi 7 und sogar Dual-Frequenz-GPS.

Poco F7 Pro Benchmarks

Kameras

50-Megapixel-Hauptsensor mit OIS

Liefert solide HDR- und Low-Light-Leistung

8-Megapixel-Ultraweitwinkel-Kamera eher mittelmäßig

Das Kamera-Set-up des F7 Pro ist einfach, aber effektiv: eine 50-Megapixel-Hauptkamera mit OIS, die den gleichen Light Fusion 800-Sensor verwendet, den wir schon in einigen Xiaomi-Flaggschiffen gesehen haben, gepaart mit einer 8-Megapixel-Ultraweitwinkel- und einer 20-Megapixel-Selfie-Kamera.

Connor Jewiss / Foundry

Die Fotos der Hauptkamera sind scharf, lebendig und gut belichtet, insbesondere bei Tageslicht. Der Dynamikbereich ist ausgezeichnet, mit guter Kontrolle der Lichter und tiefen Schatten.

Die Farbwiedergabe ist gut abgestimmt, mit natürlich wirkenden Tönen. Ich war tatsächlich überrascht, wie scharf die Bilder sind, und sie behalten sogar viele Details, wenn Sie anfangen zu zoomen.

Wenn Sie die Fotos mit der 2x-Zoom-Option aufnehmen, sehen sie etwas weniger scharf aus. Das ist besonders auffällig, wenn Sie versuchen, weiter in das Foto hineinzuzoomen. Das liegt daran, dass es sich um einen digitalen Zoom handelt – das F7 Pro verfügt nicht über ein Teleobjektiv. Obwohl ich bei diesem mittleren Preis nicht unbedingt ein Tele erwarten würde, wäre es eine willkommene Ergänzung – und vielleicht nützlicher als der Ultraweitwinkel-Sensor, der stattdessen verbaut wurde.

Auch die Nachtaufnahmen sind dank KI-unterstütztem HDR und computergestützter Fotografie erstaunlich gut. Die Bilder bleiben trotz der schlechten Lichtverhältnisse ziemlich scharf und detailliert.

Auch die Farbgenauigkeit ist ziemlich gut – die Bildverarbeitung kompensiert nicht übermäßig. Eine Funktion, die mir gut gefallen hat, ist, dass das Smartphone automatisch den Nachtmodus aktiviert, wenn Sie im Dunkeln fotografieren. Das klingt zwar selbstverständlich, aber die meisten Mittelklasse-Handys, die ich getestet habe, tun dies nicht.

Außerdem erhalten Sie einige clevere Fotofunktionen wie “UltraSnap”, das bis zu 150 Bilder in schneller Folge aufnimmt, und den “AI Creativity Assistant” für die Bearbeitung und Retusche.

Die Videoqualität erreicht in 4K-Auflösung 60 Bilder pro Sekunde und bietet eine gute Stabilisierung, obwohl die Aufnahmen bei schlechten Lichtverhältnissen verrauscht sein können.

Connor Jewiss/Foundry

Die Ultraweitwinkel-Kamera fühlt sich jedoch wie ein nachträglicher Einfall an. Bei Tageslicht sind die Ergebnisse noch annehmbar, aber bei schwächerem Licht werden die Fotos schnell verrauscht, sodass der Qualitätsunterschied zwischen dem Haupt- und dem Zweitobjektiv deutlich wird. Da dies die Kameraoption ist, die am seltensten benutzt wird, verstehe ich, warum sich Poco dazu entschieden hat. Aber ein hochwertigerer Sensor oder sogar ein Teleobjektiv wären besser gewesen.

Was die Selfie-Kamera angeht, so ist diese gut, auch wenn die Porträtkantenerkennung bislang nicht optimal funktioniert. Alle Selfie-Aufnahmen, die Sie für soziale Medien machen, sind mehr als gut genug, und das gilt auch für Videos, die Sie aufnehmen. Der Porträtmodus funktioniert zuverlässiger, wenn Sie die rückwärtige Kamera verwenden, obwohl die Kantenerkennung weiterhin nicht perfekt ist – ich vermute, dass dies an der Bildverarbeitung von Poco liegt.

Die Fotos der Hauptkamera sind scharf, lebendig und gut belichtet – besonders bei Tageslicht

Alles in allem ist die Kamera des F7 Pro nicht bahnbrechend, aber sie beherrscht die Grundlagen und nutzt die Intelligenz der Software, um mehr aus der Hardware herauszuholen. Das ist bei einem Mittelklasse-Smartphone nicht immer der Fall, also ein großes Lob an Poco dafür. Das Smartphone ist kein Konkurrent für das Pixel 9a, was die reine Bildqualität angeht, aber es ist immer noch mehr als gut genug für soziale Medien und alltägliche Aufnahmen.

Akkulaufzeit & Aufladen

Der 6.000-Milliamperestunden-Akku hält locker einen ganzen Tag durch

90 Watt HyperCharge füllt den Akku in 37 Minuten von 0 auf 100 Prozent auf

Intelligentes KI-Akku-Management verlängert die Langlebigkeit

Die Akkulaufzeit ist ein weiterer großer Pluspunkt des Poco F7 Pro.

Mit einer 6.000-Milliamperestunden-Zelle hält dieses Mittelklasse-Smartphone meist mehr als einen Tag durch, selbst bei intensiver Nutzung. Ich habe dieses Gerät einen Tag lang auf Reisen benutzt – Videos ansehen, Musik abspielen, Wegbeschreibung und die üblichen Aufgaben – und es war am Ende des Tages immer noch nicht vollkommen leer.

Im Flugzeugmodus hat das Smartphone mehr als eine Woche mit minimaler Nutzung überstanden. Das liegt teilweise an der Effizienz des Snapdragon 8 Gen 3, aber auch an der KI-gesteuerten Energieverwaltung von HyperOS.

Connor Jewiss / Foundry

An einem typischen Tag mit gemischter Nutzung – Musik hören, 5G, Videoanrufe und Hintergrundsynchronisation – hatte ich am Ende nur noch etwas mehr als 35 Prozent Akku übrig. Das ist beeindruckend, primär in Anbetracht des hochauflösenden 2K-Panels.

Das Aufladen klappt ebenfalls gut. Poco gibt an, dass das mitgelieferte 90-Watt-HyperCharge-Netzteil das Smartphone in etwa 37 Minuten vollständig aufladen kann, wobei eine 50-prozentige Aufladung nur 15 Minuten dauert.

In meinen Tests hat das Smartphone fast identische Ergebnisse erzielt und nur ein paar Minuten länger gebraucht. Wenn Sie ein normales 50-Watt-Netzteil verwenden, das Sie vielleicht zu Hause haben, dauert der Ladevorgang etwas länger, nämlich 1 Stunde und 15 Minuten. Auch das Wärmemanagement ist gut, sodass das Smartphone beim Laden nicht überhitzt.

Die Akkulaufzeit ist ein weiterer großer Pluspunkt des Poco F7 Pro

Diese Art von Akku- und Ladefunktionen würde man sonst eher von viel teureren Flaggschiffen erwarten. Dies ist damit ein weiterer Bereich, in dem Poco den Nutzern Flaggschiff-Funktionen ohne das dafür normalerweise fällige Preisschild anbietet.

Software & Eigenschaften

Läuft mit Xiaomi HyperOS 2 (basierend auf Android 15)

Beinhaltet Gemini AI und HyperAI Integrationen

Ein wenig Bloatware im Lieferumfang, aber das meiste davon ist entfernbar

Das Poco F7 Pro wird mit HyperOS 2 ausgeliefert, Xiaomis neuester Systemsoftware, die auf Android 15 basiert.

HyperOS sorgt für eine verfeinerte Benutzeroberfläche mit höherer Animationsgeschwindigkeit, saubererem Schriftbild und etwas weniger Durcheinander, obwohl es sich immer noch deutlich nach einem Xiaomi-Smartphone anfühlt. Mir gefällt dieses Design, auch wenn man durchaus erkennen kann, wo sich die Marke von Apples iOS hat inspirieren lassen.

Connor Jewiss / Foundry

Sie finden eine Handvoll vorinstallierter Apps, darunter ein paar Spiele und Xiaomis eigene App-Suite. Aber die meisten davon können deinstalliert werden. Das ist bei einem Mittelklasse-Smartphone zu erwarten. Doch das F7 Pro hat weniger Bloatware an Bord als andere Geräte, die ich getestet habe. Trotzdem ist es für mich ein massives Problem, das erwähnt werden sollte.

Poco verlässt sich in diesem Jahr stark auf KI. Sowohl Google Gemini als auch HyperAI sind in System-Apps wie Notizen, Kalender und die Kamera integriert. KI-Zusammenfassungen, Transkription und Tools zur Bildverbesserung sind ebenfalls bereits enthalten. Sie erhalten diese Funktionen auf den meisten Handys mit Android 15, aber es ist schön, die tiefere Integration von HyperAI zu sehen.

HyperOS sorgt für eine verfeinerte Benutzeroberfläche mit höherer Animationsgeschwindigkeit, saubererem Schriftbild und etwas weniger Durcheinander

Das einzige wirkliche Fragezeichen ist die Softwareunterstützung. Xiaomi hat sich zu drei Android-Updates und vier Jahren Sicherheitspatches verpflichtet. Das ist anständig, kann aber nicht ganz mit Samsung oder Google mithalten, die in dieser Preisklasse sechs oder sieben Jahre bieten. Dennoch ist es eine Verbesserung gegenüber den Vorjahren.

Preis & Verfügbarkeit

Das Poco F7 Pro können Sie ab sofort kaufen. Bei der Markteinführung wurden die folgenden Preise aufgerufen, aber es gibt oft Rabatte:

12 Gigabyte RAM und 256 Gigabyte Speicher: 499 Euro

12 Gigabyte RAM und 512 Gigabyte Speicherplatz: 549 Euro

Zur Auswahl stehen die Farben Schwarz, Silber und Blau. Das ist nicht unbedingt die aufregendste Auswahl, aber es gibt immer noch eine gewisse Flexibilität, um eine Option zu finden, die Ihnen gefällt.

Sie können das Poco F7 Pro direkt im Xiaomi-Store kaufen. Auch bei Amazon wird das Smartphone zum gleichen Preis angeboten.

Connor Jewiss / Foundry

Mit einem Preis von 499 Euro liegt das Poco F7 Pro Kopf an Kopf mit dem Google Pixel 9a und dem Samsung Galaxy A56 (beide ebenfalls 499 Euro). Aber es gibt noch viele andere Mittelklasse-Alternativen, darunter das Nothing Phone (3a), das mit 329 Euro einen viel günstigeren Startpreis hat.

Sollten Sie das Poco F7 Pro kaufen?

Das Poco F7 Pro ist ein Flaggschiff-Killer im wahrsten Sinne des Wortes. Es versucht nicht, alles zu können – aber das, was es kann, macht es gut … meistens.

Der Snapdragon 8 Gen 3 bietet eine exzellente Leistung für den Preis, das 2K-AMOLED-Display ist einfach wunderschön und die Akkulaufzeit ist erstklassig. Wenn Sie dann noch ein 90 Watt-Ladegerät, IP68-Wasser- und Staubschutz und einige intelligente KI-Funktionen hinzufügen, erhalten Sie eines der am besten abgerundeten Smartphones in diesem Marktsegment.

Sicher, die Ultraweitwinkel-Kamera ist einfach gehalten, es gibt viel Bloatware, die entfernt werden muss, und ich würde mir ein helleres Display wünschen, das Sie auch im Freien verwenden können. Aber das sind nur Kleinigkeiten angesichts dessen, was Sie insgesamt für Ihr Geld bekommen. Mit einem so aggressiven Preis ist das F7 Pro meiner Meinung nach eines der besten Angebote des Jahres 2025.

Wenn Sie im Alltag mehr Wert auf Geschwindigkeit, Akku und Optik als auf hochmoderne Kamerafunktionen legen, dann ist das Poco F7 Pro das richtige Handy für Sie. Prüfen Sie nur vor dem Kauf, ob das teurere Poco F7 Ultra nicht besser zu Ihnen passen würde.

Spezifikationen

HyperOS 2, basierend auf Android 15

6,67-Zoll, 1.440 x 3.200, OLED, 120-Hertz-Display

Ultraschall-Fingerabdruckleser unter dem Display

Qualcomm Snapdragon 8 Gen 3

12-Gigabyte-RAM

256 Gigabyte / 512 Gigabyte Speicher

Kameras:

50-Megapixel-Hauptsensor

8-Megapixel-Ultraweitwinkel

20-Megapixel-Selfie-Kamera

Stereo-Lautsprecher

Dual-SIM

Wi-Fi 802.11 a/b/g/n/ac/6e/7

Bluetooth 5.4

6.000 Milliamperestunden Akku

90 Watt kabelgebundenes Laden

160,3 × 75 × 8,1 Millimeter

IP68 zertifiziert

206 Gramm

Farben: Schwarz, Silber, Blau

(PC-Welt)

Poco F7 Pro: Gelungenes Mittelklasse-Smartphone im Test​ Weiterlesen »

eSIM einrichten: So geht es Schritt für Schritt​

Allgemein

Jacob / Pexels Die eSIM-Technologie ermöglicht es, ohne physische SIM-Karte online zu gehen. Stattdessen laden Sie das Profil Ihres Anbieters direkt aufs Gerät. Das spart Zeit – besonders auf Reisen. Wir zeigen Ihnen Schritt für Schritt, wie Sie eine eSIM kaufen, einrichten und aktivieren. Wo kann ich eine eSIM kaufen? Bevor Sie eine eSIM einrichten können, benötigen Sie ein entsprechendes eSIM-Profil – also die digitale Version der klassischen SIM-Karte. Dieses Profil erhalten Sie bei Abschluss von eSIM-Tarifen von Mobilfunkanbietern wie Telekom oder Vodafone oder von spezialisierten Reise-eSIM-Diensten wie Ubigi, Saily oder Holafly. Letztere bieten flexible Datenpakete für einzelne Länder oder ganze Regionen. Die Buchung ist schnell erledigt, die Bezahlung erfolgt meist per Kreditkarte oder Paypal, und im Anschluss erhalten Sie alle Infos und Codes per E-Mail. Zielort auswählen, Datentarif festlegen, bezahlen, fertig – so einfach kaufen Sie eine eSIM (Beispiel: Holafly).PC-Welt / Holafly Holafly etwa hat sich auf unbegrenzte Datenpakete für Reisende spezialisiert. Besonders praktisch: Die Laufzeit kann individuell angepasst werden – etwa 4, 8 oder 16 Tage, statt wie üblich 7 oder 30. Auch mehrere eSIMs für verschiedene Reiseteilnehmer lassen sich gleichzeitig buchen. Ubigi bietet eSIM-Tarife in über 190 Ländern – bereits ab wenigen Euro pro Tag. Saily wiederum überzeugt mit günstigen Prepaid-Angeboten, die sich besonders für Vielreisende eignen. Weitere empfehlenswerte eSIM-Anbieter finden Sie hier. Anleitung: eSIM auf dem Smartphone einrichten Nach der Buchung erhalten Sie vom Anbieter einen QR-Code beziehungsweise Installationscode. Damit lässt sich das eSIM-Profil direkt auf Ihrem Smartphone installieren. Beachten Sie jedoch, dass sich der QR-Code oft nur ein einziges Mal scannen lässt. Wenn Sie das Profil nach dem Einrichten versehentlich löschen, können Sie es nur mithilfe des Kundensupports wiederherstellen. Außerdem benötigen Sie zum Einrichten eine aktive Internetverbindung – etwa über WLAN. Für Reise-eSIMs gilt: Richten Sie eine eSIM immer vor Beginn einer Reise auf dem Smartphone ein, aber aktivieren Sie sie erst nach Ankunft im Zielland. So installieren Sie eine eSIM auf dem iPhone: Öffnen Sie die Einstellungen > Mobilfunk > Mobilfunktarif hinzufügen. Scannen Sie den QR-Code aus der Installations-E-Mail oder geben Sie den Code manuell ein. Folgen Sie den Anweisungen auf dem Bildschirm. Innerhalb weniger Sekunden ist die eSIM eingerichtet. So installieren Sie eine eSIM auf Android-Geräten (z. B. Samsung, Google Pixel): Gehen Sie zu Einstellungen > Verbindungen > SIM-Manager oder Netzwerk & Internet > SIM-Karten verwalten. Wählen Sie eSIM hinzufügen > QR-Code scannen. Scannen Sie den QR-Code und warten Sie, bis die eSIM installiert ist. Tipp: Viele Anbieter bieten auch eigene Apps an. Darüber lässt sich der gesamte Vorgang noch schneller und komfortabler abschließen. Im SIM-Manager Ihres Handys können Sie eSIMs hinzufügen (sofern Ihr Handy kompatibel ist).PC-Welt eSIM aktivieren – so geht’s nach der Einrichtung In den meisten Fällen müssen Sie eine eingerichtete eSIM manuell als aktive Verbindung auswählen, um sie zu aktivieren. Dazu öffnen Sie die Einstellungen auf Ihrem Smartphone und gehen zum Bereich Verbindungen oder Netzwerk & Internet – je nach Gerät und Systemversion. Im SIM-Manager tippen Sie dann auf die eSIM, die Sie aktivieren möchten. Im Anschluss wird Ihr Smartphone die mobile Datenverbindung über die eSIM abwickeln. In der Statusleiste erscheint dann in der Regel das Netzsymbol des Anbieters selbst beziehungsweise das Partnernetzwerk, welches der Anbieter für das entsprechende Land nutzt. Hinweis: Bei einigen eSIMs (etwa Saily) erfolgt die Aktivierung auch automatisch mit dem ersten Netzempfang im Zielland – vorausgesetzt, Sie haben Data Roaming angeschaltet. Was es sonst noch zur eSIM auf Reisen zu wissen gibt, erfahren Sie hier. (PC-Welt) 

eSIM einrichten: So geht es Schritt für Schritt​ Jacob / Pexels

Die eSIM-Technologie ermöglicht es, ohne physische SIM-Karte online zu gehen. Stattdessen laden Sie das Profil Ihres Anbieters direkt aufs Gerät. Das spart Zeit – besonders auf Reisen. Wir zeigen Ihnen Schritt für Schritt, wie Sie eine eSIM kaufen, einrichten und aktivieren.

Wo kann ich eine eSIM kaufen?

Bevor Sie eine eSIM einrichten können, benötigen Sie ein entsprechendes eSIM-Profil – also die digitale Version der klassischen SIM-Karte. Dieses Profil erhalten Sie bei Abschluss von eSIM-Tarifen von Mobilfunkanbietern wie Telekom oder Vodafone oder von spezialisierten Reise-eSIM-Diensten wie Ubigi, Saily oder Holafly.

Letztere bieten flexible Datenpakete für einzelne Länder oder ganze Regionen. Die Buchung ist schnell erledigt, die Bezahlung erfolgt meist per Kreditkarte oder Paypal, und im Anschluss erhalten Sie alle Infos und Codes per E-Mail.

Zielort auswählen, Datentarif festlegen, bezahlen, fertig – so einfach kaufen Sie eine eSIM (Beispiel: Holafly).PC-Welt / Holafly

Holafly etwa hat sich auf unbegrenzte Datenpakete für Reisende spezialisiert. Besonders praktisch: Die Laufzeit kann individuell angepasst werden – etwa 4, 8 oder 16 Tage, statt wie üblich 7 oder 30. Auch mehrere eSIMs für verschiedene Reiseteilnehmer lassen sich gleichzeitig buchen.

Ubigi bietet eSIM-Tarife in über 190 Ländern – bereits ab wenigen Euro pro Tag. Saily wiederum überzeugt mit günstigen Prepaid-Angeboten, die sich besonders für Vielreisende eignen. Weitere empfehlenswerte eSIM-Anbieter finden Sie hier.

Anleitung: eSIM auf dem Smartphone einrichten

Nach der Buchung erhalten Sie vom Anbieter einen QR-Code beziehungsweise Installationscode. Damit lässt sich das eSIM-Profil direkt auf Ihrem Smartphone installieren. Beachten Sie jedoch, dass sich der QR-Code oft nur ein einziges Mal scannen lässt. Wenn Sie das Profil nach dem Einrichten versehentlich löschen, können Sie es nur mithilfe des Kundensupports wiederherstellen. Außerdem benötigen Sie zum Einrichten eine aktive Internetverbindung – etwa über WLAN.

Für Reise-eSIMs gilt: Richten Sie eine eSIM immer vor Beginn einer Reise auf dem Smartphone ein, aber aktivieren Sie sie erst nach Ankunft im Zielland.

So installieren Sie eine eSIM auf dem iPhone:

Öffnen Sie die Einstellungen > Mobilfunk > Mobilfunktarif hinzufügen.

Scannen Sie den QR-Code aus der Installations-E-Mail oder geben Sie den Code manuell ein.

Folgen Sie den Anweisungen auf dem Bildschirm. Innerhalb weniger Sekunden ist die eSIM eingerichtet.

So installieren Sie eine eSIM auf Android-Geräten (z. B. Samsung, Google Pixel):

Gehen Sie zu Einstellungen > Verbindungen > SIM-Manager oder Netzwerk & Internet > SIM-Karten verwalten.

Wählen Sie eSIM hinzufügen > QR-Code scannen.

Scannen Sie den QR-Code und warten Sie, bis die eSIM installiert ist.

Tipp: Viele Anbieter bieten auch eigene Apps an. Darüber lässt sich der gesamte Vorgang noch schneller und komfortabler abschließen.

Im SIM-Manager Ihres Handys können Sie eSIMs hinzufügen (sofern Ihr Handy kompatibel ist).PC-Welt

eSIM aktivieren – so geht’s nach der Einrichtung

In den meisten Fällen müssen Sie eine eingerichtete eSIM manuell als aktive Verbindung auswählen, um sie zu aktivieren. Dazu öffnen Sie die Einstellungen auf Ihrem Smartphone und gehen zum Bereich Verbindungen oder Netzwerk & Internet – je nach Gerät und Systemversion. Im SIM-Manager tippen Sie dann auf die eSIM, die Sie aktivieren möchten.

Im Anschluss wird Ihr Smartphone die mobile Datenverbindung über die eSIM abwickeln. In der Statusleiste erscheint dann in der Regel das Netzsymbol des Anbieters selbst beziehungsweise das Partnernetzwerk, welches der Anbieter für das entsprechende Land nutzt.

Hinweis: Bei einigen eSIMs (etwa Saily) erfolgt die Aktivierung auch automatisch mit dem ersten Netzempfang im Zielland – vorausgesetzt, Sie haben Data Roaming angeschaltet. Was es sonst noch zur eSIM auf Reisen zu wissen gibt, erfahren Sie hier.

(PC-Welt)

eSIM einrichten: So geht es Schritt für Schritt​ Weiterlesen »

Entschlüsselt: Geheimcodes im Arbeitszeugnis​

Allgemein

Diese codierten Formulierungen sollten sie kennen. Foto: fizkes – shutterstock.comIn Arbeitszeugnissen wimmelt es von Doppeldeutigkeiten. Doch was steckt wirklich hinter den Formulierungen der Personalabteilungen? Anhand des Buches “Arbeitszeugnisse für Führungskräfte” von Thorsten Knobbe, Mario Leis, Karsten Umnuß, und Peter Böke, haben wir für Sie die 40 wichtigsten Phrasen und deren Übersetzung zusammengestellt. Allerdings müssen die vorgestellten Formulierungen nicht zwangläufig etwas Negatives bedeuten. So kann es auch an der eingeschränkten Formulierungskunst des Zeugnisausstellers liegen, dass manche Aussagen missverständlich sind. Manchmal entscheiden eben Nuancen über den Sinn. Wenn beispielsweise im Zeugnis steht, dass der Mitarbeiter mit “Fleiß und Interesse” bei der Sache war, was sich in “glänzenden Ergebnissen widergespiegelt” hat, dann ist das in Ordnung. Fehlt die zweite Passage, handelt es sich um ein codierte Formulierung, die dem Mitarbeiter zwar Fleiß bescheinigt, doch die Ergebnisse waren nicht zufrieden stellend.Taucht also eine der folgenden Formulierungen in einem Arbeitszeugnis auf, sollte sich der Verfasser fragen, ob er es wirklich so meint. Schnell hat man einem an sich guten Mitarbeiter die Chancen für ein berufliches Weiterkommen verbaut. Wenn man im eigenen Arbeitszeugnis auf diese Phrasen stößt, sollte man umgehend das Gespräch mit der Personalabteilung suchen. Signalisiert der Arbeitgeber kein Entgegenkommen, gibt es durchaus die Möglichkeit, ein entsprechendes Arbeitzeugnis einzuklagen.Dieser Artikel basiert auf einem Beitrag der CW-Schwesterpublikation ChannelPartner.Phrasen in Arbeitszeugnissen und deren ÜbersetzungPhrase 1Übersetzung 1Phrase 2Übersetzung 2Phrase 3Übersetzung 3Phrase 4Übersetzung 4Phrase 5Übersetzung 5Phrase 6Übersetzung 6Phrase 7Übersetzung 7Phrase 8Übersetzung 8Phrase 9Übersetzung 9Phrase 10Übersetzung 10Phrase 11Übersetzung 11Phrase 12Übersetzung 12Phrase 13Übersetzung 13Phrase 14Übersetzung 14Phrase 15Übersetzung 15Phrase 16Übersetzung 16Phrase 17Übersetzung 17Phrase 18Übersetzung 18Phrase 19Übersetzung 19Phrase 20Übersetzung 20Phrase 21Übersetzung 21Phrase 22Übersetzung 22Phrase 23Übersetzung 23Phrase 24Übersetzung 24Phrase 25Übersetzung 25Phrase 26Übersetzung 26Phrase 27Übersetzung 27Phrase 28Übersetzung 28Phrase 29Übersetzung 29Phrase 30Übersetzung 30Phrase 31Übersetzung 31Phrase 32Übersetzung 32Phrase 33Übersetzung 33Phrase 34Übersetzung 34Phrase 35Übersetzung 35Phrase 36Übersetzung 36Phrase 37Übersetzung 37Phrase 38Übersetzung 38Phrase 39Übersetzung 39Phrase 40Übersetzung 40 

Entschlüsselt: Geheimcodes im Arbeitszeugnis​ Diese codierten Formulierungen sollten sie kennen.
Foto: fizkes – shutterstock.comIn Arbeitszeugnissen wimmelt es von Doppeldeutigkeiten. Doch was steckt wirklich hinter den Formulierungen der Personalabteilungen? Anhand des Buches “Arbeitszeugnisse für Führungskräfte” von Thorsten Knobbe, Mario Leis, Karsten Umnuß, und Peter Böke, haben wir für Sie die 40 wichtigsten Phrasen und deren Übersetzung zusammengestellt. Allerdings müssen die vorgestellten Formulierungen nicht zwangläufig etwas Negatives bedeuten. So kann es auch an der eingeschränkten Formulierungskunst des Zeugnisausstellers liegen, dass manche Aussagen missverständlich sind. Manchmal entscheiden eben Nuancen über den Sinn. Wenn beispielsweise im Zeugnis steht, dass der Mitarbeiter mit “Fleiß und Interesse” bei der Sache war, was sich in “glänzenden Ergebnissen widergespiegelt” hat, dann ist das in Ordnung. Fehlt die zweite Passage, handelt es sich um ein codierte Formulierung, die dem Mitarbeiter zwar Fleiß bescheinigt, doch die Ergebnisse waren nicht zufrieden stellend.Taucht also eine der folgenden Formulierungen in einem Arbeitszeugnis auf, sollte sich der Verfasser fragen, ob er es wirklich so meint. Schnell hat man einem an sich guten Mitarbeiter die Chancen für ein berufliches Weiterkommen verbaut. Wenn man im eigenen Arbeitszeugnis auf diese Phrasen stößt, sollte man umgehend das Gespräch mit der Personalabteilung suchen. Signalisiert der Arbeitgeber kein Entgegenkommen, gibt es durchaus die Möglichkeit, ein entsprechendes Arbeitzeugnis einzuklagen.Dieser Artikel basiert auf einem Beitrag der CW-Schwesterpublikation ChannelPartner.Phrasen in Arbeitszeugnissen und deren ÜbersetzungPhrase 1Übersetzung 1Phrase 2Übersetzung 2Phrase 3Übersetzung 3Phrase 4Übersetzung 4Phrase 5Übersetzung 5Phrase 6Übersetzung 6Phrase 7Übersetzung 7Phrase 8Übersetzung 8Phrase 9Übersetzung 9Phrase 10Übersetzung 10Phrase 11Übersetzung 11Phrase 12Übersetzung 12Phrase 13Übersetzung 13Phrase 14Übersetzung 14Phrase 15Übersetzung 15Phrase 16Übersetzung 16Phrase 17Übersetzung 17Phrase 18Übersetzung 18Phrase 19Übersetzung 19Phrase 20Übersetzung 20Phrase 21Übersetzung 21Phrase 22Übersetzung 22Phrase 23Übersetzung 23Phrase 24Übersetzung 24Phrase 25Übersetzung 25Phrase 26Übersetzung 26Phrase 27Übersetzung 27Phrase 28Übersetzung 28Phrase 29Übersetzung 29Phrase 30Übersetzung 30Phrase 31Übersetzung 31Phrase 32Übersetzung 32Phrase 33Übersetzung 33Phrase 34Übersetzung 34Phrase 35Übersetzung 35Phrase 36Übersetzung 36Phrase 37Übersetzung 37Phrase 38Übersetzung 38Phrase 39Übersetzung 39Phrase 40Übersetzung 40

Entschlüsselt: Geheimcodes im Arbeitszeugnis​ Weiterlesen »

Perplexity will Chrome für „hyperpersonalisierte“ Werbung​

Allgemein

Das Such- und Nutzerverhalten auszuspähen und in personalisierte Werbung umzumünzen findet der Perplexity-CEO Aravind Srinavas völlig in Ordnung. Kathy Hutchins – shutterstock.com Google soll nach dem Willen der US-Regierung zerschlagen werden, um die Monopolstellung des Techkonzerns zu brechen. Dafür soll der Browser Chrome aus dem Firmengeflecht gelöst und verkauft werden. Interessenten gibt es zuhauf, unter anderem OpenAI. Die Macher von ChatGPT sind jedoch nicht das einzige KI-Unternehmen, welches Interesse an einem Kauf von Chrome bekundet hat. Auch Perplexity hat bekräftigt, dass für sie eine Akquise durchaus Sinn machen könnte. Browser als Türöffner für umfassende Datensammlung Während OpenAI wohl vor allem auf Trainingsdaten spekuliert, hat Perplexitys CEO Aravind Srinivas in einem TBPN-Podcast  andere Gründe offengelegt: Perplexity will demnach seinen eigenen Browser haben, um Daten über alles zu sammeln, was Nutzer außerhalb von Perplexity tun. Anschließend könne man Werbekunden mit den Profilen Premium-Anzeigen verkaufen. Kaufverhalten sagt mehr als Arbeitsfragen Über den Browser gesammelte Daten sind aber noch nicht alles, denn Perplexity will auch „einige der Prompts, die Menschen“ in seinem Chatbot tätigen, nutzen. Diese seien „rein arbeitsbezogen und nichts Persönliches“, so der CEO, und damit nicht dafür geeignet, ein ausreichend genaues Dossier zu erstellen. Sie würden nur dazu dienen, die im Browser gesammelten Daten besser zu verstehen. Er erklärte allerdings auch, dass Informationen darüber, „welche Dinge Sie kaufen, in welche Hotels Sie gehen, in welche Restaurants Sie gehen, was Sie sich ansehen”, sehr viel mehr über Nutzer verrate. „Wir planen, den gesamten Kontext zu nutzen, um ein besseres Nutzerprofil zu erstellen, und vielleicht können wir über unseren Entdeckungs-Feed dort Werbung einblenden“, so Srinivas. Eigener Browser kommt im Mai Unabhängig von einem Kauf von Chrome will das KI-Unternehmen im Mai, seinen eigenen Browser „Comet“ auf den Markt bringen. Hier ist Srinivas der Ansicht, dass die Browser-Benutzer von Perplexity mit Nachverfolgung, Profilerstellung und personalisierter Werbung einverstanden sein würden. Sein Argument: Werbung sollte für Nutzende relevant sein. Gleichzeitig schickt sich Perplexity an, die Verbreitung seiner KI-Suchmaschine voranzutreiben. Wie das Startup bekannt gab, soll die Perplexity-App auf neuen Geräten der Razr-Serie vorinstalliert werden und über die Moto AI durch Eingabe von „Ask Perplexity“ aufrufbar sein. Gleichzeitig können die Nutzer drei Monate lang den KI-Assistenten Perplexity Pro kostenlos verwenden. Wie das Nachrichtenportal Bloomberg berichtete, befindet sich Perplexity diesbezüglich auch in Gesprächen mit Samsung – womit die Smartphones der Koreaner neben Samsungs Bixby und Google Gemini schon den dritten KI-Assistenten bekommen würden. Im Podcast bestätigte Srinivas die Kooperation mit Samsung nicht direkt, verwies er aber auf den Bloomberg-Artikel, der Anfang des Monats veröffentlicht wurde und in dem beide Partnerschaften diskutiert wurden. Als weitere Kooperationspartner gesetzt, ist dagegen die Deutsche Telekom. Der digitale Assistent von Perplexity soll als digitaler Concierge für das für die zweite Jahreshälfte angekündigte KI-Phone fungieren. 

Perplexity will Chrome für „hyperpersonalisierte“ Werbung​ Das Such- und Nutzerverhalten auszuspähen und in personalisierte Werbung umzumünzen findet der Perplexity-CEO Aravind Srinavas völlig in Ordnung.
Kathy Hutchins – shutterstock.com

Google soll nach dem Willen der US-Regierung zerschlagen werden, um die Monopolstellung des Techkonzerns zu brechen. Dafür soll der Browser Chrome aus dem Firmengeflecht gelöst und verkauft werden. Interessenten gibt es zuhauf, unter anderem OpenAI.

Die Macher von ChatGPT sind jedoch nicht das einzige KI-Unternehmen, welches Interesse an einem Kauf von Chrome bekundet hat. Auch Perplexity hat bekräftigt, dass für sie eine Akquise durchaus Sinn machen könnte.

Browser als Türöffner für umfassende Datensammlung

Während OpenAI wohl vor allem auf Trainingsdaten spekuliert, hat Perplexitys CEO Aravind Srinivas in einem TBPN-Podcast  andere Gründe offengelegt:

Perplexity will demnach seinen eigenen Browser haben, um Daten über alles zu sammeln, was Nutzer außerhalb von Perplexity tun. Anschließend könne man Werbekunden mit den Profilen Premium-Anzeigen verkaufen.

Kaufverhalten sagt mehr als Arbeitsfragen

Über den Browser gesammelte Daten sind aber noch nicht alles, denn Perplexity will auch „einige der Prompts, die Menschen“ in seinem Chatbot tätigen, nutzen. Diese seien „rein arbeitsbezogen und nichts Persönliches“, so der CEO, und damit nicht dafür geeignet, ein ausreichend genaues Dossier zu erstellen. Sie würden nur dazu dienen, die im Browser gesammelten Daten besser zu verstehen.

Er erklärte allerdings auch, dass Informationen darüber, „welche Dinge Sie kaufen, in welche Hotels Sie gehen, in welche Restaurants Sie gehen, was Sie sich ansehen”, sehr viel mehr über Nutzer verrate. „Wir planen, den gesamten Kontext zu nutzen, um ein besseres Nutzerprofil zu erstellen, und vielleicht können wir über unseren Entdeckungs-Feed dort Werbung einblenden“, so Srinivas.

Eigener Browser kommt im Mai

Unabhängig von einem Kauf von Chrome will das KI-Unternehmen im Mai, seinen eigenen Browser „Comet“ auf den Markt bringen. Hier ist Srinivas der Ansicht, dass die Browser-Benutzer von Perplexity mit Nachverfolgung, Profilerstellung und personalisierter Werbung einverstanden sein würden. Sein Argument: Werbung sollte für Nutzende relevant sein.

Gleichzeitig schickt sich Perplexity an, die Verbreitung seiner KI-Suchmaschine voranzutreiben. Wie das Startup bekannt gab, soll die Perplexity-App auf neuen Geräten der Razr-Serie vorinstalliert werden und über die Moto AI durch Eingabe von „Ask Perplexity“ aufrufbar sein. Gleichzeitig können die Nutzer drei Monate lang den KI-Assistenten Perplexity Pro kostenlos verwenden.

Wie das Nachrichtenportal Bloomberg berichtete, befindet sich Perplexity diesbezüglich auch in Gesprächen mit Samsung – womit die Smartphones der Koreaner neben Samsungs Bixby und Google Gemini schon den dritten KI-Assistenten bekommen würden. Im Podcast bestätigte Srinivas die Kooperation mit Samsung nicht direkt, verwies er aber auf den Bloomberg-Artikel, der Anfang des Monats veröffentlicht wurde und in dem beide Partnerschaften diskutiert wurden.

Als weitere Kooperationspartner gesetzt, ist dagegen die Deutsche Telekom. Der digitale Assistent von Perplexity soll als digitaler Concierge für das für die zweite Jahreshälfte angekündigte KI-Phone fungieren.

Perplexity will Chrome für „hyperpersonalisierte“ Werbung​ Weiterlesen »

Digitale Zwillinge werden unverzichtbar​

Allgemein

Dass Digital Twins nur ein kurzfristiger Hype sind, glaubt nur noch eine Minderheit der Industrie. Gorodenkoff – shutterstock.com Egal, ob der Digitale Zwilling eines Produkts, einer Fabrik oder der Produktion – Digital Twins werden immer wichtiger. Erlauben sie es doch in einem virtuellen Modell Maschinen oder sogar ganze Fabriken wie beispielsweise bei BMW abzubilden. Wie unverzichtbar Digitale Zwillinge mittlerweile sind, untermauert eine Befragung des Digitalverbands Bitkom unter 552 Industrieunternehmen des verarbeitenden Gewerbes ab 100 Beschäftigten in Deutschland. Knapp zwei Drittel der befragten Industrieunternehmen (63 Prozent) gaben an, dass Digital Twins inzwischen unverzichtbar seien, um international wettbewerbsfähig zu bleiben. Maschinen- und Autobauer führend Selbst unter denen, die entsprechende Anwendungen in der Produktion noch nicht nutzen, sind sich 50 Prozent ihrer Bedeutung bewusst. Am höchsten ist die Zustimmung im Maschinen- und Anlagenbau (73 Prozent) sowie im Automobilbau (67 Prozent). Für Lukas Spohr, Experte für Manufacturing und Industrie 4.0 beim Bitkom, liegen die Vorteile auf der Hand: „Digitale Zwillinge verbinden die reale und virtuelle Welt. Durch Sensoren kann der Status von Maschinen in Echtzeit abgerufen werden – und immer mehr Industrieunternehmen erkennen, wie viele Vorteile das für die Fehlervermeidung, sparsame Ressourcennutzung und Flexibilität in der Produktion bringt.“ Neue Geschäftsmodelle per Digital Twin Einen weiteren Grund für die zunehmende Bedeutung digitaler Zwillinge sieht der Bitkom in den Möglichkeiten, die sie eröffnen. So gab mehr als die Hälfte der Befragten (56 Prozent) zu Protokoll, mit ihnen ganz neue Geschäftsmodelle entwickeln zu können. Allerdings sind die virtuellen Modelle nur bei weniger als der Hälfte (48 Prozent) der Unternehmen bereits in der Produktion im Einsatz. Damit ist aber ihr Einsatz in den letzten drei Jahren um etwa die Hälfte gestiegen – 2022 waren es lediglich 33 Prozent der Industrieunternehmen. Auch die Einstellung gegenüber den Digitalen Zwillingen hat sich geändert. Lediglich ein Sechstel der deutschen Industrie (18 Prozent) glaubt noch, dass es sich um einen Hype handelt, der bald vorübergeht. 

Digitale Zwillinge werden unverzichtbar​ Dass Digital Twins nur ein kurzfristiger Hype sind, glaubt nur noch eine Minderheit der Industrie.
Gorodenkoff – shutterstock.com

Egal, ob der Digitale Zwilling eines Produkts, einer Fabrik oder der Produktion – Digital Twins werden immer wichtiger. Erlauben sie es doch in einem virtuellen Modell Maschinen oder sogar ganze Fabriken wie beispielsweise bei BMW abzubilden.

Wie unverzichtbar Digitale Zwillinge mittlerweile sind, untermauert eine Befragung des Digitalverbands Bitkom unter 552 Industrieunternehmen des verarbeitenden Gewerbes ab 100 Beschäftigten in Deutschland. Knapp zwei Drittel der befragten Industrieunternehmen (63 Prozent) gaben an, dass Digital Twins inzwischen unverzichtbar seien, um international wettbewerbsfähig zu bleiben.

Maschinen- und Autobauer führend

Selbst unter denen, die entsprechende Anwendungen in der Produktion noch nicht nutzen, sind sich 50 Prozent ihrer Bedeutung bewusst. Am höchsten ist die Zustimmung im Maschinen- und Anlagenbau (73 Prozent) sowie im Automobilbau (67 Prozent).

Für Lukas Spohr, Experte für Manufacturing und Industrie 4.0 beim Bitkom, liegen die Vorteile auf der Hand: „Digitale Zwillinge verbinden die reale und virtuelle Welt. Durch Sensoren kann der Status von Maschinen in Echtzeit abgerufen werden – und immer mehr Industrieunternehmen erkennen, wie viele Vorteile das für die Fehlervermeidung, sparsame Ressourcennutzung und Flexibilität in der Produktion bringt.“

Neue Geschäftsmodelle per Digital Twin

Einen weiteren Grund für die zunehmende Bedeutung digitaler Zwillinge sieht der Bitkom in den Möglichkeiten, die sie eröffnen. So gab mehr als die Hälfte der Befragten (56 Prozent) zu Protokoll, mit ihnen ganz neue Geschäftsmodelle entwickeln zu können.

Allerdings sind die virtuellen Modelle nur bei weniger als der Hälfte (48 Prozent) der Unternehmen bereits in der Produktion im Einsatz. Damit ist aber ihr Einsatz in den letzten drei Jahren um etwa die Hälfte gestiegen – 2022 waren es lediglich 33 Prozent der Industrieunternehmen. Auch die Einstellung gegenüber den Digitalen Zwillingen hat sich geändert. Lediglich ein Sechstel der deutschen Industrie (18 Prozent) glaubt noch, dass es sich um einen Hype handelt, der bald vorübergeht.

Digitale Zwillinge werden unverzichtbar​ Weiterlesen »

Interdisziplinäre Teams: Konflikte in Innovationskraft wandeln​

Allgemein

Heterogenität ist ein zweischneidiges Schwert, denn hohe Leistung geht nicht selten mit großem Konfliktpotenzial einher. Foto: ProStockStudio – shutterstock.com Vielfalt wird oft als das Geheimnis erfolgreicher Teamarbeit angesehen – als Quelle für Innovation, Leistungssteigerung und zufriedene Kunden. Schon Carl Gustav Jung, der Begründer der analytischen Psychologie, erkannte das enorme Potenzial von Vielfalt, als er sagte: “The greater the contrast, the greater the potential. Great energy only comes from a correspondingly great tension of opposites”. Allzu oft wird allerdings übersehen, dass Vielfalt auch ein hohes Konfliktpotenzial birgt. So können paradoxerweise interdisziplinäre Teams trotz ihres hohen Leistungspotenzials zu den schwächsten Teams gehören. Interdisziplinäre Zusammenarbeit – ein Konflikt kommt selten allein Die Realität in interdisziplinären Teams gleicht häufig nicht einem sprudelnden Ideenfluss, sondern eher einem Sumpf aus künstlicher Harmonie oder internen Streitigkeiten. Statt sich um Kunden, Projekte und Lösungen zu kümmern, verstricken sich viele in internen Angelegenheiten oder tendieren dazu, zu einer Gemeinschaft zu werden, die Vielfalt unterdrückt, um sich eine Wohlfühlatmosphäre zu bewahren. So sind manche interdisziplinäre Teams noch weit davon entfernt, zu den prädestinierten Problemlösern unserer Zeit zu werden, die mit differenzierten Problemanalysen und kreativen Lösungsansätzen die Konkurrenz in den Schatten stellen. Leistungsstarke interdisziplinäre Teams hingegen leben den konstruktiven Diskurs. Hier bringen die Teammitglieder ihre vielfältigen Meinungen, Kompetenzen und Erfahrungen ein, auch wenn sie dafür nicht immer Applaus erhalten. Sie halten abweichende Standpunkte nicht aus Angst vor Ablehnung zurück, sondern engagieren sich in lösungsorientierten Diskussionen, um bestmögliche Resultate zu erzielen. Solche Teams sind nicht stolz auf ihre Harmonie, sondern identifizieren sich beispielsweise über intellektuelle Herausforderungen, Leistung und Fortschritt. Hochleistungsteams sind nicht konfliktscheu, sie sind konfliktfreudig. Um dieses Potenzial zu entfalten, bedarf es jedoch einer gezielten Förderung der Konfliktkompetenz. Interdisziplinäre Teams – 5 Schritte zum Erfolg Interdisziplinäre Teams funktionieren dann am besten, wenn sie lernen, mit Konflikten effektiv und nachhaltig umzugehen. Persönliche Differenzen haben jedoch nicht nur Nachteile, sondern können im Gegenzug auch Innovationskraft und Wachstum beflügeln. Wie man einen negativen Konflikt in einen positiven Wachstumsfaktor verwandelt, ist simpel. Die Lösung besteht aus fünf Schritten: 1. Gelassenheit durch VorbereitungUm Konflikte erfolgreich zu bewältigen, muss man diese zunächst als normal und selbstverständlich annehmen und Lösungsmethoden zur Hand haben. Indem ein Team mit Konflikten rechnet und sich potenzieller Konfliktquellen in den unterschiedlichen Projektphasen bewusst ist, kann es gegensteuern. Typische Konfliktherde sind beispielsweise: vage Projektziele, unterschiedliche Prioritäten in der Umsetzung, unterschiedliche Arbeitsstile oder Wertesysteme. Außerdem müssen die verschiedenen Charaktere im Team und deren Beziehungsgeflecht klar sein. In diesem Zusammenhang werden einzelne Emotionen oft zu gefährlichen Brandbeschleunigern. Dem kann man mit gezielter Vorbereitung zuvorkommen und sich anbahnende Konflikte rechtzeitig deeskalieren. Lesetipp: Wie Emotionen Change-Prozesse beeinflussen 2. Offene Ansprache“Houston, wir haben ein Problem” – Nennen Sie das Kind beim Namen. Wenn ein Konflikt spürbar ist, muss dieser angesprochen werden. Ignorieren, verdrängen oder leugnen bringt einem der Lösung nicht näher. Im Gegenteil. Im Hintergrund brodelnde Konflikte intensivieren oft die Spannungen und verstärken Emotionen. Wenn die Teammitglieder wissen, wie sie professionell mit Emotionen umgehen können, dann wird auch der Konflikt schneller gelöst. Frustration, Ärger oder Enttäuschung beim Namen zu nennen, entschärft emotionsgeladene Diskussionen. 3. Analyse von Bedürfnissen, WünschenSo wie im ersten Schritt unterschiedliche Charaktere bewusst sein müssen, kommt es im dritten Schritt darauf an, deren Werte, Bedürfnisse und Wünsche herauszuarbeiten. Denn Werte und Bedürfnisse stehen hinter den jeweiligen Standpunkten oder Positionen. Respekt, Anerkennung und Wertschätzung sind nur drei Beispiele, die ein Gespräch oder das Handeln einer Person maßgeblich beeinflussen. 4. Gegenseitiges VerständnisWenn ich weiß, dass mein Gegenüber viel Wert auf Anerkennung und Wertschätzung legt, kann ich bei gut geleisteter Arbeit auch mal ein “Vielen Dank, hervorragend” fallen lassen. Versteht man warum sein Gegenüber wie handelt, ist es einfacher darauf einzugehen. Gemeinsamkeiten schaffen Verständnis, Vertrauen und Bindung. Während die unterschiedlichen Positionen der Teammitglieder diese einerseits weit voneinander entfernen, verbinden die gemeinsamen Bedürfnisse und das gegenseitige Verständnis sie andererseits wieder. 5. Stärke durch VielseitigkeitProbleme zu lösen ist das Spezialgebiet interdisziplinärer Teams. Nachdem die persönlichen Differenzen aus der Welt geschafft worden sind, können sie auch wieder auf ein gemeinsames Ziel hinarbeiten. Die Vielseitigkeit der einzelnen Teammitglieder und die Akzeptanz dieser Heterogenität führt zu langfristigem Erfolg. Kommt es trotz dieser Schritte zu keiner Einigung, kann Mediation durch einen neutralen Mediator eine weitere Lösungsvariante sein. Der gelöste Konflikt öffnet nun Raum für lösungsorientierte Diskussionen und Innovationskraft, die wie Gustav Jung schon sagte, genau dann am größten ist, je unterschiedlicher wir sind. (bw) Konstruktive Konflikte in agilen Teams schaffenKonstruktive Konflikte und Kritik erzeugen Foto: fizkes – shutterstock.com“Konflikt” muss nicht zwingend negativ sein. Er kann sich auch positiv auswirken, wenn er in einem agilen Team konstruktiv zur Anwendung kommt. IT-Management-Berater Ivan Kovynyov gibt Tipps, wie Führungskräfte gezielt eine positive Konfliktkultur im Team schaffen und damit Leistung und Projekterfolg verbessern können. Heterogenes Team bilden Foto: LeoWolfert – shutterstock.comMan braucht ein heterogenes Team. Denn würde beispielsweise das Team ausschließlich aus weißen Männern mittleren Alters bestehen, so ist es abzusehen, dass sie alle einen ähnlichen Denkstil haben werden. Konfliktfreies Teambuilding Foto: Rawpixel.com – shutterstock.comTeammitglieder sollten sich bereits kennengelernt und miteinander gearbeitet haben. Es wäre kontraproduktiv, die Teambuilding-Phase mit einem konstruktiven Konflikt zu beginnen.Hindernisse beseitigen Foto: AJR_photo – shutterstock.comBarrieren für freie Meinungsäußerung im Team müssen identifiziert und beseitigt werden: irrationale Harmoniebedürftigkeit, zu starke Konsensorientierung, starke Meinungsmacher, Lagerbildung, autoritäre Projektleiter oder Product Owner, Null-Fehler-Toleranz, Zielvorgaben enthalten Lösungsweg etc.Den richtigen Weg einschlagen Foto: Jirsak – shutterstock.comDer Mittelweg ist nicht immer der beste Weg: wenn einer links am Baum vorbei will und der andere rechts, ist der Weg durch die Mitte offensichtlich nicht der beste.Konsensregeln definieren Foto: Robert Kneschke – shutterstock.comEinen qualifizierten Konsens suchen: Für Situationen in denen das Team zu keiner Übereinkunft kommt, müssen Regeln definiert werden. Zum Beispiel ruft das Team einen unabhängigen Experten oder der Projektleiter oder der Product Owner entscheiden.Gemeinsames Ziel festlegen Foto: Burhanuddin – shutterstock.comGemeinsame Ziele als Nordstern: Debatten können Teilnehmer eines agilen Teams leicht weiter voneinander entfernen. Gemeinsames Verständnis des Ziels und der Mission des Teams schafft das Gegenteil und wirkt balancierend. Humorvoller Umgang Foto: fizkes – shutterstock.comWenn alle Stricke reißen: Humor hilft immer! 

Interdisziplinäre Teams: Konflikte in Innovationskraft wandeln​ Heterogenität ist ein zweischneidiges Schwert, denn hohe Leistung geht nicht selten mit großem Konfliktpotenzial einher.
Foto: ProStockStudio – shutterstock.com

Vielfalt wird oft als das Geheimnis erfolgreicher Teamarbeit angesehen – als Quelle für Innovation, Leistungssteigerung und zufriedene Kunden. Schon Carl Gustav Jung, der Begründer der analytischen Psychologie, erkannte das enorme Potenzial von Vielfalt, als er sagte: “The greater the contrast, the greater the potential. Great energy only comes from a correspondingly great tension of opposites”. Allzu oft wird allerdings übersehen, dass Vielfalt auch ein hohes Konfliktpotenzial birgt. So können paradoxerweise interdisziplinäre Teams trotz ihres hohen Leistungspotenzials zu den schwächsten Teams gehören.

Interdisziplinäre Zusammenarbeit – ein Konflikt kommt selten allein

Die Realität in interdisziplinären Teams gleicht häufig nicht einem sprudelnden Ideenfluss, sondern eher einem Sumpf aus künstlicher Harmonie oder internen Streitigkeiten. Statt sich um Kunden, Projekte und Lösungen zu kümmern, verstricken sich viele in internen Angelegenheiten oder tendieren dazu, zu einer Gemeinschaft zu werden, die Vielfalt unterdrückt, um sich eine Wohlfühlatmosphäre zu bewahren. So sind manche interdisziplinäre Teams noch weit davon entfernt, zu den prädestinierten Problemlösern unserer Zeit zu werden, die mit differenzierten Problemanalysen und kreativen Lösungsansätzen die Konkurrenz in den Schatten stellen.

Leistungsstarke interdisziplinäre Teams hingegen leben den konstruktiven Diskurs. Hier bringen die Teammitglieder ihre vielfältigen Meinungen, Kompetenzen und Erfahrungen ein, auch wenn sie dafür nicht immer Applaus erhalten. Sie halten abweichende Standpunkte nicht aus Angst vor Ablehnung zurück, sondern engagieren sich in lösungsorientierten Diskussionen, um bestmögliche Resultate zu erzielen. Solche Teams sind nicht stolz auf ihre Harmonie, sondern identifizieren sich beispielsweise über intellektuelle Herausforderungen, Leistung und Fortschritt. Hochleistungsteams sind nicht konfliktscheu, sie sind konfliktfreudig. Um dieses Potenzial zu entfalten, bedarf es jedoch einer gezielten Förderung der Konfliktkompetenz.

Interdisziplinäre Teams – 5 Schritte zum Erfolg

Interdisziplinäre Teams funktionieren dann am besten, wenn sie lernen, mit Konflikten effektiv und nachhaltig umzugehen. Persönliche Differenzen haben jedoch nicht nur Nachteile, sondern können im Gegenzug auch Innovationskraft und Wachstum beflügeln. Wie man einen negativen Konflikt in einen positiven Wachstumsfaktor verwandelt, ist simpel. Die Lösung besteht aus fünf Schritten:

1. Gelassenheit durch VorbereitungUm Konflikte erfolgreich zu bewältigen, muss man diese zunächst als normal und selbstverständlich annehmen und Lösungsmethoden zur Hand haben. Indem ein Team mit Konflikten rechnet und sich potenzieller Konfliktquellen in den unterschiedlichen Projektphasen bewusst ist, kann es gegensteuern. Typische Konfliktherde sind beispielsweise:

vage Projektziele,

unterschiedliche Prioritäten in der Umsetzung,

unterschiedliche Arbeitsstile oder Wertesysteme.

Außerdem müssen die verschiedenen Charaktere im Team und deren Beziehungsgeflecht klar sein. In diesem Zusammenhang werden einzelne Emotionen oft zu gefährlichen Brandbeschleunigern. Dem kann man mit gezielter Vorbereitung zuvorkommen und sich anbahnende Konflikte rechtzeitig deeskalieren.

Lesetipp: Wie Emotionen Change-Prozesse beeinflussen

2. Offene Ansprache“Houston, wir haben ein Problem” – Nennen Sie das Kind beim Namen. Wenn ein Konflikt spürbar ist, muss dieser angesprochen werden. Ignorieren, verdrängen oder leugnen bringt einem der Lösung nicht näher. Im Gegenteil. Im Hintergrund brodelnde Konflikte intensivieren oft die Spannungen und verstärken Emotionen. Wenn die Teammitglieder wissen, wie sie professionell mit Emotionen umgehen können, dann wird auch der Konflikt schneller gelöst. Frustration, Ärger oder Enttäuschung beim Namen zu nennen, entschärft emotionsgeladene Diskussionen.

3. Analyse von Bedürfnissen, WünschenSo wie im ersten Schritt unterschiedliche Charaktere bewusst sein müssen, kommt es im dritten Schritt darauf an, deren Werte, Bedürfnisse und Wünsche herauszuarbeiten. Denn Werte und Bedürfnisse stehen hinter den jeweiligen Standpunkten oder Positionen. Respekt, Anerkennung und Wertschätzung sind nur drei Beispiele, die ein Gespräch oder das Handeln einer Person maßgeblich beeinflussen.

4. Gegenseitiges VerständnisWenn ich weiß, dass mein Gegenüber viel Wert auf Anerkennung und Wertschätzung legt, kann ich bei gut geleisteter Arbeit auch mal ein “Vielen Dank, hervorragend” fallen lassen. Versteht man warum sein Gegenüber wie handelt, ist es einfacher darauf einzugehen. Gemeinsamkeiten schaffen Verständnis, Vertrauen und Bindung. Während die unterschiedlichen Positionen der Teammitglieder diese einerseits weit voneinander entfernen, verbinden die gemeinsamen Bedürfnisse und das gegenseitige Verständnis sie andererseits wieder.

5. Stärke durch VielseitigkeitProbleme zu lösen ist das Spezialgebiet interdisziplinärer Teams. Nachdem die persönlichen Differenzen aus der Welt geschafft worden sind, können sie auch wieder auf ein gemeinsames Ziel hinarbeiten. Die Vielseitigkeit der einzelnen Teammitglieder und die Akzeptanz dieser Heterogenität führt zu langfristigem Erfolg.

Kommt es trotz dieser Schritte zu keiner Einigung, kann Mediation durch einen neutralen Mediator eine weitere Lösungsvariante sein. Der gelöste Konflikt öffnet nun Raum für lösungsorientierte Diskussionen und Innovationskraft, die wie Gustav Jung schon sagte, genau dann am größten ist, je unterschiedlicher wir sind. (bw)

Konstruktive Konflikte in agilen Teams schaffenKonstruktive Konflikte und Kritik erzeugen
Foto: fizkes – shutterstock.com“Konflikt” muss nicht zwingend negativ sein. Er kann sich auch positiv auswirken, wenn er in einem agilen Team konstruktiv zur Anwendung kommt. IT-Management-Berater Ivan Kovynyov gibt Tipps, wie Führungskräfte gezielt eine positive Konfliktkultur im Team schaffen und damit Leistung und Projekterfolg verbessern können. Heterogenes Team bilden
Foto: LeoWolfert – shutterstock.comMan braucht ein heterogenes Team. Denn würde beispielsweise das Team ausschließlich aus weißen Männern mittleren Alters bestehen, so ist es abzusehen, dass sie alle einen ähnlichen Denkstil haben werden. Konfliktfreies Teambuilding
Foto: Rawpixel.com – shutterstock.comTeammitglieder sollten sich bereits kennengelernt und miteinander gearbeitet haben. Es wäre kontraproduktiv, die Teambuilding-Phase mit einem konstruktiven Konflikt zu beginnen.Hindernisse beseitigen
Foto: AJR_photo – shutterstock.comBarrieren für freie Meinungsäußerung im Team müssen identifiziert und beseitigt werden: irrationale Harmoniebedürftigkeit, zu starke Konsensorientierung, starke Meinungsmacher, Lagerbildung, autoritäre Projektleiter oder Product Owner, Null-Fehler-Toleranz, Zielvorgaben enthalten Lösungsweg etc.Den richtigen Weg einschlagen
Foto: Jirsak – shutterstock.comDer Mittelweg ist nicht immer der beste Weg: wenn einer links am Baum vorbei will und der andere rechts, ist der Weg durch die Mitte offensichtlich nicht der beste.Konsensregeln definieren
Foto: Robert Kneschke – shutterstock.comEinen qualifizierten Konsens suchen: Für Situationen in denen das Team zu keiner Übereinkunft kommt, müssen Regeln definiert werden. Zum Beispiel ruft das Team einen unabhängigen Experten oder der Projektleiter oder der Product Owner entscheiden.Gemeinsames Ziel festlegen
Foto: Burhanuddin – shutterstock.comGemeinsame Ziele als Nordstern: Debatten können Teilnehmer eines agilen Teams leicht weiter voneinander entfernen. Gemeinsames Verständnis des Ziels und der Mission des Teams schafft das Gegenteil und wirkt balancierend. Humorvoller Umgang
Foto: fizkes – shutterstock.comWenn alle Stricke reißen: Humor hilft immer!

Interdisziplinäre Teams: Konflikte in Innovationskraft wandeln​ Weiterlesen »

Die größten Paradoxa der Softwareentwicklung​

Allgemein

Paradoxe Erlebnisse sind für Softwareentwickler Alltag.Rosemarie Mosteller | shutterstock.com Vergleicht man den Bau von Brücken mit der Softwareentwicklung, zeigen sich bedeutende Unterschiede: Denn auch wenn keine Brücke – ähnlich wie ein Softwareprojekt – der anderen bis aufs „Haar“ gleicht, werden sie aus bekannten Materialien mit bekannten Eigenschaften geschaffen.   Im Gegensatz dazu beinhaltet der Softwareentwicklungsprozess wesentlich mehr „unknown Unknowns“. Was dazu führt, dass er jede Menge Paradoxa beinhaltet, mit denen Developer teilweise nur schwer umgehen können. Wichtig ist aber vor allem, sich ihre Existenz bewusst zu machen – nur so lassen sich die daraus entstehenden Fallstricke umgehen. Insbesondere, wenn es dabei um die folgenden vier Paradoxa geht. 1. Ohne Plan, aber mit Deadline Zielführend einzuschätzen, wie lange ein Softwareprojekt dauern wird, ist wahrscheinlich die größte Herausforderung für Softwareentwickler überhaupt. Denn darüber lässt sich keine abschließende, verbindliche Aussage treffen. Sicher, man kann den ungefähren Aufwand schätzen – das geht im Regelfall allerdings daneben. Meistens wird der zeitliche Aufwand drastisch unterschätzt. Wird die gesetzte Deadline dann verpasst, ärgern sich vor allem die Kunden. Sie stecken nicht in der Haut der Devs und durchblicken die Abläufe und möglichen Hindernisse (im Regelfall) nicht. Also sind sie frustriert, weil ihre Software nicht zum vereinbarten Zeitpunkt ausgeliefert wird.   Auch sämtliche Versuche, mit schicken, agilen Methoden wie Story Points oder Planing Poker zielführender vorhersagen zu wollen, wann ein Softwareprojekt abgeschlossen wird, bringen nichts wenig. Wir scheinen einfach nicht in der Lage, Hofstadters Gesetz (der Verzögerung) zu überwinden. 2. Mehr Mannstärke, mehr Verzug Stellt ein Manager einer Fabrik fest, dass die monatliche Quote für abgefüllte Zahnpastatuben in Gefahr ist, setzt er mehr Arbeiter ein, um die Vorgabe zu erfüllen. Ähnlich verhält es sich beim Hausbau: Wenn Sie doppelt so viele Häuser wie im Vorjahr bauen wollen, hilft es in der Regel, die Vorleistungen – Arbeit und Material – zu verdoppeln. Im Fall der Softwareentwicklung verhält sich das völlig anders, wie Frederick Brooks bereits 1975 in seinem Buch „Vom Mythos des Mann-Monats“ herausgearbeitet hat. Demnach hilft es wenig, verzögerte Softwareprojekte mit zusätzlicher Mannstärke retten zu wollen. Im Gegenteil: Gemäß dem Brooks’schen Gesetz verzögert das das Projekt nur noch zusätzlich. Schließlich können neu hinzukommende Teammitglieder nicht sofort zum Projekt beitragen. Sie benötigen Zeit, um sich in den Kontext komplexer Systeme einzuarbeiten, was oft auch zusätzliche Kommunikationsmaßnahmen nach sich zieht. Am Ende verzögert sich dann nicht nur alles noch weiter – es kostet auch mehr. 3. Mehr Skills, weniger Programmier-Tasks Als Softwareentwickler umfassende Expertise aufzubauen und sämtliche erforderlichen Regeln und Feinheiten zu verinnerlichen, um wartbaren, sauberen Code zu schreiben, nimmt etliche Jahre in Anspruch. Dabei erscheint es auch relativ paradox, dass die Programmieraufgaben mit steigender Erfahrung eher weniger werden: Statt zu programmieren, sitzen leitende Entwickler vor allem in Design-Meetings, überprüfen den Code anderer und übernehmen weitere Führungsaufgaben.   Das heißt zwar nicht, dass Senior Developer einen kleineren Beitrag leisten. Schließlich sorgen sie in Führungspositionen dafür, dass zeitgemäß und zielführend gearbeitet wird und tragen so wesentlich zum Team- und Unternehmenserfolg bei. Aber am Ende schreiben sie dennoch weniger Code. 4. Bessere Tools, keine Zeitvorteile Vergleicht man die Webentwicklung von heute mit performanten Tools wie React, Astro und Next.js mit dem Gebaren von vor 30 Jahren (Stichwort Common Gateway Interface), wird klar, dass wir uns seitdem um Lichtjahre weiterentwickelt haben. Doch obwohl unsere Tools immer besser und die Prozessoren immer schneller werden, scheinen sich Softwareprojekte insgesamt nicht zu beschleunigen. Das wirft Fragen auf: Unsere Websites sehen zwar immer besser aus, aber sind wir wirklich produktiver? Laufen unsere Websites schneller und verarbeiten sie Daten besser? Natürlich abstrahieren die Frameworks und Bibliotheken von heute viele Komplexitäten. Sie führen aber auch zu neuen Problemen. Zum Beispiel langen Build-Pipelines, Konfigurationsalbträumen oder Abhängigkeitsproblemen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die größten Paradoxa der Softwareentwicklung​ Paradoxe Erlebnisse sind für Softwareentwickler Alltag.Rosemarie Mosteller | shutterstock.com

Vergleicht man den Bau von Brücken mit der Softwareentwicklung, zeigen sich bedeutende Unterschiede: Denn auch wenn keine Brücke – ähnlich wie ein Softwareprojekt – der anderen bis aufs „Haar“ gleicht, werden sie aus bekannten Materialien mit bekannten Eigenschaften geschaffen.  

Im Gegensatz dazu beinhaltet der Softwareentwicklungsprozess wesentlich mehr „unknown Unknowns“. Was dazu führt, dass er jede Menge Paradoxa beinhaltet, mit denen Developer teilweise nur schwer umgehen können. Wichtig ist aber vor allem, sich ihre Existenz bewusst zu machen – nur so lassen sich die daraus entstehenden Fallstricke umgehen. Insbesondere, wenn es dabei um die folgenden vier Paradoxa geht.

1. Ohne Plan, aber mit Deadline

Zielführend einzuschätzen, wie lange ein Softwareprojekt dauern wird, ist wahrscheinlich die größte Herausforderung für Softwareentwickler überhaupt. Denn darüber lässt sich keine abschließende, verbindliche Aussage treffen. Sicher, man kann den ungefähren Aufwand schätzen – das geht im Regelfall allerdings daneben. Meistens wird der zeitliche Aufwand drastisch unterschätzt.

Wird die gesetzte Deadline dann verpasst, ärgern sich vor allem die Kunden. Sie stecken nicht in der Haut der Devs und durchblicken die Abläufe und möglichen Hindernisse (im Regelfall) nicht. Also sind sie frustriert, weil ihre Software nicht zum vereinbarten Zeitpunkt ausgeliefert wird.  

Auch sämtliche Versuche, mit schicken, agilen Methoden wie Story Points oder Planing Poker zielführender vorhersagen zu wollen, wann ein Softwareprojekt abgeschlossen wird, bringen nichts wenig. Wir scheinen einfach nicht in der Lage, Hofstadters Gesetz (der Verzögerung) zu überwinden.

2. Mehr Mannstärke, mehr Verzug

Stellt ein Manager einer Fabrik fest, dass die monatliche Quote für abgefüllte Zahnpastatuben in Gefahr ist, setzt er mehr Arbeiter ein, um die Vorgabe zu erfüllen. Ähnlich verhält es sich beim Hausbau: Wenn Sie doppelt so viele Häuser wie im Vorjahr bauen wollen, hilft es in der Regel, die Vorleistungen – Arbeit und Material – zu verdoppeln.

Im Fall der Softwareentwicklung verhält sich das völlig anders, wie Frederick Brooks bereits 1975 in seinem Buch „Vom Mythos des Mann-Monats“ herausgearbeitet hat. Demnach hilft es wenig, verzögerte Softwareprojekte mit zusätzlicher Mannstärke retten zu wollen. Im Gegenteil: Gemäß dem Brooks’schen Gesetz verzögert das das Projekt nur noch zusätzlich. Schließlich können neu hinzukommende Teammitglieder nicht sofort zum Projekt beitragen. Sie benötigen Zeit, um sich in den Kontext komplexer Systeme einzuarbeiten, was oft auch zusätzliche Kommunikationsmaßnahmen nach sich zieht. Am Ende verzögert sich dann nicht nur alles noch weiter – es kostet auch mehr.

3. Mehr Skills, weniger Programmier-Tasks

Als Softwareentwickler umfassende Expertise aufzubauen und sämtliche erforderlichen Regeln und Feinheiten zu verinnerlichen, um wartbaren, sauberen Code zu schreiben, nimmt etliche Jahre in Anspruch. Dabei erscheint es auch relativ paradox, dass die Programmieraufgaben mit steigender Erfahrung eher weniger werden: Statt zu programmieren, sitzen leitende Entwickler vor allem in Design-Meetings, überprüfen den Code anderer und übernehmen weitere Führungsaufgaben.  

Das heißt zwar nicht, dass Senior Developer einen kleineren Beitrag leisten. Schließlich sorgen sie in Führungspositionen dafür, dass zeitgemäß und zielführend gearbeitet wird und tragen so wesentlich zum Team- und Unternehmenserfolg bei. Aber am Ende schreiben sie dennoch weniger Code.

4. Bessere Tools, keine Zeitvorteile

Vergleicht man die Webentwicklung von heute mit performanten Tools wie React, Astro und Next.js mit dem Gebaren von vor 30 Jahren (Stichwort Common Gateway Interface), wird klar, dass wir uns seitdem um Lichtjahre weiterentwickelt haben. Doch obwohl unsere Tools immer besser und die Prozessoren immer schneller werden, scheinen sich Softwareprojekte insgesamt nicht zu beschleunigen. Das wirft Fragen auf:

Unsere Websites sehen zwar immer besser aus, aber sind wir wirklich produktiver?

Laufen unsere Websites schneller und verarbeiten sie Daten besser?

Natürlich abstrahieren die Frameworks und Bibliotheken von heute viele Komplexitäten. Sie führen aber auch zu neuen Problemen. Zum Beispiel langen Build-Pipelines, Konfigurationsalbträumen oder Abhängigkeitsproblemen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die größten Paradoxa der Softwareentwicklung​ Weiterlesen »

Die harte Wahrheit über cloudbasierte KI​

Allgemein

Cloudbasierte KI – nur ein schöner Traum?Pavel Chagochkin | shutterstock.com Der Public-Cloud-Markt wächst weiter rasant – in erster Linie getrieben durch KI-Initiativen in Unternehmen. Entsprechend überschlagen sich die Cloud-Anbieter, um ihre jeweils neuesten und revolutionärsten KI-Features anzupreisen und bieten mitunter auch großzügige Rabatte, um Unternehmen dazu zu bringen, diese zu beziehen. Hinter dieser Hype-Fassade verbirgt sich allerdings eine beunruhigende Realität, die nur selten offen thematisiert wird.   Immer wieder ist zu beobachten, dass Projekte im Bereich künstliche Intelligenz (KI) mit großem Tamtam an den Start gehen, nur, um in der Folge still und leise in der Versenkung zu verschwinden. Die Enterprise-Kunden sind vor allem gut darin, Geld auszugeben. KI-Fähigkeiten effektiv aufzubauen und zielführend einzusetzen, stellt sie hingegen vor Probleme. Das belegen auch Statistiken: So gehen zum Beispiel die Analysten von Gartner davon aus, dass ganze 85 Prozent der KI-Implementierungen die Erwartungen, die in sie gesetzt werden, nicht erfüllen können. Oder erst gar nicht abgeschlossen werden. Nach außen präsentiert sich ein völlig anderes Bild: Cloud-Anbieter behaupten immer wieder, Schwierigkeiten zu haben, die überwältigende Nachfrage nach KI-Ressourcen zu befriedigen. Gleichzeitig können die Geschäftsergebnisse der Cloud-Riesen aber bislang des Öfteren die Erwartungen der Investoren nicht erfüllen. Trotz der Schwierigkeiten, ein proportionales Umsatzwachstum nachzuweisen, kündigen die Anbieter aber dennoch weiter beispiellose Investitionen in KI-Infrastruktur an – teilweise ist von einer Erhöhung der Budgets um bis zu 40 Prozent die Rede.     Das schürt unter Investoren die Sorge, dass die Cloud-Anbieter die potenzielle zukünftige Nachfrage mit der aktuellen Marktrealität verwechseln. Das wiederum könnte zu einer Diskrepanz zwischen Infrastrukturinvestitionen und unmittelbarer Umsatzgenerierung führen. Ist KI am Ende doch nur ein extrem teures Forschungsprojekt, weil die Technologie nicht in großem Maßstab eingesetzt und bezahlt werden kann? Fakt ist jedenfalls, dass die kurzfristige Marktdynamik – dem langfristigen Potenzial von KI zum Trotz – deutlich komplexer ist, als es die Verlautbarungen der Anbieter vermuten lassen. Cloud-KI-Dilemmata Das größte Hemmnis für eine erfolgreiche KI-Implementierung ist wahrscheinlich die Datenqualität. So setzen Unternehmen immer komplexere (generative) KI-Anwendungen ein, die eigentlich maßgeschneiderte, hochwertige Datensätze erfordern. Dabei offenbaren sich allerdings vielerorts gravierende Mängel bei existierenden Dateninfrastrukturen. Zwar dürfte den meisten Anwenderunternehmen durchaus bewusst gewesen sein, dass ihr Datenbestand nicht perfekt ist. Wie es wirklich um die Qualität der Daten bestellt ist, haben die meisten aber erst gemerkt, als ihre KI-Projekte schon nicht mehr zu retten waren. In vielen Fällen liegt die Ursache dafür in jahrelangen Versäumnissen, grundlegende Daten(qualitäts)probleme anzugehen. Die damit angehäuften, technischen Schulden gefährden nun allerdings die KI-Ambitionen. Durch zögerliche Führungskräfte verschärft sich diese Situation noch weiter: Viele Unternehmen geben GenAI-Initiativen auf, weil es ihnen zu kostspielig erscheint, ihre Datenprobleme zu beheben. Das führt in einen Teufelskreis, bei dem mangelnde Investitionen zu anhaltenden Misserfolgen führen, was wiederum die Zögerlichkeit der C-Level-Entscheider befeuert. Zudem entwickelt sich der Return on Investment (RoI) von KI-Initiativen deutlich langsamer als erwartet. Das würde eigentlich erfordern, erfolgskritische Grundlagen wie ein robustes Datenmanagement und eine strategische Planung zu evaluieren – doch auch diese Maßnahmen halten viele Anwender für zu teuer oder zu riskant.   Die Cloud-Anbieter reagieren auf diese Zurückhaltung ihrerseits mit immer aggressiveren Marketing- und Incentive-Programmen und selbstbewussten Versprechungen einer besonders einfachen Implementierung. Diese Taktiken verschleiern jedoch oft die tatsächlichen Probleme. Einige Anbieter schaffen gar künstliche Nachfragesignale, indem sie KI-bezogene Stellenanzeigen veröffentlichen, von denen viele gar nicht finanziert sind. Das Ziel ist es, den Eindruck zu erwecken, man habe KI besonders schnell und mit Erfolg eingeführt.  Und auch die Kompetenzlücke, beziehungsweise der „gute, alte“ Fachkräftemangel trägt dazu bei, dass KI-Programme nicht in Gang kommen. Die Anwenderunternehmen suchen händeringend nach qualifizierten Fachkräften, die KI-Systeme effektiv implementieren und managen können. An dieser Stelle hilft es auch nichts, dass die Cloud-Anbieter inzwischen diverse Tools und Plattformen anbieten, um ihre Kunden zu unterstützen. Am Ende wird diese Situation sehr wahrscheinlich zu einer Zweiklassengesellschaft mit Blick auf KI führen. Die einen schaffen es, ihre Daten erfolgreich zu organisieren und die Technologie effektiv zu implementieren. Die anderen fallen zurück und werden sehr wahrscheinlich nicht mehr aufholen können. Strategischer Weg, bester Weg Damit sich die Situation bessert, müssten sich die Entscheider in den Anwenderunternehmen von der derzeitigen Praxis verabschieden: Statt sich voreilig in schlecht geplante KI-Implementierungen zu stürzen, jeder neuen KI-Funktion hinterher zu hecheln und sinnlos Cloud-Credits zu verschleudern, wäre es angebracht, KI-Fähigkeiten strategisch und mit Bedacht zu entwickeln. Ganz konkret ließe sich das zum Beispiel in folgende Maßnahmen übersetzen: Zunächst sollten Sie Ihre Daten in Ordnung bringen. Wenn deren Qualität nicht stimmt, liefern selbst die raffiniertesten  KI-Tools keinen Mehrwert. Soll heißen: Investieren Sie in angemessene Datenmanagement- und Qualitätskontrollmaßnahmen bevor Sie KI-Projekte in Angriff nehmen.   Im nächsten Schritt bauen Sie internes Fachwissen auf. Ihr Team muss verstehen, wie sich die Tools der Anbieter effektiv einsetzen lassen, um Ihre geschäftlichen Herausforderungen zu stemmen. Investieren Sie in die Schulung bestehender Mitarbeiter und stellen Sie gezielt KI-Spezialisten ein. Starten Sie mit kleinen, fokussierten Projekten, die spezifische Business-Probleme adressieren und belegen Sie deren Mehrwert durch kontrollierte Experimente – bevor Sie skalieren. Das hilft dabei, Vertrauen sowie interne Fähigkeiten aufzubauen und zu einem greifbaren RoI zu gelangen. Für die Zukunft sollten sowohl die großen Cloud-, respektive KI-Anbieter als auch ihre Kunden eine realistischere Erwartungshaltung annehmen, wenn es um KI geht. Sie sollten den Fokus künftig auf nachhaltige KI-Implementierungen legen – in ihrem eigenen Interesse. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die harte Wahrheit über cloudbasierte KI​ Cloudbasierte KI – nur ein schöner Traum?Pavel Chagochkin | shutterstock.com

Der Public-Cloud-Markt wächst weiter rasant – in erster Linie getrieben durch KI-Initiativen in Unternehmen. Entsprechend überschlagen sich die Cloud-Anbieter, um ihre jeweils neuesten und revolutionärsten KI-Features anzupreisen und bieten mitunter auch großzügige Rabatte, um Unternehmen dazu zu bringen, diese zu beziehen. Hinter dieser Hype-Fassade verbirgt sich allerdings eine beunruhigende Realität, die nur selten offen thematisiert wird.  

Immer wieder ist zu beobachten, dass Projekte im Bereich künstliche Intelligenz (KI) mit großem Tamtam an den Start gehen, nur, um in der Folge still und leise in der Versenkung zu verschwinden. Die Enterprise-Kunden sind vor allem gut darin, Geld auszugeben. KI-Fähigkeiten effektiv aufzubauen und zielführend einzusetzen, stellt sie hingegen vor Probleme. Das belegen auch Statistiken: So gehen zum Beispiel die Analysten von Gartner davon aus, dass ganze 85 Prozent der KI-Implementierungen die Erwartungen, die in sie gesetzt werden, nicht erfüllen können. Oder erst gar nicht abgeschlossen werden.

Nach außen präsentiert sich ein völlig anderes Bild: Cloud-Anbieter behaupten immer wieder, Schwierigkeiten zu haben, die überwältigende Nachfrage nach KI-Ressourcen zu befriedigen. Gleichzeitig können die Geschäftsergebnisse der Cloud-Riesen aber bislang des Öfteren die Erwartungen der Investoren nicht erfüllen. Trotz der Schwierigkeiten, ein proportionales Umsatzwachstum nachzuweisen, kündigen die Anbieter aber dennoch weiter beispiellose Investitionen in KI-Infrastruktur an – teilweise ist von einer Erhöhung der Budgets um bis zu 40 Prozent die Rede.    

Das schürt unter Investoren die Sorge, dass die Cloud-Anbieter die potenzielle zukünftige Nachfrage mit der aktuellen Marktrealität verwechseln. Das wiederum könnte zu einer Diskrepanz zwischen Infrastrukturinvestitionen und unmittelbarer Umsatzgenerierung führen. Ist KI am Ende doch nur ein extrem teures Forschungsprojekt, weil die Technologie nicht in großem Maßstab eingesetzt und bezahlt werden kann? Fakt ist jedenfalls, dass die kurzfristige Marktdynamik – dem langfristigen Potenzial von KI zum Trotz – deutlich komplexer ist, als es die Verlautbarungen der Anbieter vermuten lassen.

Cloud-KI-Dilemmata

Das größte Hemmnis für eine erfolgreiche KI-Implementierung ist wahrscheinlich die Datenqualität. So setzen Unternehmen immer komplexere (generative) KI-Anwendungen ein, die eigentlich maßgeschneiderte, hochwertige Datensätze erfordern. Dabei offenbaren sich allerdings vielerorts gravierende Mängel bei existierenden Dateninfrastrukturen. Zwar dürfte den meisten Anwenderunternehmen durchaus bewusst gewesen sein, dass ihr Datenbestand nicht perfekt ist. Wie es wirklich um die Qualität der Daten bestellt ist, haben die meisten aber erst gemerkt, als ihre KI-Projekte schon nicht mehr zu retten waren. In vielen Fällen liegt die Ursache dafür in jahrelangen Versäumnissen, grundlegende Daten(qualitäts)probleme anzugehen. Die damit angehäuften, technischen Schulden gefährden nun allerdings die KI-Ambitionen.

Durch zögerliche Führungskräfte verschärft sich diese Situation noch weiter: Viele Unternehmen geben GenAI-Initiativen auf, weil es ihnen zu kostspielig erscheint, ihre Datenprobleme zu beheben. Das führt in einen Teufelskreis, bei dem mangelnde Investitionen zu anhaltenden Misserfolgen führen, was wiederum die Zögerlichkeit der C-Level-Entscheider befeuert. Zudem entwickelt sich der Return on Investment (RoI) von KI-Initiativen deutlich langsamer als erwartet. Das würde eigentlich erfordern, erfolgskritische Grundlagen wie ein robustes Datenmanagement und eine strategische Planung zu evaluieren – doch auch diese Maßnahmen halten viele Anwender für zu teuer oder zu riskant.  

Die Cloud-Anbieter reagieren auf diese Zurückhaltung ihrerseits mit immer aggressiveren Marketing- und Incentive-Programmen und selbstbewussten Versprechungen einer besonders einfachen Implementierung. Diese Taktiken verschleiern jedoch oft die tatsächlichen Probleme. Einige Anbieter schaffen gar künstliche Nachfragesignale, indem sie KI-bezogene Stellenanzeigen veröffentlichen, von denen viele gar nicht finanziert sind. Das Ziel ist es, den Eindruck zu erwecken, man habe KI besonders schnell und mit Erfolg eingeführt. 

Und auch die Kompetenzlücke, beziehungsweise der „gute, alte“ Fachkräftemangel trägt dazu bei, dass KI-Programme nicht in Gang kommen. Die Anwenderunternehmen suchen händeringend nach qualifizierten Fachkräften, die KI-Systeme effektiv implementieren und managen können. An dieser Stelle hilft es auch nichts, dass die Cloud-Anbieter inzwischen diverse Tools und Plattformen anbieten, um ihre Kunden zu unterstützen. Am Ende wird diese Situation sehr wahrscheinlich zu einer Zweiklassengesellschaft mit Blick auf KI führen. Die einen schaffen es, ihre Daten erfolgreich zu organisieren und die Technologie effektiv zu implementieren. Die anderen fallen zurück und werden sehr wahrscheinlich nicht mehr aufholen können.

Strategischer Weg, bester Weg

Damit sich die Situation bessert, müssten sich die Entscheider in den Anwenderunternehmen von der derzeitigen Praxis verabschieden: Statt sich voreilig in schlecht geplante KI-Implementierungen zu stürzen, jeder neuen KI-Funktion hinterher zu hecheln und sinnlos Cloud-Credits zu verschleudern, wäre es angebracht, KI-Fähigkeiten strategisch und mit Bedacht zu entwickeln. Ganz konkret ließe sich das zum Beispiel in folgende Maßnahmen übersetzen:

Zunächst sollten Sie Ihre Daten in Ordnung bringen. Wenn deren Qualität nicht stimmt, liefern selbst die raffiniertesten  KI-Tools keinen Mehrwert. Soll heißen: Investieren Sie in angemessene Datenmanagement- und Qualitätskontrollmaßnahmen bevor Sie KI-Projekte in Angriff nehmen.  

Im nächsten Schritt bauen Sie internes Fachwissen auf. Ihr Team muss verstehen, wie sich die Tools der Anbieter effektiv einsetzen lassen, um Ihre geschäftlichen Herausforderungen zu stemmen. Investieren Sie in die Schulung bestehender Mitarbeiter und stellen Sie gezielt KI-Spezialisten ein.

Starten Sie mit kleinen, fokussierten Projekten, die spezifische Business-Probleme adressieren und belegen Sie deren Mehrwert durch kontrollierte Experimente – bevor Sie skalieren. Das hilft dabei, Vertrauen sowie interne Fähigkeiten aufzubauen und zu einem greifbaren RoI zu gelangen.

Für die Zukunft sollten sowohl die großen Cloud-, respektive KI-Anbieter als auch ihre Kunden eine realistischere Erwartungshaltung annehmen, wenn es um KI geht. Sie sollten den Fokus künftig auf nachhaltige KI-Implementierungen legen – in ihrem eigenen Interesse. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die harte Wahrheit über cloudbasierte KI​ Weiterlesen »

Mit diesem Tool scrollen Windows-Nutzer besser​

Allgemein

Scroll-Räder und mittige Maustasten können Sie mit unserem Skript getrost vergessen.Gorodenkoff | shutterstock.com Je größer Ihr Bildschirm, desto wahrscheinlicher ist es, dass Sie regelmäßig vom Scroll-System von Windows 11 in den Wahnsinn getrieben werden. Denn Microsoft hat die Bildlaufleisten bei der aktuellen Windows-Version im Vergleich zu den Vorgängern verkleinert. Fehlklicks und Mauszeiger-Präzisionsarbeit sind die zeit- und nervenraubenden Folgen. Weil auch ein Scroll-Rad nur bei überschaubaren Bewegungen Abhilfe schafft, haben wir uns Gedanken darüber gemacht, wie man unter Windows besser scrollen könnte – und das Resultat der Denkarbeit im Vibe-Coding-Verfahren kurzerhand umgesetzt. Das Ergebnis ist ein völlig kostenloses Skript, das Ihrer Produktivität unter Windows 11 im Handumdrehen einen Boost verleihen kann. Das neue Windows-Scroll-Erlebnis Unser Tool fußt auf dem (ebenfalls kostenlosen) Windows-Automation-Framework AutoHotkey und trägt den Namen „Grab to Scroll“ – Sie können es hier direkt herunterladen. Die einzige Voraussetzung, die erfüllt sein muss, um das Skript einzusetzen: Sie brauchen das Kernprogramm AutoHotKey (2.0). Ist dieses installiert, starten Sie das Tool einfach mit einem Doppelklick. Und so funktioniert es: Positionieren Sie den Mauszeiger an einer beliebigen Stelle über einem beliebigen Programmfenster (zum Beispiel Chrome, Slack oder Excel). Klicken Sie auf die mittlere Maustaste (beziehungsweise das Mausrad) und halten Sie diese gedrückt. Bewegen Sie die Maus (nicht das Scroll-Rad) nach oben, unten, links oder rechts. Das Skript übersetzt Ihre Mausbewegungen in schnelle, präzise Scroll-Bewegungen. Sobald Sie dort sind, wo Sie hinwollen, lassen Sie die Taste (beziehungsweise das Rad) los. Das klingt nicht nur simpel, sondern fühlt sich auch genauso an. Nach einiger Zeit geht dieses Verfahren in Fleisch und Blut über. Doch sehen Sie selbst: So sieht „Grab to Scroll“ in Aktion aus.Chris Hoffman, IDG Einen „Nachteil“ hat das Skript jedoch: Die mittlere Maustaste – beziehungsweise das Scroll-Rad – funktioniert nicht wie gewohnt, solange das Skript aktiv ist. Dafür gibt es jedoch auch einen Workaround: Um die normale Funktionalität zu nutzen, halten Sie einfach zeitgleich die Strg-Taste gedrückt. Wenn Sie „Grab to Scroll“ vollständig beenden möchten, reicht dazu ein Rechtsklick auf das entsprechende Symbol in der Taskleiste. Über den System Tray beenden Sie das Scroll-Tool zuverlässig.Chris Hoffman, IDG Natürlich können Sie das Skript auch entsprechend Ihren Vorlieben anpassen, beispielsweise mit Blick auf die Scroll-Geschwindigkeit. Dazu müssen Sie lediglich die Zahlenwerte in der Skriptdatei mit Notepad, Notepad ++ oder einem anderen Editor Ihrer Wahl verändern. Wie das genau geht, entnehmen Sie den eingepflegten Kommentaren. Damit die Änderungen wirksam werden, müssen Sie das Skript anschließend über den System Tray neu laden.   Mit Vibe Coding zum maßgeschneiderten Windows Um dieses Skript zu erstellen, haben wir uns dem Vibe-Coding-Verfahren bedient: Wir hatten ein Problem sowie eine Lösung dafür und haben beides generativer künstlicher Intelligenz (GenAI) „übergeben“, die daraus dann das „Grab to Scroll“-Skript erstellt hat. Dieser Prozess lief alles andere als reibungslos ab – es waren einige Versuche nötig, um zu einem zufriedenstellenden Ergebnis zu kommen. Der entscheidende Punkt aber ist: Um unser Tool zu erstellen, mussten wir nur wissen, was das Problem ist und wie die Lösung aussehen sollte. Diese Vision anschließend in Routinearbeit zu übersetzen, hat die KI übernommen. Und trotz einiger Anlaufschwierigkeiten dauerte es von der Vision zum fertigen Skript nur etwa eine Stunde. Heißt im Umkehrschluss: Mit dem gleichen Verfahren könnten Sie weitere Skripte entwickeln, damit Windows genau so funktioniert, wie Sie es sich vorstellen – auch wenn Sie kein Programmierer sind. Vor allem aber zeigt unser Skript, dass GenAI zu nutzen nicht unbedingt bedeutet, sein Gehirn auszuschalten: Im Gegenteil kann die Technologie unsere Denkleistung verstärken und beschleunigen, wenn sie richtig eingesetzt wird. So kann Vibe Coding dazu beitragen, eine Idee in Sekunden direkt umzusetzen und zu testen – statt erst einmal stundenlang Grundlagen zu recherchieren. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Mit diesem Tool scrollen Windows-Nutzer besser​ Scroll-Räder und mittige Maustasten können Sie mit unserem Skript getrost vergessen.Gorodenkoff | shutterstock.com

Je größer Ihr Bildschirm, desto wahrscheinlicher ist es, dass Sie regelmäßig vom Scroll-System von Windows 11 in den Wahnsinn getrieben werden. Denn Microsoft hat die Bildlaufleisten bei der aktuellen Windows-Version im Vergleich zu den Vorgängern verkleinert. Fehlklicks und Mauszeiger-Präzisionsarbeit sind die zeit- und nervenraubenden Folgen.

Weil auch ein Scroll-Rad nur bei überschaubaren Bewegungen Abhilfe schafft, haben wir uns Gedanken darüber gemacht, wie man unter Windows besser scrollen könnte – und das Resultat der Denkarbeit im Vibe-Coding-Verfahren kurzerhand umgesetzt. Das Ergebnis ist ein völlig kostenloses Skript, das Ihrer Produktivität unter Windows 11 im Handumdrehen einen Boost verleihen kann.

Das neue Windows-Scroll-Erlebnis

Unser Tool fußt auf dem (ebenfalls kostenlosen) Windows-Automation-Framework AutoHotkey und trägt den Namen „Grab to Scroll“ – Sie können es hier direkt herunterladen. Die einzige Voraussetzung, die erfüllt sein muss, um das Skript einzusetzen: Sie brauchen das Kernprogramm AutoHotKey (2.0). Ist dieses installiert, starten Sie das Tool einfach mit einem Doppelklick.

Und so funktioniert es:

Positionieren Sie den Mauszeiger an einer beliebigen Stelle über einem beliebigen Programmfenster (zum Beispiel Chrome, Slack oder Excel).

Klicken Sie auf die mittlere Maustaste (beziehungsweise das Mausrad) und halten Sie diese gedrückt.

Bewegen Sie die Maus (nicht das Scroll-Rad) nach oben, unten, links oder rechts.

Das Skript übersetzt Ihre Mausbewegungen in schnelle, präzise Scroll-Bewegungen.

Sobald Sie dort sind, wo Sie hinwollen, lassen Sie die Taste (beziehungsweise das Rad) los.

Das klingt nicht nur simpel, sondern fühlt sich auch genauso an. Nach einiger Zeit geht dieses Verfahren in Fleisch und Blut über. Doch sehen Sie selbst:

So sieht „Grab to Scroll“ in Aktion aus.Chris Hoffman, IDG

Einen „Nachteil“ hat das Skript jedoch: Die mittlere Maustaste – beziehungsweise das Scroll-Rad – funktioniert nicht wie gewohnt, solange das Skript aktiv ist. Dafür gibt es jedoch auch einen Workaround: Um die normale Funktionalität zu nutzen, halten Sie einfach zeitgleich die Strg-Taste gedrückt.

Wenn Sie „Grab to Scroll“ vollständig beenden möchten, reicht dazu ein Rechtsklick auf das entsprechende Symbol in der Taskleiste.

Über den System Tray beenden Sie das Scroll-Tool zuverlässig.Chris Hoffman, IDG

Natürlich können Sie das Skript auch entsprechend Ihren Vorlieben anpassen, beispielsweise mit Blick auf die Scroll-Geschwindigkeit. Dazu müssen Sie lediglich die Zahlenwerte in der Skriptdatei mit Notepad, Notepad ++ oder einem anderen Editor Ihrer Wahl verändern. Wie das genau geht, entnehmen Sie den eingepflegten Kommentaren. Damit die Änderungen wirksam werden, müssen Sie das Skript anschließend über den System Tray neu laden.  

Mit Vibe Coding zum maßgeschneiderten Windows

Um dieses Skript zu erstellen, haben wir uns dem Vibe-Coding-Verfahren bedient: Wir hatten ein Problem sowie eine Lösung dafür und haben beides generativer künstlicher Intelligenz (GenAI) „übergeben“, die daraus dann das „Grab to Scroll“-Skript erstellt hat. Dieser Prozess lief alles andere als reibungslos ab – es waren einige Versuche nötig, um zu einem zufriedenstellenden Ergebnis zu kommen.

Der entscheidende Punkt aber ist: Um unser Tool zu erstellen, mussten wir nur wissen, was das Problem ist und wie die Lösung aussehen sollte. Diese Vision anschließend in Routinearbeit zu übersetzen, hat die KI übernommen. Und trotz einiger Anlaufschwierigkeiten dauerte es von der Vision zum fertigen Skript nur etwa eine Stunde. Heißt im Umkehrschluss: Mit dem gleichen Verfahren könnten Sie weitere Skripte entwickeln, damit Windows genau so funktioniert, wie Sie es sich vorstellen – auch wenn Sie kein Programmierer sind.

Vor allem aber zeigt unser Skript, dass GenAI zu nutzen nicht unbedingt bedeutet, sein Gehirn auszuschalten: Im Gegenteil kann die Technologie unsere Denkleistung verstärken und beschleunigen, wenn sie richtig eingesetzt wird. So kann Vibe Coding dazu beitragen, eine Idee in Sekunden direkt umzusetzen und zu testen – statt erst einmal stundenlang Grundlagen zu recherchieren. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Mit diesem Tool scrollen Windows-Nutzer besser​ Weiterlesen »

Large-Language-Model-Tutorial: 5 Wege, LLMs lokal auszuführen​

Allgemein

Large Language Models lokal zu betreiben, muss keine Kopfschmerzen bereiten. Foto: Jamie Jin | shutterstock.com Chatbots im Stil von ChatGPT, Claude oder phind können extrem hilfreich sein. Wenn Sie allerdings verhindern möchten, dass die externen Applikationen möglicherweise sensible Daten verarbeiten, respektive diese nutzen, um die zugrundeliegenden, großen Sprachmodelle (Large Language Models; LLMs) zu trainieren, bleibt nur eine Lösung: Sie laden ein LLM auf Ihren Rechner und führen es lokal aus. Das ist auch eine gute Option, um neue Spezialmodelle auszutesten, etwa Metas Code-Llama-Modellfamilie oder SeamlessM4T. Ein eigenes LLM lokal zu betreiben, mag dabei auf den ersten Blick komplex wirken. Mit den richtigen Tools ist das allerdings überraschend simpel. Zudem sind die Anforderungen, die das an die Hardware stellt, nicht übermäßig. Wir haben die in diesem Tutorial vorgestellten Optionen auf zweierlei Systemen getestet: einem Windows-PC mit Intel i9-Prozessor, 64 GB RAM und Nvidia GeForce-GPU (12 GB) und einem Mac mit M1-Chip und 16 GB RAM. Das wahrscheinlich größte Hindernis, wenn Sie dieses Unterfangen angehen wollen: Sie müssen ein Modell finden, das für die angestrebten Tasks geeignet ist und auf Ihrer Hardware läuft. Dabei funktionieren nur wenige so gut wie die bekannten GenAI-Tools der großen Unternehmen. Wie Simon Willison, Schöpfer des Kommandozeilen-Tools LLM, argumentiert, muss das jedoch kein Nachteil sein: “Einige Modelle, die auf Laptops laufen, halluzinieren wie wild. Das ist meiner Meinung nach ein guter Grund, sie einzusetzen. Denn das trägt zum allgemeinen Verständnis der Modelle – und ihrer Grenzen – bei.” 1. Lokaler Chatbot mit GPT4All Den Desktop-Client von gpt4all herunterzuladen (verfügbar für Windows, MacOS und Ubuntu), bietet sich an, wenn Sie einen Chatbot aufsetzen wollen, der keine Daten an Dritte sendet. GPT4All ist dabei einfach einzurichten: Sobald Sie die Desktop-App zum ersten Mal öffnen, werden Ihnen ein knappes Dutzend LLM-Optionen angezeigt, die lokal ausgeführt werden können – beispielsweise Metas Llama-2-7B chat. Darüber hinaus können Sie auch OpenAIs GPT-3.5 und GPT-4 für die nicht lokale Nutzung einrichten (einen API-Key vorausgesetzt). Sobald die Large Language Models eingerichtet sind, erwartet Sie ein übersichtliches und selbsterklärendes Chatbot-Interface. Foto: Sharon Machlis / IDG Darüber hinaus steht auch ein neues Beta-Plugin namens LocalDocs bereit. Das ermöglicht Ihnen, lokal mit Ihren eigenen Dokumenten zu “chatten”. Sie können es über die Registerkarte Settings aktivieren. Dieses Plugin befindet sich noch in der Entwicklung – Halluzinationen sind deshalb nicht ausgeschlossen. Nichtsdestotrotz handelt es sich um eine interessante Funktion, die sich parallel zu den Open-Source-LLMs verbessern dürfte. Neben der Chatbot-Anwendung verfügt GPT4All auch über Bindings für Python und Node sowie eine Befehlszeilenschnittstelle. Auch ein Servermodus steht zur Verfügung, über den Sie mit ihrem lokalen Large Language Model über eine http-API interagieren können. Diese Schnittsatelle ist ähnlich strukturiert wie die von Open AI und erleichtert es, lokale Sprachmodelle mit nur wenigen Änderungen am Code gegen die von OpenAI auszutauschen. 2. LLM in der Kommandozeile Das eingangs bereits erwähnte Tool von Simon Willison – LLM – bietet eine simple Option, um quelloffene, große Sprachmodelle herunterzuladen und lokal auf dem eigenen Rechner auszuführen. Dafür müssen Sie zwar Python installiert haben, aber keinen Python-Code anfassen. Wenn Sie auf einem Mac arbeiten und Homebrew benutzen, installieren Sie es einfach mit: brew install llm Wenn Sie einen Windows-Rechner nutzen, verwenden Sie Ihre bevorzugte Methode, um Python-Bibliotheken zu installieren – etwa: pip install llm LLM verwendet standardmäßig die Modelle von OpenAI. Andere Modelle lassen sich aber über Plugins verwenden. Mit dem gpt4all-Plugin haben Sie beispielsweise Zugriff auf dessen lokale Modelle. Es stehen auch Plugins für Llama, das MLC-Projekt und MPT-30b sowie andere Remote-Modelle zur Verfügung Plugins installieren Sie über die Kommandozeile mit: llm install model-name Folgender Befehl zeigt darüber hinaus alle verfügbaren Sprachmodelle an: llm models list LLM listet bei Bedarf alle verfügbaren Sprachmodelle auf. Foto: Sharon Machlis / IDG Um eine Anfrage an ein lokales LLM zu senden, nutzen Sie folgende Syntax: llm -m the-model-name “Your query” Was die Benutzererfahrung von LLM elegant gestaltet, ist der Umstand, dass das Tool das GPT4All-LLM automatisch auf Ihrem System installiert, falls es nicht vorhanden sein sollte. Das LLM-Plugin für Metas Llama-Modelle erfordert ein wenig mehr Einstellungsarbeit als im Fall von GPT4All. Die Details dazu entnehmen Sie dem GitHub-Repository des Tools. Das LLM-Tool verfügt darüber hinaus über weitere Funktionen, etwa ein argument-Flag, das sich aus vorherigen Chat-Sessions übernehmen und innerhalb eines Python-Skripts übernehmen lässt. 3. Llama auf dem Mac mit Ollama Wenn Sie es noch einfacher als mit LLM haben möchten (dabei aber auch Limitationen in Kauf nehmen können), ist das Open-Source-Tool Ollama einen Blick wert. Dieses steht aktuell für macOS und Linux zur Verfügung – eine Windows-Version ist den Verantwortlichen zufolge in Entwicklung. Die Installation ist mit ein paar Klicks erledigt – und obwohl es sich bei Ollama ebenfalls um ein Kommandozeilen-Tool handelt, gibt es nur einen Befehl: ollama run model-name Sollte das betreffende Modell auf Ihrem System noch nicht vorhanden sein, wird es automatisch heruntergeladen. Die Liste der aktuell verfügbaren LLMs können Sie jederzeit online einsehen. So sieht es aus, wenn Code Llama in einem Ollama Terminal-Fenster läuft. Foto: Sharon Machlis / IDG Das README des Ollama GitHub-Repos enthält eine hilfreiche Liste einiger Modellspezifikationen und hifreiche Hinweise dazu, welche Modelle wie viel Arbeitsspeicher erfordern. Bei unserem Test performte das Llama-LLM 7B Code erstaunlich flott und gut (Mac M1). Obwohl es das kleinste Modell der Llama-Familie ist, brachte eine Frage zu R-Code (“Schreibe R-Code für ein ggplot2-Diagramm mit blauen Balken.”) es nicht aus dem Konzept – auch wenn die Antwort, beziehungsweise der Code nicht perfekt war). Ollama bietet zudem einige zusätzliche Funktionen, etwa eine Integrationsmöglichkeit mit LangChain. 4. Mit Dokumenten chatten über h2oGPT Bei h2o.ai beschäftigt man sich schon seit einiger Zeit mit automatisiertem Machine Learning. Da verwundert es nicht, dass der Open-Source-affine Anbieter inzwischen mit h2oGPT auch in den Bereich der Chatbot-LLMs vorgestoßen ist. Dieses steht in einer kostenlosen Testversion zum Download zur Verfügung. Diese ermöglicht zwar nicht, das LLM auf Ihr System herunterzuladen. Sie können aber damit testen, ob das Interface etwas für Sie ist. Für eine lokale Version des Tools klonen Sie das GitHub-Repository, erstellen und aktivieren eine virtuelle Python-Umgebung und führen dann die folgenden fünf Codezeilen aus (die Sie auch in der README finden): pip install -r requirements.txt pip install -r reqs_optional/requirements_optional_langchain.txt pip install -r reqs_optional/requirements_optional_gpt4all.txt python generate.py –base_model=llama –prompt_type=llama2 –model_path_llama=https://huggingface.co/TheBloke/Llama-2-7b-Chat-GGUF/resolve/main/llama-2-7b-chat.Q6_K.gguf –max_seq_len=4096 Das führt Sie zu einer “limitierten Dokumentenabfragefähigkeit” und einem Llama-Modell von Meta. Eine weitere Codezeile reicht, um eine lokale Version und eine Anwendung unter http://localhost:7860 zur Verfügung zu stellen: python generate.py –base_model=’llama’ –prompt_type=llama2 Ohne weiteren Dateninput hinzuzufügen, können Sie die Applikation als allgemeinen Chatbot verwenden. Wenn Sie eigene Daten – etwa Dokumente – hochladen, können Sie anschließend gezielt Fragen zu den Inhalten stellen. Zu den kompatiblen Dateiformaten gehören unter anderem: .pdf, .csv, .doc, .txt und .markdown. Die Benutzeroberfläche von h2oGPT bietet außerdem eine “Expert”-Registerkarte, die eine Reihe von Konfigurationsoptionen für Benutzer bereitstellen, die wissen, was sie tun. Ein Blick auf das “Expert”-Tab in h2oGPT. Foto: Sharon Machlis / IDG 5. Dokumente abfragen mit PrivateGPT Mit PrivateGPT können Sie Ihre Dokumente in natürlicher Sprache abfragen. Die Dokumente können in dieser Anwendung dabei mehrere Dutzend verschiedene Formate umfassen. Laut der README zum Projekt sollen die Daten dabei privat bleiben und zu keinem Zeitpunkt die Ausführungsumgebung verlassen. Das Tool funktioniert also auch ohne Internetverbindung. PrivateGPT verfügt über Skripte, um: Dateien einzulesen, diese anschließend zu unterteilen, Embeddings zu erstellen (numerische Repräsentationen der Textsemantik) und diese in einem lokalen Chroma Vector Store abzuspeichern. Wenn Sie eine Frage stellen, sucht die App nach relevanten Dokumenten und sendet nur diejenigen an das LLM, um eine präzise Antwort zu generieren. Wenn Sie mit Python vertraut sind, können Sie das vollständige PrivateGPT-Repository klonen und es lokal ausführen. Sollte das nicht der Fall sein, steht auf GitHub auch eine vereinfachte Version zur Verfügung. Die README-Datei letztgenannter Version enthält detaillierte Anweisungen, die kein Python-Sysadmin-Knowhow voraussetzen. PrivateGPT enthält die Funktionen, die man sich von einer “Chat mit eigenen Dokumenten”-Anwendung im Terminal wahrscheinlich am ehesten vorstellt. Allerdings warnt die Dokumentation davor, das Tool in der Produktion einzusetzen. Wenn Sie es trotzdem tun, werden Sie schnell feststellen, warum. Selbst die kleine Modelloption lief auf unserem Heim-PC sehr träge. Weitere Wege zum lokalen LLM Es gibt weitere Möglichkeiten, Large Language Models auf lokaler Ebene auszuführen – von der fertigen Desktop-App bis hin zum DIY-Skript. Eine kleine Auswahl: Jan Dieses relativ junge Open-Source-Projekt zielt darauf ab, den Zugang zu künstlicher Intelligenz mit “offenen, lokal ausgerichteten Produkten” zu demokratisieren. Die App ist einfach herunterzuladen und zu installieren, das Interface bietet eine gute Balance zwischen Anpassbarkeit und Benutzerfreundlichkeit. Auch Modelle auszuwählen geht mit Jan intuitiv vonstatten. Über den im untenstehenden Screenshot abgebildeten Hub des Projekts stehen mehr als 30 KI-Modelle zum Download zur Verfügung – weitere lassen sich (im GGUF-Format) importieren. Sollte Ihr Rechner für bestimmte LLMs zu schwach auf der Brust sein, sehen Sie das bereits bei der Modellauswahl im Hub. Auch wenn nicht genug Arbeitsspeicher zur Verfügung steht (oder knapp wird), erhalten Sie eine entsprechende Meldung. Ein Blick auf den Modell-Hub des Jan-Projekts. Foto: Sharon Machlis | IDG Die Chat-Oberfläche von Jan enthält auf der rechten Seite einen Bereich, in dem Sie Systemanweisungen für das LLM festlegen und Parameter anpassen können. Ausreichend RAM vorausgesetzt, werden die Outputs relativ flott gestreamt. Mit Jan dürfen Sie übrigens nicht nur lokal arbeiten, sondern auch OpenAI-Modelle aus der Cloud nutzen. Darüber hinaus lässt sich das Tool für die Arbeit mit Remote- oder lokalen API-Servern konfigurieren. Die Chat-Oberfläche von Jan ist detailliert und einfach zu benutzen. Foto: Sharon Machlis | IDG Die Projektdokumentation von Jan ist noch etwas spärlich (Stand April 2024). Nur gut, dass das Gros der Anwendung intuitiv zu bedienen ist. Ein entscheidender Vorteil von Jan gegenüber LMStudio ist, dass Jan unter der AGPLv3-Lizenz als Open Source Software verfügbar ist. Somit ist eine uneingeschränkte kommerzielle Nutzung erlaubt, solange alle abgeleiteten Werke ebenfalls quelloffen sind. Jan ist für Windows, macOS und Linux verfügbar. Nvidia ChatRTX Die Nvidia-Demoanwendung ChatRTX wurde entwickelt, um Fragen zu Dokumentenverzeichnissen zu beantworten. Seit dem Start im Februar 2024 nutzt das Tool wahlweise das Mistral- oder das Llama-2-LLM auf lokaler Basis. Die Hardware-Voraussetzungen: Ein Windows-PC mit GPU (Nvidia-Geforce-RTX-30-Serie oder höher) und mindestens 8 GB Video-RAM. Bei einer Download-Größe von 35 GB ist außerdem eine robuste Internetanbindung zu empfehlen. Sind die Voraussetzungen erfüllt und die Applikation entpackt, bietet ChatRTX ein simples Interface, das einfach und intuitiv zu bedienen ist. Das Interface von Nvidias ChatRTX. Foto: Sharon Machlis | IDG Wählen Sie ein LLM und den Pfad zu Ihren Dateien aus, warten Sie darauf, dass die Anwendung Einbettungen für Ihre Dateien erstellt – Sie können diesen Vorgang im Terminalfenster verfolgen – und stellen Sie dann Ihre Frage. Die Antwort enthält Links zu den Dokumenten, die das Modell verwendet hat, um seinen Output zu generieren. Die Nvidia-App unterstützt derzeit .txt-, .pdf- und .doc-Dateien sowie YouTube-Videos (über eine URL). Eine ChatRTX-Sitzung mit Links zu Quelldokumenten. Foto: Sharon Machlis | IDG Beachten sollten Sie dabei, dass die Anwendung keine Unterverzeichnisse durchsucht – Sie müssen also alle relevanten Dateien in einem Ornder ablegen. Wenn Sie dem Verzeichnis weitere Dokumente hinzufügen möchten, klicken Sie auf die Aktualisierungs-Schaltfläche oben rechts neben dem Datensatz, um die Einbettungen neu zu generieren llamafile Mozillas llamafile ermöglicht es Entwicklern, kritische Teile großer Sprachmodelle in ausführbare Dateien zu verwandeln. Dazu gehört auch eine Software, mit der LLM-Dateien im GGUF-Format heruntergeladen, importiert und in einem lokalen Chat-Interface im Browser ausgeführt werden können. Um llamafile auszuführen, laden Sie die aktuelle Serverversion herunter mit (siehe README): curl -L https://github.com/Mozilla-Ocho/llamafile/releases/download/0.1/llamafile-server-0.1 > llamafile chmod +x llamafile Anschließend laden Sie ein Modell Ihrer Wahl herunter. Für diesen Artikel haben wir uns für Zephyr entschieden und eine Version von Hugging Face heruntergeladen (Link führt direkt zum GGUF-Download). Nachdem das erledigt ist, führen Sie das Modell aus mit: ./llamafile –model ./zephyr-7b-alpha.Q4_0.gguf Öffnen Sie es nun in Ihrem Browser unter http://127.0.0.1:8080. Sie sehen einen Eröffnungsbildschirm mit verschiedenen Chat-Optionen: Sobald Sie eine Abfrage eingeben… Foto: Sharon Machlis / IDG …verwandelt sich der Startbildschirm in ein simples Chatbot-Interface. Foto: Sharon Machlis / IDG Während llamafile auf meinem Mac extrem einfach zum Laufen zu bringen war, stießen wir unter Windows auf einige Probleme. Wie ollama ist auch llamafile nicht die erste Wahl, wenn es um Plug-and-Play-Software für Windows geht. LocalGPT Dieser Ableger von PrivateGPT bietet mehr Modelloptionen und stellt darüber hinaus detaillierte Anleitungen zur Verfügung. Auf Youtube ist außerdem ein 17-minütiger Video-Walkthrough abrufbar. LM Studio Eine weitere Desktop-Anwendung, die wir angetestet haben, ist LM Studio. Sie zeichnet sich durch eine benutzerfreundliche, simple Chat-Oberfläche aus. Geht es um die Modellauswahl, sind Sie allerdings auf sich gestellt. Dass der Hugging Face Hub als Hauptquelle für Modell-Downloads innerhalb von LM Studio dient, macht die Sache nicht besser, denn die Auswahl ist überwältigend. LangChain Eine weitere Option: Large Language Models für die lokale Verwendung über das Open-Source-Framework LangChain herunterzuladen. Das erfordert jedoch Programmierkenntnisse in Zusammenhang mit dem LangChain-Ökosystem. Wenn Sie damit vertraut sind, sollten Sie sich folgende Ressourcen für den lokalen LLM-Betrieb genauer ansehen: Hugging Face Local Pipelines, Titan Takeoff (erfordert Docker und Python) und OpenLLM. Bei OpenLLM handelt es sich um eine eigenständige Plattform, die entwickelt wurde, um LLM-basierten Applikationen in der Produktion bereitzustellen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Large-Language-Model-Tutorial: 5 Wege, LLMs lokal auszuführen​ Large Language Models lokal zu betreiben, muss keine Kopfschmerzen bereiten.
Foto: Jamie Jin | shutterstock.com

Chatbots im Stil von ChatGPT, Claude oder phind können extrem hilfreich sein. Wenn Sie allerdings verhindern möchten, dass die externen Applikationen möglicherweise sensible Daten verarbeiten, respektive diese nutzen, um die zugrundeliegenden, großen Sprachmodelle (Large Language Models; LLMs) zu trainieren, bleibt nur eine Lösung: Sie laden ein LLM auf Ihren Rechner und führen es lokal aus. Das ist auch eine gute Option, um neue Spezialmodelle auszutesten, etwa Metas Code-Llama-Modellfamilie oder SeamlessM4T.

Ein eigenes LLM lokal zu betreiben, mag dabei auf den ersten Blick komplex wirken. Mit den richtigen Tools ist das allerdings überraschend simpel. Zudem sind die Anforderungen, die das an die Hardware stellt, nicht übermäßig. Wir haben die in diesem Tutorial vorgestellten Optionen auf zweierlei Systemen getestet:

einem Windows-PC mit Intel i9-Prozessor, 64 GB RAM und Nvidia GeForce-GPU (12 GB) und

einem Mac mit M1-Chip und 16 GB RAM.

Das wahrscheinlich größte Hindernis, wenn Sie dieses Unterfangen angehen wollen: Sie müssen ein Modell finden, das für die angestrebten Tasks geeignet ist und auf Ihrer Hardware läuft. Dabei funktionieren nur wenige so gut wie die bekannten GenAI-Tools der großen Unternehmen. Wie Simon Willison, Schöpfer des Kommandozeilen-Tools LLM, argumentiert, muss das jedoch kein Nachteil sein: “Einige Modelle, die auf Laptops laufen, halluzinieren wie wild. Das ist meiner Meinung nach ein guter Grund, sie einzusetzen. Denn das trägt zum allgemeinen Verständnis der Modelle – und ihrer Grenzen – bei.”

1. Lokaler Chatbot mit GPT4All

Den Desktop-Client von gpt4all herunterzuladen (verfügbar für Windows, MacOS und Ubuntu), bietet sich an, wenn Sie einen Chatbot aufsetzen wollen, der keine Daten an Dritte sendet. GPT4All ist dabei einfach einzurichten: Sobald Sie die Desktop-App zum ersten Mal öffnen, werden Ihnen ein knappes Dutzend LLM-Optionen angezeigt, die lokal ausgeführt werden können – beispielsweise Metas Llama-2-7B chat. Darüber hinaus können Sie auch OpenAIs GPT-3.5 und GPT-4 für die nicht lokale Nutzung einrichten (einen API-Key vorausgesetzt).

Sobald die Large Language Models eingerichtet sind, erwartet Sie ein übersichtliches und selbsterklärendes Chatbot-Interface.
Foto: Sharon Machlis / IDG

Darüber hinaus steht auch ein neues Beta-Plugin namens LocalDocs bereit. Das ermöglicht Ihnen, lokal mit Ihren eigenen Dokumenten zu “chatten”. Sie können es über die Registerkarte Settings aktivieren. Dieses Plugin befindet sich noch in der Entwicklung – Halluzinationen sind deshalb nicht ausgeschlossen. Nichtsdestotrotz handelt es sich um eine interessante Funktion, die sich parallel zu den Open-Source-LLMs verbessern dürfte.

Neben der Chatbot-Anwendung verfügt GPT4All auch über Bindings für Python und Node sowie eine Befehlszeilenschnittstelle. Auch ein Servermodus steht zur Verfügung, über den Sie mit ihrem lokalen Large Language Model über eine http-API interagieren können. Diese Schnittsatelle ist ähnlich strukturiert wie die von Open AI und erleichtert es, lokale Sprachmodelle mit nur wenigen Änderungen am Code gegen die von OpenAI auszutauschen.

2. LLM in der Kommandozeile

Das eingangs bereits erwähnte Tool von Simon Willison – LLM – bietet eine simple Option, um quelloffene, große Sprachmodelle herunterzuladen und lokal auf dem eigenen Rechner auszuführen. Dafür müssen Sie zwar Python installiert haben, aber keinen Python-Code anfassen.

Wenn Sie auf einem Mac arbeiten und Homebrew benutzen, installieren Sie es einfach mit:

brew install llm

Wenn Sie einen Windows-Rechner nutzen, verwenden Sie Ihre bevorzugte Methode, um Python-Bibliotheken zu installieren – etwa:

pip install llm

LLM verwendet standardmäßig die Modelle von OpenAI. Andere Modelle lassen sich aber über Plugins verwenden. Mit dem gpt4all-Plugin haben Sie beispielsweise Zugriff auf dessen lokale Modelle. Es stehen auch Plugins für Llama, das MLC-Projekt und MPT-30b sowie andere Remote-Modelle zur Verfügung

Plugins installieren Sie über die Kommandozeile mit:

llm install model-name

Folgender Befehl zeigt darüber hinaus alle verfügbaren Sprachmodelle an:

llm models list

LLM listet bei Bedarf alle verfügbaren Sprachmodelle auf.
Foto: Sharon Machlis / IDG

Um eine Anfrage an ein lokales LLM zu senden, nutzen Sie folgende Syntax:

llm -m the-model-name “Your query”

Was die Benutzererfahrung von LLM elegant gestaltet, ist der Umstand, dass das Tool das GPT4All-LLM automatisch auf Ihrem System installiert, falls es nicht vorhanden sein sollte. Das LLM-Plugin für Metas Llama-Modelle erfordert ein wenig mehr Einstellungsarbeit als im Fall von GPT4All. Die Details dazu entnehmen Sie dem GitHub-Repository des Tools.

Das LLM-Tool verfügt darüber hinaus über weitere Funktionen, etwa ein argument-Flag, das sich aus vorherigen Chat-Sessions übernehmen und innerhalb eines Python-Skripts übernehmen lässt.

3. Llama auf dem Mac mit Ollama

Wenn Sie es noch einfacher als mit LLM haben möchten (dabei aber auch Limitationen in Kauf nehmen können), ist das Open-Source-Tool Ollama einen Blick wert. Dieses steht aktuell für macOS und Linux zur Verfügung – eine Windows-Version ist den Verantwortlichen zufolge in Entwicklung.

Die Installation ist mit ein paar Klicks erledigt – und obwohl es sich bei Ollama ebenfalls um ein Kommandozeilen-Tool handelt, gibt es nur einen Befehl:

ollama run model-name

Sollte das betreffende Modell auf Ihrem System noch nicht vorhanden sein, wird es automatisch heruntergeladen. Die Liste der aktuell verfügbaren LLMs können Sie jederzeit online einsehen.

So sieht es aus, wenn Code Llama in einem Ollama Terminal-Fenster läuft.
Foto: Sharon Machlis / IDG

Das README des Ollama GitHub-Repos enthält eine hilfreiche Liste einiger Modellspezifikationen und hifreiche Hinweise dazu, welche Modelle wie viel Arbeitsspeicher erfordern. Bei unserem Test performte das Llama-LLM 7B Code erstaunlich flott und gut (Mac M1). Obwohl es das kleinste Modell der Llama-Familie ist, brachte eine Frage zu R-Code (“Schreibe R-Code für ein ggplot2-Diagramm mit blauen Balken.”) es nicht aus dem Konzept – auch wenn die Antwort, beziehungsweise der Code nicht perfekt war). Ollama bietet zudem einige zusätzliche Funktionen, etwa eine Integrationsmöglichkeit mit LangChain.

4. Mit Dokumenten chatten über h2oGPT

Bei h2o.ai beschäftigt man sich schon seit einiger Zeit mit automatisiertem Machine Learning. Da verwundert es nicht, dass der Open-Source-affine Anbieter inzwischen mit h2oGPT auch in den Bereich der Chatbot-LLMs vorgestoßen ist. Dieses steht in einer kostenlosen Testversion zum Download zur Verfügung. Diese ermöglicht zwar nicht, das LLM auf Ihr System herunterzuladen. Sie können aber damit testen, ob das Interface etwas für Sie ist.

Für eine lokale Version des Tools klonen Sie das GitHub-Repository, erstellen und aktivieren eine virtuelle Python-Umgebung und führen dann die folgenden fünf Codezeilen aus (die Sie auch in der README finden):

pip install -r requirements.txt

pip install -r reqs_optional/requirements_optional_langchain.txt

pip install -r reqs_optional/requirements_optional_gpt4all.txt

python generate.py –base_model=llama –prompt_type=llama2 –model_path_llama=https://huggingface.co/TheBloke/Llama-2-7b-Chat-GGUF/resolve/main/llama-2-7b-chat.Q6_K.gguf –max_seq_len=4096

Das führt Sie zu einer “limitierten Dokumentenabfragefähigkeit” und einem Llama-Modell von Meta. Eine weitere Codezeile reicht, um eine lokale Version und eine Anwendung unter http://localhost:7860 zur Verfügung zu stellen:

python generate.py –base_model=’llama’ –prompt_type=llama2

Ohne weiteren Dateninput hinzuzufügen, können Sie die Applikation als allgemeinen Chatbot verwenden. Wenn Sie eigene Daten – etwa Dokumente – hochladen, können Sie anschließend gezielt Fragen zu den Inhalten stellen. Zu den kompatiblen Dateiformaten gehören unter anderem:

.pdf,

.csv,

.doc,

.txt und

.markdown.

Die Benutzeroberfläche von h2oGPT bietet außerdem eine “Expert”-Registerkarte, die eine Reihe von Konfigurationsoptionen für Benutzer bereitstellen, die wissen, was sie tun.

Ein Blick auf das “Expert”-Tab in h2oGPT.
Foto: Sharon Machlis / IDG

5. Dokumente abfragen mit PrivateGPT

Mit PrivateGPT können Sie Ihre Dokumente in natürlicher Sprache abfragen. Die Dokumente können in dieser Anwendung dabei mehrere Dutzend verschiedene Formate umfassen. Laut der README zum Projekt sollen die Daten dabei privat bleiben und zu keinem Zeitpunkt die Ausführungsumgebung verlassen. Das Tool funktioniert also auch ohne Internetverbindung.

PrivateGPT verfügt über Skripte, um:

Dateien einzulesen,

diese anschließend zu unterteilen,

Embeddings zu erstellen (numerische Repräsentationen der Textsemantik) und

diese in einem lokalen Chroma Vector Store abzuspeichern.

Wenn Sie eine Frage stellen, sucht die App nach relevanten Dokumenten und sendet nur diejenigen an das LLM, um eine präzise Antwort zu generieren. Wenn Sie mit Python vertraut sind, können Sie das vollständige PrivateGPT-Repository klonen und es lokal ausführen. Sollte das nicht der Fall sein, steht auf GitHub auch eine vereinfachte Version zur Verfügung. Die README-Datei letztgenannter Version enthält detaillierte Anweisungen, die kein Python-Sysadmin-Knowhow voraussetzen.

PrivateGPT enthält die Funktionen, die man sich von einer “Chat mit eigenen Dokumenten”-Anwendung im Terminal wahrscheinlich am ehesten vorstellt. Allerdings warnt die Dokumentation davor, das Tool in der Produktion einzusetzen. Wenn Sie es trotzdem tun, werden Sie schnell feststellen, warum. Selbst die kleine Modelloption lief auf unserem Heim-PC sehr träge.

Weitere Wege zum lokalen LLM

Es gibt weitere Möglichkeiten, Large Language Models auf lokaler Ebene auszuführen – von der fertigen Desktop-App bis hin zum DIY-Skript. Eine kleine Auswahl:

Jan

Dieses relativ junge Open-Source-Projekt zielt darauf ab, den Zugang zu künstlicher Intelligenz mit “offenen, lokal ausgerichteten Produkten” zu demokratisieren. Die App ist einfach herunterzuladen und zu installieren, das Interface bietet eine gute Balance zwischen Anpassbarkeit und Benutzerfreundlichkeit. Auch Modelle auszuwählen geht mit Jan intuitiv vonstatten. Über den im untenstehenden Screenshot abgebildeten Hub des Projekts stehen mehr als 30 KI-Modelle zum Download zur Verfügung – weitere lassen sich (im GGUF-Format) importieren. Sollte Ihr Rechner für bestimmte LLMs zu schwach auf der Brust sein, sehen Sie das bereits bei der Modellauswahl im Hub. Auch wenn nicht genug Arbeitsspeicher zur Verfügung steht (oder knapp wird), erhalten Sie eine entsprechende Meldung.

Ein Blick auf den Modell-Hub des Jan-Projekts.
Foto: Sharon Machlis | IDG

Die Chat-Oberfläche von Jan enthält auf der rechten Seite einen Bereich, in dem Sie Systemanweisungen für das LLM festlegen und Parameter anpassen können. Ausreichend RAM vorausgesetzt, werden die Outputs relativ flott gestreamt. Mit Jan dürfen Sie übrigens nicht nur lokal arbeiten, sondern auch OpenAI-Modelle aus der Cloud nutzen. Darüber hinaus lässt sich das Tool für die Arbeit mit Remote- oder lokalen API-Servern konfigurieren.

Die Chat-Oberfläche von Jan ist detailliert und einfach zu benutzen.
Foto: Sharon Machlis | IDG

Die Projektdokumentation von Jan ist noch etwas spärlich (Stand April 2024). Nur gut, dass das Gros der Anwendung intuitiv zu bedienen ist. Ein entscheidender Vorteil von Jan gegenüber LMStudio ist, dass Jan unter der AGPLv3-Lizenz als Open Source Software verfügbar ist. Somit ist eine uneingeschränkte kommerzielle Nutzung erlaubt, solange alle abgeleiteten Werke ebenfalls quelloffen sind. Jan ist für Windows, macOS und Linux verfügbar.

Nvidia ChatRTX

Die Nvidia-Demoanwendung ChatRTX wurde entwickelt, um Fragen zu Dokumentenverzeichnissen zu beantworten. Seit dem Start im Februar 2024 nutzt das Tool wahlweise das Mistral- oder das Llama-2-LLM auf lokaler Basis. Die Hardware-Voraussetzungen: Ein Windows-PC mit GPU (Nvidia-Geforce-RTX-30-Serie oder höher) und mindestens 8 GB Video-RAM. Bei einer Download-Größe von 35 GB ist außerdem eine robuste Internetanbindung zu empfehlen. Sind die Voraussetzungen erfüllt und die Applikation entpackt, bietet ChatRTX ein simples Interface, das einfach und intuitiv zu bedienen ist.

Das Interface von Nvidias ChatRTX.
Foto: Sharon Machlis | IDG

Wählen Sie ein LLM und den Pfad zu Ihren Dateien aus, warten Sie darauf, dass die Anwendung Einbettungen für Ihre Dateien erstellt – Sie können diesen Vorgang im Terminalfenster verfolgen – und stellen Sie dann Ihre Frage. Die Antwort enthält Links zu den Dokumenten, die das Modell verwendet hat, um seinen Output zu generieren. Die Nvidia-App unterstützt derzeit .txt-, .pdf- und .doc-Dateien sowie YouTube-Videos (über eine URL).

Eine ChatRTX-Sitzung mit Links zu Quelldokumenten.
Foto: Sharon Machlis | IDG

Beachten sollten Sie dabei, dass die Anwendung keine Unterverzeichnisse durchsucht – Sie müssen also alle relevanten Dateien in einem Ornder ablegen. Wenn Sie dem Verzeichnis weitere Dokumente hinzufügen möchten, klicken Sie auf die Aktualisierungs-Schaltfläche oben rechts neben dem Datensatz, um die Einbettungen neu zu generieren

llamafile

Mozillas llamafile ermöglicht es Entwicklern, kritische Teile großer Sprachmodelle in ausführbare Dateien zu verwandeln. Dazu gehört auch eine Software, mit der LLM-Dateien im GGUF-Format heruntergeladen, importiert und in einem lokalen Chat-Interface im Browser ausgeführt werden können.

Um llamafile auszuführen, laden Sie die aktuelle Serverversion herunter mit (siehe README):

curl -L https://github.com/Mozilla-Ocho/llamafile/releases/download/0.1/llamafile-server-0.1 > llamafile

chmod +x llamafile

Anschließend laden Sie ein Modell Ihrer Wahl herunter. Für diesen Artikel haben wir uns für Zephyr entschieden und eine Version von Hugging Face heruntergeladen (Link führt direkt zum GGUF-Download). Nachdem das erledigt ist, führen Sie das Modell aus mit:

./llamafile –model ./zephyr-7b-alpha.Q4_0.gguf

Öffnen Sie es nun in Ihrem Browser unter http://127.0.0.1:8080. Sie sehen einen Eröffnungsbildschirm mit verschiedenen Chat-Optionen:

Sobald Sie eine Abfrage eingeben…
Foto: Sharon Machlis / IDG

…verwandelt sich der Startbildschirm in ein simples Chatbot-Interface.
Foto: Sharon Machlis / IDG

Während llamafile auf meinem Mac extrem einfach zum Laufen zu bringen war, stießen wir unter Windows auf einige Probleme. Wie ollama ist auch llamafile nicht die erste Wahl, wenn es um Plug-and-Play-Software für Windows geht.

LocalGPT

Dieser Ableger von PrivateGPT bietet mehr Modelloptionen und stellt darüber hinaus detaillierte Anleitungen zur Verfügung. Auf Youtube ist außerdem ein 17-minütiger Video-Walkthrough abrufbar.

LM Studio

Eine weitere Desktop-Anwendung, die wir angetestet haben, ist LM Studio. Sie zeichnet sich durch eine benutzerfreundliche, simple Chat-Oberfläche aus. Geht es um die Modellauswahl, sind Sie allerdings auf sich gestellt. Dass der Hugging Face Hub als Hauptquelle für Modell-Downloads innerhalb von LM Studio dient, macht die Sache nicht besser, denn die Auswahl ist überwältigend.

LangChain

Eine weitere Option: Large Language Models für die lokale Verwendung über das Open-Source-Framework LangChain herunterzuladen. Das erfordert jedoch Programmierkenntnisse in Zusammenhang mit dem LangChain-Ökosystem.

Wenn Sie damit vertraut sind, sollten Sie sich folgende Ressourcen für den lokalen LLM-Betrieb genauer ansehen:

Hugging Face Local Pipelines,

Titan Takeoff (erfordert Docker und Python) und

OpenLLM.

Bei OpenLLM handelt es sich um eine eigenständige Plattform, die entwickelt wurde, um LLM-basierten Applikationen in der Produktion bereitzustellen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Large-Language-Model-Tutorial: 5 Wege, LLMs lokal auszuführen​ Weiterlesen »

Wird Chrome bald zum „AI-first“-Erlebnis dank OpenAI?​

Allgemein

Noch gehörten Chromes IP und Daten zu Google. Ein prominenter Interessent hat sich öffentlich präsentiert. viewimage – shutterstock.com Wird Google aufgespalten? Diese Frage steht im Raum, seit die US-Regierung das Unternehmen als Suchmonopolisten einstufte und öffentlich verkündete, gegen den Techriesen juristisch vorgehen zu wollen. Googles milliardenschwere Verträge über die Platzierung von Suchergebnissen, die das US-Justizministerium ebenfalls auflösen will, spielen hierbei eine wichtige Rolle. Das US-Justizministerium sieht Googles Browser Chrome hierbei als zentrales Element seines wettbewerbswidrigen Verhaltens und erwägt, dessen Verkauf anzuordnen. Ziel wäre es, fairere Wettbewerbsbedingungen im Internet zu schaffen. Unklar ist jedoch, wer Chrome übernehmen könnte. Selbstentwicklung oder Übernahme OpenAI denkt Berichten zufolge darüber nach, einen eigenen Browser auf Chromium-Basis zu entwickeln und hat dafür ehemalige Chrome-Entwickler von Google angeheuert. Alternativ könnte sich das milliardenschwere Startup auch vorstellen, den Browser direkt zu kaufen, wie Nick Turley, Produktmanager bei OpenAI, vor Gericht laut Bloomberg unmissverständlich klar machte: „Ja, das würden wir, wie viele andere Parteien auch“. Im Rahmen des Gerichtsverfahrens gegen Google sprach er auch von einem möglichen „AI-first“-Experiment. Bings Daten reichen nicht Mit 4 Milliarden Nutzern und einem Marktanteil von 67 Prozent ist Chrome der meistgenutzte Browser der Welt. Die Übernahme dieses Browsers würde OpenAI sofort eine massive installierte Basis von Nutzern verschaffen, die einen Anreiz haben, Google-Dienste zu nutzen. Ein eigener Browser würde es OpenAI wiederum ermöglichen, ChatGPT nahtlos zu integrieren und wertvolle Nutzerdaten für das KI-Training zu nutzen. OpenAI arbeitet derzeit mit Microsoft zusammen, hält aber die Daten von Bing für unzureichend. In einer E-Mail an Google, die während des Gerichtsverfahrens  wurde und vom Nachrichtenportal Reuters veröffentlicht wurde, betonte OpenAI, dass der Zugang zu Googles API ein besseres Nutzererlebnis ermöglichen würde. Google lehnte eine Zusammenarbeit bisher aus Sorge um seine Position im Suchmarkt ab. Laut OpenAI-Chef Turley würde eine verpflichtende Lizenzierung von Googles Suchdaten den Wettbewerb stärken. Ausgliederung von Chrome als Option Interessanterweise wird im Zusammenhang mit dem Gerichtsverfahren viel darüber spekuliert, wer Chrome kaufen könnte. Über die Alternative, den Browser als eigenständiges Unternehmen auszugliedern, wird indes nur wenig diskutiert. So behauptet Google, dass Chrome allein nicht überlebensfähig wäre. Die Milliarden, die das Unternehmen an Apple zahlt, um Google als Standard-Suchmaschine zu platzieren, lassen jedoch etwas anderes vermuten. 

Wird Chrome bald zum „AI-first“-Erlebnis dank OpenAI?​ Noch gehörten Chromes IP und Daten zu Google. Ein prominenter Interessent hat sich öffentlich präsentiert.
viewimage – shutterstock.com

Wird Google aufgespalten? Diese Frage steht im Raum, seit die US-Regierung das Unternehmen als Suchmonopolisten einstufte und öffentlich verkündete, gegen den Techriesen juristisch vorgehen zu wollen. Googles milliardenschwere Verträge über die Platzierung von Suchergebnissen, die das US-Justizministerium ebenfalls auflösen will, spielen hierbei eine wichtige Rolle.

Das US-Justizministerium sieht Googles Browser Chrome hierbei als zentrales Element seines wettbewerbswidrigen Verhaltens und erwägt, dessen Verkauf anzuordnen. Ziel wäre es, fairere Wettbewerbsbedingungen im Internet zu schaffen. Unklar ist jedoch, wer Chrome übernehmen könnte.

Selbstentwicklung oder Übernahme

OpenAI denkt Berichten zufolge darüber nach, einen eigenen Browser auf Chromium-Basis zu entwickeln und hat dafür ehemalige Chrome-Entwickler von Google angeheuert.

Alternativ könnte sich das milliardenschwere Startup auch vorstellen, den Browser direkt zu kaufen, wie Nick Turley, Produktmanager bei OpenAI, vor Gericht laut Bloomberg unmissverständlich klar machte: „Ja, das würden wir, wie viele andere Parteien auch“. Im Rahmen des Gerichtsverfahrens gegen Google sprach er auch von einem möglichen „AI-first“-Experiment.

Bings Daten reichen nicht

Mit 4 Milliarden Nutzern und einem Marktanteil von 67 Prozent ist Chrome der meistgenutzte Browser der Welt. Die Übernahme dieses Browsers würde OpenAI sofort eine massive installierte Basis von Nutzern verschaffen, die einen Anreiz haben, Google-Dienste zu nutzen. Ein eigener Browser würde es OpenAI wiederum ermöglichen, ChatGPT nahtlos zu integrieren und wertvolle Nutzerdaten für das KI-Training zu nutzen.

OpenAI arbeitet derzeit mit Microsoft zusammen, hält aber die Daten von Bing für unzureichend. In einer E-Mail an Google, die während des Gerichtsverfahrens  wurde und vom Nachrichtenportal Reuters veröffentlicht wurde, betonte OpenAI, dass der Zugang zu Googles API ein besseres Nutzererlebnis ermöglichen würde. Google lehnte eine Zusammenarbeit bisher aus Sorge um seine Position im Suchmarkt ab. Laut OpenAI-Chef Turley würde eine verpflichtende Lizenzierung von Googles Suchdaten den Wettbewerb stärken.

Ausgliederung von Chrome als Option

Interessanterweise wird im Zusammenhang mit dem Gerichtsverfahren viel darüber spekuliert, wer Chrome kaufen könnte. Über die Alternative, den Browser als eigenständiges Unternehmen auszugliedern, wird indes nur wenig diskutiert. So behauptet Google, dass Chrome allein nicht überlebensfähig wäre. Die Milliarden, die das Unternehmen an Apple zahlt, um Google als Standard-Suchmaschine zu platzieren, lassen jedoch etwas anderes vermuten.

Wird Chrome bald zum „AI-first“-Erlebnis dank OpenAI?​ Weiterlesen »

Microsoft erweitert M365 Copilot​

Allgemein

Mit seinem neuen Copilot-Update will Microsoft die Zusammenarbeit zwischen KI-Agent und Nutzer intensivieren. Microsoft Microsoft hat seine generative KI-Software Copilot um wichtige neue Funktionen erweitert, die den Benutzern helfen sollen, produktiver zu arbeiten. Die nächste Welle von Copilot-Updates umfasst „digitale Arbeits“-Tools zur Automatisierung von Arbeitsabläufen und zur Zusammenführung von Dokumenteninformationen, mit dem Ziel, Unternehmensanwendern zu helfen, „smarter statt härter“ zu arbeiten.  Suche in unstrukturierten Daten  Ein Beispiel dafür ist die neue Funktion Copilot Search, die Informationen übersichtlich zusammenfasst, indem sie große Mengen unstrukturierter Daten durchforstet, die in unternehmensinternen Apps und Systemen gespeichert sind. Copilot kann Kontext liefern und Informationen präsentieren, nachdem es Daten in gängigen Microsoft-Produktivitäts-Tools und Drittanbieter-Apps wie Google Drive, Slack, ServiceNow und Software von Atlassian durchsucht hat.   Die neuen KI-Funktionen – darunter weitere Zusammenfassungswerkzeuge, Personalisierungsmöglichkeiten für den Desktop und administrative Tools – werden durch „fortschrittliche Modelle, adaptive Speichertechnologien und intelligente Agenten“ ermöglicht, so Microsoft in einem Blog-Beitrag.  Zu den weiteren neuen Copilot-Funktionen gehören „Speicher- und Personalisierungsfunktionen“ – ein Thema, das Microsoft kürzlich auf seiner 50-Jahr-Feier besonders hervorgehoben hat. Die Funktionen können das Desktop-Erlebnis individuell anpassen, indem sie Benutzerpräferenzen über die Zeit hinweg speichern und verstehen. „Speicher und Personalisierung sind privat und nur für Sie zugänglich“, schreibt Microsoft dazu in seinem Blog. „Wenn Sie mit vertraulichen Informationen arbeiten, können Sie steuern, was Copilot speichert.“  Das Feature „Copilot Notebooks“ wiederum ermöglicht es Anwendern, ein Mini-KI-Modell auf der Grundlage ihrer Notizen und Dokumente erstellen. Benutzer können ein „Notizbuch“ erstellen und es mit relevanten Dokumenten zum jeweiligen Projekt füllen. Das Notizbuch präsentiert dann kontextbezogene Antworten, indem es nur diese Dokumente durchsucht. Die Notizbücher können auch mit neuen Dokumenten aktualisiert werden, die das KI-Modell in den Datenbestand indexiert. Copilot Notebooks erinnert damit stark an Googles NotebookLM-App, die Teil von Google Workspace ist.   Ab Ende Mai verfügbar  Die neuen Funktionen sollen ab Ende Mai für Microsoft-365-Copilot-Kunden verfügbar sein. Microsofts kostenpflichtiges generatives KI-Angebot für Unternehmen ist als Add-on zu kommerziellen M365-Abos für zusätzlich 30 Dollar pro Nutzer und Monat erhältlich.   Wie Microsoft bekannt gab, stehen im neuen Agent Store außerdem die bereits angekündigten Researcher- und Analyst-Reasoning-Agenten bereit – allerdings nur für Teilnehmer des Frontier-Programms. Im Store finden Kunden außerdem vorgefertigte KI-Agenten von Microsoft und Partnern wie Jira, Monday.com und Miro. Zusätzlich können Unternehmen im Store auch ihre eigenen benutzerdefinierten Agenten anbieten.  Microsoft kündigte außerdem das Copilot Control System für Systemadministratoren an, mit dem diese die Erstellung und Bereitstellung von KI-Agenten in Unternehmenssystemen verwalten können – einschließlich der Möglichkeit, Agenten für bestimmte Benutzer oder Gruppen zu aktivieren, zu deaktivieren oder zu blockieren.  Laut Jack Gold, Principal Analyst bei J. Gold Associates, ist dies ein wichtiger Schritt, da Copilot und andere KI-Systeme immer stärker in Unternehmens-Tools integriert werden. „Lassen Sie Jack, einen einfachen Mitarbeiter, alles fragen, was er will? Die Kenntnis der Rollen, Sicherheits- und Datenzugriffsberechtigungen verschiedener Benutzer wird für allgemeine KI-Systeme sehr wichtig sein“, so Gold.  Aus Sicht von J.P. Gownder, Vice President und Principal Analyst bei Forrester Research, steht Microsoft noch ganz am Anfang der Reise hin zu agentenbasierter KI. „Microsoft Copilot Agents eignen sich gut für den Zugriff auf bestimmte Datenquellen – wie eine SharePoint-Website –, um sicherzustellen, dass Sie die richtige Datenquelle abfragen“, so Gownder. Allerdings stuft Forrester einige Copilot-Funktionen, die einfache Aufgaben erledigen und auf spezifische Quellen zugreifen, eher als „agentenähnlich“ ein, denn als echte agentenbasierte KI. „Agentenähnliche Lösungen können punktuelle Probleme lösen, sind aber noch nicht die ‚digitalen Kollegen‘, von denen Anbieter sprechen – zumindest noch nicht“, so Gownder.  

Microsoft erweitert M365 Copilot​ Mit seinem neuen Copilot-Update will Microsoft die Zusammenarbeit zwischen KI-Agent und Nutzer intensivieren. Microsoft

Microsoft hat seine generative KI-Software Copilot um wichtige neue Funktionen erweitert, die den Benutzern helfen sollen, produktiver zu arbeiten. Die nächste Welle von Copilot-Updates umfasst „digitale Arbeits“-Tools zur Automatisierung von Arbeitsabläufen und zur Zusammenführung von Dokumenteninformationen, mit dem Ziel, Unternehmensanwendern zu helfen, „smarter statt härter“ zu arbeiten. 

Suche in unstrukturierten Daten 

Ein Beispiel dafür ist die neue Funktion Copilot Search, die Informationen übersichtlich zusammenfasst, indem sie große Mengen unstrukturierter Daten durchforstet, die in unternehmensinternen Apps und Systemen gespeichert sind. Copilot kann Kontext liefern und Informationen präsentieren, nachdem es Daten in gängigen Microsoft-Produktivitäts-Tools und Drittanbieter-Apps wie Google Drive, Slack, ServiceNow und Software von Atlassian durchsucht hat.  

Die neuen KI-Funktionen – darunter weitere Zusammenfassungswerkzeuge, Personalisierungsmöglichkeiten für den Desktop und administrative Tools – werden durch „fortschrittliche Modelle, adaptive Speichertechnologien und intelligente Agenten“ ermöglicht, so Microsoft in einem Blog-Beitrag. 

Zu den weiteren neuen Copilot-Funktionen gehören „Speicher- und Personalisierungsfunktionen“ – ein Thema, das Microsoft kürzlich auf seiner 50-Jahr-Feier besonders hervorgehoben hat. Die Funktionen können das Desktop-Erlebnis individuell anpassen, indem sie Benutzerpräferenzen über die Zeit hinweg speichern und verstehen. „Speicher und Personalisierung sind privat und nur für Sie zugänglich“, schreibt Microsoft dazu in seinem Blog. „Wenn Sie mit vertraulichen Informationen arbeiten, können Sie steuern, was Copilot speichert.“ 

Das Feature „Copilot Notebooks“ wiederum ermöglicht es Anwendern, ein Mini-KI-Modell auf der Grundlage ihrer Notizen und Dokumente erstellen. Benutzer können ein „Notizbuch“ erstellen und es mit relevanten Dokumenten zum jeweiligen Projekt füllen. Das Notizbuch präsentiert dann kontextbezogene Antworten, indem es nur diese Dokumente durchsucht. Die Notizbücher können auch mit neuen Dokumenten aktualisiert werden, die das KI-Modell in den Datenbestand indexiert. Copilot Notebooks erinnert damit stark an Googles NotebookLM-App, die Teil von Google Workspace ist.  

Ab Ende Mai verfügbar 

Die neuen Funktionen sollen ab Ende Mai für Microsoft-365-Copilot-Kunden verfügbar sein. Microsofts kostenpflichtiges generatives KI-Angebot für Unternehmen ist als Add-on zu kommerziellen M365-Abos für zusätzlich 30 Dollar pro Nutzer und Monat erhältlich.  

Wie Microsoft bekannt gab, stehen im neuen Agent Store außerdem die bereits angekündigten Researcher- und Analyst-Reasoning-Agenten bereit – allerdings nur für Teilnehmer des Frontier-Programms. Im Store finden Kunden außerdem vorgefertigte KI-Agenten von Microsoft und Partnern wie Jira, Monday.com und Miro. Zusätzlich können Unternehmen im Store auch ihre eigenen benutzerdefinierten Agenten anbieten. 

Microsoft kündigte außerdem das Copilot Control System für Systemadministratoren an, mit dem diese die Erstellung und Bereitstellung von KI-Agenten in Unternehmenssystemen verwalten können – einschließlich der Möglichkeit, Agenten für bestimmte Benutzer oder Gruppen zu aktivieren, zu deaktivieren oder zu blockieren. 

Laut Jack Gold, Principal Analyst bei J. Gold Associates, ist dies ein wichtiger Schritt, da Copilot und andere KI-Systeme immer stärker in Unternehmens-Tools integriert werden. „Lassen Sie Jack, einen einfachen Mitarbeiter, alles fragen, was er will? Die Kenntnis der Rollen, Sicherheits- und Datenzugriffsberechtigungen verschiedener Benutzer wird für allgemeine KI-Systeme sehr wichtig sein“, so Gold. 

Aus Sicht von J.P. Gownder, Vice President und Principal Analyst bei Forrester Research, steht Microsoft noch ganz am Anfang der Reise hin zu agentenbasierter KI. „Microsoft Copilot Agents eignen sich gut für den Zugriff auf bestimmte Datenquellen – wie eine SharePoint-Website –, um sicherzustellen, dass Sie die richtige Datenquelle abfragen“, so Gownder. Allerdings stuft Forrester einige Copilot-Funktionen, die einfache Aufgaben erledigen und auf spezifische Quellen zugreifen, eher als „agentenähnlich“ ein, denn als echte agentenbasierte KI. „Agentenähnliche Lösungen können punktuelle Probleme lösen, sind aber noch nicht die ‚digitalen Kollegen‘, von denen Anbieter sprechen – zumindest noch nicht“, so Gownder. 

Microsoft erweitert M365 Copilot​ Weiterlesen »

Tariff Response – Zollrisiken in der Lieferkette simulieren​

Allgemein

Mit seinen Zoll-Fantasien sorgt US-Präsident Donald Trump für viel Unruhe in den globalen Lieferketten. Joshua Sukoff – shutterstock.com Mal sind es 25 Prozent, dann 50 oder gar 100 Prozent – das kann sich quasi über Nacht ändern. Auch die Frage, wann sie denn nun gelten, lässt sich derzeit meist nur schwer beantworten. Vielleicht greifen sie schon in der nächsten Woche, oder aber erst in 90 Tagen, oder… Die Zollpolitik des wirtschaftspolitisch irrlichternden US-Präsidenten Donald Trump lässt die für die Lieferketten verantwortlichen Manager in vielen Unternehmen derzeit kaum ruhig schlafen. Big Tech stöhnt unter Trump-Zöllen Angesichts des zunehmenden Zolldrucks und der wachsenden Unsicherheit im globalen Handel hat Kinaxis, ein Anbieter von Lösungen für das Supply-Chain-Management, Tariff Response entwickelt. Mit der Lösung sollen Anwenderunternehmen Zollrisiken simulieren, strategische Szenarien durchspielen und so schneller fundierte Entscheidungen treffen können.  KI-gestützte Was-wäre-wenn-Szenarien Tariff Response basiert Kinaxis zufolge auf der eigenen KI-gestützten Maestro-Plattform. Im Kern geht es dabei um KI-gestützte Was-wäre-wenn-Szenarioplanungen. Das Software-Tool sei in erster Linie für den Umgang mit Störungen im Handel konzipiert worden, hieß es von Seiten des Herstellers. Dabei würden zollspezifische Daten, Beschaffungslogik, Optionen zur Preisgestaltung und Nachfragemodellierung kombiniert, sodass Unternehmen Margenrisiken analysieren, Strategien durchspielen und Alternativen bewerten könnten – „und das innerhalb von Sekunden statt Tagen oder Wochen“, versprechen die Kinaxis-Verantwortlichen.  „Globale Lieferketten funktionieren nicht mehr nach den alten Regeln,“ erklärte Mark Morgan, President of Global Commercial Operations bei Kinaxis. „Zölle greifen heute schneller und haben weitreichendere Folgen.“ Wenn sich Handelsrichtlinien über Nacht änderten, benötigten Unternehmen heute mehr als nur Tabellenkalkulationen. Mit Kinaxis Tariff Response erhielten Betriebe in Echtzeit Einblick in Kosten, Nachfrage und Auswirkungen auf die Beschaffung, sodass sie schnell und gezielt reagieren könnten, wirbt der Manager. Lesen Sie mehr darüber, wie Donald Trump die Digitalbranche verunsichert: Zieht Trump den Deutschen den Stecker? Wird Deutschland nach dem Trump-Sieg digital erpressbar? Ist Trump der Booster für Europas digitale Souveränität? Trump und EU-Kommission gehen auf Konfrontationskurs 

Tariff Response – Zollrisiken in der Lieferkette simulieren​ Mit seinen Zoll-Fantasien sorgt US-Präsident Donald Trump für viel Unruhe in den globalen Lieferketten. Joshua Sukoff – shutterstock.com

Mal sind es 25 Prozent, dann 50 oder gar 100 Prozent – das kann sich quasi über Nacht ändern. Auch die Frage, wann sie denn nun gelten, lässt sich derzeit meist nur schwer beantworten. Vielleicht greifen sie schon in der nächsten Woche, oder aber erst in 90 Tagen, oder… Die Zollpolitik des wirtschaftspolitisch irrlichternden US-Präsidenten Donald Trump lässt die für die Lieferketten verantwortlichen Manager in vielen Unternehmen derzeit kaum ruhig schlafen.

Big Tech stöhnt unter Trump-Zöllen

Angesichts des zunehmenden Zolldrucks und der wachsenden Unsicherheit im globalen Handel hat Kinaxis, ein Anbieter von Lösungen für das Supply-Chain-Management, Tariff Response entwickelt. Mit der Lösung sollen Anwenderunternehmen Zollrisiken simulieren, strategische Szenarien durchspielen und so schneller fundierte Entscheidungen treffen können. 

KI-gestützte Was-wäre-wenn-Szenarien

Tariff Response basiert Kinaxis zufolge auf der eigenen KI-gestützten Maestro-Plattform. Im Kern geht es dabei um KI-gestützte Was-wäre-wenn-Szenarioplanungen. Das Software-Tool sei in erster Linie für den Umgang mit Störungen im Handel konzipiert worden, hieß es von Seiten des Herstellers. Dabei würden zollspezifische Daten, Beschaffungslogik, Optionen zur Preisgestaltung und Nachfragemodellierung kombiniert, sodass Unternehmen Margenrisiken analysieren, Strategien durchspielen und Alternativen bewerten könnten – „und das innerhalb von Sekunden statt Tagen oder Wochen“, versprechen die Kinaxis-Verantwortlichen. 

„Globale Lieferketten funktionieren nicht mehr nach den alten Regeln,“ erklärte Mark Morgan, President of Global Commercial Operations bei Kinaxis. „Zölle greifen heute schneller und haben weitreichendere Folgen.“ Wenn sich Handelsrichtlinien über Nacht änderten, benötigten Unternehmen heute mehr als nur Tabellenkalkulationen. Mit Kinaxis Tariff Response erhielten Betriebe in Echtzeit Einblick in Kosten, Nachfrage und Auswirkungen auf die Beschaffung, sodass sie schnell und gezielt reagieren könnten, wirbt der Manager.

Lesen Sie mehr darüber, wie Donald Trump die Digitalbranche verunsichert:

Zieht Trump den Deutschen den Stecker?

Wird Deutschland nach dem Trump-Sieg digital erpressbar?

Ist Trump der Booster für Europas digitale Souveränität?

Trump und EU-Kommission gehen auf Konfrontationskurs

Tariff Response – Zollrisiken in der Lieferkette simulieren​ Weiterlesen »

Virtual Reality: Die Geschichte der virtuellen Realität​

Allgemein

Virtual Reality ist heute State of the Art. Lesen Sie, wie sich die Technologie über die Jahrzehnte entwickelt hat und wie die VR-Zukunft aussehen könnte. Foto: Joshua Resnick – shutterstock.com Das Kürzel “VR” ist heute wohl jedem ein Begriff. Durch den anhaltenden Remote-Work-Trend, die Pandemie-bedingten Einschränkungen und nicht zuletzt das Aufkommen des Metaverse wird Virtual Reality zunehmend interessanter – für Unternehmen wie für Konsumenten. Lesen Sie, wie Virtual Reality entstanden ist und was die Zukunft für die Technologie bereithalten könnte. Anfänge Das erste Gerät, das über Virtual-Reality-Charakteristiken verfügte, war der View-Master. Das Gerät ermöglichte die Betrachtung stereoskopischer Bilder. Das Konzept auf dem das Device basierte, entstand bereits im Jahr 1838 – die Idee dahinter: Verschiedene Einzelbilder gleichzeitig zu betrachten, um ein dreidimensionales Bild zu erzeugen. Der View-Master erschien im Jahr 1939 und bot die Möglichkeit, sieben stereoskopische 3D-Farbdias auf einer Pappkarton-Scheibe zu “montieren”, um sie als “Film” zu betrachten. Dieses Konzept erfreute sich insbesondere bei Urlaubern großer Beliebtheit, weswegen der View-Master in den Folgejahren in mehreren Versionen neu aufgelegt wurde. Der Markenname ist nach einigen Übernahmen heute im Besitz des Spielzeugriesen Mattel, der das Gerät mittlerweile als Virtual-Reality-Brille für Kinder vermarktet. Der View-Master funktionierte mit auf Pappscheiben montierten Dias. Foto: Handige Harrie at Dutch Wikipedia / Wikimedia Commons / Public Domain Der View-Master war der Vorreiter dessen, was wir heute als VR-Headset kennen – das Konzept der virtuellen Realität wurde jedoch bereits im Jahr 1935 tiefgehend ausgebaut. Maßgeblichen Anteil daran hatte die von Stanley G. Weinbaum verfasste, fiktive Kurzgeschichte “Pygmalion’s Spectacles“. Hier wurden erstmals Brillen (für den Konsum von Spielfilmen) beschrieben, die dazu imstande waren, bei ihren Nutzern ein immersives Erlebnis zu erzeugen. Die Geschichte bot erstmals Einblick in eine Technologie, die nicht nur die Perspektive, sondern die Realität ihrer Anwender verändern konnte. Zukunftskino Bis Teile dieses Konzepts von der fiktiven in die reale Welt überführt werden konnten, dauerte es einige Jahre. 1962 machte sich der Filmemacher Morton Heilig das simple Prinzip des View-Master zunutze, als er mit dem Sensorama das weltweit erste immersive System realisierte. Das Gerät, das am ehesten an eine monströse Jahrmarktattraktion oder einen Arcade-Automaten erinnert, verfügte über einen Sitz und zwei Gucklöcher. Zahlende Nutzer kamen mit dem Sensorama in Genuss vollwertiger 3D-Bilder und Sounds. Darüber hinaus war es auch möglich, atmosphärische Effekte wie beispielsweise Wind oder auch Gerüche zu erzeugen. Morton Heiligs Sensorama (hier die Konzeptzeichnung des US-Patents) ist eines der ersten Virtual-Reality-Systeme und bildete die Grundlage für viele weitere Innovationen. Foto: Morton Heilig / Figure 5 of US Patent #3050870 / Wikimedia Commons / Public Domain Heilig selbst war davon überzeugt, mit dem Sensorama das Kino der Zukunft erfunden zu haben. Das hat sich zwar nicht ganz bewahrheitet – dennoch war das Sensorama eine bahnbrechende Innovation, die Heilig inspirierte, das Konzept weiter auszubauen. Im Jahr 1964 präsentierte er daraufhin die Telesphere Mask – ein Head-Mounted Display (HMD), das in Verbindung mit dem stationären Sensorama genutzt wird und seinen Nutzern völlig neue Bewegungsfreiheit sowie ein deutlich erweitertes Blickfeld ermöglicht und zudem Stereosound bietet. Die Erfindung Heiligs gilt als Vorreiter der VR-Brille, wie wir sie heute kennen. Damoklesschwert Trotz der rasanten Forschritte im Bereich Virtual Reality dienten die Innovationen vor allem der Exploration einer neuartigen Technologie – spezifische Use Cases, die Unternehmen Mehrwert bescheren können, gab es im Gegensatz zu heute nicht. Ein Name, der untrennbar mit Virtual Reality wie wir es heute kennen, verbunden ist, ist Ivan Sutherland. Der Computerwissenschaftler erstellte eine Blaupause für die moderne VR-Technologie. Das gelang ihm, indem er Heiligs HMD im Jahr 1966 um eine entscheidende Zutat erweiterte: Head-Tracking-Technologie. Das daraus entsprungene Device ähnelte der Telesphere Mask und wurde bekannt als “The Sword of Damocles”: Obwohl Sutherlands Innovation aus heutiger Sicht sehr rudimentär wirkt, markierte sie einen entscheidenden Schritt hin zum Interaktionslevel heutiger VR-Headsets. VPL-Boost Ab dem Jahr 1984 wurden VR-Brillen und -Handschuhe erstmals auch am Markt verfügbar – dank des von Jaron Lanier und Thomas Zimmerman (beide ehemalige Mitarbeiter des Ex-Videospiel-Riesen Atari) gegründeten Unternehmens VPL Research: Die neuen Möglichkeiten blieben auch der NASA nicht verborgen, die VPL Research im Jahr 1985 mit der Entwicklung eines Datenhandschuhs für Astronauten (PDF) beauftragte. Die Raumfahrtorganisation war es auch, die für einen ersten, gewichtigen Use Case in Sachen Virtual Reality sorgte, als sie beschloss, die Möglichkeiten der Technologie im Bereich Astronauten-Training ausloten zu wollen – in Zusammenarbeit mit VPL Research. Die Fortschritte in Sachen VR machten die Technologie zunehmend auch für militärische Zwecke interessant. Das lag im Wesentlichen an der Möglichkeit, computergenerierte 3D-Karten sowie Radar- und Infrarot-Technologien einzubinden. So experimentierte beispielsweise das Rüstungsunternehmen British Aerospace im Jahr 1987 mit einem virtuellen Cockpit. Consumer-Fehlschlag Auch die Gaming-Industrie hatte früh großes Interesse an Virtual Reality. Einen der ersten Versuche, ein VR-Device als Spielkonsole im großen Stil zu vermarkten, startete der Videospiel-Gigant Nintendo im Jahr 1995 mit dem Virtual Boy, der sich zu einem der größten Flops der Gaming-Geschichte entwickelte und das japanische Traditionsunternehmen teuer zu stehen kam. Die Gründe für den Misserfolg waren nicht nur schlechtes Timing (zahlreiche deutlich leistungsfähigere Konkurrenz-Konsolen waren bereits erschienen oder standen in den Startlöchern) und ein verfrühter Marktstart, sondern vor allem die verheerende Ergonomie und die noch lange nicht ausgereifte Technologie selbst: Bereits bei der Präsentation für Pressevertreter bereitete der Virtual-Boy-“Genuss” auch dank unausgereifter roter LEDs (auf schwarzem Grund) vielen Nutzern Kopfschmerzen, Übelkeit oder Schwindel. Nintendo selbst empfahl damals den Nutzern in Form eines Warnhinweises auf der Verpackung, alle 30 Minuten eine Spielpause einzulegen. Nach knapp einem Jahr und Entwicklungskosten in Höhe von fünf Millionen Dollar verschwand der Virtual Boy wieder vom Markt. VR-Demokratisierung Nachdem Virtual Reality um den Jahrtausendwechsel in Form von immersiveren 3D-Darstellungen auch den Sprung in die Mainstream-Film- und -TV-Welt schaffte, war es vor allem die Einführung von Google Street View im Jahr 2007, die die interessantesten technologischen Fortschritte in diesem Bereich bündelte. Der Service wurde durch Fotografien mit speziellen 360-Grad-Kameras möglich, die auf den allseits bekannten Google-Fahrzeugen montiert sind. Der Suchmaschinen-Gigant legte mit Hilfe der 360-Grad-Bilder eine visuelle Datenbank an, die den Nutzern ermöglichte, einen Ort ihrer Wahl in einer Virtual-Reality-Version zu betrachten. Ein beeindruckender Use Case, der die Technologie massentauglich machte und zeigte, welches Potenzial in VR steckt. Das befeuerte Weiterentwicklungen insbesondere im Unternehmensumfeld. Reifeprüfung Der Name Oculus Rift steht für Viele als Synonym für ein modernes Virtual-Reality-Erlebnis – sowohl was das Design des HMD, als auch was seine Fähigkeiten angeht. Frühe Prototypen des VR-Headsets existierten bereits im Jahr 2007, lange bevor das dazugehörige Unternehmen überhaupt gegründet war. Im August 2012 erschien schließlich das erste Rift Development Kit im Rahmen einer Crowdfunding-Kampagne mit dem Ziel, das Device vor allem Entwicklern schmackhaft zu machen. Im Jahr 2014 übernahm Facebook das Unternehmen für 2,3 Milliarden Dollar – ein Schachzug, der verdeutlichte, welches Potenzial die Tech-Branche in der Technologie erkannte. Neben weiteren Entwicklungskits erschien im Jahr 2019 das VR-Headset “Rift S“, das weitere, entscheidende Meilensteine in der VR-Evolution markierte. Das Headset verfügt über ein kamerabasiertes Tracking-System (Oculus Insight), mit dessen Hilfe es sowohl seine eigene als auch die Position der beiden Controller im virtuellen, dreidimensionalen Raum bestimmen kann. Schöne, neue XR-Welt Die Corona-Pandemie unterstreicht seit dem Jahr 2020, wie wichtig Virtual Reality künftig auch für die Business-Welt wird. Firmen weltweit experimentieren nicht erst seit Beginn des Social-Distancing-Zeitalters mit VR Use Cases – insbesondere in Sachen virtuelle Zusammenarbeit, Wartung von Maschinen und der Schulung von Mitarbeitern. Interessante Use Cases in Deutschland haben beispielsweise BMW, BASF, die ZF Gruppe oder die Linde AG in petto. Die Zukunft von Virtual Reality wird künftig in Extended Reality liegen, dem Dachbegriff für Virtual, Augmented und Mixed Reality. Dieser ist jedoch nicht unproblematisch, da sich beispielsweise die Anforderungen, die Augmented und Virtual Reality an die Rechenpower stellen, deutlich unterscheiden. Ähnlich wie VR-Pionier Morton Heilig verfolgen die Entwickler heute jedoch ebenfalls das Ziel, noch immersivere Erfahrungen zu erzeugen und dabei neue Mehrwerte für Unternehmen zu erschließen. Dabei dürften insbesondere die Cloud, Edge Computing und 5G dafür sorgen, dass Virtual Reality zunehmende Verbreitung in Unternehmen findet. Bislang benötigen VR-Devices nämlich im Regelfall entweder Mobilgeräte oder stationäre Rechner, die über ausreichend Power verfügen müssen (je höher die Auflösung der virtuellen Welt, desto mehr Rechenkraft wird benötigt). Werden diese überflüssig, ist der Weg zu einer wirklich mobilen VR-Erfahrung frei, was zahlreiche neue Anwendungsfälle generieren dürfte. Ein weiterer Booster für die Technologie – nicht nur im Unternehmenumfeld – ist 2024 mit Apples MR-Brille Vision Pro auf den Plan getreten. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Virtual Reality: Die Geschichte der virtuellen Realität​ Virtual Reality ist heute State of the Art. Lesen Sie, wie sich die Technologie über die Jahrzehnte entwickelt hat und wie die VR-Zukunft aussehen könnte.
Foto: Joshua Resnick – shutterstock.com

Das Kürzel “VR” ist heute wohl jedem ein Begriff. Durch den anhaltenden Remote-Work-Trend, die Pandemie-bedingten Einschränkungen und nicht zuletzt das Aufkommen des Metaverse wird Virtual Reality zunehmend interessanter – für Unternehmen wie für Konsumenten. Lesen Sie, wie Virtual Reality entstanden ist und was die Zukunft für die Technologie bereithalten könnte.

Anfänge

Das erste Gerät, das über Virtual-Reality-Charakteristiken verfügte, war der View-Master. Das Gerät ermöglichte die Betrachtung stereoskopischer Bilder. Das Konzept auf dem das Device basierte, entstand bereits im Jahr 1838 – die Idee dahinter: Verschiedene Einzelbilder gleichzeitig zu betrachten, um ein dreidimensionales Bild zu erzeugen.

Der View-Master erschien im Jahr 1939 und bot die Möglichkeit, sieben stereoskopische 3D-Farbdias auf einer Pappkarton-Scheibe zu “montieren”, um sie als “Film” zu betrachten. Dieses Konzept erfreute sich insbesondere bei Urlaubern großer Beliebtheit, weswegen der View-Master in den Folgejahren in mehreren Versionen neu aufgelegt wurde. Der Markenname ist nach einigen Übernahmen heute im Besitz des Spielzeugriesen Mattel, der das Gerät mittlerweile als Virtual-Reality-Brille für Kinder vermarktet.

Der View-Master funktionierte mit auf Pappscheiben montierten Dias.
Foto: Handige Harrie at Dutch Wikipedia / Wikimedia Commons / Public Domain

Der View-Master war der Vorreiter dessen, was wir heute als VR-Headset kennen – das Konzept der virtuellen Realität wurde jedoch bereits im Jahr 1935 tiefgehend ausgebaut. Maßgeblichen Anteil daran hatte die von Stanley G. Weinbaum verfasste, fiktive Kurzgeschichte “Pygmalion’s Spectacles“. Hier wurden erstmals Brillen (für den Konsum von Spielfilmen) beschrieben, die dazu imstande waren, bei ihren Nutzern ein immersives Erlebnis zu erzeugen. Die Geschichte bot erstmals Einblick in eine Technologie, die nicht nur die Perspektive, sondern die Realität ihrer Anwender verändern konnte.

Zukunftskino

Bis Teile dieses Konzepts von der fiktiven in die reale Welt überführt werden konnten, dauerte es einige Jahre. 1962 machte sich der Filmemacher Morton Heilig das simple Prinzip des View-Master zunutze, als er mit dem Sensorama das weltweit erste immersive System realisierte. Das Gerät, das am ehesten an eine monströse Jahrmarktattraktion oder einen Arcade-Automaten erinnert, verfügte über einen Sitz und zwei Gucklöcher. Zahlende Nutzer kamen mit dem Sensorama in Genuss vollwertiger 3D-Bilder und Sounds. Darüber hinaus war es auch möglich, atmosphärische Effekte wie beispielsweise Wind oder auch Gerüche zu erzeugen.

Morton Heiligs Sensorama (hier die Konzeptzeichnung des US-Patents) ist eines der ersten Virtual-Reality-Systeme und bildete die Grundlage für viele weitere Innovationen.
Foto: Morton Heilig / Figure 5 of US Patent #3050870 / Wikimedia Commons / Public Domain

Heilig selbst war davon überzeugt, mit dem Sensorama das Kino der Zukunft erfunden zu haben. Das hat sich zwar nicht ganz bewahrheitet – dennoch war das Sensorama eine bahnbrechende Innovation, die Heilig inspirierte, das Konzept weiter auszubauen.

Im Jahr 1964 präsentierte er daraufhin die Telesphere Mask – ein Head-Mounted Display (HMD), das in Verbindung mit dem stationären Sensorama genutzt wird und seinen Nutzern völlig neue Bewegungsfreiheit sowie ein deutlich erweitertes Blickfeld ermöglicht und zudem Stereosound bietet. Die Erfindung Heiligs gilt als Vorreiter der VR-Brille, wie wir sie heute kennen.

Damoklesschwert

Trotz der rasanten Forschritte im Bereich Virtual Reality dienten die Innovationen vor allem der Exploration einer neuartigen Technologie – spezifische Use Cases, die Unternehmen Mehrwert bescheren können, gab es im Gegensatz zu heute nicht. Ein Name, der untrennbar mit Virtual Reality wie wir es heute kennen, verbunden ist, ist Ivan Sutherland. Der Computerwissenschaftler erstellte eine Blaupause für die moderne VR-Technologie.

Das gelang ihm, indem er Heiligs HMD im Jahr 1966 um eine entscheidende Zutat erweiterte: Head-Tracking-Technologie. Das daraus entsprungene Device ähnelte der Telesphere Mask und wurde bekannt als “The Sword of Damocles”:

Obwohl Sutherlands Innovation aus heutiger Sicht sehr rudimentär wirkt, markierte sie einen entscheidenden Schritt hin zum Interaktionslevel heutiger VR-Headsets.

VPL-Boost

Ab dem Jahr 1984 wurden VR-Brillen und -Handschuhe erstmals auch am Markt verfügbar – dank des von Jaron Lanier und Thomas Zimmerman (beide ehemalige Mitarbeiter des Ex-Videospiel-Riesen Atari) gegründeten Unternehmens VPL Research:

Die neuen Möglichkeiten blieben auch der NASA nicht verborgen, die VPL Research im Jahr 1985 mit der Entwicklung eines Datenhandschuhs für Astronauten (PDF) beauftragte. Die Raumfahrtorganisation war es auch, die für einen ersten, gewichtigen Use Case in Sachen Virtual Reality sorgte, als sie beschloss, die Möglichkeiten der Technologie im Bereich Astronauten-Training ausloten zu wollen – in Zusammenarbeit mit VPL Research.

Die Fortschritte in Sachen VR machten die Technologie zunehmend auch für militärische Zwecke interessant. Das lag im Wesentlichen an der Möglichkeit, computergenerierte 3D-Karten sowie Radar- und Infrarot-Technologien einzubinden. So experimentierte beispielsweise das Rüstungsunternehmen British Aerospace im Jahr 1987 mit einem virtuellen Cockpit.

Consumer-Fehlschlag

Auch die Gaming-Industrie hatte früh großes Interesse an Virtual Reality. Einen der ersten Versuche, ein VR-Device als Spielkonsole im großen Stil zu vermarkten, startete der Videospiel-Gigant Nintendo im Jahr 1995 mit dem Virtual Boy, der sich zu einem der größten Flops der Gaming-Geschichte entwickelte und das japanische Traditionsunternehmen teuer zu stehen kam. Die Gründe für den Misserfolg waren nicht nur schlechtes Timing (zahlreiche deutlich leistungsfähigere Konkurrenz-Konsolen waren bereits erschienen oder standen in den Startlöchern) und ein verfrühter Marktstart, sondern vor allem die verheerende Ergonomie und die noch lange nicht ausgereifte Technologie selbst:

Bereits bei der Präsentation für Pressevertreter bereitete der Virtual-Boy-“Genuss” auch dank unausgereifter roter LEDs (auf schwarzem Grund) vielen Nutzern Kopfschmerzen, Übelkeit oder Schwindel. Nintendo selbst empfahl damals den Nutzern in Form eines Warnhinweises auf der Verpackung, alle 30 Minuten eine Spielpause einzulegen. Nach knapp einem Jahr und Entwicklungskosten in Höhe von fünf Millionen Dollar verschwand der Virtual Boy wieder vom Markt.

VR-Demokratisierung

Nachdem Virtual Reality um den Jahrtausendwechsel in Form von immersiveren 3D-Darstellungen auch den Sprung in die Mainstream-Film- und -TV-Welt schaffte, war es vor allem die Einführung von Google Street View im Jahr 2007, die die interessantesten technologischen Fortschritte in diesem Bereich bündelte.

Der Service wurde durch Fotografien mit speziellen 360-Grad-Kameras möglich, die auf den allseits bekannten Google-Fahrzeugen montiert sind. Der Suchmaschinen-Gigant legte mit Hilfe der 360-Grad-Bilder eine visuelle Datenbank an, die den Nutzern ermöglichte, einen Ort ihrer Wahl in einer Virtual-Reality-Version zu betrachten. Ein beeindruckender Use Case, der die Technologie massentauglich machte und zeigte, welches Potenzial in VR steckt. Das befeuerte Weiterentwicklungen insbesondere im Unternehmensumfeld.

Reifeprüfung

Der Name Oculus Rift steht für Viele als Synonym für ein modernes Virtual-Reality-Erlebnis – sowohl was das Design des HMD, als auch was seine Fähigkeiten angeht. Frühe Prototypen des VR-Headsets existierten bereits im Jahr 2007, lange bevor das dazugehörige Unternehmen überhaupt gegründet war. Im August 2012 erschien schließlich das erste Rift Development Kit im Rahmen einer Crowdfunding-Kampagne mit dem Ziel, das Device vor allem Entwicklern schmackhaft zu machen.

Im Jahr 2014 übernahm Facebook das Unternehmen für 2,3 Milliarden Dollar – ein Schachzug, der verdeutlichte, welches Potenzial die Tech-Branche in der Technologie erkannte. Neben weiteren Entwicklungskits erschien im Jahr 2019 das VR-Headset “Rift S“, das weitere, entscheidende Meilensteine in der VR-Evolution markierte. Das Headset verfügt über ein kamerabasiertes Tracking-System (Oculus Insight), mit dessen Hilfe es sowohl seine eigene als auch die Position der beiden Controller im virtuellen, dreidimensionalen Raum bestimmen kann.

Schöne, neue XR-Welt

Die Corona-Pandemie unterstreicht seit dem Jahr 2020, wie wichtig Virtual Reality künftig auch für die Business-Welt wird. Firmen weltweit experimentieren nicht erst seit Beginn des Social-Distancing-Zeitalters mit VR Use Cases – insbesondere in Sachen virtuelle Zusammenarbeit, Wartung von Maschinen und der Schulung von Mitarbeitern. Interessante Use Cases in Deutschland haben beispielsweise

BMW,

BASF,

die ZF Gruppe

oder die Linde AG

in petto.

Die Zukunft von Virtual Reality wird künftig in Extended Reality liegen, dem Dachbegriff für Virtual, Augmented und Mixed Reality. Dieser ist jedoch nicht unproblematisch, da sich beispielsweise die Anforderungen, die Augmented und Virtual Reality an die Rechenpower stellen, deutlich unterscheiden. Ähnlich wie VR-Pionier Morton Heilig verfolgen die Entwickler heute jedoch ebenfalls das Ziel, noch immersivere Erfahrungen zu erzeugen und dabei neue Mehrwerte für Unternehmen zu erschließen.

Dabei dürften insbesondere die Cloud, Edge Computing und 5G dafür sorgen, dass Virtual Reality zunehmende Verbreitung in Unternehmen findet. Bislang benötigen VR-Devices nämlich im Regelfall entweder Mobilgeräte oder stationäre Rechner, die über ausreichend Power verfügen müssen (je höher die Auflösung der virtuellen Welt, desto mehr Rechenkraft wird benötigt). Werden diese überflüssig, ist der Weg zu einer wirklich mobilen VR-Erfahrung frei, was zahlreiche neue Anwendungsfälle generieren dürfte. Ein weiterer Booster für die Technologie – nicht nur im Unternehmenumfeld – ist 2024 mit Apples MR-Brille Vision Pro auf den Plan getreten.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Virtual Reality: Die Geschichte der virtuellen Realität​ Weiterlesen »

Daran scheitert Low-Code​

Allgemein

Guter Low-Code-Start, jähes Ende? hmorena | shutterstock.com Die potenziellen Vorteile, die sich mit Low-Code- und No-Code-Tools erschließen lassen, sind hinlänglich bekannt. Allerdings eignen sich diese Tools nicht für jedes Business-Szenario. Im schlimmsten Fall können sie der Produktivität sogar abträglich sein.    Damit Ihnen das erspart bleibt, haben wir Experten und Entscheider zu den häufigsten Gründen befragt, die sich hinter erfolglosen Low-Code- und No-Code-Initiativen verbergen. 1. Überraschende Flexibilitätsverluste Der wesentliche Use Case für Low-Code- und No-Code-Tools ist es, Nicht-Entwicklern zu ermöglichen, Software zu erstellen. Das kann einerseits den Developer-Pool vergrößern, andererseits auch finanzielle Vorteile bringen. Allerdings sollten sich Anwender der damit einhergehenden Flexibilitätsverluste bewusst sein, wie Clayton Davis, Senior Director beim Cloud Service Provider Caylent, mahnend hervorhebt: „Die vorgefertigten Templates und Komponenten, die solche Plattformen zur Verfügung stellen, lassen oft den nötigen Tiefgang und die Flexibilität vermissen. Diese wären aber nötig, um wirklich maßgeschneiderte, zweckorientierte Lösungen zu entwickeln, die bei den Endbenutzern gut ankommen.“ So reichten Low-Code- und No-Code Tools nach Einschätzung des Managers zwar für interne Lösungen und einfache Tasks aus. Die Anforderungen für an Kunden gerichtete Applikationen, bei denen die User Experience erfolgskritisch ist, könnten die Plattformen jedoch nicht erfüllen. Arsalan Zafar, Mitbegründer und CTO des Videospezialisten Deep Render, weist zudem darauf hin, dass auch erfahrene Entwickler durch die Technologie eingeschränkt werden können. Sein Gegenmittel: „Developer, die die Kontrolle über die Anwendungsarchitektur behalten wollen, brauchen erweiterbare Low-Code- und No-Code-Tools. Diese erlauben es, benutzerdefinierte Funktionen zu integrieren.“ 2. Simplifizierungs-Overkill Eine damit zusammenhängende Herausforderung liegt laut Zafar in der ausgeprägten Simplifizierung, mit denen Low-Code- und No-Code-Tools Geschäftsanwendern ermöglichen, Anwendungen zu erstellen. Das kann dazu führen, dass bestimmte Problemnuancen unter den Tisch fallen, wie der CTO mit Blick auf die eigenen Erfahrungswerte festhält: „Wir haben in unserem Unternehmen eine Anwendung entwickelt, um Videocodecs miteinander zu vergleichen. Dabei ermöglichte uns eine No-Code-Plattform besonders schnell einen Prototypen sowie eine Basisversion der Applikation zu erstellen.“ Im weiteren Verlauf der Entwicklungsarbeit sei das Deep-Render-Team jedoch auf nachhaltige Hürden gestoßen, wie Zafar preisgibt: „Als es darum ging, benutzerdefinierte Funktionen zu integrieren, um unser Produkt von der Konkurrenz abzuheben, wurden die Grenzen der Technologie immer deutlicher. Fortschrittlichere Funktionen wie mehrschichtige Videovergleichsmetriken oder KI-gesteuerte Optimierungen zu integrieren, ist so zu einem mühsamen und zeitaufwändigen Prozess ausgeartet.“ 3. Skalierungsbeschwerden Das führt uns zum nächsten gängigen Problem, an dem Low-Code- und No-Code-Initiativen kranken. Kushank Aggarwal, Software Engineer und Gründer der KI-Plattform DigitalSamaritan, bringt dieses auf den Punkt: „Low-Code- und No-Code-Plattformen sind absolut erstaunlich, wenn es darum geht, Prototypen zu bauen oder MVPs zu testen. Soll das Ergebnis dann jedoch skaliert werden, ist es mit der Begeisterung vorbei.“ Auch Aggarwals Einschätzung beruht auf persönlichen Erfahrungen, wie er darlegt: „Wir hatten eine Idee für ein KI-Tool und konnten diese mit einem No-Code-Ansatz in nur vier Tagen umsetzen. Als das Produkt marktreif war, stießen wir jedoch bei der Skalierung auf erhebliche Schwierigkeiten.“ Denn die gewählte Plattform, so der Gründer, sei nicht auf eine weiter wachsende User-Basis ausgelegt gewesen. Letztlich habe das dazu geführt, dass die Applikation komplett neu erstellt und sämtliche Benutzer migriert werden mussten. Der Manager warnt deshalb: „Evaluieren Sie, ob die Plattform Ihrer Wahl langfristig tragfähig ist, bevor sie sie in geschäftskritischen Systemen einsetzen“. 4. Unzuverlässige LLMs Large Language Models (LLMs) sind heutzutage fast schon allgegenwärtig – und treiben in vielen Fällen auch die Entwicklung mit Low-Code- und No-Code-Tools an. Das kann Unternehmen allerdings unter Umständen teuer zu stehen kommen, wie Devansh Agarwal, Senior Machine Learning Engineer bei Amazon Web Services (AWS), erklärt: „LLMs sind wirklich gut darin, auf Basis von Wahrscheinlichkeiten vorherzusagen, welches Wort oder Token als nächstes folgen wird. Aber die Anforderungen an Softwareprodukte sind äußerst komplex und entwickeln sich beständig weiter. Damit ein LLM ordentlichen Output generiert, müssen deshalb diverse Prompts getestet werden. Und das kann teuer werden.“ Einem LLM einfach Produktanforderungen zu übergeben und zu erwarten, dass daraus eine zufriedenstellende Lösung entsteht, funktioniere nicht, so der AWS-Experte: „Vielleicht haben Sie ChatGPT schon einmal Code schreiben lassen und es nach einem Fehler gebeten, diesen zu korrigieren. Wahrscheinlich wurden Sie anschließend von einer völlig neuen Lösung überrascht. Jetzt stellen Sie sich das Chaos vor, das entsteht, wenn die KI Software auf der Grundlage veränderter Produktanforderungen erstellen soll.“ 5. Sicherheitsrisiken Jon Kennedy, CIO beim Projektmanagement-Spezialisten Quickbase, hat hingegen völlig andere Low-Code- und No-Code-Bauchschmerzen: „Leider sind nicht alle Plattformen dieser Art mit einem Framework ausgestattet, das Security und Governance unterstützt. Damit sind diese nicht dazu geeignet, in stark regulierten Branchen wie dem Gesundheitswesen eingesetzt zu werden.“ AWS-ML-Experte Agarwal weist auf weitere, mögliche Risiken beim Einsatz von Low-Code- und No-Code-Technologien hin: „Wenn viele Webseiten mit einem No-Code-Tool erstellt werden und auch nur eine kleine Sicherheitslücke im Code enthalten ist, sind sämtliche Seiten und möglicherweise Millionen von Nutzern gefährdet. Wenn die Menschen, die die Tools bedienen, noch dazu nicht wissen, dass diese Risiken bestehen – oder wie sie zu beheben sind – kann das drastische Folgen haben.“ Um solche Szenarien von vorneherein zu verhindern, gibt es laut dem Dev-Experten jedoch eine Best Practice: „Betrachten Sie die Tools ausschließlich als Hilfsmittel und sorgen Sie dafür, dass ein menschlicher Experte am Steuer bleibt: Sie sollten mindestens einen davon in ihrem Team haben, der alles überprüfen kann, was mit der Technologie erstellt wird.“ 6. Vendor Lock-In Nicht wenige Low-Code- und No-Code-Plattformen funktionieren als geschlossene Ökosysteme. Das kann es nach Einschätzung von KI-Gründer Aggarwal erschweren, den Anbieter zu wechseln: „Diese Art der Abhängigkeit kann zu höheren Kosten und eingeschränkter Flexibilität führen. Zudem besteht immer das Risiko, dass ein Anbieter eine für sie erfolgskritische Funktion abschaltet.“ Das kann Siri Varma Vegiraju, Security Tech Lead bei Microsoft, bestätigen: „Eine Low-Code- oder No-Code-Plattform wechseln zu müssen, ist ein Albtraum, weil es bedeutet, alles von Grund auf neu aufbauen zu müssen. Das erfordert wiederum, die neue Plattform auch vollständig zu verstehen.“ (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Daran scheitert Low-Code​ Guter Low-Code-Start, jähes Ende? hmorena | shutterstock.com

Die potenziellen Vorteile, die sich mit Low-Code- und No-Code-Tools erschließen lassen, sind hinlänglich bekannt. Allerdings eignen sich diese Tools nicht für jedes Business-Szenario. Im schlimmsten Fall können sie der Produktivität sogar abträglich sein.   

Damit Ihnen das erspart bleibt, haben wir Experten und Entscheider zu den häufigsten Gründen befragt, die sich hinter erfolglosen Low-Code- und No-Code-Initiativen verbergen.

1. Überraschende Flexibilitätsverluste

Der wesentliche Use Case für Low-Code- und No-Code-Tools ist es, Nicht-Entwicklern zu ermöglichen, Software zu erstellen. Das kann einerseits den Developer-Pool vergrößern, andererseits auch finanzielle Vorteile bringen. Allerdings sollten sich Anwender der damit einhergehenden Flexibilitätsverluste bewusst sein, wie Clayton Davis, Senior Director beim Cloud Service Provider Caylent, mahnend hervorhebt: „Die vorgefertigten Templates und Komponenten, die solche Plattformen zur Verfügung stellen, lassen oft den nötigen Tiefgang und die Flexibilität vermissen. Diese wären aber nötig, um wirklich maßgeschneiderte, zweckorientierte Lösungen zu entwickeln, die bei den Endbenutzern gut ankommen.“

So reichten Low-Code- und No-Code Tools nach Einschätzung des Managers zwar für interne Lösungen und einfache Tasks aus. Die Anforderungen für an Kunden gerichtete Applikationen, bei denen die User Experience erfolgskritisch ist, könnten die Plattformen jedoch nicht erfüllen.

Arsalan Zafar, Mitbegründer und CTO des Videospezialisten Deep Render, weist zudem darauf hin, dass auch erfahrene Entwickler durch die Technologie eingeschränkt werden können. Sein Gegenmittel: „Developer, die die Kontrolle über die Anwendungsarchitektur behalten wollen, brauchen erweiterbare Low-Code- und No-Code-Tools. Diese erlauben es, benutzerdefinierte Funktionen zu integrieren.“

2. Simplifizierungs-Overkill

Eine damit zusammenhängende Herausforderung liegt laut Zafar in der ausgeprägten Simplifizierung, mit denen Low-Code- und No-Code-Tools Geschäftsanwendern ermöglichen, Anwendungen zu erstellen. Das kann dazu führen, dass bestimmte Problemnuancen unter den Tisch fallen, wie der CTO mit Blick auf die eigenen Erfahrungswerte festhält: „Wir haben in unserem Unternehmen eine Anwendung entwickelt, um Videocodecs miteinander zu vergleichen. Dabei ermöglichte uns eine No-Code-Plattform besonders schnell einen Prototypen sowie eine Basisversion der Applikation zu erstellen.“

Im weiteren Verlauf der Entwicklungsarbeit sei das Deep-Render-Team jedoch auf nachhaltige Hürden gestoßen, wie Zafar preisgibt: „Als es darum ging, benutzerdefinierte Funktionen zu integrieren, um unser Produkt von der Konkurrenz abzuheben, wurden die Grenzen der Technologie immer deutlicher. Fortschrittlichere Funktionen wie mehrschichtige Videovergleichsmetriken oder KI-gesteuerte Optimierungen zu integrieren, ist so zu einem mühsamen und zeitaufwändigen Prozess ausgeartet.“

3. Skalierungsbeschwerden

Das führt uns zum nächsten gängigen Problem, an dem Low-Code- und No-Code-Initiativen kranken. Kushank Aggarwal, Software Engineer und Gründer der KI-Plattform DigitalSamaritan, bringt dieses auf den Punkt: „Low-Code- und No-Code-Plattformen sind absolut erstaunlich, wenn es darum geht, Prototypen zu bauen oder MVPs zu testen. Soll das Ergebnis dann jedoch skaliert werden, ist es mit der Begeisterung vorbei.“

Auch Aggarwals Einschätzung beruht auf persönlichen Erfahrungen, wie er darlegt: „Wir hatten eine Idee für ein KI-Tool und konnten diese mit einem No-Code-Ansatz in nur vier Tagen umsetzen. Als das Produkt marktreif war, stießen wir jedoch bei der Skalierung auf erhebliche Schwierigkeiten.“

Denn die gewählte Plattform, so der Gründer, sei nicht auf eine weiter wachsende User-Basis ausgelegt gewesen. Letztlich habe das dazu geführt, dass die Applikation komplett neu erstellt und sämtliche Benutzer migriert werden mussten. Der Manager warnt deshalb: „Evaluieren Sie, ob die Plattform Ihrer Wahl langfristig tragfähig ist, bevor sie sie in geschäftskritischen Systemen einsetzen“.

4. Unzuverlässige LLMs

Large Language Models (LLMs) sind heutzutage fast schon allgegenwärtig – und treiben in vielen Fällen auch die Entwicklung mit Low-Code- und No-Code-Tools an.

Das kann Unternehmen allerdings unter Umständen teuer zu stehen kommen, wie Devansh Agarwal, Senior Machine Learning Engineer bei Amazon Web Services (AWS), erklärt: „LLMs sind wirklich gut darin, auf Basis von Wahrscheinlichkeiten vorherzusagen, welches Wort oder Token als nächstes folgen wird. Aber die Anforderungen an Softwareprodukte sind äußerst komplex und entwickeln sich beständig weiter. Damit ein LLM ordentlichen Output generiert, müssen deshalb diverse Prompts getestet werden. Und das kann teuer werden.“

Einem LLM einfach Produktanforderungen zu übergeben und zu erwarten, dass daraus eine zufriedenstellende Lösung entsteht, funktioniere nicht, so der AWS-Experte: „Vielleicht haben Sie ChatGPT schon einmal Code schreiben lassen und es nach einem Fehler gebeten, diesen zu korrigieren. Wahrscheinlich wurden Sie anschließend von einer völlig neuen Lösung überrascht. Jetzt stellen Sie sich das Chaos vor, das entsteht, wenn die KI Software auf der Grundlage veränderter Produktanforderungen erstellen soll.“

5. Sicherheitsrisiken

Jon Kennedy, CIO beim Projektmanagement-Spezialisten Quickbase, hat hingegen völlig andere Low-Code- und No-Code-Bauchschmerzen: „Leider sind nicht alle Plattformen dieser Art mit einem Framework ausgestattet, das Security und Governance unterstützt. Damit sind diese nicht dazu geeignet, in stark regulierten Branchen wie dem Gesundheitswesen eingesetzt zu werden.“

AWS-ML-Experte Agarwal weist auf weitere, mögliche Risiken beim Einsatz von Low-Code- und No-Code-Technologien hin: „Wenn viele Webseiten mit einem No-Code-Tool erstellt werden und auch nur eine kleine Sicherheitslücke im Code enthalten ist, sind sämtliche Seiten und möglicherweise Millionen von Nutzern gefährdet. Wenn die Menschen, die die Tools bedienen, noch dazu nicht wissen, dass diese Risiken bestehen – oder wie sie zu beheben sind – kann das drastische Folgen haben.“

Um solche Szenarien von vorneherein zu verhindern, gibt es laut dem Dev-Experten jedoch eine Best Practice: „Betrachten Sie die Tools ausschließlich als Hilfsmittel und sorgen Sie dafür, dass ein menschlicher Experte am Steuer bleibt: Sie sollten mindestens einen davon in ihrem Team haben, der alles überprüfen kann, was mit der Technologie erstellt wird.“

6. Vendor Lock-In

Nicht wenige Low-Code- und No-Code-Plattformen funktionieren als geschlossene Ökosysteme. Das kann es nach Einschätzung von KI-Gründer Aggarwal erschweren, den Anbieter zu wechseln: „Diese Art der Abhängigkeit kann zu höheren Kosten und eingeschränkter Flexibilität führen. Zudem besteht immer das Risiko, dass ein Anbieter eine für sie erfolgskritische Funktion abschaltet.“

Das kann Siri Varma Vegiraju, Security Tech Lead bei Microsoft, bestätigen: „Eine Low-Code- oder No-Code-Plattform wechseln zu müssen, ist ein Albtraum, weil es bedeutet, alles von Grund auf neu aufbauen zu müssen. Das erfordert wiederum, die neue Plattform auch vollständig zu verstehen.“ (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Daran scheitert Low-Code​ Weiterlesen »

„Digitaler Zwilling“ ist ein kontinuierlicher Prozess​

Allgemein

Der maximale Nutzen eines Digitalen Zwillings ergibt sich erst dann, wenn er nicht nur in der Produktentwicklung, sondern auch in der Produktion, der Logistik und der Wartung zum Einsatz kommt. (Foto Siemens) „Shutterstock.com – Rechteinhaber“ Wer neue Produkte schneller auf den Markt bringen kann, genießt deutliche Konkurrenzvorteile. Digitale Zwillinge beschleunigen die Produktentwicklung und haben sich deshalb in diesem Bereich auf breiter Front durchgesetzt. Bei einem Digitalen Zwilling handelt es sich um eine virtuelle Darstellung oder um ein digitales Gegenstück von einem physischen Objekt, System oder Prozess. Er entsteht unter Verwendung von bekannten Daten, Simulationen und Modellrechnungen. Ziel ist es, das Verhalten, die Eigenschaften und die Leistungsdaten des physischen Gegenstücks weitestgehend zu simulieren. Das unterstützt dann vor allem das Design und die Entwicklung, da man an dem virtuellen Prototyp die Einhaltung aller Konstruktionsvorgaben leicht überprüfen kann. Das heißt, Digitale Zwillinge machen physische Prototypen weitgehend überflüssig, verkürzen damit die Entwicklungszeit und verbessern die Qualität, indem sie Multiphysik-Simulation, Datenanalyse und maschinelles Lernen kombinieren. Ziel: Closed-Loop-Optimierung Diese Möglichkeiten sollten sich aber nicht nur auf die Konstruktionsphase beschränkten, sondern auch auf die Zeit danach, wenn das Produkt gefertigt, verkauft und gewartet wird. Hierzu muss der Digitale Zwilling über smarte Verbindungen von Produktdesign, Fertigung und Betrieb verfügen, denn erst die Abbildung der vollständigen realen Welt erlaubt auch eine entsprechende Simulation aller relevanten Umstände. Das heißt, ein Digitaler Zwilling muss vom virtuellen Design und Prototyping über Simulation und Tests bis hin zur Automatisierung von Fabrikprozessen und der Wartung des Endprodukts alles unterstützen. Basis für einen solchen „umfassenden“ Digitalen Zwilling ist ein fortlaufendes Feedback, bei der reale Betriebsdaten über die gesamte Produktlebensdauer hinweg erfasst und ausgewertet werden. So entsteht ein geschlossenes System, das kontinuierliche Verbesserungen am Produkt und an den Prozessen ermöglicht. „Closed-Loop-Optimierung“ nennt sich das und ist laut einer Analyse der Harvard Business Review ein wichtiger Teil moderner Fertigungsdigitalisierung, weil sie dadurch nicht nur schneller, sondern auch effizienter und nachhaltiger wird. Siemens: Umfassender Digitaler Zwilling Leider aber unterstützen nicht alle Plattformen derartig umfassende Closed-Loop-Zwillinge. Siemens bietet eine solche von Branchenanalysten und Kunden anerkannte Lösung zum Aufbau und dem Betrieb von umfassenden Closed-Loop-Zwillingen für nahezu alle Branchen an. Deren Plattform deckt das gesamte Spektrum des Produktlebenszyklus ab. Dazu gehören domänenübergreifende Modelle und Daten sowie digitale Verknüpfungen, die vom mechanischen und elektrischen Design über Halbleiter und andere Systemkomponenten bis hin zur Software, den Stücklisten und den Prozesslisten reichen. Dieser ganzheitliche Ansatz erlaubt es, die exakte physische Form, alle Funktionen und das Verhalten des Produktes sowie deren Konfigurationen exakt nachzubilden und kontinuierlich zu verbessern. Einen hohen Stellenwert nimmt hierbei auch die offene digitale Business Plattform Siemens Xcelerator ein. Dieser Marktplatz bietet erprobte Software und Technologien von verschiedenen Siemens-Partnern an, was vor allem dann wichtig ist, wenn branchenspezifische Funktionen erforderlich sind. Verbesserungen im zweistelligen Bereich Nicht nur Kunden und Partner profitieren von den vertrauenswürdigen, zuverlässigen und innovativen Siemens-Lösungen, sondern auch Siemens selbst. Beispielsweise wird im Siemens-Elektronikwerk Erlangen ein Digitaler Zwilling zur kontinuierlichen Optimierung der Produktion genutzt. Das hat zu einer drastischen Verkürzung der Inbetriebnahme und zu deutlich weniger Ausschusses geführt. Gleichzeitig kann früher mit der Schulung des späteren Bedienungspersonals begonnen werden. Laut einer Fallstudie von Manufacturing Technology Insights erzielte die Implementierung eines umfassenden Digitalen Zwillings in Erlangen eine 30-prozentige Verkürzung der Inbetriebnahme und eine 25-prozentige Verbesserung der Gesamt-Anlagen Effektivität (GAE). Diese Ergebnisse übertreffen die branchenüblichen Verbesserungen von 12 bis 15 Prozent, die beim Einsatz von nicht umfassenden Digitalen Zwillingen erreicht werden, deutlich. Fazit Digitale Zwillinge, die nur Design und Konstruktion unterstützen, reichen bei weitem nicht mehr aus. Gefordert sind heute umfassende Closed-Loop-Zwillinge, bei denen alle relevanten Daten über den gesamten Produkt- und Prozesslebenszyklus hinweg erfasst und ausgewertet werden. So entsteht kontinuierlich eine präzise virtuelle Abbildung der Produkt- oder Prozesskonfigurationen mit der nicht nur das Produkt, sondern auch die Produktion und die Nachbetreuung simuliert und optimieren werden kann. Siemens bietet im Rahmen seiner breiten Palette an Software, Automatisierungslösungen und Services eine führende Plattform für Closed-Loop-Zwillinge an, was in unabhängigen Studien und Kundenimplementierungen bestätigt wurde. Dieser Ansatz ist auch die Grundlage für weitere Maßnahmen der industriellen Transformationen, beispielsweise mittels KI oder Metaverse. Mehr über Digitale Zwillinge Autor: Klaus Löckel, CEO DACH, Siemens Digital Industries Software 

„Digitaler Zwilling“ ist ein kontinuierlicher Prozess​ Der maximale Nutzen eines Digitalen Zwillings ergibt sich erst dann, wenn er nicht nur in der Produktentwicklung, sondern auch in der Produktion, der Logistik und der Wartung zum Einsatz kommt. (Foto Siemens)
„Shutterstock.com – Rechteinhaber“

Wer neue Produkte schneller auf den Markt bringen kann, genießt deutliche Konkurrenzvorteile. Digitale Zwillinge beschleunigen die Produktentwicklung und haben sich deshalb in diesem Bereich auf breiter Front durchgesetzt. Bei einem Digitalen Zwilling handelt es sich um eine virtuelle Darstellung oder um ein digitales Gegenstück von einem physischen Objekt, System oder Prozess. Er entsteht unter Verwendung von bekannten Daten, Simulationen und Modellrechnungen. Ziel ist es, das Verhalten, die Eigenschaften und die Leistungsdaten des physischen Gegenstücks weitestgehend zu simulieren. Das unterstützt dann vor allem das Design und die Entwicklung, da man an dem virtuellen Prototyp die Einhaltung aller Konstruktionsvorgaben leicht überprüfen kann. Das heißt, Digitale Zwillinge machen physische Prototypen weitgehend überflüssig, verkürzen damit die Entwicklungszeit und verbessern die Qualität, indem sie Multiphysik-Simulation, Datenanalyse und maschinelles Lernen kombinieren.

Ziel: Closed-Loop-Optimierung

Diese Möglichkeiten sollten sich aber nicht nur auf die Konstruktionsphase beschränkten, sondern auch auf die Zeit danach, wenn das Produkt gefertigt, verkauft und gewartet wird. Hierzu muss der Digitale Zwilling über smarte Verbindungen von Produktdesign, Fertigung und Betrieb verfügen, denn erst die Abbildung der vollständigen realen Welt erlaubt auch eine entsprechende Simulation aller relevanten Umstände. Das heißt, ein Digitaler Zwilling muss vom virtuellen Design und Prototyping über Simulation und Tests bis hin zur Automatisierung von Fabrikprozessen und der Wartung des Endprodukts alles unterstützen. Basis für einen solchen „umfassenden“ Digitalen Zwilling ist ein fortlaufendes Feedback, bei der reale Betriebsdaten über die gesamte Produktlebensdauer hinweg erfasst und ausgewertet werden. So entsteht ein geschlossenes System, das kontinuierliche Verbesserungen am Produkt und an den Prozessen ermöglicht. „Closed-Loop-Optimierung“ nennt sich das und ist laut einer Analyse der Harvard Business Review ein wichtiger Teil moderner Fertigungsdigitalisierung, weil sie dadurch nicht nur schneller, sondern auch effizienter und nachhaltiger wird.

Siemens: Umfassender Digitaler Zwilling

Leider aber unterstützen nicht alle Plattformen derartig umfassende Closed-Loop-Zwillinge. Siemens bietet eine solche von Branchenanalysten und Kunden anerkannte Lösung zum Aufbau und dem Betrieb von umfassenden Closed-Loop-Zwillingen für nahezu alle Branchen an. Deren Plattform deckt das gesamte Spektrum des Produktlebenszyklus ab. Dazu gehören domänenübergreifende Modelle und Daten sowie digitale Verknüpfungen, die vom mechanischen und elektrischen Design über Halbleiter und andere Systemkomponenten bis hin zur Software, den Stücklisten und den Prozesslisten reichen. Dieser ganzheitliche Ansatz erlaubt es, die exakte physische Form, alle Funktionen und das Verhalten des Produktes sowie deren Konfigurationen exakt nachzubilden und kontinuierlich zu verbessern. Einen hohen Stellenwert nimmt hierbei auch die offene digitale Business Plattform Siemens Xcelerator ein. Dieser Marktplatz bietet erprobte Software und Technologien von verschiedenen Siemens-Partnern an, was vor allem dann wichtig ist, wenn branchenspezifische Funktionen erforderlich sind.

Verbesserungen im zweistelligen Bereich

Nicht nur Kunden und Partner profitieren von den vertrauenswürdigen, zuverlässigen und innovativen Siemens-Lösungen, sondern auch Siemens selbst. Beispielsweise wird im Siemens-Elektronikwerk Erlangen ein Digitaler Zwilling zur kontinuierlichen Optimierung der Produktion genutzt. Das hat zu einer drastischen Verkürzung der Inbetriebnahme und zu deutlich weniger Ausschusses geführt. Gleichzeitig kann früher mit der Schulung des späteren Bedienungspersonals begonnen werden. Laut einer Fallstudie von Manufacturing Technology Insights erzielte die Implementierung eines umfassenden Digitalen Zwillings in Erlangen eine 30-prozentige Verkürzung der Inbetriebnahme und eine 25-prozentige Verbesserung der Gesamt-Anlagen Effektivität (GAE). Diese Ergebnisse übertreffen die branchenüblichen Verbesserungen von 12 bis 15 Prozent, die beim Einsatz von nicht umfassenden Digitalen Zwillingen erreicht werden, deutlich.

Fazit

Digitale Zwillinge, die nur Design und Konstruktion unterstützen, reichen bei weitem nicht mehr aus. Gefordert sind heute umfassende Closed-Loop-Zwillinge, bei denen alle relevanten Daten über den gesamten Produkt- und Prozesslebenszyklus hinweg erfasst und ausgewertet werden. So entsteht kontinuierlich eine präzise virtuelle Abbildung der Produkt- oder Prozesskonfigurationen mit der nicht nur das Produkt, sondern auch die Produktion und die Nachbetreuung simuliert und optimieren werden kann. Siemens bietet im Rahmen seiner breiten Palette an Software, Automatisierungslösungen und Services eine führende Plattform für Closed-Loop-Zwillinge an, was in unabhängigen Studien und Kundenimplementierungen bestätigt wurde. Dieser Ansatz ist auch die Grundlage für weitere Maßnahmen der industriellen Transformationen, beispielsweise mittels KI oder Metaverse.

Mehr über Digitale Zwillinge

Autor: Klaus Löckel, CEO DACH, Siemens Digital Industries Software

„Digitaler Zwilling“ ist ein kontinuierlicher Prozess​ Weiterlesen »

Große Sprachmodelle in der Cloud: 3 Tipps für bessere LLM-Deployments​

Allgemein

Wiederholen Sie mit Blick auf das LLM Deployment möglichst nicht die Fehler der frühen Cloud-Computing-Ära. Foto: C. Fish Images | shutterstock.com Im Zuge der weiter rollenden Generative-AI-Welle setzen diverse Unternehmen Large Language Models (LLMs) auf Cloud-Plattformen ein. Dieser Weg wird in erster Linie gewählt, weil ein Public-Cloud-Ökosystem bereits existiert und das den Weg des geringsten Widerstands darstellt. Ihn zu beschreiten, ist dafür in der Regel nicht günstig. Weil sich einige Firmen dabei blindlings in den Hype stürzen, kommt es jedoch immer öfter zu folgenreichen Fehlern. Insbesondere mit Blick auf den Deployment-Prozess großer Sprachmodelle in Public-Cloud-Umgebungen entscheiden einige Aspekte über Erfolg oder Misserfolg, die bislang wenig Beachtung finden. 1. Kosteneffizienz und Skalierbarkeit Ein wesentlicher Beweggrund, LLMs über Cloud-Plattformen bereitzustellen, besteht darin, die Ressourcen nach Bedarf skalieren zu können. Das macht eine Kapazitätsplanung überflüssig – Cloud-Ressourcen lassen sich per Mausklick, respektive automatisiert allokieren. Effektiv Kosten zu managen und parallel zu skalieren, ist jedoch kein Standard-Skill und erfordert in den meisten Fällen eine Hilfestellung. Je mehr Cloud Services sie nutzen, desto mehr bezahlen sie. Das ist angesichts der höheren Grund- und Stromkosten, die für den Einsatz von GPUs anfallen, ein zentrales Problem, wenn es um große Sprachmodelle geht, die bei Public-Cloud-Anbietern laufen. Tipp: Nutzen Sie Kostenmanagement-Tools. Und zwar sowohl diejenigen, die die Cloud-Anbieter zur Verfügung stellen, als auch solide Lösungen von Drittanbietern im Bereich Cost Governance und -Monitoring. Beispiele hierfür wären etwa: Auto-Scaling und -Scheduling zu implementieren, geeignete Instanztypen zu wählen oder Preemptible-Instanzen zu nutzen, um Kosten zu optimieren. Zudem empfiehlt es sich, Deployments kontinuierlich zu überwachen, um den Ressourcenverbrauch an die Nutzung anzuspassen – und nicht einfach den Forecast Load zu nutzen. Im Klartext: Vermeiden Sie Overprovisioning um jeden Preis. 2. Datenschutz in Multitenant-Umgebungen Large Language Models bereitzustellen, bedeutet auch, große Datenmengen zu verarbeiten, die sensible oder proprietäre Daten beinhalten können. Wenn dabei eine Public Cloud zum Einsatz kommt, besteht ein grundsätzliches Risiko, weil es “Nachbarn” in Form von verarbeitenden Instanzen gibt. Das kann dazu führen, dass virtuelle Maschinen, die auf derselben physischen Hardware operieren, auf die Daten zugreifen. Wenn Sie Public-Cloud-Anbieter auf dieses Problem ansprechen, werden diese es eher kleinreden – womit sie auch ein bisschen Recht haben, schließlich ist die Wahrscheinlichkeit verschwindend gering. Aber es ist nun mal ein Fakt, dass allen mandantenfähigen Systemen dieses Risiko anhaftet. Tipp: Um es möglichst zu minimieren, sollten Sie einen Cloud-Anbieter auswählen, der nachweislich strengen Sicherheitsstandards genügt. Das signalisieren beispielweise: Daten, die sowohl im Ruhezustand als auch während der Übertragung verschlüsselt werden, Identity and Access Management und Isolationsrichtlinien. Eine noch bessere Idee wäre es allerdings, Ihre eigene Security-Strategie und Ihren eigenen Technologie-Stack zu implementieren. 3. Stateful Model Deployment Große Sprachmodelle sind meistens “stateful” – behalten also Informationen von einer Interaktion zur nächsten. Das bringt den Vorteil, die Effizienz in Continuous-Learning-Szenarien steigern zu können. Diese LLM-“Statefulness” in Cloud-Umgebungen zu managen, wo Instanzen ephemer oder “stateless by design” sein können, ist diffizil. Tipp: Hilfreich sind an dieser Stelle vor allem Orchestrierungs-Tools, die Stateful Deployments unterstützen – beispielsweise Kubernetes. Sie ermöglichen persistente Storage-Optionen für die LLMs und können so konfiguriert werden, dass deren State Session-übergreifend bewahrt wird. Um die Continuity und die Performance der großen Sprachmodelle zu gewährleisten, ist das essenziell. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Große Sprachmodelle in der Cloud: 3 Tipps für bessere LLM-Deployments​ Wiederholen Sie mit Blick auf das LLM Deployment möglichst nicht die Fehler der frühen Cloud-Computing-Ära.
Foto: C. Fish Images | shutterstock.com

Im Zuge der weiter rollenden Generative-AI-Welle setzen diverse Unternehmen Large Language Models (LLMs) auf Cloud-Plattformen ein. Dieser Weg wird in erster Linie gewählt, weil ein Public-Cloud-Ökosystem bereits existiert und das den Weg des geringsten Widerstands darstellt. Ihn zu beschreiten, ist dafür in der Regel nicht günstig.

Weil sich einige Firmen dabei blindlings in den Hype stürzen, kommt es jedoch immer öfter zu folgenreichen Fehlern. Insbesondere mit Blick auf den Deployment-Prozess großer Sprachmodelle in Public-Cloud-Umgebungen entscheiden einige Aspekte über Erfolg oder Misserfolg, die bislang wenig Beachtung finden.

1. Kosteneffizienz und Skalierbarkeit

Ein wesentlicher Beweggrund, LLMs über Cloud-Plattformen bereitzustellen, besteht darin, die Ressourcen nach Bedarf skalieren zu können. Das macht eine Kapazitätsplanung überflüssig – Cloud-Ressourcen lassen sich per Mausklick, respektive automatisiert allokieren.

Effektiv Kosten zu managen und parallel zu skalieren, ist jedoch kein Standard-Skill und erfordert in den meisten Fällen eine Hilfestellung. Je mehr Cloud Services sie nutzen, desto mehr bezahlen sie. Das ist angesichts der höheren Grund- und Stromkosten, die für den Einsatz von GPUs anfallen, ein zentrales Problem, wenn es um große Sprachmodelle geht, die bei Public-Cloud-Anbietern laufen.

Tipp: Nutzen Sie Kostenmanagement-Tools. Und zwar sowohl diejenigen, die die Cloud-Anbieter zur Verfügung stellen, als auch solide Lösungen von Drittanbietern im Bereich Cost Governance und -Monitoring. Beispiele hierfür wären etwa:

Auto-Scaling und -Scheduling zu implementieren,

geeignete Instanztypen zu wählen oder

Preemptible-Instanzen zu nutzen, um Kosten zu optimieren.

Zudem empfiehlt es sich, Deployments kontinuierlich zu überwachen, um den Ressourcenverbrauch an die Nutzung anzuspassen – und nicht einfach den Forecast Load zu nutzen. Im Klartext: Vermeiden Sie Overprovisioning um jeden Preis.

2. Datenschutz in Multitenant-Umgebungen

Large Language Models bereitzustellen, bedeutet auch, große Datenmengen zu verarbeiten, die sensible oder proprietäre Daten beinhalten können. Wenn dabei eine Public Cloud zum Einsatz kommt, besteht ein grundsätzliches Risiko, weil es “Nachbarn” in Form von verarbeitenden Instanzen gibt. Das kann dazu führen, dass virtuelle Maschinen, die auf derselben physischen Hardware operieren, auf die Daten zugreifen.

Wenn Sie Public-Cloud-Anbieter auf dieses Problem ansprechen, werden diese es eher kleinreden – womit sie auch ein bisschen Recht haben, schließlich ist die Wahrscheinlichkeit verschwindend gering. Aber es ist nun mal ein Fakt, dass allen mandantenfähigen Systemen dieses Risiko anhaftet.

Tipp: Um es möglichst zu minimieren, sollten Sie einen Cloud-Anbieter auswählen, der nachweislich strengen Sicherheitsstandards genügt. Das signalisieren beispielweise:

Daten, die sowohl im Ruhezustand als auch während der Übertragung verschlüsselt werden,

Identity and Access Management und

Isolationsrichtlinien.

Eine noch bessere Idee wäre es allerdings, Ihre eigene Security-Strategie und Ihren eigenen Technologie-Stack zu implementieren.

3. Stateful Model Deployment

Große Sprachmodelle sind meistens “stateful” – behalten also Informationen von einer Interaktion zur nächsten. Das bringt den Vorteil, die Effizienz in Continuous-Learning-Szenarien steigern zu können. Diese LLM-“Statefulness” in Cloud-Umgebungen zu managen, wo Instanzen ephemer oder “stateless by design” sein können, ist diffizil.

Tipp: Hilfreich sind an dieser Stelle vor allem Orchestrierungs-Tools, die Stateful Deployments unterstützen – beispielsweise Kubernetes. Sie ermöglichen persistente Storage-Optionen für die LLMs und können so konfiguriert werden, dass deren State Session-übergreifend bewahrt wird. Um die Continuity und die Performance der großen Sprachmodelle zu gewährleisten, ist das essenziell. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Große Sprachmodelle in der Cloud: 3 Tipps für bessere LLM-Deployments​ Weiterlesen »

Mit KI: Schau mir in die Augen, Kleines​

Allgemein

Schau mir in die Augen, Kleines – doch im 21. Jahrhundert betört nicht mehr Humphrey Bogart, sondern die KI. spatuletail – shutterstock.com Fast ein Dreivierteljahrhundert (1952) ist es her, dass Humphrey Bogart in der ersten deutschen Fassung von Casablanca den berühmten Satz sprach: Schau mir in die Augen, Kleines. Einen Blickkontakt, aber mit Hilfe von KI, will im 21. Jahrhundert das deutsche Startup Casablanca.AI in Videocalls sicherstellen. Dazu hat die Firma jetzt eine entsprechende Enterprise-Version vorgestellt. Der Anspruch des 2020 gegründeten Unternehmens aus dem schwäbischen Pforzheim: Es will in Videokonferenzen wie Zoom oder Teams einen authentischen Blickkontakt herstellen, um so virtuelle Meetings – egal, ob beim Recruiting oder im Consulting – effizienter zu gestalten. Dahinter steckt der Gedanke, dass virtuelle Meetings mit direktem Blickkontakt, so Forschungen der Yale University und des Karlsruher Institut für Technologie (KIT), über 20 Prozent produktiver, effizienter und effektiver sind. Virtuelle Kamera mit KI Die KI-gestützte Software Casablanca soll einen authentischen Blickkontakt in Videocalls sicherstellen. Casablanca.AI Mit CEO Carsten Kraus steckt hinter dem Startup ein alter Bekannter aus der deutschen IT-Gründerszene. Er gründete bereits in den 80er Jahren mit 16 Jahren seine erste Firma. So entwickelte er eine Variante der Programmiersprache BASIC, die er an Atari verkaufte. Seine Idee hinter Casablanca.AI: Eine virtuelle Kamera auf dem Rechner, die mit KI-Unterstützung die Blicke eines Gesprächspartners so ausrichtet, dass er mit dem Gegenüber in direktem Blickkontakt steht. Wer allerdings glaubt, mit Hilfe der KI in virtuellen Meetings eine interessierte Teilnahme vorgaukeln zu können, obwohl er auf dem Handy spielt oder E-Mails liest, wird enttäuscht werden. Täuschen ist nicht Getreu dem Unternehmensmotto, „Authentic Video Calls“ zu liefern, funktioniert die Lösung nur, wenn der User tatsächlich auf seinen Bildschirm schaut. Wendet er seinen Blick ab, so ist das trotz KI auch für die anderen Teilnehmer zu sehen. Dank der Implementierung als virtuelle Kamera ist die Software laut Anbieter mit gängiger Videokonferenz-Software kompatibel. So laufe das Tool etwa unter Zoom, Teams oder Webex. Verarbeitung am Edge Stellte die Betaversion noch relativ hohe Anforderungen an die Hardware, so soll die Enterprise-Variante auf allen Windows-11-fähigen Geräten laufen – ohne zusätzliche Hardware oder Grafikkarte. Dank zentraler Verwaltung durch MSI-Pakete und MS Entra kann die IT-Abteilung die Software, so das Unternehmen, auf allen Geräten über den gesamten Lebenszyklus zentral administrieren. Um den Datenschutz zu gewährleisten, arbeitet das Tool, wie es heißt, ausschließlich “on-edge” auf dem lokalen Rechner. Eine Übertragung der Videostreams an die Casablanca-Server finde nicht statt. Angaben zu den Kosten für die Enterprise-Version macht das Unternehmen auf seiner Webseite nicht. Für die Pro-Version berechnen die Pforzheimer monatlich sieben Euro zuzüglich Mehrwertsteuer.   

Mit KI: Schau mir in die Augen, Kleines​ Schau mir in die Augen, Kleines – doch im 21. Jahrhundert betört nicht mehr Humphrey Bogart, sondern die KI.
spatuletail – shutterstock.com

Fast ein Dreivierteljahrhundert (1952) ist es her, dass Humphrey Bogart in der ersten deutschen Fassung von Casablanca den berühmten Satz sprach: Schau mir in die Augen, Kleines. Einen Blickkontakt, aber mit Hilfe von KI, will im 21. Jahrhundert das deutsche Startup Casablanca.AI in Videocalls sicherstellen. Dazu hat die Firma jetzt eine entsprechende Enterprise-Version vorgestellt.

Der Anspruch des 2020 gegründeten Unternehmens aus dem schwäbischen Pforzheim: Es will in Videokonferenzen wie Zoom oder Teams einen authentischen Blickkontakt herstellen, um so virtuelle Meetings – egal, ob beim Recruiting oder im Consulting – effizienter zu gestalten. Dahinter steckt der Gedanke, dass virtuelle Meetings mit direktem Blickkontakt, so Forschungen der Yale University und des Karlsruher Institut für Technologie (KIT), über 20 Prozent produktiver, effizienter und effektiver sind.

Virtuelle Kamera mit KI

Die KI-gestützte Software Casablanca soll einen authentischen Blickkontakt in Videocalls sicherstellen.
Casablanca.AI

Mit CEO Carsten Kraus steckt hinter dem Startup ein alter Bekannter aus der deutschen IT-Gründerszene. Er gründete bereits in den 80er Jahren mit 16 Jahren seine erste Firma. So entwickelte er eine Variante der Programmiersprache BASIC, die er an Atari verkaufte.

Seine Idee hinter Casablanca.AI: Eine virtuelle Kamera auf dem Rechner, die mit KI-Unterstützung die Blicke eines Gesprächspartners so ausrichtet, dass er mit dem Gegenüber in direktem Blickkontakt steht. Wer allerdings glaubt, mit Hilfe der KI in virtuellen Meetings eine interessierte Teilnahme vorgaukeln zu können, obwohl er auf dem Handy spielt oder E-Mails liest, wird enttäuscht werden.

Täuschen ist nicht

Getreu dem Unternehmensmotto, „Authentic Video Calls“ zu liefern, funktioniert die Lösung nur, wenn der User tatsächlich auf seinen Bildschirm schaut. Wendet er seinen Blick ab, so ist das trotz KI auch für die anderen Teilnehmer zu sehen.

Dank der Implementierung als virtuelle Kamera ist die Software laut Anbieter mit gängiger Videokonferenz-Software kompatibel. So laufe das Tool etwa unter Zoom, Teams oder Webex.

Verarbeitung am Edge

Stellte die Betaversion noch relativ hohe Anforderungen an die Hardware, so soll die Enterprise-Variante auf allen Windows-11-fähigen Geräten laufen – ohne zusätzliche Hardware oder Grafikkarte.

Dank zentraler Verwaltung durch MSI-Pakete und MS Entra kann die IT-Abteilung die Software, so das Unternehmen, auf allen Geräten über den gesamten Lebenszyklus zentral administrieren. Um den Datenschutz zu gewährleisten, arbeitet das Tool, wie es heißt, ausschließlich “on-edge” auf dem lokalen Rechner. Eine Übertragung der Videostreams an die Casablanca-Server finde nicht statt.

Angaben zu den Kosten für die Enterprise-Version macht das Unternehmen auf seiner Webseite nicht. Für die Pro-Version berechnen die Pforzheimer monatlich sieben Euro zuzüglich Mehrwertsteuer.

 

Mit KI: Schau mir in die Augen, Kleines​ Weiterlesen »

Robot-Cop patrouilliert jetzt auch in Thailand​

Allgemein

Werden Straßen bald von Robo-Polizisten patrouilliert? In Asien geht der Trend immer stärker in diese Richtung. ProStockStudio – shutterstock.com KI-gestützte Roboter können immer mehr, sei es winken, laufen oder Gesichter analysieren. Diesen Fortschritt machte sich die Polizei in Thailand zunutze und setzte den „KI Cyborg 1.0“ während des Songkran-Festivals in der Provinz Nakhon Pathom ein, um die öffentliche Sicherheit zu erhöhen. Gesichtserkennung zur Identifikation gesuchter Personen Entwickelt wurde er von lokalen Polizeibehörden und ist mit moderner Überwachungs- sowie Bedrohungserkennungstechnologie ausgestattet. Der Roboter verarbeitet in Echtzeit Daten aus Drohnen und Videoüberwachungsnetzwerken. Eine schnelle Reaktionskoordination wird durch die in den Roboter eingebauten intelligenten 360-Grad-Kameras ermöglicht. Diese sind sofort mit dem Kommando- und Kontrollzentrum der Provinz verbunden und werden von einer Videoanalysesoftware unterstützt, wie das Nachrichtenportal The Nation berichtet. Der Roboter nutzt hierfür Gesichtserkennung und visuelle Analyse, um gesuchte oder als „risikoreich“ eingestufte Personen an belebten Orten zu identifizieren. Er erkennt Merkmale wie Geschlecht, Körperform, Kleidung und Gesichtszüge. Darüber hinaus kann er auffällige Aktivitäten wie Kämpfe oder Störungen erkennen. Dabei kann er zwischen gefährlichen Objekten wie Waffen und harmlosen Gegenständen unterscheiden. Technologieoffensive für Sicherheit und Notdienste Diese Entwicklung beschränkt sich nicht nur auf Thailand, sondern wurde bereits in der Volksrepublik China erfolgreich eingesetzt: In Shenzhen etwa nutzt die Polizei humanoide PM01-Roboter von EngineAI an der Seite von Polizisten. Sie interagieren mit Passanten durch Winken, Händeschütteln und Sprachbefehle. China integriert zunehmend Robotik in Bereiche wie öffentliche Sicherheit, Notdienste und Strafverfolgung. Humanoide Roboter einzusetzen ist Teil dieser Strategie. Zusätzlich sollen fortschrittliche Systeme wie der RT-G-Roboter erprobt werden. Diese Maschine ist eine autonome, kugelförmige Einheit, die extremen Bedingungen standhält und sich mit bis zu 35 km/h an Land und zu Wasser fortbewegen kann. 

Robot-Cop patrouilliert jetzt auch in Thailand​ Werden Straßen bald von Robo-Polizisten patrouilliert? In Asien geht der Trend immer stärker in diese Richtung.
ProStockStudio – shutterstock.com

KI-gestützte Roboter können immer mehr, sei es winken, laufen oder Gesichter analysieren. Diesen Fortschritt machte sich die Polizei in Thailand zunutze und setzte den „KI Cyborg 1.0“ während des Songkran-Festivals in der Provinz Nakhon Pathom ein, um die öffentliche Sicherheit zu erhöhen.

Gesichtserkennung zur Identifikation gesuchter Personen

Entwickelt wurde er von lokalen Polizeibehörden und ist mit moderner Überwachungs- sowie Bedrohungserkennungstechnologie ausgestattet. Der Roboter verarbeitet in Echtzeit Daten aus Drohnen und Videoüberwachungsnetzwerken.

Eine schnelle Reaktionskoordination wird durch die in den Roboter eingebauten intelligenten 360-Grad-Kameras ermöglicht. Diese sind sofort mit dem Kommando- und Kontrollzentrum der Provinz verbunden und werden von einer Videoanalysesoftware unterstützt, wie das Nachrichtenportal The Nation berichtet.

Der Roboter nutzt hierfür Gesichtserkennung und visuelle Analyse, um gesuchte oder als „risikoreich“ eingestufte Personen an belebten Orten zu identifizieren. Er erkennt Merkmale wie

Geschlecht,

Körperform,

Kleidung und

Gesichtszüge.

Darüber hinaus kann er auffällige Aktivitäten wie Kämpfe oder Störungen erkennen. Dabei kann er zwischen gefährlichen Objekten wie Waffen und harmlosen Gegenständen unterscheiden.

Technologieoffensive für Sicherheit und Notdienste

Diese Entwicklung beschränkt sich nicht nur auf Thailand, sondern wurde bereits in der Volksrepublik China erfolgreich eingesetzt: In Shenzhen etwa nutzt die Polizei humanoide PM01-Roboter von EngineAI an der Seite von Polizisten. Sie interagieren mit Passanten durch Winken, Händeschütteln und Sprachbefehle.

China integriert zunehmend Robotik in Bereiche wie öffentliche Sicherheit, Notdienste und Strafverfolgung. Humanoide Roboter einzusetzen ist Teil dieser Strategie. Zusätzlich sollen fortschrittliche Systeme wie der RT-G-Roboter erprobt werden. Diese Maschine ist eine autonome, kugelförmige Einheit, die extremen Bedingungen standhält und sich mit bis zu 35 km/h an Land und zu Wasser fortbewegen kann.

Robot-Cop patrouilliert jetzt auch in Thailand​ Weiterlesen »

Oracle stößt SAP vom ERP-Thron​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?quality=50&strip=all 2670w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Oracle gibt im ERP-Geschäft Gas – und hat vermutlich SAP überholt.Santiparp Wattanaporn – Shutterstock.com Nach Berechnungen der Analysten von „Apps Run The World“ (ARTW) musste SAP im vergangenen Jahr die Marktführerschaft im Bereich Enterprise Ressource Planning (ERP) an den Rivalen Oracle abgeben.   Wie die Marktforscher ausführen, verdankt Oracle die neue Spitzenposition den schnell wachsenden Oracle Fusion Cloud ERP-Produkten für Buchhaltung, Auftragsverwaltung und andere geschäftskritische Prozesse. Mit ihrer Hilfe soll Oracle 2024 im Bereich ERP-Software einen Umsatz von 8,7 Milliarden Dollar erzielt haben, was laut ARTW einem Marktanteil von 6,63 Prozent entspricht.   Im Vergleich dazu soll „Branchenprimus“ SAP im vergangenen Jahr mit seinen ERP-Lösungen „lediglich“ einen Umsatz von 8,6 Milliarden Dollar erwirtschaftet haben, was einem Marktanteil von 6,57 Prozent entspricht.  Allerdings weisen beide Anbieter die Ergebnisse im ERP-Bereich nicht explizit aus. Grundlage für die Werte sind laut Apps Run The World vielmehr Schätzungen, die auf öffentlichen Aufzeichnungen, Cloud- und Nicht-Cloud-Geschäftsmodellen in der Lieferantendatenbank von ARTW sowie den Ergebnissen jährlicher Umfragen einschließlich des Feedbacks der Lieferanten basieren.  Oracle-Kunden werden stärker gemolken  Den Analysten zufolge ist der Grund für den Führungswechsel einfache Mathematik. So zählt Oracle im gesamten ERP-Bereich (der sowohl Finanzmanagement- als auch branchenspezifische Backoffice-Lösungen umfasst) mehr als 100.000 Kunden, die im vergangenen Jahr durchschnittlich jeweils 87.700 Dollar beigetragen haben. Im Gegensatz dazu habe SAP mit jedem seiner 141.399 ERP-Kunden nur durchschnittlich 61.429 Dollar erwirtschaftet, also rund 30 Prozent weniger.   Den durchschnittlichen Umsatz eines Kunden mit Oracle Fusion Cloud ERP beziffert Apps Run The World auf 257.286 Dollar, den mit SAP S/4 HANA auf 253.100 Euro. Gleichzeitig verweisen die Analysten darauf, dass Oracle 2024 um 17,7 Prozent wuchs, SAP dagegen lediglich um 13,7 Prozent.  

Oracle stößt SAP vom ERP-Thron​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?quality=50&strip=all 2670w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/04/shutterstock_665466223_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Oracle gibt im ERP-Geschäft Gas – und hat vermutlich SAP überholt.Santiparp Wattanaporn – Shutterstock.com

Nach Berechnungen der Analysten von „Apps Run The World“ (ARTW) musste SAP im vergangenen Jahr die Marktführerschaft im Bereich Enterprise Ressource Planning (ERP) an den Rivalen Oracle abgeben.  

Wie die Marktforscher ausführen, verdankt Oracle die neue Spitzenposition den schnell wachsenden Oracle Fusion Cloud ERP-Produkten für Buchhaltung, Auftragsverwaltung und andere geschäftskritische Prozesse. Mit ihrer Hilfe soll Oracle 2024 im Bereich ERP-Software einen Umsatz von 8,7 Milliarden Dollar erzielt haben, was laut ARTW einem Marktanteil von 6,63 Prozent entspricht.  

Im Vergleich dazu soll „Branchenprimus“ SAP im vergangenen Jahr mit seinen ERP-Lösungen „lediglich“ einen Umsatz von 8,6 Milliarden Dollar erwirtschaftet haben, was einem Marktanteil von 6,57 Prozent entspricht. 

Allerdings weisen beide Anbieter die Ergebnisse im ERP-Bereich nicht explizit aus. Grundlage für die Werte sind laut Apps Run The World vielmehr Schätzungen, die auf öffentlichen Aufzeichnungen, Cloud- und Nicht-Cloud-Geschäftsmodellen in der Lieferantendatenbank von ARTW sowie den Ergebnissen jährlicher Umfragen einschließlich des Feedbacks der Lieferanten basieren. 

Oracle-Kunden werden stärker gemolken 

Den Analysten zufolge ist der Grund für den Führungswechsel einfache Mathematik. So zählt Oracle im gesamten ERP-Bereich (der sowohl Finanzmanagement- als auch branchenspezifische Backoffice-Lösungen umfasst) mehr als 100.000 Kunden, die im vergangenen Jahr durchschnittlich jeweils 87.700 Dollar beigetragen haben. Im Gegensatz dazu habe SAP mit jedem seiner 141.399 ERP-Kunden nur durchschnittlich 61.429 Dollar erwirtschaftet, also rund 30 Prozent weniger.  

Den durchschnittlichen Umsatz eines Kunden mit Oracle Fusion Cloud ERP beziffert Apps Run The World auf 257.286 Dollar, den mit SAP S/4 HANA auf 253.100 Euro. Gleichzeitig verweisen die Analysten darauf, dass Oracle 2024 um 17,7 Prozent wuchs, SAP dagegen lediglich um 13,7 Prozent. 

Oracle stößt SAP vom ERP-Thron​ Weiterlesen »

Nach oben scrollen
×