Unschönes Erwachen vorprogrammiert.Jakov Simovic | shutterstock.com Aktuell bekommt man allzu leicht das Gefühl, in einer dualen Realität zu leben. Auch, wenn es um Technologie geht. Auf der einen Seite steht die futuristische KI-Vision, die etwa Google auf seiner Entwicklerkonferenz I/O präsentierte. Knapp zwei Stunden schwärmten die Google-Manager auf der großen Bühne davon, wie der KI-Assistent Gemini künftig noch komplexere Antworten aus dem Internet liefern sowie Einkäufe und Buchungen tätigen soll. Die Botschaft: Die Google-KI durchdringt alles und wird dabei nur immer schneller und besser. In ähnlichem Stil verfuhr auch Microsoft auf seiner Build-Konferenz. Dort war zu hören, dass Copilot demnächst als “Enterprise-Gehirn” fungieren soll, das sogar Verträge selbständig abwickelt. Surreal anmutende Visionen zur KI-Zukunft werden aber auch von OpenAI und allen anderen Marktteilnehmern regelmäßig verbreitet. Schenkt man den GenAI-Unternehmen Glauben, leben wir in einer Ära, in der der lebensverändernde Umbruch durch KI kontinuierlich bevorsteht. Auf der anderen Seite: die Praxis. Dort werden die Verheißungen der großen Tech-Unternehmen zu einer immer größeren Belastung für diejenigen, die noch Wert darauf legen, die Dinge richtig zu machen. Künstliche Intelligenz, reale Gefahr Das eigentliche Problem ist dabei nicht, dass die Technologie vollkommen unnütz ist – im Gegenteil. Aber ohne Zweifel ist Generative AI (GenAI) in seiner aktuellen Form nicht in der Lage, das zu leisten, was Google, Microsoft und Co. ununterbrochen in Aussicht stellen – sowohl wenn es um den privaten als auch den Business-Einsatz geht. Im Kern bleiben Gemini und andere LLM-basierte Systeme bessere Prediction-Maschinen, die Inhalte auf Grundlage von Mustern erstellen: Sie reihen Zeichen aneinander, die manchmal Sinn ergeben. Oft aber auch Fehler enthalten oder frei erfunden sind. Wenn diese Tools etwas korrekt beantworten, dann ist das in den meisten Fällen dem Zufall geschuldet. Und die Benutzer haben in vielen Fällen wenig Möglichkeiten, das sofort zu erkennen. Von Denkfähigkeit kann also mit Blick auf KI-Tools weiterhin keine Rede sein. Trotzdem verkaufen die großen Tech-Player generative KI als die ultimative Lösung für jeden nur erdenklichen Zweck. Wie gefährlich das ist, zeigt sich immer wieder ganz deutlich: Der Anwalt von Anthropic musste sich kürzlich vor Gericht entschuldigen, nachdem der KI-Chatbot Claude ihn im Rahmen des Urheberrechtsstreits mit Universal mit halluzinierten Zitaten “unterstützt” hatte. Es ist nur einer von vielen Fällen, in denen KI-Halluzinationen vor Gericht für “Irritationen” gesorgt haben. Der KI-Anbieter Cursor musste sich mit einer Flut von Kundenbeschwerden auseinandersetzen, nachdem sein KI-basierter “Support-Agent” bei der Interaktion mit Kunden nicht existierende Policies erfunden hatte. Forscher der Carnegie Mellon University haben KI-Agenten in einem Experiment mit einfachen Tasks beauftragt, die denen in einem Softwareunternehmen nachempfunden waren. Die Systeme versagten kläglich – bei genau den Aufgaben, für die sie angeblich konzipiert wurden. Im Bereich der Softwareentwicklung häufen sich die Halluzinationsfälle ebenfalls – zum Beispiel in Form nicht-existenter Pakete. Das führt nicht nur zu zeit- und kostenintensiven Fehlern, sondern unter Umständen auch zu neuen, haarsträubenden Sicherheitslücken. Das Columbia Journalism Review hat acht verschiedene GenAI-Suchmaschinen getestet. Das Ergebnis: Alle Systeme halluzinierten wild und lieferten in allen möglichen Bereichen falsche oder erfundene Informationen. Die Chicago Sun Times druckte das Werbe-Special eines Drittanbieters, das Empfehlungen zu nicht existenten Büchern enthielt. Die hatte die KI-Instanz erfunden, die der dafür verantwortliche (und jetzt um einige Aufträge ärmere) Freelancer zur Unterstützung herangezogen hatte. Und das ist nur eine kleine Selektion aus dem großen Beispiel-Pool für KI-Versagen. Bessern dürfte sich die Situation in Zukunft auch eher nicht, wie ein Artikel der New York Times nahelegt. Demnach verstärkt sich „die Tendenz, Lügen und Ungenauigkeiten zu verbreiten“, mit zunehmender Leistungsfähigkeit der KI-Systeme nur noch weiter. Und doch scheinen diese Entwicklungen nur wenige zu beunruhigen. Die GenAI-Vision, die Big Tech verzweifelt verkaufen will, ist eben deutlich attraktiver als die Realität. Ganz besonders für Manager: So kommt die Unternehmensberatung EY in einer Umfrage unter 500 (US-)Führungskräften zum Ergebnis, dass 50 Prozent der Befragten davon ausgehen, dass dieselben KI-Agenten, die oben beschriebene Fails produzieren, in den nächsten zwei Jahren autonom in ihren Unternehmen arbeiten werden – also menschliche Arbeitskräfte ersetzen und ohne Aufsicht tätig sind. Na dann, Prost Mahlzeit. Zeit für GenAI-Reset Sämtliche Tech-Unternehmen, Business-Influencer und Medien, die dem Generative-AI-Hype blindlings folgen, tun gerne so, als seien all diese Dinge kein ernstes Problem. Als “Beweis” liefern sie beeindruckende Demos und Marketing-Fantastereien. Die Realität sieht anders aus: Man kann sich auf den Output, den LLM-basierte Chatbots liefern, einfach nicht verlassen. Besonders beunruhigend ist dabei das vermeintliche Argument, dass die Fehlerrate der KI-Helfer sich im Laufe der Zeit verbessern würde. Selbst wenn man außer Acht lässt, dass diese Behauptung bereits widerlegt ist: Ein System, das eine Fehlerrate von fünf, zehn oder 20 Prozent aufweist, ist noch ungünstiger als eines, das in 50 Prozent (oder mehr) der Fälle Fehler macht. Letzteres führt immerhin sehr wahrscheinlich dazu, dass den menschlichen Benutzern die Halluzinationen auffallen – und zu der Überzeugung führen, dass dieses System als Informationsquelle unbrauchbar ist. Ersteres hingegen ist wesentlich gefährlicher, weil es die User in falscher Sicherheit wiegt – und diese in der Konsequenz weniger Aufmerksamkeit walten lassen. Um keine Missverständnisse aufkommen zu lassen: Natürlich kann Generative AI nützlich sein – auch im Unternehmensumfeld. Voraussetzung ist aber, dass die Technologie mit Bedacht und realistischen Erwartungen eingesetzt wird. Lassen Sie sich also nicht von den hübsch ausgeschmückten Utopien der Anbieter täuschen und betrachten Sie KI-Tools als das, was sie sind: Engines, die Wörter vorhersagen und für spezifische Szenarien eine gute Arbeitsgrundlage liefern können. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!
Der große GenAI-Fiebertraum
Unschönes Erwachen vorprogrammiert.Jakov Simovic | shutterstock.com Aktuell bekommt man allzu leicht das Gefühl, in einer dualen Realität zu leben. Auch, wenn es um Technologie geht. Auf der einen Seite steht die futuristische KI-Vision, die etwa Google auf seiner Entwicklerkonferenz I/O präsentierte. Knapp zwei Stunden schwärmten die Google-Manager auf der großen Bühne davon, wie der KI-Assistent Gemini künftig noch komplexere Antworten aus dem Internet liefern sowie Einkäufe und Buchungen tätigen soll. Die Botschaft: Die Google-KI durchdringt alles und wird dabei nur immer schneller und besser. In ähnlichem Stil verfuhr auch Microsoft auf seiner Build-Konferenz. Dort war zu hören, dass Copilot demnächst als “Enterprise-Gehirn” fungieren soll, das sogar Verträge selbständig abwickelt. Surreal anmutende Visionen zur KI-Zukunft werden aber auch von OpenAI und allen anderen Marktteilnehmern regelmäßig verbreitet. Schenkt man den GenAI-Unternehmen Glauben, leben wir in einer Ära, in der der lebensverändernde Umbruch durch KI kontinuierlich bevorsteht. Auf der anderen Seite: die Praxis. Dort werden die Verheißungen der großen Tech-Unternehmen zu einer immer größeren Belastung für diejenigen, die noch Wert darauf legen, die Dinge richtig zu machen. Künstliche Intelligenz, reale Gefahr Das eigentliche Problem ist dabei nicht, dass die Technologie vollkommen unnütz ist – im Gegenteil. Aber ohne Zweifel ist Generative AI (GenAI) in seiner aktuellen Form nicht in der Lage, das zu leisten, was Google, Microsoft und Co. ununterbrochen in Aussicht stellen – sowohl wenn es um den privaten als auch den Business-Einsatz geht. Im Kern bleiben Gemini und andere LLM-basierte Systeme bessere Prediction-Maschinen, die Inhalte auf Grundlage von Mustern erstellen: Sie reihen Zeichen aneinander, die manchmal Sinn ergeben. Oft aber auch Fehler enthalten oder frei erfunden sind. Wenn diese Tools etwas korrekt beantworten, dann ist das in den meisten Fällen dem Zufall geschuldet. Und die Benutzer haben in vielen Fällen wenig Möglichkeiten, das sofort zu erkennen. Von Denkfähigkeit kann also mit Blick auf KI-Tools weiterhin keine Rede sein. Trotzdem verkaufen die großen Tech-Player generative KI als die ultimative Lösung für jeden nur erdenklichen Zweck. Wie gefährlich das ist, zeigt sich immer wieder ganz deutlich: Der Anwalt von Anthropic musste sich kürzlich vor Gericht entschuldigen, nachdem der KI-Chatbot Claude ihn im Rahmen des Urheberrechtsstreits mit Universal mit halluzinierten Zitaten “unterstützt” hatte. Es ist nur einer von vielen Fällen, in denen KI-Halluzinationen vor Gericht für “Irritationen” gesorgt haben. Der KI-Anbieter Cursor musste sich mit einer Flut von Kundenbeschwerden auseinandersetzen, nachdem sein KI-basierter “Support-Agent” bei der Interaktion mit Kunden nicht existierende Policies erfunden hatte. Forscher der Carnegie Mellon University haben KI-Agenten in einem Experiment mit einfachen Tasks beauftragt, die denen in einem Softwareunternehmen nachempfunden waren. Die Systeme versagten kläglich – bei genau den Aufgaben, für die sie angeblich konzipiert wurden. Im Bereich der Softwareentwicklung häufen sich die Halluzinationsfälle ebenfalls – zum Beispiel in Form nicht-existenter Pakete. Das führt nicht nur zu zeit- und kostenintensiven Fehlern, sondern unter Umständen auch zu neuen, haarsträubenden Sicherheitslücken. Das Columbia Journalism Review hat acht verschiedene GenAI-Suchmaschinen getestet. Das Ergebnis: Alle Systeme halluzinierten wild und lieferten in allen möglichen Bereichen falsche oder erfundene Informationen. Die Chicago Sun Times druckte das Werbe-Special eines Drittanbieters, das Empfehlungen zu nicht existenten Büchern enthielt. Die hatte die KI-Instanz erfunden, die der dafür verantwortliche (und jetzt um einige Aufträge ärmere) Freelancer zur Unterstützung herangezogen hatte. Und das ist nur eine kleine Selektion aus dem großen Beispiel-Pool für KI-Versagen. Bessern dürfte sich die Situation in Zukunft auch eher nicht, wie ein Artikel der New York Times nahelegt. Demnach verstärkt sich „die Tendenz, Lügen und Ungenauigkeiten zu verbreiten“, mit zunehmender Leistungsfähigkeit der KI-Systeme nur noch weiter. Und doch scheinen diese Entwicklungen nur wenige zu beunruhigen. Die GenAI-Vision, die Big Tech verzweifelt verkaufen will, ist eben deutlich attraktiver als die Realität. Ganz besonders für Manager: So kommt die Unternehmensberatung EY in einer Umfrage unter 500 (US-)Führungskräften zum Ergebnis, dass 50 Prozent der Befragten davon ausgehen, dass dieselben KI-Agenten, die oben beschriebene Fails produzieren, in den nächsten zwei Jahren autonom in ihren Unternehmen arbeiten werden – also menschliche Arbeitskräfte ersetzen und ohne Aufsicht tätig sind. Na dann, Prost Mahlzeit. Zeit für GenAI-Reset Sämtliche Tech-Unternehmen, Business-Influencer und Medien, die dem Generative-AI-Hype blindlings folgen, tun gerne so, als seien all diese Dinge kein ernstes Problem. Als “Beweis” liefern sie beeindruckende Demos und Marketing-Fantastereien. Die Realität sieht anders aus: Man kann sich auf den Output, den LLM-basierte Chatbots liefern, einfach nicht verlassen. Besonders beunruhigend ist dabei das vermeintliche Argument, dass die Fehlerrate der KI-Helfer sich im Laufe der Zeit verbessern würde. Selbst wenn man außer Acht lässt, dass diese Behauptung bereits widerlegt ist: Ein System, das eine Fehlerrate von fünf, zehn oder 20 Prozent aufweist, ist noch ungünstiger als eines, das in 50 Prozent (oder mehr) der Fälle Fehler macht. Letzteres führt immerhin sehr wahrscheinlich dazu, dass den menschlichen Benutzern die Halluzinationen auffallen – und zu der Überzeugung führen, dass dieses System als Informationsquelle unbrauchbar ist. Ersteres hingegen ist wesentlich gefährlicher, weil es die User in falscher Sicherheit wiegt – und diese in der Konsequenz weniger Aufmerksamkeit walten lassen. Um keine Missverständnisse aufkommen zu lassen: Natürlich kann Generative AI nützlich sein – auch im Unternehmensumfeld. Voraussetzung ist aber, dass die Technologie mit Bedacht und realistischen Erwartungen eingesetzt wird. Lassen Sie sich also nicht von den hübsch ausgeschmückten Utopien der Anbieter täuschen und betrachten Sie KI-Tools als das, was sie sind: Engines, die Wörter vorhersagen und für spezifische Szenarien eine gute Arbeitsgrundlage liefern können. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!
Der große GenAI-Fiebertraum Unschönes Erwachen vorprogrammiert.Jakov Simovic | shutterstock.com Aktuell bekommt man allzu leicht das Gefühl, in einer dualen Realität zu leben. Auch, wenn es um Technologie geht. Auf der einen Seite steht die futuristische KI-Vision, die etwa Google auf seiner Entwicklerkonferenz I/O präsentierte. Knapp zwei Stunden schwärmten die Google-Manager auf der großen Bühne davon, wie der KI-Assistent Gemini künftig noch komplexere Antworten aus dem Internet liefern sowie Einkäufe und Buchungen tätigen soll. Die Botschaft: Die Google-KI durchdringt alles und wird dabei nur immer schneller und besser. In ähnlichem Stil verfuhr auch Microsoft auf seiner Build-Konferenz. Dort war zu hören, dass Copilot demnächst als “Enterprise-Gehirn” fungieren soll, das sogar Verträge selbständig abwickelt. Surreal anmutende Visionen zur KI-Zukunft werden aber auch von OpenAI und allen anderen Marktteilnehmern regelmäßig verbreitet. Schenkt man den GenAI-Unternehmen Glauben, leben wir in einer Ära, in der der lebensverändernde Umbruch durch KI kontinuierlich bevorsteht. Auf der anderen Seite: die Praxis. Dort werden die Verheißungen der großen Tech-Unternehmen zu einer immer größeren Belastung für diejenigen, die noch Wert darauf legen, die Dinge richtig zu machen. Künstliche Intelligenz, reale Gefahr Das eigentliche Problem ist dabei nicht, dass die Technologie vollkommen unnütz ist – im Gegenteil. Aber ohne Zweifel ist Generative AI (GenAI) in seiner aktuellen Form nicht in der Lage, das zu leisten, was Google, Microsoft und Co. ununterbrochen in Aussicht stellen – sowohl wenn es um den privaten als auch den Business-Einsatz geht. Im Kern bleiben Gemini und andere LLM-basierte Systeme bessere Prediction-Maschinen, die Inhalte auf Grundlage von Mustern erstellen: Sie reihen Zeichen aneinander, die manchmal Sinn ergeben. Oft aber auch Fehler enthalten oder frei erfunden sind. Wenn diese Tools etwas korrekt beantworten, dann ist das in den meisten Fällen dem Zufall geschuldet. Und die Benutzer haben in vielen Fällen wenig Möglichkeiten, das sofort zu erkennen. Von Denkfähigkeit kann also mit Blick auf KI-Tools weiterhin keine Rede sein. Trotzdem verkaufen die großen Tech-Player generative KI als die ultimative Lösung für jeden nur erdenklichen Zweck. Wie gefährlich das ist, zeigt sich immer wieder ganz deutlich: Der Anwalt von Anthropic musste sich kürzlich vor Gericht entschuldigen, nachdem der KI-Chatbot Claude ihn im Rahmen des Urheberrechtsstreits mit Universal mit halluzinierten Zitaten “unterstützt” hatte. Es ist nur einer von vielen Fällen, in denen KI-Halluzinationen vor Gericht für “Irritationen” gesorgt haben. Der KI-Anbieter Cursor musste sich mit einer Flut von Kundenbeschwerden auseinandersetzen, nachdem sein KI-basierter “Support-Agent” bei der Interaktion mit Kunden nicht existierende Policies erfunden hatte. Forscher der Carnegie Mellon University haben KI-Agenten in einem Experiment mit einfachen Tasks beauftragt, die denen in einem Softwareunternehmen nachempfunden waren. Die Systeme versagten kläglich – bei genau den Aufgaben, für die sie angeblich konzipiert wurden. Im Bereich der Softwareentwicklung häufen sich die Halluzinationsfälle ebenfalls – zum Beispiel in Form nicht-existenter Pakete. Das führt nicht nur zu zeit- und kostenintensiven Fehlern, sondern unter Umständen auch zu neuen, haarsträubenden Sicherheitslücken. Das Columbia Journalism Review hat acht verschiedene GenAI-Suchmaschinen getestet. Das Ergebnis: Alle Systeme halluzinierten wild und lieferten in allen möglichen Bereichen falsche oder erfundene Informationen. Die Chicago Sun Times druckte das Werbe-Special eines Drittanbieters, das Empfehlungen zu nicht existenten Büchern enthielt. Die hatte die KI-Instanz erfunden, die der dafür verantwortliche (und jetzt um einige Aufträge ärmere) Freelancer zur Unterstützung herangezogen hatte. Und das ist nur eine kleine Selektion aus dem großen Beispiel-Pool für KI-Versagen. Bessern dürfte sich die Situation in Zukunft auch eher nicht, wie ein Artikel der New York Times nahelegt. Demnach verstärkt sich „die Tendenz, Lügen und Ungenauigkeiten zu verbreiten“, mit zunehmender Leistungsfähigkeit der KI-Systeme nur noch weiter. Und doch scheinen diese Entwicklungen nur wenige zu beunruhigen. Die GenAI-Vision, die Big Tech verzweifelt verkaufen will, ist eben deutlich attraktiver als die Realität. Ganz besonders für Manager: So kommt die Unternehmensberatung EY in einer Umfrage unter 500 (US-)Führungskräften zum Ergebnis, dass 50 Prozent der Befragten davon ausgehen, dass dieselben KI-Agenten, die oben beschriebene Fails produzieren, in den nächsten zwei Jahren autonom in ihren Unternehmen arbeiten werden – also menschliche Arbeitskräfte ersetzen und ohne Aufsicht tätig sind. Na dann, Prost Mahlzeit. Zeit für GenAI-Reset Sämtliche Tech-Unternehmen, Business-Influencer und Medien, die dem Generative-AI-Hype blindlings folgen, tun gerne so, als seien all diese Dinge kein ernstes Problem. Als “Beweis” liefern sie beeindruckende Demos und Marketing-Fantastereien. Die Realität sieht anders aus: Man kann sich auf den Output, den LLM-basierte Chatbots liefern, einfach nicht verlassen. Besonders beunruhigend ist dabei das vermeintliche Argument, dass die Fehlerrate der KI-Helfer sich im Laufe der Zeit verbessern würde. Selbst wenn man außer Acht lässt, dass diese Behauptung bereits widerlegt ist: Ein System, das eine Fehlerrate von fünf, zehn oder 20 Prozent aufweist, ist noch ungünstiger als eines, das in 50 Prozent (oder mehr) der Fälle Fehler macht. Letzteres führt immerhin sehr wahrscheinlich dazu, dass den menschlichen Benutzern die Halluzinationen auffallen – und zu der Überzeugung führen, dass dieses System als Informationsquelle unbrauchbar ist. Ersteres hingegen ist wesentlich gefährlicher, weil es die User in falscher Sicherheit wiegt – und diese in der Konsequenz weniger Aufmerksamkeit walten lassen. Um keine Missverständnisse aufkommen zu lassen: Natürlich kann Generative AI nützlich sein – auch im Unternehmensumfeld. Voraussetzung ist aber, dass die Technologie mit Bedacht und realistischen Erwartungen eingesetzt wird. Lassen Sie sich also nicht von den hübsch ausgeschmückten Utopien der Anbieter täuschen und betrachten Sie KI-Tools als das, was sie sind: Engines, die Wörter vorhersagen und für spezifische Szenarien eine gute Arbeitsgrundlage liefern können. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!