Eine kürzlich durchgeführte weltweite Studie von KPMG und der Universität Melbourne ergab, dass die Hälfte der Befragten der KI nicht zutraut, ihnen genaue Antworten zu geben. Grundlage war eine Umfrage unter mehr als 48.000 Personen in 47 Ländern. 54 Prozent von ihnen sind „misstrauisch“, insbesondere was die Sicherheit und die gesellschaftlichen Auswirkungen von KI betrifft. Trotz gemischter Gefühle betrachten 72 Prozent die KI als nützliches technisches Werkzeug. Allerdings sind Vertrauen und Akzeptanz in Industrieländern niedriger (39 Prozent Vertrauen, 65 Prozent Akzeptanz) als in Schwellenländern (57 Prozent Vertrauen, 84 Prozent Akzeptanz). Ein Teil des Unbehagens rührt offenbar vom fehlenden Wissen. Nur 39 Prozent der Umfrageteilnehmer hatten irgendeine Form von KI-Training, sei es am Arbeitsplatz, in der Schule oder unabhängig davon. Gleichzeitig gibt fast die Hälfte der Befragten (48 Prozent) an, dass sie nur wenig über KI weiß oder versteht. Umfrageteilnehmer, die eine KI-Schulung absolviert haben, sehen deutlich mehr Effizienz (76 Prozent gegenüber 56 Prozent) und Umsatzsteigerungen (55 Prozent gegenüber 34 Prozent). Führungskräfte profitieren in beiden Bereichen stärker als andere Rollen. Weitere Ergebnisse der Studie: Regulierung 70 Prozent befürworten eine KI-Regulierung, und nur 43 Prozent halten die derzeitigen Gesetze für ausreichend. 76 Prozent wünschen sich eine internationale Regulierung, 69 Prozent eine nationale und 71 Prozent befürworten eine Co-Regulierung durch die Industrie, die Regierung und andere Regulierungsbehörden. 88 Prozent sind der Meinung, dass Gesetze notwendig sind, um KI-gesteuerte Fehlinformationen zu bekämpfen. Arbeitswelt 58 Prozent der Mitarbeiter nutzen regelmäßig KI, meist kostenlose generative KI-Tools (GenAI). Mehr als die Hälfte der Befragten berichten von Leistungssteigerungen, aber viele sehen auch negative Effekte auf Arbeitsbelastung, Teamarbeit und Compliance. Mangelnde Kontrolle und Missbrauch sind weit verbreitet, wobei die Governance und die Schulung hinter der Einführung zurückbleiben. Bildungswesen 83 Prozent der Studierenden nutzen KI zur Effizienzsteigerung und Stressreduzierung. Missbrauch ist weit verbreitet und gibt Anlass zur Sorge über zu viel Vertrauen und Fairness. Nur rund die Hälfte gibt an, dass ihre Bildungseinrichtungen angemessene Richtlinien oder Schulungen für den verantwortungsvollen Einsatz von KI anbieten. Die Ergebnisse decken sich weitgehend mit den Resultaten einer im letzten Jahr veröffentlichte Studie von Hitachi Vantara. Auch dort wurde eine „kritische“ KI-Vertrauenslücke festgestellt: Nur 36 Prozent der IT-Leiter vertrauen regelmäßig auf KI-Ergebnisse, nur 38 Prozent der Unternehmen verbessern aktiv die Qualität ihrer Trainingsdaten. Für dieses Misstrauen gibt es gute Gründe: KI-Systeme machen Fehler und halluzinieren. Halluzinationen werden schlimmer Jason Hardy, CTO bei Hitachi Vantara, nennt die Vertrauenslücke das „KI-Paradox“: „Je leistungsfähiger KI wird, desto unzuverlässiger kann sie sein“, warnt er. Ohne hochwertige Trainingsdaten und Kontrollmechanismen – etwa zur Verifizierung der Ergebnisse – würden KI-Systeme zunehmend ungenaue Resultate liefern. „Um die zunehmende Verbreitung von KI-Halluzinationen zu verstehen, muss man in der Lage sein, das Verhalten des Systems bis zu den ursprünglichen Trainingsdaten zurückzuverfolgen“, erklärt Hardy gegenüber Computerworld. „Datenqualität und Kontext sind entscheidend, um einen ‚Domino-Effekt bei den Halluzinationen‘ zu vermeiden.“ KI-Modelle haben oft Schwierigkeiten mit mehrstufigen, technischen Problemen, bei denen kleine Fehler sich zu großen Ungenauigkeiten aufsummieren – ein wachsendes Problem bei neueren Systemen, so Hardy. Und da die ursprünglichen Trainingsdaten zur Neige gehen, greifen die Modelle nun auf neue, oft qualitativ schlechtere Quellen zurück. Werden alle Daten als gleichwertig behandelt, verschlimmere dies das Problem und erschwere es, KI-Halluzinationen aufzuspüren und zu korrigieren, betont der Hitachi-Vantara-Mann. Eine große Herausforderung stellen ihm zufolge uneinheitliche Standards für die Datenqualität dar: Während bei einigen Systemen die Kosten im Vordergrund stünden, erkennen andere, dass eine strenge Qualitätskontrolle der Schlüssel ist, um Fehler und Halluzinationen langfristig zu reduzieren. Ein beunruhigender Trend: Neuere Tests haben gezeigt, dass Halluzinationen in KI-Systemen zunehmen – mit Werten von bis zu 79 Prozent, wie die New York Times berichtet. Tatsächlich meldete die Artificial Intelligence Commission (AIC) – eine Organisation mit Sitz in Washington, DC, zur Förderung verantwortungsvoller KI-Entwicklung – kürzlich, dass KI-Halluzinationen nicht ab-, sondern zunehmen. „Der Anstieg der Halluzinationen bei den Denkmodellen könnte sehr wohl auf ein Überdenken‘ der KI zurückzuführen sein“, merkt Brandon Purcell, Vizepräsident und Hauptanalyst bei Forrester Research, an. Daten von Forrester bestätigen das schwindende Vertrauen in KI: Mehr als die Hälfte der Führungskräfte in Unternehmen macht sich Sorgen über generative KI, was die Einführung verlangsamt und ihren Nutzen einschränkt, so das Forschungsunternehmen. Um diese Vertrauenslücke zu schließen, sollten Unternehmen laut Purcell auf Transparenz, erklärbare und nachvollziehbare KI sowie Echtzeitüberwachung setzen. Halluzinationen seien „ein Merkmal großer Sprachmodelle, kein Fehler“, so Purcell. “Wir wissen zwar nicht genau, wie LLMs funktionieren, aber wahrscheinlich sind die Trainingsdaten selbst nicht im Modell gespeichert“, führt der Analyst aus. „Das Modell bildet lediglich statistische Muster der Trainingsdaten ab”, so Purcell. „Wenn Sie Halluzinationen reduzieren wollen, müssen Sie ein Modell auf einen korrekten und aktuellen kanonischen Datensatz gründen, indem Sie Retrieval Augmented Generierung (RAG) oder eine andere Technik verwenden, die die Antwort aus einer Quelle findet, die außerhalb des Modells liegt.“ Das Problem ist, dass große Sprachmodelle mehrstufige Prozesse durchlaufen, so dass kleine frühe Fehler zu Halluzinationen führen können. Werden Fragen wiederholt, können die Halluzinationen noch schlimmer und bizarrer werden. LLMs, so erklärt Purcell, eignen sich am besten für logisches Denken, während kleinere Modelle (Small Language Models, SLMs) besser für faktenbasierte Fragen und Antworten geeignet sind. SLMs als Retter in der Not Im Jahr 2025 werden kleine Sprachmodelle voraussichtlich ihren Durchbruch erleben, da Unternehmen sie zunehmend einsetzen, um spezifische Aufgaben zu lösen, ohne Rechenzentren mit übermäßiger Datenverarbeitung und Stromverbrauch zu belasten. Laut einem Bericht von Forrester könnte die Integration von SLMs im kommenden Jahr um bis zu 60 Prozent steigen. Dies deckt sich mit den Ergebnissen einer in Auftrag des KI-Startups Hyperscience vorgenommenen Umfrage unter mehr als 500 Nutzern. So glauben drei von vier IT-Entscheidern (75 Prozent), dass SLMs großen Sprachmodellen (LLMs) in Bezug auf Geschwindigkeit, Kosten, Genauigkeit und Return on Investment (ROI) überlegen sind. „Erschreckenderweise geben drei von fünf Entscheidungsträgern an, dass ihr mangelndes Verständnis der eigenen Daten sie daran hindert, das Potenzial von GenAI voll auszuschöpfen“, führt Andrew Joiner, CEO von Hyperscience, aus. „Das wahre Potenzial liegt in der Einführung maßgeschneiderter SLMs, die die Dokumentenverarbeitung verändern und die betriebliche Effizienz steigern können.“ Purcell von Forrester empfiehlt Unternehmen außerdem, die KI vor, während und nach der Einführung „gründlich zu testen“ – mit Menschen oder KI für Red Teaming. Hochsensible Systeme, wie beispielsweise medizinische KI, sollten zunächst in Simulationen validiert werden, ähnlich wie „autonome Fahrzeuge getestet werden“, erklärte er. (mb)
Vertrauen Sie KI? Die Hälfte der Nutzer tut es nicht
Eine kürzlich durchgeführte weltweite Studie von KPMG und der Universität Melbourne ergab, dass die Hälfte der Befragten der KI nicht zutraut, ihnen genaue Antworten zu geben. Grundlage war eine Umfrage unter mehr als 48.000 Personen in 47 Ländern. 54 Prozent von ihnen sind „misstrauisch“, insbesondere was die Sicherheit und die gesellschaftlichen Auswirkungen von KI betrifft. Trotz gemischter Gefühle betrachten 72 Prozent die KI als nützliches technisches Werkzeug. Allerdings sind Vertrauen und Akzeptanz in Industrieländern niedriger (39 Prozent Vertrauen, 65 Prozent Akzeptanz) als in Schwellenländern (57 Prozent Vertrauen, 84 Prozent Akzeptanz). Ein Teil des Unbehagens rührt offenbar vom fehlenden Wissen. Nur 39 Prozent der Umfrageteilnehmer hatten irgendeine Form von KI-Training, sei es am Arbeitsplatz, in der Schule oder unabhängig davon. Gleichzeitig gibt fast die Hälfte der Befragten (48 Prozent) an, dass sie nur wenig über KI weiß oder versteht. Umfrageteilnehmer, die eine KI-Schulung absolviert haben, sehen deutlich mehr Effizienz (76 Prozent gegenüber 56 Prozent) und Umsatzsteigerungen (55 Prozent gegenüber 34 Prozent). Führungskräfte profitieren in beiden Bereichen stärker als andere Rollen. Weitere Ergebnisse der Studie: Regulierung 70 Prozent befürworten eine KI-Regulierung, und nur 43 Prozent halten die derzeitigen Gesetze für ausreichend. 76 Prozent wünschen sich eine internationale Regulierung, 69 Prozent eine nationale und 71 Prozent befürworten eine Co-Regulierung durch die Industrie, die Regierung und andere Regulierungsbehörden. 88 Prozent sind der Meinung, dass Gesetze notwendig sind, um KI-gesteuerte Fehlinformationen zu bekämpfen. Arbeitswelt 58 Prozent der Mitarbeiter nutzen regelmäßig KI, meist kostenlose generative KI-Tools (GenAI). Mehr als die Hälfte der Befragten berichten von Leistungssteigerungen, aber viele sehen auch negative Effekte auf Arbeitsbelastung, Teamarbeit und Compliance. Mangelnde Kontrolle und Missbrauch sind weit verbreitet, wobei die Governance und die Schulung hinter der Einführung zurückbleiben. Bildungswesen 83 Prozent der Studierenden nutzen KI zur Effizienzsteigerung und Stressreduzierung. Missbrauch ist weit verbreitet und gibt Anlass zur Sorge über zu viel Vertrauen und Fairness. Nur rund die Hälfte gibt an, dass ihre Bildungseinrichtungen angemessene Richtlinien oder Schulungen für den verantwortungsvollen Einsatz von KI anbieten. Die Ergebnisse decken sich weitgehend mit den Resultaten einer im letzten Jahr veröffentlichte Studie von Hitachi Vantara. Auch dort wurde eine „kritische“ KI-Vertrauenslücke festgestellt: Nur 36 Prozent der IT-Leiter vertrauen regelmäßig auf KI-Ergebnisse, nur 38 Prozent der Unternehmen verbessern aktiv die Qualität ihrer Trainingsdaten. Für dieses Misstrauen gibt es gute Gründe: KI-Systeme machen Fehler und halluzinieren. Halluzinationen werden schlimmer Jason Hardy, CTO bei Hitachi Vantara, nennt die Vertrauenslücke das „KI-Paradox“: „Je leistungsfähiger KI wird, desto unzuverlässiger kann sie sein“, warnt er. Ohne hochwertige Trainingsdaten und Kontrollmechanismen – etwa zur Verifizierung der Ergebnisse – würden KI-Systeme zunehmend ungenaue Resultate liefern. „Um die zunehmende Verbreitung von KI-Halluzinationen zu verstehen, muss man in der Lage sein, das Verhalten des Systems bis zu den ursprünglichen Trainingsdaten zurückzuverfolgen“, erklärt Hardy gegenüber Computerworld. „Datenqualität und Kontext sind entscheidend, um einen ‚Domino-Effekt bei den Halluzinationen‘ zu vermeiden.“ KI-Modelle haben oft Schwierigkeiten mit mehrstufigen, technischen Problemen, bei denen kleine Fehler sich zu großen Ungenauigkeiten aufsummieren – ein wachsendes Problem bei neueren Systemen, so Hardy. Und da die ursprünglichen Trainingsdaten zur Neige gehen, greifen die Modelle nun auf neue, oft qualitativ schlechtere Quellen zurück. Werden alle Daten als gleichwertig behandelt, verschlimmere dies das Problem und erschwere es, KI-Halluzinationen aufzuspüren und zu korrigieren, betont der Hitachi-Vantara-Mann. Eine große Herausforderung stellen ihm zufolge uneinheitliche Standards für die Datenqualität dar: Während bei einigen Systemen die Kosten im Vordergrund stünden, erkennen andere, dass eine strenge Qualitätskontrolle der Schlüssel ist, um Fehler und Halluzinationen langfristig zu reduzieren. Ein beunruhigender Trend: Neuere Tests haben gezeigt, dass Halluzinationen in KI-Systemen zunehmen – mit Werten von bis zu 79 Prozent, wie die New York Times berichtet. Tatsächlich meldete die Artificial Intelligence Commission (AIC) – eine Organisation mit Sitz in Washington, DC, zur Förderung verantwortungsvoller KI-Entwicklung – kürzlich, dass KI-Halluzinationen nicht ab-, sondern zunehmen. „Der Anstieg der Halluzinationen bei den Denkmodellen könnte sehr wohl auf ein Überdenken‘ der KI zurückzuführen sein“, merkt Brandon Purcell, Vizepräsident und Hauptanalyst bei Forrester Research, an. Daten von Forrester bestätigen das schwindende Vertrauen in KI: Mehr als die Hälfte der Führungskräfte in Unternehmen macht sich Sorgen über generative KI, was die Einführung verlangsamt und ihren Nutzen einschränkt, so das Forschungsunternehmen. Um diese Vertrauenslücke zu schließen, sollten Unternehmen laut Purcell auf Transparenz, erklärbare und nachvollziehbare KI sowie Echtzeitüberwachung setzen. Halluzinationen seien „ein Merkmal großer Sprachmodelle, kein Fehler“, so Purcell. “Wir wissen zwar nicht genau, wie LLMs funktionieren, aber wahrscheinlich sind die Trainingsdaten selbst nicht im Modell gespeichert“, führt der Analyst aus. „Das Modell bildet lediglich statistische Muster der Trainingsdaten ab”, so Purcell. „Wenn Sie Halluzinationen reduzieren wollen, müssen Sie ein Modell auf einen korrekten und aktuellen kanonischen Datensatz gründen, indem Sie Retrieval Augmented Generierung (RAG) oder eine andere Technik verwenden, die die Antwort aus einer Quelle findet, die außerhalb des Modells liegt.“ Das Problem ist, dass große Sprachmodelle mehrstufige Prozesse durchlaufen, so dass kleine frühe Fehler zu Halluzinationen führen können. Werden Fragen wiederholt, können die Halluzinationen noch schlimmer und bizarrer werden. LLMs, so erklärt Purcell, eignen sich am besten für logisches Denken, während kleinere Modelle (Small Language Models, SLMs) besser für faktenbasierte Fragen und Antworten geeignet sind. SLMs als Retter in der Not Im Jahr 2025 werden kleine Sprachmodelle voraussichtlich ihren Durchbruch erleben, da Unternehmen sie zunehmend einsetzen, um spezifische Aufgaben zu lösen, ohne Rechenzentren mit übermäßiger Datenverarbeitung und Stromverbrauch zu belasten. Laut einem Bericht von Forrester könnte die Integration von SLMs im kommenden Jahr um bis zu 60 Prozent steigen. Dies deckt sich mit den Ergebnissen einer in Auftrag des KI-Startups Hyperscience vorgenommenen Umfrage unter mehr als 500 Nutzern. So glauben drei von vier IT-Entscheidern (75 Prozent), dass SLMs großen Sprachmodellen (LLMs) in Bezug auf Geschwindigkeit, Kosten, Genauigkeit und Return on Investment (ROI) überlegen sind. „Erschreckenderweise geben drei von fünf Entscheidungsträgern an, dass ihr mangelndes Verständnis der eigenen Daten sie daran hindert, das Potenzial von GenAI voll auszuschöpfen“, führt Andrew Joiner, CEO von Hyperscience, aus. „Das wahre Potenzial liegt in der Einführung maßgeschneiderter SLMs, die die Dokumentenverarbeitung verändern und die betriebliche Effizienz steigern können.“ Purcell von Forrester empfiehlt Unternehmen außerdem, die KI vor, während und nach der Einführung „gründlich zu testen“ – mit Menschen oder KI für Red Teaming. Hochsensible Systeme, wie beispielsweise medizinische KI, sollten zunächst in Simulationen validiert werden, ähnlich wie „autonome Fahrzeuge getestet werden“, erklärte er. (mb)
Vertrauen Sie KI? Die Hälfte der Nutzer tut es nicht Eine kürzlich durchgeführte weltweite Studie von KPMG und der Universität Melbourne ergab, dass die Hälfte der Befragten der KI nicht zutraut, ihnen genaue Antworten zu geben. Grundlage war eine Umfrage unter mehr als 48.000 Personen in 47 Ländern. 54 Prozent von ihnen sind „misstrauisch“, insbesondere was die Sicherheit und die gesellschaftlichen Auswirkungen von KI betrifft. Trotz gemischter Gefühle betrachten 72 Prozent die KI als nützliches technisches Werkzeug. Allerdings sind Vertrauen und Akzeptanz in Industrieländern niedriger (39 Prozent Vertrauen, 65 Prozent Akzeptanz) als in Schwellenländern (57 Prozent Vertrauen, 84 Prozent Akzeptanz). Ein Teil des Unbehagens rührt offenbar vom fehlenden Wissen. Nur 39 Prozent der Umfrageteilnehmer hatten irgendeine Form von KI-Training, sei es am Arbeitsplatz, in der Schule oder unabhängig davon. Gleichzeitig gibt fast die Hälfte der Befragten (48 Prozent) an, dass sie nur wenig über KI weiß oder versteht. Umfrageteilnehmer, die eine KI-Schulung absolviert haben, sehen deutlich mehr Effizienz (76 Prozent gegenüber 56 Prozent) und Umsatzsteigerungen (55 Prozent gegenüber 34 Prozent). Führungskräfte profitieren in beiden Bereichen stärker als andere Rollen. Weitere Ergebnisse der Studie: Regulierung 70 Prozent befürworten eine KI-Regulierung, und nur 43 Prozent halten die derzeitigen Gesetze für ausreichend. 76 Prozent wünschen sich eine internationale Regulierung, 69 Prozent eine nationale und 71 Prozent befürworten eine Co-Regulierung durch die Industrie, die Regierung und andere Regulierungsbehörden. 88 Prozent sind der Meinung, dass Gesetze notwendig sind, um KI-gesteuerte Fehlinformationen zu bekämpfen. Arbeitswelt 58 Prozent der Mitarbeiter nutzen regelmäßig KI, meist kostenlose generative KI-Tools (GenAI). Mehr als die Hälfte der Befragten berichten von Leistungssteigerungen, aber viele sehen auch negative Effekte auf Arbeitsbelastung, Teamarbeit und Compliance. Mangelnde Kontrolle und Missbrauch sind weit verbreitet, wobei die Governance und die Schulung hinter der Einführung zurückbleiben. Bildungswesen 83 Prozent der Studierenden nutzen KI zur Effizienzsteigerung und Stressreduzierung. Missbrauch ist weit verbreitet und gibt Anlass zur Sorge über zu viel Vertrauen und Fairness. Nur rund die Hälfte gibt an, dass ihre Bildungseinrichtungen angemessene Richtlinien oder Schulungen für den verantwortungsvollen Einsatz von KI anbieten. Die Ergebnisse decken sich weitgehend mit den Resultaten einer im letzten Jahr veröffentlichte Studie von Hitachi Vantara. Auch dort wurde eine „kritische“ KI-Vertrauenslücke festgestellt: Nur 36 Prozent der IT-Leiter vertrauen regelmäßig auf KI-Ergebnisse, nur 38 Prozent der Unternehmen verbessern aktiv die Qualität ihrer Trainingsdaten. Für dieses Misstrauen gibt es gute Gründe: KI-Systeme machen Fehler und halluzinieren. Halluzinationen werden schlimmer Jason Hardy, CTO bei Hitachi Vantara, nennt die Vertrauenslücke das „KI-Paradox“: „Je leistungsfähiger KI wird, desto unzuverlässiger kann sie sein“, warnt er. Ohne hochwertige Trainingsdaten und Kontrollmechanismen – etwa zur Verifizierung der Ergebnisse – würden KI-Systeme zunehmend ungenaue Resultate liefern. „Um die zunehmende Verbreitung von KI-Halluzinationen zu verstehen, muss man in der Lage sein, das Verhalten des Systems bis zu den ursprünglichen Trainingsdaten zurückzuverfolgen“, erklärt Hardy gegenüber Computerworld. „Datenqualität und Kontext sind entscheidend, um einen ‚Domino-Effekt bei den Halluzinationen‘ zu vermeiden.“ KI-Modelle haben oft Schwierigkeiten mit mehrstufigen, technischen Problemen, bei denen kleine Fehler sich zu großen Ungenauigkeiten aufsummieren – ein wachsendes Problem bei neueren Systemen, so Hardy. Und da die ursprünglichen Trainingsdaten zur Neige gehen, greifen die Modelle nun auf neue, oft qualitativ schlechtere Quellen zurück. Werden alle Daten als gleichwertig behandelt, verschlimmere dies das Problem und erschwere es, KI-Halluzinationen aufzuspüren und zu korrigieren, betont der Hitachi-Vantara-Mann. Eine große Herausforderung stellen ihm zufolge uneinheitliche Standards für die Datenqualität dar: Während bei einigen Systemen die Kosten im Vordergrund stünden, erkennen andere, dass eine strenge Qualitätskontrolle der Schlüssel ist, um Fehler und Halluzinationen langfristig zu reduzieren. Ein beunruhigender Trend: Neuere Tests haben gezeigt, dass Halluzinationen in KI-Systemen zunehmen – mit Werten von bis zu 79 Prozent, wie die New York Times berichtet. Tatsächlich meldete die Artificial Intelligence Commission (AIC) – eine Organisation mit Sitz in Washington, DC, zur Förderung verantwortungsvoller KI-Entwicklung – kürzlich, dass KI-Halluzinationen nicht ab-, sondern zunehmen. „Der Anstieg der Halluzinationen bei den Denkmodellen könnte sehr wohl auf ein Überdenken‘ der KI zurückzuführen sein“, merkt Brandon Purcell, Vizepräsident und Hauptanalyst bei Forrester Research, an. Daten von Forrester bestätigen das schwindende Vertrauen in KI: Mehr als die Hälfte der Führungskräfte in Unternehmen macht sich Sorgen über generative KI, was die Einführung verlangsamt und ihren Nutzen einschränkt, so das Forschungsunternehmen. Um diese Vertrauenslücke zu schließen, sollten Unternehmen laut Purcell auf Transparenz, erklärbare und nachvollziehbare KI sowie Echtzeitüberwachung setzen. Halluzinationen seien „ein Merkmal großer Sprachmodelle, kein Fehler“, so Purcell. “Wir wissen zwar nicht genau, wie LLMs funktionieren, aber wahrscheinlich sind die Trainingsdaten selbst nicht im Modell gespeichert“, führt der Analyst aus. „Das Modell bildet lediglich statistische Muster der Trainingsdaten ab”, so Purcell. „Wenn Sie Halluzinationen reduzieren wollen, müssen Sie ein Modell auf einen korrekten und aktuellen kanonischen Datensatz gründen, indem Sie Retrieval Augmented Generierung (RAG) oder eine andere Technik verwenden, die die Antwort aus einer Quelle findet, die außerhalb des Modells liegt.“ Das Problem ist, dass große Sprachmodelle mehrstufige Prozesse durchlaufen, so dass kleine frühe Fehler zu Halluzinationen führen können. Werden Fragen wiederholt, können die Halluzinationen noch schlimmer und bizarrer werden. LLMs, so erklärt Purcell, eignen sich am besten für logisches Denken, während kleinere Modelle (Small Language Models, SLMs) besser für faktenbasierte Fragen und Antworten geeignet sind. SLMs als Retter in der Not Im Jahr 2025 werden kleine Sprachmodelle voraussichtlich ihren Durchbruch erleben, da Unternehmen sie zunehmend einsetzen, um spezifische Aufgaben zu lösen, ohne Rechenzentren mit übermäßiger Datenverarbeitung und Stromverbrauch zu belasten. Laut einem Bericht von Forrester könnte die Integration von SLMs im kommenden Jahr um bis zu 60 Prozent steigen. Dies deckt sich mit den Ergebnissen einer in Auftrag des KI-Startups Hyperscience vorgenommenen Umfrage unter mehr als 500 Nutzern. So glauben drei von vier IT-Entscheidern (75 Prozent), dass SLMs großen Sprachmodellen (LLMs) in Bezug auf Geschwindigkeit, Kosten, Genauigkeit und Return on Investment (ROI) überlegen sind. „Erschreckenderweise geben drei von fünf Entscheidungsträgern an, dass ihr mangelndes Verständnis der eigenen Daten sie daran hindert, das Potenzial von GenAI voll auszuschöpfen“, führt Andrew Joiner, CEO von Hyperscience, aus. „Das wahre Potenzial liegt in der Einführung maßgeschneiderter SLMs, die die Dokumentenverarbeitung verändern und die betriebliche Effizienz steigern können.“ Purcell von Forrester empfiehlt Unternehmen außerdem, die KI vor, während und nach der Einführung „gründlich zu testen“ – mit Menschen oder KI für Red Teaming. Hochsensible Systeme, wie beispielsweise medizinische KI, sollten zunächst in Simulationen validiert werden, ähnlich wie „autonome Fahrzeuge getestet werden“, erklärte er. (mb)