Computerhaus Quickborn

So bleibt Ihr Code halluzinationsfrei​

srcset="https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?quality=50&strip=all 4493w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w" width="1024" height="576" sizes="(max-width: 1024px) 100vw, 1024px">Kann KI ungehindert halluzinieren, droht (nicht nur) Softwareentwicklern ein Horrortrip.svtdesign | shutterstock.com Schon seit jeher wird generative künstliche Intelligenz (Generative AI; GenAI) von einem Halluzinationsproblem geplagt. Was mit achtfingerigen Händen und Klebstoff-haltigen Pizzagrundlagen begann, setzt sich inzwischen längst im Entwicklerumfeld fort, mit potenziell verheerenden Folgen. Weil Code-Assistenten auf KI-Basis inzwischen immer häufiger zum Einsatz kommen, ist es für Developer essenziell, zu wissen, wie sie ihren Code frei von KI-Halluzinationen halten. Dieser Artikel gibt Ihnen deshalb einige Tipps an die Hand, um: KI-Halluzinationen bestmöglich von vorneherein zu verhindern, und bereits im Code existierende aufzuspüren.    Halluzinationen verhindern Folgende Vorsichtsmaßnahmen können dazu beitragen, Halluzinations-Probleme in KI-generiertem Code zu reduzieren. 1. Klare Prompts schreiben Die Weisheit „Garbage in, Garbage out“ ist so alt wie die Informatik selbst – und gilt auch für Large Language Models (LLMs). Ganz besonders, wenn Sie dabei Code durch Prompts generieren – statt etwa mit einem Autocomplete-Assistant. Andrew Sellers, Head of Technology Strategy bei Confluent, empfiehlt an dieser Stelle: „Stellen Sie Fragen mit begrenztem Umfang und überprüfen Sie die Ergebnisse besonders kritisch. Die Nutzungsdaten der KI-Coding-Tools deuten darauf hin, dass die resultierenden Outputs bei solchen Fragen tendenziell akkurater sind. Kleinere Codeblöcke zu untersuchen, dürfte den meisten Entwicklern zudem erleichtern, Fehler zu erkennen.“ 2. Quellen überprüfen Große Sprachmodelle sind unter anderem berüchtigt für ihre Zitat-, respektive Referenz-Halluzinationen im Rahmen von Schulaufsätzen oder Gerichtsprozessen. Inzwischen haben Code-spezifische Tools jedoch Fortschritte gemacht, um so etwas zu verhindern, wie Monojit Banerjee, AI Platform Lead bei Salesforce, betont: „Viele Modelle unterstützen inzwischen Zitierfunktionen. Um Halluzinationen zu minimieren, sollten Entwickler diese Features entsprechend nutzen und die KI beispielsweise nach API-Referenzen fragen.“ 3. Software aktuell halten Die meisten Chatbots tun sich schwer damit, das Fußball-Ergebnis von gestern Abend richtig wiederzukäuen. Die gleichen Limitationen kommen zum Zug, wenn es darum geht, mit Software-Tools und den zugehörigen Updates Schritt halten.    „Ob ein Tool halluziniert oder verzerrte Ergebnisse liefert, lässt sich unter anderem anhand seiner Wissensgrenzen vorhersagen“, konstatiert Stoyan Mitov, CEO des Entwicklungsspezialisten Dreamix, und fügt hinzu: “Wenn Sie die neuesten Bibliotheken oder Frameworks nutzen möchten, das Tool diese aber nicht kennt, steigt die Wahrscheinlichkeit für fehlerhafte Outputs.“ 4. Modelle richtig trainieren Laut Travis Rehl, CTO beim AWS-Spezialisten Innovative Solutions, funktionieren GenAI-Tools nur dann gut, wenn sie entsprechenden Kontext erhalten: „Sie müssen das LLM anweisen, bestimmte Muster einzuhalten oder konsistente Methoden zu nutzen. Ansonsten können sich subtile Halluzinationen in Form von Anti-Patterns in den Code einschleichen“, warnt der Technologieentscheider.   Ein Konzept, das Abhilfe schafft, ist Retrieval Augmented Generation (RAG), wie Dreamix-CEO Mitov erklärt: „RAG ist eine der effektivsten Grounding-Methoden. Es verbessert die LLM-Outputs, indem es sie mit Daten aus externen Quellen, internen Codebasen oder API-Referenzen in Echtzeit vergleicht.“ Glücklicherweise haben inzwischen diverse KI-Coding-Assistenten bereits RAG-Funktionen an Bord. Halluzinationen aufspüren Trotz dieser Vorsichtsmaßnahmen können Halluzinationen „durchrutschen“. Die gute Nachricht: Im Code sind diese oft leichter zu erkennen als in Applikationen. Schließlich ist dieser ausführbar und kann damit auch getestet werden. 1. KI-Code mit KI evaluieren Es mag seltsam klingen, aber KI-Assistenten eignen sich tatsächlich sehr gut, um KI-generierten Code auf Halluzinationen zu untersuchen. Daniel Lynch, CEO beim Marketingunternehmen Empathy First Media, schlägt dazu beispielsweise vor: „Schreiben Sie eine Begleitdokumentation für den Code, damit die KI diesen in einer neuen Instanz evaluieren kann – und ermittelt, ob es den Anforderungen der angepeilten Use Cases entspricht.“ 2. Menschliche Steuerung beibehalten Menschliche Expertise ist in den Augen vieler IT- und Entwicklungsprofis die letzte Verteidigungslinie gegen KI-Halluzinationen. Auch Mithilesh Ramaswamy, Senior Engineer bei Microsoft, sieht es als erfolgskritisch an, dass menschliche Developer die Zügel in der Hand behalten: „KI sollte als Leitfaden dienen – nicht als Quelle der Wahrheit. Entsprechend sollten Sie KI-generierten Code als Vorschlag betrachten und nicht als Ersatz für menschliche Expertise.“ Das sollte sich jedoch nicht nur auf die Programmierarbeit beziehen, sondern auch auf den Code selbst, wie CTO Rehl nahelegt: „Wenn Sie mit einer Codebasis nicht vertraut sind, kann es schwierig sein, Halluzinationen auf die Schliche zu kommen.“ Dagegen helfe in erster Linie eine enge Hands-On-Beziehung mit dem eigenen Code, konstatiert der Technologieentscheider. 3. Code testen Glücklicherweise können auch Tools und Techniken KI-Halluzinationen erkennen, die in den meisten Unternehmen bereits zum Einsatz kommen – um menschliche Fehler zu identifizieren. „Entwicklungsteams sollten weiterhin Pull Requests und Code Reviews durchführen. So, als ob der Code von Menschen geschrieben worden wäre“, meint Confluent-Experte Sellers. Für Entwickler sei es verlockend, KI-Tools in erster Linie dazu zu nutzen, mehr zu automatisieren und den Continuous-Delivery-Ansatz zu realisieren – das sei zwar löblich, allerdings sei es dabei auch enorm wichtig, entsprechende Qualitätssicherungskontrollen zu priorisieren.     „Man kann gar nicht genug betonen, wie wichtig es ist, während des gesamten Entwicklungszyklus gute Linting-Tools und SAST-Scanner zu nutzen“, hält Brett Smith, Distinguished Software Developer bei SAS, fest. Er fügt hinzu: „IDE-Plugins, CI-Integrationen und Pull-Requests sind das absolute Minimum, um zu verhindern, dass Halluzinationen in die Produktion gelangen.“ Laut Salesforce-Manager Banerjee ist auch eine ausgereifte DevOps-Pipeline unerlässlich, bei der jede Codezeile einem Unit Test unterzogen wird: “Die Pipeline befördert den Code erst dann in die Staging- und Produktionsphase, wenn Tests und Builds bestanden wurden.“ 4. KI-generierten Code hervorheben Um Code besser sichtbar zu machen, der von KI erzeugt wurde, hat Devansh Agarwal, Machine Learning Engineer bei AWS, einen Trick auf Lager: „Nutzen Sie das Code-Review-Interface, um die Teil der Codebasis zu akzentuieren, die KI-generiert sind.“     Das hilft dem ML-Experten zufolge nicht nur dabei, Halluzinationen zu erkennen: „Es ist unter Umständen auch eine großartige Lernmöglichkeit für alle im Team. Manchmal leisten diese Tools nämlich großartige Arbeit, die es sich lohnt nachzuahmen.“ Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

So bleibt Ihr Code halluzinationsfrei​ srcset="https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?quality=50&strip=all 4493w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w" width="1024" height="576" sizes="(max-width: 1024px) 100vw, 1024px">Kann KI ungehindert halluzinieren, droht (nicht nur) Softwareentwicklern ein Horrortrip.svtdesign | shutterstock.com Schon seit jeher wird generative künstliche Intelligenz (Generative AI; GenAI) von einem Halluzinationsproblem geplagt. Was mit achtfingerigen Händen und Klebstoff-haltigen Pizzagrundlagen begann, setzt sich inzwischen längst im Entwicklerumfeld fort, mit potenziell verheerenden Folgen. Weil Code-Assistenten auf KI-Basis inzwischen immer häufiger zum Einsatz kommen, ist es für Developer essenziell, zu wissen, wie sie ihren Code frei von KI-Halluzinationen halten. Dieser Artikel gibt Ihnen deshalb einige Tipps an die Hand, um: KI-Halluzinationen bestmöglich von vorneherein zu verhindern, und bereits im Code existierende aufzuspüren.    Halluzinationen verhindern Folgende Vorsichtsmaßnahmen können dazu beitragen, Halluzinations-Probleme in KI-generiertem Code zu reduzieren. 1. Klare Prompts schreiben Die Weisheit „Garbage in, Garbage out“ ist so alt wie die Informatik selbst – und gilt auch für Large Language Models (LLMs). Ganz besonders, wenn Sie dabei Code durch Prompts generieren – statt etwa mit einem Autocomplete-Assistant. Andrew Sellers, Head of Technology Strategy bei Confluent, empfiehlt an dieser Stelle: „Stellen Sie Fragen mit begrenztem Umfang und überprüfen Sie die Ergebnisse besonders kritisch. Die Nutzungsdaten der KI-Coding-Tools deuten darauf hin, dass die resultierenden Outputs bei solchen Fragen tendenziell akkurater sind. Kleinere Codeblöcke zu untersuchen, dürfte den meisten Entwicklern zudem erleichtern, Fehler zu erkennen.“ 2. Quellen überprüfen Große Sprachmodelle sind unter anderem berüchtigt für ihre Zitat-, respektive Referenz-Halluzinationen im Rahmen von Schulaufsätzen oder Gerichtsprozessen. Inzwischen haben Code-spezifische Tools jedoch Fortschritte gemacht, um so etwas zu verhindern, wie Monojit Banerjee, AI Platform Lead bei Salesforce, betont: „Viele Modelle unterstützen inzwischen Zitierfunktionen. Um Halluzinationen zu minimieren, sollten Entwickler diese Features entsprechend nutzen und die KI beispielsweise nach API-Referenzen fragen.“ 3. Software aktuell halten Die meisten Chatbots tun sich schwer damit, das Fußball-Ergebnis von gestern Abend richtig wiederzukäuen. Die gleichen Limitationen kommen zum Zug, wenn es darum geht, mit Software-Tools und den zugehörigen Updates Schritt halten.    „Ob ein Tool halluziniert oder verzerrte Ergebnisse liefert, lässt sich unter anderem anhand seiner Wissensgrenzen vorhersagen“, konstatiert Stoyan Mitov, CEO des Entwicklungsspezialisten Dreamix, und fügt hinzu: “Wenn Sie die neuesten Bibliotheken oder Frameworks nutzen möchten, das Tool diese aber nicht kennt, steigt die Wahrscheinlichkeit für fehlerhafte Outputs.“ 4. Modelle richtig trainieren Laut Travis Rehl, CTO beim AWS-Spezialisten Innovative Solutions, funktionieren GenAI-Tools nur dann gut, wenn sie entsprechenden Kontext erhalten: „Sie müssen das LLM anweisen, bestimmte Muster einzuhalten oder konsistente Methoden zu nutzen. Ansonsten können sich subtile Halluzinationen in Form von Anti-Patterns in den Code einschleichen“, warnt der Technologieentscheider.   Ein Konzept, das Abhilfe schafft, ist Retrieval Augmented Generation (RAG), wie Dreamix-CEO Mitov erklärt: „RAG ist eine der effektivsten Grounding-Methoden. Es verbessert die LLM-Outputs, indem es sie mit Daten aus externen Quellen, internen Codebasen oder API-Referenzen in Echtzeit vergleicht.“ Glücklicherweise haben inzwischen diverse KI-Coding-Assistenten bereits RAG-Funktionen an Bord. Halluzinationen aufspüren Trotz dieser Vorsichtsmaßnahmen können Halluzinationen „durchrutschen“. Die gute Nachricht: Im Code sind diese oft leichter zu erkennen als in Applikationen. Schließlich ist dieser ausführbar und kann damit auch getestet werden. 1. KI-Code mit KI evaluieren Es mag seltsam klingen, aber KI-Assistenten eignen sich tatsächlich sehr gut, um KI-generierten Code auf Halluzinationen zu untersuchen. Daniel Lynch, CEO beim Marketingunternehmen Empathy First Media, schlägt dazu beispielsweise vor: „Schreiben Sie eine Begleitdokumentation für den Code, damit die KI diesen in einer neuen Instanz evaluieren kann – und ermittelt, ob es den Anforderungen der angepeilten Use Cases entspricht.“ 2. Menschliche Steuerung beibehalten Menschliche Expertise ist in den Augen vieler IT- und Entwicklungsprofis die letzte Verteidigungslinie gegen KI-Halluzinationen. Auch Mithilesh Ramaswamy, Senior Engineer bei Microsoft, sieht es als erfolgskritisch an, dass menschliche Developer die Zügel in der Hand behalten: „KI sollte als Leitfaden dienen – nicht als Quelle der Wahrheit. Entsprechend sollten Sie KI-generierten Code als Vorschlag betrachten und nicht als Ersatz für menschliche Expertise.“ Das sollte sich jedoch nicht nur auf die Programmierarbeit beziehen, sondern auch auf den Code selbst, wie CTO Rehl nahelegt: „Wenn Sie mit einer Codebasis nicht vertraut sind, kann es schwierig sein, Halluzinationen auf die Schliche zu kommen.“ Dagegen helfe in erster Linie eine enge Hands-On-Beziehung mit dem eigenen Code, konstatiert der Technologieentscheider. 3. Code testen Glücklicherweise können auch Tools und Techniken KI-Halluzinationen erkennen, die in den meisten Unternehmen bereits zum Einsatz kommen – um menschliche Fehler zu identifizieren. „Entwicklungsteams sollten weiterhin Pull Requests und Code Reviews durchführen. So, als ob der Code von Menschen geschrieben worden wäre“, meint Confluent-Experte Sellers. Für Entwickler sei es verlockend, KI-Tools in erster Linie dazu zu nutzen, mehr zu automatisieren und den Continuous-Delivery-Ansatz zu realisieren – das sei zwar löblich, allerdings sei es dabei auch enorm wichtig, entsprechende Qualitätssicherungskontrollen zu priorisieren.     „Man kann gar nicht genug betonen, wie wichtig es ist, während des gesamten Entwicklungszyklus gute Linting-Tools und SAST-Scanner zu nutzen“, hält Brett Smith, Distinguished Software Developer bei SAS, fest. Er fügt hinzu: „IDE-Plugins, CI-Integrationen und Pull-Requests sind das absolute Minimum, um zu verhindern, dass Halluzinationen in die Produktion gelangen.“ Laut Salesforce-Manager Banerjee ist auch eine ausgereifte DevOps-Pipeline unerlässlich, bei der jede Codezeile einem Unit Test unterzogen wird: “Die Pipeline befördert den Code erst dann in die Staging- und Produktionsphase, wenn Tests und Builds bestanden wurden.“ 4. KI-generierten Code hervorheben Um Code besser sichtbar zu machen, der von KI erzeugt wurde, hat Devansh Agarwal, Machine Learning Engineer bei AWS, einen Trick auf Lager: „Nutzen Sie das Code-Review-Interface, um die Teil der Codebasis zu akzentuieren, die KI-generiert sind.“     Das hilft dem ML-Experten zufolge nicht nur dabei, Halluzinationen zu erkennen: „Es ist unter Umständen auch eine großartige Lernmöglichkeit für alle im Team. Manchmal leisten diese Tools nämlich großartige Arbeit, die es sich lohnt nachzuahmen.“ Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?quality=50&strip=all 4493w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/svtdesign_shutterstock_2177508991_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Kann KI ungehindert halluzinieren, droht (nicht nur) Softwareentwicklern ein Horrortrip.svtdesign | shutterstock.com Schon seit jeher wird generative künstliche Intelligenz (Generative AI; GenAI) von einem Halluzinationsproblem geplagt. Was mit achtfingerigen Händen und Klebstoff-haltigen Pizzagrundlagen begann, setzt sich inzwischen längst im Entwicklerumfeld fort, mit potenziell verheerenden Folgen. Weil Code-Assistenten auf KI-Basis inzwischen immer häufiger zum Einsatz kommen, ist es für Developer essenziell, zu wissen, wie sie ihren Code frei von KI-Halluzinationen halten. Dieser Artikel gibt Ihnen deshalb einige Tipps an die Hand, um: KI-Halluzinationen bestmöglich von vorneherein zu verhindern, und bereits im Code existierende aufzuspüren.    Halluzinationen verhindern Folgende Vorsichtsmaßnahmen können dazu beitragen, Halluzinations-Probleme in KI-generiertem Code zu reduzieren. 1. Klare Prompts schreiben Die Weisheit „Garbage in, Garbage out“ ist so alt wie die Informatik selbst – und gilt auch für Large Language Models (LLMs). Ganz besonders, wenn Sie dabei Code durch Prompts generieren – statt etwa mit einem Autocomplete-Assistant. Andrew Sellers, Head of Technology Strategy bei Confluent, empfiehlt an dieser Stelle: „Stellen Sie Fragen mit begrenztem Umfang und überprüfen Sie die Ergebnisse besonders kritisch. Die Nutzungsdaten der KI-Coding-Tools deuten darauf hin, dass die resultierenden Outputs bei solchen Fragen tendenziell akkurater sind. Kleinere Codeblöcke zu untersuchen, dürfte den meisten Entwicklern zudem erleichtern, Fehler zu erkennen.“ 2. Quellen überprüfen Große Sprachmodelle sind unter anderem berüchtigt für ihre Zitat-, respektive Referenz-Halluzinationen im Rahmen von Schulaufsätzen oder Gerichtsprozessen. Inzwischen haben Code-spezifische Tools jedoch Fortschritte gemacht, um so etwas zu verhindern, wie Monojit Banerjee, AI Platform Lead bei Salesforce, betont: „Viele Modelle unterstützen inzwischen Zitierfunktionen. Um Halluzinationen zu minimieren, sollten Entwickler diese Features entsprechend nutzen und die KI beispielsweise nach API-Referenzen fragen.“ 3. Software aktuell halten Die meisten Chatbots tun sich schwer damit, das Fußball-Ergebnis von gestern Abend richtig wiederzukäuen. Die gleichen Limitationen kommen zum Zug, wenn es darum geht, mit Software-Tools und den zugehörigen Updates Schritt halten.    „Ob ein Tool halluziniert oder verzerrte Ergebnisse liefert, lässt sich unter anderem anhand seiner Wissensgrenzen vorhersagen“, konstatiert Stoyan Mitov, CEO des Entwicklungsspezialisten Dreamix, und fügt hinzu: “Wenn Sie die neuesten Bibliotheken oder Frameworks nutzen möchten, das Tool diese aber nicht kennt, steigt die Wahrscheinlichkeit für fehlerhafte Outputs.“ 4. Modelle richtig trainieren Laut Travis Rehl, CTO beim AWS-Spezialisten Innovative Solutions, funktionieren GenAI-Tools nur dann gut, wenn sie entsprechenden Kontext erhalten: „Sie müssen das LLM anweisen, bestimmte Muster einzuhalten oder konsistente Methoden zu nutzen. Ansonsten können sich subtile Halluzinationen in Form von Anti-Patterns in den Code einschleichen“, warnt der Technologieentscheider.   Ein Konzept, das Abhilfe schafft, ist Retrieval Augmented Generation (RAG), wie Dreamix-CEO Mitov erklärt: „RAG ist eine der effektivsten Grounding-Methoden. Es verbessert die LLM-Outputs, indem es sie mit Daten aus externen Quellen, internen Codebasen oder API-Referenzen in Echtzeit vergleicht.“ Glücklicherweise haben inzwischen diverse KI-Coding-Assistenten bereits RAG-Funktionen an Bord. Halluzinationen aufspüren Trotz dieser Vorsichtsmaßnahmen können Halluzinationen „durchrutschen“. Die gute Nachricht: Im Code sind diese oft leichter zu erkennen als in Applikationen. Schließlich ist dieser ausführbar und kann damit auch getestet werden. 1. KI-Code mit KI evaluieren Es mag seltsam klingen, aber KI-Assistenten eignen sich tatsächlich sehr gut, um KI-generierten Code auf Halluzinationen zu untersuchen. Daniel Lynch, CEO beim Marketingunternehmen Empathy First Media, schlägt dazu beispielsweise vor: „Schreiben Sie eine Begleitdokumentation für den Code, damit die KI diesen in einer neuen Instanz evaluieren kann – und ermittelt, ob es den Anforderungen der angepeilten Use Cases entspricht.“ 2. Menschliche Steuerung beibehalten Menschliche Expertise ist in den Augen vieler IT- und Entwicklungsprofis die letzte Verteidigungslinie gegen KI-Halluzinationen. Auch Mithilesh Ramaswamy, Senior Engineer bei Microsoft, sieht es als erfolgskritisch an, dass menschliche Developer die Zügel in der Hand behalten: „KI sollte als Leitfaden dienen – nicht als Quelle der Wahrheit. Entsprechend sollten Sie KI-generierten Code als Vorschlag betrachten und nicht als Ersatz für menschliche Expertise.“ Das sollte sich jedoch nicht nur auf die Programmierarbeit beziehen, sondern auch auf den Code selbst, wie CTO Rehl nahelegt: „Wenn Sie mit einer Codebasis nicht vertraut sind, kann es schwierig sein, Halluzinationen auf die Schliche zu kommen.“ Dagegen helfe in erster Linie eine enge Hands-On-Beziehung mit dem eigenen Code, konstatiert der Technologieentscheider. 3. Code testen Glücklicherweise können auch Tools und Techniken KI-Halluzinationen erkennen, die in den meisten Unternehmen bereits zum Einsatz kommen – um menschliche Fehler zu identifizieren. „Entwicklungsteams sollten weiterhin Pull Requests und Code Reviews durchführen. So, als ob der Code von Menschen geschrieben worden wäre“, meint Confluent-Experte Sellers. Für Entwickler sei es verlockend, KI-Tools in erster Linie dazu zu nutzen, mehr zu automatisieren und den Continuous-Delivery-Ansatz zu realisieren – das sei zwar löblich, allerdings sei es dabei auch enorm wichtig, entsprechende Qualitätssicherungskontrollen zu priorisieren.     „Man kann gar nicht genug betonen, wie wichtig es ist, während des gesamten Entwicklungszyklus gute Linting-Tools und SAST-Scanner zu nutzen“, hält Brett Smith, Distinguished Software Developer bei SAS, fest. Er fügt hinzu: „IDE-Plugins, CI-Integrationen und Pull-Requests sind das absolute Minimum, um zu verhindern, dass Halluzinationen in die Produktion gelangen.“ Laut Salesforce-Manager Banerjee ist auch eine ausgereifte DevOps-Pipeline unerlässlich, bei der jede Codezeile einem Unit Test unterzogen wird: “Die Pipeline befördert den Code erst dann in die Staging- und Produktionsphase, wenn Tests und Builds bestanden wurden.“ 4. KI-generierten Code hervorheben Um Code besser sichtbar zu machen, der von KI erzeugt wurde, hat Devansh Agarwal, Machine Learning Engineer bei AWS, einen Trick auf Lager: „Nutzen Sie das Code-Review-Interface, um die Teil der Codebasis zu akzentuieren, die KI-generiert sind.“     Das hilft dem ML-Experten zufolge nicht nur dabei, Halluzinationen zu erkennen: „Es ist unter Umständen auch eine großartige Lernmöglichkeit für alle im Team. Manchmal leisten diese Tools nämlich großartige Arbeit, die es sich lohnt nachzuahmen.“ Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Nach oben scrollen
×