Computerhaus Quickborn

Was kommt nach Stack Overflow?​

Wie sieht die KI-getriebene Dev-Zukunft aus?Collagery | shutterstock.com Mehr als ein Jahrzehnt war Stack Overflow die erste Anlaufstelle für Entwickler die mit fachlichen Problemstellungen, beziehungsweise Fragen konfrontiert waren. Zu seiner Blütezeit Anfang der 2010er Jahre wurden auf dem Dev-Portal monatlich mehr als 200.000 neue Fragen gestellt. Dann kam Generative AI, respektive ChatGPT, und damit ein drastischer Einbruch: Von März 2023 bis März 2024 sank die Zahl der gestellten Fragen auf Stack Overflow um 32 Prozent. Bis Ende 2024 steigerte sich dieses Minus auf 40 Prozent (im Vergleich zum Vorjahr). Inzwischen ist die Plattform auf einem Nutzungsniveau, das zuletzt 2009 erreicht wurde. Über das mit dieser Entwicklung verbundene Kannibalisierungsproblem habe ich bereits ausführlich geschrieben. Die eigentlich drängende Frage ist aber, wie die Zukunft aussehen soll: Auf welchen Daten werden KI-Modelle künftig trainiert, wenn Plattformen wie Stack Overflow endgültig verschwunden sind? Und vor allem: Wie lässt sich gewährleisten, dass die Outputs, die KI-Tools liefern, korrekt und zuverlässig sind? LLMs – die neuen Community-Plattformen? Jede gut erklärte Antwort, jede diskutierte Best Practice und jeder hochbewertete Code-Schnipsel in Foren wie Stack Overflow ist zum Futter für die KI-Mühle geworden. In einem sehr realen Sinn bilden die Daten, die aus solchen Community-Q&A-Plattformen fließen, das Fundament, auf dem zukünftige Iterationen von LLMs aufgebaut sind. Wenn Entwickler keine Fragen mehr auf Stack Overflow stellen (und beantworten), birgt das ab einem gewissen Punkt die Gefahr, dass die KI-Modelle in sich zusammenfallen und nur noch ihre eigenen Outputs recyclen, statt neue, (von Menschen) validierte Erkenntnisse aufzunehmen. Schrumpfende Trainingsdatensätze könnten außerdem dazu führen, dass die Genauigkeit und die Innovationskraft von KI-generierten Lösungen ganz allgemein sinkt. Davon abgesehen, werden Entwickler auch in Zukunft Unterstützung bei spezifischen Fragestellungen und Problemen benötigen. Die Lücke, die entsteht, wenn Q&A-Plattformen wie Stack Overflow wegfallen, dürfte nur schwer zu füllen sein. Allerdings zeichnet sich bereits ab, dass LLMs diese Rolle zukommen wird. Zumindest sind ChatGPT & Co. kurzfristig für viele Devs zur neuen, ersten Anlaufstelle geworden. Möglicherweise werden wir bald offizielle “Stack Overflow GPT”-Bots oder domänenspezifische LLMs sehen, die auf kuratiertem Programmierwissen trainiert wurden. Auch das Stack-Overflow-Team selbst experimentiert bereits mit der Technologie – und verweist dabei zur Kontextualisierung auf die Beiträge von Menschen. Dieser hybride Ansatz nutzt die Geschwindigkeit der KI, greift aber weiterhin auf die verifizierten Lösungen zurück, die die Community über Jahre hinweg aufgebaut hat. Davon abgesehen halten KI-Assistenten auch zunehmend in IDEs und Entwicklungsplattformen Einzug, beantworten spontan Fragen und ziehen relevante Code-Beispiele oder Dokumentationen heran. Die größte Herausforderung dabei besteht darin, sicherzustellen, dass die Outputs der Tools auf vertrauenswürdigen Quellen basieren. Das ist meiner Erfahrung nach im Moment vor allem Glückssache: Meistens ist es schwer nachzuvollziehen, woher ein LLM seine Informationen holt. Und selbst wenn die KI ihre Quellen offenlegt, sind darunter oft weniger vertrauenswürdige zu finden, mit denen das Halluzinationsrisiko steigt. Es bleibt zu hoffen, dass künftige LLM-Versionen sich vor allem auf offizielle Dokumente fokussieren oder Wissensdatenbanken direkt zitieren (ähnlich einer KI-gestützten Suchmaschine), damit die Developer entsprechend leichtes Spiel haben, die KI-Outputs zu überprüfen. Tools dieser Art könnten dann sogar KI einsetzen, um Community-Inhalte zu moderieren oder zu optimieren, beispielsweise indem sie anbieten, diese klarer zu formulieren oder zu präzisieren. So könnte KI zu einem allgegenwärtigen Assistenten innerhalb der Community werden – statt diese zu ersetzen. Eventuell können Stack Overflow, Reddit und Co. aber auch ihre Existenz mit angestrebten Datenpartnerschaften sichern. Dahinter steht die Idee, sowohl die Nutzung von Community-Inhalten durch KI-Unternehmen zu kontrollieren als auch einen Teil des Mehrwerts an die Urheber der Inhalte zurückfließen zu lassen. Das könnte künftig neue Anreize für Developer schaffen, weiter Wissen einzubringen. Ich rechne damit, dass keine einzelne Plattform oder Technologie Stack Overflow im herkömmlichen Sinne ersetzen wird. Stattdessen ist damit zu rechnen, dass die Rolle der Plattform auf KI-Assistenten, eine kleinere, aber enger verbundenere Community und offizielle Quellen aufgeteilt wird. Bleibt zu hoffen, dass diese Kombination die Vielfalt menschlichen Diskurses mit der Effizienz von KI vereinen kann. Anpassungstipps für Entwickler Für Softwareentwickler gibt es möglicherweise mit Blick auf KI kein Entrinnen mehr. Das bedeutet allerdings nicht, alles, was ChatGPT ausspuckt, blind zu akzeptieren. Im Gegenteil: Je mehr sich Devs auf KI verlassen, umso skeptischer sollten sie deren Outputs betrachten. Um Qualität und Genauigkeit sicherzustellen, können Entwickler folgendes tun: KI als Ausgangspunkt betrachten und die Technologie unermüdlich auf die Probe stellen. KI-generierte Vorschläge anhand offizieller Dokumentationen oder vertrauenswürdiger Quellen überprüfen. KI-generierte Code-Schnipsel nicht blind verwenden, ohne deren Auswirkungen zu verstehen. Linting-, SAST– und Scanning-Tools nutzen, um KI-generierten Code zu testen. Dieselbe Frage verschiedenen LLMs stellen, um Inkonsistenzen aufzudecken. Nutzen Sie davon abgesehen auch den Vorteil, keine Rücksicht auf die “Gefühle” von KI nehmen zu müssen: Teilen Sie es dem LLM ganz unverblümt und direkt mit, wenn es etwas falsch macht. Beteiligen Sie sich aktiv an KI-Feedbackschleifen, indem Sie falsche Antworten markieren, Korrekturen vorschlagen oder Quellen anfordern. Dieser “Human in the Loop”-Ansatz ist dazu geeignet, die Tools im Laufe der Zeit zu optimieren. In gewisser Weise repliziert er damit die Stack-Overflow-Erfahrung. Allerdings setzt dieser Ansatz auch voraus, in den Erwerb von Kernwissen zu investieren. Nur so können Sie wissen, wie und wann Sie den KI-Ergebnissen vertrauen können. Kontinuierlich zu lernen und Kompetenzen aufzubauen, bleibt also trotz aller KI-Annehmlichkeiten auch in Zukunft unerlässlich. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Was kommt nach Stack Overflow?​ Wie sieht die KI-getriebene Dev-Zukunft aus?Collagery | shutterstock.com Mehr als ein Jahrzehnt war Stack Overflow die erste Anlaufstelle für Entwickler die mit fachlichen Problemstellungen, beziehungsweise Fragen konfrontiert waren. Zu seiner Blütezeit Anfang der 2010er Jahre wurden auf dem Dev-Portal monatlich mehr als 200.000 neue Fragen gestellt. Dann kam Generative AI, respektive ChatGPT, und damit ein drastischer Einbruch: Von März 2023 bis März 2024 sank die Zahl der gestellten Fragen auf Stack Overflow um 32 Prozent. Bis Ende 2024 steigerte sich dieses Minus auf 40 Prozent (im Vergleich zum Vorjahr). Inzwischen ist die Plattform auf einem Nutzungsniveau, das zuletzt 2009 erreicht wurde. Über das mit dieser Entwicklung verbundene Kannibalisierungsproblem habe ich bereits ausführlich geschrieben. Die eigentlich drängende Frage ist aber, wie die Zukunft aussehen soll: Auf welchen Daten werden KI-Modelle künftig trainiert, wenn Plattformen wie Stack Overflow endgültig verschwunden sind? Und vor allem: Wie lässt sich gewährleisten, dass die Outputs, die KI-Tools liefern, korrekt und zuverlässig sind? LLMs – die neuen Community-Plattformen? Jede gut erklärte Antwort, jede diskutierte Best Practice und jeder hochbewertete Code-Schnipsel in Foren wie Stack Overflow ist zum Futter für die KI-Mühle geworden. In einem sehr realen Sinn bilden die Daten, die aus solchen Community-Q&A-Plattformen fließen, das Fundament, auf dem zukünftige Iterationen von LLMs aufgebaut sind. Wenn Entwickler keine Fragen mehr auf Stack Overflow stellen (und beantworten), birgt das ab einem gewissen Punkt die Gefahr, dass die KI-Modelle in sich zusammenfallen und nur noch ihre eigenen Outputs recyclen, statt neue, (von Menschen) validierte Erkenntnisse aufzunehmen. Schrumpfende Trainingsdatensätze könnten außerdem dazu führen, dass die Genauigkeit und die Innovationskraft von KI-generierten Lösungen ganz allgemein sinkt. Davon abgesehen, werden Entwickler auch in Zukunft Unterstützung bei spezifischen Fragestellungen und Problemen benötigen. Die Lücke, die entsteht, wenn Q&A-Plattformen wie Stack Overflow wegfallen, dürfte nur schwer zu füllen sein. Allerdings zeichnet sich bereits ab, dass LLMs diese Rolle zukommen wird. Zumindest sind ChatGPT & Co. kurzfristig für viele Devs zur neuen, ersten Anlaufstelle geworden. Möglicherweise werden wir bald offizielle “Stack Overflow GPT”-Bots oder domänenspezifische LLMs sehen, die auf kuratiertem Programmierwissen trainiert wurden. Auch das Stack-Overflow-Team selbst experimentiert bereits mit der Technologie – und verweist dabei zur Kontextualisierung auf die Beiträge von Menschen. Dieser hybride Ansatz nutzt die Geschwindigkeit der KI, greift aber weiterhin auf die verifizierten Lösungen zurück, die die Community über Jahre hinweg aufgebaut hat. Davon abgesehen halten KI-Assistenten auch zunehmend in IDEs und Entwicklungsplattformen Einzug, beantworten spontan Fragen und ziehen relevante Code-Beispiele oder Dokumentationen heran. Die größte Herausforderung dabei besteht darin, sicherzustellen, dass die Outputs der Tools auf vertrauenswürdigen Quellen basieren. Das ist meiner Erfahrung nach im Moment vor allem Glückssache: Meistens ist es schwer nachzuvollziehen, woher ein LLM seine Informationen holt. Und selbst wenn die KI ihre Quellen offenlegt, sind darunter oft weniger vertrauenswürdige zu finden, mit denen das Halluzinationsrisiko steigt. Es bleibt zu hoffen, dass künftige LLM-Versionen sich vor allem auf offizielle Dokumente fokussieren oder Wissensdatenbanken direkt zitieren (ähnlich einer KI-gestützten Suchmaschine), damit die Developer entsprechend leichtes Spiel haben, die KI-Outputs zu überprüfen. Tools dieser Art könnten dann sogar KI einsetzen, um Community-Inhalte zu moderieren oder zu optimieren, beispielsweise indem sie anbieten, diese klarer zu formulieren oder zu präzisieren. So könnte KI zu einem allgegenwärtigen Assistenten innerhalb der Community werden – statt diese zu ersetzen. Eventuell können Stack Overflow, Reddit und Co. aber auch ihre Existenz mit angestrebten Datenpartnerschaften sichern. Dahinter steht die Idee, sowohl die Nutzung von Community-Inhalten durch KI-Unternehmen zu kontrollieren als auch einen Teil des Mehrwerts an die Urheber der Inhalte zurückfließen zu lassen. Das könnte künftig neue Anreize für Developer schaffen, weiter Wissen einzubringen. Ich rechne damit, dass keine einzelne Plattform oder Technologie Stack Overflow im herkömmlichen Sinne ersetzen wird. Stattdessen ist damit zu rechnen, dass die Rolle der Plattform auf KI-Assistenten, eine kleinere, aber enger verbundenere Community und offizielle Quellen aufgeteilt wird. Bleibt zu hoffen, dass diese Kombination die Vielfalt menschlichen Diskurses mit der Effizienz von KI vereinen kann. Anpassungstipps für Entwickler Für Softwareentwickler gibt es möglicherweise mit Blick auf KI kein Entrinnen mehr. Das bedeutet allerdings nicht, alles, was ChatGPT ausspuckt, blind zu akzeptieren. Im Gegenteil: Je mehr sich Devs auf KI verlassen, umso skeptischer sollten sie deren Outputs betrachten. Um Qualität und Genauigkeit sicherzustellen, können Entwickler folgendes tun: KI als Ausgangspunkt betrachten und die Technologie unermüdlich auf die Probe stellen. KI-generierte Vorschläge anhand offizieller Dokumentationen oder vertrauenswürdiger Quellen überprüfen. KI-generierte Code-Schnipsel nicht blind verwenden, ohne deren Auswirkungen zu verstehen. Linting-, SAST– und Scanning-Tools nutzen, um KI-generierten Code zu testen. Dieselbe Frage verschiedenen LLMs stellen, um Inkonsistenzen aufzudecken. Nutzen Sie davon abgesehen auch den Vorteil, keine Rücksicht auf die “Gefühle” von KI nehmen zu müssen: Teilen Sie es dem LLM ganz unverblümt und direkt mit, wenn es etwas falsch macht. Beteiligen Sie sich aktiv an KI-Feedbackschleifen, indem Sie falsche Antworten markieren, Korrekturen vorschlagen oder Quellen anfordern. Dieser “Human in the Loop”-Ansatz ist dazu geeignet, die Tools im Laufe der Zeit zu optimieren. In gewisser Weise repliziert er damit die Stack-Overflow-Erfahrung. Allerdings setzt dieser Ansatz auch voraus, in den Erwerb von Kernwissen zu investieren. Nur so können Sie wissen, wie und wann Sie den KI-Ergebnissen vertrauen können. Kontinuierlich zu lernen und Kompetenzen aufzubauen, bleibt also trotz aller KI-Annehmlichkeiten auch in Zukunft unerlässlich. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Wie sieht die KI-getriebene Dev-Zukunft aus?Collagery | shutterstock.com Mehr als ein Jahrzehnt war Stack Overflow die erste Anlaufstelle für Entwickler die mit fachlichen Problemstellungen, beziehungsweise Fragen konfrontiert waren. Zu seiner Blütezeit Anfang der 2010er Jahre wurden auf dem Dev-Portal monatlich mehr als 200.000 neue Fragen gestellt. Dann kam Generative AI, respektive ChatGPT, und damit ein drastischer Einbruch: Von März 2023 bis März 2024 sank die Zahl der gestellten Fragen auf Stack Overflow um 32 Prozent. Bis Ende 2024 steigerte sich dieses Minus auf 40 Prozent (im Vergleich zum Vorjahr). Inzwischen ist die Plattform auf einem Nutzungsniveau, das zuletzt 2009 erreicht wurde. Über das mit dieser Entwicklung verbundene Kannibalisierungsproblem habe ich bereits ausführlich geschrieben. Die eigentlich drängende Frage ist aber, wie die Zukunft aussehen soll: Auf welchen Daten werden KI-Modelle künftig trainiert, wenn Plattformen wie Stack Overflow endgültig verschwunden sind? Und vor allem: Wie lässt sich gewährleisten, dass die Outputs, die KI-Tools liefern, korrekt und zuverlässig sind? LLMs – die neuen Community-Plattformen? Jede gut erklärte Antwort, jede diskutierte Best Practice und jeder hochbewertete Code-Schnipsel in Foren wie Stack Overflow ist zum Futter für die KI-Mühle geworden. In einem sehr realen Sinn bilden die Daten, die aus solchen Community-Q&A-Plattformen fließen, das Fundament, auf dem zukünftige Iterationen von LLMs aufgebaut sind. Wenn Entwickler keine Fragen mehr auf Stack Overflow stellen (und beantworten), birgt das ab einem gewissen Punkt die Gefahr, dass die KI-Modelle in sich zusammenfallen und nur noch ihre eigenen Outputs recyclen, statt neue, (von Menschen) validierte Erkenntnisse aufzunehmen. Schrumpfende Trainingsdatensätze könnten außerdem dazu führen, dass die Genauigkeit und die Innovationskraft von KI-generierten Lösungen ganz allgemein sinkt. Davon abgesehen, werden Entwickler auch in Zukunft Unterstützung bei spezifischen Fragestellungen und Problemen benötigen. Die Lücke, die entsteht, wenn Q&A-Plattformen wie Stack Overflow wegfallen, dürfte nur schwer zu füllen sein. Allerdings zeichnet sich bereits ab, dass LLMs diese Rolle zukommen wird. Zumindest sind ChatGPT & Co. kurzfristig für viele Devs zur neuen, ersten Anlaufstelle geworden. Möglicherweise werden wir bald offizielle “Stack Overflow GPT”-Bots oder domänenspezifische LLMs sehen, die auf kuratiertem Programmierwissen trainiert wurden. Auch das Stack-Overflow-Team selbst experimentiert bereits mit der Technologie – und verweist dabei zur Kontextualisierung auf die Beiträge von Menschen. Dieser hybride Ansatz nutzt die Geschwindigkeit der KI, greift aber weiterhin auf die verifizierten Lösungen zurück, die die Community über Jahre hinweg aufgebaut hat. Davon abgesehen halten KI-Assistenten auch zunehmend in IDEs und Entwicklungsplattformen Einzug, beantworten spontan Fragen und ziehen relevante Code-Beispiele oder Dokumentationen heran. Die größte Herausforderung dabei besteht darin, sicherzustellen, dass die Outputs der Tools auf vertrauenswürdigen Quellen basieren. Das ist meiner Erfahrung nach im Moment vor allem Glückssache: Meistens ist es schwer nachzuvollziehen, woher ein LLM seine Informationen holt. Und selbst wenn die KI ihre Quellen offenlegt, sind darunter oft weniger vertrauenswürdige zu finden, mit denen das Halluzinationsrisiko steigt. Es bleibt zu hoffen, dass künftige LLM-Versionen sich vor allem auf offizielle Dokumente fokussieren oder Wissensdatenbanken direkt zitieren (ähnlich einer KI-gestützten Suchmaschine), damit die Developer entsprechend leichtes Spiel haben, die KI-Outputs zu überprüfen. Tools dieser Art könnten dann sogar KI einsetzen, um Community-Inhalte zu moderieren oder zu optimieren, beispielsweise indem sie anbieten, diese klarer zu formulieren oder zu präzisieren. So könnte KI zu einem allgegenwärtigen Assistenten innerhalb der Community werden – statt diese zu ersetzen. Eventuell können Stack Overflow, Reddit und Co. aber auch ihre Existenz mit angestrebten Datenpartnerschaften sichern. Dahinter steht die Idee, sowohl die Nutzung von Community-Inhalten durch KI-Unternehmen zu kontrollieren als auch einen Teil des Mehrwerts an die Urheber der Inhalte zurückfließen zu lassen. Das könnte künftig neue Anreize für Developer schaffen, weiter Wissen einzubringen. Ich rechne damit, dass keine einzelne Plattform oder Technologie Stack Overflow im herkömmlichen Sinne ersetzen wird. Stattdessen ist damit zu rechnen, dass die Rolle der Plattform auf KI-Assistenten, eine kleinere, aber enger verbundenere Community und offizielle Quellen aufgeteilt wird. Bleibt zu hoffen, dass diese Kombination die Vielfalt menschlichen Diskurses mit der Effizienz von KI vereinen kann. Anpassungstipps für Entwickler Für Softwareentwickler gibt es möglicherweise mit Blick auf KI kein Entrinnen mehr. Das bedeutet allerdings nicht, alles, was ChatGPT ausspuckt, blind zu akzeptieren. Im Gegenteil: Je mehr sich Devs auf KI verlassen, umso skeptischer sollten sie deren Outputs betrachten. Um Qualität und Genauigkeit sicherzustellen, können Entwickler folgendes tun: KI als Ausgangspunkt betrachten und die Technologie unermüdlich auf die Probe stellen. KI-generierte Vorschläge anhand offizieller Dokumentationen oder vertrauenswürdiger Quellen überprüfen. KI-generierte Code-Schnipsel nicht blind verwenden, ohne deren Auswirkungen zu verstehen. Linting-, SAST– und Scanning-Tools nutzen, um KI-generierten Code zu testen. Dieselbe Frage verschiedenen LLMs stellen, um Inkonsistenzen aufzudecken. Nutzen Sie davon abgesehen auch den Vorteil, keine Rücksicht auf die “Gefühle” von KI nehmen zu müssen: Teilen Sie es dem LLM ganz unverblümt und direkt mit, wenn es etwas falsch macht. Beteiligen Sie sich aktiv an KI-Feedbackschleifen, indem Sie falsche Antworten markieren, Korrekturen vorschlagen oder Quellen anfordern. Dieser “Human in the Loop”-Ansatz ist dazu geeignet, die Tools im Laufe der Zeit zu optimieren. In gewisser Weise repliziert er damit die Stack-Overflow-Erfahrung. Allerdings setzt dieser Ansatz auch voraus, in den Erwerb von Kernwissen zu investieren. Nur so können Sie wissen, wie und wann Sie den KI-Ergebnissen vertrauen können. Kontinuierlich zu lernen und Kompetenzen aufzubauen, bleibt also trotz aller KI-Annehmlichkeiten auch in Zukunft unerlässlich. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Nach oben scrollen
×