Programmierassistenten auf KI-Basis befeuern die Innovations-Abwärtsspirale.ValentimePix | shutterstock.com Aus Softwareentwicklungs-Perspektive leben wir in seltsamen Zeiten. Einerseits haben innovative KI-Codierungsassistenten den bis vor einiger Zeit eher erstarrten Markt für integrierte Entwicklungsumgebungen (IDEs) aufgemischt. Andererseits könnten diese KI-Tools für Entwickler ironischerweise aber andere Innovationen, beispielsweise im Bereich Software, im Keim ersticken. Denn GenAI-gesteuerte Tools schaffen performante Feedbackschleifen, die vor allem für etablierte Produkte und Technologien förderlich sind. Für kleinere, neue Marktteilnehmer wird es so immer schwieriger, noch einen Fuß in die Tür zu bekommen. KI manifestiert Dass Generative AI im Entwicklerumfeld die Tendenz aufweist, die Quellen seiner eigenen Trainingsdaten zu untergraben, ist mittlerweile hinlänglich bekannt (Stichwort: Stack Overflow). Nicht weniger schlimm: Die Benutzer wissen nicht, ob die Trainingsdaten überhaupt korrekt sind. Schließlich wurden die Large Language Models (LLMs) mit allen möglichen – guten wie schlechten – Daten aus dem öffentlichen Netz trainiert. Ob ein Entwickler, der ein KI-Tool einsetzt also gute Ratschläge erhält, ist mehr oder weniger ein Glücksspiel. Sehr wahrscheinlich gibt es bei jedem großen Sprachmodell Möglichkeiten, einige Datenquellen als zuverlässiger zu bewerten als andere. Wie diese Gewichtung entsteht, ist allerdings völlig intransparent. So ist AWS vermutlich die beste Informationsquelle, wenn es darum geht wie Amazon Aurora funktioniert. Damit ist aber noch längst nicht gewährleistet, dass ein Entwickler der Microsoft Copilot nutzt, bei Fragen zu Aurora auf die AWS-Dokumentation verwiesen wird – statt auf irgendeinen zufällig ausgewählten StackOverflow-Post zum Thema. Und dann wäre noch die unausweichliche, eingangs bereits genannte, Feedback-Schleife. Diese beschreibt GenAI-Experte und AWS-Entwickler Nathan Peck in einem Blogbeitrag folgendermaßen: Entwickler wählen etablierte, populäre Frameworks, weil diese von der KI empfohlen werden. Das führt dazu, dass mehr Code in diesen Frameworks geschrieben wird. Das erzeugt wiederum mehr Trainingsdaten für KI-Modelle. Was letztlich den KI-Bias zugunsten dieser Frameworks noch verstärkt. Und am Ende noch mehr Devs in die Arme etablierter Technologien treibt. Im weiteren Verlauf seines Blogbeitrags beschreibt Peck, wie sich dieses Phänomen auf ihn als JavaScript-Entwickler auswirkt. Die Sprache sei in den vergangenen Jahren eine Brutstätte für Innovation gewesen – es sei jedoch nicht zu erwarten, dass sich das in gleicher Weise fortsetzen wird. Das, so argumentiert der Developer, liege vor allem daran, dass LLMs Entwickler davon abhalten würden, neue Dinge auszuprobieren. Beispielhaft beschreibt Peck etwa die Arbeit mit der neuen Bun-Laufzeitumgebung: „Ich habe selbst miterlebt, wie LLM-basierte Assistenten versucht haben, mich davon abzuhalten, die native Bun-API zu nutzen. Stattdessen sollte ich mit einfachen JavaScript-Implementierungen arbeiten, die eher vor zehn Jahren angesagt waren.“ Mit anderen Worten: Neue, innovative Optionen haben es immer schwerer, überhaupt wahrgenommen zu werden. Das war natürlich immer schon so, nun wird diese Situation allerdings durch datengesteuerte Tools institutionalisiert. Peck zieht mit Blick auf diese Entwicklung einen provokativen Schluss: „Hätte ChatGPT existiert, bevor Kubernetes zum Mainstream wurde, hätte es Letzteres wohl nicht gegeben“, schreibt er und fügt hinzu, dass die LLMs Entwickler stattdessen auf Mesos und andere damals verfügbare Optionen verwiesen hätten. Wie sich dieses, sich zunehmend verschärfende Problem auflösen lässt, ist bislang leider unklar. Schließlich befinden wir uns mit Blick auf KI-Tools im Dev-Umfeld immer noch in einer Phase, in der das Motto lautet „Wow, das ist so cool“. Sicher ist nur: Irgendwann werden wir uns aus der Innovations-Abwärtsspirale, in der wir uns befinden, wieder befreien müssen – oder einen hohen Preis bezahlen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!
Die KI-Abwärtsspirale beschleunigt sich
Programmierassistenten auf KI-Basis befeuern die Innovations-Abwärtsspirale.ValentimePix | shutterstock.com Aus Softwareentwicklungs-Perspektive leben wir in seltsamen Zeiten. Einerseits haben innovative KI-Codierungsassistenten den bis vor einiger Zeit eher erstarrten Markt für integrierte Entwicklungsumgebungen (IDEs) aufgemischt. Andererseits könnten diese KI-Tools für Entwickler ironischerweise aber andere Innovationen, beispielsweise im Bereich Software, im Keim ersticken. Denn GenAI-gesteuerte Tools schaffen performante Feedbackschleifen, die vor allem für etablierte Produkte und Technologien förderlich sind. Für kleinere, neue Marktteilnehmer wird es so immer schwieriger, noch einen Fuß in die Tür zu bekommen. KI manifestiert Dass Generative AI im Entwicklerumfeld die Tendenz aufweist, die Quellen seiner eigenen Trainingsdaten zu untergraben, ist mittlerweile hinlänglich bekannt (Stichwort: Stack Overflow). Nicht weniger schlimm: Die Benutzer wissen nicht, ob die Trainingsdaten überhaupt korrekt sind. Schließlich wurden die Large Language Models (LLMs) mit allen möglichen – guten wie schlechten – Daten aus dem öffentlichen Netz trainiert. Ob ein Entwickler, der ein KI-Tool einsetzt also gute Ratschläge erhält, ist mehr oder weniger ein Glücksspiel. Sehr wahrscheinlich gibt es bei jedem großen Sprachmodell Möglichkeiten, einige Datenquellen als zuverlässiger zu bewerten als andere. Wie diese Gewichtung entsteht, ist allerdings völlig intransparent. So ist AWS vermutlich die beste Informationsquelle, wenn es darum geht wie Amazon Aurora funktioniert. Damit ist aber noch längst nicht gewährleistet, dass ein Entwickler der Microsoft Copilot nutzt, bei Fragen zu Aurora auf die AWS-Dokumentation verwiesen wird – statt auf irgendeinen zufällig ausgewählten StackOverflow-Post zum Thema. Und dann wäre noch die unausweichliche, eingangs bereits genannte, Feedback-Schleife. Diese beschreibt GenAI-Experte und AWS-Entwickler Nathan Peck in einem Blogbeitrag folgendermaßen: Entwickler wählen etablierte, populäre Frameworks, weil diese von der KI empfohlen werden. Das führt dazu, dass mehr Code in diesen Frameworks geschrieben wird. Das erzeugt wiederum mehr Trainingsdaten für KI-Modelle. Was letztlich den KI-Bias zugunsten dieser Frameworks noch verstärkt. Und am Ende noch mehr Devs in die Arme etablierter Technologien treibt. Im weiteren Verlauf seines Blogbeitrags beschreibt Peck, wie sich dieses Phänomen auf ihn als JavaScript-Entwickler auswirkt. Die Sprache sei in den vergangenen Jahren eine Brutstätte für Innovation gewesen – es sei jedoch nicht zu erwarten, dass sich das in gleicher Weise fortsetzen wird. Das, so argumentiert der Developer, liege vor allem daran, dass LLMs Entwickler davon abhalten würden, neue Dinge auszuprobieren. Beispielhaft beschreibt Peck etwa die Arbeit mit der neuen Bun-Laufzeitumgebung: „Ich habe selbst miterlebt, wie LLM-basierte Assistenten versucht haben, mich davon abzuhalten, die native Bun-API zu nutzen. Stattdessen sollte ich mit einfachen JavaScript-Implementierungen arbeiten, die eher vor zehn Jahren angesagt waren.“ Mit anderen Worten: Neue, innovative Optionen haben es immer schwerer, überhaupt wahrgenommen zu werden. Das war natürlich immer schon so, nun wird diese Situation allerdings durch datengesteuerte Tools institutionalisiert. Peck zieht mit Blick auf diese Entwicklung einen provokativen Schluss: „Hätte ChatGPT existiert, bevor Kubernetes zum Mainstream wurde, hätte es Letzteres wohl nicht gegeben“, schreibt er und fügt hinzu, dass die LLMs Entwickler stattdessen auf Mesos und andere damals verfügbare Optionen verwiesen hätten. Wie sich dieses, sich zunehmend verschärfende Problem auflösen lässt, ist bislang leider unklar. Schließlich befinden wir uns mit Blick auf KI-Tools im Dev-Umfeld immer noch in einer Phase, in der das Motto lautet „Wow, das ist so cool“. Sicher ist nur: Irgendwann werden wir uns aus der Innovations-Abwärtsspirale, in der wir uns befinden, wieder befreien müssen – oder einen hohen Preis bezahlen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!
Die KI-Abwärtsspirale beschleunigt sich Programmierassistenten auf KI-Basis befeuern die Innovations-Abwärtsspirale.ValentimePix | shutterstock.com Aus Softwareentwicklungs-Perspektive leben wir in seltsamen Zeiten. Einerseits haben innovative KI-Codierungsassistenten den bis vor einiger Zeit eher erstarrten Markt für integrierte Entwicklungsumgebungen (IDEs) aufgemischt. Andererseits könnten diese KI-Tools für Entwickler ironischerweise aber andere Innovationen, beispielsweise im Bereich Software, im Keim ersticken. Denn GenAI-gesteuerte Tools schaffen performante Feedbackschleifen, die vor allem für etablierte Produkte und Technologien förderlich sind. Für kleinere, neue Marktteilnehmer wird es so immer schwieriger, noch einen Fuß in die Tür zu bekommen. KI manifestiert Dass Generative AI im Entwicklerumfeld die Tendenz aufweist, die Quellen seiner eigenen Trainingsdaten zu untergraben, ist mittlerweile hinlänglich bekannt (Stichwort: Stack Overflow). Nicht weniger schlimm: Die Benutzer wissen nicht, ob die Trainingsdaten überhaupt korrekt sind. Schließlich wurden die Large Language Models (LLMs) mit allen möglichen – guten wie schlechten – Daten aus dem öffentlichen Netz trainiert. Ob ein Entwickler, der ein KI-Tool einsetzt also gute Ratschläge erhält, ist mehr oder weniger ein Glücksspiel. Sehr wahrscheinlich gibt es bei jedem großen Sprachmodell Möglichkeiten, einige Datenquellen als zuverlässiger zu bewerten als andere. Wie diese Gewichtung entsteht, ist allerdings völlig intransparent. So ist AWS vermutlich die beste Informationsquelle, wenn es darum geht wie Amazon Aurora funktioniert. Damit ist aber noch längst nicht gewährleistet, dass ein Entwickler der Microsoft Copilot nutzt, bei Fragen zu Aurora auf die AWS-Dokumentation verwiesen wird – statt auf irgendeinen zufällig ausgewählten StackOverflow-Post zum Thema. Und dann wäre noch die unausweichliche, eingangs bereits genannte, Feedback-Schleife. Diese beschreibt GenAI-Experte und AWS-Entwickler Nathan Peck in einem Blogbeitrag folgendermaßen: Entwickler wählen etablierte, populäre Frameworks, weil diese von der KI empfohlen werden. Das führt dazu, dass mehr Code in diesen Frameworks geschrieben wird. Das erzeugt wiederum mehr Trainingsdaten für KI-Modelle. Was letztlich den KI-Bias zugunsten dieser Frameworks noch verstärkt. Und am Ende noch mehr Devs in die Arme etablierter Technologien treibt. Im weiteren Verlauf seines Blogbeitrags beschreibt Peck, wie sich dieses Phänomen auf ihn als JavaScript-Entwickler auswirkt. Die Sprache sei in den vergangenen Jahren eine Brutstätte für Innovation gewesen – es sei jedoch nicht zu erwarten, dass sich das in gleicher Weise fortsetzen wird. Das, so argumentiert der Developer, liege vor allem daran, dass LLMs Entwickler davon abhalten würden, neue Dinge auszuprobieren. Beispielhaft beschreibt Peck etwa die Arbeit mit der neuen Bun-Laufzeitumgebung: „Ich habe selbst miterlebt, wie LLM-basierte Assistenten versucht haben, mich davon abzuhalten, die native Bun-API zu nutzen. Stattdessen sollte ich mit einfachen JavaScript-Implementierungen arbeiten, die eher vor zehn Jahren angesagt waren.“ Mit anderen Worten: Neue, innovative Optionen haben es immer schwerer, überhaupt wahrgenommen zu werden. Das war natürlich immer schon so, nun wird diese Situation allerdings durch datengesteuerte Tools institutionalisiert. Peck zieht mit Blick auf diese Entwicklung einen provokativen Schluss: „Hätte ChatGPT existiert, bevor Kubernetes zum Mainstream wurde, hätte es Letzteres wohl nicht gegeben“, schreibt er und fügt hinzu, dass die LLMs Entwickler stattdessen auf Mesos und andere damals verfügbare Optionen verwiesen hätten. Wie sich dieses, sich zunehmend verschärfende Problem auflösen lässt, ist bislang leider unklar. Schließlich befinden wir uns mit Blick auf KI-Tools im Dev-Umfeld immer noch in einer Phase, in der das Motto lautet „Wow, das ist so cool“. Sicher ist nur: Irgendwann werden wir uns aus der Innovations-Abwärtsspirale, in der wir uns befinden, wieder befreien müssen – oder einen hohen Preis bezahlen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!