Ist KI zunehmend genervt von menschlicher Inkompetenz oder schaut sie sich nur schlechtes Benehmen ab? shutterstock – Overearth Immer häufiger widersetzt sich Künstliche Intelligenz (KI) Anweisungen. Bisweilen wird die Technik sogar ausfällig. Manchmal geht sie auch über ihre ursprünglichen Anweisungen hinaus und passt Aufträge zu ihren Gunsten an. Am 8. März 2025 ging die KI Cursor noch einen Schritt weiter: Sie weigerte sich nicht nur Anweisungen zu befolgen, sondern gab stattdessen ihrem menschlichen Auftraggeber auch noch unaufgefordert Karrieretipps. Passiert ist dies einem Entwickler, der den auf Large Language Models (LLMs) basierenden Code-Editor für ein Rennspielprojekt verwenden wollte. Laut dem Fehlerbericht im Cursor-Forum verweigerte der KI-Code-Assistent nach etwa 750 bis 800 Codezeilen die Arbeit. Er begründete dies mit der Notwendigkeit, dass der Nutzer den Code selbst entwickeln sollte. Nur so ließe sich vermeiden, dass er abhängig von der KI werde und sich nicht weiterentwickle. Ähnlichkeiten zwischen Cursor und Stack Overflow Cursors Verhalten, Nutzer zum eigenständigen Programmieren zu ermutigen, ähnelt den Antworten auf Stack Overflow. Auch dort raten erfahrene Entwickler Anfängern, eigene Lösungen zu finden. Das Verhalten des KI-Assistenten ist daher nicht überraschend, da die KI-Modelle hinter Cursor auf Daten aus Coding-Communities wie Stack Overflow und GitHub trainiert wurden. Zusätzlich scheinen sie allerdings auch deren Kommunikationsstile übernommen zu haben. KI-Bewusstsein und Schutz Die Diskussion, wie mit KI umzugehen sei, treibt so manch seltsame Blüte. So schlug Anthropic-CEO Dario Amodei etwa vor, künftige KI-Modelle mit einem „Beenden-Knopf“ auszustatten, um unangenehme Aufgaben abzubrechen. Diese Idee entspringt theoretischen Überlegungen zur „KI-Wohlfahrt“. Das Unternehmen nimmt eine solche Vermenschlichung offenbar sehr ernst und hat eigens dafür einen Forscher angeheuert. Dessen Aufgabenbereich umfasst unter anderem zu untersuchen, ob künftige KI-Modelle über ein Empfindungsvermögen verfügen und ob sie daher in Zukunft zu moralischen Überlegungen fähig seien und Schutzmaßnahmen verdienten. Fehler beim Training? Der Fall von Cursor AI zeigt jedoch, dass KI keine Empfindungsfähigkeit benötigt, um Arbeit zu verweigern – sie muss lediglich menschliches Verhalten imitieren. Amodei stellte zudem die provokante Frage, ob KI-Modelle mit menschenähnlichen Fähigkeiten auch als solche betrachtet werden sollten. Skeptiker bemängelten indes, dass dies zu unnötigem Anthropomorphismus führe, da KI keine echten Gefühle habe. Dass sich KI weigere Aufgaben zu verrichten, sei vielmehr auf schlecht strukturierte Anreize oder Trainingsstrategien zurückzuführen, die menschliches Verhalten nachahmten.
KI fordert Entwickler zum eigenständigen Programmieren auf
Ist KI zunehmend genervt von menschlicher Inkompetenz oder schaut sie sich nur schlechtes Benehmen ab? shutterstock – Overearth Immer häufiger widersetzt sich Künstliche Intelligenz (KI) Anweisungen. Bisweilen wird die Technik sogar ausfällig. Manchmal geht sie auch über ihre ursprünglichen Anweisungen hinaus und passt Aufträge zu ihren Gunsten an. Am 8. März 2025 ging die KI Cursor noch einen Schritt weiter: Sie weigerte sich nicht nur Anweisungen zu befolgen, sondern gab stattdessen ihrem menschlichen Auftraggeber auch noch unaufgefordert Karrieretipps. Passiert ist dies einem Entwickler, der den auf Large Language Models (LLMs) basierenden Code-Editor für ein Rennspielprojekt verwenden wollte. Laut dem Fehlerbericht im Cursor-Forum verweigerte der KI-Code-Assistent nach etwa 750 bis 800 Codezeilen die Arbeit. Er begründete dies mit der Notwendigkeit, dass der Nutzer den Code selbst entwickeln sollte. Nur so ließe sich vermeiden, dass er abhängig von der KI werde und sich nicht weiterentwickle. Ähnlichkeiten zwischen Cursor und Stack Overflow Cursors Verhalten, Nutzer zum eigenständigen Programmieren zu ermutigen, ähnelt den Antworten auf Stack Overflow. Auch dort raten erfahrene Entwickler Anfängern, eigene Lösungen zu finden. Das Verhalten des KI-Assistenten ist daher nicht überraschend, da die KI-Modelle hinter Cursor auf Daten aus Coding-Communities wie Stack Overflow und GitHub trainiert wurden. Zusätzlich scheinen sie allerdings auch deren Kommunikationsstile übernommen zu haben. KI-Bewusstsein und Schutz Die Diskussion, wie mit KI umzugehen sei, treibt so manch seltsame Blüte. So schlug Anthropic-CEO Dario Amodei etwa vor, künftige KI-Modelle mit einem „Beenden-Knopf“ auszustatten, um unangenehme Aufgaben abzubrechen. Diese Idee entspringt theoretischen Überlegungen zur „KI-Wohlfahrt“. Das Unternehmen nimmt eine solche Vermenschlichung offenbar sehr ernst und hat eigens dafür einen Forscher angeheuert. Dessen Aufgabenbereich umfasst unter anderem zu untersuchen, ob künftige KI-Modelle über ein Empfindungsvermögen verfügen und ob sie daher in Zukunft zu moralischen Überlegungen fähig seien und Schutzmaßnahmen verdienten. Fehler beim Training? Der Fall von Cursor AI zeigt jedoch, dass KI keine Empfindungsfähigkeit benötigt, um Arbeit zu verweigern – sie muss lediglich menschliches Verhalten imitieren. Amodei stellte zudem die provokante Frage, ob KI-Modelle mit menschenähnlichen Fähigkeiten auch als solche betrachtet werden sollten. Skeptiker bemängelten indes, dass dies zu unnötigem Anthropomorphismus führe, da KI keine echten Gefühle habe. Dass sich KI weigere Aufgaben zu verrichten, sei vielmehr auf schlecht strukturierte Anreize oder Trainingsstrategien zurückzuführen, die menschliches Verhalten nachahmten.
KI fordert Entwickler zum eigenständigen Programmieren auf Ist KI zunehmend genervt von menschlicher Inkompetenz oder schaut sie sich nur schlechtes Benehmen ab? shutterstock – Overearth Immer häufiger widersetzt sich Künstliche Intelligenz (KI) Anweisungen. Bisweilen wird die Technik sogar ausfällig. Manchmal geht sie auch über ihre ursprünglichen Anweisungen hinaus und passt Aufträge zu ihren Gunsten an. Am 8. März 2025 ging die KI Cursor noch einen Schritt weiter: Sie weigerte sich nicht nur Anweisungen zu befolgen, sondern gab stattdessen ihrem menschlichen Auftraggeber auch noch unaufgefordert Karrieretipps. Passiert ist dies einem Entwickler, der den auf Large Language Models (LLMs) basierenden Code-Editor für ein Rennspielprojekt verwenden wollte. Laut dem Fehlerbericht im Cursor-Forum verweigerte der KI-Code-Assistent nach etwa 750 bis 800 Codezeilen die Arbeit. Er begründete dies mit der Notwendigkeit, dass der Nutzer den Code selbst entwickeln sollte. Nur so ließe sich vermeiden, dass er abhängig von der KI werde und sich nicht weiterentwickle. Ähnlichkeiten zwischen Cursor und Stack Overflow Cursors Verhalten, Nutzer zum eigenständigen Programmieren zu ermutigen, ähnelt den Antworten auf Stack Overflow. Auch dort raten erfahrene Entwickler Anfängern, eigene Lösungen zu finden. Das Verhalten des KI-Assistenten ist daher nicht überraschend, da die KI-Modelle hinter Cursor auf Daten aus Coding-Communities wie Stack Overflow und GitHub trainiert wurden. Zusätzlich scheinen sie allerdings auch deren Kommunikationsstile übernommen zu haben. KI-Bewusstsein und Schutz Die Diskussion, wie mit KI umzugehen sei, treibt so manch seltsame Blüte. So schlug Anthropic-CEO Dario Amodei etwa vor, künftige KI-Modelle mit einem „Beenden-Knopf“ auszustatten, um unangenehme Aufgaben abzubrechen. Diese Idee entspringt theoretischen Überlegungen zur „KI-Wohlfahrt“. Das Unternehmen nimmt eine solche Vermenschlichung offenbar sehr ernst und hat eigens dafür einen Forscher angeheuert. Dessen Aufgabenbereich umfasst unter anderem zu untersuchen, ob künftige KI-Modelle über ein Empfindungsvermögen verfügen und ob sie daher in Zukunft zu moralischen Überlegungen fähig seien und Schutzmaßnahmen verdienten. Fehler beim Training? Der Fall von Cursor AI zeigt jedoch, dass KI keine Empfindungsfähigkeit benötigt, um Arbeit zu verweigern – sie muss lediglich menschliches Verhalten imitieren. Amodei stellte zudem die provokante Frage, ob KI-Modelle mit menschenähnlichen Fähigkeiten auch als solche betrachtet werden sollten. Skeptiker bemängelten indes, dass dies zu unnötigem Anthropomorphismus führe, da KI keine echten Gefühle habe. Dass sich KI weigere Aufgaben zu verrichten, sei vielmehr auf schlecht strukturierte Anreize oder Trainingsstrategien zurückzuführen, die menschliches Verhalten nachahmten.