Individuell generierte Texte erschweren die Erkennung als Spam. Dank KI können sie zudem schneller geschrieben werden.RerF_Studio – shutterstock Large Language Models (LLMs) werden immer häufiger von Kriminellen eingesetzt. Experten des Sicherheitsunternehmens SentinelLabs haben am 9. April 2025 bekanntgegeben, dass die Gruppe AkiraBot den Chatbot ChatGPT von OpenAI benutzt hatte, um Spam zu verbreiten. Beim AkiraBot handelt es sich um ein Framework, das das Versenden von Nachrichten in großen Mengen automatisiert, um dubiose Suchoptimierungsdienste für kleine und mittelgroße Websites zu bewerben. Die Macher hinter dem Framework verwenden dafür Python-basierte Skripte, um die in den Nachrichten beworbenen Domänennamen zu rotieren. So könnte eine von AkiraBot verwendete KI-Chat-Eingabeaufforderung laut Experten ausgesehen haben. SentinelLabs Personalisierter Spam-Versand Im Falle von ChatGPT nutzte AkiraBot das OpenAI-Modell gpt-4o-mini über die Chat-API, um individuell zugeschnittene Spam- bzw. Marketing-Nachrichten für verschiedene Websites zu generieren. Diese wurden über Kontaktformulare und Live-Chats versendet. Durch die dynamische Anpassung an jede Zielseite wirkten die Nachrichten personalisiert und waren schwer als Spam erkennbar. Den Forschern zufolge erschwert diese Einzigartigkeit der KI-generierten Inhalte die Spam-Abwehr, da herkömmliche Erkennungsmerkmale wie standardisierte Textvorlagen fehlen. Lediglich rotierende Domains sollen sich noch leicht blockieren lassen. Reaktiv statt proaktiv SentinelLabs erhielt Log-Dateien, die AkiraBot auf einem Server hinterließ, um die Erfolgs- und Misserfolgsraten zu messen. Eine Datei zeigte, dass die Gruppe zwischen September 2024 und Januar 2025 an mehr als 80.000 Websites erfolgreich einzigartige Nachrichten versendet hatten. Im Vergleich dazu schlugen Nachrichten, die auf etwa 11.000 Domains abzielten, fehl. OpenAI bedankte sich bei den Forschern und wies erneut darauf hin, dass eine solche Nutzung seiner Chatbots gegen seine Nutzungsbedingungen verstößt. OpenAI hat, nachdem sie diese Nachricht erhalten hatten, das Konto der Spammer gesperrt. Die vier Monate, in denen die Aktivitäten unbemerkt blieben, zeigen allerdings, dass gegen solche Verstöße oft eher reaktiv als proaktiv vorgegangen wird.
So nutzten Spammer ChatGPT
Individuell generierte Texte erschweren die Erkennung als Spam. Dank KI können sie zudem schneller geschrieben werden.RerF_Studio – shutterstock Large Language Models (LLMs) werden immer häufiger von Kriminellen eingesetzt. Experten des Sicherheitsunternehmens SentinelLabs haben am 9. April 2025 bekanntgegeben, dass die Gruppe AkiraBot den Chatbot ChatGPT von OpenAI benutzt hatte, um Spam zu verbreiten. Beim AkiraBot handelt es sich um ein Framework, das das Versenden von Nachrichten in großen Mengen automatisiert, um dubiose Suchoptimierungsdienste für kleine und mittelgroße Websites zu bewerben. Die Macher hinter dem Framework verwenden dafür Python-basierte Skripte, um die in den Nachrichten beworbenen Domänennamen zu rotieren. So könnte eine von AkiraBot verwendete KI-Chat-Eingabeaufforderung laut Experten ausgesehen haben. SentinelLabs Personalisierter Spam-Versand Im Falle von ChatGPT nutzte AkiraBot das OpenAI-Modell gpt-4o-mini über die Chat-API, um individuell zugeschnittene Spam- bzw. Marketing-Nachrichten für verschiedene Websites zu generieren. Diese wurden über Kontaktformulare und Live-Chats versendet. Durch die dynamische Anpassung an jede Zielseite wirkten die Nachrichten personalisiert und waren schwer als Spam erkennbar. Den Forschern zufolge erschwert diese Einzigartigkeit der KI-generierten Inhalte die Spam-Abwehr, da herkömmliche Erkennungsmerkmale wie standardisierte Textvorlagen fehlen. Lediglich rotierende Domains sollen sich noch leicht blockieren lassen. Reaktiv statt proaktiv SentinelLabs erhielt Log-Dateien, die AkiraBot auf einem Server hinterließ, um die Erfolgs- und Misserfolgsraten zu messen. Eine Datei zeigte, dass die Gruppe zwischen September 2024 und Januar 2025 an mehr als 80.000 Websites erfolgreich einzigartige Nachrichten versendet hatten. Im Vergleich dazu schlugen Nachrichten, die auf etwa 11.000 Domains abzielten, fehl. OpenAI bedankte sich bei den Forschern und wies erneut darauf hin, dass eine solche Nutzung seiner Chatbots gegen seine Nutzungsbedingungen verstößt. OpenAI hat, nachdem sie diese Nachricht erhalten hatten, das Konto der Spammer gesperrt. Die vier Monate, in denen die Aktivitäten unbemerkt blieben, zeigen allerdings, dass gegen solche Verstöße oft eher reaktiv als proaktiv vorgegangen wird.
So nutzten Spammer ChatGPT Individuell generierte Texte erschweren die Erkennung als Spam. Dank KI können sie zudem schneller geschrieben werden.RerF_Studio – shutterstock Large Language Models (LLMs) werden immer häufiger von Kriminellen eingesetzt. Experten des Sicherheitsunternehmens SentinelLabs haben am 9. April 2025 bekanntgegeben, dass die Gruppe AkiraBot den Chatbot ChatGPT von OpenAI benutzt hatte, um Spam zu verbreiten. Beim AkiraBot handelt es sich um ein Framework, das das Versenden von Nachrichten in großen Mengen automatisiert, um dubiose Suchoptimierungsdienste für kleine und mittelgroße Websites zu bewerben. Die Macher hinter dem Framework verwenden dafür Python-basierte Skripte, um die in den Nachrichten beworbenen Domänennamen zu rotieren. So könnte eine von AkiraBot verwendete KI-Chat-Eingabeaufforderung laut Experten ausgesehen haben. SentinelLabs Personalisierter Spam-Versand Im Falle von ChatGPT nutzte AkiraBot das OpenAI-Modell gpt-4o-mini über die Chat-API, um individuell zugeschnittene Spam- bzw. Marketing-Nachrichten für verschiedene Websites zu generieren. Diese wurden über Kontaktformulare und Live-Chats versendet. Durch die dynamische Anpassung an jede Zielseite wirkten die Nachrichten personalisiert und waren schwer als Spam erkennbar. Den Forschern zufolge erschwert diese Einzigartigkeit der KI-generierten Inhalte die Spam-Abwehr, da herkömmliche Erkennungsmerkmale wie standardisierte Textvorlagen fehlen. Lediglich rotierende Domains sollen sich noch leicht blockieren lassen. Reaktiv statt proaktiv SentinelLabs erhielt Log-Dateien, die AkiraBot auf einem Server hinterließ, um die Erfolgs- und Misserfolgsraten zu messen. Eine Datei zeigte, dass die Gruppe zwischen September 2024 und Januar 2025 an mehr als 80.000 Websites erfolgreich einzigartige Nachrichten versendet hatten. Im Vergleich dazu schlugen Nachrichten, die auf etwa 11.000 Domains abzielten, fehl. OpenAI bedankte sich bei den Forschern und wies erneut darauf hin, dass eine solche Nutzung seiner Chatbots gegen seine Nutzungsbedingungen verstößt. OpenAI hat, nachdem sie diese Nachricht erhalten hatten, das Konto der Spammer gesperrt. Die vier Monate, in denen die Aktivitäten unbemerkt blieben, zeigen allerdings, dass gegen solche Verstöße oft eher reaktiv als proaktiv vorgegangen wird.