Betrugsversuche mit KI-Unterstützung haben enorm zugenommen – besonders beliebt: gefakte Webshops. Who is Danny – shutterstock.com Betrugsversuche im Wert von 4 Milliarden Dollar abgewehrt, 49.000 betrügerische Partnerregistrierungen abgelehnt, stündlich etwa 1,6 Millionen Bot-Anmeldeversuche blockiert – das sind nur ein paar Zahlen, die Microsoft in seinem Bericht „Cyber Signals“ für das vergangene Jahr (April 2024 – April 2025) zu Betrugs- und Missbrauchsversuchen nennt. Zahlen, die gleichzeitig untermauern, wie die rasante KI-Entwicklung die Landschaft der Cyberkriminalität verändert. Deutschland besonders betroffen Laut dem Microsoft Anti-Fraud Team ereignen sich KI-gesteuerte Betrugsangriffe weltweit. Dabei stammt ein Großteil der Aktivitäten aus China und Europa, insbesondere Deutschland. Dies liegt zum Teil, so Microsoft, an Deutschlands Status als einer der größten E-Commerce- und Online-Dienstleistungsmärkte in der EU. Dabei senkt KI nicht nur die technischen Einstiegshürden für die Betrüger, sondern eröffnet ihnen auch ein breites Spektrum an Werkzeugen für die Erstellung überzeugender Inhalte für Angriffe. Mit Hilfe von KI-Werkzeugen wird etwa das Internet nach Unternehmensinformationen durchsucht, um detaillierte Profile von Mitarbeitern oder anderen Zielpersonen zu erstellen. Diese Informationen dienen dann als Basis für hochgradig überzeugende Social-Engineering-Köder. Die Betrugsmaschen Oder Kriminelle nutzen KI, um gefälschte, KI-gestützte Produktbewertungen und KI-generierte Online-Shops zu erstellen. Auf diese erstellen die Betrüger ganze Websites und E-Commerce-Marken mit gefälschten Unternehmensgeschichten und Kundenreferenzen. So locken sie ihre Opfer in immer komplexere Betrugsschemata. Um sich einen legitimen Anstrich zu geben, kommen Deepfakes, Voice-Cloning, Phishing-E-Mails und authentisch aussehende gefälschte Websites zum Einsatz. Solche Taktiken und Werkzeuge eröffnen ein weites Feld an Betrugsmöglichkeiten. Microsoft zufolge kristallisieren sich aber vor allem drei Arten heraus: E-Commerce-Betrug, Job- und Arbeitsplatzbetrug, Tech-Support-Betrug. E-Commerce-Betrug Betrügerische E-Commerce-Websites können mithilfe von KI und anderen Tools mit minimalen technischen Kenntnissen in Minutenschnelle eingerichtet werden. Früher benötigten die Kriminellen noch Tage oder Wochen, um überzeugende Websites zu erstellen. Diese betrügerischen Websites ähneln oft legitimen Seiten. Dies erschwert es, sie als Fälschungen zu erkennen. Dabei täuschen KI-generierte Produktbeschreibungen, Bilder und Kundenbewertungen die potenziellen Kunden. Zudem wird häufig das Vertrauen der Verbraucher in bekannte Marken ausgenutzt. So glauben die Opfer, mit einem echten Händler zu interagieren. KI-gestützte Kundenservice-Chatbots stellen eine weitere Ebene der Täuschung dar, indem sie überzeugend mit Kunden interagieren. Diese Bots können Rückbuchungen verzögern, indem sie Kunden mit vorgefertigten Ausreden hinhalten und Beschwerden mit KI-generierten Antworten manipulieren, die betrügerische Websites professionell erscheinen lassen. Job- und Beschäftigungsbetrug GenAI erleichtert es Betrügern zudem, gefälschte Stellenangebote auf verschiedenen Jobplattformen zu generieren. Ziel dieser Betrugsmasche ist es, persönliche Informationen wie Lebensläufe oder sogar Bankkontodaten unter dem Vorwand der Überprüfung der Bewerberdaten zu erlangen. Um Jobsuchende zu phishen, nutzen die Kriminellen gefälschte Profile mit gestohlenen Anmeldeinformationen, gefälschte Stellenanzeigen mit automatisch generierten Beschreibungen und KI-gesteuerte E-Mail-Kampagnen. . KI-gestützte Vorstellungsgespräche und automatisierte E-Mails erhöhen die Glaubwürdigkeit von Jobbetrügereien und erschweren es Jobsuchenden, betrügerische Angebote zu erkennen. Unaufgeforderte SMS- und E-Mail-Nachrichten mit Stellenangeboten, die hohe Bezahlung für minimale Qualifikationen versprechen, sind typische Anzeichen für Betrug. Andere Methoden sind Stellenangebote, die Zahlungsaufforderungen beinhalten, sowie Angebote, die zu gut erscheinen, um wahr zu sein. Ebenso können unaufgeforderte Angebote oder Interviewanfragen per SMS sowie das Fehlen formaler Kommunikationsplattformen allesamt Anzeichen für Betrug sein. Tech-Support-Betrug Bei dieser Form des Betrugs versuchen die Kriminellen, ihre Opfer zu unnötigen technischen Support-Leistungen zu verleiten, um Geräte- oder Softwareprobleme zu beheben, die nicht existieren. Laut Microsoft spielt KI in diesem Segment noch eine untergeordnete Rolle – das Betrugsrisiko ist dennoch hoch. Gern missbraucht wird dazu die Microsoft Quick Assist Software – eine Methode, die auch ohne KI-Nutzung funktioniert. Die Angreifer nutzen stattdessen Voice-Phishing (Vishing), um sich als legitime Organisationen auszugeben. So überzeugen sie ihre Opfer, ihnen über Quick Assist Zugriff auf ihre Geräte zu gewähren. Abwehrmaßnahmen Glaubt man Microsoft, so fährt das Unternehmen bereits einen mehrgleisigen Ansatz, KI-gesteuerten Betrug abzuwehren. Einige der Maßnahmen, die der Konzern nennt, sind unter anderem: Microsoft Defender for Cloud, um Azure-Ressourcen zu schützen. Microsoft Edge, hier sollen Deep-Learning-Technologien einen Schutz vor Domain-Impersonation bieten. Ebenso soll der Machine-Learning-basierte Scareware Blocker gegen Betrüger helfen. LinkedIn, KI gestützte Systeme, um gefälschte Stellenangebote zu erkennen. Quick Assist, Warnmeldungen vor potenziellen Tech-Support-Scams, verdächtige Verbindungsversuche werden durch “Digital Fingerprinting” (basierend auf KI und Machine Learning) blockiert. Microsoft Defender SmartScreen, ein Cloud-basierter Sicherheitsdienst zur Analyse von Websites, Dateien und Anwendungen. Tipps für Unternehmen Allerdings können diese Maßnahmen nur einen ersten Schritt darstellen. Um den KI-Betrug wirksam einzudämmen, sind auch Unternehmen und Verbraucher gefordert. Jobplattformen rät der Softwarekonzern, die Arbeitgeberkonten besser zu schützen. Ein Ansatz sei etwa eine stärkere Authentifizierung mittels Multi-Faktor-Authentifizierung (MFA). Ebenso lohne es sich, eine verifizierte ID einzuführen. Dies erschwere es Betrügern, legitime Unternehmensprofile zu übernehmen. Mit Blick auf den Tech-Support Betrug empfiehlt Microsoft Unternehmen, Remote Help anstelle von Quick Assist für den internen technischen Support zu verwenden. Schließlich sei Remote Help so konzipiert, dass es nur innerhalb des Tenants einer Organisation verwendet werden könne. Ratschläge für Consumer Hinter den Betrugsmaschen stecken häufig psychologische Auslöser wie Dringlichkeit, Knappheit oder Vertrauen in die dargestellte Identität. Die User sollten deshalb auf folgende Aspekte achten: Impulskäufe: Betrüger erzeugen mit „zeitlich begrenzten“ Angeboten und Countdown-Timern ein Gefühl der Dringlichkeit. falsches Vertrauen in Fakes: KI generiert gefälschte Bewertungen, Empfehlungen von Influencern etc., falsche Testimonials. Klicken Anzeigen ohne Überprüfung: Viele betrügerische Websites verbreiten sich über KI-optimierte Social-Media-Anzeigen. Verbraucher sollten vor dem Kauf Domainnamen und Bewertungen überprüfen. Zahlungssicherheit: Vermeiden Sie direkte Banküberweisungen oder Zahlungen in Kryptowährungen. Diese bieten keinen Schutz vor Betrug. Warnsignale bei Jobangeboten Mit Blick auf die gefälschten Jobangebote sollten Interessenten die Legitimität des Arbeitgebers überprüfen. Andere Warnsignale für Jobbetrügereien sind etwa Vorauszahlungen für Schulungsmaterialien, Zertifizierungen oder Hintergrundprüfungen. Verdächtig sind auch unrealistische Gehälter oder Stellen im Homeoffice, für die keine Erfahrung erforderlich ist. Skeptisch sollte man auch bei E-Mails von kostenlosen Domains (etwa johndoehr@gmail.com statt hr@company.com) werden. In der Regel ist das ebenfalls ein Hinweis auf betrügerische Aktivitäten. Vorsicht ist auch gegenüber KI-generierten Interviews und Mitteilungen angesagt. Wenn ein Videointerview unnatürlich wirkt, mit lippensynchronen Verzögerungen, roboterhafter Sprache oder seltsamen Gesichtsausdrücken aufwartet, könnte Deepfake-Technologie im Spiel sein. Und last, but not least, sollten einem nicht verifizierten Arbeitgeber Sozialversicherungsnummer, Bankdaten oder Passwörter nicht übermittelt werden.
So nutzen Betrüger KI
Betrugsversuche mit KI-Unterstützung haben enorm zugenommen – besonders beliebt: gefakte Webshops. Who is Danny – shutterstock.com Betrugsversuche im Wert von 4 Milliarden Dollar abgewehrt, 49.000 betrügerische Partnerregistrierungen abgelehnt, stündlich etwa 1,6 Millionen Bot-Anmeldeversuche blockiert – das sind nur ein paar Zahlen, die Microsoft in seinem Bericht „Cyber Signals“ für das vergangene Jahr (April 2024 – April 2025) zu Betrugs- und Missbrauchsversuchen nennt. Zahlen, die gleichzeitig untermauern, wie die rasante KI-Entwicklung die Landschaft der Cyberkriminalität verändert. Deutschland besonders betroffen Laut dem Microsoft Anti-Fraud Team ereignen sich KI-gesteuerte Betrugsangriffe weltweit. Dabei stammt ein Großteil der Aktivitäten aus China und Europa, insbesondere Deutschland. Dies liegt zum Teil, so Microsoft, an Deutschlands Status als einer der größten E-Commerce- und Online-Dienstleistungsmärkte in der EU. Dabei senkt KI nicht nur die technischen Einstiegshürden für die Betrüger, sondern eröffnet ihnen auch ein breites Spektrum an Werkzeugen für die Erstellung überzeugender Inhalte für Angriffe. Mit Hilfe von KI-Werkzeugen wird etwa das Internet nach Unternehmensinformationen durchsucht, um detaillierte Profile von Mitarbeitern oder anderen Zielpersonen zu erstellen. Diese Informationen dienen dann als Basis für hochgradig überzeugende Social-Engineering-Köder. Die Betrugsmaschen Oder Kriminelle nutzen KI, um gefälschte, KI-gestützte Produktbewertungen und KI-generierte Online-Shops zu erstellen. Auf diese erstellen die Betrüger ganze Websites und E-Commerce-Marken mit gefälschten Unternehmensgeschichten und Kundenreferenzen. So locken sie ihre Opfer in immer komplexere Betrugsschemata. Um sich einen legitimen Anstrich zu geben, kommen Deepfakes, Voice-Cloning, Phishing-E-Mails und authentisch aussehende gefälschte Websites zum Einsatz. Solche Taktiken und Werkzeuge eröffnen ein weites Feld an Betrugsmöglichkeiten. Microsoft zufolge kristallisieren sich aber vor allem drei Arten heraus: E-Commerce-Betrug, Job- und Arbeitsplatzbetrug, Tech-Support-Betrug. E-Commerce-Betrug Betrügerische E-Commerce-Websites können mithilfe von KI und anderen Tools mit minimalen technischen Kenntnissen in Minutenschnelle eingerichtet werden. Früher benötigten die Kriminellen noch Tage oder Wochen, um überzeugende Websites zu erstellen. Diese betrügerischen Websites ähneln oft legitimen Seiten. Dies erschwert es, sie als Fälschungen zu erkennen. Dabei täuschen KI-generierte Produktbeschreibungen, Bilder und Kundenbewertungen die potenziellen Kunden. Zudem wird häufig das Vertrauen der Verbraucher in bekannte Marken ausgenutzt. So glauben die Opfer, mit einem echten Händler zu interagieren. KI-gestützte Kundenservice-Chatbots stellen eine weitere Ebene der Täuschung dar, indem sie überzeugend mit Kunden interagieren. Diese Bots können Rückbuchungen verzögern, indem sie Kunden mit vorgefertigten Ausreden hinhalten und Beschwerden mit KI-generierten Antworten manipulieren, die betrügerische Websites professionell erscheinen lassen. Job- und Beschäftigungsbetrug GenAI erleichtert es Betrügern zudem, gefälschte Stellenangebote auf verschiedenen Jobplattformen zu generieren. Ziel dieser Betrugsmasche ist es, persönliche Informationen wie Lebensläufe oder sogar Bankkontodaten unter dem Vorwand der Überprüfung der Bewerberdaten zu erlangen. Um Jobsuchende zu phishen, nutzen die Kriminellen gefälschte Profile mit gestohlenen Anmeldeinformationen, gefälschte Stellenanzeigen mit automatisch generierten Beschreibungen und KI-gesteuerte E-Mail-Kampagnen. . KI-gestützte Vorstellungsgespräche und automatisierte E-Mails erhöhen die Glaubwürdigkeit von Jobbetrügereien und erschweren es Jobsuchenden, betrügerische Angebote zu erkennen. Unaufgeforderte SMS- und E-Mail-Nachrichten mit Stellenangeboten, die hohe Bezahlung für minimale Qualifikationen versprechen, sind typische Anzeichen für Betrug. Andere Methoden sind Stellenangebote, die Zahlungsaufforderungen beinhalten, sowie Angebote, die zu gut erscheinen, um wahr zu sein. Ebenso können unaufgeforderte Angebote oder Interviewanfragen per SMS sowie das Fehlen formaler Kommunikationsplattformen allesamt Anzeichen für Betrug sein. Tech-Support-Betrug Bei dieser Form des Betrugs versuchen die Kriminellen, ihre Opfer zu unnötigen technischen Support-Leistungen zu verleiten, um Geräte- oder Softwareprobleme zu beheben, die nicht existieren. Laut Microsoft spielt KI in diesem Segment noch eine untergeordnete Rolle – das Betrugsrisiko ist dennoch hoch. Gern missbraucht wird dazu die Microsoft Quick Assist Software – eine Methode, die auch ohne KI-Nutzung funktioniert. Die Angreifer nutzen stattdessen Voice-Phishing (Vishing), um sich als legitime Organisationen auszugeben. So überzeugen sie ihre Opfer, ihnen über Quick Assist Zugriff auf ihre Geräte zu gewähren. Abwehrmaßnahmen Glaubt man Microsoft, so fährt das Unternehmen bereits einen mehrgleisigen Ansatz, KI-gesteuerten Betrug abzuwehren. Einige der Maßnahmen, die der Konzern nennt, sind unter anderem: Microsoft Defender for Cloud, um Azure-Ressourcen zu schützen. Microsoft Edge, hier sollen Deep-Learning-Technologien einen Schutz vor Domain-Impersonation bieten. Ebenso soll der Machine-Learning-basierte Scareware Blocker gegen Betrüger helfen. LinkedIn, KI gestützte Systeme, um gefälschte Stellenangebote zu erkennen. Quick Assist, Warnmeldungen vor potenziellen Tech-Support-Scams, verdächtige Verbindungsversuche werden durch “Digital Fingerprinting” (basierend auf KI und Machine Learning) blockiert. Microsoft Defender SmartScreen, ein Cloud-basierter Sicherheitsdienst zur Analyse von Websites, Dateien und Anwendungen. Tipps für Unternehmen Allerdings können diese Maßnahmen nur einen ersten Schritt darstellen. Um den KI-Betrug wirksam einzudämmen, sind auch Unternehmen und Verbraucher gefordert. Jobplattformen rät der Softwarekonzern, die Arbeitgeberkonten besser zu schützen. Ein Ansatz sei etwa eine stärkere Authentifizierung mittels Multi-Faktor-Authentifizierung (MFA). Ebenso lohne es sich, eine verifizierte ID einzuführen. Dies erschwere es Betrügern, legitime Unternehmensprofile zu übernehmen. Mit Blick auf den Tech-Support Betrug empfiehlt Microsoft Unternehmen, Remote Help anstelle von Quick Assist für den internen technischen Support zu verwenden. Schließlich sei Remote Help so konzipiert, dass es nur innerhalb des Tenants einer Organisation verwendet werden könne. Ratschläge für Consumer Hinter den Betrugsmaschen stecken häufig psychologische Auslöser wie Dringlichkeit, Knappheit oder Vertrauen in die dargestellte Identität. Die User sollten deshalb auf folgende Aspekte achten: Impulskäufe: Betrüger erzeugen mit „zeitlich begrenzten“ Angeboten und Countdown-Timern ein Gefühl der Dringlichkeit. falsches Vertrauen in Fakes: KI generiert gefälschte Bewertungen, Empfehlungen von Influencern etc., falsche Testimonials. Klicken Anzeigen ohne Überprüfung: Viele betrügerische Websites verbreiten sich über KI-optimierte Social-Media-Anzeigen. Verbraucher sollten vor dem Kauf Domainnamen und Bewertungen überprüfen. Zahlungssicherheit: Vermeiden Sie direkte Banküberweisungen oder Zahlungen in Kryptowährungen. Diese bieten keinen Schutz vor Betrug. Warnsignale bei Jobangeboten Mit Blick auf die gefälschten Jobangebote sollten Interessenten die Legitimität des Arbeitgebers überprüfen. Andere Warnsignale für Jobbetrügereien sind etwa Vorauszahlungen für Schulungsmaterialien, Zertifizierungen oder Hintergrundprüfungen. Verdächtig sind auch unrealistische Gehälter oder Stellen im Homeoffice, für die keine Erfahrung erforderlich ist. Skeptisch sollte man auch bei E-Mails von kostenlosen Domains (etwa johndoehr@gmail.com statt hr@company.com) werden. In der Regel ist das ebenfalls ein Hinweis auf betrügerische Aktivitäten. Vorsicht ist auch gegenüber KI-generierten Interviews und Mitteilungen angesagt. Wenn ein Videointerview unnatürlich wirkt, mit lippensynchronen Verzögerungen, roboterhafter Sprache oder seltsamen Gesichtsausdrücken aufwartet, könnte Deepfake-Technologie im Spiel sein. Und last, but not least, sollten einem nicht verifizierten Arbeitgeber Sozialversicherungsnummer, Bankdaten oder Passwörter nicht übermittelt werden.
So nutzen Betrüger KI Betrugsversuche mit KI-Unterstützung haben enorm zugenommen – besonders beliebt: gefakte Webshops. Who is Danny – shutterstock.com Betrugsversuche im Wert von 4 Milliarden Dollar abgewehrt, 49.000 betrügerische Partnerregistrierungen abgelehnt, stündlich etwa 1,6 Millionen Bot-Anmeldeversuche blockiert – das sind nur ein paar Zahlen, die Microsoft in seinem Bericht „Cyber Signals“ für das vergangene Jahr (April 2024 – April 2025) zu Betrugs- und Missbrauchsversuchen nennt. Zahlen, die gleichzeitig untermauern, wie die rasante KI-Entwicklung die Landschaft der Cyberkriminalität verändert. Deutschland besonders betroffen Laut dem Microsoft Anti-Fraud Team ereignen sich KI-gesteuerte Betrugsangriffe weltweit. Dabei stammt ein Großteil der Aktivitäten aus China und Europa, insbesondere Deutschland. Dies liegt zum Teil, so Microsoft, an Deutschlands Status als einer der größten E-Commerce- und Online-Dienstleistungsmärkte in der EU. Dabei senkt KI nicht nur die technischen Einstiegshürden für die Betrüger, sondern eröffnet ihnen auch ein breites Spektrum an Werkzeugen für die Erstellung überzeugender Inhalte für Angriffe. Mit Hilfe von KI-Werkzeugen wird etwa das Internet nach Unternehmensinformationen durchsucht, um detaillierte Profile von Mitarbeitern oder anderen Zielpersonen zu erstellen. Diese Informationen dienen dann als Basis für hochgradig überzeugende Social-Engineering-Köder. Die Betrugsmaschen Oder Kriminelle nutzen KI, um gefälschte, KI-gestützte Produktbewertungen und KI-generierte Online-Shops zu erstellen. Auf diese erstellen die Betrüger ganze Websites und E-Commerce-Marken mit gefälschten Unternehmensgeschichten und Kundenreferenzen. So locken sie ihre Opfer in immer komplexere Betrugsschemata. Um sich einen legitimen Anstrich zu geben, kommen Deepfakes, Voice-Cloning, Phishing-E-Mails und authentisch aussehende gefälschte Websites zum Einsatz. Solche Taktiken und Werkzeuge eröffnen ein weites Feld an Betrugsmöglichkeiten. Microsoft zufolge kristallisieren sich aber vor allem drei Arten heraus: E-Commerce-Betrug, Job- und Arbeitsplatzbetrug, Tech-Support-Betrug. E-Commerce-Betrug Betrügerische E-Commerce-Websites können mithilfe von KI und anderen Tools mit minimalen technischen Kenntnissen in Minutenschnelle eingerichtet werden. Früher benötigten die Kriminellen noch Tage oder Wochen, um überzeugende Websites zu erstellen. Diese betrügerischen Websites ähneln oft legitimen Seiten. Dies erschwert es, sie als Fälschungen zu erkennen. Dabei täuschen KI-generierte Produktbeschreibungen, Bilder und Kundenbewertungen die potenziellen Kunden. Zudem wird häufig das Vertrauen der Verbraucher in bekannte Marken ausgenutzt. So glauben die Opfer, mit einem echten Händler zu interagieren. KI-gestützte Kundenservice-Chatbots stellen eine weitere Ebene der Täuschung dar, indem sie überzeugend mit Kunden interagieren. Diese Bots können Rückbuchungen verzögern, indem sie Kunden mit vorgefertigten Ausreden hinhalten und Beschwerden mit KI-generierten Antworten manipulieren, die betrügerische Websites professionell erscheinen lassen. Job- und Beschäftigungsbetrug GenAI erleichtert es Betrügern zudem, gefälschte Stellenangebote auf verschiedenen Jobplattformen zu generieren. Ziel dieser Betrugsmasche ist es, persönliche Informationen wie Lebensläufe oder sogar Bankkontodaten unter dem Vorwand der Überprüfung der Bewerberdaten zu erlangen. Um Jobsuchende zu phishen, nutzen die Kriminellen gefälschte Profile mit gestohlenen Anmeldeinformationen, gefälschte Stellenanzeigen mit automatisch generierten Beschreibungen und KI-gesteuerte E-Mail-Kampagnen. . KI-gestützte Vorstellungsgespräche und automatisierte E-Mails erhöhen die Glaubwürdigkeit von Jobbetrügereien und erschweren es Jobsuchenden, betrügerische Angebote zu erkennen. Unaufgeforderte SMS- und E-Mail-Nachrichten mit Stellenangeboten, die hohe Bezahlung für minimale Qualifikationen versprechen, sind typische Anzeichen für Betrug. Andere Methoden sind Stellenangebote, die Zahlungsaufforderungen beinhalten, sowie Angebote, die zu gut erscheinen, um wahr zu sein. Ebenso können unaufgeforderte Angebote oder Interviewanfragen per SMS sowie das Fehlen formaler Kommunikationsplattformen allesamt Anzeichen für Betrug sein. Tech-Support-Betrug Bei dieser Form des Betrugs versuchen die Kriminellen, ihre Opfer zu unnötigen technischen Support-Leistungen zu verleiten, um Geräte- oder Softwareprobleme zu beheben, die nicht existieren. Laut Microsoft spielt KI in diesem Segment noch eine untergeordnete Rolle – das Betrugsrisiko ist dennoch hoch. Gern missbraucht wird dazu die Microsoft Quick Assist Software – eine Methode, die auch ohne KI-Nutzung funktioniert. Die Angreifer nutzen stattdessen Voice-Phishing (Vishing), um sich als legitime Organisationen auszugeben. So überzeugen sie ihre Opfer, ihnen über Quick Assist Zugriff auf ihre Geräte zu gewähren. Abwehrmaßnahmen Glaubt man Microsoft, so fährt das Unternehmen bereits einen mehrgleisigen Ansatz, KI-gesteuerten Betrug abzuwehren. Einige der Maßnahmen, die der Konzern nennt, sind unter anderem: Microsoft Defender for Cloud, um Azure-Ressourcen zu schützen. Microsoft Edge, hier sollen Deep-Learning-Technologien einen Schutz vor Domain-Impersonation bieten. Ebenso soll der Machine-Learning-basierte Scareware Blocker gegen Betrüger helfen. LinkedIn, KI gestützte Systeme, um gefälschte Stellenangebote zu erkennen. Quick Assist, Warnmeldungen vor potenziellen Tech-Support-Scams, verdächtige Verbindungsversuche werden durch “Digital Fingerprinting” (basierend auf KI und Machine Learning) blockiert. Microsoft Defender SmartScreen, ein Cloud-basierter Sicherheitsdienst zur Analyse von Websites, Dateien und Anwendungen. Tipps für Unternehmen Allerdings können diese Maßnahmen nur einen ersten Schritt darstellen. Um den KI-Betrug wirksam einzudämmen, sind auch Unternehmen und Verbraucher gefordert. Jobplattformen rät der Softwarekonzern, die Arbeitgeberkonten besser zu schützen. Ein Ansatz sei etwa eine stärkere Authentifizierung mittels Multi-Faktor-Authentifizierung (MFA). Ebenso lohne es sich, eine verifizierte ID einzuführen. Dies erschwere es Betrügern, legitime Unternehmensprofile zu übernehmen. Mit Blick auf den Tech-Support Betrug empfiehlt Microsoft Unternehmen, Remote Help anstelle von Quick Assist für den internen technischen Support zu verwenden. Schließlich sei Remote Help so konzipiert, dass es nur innerhalb des Tenants einer Organisation verwendet werden könne. Ratschläge für Consumer Hinter den Betrugsmaschen stecken häufig psychologische Auslöser wie Dringlichkeit, Knappheit oder Vertrauen in die dargestellte Identität. Die User sollten deshalb auf folgende Aspekte achten: Impulskäufe: Betrüger erzeugen mit „zeitlich begrenzten“ Angeboten und Countdown-Timern ein Gefühl der Dringlichkeit. falsches Vertrauen in Fakes: KI generiert gefälschte Bewertungen, Empfehlungen von Influencern etc., falsche Testimonials. Klicken Anzeigen ohne Überprüfung: Viele betrügerische Websites verbreiten sich über KI-optimierte Social-Media-Anzeigen. Verbraucher sollten vor dem Kauf Domainnamen und Bewertungen überprüfen. Zahlungssicherheit: Vermeiden Sie direkte Banküberweisungen oder Zahlungen in Kryptowährungen. Diese bieten keinen Schutz vor Betrug. Warnsignale bei Jobangeboten Mit Blick auf die gefälschten Jobangebote sollten Interessenten die Legitimität des Arbeitgebers überprüfen. Andere Warnsignale für Jobbetrügereien sind etwa Vorauszahlungen für Schulungsmaterialien, Zertifizierungen oder Hintergrundprüfungen. Verdächtig sind auch unrealistische Gehälter oder Stellen im Homeoffice, für die keine Erfahrung erforderlich ist. Skeptisch sollte man auch bei E-Mails von kostenlosen Domains (etwa johndoehr@gmail.com statt hr@company.com) werden. In der Regel ist das ebenfalls ein Hinweis auf betrügerische Aktivitäten. Vorsicht ist auch gegenüber KI-generierten Interviews und Mitteilungen angesagt. Wenn ein Videointerview unnatürlich wirkt, mit lippensynchronen Verzögerungen, roboterhafter Sprache oder seltsamen Gesichtsausdrücken aufwartet, könnte Deepfake-Technologie im Spiel sein. Und last, but not least, sollten einem nicht verifizierten Arbeitgeber Sozialversicherungsnummer, Bankdaten oder Passwörter nicht übermittelt werden.