Computerhaus Quickborn

Awareness schlägt AI-Wettrüsten​

srcset="https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=444%2C250&quality=50&strip=all 444w" width="1024" height="576" sizes="(max-width: 1024px) 100vw, 1024px">(Generative) Künstliche Intelligenz nutzt aktuell primär den Angreifern – und zwingt Unternehmen zu noch mehr Aufmerksamkeit. Toey Andante/Shutterstock Das letzte “Das-Verändert-Wirklich-Alles”-Ereignis ist noch gar nicht so lange her, klingt in diesen Zeiten aber schon fast nostalgisch: Als das chinesische Startup DeepSeek Anfang des Jahres ihre generative KI “R1” vorstellte, war beim Blick hinter die branchentypischen Superlative schnell klar, dass die Innovationsgeschwindigkeit auch nüchtern betrachtet noch einmal zunehmen wird. Insbesondere die Aussicht, deutlich weniger Ressourcen für KI aufzuwenden, hat die Fantasie trotz vieler offener Fragen beflügelt – die Fantasie von Unternehmen genauso wie die der Cyberkriminellen. Mario Jandeck, Enginsight: “Gesetzliche Regulatorik wie NIS 2 hilft schon, vor allem als interne Argumentationshilfe. Noch wirksamer ist aber die Selbstregulatorik des Marktes, beispielsweise im Rahmen von Lieferketten.”www.susannnuernberger.net/Enginsight GmbH Durch die niedrigen Zugangshürden (entweder als Service oder gleich in Form von Open Source) ist Generative AI für jeden verfügbar, ungeachtet der kommerziellen, nicht-kommerziellen oder eben auch betrügerischen Absichten.Im Gegenteil: Die Angreiferseite hat sogar einen systemischen Vorteil namens “Trial and Error”. Cyberkriminelle sind in der komfortablen Position, einfach mal ausprobieren zu können, während in der Security niemand auf die Idee käme, einfach mal zu testen. Diese Asymmetrie anzuerkennen, macht für Christof Klaus vom Security-Dienstleister Myra den Kern der KI-Debatte in der IT-Sicherheit: “Unternehmen müssen in Bezug auf KI alle möglichen Angriffsvektoren identifizieren und absichern. Angreifer hingegen müssen nur eine einzige Schwachstelle finden. Daraus ergeben sich sehr deutliche Unterschiede in der Herangehensweise beim Einsatz neuer Technologien wie KI.” Andreas Hedderich, microfin: “Architektur und Tooling müssen sauber aufgebaut sein. Ist das nicht der Fall, entstehen Lücken, die mit AI auch viel schneller erkannt und ausgenutzt werden können. Gen AI bringt hier einen weiteren Layer rein, sowohl auf Angreifer- als auch auf Verteidigerseite.”microfin Unternehmensberatung GmbH Informationen zu den Partner-Paketen der Studie “IT-Security & GenAI 2025” Angriffe werden zielgenauer und schneller Der Durchbruch von generativer AI hat laut Experten des Computerwoche-Roundtables “Generative AI in der Security” nicht zu einer fundamental neuen Bedrohungslage geführt. Gestärkt werden durch Sprachmodelle wie ChatGPT besonders altbekannte Vorgehensweisen, allen voran das Phishing. “Phishing ist heute eher ‘Spear Phishing’”, konstatiert Paul Schussmann von SecAttack, “weil es dank generativer KI auf das Ziel maßgeschneidert wird. Ich kann mit ChatGPT und Co. einfach viel mehr Informationen verarbeiten und dadurch zum Beispiel viel bessere und vor allem mehr zugeschnittene E-Mails generieren.” Malte Vollandt, Logicalis: „Sobald eine Phishing-Mail Geld oder Gehalt erwähnt, klicken die meisten, ohne nachzudenken. Emotionen schlagen Vorsicht.“Logicalis GmbH Will die Verteidigerseite auf diese Bedrohung reagieren, kann sie sich nicht einfach derselben Methoden bedienen. Large Language Models wie ChatGPT können vor allem generieren, aber die Erkennung und vor allem die Reaktion auf Bedrohungslagen gehört nicht zu ihren Stärken. “Generative KI wird in der Security beim Schutz fast gar nicht eingesetzt”, betont Paul Schussmann von MimeCast. “In der Verteidigung dieser “digitalen Enkeltricks” kommen andere KI Technologien zum Tragen, allen voran Machine Learning und Sprach-Analyse auf Detection- und Response-Ebene.” Um die systemischen Nachteile der Verteidigerseite auszugleichen, rät Malte Vollandt von Logicalis, auch unkonventionelle Vorgehensweisen in den Blick zu nehmen: „Die Zeitspanne zwischen der Entdeckung einer Sicherheitslücke und ihrer aktiven Ausnutzung hat sich durch AI von Tagen auf Minuten verkürzt. Das Kernproblem bleibt: Die Verteidiger müssen sich an Regeln halten, die Angreifer jedoch nicht. Daraus müssen wir lernen – und Red Teaming als kontinuierlichen Bestandteil der Sicherheitsstrategie etablieren, statt es als punktuelle Übung zu betrachten.“ Christof Klaus, Myra Security: “KI-Systeme müssen in ein Netzwerk von Alarmsystemen integriert werden und dürfen keine unkontrollierten autonomen Entscheidungen treffen. KI ist ein Echtzeit-Analysewerkzeug und muss in kontrollierte Prozesse integriert werden. Eine Technologie wie KI darf nicht allein entscheiden, ob ein Signal korrekt ist oder nicht. Sie kann nur Teil einer Kette sein.”Myra Security Studie “IT-Security & GenAI”: Sie können sich noch beteiligen!Zum Thema IT-Security & GenAI führt die COMPUTERWOCHE derzeit eine Multi-Client-Studie unter IT-Verantwortlichen durch. Haben Sie Fragen zu dieser Studie oder wollen Partner bei dieser Studie werden, helfen wir Ihnen unter research-sales@foundryco.com gerne weiter. Informationen zur Studie finden Sie auch hier zum Download (PDF). Red Teaming auf dem Vormarsch Dem “Red Teaming” – oder “ethischen Hacking” – fällt in einer KI-dominierten Zukunft eine Schlüsselrolle zu. Die Verteidigerseite erhält dadurch neue Möglichkeiten, indem sie die Perspektive wechselt und die Rolle des Angreifers einnimmt. Die IT “attackiert” ihre eigenen Systeme und kann so Schwachstellen identifizieren und Gegenmaßnahmen einleiten. Das ermöglicht eine proaktive Sicherheitsstrategie, in der Schwachstellen erkannt und behoben werden, bevor echte Angreifer sie ausnutzen. 2025: Das Jahr der Agents? Ein bedeutender Trend, der sowohl Angreifer als auch Verteidiger im Jahr 2025 beeinflussen wird, ist der Aufstieg der sogenannten AI Agents. Diese Systeme werden lokal auf jedem Endgerät installiert und gehen weit über traditionelle Automatisierung hinaus, indem sie nicht nur auf Befehle reagieren, sondern auch eigenständig KI-basiert Schlussfolgerungen ziehen, sich an frühere Interaktionen erinnern und Aktionen ausführen. Paul Schussmann, SecAttack: “Phishing ist heute “Spear Phishing”, weil es dank Gen AI auf das Ziel maßgeschneidert wird. Ich kann mit Chat GPT und Co. einfach viel mehr Informationen verarbeiten und dadurch z.B. viel besser mehrere zugeschnittene E-Mails generieren.”Paul Schussmann, Secattack Führende Technologieunternehmen wie zum Beispiel Google mit seinem Projekt “Mariner” investieren Milliardenbeträge in die Entwicklung solcher Agents. Laut Daniel Schormann von Reply wird das Jahr 2025 sogar das „Jahr der KI-Agents“ sein, in dem ein „Wettrüsten von KI gegen KI“ stattfinden wird. Angreifer- und Verteidigerseite werden demnach immer mehr Ressourcen aufwenden, um Sicherheitslücken zu identifizieren oder eben zu schließen. Im Bereich der IT-Security könnten AI Agents beispielsweise dazu genutzt werden, Bedrohungen in Echtzeit zu erkennen und automatisierte Gegenmaßnahmen einzuleiten. „KI-Agents sorgen dafür, dass sich Daten schneller analysieren lassen”, so Schormann. “Menschliche Arbeit wird dadurch einfacher, jedoch erfordert es weiterhin eine gezielte Steuerung durch die Anwender.“ Daniel Schormann, Spike Reply: “Phishing-Angriffe nehmen weiter zu und sind nahezu fehlerfrei – diese können von extern, aber auch von eigenen Mitarbeitern kommen. Die erste Reaktion darauf muss die Förderung eines gesunden Misstrauens bei den eigenen Mitarbeitern sein.”Spike Reply Der größte Nachteil von Agent-basierten Sicherheitslösungen ist allerdings ihr hoher Verwaltungsaufwand. Sie müssen auf jedem Endgerät installiert, regelmäßig aktualisiert und gewartet werden, was in großen oder dynamischen IT-Umgebungen zu einem erheblichen Mehraufwand führt. Zudem können Agents Systemressourcen belasten und die Performance beeinträchtigen. In manchen Fällen stellen sie sogar selbst ein Sicherheitsrisiko dar, etwa wenn sie Schwachstellen enthalten oder von Angreifern manipuliert werden. Auch die Kompatibilität kann ein Problem sein, insbesondere bei heterogenen IT-Landschaften oder cloudbasierten Infrastrukturen, wo Agenten nicht immer unterstützt werden. In solchen Fällen sind “Agentless”-Ansätze eine weitere Option, die ohne lokal installierte Software-Agenten auskommen und stattdessen APIs oder Cloud-native Funktionen nutzt. Das vereinfacht die Implementierung und Wartung, reduziert die Systembelastung und ermöglicht eine breitere Abdeckung, etwa für Cloud-Umgebungen oder IoT-Geräte. Da keine Agents auf Endgeräten laufen, ist die Lösung weniger anfällig für Manipulation und kann Bedrohungen in Echtzeit erkennen sowie Gegenmaßnahmen einleiten. Besonders für dynamische IT-Infrastrukturen bietet Agentless Security damit eine flexible, skalierbare und effiziente Schutzlösung. Security ist auch eine Mindset-Frage Trotz einer gewissen Aufrüstung und der dringend notwendigen Schließung von Bedrohungslücken durch Nutzung von künstlicher Intelligenz bleibt die Befolgung der Grundprinzipien funktionierender Security nach wie vor die wichtigste Tugend. Die Experten sind sich weitgehend einig, dass ein gesundes Misstrauen beziehungsweise. das Mindset, jederzeit angegriffen werden zu können, noch immer den wichtigsten Schutz darstellt. Andreas Bahr, OpenText: “KI-gestützte Cybersicherheit hilft dabei, Bedrohungen in Echtzeit zu erkennen und abzuwehren. Doch Technologie allein reicht nicht – geschulte Mitarbeiter mit einer Heads-up-Mentalität sind die erste Verteidigungslinie gegen Ransomware.”OpenText Schon zu viel Ruhe im System kann darauf hindeuten, dass bereits ein Angriff erfolgt ist, wie Mario Jandeck von Enginsight betont: “KI hilft, potenziell gefährliche Daten zu klassifizieren. Was aber, wenn diese KI auch kompromittiert wird?” Sieht man sich außerdem die Realität in deutschen Unternehmen an, sind große technologische Antworten auf Bedrohungslagen für ihn vor allem mittelfristig keine Option: “Im Mittelstand arbeiten zwei Kollegen in der IT-Abteilung, die die Security ‘irgendwie mitmachen’. Da ist dann ein Antiviren-Agent und eine Firewall in Betrieb und das war es. Dort stehen weder die nötigen Ressourcen bereit, noch gibt es genug Dienstleister, um ein angemessenes Niveau zu erreichen.” Detection- und Response-Technologien mögen also helfen, die Folgen einer (Spear-)Fishing-Attacke zu begrenzen, noch effektiver sind aber kritisch denkende Mitarbeiter, die gar nicht erst auf den Link einer Betrugsmail klicken oder eine Datei herunterladen. Am Ende lässt sich die Strategie deswegen auch in einer KI-dominierten Welt auf zwei bewährte Faktoren reduzieren: Awareness unter den Mitarbeitern – und das “gute, alte” Zero Trust. Alexander Peters, Mimecast: “In diesem Bereich tut sich aber viel. Man denke nur an die Erkennung von Deepfakes beim “Voice Phishing”, wenn es darum geht, bestimmte Phrasen, Begriffe und Muster zu erkennen.”Mimecast Informationen zu den Partner-Paketen der Studie “IT-Security & GenAI 2025” 

Awareness schlägt AI-Wettrüsten​ srcset="https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=444%2C250&quality=50&strip=all 444w" width="1024" height="576" sizes="(max-width: 1024px) 100vw, 1024px">(Generative) Künstliche Intelligenz nutzt aktuell primär den Angreifern – und zwingt Unternehmen zu noch mehr Aufmerksamkeit. Toey Andante/Shutterstock Das letzte “Das-Verändert-Wirklich-Alles”-Ereignis ist noch gar nicht so lange her, klingt in diesen Zeiten aber schon fast nostalgisch: Als das chinesische Startup DeepSeek Anfang des Jahres ihre generative KI “R1” vorstellte, war beim Blick hinter die branchentypischen Superlative schnell klar, dass die Innovationsgeschwindigkeit auch nüchtern betrachtet noch einmal zunehmen wird. Insbesondere die Aussicht, deutlich weniger Ressourcen für KI aufzuwenden, hat die Fantasie trotz vieler offener Fragen beflügelt – die Fantasie von Unternehmen genauso wie die der Cyberkriminellen. Mario Jandeck, Enginsight: “Gesetzliche Regulatorik wie NIS 2 hilft schon, vor allem als interne Argumentationshilfe. Noch wirksamer ist aber die Selbstregulatorik des Marktes, beispielsweise im Rahmen von Lieferketten.”www.susannnuernberger.net/Enginsight GmbH Durch die niedrigen Zugangshürden (entweder als Service oder gleich in Form von Open Source) ist Generative AI für jeden verfügbar, ungeachtet der kommerziellen, nicht-kommerziellen oder eben auch betrügerischen Absichten.Im Gegenteil: Die Angreiferseite hat sogar einen systemischen Vorteil namens “Trial and Error”. Cyberkriminelle sind in der komfortablen Position, einfach mal ausprobieren zu können, während in der Security niemand auf die Idee käme, einfach mal zu testen. Diese Asymmetrie anzuerkennen, macht für Christof Klaus vom Security-Dienstleister Myra den Kern der KI-Debatte in der IT-Sicherheit: “Unternehmen müssen in Bezug auf KI alle möglichen Angriffsvektoren identifizieren und absichern. Angreifer hingegen müssen nur eine einzige Schwachstelle finden. Daraus ergeben sich sehr deutliche Unterschiede in der Herangehensweise beim Einsatz neuer Technologien wie KI.” Andreas Hedderich, microfin: “Architektur und Tooling müssen sauber aufgebaut sein. Ist das nicht der Fall, entstehen Lücken, die mit AI auch viel schneller erkannt und ausgenutzt werden können. Gen AI bringt hier einen weiteren Layer rein, sowohl auf Angreifer- als auch auf Verteidigerseite.”microfin Unternehmensberatung GmbH Informationen zu den Partner-Paketen der Studie “IT-Security & GenAI 2025” Angriffe werden zielgenauer und schneller Der Durchbruch von generativer AI hat laut Experten des Computerwoche-Roundtables “Generative AI in der Security” nicht zu einer fundamental neuen Bedrohungslage geführt. Gestärkt werden durch Sprachmodelle wie ChatGPT besonders altbekannte Vorgehensweisen, allen voran das Phishing. “Phishing ist heute eher ‘Spear Phishing’”, konstatiert Paul Schussmann von SecAttack, “weil es dank generativer KI auf das Ziel maßgeschneidert wird. Ich kann mit ChatGPT und Co. einfach viel mehr Informationen verarbeiten und dadurch zum Beispiel viel bessere und vor allem mehr zugeschnittene E-Mails generieren.” Malte Vollandt, Logicalis: „Sobald eine Phishing-Mail Geld oder Gehalt erwähnt, klicken die meisten, ohne nachzudenken. Emotionen schlagen Vorsicht.“Logicalis GmbH Will die Verteidigerseite auf diese Bedrohung reagieren, kann sie sich nicht einfach derselben Methoden bedienen. Large Language Models wie ChatGPT können vor allem generieren, aber die Erkennung und vor allem die Reaktion auf Bedrohungslagen gehört nicht zu ihren Stärken. “Generative KI wird in der Security beim Schutz fast gar nicht eingesetzt”, betont Paul Schussmann von MimeCast. “In der Verteidigung dieser “digitalen Enkeltricks” kommen andere KI Technologien zum Tragen, allen voran Machine Learning und Sprach-Analyse auf Detection- und Response-Ebene.” Um die systemischen Nachteile der Verteidigerseite auszugleichen, rät Malte Vollandt von Logicalis, auch unkonventionelle Vorgehensweisen in den Blick zu nehmen: „Die Zeitspanne zwischen der Entdeckung einer Sicherheitslücke und ihrer aktiven Ausnutzung hat sich durch AI von Tagen auf Minuten verkürzt. Das Kernproblem bleibt: Die Verteidiger müssen sich an Regeln halten, die Angreifer jedoch nicht. Daraus müssen wir lernen – und Red Teaming als kontinuierlichen Bestandteil der Sicherheitsstrategie etablieren, statt es als punktuelle Übung zu betrachten.“ Christof Klaus, Myra Security: “KI-Systeme müssen in ein Netzwerk von Alarmsystemen integriert werden und dürfen keine unkontrollierten autonomen Entscheidungen treffen. KI ist ein Echtzeit-Analysewerkzeug und muss in kontrollierte Prozesse integriert werden. Eine Technologie wie KI darf nicht allein entscheiden, ob ein Signal korrekt ist oder nicht. Sie kann nur Teil einer Kette sein.”Myra Security Studie “IT-Security & GenAI”: Sie können sich noch beteiligen!Zum Thema IT-Security & GenAI führt die COMPUTERWOCHE derzeit eine Multi-Client-Studie unter IT-Verantwortlichen durch. Haben Sie Fragen zu dieser Studie oder wollen Partner bei dieser Studie werden, helfen wir Ihnen unter research-sales@foundryco.com gerne weiter. Informationen zur Studie finden Sie auch hier zum Download (PDF). Red Teaming auf dem Vormarsch Dem “Red Teaming” – oder “ethischen Hacking” – fällt in einer KI-dominierten Zukunft eine Schlüsselrolle zu. Die Verteidigerseite erhält dadurch neue Möglichkeiten, indem sie die Perspektive wechselt und die Rolle des Angreifers einnimmt. Die IT “attackiert” ihre eigenen Systeme und kann so Schwachstellen identifizieren und Gegenmaßnahmen einleiten. Das ermöglicht eine proaktive Sicherheitsstrategie, in der Schwachstellen erkannt und behoben werden, bevor echte Angreifer sie ausnutzen. 2025: Das Jahr der Agents? Ein bedeutender Trend, der sowohl Angreifer als auch Verteidiger im Jahr 2025 beeinflussen wird, ist der Aufstieg der sogenannten AI Agents. Diese Systeme werden lokal auf jedem Endgerät installiert und gehen weit über traditionelle Automatisierung hinaus, indem sie nicht nur auf Befehle reagieren, sondern auch eigenständig KI-basiert Schlussfolgerungen ziehen, sich an frühere Interaktionen erinnern und Aktionen ausführen. Paul Schussmann, SecAttack: “Phishing ist heute “Spear Phishing”, weil es dank Gen AI auf das Ziel maßgeschneidert wird. Ich kann mit Chat GPT und Co. einfach viel mehr Informationen verarbeiten und dadurch z.B. viel besser mehrere zugeschnittene E-Mails generieren.”Paul Schussmann, Secattack Führende Technologieunternehmen wie zum Beispiel Google mit seinem Projekt “Mariner” investieren Milliardenbeträge in die Entwicklung solcher Agents. Laut Daniel Schormann von Reply wird das Jahr 2025 sogar das „Jahr der KI-Agents“ sein, in dem ein „Wettrüsten von KI gegen KI“ stattfinden wird. Angreifer- und Verteidigerseite werden demnach immer mehr Ressourcen aufwenden, um Sicherheitslücken zu identifizieren oder eben zu schließen. Im Bereich der IT-Security könnten AI Agents beispielsweise dazu genutzt werden, Bedrohungen in Echtzeit zu erkennen und automatisierte Gegenmaßnahmen einzuleiten. „KI-Agents sorgen dafür, dass sich Daten schneller analysieren lassen”, so Schormann. “Menschliche Arbeit wird dadurch einfacher, jedoch erfordert es weiterhin eine gezielte Steuerung durch die Anwender.“ Daniel Schormann, Spike Reply: “Phishing-Angriffe nehmen weiter zu und sind nahezu fehlerfrei – diese können von extern, aber auch von eigenen Mitarbeitern kommen. Die erste Reaktion darauf muss die Förderung eines gesunden Misstrauens bei den eigenen Mitarbeitern sein.”Spike Reply Der größte Nachteil von Agent-basierten Sicherheitslösungen ist allerdings ihr hoher Verwaltungsaufwand. Sie müssen auf jedem Endgerät installiert, regelmäßig aktualisiert und gewartet werden, was in großen oder dynamischen IT-Umgebungen zu einem erheblichen Mehraufwand führt. Zudem können Agents Systemressourcen belasten und die Performance beeinträchtigen. In manchen Fällen stellen sie sogar selbst ein Sicherheitsrisiko dar, etwa wenn sie Schwachstellen enthalten oder von Angreifern manipuliert werden. Auch die Kompatibilität kann ein Problem sein, insbesondere bei heterogenen IT-Landschaften oder cloudbasierten Infrastrukturen, wo Agenten nicht immer unterstützt werden. In solchen Fällen sind “Agentless”-Ansätze eine weitere Option, die ohne lokal installierte Software-Agenten auskommen und stattdessen APIs oder Cloud-native Funktionen nutzt. Das vereinfacht die Implementierung und Wartung, reduziert die Systembelastung und ermöglicht eine breitere Abdeckung, etwa für Cloud-Umgebungen oder IoT-Geräte. Da keine Agents auf Endgeräten laufen, ist die Lösung weniger anfällig für Manipulation und kann Bedrohungen in Echtzeit erkennen sowie Gegenmaßnahmen einleiten. Besonders für dynamische IT-Infrastrukturen bietet Agentless Security damit eine flexible, skalierbare und effiziente Schutzlösung. Security ist auch eine Mindset-Frage Trotz einer gewissen Aufrüstung und der dringend notwendigen Schließung von Bedrohungslücken durch Nutzung von künstlicher Intelligenz bleibt die Befolgung der Grundprinzipien funktionierender Security nach wie vor die wichtigste Tugend. Die Experten sind sich weitgehend einig, dass ein gesundes Misstrauen beziehungsweise. das Mindset, jederzeit angegriffen werden zu können, noch immer den wichtigsten Schutz darstellt. Andreas Bahr, OpenText: “KI-gestützte Cybersicherheit hilft dabei, Bedrohungen in Echtzeit zu erkennen und abzuwehren. Doch Technologie allein reicht nicht – geschulte Mitarbeiter mit einer Heads-up-Mentalität sind die erste Verteidigungslinie gegen Ransomware.”OpenText Schon zu viel Ruhe im System kann darauf hindeuten, dass bereits ein Angriff erfolgt ist, wie Mario Jandeck von Enginsight betont: “KI hilft, potenziell gefährliche Daten zu klassifizieren. Was aber, wenn diese KI auch kompromittiert wird?” Sieht man sich außerdem die Realität in deutschen Unternehmen an, sind große technologische Antworten auf Bedrohungslagen für ihn vor allem mittelfristig keine Option: “Im Mittelstand arbeiten zwei Kollegen in der IT-Abteilung, die die Security ‘irgendwie mitmachen’. Da ist dann ein Antiviren-Agent und eine Firewall in Betrieb und das war es. Dort stehen weder die nötigen Ressourcen bereit, noch gibt es genug Dienstleister, um ein angemessenes Niveau zu erreichen.” Detection- und Response-Technologien mögen also helfen, die Folgen einer (Spear-)Fishing-Attacke zu begrenzen, noch effektiver sind aber kritisch denkende Mitarbeiter, die gar nicht erst auf den Link einer Betrugsmail klicken oder eine Datei herunterladen. Am Ende lässt sich die Strategie deswegen auch in einer KI-dominierten Welt auf zwei bewährte Faktoren reduzieren: Awareness unter den Mitarbeitern – und das “gute, alte” Zero Trust. Alexander Peters, Mimecast: “In diesem Bereich tut sich aber viel. Man denke nur an die Erkennung von Deepfakes beim “Voice Phishing”, wenn es darum geht, bestimmte Phrasen, Begriffe und Muster zu erkennen.”Mimecast Informationen zu den Partner-Paketen der Studie “IT-Security & GenAI 2025”

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/shutterstock_2326291829-100963278-orig_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>(Generative) Künstliche Intelligenz nutzt aktuell primär den Angreifern – und zwingt Unternehmen zu noch mehr Aufmerksamkeit. Toey Andante/Shutterstock Das letzte “Das-Verändert-Wirklich-Alles”-Ereignis ist noch gar nicht so lange her, klingt in diesen Zeiten aber schon fast nostalgisch: Als das chinesische Startup DeepSeek Anfang des Jahres ihre generative KI “R1” vorstellte, war beim Blick hinter die branchentypischen Superlative schnell klar, dass die Innovationsgeschwindigkeit auch nüchtern betrachtet noch einmal zunehmen wird. Insbesondere die Aussicht, deutlich weniger Ressourcen für KI aufzuwenden, hat die Fantasie trotz vieler offener Fragen beflügelt – die Fantasie von Unternehmen genauso wie die der Cyberkriminellen. Mario Jandeck, Enginsight: “Gesetzliche Regulatorik wie NIS 2 hilft schon, vor allem als interne Argumentationshilfe. Noch wirksamer ist aber die Selbstregulatorik des Marktes, beispielsweise im Rahmen von Lieferketten.”www.susannnuernberger.net/Enginsight GmbH Durch die niedrigen Zugangshürden (entweder als Service oder gleich in Form von Open Source) ist Generative AI für jeden verfügbar, ungeachtet der kommerziellen, nicht-kommerziellen oder eben auch betrügerischen Absichten.Im Gegenteil: Die Angreiferseite hat sogar einen systemischen Vorteil namens “Trial and Error”. Cyberkriminelle sind in der komfortablen Position, einfach mal ausprobieren zu können, während in der Security niemand auf die Idee käme, einfach mal zu testen. Diese Asymmetrie anzuerkennen, macht für Christof Klaus vom Security-Dienstleister Myra den Kern der KI-Debatte in der IT-Sicherheit: “Unternehmen müssen in Bezug auf KI alle möglichen Angriffsvektoren identifizieren und absichern. Angreifer hingegen müssen nur eine einzige Schwachstelle finden. Daraus ergeben sich sehr deutliche Unterschiede in der Herangehensweise beim Einsatz neuer Technologien wie KI.” Andreas Hedderich, microfin: “Architektur und Tooling müssen sauber aufgebaut sein. Ist das nicht der Fall, entstehen Lücken, die mit AI auch viel schneller erkannt und ausgenutzt werden können. Gen AI bringt hier einen weiteren Layer rein, sowohl auf Angreifer- als auch auf Verteidigerseite.”microfin Unternehmensberatung GmbH Informationen zu den Partner-Paketen der Studie “IT-Security & GenAI 2025” Angriffe werden zielgenauer und schneller Der Durchbruch von generativer AI hat laut Experten des Computerwoche-Roundtables “Generative AI in der Security” nicht zu einer fundamental neuen Bedrohungslage geführt. Gestärkt werden durch Sprachmodelle wie ChatGPT besonders altbekannte Vorgehensweisen, allen voran das Phishing. “Phishing ist heute eher ‘Spear Phishing’”, konstatiert Paul Schussmann von SecAttack, “weil es dank generativer KI auf das Ziel maßgeschneidert wird. Ich kann mit ChatGPT und Co. einfach viel mehr Informationen verarbeiten und dadurch zum Beispiel viel bessere und vor allem mehr zugeschnittene E-Mails generieren.” Malte Vollandt, Logicalis: „Sobald eine Phishing-Mail Geld oder Gehalt erwähnt, klicken die meisten, ohne nachzudenken. Emotionen schlagen Vorsicht.“Logicalis GmbH Will die Verteidigerseite auf diese Bedrohung reagieren, kann sie sich nicht einfach derselben Methoden bedienen. Large Language Models wie ChatGPT können vor allem generieren, aber die Erkennung und vor allem die Reaktion auf Bedrohungslagen gehört nicht zu ihren Stärken. “Generative KI wird in der Security beim Schutz fast gar nicht eingesetzt”, betont Paul Schussmann von MimeCast. “In der Verteidigung dieser “digitalen Enkeltricks” kommen andere KI Technologien zum Tragen, allen voran Machine Learning und Sprach-Analyse auf Detection- und Response-Ebene.” Um die systemischen Nachteile der Verteidigerseite auszugleichen, rät Malte Vollandt von Logicalis, auch unkonventionelle Vorgehensweisen in den Blick zu nehmen: „Die Zeitspanne zwischen der Entdeckung einer Sicherheitslücke und ihrer aktiven Ausnutzung hat sich durch AI von Tagen auf Minuten verkürzt. Das Kernproblem bleibt: Die Verteidiger müssen sich an Regeln halten, die Angreifer jedoch nicht. Daraus müssen wir lernen – und Red Teaming als kontinuierlichen Bestandteil der Sicherheitsstrategie etablieren, statt es als punktuelle Übung zu betrachten.“ Christof Klaus, Myra Security: “KI-Systeme müssen in ein Netzwerk von Alarmsystemen integriert werden und dürfen keine unkontrollierten autonomen Entscheidungen treffen. KI ist ein Echtzeit-Analysewerkzeug und muss in kontrollierte Prozesse integriert werden. Eine Technologie wie KI darf nicht allein entscheiden, ob ein Signal korrekt ist oder nicht. Sie kann nur Teil einer Kette sein.”Myra Security Studie “IT-Security & GenAI”: Sie können sich noch beteiligen!Zum Thema IT-Security & GenAI führt die COMPUTERWOCHE derzeit eine Multi-Client-Studie unter IT-Verantwortlichen durch. Haben Sie Fragen zu dieser Studie oder wollen Partner bei dieser Studie werden, helfen wir Ihnen unter research-sales@foundryco.com gerne weiter. Informationen zur Studie finden Sie auch hier zum Download (PDF). Red Teaming auf dem Vormarsch Dem “Red Teaming” – oder “ethischen Hacking” – fällt in einer KI-dominierten Zukunft eine Schlüsselrolle zu. Die Verteidigerseite erhält dadurch neue Möglichkeiten, indem sie die Perspektive wechselt und die Rolle des Angreifers einnimmt. Die IT “attackiert” ihre eigenen Systeme und kann so Schwachstellen identifizieren und Gegenmaßnahmen einleiten. Das ermöglicht eine proaktive Sicherheitsstrategie, in der Schwachstellen erkannt und behoben werden, bevor echte Angreifer sie ausnutzen. 2025: Das Jahr der Agents? Ein bedeutender Trend, der sowohl Angreifer als auch Verteidiger im Jahr 2025 beeinflussen wird, ist der Aufstieg der sogenannten AI Agents. Diese Systeme werden lokal auf jedem Endgerät installiert und gehen weit über traditionelle Automatisierung hinaus, indem sie nicht nur auf Befehle reagieren, sondern auch eigenständig KI-basiert Schlussfolgerungen ziehen, sich an frühere Interaktionen erinnern und Aktionen ausführen. Paul Schussmann, SecAttack: “Phishing ist heute “Spear Phishing”, weil es dank Gen AI auf das Ziel maßgeschneidert wird. Ich kann mit Chat GPT und Co. einfach viel mehr Informationen verarbeiten und dadurch z.B. viel besser mehrere zugeschnittene E-Mails generieren.”Paul Schussmann, Secattack Führende Technologieunternehmen wie zum Beispiel Google mit seinem Projekt “Mariner” investieren Milliardenbeträge in die Entwicklung solcher Agents. Laut Daniel Schormann von Reply wird das Jahr 2025 sogar das „Jahr der KI-Agents“ sein, in dem ein „Wettrüsten von KI gegen KI“ stattfinden wird. Angreifer- und Verteidigerseite werden demnach immer mehr Ressourcen aufwenden, um Sicherheitslücken zu identifizieren oder eben zu schließen. Im Bereich der IT-Security könnten AI Agents beispielsweise dazu genutzt werden, Bedrohungen in Echtzeit zu erkennen und automatisierte Gegenmaßnahmen einzuleiten. „KI-Agents sorgen dafür, dass sich Daten schneller analysieren lassen”, so Schormann. “Menschliche Arbeit wird dadurch einfacher, jedoch erfordert es weiterhin eine gezielte Steuerung durch die Anwender.“ Daniel Schormann, Spike Reply: “Phishing-Angriffe nehmen weiter zu und sind nahezu fehlerfrei – diese können von extern, aber auch von eigenen Mitarbeitern kommen. Die erste Reaktion darauf muss die Förderung eines gesunden Misstrauens bei den eigenen Mitarbeitern sein.”Spike Reply Der größte Nachteil von Agent-basierten Sicherheitslösungen ist allerdings ihr hoher Verwaltungsaufwand. Sie müssen auf jedem Endgerät installiert, regelmäßig aktualisiert und gewartet werden, was in großen oder dynamischen IT-Umgebungen zu einem erheblichen Mehraufwand führt. Zudem können Agents Systemressourcen belasten und die Performance beeinträchtigen. In manchen Fällen stellen sie sogar selbst ein Sicherheitsrisiko dar, etwa wenn sie Schwachstellen enthalten oder von Angreifern manipuliert werden. Auch die Kompatibilität kann ein Problem sein, insbesondere bei heterogenen IT-Landschaften oder cloudbasierten Infrastrukturen, wo Agenten nicht immer unterstützt werden. In solchen Fällen sind “Agentless”-Ansätze eine weitere Option, die ohne lokal installierte Software-Agenten auskommen und stattdessen APIs oder Cloud-native Funktionen nutzt. Das vereinfacht die Implementierung und Wartung, reduziert die Systembelastung und ermöglicht eine breitere Abdeckung, etwa für Cloud-Umgebungen oder IoT-Geräte. Da keine Agents auf Endgeräten laufen, ist die Lösung weniger anfällig für Manipulation und kann Bedrohungen in Echtzeit erkennen sowie Gegenmaßnahmen einleiten. Besonders für dynamische IT-Infrastrukturen bietet Agentless Security damit eine flexible, skalierbare und effiziente Schutzlösung. Security ist auch eine Mindset-Frage Trotz einer gewissen Aufrüstung und der dringend notwendigen Schließung von Bedrohungslücken durch Nutzung von künstlicher Intelligenz bleibt die Befolgung der Grundprinzipien funktionierender Security nach wie vor die wichtigste Tugend. Die Experten sind sich weitgehend einig, dass ein gesundes Misstrauen beziehungsweise. das Mindset, jederzeit angegriffen werden zu können, noch immer den wichtigsten Schutz darstellt. Andreas Bahr, OpenText: “KI-gestützte Cybersicherheit hilft dabei, Bedrohungen in Echtzeit zu erkennen und abzuwehren. Doch Technologie allein reicht nicht – geschulte Mitarbeiter mit einer Heads-up-Mentalität sind die erste Verteidigungslinie gegen Ransomware.”OpenText Schon zu viel Ruhe im System kann darauf hindeuten, dass bereits ein Angriff erfolgt ist, wie Mario Jandeck von Enginsight betont: “KI hilft, potenziell gefährliche Daten zu klassifizieren. Was aber, wenn diese KI auch kompromittiert wird?” Sieht man sich außerdem die Realität in deutschen Unternehmen an, sind große technologische Antworten auf Bedrohungslagen für ihn vor allem mittelfristig keine Option: “Im Mittelstand arbeiten zwei Kollegen in der IT-Abteilung, die die Security ‘irgendwie mitmachen’. Da ist dann ein Antiviren-Agent und eine Firewall in Betrieb und das war es. Dort stehen weder die nötigen Ressourcen bereit, noch gibt es genug Dienstleister, um ein angemessenes Niveau zu erreichen.” Detection- und Response-Technologien mögen also helfen, die Folgen einer (Spear-)Fishing-Attacke zu begrenzen, noch effektiver sind aber kritisch denkende Mitarbeiter, die gar nicht erst auf den Link einer Betrugsmail klicken oder eine Datei herunterladen. Am Ende lässt sich die Strategie deswegen auch in einer KI-dominierten Welt auf zwei bewährte Faktoren reduzieren: Awareness unter den Mitarbeitern – und das “gute, alte” Zero Trust. Alexander Peters, Mimecast: “In diesem Bereich tut sich aber viel. Man denke nur an die Erkennung von Deepfakes beim “Voice Phishing”, wenn es darum geht, bestimmte Phrasen, Begriffe und Muster zu erkennen.”Mimecast Informationen zu den Partner-Paketen der Studie “IT-Security & GenAI 2025” 

Nach oben scrollen
×