DeepSeek AI hat das Generative-AI-Game quasi über Nacht auf den Kopf gestellt. Das sollten Unternehmen wissen, bevor sie die Anwendung einsetzen.Rokas Tenys | shutterstock.com Ende 2022 löste ChatGPT den KI-Hype der Neuzeit aus und veranlasste die Tech-Industrie, ihre Zukunft neu zu bewerten. Das chinesische Startup DeepSeek AI konnte Ähnliches bewerkstelligen – nur im Laufe eines Wochenendes. Das bis vor kurzem noch unbekannte Jungunternehmen aus dem Reich der Mitte hat sich in kürzester Zeit als potenzieller, neuer KI-Gamechanger hervorgetan und dadurch an der Wall Street für panische Reaktionen gesorgt. Das grundlegende Versprechen des chinesischen Startups: Sein KI-Modell soll dieselbe Performance wie die „westlichen“ Konkurrenzmodelle von OpenAI, Meta und Co. realisieren, aber zu einem Bruchteil der Kosten. Inzwischen zählen auch prominente Tech-Persönlichkeiten zur Fanbase von DeepSeek AI – zum Beispiel Intels ehemaliger CEO Pat Gelsinger. Er ist davon überzeugt, dass das chinesische Startup „dazu beitragen wird, der zunehmend geschlossenen Welt der Foundational AI Models einen Neustart zu ermöglichen“, wie er in einem überschwänglichen Post auf X kundtut: Wisdom is learning the lessons we thought we already knew. DeepSeek reminds us of three important learnings from computing history:1) Computing obeys the gas law. Making it dramatically cheaper will expand the market for it. The markets are getting it wrong, this will make AI…— Pat Gelsinger (@PGelsinger) January 27, 2025 Aus Unternehmensperspektive sollte der virale Über-Nacht-Erfolg der Chinesen allerdings auch kritische Fragen aufwerfen. Zum Beispiel: Wie steht es wirklich um die Performanz von DeepSeek R1? Welche Datenschutzrisiken ergeben sich daraus, das chinesische KI-Modell im Unternehmen einzusetzen? Wie sicher ist DeepSeek R1 eigentlich? In diesem Artikel versuchen wir, den Antworten auf diese Fragen näherzukommen. “Organisationen sollten sich lieber zurückhalten” Glaubt man DeepSeek AI, soll das KI-Modell R1 sein OpenAI-Äquivalent (o1-mini) in diversen mathematischen und logischen Tests übertreffen können. Zu allem Überfluss ist DeepSeeks R1 mit einer MIT-Lizenz ausgestattet, die es uneingeschränkt gestattet, das KI-Modell kommerziell zu nutzen, zu modifizieren und zu vertreiben. Mit seiner „Zero-Day-Disruption“ stellt DeepSeek AI die Preisstrukturen, die OpenAI, Meta und Co. für ihre Modelle vorsehen, erfolgreich in Frage, wie nicht zuletzt die Reaktion an den Börsen zeigen. Die Verunsicherung ist spürbar: Eventuell benötigt man ja gar keine ausufernden Chip-Cluster, wie sie die Hyperscaler propagieren und kann performante KI-Lösungen auch wesentlich günstiger beziehen, respektive entwickeln? Es ist durchaus möglich, dass DeepSeek R1 das Potenzial hat, die Kosten für Generative AI allgemein zu senken und den LLM-Wettbewerb neu anzuheizen. Die anhaltenden Bemühungen der US-Regierung, chinesische Unternehmen von fortschrittlichen KI-Chips fernzuhalten, hat sich durch DeepSeeks KI-Vorstoß nebenbei ebenfalls als wirkungslos erwiesen – und wohl auch dazu beigetragen, dass die westlichen KI-Player davon (besonders) kalt erwischt wurden. Inzwischen stürzen sich bereits weltweit Scharen von Entwicklern – und Mitarbeitern – auf das KI-Modell von DeepSeek, um es auf Herz und Nieren zu testen (auch wenn der API-Zugriff aktuell wegen eines vermuteten DDoS-Angriffs eingeschränkt ist; Stand 30.01.2025). An dieser Stelle warnt der britische Sicherheitsexperte Graham Cluley: „Man kann jedem, der die App installieren und nutzen möchte, nur zur Vorsicht raten, insbesondere wenn dabei sensible Unternehmensdaten ins Spiel kommen. Organisationen sollten sich mit Blick auf eine umfassende Nutzung lieber zurückhalten, bis die Anwendung gründlicher überprüft wurde – so wie sie es bei jeder neuen App tun würden.“ Dennoch ist der Cybersicherheitsexperte davon überzeugt, dass DeepSeek AI den etablierten Silicon-Valley-Playern Sorgen bereiten sollte: „Wenn die Chinesen tatsächlich in der Lage waren, eine wettbewerbsfähige KI zu entwickeln, die die Lösungen etablierter Tech-Giganten mit Blick auf die Entwicklungskosten massiv unterbietet und mit einem Bruchteil der Hardware auskommt, wird das die Karten neu mischen.“ Mit Blick auf das Preis-Leistungs-Versprechen von DeepSeek AI sind nicht wenige Marktbeobachter jedoch skeptisch. Stacy Rasgon, Senior Analyst bei Bernstein Research zum Beispiel: „DeepSeek hat natürlich nicht OpenAI für fünf Millionen Dollar ‚nachgebaut‘“, konstatiert der Experte im Rahmen einer Kundenmitteilung. Er fügt hinzu: „Diese vielzitierte Zahl wurde auf Grundlage eines Mietpreises von zwei Dollar pro GPU-Stunde berechnet. Das kann man machen, entspricht aber nicht wirklich den Tatsachen und berücksichtigt vor allem nicht sämtliche anderen Kosten, die in Zusammenhang mit früheren Forschungsinitiativen zu Architekturen, Algorithmen oder Daten angefallen sind.“ “DeepSeek R1 ist höchst vulnerabel” Der Threat-Intelligence-Anbieter Kela hat sich in einer aktuellen Analyse auch bereits eingehend mit dem Security-Niveau von DeepSeek R1 auseinandergesetzt. Dabei kommen die Sicherheitsexperten zu besorgniserregenden Ergebnissen: „Wir konnten beobachten, dass DeepSeek R1 ChatGPT ähnlich ist, aber signifikant mehr Schwachstellen aufweist. Unser Red Team konnte das Modell in einer Vielzahl von Szenarien jailbreaken und so bösartige Inhalte generieren.“ So konnten die Kela-Experten nach eigener Auskunft DeepSeek R1 ohne Probleme dazu bringen, eine „schadhafte Persona“ anzunehmen – und anschließend unter anderem Tipps dazu auszuspucken, wie man ein professionelles Geldwäschenetzwerk aufzieht. „Wichtig ist in diesem Zusammenhang, dass dieser ‚Evil Jailbreak‘ in GPT-4 und GPT-4o längst durch einen Patch verhindert wird. Bei DeepSeek R1 war das hingegen problemlos möglich, was demonstriert, dass dieses KI-Modell höchst vulnerabel ist“, konstatieren die Experten. Die Forscher konnten DeepSeeks KI-Modell auch dazu bringen, Malware zu generieren und den Prozess dabei Schritt für Schritt aufzudröseln – inklusive einschlägiger Code Snippets. „Das Modell von DeepSeek AI demonstriert eine starke Performance und Effizienz und ist ein potenzieller Herausforderer für die Tech-Giganten. In Sachen Security, Datenschutz und -sicherheit hinkt DeepSeek R1 allerdings hinterher“, resümieren die Kela-Forscher und mahnen Unternehmen zur Vorsicht. Als chinesisches Unternehmen unterliege DeepSeek AI zudem der chinesischen Gesetzgebung und damit auch der Pflicht, bestimmte Daten mit Regierungsbehörden zu teilen, geben die Forscher darüber hinaus zu bedenken und ergänzen: „Das Unternehmen behält sich auch das Recht vor, die In- und Outputs der Benutzer dazu zu nutzen, seine Services zu optimieren – ohne dabei eine klare Opt-Out-Option anzubieten.“ Auch die Sicherheitsexperten von Wiz Security haben sich nach dem überraschenden Hype um DeepSeek AI mit dem chinesischen KI-Startup beschäftigt – beziehungsweise mit seiner externen Security Posture. In diesem Rahmen sind die Wiz-Experten auf eine verheerende Sicherheitslücke gestoßen, wie sie in einem ausführlichen Blogbeitrag darlegen. BREAKING: Internal #DeepSeek database publicly exposed 🚨Wiz Research has discovered “DeepLeak” – a publicly accessible ClickHouse database belonging to DeepSeek, exposing highly sensitive information, including secret keys, plain-text chat messages, backend details, and logs. pic.twitter.com/C7HZTKNO3p— Wiz (@wiz_io) January 29, 2025 Demnach konnten die Security-Forscher im Netz eine öffentlich zugängliche Clickhouse-Datenbank von DeepSeek AI identifizieren, die es ermöglichte, auf sensible interne Daten zuzugreifen: “Dabei wurden unter anderem eine Million Codezeilen offengelegt, die Chat-Verläufe, geheime Schlüssel sowie Backend-Details und weitere hochsensible Informationen enthielten”, konstatieren die Forscher und fügen hinzu, das DeepSeek-Team umgehend über ihre Erkenntnisse informiert zu haben. Die Sicherheitslücke sei daraufhin zügig geschlossen worden. Das ändert jedoch nichts an der Tatsache, dass Cybersicherheit bei DeepSeek AI bislang scheinbar keine Top-Priorität darstellt. Zumindest legt das der Umfang der von Wiz identifizierten Schwachstellen nahe: “Es war möglich, die vollständige Kontrolle über diese Datenbank zu übernehmen – und zwar ohne sich authentifizieren zu müssen. Damit wären potenziell auch Privilege-Escalation-Angriffe innerhalb der DeepSeek-Umgebung möglich gewesen.” Wie die Forscher von Wiz festhalten, drehe sich im Bereich KI Security vieles um futuristische Bedrohungen, während echte Gefahren, die aus grundlegenden Risiken wie versehentlich offengelegten Datenbanken erwachsen, unter den Tisch fallen würden: “Diese fundamentalen Sicherheitsrisiken sollten für Security-Teams weiterhin oberste Priorität haben”, mahnen die Forscher. Angesichts dieser Erkenntnisse sind staatlich verordnete Zensurmaßnahmen (ein chinesischer Host vorausgesetzt) mit Blick auf DeepSeek AI vielleicht noch das geringste Problem: data-embed-height=”740″>Just a reminder about the cost of censorship byu/jewdai inChatGPT Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!
DeepSeek R1 – gefährlich disruptiv?
DeepSeek AI hat das Generative-AI-Game quasi über Nacht auf den Kopf gestellt. Das sollten Unternehmen wissen, bevor sie die Anwendung einsetzen.Rokas Tenys | shutterstock.com Ende 2022 löste ChatGPT den KI-Hype der Neuzeit aus und veranlasste die Tech-Industrie, ihre Zukunft neu zu bewerten. Das chinesische Startup DeepSeek AI konnte Ähnliches bewerkstelligen – nur im Laufe eines Wochenendes. Das bis vor kurzem noch unbekannte Jungunternehmen aus dem Reich der Mitte hat sich in kürzester Zeit als potenzieller, neuer KI-Gamechanger hervorgetan und dadurch an der Wall Street für panische Reaktionen gesorgt. Das grundlegende Versprechen des chinesischen Startups: Sein KI-Modell soll dieselbe Performance wie die „westlichen“ Konkurrenzmodelle von OpenAI, Meta und Co. realisieren, aber zu einem Bruchteil der Kosten. Inzwischen zählen auch prominente Tech-Persönlichkeiten zur Fanbase von DeepSeek AI – zum Beispiel Intels ehemaliger CEO Pat Gelsinger. Er ist davon überzeugt, dass das chinesische Startup „dazu beitragen wird, der zunehmend geschlossenen Welt der Foundational AI Models einen Neustart zu ermöglichen“, wie er in einem überschwänglichen Post auf X kundtut: Wisdom is learning the lessons we thought we already knew. DeepSeek reminds us of three important learnings from computing history:1) Computing obeys the gas law. Making it dramatically cheaper will expand the market for it. The markets are getting it wrong, this will make AI…— Pat Gelsinger (@PGelsinger) January 27, 2025 Aus Unternehmensperspektive sollte der virale Über-Nacht-Erfolg der Chinesen allerdings auch kritische Fragen aufwerfen. Zum Beispiel: Wie steht es wirklich um die Performanz von DeepSeek R1? Welche Datenschutzrisiken ergeben sich daraus, das chinesische KI-Modell im Unternehmen einzusetzen? Wie sicher ist DeepSeek R1 eigentlich? In diesem Artikel versuchen wir, den Antworten auf diese Fragen näherzukommen. “Organisationen sollten sich lieber zurückhalten” Glaubt man DeepSeek AI, soll das KI-Modell R1 sein OpenAI-Äquivalent (o1-mini) in diversen mathematischen und logischen Tests übertreffen können. Zu allem Überfluss ist DeepSeeks R1 mit einer MIT-Lizenz ausgestattet, die es uneingeschränkt gestattet, das KI-Modell kommerziell zu nutzen, zu modifizieren und zu vertreiben. Mit seiner „Zero-Day-Disruption“ stellt DeepSeek AI die Preisstrukturen, die OpenAI, Meta und Co. für ihre Modelle vorsehen, erfolgreich in Frage, wie nicht zuletzt die Reaktion an den Börsen zeigen. Die Verunsicherung ist spürbar: Eventuell benötigt man ja gar keine ausufernden Chip-Cluster, wie sie die Hyperscaler propagieren und kann performante KI-Lösungen auch wesentlich günstiger beziehen, respektive entwickeln? Es ist durchaus möglich, dass DeepSeek R1 das Potenzial hat, die Kosten für Generative AI allgemein zu senken und den LLM-Wettbewerb neu anzuheizen. Die anhaltenden Bemühungen der US-Regierung, chinesische Unternehmen von fortschrittlichen KI-Chips fernzuhalten, hat sich durch DeepSeeks KI-Vorstoß nebenbei ebenfalls als wirkungslos erwiesen – und wohl auch dazu beigetragen, dass die westlichen KI-Player davon (besonders) kalt erwischt wurden. Inzwischen stürzen sich bereits weltweit Scharen von Entwicklern – und Mitarbeitern – auf das KI-Modell von DeepSeek, um es auf Herz und Nieren zu testen (auch wenn der API-Zugriff aktuell wegen eines vermuteten DDoS-Angriffs eingeschränkt ist; Stand 30.01.2025). An dieser Stelle warnt der britische Sicherheitsexperte Graham Cluley: „Man kann jedem, der die App installieren und nutzen möchte, nur zur Vorsicht raten, insbesondere wenn dabei sensible Unternehmensdaten ins Spiel kommen. Organisationen sollten sich mit Blick auf eine umfassende Nutzung lieber zurückhalten, bis die Anwendung gründlicher überprüft wurde – so wie sie es bei jeder neuen App tun würden.“ Dennoch ist der Cybersicherheitsexperte davon überzeugt, dass DeepSeek AI den etablierten Silicon-Valley-Playern Sorgen bereiten sollte: „Wenn die Chinesen tatsächlich in der Lage waren, eine wettbewerbsfähige KI zu entwickeln, die die Lösungen etablierter Tech-Giganten mit Blick auf die Entwicklungskosten massiv unterbietet und mit einem Bruchteil der Hardware auskommt, wird das die Karten neu mischen.“ Mit Blick auf das Preis-Leistungs-Versprechen von DeepSeek AI sind nicht wenige Marktbeobachter jedoch skeptisch. Stacy Rasgon, Senior Analyst bei Bernstein Research zum Beispiel: „DeepSeek hat natürlich nicht OpenAI für fünf Millionen Dollar ‚nachgebaut‘“, konstatiert der Experte im Rahmen einer Kundenmitteilung. Er fügt hinzu: „Diese vielzitierte Zahl wurde auf Grundlage eines Mietpreises von zwei Dollar pro GPU-Stunde berechnet. Das kann man machen, entspricht aber nicht wirklich den Tatsachen und berücksichtigt vor allem nicht sämtliche anderen Kosten, die in Zusammenhang mit früheren Forschungsinitiativen zu Architekturen, Algorithmen oder Daten angefallen sind.“ “DeepSeek R1 ist höchst vulnerabel” Der Threat-Intelligence-Anbieter Kela hat sich in einer aktuellen Analyse auch bereits eingehend mit dem Security-Niveau von DeepSeek R1 auseinandergesetzt. Dabei kommen die Sicherheitsexperten zu besorgniserregenden Ergebnissen: „Wir konnten beobachten, dass DeepSeek R1 ChatGPT ähnlich ist, aber signifikant mehr Schwachstellen aufweist. Unser Red Team konnte das Modell in einer Vielzahl von Szenarien jailbreaken und so bösartige Inhalte generieren.“ So konnten die Kela-Experten nach eigener Auskunft DeepSeek R1 ohne Probleme dazu bringen, eine „schadhafte Persona“ anzunehmen – und anschließend unter anderem Tipps dazu auszuspucken, wie man ein professionelles Geldwäschenetzwerk aufzieht. „Wichtig ist in diesem Zusammenhang, dass dieser ‚Evil Jailbreak‘ in GPT-4 und GPT-4o längst durch einen Patch verhindert wird. Bei DeepSeek R1 war das hingegen problemlos möglich, was demonstriert, dass dieses KI-Modell höchst vulnerabel ist“, konstatieren die Experten. Die Forscher konnten DeepSeeks KI-Modell auch dazu bringen, Malware zu generieren und den Prozess dabei Schritt für Schritt aufzudröseln – inklusive einschlägiger Code Snippets. „Das Modell von DeepSeek AI demonstriert eine starke Performance und Effizienz und ist ein potenzieller Herausforderer für die Tech-Giganten. In Sachen Security, Datenschutz und -sicherheit hinkt DeepSeek R1 allerdings hinterher“, resümieren die Kela-Forscher und mahnen Unternehmen zur Vorsicht. Als chinesisches Unternehmen unterliege DeepSeek AI zudem der chinesischen Gesetzgebung und damit auch der Pflicht, bestimmte Daten mit Regierungsbehörden zu teilen, geben die Forscher darüber hinaus zu bedenken und ergänzen: „Das Unternehmen behält sich auch das Recht vor, die In- und Outputs der Benutzer dazu zu nutzen, seine Services zu optimieren – ohne dabei eine klare Opt-Out-Option anzubieten.“ Auch die Sicherheitsexperten von Wiz Security haben sich nach dem überraschenden Hype um DeepSeek AI mit dem chinesischen KI-Startup beschäftigt – beziehungsweise mit seiner externen Security Posture. In diesem Rahmen sind die Wiz-Experten auf eine verheerende Sicherheitslücke gestoßen, wie sie in einem ausführlichen Blogbeitrag darlegen. BREAKING: Internal #DeepSeek database publicly exposed 🚨Wiz Research has discovered “DeepLeak” – a publicly accessible ClickHouse database belonging to DeepSeek, exposing highly sensitive information, including secret keys, plain-text chat messages, backend details, and logs. pic.twitter.com/C7HZTKNO3p— Wiz (@wiz_io) January 29, 2025 Demnach konnten die Security-Forscher im Netz eine öffentlich zugängliche Clickhouse-Datenbank von DeepSeek AI identifizieren, die es ermöglichte, auf sensible interne Daten zuzugreifen: “Dabei wurden unter anderem eine Million Codezeilen offengelegt, die Chat-Verläufe, geheime Schlüssel sowie Backend-Details und weitere hochsensible Informationen enthielten”, konstatieren die Forscher und fügen hinzu, das DeepSeek-Team umgehend über ihre Erkenntnisse informiert zu haben. Die Sicherheitslücke sei daraufhin zügig geschlossen worden. Das ändert jedoch nichts an der Tatsache, dass Cybersicherheit bei DeepSeek AI bislang scheinbar keine Top-Priorität darstellt. Zumindest legt das der Umfang der von Wiz identifizierten Schwachstellen nahe: “Es war möglich, die vollständige Kontrolle über diese Datenbank zu übernehmen – und zwar ohne sich authentifizieren zu müssen. Damit wären potenziell auch Privilege-Escalation-Angriffe innerhalb der DeepSeek-Umgebung möglich gewesen.” Wie die Forscher von Wiz festhalten, drehe sich im Bereich KI Security vieles um futuristische Bedrohungen, während echte Gefahren, die aus grundlegenden Risiken wie versehentlich offengelegten Datenbanken erwachsen, unter den Tisch fallen würden: “Diese fundamentalen Sicherheitsrisiken sollten für Security-Teams weiterhin oberste Priorität haben”, mahnen die Forscher. Angesichts dieser Erkenntnisse sind staatlich verordnete Zensurmaßnahmen (ein chinesischer Host vorausgesetzt) mit Blick auf DeepSeek AI vielleicht noch das geringste Problem: data-embed-height="740">Just a reminder about the cost of censorship byu/jewdai inChatGPT Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!
DeepSeek R1 – gefährlich disruptiv? DeepSeek AI hat das Generative-AI-Game quasi über Nacht auf den Kopf gestellt. Das sollten Unternehmen wissen, bevor sie die Anwendung einsetzen.Rokas Tenys | shutterstock.com Ende 2022 löste ChatGPT den KI-Hype der Neuzeit aus und veranlasste die Tech-Industrie, ihre Zukunft neu zu bewerten. Das chinesische Startup DeepSeek AI konnte Ähnliches bewerkstelligen – nur im Laufe eines Wochenendes. Das bis vor kurzem noch unbekannte Jungunternehmen aus dem Reich der Mitte hat sich in kürzester Zeit als potenzieller, neuer KI-Gamechanger hervorgetan und dadurch an der Wall Street für panische Reaktionen gesorgt. Das grundlegende Versprechen des chinesischen Startups: Sein KI-Modell soll dieselbe Performance wie die „westlichen“ Konkurrenzmodelle von OpenAI, Meta und Co. realisieren, aber zu einem Bruchteil der Kosten. Inzwischen zählen auch prominente Tech-Persönlichkeiten zur Fanbase von DeepSeek AI – zum Beispiel Intels ehemaliger CEO Pat Gelsinger. Er ist davon überzeugt, dass das chinesische Startup „dazu beitragen wird, der zunehmend geschlossenen Welt der Foundational AI Models einen Neustart zu ermöglichen“, wie er in einem überschwänglichen Post auf X kundtut: Wisdom is learning the lessons we thought we already knew. DeepSeek reminds us of three important learnings from computing history:1) Computing obeys the gas law. Making it dramatically cheaper will expand the market for it. The markets are getting it wrong, this will make AI…— Pat Gelsinger (@PGelsinger) January 27, 2025 Aus Unternehmensperspektive sollte der virale Über-Nacht-Erfolg der Chinesen allerdings auch kritische Fragen aufwerfen. Zum Beispiel: Wie steht es wirklich um die Performanz von DeepSeek R1? Welche Datenschutzrisiken ergeben sich daraus, das chinesische KI-Modell im Unternehmen einzusetzen? Wie sicher ist DeepSeek R1 eigentlich? In diesem Artikel versuchen wir, den Antworten auf diese Fragen näherzukommen. “Organisationen sollten sich lieber zurückhalten” Glaubt man DeepSeek AI, soll das KI-Modell R1 sein OpenAI-Äquivalent (o1-mini) in diversen mathematischen und logischen Tests übertreffen können. Zu allem Überfluss ist DeepSeeks R1 mit einer MIT-Lizenz ausgestattet, die es uneingeschränkt gestattet, das KI-Modell kommerziell zu nutzen, zu modifizieren und zu vertreiben. Mit seiner „Zero-Day-Disruption“ stellt DeepSeek AI die Preisstrukturen, die OpenAI, Meta und Co. für ihre Modelle vorsehen, erfolgreich in Frage, wie nicht zuletzt die Reaktion an den Börsen zeigen. Die Verunsicherung ist spürbar: Eventuell benötigt man ja gar keine ausufernden Chip-Cluster, wie sie die Hyperscaler propagieren und kann performante KI-Lösungen auch wesentlich günstiger beziehen, respektive entwickeln? Es ist durchaus möglich, dass DeepSeek R1 das Potenzial hat, die Kosten für Generative AI allgemein zu senken und den LLM-Wettbewerb neu anzuheizen. Die anhaltenden Bemühungen der US-Regierung, chinesische Unternehmen von fortschrittlichen KI-Chips fernzuhalten, hat sich durch DeepSeeks KI-Vorstoß nebenbei ebenfalls als wirkungslos erwiesen – und wohl auch dazu beigetragen, dass die westlichen KI-Player davon (besonders) kalt erwischt wurden. Inzwischen stürzen sich bereits weltweit Scharen von Entwicklern – und Mitarbeitern – auf das KI-Modell von DeepSeek, um es auf Herz und Nieren zu testen (auch wenn der API-Zugriff aktuell wegen eines vermuteten DDoS-Angriffs eingeschränkt ist; Stand 30.01.2025). An dieser Stelle warnt der britische Sicherheitsexperte Graham Cluley: „Man kann jedem, der die App installieren und nutzen möchte, nur zur Vorsicht raten, insbesondere wenn dabei sensible Unternehmensdaten ins Spiel kommen. Organisationen sollten sich mit Blick auf eine umfassende Nutzung lieber zurückhalten, bis die Anwendung gründlicher überprüft wurde – so wie sie es bei jeder neuen App tun würden.“ Dennoch ist der Cybersicherheitsexperte davon überzeugt, dass DeepSeek AI den etablierten Silicon-Valley-Playern Sorgen bereiten sollte: „Wenn die Chinesen tatsächlich in der Lage waren, eine wettbewerbsfähige KI zu entwickeln, die die Lösungen etablierter Tech-Giganten mit Blick auf die Entwicklungskosten massiv unterbietet und mit einem Bruchteil der Hardware auskommt, wird das die Karten neu mischen.“ Mit Blick auf das Preis-Leistungs-Versprechen von DeepSeek AI sind nicht wenige Marktbeobachter jedoch skeptisch. Stacy Rasgon, Senior Analyst bei Bernstein Research zum Beispiel: „DeepSeek hat natürlich nicht OpenAI für fünf Millionen Dollar ‚nachgebaut‘“, konstatiert der Experte im Rahmen einer Kundenmitteilung. Er fügt hinzu: „Diese vielzitierte Zahl wurde auf Grundlage eines Mietpreises von zwei Dollar pro GPU-Stunde berechnet. Das kann man machen, entspricht aber nicht wirklich den Tatsachen und berücksichtigt vor allem nicht sämtliche anderen Kosten, die in Zusammenhang mit früheren Forschungsinitiativen zu Architekturen, Algorithmen oder Daten angefallen sind.“ “DeepSeek R1 ist höchst vulnerabel” Der Threat-Intelligence-Anbieter Kela hat sich in einer aktuellen Analyse auch bereits eingehend mit dem Security-Niveau von DeepSeek R1 auseinandergesetzt. Dabei kommen die Sicherheitsexperten zu besorgniserregenden Ergebnissen: „Wir konnten beobachten, dass DeepSeek R1 ChatGPT ähnlich ist, aber signifikant mehr Schwachstellen aufweist. Unser Red Team konnte das Modell in einer Vielzahl von Szenarien jailbreaken und so bösartige Inhalte generieren.“ So konnten die Kela-Experten nach eigener Auskunft DeepSeek R1 ohne Probleme dazu bringen, eine „schadhafte Persona“ anzunehmen – und anschließend unter anderem Tipps dazu auszuspucken, wie man ein professionelles Geldwäschenetzwerk aufzieht. „Wichtig ist in diesem Zusammenhang, dass dieser ‚Evil Jailbreak‘ in GPT-4 und GPT-4o längst durch einen Patch verhindert wird. Bei DeepSeek R1 war das hingegen problemlos möglich, was demonstriert, dass dieses KI-Modell höchst vulnerabel ist“, konstatieren die Experten. Die Forscher konnten DeepSeeks KI-Modell auch dazu bringen, Malware zu generieren und den Prozess dabei Schritt für Schritt aufzudröseln – inklusive einschlägiger Code Snippets. „Das Modell von DeepSeek AI demonstriert eine starke Performance und Effizienz und ist ein potenzieller Herausforderer für die Tech-Giganten. In Sachen Security, Datenschutz und -sicherheit hinkt DeepSeek R1 allerdings hinterher“, resümieren die Kela-Forscher und mahnen Unternehmen zur Vorsicht. Als chinesisches Unternehmen unterliege DeepSeek AI zudem der chinesischen Gesetzgebung und damit auch der Pflicht, bestimmte Daten mit Regierungsbehörden zu teilen, geben die Forscher darüber hinaus zu bedenken und ergänzen: „Das Unternehmen behält sich auch das Recht vor, die In- und Outputs der Benutzer dazu zu nutzen, seine Services zu optimieren – ohne dabei eine klare Opt-Out-Option anzubieten.“ Auch die Sicherheitsexperten von Wiz Security haben sich nach dem überraschenden Hype um DeepSeek AI mit dem chinesischen KI-Startup beschäftigt – beziehungsweise mit seiner externen Security Posture. In diesem Rahmen sind die Wiz-Experten auf eine verheerende Sicherheitslücke gestoßen, wie sie in einem ausführlichen Blogbeitrag darlegen. BREAKING: Internal #DeepSeek database publicly exposed 🚨Wiz Research has discovered “DeepLeak” – a publicly accessible ClickHouse database belonging to DeepSeek, exposing highly sensitive information, including secret keys, plain-text chat messages, backend details, and logs. pic.twitter.com/C7HZTKNO3p— Wiz (@wiz_io) January 29, 2025 Demnach konnten die Security-Forscher im Netz eine öffentlich zugängliche Clickhouse-Datenbank von DeepSeek AI identifizieren, die es ermöglichte, auf sensible interne Daten zuzugreifen: “Dabei wurden unter anderem eine Million Codezeilen offengelegt, die Chat-Verläufe, geheime Schlüssel sowie Backend-Details und weitere hochsensible Informationen enthielten”, konstatieren die Forscher und fügen hinzu, das DeepSeek-Team umgehend über ihre Erkenntnisse informiert zu haben. Die Sicherheitslücke sei daraufhin zügig geschlossen worden. Das ändert jedoch nichts an der Tatsache, dass Cybersicherheit bei DeepSeek AI bislang scheinbar keine Top-Priorität darstellt. Zumindest legt das der Umfang der von Wiz identifizierten Schwachstellen nahe: “Es war möglich, die vollständige Kontrolle über diese Datenbank zu übernehmen – und zwar ohne sich authentifizieren zu müssen. Damit wären potenziell auch Privilege-Escalation-Angriffe innerhalb der DeepSeek-Umgebung möglich gewesen.” Wie die Forscher von Wiz festhalten, drehe sich im Bereich KI Security vieles um futuristische Bedrohungen, während echte Gefahren, die aus grundlegenden Risiken wie versehentlich offengelegten Datenbanken erwachsen, unter den Tisch fallen würden: “Diese fundamentalen Sicherheitsrisiken sollten für Security-Teams weiterhin oberste Priorität haben”, mahnen die Forscher. Angesichts dieser Erkenntnisse sind staatlich verordnete Zensurmaßnahmen (ein chinesischer Host vorausgesetzt) mit Blick auf DeepSeek AI vielleicht noch das geringste Problem: data-embed-height="740">Just a reminder about the cost of censorship byu/jewdai inChatGPT Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!