Computerhaus Quickborn

DeepSeek sicher nutzen – das empfiehlt Gartner​

srcset="https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?quality=50&strip=all 6240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=2048%2C1365&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=375%2C250&quality=50&strip=all 375w" width="1024" height="683" sizes="(max-width: 1024px) 100vw, 1024px">Gerade bei der Web-Version von DeepSeek ist die Sicherheit der eingegebenen Daten ungewiss – und die Nutzung daher im Business-Umfeld problematisch. Shutterstock / Robert Way Bei den Large Language Models (LLM) von DeepSeek scheiden sich die Geister: Auf der einen Seite fasziniert viele Marktbeobachter, dass die mit deutlich niedrigerem finanziellem Aufwand entwickelten KI-Modelle die Lösungen der Konkurrenz teilweise übertreffen und zudem als Open Source verfügbar sind. Andererseits gibt es gerade bei der Web- und Mobile-Anwendung größere Bedenken – primär bedingt durch die Herkunft des GenAI-Modells und die damit verbundenen Zensurmaßnahmen.   Hinzu kommt, dass im Zuge der rasanten Verbreitung von DeepSeek kritische Sicherheitsprobleme aufgedeckt wurden, darunter Schwachstellen des Modells, Risiken von Datenlecks und gezielte Angriffe auf die Infrastruktur. Wegen dieser Probleme, so die Marktforscher von Gartner, sei es für Unternehmen essenziell, maßgeschneiderte Sicherheitsstrategien auf der Grundlage der DeepSeek-Bereitstellungsmodi einzuführen.   Gartners Tipps, um DeepSeek sicher(er) zu nutzen  Tatsächlich gibt es drei verschiedene Möglichkeiten, die Large Language Models (LLM) des chinesischen Startups zu nutzen – nämlich über:   direkten Zugriff auf die DeepSeek-Anwendungen oder -Plattform,  Model-as-a-Service-Angebote von Cloud Service Providern (CSPs), privat gehostete DeepSeek-Modelle.  Die Analysten von Gartner geben in einer Research Note (kostenlos für Gartner-Kunden) Tipps, wie Unternehmen je nach Szenario reagieren sollten.  Direkter Zugriff   Ähnlich wie bei den kostenlosen Versionen von ChatGPT & Co. im Web rät Gartner auch bei DeepSeek davon ab, die KI-Lösung zu nutzen, wenn sensible Geschäftsdaten oder persönliche Informationen involviert sind – es sei denn, dies ist ausdrücklich genehmigt. Dies gelte sowohl für die Nutzung der Anwendungen durch Mitarbeiter als auch für die API-Integration mit Business-Anwendungen. Als Grund führen die Analysten an, dass die aktuellen Sicherheitskontrollen auf den DeepSeek-Anwendungen und der Entwicklerplattform für Außenstehende nicht transparent seien.  Zum Schutz vor unbefugter Nutzung von DeepSeek und den damit verbundenen Risiken empfiehlt Gartner Unternehmen, folgende Maßnahmen, beziehungsweise Tools einzusetzen:   API-Überwachung,   Web-Proxys,   SIEM-Systeme,   Endpoint- und Mobile-Management-Tools oder   spezielle Werkzeuge zur Kontrolle der KI-Nutzung.    In Anwendungsszenarien, wo die Nutzung von DeepSeek erlaubt ist, sollten Mitarbeiter dazu angehalten werden, den Chatverlauf nach jeder Sitzung zu löschen, so die Berater. Außerdem rät Gartner, die Nutzer über Phishing-Bedrohungen durch gefälschte DeepSeek-Modelle oder -Anwendungen aufzuklären und entsprechende Schutzmechanismen zu installieren.  Model-as-a-Service   Das Open-Source-Modell von DeepSeek über einen Cloud Service Provider (CSP) zu nutzen, ist die bevorzugte Option für Unternehmen, die sich kein privates Hosting leisten können (oder wollen), beziehungsweise nicht über ausgereifte Sicherheitsfunktionen zum Schutz von LLMs verfügen. Zu den CSPs, die dies derzeit anbieten, gehören Alibaba Cloud, Amazon Web Services (AWS), Google, Huawei, Microsoft, Nvidia und Tencent.   Gartner empfiehlt Unternehmen, ihre GenAI-Anwendungen in Modelle von Cloud-Providern zu integrieren und die von diesen angebotenen Sicherheitsfunktionen zu aktivieren, um eine zusätzliche Schutzebene hinzuzufügen.   Zu diesen gehören den Analysten zufolge in der Regel:  DDoS-Schutz, Patch-Management für die zugrundeliegende Infrastruktur, Container-Runtime-Sicherheit,  Datenverschlüsselung im Ruhezustand und bei der Übertragung,  Identity & Access Management (IAM),  sichere Konnektivitätsoptionen und  verschiedene Compliance-Zertifizierungen.   Außerdem sollten die Cloud-Provider Einzelheiten zu ihren Datensicherheitskontrollen und Audit-Protokollen vorlegen. Den Anwenderunternehmen rät Gartner wiederum, gründliche Sicherheitsbewertungen durchzuführen, bevor sie die bereitgestellten DeepSeek-Modelle verwenden.  Privates Hosting von DeepSeek-Modellen   Laut Gartner machen der Open-Source-Ansatz und die potenziellen Kosteneinsparungen von DeepSeek privates Hosting attraktiver als je zuvor, erfordern aber dedizierte AIOps-Teams und spezielle Kenntnisse zur Absicherung von KI-Systemen. Damit sei dieser Bereitstellungsmodus nur dann eine echte Alternative, wenn ein – in der Regel streng reguliertes – Unternehmen nicht ohne weiteres Public-Cloud-Dienste nutzen kann. Diese Option bietet volle Datensouveränität und eignet sich für Branchen, für die bestimmte Compliance-Vorschriften gelten. Laut Gartner sollten sich Unternehmen dann aber bewusst machen, welcher Sicherheitsaufwand zum Schutz dieser Modelle erforderlich ist.   Den Analysten zufolge gehört dazu der Einsatz eines Konzepts, um Governance, Verlässlichkeit, Fairness, Robustheit, Wirksamkeit und Datensicherheit von KI-Modellen sicherzustellen – im Gartner-Sprech AI TRiSM (AI Trust, Risk and Security Management) genannt. Außerdem, so die Berater, sollten die DeepSeek-Modelle aus vertrauenswürdigen und verifizierten Quellen stammen. Sie empfehlen auch an dieser Stelle Sicherheitspraktiken und -kontrollen wie Verschlüsselung,  Multifaktor-Authentifizierung, Datenanonymisierung und Anwendungssicherheitstests.   Um Datenlecks zu verhindern, empfiehlt Gartner außerdem:   Domänen-basierte Bereitstellung,  eine Zero-Trust-Architektur, und  Least-Privilege-Berechtigungen zu implementieren. Bei DeepSeek-R1, das mit sogenanntem Chain-of-Thought (CoT) Reasoning arbeitet, sollten die Unternehmen zudem die Inhalte auf jeder Stufe der CoT-Ausgabe bewerten und filtern. Die Analysten raten weiterhin, die Anzeigetiefe von CoT rollenbasiert auszusteuern. Auf diese Weise würde etwa normalen Anwendern nur die Schlussfolgerung oder einen  begrenztern CoT-Inhalt angezeigt, während Auditoren die gesamte CoT-Logik sehen könnten.   

DeepSeek sicher nutzen – das empfiehlt Gartner​ srcset="https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?quality=50&strip=all 6240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=2048%2C1365&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=375%2C250&quality=50&strip=all 375w" width="1024" height="683" sizes="(max-width: 1024px) 100vw, 1024px">Gerade bei der Web-Version von DeepSeek ist die Sicherheit der eingegebenen Daten ungewiss – und die Nutzung daher im Business-Umfeld problematisch. Shutterstock / Robert Way Bei den Large Language Models (LLM) von DeepSeek scheiden sich die Geister: Auf der einen Seite fasziniert viele Marktbeobachter, dass die mit deutlich niedrigerem finanziellem Aufwand entwickelten KI-Modelle die Lösungen der Konkurrenz teilweise übertreffen und zudem als Open Source verfügbar sind. Andererseits gibt es gerade bei der Web- und Mobile-Anwendung größere Bedenken – primär bedingt durch die Herkunft des GenAI-Modells und die damit verbundenen Zensurmaßnahmen.   Hinzu kommt, dass im Zuge der rasanten Verbreitung von DeepSeek kritische Sicherheitsprobleme aufgedeckt wurden, darunter Schwachstellen des Modells, Risiken von Datenlecks und gezielte Angriffe auf die Infrastruktur. Wegen dieser Probleme, so die Marktforscher von Gartner, sei es für Unternehmen essenziell, maßgeschneiderte Sicherheitsstrategien auf der Grundlage der DeepSeek-Bereitstellungsmodi einzuführen.   Gartners Tipps, um DeepSeek sicher(er) zu nutzen  Tatsächlich gibt es drei verschiedene Möglichkeiten, die Large Language Models (LLM) des chinesischen Startups zu nutzen – nämlich über:   direkten Zugriff auf die DeepSeek-Anwendungen oder -Plattform,  Model-as-a-Service-Angebote von Cloud Service Providern (CSPs), privat gehostete DeepSeek-Modelle.  Die Analysten von Gartner geben in einer Research Note (kostenlos für Gartner-Kunden) Tipps, wie Unternehmen je nach Szenario reagieren sollten.  Direkter Zugriff   Ähnlich wie bei den kostenlosen Versionen von ChatGPT & Co. im Web rät Gartner auch bei DeepSeek davon ab, die KI-Lösung zu nutzen, wenn sensible Geschäftsdaten oder persönliche Informationen involviert sind – es sei denn, dies ist ausdrücklich genehmigt. Dies gelte sowohl für die Nutzung der Anwendungen durch Mitarbeiter als auch für die API-Integration mit Business-Anwendungen. Als Grund führen die Analysten an, dass die aktuellen Sicherheitskontrollen auf den DeepSeek-Anwendungen und der Entwicklerplattform für Außenstehende nicht transparent seien.  Zum Schutz vor unbefugter Nutzung von DeepSeek und den damit verbundenen Risiken empfiehlt Gartner Unternehmen, folgende Maßnahmen, beziehungsweise Tools einzusetzen:   API-Überwachung,   Web-Proxys,   SIEM-Systeme,   Endpoint- und Mobile-Management-Tools oder   spezielle Werkzeuge zur Kontrolle der KI-Nutzung.    In Anwendungsszenarien, wo die Nutzung von DeepSeek erlaubt ist, sollten Mitarbeiter dazu angehalten werden, den Chatverlauf nach jeder Sitzung zu löschen, so die Berater. Außerdem rät Gartner, die Nutzer über Phishing-Bedrohungen durch gefälschte DeepSeek-Modelle oder -Anwendungen aufzuklären und entsprechende Schutzmechanismen zu installieren.  Model-as-a-Service   Das Open-Source-Modell von DeepSeek über einen Cloud Service Provider (CSP) zu nutzen, ist die bevorzugte Option für Unternehmen, die sich kein privates Hosting leisten können (oder wollen), beziehungsweise nicht über ausgereifte Sicherheitsfunktionen zum Schutz von LLMs verfügen. Zu den CSPs, die dies derzeit anbieten, gehören Alibaba Cloud, Amazon Web Services (AWS), Google, Huawei, Microsoft, Nvidia und Tencent.   Gartner empfiehlt Unternehmen, ihre GenAI-Anwendungen in Modelle von Cloud-Providern zu integrieren und die von diesen angebotenen Sicherheitsfunktionen zu aktivieren, um eine zusätzliche Schutzebene hinzuzufügen.   Zu diesen gehören den Analysten zufolge in der Regel:  DDoS-Schutz, Patch-Management für die zugrundeliegende Infrastruktur, Container-Runtime-Sicherheit,  Datenverschlüsselung im Ruhezustand und bei der Übertragung,  Identity & Access Management (IAM),  sichere Konnektivitätsoptionen und  verschiedene Compliance-Zertifizierungen.   Außerdem sollten die Cloud-Provider Einzelheiten zu ihren Datensicherheitskontrollen und Audit-Protokollen vorlegen. Den Anwenderunternehmen rät Gartner wiederum, gründliche Sicherheitsbewertungen durchzuführen, bevor sie die bereitgestellten DeepSeek-Modelle verwenden.  Privates Hosting von DeepSeek-Modellen   Laut Gartner machen der Open-Source-Ansatz und die potenziellen Kosteneinsparungen von DeepSeek privates Hosting attraktiver als je zuvor, erfordern aber dedizierte AIOps-Teams und spezielle Kenntnisse zur Absicherung von KI-Systemen. Damit sei dieser Bereitstellungsmodus nur dann eine echte Alternative, wenn ein – in der Regel streng reguliertes – Unternehmen nicht ohne weiteres Public-Cloud-Dienste nutzen kann. Diese Option bietet volle Datensouveränität und eignet sich für Branchen, für die bestimmte Compliance-Vorschriften gelten. Laut Gartner sollten sich Unternehmen dann aber bewusst machen, welcher Sicherheitsaufwand zum Schutz dieser Modelle erforderlich ist.   Den Analysten zufolge gehört dazu der Einsatz eines Konzepts, um Governance, Verlässlichkeit, Fairness, Robustheit, Wirksamkeit und Datensicherheit von KI-Modellen sicherzustellen – im Gartner-Sprech AI TRiSM (AI Trust, Risk and Security Management) genannt. Außerdem, so die Berater, sollten die DeepSeek-Modelle aus vertrauenswürdigen und verifizierten Quellen stammen. Sie empfehlen auch an dieser Stelle Sicherheitspraktiken und -kontrollen wie Verschlüsselung,  Multifaktor-Authentifizierung, Datenanonymisierung und Anwendungssicherheitstests.   Um Datenlecks zu verhindern, empfiehlt Gartner außerdem:   Domänen-basierte Bereitstellung,  eine Zero-Trust-Architektur, und  Least-Privilege-Berechtigungen zu implementieren. Bei DeepSeek-R1, das mit sogenanntem Chain-of-Thought (CoT) Reasoning arbeitet, sollten die Unternehmen zudem die Inhalte auf jeder Stufe der CoT-Ausgabe bewerten und filtern. Die Analysten raten weiterhin, die Anzeigetiefe von CoT rollenbasiert auszusteuern. Auf diese Weise würde etwa normalen Anwendern nur die Schlussfolgerung oder einen  begrenztern CoT-Inhalt angezeigt, während Auditoren die gesamte CoT-Logik sehen könnten.  

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?quality=50&strip=all 6240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=2048%2C1365&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2025/01/DeepSeek_shutterstock_2576406981.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”>Gerade bei der Web-Version von DeepSeek ist die Sicherheit der eingegebenen Daten ungewiss – und die Nutzung daher im Business-Umfeld problematisch. Shutterstock / Robert Way Bei den Large Language Models (LLM) von DeepSeek scheiden sich die Geister: Auf der einen Seite fasziniert viele Marktbeobachter, dass die mit deutlich niedrigerem finanziellem Aufwand entwickelten KI-Modelle die Lösungen der Konkurrenz teilweise übertreffen und zudem als Open Source verfügbar sind. Andererseits gibt es gerade bei der Web- und Mobile-Anwendung größere Bedenken – primär bedingt durch die Herkunft des GenAI-Modells und die damit verbundenen Zensurmaßnahmen.   Hinzu kommt, dass im Zuge der rasanten Verbreitung von DeepSeek kritische Sicherheitsprobleme aufgedeckt wurden, darunter Schwachstellen des Modells, Risiken von Datenlecks und gezielte Angriffe auf die Infrastruktur. Wegen dieser Probleme, so die Marktforscher von Gartner, sei es für Unternehmen essenziell, maßgeschneiderte Sicherheitsstrategien auf der Grundlage der DeepSeek-Bereitstellungsmodi einzuführen.   Gartners Tipps, um DeepSeek sicher(er) zu nutzen  Tatsächlich gibt es drei verschiedene Möglichkeiten, die Large Language Models (LLM) des chinesischen Startups zu nutzen – nämlich über:   direkten Zugriff auf die DeepSeek-Anwendungen oder -Plattform,  Model-as-a-Service-Angebote von Cloud Service Providern (CSPs), privat gehostete DeepSeek-Modelle.  Die Analysten von Gartner geben in einer Research Note (kostenlos für Gartner-Kunden) Tipps, wie Unternehmen je nach Szenario reagieren sollten.  Direkter Zugriff   Ähnlich wie bei den kostenlosen Versionen von ChatGPT & Co. im Web rät Gartner auch bei DeepSeek davon ab, die KI-Lösung zu nutzen, wenn sensible Geschäftsdaten oder persönliche Informationen involviert sind – es sei denn, dies ist ausdrücklich genehmigt. Dies gelte sowohl für die Nutzung der Anwendungen durch Mitarbeiter als auch für die API-Integration mit Business-Anwendungen. Als Grund führen die Analysten an, dass die aktuellen Sicherheitskontrollen auf den DeepSeek-Anwendungen und der Entwicklerplattform für Außenstehende nicht transparent seien.  Zum Schutz vor unbefugter Nutzung von DeepSeek und den damit verbundenen Risiken empfiehlt Gartner Unternehmen, folgende Maßnahmen, beziehungsweise Tools einzusetzen:   API-Überwachung,   Web-Proxys,   SIEM-Systeme,   Endpoint- und Mobile-Management-Tools oder   spezielle Werkzeuge zur Kontrolle der KI-Nutzung.    In Anwendungsszenarien, wo die Nutzung von DeepSeek erlaubt ist, sollten Mitarbeiter dazu angehalten werden, den Chatverlauf nach jeder Sitzung zu löschen, so die Berater. Außerdem rät Gartner, die Nutzer über Phishing-Bedrohungen durch gefälschte DeepSeek-Modelle oder -Anwendungen aufzuklären und entsprechende Schutzmechanismen zu installieren.  Model-as-a-Service   Das Open-Source-Modell von DeepSeek über einen Cloud Service Provider (CSP) zu nutzen, ist die bevorzugte Option für Unternehmen, die sich kein privates Hosting leisten können (oder wollen), beziehungsweise nicht über ausgereifte Sicherheitsfunktionen zum Schutz von LLMs verfügen. Zu den CSPs, die dies derzeit anbieten, gehören Alibaba Cloud, Amazon Web Services (AWS), Google, Huawei, Microsoft, Nvidia und Tencent.   Gartner empfiehlt Unternehmen, ihre GenAI-Anwendungen in Modelle von Cloud-Providern zu integrieren und die von diesen angebotenen Sicherheitsfunktionen zu aktivieren, um eine zusätzliche Schutzebene hinzuzufügen.   Zu diesen gehören den Analysten zufolge in der Regel:  DDoS-Schutz, Patch-Management für die zugrundeliegende Infrastruktur, Container-Runtime-Sicherheit,  Datenverschlüsselung im Ruhezustand und bei der Übertragung,  Identity & Access Management (IAM),  sichere Konnektivitätsoptionen und  verschiedene Compliance-Zertifizierungen.   Außerdem sollten die Cloud-Provider Einzelheiten zu ihren Datensicherheitskontrollen und Audit-Protokollen vorlegen. Den Anwenderunternehmen rät Gartner wiederum, gründliche Sicherheitsbewertungen durchzuführen, bevor sie die bereitgestellten DeepSeek-Modelle verwenden.  Privates Hosting von DeepSeek-Modellen   Laut Gartner machen der Open-Source-Ansatz und die potenziellen Kosteneinsparungen von DeepSeek privates Hosting attraktiver als je zuvor, erfordern aber dedizierte AIOps-Teams und spezielle Kenntnisse zur Absicherung von KI-Systemen. Damit sei dieser Bereitstellungsmodus nur dann eine echte Alternative, wenn ein – in der Regel streng reguliertes – Unternehmen nicht ohne weiteres Public-Cloud-Dienste nutzen kann. Diese Option bietet volle Datensouveränität und eignet sich für Branchen, für die bestimmte Compliance-Vorschriften gelten. Laut Gartner sollten sich Unternehmen dann aber bewusst machen, welcher Sicherheitsaufwand zum Schutz dieser Modelle erforderlich ist.   Den Analysten zufolge gehört dazu der Einsatz eines Konzepts, um Governance, Verlässlichkeit, Fairness, Robustheit, Wirksamkeit und Datensicherheit von KI-Modellen sicherzustellen – im Gartner-Sprech AI TRiSM (AI Trust, Risk and Security Management) genannt. Außerdem, so die Berater, sollten die DeepSeek-Modelle aus vertrauenswürdigen und verifizierten Quellen stammen. Sie empfehlen auch an dieser Stelle Sicherheitspraktiken und -kontrollen wie Verschlüsselung,  Multifaktor-Authentifizierung, Datenanonymisierung und Anwendungssicherheitstests.   Um Datenlecks zu verhindern, empfiehlt Gartner außerdem:   Domänen-basierte Bereitstellung,  eine Zero-Trust-Architektur, und  Least-Privilege-Berechtigungen zu implementieren. Bei DeepSeek-R1, das mit sogenanntem Chain-of-Thought (CoT) Reasoning arbeitet, sollten die Unternehmen zudem die Inhalte auf jeder Stufe der CoT-Ausgabe bewerten und filtern. Die Analysten raten weiterhin, die Anzeigetiefe von CoT rollenbasiert auszusteuern. Auf diese Weise würde etwa normalen Anwendern nur die Schlussfolgerung oder einen  begrenztern CoT-Inhalt angezeigt, während Auditoren die gesamte CoT-Logik sehen könnten.   

Nach oben scrollen
×