DeepSeek hat die Welt der Künstlichen Intelligenz erschüttert. Das gerade einmal 2023 gegründete, chinesische Unternehmen hat am 20. Januar seine neue Serie an gleichnamigen KI-Modellen veröffentlicht.
Das Besondere:
- Es sind Open-Source Modelle – ihre Nutzung ist kostenlos möglich
- Die Trainingsstrategie wurde in einem Paper veröffentlicht
- Die Entwicklungskosten betrugen nur wenige Millionen Dollar
- Bei geringerem Energieverbrauch ist es dennoch so leistungsstark, wie die Riesen des KI-Marktes
Also, wo ist der Haken? In diesem Blogbeitrag werden weniger die Fähigkeiten oder die Umstände der Herkunft der Modellreihe thematisiert. Stattdessen soll aufgeklärt werden, welche Risiken die gängige Nutzung von DeepSeek birgt und wie sich diese minimieren lassen.
Reaktionen
Wer aktuell Plattformen wie LinkedIn oder Xing besucht wird mit positiven Erfahrungsberichten von DeepSeek aus aller Welt überflutet. Im Gegensatz dazu stehen Feeds europäischer Behörden, Blogs von Datenschutzagenturen oder Artikel und Kolumnen technischer Zeitschriften.
Die Nationale Datenschutzkommission (CNPD) Luxemburgs hat Anfang Februar deutlich vor der Nutzung von DeepSeek abgeraten.1 Zum Schutz der nationalen Sicherheit streben Repräsentanten, wie Josh Gottheimer ein Verbot der Nutzung von DeepSeek für Regierungsmitarbeitende und ‑beamte in den USA an2, ähnlich, wie Australien oder Taiwan es bereits beschlossen haben. In Italien wurde die Plattform indes für alle gesperrt.3 Das BSI hat sich allerdings noch nicht konkret zu DeepSeek geäußert (Stand 14.02.2025).
Woher kommt dieses Misstrauen und was rechtfertigt die extreme Vorsicht der Behörden?
Ganz unten auf der Website von DeepSeek4 finden sich unter der Überschrift „Legal & Safety“ zwei wichtige Links. Es handelt sich um die Nutzungsbedingungen und Datenschutzbestimmungen.
Datenschutzbedenken bei DeepSeek
Die Datenschutzrichtlinien von DeepSeek werfen erhebliche Fragen auf, insbesondere im Hinblick auf die DSGVO und den Schutz der Privatsphäre. Ein zentrales Problem ist die unklare rechtliche Grundlage für die Erhebung personenbezogener Daten wie IP-Adressen, Geräteinformationen und Chatverläufe. Die Datenweitergabe an Dritte – darunter Werbepartner und Analysedienste – bleibt intransparent, und es gibt keine Angaben zu Schutzmaßnahmen bei internationalen Datenübermittlungen. Nutzer haben zudem kaum Kontrolle über ihre Daten: Es fehlen klare Mechanismen für das Widerrufsrecht, die Datenlöschung oder eine Anlaufstelle innerhalb der EU. Besonders problematisch ist, dass die Speicherung der Daten in China erfolgt, ohne dass klare DSGVO-konforme Schutzmaßnahmen benannt werden.
Die Speicherung der Daten erfolgt „so lange wie nötig“, also ohne konkrete Fristen, was zu unbegrenzten Aufbewahrungszeiten führen kann. Zudem bleibt unklar, wie lange Nutzerdaten nach einer Kontosperrung aufbewahrt werden.
Mit Blick auf die EU-KI-Verordnung (EU AI Act) fehlen essenzielle Transparenzmaßnahmen: Es gibt keine Informationen zu den verwendeten Trainingsdaten oder Maßnahmen zur Vermeidung von Bias und Diskriminierung.
Insgesamt zeigt sich: Die Nutzung von DeepSeek ist mit erheblichen Risiken verbunden, insbesondere für europäische Nutzer, die auf Datenschutz, Sicherheit und transparente Regulierung angewiesen sind.
Die Nutzungsbedingungen
In den Nutzungsbedingungen geht es ähnlich weiter. DeepSeek behält sich das Recht vor Nutzerdaten selbst nach Löschung eines Accounts weiterhin zu speichern. Unklar ist, welche Daten jedoch genau gemeint sind.
In einem weiteren Absatz wird erwähnt, dass technische Mittel eingesetzt werden, die das Verhalten und Informationen von Nutzern überprüfen – dazu zählen auch Prompts und deren Outputs. Es soll außerdem eine Datenbank eigens für „illegale Inhaltsmerkmale“ angelegt werden. Wie solche Sicherheitsmaßnahmen zur Einhaltung von rechtlichen und Compliance-Anforderungen aussehen können, erfahren Sie im nächsten Abschnitt. Allgemein ist dieser Absatz jedoch wieder intransparent und verrät dem Nutzer nur wenig darüber, wie genau seine Daten zu welchen Zwecken verwendet werden.
Der vorletzte Punkt zum Absatz „Input and Outputs“ betrifft erneut die Verwendung der Daten des Nutzers, um Anforderungen gemäß „Gesetze und Vorschriften“ erfüllen zu können, aber auch um die Services weiterzuentwickeln und zu verbessern. Der Satz ist so lang verfasst, dass man zum Ende beinahe die ersten Worte wieder vergessen hat. Welche gesetzlichen Anforderungen muss ein chinesisches Unternehmen erfüllen und wieso benötigt es dazu die Prompts und Outputs der Nutzer? Was passiert mit diesen Daten und wer darf sie sehen?
Die Nutzung ist wohl an eine starke Verschlüsselung und De-Identifizierung der Daten gekoppelt, doch lagen eben diese Daten bereits offen im Netz (s. unten). Wer der Nutzung nicht zustimmen möchte, kann per Mail „Feedback geben“, doch welche Konsequenzen dies hat ist unklar.
Zudem können die AGB jederzeit, auch ohne vorherige Benachrichtigung, geändert werden. Sie gelten ab sofort und werden durch bloße Weiternutzung der Services bereits akzeptiert. Für Unternehmen und Einzelpersonen, die auf rechtliche Klarheit angewiesen sind, bedeutet dies ein hohes Risiko. Fehlende DSGVO-Compliance und eine unklare Rechtslage könnten dazu führen, dass DeepSeek in der EU langfristig rechtliche Einschränkungen weitere Verbote erfährt.
Weitere Bedenken
Neben den regulatorischen Risiken gibt es außerdem noch weitere Faktoren, die gegen eine Nutzung von DeepSeek sprechen. Einige Nutzer berichten über extreme Zensur politischer Themen in Echtzeit durch die DeepSeek Services (s. Abbildung 1).5 Vermutlich eines der technischen Mittel, um live gegen unerwünschte Inhalte vorzugehen.



Des Weiteren ist die Plattform Ende Januar mehrfach für längere Zeiträume ausgefallen. Ihr API-Service war nach einem massiven Cyber-Angriff sogar über eine Woche kaum zu erreichen (s. Abbildung 2).6 Wiz Research konnte zeitweise über einen öffentlich zugängigen Endpunkt Nutzerdaten und Chats abrufen.7 Chats waren dort unverschlüsselt zu lesen.

Und nun?
Wie zu Beginn beschrieben soll dieser Blogbeitrag nicht nur über die Risiken und bedenken aufklären, sondern auch Lösungsansätze liefern, um diese zu minimieren. Die DeepSeek-Modellreihe bleibt nämlich weiterhin eine revolutionäre Technologie. Außerdem liegen die Bedenken und Risiken hauptsächlich in der Verwendung der Services – nicht bei den Modellen.
Daher eignen sich Methoden, die entweder darauf aufbauen die Modelle selbst zu hosten oder eine alternative Plattform zu nutzen. Nicht jede AI-Plattform der großen Cloud-Anbieter verfügt zum aktuellen Stand über die Möglichkeit DeepSeek-Modelle zur Verfügung zu stellen.
Bei Microsoft sieht es zunächst vielversprechend aus, wird schließlich in einem Blogbeitrag Ende Januar verkündet, dass DeepSeek in ihre KI-Plattform Azure AI Foundry integriert wurde.8 Im beigefügten Video sieht die Implementierung auch sehr einfach aus. Bei genauerem Hinsehen fällt jedoch schnell auf, dass DeepSeek, obwohl es ein Open Model ist, nur per Serverless API in Azure AI Foundry genutzt werden kann und nur in den USA zur Verfügung steht.9
AWS ist da etwas weiter und bietet destillierte R1 Modelle über Bedrock sogar in Deutschland an. Das Original-Modell kann in London sogar bereits jetzt genutzt werden.10
Ähnlich sieht es in Vertex AI der GCP aus, hier ist das nicht-destillierte Modell bisher nicht produktiv, sondern nur in Notebooks nutzbar (s. Abbildung 3).

Lokal kann das Modell und seine destillierten Varianten jedoch zum Beispiel über Plattformen wie Ollama gehostet werden.11 Allerdings benötigt das R1 Modell zum Beispiel 1.5 TB VRAM und hat eine Downloadgröße von über 400GB – die destillierten Modelle benötigen nicht ganz so leistungsstarke Hardware.
Unser GenAI Accelerator
Für die Umsetzung von GenAI UseCases bieten wir bereits einen umfassenden Accelerator an. Er ist eine Sammlung von Terraform-Modulen für AWS, Azure und GCP, die eine bewährte, modulare Architektur nutzt, um Generative AI Use Cases schneller umzusetzen. Er reduziert die Komplexität, indem er grundlegende Infrastruktur und Best Practices bereitstellt, sodass sich Entwickler auf die spezifische Implementierung konzentrieren können.
Da unser Accelerator auch in der Lage ist Open-Models z.B. von HuggingFace zu integrieren, kann er genutzt werden, um in einer eigenen, sicheren Plattform DeepSeek Modelle zu hosten. Rein technisch ist sogar die Nutzung des 671B R1 Models möglich.
Fazit
Ob und in welcher Form DeepSeek langfristig in Europa verfügbar bleibt, ist ungewiss. Die aktuellen Datenschutz- und Sicherheitsbedenken sollten Unternehmen nicht davon abhalten, die technologischen Vorteile dieser Modelle zu nutzen – sie sollten jedoch die richtigen Maßnahmen ergreifen. Unser GenAI Accelerator bietet eine sichere Möglichkeit, DeepSeek-Modelle unabhängig von der offiziellen Plattform einzusetzen. Mit einer DSGVO-konformen Infrastruktur und vollständiger Kontrolle über die Datenverarbeitung können Unternehmen die Potenziale von DeepSeek ausschöpfen, ohne regulatorische Risiken einzugehen. Kontaktieren Sie uns, wenn Sie mehr über die sichere Implementierung von Open-Source-KI erfahren möchten – wir unterstützen Sie bei der Umsetzung.
Autor:
Quellen
- https://cnpd.public.lu/de/actualites/national/2025/02/deepseek.html ↩︎
- https://gottheimer.house.gov/posts/release-gottheimer-lahood-introduce-new-bipartisan-legislation-to-protect-americans-from-deepseek ↩︎
- https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/10097450 ↩︎
- https://www.deepseek.com/ ↩︎
- https://www.theguardian.com/technology/2025/jan/28/chinese-ai-chatbot-deepseek-censors-itself-in-realtime-users-report?CMP=share_btn_url ↩︎
- https://status.deepseek.com/ ↩︎
- https://www.wiz.io/blog/wiz-research-uncovers-exposed-deepseek-database-leak ↩︎
- https://azure.microsoft.com/en-us/blog/deepseek-r1-is-now-available-on-azure-ai-foundry-and-github/ ↩︎
- https://learn.microsoft.com/en-us/azure/ai-studio/how-to/model-catalog-overview#content-safety-for-models-deployed-via-serverless-apis ↩︎
- https://aws.amazon.com/de/blogs/aws/deepseek-r1-models-now-available-on-aws/ ↩︎
- https://ollama.com/library/deepseek-r1:671b ↩︎