Deep­Seek hat die Welt der Künst­li­chen Intel­li­genz erschüt­tert. Das gerade ein­mal 2023 gegrün­dete, chi­ne­si­sche Unter­neh­men hat am 20. Januar seine neue Serie an gleich­na­mi­gen KI-Model­len veröffentlicht. 

Das Beson­dere:

  • Es sind Open-Source Modelle – ihre Nut­zung ist kos­ten­los möglich
  • Die Trai­nings­stra­te­gie wurde in einem Paper veröffentlicht
  • Die Ent­wick­lungs­kos­ten betru­gen nur wenige Mil­lio­nen Dollar
  • Bei gerin­ge­rem Ener­gie­ver­brauch ist es den­noch so leis­tungs­stark, wie die Rie­sen des KI-Marktes

Also, wo ist der Haken? In die­sem Blog­bei­trag wer­den weni­ger die Fähig­kei­ten oder die Umstände der Her­kunft der Modell­reihe the­ma­ti­siert. Statt­des­sen soll auf­ge­klärt wer­den, wel­che Risi­ken die gän­gige Nut­zung von Deep­Seek birgt und wie sich diese mini­mie­ren lassen.

Reak­tio­nen

Wer aktu­ell Platt­for­men wie Lin­ke­dIn oder Xing besucht wird mit posi­ti­ven Erfah­rungs­be­rich­ten von Deep­Seek aus aller Welt über­flu­tet. Im Gegen­satz dazu ste­hen Feeds euro­päi­scher Behör­den, Blogs von Daten­schutz­agen­tu­ren oder Arti­kel und Kolum­nen tech­ni­scher Zeitschriften.

Die Natio­nale Daten­schutz­kom­mis­sion (CNPD) Luxem­burgs hat Anfang Februar deut­lich vor der Nut­zung von Deep­Seek abge­ra­ten.1 Zum Schutz der natio­na­len Sicher­heit stre­ben Reprä­sen­tan­ten, wie Josh Gott­hei­mer ein Ver­bot der Nut­zung von Deep­Seek für Regie­rungs­mit­ar­bei­tende und ‑beamte in den USA an2, ähn­lich, wie Aus­tra­lien oder Tai­wan es bereits beschlos­sen haben. In Ita­lien wurde die Platt­form indes für alle gesperrt.3 Das BSI hat sich aller­dings noch nicht kon­kret zu Deep­Seek geäu­ßert (Stand 14.02.2025).

Woher kommt die­ses Miss­trauen und was recht­fer­tigt die extreme Vor­sicht der Behörden?

Ganz unten auf der Web­site von Deep­Seek4 fin­den sich unter der Über­schrift „Legal & Safety“ zwei wich­tige Links. Es han­delt sich um die Nut­zungs­be­din­gun­gen und Datenschutzbestimmungen.

Daten­schutz­be­den­ken bei DeepSeek

Die Daten­schutz­richt­li­nien von Deep­Seek wer­fen erheb­li­che Fra­gen auf, ins­be­son­dere im Hin­blick auf die DSGVO und den Schutz der Pri­vat­sphäre. Ein zen­tra­les Pro­blem ist die unklare recht­li­che Grund­lage für die Erhe­bung per­so­nen­be­zo­ge­ner Daten wie IP-Adres­sen, Gerä­te­in­for­ma­tio­nen und Chat­ver­läufe. Die Daten­wei­ter­gabe an Dritte – dar­un­ter Wer­be­part­ner und Ana­ly­se­dienste – bleibt intrans­pa­rent, und es gibt keine Anga­ben zu Schutz­maß­nah­men bei inter­na­tio­na­len Daten­über­mitt­lun­gen. Nut­zer haben zudem kaum Kon­trolle über ihre Daten: Es feh­len klare Mecha­nis­men für das Wider­rufs­recht, die Daten­lö­schung oder eine Anlauf­stelle inner­halb der EU. Beson­ders pro­ble­ma­tisch ist, dass die Spei­che­rung der Daten in China erfolgt, ohne dass klare DSGVO-kon­forme Schutz­maß­nah­men benannt werden.

Die Spei­che­rung der Daten erfolgt „so lange wie nötig“, also ohne kon­krete Fris­ten, was zu unbe­grenz­ten Auf­be­wah­rungs­zei­ten füh­ren kann. Zudem bleibt unklar, wie lange Nut­zer­da­ten nach einer Kon­to­sper­rung auf­be­wahrt werden.

Mit Blick auf die EU-KI-Ver­ord­nung (EU AI Act) feh­len essen­zi­elle Trans­pa­renz­maß­nah­men: Es gibt keine Infor­ma­tio­nen zu den ver­wen­de­ten Trai­nings­da­ten oder Maß­nah­men zur Ver­mei­dung von Bias und Diskriminierung.

Ins­ge­samt zeigt sich: Die Nut­zung von Deep­Seek ist mit erheb­li­chen Risi­ken ver­bun­den, ins­be­son­dere für euro­päi­sche Nut­zer, die auf Daten­schutz, Sicher­heit und trans­pa­rente Regu­lie­rung ange­wie­sen sind.

Die Nut­zungs­be­din­gun­gen

In den Nut­zungs­be­din­gun­gen geht es ähn­lich wei­ter. Deep­Seek behält sich das Recht vor Nut­zer­da­ten selbst nach Löschung eines Accounts wei­ter­hin zu spei­chern. Unklar ist, wel­che Daten jedoch genau gemeint sind.

In einem wei­te­ren Absatz wird erwähnt, dass tech­ni­sche Mit­tel ein­ge­setzt wer­den, die das Ver­hal­ten und Infor­ma­tio­nen von Nut­zern über­prü­fen – dazu zäh­len auch Prompts und deren Out­puts. Es soll außer­dem eine Daten­bank eigens für „ille­gale Inhalts­merk­male“ ange­legt wer­den. Wie sol­che Sicher­heits­maß­nah­men zur Ein­hal­tung von recht­li­chen und Com­pli­ance-Anfor­de­run­gen aus­se­hen kön­nen, erfah­ren Sie im nächs­ten Abschnitt. All­ge­mein ist die­ser Absatz jedoch wie­der intrans­pa­rent und ver­rät dem Nut­zer nur wenig dar­über, wie genau seine Daten zu wel­chen Zwe­cken ver­wen­det werden.

Der vor­letzte Punkt zum Absatz „Input and Out­puts“ betrifft erneut die Ver­wen­dung der Daten des Nut­zers, um Anfor­de­run­gen gemäß „Gesetze und Vor­schrif­ten“ erfül­len zu kön­nen, aber auch um die Ser­vices wei­ter­zu­ent­wi­ckeln und zu ver­bes­sern. Der Satz ist so lang ver­fasst, dass man zum Ende bei­nahe die ers­ten Worte wie­der ver­ges­sen hat. Wel­che gesetz­li­chen Anfor­de­run­gen muss ein chi­ne­si­sches Unter­neh­men erfül­len und wieso benö­tigt es dazu die Prompts und Out­puts der Nut­zer? Was pas­siert mit die­sen Daten und wer darf sie sehen?
Die Nut­zung ist wohl an eine starke Ver­schlüs­se­lung und De-Iden­ti­fi­zie­rung der Daten gekop­pelt, doch lagen eben diese Daten bereits offen im Netz (s. unten). Wer der Nut­zung nicht zustim­men möchte, kann per Mail „Feed­back geben“, doch wel­che Kon­se­quen­zen dies hat ist unklar.

Zudem kön­nen die AGB jeder­zeit, auch ohne vor­he­rige Benach­rich­ti­gung, geän­dert wer­den. Sie gel­ten ab sofort und wer­den durch bloße Wei­ter­nut­zung der Ser­vices bereits akzep­tiert. Für Unter­neh­men und Ein­zel­per­so­nen, die auf recht­li­che Klar­heit ange­wie­sen sind, bedeu­tet dies ein hohes Risiko. Feh­lende DSGVO-Com­pli­ance und eine unklare Rechts­lage könn­ten dazu füh­ren, dass Deep­Seek in der EU lang­fris­tig recht­li­che Ein­schrän­kun­gen wei­tere Ver­bote erfährt.

Wei­tere Bedenken

Neben den regu­la­to­ri­schen Risi­ken gibt es außer­dem noch wei­tere Fak­to­ren, die gegen eine Nut­zung von Deep­Seek spre­chen. Einige Nut­zer berich­ten über extreme Zen­sur poli­ti­scher The­men in Echt­zeit durch die Deep­Seek Ser­vices (s. Abbil­dung 1).5 Ver­mut­lich eines der tech­ni­schen Mit­tel, um live gegen uner­wünschte Inhalte vorzugehen.

Des Wei­te­ren ist die Platt­form Ende Januar mehr­fach für län­gere Zeit­räume aus­ge­fal­len. Ihr API-Ser­vice war nach einem mas­si­ven Cyber-Angriff sogar über eine Woche kaum zu errei­chen (s. Abbil­dung 2).6 Wiz Rese­arch konnte zeit­weise über einen öffent­lich zugän­gi­gen End­punkt Nut­zer­da­ten und Chats abru­fen.7 Chats waren dort unver­schlüs­selt zu lesen.

DeepSeek API Service Status Januar - Februar 2025. Das Bild zeigt einen 10-tägigen Ausfall in diesem Bereich
Abbil­dung 2: Deep­Seek API Ser­vice Sta­tus Januar – Februar 2025

Und nun?

Wie zu Beginn beschrie­ben soll die­ser Blog­bei­trag nicht nur über die Risi­ken und beden­ken auf­klä­ren, son­dern auch Lösungs­an­sätze lie­fern, um diese zu mini­mie­ren. Die Deep­Seek-Modell­reihe bleibt näm­lich wei­ter­hin eine revo­lu­tio­näre Tech­no­lo­gie. Außer­dem lie­gen die Beden­ken und Risi­ken haupt­säch­lich in der Ver­wen­dung der Ser­vices – nicht bei den Modellen.

Daher eig­nen sich Metho­den, die ent­we­der dar­auf auf­bauen die Modelle selbst zu hos­ten oder eine alter­na­tive Platt­form zu nut­zen. Nicht jede AI-Platt­form der gro­ßen Cloud-Anbie­ter ver­fügt zum aktu­el­len Stand über die Mög­lich­keit Deep­Seek-Modelle zur Ver­fü­gung zu stellen.

Bei Micro­soft sieht es zunächst viel­ver­spre­chend aus, wird schließ­lich in einem Blog­bei­trag Ende Januar ver­kün­det, dass Deep­Seek in ihre KI-Platt­form Azure AI Foundry inte­griert wurde.8 Im bei­gefüg­ten Video sieht die Imple­men­tie­rung auch sehr ein­fach aus. Bei genaue­rem Hin­se­hen fällt jedoch schnell auf, dass Deep­Seek, obwohl es ein Open Model ist, nur per Ser­ver­less API in Azure AI Foundry genutzt wer­den kann und nur in den USA zur Ver­fü­gung steht.9

AWS ist da etwas wei­ter und bie­tet destil­lierte R1 Modelle über Bed­rock sogar in Deutsch­land an. Das Ori­gi­nal-Modell kann in Lon­don sogar bereits jetzt genutzt wer­den.10
Ähn­lich sieht es in Ver­tex AI der GCP aus, hier ist das nicht-destil­lierte Modell bis­her nicht pro­duk­tiv, son­dern nur in Note­books nutz­bar (s. Abbil­dung 3).

Screenshot des Disclaimers von GCP, dass DeepSeek R1 nur in Notebooks zur Verfügung steht
Abbil­dung 3: GCP Dis­clai­mer zur Ver­füg­bar­keit von Deep­Seek R1

Lokal kann das Modell und seine destil­lier­ten Vari­an­ten jedoch zum Bei­spiel über Platt­for­men wie Oll­ama gehos­tet wer­den.11 Aller­dings benö­tigt das R1 Modell zum Bei­spiel 1.5 TB VRAM und hat eine Down­load­größe von über 400GB – die destil­lier­ten Modelle benö­ti­gen nicht ganz so leis­tungs­starke Hardware.

Unser GenAI Accelerator

Für die Umset­zung von GenAI UseCa­ses bie­ten wir bereits einen umfas­sen­den Accelerator an. Er ist eine Samm­lung von Ter­ra­form-Modu­len für AWS, Azure und GCP, die eine bewährte, modu­lare Archi­tek­tur nutzt, um Gene­ra­tive AI Use Cases schnel­ler umzu­set­zen. Er redu­ziert die Kom­ple­xi­tät, indem er grund­le­gende Infrastruktur und Best Prac­ti­ces bereit­stellt, sodass sich Ent­wick­ler auf die spe­zi­fi­sche Imple­men­tie­rung kon­zen­trie­ren können.

Schematische Darstellung unseres GenAI Accelerators
Abbil­dung 4: Unser GenAI Accelerator

Da unser Accelerator auch in der Lage ist Open-Models z.B. von Hug­ging­Face zu inte­grie­ren, kann er genutzt wer­den, um in einer eige­nen, siche­ren Platt­form Deep­Seek Modelle zu hos­ten. Rein tech­nisch ist sogar die Nut­zung des 671B R1 Models möglich.

Fazit

Ob und in wel­cher Form Deep­Seek lang­fris­tig in Europa ver­füg­bar bleibt, ist unge­wiss. Die aktu­el­len Daten­schutz- und Sicher­heits­be­den­ken soll­ten Unter­neh­men nicht davon abhal­ten, die tech­no­lo­gi­schen Vor­teile die­ser Modelle zu nut­zen – sie soll­ten jedoch die rich­ti­gen Maß­nah­men ergrei­fen. Unser GenAI Accelerator bie­tet eine sichere Mög­lich­keit, Deep­Seek-Modelle unab­hän­gig von der offi­zi­el­len Platt­form ein­zu­set­zen. Mit einer DSGVO-kon­for­men Infrastruktur und voll­stän­di­ger Kon­trolle über die Daten­ver­ar­bei­tung kön­nen Unter­neh­men die Poten­ziale von Deep­Seek aus­schöp­fen, ohne regu­la­to­ri­sche Risi­ken ein­zu­ge­hen. Kon­tak­tie­ren Sie uns, wenn Sie mehr über die sichere Imple­men­tie­rung von Open-Source-KI erfah­ren möch­ten – wir unter­stüt­zen Sie bei der Umsetzung.

Autor:

Lukas Schif­fers


Quel­len

Deep­Seek Lizenz

  1. https://cnpd.public.lu/de/actualites/national/2025/02/deepseek.html ↩︎
  2. https://gottheimer.house.gov/posts/release-gottheimer-lahood-introduce-new-bipartisan-legislation-to-protect-americans-from-deepseek ↩︎
  3. https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/10097450 ↩︎
  4. https://www.deepseek.com/ ↩︎
  5. https://www.theguardian.com/technology/2025/jan/28/chinese-ai-chatbot-deepseek-censors-itself-in-realtime-users-report?CMP=share_btn_url ↩︎
  6. https://status.deepseek.com/ ↩︎
  7. https://www.wiz.io/blog/wiz-research-uncovers-exposed-deepseek-database-leak ↩︎
  8. https://azure.microsoft.com/en-us/blog/deepseek-r1-is-now-available-on-azure-ai-foundry-and-github/ ↩︎
  9. https://learn.microsoft.com/en-us/azure/ai-studio/how-to/model-catalog-overview#content-safety-for-models-deployed-via-serverless-apis ↩︎
  10. https://aws.amazon.com/de/blogs/aws/deepseek-r1-models-now-available-on-aws/ ↩︎
  11. https://ollama.com/library/deepseek-r1:671b ↩︎