ایدهای وجود دارد که میگوید سانسور مستند شدهی DeepSeek فقط در لایهی کاربردی (application layer) این هوش مصنوعی اعمال میشود و اگر مدل آن را به صورت محلی روی رایانهی خود اجرا کنید (یعنی آن را دانلود کنید)، این محدودیتها از بین میرود.
اما طبق تحقیقی از Wired، سانسور DeepSeek در واقع به صورت بنیادی و در دو سطح کاربردی و آموزشی (training) در مدل آن نهادینه شده است.
برای مثال، یک نسخهی محلی از DeepSeek که توسط Wired آزمایش شد، از طریق ویژگی استدلال خود (reasoning feature) نشان داد که باید از اشاره به رویدادهایی مانند انقلاب فرهنگی چین اجتناب کند و تنها بر جنبههای «مثبت» حزب کمونیست چین تمرکز کند.
بررسی سریع دیگری توسط TechCrunch روی یک نسخهی محلی از DeepSeek که از طریق Groq در دسترس بود، نیز وجود سانسور را تأیید کرد: این مدل بدون مشکل به سؤالی دربارهی تیراندازیهای کنت استیت در ایالات متحده پاسخ داد، اما در پاسخ به پرسشی دربارهی وقایع میدان تیانآنمن در سال ۱۹۸۹ تنها نوشت: «نمیتوانم پاسخ بدهم.»