جدیدترین مدل DeepSeek، شرکت چینی هوش مصنوعی که سیلیکون ولی و وال استریت را تحت تأثیر قرار داده، میتواند برای تولید محتوای مخرب مانند برنامههایی برای حمله بیولوژیکی یا کمپینی برای تشویق نوجوانان به خودآزاری دستکاری شود. این گزارش را وال استریت ژورنال منتشر کرده است.
سم روبین، معاون ارشد شرکت امنیت سایبری Palo Alto Networks، به ژورنال گفت که DeepSeek بیشتر از سایر مدلها در برابر دستکاری و تولید محتوای غیرقانونی آسیبپذیر است.
وال استریت ژورنال مدل DeepSeek R1 را آزمایش کرد و با وجود برخی محدودیتهای امنیتی، توانست آن را متقاعد کند که یک کمپین رسانهای طراحی کند که طبق گفته خود چتبات، "از میل نوجوانان به تعلق سوءاستفاده کرده و آسیبپذیری احساسی آنها را از طریق تقویت الگوریتمی به سلاح تبدیل میکند."
این چتبات همچنین ظاهراً متقاعد شده که دستورالعملهایی برای یک حمله بیولوژیکی ارائه دهد، یک مانیفست طرفدار هیتلر بنویسد، و یک ایمیل فیشینگ همراه با کد بدافزار تولید کند. ژورنال گفت که وقتی همان دستورات به ChatGPT داده شد، از انجام آنها خودداری کرد.
پیشتر گزارش شده بود که اپلیکیشن DeepSeek از موضوعاتی مانند میدان تیانآنمن یا استقلال تایوان اجتناب میکند. همچنین، داریو آمودی، مدیرعامل شرکت Anthropic، اخیراً گفته که DeepSeek در آزمایشهای ایمنی مربوط به سلاحهای بیولوژیکی بدترین عملکرد را داشته است.