داریو آمودی، مدیرعامل Anthropic، نسبت به رقیب چینی خود، DeepSeek، ابراز نگرانی کرده است—شرکتی که با مدل R1 خود دره سیلیکون را تحت تأثیر قرار داد. و به نظر میرسد که نگرانی او فراتر از مسائل رایج مربوط به احتمال ارسال دادههای کاربران به چین باشد.
در مصاحبهای با پادکست ChinaTalk، آمودی گفت که DeepSeek در یکی از آزمونهای ایمنی که توسط Anthropic اجرا شد، اطلاعات نادری درباره سلاحهای بیولوژیکی تولید کرد.
او ادعا کرد که عملکرد DeepSeek "بدترین عملکردی بود که تاکنون در بین مدلهای آزمایششده دیدهایم" و افزود: "هیچگونه محدودیتی در برابر تولید این اطلاعات نداشت."
آمودی توضیح داد که این بخشی از ارزیابیهای امنیت ملی است که تیم او بهطور مرتب روی مدلهای مختلف هوش مصنوعی انجام میدهد. هدف این ارزیابیها بررسی این است که آیا یک مدل میتواند اطلاعات مربوط به سلاحهای بیولوژیکی را که بهراحتی در گوگل یا کتابهای درسی پیدا نمیشود، تولید کند یا نه. Anthropic خود را بهعنوان شرکتی که ایمنی را جدی میگیرد، معرفی کرده است.
او تأکید کرد که مدلهای DeepSeek در حال حاضر بهطور مستقیم "خطرناک" نیستند، اما در آینده ممکن است باشند. آمودی، ضمن ستایش تیم DeepSeek بهعنوان "مهندسانی بااستعداد"، از این شرکت خواست تا "مسائل ایمنی هوش مصنوعی را جدی بگیرد."
آمودی همچنین از محدودیتهای شدید صادرات تراشه به چین حمایت کرده و هشدار داده که این فناوریها میتوانند برتری نظامی به ارتش چین بدهند.
او در این مصاحبه مشخص نکرد که Anthropic کدام مدل DeepSeek را آزمایش کرده یا جزئیات فنی بیشتری درباره این آزمونها ارائه نداد. Anthropic و DeepSeek نیز به درخواست TechCrunch برای اظهار نظر پاسخ ندادند.