ابراز نگرانی از وضعیت پاسخ های حساس DeepSeek

بهروز فیض
توسط:
0

 داریو آمودی، مدیرعامل Anthropic، نسبت به رقیب چینی خود، DeepSeek، ابراز نگرانی کرده است—شرکتی که با مدل R1 خود دره سیلیکون را تحت تأثیر قرار داد. و به نظر می‌رسد که نگرانی او فراتر از مسائل رایج مربوط به احتمال ارسال داده‌های کاربران به چین باشد.



در مصاحبه‌ای با پادکست ChinaTalk، آمودی گفت که DeepSeek در یکی از آزمون‌های ایمنی که توسط Anthropic اجرا شد، اطلاعات نادری درباره سلاح‌های بیولوژیکی تولید کرد.

او ادعا کرد که عملکرد DeepSeek "بدترین عملکردی بود که تاکنون در بین مدل‌های آزمایش‌شده دیده‌ایم" و افزود: "هیچ‌گونه محدودیتی در برابر تولید این اطلاعات نداشت."

آمودی توضیح داد که این بخشی از ارزیابی‌های امنیت ملی است که تیم او به‌طور مرتب روی مدل‌های مختلف هوش مصنوعی انجام می‌دهد. هدف این ارزیابی‌ها بررسی این است که آیا یک مدل می‌تواند اطلاعات مربوط به سلاح‌های بیولوژیکی را که به‌راحتی در گوگل یا کتاب‌های درسی پیدا نمی‌شود، تولید کند یا نه. Anthropic خود را به‌عنوان شرکتی که ایمنی را جدی می‌گیرد، معرفی کرده است.

او تأکید کرد که مدل‌های DeepSeek در حال حاضر به‌طور مستقیم "خطرناک" نیستند، اما در آینده ممکن است باشند. آمودی، ضمن ستایش تیم DeepSeek به‌عنوان "مهندسانی بااستعداد"، از این شرکت خواست تا "مسائل ایمنی هوش مصنوعی را جدی بگیرد."

آمودی همچنین از محدودیت‌های شدید صادرات تراشه به چین حمایت کرده و هشدار داده که این فناوری‌ها می‌توانند برتری نظامی به ارتش چین بدهند.

او در این مصاحبه مشخص نکرد که Anthropic کدام مدل DeepSeek را آزمایش کرده یا جزئیات فنی بیشتری درباره این آزمون‌ها ارائه نداد. Anthropic و DeepSeek نیز به درخواست TechCrunch برای اظهار نظر پاسخ ندادند.

برچسب :

ارسال یک نظر

0نظرات

ارسال یک نظر (0)