متا از توسعه هوش مصنوعی پرریسک دست برمیدارد

بهروز فیض
توسط:
0

 مارک زاکربرگ، مدیرعامل متا، قول داده است که هوش عمومی مصنوعی (AGI) — که به طور کلی به عنوان هوشی مصنوعی تعریف می‌شود که می‌تواند هر وظیفه‌ای را که یک انسان قادر به انجام آن است انجام دهد — را روزی به صورت عمومی در دسترس قرار دهد. اما در یک سند سیاستی جدید، متا اشاره می‌کند که در برخی سناریوها ممکن است از انتشار یک سیستم هوش مصنوعی بسیار توانمند که به صورت داخلی توسعه داده شده، خودداری خواهد کرد.



این سند که متا آن را چارچوب هوش مصنوعی پیشرفته (Frontier AI Framework) می‌نامد، دو نوع سیستم هوش مصنوعی را شناسایی می‌کند که شرکت آن‌ها را بیش از حد خطرناک برای انتشار می‌داند: سیستم‌های «پرخطر» و سیستم‌های «بحرانی خطرناک».


بر اساس تعاریف متا، هر دو دسته‌ی «پرخطر» و «بحرانی خطرناک» توانایی کمک به حملات سایبری، شیمیایی و بیولوژیکی را دارند. تفاوت اصلی در این است که سیستم‌های «بحرانی خطرناک» می‌توانند منجر به پیامدهای فاجعه‌باری شوند که در چارچوب پیشنهادی برای پیاده‌سازی آن‌ها قابل کاهش یا کنترل نیست. در مقابل، سیستم‌های پرخطر ممکن است انجام یک حمله را آسان‌تر کنند اما نه به همان اندازه‌ی سیستم‌های بحرانی خطرناک از نظر قابلیت اطمینان و کارایی.

اما دقیقاً درباره چه نوع حملاتی صحبت می‌کنیم؟ متا چند نمونه ارائه می‌دهد، مانند:

  • نفوذ خودکار و کامل به یک محیط سازمانی در مقیاس بزرگ که از بهترین شیوه‌های امنیتی پیروی می‌کند
  • گسترش تسلیحات بیولوژیکی با تأثیر بالا

متا اذعان می‌کند که این فهرست از خطرات احتمالی کامل نیست، اما شامل مواردی است که شرکت آن‌ها را «فوری‌ترین» و محتمل‌ترین خطراتی می‌داند که ممکن است به طور مستقیم از انتشار یک سیستم هوش مصنوعی قدرتمند ناشی شوند.

برچسب :

ارسال یک نظر

0نظرات

ارسال یک نظر (0)