مارک زاکربرگ، مدیرعامل متا، قول داده است که هوش عمومی مصنوعی (AGI) — که به طور کلی به عنوان هوشی مصنوعی تعریف میشود که میتواند هر وظیفهای را که یک انسان قادر به انجام آن است انجام دهد — را روزی به صورت عمومی در دسترس قرار دهد. اما در یک سند سیاستی جدید، متا اشاره میکند که در برخی سناریوها ممکن است از انتشار یک سیستم هوش مصنوعی بسیار توانمند که به صورت داخلی توسعه داده شده، خودداری خواهد کرد.
این سند که متا آن را چارچوب هوش مصنوعی پیشرفته (Frontier AI Framework) مینامد، دو نوع سیستم هوش مصنوعی را شناسایی میکند که شرکت آنها را بیش از حد خطرناک برای انتشار میداند: سیستمهای «پرخطر» و سیستمهای «بحرانی خطرناک».
بر اساس تعاریف متا، هر دو دستهی «پرخطر» و «بحرانی خطرناک» توانایی کمک به حملات سایبری، شیمیایی و بیولوژیکی را دارند. تفاوت اصلی در این است که سیستمهای «بحرانی خطرناک» میتوانند منجر به پیامدهای فاجعهباری شوند که در چارچوب پیشنهادی برای پیادهسازی آنها قابل کاهش یا کنترل نیست. در مقابل، سیستمهای پرخطر ممکن است انجام یک حمله را آسانتر کنند اما نه به همان اندازهی سیستمهای بحرانی خطرناک از نظر قابلیت اطمینان و کارایی.
اما دقیقاً درباره چه نوع حملاتی صحبت میکنیم؟ متا چند نمونه ارائه میدهد، مانند:
- نفوذ خودکار و کامل به یک محیط سازمانی در مقیاس بزرگ که از بهترین شیوههای امنیتی پیروی میکند
- گسترش تسلیحات بیولوژیکی با تأثیر بالا
متا اذعان میکند که این فهرست از خطرات احتمالی کامل نیست، اما شامل مواردی است که شرکت آنها را «فوریترین» و محتملترین خطراتی میداند که ممکن است به طور مستقیم از انتشار یک سیستم هوش مصنوعی قدرتمند ناشی شوند.