مدلهای زبانی بزرگ (LLMs) اغلب خروجیهایی تولید میکنند که معقول به نظر میرسند اما از نظر واقعی نادرست هستند—به عبارت دیگر، آنها اطلاعات نادرست یا ساختگی ارائه میدهند. این پدیده که به آن "توهم" (Hallucination) گفته میشود، میتواند قابلیت اطمینان این مدلها را در وظایف حساس اطلاعاتی مانند تشخیص پزشکی، تحلیل حقوقی، گزارشهای مالی و تحقیقات علمی کاهش دهد.
تولید تقویتشده با بازیابی (Retrieval-Augmented Generation یا RAG) این مشکل را با ادغام منابع داده خارجی کاهش میدهد. این روش به مدلهای زبانی بزرگ اجازه میدهد تا در حین تولید متن، به اطلاعات بهروز دسترسی داشته باشند، خطاها را کاهش دهند و با استناد به دادههای فعلی، دقت متنی خروجیها را بهبود بخشند. با این حال، پیادهسازی موثر RAG به منابع حافظه و ذخیرهسازی قابل توجهی نیاز دارد، بهویژه برای دادههای برداری بزرگ و شاخصهای مرتبط. به طور سنتی، این دادهها در DRAM ذخیره میشدند که اگرچه سریع است، اما هم گرانقیمت است و هم ظرفیت محدودی دارد.
برای مقابله با این چالشها، گزارشها حاکی از آن است که در نمایشگاه CES امسال، شرکت ژاپنی کیوکسیا (Kioxia) فناوری جدیدی به نام AiSAQ (All-in-Storage Approximate Nearest Neighbor Search با Quantization محصول) معرفی کرده است. این فناوری از SSDهای پرظرفیت برای ذخیرهسازی دادههای برداری و شاخصها استفاده میکند. کیوکسیا ادعا میکند که AiSAQ در مقایسه با فناوریهایی مانند DiskANN، استفاده از DRAM را به میزان قابل توجهی کاهش میدهد و یک رویکرد مقرون به صرفهتر و مقیاس پذیرتر برای پشتیبانی از مدلهای بزرگ هوش مصنوعی ارائه میکند.
این پیشرفت میتواند نقش مهمی در بهبود کارایی و کاهش هزینههای مرتبط با اجرای مدلهای بزرگ زبانی و سیستمهای مبتنی بر RAG داشته باشد. نظر شما درباره این فناوری چیست؟ آیا فکر میکنید استفاده از SSDهای پرظرفیت میتواند جایگزین مناسبی برای DRAM در این زمینه باشد؟