حافظه های حجیم SSD خوراک بعدی هوش مصنوعی هستند

بهروز فیض
توسط:
0

 مدل‌های زبانی بزرگ (LLMs) اغلب خروجی‌هایی تولید می‌کنند که معقول به نظر می‌رسند اما از نظر واقعی نادرست هستند—به عبارت دیگر، آن‌ها اطلاعات نادرست یا ساختگی ارائه می‌دهند. این پدیده که به آن "توهم" (Hallucination) گفته می‌شود، می‌تواند قابلیت اطمینان این مدل‌ها را در وظایف حساس اطلاعاتی مانند تشخیص پزشکی، تحلیل حقوقی، گزارش‌های مالی و تحقیقات علمی کاهش دهد.  



تولید تقویت‌شده با بازیابی (Retrieval-Augmented Generation یا RAG) این مشکل را با ادغام منابع داده خارجی کاهش می‌دهد. این روش به مدل‌های زبانی بزرگ اجازه می‌دهد تا در حین تولید متن، به اطلاعات به‌روز دسترسی داشته باشند، خطاها را کاهش دهند و با استناد به داده‌های فعلی، دقت متنی خروجی‌ها را بهبود بخشند. با این حال، پیاده‌سازی موثر RAG به منابع حافظه و ذخیره‌سازی قابل توجهی نیاز دارد، به‌ویژه برای داده‌های برداری بزرگ و شاخص‌های مرتبط. به طور سنتی، این داده‌ها در DRAM ذخیره می‌شدند که اگرچه سریع است، اما هم گران‌قیمت است و هم ظرفیت محدودی دارد.  


برای مقابله با این چالش‌ها، گزارش‌ها حاکی از آن است که در نمایشگاه CES امسال، شرکت ژاپنی کیوکسیا (Kioxia) فناوری جدیدی به نام AiSAQ (All-in-Storage Approximate Nearest Neighbor Search با Quantization محصول) معرفی کرده است. این فناوری از SSDهای پرظرفیت برای ذخیره‌سازی داده‌های برداری و شاخص‌ها استفاده می‌کند. کیوکسیا ادعا می‌کند که AiSAQ در مقایسه با فناوری‌هایی مانند DiskANN، استفاده از DRAM را به میزان قابل توجهی کاهش می‌دهد و یک رویکرد مقرون‌ به‌ صرفه‌تر و مقیاس‌ پذیرتر برای پشتیبانی از مدل‌های بزرگ هوش مصنوعی ارائه می‌کند.  


این پیشرفت می‌تواند نقش مهمی در بهبود کارایی و کاهش هزینه‌های مرتبط با اجرای مدل‌های بزرگ زبانی و سیستم‌های مبتنی بر RAG داشته باشد. نظر شما درباره این فناوری چیست؟ آیا فکر می‌کنید استفاده از SSDهای پرظرفیت می‌تواند جایگزین مناسبی برای DRAM در این زمینه باشد؟

برچسب :

ارسال یک نظر

0نظرات

ارسال یک نظر (0)