مصرف انرژی ChatGPT کمتر از چیزیست که فکر می کردیم

بهروز فیض
توسط:
0

 چت‌جی‌پی‌تی، پلتفرم چت‌بات شرکت OpenAI، ممکن است به اندازه‌ای که پیش‌تر تصور می‌شد، پرمصرف نباشد. اما میزان مصرف انرژی آن تا حد زیادی به نحوه استفاده از چت‌جی‌پی‌تی و مدل‌های هوش مصنوعی که به پرسش‌ها پاسخ می‌دهند، بستگی دارد.



یک مطالعه جدید توسط مؤسسه تحقیقاتی غیرانتفاعی Epoch AI تلاش کرده است تا میزان انرژی مصرفی یک پرسش معمولی در چت‌جی‌پی‌تی را محاسبه کند. بر اساس یک آمار رایج، چت‌جی‌پی‌تی برای پاسخ به یک سؤال تقریباً ۳ وات-ساعت انرژی مصرف می‌کند، که ۱۰ برابر بیشتر از یک جستجوی گوگل است.

اما Epoch معتقد است که این رقم بیش از حد تخمین زده شده است.



با استفاده از مدل پیش‌فرض جدید OpenAI برای چت‌جی‌پی‌تی، یعنی GPT-4o، Epoch دریافت که مصرف متوسط یک پرسش در چت‌جی‌پی‌تی حدود ۰.۳ وات-ساعت است—کمتر از بسیاری از وسایل برقی خانگی.

جاشوا یو، تحلیلگر داده در Epoch که این تحقیق را انجام داده، به TechCrunch گفت:
"مصرف انرژی چت‌جی‌پی‌تی در مقایسه با استفاده از وسایل برقی معمولی، سیستم گرمایش و سرمایش خانه، یا حتی رانندگی، واقعاً مسئله بزرگی نیست."

میزان مصرف انرژی هوش مصنوعی—و تأثیرات زیست‌محیطی آن به طور کلی—موضوعی بحث‌برانگیز است، به‌ویژه با توجه به اینکه شرکت‌های فعال در حوزه هوش مصنوعی به سرعت در حال گسترش زیرساخت‌های خود هستند. هفته گذشته، بیش از ۱۰۰ سازمان نامه‌ای سرگشاده منتشر کردند و از صنعت هوش مصنوعی و قانون‌گذاران خواستند که اطمینان حاصل کنند مراکز داده جدید هوش مصنوعی منابع طبیعی را تخلیه نکرده و شرکت‌های تأمین برق را مجبور به استفاده از انرژی‌های غیرتجدیدپذیر نکنند.

جاشوا یو به TechCrunch گفت که این تحقیق به دلیل آنچه او تحقیقات قدیمی و نادرست می‌داند، انجام شده است. او توضیح داد که، برای مثال، نویسنده گزارشی که میزان ۳ وات-ساعت را برآورد کرده بود، فرض کرده بود که OpenAI از تراشه‌های قدیمی و کم‌بازده‌تر برای اجرای مدل‌های خود استفاده می‌کند.

برچسب :

ارسال یک نظر

0نظرات

ارسال یک نظر (0)