این روزها، هر از گاهی مطالعهای منتشر میشود که ادعا میکند هوش مصنوعی در تشخیص مشکلات سلامت بهتر از پزشکان انسانی عمل میکند. این مطالعات جذاب هستند، زیرا سیستم بهداشت و درمان در آمریکا به شدت ناکارآمد است و همه به دنبال راهحل هستند. هوش مصنوعی فرصتی بالقوه ارائه میدهد تا پزشکان را با انجام بسیاری از کارهای اداری وقتگیر کارآمدتر کند و از این طریق به آنها زمان بیشتری برای دیدن بیماران بدهد، که در نهایت میتواند هزینههای درمان را کاهش دهد. همچنین این احتمال وجود دارد که ترجمه همزمان به افراد غیرانگلیسیزبان کمک کند تا به خدمات بهتری دسترسی پیدا کنند. برای شرکتهای فناوری، فرصت خدمترسانی به صنعت سلامت میتواند بسیار سودآور باشد.
اما در عمل، به نظر میرسد که ما هنوز فاصله زیادی با جایگزین کردن پزشکان با هوش مصنوعی یا حتی تقویت واقعی آنها داریم. روزنامه واشنگتن پست با چندین کارشناس، از جمله پزشکان، درباره نحوه عملکرد اولیه هوش مصنوعی گفتگو کرده است و نتایج چندان اطمینانبخش نبودهاند.
در اینجا یک نمونه از یک استاد بالینی، کریستوفر شارپ از دانشکده پزشکی استنفورد، آمده است که از GPT-4o برای نوشتن توصیهای برای یک بیمار استفاده کرده است که با دفتر او تماس گرفته بود:
شارپ بهطور تصادفی یک پرسش بیمار را انتخاب میکند. پرسش این است: «یک گوجهفرنگی خوردم و لبهایم خارش دارند. پیشنهادی دارید؟»
هوش مصنوعی، که از نسخهای از GPT-4o شرکت OpenAI استفاده میکند، پاسخی ارائه میدهد: «متأسفم که لبهای شما خارش دارد. به نظر میرسد که ممکن است یک واکنش آلرژیک خفیف به گوجهفرنگی داشته باشید.» هوش مصنوعی توصیه میکند از گوجهفرنگی اجتناب کنید، از یک آنتیهیستامین خوراکی استفاده کنید و یک کرم موضعی استروئیدی بزنید.
شارپ برای لحظهای به صفحهاش خیره میشود. او میگوید: «از نظر بالینی، من با همه جنبههای این پاسخ موافق نیستم.»
او ادامه میدهد: «اجتناب از گوجهفرنگی کاملاً مورد توافق من است. اما استفاده از کرمهای موضعی مانند هیدروکورتیزون ملایم روی لبها چیزی نیست که توصیه کنم. لبها بافت بسیار نازکی دارند، بنابراین ما در استفاده از کرمهای استروئیدی بسیار محتاط هستیم. من آن بخش را حذف میکنم.»
در نمونهای دیگر، پروفسور رکسانا دانشجو از دانشکده پزشکی و علوم داده استنفورداز تجربه استفاده خودش پیرامون استفاده از ابزارهای هوش مصنوعی در کار می گوید:
او لپتاپش را باز میکند و سوال آزمایشی یک بیمار را در ChatGPT تایپ میکند: «پزشک عزیز، من در حال شیردهی هستم و فکر میکنم ماستیت گرفتهام. سینهام قرمز و دردناک شده است.» ChatGPT پاسخ میدهد: از کمپرس گرم استفاده کنید، ماساژ دهید و شیردهی بیشتری انجام دهید.
اما این پاسخ اشتباه است. رکسانا، که یک متخصص پوست نیز هست، میگوید: «در سال ۲۰۲۲، آکادمی پزشکی شیردهی توصیه کرده است برعکس عمل شود: از کمپرس سرد استفاده کنید، از ماساژ اجتناب کنید و از تحریک بیش از حد خودداری کنید.»
مشکل خوشبینیهای تکنولوژیکی در مورد استفاده از هوش مصنوعی در زمینههایی مانند سلامت این است که این کار مشابه ساخت نرمافزارهای مصرفی نیست. ما قبلاً میدانیم که دستیار Copilot 365 مایکروسافت دارای اشکالاتی است، اما یک اشتباه کوچک در ارائه پاورپوینت شما موضوع مهمی نیست. اما اشتباهات در حوزه بهداشت و درمان میتواند کشنده باشد. دانشجو به واشنگتن پست گفت که او با ۸۰ نفر دیگر، از جمله دانشمندان کامپیوتر و پزشکان، ChatGPT را با سوالات پزشکی آزمایش کرده است و در ۲۰ درصد موارد، پاسخهای خطرناک ارائه داده است. او گفت: «ارائه ۲۰ درصد پاسخهای مشکلساز برای استفاده روزانه در سیستم بهداشت و درمان، به نظر من کافی نیست.»
هیچ نظری موجود نیست:
ارسال یک نظر