به گزارش خبرنگار علم و فناوری ایسکانیوز؛ به گفته اداره ملی آمار بریتانیا، تقریبا یک سوم (۳۱ درصد) از آمریکاییها امیدوارند که هوش مصنوعی بتواند دسترسی آنها را به مراقبتهای بهداشتی بهبود بخشد. این در حالی است که هوش مصنوعی به لطف تواناییهای بیبدیلش در تشخیص الگو -مثل اسکن اشعه ایکس- نقش بزرگی در تشخیص بیماریها ایفا کرده و از این رو، دولت آمریکا میلیونها دلار روی این فناوری برای خدمات ملی سلامت سرمایهگذاری کرده است. اما سوالی که در اینجا مطرح میشود این است که آیا واقعا میتوان برای پاسخ به سوالات پزشکی به یک مدل بزرگ زبان (LLM) مثل ChatGPT اتکا کنیم؟
تحقیقات قبلی نشان داده است که تا ۳۹/۵ درصد از متخصصان و پزشکان امیدوارند که به زودی بتوانند از مدلهای بزرگ زبان برای تصمیمگیریهای پزشکی خود استفاده کنند، اما از سوی دیگر، تحقیقات جدید نشان میدهد که کاربران باید در اتکا به هوش مصنوعی برای تصمیمگیریها و تشخیصهای حساس مراقب باشند و جانب احتیاط را رعایت کنند.
مطالعه جدید چه میگویند؟
مطالعه محققان نشان میدهد که نرمافزارهای هوش مصنوعی مانند ChatGPT و «بارد» شرکت گوگل هنوز بالقوه نادرست هستند. حال ۲ پزشک با طرح ۵۶ سوال رایج پزشکی برای چتباتها میزان صحت و سقم جواب آنها را بررسی کردند و متوجه شدند که پاسخ ارائه شده آنها اغلب یا نادرست است یا ناقص. در واقع بیش از نیمی از پاسخهای بارد دقیق (۵۳/۶ درصد) و ۱۷/۸ درصد نادرست و ۲۸/۶ درصد تا حدی دقیق بود. جوابهای چتجیپیتی نیز کمی بیش از یک چهارم دقیق (۲۸/۶ درصد)، ۲۸/۶ درصد نادرست و ۴۲/۸ درصد تا حدی دقیق بود.
دکتر «آندری براتیانو»، از بنیاد کلینیک کلیولند در آمریکا، میگوید: این مطالعه نشان داد که ابزارهای هوش مصنوعی نباید به عنوان جایگزینی برای پزشکان استفاده شوند. آنها میتوانند به عنوان منابع اضافی در نظر گرفته شوند که وقتی با تخصص انسانی ترکیب شوند، کیفیت کلی اطلاعات ارائه شده را افزایش میدهند.
نظر خود را اضافه کنید.