چطور هوش مصنوعی گاهی به مقالات مشکل‌دار تکیه می‌کنه!

حتماً تا حالا اسم چت‌بات‌های هوش مصنوعی مثل ChatGPT رو شنیدین که باهاشون خیلی راحت میشه ازشون سؤال پرسید و جواب گرفت، مخصوصاً سؤالای علمی و حتی پزشکی. اما یه نکته مهم و بامزه درباره این ابزارها هست که شاید ندونین: خیلی وقتا این چت‌بات‌ها برمی‌گردن به مقالات علمی‌ای که در اصل مشکل داشتن و حتی از سمت نشریه‌ها پس گرفته یا به اصطلاح “retracted” شدن (یعنی مقاله رو رسماً باطل کردن چون توش اشتباه یا تقلب بوده یا داده‌ها درست نبوده). ولی خب هوش مصنوعی بعضی وقت‌ها این فرق رو نمی‌فهمه و با استناد به همین مقاله‌های مشکل‌دار، جواب می‌ده!

یه تحقیق جدید که دانشمندانی مثل آقای وێیکوان گو (Weikuan Gu) از دانشگاه تنسی انجام دادن، نشون داد که مثلاً ChatGPT (مدل GPT-4o) به چند تا سؤال مرتبط با تصویرسازی پزشکی جواب داده، اما تو جواباش چند بار به مقالات ریترکت‌شده استناد کرده و فقط تو ۳ مورد به کاربر هشدار داده که این مقاله مشکل‌داره، بقیه رو اصلاً نگفته! یه تحقیق دیگه هم تو تابستون نشون داده که اکثراً این چت‌بات‌ها اصلاً به موضوع ریترکت شدن مقاله اشاره نمی‌کنن. این یعنی هر کی فقط جواب رو بخونه و به خود مقاله اصلی سر نزنه، شاید اصلاً نفهمه این منبع از رده خارج شده.

جالب‌تر اینه که هم مردم عادی برای گرفتن توصیه سلامتی (مثلاً چه بیماری‌ای دارن یا چی براشون خوبه) و هم محققان و دانشجوها دارن روز به روز بیشتر از این ابزارها و مدل‌های ژنراتیو (Generative AI یعنی هوش مصنوعی‌ای که خودش محتوا تولید می‌کنه) استفاده می‌کنن تا مثلاً تحقیق جمع‌بندی کنن یا درباره یه موضوع خلاصه مطلب بگیرن. فقط تو آمریکا همین تابستون بنیاد ملی علوم (US National Science Foundation) حدود ۷۵ میلیون دلار برای توسعه این مدل‌ها پاش داده! ولی خب، اگه منابع هوش مصنوعی دقیق نباشه، قضیه می‌تونه دردسر درست کنه.

یه سری از هوش مصنوعی‌ها مخصوص پژوهش ساخته شدن مثل Elicit، Ai2 ScholarQA، Perplexity و Consensus. مجله MIT Technology Review این ابزارها رو با هم مقایسه کرده و مشخص شده که مثلاً Elicit به ۵ مقاله مشکل‌دار اشاره کرده، Ai2 ScholarQA به ۱۷ تا، Perplexity به ۱۱ تا و Consensus به ۱۸ تا ــ بدون این که هیچ‌جا بگه این مقاله‌ها ریترکت شدن!

بعضی شرکتا مثل Consensus گفتن که تازگیا سعی کردن بانک‌های داده‌شون رو با اطلاعات رد و ابطال مقالات (Retraction داده‌ها؛ یعنی این که چیا ریترکت شدن و چرا) به‌روزرسانی کنن و الان فقط به ۵ مقاله ریترکت‌شده تو جواباش ارجاع میدن. Elicit هم میگه سعی می‌کنه از بانک OpenAlex برای حذف مقالات ریترکت‌شده استفاده کنه، ولی هنوز کامل نکردن. Ai2 هنوز خودش به صورت خودکار مقالات ریترکت‌شده رو شناسایی یا حذف نمی‌کنه و Perplexity هم گفته هیچ‌وقت ۱۰۰٪ تضمین نمی‌کنه جواباش درست باشه!

اما همین بانک داده‌های ریترکت هم کلی مشکل داره. مثلاً Ivan Oransky که سایت Retraction Watch رو راه‌اندازی کرده، میگه هیچ بانک داده جامعی برای مقالات ریترکت نداریم، چون باید تقریبا همه چی دستی چک بشه که واقعاً کار سختیه. از اون طرف نشریه‌ها هم اصلاً یه روش واحد برای اطلاع‌رسانی ریترکت‌شدن مقاله‌ها ندارن. مثلاً برچسب‌هایی مثل “اصلاحیه” (erratum)، “ابراز نگرانی” (expression of concern)، یا “تصحیح” رو با دلایل مختلفی میزنن – گاهی به خاطر ایراد محتوا، اشتباه روش علمی، یا حتی تضاد منافع!

یه مشکل دیگه هم اینکه تحقیقات خیلی وقتا تو سایتای مختلف یا سرورای preprint پخش و پلا میشن، و بعضی نسخه‌هاشون ممکنه هیچ نشونه‌ای از ریترکت شدن نداشته باشن. حتی دیتای مدل‌های هوش مصنوعی هم به روز نیست؛ یعنی اگه مقاله‌ای بعد از تاریخ آخرین آپدیت مدل ریترکت بشه، اون مدل خبر نداره و همچنان ممکنه بهش استناد کنه.

یه راه‌حل که بعضی متخصصا پیشنهاد دادن اینه که مدل‌های هوش مصنوعی بتونن اطلاعات کامل‌تر و شفاف‌تری کنار هر مقاله نشون بدن، مثلاً نقدها یا داوری‌هایی که تو سایت‌هایی مثل PubPeer اومده رو هم ارائه کنن؛ یا لینک به اطلاعیه‌هایی که نشریه‌هایی مثل Nature یا BMJ برای ریترکت منتشر می‌کنن و برای همه بازش گذاشتن.

در نهایت، خود کاربرا هم باید یه جورایی همیشه با دیده تردید به جواب‌های هوش مصنوعی نگاه کنن. هنوز اول راهمون تو استفاده از این ابزارهاست و باید هم دست‌اندرکارها هوشیار باشن، هم کاربرا خودشون دنبال منابع موثق و هشدارها باشن که خدای نکرده گول یه مقاله مشکل‌دار رو نخورن!

منبع: +