واقعاً چقدر میشه رو هوش مصنوعی برای مشاوره دانشجویان بین‌المللی حساب کرد؟

Fall Back

اگه تا حالا با هوش مصنوعی یا همون LLMها (یعنی مدل‌های زبانی بزرگ که مثل ChatGPT جواب میدن) سر و کار داشتی، احتمالاً دیدی که این روزا خیلیا برای جواب گرفتن درباره مهاجرت تحصیلی، پذیرش دانشگاه، ویزا یا حتی بورسیه ازشون استفاده می‌کنن. اما واقعاً چقدر میشه به جواب‌هایی که این مدل‌ها میدن اعتماد کرد؟ نکنه یه وقت راه غلط نشون بدن یا شایعات بی‌اساس تحویل بدن؟ داستان این مقاله دقیقاً همینه!

توی این مطالعه اومدن با استفاده از ApplyBoard – این یه پلتفرمه تو حوزه EdTech، یعنی فناوري آموزشی، که از پیدا کردن راه تا ثبت‌نام کمک دانشجویان خارجی می‌کنه – یه سری سؤال واقعی که دانشجوها توی فرآیند مشاوره می‌پرسن رو جمع کردن. بعد این سؤالارو دادن به چند مدل LLM که جواب بدن. بعدش هم جواب‌ها رو واقعاً بادقت بررسی و نمره‌دهی کردن.

نمره‌دهی چطوری بوده؟ سه تا حالت داشتن: درست، ناقص، غلط! برای اینکه دقیق باشن، یه سری نکته هم در نظر گرفتن. مثلاً اگه جواب فقط یه بخش کوچیک ماجرا رو پوشش بده، بهش میگن under-coverage (یعنی کافی نیست) و اگه مدل بره سراغ چیزی که اصلاً ربط نداره، اسمشو گذاشتن hallucination یعنی چیزی از خودش در آورده یا اضافه گفته که تو سؤال نبوده.

یه بحث مهم تو این کار اینه که بعضی سؤال‌ها فقط در مورد یه موضوع هستن (مثلاً فقط بورسیه)، اما بعضیاشون چندتا حوزه رو هم‌زمان لازم دارن، مثل پذیرش و ویزا با هم. به همین خاطر، بررسی کیفیت جواب مدل‌ها پیچیده‌تر میشه.

حالا چرا این مطالعه مهمه؟ چون هدفش سه تا چیزه:

  1. بفهمیم الان کدوم مدل‌ها برای مشاوره دانشجوی خارجی قابل اعتمادترن.
  2. بفهمیم کجاها این مدل‌ها سوتی میدن، مثلاً جواب ناقص یا بی‌ربط میدن یا شایعه‌سازی می‌کنن.
  3. و اینکه یه روش واقعا کاربردی و قابل استفاده به دیگران بدن تا قبل از استفاده جدی از LLM تو مشاوره آموزشی، خودشون این مدل‌ها رو خوب چک کنن و مطمئن شن که مناسبا.

توی نتیجه این مطالعه، مدل‌ها رو با هم مقایسه کردن تا ببینن دقیقاً کی بهتره و کجاها باید بیشتر حواسمون رو جمع کنیم که مدل اشتباهی جواب نده یا حرف اضافه نزنه. موضوع faithfulness هم بررسی شده بود (یعنی وفاداری به شواهد و اطلاعات واقعی) و answer relevance (یعنی جواب مرتبط و کاربردی باشه) تا مطمئن شن خروجی مدل واقعاً به درد دانشجو می‌خوره و صرفاً یه مشت حرف قشنگ اما بی‌پشتوانه نیست.

در کل، این کار نشون میده هرچند LLMها می‌تونن کمک بزرگی باشن، ولی باید حواسمون جمع باشه و هر جوابی رو همین‌جوری قبول نکنیم. مخصوصاً تو مسیری مثل مهاجرت تحصیلی که هر اشتباه کوچیک می‌تونه دردسر درست کنه! پس حتما اگر دنبال چنین مشاوره‌هایی هستی، گوشه ذهن داشته باش که مدل‌های هوش مصنوعی هم گاهی اشتباه می‌کنن یا چیزی رو اضافه می‌کنن که اصلاً صحت نداره! همین باعث شده تو دنیای آموزش، ایده ارزیابی دقیق مدل‌ها و کنترل خروجی‌ها خیلی مهم بشه.

منبع: +