یه پروتکل جدید و شفاف برای بررسی انصاف مدل‌های زبانی تو بلاکچین!

Fall Back

خب بچه‌ها، بیاین درباره یه کار جالب حرف بزنیم که ربط داره به مدل‌های زبانی بزرگ یا همون LLMها (یعنی مدل‌هایی که مثلا چت‌بات‌ها روشون ساخته می‌شن و می‌تونن متن بسازن). این مدل‌ها الان انقدر معروف و پرکاربرد شدن، مخصوصا تو کارای حساسی مثل قضاوت، آموزش، سلامت و حتی امور مالی. حالا بحث سر اینه: آیا این مدل‌ها واقعاً منصف هستن یا نه؟ یعنی «عدالت» رو رعایت می‌کنن؟ این یه قضیه خیلی مهمه، چون مثلاً اگه توی دادگاه یا درباره وام بانکی تصمیم‌گیری کنن و انصاف نداشته باشن، ممکنه به خیلیا ضرر برسه.

حالا یه تیم اومده یه روش خیلی باحال و شفاف درست کرده که بشه منصف بودن مدل‌های زبانیِ متن‌باز رو دقیق و قابل اعتماد بررسی کرد. حواست باشه، متن‌باز یعنی هر کسی بتونه کد مدل رو ببینه و بررسی کنه. اینجا یه کار خفن انجام دادن: همه چی رو گذاشتن تو بلاکچین (همون فناوری‌ای که تو بیت‌کوین و ارزهای دیجیتال هست و اساسش اینه که اطلاعات هیچ جوره قابل تغییر نیست و همه می‌تونن روش نظارت کنن).

خب چطوری این کار رو کردن؟ اومدن با استفاده از قرارداد هوشمند (Smart Contract یعنی کدهایی که تو بلاکچین اجرا می‌شن و هیچ احدی نمی‌تونه تقلب یا دستکاری‌شون کنه) و پروتکل اینترنت کامپیوتر (ICP، یه نوع بلاکچینه که مخصوص قراردادهای هوشمنده) یه سیستم ساختن که توش داده‌ها، دستورات آزمایش، و نتیجه‌ها کاملاً تو بلاکچین ذخیره می‌شن. هر کسی می‌تونه بیاد چک کنه ببینه واقعاً چه داده‌ای امتحان شده، چه سوالی پرسیده شده، و مدل چی جواب داده.

برای تست کردن انصاف، اومدن چندتا از مدل‌های معروف رو امتحان کردن. مثلاً مدل‌های Llama (مدل متنی خیلی محبوب)، DeepSeek و Mistral. آزمون رو هم با دیتاست PISA انجام دادن (PISA یه سری اطلاعاتیه دربارهٔ عملکرد درسی دانش‌آموزها که کلی کشور توش شرکت می‌کنن و برای سنجش عادلانه بودن مدل‌ها فوق‌العاده‌ست). معیارهای سنجش هم دوتا چیز علمی بوده: پاریتِ آماری (Statistical Parity) یعنی میزان برابری در نتایجِ گروه‌های مختلف، و فرصت برابر (Equal Opportunity) یعنی مثلاً همه گروه‌ها یه شانس برابر داشته باشن.

یه کار باحال دیگه انجام دادن: اومدن نگاه کردن ببینن آیا این مدل‌ها تو واژه‌سازی و جملات‌شون سوگیری اجتماعی دارن یا نه؛ با یه دیتاست دیگه به اسم StereoSet (یعنی مجموعه‌ای از تیپ‌های اجتماعی و سوگیری‌ها). این آزمون رو هم روی بلاکچین گذاشتن تا کامل شفاف باشه.

ولی هنوز کار تموم نشد! بچه‌ها گفتن بیاین مدل‌ها رو چندزبانه هم چک کنیم، ببینیم انصافشون تو زبان‌های مختلف چه فرقی می‌کنه. مثلاً انگلیسی، اسپانیایی و پرتغالی رو با معیار Kaleidoscope (یه نوع تست چندزبانه که اختلافات بین زبان‌ها رو می‌سنجه) بررسی کردن و معلوم شد انصاف مدل‌ها تو زبون‌های مختلف ممکنه فرق کنه و حتی سوگیری داشته باشه.

آخر داستان این‌که همه کدها و نتیجه‌هاشون رو کاملاً عمومی و متن‌باز گذاشتن، تا هرکسی دلش خواست بیاد چک کنه، از تقلب و دستکاری کسی نترسه و بشه ادامه‌دار وضعیت انصاف مدل‌ها رو زیر ذره‌بین گرفت. این یعنی هر نسخه جدید مدل اومد، دوباره میشه این تست رو براش اجرا کرد و دید انصافش بهتر شده یا بدتر.

جمع‌بندی؟ این کار داره یه مسیر شفاف، سریع و قابل اعتماد پیش پای ما می‌ذاره که ببینیم مدل‌های هوش مصنوعی انصاف دارن یا نه – مخصوصاً وقتی به عنوان دستیار یا قاضی یا دکتر بهشون تکیه می‌کنیم. خلاصه که تکنولوژی رو آوردن وسط تا دیگه کسی نتونه زیرآبی بره!

منبع: +