خب بیاید با هم یه گشتی بزنیم تو دنیای ابزارهای «چندعاملی» هوش مصنوعی! اگر دنبال این هستید که بدونید واقعاً وقتی آدمها با کلی هوش مصنوعی که هرکدوم یه نقش دارن کار میکنن چی میشه و چه دغدغههایی دارن، این مقاله همون چیزیه که میخواید بخونید.
ماجرا از این قراره که شرکتهای بزرگی مثل مایکروسافت دارن از تکنولوژی جدیدی به اسم Multi-Agent Generative AI استفاده میکنن. حالا این یعنی چی؟ ببینید، Generative AI یعنی هوش مصنوعیای که خودش میتونه چیز بسازه؛ مثلاً متن بنویسه یا تصویر تولید کنه یا هر محتوای دیگهای که بخواید. Multi-Agent هم یعنی به جای یه دونه هوش مصنوعی، یه تیم دارین که هر کدوم یه کار خاص انجام میدن. مثلاً یکی مثل دستیار عمل میکنه، یکی نقش بازبین (reviewer) رو داره و خلاصه هر کدوم واسه خودشون یه نقشی دارن. دقیقاً مثل تیمهای کاری واقعی که هرکس یه مسئولیت داره!
توی این تحقیق اومدن با ۱۳ تا از توسعهدهندههای مایکروسافت که جزو اولین نفرایی بودن که این تکنولوژی رو استفاده کردن، مصاحبه کردن (به این افراد میگن “early adopters” یعنی کسایی که خیلی زودتر از بقیه سراغ تکنولوژیای جدید میرن). ازشون پرسیدن: خب، بگو ببینیم چطور با این هوش مصنوعیهای تیمی کنار میاین؟ چه مشکلی تو کار باهاشون دارین؟ اصلاً احساس میکنین با یه تیم واقعی کار میکنین یا نه؟
جوابی که گرفتن خیلی جالب بود! تقریباً همهشون این سیستمها رو مثل تیمهای کاری میدیدن که چندتا هوش مصنوعی دارن رو نقشای تخصصی یا کاری مختلف کار میکنن. اینجوری هم میتونستن حالتهایی بسازن که گاهی هوش مصنوعی بیشتر تصمیم میگرفت (یعنی AI-dominant)، گاهی هم کنترل بیشتر دست خود کاربر بود و AI فقط کمک میکرد (یعنی AI-assisted).
اما خب، همه چیز هم گل و بلبل نیست! چند تا چالش خیلی اساسی رو این آدما گفتن:
۱. انتقال خطا (Error Propagation): اگه یه هوش مصنوعی تو تیم اشتباه کنه، ممکنه بقیه هم اشتباه اون رو ادامه بدن. انگار تو کار تیمی انسانی هم همینطوره، اگه یکی اشتباهی کنه ممکنه کل تیم رو اشتباه بکشونه!
۲. لوپهای غیرقابل پیشبینی و بیحاصل: گاهی وقتا این هوش مصنوعیها گیر میکنن رو یه کاری و هی تلاش میکنن حلش کنن اما فایده نداره. مثلاً یه سری تعاملات پیش میاد که نتیجه مطلوب هیچوقت حاصل نمیشه و فقط منابع تلف میشه.
۳. مشکلات شفافیت (Transparency): شفافیت اینجا یعنی اینکه کاربر بفهمه دقیقاً هوش مصنوعیها دارن چیکار میکنن. اگه این شفافیت نباشه، کاربر نه میتونه خطاها رو پیدا کنه، نه میتونه به این سامانهها اعتماد کنه و نه جلوی سواستفاده یا اشتباه و لو رفتن اطلاعات رو بگیره.
این آدمها حسابی تأکید داشتن که شفافیت باید باشه تا بتونی به ابزار اعتماد کنی، خطاها رو ردیابی کنی و جلوی سوءاستفاده یا لو رفتن اطلاعات رو بگیری.
اما چیزی که باعث شد این تحقیق جالبتر بشه، همین نگاه تیمی به هوش مصنوعی بود؛ یعنی آدمها واقعاً حس میکردن دارن با یه گروه متنوع و پویا از هوش مصنوعیها کار میکنن که میشه نقششون رو بر اساس نیاز خودت تنظیم کنی! این ابزارها دیگه مثل گذشته یه ابزار «ساکت» و مطیع نیستن، بلکه خودشون واسه خودشون عضو تیم شدن.
در نهایت محققها چندتا پیشنهاد برای آینده دادن؛ مثلاً اینکه تحقیقات بیشتری انجام بشه روی اینکه چطوری میشه تعامل بین هوشهای مختلف و آدمها رو بهتر طراحی کرد. «CSCW» هم که هی این وسط میاد ازش حرف میزنن، منظورش همون «تحقیقات مشترک کار انسان و کامپیوتر» هست (یعنی تحقیقاتی که میخوان بفهمن چطور آدمها و کامپیوترها میتونن با هم بهتر کار کنن).
پس جریان اینه: هوش مصنوعی دیگه فقط یه ابزار ساده نیست؛ شده یه تیم کامل! ولی برای اینکه بتونیم واقعاً ازش استفاده کنیم و اعتماد کنیم، باید بفهمیم دقیقاً دارن چیکار میکنن و چطور میتونیم بهتر باهاشون همکاری کنیم. این یعنی آینده کار کردن با هوش مصنوعی احتمالاً خیلی شبیه همکاریهای تیمی بین آدماست، فقط با این فرق که اعضای تیم دیجیتالی هم دارن!
منبع: +