تو دنیای هوش مصنوعی: تجربه آدم‌هایی که با تیم‌هایی از هوش مصنوعی کار می‌کنن!

Fall Back

خب بیاید با هم یه گشتی بزنیم تو دنیای ابزارهای «چندعاملی» هوش مصنوعی! اگر دنبال این هستید که بدونید واقعاً وقتی آدم‌ها با کلی هوش مصنوعی که هرکدوم یه نقش دارن کار می‌کنن چی میشه و چه دغدغه‌هایی دارن، این مقاله همون چیزیه که میخواید بخونید.

ماجرا از این قراره که شرکت‌های بزرگی مثل مایکروسافت دارن از تکنولوژی جدیدی به اسم Multi-Agent Generative AI استفاده می‌کنن. حالا این یعنی چی؟ ببینید، Generative AI یعنی هوش مصنوعی‌ای که خودش می‌تونه چیز بسازه؛ مثلاً متن بنویسه یا تصویر تولید کنه یا هر محتوای دیگه‌ای که بخواید. Multi-Agent هم یعنی به جای یه دونه هوش مصنوعی، یه تیم دارین که هر کدوم یه کار خاص انجام میدن. مثلاً یکی مثل دستیار عمل می‌کنه، یکی نقش بازبین (reviewer) رو داره و خلاصه هر کدوم واسه خودشون یه نقشی دارن. دقیقاً مثل تیم‌های کاری واقعی که هرکس یه مسئولیت داره!

توی این تحقیق اومدن با ۱۳ تا از توسعه‌دهنده‌های مایکروسافت که جزو اولین نفرایی بودن که این تکنولوژی رو استفاده کردن، مصاحبه کردن (به این افراد میگن “early adopters” یعنی کسایی که خیلی زودتر از بقیه سراغ تکنولوژیای جدید میرن). ازشون پرسیدن: خب، بگو ببینیم چطور با این هوش مصنوعی‌های تیمی کنار میاین؟ چه مشکلی تو کار باهاشون دارین؟ اصلاً احساس می‌کنین با یه تیم واقعی کار می‌کنین یا نه؟

جوابی که گرفتن خیلی جالب بود! تقریباً همه‌شون این سیستم‌ها رو مثل تیم‌های کاری می‌دیدن که چندتا هوش مصنوعی دارن رو نقشای تخصصی یا کاری مختلف کار می‌کنن. اینجوری هم می‌تونستن حالت‌هایی بسازن که گاهی هوش مصنوعی بیشتر تصمیم می‌گرفت (یعنی AI-dominant)، گاهی هم کنترل بیشتر دست خود کاربر بود و AI فقط کمک می‌کرد (یعنی AI-assisted).

اما خب، همه چیز هم گل و بلبل نیست! چند تا چالش خیلی اساسی رو این آدما گفتن:

۱. انتقال خطا (Error Propagation): اگه یه هوش مصنوعی تو تیم اشتباه کنه، ممکنه بقیه هم اشتباه اون رو ادامه بدن. انگار تو کار تیمی انسانی هم همینطوره، اگه یکی اشتباهی کنه ممکنه کل تیم رو اشتباه بکشونه!

۲. لوپ‌های غیرقابل پیش‌بینی و بی‌حاصل: گاهی وقتا این هوش مصنوعی‌ها گیر می‌کنن رو یه کاری و هی تلاش می‌کنن حلش کنن اما فایده نداره. مثلاً یه سری تعاملات پیش میاد که نتیجه مطلوب هیچ‌وقت حاصل نمی‌شه و فقط منابع تلف میشه.

۳. مشکلات شفافیت (Transparency): شفافیت اینجا یعنی اینکه کاربر بفهمه دقیقاً هوش مصنوعی‌ها دارن چیکار می‌کنن. اگه این شفافیت نباشه، کاربر نه می‌تونه خطاها رو پیدا کنه، نه می‌تونه به این سامانه‌ها اعتماد کنه و نه جلوی سواستفاده یا اشتباه و لو رفتن اطلاعات رو بگیره.

این آدم‌ها حسابی تأکید داشتن که شفافیت باید باشه تا بتونی به ابزار اعتماد کنی، خطاها رو ردیابی کنی و جلوی سوءاستفاده یا لو رفتن اطلاعات رو بگیری.

اما چیزی که باعث شد این تحقیق جالب‌تر بشه، همین نگاه تیمی به هوش مصنوعی بود؛ یعنی آدم‌ها واقعاً حس می‌کردن دارن با یه گروه متنوع و پویا از هوش مصنوعی‌ها کار می‌کنن که میشه نقششون رو بر اساس نیاز خودت تنظیم کنی! این ابزارها دیگه مثل گذشته یه ابزار «ساکت» و مطیع نیستن، بلکه خودشون واسه خودشون عضو تیم شدن.

در نهایت محقق‌ها چندتا پیشنهاد برای آینده دادن؛ مثلاً اینکه تحقیقات بیشتری انجام بشه روی اینکه چطوری میشه تعامل بین هوش‌های مختلف و آدم‌ها رو بهتر طراحی کرد. «CSCW» هم که هی این وسط میاد ازش حرف می‌زنن، منظورش همون «تحقیقات مشترک کار انسان و کامپیوتر» هست (یعنی تحقیقاتی که می‌خوان بفهمن چطور آدم‌ها و کامپیوترها می‌تونن با هم بهتر کار کنن).

پس جریان اینه: هوش مصنوعی دیگه فقط یه ابزار ساده نیست؛ شده یه تیم کامل! ولی برای اینکه بتونیم واقعاً ازش استفاده کنیم و اعتماد کنیم، باید بفهمیم دقیقاً دارن چیکار می‌کنن و چطور می‌تونیم بهتر باهاشون همکاری کنیم. این یعنی آینده کار کردن با هوش مصنوعی احتمالاً خیلی شبیه همکاری‌های تیمی بین آدماست، فقط با این فرق که اعضای تیم دیجیتالی هم دارن!

منبع: +