خب، بیاین راحت و بیتکلف درباره یه موضوع جدید و جالب حرف بزنیم: وقتی آدما و هوش مصنوعی (یا همون AI – مثلاً مثل چتباتها یا ابزارهایی که خودشون متن و تصویر تولید میکنن) قراره با هم همکاری کنن، مسئولیت دانستن یا به اصطلاح اپیستِمیک (Epistemic responsibility) خیلی مهم میشه! حالا حتماً میپرسی یعنی چی این مسئولیت؟ بذار ساده بگم: یه جور تعهد یا وظیفهست که هرکسی اطلاعات جمع میکنه، تحلیلش میکنه یا بر اساسش تصمیم میگیره باید مطمئن بشه که واقعاً میدونه چی داره میگه و اشتباه یا گمراهکننده نیست.
حالا این مشکل جدید مخصوص دنیای امروز ماست، چون هوش مصنوعی دیگه فقط ابزار نیست که ما هر وقت بخوایم روشنش کنیم یا خاموشش کنیم – بعضی وقتا همکاره! یعنی آدما و سیستمهای هوشمند کنارشون دارن با همدیگه کار میکنن، تصمیم میگیرن و گاهی حتی به همدیگه وابسته میشن.
ماجرای همکاری آدم و AI
وقتی آدمها و AI با هم کار میکنن، همهچی پیچیدهتر میشه. قبلاً اگه یه آدم وایمیستاد و اطلاعات اشتباه میداد یا تصمیم نابجا میگرفت، میتونستیم بگیم «مسئولیت خودشه». ولی الان مثلاً فرض کن یه پزشک تشخیص میده یا خبرنگار گزارشی تهیه میکنه و بخشی از اطلاعات رو AI جمع و تحلیل کرده. حالا مسئول کیه؟ آدمه یا سیستم هوشمنده؟ یا جفتشون؟ اینجا قضیه «مسئولیت دانایی» جدیتر میشه.
مثلاً بعضی هوش مصنوعیها چیزایی تولید میکنن به اسم hallucination – یعنی اطلاعاتی که کاملاً از خودشون درآوردن و هیچ ربطی به واقعیت نداره. شاید ظاهرش قابل باور باشه، ولی اساساً اشتباهه. این قضیه تو حوزههایی مثل پزشکی، تحقیقات، یا گزارشگری میتونه خیلی خطرناک بشه.
استانداردهای جامعه و چرا لازم داریم؟
خُب، حالا باید یه سری استاندارد جامعه (community standard) یا همون قوانین نانوشته و نوشته درست کنیم که همه بدونن وقتی دارن از هوش مصنوعی کمک میگیرن، دقیقاً مسئولیت چه چیزایی با کیه. مثلاً لازمه وقتی تولید محتوا یا تصمیمگیری به کمک AI انجام شد، مشخص بشه چه بخشی کار آدم بوده و چه بخشی کار AI – و هر کدوم چطوری صحت و دقت کار خودشون رو بررسی کردن.
یه مثال باحال بزنم: توی پروژههای علمی، معمولاً یه مسیری هست برای بررسی صحت داده و اینکه اطلاعات منبعدار باشه (مثلاً peer review – یعنی بررسی همتایان علمی). حالا اگه دادهها رو یا تحلیل اولیه رو AI انجام بده، این وسط باید مطمئن شیم هم آدم هم AI درست عمل کردن و بعد بریم سراغ نتیجهگیری. اینجوری نمیشه فقط به هوش مصنوعی گفت «حتماً درست گفته»، چون معلوم نیست تقصیر خطا با کیه!
چی میشه اگه به مسئولیت اپیستِمیک توجه نکنیم؟
شاید بگی خب زیاد هم وسواس نباشیم دیگه! اما قضیه اینجاست که اگه توجه نکنیم، ممکنه اطلاعات نادرست پخش بشه، تصمیمهای غلط گرفته بشه، یا حتی اعتماد مردم به علم و رسانه و پزشکی و خیلی حوزههای دیگه از بین بره. جامعه باید یاد بگیره اعضاش مسئول باشن؛ چه آدم باشه چه ماشین.
در حالت ایدهآل، همکاری آدما و AI میتونه باعث بهتر شدن تصمیمگیری و افزایش دانش جمعی بشه، به شرط اینکه هر کسی (آدم و هوش مصنوعی) نقش خودش رو تو درست بودن اطلاعات بدونه و پاسخگو باشه. مثلا اگه توی پزشکی AI به دکتر یه پیشنهاد اشتباه میده، دکتر باید نقدپذیر باشه و با دقت نظر کنه؛ یا مثلاً توی تحقیق علمی، اعلام کنن کدوم بخش رو AI تحلیل کرده و انسان هم صحتش رو بررسی کنه.
جمعبندی رفاقتی!
نتیجه اینکه دنیای آدم و هوش مصنوعی مثل قبل ساده نیست. باید یاد بگیریم مسئولیت دانایی رو توی همکاری مشترکمون جدی بگیریم. بی خیال سطحینگری، باید استاندارد درست کنیم، بدونیم چه زمانی و چطور به دادههای AI اعتماد کنیم و همیشه پیگیر صحت و اعتبار اطلاعات باشیم، مخصوصاً وقتی پای موضوعات حساس در میونه.
پس دفعه بعدی که خواستی از هوش مصنوعی کمک بگیری (یا همکاری باش کنی!)، حواست باشه هم تو مسئولیت داری، هم اون طرف مقابل ماشینی! 😉
منبع: +