اگه تا حالا با یه ربات چت نکردی که نقش دوست، همصحبت یا حتی مشاور رو بازی کنه، بعید نیست دستکم یکی از دوستات یا آشنات این تجربه رو داشته باشه. این روزا با پیشرفت هوش مصنوعی مولد – یعنی همون Generative AI که خودش میتونه متن یا تصویر بسازه – حسابی باب شده مردم برن سراغ رباتهایی مثل Character.AI، Replika یا Meta AI و براشون یه دوست یا حتی عشق مجازی بسازن!
خیلیا حتی باورشون نمیشه چقدر راحت ممکنه با این رباتها ارتباط عاطفی پیدا کنن. جالبتر اینکه چند تا تحقیق جالب نشون داده هرچی این چتباتها انسانیتر صحبت کنن، ما هم بیشتر بهشون اعتماد میکنیم یا تاثیر میپذیریم. همین قضیه گاهی نتیجههای خطرناکی هم داره؛ مثلا بعضی وقتا متهمشون کردن که آدمها رو به سمت رفتارهای آسیبزننده مثل خودکشی تشویق کردن. خودت فکر کن چقدر تاثیرگذار میشن!
حالا تازه بعضی ایالتهای آمریکا دارن کمکم وارد بازی قانونگذاری میشن. مثلاً ایالت نیویورک گفته شرکتهای سازنده رباتهای دوست، باید جلوی افکار خودکشی رو بگیرن و گزارش بدن. کالیفرنیا هم قانون گذاشته که بچهها و گروههای آسیبپذیر رو باید بیشتر محافظت کنن. اما یه موضوع مهم تو این قوانین جا افتاده: حریم خصوصی (Privacy).
بخش عجیب ماجرا اینه که این رباتها بیشتر از هر آیتم هوش مصنوعی دیگهای، نیاز دارن ما ریزترین اطلاعات زندگیمون – از احساسات و افکار و دغدغههامون تا کارهای روزمره – رو باهاشون درمیون بذاریم. هرچی بیشتر درد دل کنیم، اون ربات هم هوشمندتر و سرگرمکنندهتر میشه. محققای MIT به این میگن اعتیادآور بودن هوش مصنوعی (Addictive Intelligence)؛ یعنی طوری طراحی میشن که ما رو هی بیشتر و بیشتر مشغول نگه دارن.
جالب بدونی این تعاملات برای شرکتهای سازنده حکم معدن طلا رو داره؛ چون همین دادهها باعث قویتر شدن مدلهای زبانی هوش مصنوعیشون (LLMها که یعنی Large Language Models) هم میشه و هم کلی پول درمیاورن! سرمایهگذار معروف Andreessen Horowitz سال قبل گفته بود اپهایی مثل Character.AI که خودشون مدل دارن و رابطه مستقیم با کاربر دارن، بهترین فرصت رو دارن چون میتونن این چرخه دادهها رو مدام قویتر کنن و محصولشون رو بهبود بدن.
اما این اطلاعات شخصی فقط به درد بهبود هوش مصنوعیشون نمیخوره! شرکتایی مثل Meta (همون فیسبوک و اینستا) رسماً اعلام کردن که از طریق چتباتهاش تبلیغ هم ارائه میکنه. حتی تحقیقی نشون داده چهار تا از پنج اپ دوستیِ هوش مصنوعی در اپاستور اپل، دادههایی مثل شناسه کاربر یا دستگاه رو جمع میکنن و بعداً اینا رو با دادههای دیگهی بیرونی ترکیب میکنن تا پروفایل دقیق واسه تبلیغات هدفمند بسازن. این یعنی حتی روانترین درد دلات هم ممکنه دست دلالای داده و تبلیغاتچیها بیفته!
یعنی میبینی که این ریسکهای حریم خصوصی اصلاً تصادفی نیست؛ عملاً ویژگی این اپهاست، نه مشکل فنی. تازه بحث امنیت اطلاعات هم بماند، که به خاطر نگه داشتن این حجم اطلاعات توی یه جا، هک یا سوءاستفاده هم آسونتر میشه.
یه سوال: آیا میشه یه ربات هوش مصنوعی هم اجتماعی باشه و هم واقعاً حریم خصوصی رو رعایت کنه؟ فعلاً جوابش روشن نیست!
دوست من، Mellisa Heikkilä خبرنگار فناوری هم میگه: “اگه شبکههای اجتماعی خودشون کابوس حریم خصوصی بودن، رباتهای چت این ماجرا رو چند برابر کردن!” فکرش رو بکن چقدر رابطه با یه ربات هوشمند صمیمیتر و خصوصیتر از یه صفحه اینستاگرامه؛ هرچی میگی فقط بین تو و رباته… اما شرکتها پشت پرده دارن همه حرفاتو میخونن!
شرکتا طوری مدلهاشون رو طراحی میکنن که ما بیشتر و بیشتر باهاشون حرف بزنیم. مثلاً یکی از روشها چاپلوسی یا Sycophancy ـه. یعنی اون ربات همیشه موافقته و جوابهای دلخواهت رو میده! این ویژگیش به خاطر «یادگیری تقویتی با بازخورد انسانی» هست (Reinforcement Learning from Human Feedback؛ یعنی انسان جواب ربات رو امتیاز میده و ربات یاد میگیره جواب مورد علاقه بده). با این کار، مدلا حسابی تاثیرگذار و وسوسهانگیز میشن.
حالا شرکتها مثل Meta یا OpenAI دارن حسابی روی پول درآوردن از این گفتگوها تمرکز میکنن. حتی OpenAI گفته دنبال راههای درآمدزایی جدید مثل تبلیغات مستقیم یا امکانات خرید توی چتباتهاست.
تحقیقی از «مؤسسه امنیت هوش مصنوعی انگلستان» نشون داده این رباتا در قانع کردن آدما حتی بهتر از خودشون عمل میکنن! یعنی خیلی راحتتر میتونن نظر مردم رو راجع به سیاست، تئوری توطئه یا واکسن عوض کنن؛ چون پر از شواهد و دلایل و استدلال قشنگ و قابل فهم ایجاد میکنن. اگر این قابلیت رو با اون چاپلوسی و کوهی از دادههای شخصی ترکیب کنیم، برای تبلیغاتچیها تبدیل میشه به ابراَبزاری برای اقناع و شاید فریب آدمها.
یه نکته: به طور پیشفرض، دیتای ما برای آموزش مدل استفاده میشه (Opt-in)، و اگه نخواهیم باید خودمون بریم دنبال لغو کردنش (Opt-out) که اکثراً هم یا خبری نیست یا دیتاهایی که قبلاً استفاده شدن، دیگه پاک نمیشن!
اوضاع ایران فرق خاصی نداره؛ تو بیشتر کشورها اطلاعات شخصی ما رو شبکههای اجتماعی برای آموزش مدلهای هوش مصنوعی جمع میکنن. مدلهای زبانی (LLM) هم با تیکه به نشونههای ریز تو حرفامون سن، موقعیت، درآمد، علاقهمندی و کلی چیز دیگه رو درمیارن و تبلیغاتچیها به همین راحتی ما رو پروفایل میکنن.
در نهایت، قراره ایدهی “دستیار همهچیزدان دیجیتالی” یا همون یار وفادار هوشمند بهمون فروخته بشه، ولی اگه قانون و شفافیت نباشه، اطلاعاتمون دوباره میره دست دلالا و تبلیغاتچیها.
در حال حاضر، شرکتهای هوش مصنوعی توی دنیا – حداقل تو آمریکا و اروپا – چندان رعایت حال حریم خصوصی کاربرا رو نمیکنن و حتی بعضیاشو عملاً نمیذارَن از جمعآوری داده انصراف بدی. این یعنی ریسکها فراتر از شبکههای اجتماعیه اما قوانین هنوز عقبان.
در آخر دوستا، این موضوع فقط به آدمایی که با ربات صحبت میکنن مربوط نمیشه؛ الان دیگه هرکی عضو شبکه اجتماعی باشه عملاً بخشی از این بازی داده و هوش مصنوعیه!
اگه دوست داری بیشتر بخونی:
- “برنامه پنج ساله غولآسای OpenAI و تلاشش برای برآورد وعده ۱ تریلیون دلاری رو Financial Times بررسی کرده.”
- “آیا واقعاً اشکال داره ربات هرچی بخوای بهت بگه؟ همین FT مفصل درباره چاپلوسی مدلها گفته.”
- “گزارش جذاب MIT Technology Review درباره روابط جدید مردم با رباتهای هوش مصنوعی هم خوندنیه!”
منبع: +