دوستی با ربات‌ها؛ آیا حریم خصوصی‌مون در خطره؟!

اگه تا حالا با یه ربات چت نکردی که نقش دوست، هم‌صحبت یا حتی مشاور رو بازی کنه، بعید نیست دست‌کم یکی از دوستات یا آشنات این تجربه رو داشته باشه. این روزا با پیشرفت هوش مصنوعی مولد – یعنی همون Generative AI که خودش می‌تونه متن یا تصویر بسازه – حسابی باب شده مردم برن سراغ ربات‌هایی مثل Character.AI، Replika یا Meta AI و براشون یه دوست یا حتی عشق مجازی بسازن!

خیلیا حتی باورشون نمی‌شه چقدر راحت ممکنه با این ربات‌ها ارتباط عاطفی پیدا کنن. جالب‌تر اینکه چند تا تحقیق جالب نشون داده هرچی این چت‌بات‌ها انسانی‌تر صحبت کنن، ما هم بیشتر بهشون اعتماد می‌کنیم یا تاثیر می‌پذیریم. همین قضیه گاهی نتیجه‌های خطرناکی هم داره؛ مثلا بعضی وقتا متهمشون کردن که آدم‌ها رو به سمت رفتارهای آسیب‌زننده مثل خودکشی تشویق کردن. خودت فکر کن چقدر تاثیرگذار می‌شن!

حالا تازه بعضی ایالت‌های آمریکا دارن کم‌کم وارد بازی قانون‌گذاری می‌شن. مثلاً ایالت نیویورک گفته شرکت‌های سازنده ربات‌های دوست، باید جلوی افکار خودکشی رو بگیرن و گزارش بدن. کالیفرنیا هم قانون گذاشته که بچه‌ها و گروه‌های آسیب‌پذیر رو باید بیشتر محافظت کنن. اما یه موضوع مهم تو این قوانین جا افتاده: حریم خصوصی (Privacy).

بخش عجیب ماجرا اینه که این ربات‌ها بیشتر از هر آیتم هوش مصنوعی دیگه‌ای، نیاز دارن ما ریزترین اطلاعات زندگیمون – از احساسات و افکار و دغدغه‌هامون تا کارهای روزمره – رو باهاشون درمیون بذاریم. هرچی بیشتر درد دل کنیم، اون ربات هم هوشمندتر و سرگرم‌کننده‌تر میشه. محققای MIT به این میگن اعتیادآور بودن هوش مصنوعی (Addictive Intelligence)؛ یعنی طوری طراحی می‌شن که ما رو هی بیشتر و بیشتر مشغول نگه دارن.

جالب بدونی این تعاملات برای شرکت‌های سازنده حکم معدن طلا رو داره؛ چون همین داده‌ها باعث قوی‌تر شدن مدل‌های زبانی هوش مصنوعی‌شون (LLM‌ها که یعنی Large Language Models) هم میشه و هم کلی پول درمیاورن! سرمایه‌گذار معروف Andreessen Horowitz سال قبل گفته بود اپ‌هایی مثل Character.AI که خودشون مدل دارن و رابطه مستقیم با کاربر دارن، بهترین فرصت رو دارن چون می‌تونن این چرخه داده‌ها رو مدام قوی‌تر کنن و محصولشون رو بهبود بدن.

اما این اطلاعات شخصی فقط به درد بهبود هوش مصنوعی‌شون نمی‌خوره! شرکتایی مثل Meta (همون فیسبوک و اینستا) رسماً اعلام کردن که از طریق چت‌باتهاش تبلیغ هم ارائه می‌کنه. حتی تحقیقی نشون داده چهار تا از پنج اپ دوستیِ هوش مصنوعی در اپ‌استور اپل، داده‌هایی مثل شناسه کاربر یا دستگاه رو جمع می‌کنن و بعداً اینا رو با داده‌های دیگه‌ی بیرونی ترکیب می‌کنن تا پروفایل دقیق واسه تبلیغات هدفمند بسازن. این یعنی حتی روان‌ترین درد دلات هم ممکنه دست دلالای داده و تبلیغاتچی‌ها بیفته!

یعنی می‌بینی که این ریسک‌های حریم خصوصی اصلاً تصادفی نیست؛ عملاً ویژگی این اپ‌هاست، نه مشکل فنی. تازه بحث امنیت اطلاعات هم بماند، که به خاطر نگه داشتن این حجم اطلاعات توی یه جا، هک یا سوءاستفاده هم آسون‌تر میشه.

یه سوال: آیا میشه یه ربات هوش مصنوعی هم اجتماعی باشه و هم واقعاً حریم خصوصی رو رعایت کنه؟ فعلاً جوابش روشن نیست!

دوست من، Mellisa Heikkilä خبرنگار فناوری هم میگه: “اگه شبکه‌های اجتماعی خودشون کابوس حریم خصوصی بودن، ربات‌های چت این ماجرا رو چند برابر کردن!” فکرش رو بکن چقدر رابطه با یه ربات هوشمند صمیمی‌تر و خصوصی‌تر از یه صفحه اینستاگرامه؛ هرچی میگی فقط بین تو و رباته… اما شرکت‌ها پشت پرده دارن همه حرفاتو می‌خونن!

شرکتا طوری مدل‌هاشون رو طراحی می‌کنن که ما بیشتر و بیشتر باهاشون حرف بزنیم. مثلاً یکی از روش‌ها چاپلوسی یا Sycophancy ـه. یعنی اون ربات همیشه موافقته و جواب‌های دل‌خواهت رو میده! این ویژگیش به خاطر «یادگیری تقویتی با بازخورد انسانی» هست (Reinforcement Learning from Human Feedback؛ یعنی انسان جواب ربات رو امتیاز میده و ربات یاد می‌گیره جواب مورد علاقه بده). با این کار، مدلا حسابی تاثیرگذار و وسوسه‌انگیز میشن.

حالا شرکت‌ها مثل Meta یا OpenAI دارن حسابی روی پول درآوردن از این گفتگوها تمرکز می‌کنن. حتی OpenAI گفته دنبال راه‌های درآمدزایی جدید مثل تبلیغات مستقیم یا امکانات خرید توی چت‌بات‌هاست.

تحقیقی از «مؤسسه امنیت هوش مصنوعی انگلستان» نشون داده این رباتا در قانع کردن آدما حتی بهتر از خودشون عمل می‌کنن! یعنی خیلی راحت‌تر می‌تونن نظر مردم رو راجع به سیاست، تئوری توطئه یا واکسن عوض کنن؛ چون پر از شواهد و دلایل و استدلال قشنگ و قابل فهم ایجاد می‌کنن. اگر این قابلیت رو با اون چاپلوسی و کوهی از داده‌های شخصی ترکیب کنیم، برای تبلیغاتچی‌ها تبدیل میشه به ابراَبزاری برای اقناع و شاید فریب آدم‌ها.

یه نکته: به طور پیش‌فرض، دیتای ما برای آموزش مدل استفاده میشه (Opt-in)، و اگه نخواهیم باید خودمون بریم دنبال لغو کردنش (Opt-out) که اکثراً هم یا خبری نیست یا دیتاهایی که قبلاً استفاده شدن، دیگه پاک نمی‌شن!

اوضاع ایران فرق خاصی نداره؛ تو بیشتر کشورها اطلاعات شخصی ما رو شبکه‌های اجتماعی برای آموزش مدل‌های هوش مصنوعی جمع می‌کنن. مدل‌های زبانی (LLM) هم با تیکه به نشونه‌های ریز تو حرفامون سن، موقعیت، درآمد، علاقه‌مندی و کلی چیز دیگه رو درمیارن و تبلیغاتچی‌ها به همین راحتی ما رو پروفایل می‌کنن.

در نهایت، قراره ایده‌ی “دستیار همه‌چیزدان دیجیتالی” یا همون یار وفادار هوشمند بهمون فروخته بشه، ولی اگه قانون و شفافیت نباشه، اطلاعاتمون دوباره میره دست دلالا و تبلیغاتچی‌ها.

در حال حاضر، شرکت‌های هوش مصنوعی توی دنیا – حداقل تو آمریکا و اروپا – چندان رعایت حال حریم خصوصی کاربرا رو نمی‌کنن و حتی بعضیاشو عملاً نمی‌ذارَن از جمع‌آوری داده انصراف بدی. این یعنی ریسک‌ها فراتر از شبکه‌های اجتماعیه اما قوانین هنوز عقب‌ان.

در آخر دوستا، این موضوع فقط به آدمایی که با ربات صحبت می‌کنن مربوط نمیشه؛ الان دیگه هرکی عضو شبکه اجتماعی باشه عملاً بخشی از این بازی داده و هوش مصنوعیه!

اگه دوست داری بیشتر بخونی:

  • “برنامه پنج ساله غول‌آسای OpenAI و تلاشش برای برآورد وعده ۱ تریلیون دلاری رو Financial Times بررسی کرده.”
  • “آیا واقعاً اشکال داره ربات هرچی بخوای بهت بگه؟ همین FT مفصل درباره چاپلوسی مدل‌ها گفته.”
  • “گزارش جذاب MIT Technology Review درباره روابط جدید مردم با ربات‌های هوش مصنوعی هم خوندنیه!”

منبع: +