خب بچهها، بیاید یه کم دوستانه راجع به این قضیه حرف بزنیم که چند وقته خیلیها مخصوصاً جوونا، شروع کردن به استفاده از ChatGPT برای مشاوره و حتی تراپی! یعنی حس میکنی شبیه یه تراپیست مجازی شده و میری هرچی توی دلت داری براش میریزی بیرون… اما این کار اصلاً به اون سادگی یا بیخطر بودن که خیلیا فکر میکنن نیست.
سم آلتمن، مدیرعامل OpenAI (همون شرکتی که ChatGPT رو ساخته)، تازگیا اومده توی پادکست «This Past Weekend w/ Theo Von» یه هشدار جدی داده دربارهٔ این موضوع. اون میگه وقتی با یه تراپیست واقعیه حرف میزنی، قانونایی هستن که از حرفات محافظت میکنن، مثلاً doctor-patient confidentiality یعنی «حفظ اسرار بیمار توسط پزشک»، یا «رازداری قانونی». خلاصه قانونا هیچکس حق نداره حرفات رو لو بده. ولی الان واسه چت با ChatGPT همچین قوانین روشنی نداریم و:** «هنوز نتونستیم بفهمیم چطوری میشه توی این چتها حریم خصوصی رو تضمین کرد.»**
حالا دردسر کجا پیش میاد؟ فرض کن یه وقتی، مثلاً OpenAI بخاطر یه مشکلی بره دادگاه، اون وقت ممکنه از لحاظ قانونی قانوناً مجبور بشه چتای محرمانه تو رو ارائه بده دادگاه! یعنی هیچ تضمینی نیست که رازهای دل و مشکلات شخصیت یهویی نره وسط مردم!
جالب اینه که به گفته آلتمن، کلی از جوونا حسابی دارن از این قابلیت ChatGPT استفاده میکنن و این قشر چون آسیبپذیرترن احتمالاً بیشتر از همه خطر توی کمینشونه. منظورم اینه که ممکنه حالات روحی یا قصههای زندگیشون خیلی خصوصی باشه و اصلاً دوست نداشته باشن بعداً اینا علنی بشه یا جایی فاش بشه.
یه نکتهٔ مهمتر هم هست: وقتی همهٔ مسائل شخصیت رو با یه مدل هوش مصنوعی (AI) درمیون میذاری، داری اطلاعاتت رو میریزی تو دهن یه الگوریتم اُپک یا مبهم (یعنی سازوکارش شفاف نیست). ممکنه همین حرفها بعداً توی فرایند آموزش (training) مدل دوباره یه جایی از دهن خود AI یا تو چت با یه نفر دیگه، بطور اتفاقی نشت پیدا کنه. پس همیشه خطر یه جور درز اطلاعات هست.
واسه همین خیلی از شرکتا دیگه، بجای استفاده از ورژن عمومی ChatGPT اومدن نسخههای محدود و اختصاصی AI برای خودشون گرفتن که اطلاعات کاربراشون از بقیه جدا بمونه و نمیشه به راحتی بهش دسترسی داشت. یکی دیگه از این نمونهها چتبات Lumo هست (ساخته شده توسط شرکت Proton، همون که ProtonMail رو ساخته بود)، که واقعاً رو حریم خصوصی و رمزنگاری حرف نداره.
یه سوال مهم: اصلاً ChatGPT میتونه جای یه تراپیست واقعی رو بگیره؟ واقعیت اینه حتی اگه هوش مصنوعی کلی اطلاعات بلد باشه و بتونه جواب بده، تهش باز هم فقط داره دادههایی رو که قبلاً بهش یاد دادن، مرتب میکنه و میده بیرون. خودش قدرت خلق ایده یا همدردی واقعی با مشکلات خاص تو رو نداره. تازه تراپیست فقط حرف گوش نمیده یا توصیه نمیده، کلی تکنیک و تجربه انسانی داره که یه الگوریتم واقعا درکش نمیکنه.
در کل چه دوست داشته باشی یا نه، دونستن این ریسکها ضروریه: حتی اگه جوون یا با تجربه باشی، فاش شدن اطلاعات خصوصیت یا تبدیل شدنش به داده آموزشی واسه مدلهای AI، میتونه واقعاً اذیتکننده باشه.
پس هنوز کلی راه مونده تا روزی که واقعاً بشه با خیال راحت به AIها اعتماد کرد و ازشون به عنوان مشاور شخصی یا تراپیست استفاده کرد، بدون اینکه نگران امنیت یا حریم خصوصی باشی.
حواست باشه قبل از اینکه سفره دلت رو واسه ChatGPT باز کنی، حتماً این چیزها رو سبک سنگین کن! اگه دنبال تراپی مطمئن و واقعاً خصوصیای، شاید هنوز هیچچیزی بهتر از همون تراپیست واقعی و قابل اعتمادت نباشه :).
منبع: +