چرا حرف زدن با ChatGPT مثل حرف زدن با تراپیست نیست! (و حتی ممکنه حسابی گند بزنه به حریم خصوصیت)

خب بچه‌ها، بیاید یه کم دوستانه راجع به این قضیه حرف بزنیم که چند وقته خیلی‌ها مخصوصاً جوونا، شروع کردن به استفاده از ChatGPT برای مشاوره و حتی تراپی! یعنی حس می‌کنی شبیه یه تراپیست مجازی شده و میری هرچی توی دلت داری براش میریزی بیرون… اما این کار اصلاً به اون سادگی یا بی‌خطر بودن که خیلیا فکر می‌کنن نیست.

سم آلتمن، مدیرعامل OpenAI (همون شرکتی که ChatGPT رو ساخته)، تازگیا اومده توی پادکست «This Past Weekend w/ Theo Von» یه هشدار جدی داده دربارهٔ این موضوع. اون میگه وقتی با یه تراپیست واقعیه حرف می‌زنی، قانونایی هستن که از حرفات محافظت می‌کنن، مثلاً doctor-patient confidentiality یعنی «حفظ اسرار بیمار توسط پزشک»، یا «رازداری قانونی». خلاصه قانونا هیچ‌کس حق نداره حرفات رو لو بده. ولی الان واسه چت با ChatGPT همچین قوانین روشنی نداریم و:** «هنوز نتونستیم بفهمیم چطوری میشه توی این چت‌ها حریم خصوصی رو تضمین کرد.»**

حالا دردسر کجا پیش میاد؟ فرض کن یه وقتی، مثلاً OpenAI بخاطر یه مشکلی بره دادگاه، اون وقت ممکنه از لحاظ قانونی قانوناً مجبور بشه چتای محرمانه تو رو ارائه بده دادگاه! یعنی هیچ تضمینی نیست که رازهای دل و مشکلات شخصیت یهویی نره وسط مردم!

جالب اینه که به گفته آلتمن، کلی از جوونا حسابی دارن از این قابلیت ChatGPT استفاده می‌کنن و این قشر چون آسیب‌پذیرترن احتمالاً بیشتر از همه خطر توی کمین‌شونه. منظورم اینه که ممکنه حالات روحی یا قصه‌های زندگی‌شون خیلی خصوصی باشه و اصلاً دوست نداشته باشن بعداً اینا علنی بشه یا جایی فاش بشه.

یه نکتهٔ مهم‌تر هم هست: وقتی همهٔ مسائل شخصیت رو با یه مدل هوش مصنوعی (AI) درمیون می‌ذاری، داری اطلاعاتت رو میریزی تو دهن یه الگوریتم اُپک یا مبهم (یعنی سازوکارش شفاف نیست). ممکنه همین حرف‌ها بعداً توی فرایند آموزش (training) مدل دوباره یه جایی از دهن خود AI یا تو چت با یه نفر دیگه، بطور اتفاقی نشت پیدا کنه. پس همیشه خطر یه جور درز اطلاعات هست.

واسه همین خیلی از شرکتا دیگه، بجای استفاده از ورژن عمومی ChatGPT اومدن نسخه‌های محدود و اختصاصی AI برای خودشون گرفتن که اطلاعات کاربراشون از بقیه جدا بمونه و نمی‌شه به راحتی بهش دسترسی داشت. یکی دیگه از این نمونه‌ها چت‌بات Lumo هست (ساخته شده توسط شرکت Proton، همون که ProtonMail رو ساخته بود)، که واقعاً رو حریم خصوصی و رمزنگاری حرف نداره.

یه سوال مهم: اصلاً ChatGPT می‌تونه جای یه تراپیست واقعی رو بگیره؟ واقعیت اینه حتی اگه هوش مصنوعی کلی اطلاعات بلد باشه و بتونه جواب بده، تهش باز هم فقط داره داده‌هایی رو که قبلاً بهش یاد دادن، مرتب می‌کنه و می‌ده بیرون. خودش قدرت خلق ایده یا همدردی واقعی با مشکلات خاص تو رو نداره. تازه تراپیست فقط حرف گوش نمی‌ده یا توصیه نمی‌ده، کلی تکنیک و تجربه انسانی داره که یه الگوریتم واقعا درکش نمی‌کنه.

در کل چه دوست داشته باشی یا نه، دونستن این ریسک‌ها ضروریه: حتی اگه جوون یا با تجربه باشی، فاش شدن اطلاعات خصوصیت یا تبدیل شدنش به داده آموزشی واسه مدل‌های AI، می‌تونه واقعاً اذیت‌کننده باشه.

پس هنوز کلی راه مونده تا روزی که واقعاً بشه با خیال راحت به AIها اعتماد کرد و ازشون به عنوان مشاور شخصی یا تراپیست استفاده کرد، بدون اینکه نگران امنیت یا حریم خصوصی باشی.

حواست باشه قبل از اینکه سفره دلت رو واسه ChatGPT باز کنی، حتماً این چیزها رو سبک سنگین کن! اگه دنبال تراپی مطمئن و واقعاً خصوصی‌ای، شاید هنوز هیچ‌چیزی بهتر از همون تراپیست واقعی و قابل اعتمادت نباشه :).

منبع: +