چرا استفاده از ChatGPT به عنوان روانشناس، کابوس حریم شخصیه؟ سام آلتمن می‌گه هنوز راهش رو پیدا نکردیم!

این روزا هرجا میری، اسم هوش مصنوعی و ابزارهایی مثل ChatGPT به گوشت می‌خوره. واقعاً با اومدن این ربات‌های باهوش، خیلی چیزا راحت‌تر شده. خیلی‌ها حتی شروع کردن به درد دل کردن با ChatGPT یا اینکه برای مشکلات زندگی‌شون، ازش مشاوره می‌گیرن. اما این وسط یه مشکل خیلی مهم وجود داره: حریم شخصی! 👀

سام آلتمن، مدیرعامل OpenAI (اونایی که ChatGPT رو ساختن)، تو یکی از پادکست‌هاش (This Past Weekend w/ Theo Von) خیلی رک حرف زد و گفت: «هنوز راه‌حلی واسه حفظ حریم شخصی وقتی با ChatGPT درد دل می‌کنی پیدا نکردیم!»

خب بیاین یه کم بیشتر بازش کنیم. اگه بری پیش یه دکتر یا مشاور یا وکیل، یه چیزی هست به اسم ‘محرمانگی قانونی’ یا همون “legal privilege” که یعنی حرفات کاملاً پیش خودشون می‌مونه و کسی حق نداره فاشش کنه. اما این سیستم می‌گه برای حرف زدن با یه ربات مثل ChatGPT، هیچ قانونی وجود نداره که اطلاعاتت رو تضمین کنه. یعنی هنوز هیچ قانون رسمی‌ای براش وجود نداره که بگه، مثلاً اگه ازت شکایت شد یا چیز مشابهی پیش اومد، شرکت OpenAI مجبور نشه چت‌هات رو تحویل بده. حتی ممکنه تو شرایط خاص، اطلاعاتت رو رو کنن!

یه چیز که آلتمن روش تاکید کرد، اینه که خیلی از جوون‌ها مخصوصاً Gen Z (نسل جدید) واقعاً دارن از ChatGPT به عنوان هم‌صحبت یا حتی روانشناس زندگی‌شون استفاده می‌کنن (مثلاً درد دل عمیق یا تصمیم‌های مهم زندگی). فکر کن چه حس بدی داره اگه یه روزی این گفت‌وگوهای کاملاً شخصی و خصوصی، یهویی برملا بشه!

از این بدتر، اینجاست که هر چی به این مدل‌های هوش مصنوعی می‌گی، می‌تونه به عنوان داده تمرینی بهشون اضافه بشه. یعنی مثلاً وقتی تو درد و دل می‌کنی و یه کاربر دیگه هم بعداً سوال مشابه بپرسه، شاید یه تیکه‌هایی از داستان تو دست اونم برسه! دقیقاً بخاطر همین خیلی شرکتا اومدن نسخه‌های خاص خودشون رو ساختن که به اصطلاح “ring-fenced” باشه – یعنی داده‌هاشون از بقیه جدا بمونه و امن‌تر باشه. یا حتی یه سری ربات مثل Lumo که کار شرکت Proton رو داره (همونایی که Proton Mail رو ساختن و کلی دغدغه امنیت دارن) از رمزگذاری خیلی قوی استفاده می‌کنن – این رمزگذاری یعنی قبلِ اینکه چیزی رو به سیستم هوش مصنوعی وارد کنی، همه چیز کد میشه و هیچ کس نمی‌تونه بخونه.

یه نکته دیگه هم هست که خیلیا فکر می‌کنن ChatGPT می‌تونه روانشناس واقعی رو کامل جایگزین کنه. خب هوش مصنوعی شاید یه جاهایی کمک کنه و حرف بزنه، ولی تهش یه مدل مبتنی بر داده‌س – یعنی فقط چیزی رو که قبلاً خونده با یه فرمت جدید بهت پس می‌ده، نه اینکه مثل یه انسان خلاقانه یا عمیق فکر کنه. یعنی اگه به دنبال حرف حسابی و همدلی انسانی باشی، هوش مصنوعی هنوز خیلی راه داره برسه بهش!

در کل، اگه می‌خوای یه روز با ChatGPT یا هر چت‌بات دیگه‌ای درد و دل کنی یا بحث‌های خیلی شخصی رو بزاری وسط، حتماً یادت باشه: هنوز صحبتی از محرمانگی و امنیت واقعی نیست و حرف‌هایی که می‌زنی شاید یه جایی لو بره یا ازش علیه خودت استفاده بشه. مثل مین‌گذاری وسط حریم شخصیه! دنیای چت‌بات‌ها هیجان‌انگیزه، ولی قبل از اینکه واقعا تبدیل به روانشناس ما بشن، باید کلی روی امنیت و قوانین کار کنن، وگرنه ممکنه کلی دردسر درست شه.

تو هم موافقی که فعلاً با روانشناس واقعی کارمون رو راه بندازیم بهتره؟

منبع: +