این روزا هرجا میری، اسم هوش مصنوعی و ابزارهایی مثل ChatGPT به گوشت میخوره. واقعاً با اومدن این رباتهای باهوش، خیلی چیزا راحتتر شده. خیلیها حتی شروع کردن به درد دل کردن با ChatGPT یا اینکه برای مشکلات زندگیشون، ازش مشاوره میگیرن. اما این وسط یه مشکل خیلی مهم وجود داره: حریم شخصی! 👀
سام آلتمن، مدیرعامل OpenAI (اونایی که ChatGPT رو ساختن)، تو یکی از پادکستهاش (This Past Weekend w/ Theo Von) خیلی رک حرف زد و گفت: «هنوز راهحلی واسه حفظ حریم شخصی وقتی با ChatGPT درد دل میکنی پیدا نکردیم!»
خب بیاین یه کم بیشتر بازش کنیم. اگه بری پیش یه دکتر یا مشاور یا وکیل، یه چیزی هست به اسم ‘محرمانگی قانونی’ یا همون “legal privilege” که یعنی حرفات کاملاً پیش خودشون میمونه و کسی حق نداره فاشش کنه. اما این سیستم میگه برای حرف زدن با یه ربات مثل ChatGPT، هیچ قانونی وجود نداره که اطلاعاتت رو تضمین کنه. یعنی هنوز هیچ قانون رسمیای براش وجود نداره که بگه، مثلاً اگه ازت شکایت شد یا چیز مشابهی پیش اومد، شرکت OpenAI مجبور نشه چتهات رو تحویل بده. حتی ممکنه تو شرایط خاص، اطلاعاتت رو رو کنن!
یه چیز که آلتمن روش تاکید کرد، اینه که خیلی از جوونها مخصوصاً Gen Z (نسل جدید) واقعاً دارن از ChatGPT به عنوان همصحبت یا حتی روانشناس زندگیشون استفاده میکنن (مثلاً درد دل عمیق یا تصمیمهای مهم زندگی). فکر کن چه حس بدی داره اگه یه روزی این گفتوگوهای کاملاً شخصی و خصوصی، یهویی برملا بشه!
از این بدتر، اینجاست که هر چی به این مدلهای هوش مصنوعی میگی، میتونه به عنوان داده تمرینی بهشون اضافه بشه. یعنی مثلاً وقتی تو درد و دل میکنی و یه کاربر دیگه هم بعداً سوال مشابه بپرسه، شاید یه تیکههایی از داستان تو دست اونم برسه! دقیقاً بخاطر همین خیلی شرکتا اومدن نسخههای خاص خودشون رو ساختن که به اصطلاح “ring-fenced” باشه – یعنی دادههاشون از بقیه جدا بمونه و امنتر باشه. یا حتی یه سری ربات مثل Lumo که کار شرکت Proton رو داره (همونایی که Proton Mail رو ساختن و کلی دغدغه امنیت دارن) از رمزگذاری خیلی قوی استفاده میکنن – این رمزگذاری یعنی قبلِ اینکه چیزی رو به سیستم هوش مصنوعی وارد کنی، همه چیز کد میشه و هیچ کس نمیتونه بخونه.
یه نکته دیگه هم هست که خیلیا فکر میکنن ChatGPT میتونه روانشناس واقعی رو کامل جایگزین کنه. خب هوش مصنوعی شاید یه جاهایی کمک کنه و حرف بزنه، ولی تهش یه مدل مبتنی بر دادهس – یعنی فقط چیزی رو که قبلاً خونده با یه فرمت جدید بهت پس میده، نه اینکه مثل یه انسان خلاقانه یا عمیق فکر کنه. یعنی اگه به دنبال حرف حسابی و همدلی انسانی باشی، هوش مصنوعی هنوز خیلی راه داره برسه بهش!
در کل، اگه میخوای یه روز با ChatGPT یا هر چتبات دیگهای درد و دل کنی یا بحثهای خیلی شخصی رو بزاری وسط، حتماً یادت باشه: هنوز صحبتی از محرمانگی و امنیت واقعی نیست و حرفهایی که میزنی شاید یه جایی لو بره یا ازش علیه خودت استفاده بشه. مثل مینگذاری وسط حریم شخصیه! دنیای چتباتها هیجانانگیزه، ولی قبل از اینکه واقعا تبدیل به روانشناس ما بشن، باید کلی روی امنیت و قوانین کار کنن، وگرنه ممکنه کلی دردسر درست شه.
تو هم موافقی که فعلاً با روانشناس واقعی کارمون رو راه بندازیم بهتره؟
منبع: +