کابین آرام‌کننده سام آلتمن یا دوربینی که همه‌چیزو می‌بینه؟!

سام آلتمن، مدیر OpenAI (که همون شرکتیه که ChatGPT رو ساختن) به‌تازگی اعلام کرده که دارن روی یه دستگاه جدید کار می‌کنن که قراره کاملاً حول محور هوش مصنوعی باشه. خودش این دستگاه رو جوری توصیف کرده که انگار آدم احساسش مثه نشستن تو یه کلبه خوشگل کنار دریاچه و تو دل کوهستانه، یه جایی پر از آرامش. اما واقعاً قضیه اینقدرا هم رمانتیک نیست!

بیاید روراست باشیم: این دستگاه طوری طراحی شده که دائماً زندگی آدمو زیر نظر بگیره؛ یعنی ببینه کجایی، چیکار داری می‌کنی، چطور حرف می‌زنی و خلاصه همه چیز رو درباره‌ات بفهمه. بعضی وقتا حتی از نزدیک‌ترین دوستاتم این‌قدر بهت نزدیک نمی‌شن! این موضوع ممکنه اولش جالب به نظر بیاد اما وقتی به این دقت کنیم که چقدر دیتا باید آنالیز شه تا به اون آرامش ادعایی برسی، یکم وحشتناک میشه.

یه نکته مهم اینجاست: اینکه یه دستگاه رو “آرامش‌بخش” خطاب کنیم، مثل اینه که چشم‌هامونو ببندیم و فکر کنیم کسی ما رو نمی‌بینه! این در اصل نظارته؛ اونم نه از نوع اجباری بلکه کاملاً داوطلبانه و همه‌جانبه. این ایده که حس امنیت و آرامش واقعی میاره فقط ظاهر قشنگشه. چون در واقع باید همه‌ی حریم خصوصی‌مون رو دودستی تقدیم کنیم و امیدوار باشیم هیچوقت ازش علیه‌مون استفاده نشه.

سام آلتمن می‌گه این دستگاه قراره فشار و آشفتگی‌های گوشی‌ها و اپلیکیشن‌هامون رو کم کنه و حال خوبی بهمون بده؛ کاری کنه از اعلان‌ها و تبلیغات بی‌وقفه خسته نشیم. اما سؤالی که پیش میاد اینه: چجوری میشه تو اوج نظارت و کنترل، حس آرامش داشت؟ وقتی هوش مصنوعی (یعنی همون برنامه‌های باهوشی که می‌تونن اطلاعات رو پردازش و رفتار انسان رو پیش‌بینی یا تقلید کنن) هرلحظه درباره ما بیشتر و بیشتر یاد می‌گیره، تهش یه جور تناقض درست میشه؛ هرچی هوش مصنوعی بیشتر حواش به ما باشه، بیشتر ممکنه که مرزهای حریم خصوصی‌مون برداشته شه.

نکته دیگه‌ای هم هست: سام آلتمن همیشه درباره استفاده از آثار دارای حق کپی‌رایت برای آموزش مدل‌های هوش مصنوعی بحث‌برانگیز بوده. مثلاً سال ۲۰۲۳ خودش اعلام کرد که مدل‌های هوش مصنوعی کلی کارهای کپی‌رایتی رو بدون اجازه نویسنده‌ها قورت دادن و به عنوان دیتای آموزشی استفاده کردن! به قول خودش ممکنه در آینده یه مدل اقتصادی پیدا شه که به خالق‌ها هم پول برسه، اما فعلاً هیچ تضمینی برای پیاده‌سازی اون مدل نداده.

حتی برای محصولات جدیدشون هم کلی دردسر درست شد. مثلاً “Sora 2” که یه ابزار ویدیوسازه، فقط چند ساعت بعد از لانچ، پر شد از ویدیوهایی با کاراکترها و شخصیت‌هایی که حق کپی‌رایت داشتن و با شکایت مواجه شد! بعدش OpenAI مجبور شد سیاست‌هاشو عوض کنه و به صاحبین حق، کنترل بیشتری بده که کی می‌تونن اثرشون رو تو این سیستم قرار بدن یا نه.

پس سؤال اینه: اگه برای خالق‌های محتوا، رعایت حق مالکیت و اجازه گرفتن یه جور آپشن اختیاریه، پس چرا باید ما مصرف‌کننده‌ها مطمئن باشیم که با اطلاعات شخصی‌مون اینطوری برخورد نمیشه؟ آلتمن و تیمش نشون دادن که بیشتر دنبال دسترسی به مقیاس وسیع اطلاعات هستن تا احترام به رضایت و اجازه هر فرد.

آلتمن ادعا نمی‌کنه همه‌ی دستیارهای هوش مصنوعی شیطانی هستن! منظورش اینه که AI (مخفف Artificial Intelligence؛ یعنی هوش مصنوعی یا همون مغز دیجیتال!) می‌تونه ابزار خوبی باشه اگه واقعاً کنترل دست خودمون باشه. اما نباید فراموش کنیم، تمام زندگی‌مون رو نباید بسپاریم دست الگوریتم و یه شرکت بزرگ. چون تضمینی نیست همیشه به خیر بگذره و همه‌چیز کاملاً امن بمونه.

در نهایت، ممکنه دستگاه جدید OpenAI و سام آلتمن واقعاً کاربردی باشه و بعضی‌ها براشون ارزش داشته باشه که حریم خصوصی‌شون رو باهاش معامله کنن، اما لازمه بدونیم این داد و ستد دقیقاً چیه. اون کلبه آروم کنار دریاچه، شاید همون دوربینی باشه که لحظه‌به‌لحظه مواظبمونه—فقط نباید فراموش کنیم لنز داره و همیشه داره می‌بینه!

منبع: +