سام آلتمن، مدیر OpenAI (که همون شرکتیه که ChatGPT رو ساختن) بهتازگی اعلام کرده که دارن روی یه دستگاه جدید کار میکنن که قراره کاملاً حول محور هوش مصنوعی باشه. خودش این دستگاه رو جوری توصیف کرده که انگار آدم احساسش مثه نشستن تو یه کلبه خوشگل کنار دریاچه و تو دل کوهستانه، یه جایی پر از آرامش. اما واقعاً قضیه اینقدرا هم رمانتیک نیست!
بیاید روراست باشیم: این دستگاه طوری طراحی شده که دائماً زندگی آدمو زیر نظر بگیره؛ یعنی ببینه کجایی، چیکار داری میکنی، چطور حرف میزنی و خلاصه همه چیز رو دربارهات بفهمه. بعضی وقتا حتی از نزدیکترین دوستاتم اینقدر بهت نزدیک نمیشن! این موضوع ممکنه اولش جالب به نظر بیاد اما وقتی به این دقت کنیم که چقدر دیتا باید آنالیز شه تا به اون آرامش ادعایی برسی، یکم وحشتناک میشه.
یه نکته مهم اینجاست: اینکه یه دستگاه رو “آرامشبخش” خطاب کنیم، مثل اینه که چشمهامونو ببندیم و فکر کنیم کسی ما رو نمیبینه! این در اصل نظارته؛ اونم نه از نوع اجباری بلکه کاملاً داوطلبانه و همهجانبه. این ایده که حس امنیت و آرامش واقعی میاره فقط ظاهر قشنگشه. چون در واقع باید همهی حریم خصوصیمون رو دودستی تقدیم کنیم و امیدوار باشیم هیچوقت ازش علیهمون استفاده نشه.
سام آلتمن میگه این دستگاه قراره فشار و آشفتگیهای گوشیها و اپلیکیشنهامون رو کم کنه و حال خوبی بهمون بده؛ کاری کنه از اعلانها و تبلیغات بیوقفه خسته نشیم. اما سؤالی که پیش میاد اینه: چجوری میشه تو اوج نظارت و کنترل، حس آرامش داشت؟ وقتی هوش مصنوعی (یعنی همون برنامههای باهوشی که میتونن اطلاعات رو پردازش و رفتار انسان رو پیشبینی یا تقلید کنن) هرلحظه درباره ما بیشتر و بیشتر یاد میگیره، تهش یه جور تناقض درست میشه؛ هرچی هوش مصنوعی بیشتر حواش به ما باشه، بیشتر ممکنه که مرزهای حریم خصوصیمون برداشته شه.
نکته دیگهای هم هست: سام آلتمن همیشه درباره استفاده از آثار دارای حق کپیرایت برای آموزش مدلهای هوش مصنوعی بحثبرانگیز بوده. مثلاً سال ۲۰۲۳ خودش اعلام کرد که مدلهای هوش مصنوعی کلی کارهای کپیرایتی رو بدون اجازه نویسندهها قورت دادن و به عنوان دیتای آموزشی استفاده کردن! به قول خودش ممکنه در آینده یه مدل اقتصادی پیدا شه که به خالقها هم پول برسه، اما فعلاً هیچ تضمینی برای پیادهسازی اون مدل نداده.
حتی برای محصولات جدیدشون هم کلی دردسر درست شد. مثلاً “Sora 2” که یه ابزار ویدیوسازه، فقط چند ساعت بعد از لانچ، پر شد از ویدیوهایی با کاراکترها و شخصیتهایی که حق کپیرایت داشتن و با شکایت مواجه شد! بعدش OpenAI مجبور شد سیاستهاشو عوض کنه و به صاحبین حق، کنترل بیشتری بده که کی میتونن اثرشون رو تو این سیستم قرار بدن یا نه.
پس سؤال اینه: اگه برای خالقهای محتوا، رعایت حق مالکیت و اجازه گرفتن یه جور آپشن اختیاریه، پس چرا باید ما مصرفکنندهها مطمئن باشیم که با اطلاعات شخصیمون اینطوری برخورد نمیشه؟ آلتمن و تیمش نشون دادن که بیشتر دنبال دسترسی به مقیاس وسیع اطلاعات هستن تا احترام به رضایت و اجازه هر فرد.
آلتمن ادعا نمیکنه همهی دستیارهای هوش مصنوعی شیطانی هستن! منظورش اینه که AI (مخفف Artificial Intelligence؛ یعنی هوش مصنوعی یا همون مغز دیجیتال!) میتونه ابزار خوبی باشه اگه واقعاً کنترل دست خودمون باشه. اما نباید فراموش کنیم، تمام زندگیمون رو نباید بسپاریم دست الگوریتم و یه شرکت بزرگ. چون تضمینی نیست همیشه به خیر بگذره و همهچیز کاملاً امن بمونه.
در نهایت، ممکنه دستگاه جدید OpenAI و سام آلتمن واقعاً کاربردی باشه و بعضیها براشون ارزش داشته باشه که حریم خصوصیشون رو باهاش معامله کنن، اما لازمه بدونیم این داد و ستد دقیقاً چیه. اون کلبه آروم کنار دریاچه، شاید همون دوربینی باشه که لحظهبهلحظه مواظبمونه—فقط نباید فراموش کنیم لنز داره و همیشه داره میبینه!
منبع: +