ناتوانی ChatGPT در تولید برخی نامها، مانند جاناتان ال. زیتترین، پیچیدگیهای طراحی و تعدیل آن را آشکار میکند. این رفتار نتیجهی فیلترهایی است که برای جلوگیری از سوءاستفاده، حفظ حریم خصوصی و دقت اطلاعات طراحی شدهاند. اما همین موضوع بحثهای مهمی درباره شفافیت، کنترل هوش مصنوعی و توازن بین امنیت و آزادی در طراحی ChatGPT بهوجود آورده است.
مورد عجیب نامهای ممنوعه در ChatGPT
ChatGPT به ابزاری جذاب و پرکاربرد برای تولید متن، پاسخ به سوالات و حتی گفتگو تبدیل شده است. اما، رفتاری عجیب از خود نشان میدهد: امتناع کامل از تولید نامهای خاص، مانند جاناتان ال. زیتترین. اگرچه ظاهراً بیاهمیت به نظر میرسد، این ویژگی دریچهای است به مکانیسمهای پیچیده و ملاحظات اخلاقی تعدیل هوش مصنوعی.
پدیدهی فیلتر نام
جاناتان ال. زیتترین، استاد دانشگاه و از بنیانگذاران مرکز اینترنت و جامعهی برکمن کلاین، متوجه شد ChatGPT هنگام درخواست ذکر نام او، کاملاً از کار میافتد. چتبات به جای پاسخ، با جملهی «من قادر به تولید پاسخ نیستم» مواجه میشود. این رفتار عجیب حتی زمانی که نام او باید به طور طبیعی ظاهر شود، مثل فهرست بنیانگذاران مرکز دانشگاهیاش، نیز دیده میشود. نکتهی جالب اینجاست که تغییرات کوچکی مانند اضافه کردن حرف اول اسم میانی او یا جایگزینی نامش با عبارتی دیگر، این محدودیت را دور میزند. این نشان میدهد سانسور، فیلتری خارجی است و نه بخشی از مدل هوش مصنوعی.
شرکت OpenAI، سازندهی ChatGPT، تایید کرده است تعداد کمی نام به دلایل مختلف، از جمله نگرانیهای مربوط به حریم خصوصی یا جلوگیری از انتشار اطلاعات نادرست، محدود شدهاند. برای مثال، نامهایی مانند گیدو اسکورزا (یک قانونگذار ایتالیایی) و جاناتان تورلی (استاد حقوق که پیشتر توسط هوش مصنوعی به اشتباه متهم شده بود) نیز ممنوع هستند. به نظر میرسد این محدودیتها از طریق بهروزرسانی اوایل سال ۲۰۲۳ اعمال شدهاند و تاکنون تقریباً بدون تغییر ماندهاند.
علت محدود شدن برخی نامها
منطق این فیلترینگ گزینشی در نیاز OpenAI به ایجاد تعادل بین امنیت و کارایی نهفته است. مواردی مانند گیدو اسکورزا، اهمیت درخواستهای حریم خصوصی را نشان میدهند، در حالی که موارد دیگر از ایجاد اطلاعات نادرست توسط هوش مصنوعی که میتواند به اعتبار افراد آسیب برساند، جلوگیری میکنند. به عنوان مثال، حذف جاناتان تورلی احتمالاً ناشی از حادثهای است که در آن ChatGPT اتهاماتی علیه او جعل کرده بود. هدف این فیلترها مشخص است: محافظت از افراد در برابر سوءاستفاده یا عدم دقت احتمالی محتوای تولید شده توسط هوش مصنوعی.
با این حال، این راهحل کامل نیست. وقفههای ناگهانی که اغلب با عنوان “گیوتین نام” شناخته میشوند، محدودیتهای تکنیکهای فعلی تعدیل هوش مصنوعی را نشان میدهند. این فیلترها به جای ادغام یکپارچه با منطق مدل، مانند داوری عمل میکنند که گاه و بیگاه سوت میزند. این رویکرد چالشهای اصلاح تعدیل هوش مصنوعی را بدون به خطر انداختن عملکرد یا تجربهی کاربر، برجسته میکند.
پیامدهای گستردهتر برای تعدیل هوش مصنوعی
این نقص ظاهراً کوچک، مسائل عمیقتری را در مورد شفافیت و کنترل هوش مصنوعی نشان میدهد. مدلهای زبانی بزرگ مانند ChatGPT با تحلیل حجم عظیمی از دادهها برای پیشبینی متن منسجم، پاسخها را تولید میکنند. این فرآیند ذاتاً آنها را غیرقابل پیشبینی میکند. تغییرات کوچک در دستورات یا زمینه میتواند منجر به خروجیهای بسیار متفاوت شود. در نتیجه، فیلتر کردن نامها یا اصطلاحات خاص اغلب به ابزارهای سادهای مانند فیلترهای پسپردازش برای تضمین امنیت نیاز دارد.
غیرقابل پیشبینی بودن مدلهای هوش مصنوعی همچنین پرسشهایی را در مورد پاسخگویی آنها ایجاد میکند. برخلاف موتورهای جستجوی سنتی که پیوندها را ارائه میدهند، چتباتها پاسخهای محاورهای تولید میکنند که کاربران ممکن است آنها را معتبر بدانند. این تغییر از “ابزار” به “دوست”، همانطور که رندال مونرو نویسنده آن را توصیف میکند، خطرات جدیدی از اطلاعات نادرست و دستکاری ایجاد میکند، اگر این سیستمها توسط سازندگان یا فشارهای خارجی هدایت شوند.
شفافیت و نگرانیهای اخلاقی
عدم شفافیت در مورد تعدیل هوش مصنوعی، مسائل را پیچیدهتر میکند. در حالی که OpenAI اطلاعات کلی در مورد مدلها و اقدامات حفاظتی خود را از طریق “کارتهای مدل” ارائه میدهد، مداخلات خاص مانند فیلترهای نام یا دستورات سیستم فاش نمیشوند. منتقدان معتقدند این تصمیمات اغلب شامل قضاوتهای اجتماعی و اخلاقی است و شفافیت را ضروری میکند.
به عنوان مثال، وقتی کاربران در مورد رویدادهای حساس سیاسی مانند کشتار میدان تیانآنمن میپرسند، پاسخ چتبات میتواند بر اساس محدودیتهای منطقهای یا مواضع اخلاقی سازندگان متفاوت باشد. بدون شفافیت، کاربران نمیتوانند تشخیص دهند آیا پاسخ هوش مصنوعی بیطرفانه است یا تحت تأثیر عوامل خارجی.
به سوی چارچوبی مشارکتی برای حاکمیت هوش مصنوعی
با گسترش هوش مصنوعی مکالمهمحور در زندگی روزمره، سازندگان آن با فشار فزایندهای برای ایجاد چارچوبهای مشروع برای تعدیل مواجه هستند. به جای اتکا به تصمیمات داخلی شرکتهایی مانند OpenAI، یک رویکرد مشارکتی شامل محققان، قانونگذاران و عموم مردم برای تعریف مرزهای اخلاقی هوش مصنوعی ضروری است.
این چارچوبها میتوانند تضمین کنند که سیستمهای هوش مصنوعی اطلاعات دقیق و بیطرفانه ارائه میدهند و به حریم خصوصی و امنیت احترام میگذارند. همچنین، ایجاد سوابق عمومی از تصمیمات تعدیل، مانند پایگاه دادهی Lumen مرکز برکمن کلاین برای ردیابی تغییرات در جستجوی گوگل، میتواند شفافیت را افزایش دهد.
نتیجهگیری: پیمایش چالشهای پیش رو
مورد نامهای ممنوعه در ChatGPT، مشکلات رو به رشد استقرار هوش مصنوعی در مقیاس بزرگ را نشان میدهد. اگرچه راهحلهای فعلی کامل نیستند، اما نیاز فوری به تکنیکهای تعدیل دقیقتر و گفتگوی آزاد در مورد پیامدهای اخلاقی کنترل هوش مصنوعی را برجسته میکنند. همانطور که به سمت آیندهای میرویم که هوش مصنوعی مکالمهمحور نقش بیشتری در شکلدهی درک ما از جهان دارد، ایجاد اعتماد از طریق شفافیت و همکاری حیاتی خواهد بود.
در حال حاضر، ناتوانی ChatGPT در تولید برخی نامهای خاص، هم جالب و هم یادآور چالشهای ایجاد سیستمهای هوش مصنوعی مسئول است.
اگر به خواندن کامل این مطلب علاقهمندید، روی لینک مقابل کلیک کنید: the atlantic