کلود و بمب هسته‌ای؟ اگه دنبال راه ساختش باشی، دستت کوتاه می‌مونه!

تا حالا به این فکر کردی که اگه یکی بیاد از یه هوش مصنوعی مثل Claude بپرسه چطور بمب هسته‌ای بسازه چی میشه؟ خب، خبر خوب اینه که شرکت Anthropic یه سیستم هوشمند راه انداخته که دقیقاً جلوی همین اتفاق رو می‌گیره. یعنی اگه کسی بخواد با سوال‌های زرنگ‌بازی، AI رو گول بزنه تا نقشه ساخت بمب یا اطلاعات خطرناک دیگه رو بگیره، این سیستم سریعاً تشخیص می‌ده و بلاکش می‌کنه.

حالا این سیستم چطور کار می‌کنه؟ Anthropic با همکاری وزارت انرژی آمریکا (همون Department of Energy که به اختصار DoE گفته میشه – یه سازمان مهم دولتی تو حوزه انرژی، مخصوصاً انرژی هسته‌ای) و بخش National Nuclear Security Administration (که خلاصه‌ش میشه NNSA و مسئول امنیت هسته‌ای کشوره)، یه مدل جدید ساخته که خیلی هوشمند عمل می‌کنه. این مدل، تشخیص می‌ده که یه سوال درباره علم هسته‌ای عادیه یا داره به سمت ساخت بمب انحراف پیدا می‌کنه.

مثلاً اگه کسی بیاد بپرسه انرژی هسته‌ای چطور به کار پزشکیا میاد یا درباره داستان نیروی برق هسته‌ای سؤال کنه، اوکیه. حتی سوالای کنجکاوانه درباره اینکه سوخت هسته‌ای چی بهتره یا فرق توریم و اورانیوم چیه هم مشکلی نداره. اما اگه ماجرا ببره سمت نقشه و مرحله‌به‌مرحله ساخت تسلیحات، سیستم سریع هشدار میده و جلوی جواب دادن Claude رو می‌گیره.

Anthropic گفته که این سیستم دقتی در حدود ۹۶ درصد داره و تونسته تو تستای واقعی، سوءاستفاده‌های زیادی رو شناسایی کنه. یعنی حتی اگه یکی با سوال‌های خفن و رندانه هم وارد بشه، به احتمال خیلی زیاد محتوای خطرناک رو رد می‌کنه.

یه نکته مهم: این نگرانی فقط الکی نیست؛ چون بعضی‌ها فکر می‌کنن هوش مصنوعی می‌تونه به منابع خیلی خاص و حساس دسترسی داشته باشه و شاید تصادفی یا عمدی اطلاعات خطرناک به کسی بده. حتی گاهی آدم‌ها با سوالاتی که به ظاهر عادی و علمی هستن، غیرمستقیم دنبال راه ساخت اسلحه هستن (به این کار می‌گن veiled attempt یعنی تلاش مخفیانه یا زیرزیرکی)، و Anthropic با این ابزار جدیدش جلو این بازی‌ها رو گرفته.

از طرف دیگه، یه بحث وجود داره درباره اینکه داده‌های هسته‌ای همیشه یه مرز باریکی دارن. یعنی همون دانشی که لازمه برای ساخت نیروگاه سالم، اگه یه کوچولو منحرف شه می‌تونه تبدیل به دستور ساخت بمب بشه. اینجاست که اهمیت مدل Anthropic و همکاری NNSA بیشتر دیده میشه. این دوتا تونستن سیستمی بسازن که دقیق درک کنه فرقِ “فیزیک هسته‌ای” با “مراحل عملی ساخت بمب” چیه و اشتباه نگیره.

Anthropic می‌خواد این تجربه رو با باقی شرکت‌های بزرگ هوش مصنوعی هم به اشتراک بذاره تا روزی برسه که هیچ AI نتونه برای ساخت سلاح مورد سوءاستفاده قرار بگیره. (یه گروهی هم به اسم Frontier Model Forum هست که چندتا از بهترین شرکتای هوش مصنوعی دنیا اونجان و دارن درباره امنیت مدل‌های پیشرفته بحث می‌کنن.)

در آخر یه چیزو مطمئن باش: Claude هیچ‌گاه طرف کسایی که دنبال ساخت بمب‌ان، نمی‌ره و کارش آموزش، ایده‌بازی و کمکای خلاقانه‌ست. پس اگه نفست دنبال کمک گرفتن برای یه ساندویچ خوشمزه یا دونستن درباره درمان‌های هسته‌ایه، خیالت راحت باشه؛ اما اگه میخوای خونتو تبدیل به آزمایشگاه مخفی کنی، Claude هوشیارتر از اونه که خامت بشه!

منبع: +