دو نفره‌هایی که پشت صحنه آینده OpenAI رو می‌سازن!

شاید تا الان خیلیا فکر می‌کردن OpenAI فقط سام آلتمنِ خفن رو داره که همه جا با استایل هالیوودی‌ش میدرخشه و حتی وقتی اخراج شد، دوباره برگشت سر کار و معروف‌تر هم شد. ولی واقعیت اینه که بخش اصلی مغز متفکر و هیجان هوش مصنوعی OpenAI افرادی‌ان که کمتر جلوی دوربین میان: مارک چن و یاکوب پاچوکی. این دو نفر الان سردمداران تحقیقاتی شرکت هستن و دقیقا همونایی‌ان که تکنولوژی پشت GPTها رو می‌سازن؛ نه آلتمن!

🔧 دقیقاً نقش این دوتا چیه؟
مارک چن، Chief Research Officer (یعنی مدیر ارشد تحقیقات) و یاکوب پاچوکی، Chief Scientist یا همون دانشمند ارشد OpenAI هستن. مارک بیشتر رو مدیریت تیم‌های تحقیقاتی، نقشه راه پژوهش‌ها و تعیین اهداف بلندمدت کار میکنه. پاچوکی هم بیشتر معماری مدل‌ها و تحقیقات فلسفی‌تر رو در دست داره. هر چند خودشون میگن کاملاً سیاله و هر جا لازم باشه، دوتایی آستین بالا میزنن.

سابقه‌شونم جالبه: چن قبلاً توی Jane Street Capital (یه شرکت معروف توی وال‌استریت که معامله‌گرهای عددی داره) بود و همون مهارت‌هاش باعث شد بعداً DALL-E (اون مدل تصویری خفن OpenAI) رو راه بندازه. بعد هم پای تشخیص تصویر رو به GPT-4 باز کرد و Codex (مدلی که پشت GitHub Copilot کار می‌کنه) رو ساخت. پاچوکی از فضای آکادمیک اومده؛ توی علوم کامپیوتر نظری کار می‌کرد و سال 2017 به OpenAI ملحق شد. امسال هم شد دانشمند ارشد و اون reasoning modelهایی مثل o1 و o3 رو طراحی کرد. این مدل‌ها طوری ساخته شدن که مسائل پیچیده ریاضی و برنامه‌نویسی رو مثل یه آدم واقعی، مرحله‌مرحله حل کنن.

👾 این دوتا چرا انقدر براشون مسابقه برنامه‌نویسی مهمه؟
تازه‌ترین افتخارشون اینه: مدل‌های زبانی OpenAI در مسابقات وحشتناک سخت AtCoder World Tour تو ژاپن دوم شدن! یعنی فقط یه آدم حرفه‌ای تونست شکستشون بده (پریژمواو دبیاک، ملقب به Psyho، که خودش دوست و همکار سابق پاچوکیه). دو سه روز بعدش هم یکی از مدل‌های OpenAI توی المپیاد بین‌المللی ریاضی 2025 افتاد روی دور و نتیجه در حد مدال طلا گرفت! این مسابقات بین بچه ریاضی‌های نابغه از سراسر دنیاس و حسابی هیجان داره.

یه نکته بامزه اینه که گوگل دیپ‌مایند هم تونست دقیقاً همین نتیجه رو بگیره و حسابی رقابتی شد. البته گوگل صبر کرد تا جواب‌هاش رسمی تایید شه ولی OpenAI خودش زودتر اعلام کرد و کلی سروصدا درست شد.

ولی به قول مارک و یاکوب، اون برد برنامه‌نویسی براشون باحال‌تر بود! چون توی AtCoder مدلشون تجربه کرد که وارد یه «سطح جدید از عملکرد انسانی» شده و حتی جای دوم آوردن هم واسه یه مدل زبانی، بی‌سابقه‌ست.

🎤 OpenAI دیگه واقعا آزمایشگاه تحقیقاتی قدیم نیست!
یه نکته باحال اینه که شرکت دیگه مثل ۳-۴ سال پیش فقط کار آکادمیک نمی‌کنه؛ از وقتی ChatGPT اومد و منفجر شد، OpenAI شد رقیب مستقیم غول‌هایی مثل گوگل و مایکروسافت با ارزش حدود ۳۰۰ میلیارد دلار! حالا دیگه باید محصولات کاربرپسند بسازه و سریع هم عرضه‌شون کنه.

تا حالا هرچی مدل خفن و آپدیت جدید بود (چه تو GPT-4 چه مدل‌های مولد تصویر و ویدیو مثل Sora)، ریلیز کردن. جالب‌تر اینکه الان هر هفته حدود ۴۰۰ میلیون نفر دارن با محصولات OpenAI حال می‌کنن و روزانه ۲.۵ میلیارد درخواست ارسال میشه. خودتون حساب کنین چقدر گسترده شده!

💡 «هوش عمومی مصنوعی» دقیقاً چی هست واسه اینا؟
یه نکته کلیدی اینه: OpenAI از همون اول درباره AGI حرف می‌زد (یعنی Artificial General Intelligence – یه مدل هوش مصنوعی که تقریبا مث یه آدم، تو کارای مختلف می‌تونه خوب باشه، نه فقط یه وظیفه خاص). هنوز البته بهش نرسیدن. چن و پاچوکی معتقدن که «ریاضیات و برنامه‌نویسی پایه‌ای‌ترین چیزهاست برای رسیدن به AGI»، چون این مدل‌ها با حل مسائل کمی پیچیده و خلاق، می‌تونن نوآوری واقعی داشته باشن و دانش بشری رو جلو ببرن.

از طرفی خودشون خیلی تو حوزه مسابقات برنامه‌نویسی و حل مسئله فعال بودن؛ مارک مربی المپیاد آمریکا هم هست! برای همینم وقتی می‌بینن مدل‌هاشون تو همین رقابت‌ها بهتر از خودشون نتیجه می‌گیرن، هم خوشحال می‌شن و هم یه جوری شبیه «پیروزی AlphaGo مقابل لی سدول، استاد بزرگ بازی Go» حس می‌کنن. جالبه که برخلاف لی سدول که بعد باختش افسردگی گرفت، اینا خوشحالن مدلاشون از خودشون هم بهتر شدن!

ولی آیا این نگاه (یعنی توجه بیشتر به هوش تحلیلی و ریاضی) مشکل نیست؟
خود چن قبول داره که شاید دیدشون به هوش یه مقدار سو‌گیرانه باشه. ولی میگه حل این مسائل پایه پیش‌نیاز ساخت یه هوش مصنوعی خیلی عمومی‌تره. چون بالاخره خلاقیت یعنی همون توانایی حل مسائل و ایجاد ارتباط بین ایده‌های مختلف.

🧠 رمز پیشرفت: مدل‌های استدلالی
جدیدترین خطِ تحقیقاتی OpenAI ساختن مدل‌های reasoning یا همون «استدلالی»ه. هدف اینه که یه مدل (مثلاً o1 یا o3) بتونه مسئله رو خودش مرحله‌بندی کنه و کم‌کم مثل یه آدم عمیق فکر کنه. ولی هنوز کامل نشدن؛ چالش اصلی اینه که مدل‌ها کلی اطلاعات می‌دونن اما نمی‌تونن دانش‌های مختلف رو درست به‌هم وصل کنن. تحلیلگرهای OpenAI میگن داریم تازه اول راه استدلال خودکار هستیم.

خود چن میگه: «واقعا هنوز استدلال رو تموم نکردیم؛ باید حجم زیادی از متن‌ها خونده بشه تا تازه به یه تقریب از درک انسانی برسیم.»

🔭 آیا شتاب پیشرفت متوقف میشه؟ نه!
یه چیز بحث‌برانگیز تو جامعه AI، بحث Scaling Laws یا همون قوانین مقیاس‌پذیریه. یعنی هرچی مدل رو بزرگ‌تر (داده و سخت‌افزار بیشتر) کنی، کارایی‌اش هم خطی بالا میره. بعضیا شک دارن که این همیشه جواب بده، اما چن میگه: «هیچ نشونه‌ای نیست که دیگه Scaling Laws جواب نده. همیشه یه جایی گره می‌خوره، اما بالاخره با تحقیق راهش رو باز می‌کنیم!»

🚦 درباره تیم Superalignment و دغدغه‌های ایمنی چی شد؟
چند سال پیش «ایلیا سوتسکِوِر» (یکی از موسسین و دانشمند ارشد سابق) یه تیم جدا به اسم Superalignment درست کرد. هدفش این بود که یه پنجم کل منابع OpenAI صرف این بشه که بشه یه هوش مصنوعی خیلی فراتر از انسان رو کنترل و همسو با انسان‌ها هدایت کرد (یعنی نره وسطش بره مستقل باشه و تهدیدآمیز شه!). ولی الان اکثر اعضا (از جمله سوتسکِوِر و یان لیکه) رفتن و تیم هم کلاً منحل شده.

خود یان گفته بود: «ساخت ماشین‌هایی با هوش بالاتر از انسان ذاتاً خطرناکه و OpenAI باید جوابگو باشه.» بعد هم ناراضی بود که فرهنگ ایمنی شرکت کمتر از محصولات براق براش مهم بوده.

ولی چن و پاچوکی میگن الان ایمنی و alignment (یعنی هماهنگی رفتار مدل با خواسته آدم‌ها) جزو بخش جدایی‌ناپذیر روزمره شرکت شده. «امروزه مشکلات Alignment خیلی عملی و واقعیه. دو سال پیش بیشتر فرضی و تئوریک بود.» به عبارت دیگه، حل همین چالش‌ها روی مدلای فعلی خودش کلی دردسر داره و فعلا درباره سوپر هوش آینده بحث نمی‌کنن!

⏳ آینده هوش مصنوعی از نگاه مارک و یاکوب
پاچوکی میگه نقطه عطف اصلی وقتی پیش میاد که مدل‌های AI بتونن واقعا تو تحقیقات علمی مستقل عمل کنن و برای خودشون پروژه تعریف کنن. چن هم تعریفش از AGI اینه که چقدر یه مدل می‌تونه برای مدت طولانی، بدون گیرکردن و با بازدهی، روی یه مسئله سخت کار کنه و به جواب برسه. یعنی تمرکز اصلی‌شون روی «زمان مستقل مفید» مدله.

در نهایت، شاید تعریف این دو نفر از آینده هوش مصنوعی زیاد جنجالی و خوفناک به نظر نرسه، اما انگار با واقعیت و مسئولیت بیشتری به قضیه نگاه می‌کنن تا هیجان یا ترس مطلق. حتی پاچوکی اعتراف کرد که وقتی ۲۰۱۷ به OpenAI ملحق شد، فکر می‌کرد خیلی دیرتر به این نقطه فعلی از پیشرفت بشن.

👥 سرآخر هم میگن توی شرکت همیشه یه تنش و چالش بین برنامه‌ریزی بلندمدت و خواسته‌های فعلی، بین تحقیقات و محصول واقعی وجود داره. اما بازی همینه دیگه و باید بین سرعت، کیفیت و مسئولیت تعادل برقرار کنی.

پس دفعه بعد که یه محصول خفن جدید از OpenAI دیدین، یادتون بیاد که پشت این هوش مصنوعی‌ها، همین مارک و یاکوب دارن بی‌سروصدا آینده رو میسازن!

منبع: +