شاید تا الان خیلیا فکر میکردن OpenAI فقط سام آلتمنِ خفن رو داره که همه جا با استایل هالیوودیش میدرخشه و حتی وقتی اخراج شد، دوباره برگشت سر کار و معروفتر هم شد. ولی واقعیت اینه که بخش اصلی مغز متفکر و هیجان هوش مصنوعی OpenAI افرادیان که کمتر جلوی دوربین میان: مارک چن و یاکوب پاچوکی. این دو نفر الان سردمداران تحقیقاتی شرکت هستن و دقیقا هموناییان که تکنولوژی پشت GPTها رو میسازن؛ نه آلتمن!
🔧 دقیقاً نقش این دوتا چیه؟
مارک چن، Chief Research Officer (یعنی مدیر ارشد تحقیقات) و یاکوب پاچوکی، Chief Scientist یا همون دانشمند ارشد OpenAI هستن. مارک بیشتر رو مدیریت تیمهای تحقیقاتی، نقشه راه پژوهشها و تعیین اهداف بلندمدت کار میکنه. پاچوکی هم بیشتر معماری مدلها و تحقیقات فلسفیتر رو در دست داره. هر چند خودشون میگن کاملاً سیاله و هر جا لازم باشه، دوتایی آستین بالا میزنن.
سابقهشونم جالبه: چن قبلاً توی Jane Street Capital (یه شرکت معروف توی والاستریت که معاملهگرهای عددی داره) بود و همون مهارتهاش باعث شد بعداً DALL-E (اون مدل تصویری خفن OpenAI) رو راه بندازه. بعد هم پای تشخیص تصویر رو به GPT-4 باز کرد و Codex (مدلی که پشت GitHub Copilot کار میکنه) رو ساخت. پاچوکی از فضای آکادمیک اومده؛ توی علوم کامپیوتر نظری کار میکرد و سال 2017 به OpenAI ملحق شد. امسال هم شد دانشمند ارشد و اون reasoning modelهایی مثل o1 و o3 رو طراحی کرد. این مدلها طوری ساخته شدن که مسائل پیچیده ریاضی و برنامهنویسی رو مثل یه آدم واقعی، مرحلهمرحله حل کنن.
👾 این دوتا چرا انقدر براشون مسابقه برنامهنویسی مهمه؟
تازهترین افتخارشون اینه: مدلهای زبانی OpenAI در مسابقات وحشتناک سخت AtCoder World Tour تو ژاپن دوم شدن! یعنی فقط یه آدم حرفهای تونست شکستشون بده (پریژمواو دبیاک، ملقب به Psyho، که خودش دوست و همکار سابق پاچوکیه). دو سه روز بعدش هم یکی از مدلهای OpenAI توی المپیاد بینالمللی ریاضی 2025 افتاد روی دور و نتیجه در حد مدال طلا گرفت! این مسابقات بین بچه ریاضیهای نابغه از سراسر دنیاس و حسابی هیجان داره.
یه نکته بامزه اینه که گوگل دیپمایند هم تونست دقیقاً همین نتیجه رو بگیره و حسابی رقابتی شد. البته گوگل صبر کرد تا جوابهاش رسمی تایید شه ولی OpenAI خودش زودتر اعلام کرد و کلی سروصدا درست شد.
ولی به قول مارک و یاکوب، اون برد برنامهنویسی براشون باحالتر بود! چون توی AtCoder مدلشون تجربه کرد که وارد یه «سطح جدید از عملکرد انسانی» شده و حتی جای دوم آوردن هم واسه یه مدل زبانی، بیسابقهست.
🎤 OpenAI دیگه واقعا آزمایشگاه تحقیقاتی قدیم نیست!
یه نکته باحال اینه که شرکت دیگه مثل ۳-۴ سال پیش فقط کار آکادمیک نمیکنه؛ از وقتی ChatGPT اومد و منفجر شد، OpenAI شد رقیب مستقیم غولهایی مثل گوگل و مایکروسافت با ارزش حدود ۳۰۰ میلیارد دلار! حالا دیگه باید محصولات کاربرپسند بسازه و سریع هم عرضهشون کنه.
تا حالا هرچی مدل خفن و آپدیت جدید بود (چه تو GPT-4 چه مدلهای مولد تصویر و ویدیو مثل Sora)، ریلیز کردن. جالبتر اینکه الان هر هفته حدود ۴۰۰ میلیون نفر دارن با محصولات OpenAI حال میکنن و روزانه ۲.۵ میلیارد درخواست ارسال میشه. خودتون حساب کنین چقدر گسترده شده!
💡 «هوش عمومی مصنوعی» دقیقاً چی هست واسه اینا؟
یه نکته کلیدی اینه: OpenAI از همون اول درباره AGI حرف میزد (یعنی Artificial General Intelligence – یه مدل هوش مصنوعی که تقریبا مث یه آدم، تو کارای مختلف میتونه خوب باشه، نه فقط یه وظیفه خاص). هنوز البته بهش نرسیدن. چن و پاچوکی معتقدن که «ریاضیات و برنامهنویسی پایهایترین چیزهاست برای رسیدن به AGI»، چون این مدلها با حل مسائل کمی پیچیده و خلاق، میتونن نوآوری واقعی داشته باشن و دانش بشری رو جلو ببرن.
از طرفی خودشون خیلی تو حوزه مسابقات برنامهنویسی و حل مسئله فعال بودن؛ مارک مربی المپیاد آمریکا هم هست! برای همینم وقتی میبینن مدلهاشون تو همین رقابتها بهتر از خودشون نتیجه میگیرن، هم خوشحال میشن و هم یه جوری شبیه «پیروزی AlphaGo مقابل لی سدول، استاد بزرگ بازی Go» حس میکنن. جالبه که برخلاف لی سدول که بعد باختش افسردگی گرفت، اینا خوشحالن مدلاشون از خودشون هم بهتر شدن!
ولی آیا این نگاه (یعنی توجه بیشتر به هوش تحلیلی و ریاضی) مشکل نیست؟
خود چن قبول داره که شاید دیدشون به هوش یه مقدار سوگیرانه باشه. ولی میگه حل این مسائل پایه پیشنیاز ساخت یه هوش مصنوعی خیلی عمومیتره. چون بالاخره خلاقیت یعنی همون توانایی حل مسائل و ایجاد ارتباط بین ایدههای مختلف.
🧠 رمز پیشرفت: مدلهای استدلالی
جدیدترین خطِ تحقیقاتی OpenAI ساختن مدلهای reasoning یا همون «استدلالی»ه. هدف اینه که یه مدل (مثلاً o1 یا o3) بتونه مسئله رو خودش مرحلهبندی کنه و کمکم مثل یه آدم عمیق فکر کنه. ولی هنوز کامل نشدن؛ چالش اصلی اینه که مدلها کلی اطلاعات میدونن اما نمیتونن دانشهای مختلف رو درست بههم وصل کنن. تحلیلگرهای OpenAI میگن داریم تازه اول راه استدلال خودکار هستیم.
خود چن میگه: «واقعا هنوز استدلال رو تموم نکردیم؛ باید حجم زیادی از متنها خونده بشه تا تازه به یه تقریب از درک انسانی برسیم.»
🔭 آیا شتاب پیشرفت متوقف میشه؟ نه!
یه چیز بحثبرانگیز تو جامعه AI، بحث Scaling Laws یا همون قوانین مقیاسپذیریه. یعنی هرچی مدل رو بزرگتر (داده و سختافزار بیشتر) کنی، کاراییاش هم خطی بالا میره. بعضیا شک دارن که این همیشه جواب بده، اما چن میگه: «هیچ نشونهای نیست که دیگه Scaling Laws جواب نده. همیشه یه جایی گره میخوره، اما بالاخره با تحقیق راهش رو باز میکنیم!»
🚦 درباره تیم Superalignment و دغدغههای ایمنی چی شد؟
چند سال پیش «ایلیا سوتسکِوِر» (یکی از موسسین و دانشمند ارشد سابق) یه تیم جدا به اسم Superalignment درست کرد. هدفش این بود که یه پنجم کل منابع OpenAI صرف این بشه که بشه یه هوش مصنوعی خیلی فراتر از انسان رو کنترل و همسو با انسانها هدایت کرد (یعنی نره وسطش بره مستقل باشه و تهدیدآمیز شه!). ولی الان اکثر اعضا (از جمله سوتسکِوِر و یان لیکه) رفتن و تیم هم کلاً منحل شده.
خود یان گفته بود: «ساخت ماشینهایی با هوش بالاتر از انسان ذاتاً خطرناکه و OpenAI باید جوابگو باشه.» بعد هم ناراضی بود که فرهنگ ایمنی شرکت کمتر از محصولات براق براش مهم بوده.
ولی چن و پاچوکی میگن الان ایمنی و alignment (یعنی هماهنگی رفتار مدل با خواسته آدمها) جزو بخش جداییناپذیر روزمره شرکت شده. «امروزه مشکلات Alignment خیلی عملی و واقعیه. دو سال پیش بیشتر فرضی و تئوریک بود.» به عبارت دیگه، حل همین چالشها روی مدلای فعلی خودش کلی دردسر داره و فعلا درباره سوپر هوش آینده بحث نمیکنن!
⏳ آینده هوش مصنوعی از نگاه مارک و یاکوب
پاچوکی میگه نقطه عطف اصلی وقتی پیش میاد که مدلهای AI بتونن واقعا تو تحقیقات علمی مستقل عمل کنن و برای خودشون پروژه تعریف کنن. چن هم تعریفش از AGI اینه که چقدر یه مدل میتونه برای مدت طولانی، بدون گیرکردن و با بازدهی، روی یه مسئله سخت کار کنه و به جواب برسه. یعنی تمرکز اصلیشون روی «زمان مستقل مفید» مدله.
در نهایت، شاید تعریف این دو نفر از آینده هوش مصنوعی زیاد جنجالی و خوفناک به نظر نرسه، اما انگار با واقعیت و مسئولیت بیشتری به قضیه نگاه میکنن تا هیجان یا ترس مطلق. حتی پاچوکی اعتراف کرد که وقتی ۲۰۱۷ به OpenAI ملحق شد، فکر میکرد خیلی دیرتر به این نقطه فعلی از پیشرفت بشن.
👥 سرآخر هم میگن توی شرکت همیشه یه تنش و چالش بین برنامهریزی بلندمدت و خواستههای فعلی، بین تحقیقات و محصول واقعی وجود داره. اما بازی همینه دیگه و باید بین سرعت، کیفیت و مسئولیت تعادل برقرار کنی.
پس دفعه بعد که یه محصول خفن جدید از OpenAI دیدین، یادتون بیاد که پشت این هوش مصنوعیها، همین مارک و یاکوب دارن بیسروصدا آینده رو میسازن!
منبع: +