اگه به دنیای جدید و باحال تکنولوژی علاقهمند باشی، شاید کلی حرف درباره کامپیوترهای کوانتومی شنیده باشی. این کامپیوترها فرق بزرگی با کامپیوترهای معمولی دارن چون میتونن بعضی محاسبات رو خیلی خیلی سریعتر انجام بدن. حالا یه بخشی از تحقیقهای جدید که کلی سر و صدا به پا کرده، ترکیب این کامپیوترها با هوش مصنوعی و یادگیری ماشین هست. یادگیری ماشین همون روشهایی هست که به کامپیوترها یاد میده چطور الگوها رو بشناسن و پیشبینی کنن؛ مثلاً سیستم پیشنهاد فیلم در نتفلیکس یا اپلیکیشنهای مشابه.
این مقاله اومده سراغ ساخت یه سیستم پیشنهادگر (Recommendation System) باحال که از ترکیب حافظه انجمنی هاپفیلد کوانتومی (QHAM) و شبکههای عصبی عمیق (Deep Neural Networks) استفاده میکنه. حالا QHAM چیه؟ حافظه انجمنی هاپفیلد یه جور مدل ریاضی برای ذخیره و یادآوری دادههاست که حالا وارد دنیای کوانتومی شده و سرعت و کارایی بالاتری پیدا کرده.
خُب، بیایید ببینیم داستان چیه: برای آموزش و تست این سیستم سراغ دیتاست معروف MovieLens 1M رفتن؛ این دیتاست کلی اطلاعات راجع به سلیقه کاربران فیلمبین داره. اولین کاری که کردن اینه که کاربران رو با الگوریتم K-Means خوشهبندی کردن – یعنی افراد مشابه رو تو دستههای مختلف گذاشتن. K-Means یه روش کلاسیک برای گروهبندی دادههاست که مثلاً آدمای شبیه هم از نظر سلیقه رو میذاره تو یه خوشه.
بعدش، هر خوشه به یه الگوی قطبی (Polar Pattern) تبدیل شده؛ یعنی یه جور کد عددی مخصوص که با خروجی یه شبکه عصبی، این دستهبندیها رو به زبون قابل فهم برای مدل کوانتومی درمیاره. این الگوها میشن ورودی مدل ترکیبی کوانتومی-کلاسیک که اون وسط QHAM معروف قرار داره. خفنیش اینجاست که با ترکیب اینا، سیستم میتونه اطلاعات رو هم بهتر بفهمه، هم سریعتر پردازش کنه.
مدل رو تو دو حالت آموزش دادن: یکی تو یه محیط ایدهآل که انگاری هیچ نویز و اشکالی تو کامپیوتر کوانتومی نیست. اونجا بعد از ۳۵ اپوک (هر اپوک یعنی مرور کامل دیتا موقع آموزش) تونستن به دقت (Accuracy) حدود ۸۸ درصد، مقدار ROC نزدیک ۹۸ صدم (ROC یه شاخص مهم برای ارزیابی مدلهای تشخیص هست) و F-1 Score حدود ۸۸ درصد برسن.
حالا بخش باحالتر: مدل رو تو یه محیط نویزی هم تست کردن، یعنی موقع آموزش بهش خطاهایی مثل bit-flip و readout error هم اضافه کردن. bit-flip یعنی یکی از بیتهای کوانتومی وسط کار اشتباهی تغییر کنه و readout error هم یعنی موقع برداشت نتیجه ممکنه اشتباه خونده بشه. این خطاها واقعاً تو کامپیوترهای کوانتومی دنیای واقعی وجود دارن. ولی با این همه، مدل تو محیط نویزی هم نزدیک به ۸۰ درصد دقت داشته و نشون داده کلی مقاومه.
خبر خوب دیگه اینه که هزینه (یا همون overhead) مربوط به استفاده از کیوبیتها (Qubit که واحد اطلاعات کوانتومی هست) رو هم با یه بهینهسازی ساده کاهش دادن؛ یعنی به جای دستکاری همه کیوبیتها، فقط یکی رو به شکل تصادفی آپدیت میکنن که باعث سرعت و صرفهجویی بیشتر میشه.
در کل، این تحقیق نشون داده که ترکیب پردازش کوانتومی تغییریافته (Variational Quantum Computing یعنی پردازش کوانتومی که با چند پارامتر قابل تنظیم انجام میشه) و یادگیری عمیق، میتونه تو پروژههای واقعی و دیتای بزرگ (نه فقط پروژههای آزمایشگاهی کوچیک!) جواب بده. حتی با وجود آلودگی و نویز هم، عملکرد خوبی داره و این راهو برای استفادههای آینده در سیستمهای پیشنهادگر باز میکنه. خلاصه اگه روزی دیدی سیستم پیشنهاد فیلم اپلیکیشنت عجیبا سریع و دقیق شده، بدون شاید از همین روشهای کوانتومی استفاده کرده! 😉
منبع: +