PathCoT: فوت‌وفن هوش مصنوعی برای فهمیدن عکس‌های پاتولوژی بدون آموزش قبلی!

Fall Back

اگه دنیای هوش مصنوعی رو دنبال کرده باشی، احتمالاً اسم هوش مصنوعی تولیدکننده (Generative AI، یعنی همون مدل‌هایی که خودشون می‌تونن متن یا تصویر درست کنن) و مدل‌های زبانی بزرگ (LLMها، مثل ChatGPT) به گوشت خورده. این مدل‌ها یه مدتیه که خیلی تو کارهاشون پیشرفت کردن، مخصوصاً تو کارهایی که نیاز به استدلال و فکر کردن دارن، اونم حتی برای تصویر! اما یه حوزه هست که هنوز حسابی این هوش مصنوعی‌ها رو به چالش کشیده: فهمیدن عکس‌های پاتولوژی.

پاتولوژی همون علم بررسی بیماری‌ها با نگاه به تصاویر میکروسکوپی بافت‌هاست؛ مثلاً عکس‌هایی که دکترها برای شناسایی سرطان یا چیزهای خاص می‌بینن. خب، مدل‌های زبانی بزرگ و هوشمند تازه‌کار اینجا معمولاً جواب درستی نمی‌دن چون اطلاعات تخصصی ندارن و گاهی حتی چیزهایی می‌سازن که اصلاً واقعیت هم نداره (به این می‌گن hallucination یا توهمِ مدل‌های هوش مصنوعی!). از اون طرف، بعضی مدل‌ها از تکنیکی به اسم “Chain of Thought” یا زنجیره فکری استفاده می‌کنن. یعنی چی؟ یعنی مثل آدم‌ها مراحل فکر و استدلال رو قدم به قدم طی می‌کنن، بجای اینکه یه دفعه جوابی بدن. این روش باعث می‌شه مدل دقیق‌تر پیش بره، اما مشکل اینجاست که هر مرحله یه کمی احتمال اشتباه هم اضافه می‌شه و تهش ممکنه جواب درست در نیاد!

حالا یه تیم باهوش یه راه‌حل جدید درست کردن به اسم PathCoT. خلاصه‌اش اینه: می‌خوان کمک کنن مدل هوش مصنوعی مثل یه متخصص پاتولوژی فکر کنه، بدون اینکه لازم باشه از قبل براش مثال بیارن یا آموزش خاصی بدن (به این حالت می‌گن zero-shot، یعنی مدل هیچ تمرین مخصوصی روی اون کار ندیده).

PathCoT چیکار می‌کنه؟ چندتا کار خفن! اولاً دانش متخصصان پاتولوژی رو وارد گفتگو با مدل می‌کنه، یعنی تو مرحله فکر کردنِ مدل (همون Chain-of-Thought) یه سری اطلاعات و نکته‌هایی که فقط متخصص‌ها می‌دونن هم به مدل وارد می‌کنه. به این می‌گن تزریق دانش تخصصی! اینطوری مدل راحت‌تر می‌تونه قدم به قدم تصویر رو تحلیل کنه و مثل یه کارشناس واقعی جواب بده.

اما فقط همین نیست؛ PathCoT یه بخش خودارزیابی (self-evaluation) هم اضافه کرده. یعنی مدل بعد از اینکه جوابش رو در چندتا مسیر پیدا کرد، خودش میاد پاسخ‌هایی که داده رو مقایسه می‌کنه و سعی می‌کنه مطمئن‌ترین جواب رو انتخاب کنه! این کار باعث می‌شه احتمال جواب‌های پرت و اشتباه کمتر بشه و مدل اعتماد به نفس بیشتری پیدا کنه.

نتیجه چی شد؟ توی تست‌هایی که روی دیتاست مخصوص پاتولوژی به اسم PathMMU انجام دادن (دیتاست همون مجموعه عکس‌های ویژه برای آزمایش مدل‌هاست)، PathCoT تونست بهتر از حالت‌های قبلی هم عکس‌های پاتولوژی رو بفهمه، هم استدلال منطقی انجام بده.

در کل، PathCoT نشون داده اگه به هوش مصنوعی‌های امروزی کمی راهنمایی تخصصی بدیم و اجازه بدیم خودشون روی جواباشون فکر کنن، می‌تونن تو حوزه‌های پیچیده و تخصصی مثل پاتولوژی هم حسابی بدرخشن. خیلی هم جالب، نه؟ 🔬🤖
منبع: +