قضات ما و هوش مصنوعی: ترکیب جالب دردسر و پیشرفت

خیلی جالب شده این روزها که هوش مصنوعی (AI یعنی همون برنامه‌هایی که می‌تونن مثل انسان‌ها فکر کنن و حتی بنویسن) داره کم کم راه خودش رو به دادگاه‌ها و اتاق‌های قضاوت باز می‌کنه. یک موج راه افتاده که هم باعث سادگی کارها شده، هم یه عالمه دردسر جدید درست کرده – مخصوصاً وقتی بعضی اشتباه‌ها رو نه قاضی‌ها می‌بینن، نه وکلا! بذار راحت واست توضیح بدم که داستان چیه.

اول همه‌ی این ماجراها زمانی شروع شد که وکلا، حتی توی موسسه‌های حقوقی لوکس و مشهور آمریکا، حسابی سوتی دادن و اسناد حقوقی‌ای رو تحویل دادگاه‌ها دادن که توش به پرونده‌هایی اشاره شده بود که اصلاً وجود خارجی نداشتن! هرچی جلوتر رفت، این اشتباهات از وکلا به جاهای دیگه دادگاه هم سرایت کرد. مثلاً حتی یه استاد دانشگاه استنفورد که تو هوش مصنوعی و اطلاعات غلط تخصص داشت، خودش موقع شهادت توی پرونده دیپ‌فیک (که دیپ‌فیک یعنی همون ویدیو یا عکس‌های ساختگی با هوش مصنوعی) کلی اشتباه و حرف عجیب غریب تحویل دادگاه داد.

حالا این وسط، قاضی‌ها شدن دوست و دشمن اصلی این تکنولوژی. وقتی یه اشتباه فاجعه‌آمیز بشه یا حریف قضیه بشه، معمولاً دادگاه یکی رو جریمه می‌کنه و احتمالاً وکیل طرف حسابی خجالت می‌کشه! اما این روزها خود قاضی‌ها هم دارن با هوش مصنوعی ور می‌رن. برخی‌شون معتقدن که اگه همه احتیاط‌ها رو رعایت کنن، AI می‌تونه به سرعت تحقیقات حقوقی، خلاصه‌سازی پرونده‌ها و نوشتن دستورات روتین کمک کنه—یه جورایی می‌تونه تویه دادگاه‌هایی که کار عقب مونده دارن، معجزه کنه.

ولی… این تابستون خیلی قشنگ نشون داد که حتی قاضی‌ها هم که حرفه‌ای‌ترین‌های دستگاه قضا‌ هستن، بعضی وقتا متوجه اشتباهات AI نمیشن و همون اشتباه‌ها رو توی احکام رسمی‌شون می‌زنن! مثلاً یه قاضی فدرال توی نیوجرسی مجبور شد کل رأیش رو دوباره بنویسه چون پر بود از غلط‌هایی که به‌نظر می‌رسید کار هوش مصنوعی بوده. یه قاضی دیگه هم که اصلاً جواب نداد چرا رأیش پر از این سوتی‌ها بود و فقط گفت: «نیازی به توضیح بیشتر نیست!»

موضوع مهم اینجاست: ۱) اینکه تشخیص دادن کجاها AI می‌تونه کار کنه و کجا نیاز به قضاوت انسانی داره، خیلی مرز باریکی داره. ۲) قاضی‌ها وقتی با کمک AI سوتی می‌دن معمولاً به اندازه وکلا مواخذه نمیشن و اصلاح اشتباهشون هم خیلی دشوارتره، چون رأی قاضی همون قانونه و دیگه قابل برگشت نیست یا خیلی سخته.

یه سری از قاضی‌ها مثل خاویر رودریگز کلی آدم باحالیه که سال‌هاست داره رو بحث هوش مصنوعی مطالعه می‌کنه. خودش می‌گه اصلاً اولین بار ۲۰۱۸، چهار سال قبل از اینکه ChatGPT بیاد، به خاطر برادراش که تو حوزه تکنولوژی کار می‌کنه، وارد این جور چیزا شده. ولی با همه‌ی این تجربه‌ها، رودریگز هم اشتباهات AI رو توی دادگاه خودش دیده. یه دعوای بیمه‌ای بوده که هر دو طرف بدون وکیل بودن (که خیلی عجیبه! حدود یک‌چهارم پرونده‌های مدنی آمریکا چنین شرایطی دارن) و جفتشون با AI اسناد دادن که توش به پرونده‌های ساختگی اشاره کرده بودن. قاضی هم چون اینا وکیل نبودن، جریمه‌شون نکرد.

رودریگز یه شوخی باحال هم داره: می‌گه «وکلا قبل از AI هم کلی اشتباه داشتن!» یعنی اشکالات این مدلا با بی‌تجربگی وکلای تازه‌کار فرق چندانی نداره. اون خودش از AI برای کارهای ساده‌تر مثل خلاصه کردن پرونده‌ها یا ارائه‌ی جدول زمانی اتفاقات استفاده می‌کنه و تا وقتی پای قضاوت و تصمیم‌گیری جدی وسط نباشه، خطرش رو خیلی پایین می‌دونه. ولی مثلاً استفاده از AI برای تعیین اینکه کی باید وثیقه بگیره یا نه، ورود خیلی به حوزه قضاوت انسانی و احتیاطیه.

یه استاد دانشگاه به اسم اَرین سولووی هم هست که دقیقاً تخصصش تعامل آدم‌ها و هوش مصنوعیه. اونم با کلی قاضی توی انگلیس کار کرده و می‌گه اصلاً یه خط روشنی بین کارهای ماشینی و کارهای انسانی قاضی وجود نداره و از هر قاضی تا قاضی فرق می‌کنه.

در ضمن، این هوش مصنوعی‌ها خودشون گاهی کارهایی که فکر می‌کنیم بلدن رو گند می‌زنن! مثلاً خلاصه کردن یه سند طولانی رو بسته به اینکه AI برای عموم آموزش دیده باشه یا برای وکلا، ممکنه کاملاً متفاوت انجام بده یا حتی جدول زمانی یه پرونده رو اشتباه بچینه.

برای برداشتن این مرزها، رودریگز و چندتا قاضی دیگه به کمک یک موسسه معتبر به‌اسم Sedona Conference یکسری راهنما تدوین کردن. مثلاً کجاها بهتره AI کمک کنه؛ از تحقیق حقوقی گرفته تا جست‌وجوی سریع در اسناد. ولی همه‌ش یه جمله خیلی مهم دارن: هیچکدوم از AIهای ژنراتیو (یعنی یادگیرنده و محتواساز) مشکل «توهم» یا Hallucination رو کامل حل نکردن! (Hallucination یعنی وقتی مدل‌های AI چیزی رو با اعتماد کامل می‌سازن که اصلاً واقعیت نداره.)

یه قاضی دیگه به اسم الیسان گادارد، که توی کالیفرنیاست، خیلی به‌طرز جالبی با AI آشنا شد. یه روز تدریس داشت تو مدرسه دخترش درباره فن دفاع از پرونده. یه انشا از یه دانش‌آموز خونده بود که خیلی خوشش اومده بود، بعد دخترش گفته: «مامان، اینو ChatGPT نوشته!» همونجا می‌فهمه که این موج چقدر سریع وارد دنیای حقوقی شده.

گادارد خودش با کلی مدل هوش مصنوعی ور می‌ره: گاهی ChatGPT، گاهی Claude، گاهی مدلای دیگه. حتی خلاصه کردن یک دستور ۶۰ صفحه‌ای یا آماده کردن سوال برای وکلا رو می‌سپره به AI و بعد خودش چک نهایی رو انجام می‌ده. آدم باید مواظب باشه چون AIها می‌تونن اطلاعات گفتگوها رو ذخیره کنن؛ ولی مثلاً Claude، برعکس، گفتگو رو برای آموزش مجدد استفاده نمی‌کنه. برای کارهای خیلی تخصصی حقوقی، گادارد حتماً میره سراغ ابزارهایی مثل Westlaw یا Lexis (که مخصوص وکلاست)، ولی برای کارهای ساده‌تر و سریع، همون مدل‌های عمومی بهترن. البته برای کارهای خیلی حساس مثله پرونده‌های جرم، کلاً از AI استفاده نمی‌کنه چون نگران سوگیری (Bias یعنی تمایل ناعادلانه یه مدل به تصمیم‌گیری خاص) است.

مشکل اونجاست که این مدل‌ها خیلی وقت‌ها جواب‌هایی می‌دن که عالی به نظر می‌رسه، ولی از بیخ غلطه – و این برای قاضی فاجعه است چون اگه اشتباهش رو بقیه بفهمن، نه فقط خودش آسیب می‌بینه، بلکه مردم هم دیگه به عدالت سیستم اطمینان ندارن.

خود گادارد هم می‌گه: «من نمی‌خوام جزو اون قاضی‌هایی باشم که پرونده و رأی ساختگی از AI نقل می‌کنن؛ خیلی خجالت‌آوره!»

همزمان بعضی قاضی‌ها نمی‌خوان از قافله عقب بمونن، مخصوصاً که بعضی‌ها فکر می‌کنن چون AIها عقلانی‌تر و بی‌طرف‌ترن، شاید بهتر از انسان قضاوت کنن. پس اگه عقب بمونی، شاید جا بمونی!

ولی خطرهای این استفاده زودهنگام کاملاً واقعی و جدیه. یه قاضی اهل لوییزیانا به اسم اسکات شِلگل که معروفه به علاقه‌مندی به تکنولوژی توی دادگاه، می‌گه اشتباهات AI توسط قاضی‌ها می‌تونه
بحران خیلی بزرگی درست کنه و دادگاه‌ها و جامعه رو دچار بی‌اعتمادی کنه. اگه وکیلی اشتباه کنه، جریمه میشه، ولی اشتباه قاضی معمولاً دیگه همون قانونه و برگشت دادن رأی اصلاً راحت نیست.

خودت تصور کن: تو یه پرونده حضانت بچه یا وثیقه بندی زندانی‌ها، اگه قاضی رو تصمیمی که گرفته متکی بوده به یه ارجاع قلابی که AI ساخته، فاجعه درست میشه. مثلاً همین چند ماه پیش تو یه دادگاه جورجیا قاضی اپیلاسیون (دادگاه تجدید نظر) حکمی داد که بعدها فهمیدن بر اساس پرونده‌های ساختگی بوده، ولی هیچکس متوجه نشد و رأی هم اجرا شد!

وضعیت قاضی‌ها فرق داره چون کسی نمی‌تونه مجبورشون کنه توضیح بدن چرا چنین اشتباهی کردن؛ خیلی وقت‌ها هم اصلاً دوست ندارن خودشون رو توضیح بدن. همین مردادماه یه قاضی مدنی توی می‌سی‌سی‌پی مجبور شد رأیش رو درباره حقوق شهروندی دوباره بده چون پر بود از اسم‌ها و اطلاعات اشتباه. وقتی دولت هم درخواست توضیح کرد، قاضی فقط نوشت: «نیازی به توضیح بیشتر نیست!»

بنابراین: AI اگر تو کارهای خیلی کنترل شده و مشخص استفاده بشه – مثلاً خلاصه کردن شهادت‌ها یا بررسی سریع اسناد – می‌تونه خیلی وقت آدم رو ذخیره کنه. ولی تا وقتی قاضی خودش کامل کار AI رو چک نکنه، سیستم قضاوت رو داره آسیب پذیر می‌کنه؛ چون بیشتر قضاوت اصلاً تفسیر شخصیه و پیچیدگی‌های انسانی داره که یه مدل هوش مصنوعی نمی‌تونه بهش برسه.

در نهایت باید گفت: هوش مصنوعی توی دادگاه‌ها مثل چاقوی دو لبه‌س. هم می‌تونه سرعت و دقت بیاره، هم اگه اشتباه بشه، سرنوشت آدم‌ها رو عوض کنه. قاضی‌هایی که با AI کار می‌کنن باید حواسشون هفت‌دوده باشه و هیچ‌وقت فکر نکنن همه کار رو می‌تونن راحت بسپارن به ماشین!

منبع: +