خیلی جالب شده این روزها که هوش مصنوعی (AI یعنی همون برنامههایی که میتونن مثل انسانها فکر کنن و حتی بنویسن) داره کم کم راه خودش رو به دادگاهها و اتاقهای قضاوت باز میکنه. یک موج راه افتاده که هم باعث سادگی کارها شده، هم یه عالمه دردسر جدید درست کرده – مخصوصاً وقتی بعضی اشتباهها رو نه قاضیها میبینن، نه وکلا! بذار راحت واست توضیح بدم که داستان چیه.
اول همهی این ماجراها زمانی شروع شد که وکلا، حتی توی موسسههای حقوقی لوکس و مشهور آمریکا، حسابی سوتی دادن و اسناد حقوقیای رو تحویل دادگاهها دادن که توش به پروندههایی اشاره شده بود که اصلاً وجود خارجی نداشتن! هرچی جلوتر رفت، این اشتباهات از وکلا به جاهای دیگه دادگاه هم سرایت کرد. مثلاً حتی یه استاد دانشگاه استنفورد که تو هوش مصنوعی و اطلاعات غلط تخصص داشت، خودش موقع شهادت توی پرونده دیپفیک (که دیپفیک یعنی همون ویدیو یا عکسهای ساختگی با هوش مصنوعی) کلی اشتباه و حرف عجیب غریب تحویل دادگاه داد.
حالا این وسط، قاضیها شدن دوست و دشمن اصلی این تکنولوژی. وقتی یه اشتباه فاجعهآمیز بشه یا حریف قضیه بشه، معمولاً دادگاه یکی رو جریمه میکنه و احتمالاً وکیل طرف حسابی خجالت میکشه! اما این روزها خود قاضیها هم دارن با هوش مصنوعی ور میرن. برخیشون معتقدن که اگه همه احتیاطها رو رعایت کنن، AI میتونه به سرعت تحقیقات حقوقی، خلاصهسازی پروندهها و نوشتن دستورات روتین کمک کنه—یه جورایی میتونه تویه دادگاههایی که کار عقب مونده دارن، معجزه کنه.
ولی… این تابستون خیلی قشنگ نشون داد که حتی قاضیها هم که حرفهایترینهای دستگاه قضا هستن، بعضی وقتا متوجه اشتباهات AI نمیشن و همون اشتباهها رو توی احکام رسمیشون میزنن! مثلاً یه قاضی فدرال توی نیوجرسی مجبور شد کل رأیش رو دوباره بنویسه چون پر بود از غلطهایی که بهنظر میرسید کار هوش مصنوعی بوده. یه قاضی دیگه هم که اصلاً جواب نداد چرا رأیش پر از این سوتیها بود و فقط گفت: «نیازی به توضیح بیشتر نیست!»
موضوع مهم اینجاست: ۱) اینکه تشخیص دادن کجاها AI میتونه کار کنه و کجا نیاز به قضاوت انسانی داره، خیلی مرز باریکی داره. ۲) قاضیها وقتی با کمک AI سوتی میدن معمولاً به اندازه وکلا مواخذه نمیشن و اصلاح اشتباهشون هم خیلی دشوارتره، چون رأی قاضی همون قانونه و دیگه قابل برگشت نیست یا خیلی سخته.
یه سری از قاضیها مثل خاویر رودریگز کلی آدم باحالیه که سالهاست داره رو بحث هوش مصنوعی مطالعه میکنه. خودش میگه اصلاً اولین بار ۲۰۱۸، چهار سال قبل از اینکه ChatGPT بیاد، به خاطر برادراش که تو حوزه تکنولوژی کار میکنه، وارد این جور چیزا شده. ولی با همهی این تجربهها، رودریگز هم اشتباهات AI رو توی دادگاه خودش دیده. یه دعوای بیمهای بوده که هر دو طرف بدون وکیل بودن (که خیلی عجیبه! حدود یکچهارم پروندههای مدنی آمریکا چنین شرایطی دارن) و جفتشون با AI اسناد دادن که توش به پروندههای ساختگی اشاره کرده بودن. قاضی هم چون اینا وکیل نبودن، جریمهشون نکرد.
رودریگز یه شوخی باحال هم داره: میگه «وکلا قبل از AI هم کلی اشتباه داشتن!» یعنی اشکالات این مدلا با بیتجربگی وکلای تازهکار فرق چندانی نداره. اون خودش از AI برای کارهای سادهتر مثل خلاصه کردن پروندهها یا ارائهی جدول زمانی اتفاقات استفاده میکنه و تا وقتی پای قضاوت و تصمیمگیری جدی وسط نباشه، خطرش رو خیلی پایین میدونه. ولی مثلاً استفاده از AI برای تعیین اینکه کی باید وثیقه بگیره یا نه، ورود خیلی به حوزه قضاوت انسانی و احتیاطیه.
یه استاد دانشگاه به اسم اَرین سولووی هم هست که دقیقاً تخصصش تعامل آدمها و هوش مصنوعیه. اونم با کلی قاضی توی انگلیس کار کرده و میگه اصلاً یه خط روشنی بین کارهای ماشینی و کارهای انسانی قاضی وجود نداره و از هر قاضی تا قاضی فرق میکنه.
در ضمن، این هوش مصنوعیها خودشون گاهی کارهایی که فکر میکنیم بلدن رو گند میزنن! مثلاً خلاصه کردن یه سند طولانی رو بسته به اینکه AI برای عموم آموزش دیده باشه یا برای وکلا، ممکنه کاملاً متفاوت انجام بده یا حتی جدول زمانی یه پرونده رو اشتباه بچینه.
برای برداشتن این مرزها، رودریگز و چندتا قاضی دیگه به کمک یک موسسه معتبر بهاسم Sedona Conference یکسری راهنما تدوین کردن. مثلاً کجاها بهتره AI کمک کنه؛ از تحقیق حقوقی گرفته تا جستوجوی سریع در اسناد. ولی همهش یه جمله خیلی مهم دارن: هیچکدوم از AIهای ژنراتیو (یعنی یادگیرنده و محتواساز) مشکل «توهم» یا Hallucination رو کامل حل نکردن! (Hallucination یعنی وقتی مدلهای AI چیزی رو با اعتماد کامل میسازن که اصلاً واقعیت نداره.)
یه قاضی دیگه به اسم الیسان گادارد، که توی کالیفرنیاست، خیلی بهطرز جالبی با AI آشنا شد. یه روز تدریس داشت تو مدرسه دخترش درباره فن دفاع از پرونده. یه انشا از یه دانشآموز خونده بود که خیلی خوشش اومده بود، بعد دخترش گفته: «مامان، اینو ChatGPT نوشته!» همونجا میفهمه که این موج چقدر سریع وارد دنیای حقوقی شده.
گادارد خودش با کلی مدل هوش مصنوعی ور میره: گاهی ChatGPT، گاهی Claude، گاهی مدلای دیگه. حتی خلاصه کردن یک دستور ۶۰ صفحهای یا آماده کردن سوال برای وکلا رو میسپره به AI و بعد خودش چک نهایی رو انجام میده. آدم باید مواظب باشه چون AIها میتونن اطلاعات گفتگوها رو ذخیره کنن؛ ولی مثلاً Claude، برعکس، گفتگو رو برای آموزش مجدد استفاده نمیکنه. برای کارهای خیلی تخصصی حقوقی، گادارد حتماً میره سراغ ابزارهایی مثل Westlaw یا Lexis (که مخصوص وکلاست)، ولی برای کارهای سادهتر و سریع، همون مدلهای عمومی بهترن. البته برای کارهای خیلی حساس مثله پروندههای جرم، کلاً از AI استفاده نمیکنه چون نگران سوگیری (Bias یعنی تمایل ناعادلانه یه مدل به تصمیمگیری خاص) است.
مشکل اونجاست که این مدلها خیلی وقتها جوابهایی میدن که عالی به نظر میرسه، ولی از بیخ غلطه – و این برای قاضی فاجعه است چون اگه اشتباهش رو بقیه بفهمن، نه فقط خودش آسیب میبینه، بلکه مردم هم دیگه به عدالت سیستم اطمینان ندارن.
خود گادارد هم میگه: «من نمیخوام جزو اون قاضیهایی باشم که پرونده و رأی ساختگی از AI نقل میکنن؛ خیلی خجالتآوره!»
همزمان بعضی قاضیها نمیخوان از قافله عقب بمونن، مخصوصاً که بعضیها فکر میکنن چون AIها عقلانیتر و بیطرفترن، شاید بهتر از انسان قضاوت کنن. پس اگه عقب بمونی، شاید جا بمونی!
ولی خطرهای این استفاده زودهنگام کاملاً واقعی و جدیه. یه قاضی اهل لوییزیانا به اسم اسکات شِلگل که معروفه به علاقهمندی به تکنولوژی توی دادگاه، میگه اشتباهات AI توسط قاضیها میتونه
بحران خیلی بزرگی درست کنه و دادگاهها و جامعه رو دچار بیاعتمادی کنه. اگه وکیلی اشتباه کنه، جریمه میشه، ولی اشتباه قاضی معمولاً دیگه همون قانونه و برگشت دادن رأی اصلاً راحت نیست.
خودت تصور کن: تو یه پرونده حضانت بچه یا وثیقه بندی زندانیها، اگه قاضی رو تصمیمی که گرفته متکی بوده به یه ارجاع قلابی که AI ساخته، فاجعه درست میشه. مثلاً همین چند ماه پیش تو یه دادگاه جورجیا قاضی اپیلاسیون (دادگاه تجدید نظر) حکمی داد که بعدها فهمیدن بر اساس پروندههای ساختگی بوده، ولی هیچکس متوجه نشد و رأی هم اجرا شد!
وضعیت قاضیها فرق داره چون کسی نمیتونه مجبورشون کنه توضیح بدن چرا چنین اشتباهی کردن؛ خیلی وقتها هم اصلاً دوست ندارن خودشون رو توضیح بدن. همین مردادماه یه قاضی مدنی توی میسیسیپی مجبور شد رأیش رو درباره حقوق شهروندی دوباره بده چون پر بود از اسمها و اطلاعات اشتباه. وقتی دولت هم درخواست توضیح کرد، قاضی فقط نوشت: «نیازی به توضیح بیشتر نیست!»
بنابراین: AI اگر تو کارهای خیلی کنترل شده و مشخص استفاده بشه – مثلاً خلاصه کردن شهادتها یا بررسی سریع اسناد – میتونه خیلی وقت آدم رو ذخیره کنه. ولی تا وقتی قاضی خودش کامل کار AI رو چک نکنه، سیستم قضاوت رو داره آسیب پذیر میکنه؛ چون بیشتر قضاوت اصلاً تفسیر شخصیه و پیچیدگیهای انسانی داره که یه مدل هوش مصنوعی نمیتونه بهش برسه.
در نهایت باید گفت: هوش مصنوعی توی دادگاهها مثل چاقوی دو لبهس. هم میتونه سرعت و دقت بیاره، هم اگه اشتباه بشه، سرنوشت آدمها رو عوض کنه. قاضیهایی که با AI کار میکنن باید حواسشون هفتدوده باشه و هیچوقت فکر نکنن همه کار رو میتونن راحت بسپارن به ماشین!
منبع: +