آیا الگوریتم‏‏‌ها می‌توانند قاضی خوبی باشند؟

 قاضی پرونده و هیات ‌‌‌منصفه دادگاه برای بررسی این پرونده، هم به بررسی سوابق لومیز پرداختند و هم از یک الگوریتم ارزیابی ریسک کمک گرفتند تا متوجه شوند که آیا لومیز راست می‌‌‌گوید یا نه. پس از انجام بررسی‌‌‌های جامع در مورد این پرونده و به ‌‌‌این ‌‌‌علت که الگوریتم ارزیابی ریسک، لومیز را به ‌‌‌عنوان فردی با ریسک بالای آسیب ‌‌‌زدن به دیگران و تکرار جرم معرفی کرده بود، او به ۶سال حبس محکوم شد.

با این ‌‌‌همه نه قاضی پرونده و اعضای هیات‌‌‌ منصفه و نه خود لومیز و وکیل او نمی‌‌‌دانستند که الگوریتم ارزیابی ریسک موسوم به COMPAS چگونه و بر چه اساسی به چنین ارزیابی قاطعی در مورد اریک لومیز دست‌‌‌ یافته است. در واقع COMPAS یک الگوریتم رازآلود و ناشناخته محسوب می‌شود که اطلاعات مشخصی راجع به نحوه کار کردن آن وجود ندارد و طراحان و سازندگان آن به بهانه حفظ اسرار کاری و شرکتی از اطلاع‌‌‌رسانی در مورد مکانیزم کاری این الگوریتم خودداری می‌کنند. به همین دلیل هم بود که چند روز پس از محاکمه اریک لومیز، روزنامه نیویورک‌‌‌تایمز چنین تیتر زد: «لومیز به‌‌‌وسیله یک برنامه الگوریتم مرموز و ناشناخته به زندان افتاد.»

امروزه در بسیاری از کشورهای دنیا، اتکا و وابستگی بسیار زیادی به الگوریتم‌‌‌ها در تصمیم‌‌‌گیری‌‌‌های مهم و کلیدی در سطح خرد و کلان به چشم می‌‌‌خورد، به‌‌‌طوری ‌‌‌که زندگی و سرنوشت تعداد زیادی از شهروندان در سراسر جهان به الگوریتم‌‌‌هایی وابسته است که متاسفانه چندان شفاف و دارای عملکرد روشنی نیستند. در حال حاضر تصمیم‌‌‌گیری‌‌‌هایی مانند مورد عفو قرار دادن محکومان یا اعطای آزادی مشروط به آنها یا کاهش محکومیتشان یا مواردی همچون وام‌‌‌ دادن به افراد و ارائه خدمات و کمک‌‌‌های اجتماعی به افراد به اتکای الگوریتم‌‌‌های هوش مصنوعی انجام می‌شود و چون اغلب این الگوریتم‌‌‌ها از شفافیت کافی برخوردار نیستند و غیر از طراحان و سازندگان آنها کمتر کسی در مورد نحوه محاسبه و تصمیم‌‌‌گیری چنین الگوریتم‌‌‌هایی اطلاعات و آگاهی دارد، بنابراین تردیدهای جدی در خصوص عادلانه و منصفانه بودن تصمیم‌‌‌گیری‌‌‌های انجام شده به اتکای چنین الگوریتم‌‌‌هایی وجود داشته و دارد.

 جعبه سیاه عدالت

پیش‌بینی رفتارهای مجرمانه افراد کاری بسیار سخت و پیچیده‌ است و به همین دلیل هم هست که روانکاوها و متخصصان پزشکی به‌‌‌دفعات طرف مشورت و نظرخواهی دادگاه‌‌‌ها قرار می‌‌‌گیرند تا در مورد این احتمال که یک متهم در آینده مرتکب جرم خواهد شد یا نه اعلام نظر کنند. اما طبق آمار منتشر شده از سوی انجمن روانکاوان آمریکا، از هر سه مورد پیش‌بینی و اظهارنظر کارشناسی روانکاوان و روان‌‌‌شناسان جرم در آمریکا درخصوص احتمال ارتکاب جرم توسط افراد مورد بررسی، دو مورد اشتباه از آب درآمده است.

علاوه بر این، عوامل دیگری نیز در تصمیم‌‌‌گیری قضات و مقام‌‌‌های تصمیم‌‌‌گیرنده در خصوص موضوعاتی مانند عفو یا آزادی مشروط تاثیرگذار هستند که بعضی از آنها مضحک و خنده‌‌‌دار به‌نظر می‌‌‌رسند. به‌‌‌عنوان‌‌‌ مثال نتایج یک تحقیق در آمریکا نشان داده که شانس مورد عفو قرارگرفتن یا دریافت مجوز آزادی مشروط برای کسانی که پرونده آنها در اوایل ساعات کاری دادگاه‌‌‌ها زیر دست قاضی قرار می‌‌‌گیرد به‌‌‌مراتب بیشتر از پرونده‌‌‌هایی است که مثلا سر ظهر و بعد از گذشت چند ساعت از ساعت کار دادگاه زیر دست قاضی خسته و کلافه از فشار کاری قرار می‌‌‌گیرند. به همین دلیل هم هست که بعضی‌‌‌ها صحبت از سپردن چنین فعالیت‌‌‌هایی به هوش مصنوعی و الگوریتم‌‌‌ها به‌‌‌جای قضات به میان آورده‌‌‌اند.

هنگامی که صحبت از قضاوت و تصمیم‌‌‌گیری در مورد پرونده‌‌‌های قضایی به میان می‌‌‌آید پای قضاوت‌‌‌های نادرست و عجولانه و گاه همراه با جهت‌‌‌گیری‌‌‌های خاص قضات و کارشناسان امر قضاوت نیز به میان می‌‌‌آید. این قضات انسان هستند و احتمال بروز اشتباه یا سوگیری در آنها وجود دارد. اگر به دهه‌‌‌ها و سده‌‌‌های گذشته نگاه ‌‌‌کنیم، می‌‌‌بینیم که قضاوت‌‌‌ها و تصمیم‌‌‌گیری‌‌‌های قضایی در مورد برخی افراد به‌‌‌خصوص افراد فقیر و رنگین‌‌‌پوست و اقلیت‌‌‌های قومی و مذهبی همراه با بی‌‌‌عدالتی و خطای انسانی همراه بوده و در سال‌های اخیر تقاضای زیادی برای ورود هوش مصنوعی و ماشین‌‌‌ها و نرم‌‌‌افزارها به موضوع قضاوت مطرح شده است.

از نظر تئوریک، الگوریتم‌‌‌ها و ماشین‌‌‌ها این قابلیت را دارند که به بهبود و تقویت تصمیم‌‌‌گیری‌‌‌های قضات کمک کنند و به این دلیل که کاملا بی‌‌‌طرف و بدون سوگیری خاصی عمل می‌کنند و دچار پیش قضاوت و خصومت فردی و اجتماعی با فرد یا گروه خاصی نیستند، از این توانایی برخوردارند که قضاوت‌‌‌هایی کاملا بی‌‌‌طرفانه و منصفانه داشته باشند. علاوه بر این، هوش مصنوعی و الگوریتم‌‌‌ها می‌توانند در مدت بسیار کوتاهی و با سرعتی بسیار بیشتر از انسان‌‌‌ها به پرونده‌‌‌های قضایی رسیدگی کنند و به‌‌‌گونه‌‌‌ای بی‌‌‌نقص و سریع عمل کنند که پس از مدتی ضمن به صفر رساندن پرونده‌‌‌های قضایی بلاتکلیف و از قبل به‌‌‌جامانده، تمام قضات و وکلا را به بازنشستگی زودتر از موعد بفرستند و در نتیجه شغلی به نام قضاوت و وکالت را به بایگانی تاریخ بفرستند.

هر ساله بیش از ۱۰ میلیون نفر توسط پلیس آمریکا بازداشت و روانه بازداشتگاه‌‌‌های پلیس می‌‌‌شوند و برخی از آنها به صلاحدید قاضی و پلیس و تا زمان برگزاری جلسه دادگاه به‌‌‌صورت موقت آزاد می‌‌‌‌‌‌شوند. برخی دیگر مجبورند که تا آن زمان همچنان در بازداشت پلیس باقی بمانند. بااین‌‌‌ همه بارها و بارها دیده شده که بسیاری از افرادی که آزادی موقتشان با نظر قاضی و پلیس بلامانع اعلام شده بود، پس از آزادی یا فرار کرده‌‌‌اند یا مرتکب جرم‌‌‌های خطرناکی شده‌‌‌اند. این امر نشان می‌دهد قضاوت و تصمیم‌‌‌گیری انسان‌‌‌ها در این ‌‌‌خصوص اشتباه بوده است. به همین دلیل هم هست که طی چند سال اخیر، تمایل پلیس و سیستم قضایی آمریکا به استفاده از هوش مصنوعی و الگوریتم‌‌‌هایی مانند COMPAS  برای تصمیم‌‌‌گیری در مورد آزادی موقت افراد بازداشت شده یا نگه ‌‌‌داشتن آنها در بازداشتگاه تا زمان برگزاری دادگاه به میزان چشمگیری افزایش داشته است. اما سوالی که ذهن خیلی‌‌‌ها را درگیر خود کرده این است که چه تضمینی وجود دارد الگوریتم‌‌‌ها و ماشین‌‌‌ها بتوانند بدون خطا و در هر شرایطی بهترین تصمیم ممکن را در مورد آزادی موقت متهمان و به ‌‌‌طور کلی در پرونده‌‌‌های قضایی اتخاذ کنند؟ آیا احتمال اشتباه ‌‌‌کردن هوش مصنوعی و زندانی ‌‌‌شدن یا حتی اعدام افراد بی‌‌‌گناه وجود ندارد؟ و آیا الگوریتم‌‌‌ها واقعا می‌توانند آینده را بهتر از قضات پیش‌بینی کنند؟

«اصل دنیای ثابت» به ما می‌‌‌گوید که چون ابهامات و پیچیدگی‌‌‌ها در مورد پرونده‌‌‌های قضایی و دلایل پشت پرده وقوع جرائم زیاد است هوش مصنوعی و الگوریتم‌‌‌ها نمی‌توانند عملکردی بی‌‌‌نقص و عالی از خود ارائه دهند و احتمال اشتباهات مهلک و نابخشودنی در این میان وجود دارد.

منبع: کتاب The age of AI: and our human future