آیا الگوریتمها میتوانند قاضی خوبی باشند؟

قاضی پرونده و هیات منصفه دادگاه برای بررسی این پرونده، هم به بررسی سوابق لومیز پرداختند و هم از یک الگوریتم ارزیابی ریسک کمک گرفتند تا متوجه شوند که آیا لومیز راست میگوید یا نه. پس از انجام بررسیهای جامع در مورد این پرونده و به این علت که الگوریتم ارزیابی ریسک، لومیز را به عنوان فردی با ریسک بالای آسیب زدن به دیگران و تکرار جرم معرفی کرده بود، او به ۶سال حبس محکوم شد.
با این همه نه قاضی پرونده و اعضای هیات منصفه و نه خود لومیز و وکیل او نمیدانستند که الگوریتم ارزیابی ریسک موسوم به COMPAS چگونه و بر چه اساسی به چنین ارزیابی قاطعی در مورد اریک لومیز دست یافته است. در واقع COMPAS یک الگوریتم رازآلود و ناشناخته محسوب میشود که اطلاعات مشخصی راجع به نحوه کار کردن آن وجود ندارد و طراحان و سازندگان آن به بهانه حفظ اسرار کاری و شرکتی از اطلاعرسانی در مورد مکانیزم کاری این الگوریتم خودداری میکنند. به همین دلیل هم بود که چند روز پس از محاکمه اریک لومیز، روزنامه نیویورکتایمز چنین تیتر زد: «لومیز بهوسیله یک برنامه الگوریتم مرموز و ناشناخته به زندان افتاد.»
امروزه در بسیاری از کشورهای دنیا، اتکا و وابستگی بسیار زیادی به الگوریتمها در تصمیمگیریهای مهم و کلیدی در سطح خرد و کلان به چشم میخورد، بهطوری که زندگی و سرنوشت تعداد زیادی از شهروندان در سراسر جهان به الگوریتمهایی وابسته است که متاسفانه چندان شفاف و دارای عملکرد روشنی نیستند. در حال حاضر تصمیمگیریهایی مانند مورد عفو قرار دادن محکومان یا اعطای آزادی مشروط به آنها یا کاهش محکومیتشان یا مواردی همچون وام دادن به افراد و ارائه خدمات و کمکهای اجتماعی به افراد به اتکای الگوریتمهای هوش مصنوعی انجام میشود و چون اغلب این الگوریتمها از شفافیت کافی برخوردار نیستند و غیر از طراحان و سازندگان آنها کمتر کسی در مورد نحوه محاسبه و تصمیمگیری چنین الگوریتمهایی اطلاعات و آگاهی دارد، بنابراین تردیدهای جدی در خصوص عادلانه و منصفانه بودن تصمیمگیریهای انجام شده به اتکای چنین الگوریتمهایی وجود داشته و دارد.
جعبه سیاه عدالت
پیشبینی رفتارهای مجرمانه افراد کاری بسیار سخت و پیچیده است و به همین دلیل هم هست که روانکاوها و متخصصان پزشکی بهدفعات طرف مشورت و نظرخواهی دادگاهها قرار میگیرند تا در مورد این احتمال که یک متهم در آینده مرتکب جرم خواهد شد یا نه اعلام نظر کنند. اما طبق آمار منتشر شده از سوی انجمن روانکاوان آمریکا، از هر سه مورد پیشبینی و اظهارنظر کارشناسی روانکاوان و روانشناسان جرم در آمریکا درخصوص احتمال ارتکاب جرم توسط افراد مورد بررسی، دو مورد اشتباه از آب درآمده است.
علاوه بر این، عوامل دیگری نیز در تصمیمگیری قضات و مقامهای تصمیمگیرنده در خصوص موضوعاتی مانند عفو یا آزادی مشروط تاثیرگذار هستند که بعضی از آنها مضحک و خندهدار بهنظر میرسند. بهعنوان مثال نتایج یک تحقیق در آمریکا نشان داده که شانس مورد عفو قرارگرفتن یا دریافت مجوز آزادی مشروط برای کسانی که پرونده آنها در اوایل ساعات کاری دادگاهها زیر دست قاضی قرار میگیرد بهمراتب بیشتر از پروندههایی است که مثلا سر ظهر و بعد از گذشت چند ساعت از ساعت کار دادگاه زیر دست قاضی خسته و کلافه از فشار کاری قرار میگیرند. به همین دلیل هم هست که بعضیها صحبت از سپردن چنین فعالیتهایی به هوش مصنوعی و الگوریتمها بهجای قضات به میان آوردهاند.
هنگامی که صحبت از قضاوت و تصمیمگیری در مورد پروندههای قضایی به میان میآید پای قضاوتهای نادرست و عجولانه و گاه همراه با جهتگیریهای خاص قضات و کارشناسان امر قضاوت نیز به میان میآید. این قضات انسان هستند و احتمال بروز اشتباه یا سوگیری در آنها وجود دارد. اگر به دههها و سدههای گذشته نگاه کنیم، میبینیم که قضاوتها و تصمیمگیریهای قضایی در مورد برخی افراد بهخصوص افراد فقیر و رنگینپوست و اقلیتهای قومی و مذهبی همراه با بیعدالتی و خطای انسانی همراه بوده و در سالهای اخیر تقاضای زیادی برای ورود هوش مصنوعی و ماشینها و نرمافزارها به موضوع قضاوت مطرح شده است.
از نظر تئوریک، الگوریتمها و ماشینها این قابلیت را دارند که به بهبود و تقویت تصمیمگیریهای قضات کمک کنند و به این دلیل که کاملا بیطرف و بدون سوگیری خاصی عمل میکنند و دچار پیش قضاوت و خصومت فردی و اجتماعی با فرد یا گروه خاصی نیستند، از این توانایی برخوردارند که قضاوتهایی کاملا بیطرفانه و منصفانه داشته باشند. علاوه بر این، هوش مصنوعی و الگوریتمها میتوانند در مدت بسیار کوتاهی و با سرعتی بسیار بیشتر از انسانها به پروندههای قضایی رسیدگی کنند و بهگونهای بینقص و سریع عمل کنند که پس از مدتی ضمن به صفر رساندن پروندههای قضایی بلاتکلیف و از قبل بهجامانده، تمام قضات و وکلا را به بازنشستگی زودتر از موعد بفرستند و در نتیجه شغلی به نام قضاوت و وکالت را به بایگانی تاریخ بفرستند.
هر ساله بیش از ۱۰ میلیون نفر توسط پلیس آمریکا بازداشت و روانه بازداشتگاههای پلیس میشوند و برخی از آنها به صلاحدید قاضی و پلیس و تا زمان برگزاری جلسه دادگاه بهصورت موقت آزاد میشوند. برخی دیگر مجبورند که تا آن زمان همچنان در بازداشت پلیس باقی بمانند. بااین همه بارها و بارها دیده شده که بسیاری از افرادی که آزادی موقتشان با نظر قاضی و پلیس بلامانع اعلام شده بود، پس از آزادی یا فرار کردهاند یا مرتکب جرمهای خطرناکی شدهاند. این امر نشان میدهد قضاوت و تصمیمگیری انسانها در این خصوص اشتباه بوده است. به همین دلیل هم هست که طی چند سال اخیر، تمایل پلیس و سیستم قضایی آمریکا به استفاده از هوش مصنوعی و الگوریتمهایی مانند COMPAS برای تصمیمگیری در مورد آزادی موقت افراد بازداشت شده یا نگه داشتن آنها در بازداشتگاه تا زمان برگزاری دادگاه به میزان چشمگیری افزایش داشته است. اما سوالی که ذهن خیلیها را درگیر خود کرده این است که چه تضمینی وجود دارد الگوریتمها و ماشینها بتوانند بدون خطا و در هر شرایطی بهترین تصمیم ممکن را در مورد آزادی موقت متهمان و به طور کلی در پروندههای قضایی اتخاذ کنند؟ آیا احتمال اشتباه کردن هوش مصنوعی و زندانی شدن یا حتی اعدام افراد بیگناه وجود ندارد؟ و آیا الگوریتمها واقعا میتوانند آینده را بهتر از قضات پیشبینی کنند؟
«اصل دنیای ثابت» به ما میگوید که چون ابهامات و پیچیدگیها در مورد پروندههای قضایی و دلایل پشت پرده وقوع جرائم زیاد است هوش مصنوعی و الگوریتمها نمیتوانند عملکردی بینقص و عالی از خود ارائه دهند و احتمال اشتباهات مهلک و نابخشودنی در این میان وجود دارد.
منبع: کتاب The age of AI: and our human future