اعتراف وکیل آمریکایی به استفاده از هوش مصنوعی در تحقیقات حقوقی
وکیلی که از این ابزار استفاده کرده، در دادگاه اعلام کرد که از نادرست بودن محتوای ارائه شده از سوی این ابزار، بیاطلاع بوده است. این ادعا در حالی مطرح شد که ChatGPT اگرچه در هر حوزهای و بنا به درخواست کاربر، متن و محتوا تولید میکند، اما پیش از آن، هشدار میدهد که این اطلاعات ممکن است نادرست باشد. در این پرونده، فردی از یک شرکت هواپیمایی شکایت کرده بود که تیم حقوقی وی اعلام کردند در این پرونده، به چند مورد برای پیشبرد آن استناد شده بود که هرگز وجود نداشتند یا نتوانستند آن موارد را پیدا کنند. قاضی دادگاه نیز عنوان کرد: به نظر میرسد شش پرونده از پروندههای ذکر شده، جعلی بوده یا از نقلقولهای نادرست استفاده شده است. در بررسیها مشخص شد که این موارد از سوی یکی از همکاران پیتر لودوکا به نام استیون شوارتز که از وی شکایت شده بود، گردآوری و اضافه شده بود. شوارتز نیز در بیانیه کتبی خود عنوان کرد که لودوکا در این تحقیقات نقشی نداشته و از نحوه انجام این تحقیقات بیاطلاع بوده است.
وی افزود که از اعتماد به چتبات ChatGPT «بسیار متاسف» است. وی همچنین این اطمینان را داد که در آینده هرگز از هوش مصنوعی برای «تکمیل» تحقیقات حقوقی خود بدون تایید صحت آن استفاده نخواهد کرد. اسکرینشاتهای پیوست شده به این پرونده، مکالمه میان شوارتز و هوش مصنوعی ChatGPT را نشان میدهد. در یکی از این پیامها، شوارتز میپرسد که آیا پروندهای که ارائه شده، واقعی است؟ که ChatGPT پاسخ میدهد «بله». سپس از این ابزار خواسته میشود تا منبع خود را اعلام کند که پس از دوبار پرسیدن، این چتبات میگوید که پرونده مذکور واقعی است و میتوان آن را در دیتابیسهایی چون LexisNexis و Westlaw یافت. همچنین ChtGPT در ادامه میگوید تمام پروندههای معرفیشده واقعی هستند.