راه‌حل اوپن‌ای‌آی برای کاهش سوءاستفاده از مدل‌های هوش مصنوعی

به گزارش تک‌کرانچ، در صفحه پشتیبانی آمده است که فرآیند تایید به نام سازمان، روش جدیدی برای توسعه‌دهندگان برای باز کردن قفل دسترسی به پیشرفته‌ترین مدل‌ها و قابلیت‌ها در پلتفرم اوپن‌ای‌آی است. راستی‌آزمایی به یک شناسه دولتی از یکی از کشورهایی نیاز دارد که توسط API اوپن‌ای‌آی پشتیبانی می‌شود. به گفته اوپن‌ای‌آی، شناسه تنها می‌تواند هر ۹۰ روز یک سازمان را تایید کند و همه سازمان‌ها واجد شرایط تایید نیستند.

در صفحه پشتیبانی آمده است: «ما در اوپن‌ای‌آی مسوولیت خود را جدی می‌گیریم تا اطمینان حاصل کنیم که هوش مصنوعی هم به‌طور گسترده در دسترس است و هم با خیال راحت استفاده می‌شود. متاسفانه اقلیت کوچکی از توسعه‌دهندگان عمدا از APIهای اوپن‌ای‌آی در جهت مخالف خط‌مشی‌ ما استفاده می‌کنند. ما در حال اضافه کردن فرآیند تایید برای کاهش استفاده ناامن از هوش مصنوعی هستیم و در عین حال به ارائه مدل‌های پیشرفته برای جامعه توسعه‌دهندگان گسترده‌تر ادامه می‌دهیم.» 

این فرآیند جدید تایید می‌تواند برای تقویت امنیت در محصولات اوپن‌ای‌آی به دلیل پیچیده‌تر شدن و توانمندتر شدن آنها باشد. اوپن‌ای‌آی چندین گزارش را درباره تلاش‌های خود برای شناسایی و از مدل‌های این شرکت منتشر کرده است. همچنین این کار ممکن است با هدف جلوگیری از سرقت IP صورت گرفته باشد. براساس گزارش بلومبرگ، در اوایل سال جاری اوپن‌ای‌آی در حال بررسی این موضوع بود که آیا یک گروه مرتبط با شرکت چینی دیپ‌سیک در اواخر سال ۲۰۲۴ مقادیر زیادی داده را احتمالا برای آموزش مدل‌های خود از طریق API آن استخراج کرده و شرایط اوپن‌ای‌آی را نقض کرده است یا خیر. اوپن‌ای‌آی تابستان گذشته دسترسی به خدمات خود را در چین مسدود کرد.