راهحل اوپنایآی برای کاهش سوءاستفاده از مدلهای هوش مصنوعی

به گزارش تککرانچ، در صفحه پشتیبانی آمده است که فرآیند تایید به نام سازمان، روش جدیدی برای توسعهدهندگان برای باز کردن قفل دسترسی به پیشرفتهترین مدلها و قابلیتها در پلتفرم اوپنایآی است. راستیآزمایی به یک شناسه دولتی از یکی از کشورهایی نیاز دارد که توسط API اوپنایآی پشتیبانی میشود. به گفته اوپنایآی، شناسه تنها میتواند هر ۹۰ روز یک سازمان را تایید کند و همه سازمانها واجد شرایط تایید نیستند.
در صفحه پشتیبانی آمده است: «ما در اوپنایآی مسوولیت خود را جدی میگیریم تا اطمینان حاصل کنیم که هوش مصنوعی هم بهطور گسترده در دسترس است و هم با خیال راحت استفاده میشود. متاسفانه اقلیت کوچکی از توسعهدهندگان عمدا از APIهای اوپنایآی در جهت مخالف خطمشی ما استفاده میکنند. ما در حال اضافه کردن فرآیند تایید برای کاهش استفاده ناامن از هوش مصنوعی هستیم و در عین حال به ارائه مدلهای پیشرفته برای جامعه توسعهدهندگان گستردهتر ادامه میدهیم.»
این فرآیند جدید تایید میتواند برای تقویت امنیت در محصولات اوپنایآی به دلیل پیچیدهتر شدن و توانمندتر شدن آنها باشد. اوپنایآی چندین گزارش را درباره تلاشهای خود برای شناسایی و از مدلهای این شرکت منتشر کرده است. همچنین این کار ممکن است با هدف جلوگیری از سرقت IP صورت گرفته باشد. براساس گزارش بلومبرگ، در اوایل سال جاری اوپنایآی در حال بررسی این موضوع بود که آیا یک گروه مرتبط با شرکت چینی دیپسیک در اواخر سال ۲۰۲۴ مقادیر زیادی داده را احتمالا برای آموزش مدلهای خود از طریق API آن استخراج کرده و شرایط اوپنایآی را نقض کرده است یا خیر. اوپنایآی تابستان گذشته دسترسی به خدمات خود را در چین مسدود کرد.