قابلیت اپل برای ردیابی تصاویر کودک آزاری
ردیابی آپلود تصاویر کودکآزاری برای محافظت در برابر ردیابی اشتباه تصاویر غیرقانونی کارآمد است و به بازبینی محتوا توسط انسان و گزارش کاربر به نیروی مجری قانون منجر میشود. این شرکت ادعا میکند سیستم را طوری طراحی کرده تا تعداد تصاویری که به اشتباه کودک آزاری تلقی میشود، به یک در یک هزار میلیارد عکس کاهش یابد. سیستم جدید اپل در پاسخ به درخواست مجریان قانون برای ریشهیابی آزار کودکان و با توجه به حفظ حریم خصوصی و امنیت افراد ایجاد شده است. البته برخی حامیان حریم خصوصی معتقدند چنین سیستمی مسیر را برای ردیابی محتوای سیاسی یا موارد دیگر در آیفون باز میکند. این درحالی است که بسیاری از شرکتهای بزرگ فناوری دیگر از جمله گوگل، فیسبوک و مایکروسافت تصاویر کاربران را با مخزنی از تصاویر کودکآزاری مقایسه و کنترل میکنند.
شیوه کارکرد سیستم اپل اینگونه است؛ مقامات پلیس مخزنی از تصاویر کودک آزاری شناخته شده را در اختیار دارند که آنها را به کدهای عددی (hash) تبدیل میکنند تا شناسایی شوند. اما نمیتوان از این کدها برای بازسازی تصاویر استفاده کرد. اپل با استفاده از فناوری به نام Neural Hash مخزن تصاویر مجریان قانون از کودک آزاری را اجرا کرده است. دیگر هدف از این اقدام ردیابی تصاویر ادیت شده و مشابه نمونههای اصلی است. این مخزن روی آیفونها ذخیره میشود. هنگامی که کاربری تصویری را در آیکلود ذخیره میکند، آیفون یک کد عددی از تصویر میسازد تا آن را با مخزن داده مذکور مقایسه کند. تصاویر ذخیره شده در آیفون فرد کنترل نمیشود و بازبینی محتوا توسط کارمند انسانی قبل از اطلاع به پلیس برای تضمین صحت فرآیند قبل از تعلیق حساب کاربری فرد است. به گفته اپل کاربرانی که احساس کنند حساب کاربری آنها بدون دلیل تعلیق شده میتوانند به این امر اعتراض کنند.