برنامه جدید اپل برای ردیابی تصاویر کودک آزاری

آی‌سی‌تی نیوز – اپل برای کمک به نیروهای مجری قانون و ردیابی تصاویر کودک آزاری قابلیت جدیدی را راه اندازی می کند که عکس ها را قبل از آپلود شدن در آی کلود بررسی می کند.

به گزارش خبرگزاری مهر به نقل از رویترز، اپل روز گذشته اعلام کرد در آمریکا سیستمی را برای کنترل تصاویر آیفون‌ها قبل از آپلود شدن در آی کلود راه اندازی می‌کند تا تضمین شود آنها با عکس‌های شناخته شده کودک آزاری مطابقت ندارند.

ردیابی آپلود تصاویر کودک آزاری برای محافظت در برابر ردیابی اشتباه تصاویر غیرقانونی کارآمد است و به بازبینی محتوا توسط انسان و گزارش کاربر به نیروی مجری قانون منجر می‌شود.

این شرکت ادعا می‌کند سیستم را طوری طراحی کرده تا تعداد تصاویری که به اشتباه کودک آزاری تلقی می‌شود، به یک در یک هزار میلیارد عکس کاهش یابد.

سیستم جدید اپل در پاسخ به در خواست مجریان قانون برای ریشه یابی آزار کودکان و با توجه به حفظ حریم خصوصی و امنیت افراد ایجاد شده است. البته برخی حامیان حریم خصوصی معتقدند چنین سیستمی مسیر را برای ردیابی محتوای سیاسی یا غیره در آیفون باز می‌کند.

این درحالی است که بسیاری از شرکت‌های بزرگ فناوری دیگر از جمله گوگل، فیس بوک و مایکروسافت تصاویر کاربران را با مخزنی از تصاویر کودک آزاری مقایسه و کنترل می‌کنند.

شیوه کارکرد سیستم اپل به این گونه است؛ مقامات پلیس مخزنی از تصاویر کودک آزاری شناخته شده را در اختیار دارند که آنها را به کدهای عددی (hash) تبدیل می‌کنند تا شناسایی شوند. اما نمی‌توان از این کدها برای بازسازی تصاویر استفاده کرد.

اپل با استفاده از فناوری به نام Neural Hash مخزن تصاویر مجریان قانون از کودک آزاری را اجرا کرده است. دیگر هدف از این اقدام ردیابی تصاویر ادیت شده و مشابه نمونه‌های اصلی است. این مخزن روی آیفون‌ها ذخیره می‌شود.

هنگامیکه کاربری تصویری را در آی کلود ذخیره می‌کند آیفون یک کد عددی از تصویر می‌سازد تا آن را با مخزن داده مذکور مقایسه کند.

تصاویر ذخیره شده در آیفون فرد کنترل نمی‌شود و بازبینی محتوا توسط کارمند انسانی قبل از اطلاع به پلیس برای تضمین صحت فرایند قبل از تعلیق حساب کاربری فرد است.

به گفته اپل کاربرانی که احساس کنند حساب کاربری آنها بدون دلیل تعلیق شده می‌توانند به این امر اعتراض کنند.


ممکن است شما هم دوست داشته باشید
پاسخ دهید

Your email address will not be published.