اپل به نگرانی‌ها درباره اسکن تصاویر مرتبط با سو‌ء‌استفاده کودکان پاسخ داد - تکفارس 
اپل به نگرانی‌ها درباره اسکن تصاویر مرتبط با سو‌ء‌استفاده کودکان پاسخ داد - تکفارس 

اپل به نگرانی‌ها درباره اسکن تصاویر مرتبط با سو‌ء‌استفاده کودکان پاسخ داد

افشین نوری
۱۹ مرداد ۱۴۰۰ - 11:27
اپل

اپل به‌تازگی بخش سوالات متدوال (FAQ) خود به‌روز کرده تا به سوالات و نگرانی‌هایی که درباره احتمال تبدیل شدن قابلیت‌های جدید این شرکت برای مقابله با سوء‌استفاده کودکان، به ابزاری در دست دولت‌ها برای کنترل شهروندان وجود دارد، پاسخ دهد.

اپل با انتشار بیانیه‌ای گفته است:

اجازه دهید شفاف باشیم؛ قابلیت‌های جدید ما تنها محدود به شناسایی تصاویر مربوط به سوء‌استفاده جنسی از کودکان که در سرویس آی‌کلود (iCloud) ذخیره شده‌اند خواهد شد و ما به درخواست هیچ دولتی برای توسعه این قابلیت‌ها تن نخواهیم داد.

مطالب مرتبط:

ابزارهای جدید اپل که هفته گذشته معرفی شدند، شامل دو قابلیت جدید می‌شوند که برای محافظت از کودکان طراحی شده است. یکی از این قابلیت‌ها “Communication safety” نام دارد که از فناوری یادگیری ماشین برای شناسایی و تار کردن عکس‌های غیراخلاقی استفاده می‌کند که کودکان در اپلیکیشن Messages دریافت می‌کنند. این قابلیت می‌تواند این موضوع ا در صورتی که سن کودک کمتر از ۱۲ سال باشد به والدین او اطلاع دهد. اما قابلیت دوم، ابزاری است که برای اسکن و شناسایی تصاویر سوء‌استفاده جنسی از کودکان که در سرویس آی‌کلود آپلود و ذخیره شده‌اند استفاده می‌شود. اپل گفته است که در صورت برخورد با چنین مواردی بلافاصله آن‌ها را به پلیس گزارش خواهد داد.

قابلیت‌های جدید اپل، واکنش‌هایی را در بین گروه‌های فعال در زمینه حریم خصوصی افراد برانگیخته است. این گروه‌ها معتقدند که این قابلیت‌ها می‌توانند راه‌های میانبری برای اپل ایجاد کنند تا از آن‌ها برای اسکن هر نوع محتوایی که ورای تصاویر مربوط به سوء‌استفاده از کودکان است استفاده کند. ضمن اینکه، دولت‌ها نیز می‌توانند از این روش برای شناسایی مخالفان خود استفاده کنند.

اپل به نگرانی‌ها درباره اسکن تصاویر مرتبط با سو‌ء‌استفاده کودکان پاسخ داد - تکفارس 

وب‌سایت Electronic Frontier Foundation درباره این موضوع نوشته است:

هر راه میانبری هرچقدر هم که مطمئن و امن باشد، درهرحال یک راه میانبر است و می‌تواند مورد سوء‌استفاده افراد قرار بگیرد. ما قبلاً‌ موارد مشابهی را مشاهده کرده‌ایم. برای مثال، فناوری‌هایی که قرار بود برای اسکن و شناسایی عکس‌های مرتبط با سوء‌استفاده جنسی از کودکان استفاده شوند، تبدیل به دیتابیسی برای تروریست‌ها شدند.

با این‌حال، اپل می‌گوید که راهکارهایی برای جلوگیری از سوء‌استفاده از قابلیت‌های جدیدش دارد و لیست تصاویری که این قابلیت‌ها آن‌ها را شناسایی خواهند کرد، منحصراً توسط مرکز ملی کودکان مفقود و مورد سوء‌استفاده‌ قرارگرفته (NCMEC) و سایر سازمان‌های مرتبط با این موضوع تامین خواهد شد و هیچ تصویری غیر از موارد سوء‌استفاده از کودکان مورد اسکن قرار نخواهد گرفت.

اپل همچنین گفته است که این شرکت درخواست‌ دولت‌ها برای اضافه کردن تصاویری به غیر از موارد سوء‌استفاده از کودکان به لیست مذکور را رد خواهد کرد. اپل در بیانیه خود گفته است:

ما با درخواست‌های متعددی از سوی دولت‌ها مواجه هستیم که خواهان دسترسی به حریم خصوصی افراد هستند. اما ما همواره این درخواست‌ها را رد کرده‌ایم و در آینده نیز این کار را خواهیم کرد.

البته با وجود این صحبت‌های اپل، باید اشاره کنیم که این شرکت قبلاً برای اینکه بتواند در برخی کشورها به فعالیت خود ادامه دهد، توافق‌هایی با دولت‌های این کشورها داشته است. این شرکت همچنین اقدام به فروش آیفون بدون قابلیت فیس‌تایم در کشورهایی کرده که اجازه تماس‌های تلفنی رمزگذاری‌شده را نمی‌دادند. اپل همچنین در کشور چین صدها اپلیکیشن را از اپ استور خود حذف کرده و اقدام به ذخیره داده‌های کاربران در سرورهای داخلی این کشور کرده است.

از طرفی، بخش سوالات متدوال اپل، هیچ اشاره‌ای به نحوه اطلاع‌رسانی موارد سوء‌استفاده از کودکان به نیروهای پلیس نکرده است. موسسه EFF در مطلبی نوشته است: همه این اقدامات اپل باعث اضافه شدن راه‌های میانبر جدیدی برای دسترسی به اطلاعات شخصی افراد می‌شود و فناوری یادگیری ماشین این قابلیت را دارد که محتواهای دیگری را نیز جستجو و دسته‌بندی کند.

منبع: The Verge

مطالب مرتبط سایت

نظرات

دیدگاهتان را بنویسید