اپل آیفون های آمریکایی را برای تصاویر سوء استفاده جنسی از کودکان اسکن می کند

سپتامبر 10, 2021 by بدون دیدگاه

اپل از برنامه های خود برای اسکن آیفون های آمریکایی برای یافتن تصاویری از سوء استفاده جنسی از کودکان پرده برداشت ، با تشویق گروه های حامی کودکان اما نگرانی برخی از محققان امنیتی را در مورد سوء استفاده از این سیستم ، از جمله دولت هایی که به دنبال بازرسی شهروندان خود هستند ، افزایش داد. [[19659002] ابزاری که برای شناسایی تصاویر شناخته شده از سوء استفاده جنسی از کودکان طراحی شده است ، به نام "NeuralHash" ، تصاویر را قبل از بارگذاری در iCloud اسکن می کند. اگر مطابقت پیدا کند ، تصویر توسط یک انسان بررسی می شود. در صورت تأیید پورنوگرافی کودکان ، حساب کاربر غیرفعال می شود و مرکز ملی کودکان مفقودالاثر و استثمار شده به آن اطلاع می دهد.

به طور جداگانه ، اپل قصد دارد پیامهای رمزگذاری شده کاربران را برای محتویات جنسی واضح به عنوان یک اقدام ایمنی برای کودکان اسکن کند ، که این امر همچنین هواداران حریم خصوصی را نیز نگران کرد. به احتمالاً والدینی که عکس های بی گناهی از کودک در حمام می گیرند ، نگران نباشند. اما محققان می گویند ابزار تطبیق – که چنین تصاویری را "نمی بیند" ، بلکه "اثر انگشت" ریاضی که آنها را نشان می دهد – می تواند برای اهداف بدتری انجام شود. که می توان از این سیستم برای ارسال افراد بی گناه با ارسال تصاویری به ظاهر بی ضرر که برای ایجاد مسابقه برای پورنوگرافی کودکان طراحی شده اند ، استفاده کرد. این می تواند الگوریتم اپل را فریب دهد و به اجرای قانون هشدار دهد. او درباره توانایی فریب دادن چنین سیستم هایی گفت: "محققان به راحتی این کار را انجام دادند."

سایر سوء استفاده ها می تواند شامل نظارت دولت بر مخالفان یا معترضان باشد. گرین پرسید: "چه اتفاقی می افتد وقتی دولت چین می گوید:" در اینجا لیستی از پرونده هایی است که ما می خواهیم شما آنها را اسکن کنید. " "آیا اپل نه می گوید؟ امیدوارم که آنها نه بگویند ، اما فناوری آنها نه خواهد گفت. اپل از این موارد برای اسکن فایل های کاربر ذخیره شده در سرویس iCloud خود ، که به اندازه داده های دستگاهش رمزگذاری نشده است ، برای پورنوگرافی کودکان استفاده کرده است.

اپل سالها تحت فشار دولت بوده است تا امکان نظارت بیشتر بر داده های رمزگذاری شده را فراهم کند. با اتخاذ تدابیر امنیتی جدید ، اپل ملزم به انجام تعادل ظریف بین سرکوب استثمار کودکان و حفظ تعهد برجسته خود برای حفظ حریم خصوصی کاربران شد. ] پیشگام آزادی های مدنی آنلاین ، مصالحه اپل در زمینه حفاظت از حریم خصوصی "چهره ای تکان دهنده برای کاربرانی است که در حفظ حریم خصوصی و امنیت به رهبری این شرکت اعتماد کرده اند".

در همین حال ، دانشمند رایانه ای که بیش از یک دهه پیش PhotoDNA را اختراع کرد ، فناوری که توسط نیروی انتظامی برای شناسایی پورنوگرافی کودکان به صورت آنلاین استفاده می شود ، احتمال سوء استفاده از سیستم اپل را پذیرفت ، اما گفت که این امر با ضرورت مبارزه با جنسیت کودکان بسیار بیشتر از آن برتری دارد. سوء استفاده.

"آیا ممکن است؟ البته. اما آیا چیزی است که من نگران آن هستم؟ نه ، "هانی فرید ، محقق در دانشگاه کالیفرنیا در برکلی ، می گوید که بسیاری از برنامه های دیگر که برای محافظت از دستگاه ها در برابر تهدیدات مختلف طراحی شده اند ،" این نوع ماموریت را تجربه نکرده اند ". به عنوان مثال ، واتس اپ برای محافظت از حریم خصوصی خود رمزگذاری سرتاسری را در اختیار کاربران قرار می دهد ، اما از سیستمی برای تشخیص بدافزارها و هشدار به کاربران برای عدم کلیک روی لینک های مضر استفاده می کند.

اپل یکی از اولین شرکت های بزرگ بود که از آن استقبال کرد. رمزگذاری end-to-end ”، که در آن پیامها به هم ریخته شده اند به طوری که فقط فرستندگان و گیرندگان آنها می توانند آنها را بخوانند. با این حال ، مجریان قانون مدتهاست که شرکت را برای دسترسی به این اطلاعات تحت فشار قرار می دهند تا جنایاتی مانند تروریسم یا استثمار جنسی کودکان را مورد بررسی قرار دهند. آیفون ، مک و ساعتهای اپل.

جان کلارک ، رئیس و مدیرعامل مرکز ملی کودکان مفقود و استثمار شده ، در بیانیه ای گفت: "حمایت گسترده اپل از کودکان تغییر می کند." با توجه به تعداد زیادی از افرادی که از محصولات اپل استفاده می کنند ، این اقدامات ایمنی جدید قابلیت نجات برای کودکان را دارد. "

جولیا کوردوآ ، مدیرعامل Thorn ، گفت که فناوری اپل "نیاز به حفظ حریم خصوصی را با امنیت دیجیتالی برای کودکان" متعادل می کند. Thorn ، یک موسسه غیرانتفاعی است که توسط دمی مور و اشتون کوچر تأسیس شده است ، از فناوری برای شناسایی کودکان در برابر سوء استفاده جنسی با شناسایی قربانیان و همکاری با سیستم عامل های فناوری استفاده می کند.

اما مرکز غیر انتفاعی دموکراسی و فناوری مستقر در واشنگتن در انتقادی تاول آمیز از اپل خواست تا تغییرات را کنار بگذارد ، که به گفته وی ضمانت شرکت "رمزگذاری سرتاسری" را از بین می برد. اسکن پیام ها برای محتویات جنسی در تلفن ها یا رایانه ها به طور م theثری امنیت را از بین می برد.

این سازمان همچنین فناوری اپل را برای تمایز بین محتوای خطرناک و چیزی که به عنوان هنر یا میم رام است زیر سوال برد. CDT در بیانیه ای از طریق ایمیل گفت که چنین فناوری هایی به طور مشهور مستعد خطا هستند. اپل این تغییرات را به عنوان یک در پشتی می داند که رمزگذاری آن را تضعیف می کند. این اپلیکیشن می گوید که آنها با دقت در نظر گرفته شده اند که حریم خصوصی کاربران را مختل نمی کند بلکه از آن محافظت می کند. والدین کودکان خردسال از طریق پیام کوتاه همچنین گفته می شود وقتی کاربران سعی می کنند موضوعات مربوط به سوء استفاده جنسی از کودکان را جستجو کنند ، نرم افزار آن "مداخله می کند".

برای دریافت هشدارها در مورد تصاویر جنسی واضح در دستگاه های فرزندان خود ، والدین باید تلفن فرزند خود را ثبت نام کنند. کودکان بالای 13 سال می توانند ثبت نام خود را لغو کنند ، به این معنی که والدین نوجوان اطلاعیه ای دریافت نمی کنند.

اپل گفت هیچ یک از این ویژگیها امنیت ارتباطات خصوصی را به خطر نمی اندازد و به پلیس اطلاع نمی دهد.

___

نویسنده فناوری AP ، مایک لیتکه در این مقاله مشارکت کرد.

.