#کودکان 🔸 دفاع اپل از سیاست تازه
#اپل از قابلیتهای جدید محصولاتش برای مقابله با آزار جنسی کودکان دفاع کرد
اپل نگرانیها درباره نقض حریم خصوصی در قابلیتهای جدید محصولاتش را رد کرد و گفت از این بهروزرسانی نرمافزاری همچنان حمایت میکند. به گزارش یورونیوز این شرکت پیشتر گفته بود به منظور حمایت از کودکان و مقابله با پخش تصاویر آزار سوءاستفاده جنسی از آنان، قابلیتهای تازهای را به سیستم عامل گوشیهای خود اضافه میکند که عکسهای رد و بدل شده را تحت نظارت درمیآورد. امری که واکنش منتقدان و سازمانهای حامی حریم خصوصی را در پی داشت. #کریگ_فدریگی، مدیر #نرمافزار اپل، در این باره به وال استریت ژورنال گفت: ما متوجه شدیم که این قضیه به طور کلی اشتباه فهمیده شده است.
وی با بیان اینکه ابزارهای جدید امنیت و محرمانه بودن نرمافزارها و دستگاههای اپل را کمتر نمیکند، گفت: ما در واقع میخواستیم بدون مشاهده عکس افراد، به طریقی متوجه این تصاویر شویم. قبلا هم در این زمینه کارهایی انجام شده است اما ما میخواستیم کارمان با حفظ بسیار بسیار بیشتر حریم خصوصی افراد همراه باشد.
هفته گذشته اپل برای اولین بار از دو قابلیت جدید در #آیپد و #آیفون درآمریکا رونمایی کرده بود. در قابلیت نخست که #نورالمچ (NeuralMatch) نام دارد، تصاویر قبل از بارگذاری روی فضای ذخیرهسازی آنلاین #آیکلود (iCloud) به صورت خودکار #اسکن میشوند. اگر تصویر اسکن شده با یکی از تصاویر پایگاه داده تصاویر پورنوگرافیک کودکان در نرمافزار مطابقت داشت، توسط یک کارشناس اپل مورد بازبینی قرار میگیرد. در صورت تایید پورنوگرافیک بودن عکس، حساب کاربر غیرفعال شده و به مرکز ملی کودکان مفقود و مورد سوء استفاده قرار گرفته اطلاع داده میشود.
در قابلیت دیگر اپل از ابزار زبان ماشین استفاده میکند تا به کودکان و والدین آنها هنگام دریافت یا ارسال تصاویر جنسی در برنامه پیامک اپل هشدار دهد.
اپل میگوید فناوریهای تازه توسط متخصصان #رمزنگاری توسعه یافته و "به شکلی ایمن، دقیقا برای حفظ حریم خصوصی کاربران طراحی شده است."
این غول دنیای فناوری همچنین گفته است از گروههای مورد اعتماد در چندین کشور استفاده میکند تا مطمئن شود جستجوها برای اهداف دیگری دستکاری نشدهاند.
پیشتر شماری از فعالان حوزه رمزگذاری و حفظ #حریمخصوصی گفته بودند که این ابزارها میتواند برای اهداف دیگر مورد سوء استفاده قرار گیرد و به طور بالقوه "درهای پشتی" را برای نفوذ #هکرها یا دولتها به دستگاههای کاربران باز کند.
اپل اعلام کرده است که پیش از این شماری از تقاضاهای دولتی استرداد #اطلاعات را تنها به دلیل احتمال نقض حریم خصوصی کاربران رد کرده است. این شرکت گفت از این پس نیز به درخواست هیچ دولتی برای اسکن موارد دیگری به جز تصاویر آزار جنسی کودکان جواب مثبت نخواهد داد.
در روزهای پیشین ۷ هزار و ۷۰۰ نفر از فعالان حوزه امنیت آنلاین، از جمله #ادوارد_اسنودن پیمانکار سابق آژانس امنیت ملی آمریکا، در نامهای از اپل خواسته بودند این قابلیتها را به دستگاههای خود اضافه نکند.
در این نامه آمده بود: مسیر فعلی اپل تهدیدی برای تضعیف دههها فعالیت تکنسینها، دانشگاهیان و فعالان سیاسی در جهت حفظ امنیت حریم خصوصی است.
#اپل از قابلیتهای جدید محصولاتش برای مقابله با آزار جنسی کودکان دفاع کرد
اپل نگرانیها درباره نقض حریم خصوصی در قابلیتهای جدید محصولاتش را رد کرد و گفت از این بهروزرسانی نرمافزاری همچنان حمایت میکند. به گزارش یورونیوز این شرکت پیشتر گفته بود به منظور حمایت از کودکان و مقابله با پخش تصاویر آزار سوءاستفاده جنسی از آنان، قابلیتهای تازهای را به سیستم عامل گوشیهای خود اضافه میکند که عکسهای رد و بدل شده را تحت نظارت درمیآورد. امری که واکنش منتقدان و سازمانهای حامی حریم خصوصی را در پی داشت. #کریگ_فدریگی، مدیر #نرمافزار اپل، در این باره به وال استریت ژورنال گفت: ما متوجه شدیم که این قضیه به طور کلی اشتباه فهمیده شده است.
وی با بیان اینکه ابزارهای جدید امنیت و محرمانه بودن نرمافزارها و دستگاههای اپل را کمتر نمیکند، گفت: ما در واقع میخواستیم بدون مشاهده عکس افراد، به طریقی متوجه این تصاویر شویم. قبلا هم در این زمینه کارهایی انجام شده است اما ما میخواستیم کارمان با حفظ بسیار بسیار بیشتر حریم خصوصی افراد همراه باشد.
هفته گذشته اپل برای اولین بار از دو قابلیت جدید در #آیپد و #آیفون درآمریکا رونمایی کرده بود. در قابلیت نخست که #نورالمچ (NeuralMatch) نام دارد، تصاویر قبل از بارگذاری روی فضای ذخیرهسازی آنلاین #آیکلود (iCloud) به صورت خودکار #اسکن میشوند. اگر تصویر اسکن شده با یکی از تصاویر پایگاه داده تصاویر پورنوگرافیک کودکان در نرمافزار مطابقت داشت، توسط یک کارشناس اپل مورد بازبینی قرار میگیرد. در صورت تایید پورنوگرافیک بودن عکس، حساب کاربر غیرفعال شده و به مرکز ملی کودکان مفقود و مورد سوء استفاده قرار گرفته اطلاع داده میشود.
در قابلیت دیگر اپل از ابزار زبان ماشین استفاده میکند تا به کودکان و والدین آنها هنگام دریافت یا ارسال تصاویر جنسی در برنامه پیامک اپل هشدار دهد.
اپل میگوید فناوریهای تازه توسط متخصصان #رمزنگاری توسعه یافته و "به شکلی ایمن، دقیقا برای حفظ حریم خصوصی کاربران طراحی شده است."
این غول دنیای فناوری همچنین گفته است از گروههای مورد اعتماد در چندین کشور استفاده میکند تا مطمئن شود جستجوها برای اهداف دیگری دستکاری نشدهاند.
پیشتر شماری از فعالان حوزه رمزگذاری و حفظ #حریمخصوصی گفته بودند که این ابزارها میتواند برای اهداف دیگر مورد سوء استفاده قرار گیرد و به طور بالقوه "درهای پشتی" را برای نفوذ #هکرها یا دولتها به دستگاههای کاربران باز کند.
اپل اعلام کرده است که پیش از این شماری از تقاضاهای دولتی استرداد #اطلاعات را تنها به دلیل احتمال نقض حریم خصوصی کاربران رد کرده است. این شرکت گفت از این پس نیز به درخواست هیچ دولتی برای اسکن موارد دیگری به جز تصاویر آزار جنسی کودکان جواب مثبت نخواهد داد.
در روزهای پیشین ۷ هزار و ۷۰۰ نفر از فعالان حوزه امنیت آنلاین، از جمله #ادوارد_اسنودن پیمانکار سابق آژانس امنیت ملی آمریکا، در نامهای از اپل خواسته بودند این قابلیتها را به دستگاههای خود اضافه نکند.
در این نامه آمده بود: مسیر فعلی اپل تهدیدی برای تضعیف دههها فعالیت تکنسینها، دانشگاهیان و فعالان سیاسی در جهت حفظ امنیت حریم خصوصی است.