❌ Apple отказалась от планов внедрения системы сканирования изображений в iCloud на наличие признаков материалов сексуального насилия над детьми (CSAM).
Во время анонса новых функций безопасности для облачного хранилища техгигант сообщил, что не будет анализировать фотографии. По словам представителя Apple, компания пойдет другим путем для борьбы с незаконным контентом
☝️ По словам экспертов, распространение CSAM-материалов является серьезной проблемой, однако идея техгиганта не подходит для этой работы из-за высоких рисков для конфиденциальности.
forklog.com
#Apple #отслеживание
_______
Источник | #forklogAI
Во время анонса новых функций безопасности для облачного хранилища техгигант сообщил, что не будет анализировать фотографии. По словам представителя Apple, компания пойдет другим путем для борьбы с незаконным контентом
☝️ По словам экспертов, распространение CSAM-материалов является серьезной проблемой, однако идея техгиганта не подходит для этой работы из-за высоких рисков для конфиденциальности.
forklog.com
#Apple #отслеживание
_______
Источник | #forklogAI
ForkLog
Apple отказалась от сканирования iCloud на наличие CSAM-изображений
Компания Apple отказалась от планов внедрения системы сканирования изображений в iCloud на наличие признаков материалов сексуального насилия над детьми (CSAM).