Эллипс 1Shape 1Forma 1Прямоугольник 6 копияBTCForma 1 копия 2Прямоугольник 9Forma 1Эллипс 1Shape 1Shape 1Эллипс 1Эллипс 1Эллипс 1Эллипс 1SettingsForma 1Эллипс 1Forma 1Эллипс 1Эллипс 1× копия 4Эллипс 1Эллипс 2$Эллипс 1Эллипс 1ICQЭллипс 1Эллипс 1Эллипс 1LogoForma 1Forma 1Эллипс 1Эллипс 4Forma 1%Эллипс 1+Forma 1Эллипс 1Эллипс 3Эллипс 1Эллипс 1Эллипс 1Эллипс 1Эллипс 1*Эллипс 1WebMoneyЭллипс 1Forma 1
  • RU
  • EN
Ваш IP: 3.237.16.210

Новости

Создатели CSAM призывают Apple не использовать опасную технологию

Исследователи бьют тревогу по поводу технологии, лежащей в основе планов Apple сканировать библиотеки фотографий пользователей iPhone.

Исследователи Принстонского университета — доцент Джонатан Майер и аспирант Анунай Кулшреста — рассказали о создании системы обнаружения контента, к которому относятся изображения сексуального характера (CSAM — child sexual abuse material). Ранее аналогичную систему в целях детской безопасности запустила Apple.

Как сообщается, ученым после тщательного изучения вопроса удалось создать рабочий прототип такой системы. Однако после этого они обнаружили в ней серьезный неустранимый недостаток. Путем замены базы данных систему можно было работать в качестве инструмента цензуры и слежки.

При этом сами алгоритмы таковы, что невозможно сделать так, чтобы они работали только с контентом CSAM, всегда остается возможность для перестройки системы на любой другой контент.

Apple продолжает устранять обеспокоенность пользователей по поводу своих планов, публикуя дополнительные документы и страницу часто задаваемых вопросов. Apple по-прежнему считает, что ее система обнаружения CSAM, которая будет работать на устройстве пользователя, согласуется с ее давними ценностями конфиденциальности.