03.09.2021 23:08
Разное

Apple отложила запуск проверки контента для iPhone на детское порно

Apple сообщила, что отложит выпуск инструментов для проверки iPhone на наличие изображений с детской порнографией на фоне опасений по поводу того, что новый софт может создать для пользователей более масштабные риски в сфере защиты персональных данных. Сообщение компании цитирует Apple Insider.

В письмах к журналистам компания объяснила, что это реакция на критику ее плана, о котором было объявлено в августе.

Apple планировала запустить систему, которая способна распознавать изображения с детской порнографией, а затем оповещать компанию, если подобные изображения были загружены в облачный сервис iCloud, через обновление программного обеспечения iPhone.

Apple утверждает, что программа не нарушает законодательство о защите персональных данных и что другие провайдеры облачных сервисов, стремящиеся не допустить наличие подобных изображений, используют технологию, которая сканирует все данные пользователей, в то время как Apple нашла способ анализировать только тот контент, который подпадает под понятие запрещенного. Система Apple не будет маркировать подобным образом контент, который не был загружен в облачный сервис.

Эксперты в области персональных данных опасаются, что новая система свидетельствует об ослаблении требований Apple в сфере защиты данных, пишет The Wall Street Journal.

"С учетом отзывов клиентов, правозащитных организаций, исследователей и других заинтересованных лиц, мы решили взять дополнительное время в течение ближайших месяцев, чтобы собрать информацию и внести улучшения перед тем, как выпустить эти крайне важные инструменты для безопасности детей", - говорится в сообщении Apple. При этом компания не уточняет, когда станут доступны эти обновления.