В Apple отложили идею сканировать изображения в iPhone

Суббота, 4 сентября 2021, 07:47

Apple отложила планы сканировать изображения пользователей на предмет материалов о сексуальном насилии над детьми перед загрузкой их в облако.

Источник: The Guardian

Детали: Как отмечается, подобное решение следует за негативной реакцией со стороны групп конфиденциальности.

В компании заявили, что "основываясь на отзывах клиентов, правозащитных групп, исследователей и других лиц, мы решили в ближайшие месяцы выделить дополнительное время, чтобы собрать информацию и внести улучшения, прежде чем выпускать эти критически важные функции безопасности детей".

Предыстория:

  • В августе появилась информация, что Apple просканирует изображения и зашифрованные сообщения в iPhone в США на предмет сексуального насилия над детьми.
  • Как сообщалось, последние изменения появятся в этом году как часть обновлений операционного программного обеспечения для iPhone, Mac и Apple Watch.
  • Для этого должны использовать инструмент neuralMatch. Он предназначен для обнаружения известных изображений сексуального насилия над детьми и будет сканировать изображения перед их загрузкой в ​​iCloud. Если neuralMatch найдет совпадение, изображения пересмотрит человек. В случае подтверждения наличия детской порнографии учетную запись отключат и сообщат в Национальный центр пропавших без вести и эксплуатируемых детей. Система обнаружения отмечать только те изображения, которые уже есть в базе данных центра известной детской порнографии.
  • Также Apple планирует сканировать зашифрованные сообщения пользователей на предмет откровенного сексуального содержания в качестве меры безопасности для детей.