В отличие от функции CSAM, которую Apple приостановила в 2021 году, она не предоставляет правоохранительным органам никаких возможностей для обхода безопасности.
В iOS 18.2 Apple добавляет новую функцию, которая возрождает некоторые намерения, лежащие в основе ее приостановленных планов сканирования CSAM — на этот раз без нарушения сквозного шифрования или предоставления правительственных бэкдоров. Впервые развернутая в Австралии, эта функция компании Communication Safety использует машинное обучение на устройстве для обнаружения и размытия обнаженного контента, добавляя предупреждения и требуя подтверждения, прежде чем пользователи смогут продолжить. Если ребенку меньше 13 лет, он не сможет продолжить, не введя пароль Screen Time устройства
Если встроенная система машинного обучения устройства обнаруживает обнаженный контент, функция автоматически размывает фото или видео, отображает предупреждение о том, что контент может быть деликатным, и предлагает способы получения помощи. Среди вариантов — выход из беседы или групповой ветки, блокировка человека и доступ к ресурсам безопасности в Интернете.
Функция анализирует фотографии и видео на iPhone и iPad в сообщениях, AirDrop, Contact Posters (в приложении «Телефон» или «Контакты») и видеосообщениях FaceTime. Кроме того, она будет сканировать «некоторые сторонние приложения», если ребенок выберет фотографию или видео, чтобы поделиться ими.
Поддерживаемые приложения немного различаются на других устройствах. На Mac он сканирует сообщения и некоторые сторонние приложения, если пользователи выбирают контент для обмена через них. На Apple Watch он охватывает сообщения, постеры контактов и видеосообщения FaceTime. Наконец, на Vision Pro функция сканирует сообщения, AirDrop и некоторые сторонние приложения (при тех же условиях, указанных выше).
Для работы функции требуются iOS 18, iPadOS 18, macOS Sequoia или visionOS 2.
The Guardian сообщает, что Apple планирует расширить его по всему миру после суда в Австралии. Компания, вероятно, выбрала страну Down Under по определенной причине: страна собирается ввести новые правила , которые потребуют от Big Tech контролировать насилие над детьми и контент, связанный с терроризмом. В рамках новых правил Австралия согласилась добавить пункт о том, что это будет обязательным только «там, где это технически осуществимо», исключив требование взлома сквозного шифрования и нарушения безопасности. Компаниям необходимо будет выполнить требования к концу года.
Конфиденциальность и безопасность пользователей были в центре споров по поводу печально известной попытки Apple контролировать CSAM. В 2021 году компания подготовилась к внедрению системы, которая будет сканировать изображения сексуального насилия в Интернете , которые затем будут отправляться рецензентам. (Это стало своего рода шоком после истории противостояния Apple ФБР из-за его попыток разблокировать iPhone, принадлежащий террористу .) Эксперты по конфиденциальности и безопасности утверждали, что эта функция откроет бэкдор для авторитарных режимов, чтобы шпионить за своими гражданами в ситуациях без каких-либо эксплуататорских материалов. В следующем году Apple отказалась от этой функции , что привело (косвенно) к более сбалансированной функции безопасности детей, анонсированной сегодня.
После того, как функция станет доступна по всему миру, вы сможете активировать ее в разделе «Настройки» > «Экранное время» > «Безопасность связи» и включить опцию. Этот раздел активирован по умолчанию с iOS 17.