После целой недели критики по поводу новой системы обнаружения фотографий сексуального насилия над детьми (CSAM) Apple заявила в пятницу, что будет искать только те изображения, которые были отмечены информационными центрами в различных странах.
Изначально Apple не подтвердила, сколько совпадающих изображений на телефоне или компьютере должно быть найдено, прежде чем операционная система уведомит Apple о необходимости проверке человека и возможном сообщении властям. В пятницу Apple подтвердила изначально порог установлен на 30 изображениях, однако по мере улучшения работы системы это число может быть уменьшено.
Читайте также: Новости России
Apple также опровергла предположение, что новый механизм может быть использован для нацеливания на отдельных лиц: список идентификаторов изображений универсален и будет одинаковым для любого устройства, к которому он будет применяться.
Apple также пояснила, что новая система создает на устройстве зашифрованную хэш-базу данных материалов с сексуальным насилием над детьми, полученную не менее чем от двух или более организаций, работающих под патронажем отдельных национальных правительств.
Apple признала, что плохо справилась с объяснением новой стратегии, что вызвало негативную реакцию влиятельных групп, занимающихся политикой в области технологий, и даже собственных сотрудников, обеспокоенных тем, что компания ставит под угрозу свою репутацию в плане защиты конфиденциальности потребителей.
Apple отказалась сообщить, повлияла ли эта критика на какие-либо политики или программное обеспечение, но заявила, что проект все еще находится в разработке и ещё подвергнется изменениям.