Apple готова бороться с распространением детской порнографии в iCloud

09.01.2020 14:48

В компании Apple заявили о готовности сканировать фотографии пользователей iPhone.

Разработчики намерены таким образом бороться с насилием над детьми и распространением детской порнографии.

Анализу будет подвергнут весь медиаконтент пользователя на смартфоне, передаваемый через хранилище iCloud.

Для изучения подобных файлов разработан специальный алгоритм.

При этом аккаунты уличенных в хранении детской порнографии пользователей будут принудительно отключены.

Apple

Об этом заявил старший директор Apple в ходе выставке CES 2020.

При этом руководство компании не сообщает о механизмах работы системы.

Некоторые эксперты уже предположили, что с этой целью компания может использовать PhotoDNA.

При помощи хэширования алгоритм отсканирует детали изображения и сравнит его с образцами, характерными для контента, содержащего порнографию.

Сама же Система PhotoDNA была создана специалистами Microsoft еще в 2009 году.

В настоящее время она нашла применение в социальных сетях таких разработчиков, как Facebook, и других IT-компаниях.

Комментируя сторону конфиденциальности информации пользователя, в Apple еще в октябре 2019 года заявили, что компания имеет право на изучение медиаконтента пользователей своих устройств.

В настоящее время известно, что компания обновила раздел политики конфиденциальности на своем сайте, где сообщила об изменениях, направленных на борьбу с незаконным контентом и сексуальной эксплуатацией детей.

Кроме того, в Apple заявили, что используют личную информацию пользователей в целях обеспечения защиты сервисов компании в интересах всех пользователей.

Фото: © Белновости

Игорь Зур Автор: Игорь Зур Редактор интернет-ресурса