Apple начала сканировать фотографии пользователей для борьбы c детской порнографией

0
381
views

Apple сканирует каждую фотографию, загруженную в iCloud, чтобы выявлять случаи незаконной эксплуатации и сексуального насилия над детьми. Об этом представители компании заявили в ходе выступления на выставке CES 2020.

«Соответствующие изменения в политику конфиденциальности Apple внесла в 2019 году. С тех пор все изображения, попадающие в онлайн-хранилище iCloud, проверяются на предмет любых незаконных действий, в том числе на случаи жестокого обращения с детьми.

Мы стремится защищать детей в своей экосистеме, где бы они не находились, и продолжаем вводить инновации в этой области. Apple применяет уникальный алгоритм автоматического сканирования, который использует идентифицированные ранее изображения детской эксплуатации для проверки фотографий, хранящихся в iCloud. Все учетные записи с незаконным контентом, который нарушает наши условия обслуживания, подлежат незамедлительному отключению» — говорит Джейн Хорват, директор по конфиденциальности Apple.

Руководитель не вдавался в подробности, как именно называется программное обеспечение, которое использует Apple. Но похоже, что речь идет о разработанной Microsoft технологии PhotoDNA, которая также используется Facebook, Twitter и Google.

В тему: Новые рендеры демонстрируют настоящий дизайн iPhone SE 2

ПОДЕЛИТЬСЯ

ОСТАВЬТЕ ОТВЕТ

Please enter your comment!
Please enter your name here