Організація з моніторингу безпеки дітей звинувачує Apple у приховуванні реальних даних про CSAM

Організація з захисту дітей заявляє, що виявила більше випадків зображень насильства на платформах Apple у Великобританії, ніж Apple повідомила глобально.

У 2022 році Apple відмовилася від своїх планів щодо виявлення матеріалів сексуального насильства над дітьми (CSAM) після звинувачень, що це в кінцевому результаті буде використовуватися для нагляду за всіма користувачами. Компанія перейшла до набору функцій, які вона називає Communication Safety, що розмиває зображення оголених, відправлених дітям.

Згідно з газетою The Guardian, Національне товариство попередження жорстокого поводження з дітьми (NSPCC) Великобританії заявляє, що Apple значно недооцінює випадки CSAM в таких сервісах, як iCloud, FaceTime та iMessage. Всі американські технологічні компанії зобов'язані повідомляти про виявлені випадки CSAM до Національного центру зниклих безвісти та експлуатованих дітей (NCMEC), і в 2023 році Apple зробила 267 повідомлень.

Ці повідомлення нібито стосувалися виявлення CSAM глобально. Але NSPCC Великобританії незалежно виявила, що Apple була залучена в 337 правопорушень з квітня 2022 року по березень 2023 року — лише в Англії та Уельсі.

"Існує тривожний розрив між кількістю випадків зображень насильства над дітьми у Великобританії, що відбуваються на сервісах Apple, і майже нікчемною кількістю глобальних повідомлень про вміст насильства, які вони роблять до органів влади," сказав Річард Коллард, голова політики онлайн-безпеки дітей у NSPCC. "Apple явно відстає від багатьох своїх колег у боротьбі з насильством над дітьми, коли всі технологічні компанії повинні інвестувати в безпеку і готуватися до введення в дію Закону про онлайн-безпеку у Великобританії."

У порівнянні з Apple, Google повідомила про понад 1,470,958 випадків у 2023 році. За той же період Meta повідомила про 17,838,422 випадків на Facebook і 11,430,007 на Instagram.

Apple не може переглянути вміст повідомлень користувачів iMessages, оскільки це зашифрований сервіс. Але NCMEC зазначає, що WhatsApp від Meta також зашифрований, але Meta повідомила про приблизно 1,389,618 підозрюваних випадків CSAM у 2023 році.

У відповідь на звинувачення Apple нібито направила The Guardian лише до своїх попередніх заяв щодо загальної конфіденційності користувачів.

Повідомляється, що деякі експерти з питань зловживання дітьми стурбовані щодо зображень CSAM, створених штучним інтелектом. Маюча вийти Apple Intelligence не створюватиме фотореалістичні зображення.

Джерело: appleinsider.com

Роман Мельник

Роман має пристрасть до технологій та інновацій. Він завжди в курсі останніх новин у сфері IT та постійно вивчає нові технології. Роман любить ділитися своїми знаннями та досвідом з іншими через статті та огляди. У вільний час він займається програмуванням та тестуванням нових гаджетів.

Роман Мельник
Редактор
avatar