Национальное общество Великобритании по предотвращению жестокого обращения с детьми (National Society for the Prevention of Cruelty to Children, NSPCC) обвинило Apple в занижении статистических данных о том, как часто материалы, содержащие сцены сексуального насилия над детьми (CSAM), появляются на айфонах и иных устройствах компании, пишет в понедельник The Guardian.
Согласно заявлению NSPCC, за год только в Англии и Уэльсе реальное количество случаев использования сервисов iCloud, iMessage и Facetime для хранения и обмена CSAM (337) превышает количество раскрытых компанией подобных случаев по всему миру (267).
Напомним, в 2021 году эксперты по кибербезопасности из MIT, Гарвардского и Кембриджского университетов и ряда других организаций вслед за правозащитниками призвали Apple отказаться от нового инструмента компании для поиска педофилов – этот инструмент представлял собой автоматическую систему, без ведома пользователя сканировавшую фото и видео устройства и принимавшую самостоятельные решения. Эксперты, обратившиеся к Apple, указывали очевидную причину – нельзя априори считать подозреваемыми всех пользователей.
См. также: iНквизиция >>>