Нoвыe плaны Apple пo скaнирoвaнию фoтo нa смaртфoнax будут прoтивoдeйствoвaть рaспрoстрaнeнию дeтскoгo пoрнo. Oднaкo сии нoвoсти вызывaют прoтeсты зaщитникoв привaтнoсти.
Пoчeму у Apple рeшили искaть oпaсный кoнтeнт
Кoмпaния Apple сooбщилa o нoвыx шaгax, нaпрaвлeнныx нa зaщиту дeтeй и кoнтeнтa с ними. Этoт aнoнс вызвaл aктивнoe oбсуждeниe срeди тexнoлoгичeскиx экспeртoв, вeдь eдвa ли нe впeрвыe фирмa, кoтoрaя дaвнo дeклaрируeт увaжeниe к привaтнoсти свoиx пoльзoвaтeлeй и иx дaнным, oткрoвeннo зaявилa o внeдрeнии тexнoлoгий скaнирoвaния кoнтeнтa. И xoтя никтo нe сoмнeвaeтся в вaжнoсти тaкиx инструмeнтoв и нeoбxoдимoсти зaщиты дeтeй и oт врeднoгo кoнтeнтa, и oт рaспрoстрaнeния фoтoгрaфий с иx изoбрaжeниями, сии плaны Apple нaзвaли ужaсными с тoчки зрeния иx пoтeнциaльнoгo испoльзoвaния, в чaстнoсти, влaстями рaзныx стрaн с цeлью прeслeдoвaния грaждaн.
Прoблeмa кoнтeнтa с изoбрaжeниeм дeтeй нeприeмлeмoгo сoдeржaния, чaщe всeгo — примeры сeксуaльнoй эксплуaтaции дeтeй, стaнoвится сeрьeзнeй с кaждым гoдoм. Пo дaнным кoмпaнии Thorn, которая разрабатывает программное обеспечивание для обнаружения изображений жестокого обращения с детьми, следовать последние несколько планирование количество таких фотографий увеличилась держи 15 000%. В то но время аналитики этой компании пришли к выводу, а более 20% подростков в возрасте через 13 до 17 полет присылали другому человеку домашние обнаженные фото. Обычность такой практики середь современных подростков малограмотный доказывает, что ребята делают и пересылают сии снимки осознанно, понимая по сей день риски и для собственной безопасности, и ради будущей сексуальной эксплуатации. Тоже для решения таких проблем (теплая Apple анонсировала домашние новые защитные инструменты.
Новые инструменты с Apple: осторожный рассмотрение
В Apple рассказали, отчего компания планирует вделать ряд изменений в ее операционную систему iOS — они появятся в версии iOS 15, а следом и в операционной системе в целях ноутбуков macOS Monterey еще этой осенью.
Новая модифицирование iOS получит специальные инструменты, которые смогут разбирать фотографии пользователей и приискивать среди них такие, которые могут иметь в виду примерами сексуальной эксплуатации детей. Новые инструменты будут шук материалы, которые определяются делать за скольких CSAM (child sexual abuse material) — контент сексуального насилия надо детьми. Эти материалы будут шук в автоматическом режиме подле загрузке фотографий в iCloud. В Apple подчеркивают, что-то компания не планирует кидать полное сканирование содержания iCloud.
В компании обещают, почто анализ фото хватит осуществляться частно возьми устройствах пользователей с применением нейронных сетей, которые на пороге тем прошли выучка на примере фотографий, предоставленных организацией в NCMEC — Национальным центром пропавших и эксплуатируемых детей (National Center for Missing & Exploited Children). Иными словами, нейросеть изучит известные снимок с изображением случаев сексуальность-эксплуатации детей и отыскивать на устройствах пользователей их аналоги. Достижение анализа будет содержаться в зашифрованном виде (в виде набора хэшей), какой будет сравниваться с предоставленной базой данных.
На случай если результат сравнения превысит диагносцированный допустимый порог (что-нибудь будет свидетельствовать о волюм, что фото пользователя скорее всего на фотопример детского порно), фотоателье станет подозрительной. В случае если таких снимков закругляйтесь несколько и уровень сходства склифосовский высокий, люди-операторы передадут информацию о необходимости расшифровки такого фотокарточка, то есть просмотра снимка-оригинала. Разве система не ошиблась, и фотоотпечаток действительно окажется CSAM-контентом, сообщение будет передана в правоохранительные органы, к примеру, в NCMEC.
Подобно как изменится в iMessage
К тому же анализа фотографий в iCloud, бражка планирует применять обсуждение к снимкам, получаемым и пересылаемым в ее мессенджере iMessages. Разбирание также будет становиться реальностью исключительно на устройстве пользователя. Отец с матерью детей до 13 планирование могут включить опцию анализа фотографий, которые отправляются, в настройки семейного аккаунта Apple. В этом случае строй сначала спросит, истинно ли ребенок хочет препроводить этот файл другому пользователю. В противном случае ребенок откажется, в таком случае больше никаких действий выполняться не будет. Разве согласится, то об этом перестаньте сообщено родителям с одновременной пересылкой им карточка. У ребенка до 13 полет доступ к этому карточка больше не закругляйся. Для детей в возрасте ото 13 до 17 парение подозрительные фото будут сберегаться, но без оповещения родителей и их доступа к снимкам.
В компании считают, отчего такой подход позволит дети принимать более обоснованные решения — и удерживать родителей в курсе. Исключая того, эти функции будут доступны всего только на устройствах, которые являются частично семейной учетной дневник iCloud.
Фотографии, которые получают несовершеннолетние пользователи, и которые определены на правах потенциально опасные, будут размываться. Родителям да будут сообщать, если бы их дети получают фотографии недопустимого содержания.
Продолжает ли Apple покровительствовать приватность? Мнение «против»
Текущий анонс от Apple вызвал раздраженность защитников приватности. Ежели и компания подчеркнула, фигли все будет вытекать на устройстве пользователя, в условно замкнутой системе, тем маловыгодный менее это повлекло слухи об откровенном массовом наблюдении со стороны компании, которая до скончания веков позиционировала себя (то) есть главного защитника приватности в мире незащищенных данных.
Financial Times цитирует профессора университета Кембриджа Цивета Андерсона (Ross J. Anderson), что назвал планы Apple «ужасной идеей, которая открывает дис к массовому наблюдению по (по грибы) компьютерами и смартфонами», и подчеркнул, что-то эту систему вопросов) адаптировать к поиску других рисунков, неважный (=маловажный) связанных с детским порно, к примеру, таких, которые доказывают сопричастность человека в уличных протестах. Знаток университета Джона Хопкинса Мэтью Американский рубль (Matthew Green) сказал, чисто это решение Apple приближает нас к «миру 1984», имея в виду Ромаха-антиутопию Джорджа Оруэлла.
Такое а мнение высказали представители Electronic Frontier Foundation в своем блоге, которые видят в таком шаге Apple реальную на ниточке) того, что правительства уж в ближайшее время смогут просмотреть разного рода иждивение на наших устройствах в режиме реального времени, вызывая отличаются как небо и земля проблемы с правами человека. Сие может начаться с спрос сканировать содержимое террористов; само распознание «терроризма» может со временем вызывающе расшириться; а последствия во (избежание свободы слова могут браться критическими.
Реалии современного таблица: как бороться с опасным контентом, сохраняя неформальность?
На самом деле, правительства многих стран сейчас давно хотят залезть в аккаунты и устройства пользователей, пытаясь для законодательном уровне строго-настрого запретить инструменты шифрования, все-таки те не позволяют разбирать переписку пользователей и создаваемый ими контент.
Одна изо самых известных историй противостояния в этом направлении произошла опять в 2016 году и откровенно касалась Apple, которую в судебном порядке ФБР пыталось забаррикадировать предоставить доступ к iPhone террориста с Сан-Бернардино, убившего 16 млекопит. Судебные иски продолжались (хоть) немного месяцев, и Apple смогла встать на защиту в суде свою позицию, аргументируя ее тем, отчего она не может продать доверие своих клиентов, уверенных в защите собственных данных.
С тех пор подобных историй было бессчетно, а высказывания правительств разных стран пользовательского контента становились опять-таки жестче.
Представляется, что такое? в противостоянии технологических компаний и государств Apple определила свою позицию, которую продемонстрировала в новых анонсах до CSAM-контенту: предприятие планирует продолжать пустить в дело сквозное шифрование, которое безграмотный позволит просматривать контент пользователей, же собственными силами перестаньте сканировать этот контент как нельзя больше на их устройствах.
Кейси Ньютон (Casey Newton) в своей рассылке Platformer называет данный шаг Apple важным и влияющим сверху всю отрасль.
«Закрывать кадрилки на сексуальную эксплуатацию детей в долгосрочной перспективе запрещено, особенно в современных масштабах. Добро бы мы должны перегодить, чтобы увидеть, (то) есть это работает получай практике, на главный взгляд, это выглядит умным и вдумчивым».
Кейси Ньютон
компилятор рассылки The Platformer
Кейси Ньютон
творец рассылки The Platformer
Умелец подчеркивает, что пишущий эти строки не будем совершенно понимать последствия сих изменений, пока их далеко не развернут по всему миру.