Одна из тенденций последних лет — люди меньше доверяют привычным средствам массовой информации и формируют свою картину мира из того, что видят в соцсетях. Это вызывает озабоченность государств, ведь соцсети остаются площадкой для манипуляций, а также рассадником фейков, экстремизма и прочего противоправного контента. Несмотря на мощности крупных соцсетей, они не справляются с модерацией контента, однако отвечают за это не всегда. Кому из стран удалось заставить соцсети ответственно относиться к тому, что они распространяют, — в материале «Ленты.ру».
В России с 2012 года действует закон «Об информации, информационных технологиях и о защите информации», который позволяет блокировать доступ к сайтам с запрещенным контентом. К нему относятся детская порнография, информация о создании и употреблении наркотиков, детали совершения самоубийств, сообщения о продаже документов и алкоголя, оказании услуг сексуального характера, жестоком обращении с животными и многое другое.
Все страницы с запрещенным контентом попадают в автоматизированный «Единый реестр запрещенных сайтов», и хостинг-провайдерам этих сайтов направляется уведомление о блокировке. По данным Роскомнадзора, с момента запуска Единого реестра российские суды вынесли более 60 тысяч решений о признании информации запрещенной.
Но, несмотря на существование системы, в интернете появляются новые виды контента, которые отследить в автоматическом режиме пока невозможно. Например, дипфейки — аудио- и видеозаписи, на которых используются голоса и образы реальных людей. С помощью нейросетей на лицо человека в ролике можно наложить любое другое, таким образом можно вложить в уста человека все, что угодно. Например, «заставить» известного политика транслировать все, что заблагорассудится автору ролика.
Пожалуй, самым известным примером дезинформирующего дипфейка можно назвать ролик 2018 года, на котором бывший президент США Барак Обама называет «засранцем» тогдашнего главу государства Дональда Трампа. Конечно, ничего такого в реальности Обама не говорил: авторы ролика использовали программу Fakeapp и графический редактор Adobe After Effects, чтобы показать, как в будущем будут выглядеть фейковые новости.
Российская система с распознаванием дипфейков пока не справляется. Да и бороться с ними традиционными методами сложно, говорит глава комиссии по правовому регулированию обеспечения цифровой экономики Московского отделения Ассоциации юристов России Александр Журавлев. Нынешние судебные процедуры работают неэффективно — они попросту не улавливают такой контент.
Впрочем, отслеживать дипфейки способны алгоритмы соцсетей: у них есть возможность блокировать такие видео. Однако главный вопрос заключается в настройке фильтра — он должен быть отрегулирован так, чтобы не нарушать законы страны, в которой работает социальная сеть, говорит собеседник «Ленты.ру».
Борис Едидин, заместитель гендиректора Института развития интернета (ИРИ) по правовым вопросам, объясняет: инструменты для выявления дипфейков у соцсетей действительно есть, но зарубежные платформы меньше посвящены в местные особенности, а значит, испытывают проблемы с модерацией. «Невозможно осуществлять эффективную модерацию, не понимая местных особенностей, стилистики языка, требований местного законодательства», — поясняет Едидин.
По его словам, одна из главных проблем в работе зарубежных коммуникационных сервисов заключается в том, что многие из них не имеют в России официальных представительств. Из-за этого они не отвечают за контент и за рассмотрение жалоб пользователей — отсутствие офисов сказывается на качестве их работы, считает замгендиректора ИРИ.
Модерация — камень преткновения в отношениях российских властей и зарубежных площадок. Государство настаивает на том, что иностранные платформы ведут себя неуважительно по отношению к российским пользователям. Например, без объяснения причин блокируют каналы на YouTube или банят аккаунты в социальных сетях. Но наказать их за это невозможно именно из-за отсутствия российских представительств. Даже если государство решит их наказать за нарушения, решения судов для них не действуют.
Опрошенные специалисты сетуют на несовершенство российского законодательства по части регулирования интернет-платформ. Его надо менять, говорит Журавлев, но при этом изменения «не должны быть минимальными и комфортными», считает он.
В регулировании, на его взгляд, в первую очередь нуждается сфера отношений соцсетей со своими пользователями. Сегодня у каждой площадки свои принципы работы с юзерами, которые не всегда совпадают с требованиями отечественных законов, поясняет специалист. Это дает IT-гигантам возможность удалять контент или блокировать аккаунты пользователей без объяснения причин. Эксперт предложил ввести правила о том, чтобы работающие в России интернет-платформы сообщали юзерам причину модерации их постов и давали им право подавать апелляцию. Другими словами, он надеется сделать процедуру модерации гораздо прозрачнее.
Журавлев добавил, что в России предусмотрена административная и уголовная ответственность за публикацию запрещенного контента, но многие люди не задумываются о последствиях, когда выкладывают подобную информацию в сети. Юрист видит выход в том, чтобы принудить платформы модерировать контент с учетом отечественного законодательства, но просит не путать это с наступлением на свободу слова.
«Есть свободное выражение своего мнения, а есть опасный контент. И если первое блокировать нельзя, то второе при настройке определенных фильтров и совместной работе модераторов можно и нужно блокировать. Для этого необходимы минимальные правила, которые бы регулировали этот момент», — заключил Журавлев. Подобные правила оградят пользователя от возможной уголовной ответственности и судебных исков от других юзеров, добавляет он.
Требования должны быть едиными для всех игроков рынка, развивает мысль Борис Едидин из ИРИ. Он полагает, что унифицировать нужно не только отношения соцсетей с пользователями, но процедуру рассмотрения жалоб и удаления неправомерного контента. «Независимо от местонахождения компании российские пользователи должны обладать одинаковыми возможностями для защиты своих прав в сети», — заключает специалист.
При этом соцсети должны представлять результаты на суд общественности, считают в Ассоциации юристов России. А именно: ежеквартально публиковать информацию о модерировании деструктивного контента и работы с пользователями, отчитываться о работе с жалобами россиян. Подобные методы практикуются в некоторых западных странах.
Нельзя сказать, что соцсети не предпринимают самостоятельных попыток удалять противоправный контент со своих площадок. Например, Facebook установил специальные фильтры на «чувствительные» темы вроде выборов в США — в октябре 2020 года гигант удалил 120 тысяч постов и не дал опубликовать 2,2 миллиона рекламных объявлений по этой тематике.
Интернет-площадки сами устанавливают правила размещения информации: иногда они признают недопустимой даже ту информацию, которая официально в стране не запрещена. «Например, Facebook ограничивал распространение информации об ICO (Initial coin offering, первичное размещение монет — прим. «Ленты.ру») и криптовалютах, когда в большинстве стран только разрабатывалось законодательство о цифровых активах», — приводит пример Едидин.
Схожая позиция и у администрации Twitter. Соцсеть отдельно помечает спорную информацию и дает оценку, насколько обоснован тот или иной пост. В 2020 году твиты президента Дональда Трампа регулярно получали маркер «недостоверная информация», что вызывало возмущение республиканцев и упреки в цензуре со стороны платформы микроблогов.
Несмотря на продвинутые алгоритмы модерации, соцсети часто не справляются с регуляцией контента. Они не распознают все необходимое, особенно в отношении российских СМИ, компаний и публичных деятелей, говорит Журавлев.
«Недавно был суд по иску прокурора Москвы, в котором в том числе звучало требование, чтобы YouTube выложил в открытый доступ фильм Александра Рогаткина "Беслан" (в сентябре видеохостинг ограничил доступ к нему — прим. «Ленты.ру»). Алгоритмы YouTube сочли, что этот фильм 18+, а по нашему законодательству у него такой возрастной маркировки не было. Шло ограничение на поисковую выдачу и просмотра поискового контента. Но суд вынес решение в пользу прокуратуры и обязал YouTube и сделать этот контент общедоступным», — привел пример эксперт.
В прошлый раз возмущение российских властей вызвало ограничение доступа к аккаунтам телеканала «Крым 24» и русскоязычных информационных агентств Anna News и News-Front на YouTube. Представители канала попытались обратиться в службу поддержки, но более подробную информацию так и не получили. Спустя несколько месяцев видеохостинг также заблокировал телеканал «Царьград». Всего же за последние несколько лет YouTube удалил более 200 русскоязычных аккаунтов.
В государственных органах такую модерацию трактуют как цензуру. Позиция властей такова: пока YouTube удаляет общественно значимые каналы, на страницах хостинга остаются видео с пропагандой, призывами к насилию и экстремизмом. Например, в 2019 году сайт проигнорировал несколько требований Роскомнадзора об удалении ролика со сжиганием российского флага.
Президент России Владимир Путин во время выступления на инвестиционном форуме «Россия зовет!» заявил, что страна учтет международный опыт, но не будет использовать какую-либо из иностранных моделей регулирования интернета, а создаст свою. Вполне возможно, что Москва будет ориентироваться на Европу. Там в 2017 году Европейский парламент подписал резолюцию «Об онлайн-платформах и едином цифровом рынке», в которой говорится о необходимости борьбы онлайн-платформ с правонарушениями. Авторы документа предложили решать проблему с помощью нормативно-правовых актов и мер саморегулирования. Они призвали крупнейшие интернет-компании разработать новые технологии и инструменты, которые смогут автоматически выявлять и удалять ненавистнический и экстремистский контент.
Уже в следующем году Европейская комиссия опубликовала рекомендации по мерам реагирования владельцев сайтов. Одним из главных пунктов стало удаление незаконного контента в течение часа после того, как о нем сообщат правоохранительные органы Евросоюза, Европола или Управления полиции ЕС. Рекомендации относятся к терроризму, пропаганде агрессии и ненависти, детской порнографии, рекламе поддельных товаров и прочему вредоносному контенту.
Чтобы интернет-платформы могли быстро реагировать на угрозы для пользователей, им предложили следовать определенной программе. Во-первых, утвердить простые и прозрачные правила уведомления о незаконном контенте. Если информацию удаляют, опубликовавшие ее люди должны моментально узнавать об этом — им также должны предоставить доступные механизмы для оспаривания решения. Во-вторых, внедрить «проактивные технологии» — инструменты для автоматического обнаружения и удаления противоправного контента. Кроме того, за оценку и исследование спорных ситуаций должны отвечать специально созданные подразделения.
В документе также говорится о создании институтов коммуникаций для взаимодействия с органами власти. Другими словами, владельцы интернет-платформ должны вовремя передавать информацию о незаконном контенте полицейским, например, если опубликованная информация указывает на угрозу жизни пользователей.
«Наш долг — защитить это пространство и не допустить распространения дезинформации, которая служит источником ненависти, разногласий и недоверия к демократии. Мы, европейцы, решили действовать совместно и усилить ответные меры, а также продвигать наши принципы, поддерживать устойчивость обществ как внутри наших границ, так и за их пределами. Это европейский ответ на один из основных вызовов нашего времени», — так объяснила важность проекта заместитель председателя Европейской Комиссии Федерика Могерини.
Сами участники международного рынка тоже представили свой план по борьбе с противоправным контентом — он получил название «Кодекс по борьбе с дезинформацией в интернете». В его рамках Google, Facebook, Twitter и некоторые другие IT-гиганты опубликовали «дорожные карты» с подробным рассказом о том, как будут бороться с дезинформацией перед выборами в Европейском союзе. Все компании разработали инструменты для повышения прозрачности политической рекламы и методы сотрудничества с агентствами для проверки фактов. Таким образом платформы показали пример саморегулирования.
В отдельных странах Евросоюза действуют собственные законы в отношении соцсетей. Например, в Германии их деятельность регулируется законом NetzDG, который тоже был принят в 2017 году. Под его действие попадают коммерческие интернет-провайдеры и владельцы соцсетей: все они обязаны предотвращать распространение запрещенного контента и сотрудничать с госорганами для пресечения нарушений, даже если являются саморегулируемыми организациями.
Закон позволяет компании считаться саморегулируемой, если та соблюдает все условия: гарантирует рассмотрение обращений за неделю, использует экспертный опыт аналитиков, имеет службу рассмотрения жалоб. Кроме того, организацию должны финансировать несколько источников, чтобы у нее точно хватило технических мощностей для саморегуляции.
Еще в Германии действует принцип социальной ответственности интернет-платформ. Это значит, что соцсети должны обязательно отчитываться на немецком языке о работе с жалобами пользователей. Такой отчет публикуется каждые полгода: в нем также описываются механизмы борьбы с незаконным контентом и количество принятых жалоб. Если компания не предоставляет отчет, ей может грозить штраф до пяти миллионов евро (более 450 миллионов рублей по текущему курсу).
В Великобритании действует схожий принцип — в 2019 году власти страны подготовили документ под названием «Белая книга о вреде в интернете» (Online Harms White Paper). В нем собраны планы чиновников по борьбе с противоправным контентом. Проект устанавливает ответственность социальных медиа за информационный контент — терроризм, детскую порнографию, распространение дезинформации и другие нарушения. «Этот пакет включает законодательные и незаконодательные меры, он повысит ответственность компаний за безопасность своих пользователей в интернете, особенно детей и других уязвимых групп», — говорится на сайте правительства.
Один из главных пунктов «Белой книги» — предоставление ежегодных публичных «Отчетов прозрачности» от интернет-платформ. Как и в Германии, и в Британии площадки должны раскрывать информацию о том, как они реагируют на текущие угрозы и оценивать эффективность своих действий. Если компании будут не готовы модерировать контент, они должны будут сообщать об этом пользователям.
К регуляции контента в стране подключилось и британское неправительственное агентство Ofcom (местный аналог Роскомнадзора — прим. «Ленты.ру») — его представители обещали самостоятельно следить не только за деятельностью теле- и радиокомпаний, но и за распространением информации в интернете (а точнее, в крупных социальных сетях). И хотя Ofcom не сможет самостоятельно удалять противоправные посты, он вправе требовать это от IT-гигантов.
Если в перечисленных выше странах действуют не самые радикальные подходы к регулированию интернет-компаний, то в некоторых уголках мира ситуация находится под полным контролем государства. Например, в Китае все провайдеры и соцсети обязаны требовать от юзеров паспортные данные при подписании договоров или подтверждении факта предоставления услуг.
Кроме того, закон о кибербезопасности Китая предусматривает возможность ограничивать передачу сообщений между пользователями в отдельных регионах, например, если там орудует какая-нибудь преступная группировка. Такие действия могут применяться для защиты национальной безопасности и общественного порядка.
Еще в начале 2020 года китайцам запретили публиковать негативный контент в соцсетях — его могут признать «угрозой национальной безопасности», и опубликовавшего сообщение пользователя будет ждать судебное разбирательство. Вообще новый закон разделил весь контент на три группы: «негативный», «незаконный» и «поощряемый». К первому относятся «сенсационные заголовки» и любые сообщения, которые «негативно влияют на информационную онлайн-систему». А незаконным считается тот контент, который содержит в себе слухи, «нарушает экономический или социальный порядок» и «разрушает национальное единство».
Правительства Египта, Турции и Венесуэлы тоже строго настроены по отношению к регуляции социальных сетей и других интернет-сервисов. Так, власти Каира имеют возможность блокировать личные аккаунты пользователей, на которых подписаны хотя бы пять тысяч человек. Если блогер публикует фейковую информацию, его страницу могут удалить по решению суда.
Согласно турецкому законодательству, платформы обязаны удалять противоправный контент после того, как его пометит Управление телекоммуникаций и связи. Этот регулятор также волен приостанавливать работу сайтов и мессенджеров — в такие ситуации неоднократно попадали американские YouTube, Twitter и Facebook.
Схожие принципы действуют и в Венесуэле, где в законе прописаны штрафы и блокировки за отказ удалить нелегальный контент в течение шести часов после запроса. К такого рода контенту относятся оскорбления на национальной, расовой, религиозной, политической или иной почве.
Что касается России, то проблему с модерацией мог бы решить закон о саморегулируемых организациях, который действует в России с 2007 года. Но в отношении интернет-площадок он не работает. «В соответствии с этим законом создаются саморегулируемые организации в тех сферах, которые, по логике вещей, должны лицензироваться. Деятельность в интернете в России не лицензируется, в связи с чем и применение указанного закона нецелесообразно», — поясняет Единин.
Менять старый закон не имеет смысла — легче создать отдельный, в котором будет прописана возможность саморегулирования соцсетей. Речь идет о минимальных правилах, которые платформа должна будет принять и работать по ним. «Эти правила нужно принять на законодательном уровне, а уже непосредственно правила соцсетей могут подлежать общественному обсуждению, чтобы получить максимальный эффект для задачи открытости, отсутствия цензуры и возможности модерирования противоправного контента», — считает глава комиссии АЮР Александр Журавлев.