Принципиально изменив подход к потреблению информации, соцсети поставили своих пользователей в непростую ситуацию: просматриваемого контента становится все больше, а отличить фейк от настоящей новости становится все сложнее. Внимательно изучив последствия, к которым привело бесконтрольное распространение непроверенной информации на многомиллионную аудиторию, многие крупные площадки задумались о том, чтобы проверять публикуемые посты на фейковость. В частности, Facebook уже несколько лет использует специальную службу фактчекинга, работа которой постоянно вызывает множество вопросов. О том, как IT-гиганты начали заниматься цензурой, прикрываясь защитой пользователей от дезинформации, — в материале «Ленты.ру».
Исторически Facebook использовала хронологическую ленту новостей с максимально простым принципом работы: место поста зависело от даты публикации. Сегодня из крупных площадок такой механизм сохранил только мессенджер Telegram, остальные соцсети перешли на алгоритмическую ленту с туманным принципом работы, при котором наверху оказываются наиболее «подходящие» пользователю публикации. Об алгоритме известно немного: чем больше лайков и положительных реакций получает пост, тем выше он оказывается в лентах подписчиков; чем больше негативных реакций — тем ниже. Среди проблем, к которым приводит такой подход, называли то, что пользователь по сути превращается в заложника собственной точки зрения: шансы, что он увидит не совпадающее с его собственным мнение, не велики.
Еще одной причиной, по которой публикация может исчезнуть из ленты новостей, может быть признание ее фейком. Facebook задумалась о создании службы по противодействию дезинформации в 2016 году. Решение создать ее было связано со скандалом, возникшим вокруг выборов президента США, на которых победил Дональд Трамп. Его победу многие связали с успешной кампанией, которую Трамп провел в соцсетях, а особенно в Facebook — на сайте, ежемесячная активная аудитория которого сегодня составляет 2,8 миллиарда пользователей.
Противники Трампа утверждали, что во время предвыборной гонки его штаб активно занимался созданием фейков о его сопернице Хиллари Клинтон. В Facebook публиковалась дезинформация о ее состоянии здоровья, выдуманные новости о преступлениях кандидатки, а также недостоверные публикации о различных махинациях демократов. Фейки о сопернице Трампа, как правило, снабжали привлекающим внимание заголовком и шокирующей картинкой. Степень абсурдности новости фактически не имела никакого верхнего предела: например, почти пять тысяч человек приняли за правду информацию с картинки из Twitter, в которой их призывали голосовать по SMS.
Несмотря на то что новости выглядели неправдоподобно, многие пользователи соцсетей оказались готовы поверить в фейки и принялись с удовольствием их тиражировать. Сам Трамп в то же время утверждал, что Facebook мешала ему и скрывала публикации консерваторов, а не помогала.
Facebook обвинили в том, что она не пыталась остановить распространение фейков о демократах. После этого создатель соцсети Марк Цукерберг принял решение усилить противостояние дезинформации. К фактчекингу Цукерберг решил привлечь третью сторону — так проверка должна была стать максимально непредвзятой. В итоге Facebook начала сотрудничать с независимыми организациями, которые занимаются фактчекингом.
Сегодня таких организаций более 50. Они проверяют новости на более чем 40 языках мира, а их представительства находятся в нескольких десятках стран, в том числе в США, Канаде, Мексике, Аргентине, Бразилии, Норвегии, Великобритании, Германии, Франции, Испании, Италии, Турции, Индии, Австралии и других. В вопросах фактчекинга Facebook сотрудничает как с крупными компаниями вроде Reuters или информационным агентством Франс-Пресс, так и с небольшими организациями вроде factcheck.org или украинской StopFake.
Однако работа по защите пользователей от фейков на практике оказывается намного более неоднозначной, чем может показаться на первый взгляд. С украинской StopFake, существующей с 2014 года, Facebook начала сотрудничать весной 2020 года. Вскоре организация оказалась вовлечена в конфликт. Украинское издание «Заборона» опубликовало статью журналистки Екатерины Сергацковой, которая подробно изучила, с кем связан проект, и обвинила компанию в дружбе с ультраправыми деятелями, среди которых есть те, кто был осужден за убийство на почве ненависти, и те, кто отрицает холокост.
Среди партнеров Facebook есть и латвийский центр расследовательской журналистики Re:Baltica. Сама по себе организация занимается не только поиском дезинформации, но и другими важными для региона вопросами. Центр позиционирует себя как независимый, однако в русскоязычном интернете его нередко уличают в антироссийской позиции. К примеру, Sputnik обращал внимание на материал под названием «Дети Путина» от марта 2016 года. В нем утверждалось, что за спиной прибалтийских организаций, которые выступают против «пропаганды сексуальных меньшинств» в учебных заведениях, стоит Кремль: якобы таким образом Россия пытается подорвать стабильность стран Балтии.
Несмотря на то что организации, занимающиеся фактчекингом, позиционируют себя как независимые, они существуют не только на пожертвования от неравнодушных пользователей. Например, компания StopFake получала деньги от посольства Великобритании, министерства иностранных дел Чехии, национального фонда в поддержку демократии США и нескольких других организаций — их список опубликован на сайте StopFake, хотя изначально проект был некоммерческим. «Финансирование наше собственное. Мы сами вкладываем в это деньги. Это все абсолютно добровольно, люди присоединяются, потому что хотят бороться с неправдивой информацией. В данный момент ни о каком внешнем финансировании не идет речи вообще», — говорила одна из организаторов StopFake Марго Гонтар в первые недели работы проекта.
Re:Baltica же, как отмечало РИА Новости, пользуется государственной поддержкой, а также получает различные гранты, в том числе от фонда Джорджа Сороса «Открытое общество».
«Все эти организации политически ангажированы. Они все предвзяты», — отметил в разговоре с «Лентой.ру» руководитель рабочей группы Общественной палаты РФ Александр Малькевич. «Когда администрация Facebook заявляет о проверках материалов на соответствие, мы прекрасно понимаем, что это не более чем ширма, которой прикрываются для того, чтобы избавиться от возможной критики», — подчеркнул заместитель директора Института стратегических исследований и прогнозов РУДН Никита Данюк.
В то же время внешние проверяющие Facebook берут на себя обязательство быть непредвзятыми, не принимать точку зрения той или иной стороны конфликта и не фокусировать внимание только на тех пользователях, которые придерживаются противоположной их собственной точки зрения. Всем им необходимо подписать Кодекс этики международной фактчекинговой сети Института Пойнтера. Иными словами, фактчекинг не должен превращаться в политический активизм, однако, как пишут некоторые критики созданной Facebook системы, именно это нередко и происходит при работе независимых организаций.
В итоге логика, по которой независимые проверяющие ставят на посты печать фейка, оказывается понятна пользователям только в самых общих чертах. Будущее постов, которые признали содержащими недостоверную информацию, и аккаунтов, которые их распространяют, тоже оказывается туманно.
Интересен сам принцип, по которому фактчекеры выбирают посты. Обычно они проверяют публикации, на которые пожаловались пользователи, заподозрив в них наличие недостоверной информации. В то же время проверяющие могут находить публикации для изучения самостоятельно. В теории это эффективный инструмент для борьбы с дезинформацией, однако на практике его легко превратить в средство для устранения неугодных фактчекеру мнений.
Похожая история случилась с публикацией «Забороны». Их пост в Facebook со ссылкой на статью о Денисе Никитине — человеке, которого издание назвало одним из главных неонацистов Европы, — просто пропал через 18 часов после публикации. Модератор сообщества «Забороны» получила бан, а сам паблик ограничили в монетизации. Позже Facebook вернула пост и объяснила его удаление ошибкой, однако в его исчезновении представители издания заподозрили руку StopFake — фактчекеров, связанных с националистами. Случай с «Забороной» иллюстрирует еще одну опасность, которой грозит сотрудничество IT-гигантов с политизированными «борцами за правду» – снижением информированности пользователей и поляризацией мнений.
О важности того, чтобы принцип фактчекинга был понятен, говорит и Никита Данюк. «Механизмы и критерии, которые социальные сети и фактчекеры используют для отделения правды от лжи, не должны оставаться загадкой, не должны быть закрытыми для пользователей и регуляторов», — подчеркнул он. «Информационное поле внутри Facebook — неважно, какой точки зрения ты придерживаешься, всегда максимально перекошено и экстраполировано. Это, конечно, приводит к снижению уровня информированности обычных пользователей, поляризации мнений, созданию агрессивной информационной среды. В итоге это может вылиться в настоящие деструктивные действия как между людьми, так и внутри сообществ», — добавил Данюк.
Будущее постов, которые независимые эксперты признали фейками, тоже туманно. Их могут понизить в поисковой выдаче, сопроводив пометкой «фейк» и опровержением от проверяющего, а могут и удалить. В особых случаях посты с дезинформацией приводят к блокировке сообществ, которые их публиковали. Менеджер Facebook по вопросам публичной политики на Украине Екатерина Крук также говорила о том, что страницы, которые распространяют дезинформацию, могут лишаться монетизации и возможности размещать рекламу на Facebook.
В мае 2020 года русскоязычные пользователи Facebook столкнулись еще с одной необъяснимой блокировкой: соцсеть удалила фотографии, на которых советский солдат водружает Знамя Победы над Рейхстагом. Утверждалось, что публикации «нарушают нормы сообщества в отношении опасных людей и организаций». Позже представители Facebook принесли извинения и объяснили произошедшее ошибкой автоматизированного инструмента для выявления нарушений.
Похожие ошибки допускали и другие крупные соцсети. В апреле 2020 года видеохостинг YouTube, принадлежащий Google, удалил интервью главного врача инфекционной больницы в Коммунарке Дениса Проценко журналисту Антону Красовскому, отметив его как недопустимый контент. На момент удаления ролик посмотрело более трех миллионов человек. Сервис не раскрыл суть своих претензий к ролику и позже восстановил его, объяснив свои действия ошибкой, произошедшей «в условиях ограниченности ресурсов компании». Через несколько дней после этого YouTube заблокировал обращение президента России Владимира Путина к россиянам в связи с ситуацией с распространением коронавируса — ролик пропал с YouTube-канала НТВ. В Google снова признали удаление ошибочным и вернули видео. В январе 2021-го видеохостинг установил ограничения на публикацию материалов, содержащих гимн России, — их признали нарушающими авторские права. Вскоре после того как Роскомнадзор отправил претензию, ограничения были сняты.
Спустя несколько месяцев YouTube заблокировал несколько каналов российских СМИ и отказался объяснять причину своего решения. Российский офис компании Google отказался от комментариев и заявил, что его работники не занимаются администрированием YouTube. Кроме того, руководитель Google Technical Solutions в Европе, Африке и на Ближнем Востоке Дэвид Снэддон (David Sneddon) заявил, что ООО «Гугл» в Москве не является представительством Google LLC в России.
Примечательно и то, что на решение блокировать или не блокировать пост, влияет не только его содержание, но и идеологическая окраска. К примеру, в начале 2021 года крупные соцсети заблокировали аккаунты Дональда Трампа, на тот момент действующего президента США. Он утверждал, что у него украли победу на выборах и что подсчет голосов прошел с нарушениями. В итоге YouTube, Instagram и Facebook заморозили его страницы, а Twitter навсегда удалила аккаунт Трампа и пригрозила блокировкой тем, кто даст ему возможность высказаться. Затем соцсети начали удалять посты некоторых сторонников Трампа, которые тоже писали об украденных выборах. Причиной всех блокировок стало то, что в этих публикациях представители соцсетей увидели призывы к насилию. В то же время представители IT-гигантов намного менее живо реагировали на посты с призывами к несанкционированным акциям в других странах и не удаляли запрещенный контент по требованию местных регуляторов. В России, к примеру, именно из-за этого замедлили работу Twitter.
По мнению Александра Малькевича, Facebook и другие IT-гиганты в таких случаях демонстрируют политику двойных стандартов, так как в разных странах используют разные подходы к одним и тем же категориям контента. «Мы все увидели, что происходило в январе вокруг попытки штурма Капитолия. Незамедлительные блокировки, цензура, политическая позиция администрации соцсетей понятны. Но в России — никаких проблем. Аналогичный контент не вымарывается, а наоборот зачастую продвигается», — уверен Малькевич.
«Принципы модерации должны контролироваться на уровне государств. Недаром мы их называем транснациональными корпорациями. Они ставят себя выше законов любого государства», — добавил руководитель рабочей группы Общественной палаты.
Транснациональные IT-корпорации воспринимают настороженно не только в России. «Даже власти Евросоюза относят к основным угрозам, исходящим от онлайн-площадок, распространение фейков, предвзятую, непрозрачную модерацию, а также конкуренцию тех самых IT-гигантов с геополитическими институтами. По мнению европейских политиков, должны быть выработаны четкие меры по противодействию деструктивному влиянию интернет-платформ. И выработаться они должны как можно скорее — на уровне Европейского союза, на уровне наднациональном. Но когда делает то же самое Россия, почему-то это воспринимается абсолютно необъективно, многие ставят под сомнения эти действия», — отметил Никита Данюк.
Чтобы противостоять распространению фейков, в России уже приняли закон о саморегулировании соцсетей. С 1 февраля 2021 года соцсети обязали самостоятельно выявлять и блокировать противоправный контент. К нему относится детская порнография, информация, склоняющая детей к совершению опасных незаконных действий, сведения о способах совершения самоубийства и призывы к нему, реклама дистанционной продажи алкоголя или интернет-казино, призывы к массовым беспорядкам, экстремизму, терроризму и участию в несогласованных публичных мероприятиях. Кроме того, в список запрещенного в России контента попала информация, которая «в неприличной форме оскорбляет человеческое достоинство и общественную нравственность, выражает явное неуважение к обществу, государству, официальным государственным символам РФ, Конституции РФ или органам госвласти». За отказ удалять такую информацию соцсети накажут штрафами.
Два месяца, прошедшие с момента вступления закона в силу, показали, что для его эффективной работы необходимо взаимодействие соцсетей с регулятором. При этом эффективный диалог возможен только в том случае, если у IT-корпораций будут в России свои представительства и локальные команды, с которыми можно будет взаимодействовать, объяснил Данюк.
С этим согласился и Малькевич. «Ситуация, при которой русскоязычный сегмент Facebook модерируют из Польши, Украины, Прибалтики, — это абсурд», — отметил он и призвал Facebook нанимать для модерации российского сегмента российские организации.
Об этом же говорил и Владимир Путин на заседании Совета при президенте по развитию гражданского общества и правам человека. До 1 августа 2021 года он поручил подготовить нормативные акты, которые бы регулировали деятельность IT-гигантов в России, «в том числе в части, касающейся открытия представительств этих компаний на территории Российской Федерации».
«Если сейчас не взять ситуацию под контроль, произвол бигтеха никогда не прекратится, а только пойдет по нарастающей. Учитывая очень сложную международную ситуацию в отношении нашей страны, это будет максимально деструктивное, пагубное влияние», — заключил Данюк.