Законопроект об алгоритмах социальных сетей приготовили к внесению в Госдуму

Борис Едидин: угрозы связаны с большим количеством информации о конкретном пользователе

Фото: пресс-служба Госдумы РФ

Гигантов ИТ-индустрии многократно обвиняли в злоупотреблении собранной информацией об аудитории, которая в дальнейшем используется ими для настройки своих рекомендательных сервисов. Хотя, с одной стороны, это удобно, когда алгоритм знает обо всех предпочтениях пользователя и предлагает ему подходящий интересный контент. Но с другой —непонятно, как именно обрабатывается информация и как настраиваются и работают рекомендательные сервисы. То есть очевидно, что алгоритмы могут использоваться не только на благо пользователя, но и в манипулятивных целях, намеренно выдавая ему определенные публикации, корректируя его ленту. О проблеме «Ленте.ру» рассказал заместитель генерального директора АНО «ИРИ» по правовым вопросам Борис Едидин

Эксперт уверен, что основная угроза связана с тем, что, обладая огромным количеством информации о конкретном пользователе, ИТ-компании могут погружать пользователей в информационный мешок, где они самостоятельно формируют информационную повестку. Технологические компании, по его словам, погружают пользователя в некий информационный мешок, в котором могут навязывать любую общественно-политическую повестку.

Особая опасность связана с тем, что технологические компании прекрасно понимают, кто является их пользователем: ребенок, подросток или взрослый человек, уверен эксперт. «Таким образом, наше общество жестко сегментируется, теряются связи между поколениями, между различными социальными группами, и общество теряет целостность», — рассказал Борис Едидин.

Эксперты давно предупреждали о подобных опасностях непрозрачных рексервисов, а недавно миллиардер Илон Маск, собирающийся приобрести Twitter, обвинил алгоритм новостной ленты соцсети в том, что он «манипулирует» пользователями. Кроме того, складывается ощущение, что рекомендательные сервисы зачастую выходят из-под контроля своих создателей.

Корень проблемы с алгоритмами, уверены эксперты, кроется в том, что изначально целью подобных сервисов было удержать пользователя у экрана как можно дольше. Чем более интересный контент предлагается аудитории, тем дольше она остается на площадке, и тем больше рекламы она сможет увидеть, следовательно, тем больше соцсеть сможет заработать. В результате, стремясь привлечь как можно больше внимания аудитории, алгоритмы начинают продвигать контент, набирающий больше всего пользовательских реакций, а именно фейки, треш, скандальные материалы.

Такой контент больше всего эмоционально заряжен, поэтому резонансные новости, теории заговора, экстремистские и оскорбительные высказывания и прочий деструктив очень часто попадаются аудитории. Так, в 2021 году американские исследователи обнаружили, что рекомендательные алгоритмы YouTube предлагают пользователям видеоролики, которые нарушают собственные правила онлайн-площадки. Согласно данным эксперимента, подобные материалы составили 71 процент от общего количества просмотренных участниками исследования видео.

Таким «безумием» страдают алгоритмы не только видеохостинга, но и других представителей западного бигтеха. В прошлом году эксперты из британской Revealing Reality обнаружили, что даже минимальное взаимодействие подростков с контентом про фитнес, похудение и диеты может спровоцировать алгоритмы Instagram (запрещенная в России соцсеть; принадлежит компании Meta, признанной экстремистской организацией и запрещенной в России) на рекомендацию публикаций, подталкивающих к изменению своего тела, что может привести к ужасающим последствиям для здоровья и психики ребенка.

При этом Instagram (запрещенная в России соцсеть; принадлежит компании Meta, признанной экстремистской организацией и запрещенной в России) знал, что все аккаунты, задействованные в эксперименте, были зарегистрированы на подростков, но все равно предлагал им ориентированную на взрослого пользователя рекламу. А совсем недавно соцсеть TikTok и ее материнскую компанию ByteDance обвинили в халатности и распространении некачественного продукта, после того как 10-летняя пользовательница Найла Андерсон умерла из-за выполнения опасного челленджа. Девочка узнала о нем из рекомендаций платформы.

Работа алгоритмов способна привести и к масштабным конфликтам в реальной жизни. Эксперты не раз отмечали, что рекомендательные сервисы могут загонять людей в «информационные тоннели», изменяя точку зрения пользователей и способствуя поляризации общества. В результате напряжение в онлайне может привести к росту напряженности и настоящим трагедиям в офлайне.

Так, в декабре 2021 года представители народности рохинджа подали коллективный иск против Facebook (запрещенная в России соцсеть; принадлежит компании Meta, признанной экстремистской организацией и запрещенной в России), обвиняя платформу в разжигании ненависти в конфликте в Мьянме. Как выяснилось, такие сообщения не удалялись, а, наоборот, показывались пользователям в приоритетном порядке из-за их популярности. Таким образом, особенности работы алгоритмов привели к усилению геноцида. По утверждению истцов, соцсеть в данной ситуации бездействовала.

Проблема заключается и в том, что ИТ-гиганты не просто используют подобные механизмы, а отказываются раскрывать принцип их работы. «Мы не знаем, по каким критериям, правилам это происходит. Эта информация должна быть открыта. И это не только российская проблема — это проблема всего мирового сообщества», — отмечает глава Совета при президенте России по развитию гражданского общества и правам человека (СПЧ) Валерий Фадеев.

Российские эксперты уже не раз заявляли о непрозрачности рекомендательных алгоритмов. Так, депутат Госдумы России Антон Горелкин подчеркивал, что «нам нужно стремиться к тому, чтобы все рекомендательные алгоритмы, во-первых, могли быть отключены, и кнопки отключения должны быть. Во-вторых, они должны быть прозрачны, должен быть общественный контроль». В настоящее время законопроект о рекомендательных алгоритмах социальных сетей и видеохостингов готовится к внесению в Госдуму России.

Ожидается, что интернет-ресурсы будут обязаны информировать пользователя об обработке его данных рекомендательной системой, человек должен иметь возможность в любой момент отказаться от такой обработки. На сайте должны быть опубликованы правила работы рекомендательного алгоритма, содержащие перечень данных о пользователях и их предпочтениях, источниках их получения.

Стоит подчеркнуть, что наша страна не одинока в стремлении обуздать рекомендательные сервисы платформ, тренд на регулирование алгоритмов усиливается во всем мире. Так, в Китае с 1 марта этого года вступил в действие новый закон, который запрещает онлайн-платформам рекомендовать фейковые сообщения, а также обязывает информировать пользователей об основных принципах работы таких механизмов. В документе также прописано, что пользователи должны получить возможность управлять алгоритмом, изменяя его параметры, или вовсе отказаться от получения предложений.

Лента добра деактивирована.
Добро пожаловать в реальный мир.
Бонусы за ваши реакции на Lenta.ru
Как это работает?
Читайте
Погружайтесь в увлекательные статьи, новости и материалы на Lenta.ru
Оценивайте
Выражайте свои эмоции к материалам с помощью реакций
Получайте бонусы
Накапливайте их и обменивайте на скидки до 99%
Узнать больше