Персональный контент или безопасность. Почему в мире приходят к необходимости регулировать рекомендательные алгоритмы

Фото: Amir Cohen / Reuters

Многие страны начали вести борьбу с сервисами, которые в своей работе используют рекомендательные алгоритмы. Дело в том, что они могут нарушать требования к информационной безопасности и нести угрозу для личных данных пользователей. Эксперты считают, что они должны стать более открытыми, а у пользователей должен быть выбор, включать работу алгоритмов или нет. О проблеме — в материале «Ленты.ру».

Контекст

Многие независимые исследователи, регуляторы и пользователи все чаще обвиняют крупные интернет-сервисы и платформы в том, что их скрытые алгоритмы рекомендаций могут приводить к серьезным последствиям. Сейчас именно мировые IT-гиганты контролируют, как много общественности может быть известно о том, что происходит в цифровом мире. Работа их рекомендательных алгоритмов — настоящий черный ящик, к которому никто из сторонних исследователей не имеет доступа, и ни одному пользователю не известно, как и какие именно данные собираются о нем корпорациями, которые затем рекомендуют ему контент, зарабатывая на этом деньги.

Теорию о том, что скрытые алгоритмы могут быть опасны, еще в октябре прошлого года подтвердила бывшая сотрудница Facebook (соцсеть запрещена в РФ; принадлежит корпорации Meta, которая признана в России экстремистской и запрещена) Фрэнсис Хауген. Она заявила в сенате США о том, что компания ставит прибыль выше безопасности.

«Результатом стала система, которая усиливает экстремизм и поляризацию мнений, — сказала Хауген в своем вступительном слове. — В некоторых случаях это приводило к реальному насилию». Так, алгоритмы Facebook и Instagram (соцсети запрещены в РФ; принадлежат корпорации Meta, которая признана в России экстремистской и запрещена) способствовали разжиганию конфликтов в Мьянме, Эфиопии, проведению штурма Капитолия.

Релевантность уходит на второй план

Несмотря на то что получать персонализированный контент в ленте, безусловно, удобно, большинство пользователей хотели бы сами решать, когда останавливать этот «конвейер». Так, согласно опросу Регионального общественного центра интернет-технологий (РОЦИТ), проведенному в конце прошлого года, 74 процента россиян хотели бы иметь возможность отключать рекомендательные механизмы.

Более того, такая возможность — это важнейший аспект с точки зрения пользовательской безопасности, поскольку с алгоритмами системы получают возможность ограничивать информационное поле пользователя, погружают его в информационный пузырь, максимально комплиментарный его убеждениям.

О том, что основная задача алгоритмов — удержать пользователя перед экраном и заставить его просматривать свою ленту как можно дольше, многим уже давно известно. При всем при этом большую вовлеченность вызывает именно негативный эмоциональный контент: фейки, теории заговора, экстремистские и оскорбительные высказывания и прочий деструктив, с которым сами интернет-платформы бороться не спешат. Поэтому бороться с этим довольно негуманным способом зарабатывания денег на пользователях начали регуляторы.

Фото: Martin Schutt / Globallookpress.com

Взялись за голову

Сегодня все больше стран начинают разрабатывать механизмы регулирования рекомендательных сервисов. К примеру, в Китае с 1 марта этого года вступил в действие новый закон, который запрещает онлайн-платформам рекомендовать фейковые сообщения, а также обязывает информировать пользователей об основных принципах работы таких механизмов. В документе также прописано, что пользователи должны получить возможность управлять алгоритмом, изменяя его параметры, или вовсе отказаться от получения предложений.

В США в Закон о справедливости против вредоносных алгоритмов, внесенный в Палату представителей в октябре 2021 года, собираются внести поправку, которая будет накладывать на компанию ответственность за контент в тех ситуациях, когда она «сознательно или по неосторожности использует алгоритм или другую технологию, чтобы рекомендовать контент, который существенно способствует физическому или серьезному эмоциональному ущербу».

«Все эти проблемы приводят к тому, что все больше стран начинают разрабатывать механизмы регулирования рекомендательных сервисов. Это то, чем озабочены законодатели многих стран, — говорит Борис Едидин, заместитель генерального директора АНО «ИРИ» по правовым вопросам. — В частности, совсем недавно Евросоюз одобрил инициативу, вводящую дополнительные требования к деятельности крупных технологических компаний в части использования рекомендательных сервисов. Вводятся ограничения, направленные на защиту детей от рекомендательных алгоритмов, на использование таргетированной рекламы, в целом требования по обеспечению прозрачности использования алгоритмов. Подобные ограничения активно обсуждаются в других странах».

Власти ЕС хотят сделать работу интернет-компаний и социальных сетей более прозрачной, чтобы препятствовать распространению политической пропаганды, разжиганию ненависти и фейковым новостям.

Россия — не исключение

Российский законопроект о рекомендательных алгоритмах тоже планируют представить в Госдуму России совсем скоро. Существующая правовая инициатива направлена на решение двух фундаментальных задач: сделать рекомендательные алгоритмы более прозрачными и подконтрольными обществу и предоставить пользователям кнопку выключения таких алгоритмов.

По словам автора инициативы, зампредседателя Комитета Госдумы по информационной политике, информационным технологиям и связи Антона Горелкина, «нам нужно стремиться к тому, чтобы все рекомендательные алгоритмы, во-первых, могли быть отключены, и кнопки отключения должны быть. Во-вторых, они должны быть прозрачны, должен быть общественный контроль».

Так, эксперты во многих странах мира и в России пришли в тому, что рекомендательные алгоритмы оказывают колоссальное влияние на умы миллиардов людей, в том числе продвигая поляризационный, провокационный и деструктивный контент, манипулируя предпочтениями и мнениями. При этом, если европейское и американское законодательство направлено больше на то, чтобы регулятор имел доступ к используемым данным и принципам работы, в китайском и российском упор делается именно на наделение пользователя контролем над тем контентом, который он получает в ленте.

Таким образом, какой бы парадигмы регуляторики в сфере интернета не придерживались государства передовых стран, они все пришли к необходимости поместить рекомендательные сервисы в рамки закона. Подход и в Китае, и в США, и в ЕС, и в России одинаков: деятельность подобных технологических решений должна быть максимально прозрачной и понятной как для пользователей, так и для регулятора.

Лента добра деактивирована.
Добро пожаловать в реальный мир.
Бонусы за ваши реакции на Lenta.ru
Как это работает?
Читайте
Погружайтесь в увлекательные статьи, новости и материалы на Lenta.ru
Оценивайте
Выражайте свои эмоции к материалам с помощью реакций
Получайте бонусы
Накапливайте их и обменивайте на скидки до 99%
Узнать больше