В эпоху, когда IT-гиганты стали властелинами мира, когда самые продвинутые пользователи едва успевают за развитием новейших технологий, когда недоступность крупнейших мировых сервисов воспринимается как глобальная катастрофа всей цивилизации, основным мировым трендом стала защита пользователей. У многих юзеров по-прежнему нет возможности повлиять на огромное количество угроз: от кражи персональных и платежных данных до некомфортной и недружелюбной интернет-среды. В последние годы среди глобальных проблем интернета особняком стоит небезопасный или деструктивный контент, с которым сталкиваются как взрослые, так и дети: каждый может столкнуться с буллингом и клеветой, с проявлениями ненависти или дезинформацией, что в итоге негативно влияет даже на самых стойких людей. Как в мире борются с опасным контентом в сети и как пытаются защитить от него пользователей разных возрастов, — разбиралась «Лента.ру».
Защитой пользователей, особенно несовершеннолетних, в последние годы активно занялись по всему миру. Во многих странах уже действуют законы, направленные на защиту детей от опасного контента, причем новые инициативы на эту тему продолжают появляться. Так, в минувшем сентябре британские власти ввели ограничения для игровых платформ, соцсетей и стриминговых сервисов. Вскоре IT-компании не смогут использовать «завлекающие» алгоритмы и технологии, которые стимулируют детей потреблять больше контента. Например, под запрет попало автоматическое воспроизведение видеороликов, — оно, по мнению законотворцев, влияет на восприятие и побуждает маленьких пользователей проводить свободное время в сети. Если сервис все-таки уличат в нарушении правила, платформа будет вынуждена выплачивать огромный штраф — до четырех процентов от суммы глобального оборота. Некоторые крупные популярные соцсети, такие как TikTok, Instagram и YouTube, уже ввели соответствующие ограничения. Популярный среди молодежи TikTok откажется от оповещений после девяти часов вечера для подростков, не достигших 16-летнего возраста. Для молодых людей 16-17 лет такой «комендантский час» наступит после 22:00. Instagram ограничил контакты детей с незнакомцами: теперь взрослый не сможет связаться с несовершеннолетним пользователем, если тот на него не подписан. YouTube же отключил таргетированную рекламу и автоматический запуск видео для юзеров моложе 18 лет.
Нововведения в Великобритании поддерживают курс, взятый государством еще несколько лет назад: ранее местное правительство решило сделать виртуальное пространство страны «самым безопасным в мире местом для онлайн-общения». Контроль за качеством контента на площадках и проблему защиты пользователей возложили на сами сервисы.
Платформам предложили ввести структуры, названные Safety by Design, — то есть контролировать вредоносный контент на уровне алгоритмов работы сайтов и приложений, а пользователям — повышать цифровую грамотность. Тогда же был издан «белый лист онлайн-угроз» — Online Harms White Paper, где подробно описывались разновидности опасного контента: юридически определяемая вредная информация (например, терроризм), контент без определенного статуса (запугивание, троллинг, оправдание селфхарма и прочее) и легальный контент, который не предназначен для детей. Тогдашний премьер-министр страны Тереза Мэй раскритиковала IT-гигантов за безответственность перед пользователями: теперь площадкам придется прилагать большие усилия, чтобы вновь заслужить их доверие.
Европейские страны давно работают над проблемами социальных сетей. Например, жители Италии уже с 14 лет имеют право потребовать в частном порядке удалить деструктивный контент с сайта, — на исполнение запроса у платформы есть 48 часов. Такая мера была введена в 2017 году — тогда же, когда в Германии вступил в силу The Network Enforcement Act, закон о соцсетях.
Эту модель работы с сервисами нередко называют добровольно-принудительной: документально категории вредной и запрещенной информации не определены, но тем не менее ответственность за безопасность обязаны нести сами платформы. Площадки, общественные организации или представители власти могут заблокировать или удалить опасный контент (в сложных случаях возможно дополнительное разбирательство). Нарушителей наказывают крупными штрафами — до 500 тысяч евро, а по некоторым категориям нарушений — до 5 миллионов. Поэтому сервисы старательно следят за исполнением правил. «Для того чтобы обезопасить детей в сети, сегодня во многих странах принимаются необходимые меры», — подтверждает председатель комиссии по правовому обеспечению цифровой экономики московского отделения Ассоциации юристов России Александр Журавлев.
Правительство Китая несколько недель назад в рамках борьбы с игроманией ввело ограничения на видеоигры для несовершеннолетних. Теперь дети могут проводить время за играми только по праздникам, а также в пятницу и выходные, — но строго по часу в день. Согласно актуальному британскому Online Harms White Paper, чересчур длительное использование гаджетов несовершеннолетними тоже подпадает под регуляцию — по последней категории легального, но нежелательного. При этом с начала 2021 года китайские пользователи могут сразу требовать блокировки сайта, если опубликованные на площадке данные могут быть вредны для детей.
Мировой опыт демонстрирует, что опасный контент подстерегает в соцсетях не только несовершеннолетних, но и взрослых. Еще пять лет назад Еврокомиссия в сотрудничестве с крупнейшими IT-корпорациями (Microsoft, Facebook, Twitter и другими) разработала кодекс, в котором перечислила обязательства по борьбе с проявлениями ненависти в сети. За публичное подстрекательство к насилию или ненависти в отношении группы людей или члена такой группы по любому признаку — по признаку этнического или национального происхождения, религии, расы или цвета кожи — предусматривалась уголовная ответственность. Компании, подписавшие кодекс, обязались оперативно удалять подобный противоправный контент в течение суток. Тогда представители Европейского союза подчеркнули, что интернет — это пространство не ненависти, но свободы слова.
В России с 1 февраля 2021 года действует закон о самоконтроле социальных сетей. Он обязал владельцев площадок модерировать публикуемый контент и блокировать запрещенную информацию. К примеру, посты, в которых порочат людей по признакам национальной или расовой принадлежности, пола, возраста, профессии или места проживания, любые оскорбления и унизительные выражения, призывы к экстремизму или беспорядкам, а также фейковые данные и другую информацию. Под действие закона подпадают платформы с трафиком от полумиллиона пользователей в сутки. Помимо контроля контента они должны создать представительство в России и вести реестр жалоб, полученных от пользователей.
Однако эксперты считают, что не все платформы успешны в исполнении своих обязанностей.
Альянс, который упомянул глава РОЦИТ Рустам Сагдатулин, был создан лишь в минувшем сентябре. Это объединение операторов, интернет-компаний и медиахолдингов (среди членов альянса — «Вымпелком», «Мегафон», «Ростелеком», Mail.ru Group, «Яндекс», «Лаборатория Касперского» и другие), которые поставили перед собой задачу создать безопасную цифровую среду и противодействовать возникающим угрозам. Подобные добровольные соглашения уже заключались на рынке ранее: несколько лет назад положительным примером стал так называемый антипиратский меморандум, благодаря которому удалось добиться значительных изменений в сфере потребления легального контента. Члены нового объединения по защите детей выразили надежду, что виртуальное пространство перестанет быть источником угроз для детей, — в мире, где грань между физическим и виртуальным стирается, эта проблема сейчас стоит наиболее остро. Сейчас сложившийся Альянс обещает помогать в вопросах саморегулирования и повышения цифровой грамотности, распространять принципы медиагигиены, а также разработать систему ориентиров и ответственного поведения детей в сети.
Вероятно, новая организация призвана дополнить недостающие элементы мозаики, части которой призваны сложиться в картину более-менее благополучной виртуальной среды. Предполагалось, что новый закон о соцсетях заставит платформы нести определенную ответственность перед аудиторией, сняв ее непосредственно с пользователей, — именно на них ранее перекладывали обязательства многие сервисы. Часто администрация и модераторы отказывалась регулировать конфликты между юзерами и приходить на помощь в сложных ситуациях, даже когда начиналась настоящая травля или распространялась ложная информация. Очевидно, что кардинальных изменений ждать не приходилось, но жалобы пользователей стали для владельцев сетей весомее.
При этом безопасность каждого пользователя все еще находится в его руках и напрямую зависит от уровня цифровой грамотности, — ведь дело не столько в блокировках или запретах, сколько в осознанности людей, которые не публикуют фейки и не делятся ими, не поддерживают буллинг и стараются вести себя в виртуальном мире корректно.
В конце сентября 2021 года стало известно, что Федеральная служба по надзору в сфере связи, информационных технологий и массовых коммуникаций сформирует реестр социальных сетей, чтобы проконтролировать соблюдение ими законов. В ведомстве подчеркнули, что нововведения в законодательстве позволят работать с оперативным удалением опасной информации — например, треш-стримов. Facebook, Instagram, Twitter, YouTube, «ВКонтакте» и «Одноклассники», а также TikTok и Likee уже включены в реестр.