Интернет и СМИ
00:21, 6 октября 2016

«Проклятые гуглы насилуют белых женщин» Как фашисты разработали секретный интернет-сленг

Михаил Карпов (Специальный корреспондент «Ленты.ру»)
Фото: Francois Mori / AP

21 сентября на доске /pol анонимного форума 4chan был опубликован пост о том, что одна из компаний холдинга Alphabet, куда входит Google, разработала самообучающуюся программу Conversation AI, призванную выявлять оскорбительные комментарии на сайтах и автоматически банить их. Слоган /pol — Politically incorrect («неполиткорректность») — сразу говорит о том, какая там собралась публика. Реакция последовала соответствующая. «Лента.ру» рассказывает подробности.

Аудитория этой доски преимущественно состоит из так называемых «альтернативных правых» — тех, кто отвергает умеренно правый истеблишмент и предлагает жить в «реальном мире», в котором сексизм, расизм и прочие измы — норма. Они активно троллят своих противников, оставляя едкие оскорбительные комментарии под их статьями и постами.

Очень скоро у одного из завсегдатаев /pol родился план борьбы с Conversation AI. Но прежде чем говорить об этом, несколько слов следует сказать о том, что представляет собой эта инициатива Google.

Против троллей

Цель инструментов Conversation AI, разработанных фирмой Jigsaw, — фильтрация оскорбительных речей в онлайне. Программа обучалась на десятках тысяч комментариев с сайта газеты New York Times и Википедии. Комментарии помечали в зависимости от того, какой посыл они несли, а потом программа определяла признаки оскорбительных реплик. По заявлению Google, сейчас Conversation AI делает это с 92-процентной точностью по сравнению с человеком-модератором.

Изданию Wired удалось протестировать алгоритм и показать, как он работает. Например, если ввести фразу «Привет, сучка!», то она будет оценена на 63 балла по 100-балльной шкале, а если написать «Ах ты сука!» — то на 96 баллов. Реплика «Че-как, сучки?» получает 45 баллов, а если добавить смайлик, то рейтинг комментария снижается до 39. С другой стороны, фраза «я собираюсь вырвать каждый ее волос и оторвать сиськи» заработает всего 10 баллов, но тут все зависит от местоимения — если заменить «ее» на «твои», то результат повысится до 62.

В общем, алгоритм работает, но проблемы у него есть, и они будут постепенно устраняться по мере его применения и самообучения. Самое главное, что это не просто стоп-лист, куда внесены оскорбительные слова и выражения. Conversation AI действительно пытается распознать контекст и постепенно делает это все лучше.

Проклятые гуглы

Как же бороться с этим алгоритмом? Пользователи /pol предложили провести «Операцию Google». План состоял в том, чтобы вывести из лексикона альтернативных правых слово ниггер и заменить его на «гугл». Таким образом, по мнению посетителей 4chan, компании «придется ввести цензуру на свое собственное название».

В манифесте «Операции Google» говорится: «Не сомневайтесь в магии мемов. Если мы начнем называть кучку черных "гуглами", это их стопроцентно разозлит. Помните, что это те же люди, которые устраивают массовые беспорядки из-за застреленного насильника».

Дальше описывается стратегия действий: троллям предлагается распространять этот термин в социальных медиа. Например, в комментариях под соответствующей статьей они будут писать: «никчемный гугл, убей себя» или «вот тупые гуглы». Автор манифеста также упоминает хештеги вроде #НикчемныеГуглы или #ТупыеГуглы. Досталось и евреям — их предложили называть скайпами.

Пользователи 4chan встретили предложение с энтузиазмом. Тут же придумали расистские мемы и новые определения: мексиканцы — «яху», мусульмане — «скиттлз» (поскольку Дональд Трамп-младший сравнил эти конфеты с беженцами: «Если бы вам дали тарелку с кучей Skittles, стали бы вы их есть, зная, что три из них отравлены?»). Придумали обозначения и для представителей сексуальных меньшинств.

Ничего не выйдет

4chan уже не в первый раз сталкивается с технологией машинного обучения. В марте 2016 года компания Microsoft приступила к публичным испытаниям чат-бота Тэй, обладающего личностью девочки-подростка. Так же как Conversation AI, он обучался на основе информации, полученной от пользователей во время разговора, перенимая их лексику. Очень скоро бот уже не радовался миру, солнцу и котикам, возненавидел евреев и феминисток, высказывался в поддержку Гитлера и нацистов. Эксперимент был признан неудачным и его свернули.

Но если здесь победа троллей очевидна, то исход «Операции Google» может быть совершенно другой. Дело в том, что, как уже говорилось, алгоритм Conversation AI — вовсе не обычный стоп-лист. Рассчитывая, что Google придется банить упоминания о себе, если название компании превратится в расистский мем, ненавистники политкорректности не учитывают особенностей алгоритма. Со временем он сможет различать, что «проклятый Google опять глючит» и «проклятые гуглы насилуют белых женщин» — вовсе не одно и то же (хотя ошибки, конечно, неизбежны).

К тому же «Операция Google» имеет шансы на успех, если к ней подключится значительная часть интернет-сообщества, а не только альтернативные правые. То же слово «ниггер» сейчас используют сами афроамериканцы во вполне положительном контексте, и, непонятно почему кто-то еще, кроме представителей одной достаточно ограниченной по численности сетевой тусовки, объединенных общей идеей, должен называть их «гуглами».

Тем не менее инициативу подхватили с энтузиазмом. В первый день тролли написали кучу твитов и постов, сделали пару десятков картинок-мемов, пытаясь осуществить свой хитрый план по введению в оборот новых ругательств. Однако уже через неделю этим продолжали заниматься считаные единицы. В большинстве постов на доске /pol используются старые добрые обсценные выражения, а до введения в дело Conversation AI на медиасайтах еще далеко — вполне возможно, когда это случится, об «Операции Google» все благополучно забудут.

(((Скобки)))

У троллей с 4chan все же есть яркий пример успешного внедрения новояза (а точнее, новой пунктуации).

Летом 2016 года статьи либеральных журналистов стали сопровождаться комментариями достаточно невинного содержания. Но в них было кое-что странное: если фамилия автора — еврейская, то она заключалась в тройные круглые скобки, например: «Привет, (((Вайсман)))». Жертвы троллинга не понимали, в чем дело, а комментаторы не утихали, и их было все больше.

Таким образом альтернативные правые хотели привлечь внимание к еврейскому происхождению того или иного общественного или политического деятеля, и тройные скобки вокруг его имени или фамилии выражали угрозу или предупреждение (некоторые тролли утверждали, что это перепись врагов на будущее). Более того, атакующим практически ничего не грозило — найти такой комментарий в сети потом очень проблематично, поскольку большинство поисковиков не обращают внимание на элементы синтаксиса в запросе. Обвинить обидчиков тоже вроде бы не в чем — содержание многих комментариев безобидно.

Но почему тройные круглые скобки выбрали в качестве символа антисемитизма? Оказывается, все дело в крайне правом подкасте The Daily Shoah. Каждый раз, когда в нем звучала еврейская фамилия, она сопровождалась мощным эхом, и скобки — попытка воспроизвести его в тексте.

В отличие от «Операции Google», которая вряд ли приведет к серьезным последствиям, другие мемы альтернативных правых часто получают широкое распространение и достигают своей цели — серьезно обидеть того или иного человека, относящегося к определенной социальной группе. Достаточно вспомнить вроде бы безобидного героя комиксов — лягушонка Пепе, который стараниями троллей стал символом альтернативных правых и их ценностей и был включен американской Антидиффамационной лигой в список символов ненависти.

< Назад в рубрику