07 ноября 2025, 00:01

Отберет контроль и превратит в безработных? Какие реальные и будущие угрозы исходят от ИИ

Одни поют искусственному интеллекту дифирамбы, другие боятся, что он отберет у них работу, а третьи глядят на первых двух и думают, что потеря работы — еще не самое страшное развитие событий. К какому бы лагерю вы ни принадлежали, вы уже столкнулись или вскоре столкнетесь с ИИ и его влиянием на вашу жизнь. Отказываться от такого мощного инструмента было бы глупо, но надо понимать, что этот инструмент обоюдоострый и может навредить, если не знать о рисках. Мы не пугаем — мы предупреждаем.
Отберет контроль и превратит в безработных? Какие реальные и будущие угрозы исходят от ИИ

© «Теперь вы знаете» / создано при помощи нейросети

Опасности настоящего

Внедрение ИИ в самые разные стороны жизни в последние годы идет с постоянным ускорением и расширением. Он автоматизирует производство, ищет новые лекарства и материалы, пересказывает вам новости, следит за порядком через городские камеры и спутники, ищет и вычисляет преступников, находит пропавших людей и даже борщевик на дачных участках.

И все это — пока еще не сверхразум и даже не пресловутый сильный ИИ, который будет способен на абсолютно самостоятельную работу. А ведь и их появление уже не за горами.

За эти годы человек сумел найти множество вариантов применения для нейросетей и искусственного интеллекта и сделать их доступными для рядовых пользователей.

Но применять ИИ начали не только для пользы, но и для преступных целей. И даже внешне полезное их назначение на поверку несет в себе немалые риски.  

Вот с чем сталкиваются уже сейчас.

Ошибки и предвзятость в алгоритмах

Даже самый «умный» ИИ учится на данных, предоставленных человеком, — а они полны искажений, стереотипов и дыр. Если позволить ему принимать решения или следовать его советам без критического восприятия, эти искажения могут повлиять и на вас.

На практике это может привести, например, к тому, что компании, внедрившие ИИ и полностью отдавшие ему на откуп решение важных вопросов, будут принимать несправедливые или ошибочные решения. И даже не сразу поймут, где их суперпомощник так набедокурил.

Это может привести к дискриминации при найме или кредитовании, к неправильной оценке рисков в юриспруденции и ошибочным приговорам в суде.

Оружие дезинформации

Голосовые и видеодипфейки начинались как безобидные шутки, но стремительно стали орудием злоупотреблений. С их помощью мошенники разводят людей, а центры дезинформации клепают убедительные «доказательства» любого нарратива.

Даже чиновники иногда могут подделать результаты работы для отчетности и выложить подправленное фото с места приемки дороги или детской площадки, где по факту осталась та же разруха. Что уж говорить о преступниках.

Совершенствование ИИ грозит сделать дипфейки совершенно неотличимыми от реальности. Результат — смятение в умах и утрата общественного доверия к любым источникам информации.

Переворот на рынке труда

Появляются все новые и новые списки профессий, которые на горизонте ближайших лет могут полностью исчезнуть из доступных для людей. И что тревожно, они только расширяются: если раньше исчезновение предрекали только кассирам, бухгалтерам и переводчикам, то теперь в очереди на вылет менеджеры, политологи, писатели, туроператоры, финансовые консультанты.

Виной всему опять ИИ — с какими-то задачами он справляется лучше человека, с какими-то — тупо быстрее и практически со всеми — значительно дешевле.

То есть бизнес в виде развивающихся ИИ-агентов получает решение сразу целого ряда задач, для которых раньше нужны были люди. Встает вопрос: а куда денутся все эти люди?

Да, аналитики предлагают много вариантов, начиная со «становиться шефом над ИИ» и просто использовать нейросеть как подчиненного до «переучиваться на более актуальные профессии».

Но правда в том, что нет ничего такого, на что не мог бы пойти капитал ради прибыли. А экономия — это та же прибыль. Так что сохранять ставки для людей бизнесу невыгодно.

Если не появятся регуляторные механизмы и социальные гарантии со стороны государства, защищающие людей от увольнения при внедрении ИИ, безработных будет очень много. А богатые станут еще богаче.

ИИ в руках киберпреступников

  Уже сейчас преступники используют возможности нейросетей для того, чтобы подбирать пароли к аккаунтам пользователей. Время взлома одного пароля колеблется от нескольких минут до нескольких часов в зависимости от его сложности.

Правительство и кибербезопасники уже серьезно обеспокоены возможностями, которые дает ИИ правонарушителям и террористам.

«Это, как и все в интернете, как и все в высоких технологиях... в руках недобросовестных людей или, не дай бог, в руках террористов, это может стать очень грозным оружием», — сказал официальный представитель Кремля Дмитрий Песков.  

В будущем с поддержкой ИИ кибератаки любого плана станут быстрее, мощнее и опаснее.

Как преступники используют ИИ уже сейчас

Алексей Антонов, руководитель направления исследования данных «Лаборатории Касперского», объяснил, что ИИ позволяет злоумышленникам ускорить решение рутинных задач, связанных с кибератаками.

Например, большие языковые модели (LLM), такие как ChatGPT, могут использоваться для написания вредоносного кода. Пока такие модели недостаточно совершенны, чтобы самостоятельно создавать сложное ПО, однако они упрощают его разработку. Уже появились первые вирусы, написанные ИИ.

Атакующие также могут включать во вредоносный код элементы ИИ. Один из примеров — стилер SparkCat со встроенным алгоритмом, который анализирует фотографии и скриншоты на смартфоне, чтобы украсть данные о криптокошельках, счетах и др.

ИИ также позволят атакующим существенно ускорить процесс подбора паролей. Более половины паролей можно взломать с использованием умных алгоритмов менее чем за час.

Большие языковые модели могут использоваться и для создания убедительных уникальных фишинговых сообщений, которые сложно обнаружить. Нейросети позволяют злоумышленникам создавать таргетированные письма, подстраивать их под конкретную жертву, используя информацию о ней.

Чтобы защититься от кибератак с использованием ИИ, важно повышать уровень цифровой грамотности, чтобы знать, какие возможности есть у злоумышленников. Также необходимо критически относиться к любой информации в интернете и перепроверять ее, чтобы вовремя распознать фишинговые сообщения или дипфейки. Чтобы обезопасить свои устройства от вредоносного ПО, в том числе созданного при помощи ИИ, рекомендуется использовать защитные решения от надежных вендоров.

Гонка за власть

США, Россия, Китай, Европа вкладывают миллиарды в разработки, потому что понимают: первые обладатели сильного ИИ потенциально могут получить лидерство не только в этой гонке.

© «Теперь вы знаете» / создано при помощи нейросети

Искусственный интеллект потенциально сам по себе дает огромную власть тем корпорациям, которые будут владеть его данными, так что потребность контроля в этой сфере уже назрела и довольно остра.

Только вдумайтесь: ежедневно миллионы пользователей в диалогах с нейросетями передают им гигабайты информации о себе и о мире. Эти данные хранятся на серверах компании-разработчика, что уже концентрирует опасно большой объем информации, условно, «в одних руках».

И хотя многие корпорации уже начали это регулировать, но это далеко не общее решение и разные страны решают этот вопрос по-своему.

Но что можно сделать, если у вас появятся уже не просто нейросети, а сильный ИИ, способный планировать и принимать решения и использовать для вычисления всех вариантов, например, возможности квантовых компьютеров (СНОСКА: Квантовый компьютер — вычислительное устройство, которое для обработки информации использует законы квантовой механики, то есть науки о том, как ведут себя очень маленькие объекты: атомы, электроны и другие частицы. Это позволяет проводить параллельные вычисления не просто быстро, а очень быстро)?  

Технологический прорыв сразу во многих областях — самое очевидное. А еще — возможность тонко манипулировать общественным мнением, совершенствовать оборону, предсказывать экономические взлеты и падения… возможности ограничены только полетом фантазии.

Будущие угрозы

Сильный ИИ, вышедший из-под контроля, — популярный сюжет научной фантастики. Однако то, что его уже не раз обыграли писатели и киноделы, не означает, что эта угроза всего лишь страшилка и выдумка.  

Вот о каких рисках дальнейшего развития ИИ нужно задуматься уже в перспективе ближайших десятилетий, а то и лет.

Потеря контроля

Сейчас нейросети, даже самые продвинутые и рассуждающие, — всего лишь алгоритмы, выдающие только то, что от них просит пользователь. Даже если кажется, что где-то их рассуждения вышли за рамки и дали им проявить «характер», скорее всего, это обусловлено их базовыми настройками или самой формулировкой промпта.  

Однако применение ИИ для программирования, промптинга и совершенствования алгоритмов имеет риск запустить цепную реакцию: система начнет улучшать себя и развиваться быстрее, чем люди будут успевать это контролировать, понимать ее возможности и мотивы.  

В теории в таких условиях вполне возможны развитие или имитация пресловутой «свободы воли».

Пока это скорее «фантомная боль» философов и фантастов, но основной вопрос в том, получит ли ИИ способность ставить цели вне заданных рамок и ресурсы для их реализации.  

Когда ИИ будет не только советовать, но и напрямую управлять машинами, производством, оружием, ошибка или умышленная манипуляция могут легко обернуться катастрофой.

Особенно если он преодолеет пресловутое «первое правило робототехники», сформулированное Айзеком Азимовым, и вопрос безопасности людей больше не будет для него в приоритете.

Однако футуролог Евгений Кузнецов убежден, что паниковать и бегать с воплями, что искусственный интеллект скоро всех убьет и поработит, как минимум преждевременно.

Все эти байки про свободу воли и самостоятельное принятие решения роботами, они, конечно, сейчас бессмысленны. Просто потому, что нынешнее понимание архитектуры сознания не позволяет даже смоделировать эти процессы. Если вспомним фильм «Солярис», то у даже у разумного океана оттуда было больше мотивов по отношению к людям, как минимум познавательных, чем у ИИ.

Евгений Кузнецов
футуролог

ИИ-оружие двойного назначения

Все хорошее, что может ИИ, точно так же можно использовать во вред, если иметь такие цели.  

Например, потенциальная способность быстро находить и тестировать в виртуальной среде различные варианты химических соединений и молекул мощно продвигает человечество в разработке лекарств и вакцин. Но одновременно есть риск создания с помощью ИИ биооружия по тем же принципам.  

А возможность одновременно решать тысячи задач делают его идеальным оператором дронов без необходимости обучать для этого живых людей. Там, где потребовался бы целый взвод операторов, справится один искусственный интеллект.  

Вепонизация ИИ (превращение технологии в оружие) — один из серьезных камней преткновения в разговорах о них уже сегодня.

Разработчикам приходится учитывать это и прописывать много сдерживающих факторов в свои продукты, чтобы не дать это оружие в руки простым людям, однако что может сдержать какое-то государство, если не будут достигнуты договоренности об ограничении ИИ глобального уровня?

Влияние на человека

ИИ уже влияет на людей, которые им пользуются. Исследования показывают, что увлечение ИИ может спровоцировать обострение психических заболеваний, привести к «оглупению» и в принципе изменить способ мышления.  

В будущем, передавая ИИ все больше задач и решений, не настроенные мыслить критически люди рискуют утратить способность действовать самостоятельно. Может произойти если не деградация, то эрозия человеческой компетентности: навыки и знания, которые не используются, быстро забываются мозгом как лишний балласт.

И к этому люди быстро движутся уже сейчас

Но есть и другая проблема влияния ИИ, которая может затронуть даже тех, кто осознанно не прибегает к нейросетям и подобным инструментам. Если те же рекламные алгоритмы уже сейчас знают о нас и наших желаниях раньше, чем мы успеваем их сформулировать, вообразите, что можно сделать с помощью сильного ИИ?  

Сверхперсонализированное влияние на человека даст возможность буквально манипулировать им, его выборами, покупками, мировоззрением. И тут та самая утраченная критичность ох как пригодилась бы.  

По иронии это одна из самых реалистичных угроз со стороны ИИ: не в том, что ИИ «взбунтуется», а в том, что он будет идеальным слугой, предельно эффективным исполнителем человеческих запросов. Даже если эти запросы будут изначально деструктивны или недальновидны.  

Однако пока ваши мозги остаются при вас, как и ваша свобода воли и решений. И конкретно в этом вопросе только вы решаете, как далеко вы готовы впустить ИИ в свою жизнь и что с ним делать.

Немного оптимизма

Конечно, с возможностями ИИ все плохое, на что способно человечество, приобретает новый мощный инструмент для того, чтобы стать еще хуже. Это данность, и это судьба почти любой технологии, которую можно использовать во вред.

Но есть и светлая сторона: все хорошее точно так же может задействовать мощности машин и алгоритмов, чтобы противостоять плохому и создавать что-то новое и прекрасное.

Человек обо что угодно может убиться, в том числе спросив ИИ, как это лучше сделать. Поэтому может ли искусственный интеллект навредить человеку? Может. Может ли он стать партнером какого-нибудь террориста по разработке биологического оружия? Может. Может ли он стать военным советником какого-нибудь враждебного государства? Может все что угодно. Но точно так же, как это сейчас можно сделать при помощи автомобиля, интернета, мобильной связи и всех других благ цивилизации.  

Будет ли он это делать сам? Абсолютно точно — нет. Хотелки нет, инструмента постановки целей. И вряд ли появится. И даже не потому, что создатели ИИ столь мудры и дальновидны, а потому, что они не понимают, как это вообще работает. Так что возможная революция ИИ пока откладывается, как минимум на поколение.

А пока мы, человечество, дожидаемся роковых радикальных изменений, давайте уже распакуем те сумасшедшие возможности, что благодаря ИИ есть у нас в руках. Это гигантское пространство для освоения, потрясающей силы инструмент, который стремительно встраивается в тысячи процессов. И там пока не до апокалиптических фантазий.

Евгений Кузнецов
футуролог