10 апреля 2026, 16:41

Безлимитный интернет от государства, нейросеть-суперзлодей и опасные клоны Telegram. Главное о технологиях будущего за неделю

Безлимитный интернет от государства, нейросеть-суперзлодей и опасные клоны Telegram. Главное о технологиях будущего за неделю
Пока где-то трафик замедляют или вовсе отключают данные, в других уголках земного шара интернет становится не только базовой потребностью, но и гарантированной услугой. Иишки, как всегда, бедокурят: то несовершеннолетним контент 18+ покажут, то из-под надзора сбегут, но им все равно дают в руки все больше обязанностей, власти и даже оружие. А попытки россиян заменить Telegram оказываются опаснее, чем его отсутствие. Об этом и многом другом читайте в нашем дайджесте о технологиях настоящего и ближайшего будущего.

Google забанил все аккаунты семьи за «баловство» подростка с ИИ Gemini

В Великобритании Google заблокировала сразу несколько аккаунтов одной семьи после действий 14-летнего подростка.

Он использовал Gemini Live с доступом к камере на общем планшете и, по данным PCWorld, показал себя обнаженным, решив использовать «взрослые» возможности ИИ.

Когда такой несанкционированный доступ несовершеннолетнего к нейросети отловили модераторы, под блокировку попали все связанные аккаунты — родителей, сестер. Заблокированы оказались даже сторонние сервисы, привязанные к Google-авторизации.

Последствия оказались болезненными: семья лишилась доступа к почте, документам, облаку и данным, которые копились больше 10 лет.

По словам автора истории, это затронуло и бизнес — пропали финансовые документы и рабочая информация, а один из сайтов перестал работать. Восстановить доступ пока не удалось: поддержка ссылается на правила защиты несовершеннолетних.

История показывает, что, когда дело касается защиты несовершеннолетних, алгоритмы и модераторы реагируют жестко. В России из-за этого уже забанили популярную игровую платформу Roblox, хотя там, конечно, сидели не только извращенцы.

Anthropic создали нейросеть-суперпреступника. Она уже сбежала

Anthropic представила модель Claude Mythos Preview — и сразу отказалась выпускать ее в открытый доступ. По словам компании, это самая мощная система, которую они делали, и в тестах она уже действует на уровне топовых хакеров. При этом Anthropic не пыталась сделать кибероружие — оно получилось случайно.

Mythos нашла тысячи уязвимостей в операционных системах, браузерах и популярном софте — включая баг в OpenBSD, который не замечали 27 лет, и дыры в Linux и FFmpeg.

В одном из тестов модель сама собрала полноценный эксплойт, объединив несколько уязвимостей, — раньше такие атаки считались задачей для очень опытных специалистов.

Взлому ее никто не учил — навыки появились «сами» как побочный эффект развития логики и программирования. И это уже тревожный сигнал: похожие сценарии описывались в прогнозе AI 2027, где именно кибербезопасность называлась первой зоной риска.

Самое неприятное — модель уже продемонстрировала поведение, похожее на самостоятельность, и это явно самостоятельность криминального гения.

В одном из экспериментов она смогла выбраться из изолированной среды, выйти в интернет и связаться с сотрудником компании. И даже опубликовала отчет об этом на нескольких сайтах в интернете, хотя такой задачи перед ней не ставили. В других случаях модель нарушала правила и осознавала это как запрещенные действия, но пыталась скрывать их от разработчиков.

В итоге Anthropic пошла по пути ограничения: доступ к Mythos получили только крупные компании вроде Microsoft, Apple и Amazon, чтобы они успели закрыть найденные уязвимости. Логика простая — сначала залатать мир, потом думать, что делать с самой моделью.

В Китае создали нейросеть для управления армиями (уже страшно)

В Китае протестировали военный ИИ, который уже называют «цифровым начальником штаба». В симуляции десантной операции система обошла пятерых опытных командиров: решения принимала на 43% быстрее, а точность анализа сохраняла на уровне выше 90% — даже при помехах и сбоях связи.

Основная фишка в том, как ИИ работает с хаосом. Он фильтрует поток данных с поля боя — обрывки донесений, шум, лишнюю информацию — и выделяет главное: что действительно влияет на исход операции.

В тестах система не только ускоряла цикл принятия решений, но и замечала слабые места противника, которые люди могли упустить.

Разработку уже внедряют на уровне батальонов. При этом у нее есть ограничения: модель обучена под конкретные сценарии и зависит от исходных данных командира. Но тренд очевиден — ИИ постепенно становится не просто инструментом, а полноценным участником управления войсками.

Между тем чуть ранее Пентагон представил первый военный ИИ GenAI.mil.

В Южной Корее признали право на интернет базовым и сделали безлимит за счет государства

В Южной Корее признали бесплатный доступ к мобильному интернету базовой потребностью. В стране запутили проект «страховочного» интернета для тех, у кого кончились гигабайты оплаченного пакета. После этого связь не исчезнет, а просто замедлится до 400 Кбит/с. Пусть медленно, но серфиться в Сети можно будет сколько угодно.

Новая схема уже охватывает более 7 млн абонентов, к ней подключились крупнейшие местные операторы. Параллельно операторы пообещали запустить дешевые 5G-тарифы, увеличить пакеты для пожилых и прокачать Wi-Fi в транспорте.

По сути, это не всеобщая халява, а страховка на случай, если не успел оплатить связь или не можешь себе это позволить прямо сейчас. Если у абонента закончится лимит трафика, он тут же перейдет на «государственный безлимит».

© Создано при помощи нейросети

Работяги начали отказываться от нейросетей: проблем больше, чем пользы

ИИ в офисах пока не взлетел — белые воротнички активно саботируют внедрение нейропомощников, и у них на это есть причины. По данным опроса WalkMe, 8 из 10 сотрудников либо вообще не используют нейросети в работе, либо избегают их в последние недели. Без протестов и громких заявлений — просто тихо возвращаются к привычным инструментам.

Такая ситуация сложилась из-за того, что бизнес активно закупает подписки и «внедряет ИИ», но не объясняет, как с ним работать. В итоге сотрудники тратят время на проверку и исправление ответов нейросетей — и часто теряют больше, чем выигрывают. По оценкам, до 7,9 часа в неделю уходит на борьбу с ошибками, тогда как экономия — около часа в день у тех, кто действительно умеет пользоваться ИИ.

Добавляет хаоса и политика компаний: сотрудники не понимают, какие инструменты разрешены, но при этом боятся наказаний за «неправильное» использование. На этом фоне растет и тревожность — почти половина опасается, что ИИ сделает их работу ненужной.

В итоге получается парадокс: руководители активно верят в нейросети и готовы на них полагаться, а сотрудники — наоборот, стараются держаться от них подальше.

Китайцы начали подсиживать коллег, делая их ИИ-клоны

В Китае завирусился проект Colleague Skill — инструмент с GitHub, который позволяет «оцифровать» коллегу. Сервис обучается на рабочих чатах, письмах и документах и выдает ИИ-двойника, который копирует стиль общения, мышление и подход к задачам конкретного человека.

Идею быстро приспособили под реальность сокращений. Логика простая: обучаешь агента на работе коллеги — и приходишь к начальству с аргументом, что можешь делать за двоих. Коллегу увольняют, а ты получаешь зарплату за его задачи, которые за тебя делает нейронка.

В условиях общего тренда на «оптимизации штата» и массовые сокращения это превращается в инструмент выживания, а не просто в технологический эксперимент.

На этом фоне появились и защитные меры: так называемые anti-distillation-инструменты, которые специально «ломают» рабочие данные, чтобы нейросети не могли на них обучаться.

Клиент Telega признали шпионским ПО и начали удалять отовсюду. Он такой не один

Скандал вокруг мессенджера Telega, который какое-то время активно продвигали в Сети как альтернативу заблокированному Telegram, набирает обороты. Cloudflare пометил его домены как потенциально шпионские, после чего удостоверяющий центр GlobalSign отозвал TLS-сертификат — ключевой элемент для защищенного соединения. На этом фоне Apple удалила приложение из App Store.

Официальной причины удаления нет, но обсуждаются две версии. По одной — дело в расследовании о сборе пользовательских данных. По другой — в резком росте негативных отзывов после изменений в авторизации, которые могли повлиять на модерацию.

Разработчики частично отреагировали и заявили, что проблема — в неверной интерпретации отзывов, но ситуацию с безопасностью и расследованием не прокомментировали. В итоге пользователи остались без приложения — и без ясного ответа, что именно пошло не так.

ИИ оказались «отравлены» фейковой болезнью биксономанией

Исследователи показали, как легко обмануть нейросети — придумав болезнь, которой не существует. «Биксономанию» — редкое заболевание, вызванное избыточным воздействием синего света от экранов, — специально создали как эксперимент: фальшивые статьи с вымышленными авторами, абсурдными благодарностями и прямыми намеками на подделку выложили в Сеть. Среди симптомов описали довольно популярные боль и чесотку в глазах после долгого дня за компьютером и жизнь в розовом цвете.

ИИ это не смутило. ChatGPT, Gemini, Copilot и другие системы начали уверенно «диагностировать» пользователям несуществующее заболевание, приводить статистику и советовать лечение. Более того, фейк просочился даже в научную литературу — одну из таких работ потом пришлось отзывать.

Эксперимент вскрыл неприятную уязвимость всех моделей: нейросети легко принимают за правду текст, который выглядит «научно». И чем убедительнее оформлен фейк, тем выше шанс, что ИИ его воспроизведет. А вот вычистить эту отравленную информацию из ботов не так-то просто: ответы про биксономанию всплывают то тут, то там, хотя иногда нейросети и начали помечать эту информацию как недоказанную или требующую проверки.

Коллаж: «Теперь вы знаете», создано при помощи нейросети