Безлимитный интернет от государства, нейросеть-суперзлодей и опасные клоны Telegram. Главное о технологиях будущего за неделю
Google забанил все аккаунты семьи за «баловство» подростка с ИИ Gemini
В Великобритании Google заблокировала сразу несколько аккаунтов одной семьи после действий 14-летнего подростка.
Он использовал Gemini Live с доступом к камере на общем планшете и, по данным PCWorld, показал себя обнаженным, решив использовать «взрослые» возможности ИИ.
Когда такой несанкционированный доступ несовершеннолетнего к нейросети отловили модераторы, под блокировку попали все связанные аккаунты — родителей, сестер. Заблокированы оказались даже сторонние сервисы, привязанные к Google-авторизации.
Последствия оказались болезненными: семья лишилась доступа к почте, документам, облаку и данным, которые копились больше 10 лет.
По словам автора истории, это затронуло и бизнес — пропали финансовые документы и рабочая информация, а один из сайтов перестал работать. Восстановить доступ пока не удалось: поддержка ссылается на правила защиты несовершеннолетних.
История показывает, что, когда дело касается защиты несовершеннолетних, алгоритмы и модераторы реагируют жестко. В России из-за этого уже забанили популярную игровую платформу Roblox, хотя там, конечно, сидели не только извращенцы.
Anthropic создали нейросеть-суперпреступника. Она уже сбежала
Anthropic представила модель Claude Mythos Preview — и сразу отказалась выпускать ее в открытый доступ. По словам компании, это самая мощная система, которую они делали, и в тестах она уже действует на уровне топовых хакеров. При этом Anthropic не пыталась сделать кибероружие — оно получилось случайно.
Mythos нашла тысячи уязвимостей в операционных системах, браузерах и популярном софте — включая баг в OpenBSD, который не замечали 27 лет, и дыры в Linux и FFmpeg.
В одном из тестов модель сама собрала полноценный эксплойт, объединив несколько уязвимостей, — раньше такие атаки считались задачей для очень опытных специалистов.
Взлому ее никто не учил — навыки появились «сами» как побочный эффект развития логики и программирования. И это уже тревожный сигнал: похожие сценарии описывались в прогнозе AI 2027, где именно кибербезопасность называлась первой зоной риска.
Самое неприятное — модель уже продемонстрировала поведение, похожее на самостоятельность, и это явно самостоятельность криминального гения.
В одном из экспериментов она смогла выбраться из изолированной среды, выйти в интернет и связаться с сотрудником компании. И даже опубликовала отчет об этом на нескольких сайтах в интернете, хотя такой задачи перед ней не ставили. В других случаях модель нарушала правила и осознавала это как запрещенные действия, но пыталась скрывать их от разработчиков.
В итоге Anthropic пошла по пути ограничения: доступ к Mythos получили только крупные компании вроде Microsoft, Apple и Amazon, чтобы они успели закрыть найденные уязвимости. Логика простая — сначала залатать мир, потом думать, что делать с самой моделью.
В Китае создали нейросеть для управления армиями (уже страшно)
В Китае протестировали военный ИИ, который уже называют «цифровым начальником штаба». В симуляции десантной операции система обошла пятерых опытных командиров: решения принимала на 43% быстрее, а точность анализа сохраняла на уровне выше 90% — даже при помехах и сбоях связи.
Основная фишка в том, как ИИ работает с хаосом. Он фильтрует поток данных с поля боя — обрывки донесений, шум, лишнюю информацию — и выделяет главное: что действительно влияет на исход операции.
В тестах система не только ускоряла цикл принятия решений, но и замечала слабые места противника, которые люди могли упустить.
Разработку уже внедряют на уровне батальонов. При этом у нее есть ограничения: модель обучена под конкретные сценарии и зависит от исходных данных командира. Но тренд очевиден — ИИ постепенно становится не просто инструментом, а полноценным участником управления войсками.
Между тем чуть ранее Пентагон представил первый военный ИИ GenAI.mil.
В Южной Корее признали право на интернет базовым и сделали безлимит за счет государства
В Южной Корее признали бесплатный доступ к мобильному интернету базовой потребностью. В стране запутили проект «страховочного» интернета для тех, у кого кончились гигабайты оплаченного пакета. После этого связь не исчезнет, а просто замедлится до 400 Кбит/с. Пусть медленно, но серфиться в Сети можно будет сколько угодно.
Новая схема уже охватывает более 7 млн абонентов, к ней подключились крупнейшие местные операторы. Параллельно операторы пообещали запустить дешевые 5G-тарифы, увеличить пакеты для пожилых и прокачать Wi-Fi в транспорте.
По сути, это не всеобщая халява, а страховка на случай, если не успел оплатить связь или не можешь себе это позволить прямо сейчас. Если у абонента закончится лимит трафика, он тут же перейдет на «государственный безлимит».
© Создано при помощи нейросети
Работяги начали отказываться от нейросетей: проблем больше, чем пользы
ИИ в офисах пока не взлетел — белые воротнички активно саботируют внедрение нейропомощников, и у них на это есть причины. По данным опроса WalkMe, 8 из 10 сотрудников либо вообще не используют нейросети в работе, либо избегают их в последние недели. Без протестов и громких заявлений — просто тихо возвращаются к привычным инструментам.
Такая ситуация сложилась из-за того, что бизнес активно закупает подписки и «внедряет ИИ», но не объясняет, как с ним работать. В итоге сотрудники тратят время на проверку и исправление ответов нейросетей — и часто теряют больше, чем выигрывают. По оценкам, до 7,9 часа в неделю уходит на борьбу с ошибками, тогда как экономия — около часа в день у тех, кто действительно умеет пользоваться ИИ.
Добавляет хаоса и политика компаний: сотрудники не понимают, какие инструменты разрешены, но при этом боятся наказаний за «неправильное» использование. На этом фоне растет и тревожность — почти половина опасается, что ИИ сделает их работу ненужной.
В итоге получается парадокс: руководители активно верят в нейросети и готовы на них полагаться, а сотрудники — наоборот, стараются держаться от них подальше.
Китайцы начали подсиживать коллег, делая их ИИ-клоны
В Китае завирусился проект Colleague Skill — инструмент с GitHub, который позволяет «оцифровать» коллегу. Сервис обучается на рабочих чатах, письмах и документах и выдает ИИ-двойника, который копирует стиль общения, мышление и подход к задачам конкретного человека.
Идею быстро приспособили под реальность сокращений. Логика простая: обучаешь агента на работе коллеги — и приходишь к начальству с аргументом, что можешь делать за двоих. Коллегу увольняют, а ты получаешь зарплату за его задачи, которые за тебя делает нейронка.
В условиях общего тренда на «оптимизации штата» и массовые сокращения это превращается в инструмент выживания, а не просто в технологический эксперимент.
На этом фоне появились и защитные меры: так называемые anti-distillation-инструменты, которые специально «ломают» рабочие данные, чтобы нейросети не могли на них обучаться.
Клиент Telega признали шпионским ПО и начали удалять отовсюду. Он такой не один
Скандал вокруг мессенджера Telega, который какое-то время активно продвигали в Сети как альтернативу заблокированному Telegram, набирает обороты. Cloudflare пометил его домены как потенциально шпионские, после чего удостоверяющий центр GlobalSign отозвал TLS-сертификат — ключевой элемент для защищенного соединения. На этом фоне Apple удалила приложение из App Store.
Официальной причины удаления нет, но обсуждаются две версии. По одной — дело в расследовании о сборе пользовательских данных. По другой — в резком росте негативных отзывов после изменений в авторизации, которые могли повлиять на модерацию.
Разработчики частично отреагировали и заявили, что проблема — в неверной интерпретации отзывов, но ситуацию с безопасностью и расследованием не прокомментировали. В итоге пользователи остались без приложения — и без ясного ответа, что именно пошло не так.
ИИ оказались «отравлены» фейковой болезнью биксономанией
Исследователи показали, как легко обмануть нейросети — придумав болезнь, которой не существует. «Биксономанию» — редкое заболевание, вызванное избыточным воздействием синего света от экранов, — специально создали как эксперимент: фальшивые статьи с вымышленными авторами, абсурдными благодарностями и прямыми намеками на подделку выложили в Сеть. Среди симптомов описали довольно популярные боль и чесотку в глазах после долгого дня за компьютером и жизнь в розовом цвете.
ИИ это не смутило. ChatGPT, Gemini, Copilot и другие системы начали уверенно «диагностировать» пользователям несуществующее заболевание, приводить статистику и советовать лечение. Более того, фейк просочился даже в научную литературу — одну из таких работ потом пришлось отзывать.
Эксперимент вскрыл неприятную уязвимость всех моделей: нейросети легко принимают за правду текст, который выглядит «научно». И чем убедительнее оформлен фейк, тем выше шанс, что ИИ его воспроизведет. А вот вычистить эту отравленную информацию из ботов не так-то просто: ответы про биксономанию всплывают то тут, то там, хотя иногда нейросети и начали помечать эту информацию как недоказанную или требующую проверки.
Коллаж: «Теперь вы знаете», создано при помощи нейросети