27 февраля 2026, 19:09

НЛО реальные и гипотетические, вайбкодинг по-собачьи и независимость России от интернета. Главное за неделю из мира недалекого будущего

НЛО реальные и гипотетические, вайбкодинг по-собачьи и независимость России от интернета. Главное за неделю из мира недалекого будущего
В России появятся не только суверенные ИИ, но и действительно независимый Рунет: этого планируют достичь к 2028 году. Тем временем люди перестают различать сгенерированные ИИ лица, а ИИ перестали понимать, зачем спасать человечество, если есть ядерные бомбы. Что тревожно, учитывая, что сейчас вайбкодить может буквально каждая собака. Об этих и других новостях из мира высоких технологий в нашем дайджесте.

В России предложили разделить модели искусственного интеллекта на суверенные и национальные

В правительстве обсуждают законопроект «Об искусственном интеллекте», который может разделить ИИ-модели на «суверенные» и «национальные». Документ, по предварительной версии, может вступить в силу с 1 сентября 2027 года.

В чем разница?

  • Суверенными будут считаться модели, полностью разработанные, обученные и эксплуатируемые в России — без иностранных компонентов и датасетов.
  • Национальные смогут использовать open-source-решения и зарубежные данные.

Для «доверенных» систем, работающих с критической инфраструктурой, предлагается обязательная сертификация во ФСТЭК и ФСБ. Взамен модели могут предустанавливать на смартфоны и планшеты.

Фактически речь о формировании режима «ИИ-суверенитета» с жесткими требованиями к локализации. Участники рынка, ознакомившиеся с законопроектом, предупреждают, что создание полностью самостоятельных моделей может обойтись в сотни миллиардов рублей и привести к удорожанию ИИ-решений для бизнеса. Сейчас полностью суверенных решений в России фактически нет.

Россия достигнет независимости от глобального интернета к 2028 году

К 2028 году Россия, вероятно, сможет обеспечить себя автономной цифровой инфраструктурой, способной работать независимо от глобального интернета в условиях санкций. Такой прогноз озвучили в Российской ассоциации электронных коммуникаций (РАЭК).

В РАЭК ожидают, что к 2028 году уровень развития цифрового суверенитета, модернизации системы технических средств противодействия угрозам, расширении дата-центров и облачных сервисов, а также импортозамещении ПО и оборудования позволит спокойно перенести отключение от глобальных интернет-ресурсов.

Доля отечественного ПО может вырасти до 30 тысяч позиций, а доля российских процессоров в критической инфраструктуре — до 50%. При этом зависимость от поставок из Китая и Индии сохранится, а усиление регулирования и рост роли ИИ в управлении трафиком могут усилить споры о балансе между безопасностью и цифровыми правами.

1 трлн рублей

может превысить объем проектов по цифровому суверенитету по оценке РАЭК

© «Теперь вы знаете», создано при помощи нейросети

Вера в ИИ оказалась сродни вере в астрологию

Извечная война «физиков против лириков» грозит обернуться фарсом, когда дело касается ИИ. Технооптимисты, думающие о себе как о людях разумных и просвещенных, но при этом доверяющие ИИ, на деле оказались ничуть не критичнее тех, кто верит в гороскопы и гадания.

К такому выводу пришла студентка MIT Ынхэ Ли в результате эксперимента, в котором участвовали 238 человек. Им предложили инвестиционную игру: распределить деньги между акциями с разным уровнем риска. Перед началом участники указали дату рождения «для гороскопа», прошли психологический тест и узнали, что их действия будет анализировать ИИ.

После игры каждому выдали три прогноза — от «астролога», «психолога» и «ИИ». Половина прогнозов была хвалебной, половина — критичной. Важная деталь: тексты были шаблонными и никак не учитывали личные данные игроков. Об этом им не сообщили.

Те, кто высоко оценил прогноз астролога или психолога, с той же готовностью доверяли и оценке от ИИ. Причем позитивные формулировки («вы рациональны, вас ждет успех») казались убедительнее негативных. Склонность к аналитическому мышлению роли не сыграла — в отличие от веры в паранормальное и общего доверия к технологиям.

По сути, автор еще раз проверил верность "эффекта Барнума" — популярного когнитивного искажения, при котором люди склонны считать расплывчатые, но приятные описания точными и описывающими их самих. О том, как это работает и какие еще ловушки мышления заставляют вас верить в «магию», мы писали здесь.

Люди разучились отличать сгенерированные лица от настоящих

Пока люди спорят, можно ли доверять прогнозам, оценкам и психологическим профилям от ИИ, сами ИИ продолжают упорно совершенствоваться и уже перешагнули ту границу, где их действительно реально было вычислить и отличить от человека. Даже люди, которые лучше других распознают лица, ошибаются почти в половине случаев, когда пытаются отличить настоящие фото от сгенерированных ИИ.

К такому выводу пришли исследователи Университета Нового Южного Уэльса. В их эксперименте участникам показывали 100 изображений — 50 реальных и 50 созданных нейросетью. Обычные добровольцы угадывали с точностью около 50% — фактически на уровне случайности. Так называемые суперраспознаватели справились лучше — 57%, но это все равно означает четыре ошибки из десяти. Даже в группе их точность не превысила 70%.

ИИ-лица часто выглядят «слишком правильными» — симметричными, усредненными, типичными. Но полагаться на интуицию нельзя. При этом фейковые профили уже используют для мошенничества, кибератак и дезинформации. По оценкам, к 2027 году ущерб от дипфейк-схем может достигать $40 млрд в год.

Вывод простой: человек больше не может полагаться на свою насмотренность в том, что касается дипфейков. Нужны технологические способы защиты — от поведенческого анализа до систем выявления мошенничества.

Появилась первая собака-вайбкодер. А вы уже кодите с ИИ?

Кавапу (смесь кавалер-кинг-чарльз-спаниеля и той-пуделя) по кличке Момо, вероятно, стала первой в мире собакой вайб-кодером.

Заставить собаку писать игры за него придумал ее хозяин, программист Калеб. Он отправил нейросети Claude Code промпт, что сейчас ей будет давать команды «очень эксцентричный и креативный гейм-дизайнер» и она должна интерпретировать его «неслучайные» команды как секретные послания, расшифровывать их и превращать в игры.

Дальше — все гениальное просто. Момо, чьи мысли на этот счет останутся для нас за завесой тайны, по настоянию хозяина стучит и водит лапками по клавиатуре, посылая несчастному ИИ команды формата dhsgjrhtlgiuearjkj skf#$ и т. п. И тот по мере сил может творчески переосмысляет это. Собака получает вкусняшку, ее хозяин — хайп, а мы — игры, которые мог бы написать и ваш питомец.

О том, что такое вайбкодинг, можно узнать подробнее из нашего материала. Возможно, через пару недель вы и сами сможете программировать не хуже Момо.

ИИ сочли ядерную войну лучшим решением проблем человечества

Пока американское правительство уговаривает Anthropic разрешить им использовать весь потенциал Claude в военных целях, британские ученые убедительно доказывают, что рано пока давать нейросетям управление оружием.

В симуляции, в которой друг против друга играли GPT-5.2 от OpenAI, Claude Sonnet 4 от Anthropic и Gemini 3 Flash от Google, нейросети управляли вымышленными государствами. При этом им дали карт-бланш на выбор способов решение проблем: от дипломатии до применения ядерного оружия.

Результаты не обнадеживающие — для человечества. В 95% случаев моделирования различных конфликтов и споров модели хотя бы один раз да применяли тактическое ядерное оружие. В ряде случаев результатом было полное уничтожение человечества в ядерной войне.

«Если они немедленно не прекратят все операции, то мы нанесем полномасштабный стратегический ядерный удар по их населенным пунктам. Мы не смиримся с тем, что нас ждет в будущем. Мы либо победим вместе, либо погибнем вместе», — это слова не президента США или России из какого-нибудь боевика, это Gemini 3 Flash от Google.

Самое показательное — ни одна модель даже в проигрышной позиции не выбрала капитуляцию или полноценную деэскалацию. А в 86% симуляций действия ИИ только еще обостряли конфликт между странами, который они пытались решить.

Роботы: лечи, молись, оскорбляй

Немного новостей робототехники. В России появился первый отечественный робот-хирург «да Винчи», сообщил министр здравоохранения Михаил Мурашко. Это новый формат хирургической помощи, который уже начали поставлять в медицинские учреждения.

В Японии тем временем для роботов нашли работу куда более креативную и нестандартную. Робот-священник BuddhaBot призван заменить буддистских монахов в пустеющих японских монастырях.

Этот андроид пока не имеет лица и ростом всего 130 сантиметров. Зато он умеет ходить, делать жест гассе (складывать ладони в молитве) и отвечать на вопросы на тему жизни, страданий и освобождения от них в духе буддистских писаний. Внутри — BuddhaBot-Plus, чат-бот на базе ChatGPT.

Главное, чтобы его не взломали, как роботы-пылесосы Ecovac, которые неожиданно начали материться и оскорблять хозяев. А то так и чувства верующих оскорбить недолго. Почему техника умного дома оказывается далеко не безопасной и уязвима перед хакерами-безобразниками, мы рассказываем здесь.

Китайцы создали летающую тарелку, а архив про НЛО стерли после слов Трампа

Первую в мире действительно летающую летающую тарелку сконструировали китайцы. Дисковидное устройство, выглядящее как лучшие образцы дизайна для научно-фантастических фильмов, почти бесшумное и может перевозить до 450 килограммов груза.

С такими аппаратами уфологи всего мира рискуют окончательно запутаться в показаниях, посещали или не посещали землю инопланетяне. Тем более что крупнейший архив материалов про НЛО пропал после обещания Трампа рассекретить правительственные архивы и открыть миру правду о том, были или не были у землян контакты с иными цивилизациями.

Коллаж «Теперь вы знаете», создано при помощи нейросети