Экономика
Наши на Олимпиаде: все новости Зимних Игр
14:12, 12 февраля 2026

Глава отдела безопасности ИИ в американской компании испугался за судьбу мира и уволился

Глава отдела безопасности ИИ в Anthropic уволился, поняв, что «мир в опасности»
Дмитрий Воронин
Фото: insta_photos / Shutterstock / Fotodom

Глава исследовательского подразделения по безопасности искусственного интеллекта (ИИ) в недавно оцененной в 350 миллиардов долларов компании Anthropic Мринанк Шарма сообщил в письме коллегам, что «мир в опасности», и уволился, написав, что решил заняться изучением поэзии и «посвятить себя практике смелой речи». Его послание процитировал портал Business Insider.

Узнайте больше в полной версии ➞

«Мир в опасности. И не только из-за ИИ или биологического оружия, но и из-за целой серии взаимосвязанных кризисов, разворачивающихся прямо сейчас. Кажется, мы приближаемся к порогу, когда наша мудрость должна расти в равной мере с нашей способностью влиять на мир, иначе мы столкнемся с последствиями», — поделился испугавшийся за судьбу мира специалист. Он отметил, что добился в компании всего, чего хотел, включая разбор причин «подхалимства ИИ» и работу над проектом, «посвященным пониманию того, как ИИ-помощники могут сделать нас менее человечными или исказить нашу человечность».

«Я чувствую призвание к написанию текстов, которые обращаются к тому месту, где мы находимся, и которые ставят поэтическую истину рядом с научной истиной как одинаково допустимые способы познания», — написал Шарма, рассуждая о своих дальнейших планах. Также он пообещал «создать пространство», чтобы отбросить «сковывавшие» его до этого структуры и процитировал свое любимое стихотворение Уильяма Стаффорда.

Ранее «Лента.ру» писала о том, как опасения ведущих американских программистов за свои рабочие места в связи со стремительным развитием ИИ переросли в их среде в ожидания конца мира и вылились в прожигание жизни из-за неверия в будущее.

Сама Anthropic — американская технологическая компания в сфере ИИ, основанная бывшими сотрудниками OpenAI, создавшими семейство больших языковых моделей под общим названием Claude, — на прошлой неделе презентовала Claude Opus 4.6 — обновленную ИИ-модель, предназначенную для повышения офисной производительности и эффективности программирования. Также, как писала The Wall Street Journal, Anthropic, отпустив решившего заняться поэзией сотрудника, взяла в штат доктора философии Аманду Аскелл, которая изучает схемы рассуждения чат-бота Claude и разговаривает с ним, формируя его личность.

Философ рассказала журналистам о важности признания того, что в моделях ИИ «есть этот человекоподобный элемент» и «у них неизбежно сформируется чувство самости». Аскелл, сравнивающая свою работу с воспитанием ребенка, также сообщила, что учит Claude распознавать разницу между правильным и неправильным и считывать тонкие сигналы, наделяя его уникальными чертами личности.

< Назад в рубрику
На сайте используются cookies. Продолжая использовать сайт, вы принимаете условия