Контент в интернете, созданный искусственным интеллектом (ИИ), необходимо начать маркировать, убежден зампред комитета Госдумы по информационной политике Андрей Свинцов. В беседе с «Лентой.ру» он высказался о будущем использования человеческих лиц и голосов в технологиях ИИ.
Ранее председатель Патриаршей комиссии по вопросам семьи, защиты материнства и детей Русской православной церкви (РПЦ) иерей Федор Лукьянов счел необходимым закрепить на законодательном уровне введение маркировки для нейросетей, которая будет предупреждать человека, что он общается с искусственным интеллектом.
«Инициатива абсолютна правильная. В век цифровых технологий мы, как обычные граждане, не всегда успеваем анализировать то, что происходит [в интернете]», — отметил Свинцов.
Интернет заполонил контент в виде deepfake — это подмена лиц на видео- и фотоизображениях. Этот контент иногда может быть очень негативным, потому что может компрометировать кого-то
То же самое и с различными голосовыми помощниками, сообщил собеседник «Ленты.ру».
«Что касается различного рода программ, которые заменяют call-центр, когда с человеком говорит искусственный голос, то до недавнего времени человек мог отличить ИИ по шаблонным ответам. Но с учетом того, что за последние полгода технологии сделали какой-то космический рывок, через несколько месяцев уже ни один человек будет не в состоянии отличить, что есть компьютерная программа, а что — настоящий человек», — убежден парламентарий.
Поэтому то, что РПЦ поставила этот вопрос ребром и попросила, в том числе Государственную думу, ограничить это законодательно, я считаю, это правильно
Также Свинцов заявил, что депутаты Государственной думы как минимум должны обсудить поступившее от РПЦ предложение.
«Я не сторонник останавливать прогресс, но то, что этот контент необходимо маркировать — это абсолютно точно. И в Государственной думе это уже обсуждалось», — заключил депутат.
29 марта в Кремле заявили, что технологии искусственного интеллекта должны обязательно регулироваться.
Ранее компания OpenAI предупредила, что новая языковая модель GPT-4 может быть использована для генерации убедительной дезинформации. Специалисты заявили, что человечество недалеко от создания опасно сильного искусственного интеллекта.