Опасность искусственного интеллекта для общества оценили

Специалист по кибербезопасности Ульянов заявил об угрозе ИИ для общества

Фото: Glenn Carstens-Peters / Unsplash

Одна из главных опасностей искусственного интеллекта для общества состоит в том, что нейросети становятся способны генерировать все более качественный контент, в том числе, новостные сообщения, научные работы, ввиду чего возрастает риск распространения фейковой информации. Об этом в разговоре с «Лентой.ру» заявил специалист по кибербезопасности Владимир Ульянов.

«Опасения о том, что ИИ выйдет из-под контроля и начнет совершать деструктивные действия беспочвенны, потому что у него должны быть полномочия и возможности подобного рода, так что ограничения в этом вопросе должны касаться разработчиков. Единственное, в чем я вижу опасность, и почему, возможно, стоит ограничивать его использование, это то, что сейчас нейросети могут использоваться для создания разных текстов, научных статей, новостей», — сказал Ульянов.

Он объяснил, что, чем больше контента генерирует ИИ, тем сложнее понять, был ли он создан человеком. Кроме того, подобные тексты будут хорошо индексироваться поисковиками и активно распространяться.

«Чем больше распространяется информация, тем сложнее понять, кем она создана, насколько реальна. Могут появляться фейковые инфоповоды», — допустил специалист.

Ранее сообщалось, что итальянское управление по защите персональных данных первым в мире ввело временное ограничение на использование чат-бота ChatGPT. Причиной стало нарушение законодательства об использовании персональных данных.

Лента добра деактивирована.
Добро пожаловать в реальный мир.
Бонусы за ваши реакции на Lenta.ru
Как это работает?
Читайте
Погружайтесь в увлекательные статьи, новости и материалы на Lenta.ru
Оценивайте
Выражайте свои эмоции к материалам с помощью реакций
Получайте бонусы
Накапливайте их и обменивайте на скидки до 99%
Узнать больше