Экономика
11:30, 16 апреля 2026

В России научили рекомендательные системы глубже понимать пользователей

Ученые Сбера нашли способ переносить знания из LLM в рекомендательные системы
Татьяна Романова (Редактор)
Фото: Дмитрий Ермаков / «Лента.ру»

Ученые Центра практического искусственного интеллекта Сбербанка вместе с исследователями Института AIRI, Университета Иннополис и ИТМО нашли способ переносить глубокие семантические знания из больших языковых моделей в компактные рекомендательные системы. Для пользователя это повышает точность подбора товаров, фильмов и другого контента и при этом не замедляет работу сервисов — скорость выдачи рекомендаций остается на уровне исходной легкой модели.

Узнайте больше в полной версии ➞

Свои результаты исследователи опубликовали в научной статье, подготовленной под руководством Алексея Васильева — исполнительного директора по исследованию данных Центра практического искусственного интеллекта Сбербанка. Работа объединенной команды исследователей была представлена на престижной конференции ECIR 2026.

Задача рекомендательных систем на последовательностях заключается в том, что они хорошо улавливают временные цепочки действий пользователя, но хуже понимают его истинные предпочтения, особенно если данных о человеке мало. Большие языковые модели умеют восстанавливать эти скрытые смыслы, но использовать их напрямую в реальных сервисах ресурсозатратно: один запрос к LLM может длиться более 10 минут.

Подход российских ученых решает эту задачу. На этапе обучения модели по истории взаимодействий и текстовым метаданным формируется профиль пользователя — его предпочтения и особенности поведения. Затем он превращается в вектор, с которым выравниваются внутренние представления самой рекомендательной модели. В итоге, когда система выдает рекомендации реальному человеку (на этапе инференса), ресурсоемкая модель уже не требуется.

Проверка на четырех наборах данных показала: добавление LLM-дистилляции к популярным моделям SASRec и BERT4Rec дает устойчивый прирост качества. На датасете ML-20M точность NDCG@10 выросла на 5,62 процента, а полнота Recall@10 — на 4,74 процента по сравнению с обычным SASRec. При этом скорость создания рекомендаций оказалась в 190 раз выше (4,37 секунды против 840 секунд) по сравнению с базовым методом IDGenRec на основе больших языковых моделей.

«Большие языковые модели обладают колоссальным объемом знаний о мире и о том, как люди формулируют свои предпочтения. Но использовать их напрямую в рекомендательных сервисах — все равно что приглашать профессора лингвистики для ответа на каждый вопрос в чате. Наш подход берет у "профессора" самое ценное — понимание глубинных мотивов пользователя — и передает это быстрому и легкому "ассистенту". В итоге человек получает более точные рекомендации без задержек, а бизнес — масштабируемое решение без лишних расходов на инференс», — отметил директор Центра практического искусственного интеллекта Сбербанка Николай Тиден.

Использование решения позволит цифровым сервисам еще лучше понимать предпочтения пользователя. Кинотеатр подберет фильм, который действительно понравится, интернет-магазин покажет нужный товар, даже если клиент еще сам не сформулировал запрос. Компании же получают готовый метод повышать качество рекомендаций без роста вычислительных затрат, перестройки архитектуры и необходимости держать в продакшене тяжелую большую языковую модель. Это особенно важно для крупных промышленных систем, где важна каждая миллисекунда.

< Назад в рубрику
На сайте используются cookies. Продолжая использовать сайт, вы принимаете условия