Рекомендации, Поиск и Путешествия
1.13K subscribers
84 photos
4 videos
1 file
49 links
Download Telegram
У Кирилла в дискуссии academia vs industry запостили ссылку на блогпост Карпаты про PhD:

https://karpathy.github.io/2016/09/07/phd/

Тем кто сомневается, нужен ли PhD прям очень рекомендую почитать, я практически со всеми мыслями согласен.

Для меня главное, что мне нравилось во время PhD это:
1. Свобода выбора над чем работать
2. Путешествия, я никогда не ездил по миру столько, сколько во время PhD
3. Прямая связь своих результатов с собой, они не растворяются внутри огромной компании
4. Возможность сфокусироваться на больших задачах, без сильного давления получить результат прямо сейчас (хотя культура publish or perish конечно тоже создаёт стимулы на быстрые результаты)

Понятно что PhD не для всех. Например, это точно не про заработок денег в краткосрочной перспективе (хотя в долгосрочной возможно и окупается, но я не уверен).


На Кирилла тоже подпишитесь https://t.iss.one/inforetriever
🔥164👍2
А вот и обзор второй статьи на ACM RecSys с моим участием + ссылки на препринт от Даши Тихонович. Кстати, Даша завела свой канал по рекомендашкам, подпишитесь на нее!
💯4
Forwarded from Red RecSys
"eSASRec: Enhancing Transformer-based Recommendations in a Modular Fashion»

Нашу статью приняли на ACM RecSys 2025! (arxiv).
Совместная работа с Никитой Зелинским, Сашей Петровым, исследователями из МТС (и экс-МТС), а также с Андреем Савченко.

В работе мы представляем модульный взгляд на классические трансформерные бейзлайны в RecSys и ищем наиболее эффективную архитектуру (собранную по принципу лего), которая показывает хорошее качество в самых разных сетапах - от привычной LOO валидации на небольших академических датасетах до парето-оптимальности (в рамках NDCG / Beyond-Accuracy качества) на тайм сплите. Финальная связка - которую мы назвали eSASRec - получилась из «Shifted Sequence" задачи обучения (как в SASRec), LiGR архитектуры слоёв трансформера (как в продовой модели LinkedIn из «From Features to Transformers…») и Sampled Softmax лосса (тут без сюрпризов, хотя стоит сказать, что gBCE был очень близок по качеству, но не всегда быстро сходился).

На самом деле, в рамках этой достаточно долгой работы (первые экспы начались больше чем полгода назад) мы отвечали и на более широкий спектр вопросов. В академии есть свой заданный «порядок» для написания статей, и мы не могли добавить никаких выводов сверх основного фокуса работы. Так что вот основные официальные выводы статьи: есть обновленный SASRec, и он хорош во всех сетапах, в которых мы его тестили. Например, он даёт взрывные +23% от качества ActionPiece и TIGER в академических бенчмарках. А ещё в терминах парето-оптимальности он держит качество на уровне HSTU и FuXi, хотя в отличие от последних не использует таймстемпы ни в истории пользователей, ни при формировании рекомендаций. Ещё eSASRec максимально просто имплементировать и он не имеет проблем с масштабированием (тут спасибо LinkedIn за архитектуру). И мы открываем доступ к нашим имплементациям и коду бенчмарков.

А теперь - что в статью не вошло, и о чём можно было бы подискутировать).

Лично для меня помимо определения современного бейзлайна самым интересным был вопрос - можно ли верить SOTA клеймам на основе академических RecSys датасетов?

Я отвечу для начала очень простым примером из наших результатов: классическая LOO валидация на самых популярных датасетах Амазона показала, что давно известный вариант SASRec+SS без каких-либо обновлений уже давал те самые +23% к качеству ActionPiece и TIGER. Просто никто этот вариант на данных датасетах в качестве бейзлайна не заводил. А завели вариант BCE, 1 негатив, имплементация RecBole, 5 лет назад - и с тех пор только копипастили из статьи в статью. Значит ли это, что SASRec+SS такая уж «SOTA» рядом с TIGER?

По моим ощущениям (мы же дискутируем?), результаты на Amazon Beauty/Sports/Toys в целом не то чтобы отражали реальную полезность моделей - они явно отдают предпочтение более простым архитектурам. Например, оптимальные гипер-параметры там: 1 слой трансформера, 1 голова, количество факторов 64. А ещё HSTU и FuXi на этих датасетах тоже ощутимо «проигрывают» старенькому SASRec+SS. Хотя на Мувиленсе - уже ощутимо “выигрывают”.

Про тайм сплит и beyond-accuracy: мы в статье отмечаем эффективность моделей индикаторами Парето-оптимальности. Это позволяет хоть немного делать выводы о результатах архитектур между разными датасетами (пока нет общепринятого академического подхода для оценки степени трейд-оффа точности и “персонализации”). Наши выводы - что есть архитектуры, которые оставались Парето-оптимальными на всех тестовых датасетах (например, HSTU и eSASRec). Но даже между ними нельзя сказать заранее, какая модель окажется выше по NDCG, а какая - выше по Coverage, всё сильно зависит от данных. Не самый утешительный вывод в ML, где мы привыкли к "вот это State-of-the-Art - и ." Зато честный.

Спасибо всем, с кем мы вместе сделали эту работу ❤️
6👍3🔥2
Сходил на оазис. Как же это круто.
👍9🔥5
Сегодня был мой последний день в TripAdvisor/Viator. Этот период оказался меньше, чем я ожидал, но очень насыщенным и продуктивным. Огромное спасибо команде за поддержку, доверие и отличную атмосферу!

Горжусь тем, чего мы успели достичь. Мы кардинально обновили поиск в Viator, переведя его на современную двухэтапную архитектуру.

Ключевые проекты:

• Запустили семантическую генерацию кандидатов на основе state-of-the-art языковых моделей. За этот проект команда получила внутреннюю R&D награду 🏆.
• Разработали новый ранкер. A/B тест еще идет, но уже показывает стабильный рост конверсии. Надеюсь вскоре увидеть его в продакшене.
• Подготовили генеративные подсказки запросов. Решение получило отличный фидбэк от продактов и включено в планы на внедрение.

Параллельно с продуктовой работой удалось поработать и над исследованиями. Результат — три статьи с аффилиацией Viator на топовых конференциях и воркшопах:

• Balancing Accuracy and Novelty with Sub-Item Popularity. Будет в основной программе RecSys 2025, совместно с University of Glasgow и Politecnico di Bari: https://arxiv.org/abs/2508.05198
• GLoSS: Generative Language Models with Semantic Search for Sequential Recommendation. Принята на OARS @ KDD 2025, совместно с Georgia Tech: https://arxiv.org/abs/2506.01910
• Еще одна работа от нашей команды поиска сейчас на ревью на воркшоп CONSEQUENCES @ RecSys 2025.

О дальнейших планах расскажу позже. Сейчас небольшой отпуск для перезагрузки, а в сентябре жду встречи со многими из вас на ACM RecSys.
🔥34👏511🤝1
Я уже рассказывал про подкаст Recsperts, где хост (Marcel Kurovski) интервьюирует представителей RecSys сообщества.
Сегодня вышел эпизод со мной и моим научным руководителем в качестве гостей.
Там мы обсуждаем применение трансформерных моделей для рекомендательных систем; во много рассуждаем про их проблемы и наши решения этих проблем.

Послушайте 😉

Spotify: https://open.spotify.com/show/6VD2KroeVVimEtUOQ75Q8V

Apple Podcasts: https://podcasts.apple.com/us/podcast/recsperts-recommender-systems-experts/id1587222271

Сайт: https://recsperts.com/30
🔥214
📄 Наша статья (совместно с Michael Murtagh и Karthik Nagesh) "LLMs for estimating positional bias in logged interaction data" принята на воркшоп CONSEQUENCES’25, который пройдёт в рамках ACM RecSys в Праге.

Эта работа была сделана во время моей работы в Viator. Мы применили подход LLM-as-a-judge для оценки positional bias в сеточном интерфейсе поиска и рекомендаций.
Обычно для этого нужны онлайн-эксперименты (например, случайные перестановки результатов). Мы показали, что можно обойтись офлайн-методами, если LLM даёт достаточно качественную оценку релевантности.

Самое интересное: анализ выявил закономерности, зависящие не только от позиции сверху вниз, но и от строки и столбца в сетке. Такие эффекты одномерные модели не улавливают.

Буду рад обсудить!
13👍2
Появилась программа воркшопа CONSEQUENCES на RecSys 2025. Приятно видеть себя в хорошей компании с рисерчерами из Google, Spotify, Linkedin и Netflix. Кстати, в целом на RecSys часто вокршопы интереснее чем собственно основная программа.

#RecSys2025
🔥16
Я всегда тяготел к исследованиям. Именно ради того, чтобы заниматься рисерчем в области рекомендательных систем, я пошел наа PhD 4 года назад. С окончанием PhD я думал, что продолжать заниматься исследованиями не получится: по разным причинам я не мог оставаться в академии, а выбор индустриальных лабораторий не так велик. Я ошибался, все-таки получилось вернуться в рисерч.

С этой недели я Research Scientist в Spotify. Буду заниматься прикладными и научными исследованиями в области генеративных рекомендательных и поисковых систем, во многом в продолжение моих PhD проектов.

Надеюсь, что это начало долгого пути, на котором удастся внести вклад и в развитие продуктов, и в развитие самой области.
🔥126👏1
Слайды со статистикой РекСиса
👍4