Рекомендации, Поиск и Путешествия
1.13K subscribers
84 photos
4 videos
1 file
49 links
Download Telegram
Forwarded from Information Retriever
Видеозапись воркшопа LargeRecsys x VideoRecSys c RecSys 2024.

Оказывается, на ютуб уже выложили часть выступлений с воркшопа LargeRecsys x VideoRecSys!

В том числе выложили и выступление от Ed Chi, с которого начался весь хайп семантических айдишников. Я в день самого выступления уже писал краткий tdlr, но советую всё равно его посмотреть. Там будет и увлекательный экскурс в историю рекомендаций и генеративных моделей, и рассказ про связь рексистем с распределением Больцмана, и демка Project Astra. А ещё, они не все свои наработки по семантическим айдишникам опубликовали :)

Также на канале доступно выступление от Derek Cheng (с наработками от той же гугловской рекомендательной группы), в котором мимолётно упоминаются DCN-v3 и DCN-v4, а также есть рассказы про HSTU и про инференс рекомендательных нейросетей.

Надо смотреть! Ссылка на весь плейлист.

Если интересно получить больше контекста, можно почитать:
* пост про Ed Chi
* мои заметки по докладу про ранжирование в Ютубе с прошлой итерации этого воркшопа
* серию постов про RecSys 2024
👍5
https://link.springer.com/chapter/10.1007/978-3-031-88714-7_4

Моя статья с со-авторами из Amazon наконец опубликована! Основная идея - трансформеры не очень хорошо подходят для рекомендаций повторяющихся интеракций, поэтому им надо немного в этом помочь.

Полный обзор напишу на днях, а пока можно почитать самим:)

Также буду презентовать эту статью на ECIR 8го апреля. Если будете на ECIR - приходите послушать)
👍176🔥3
Прилетел в Лукку на ECIR в Италию, и первая вещь которую которую узнал - мою с соавторами (Крэйг Макдональд, у и Никола Тонелотто статью приняли на SIGIR (A* конференция, пожалуй главная конференция по поиску). По совпадению, SIGIR в этом году тоже в Италии.


Хороший финальный аккорд для моей диссертации; это был последний неопубликованный кусочек. Теперь каждая глава диссертации опубликована; саму диссертацию я тоже отправил рецензентам на днях.
🔥21🎉5
Препринт скоро, пока вот поделюсь Abstract'ом
🔥19👍6❤‍🔥1
ECIR в этом году проходит в церквях и часовнях. Сегодня презентовал статью в церкви. Очень необычно!
🔥16🙏61
Best Paper Award на ECIR в этом году ушел к колегам по Университету Глазго (Manish Chandra, Debasis Ganguly, Iadh Ounis) за статью по подбопру количества примеров которые нужно давать LLM в промпте в in context learning.

Я статью еще не читал, но выглядит интересно и релевантно мой работе.

Iadh Ounis это кстати мой 2-й научный руководитель.

Ссылка на статью:
https://arxiv.org/abs/2403.06402
👍10
Добрался до офиса. Уже два месяца как занимаюсь ML-ем в поиске экскурсий и впечатлений. Надеюсь скоро будет чем поделиться с каналом :-)
👍41🔥187
Вчера защитил диссертацию. Обычно в Великобритании после защиты рецензенты просят внести правки, но в моем случае я защитился без необходимости исправлять что-либо; так что можно считать что я теперь Dr. Petrov :-)

Диссертацией скоро поделюсь тут.
👏112🔥3120
Препринт моей коллаборации с Krishna Acharya и Juba Ziani, исследователями из Georgia Institute of Technology (USA) доступен на arxiv: https://arxiv.org/abs/2506.01910

Название: GLoSS: Generative Language Models with Semantic Search for Sequential Recommendation
Авторы: Krishna Acharya (Georgia Institute of Technology), Aleksandr V. Petrov (Tripadvisor), Juba Ziani (Georgia Institute of Technology)

Основная идея — вместо традиционного подхода, где рекомендательная система выучивает эмбеддинги айтемов (или как недавно стало популярно эмбеддинги разнообразных semantic ID), мы учим языковую модель генерировать поисковые запросы на основе истории пользователя, и затем извлекаем айтемы из поискового индекса.

В этом случае, языковая модель остается в своем родном "языковом" домене end2end, поэтому можно использовать всю мощь подхода pre-train/fine-tune.

Скажу сразу что это ранняя версия работы, и тут можно много что улучшать (например, поисковую модель мы используем "из коробки").
🔥202🤔2🥱1
Несмотря на то что это ранняя версия работы, модель получает более высокие результаты по сравнению с другими недавними работами в домене, такими как TIGER или ActionPiece от Google, или известная модель P5.

Disclaimer — для большинства бейзлайнов чекпоинты недоступны, поэтому приходится верить тем цифрам которые опубликованы авторами. В этой версии мы сравниваемся с опубликованными результатами, но планируем более аккуратно сравниться с теми моделями, код и чекпоинты для которых доступны.
🔥3
В этом году, как и в прошлом я -- член программного коммитета конференции Practical ML, в направлении рекомендательных систем.

CFP уже опубликован. Вот информация от организаторов:
---
27 сентября пройдет конференция по прикладному машинному обучению от Яндекса — Practical ML Conf. В этом году на конференции будут представлены доклады по 6 трекам: CV, NLP, Speech, RecSys, MLOps, Data Science. CFP открыт до 23 июня, для подачи заявки перейдите по ссылке.

Что предлагаем для спикеров:
ПК конференции дадут советы по структуре и содержанию доклада
Прогоны материалов с тренером по публичным выступлениям и помощь с дизайном презентаций
Возможность понетворкать с другими спикерами и получить фидбэк по проекту
Промо докладов через каналы Яндекса до и после конференции
Возможность посетить PML Conf без отбора вместе с +1
7🔥3
Говорят что диссертации читают только научный руководитель и оппоненты. Но если вдруг моя диссертация окажется интересна кому-то еще, то теперь ее можно скачать с моего сайта.


https://asash.github.io/pdf/AleksandrPetrovThesis.pdf
🔥33👍2🤗1
This media is not supported in your browser
VIEW IN TELEGRAM
Рисерчер накидывает слои в сетку, пока не выбьет SOTA.
😁462
Открою вам секрет. Очень простая моделька (я ее называю First Order Markov Chain), которая рекомендует следующий айтем просто на основе того сколько раз он был употреблен сразу предыдущего, это очень сильный бейзлайн для sequential recommendation. Например, на всеми (не) любимом датасете MovieLens-1M она получает NDCG больше чем простой SASRec и сравнимый с BERT4Rec. Этот же бейзлайн, на 5-core датасете Amazon Beauty получает лучшие результаты по метрикам ранживания чем репортят авторы новомодных TIGER, ActionPIece и прочих P5.

Второй очень сильный бейзлайн, который подходит для рекомендациями с повторами (например, музыкальные рекомендации) это Personalized Popularity Score (PPS), то есть просто делаем рекомендации на основе количества раз юзер уже взаимодействовал с данным айтемом. Традиционные метрики, типа NDCG очень сложно побить. Кстати, яндекс недавно выложил датасет с музыкальными рекомендациями; так что дарю идею: если рекомендовать на основе Personalized Popularity Score то почти наверняка вы сможете побить те базовые метрики которые яндекс там репортит для разных моделек (в том числе для SASRec).

Это не значит что модели типа SASRec и BERT4Rec бесполезны -- они обычно требуют большего количества интеракций для того чтобы начать реально хорошо работать, ну и если их правильно обучить, то могут выучить ортогональный сигнал, тот который сложно вытащить из First Order MC или PPS.
🔥45👍63💯1
Sasha Petrov
Препринт моей коллаборации с Krishna Acharya и Juba Ziani, исследователями из Georgia Institute of Technology (USA) доступен на arxiv: https://arxiv.org/abs/2506.01910 Название: GLoSS: Generative Language Models with Semantic Search for Sequential Recommendation…
Хорошие новости — эту статью приняли на воркшоп OARS "Online and Adaptive Recommender Systems" на конференции KDD 2025.

Воспользуюсь моментом, чтобы обсудить воркшопы. Обычно считается, что воркшопы менее престижны, чем основной трек конференции, и большинство исследователей стараются публиковаться именно в основном треке. Однако на практике, если у вас нет цели получить tenure в университете или если вам не платят конкретно за публикации в основном треке, то публикация на воркшопе может быть ничем не хуже.

Например, на нашем любимом ACM RecSys некоторые воркшопы (такие как Large RecSys и Video RecSys) с моей точки зрения даже интереснее, чем основной трек. Программа воркшопов зачастую более сфокусированная, а шансы получить полезный фидбек не меньше — а иногда даже больше — чем в основном треке. Часто на воркшопах выделяется больше времени на доклад, чем на основной конференции.

Опубликоваться на воркшопе, как правило, значительно проще, чем в основном треке. Требования к бейзлайнам, научной новизне и другим критериям обычно ниже. Однако это вовсе не значит, что на воркшопах публикуют только слабые работы. Например, нашумевшая статья Monolith от TikTok была опубликована на воркшопе ORSUM. Среди моих собственных работ вторая по цитируемости (и, видимо, скоро первая) тоже была опубликована на воркшопе.

Отдельный хак: можно сначала опубликовать статью на воркшопе, получить фидбек от ревьюеров, а потом — доработав — отправить на крупную конференцию. Тот же RecSys, например, обычно разрешает расширенные версии воркшопных публикаций, особенно если воркшоп был non-archival (то есть формально его труды не публикуются).

Вкратце, вот список ситуаций, когда имеет смысл отправлять работу на воркшоп, а не в основной трек:

Вы только начинаете заниматься ресерчем и еще не публиковались на крупных международных конференциях.

У вас есть ранние результаты, которыми вы хотите поделиться с сообществом, но статья пока не дотягивает до полноценной научной публикации.

Вы хотите “поставить флаг” — заявить о себе как об исследователе в определенной области.

У вас скорее инженерная статья, в которой вы делитесь опытом внедрения или кастомизации моделей. Такие работы интересны сообществу, но им сложно пройти в основной трек из-за «недостатка научной новизны».

Воркшопы подходят с осторожностью, если:
⚠️ Вам нужны формальные научные публикации (например, для диссертации). Не все воркшопы публикуют труды, и не везде такие статьи проходят по формальным критериям.

Воркшопы не подходят, если:

Вам нужны публикации на конференциях уровня A*/A по формальным причинам (например, грант покрывает поездки только на такие конференции).

В кратце, воркшопы, хороший способ представить работу и завести контакты.
🔥12👍6
Хроники хайпа
😁34
Я уже упоминал, что нашу (с Крейгом Макдональдом и Николой Тонеллотто) статью приняли на SIGIR — топовую конференцию по информационному поиску и рекомендациям (CORE A*).

📄 Теперь препринт доступен на arXiv:
https://arxiv.org/abs/2505.00560

📝 Статья: Efficient Recommendation with Millions of Items by Dynamic Pruning of Sub-Item Embeddings
Авторы: Aleksandr V. Petrov (University of Glasgow), Craig Macdonald (University of Glasgow), Nicola Tonellotto (University of Pisa)

Вот основные идеи статьи:
---

1️⃣ Большой каталог - большая проблема.
Современные рекомендательные модели, разрабатываемые в академии, обычно тестируются на небольших датасетах (несколько тысяч айтемов), но в реальных системах каталог может содержать миллионы айтемов.

2️⃣ Сложности при большом каталоге:
- Трудно обучать модели (дорогой софтмакс),
- Огромные эмбеддинг-матрицы,
- Медленный инференс.
В этой статье, мы сосредоточились именно на ускорении инференса.

3️⃣ Почему медленно?
Обычно, чтобы найти Top-K айтемов, нужно отскорить все айтемы для каждого пользователя; но это может быть очень долго в случае большого каталога. Поэтому важно придумать способ не считать скоры для всего каталога.

4️⃣ Что делают сейчас:
Применяются схемы типа Retrieve-then-Rerank (двухэтапные модели, kNN и т.д.), но они могут пропустить релевантные айтемы на этапе кандидатогенерации, то есть они небезопасны.

5️⃣ Что делаем мы:
Предлагаем безопасный метод, который гарантирует, что мы найдём Top-K айтемов с самыми высокими скорами.

6️⃣ На чём основан метод:
Мы используем RecJPQ — айтемы представлены через наборы sub-item ID, которыми могут делиться разные айтемы. Похоже на Google Semantic ID, но у нас они строятся из коллаборативной информации. C Semantic ID наш метод скорее всего тоже заведется.

7️⃣ Зачем это нужно:
Скор айтема — это сумма скоров его sub-items. Их меньше, чем самих айтемов → можно заранее посчитать скоры sub-items, а потом быстро собрать скоры айтемов.

---

8️⃣ Что интересного мы заметили:
Если sub-item имеет высокий скор, то и айтемы, в которые он входит, часто тоже хорошие. Поэтому мы сначала скорим такие айтемы.

9️⃣ Как это работает:
Скорим айтемы в порядке убывания "обещающего потенциала". Одновременно считаем, насколько хорошие айтемы ещё могут остаться. Если точно знаем, что оставшиеся не попадут в Top-K — останавливаемся.

🔟 В итоге:
Находим Top-K без kNN и без полного прохода по каталогу. Даже на миллионных каталогах — это занимает миллисекунды без использования GPU. Для сравнения, стандартный скоринг у моделей типа SASRec или BERT4Rec в тех же условиях занимает сотни миллисекунд.

📎 Подробнее: https://arxiv.org/abs/2505.00560
🔥235👏2😭1
WSDM опубликовали Call For Papers: https://wsdm-conference.org/2026/index.php/call-for-papers/
WSDM это очень релевантная конференция для поиска и рекомендаций, из наших любимых моделей например Caser и TiSASRec были опубликован там. Из компаний там активно участвуют Google (в прошлом году был keynote от VP Research гугла, а в позапрошлом Head of Search), Miscrosoft, amazon и тд. При этом, почему-то среди русскоязычных рисерчеров WSDM сильно менее популярен чем тот же RecSys например. Так как многие из моих читателей отправляли статьи на Рексис, я рекомендую рассмотреть WSDM в качестве бэкап-плана; по датам как раз очень удобно - 1-2 месяца дорабать комменты от ревьюеров рексиса и послать на виздом.
🔥6👍4