Information Retriever
3.45K subscribers
254 photos
1 video
8 files
127 links
Download Telegram
Лекция про нейросетевое ранжирование в ШАД.

Сегодня в ШАД'е будет лекция про нейросетевое ранжирование! Содержимое — собранный по кусочкам пятилетний опыт работы с нейросетями для рекомендательных систем; чтения статей, экспериментов, внедрений:

1. Введение (recap ранжирования, проблемы градиентного бустинга, преимущества нейросетей, bitter lesson, проблемы нейросетей, эволюция ранжирования в pinterest)

2. Категориальные признаки (one hot кодирование и матрицы эмбеддингов, hashing trick и unified эмбеддинги, подбор размерностей, борьба с переобучением)

3. Вещественные признаки (log1p, sigmoid squashing, функция распределения, бинаризация, PLE)

4. Feature interaction layers (кросс-признаки, факторизационные машины, deepfm, dlrm, DCN, autoint, hiformer)

5. MLP, ResNet, DenseNet

6. Многозадачность (multi-task learning, negative transfer, mixture of experts, self-supervised learning, contrastive pre-training, knowledge distillation)

И на семинаре после лекции ребята посмотрят как это работает на практике.

P.S: Прикладываю кусочек лекции про категориальные признаки :)
65🔥38👍1
ysda_neural_ranking.pdf
1.5 MB
Обещанные слайды лекции
🔥10018🙏3👍2
Первого мая ребята из Пинтереста дропнули на архиве новую статью про графовые нейросети — OmniSage: Large Scale, Multi-Entity Heterogeneous Graph Representation Learning. Сделали гетерогенный граф, объединили обучение трансформера над пользователем (aka PinnerFormer) с обучением векторов пинов и других сущностей. Сама статья мне не очень понравилась, поэтому разбирать не будем :)

Стало интересно посмотреть насколько авторы статьи пересекаются с авторами PinSage / PinnerFormer; и, внезапно, пересекается только последний автор между PinnerFormer и OmniSage — Charles Rosenberg, видимо, менеджер команды.

Что стало с авторами PinSage:
* Rex Ying — assistant prof., Yale University
* Ruining He — staff SWE, Google Deepmind
* Kaifeng Chen — staff SWE / tech lead, Google Deepmind
* Pong Eksombatchai — principal engineer, Pinterest
* William L Hamilton — квант (!) в LLC Citadel
* Jure Leskovec — co-founder в kumo.ai (из коробки делают на данных representation learning)

Авторы PinnerFormer:
* Nikil Pancha — member of technical staff, OpenAI
* Andrew Zhai — stealth startup
* Jure Leskovec — см. выше
* Charles Rosenberg — тот самый менеджер

… то есть в Пинтересте осталось только два человека. Остальные разбрелись по университетам, Google Deepmind, OpenAi, стартапам. Даже кванты есть =)

Морали у этого поста нет, но почему мне новая статья не понравилась — стало понятней :)
😢15👍6🤔41🔥1
Лекция про нейросетевую генерацию кандидатов в ШАД.

Сегодня будет уже вторая лекция в ШАД’е про нейросети в рекомендательных системах — на этот раз про нейросетевой кандген. На эту лекцию ушло где-то в три раза больше времени, чем на прошлую:

1. Введение (идеальная рексистема, многостадийность, минусы классических кандгенов)

2. Двухбашенные модели (позднее связывание, семантическое пространство, информационный ботлнек и низкоранговое разложение матрицы релевантностей)

3. На что учить нейросетевой кандген (recap ранжирования, folding, softmax model, проблема полного софтмакса, сэмплированный софтмакс, равномерные негативы, in-batch негативы, logq-коррекция, альтернативные лоссы)

4. Функции похожести (скалярное произведение и почему оно выучивает популярности, косинус, температура)

5. Согласованность с ранжированием (рекомендации как RL, взгляд на многостадийность через RL)

6. Айтемные башни (обучаемые эмбеддинги и их минусы, мешок слов, inductive bias, контентное кодирование, тяжелые хвосты)

7. Пользовательские башни (почему не подходят обучаемые эмбеддинги, average pooling, трансформеры, next item prediction)

И к лекции идет семинар, на котором ребята обучат трансформер над историей пользователя (и даже сделают logQ-коррекцию!).

Прикладываю кусочек лекции про logQ-коррекцию :)

P.S: слайды лекции, как и в прошлый раз, вечером скину.
🔥62👍1110🤣1
ysda_neural_retrieval.pdf
1.2 MB
241👍7😈3👾3👻1
Датафест 2025.

На Датафесте 2025 в рексис треке будет доклад от вашего покорного слуги про масштабирование рекомендательных систем! Приходите посмотреть как я за 30 минут рассказываю 70+ слайдов :)

Еще от нашей команды будет доклад про графовые нейросети для рекомендаций в треке Яндекса. Выступит Артём Матвеев. Тоже приходите послушать!
👍49🔥228👀3😁1
Лекция про графовые модели для рекомендательных систем в ШАД.

Сегодня в ШАДе пройдет сдвоенная лекция про графы в рексистемах для курсов по графам в машинном обучении и по рексистемам.

Содержание:

1. Введение в рексистемы: что такое рексистемы, многостадийность, генерация кандидатов и ранжирование. Матрица релевантностей, матричная факторизация, проблема тяжелого хвоста

2. Графовая постановка рексистем: двудольный user-item граф, ограничения классической коллаборативной фильтрации, NGCF (neural graph collaborative filtering), LightGCN

3. GraphSAGE, Pinterest, Pin-board граф, случайные блуждания для рекомендаций (Pixie), модель PinSage

4. Продвинутые рексистемы: нейросетевая генерация кандидатов (двухбашенность и лоссы), нейросетевое ранжирование (примерная архитектура). Почему важен representation learning

5. Гетерогенные графы в рекомендациях, графы знаний, TransE, TwHIN, MultiBiSage, чуть-чуть про PinnerFormer и OmniSage

6. Небольшой кусочек про графы в других компаниях: LinkedIn, Spotify, Netflix, Snapchat, etc

Лекция будет на стыке двух миров — графового и рекомендательного, поэтому сделана более самодостаточно; чуть-чуть повторяет какие-то вещи из отдельных курсов. Ну и более поверхностная, чем прошлые лекции. Цель в первую очередь заинтересовать в теме и показать реальные применения.

P.S: презентация делалась в максимально сжатые сроки, поэтому после прошлых двух скидывать её будет даже немного стыдно. Но я наверно все равно скину :)
50👍24🔥12
Вредные советы по рекомендательным системам.

Пришла идея сделать “Вредные советы” для рекомендательных инженеров. Генерации в Sora уже кончились, а потенциальных карточек ещё много :) Сделать стиль иллюстраций более похожим на оригинальную книжку пока не получилось.
40😁33🔥10💩1