Лекция про нейросетевое ранжирование в ШАД.
Сегодня в ШАД'е будет лекция про нейросетевое ранжирование! Содержимое — собранный по кусочкам пятилетний опыт работы с нейросетями для рекомендательных систем; чтения статей, экспериментов, внедрений:
1. Введение (recap ранжирования, проблемы градиентного бустинга, преимущества нейросетей, bitter lesson, проблемы нейросетей, эволюция ранжирования в pinterest)
2. Категориальные признаки (one hot кодирование и матрицы эмбеддингов, hashing trick и unified эмбеддинги, подбор размерностей, борьба с переобучением)
3. Вещественные признаки (log1p, sigmoid squashing, функция распределения, бинаризация, PLE)
4. Feature interaction layers (кросс-признаки, факторизационные машины, deepfm, dlrm, DCN, autoint, hiformer)
5. MLP, ResNet, DenseNet
6. Многозадачность (multi-task learning, negative transfer, mixture of experts, self-supervised learning, contrastive pre-training, knowledge distillation)
И на семинаре после лекции ребята посмотрят как это работает на практике.
P.S: Прикладываю кусочек лекции про категориальные признаки :)
Сегодня в ШАД'е будет лекция про нейросетевое ранжирование! Содержимое — собранный по кусочкам пятилетний опыт работы с нейросетями для рекомендательных систем; чтения статей, экспериментов, внедрений:
1. Введение (recap ранжирования, проблемы градиентного бустинга, преимущества нейросетей, bitter lesson, проблемы нейросетей, эволюция ранжирования в pinterest)
2. Категориальные признаки (one hot кодирование и матрицы эмбеддингов, hashing trick и unified эмбеддинги, подбор размерностей, борьба с переобучением)
3. Вещественные признаки (log1p, sigmoid squashing, функция распределения, бинаризация, PLE)
4. Feature interaction layers (кросс-признаки, факторизационные машины, deepfm, dlrm, DCN, autoint, hiformer)
5. MLP, ResNet, DenseNet
6. Многозадачность (multi-task learning, negative transfer, mixture of experts, self-supervised learning, contrastive pre-training, knowledge distillation)
И на семинаре после лекции ребята посмотрят как это работает на практике.
P.S: Прикладываю кусочек лекции про категориальные признаки :)
❤65🔥38👍1
Первого мая ребята из Пинтереста дропнули на архиве новую статью про графовые нейросети — OmniSage: Large Scale, Multi-Entity Heterogeneous Graph Representation Learning. Сделали гетерогенный граф, объединили обучение трансформера над пользователем (aka PinnerFormer) с обучением векторов пинов и других сущностей. Сама статья мне не очень понравилась, поэтому разбирать не будем :)
Стало интересно посмотреть насколько авторы статьи пересекаются с авторами PinSage / PinnerFormer; и, внезапно, пересекается только последний автор между PinnerFormer и OmniSage — Charles Rosenberg, видимо, менеджер команды.
Что стало с авторами PinSage:
* Rex Ying — assistant prof., Yale University
* Ruining He — staff SWE, Google Deepmind
* Kaifeng Chen — staff SWE / tech lead, Google Deepmind
* Pong Eksombatchai — principal engineer, Pinterest
* William L Hamilton — квант (!) в LLC Citadel
* Jure Leskovec — co-founder в kumo.ai (из коробки делают на данных representation learning)
Авторы PinnerFormer:
* Nikil Pancha — member of technical staff, OpenAI
* Andrew Zhai — stealth startup
* Jure Leskovec — см. выше
* Charles Rosenberg — тот самый менеджер
… то есть в Пинтересте осталось только два человека. Остальные разбрелись по университетам, Google Deepmind, OpenAi, стартапам. Даже кванты есть =)
Морали у этого поста нет, но почему мне новая статья не понравилась — стало понятней :)
Стало интересно посмотреть насколько авторы статьи пересекаются с авторами PinSage / PinnerFormer; и, внезапно, пересекается только последний автор между PinnerFormer и OmniSage — Charles Rosenberg, видимо, менеджер команды.
Что стало с авторами PinSage:
* Rex Ying — assistant prof., Yale University
* Ruining He — staff SWE, Google Deepmind
* Kaifeng Chen — staff SWE / tech lead, Google Deepmind
* Pong Eksombatchai — principal engineer, Pinterest
* William L Hamilton — квант (!) в LLC Citadel
* Jure Leskovec — co-founder в kumo.ai (из коробки делают на данных representation learning)
Авторы PinnerFormer:
* Nikil Pancha — member of technical staff, OpenAI
* Andrew Zhai — stealth startup
* Jure Leskovec — см. выше
* Charles Rosenberg — тот самый менеджер
… то есть в Пинтересте осталось только два человека. Остальные разбрелись по университетам, Google Deepmind, OpenAi, стартапам. Даже кванты есть =)
Морали у этого поста нет, но почему мне новая статья не понравилась — стало понятней :)
😢15👍6🤔4❤1🔥1
Лекция про нейросетевую генерацию кандидатов в ШАД.
Сегодня будет уже вторая лекция в ШАД’е про нейросети в рекомендательных системах — на этот раз про нейросетевой кандген. На эту лекцию ушло где-то в три раза больше времени, чем на прошлую:
1. Введение (идеальная рексистема, многостадийность, минусы классических кандгенов)
2. Двухбашенные модели (позднее связывание, семантическое пространство, информационный ботлнек и низкоранговое разложение матрицы релевантностей)
3. На что учить нейросетевой кандген (recap ранжирования, folding, softmax model, проблема полного софтмакса, сэмплированный софтмакс, равномерные негативы, in-batch негативы, logq-коррекция, альтернативные лоссы)
4. Функции похожести (скалярное произведение и почему оно выучивает популярности, косинус, температура)
5. Согласованность с ранжированием (рекомендации как RL, взгляд на многостадийность через RL)
6. Айтемные башни (обучаемые эмбеддинги и их минусы, мешок слов, inductive bias, контентное кодирование, тяжелые хвосты)
7. Пользовательские башни (почему не подходят обучаемые эмбеддинги, average pooling, трансформеры, next item prediction)
И к лекции идет семинар, на котором ребята обучат трансформер над историей пользователя (и даже сделают logQ-коррекцию!).
Прикладываю кусочек лекции про logQ-коррекцию :)
P.S: слайды лекции, как и в прошлый раз, вечером скину.
Сегодня будет уже вторая лекция в ШАД’е про нейросети в рекомендательных системах — на этот раз про нейросетевой кандген. На эту лекцию ушло где-то в три раза больше времени, чем на прошлую:
1. Введение (идеальная рексистема, многостадийность, минусы классических кандгенов)
2. Двухбашенные модели (позднее связывание, семантическое пространство, информационный ботлнек и низкоранговое разложение матрицы релевантностей)
3. На что учить нейросетевой кандген (recap ранжирования, folding, softmax model, проблема полного софтмакса, сэмплированный софтмакс, равномерные негативы, in-batch негативы, logq-коррекция, альтернативные лоссы)
4. Функции похожести (скалярное произведение и почему оно выучивает популярности, косинус, температура)
5. Согласованность с ранжированием (рекомендации как RL, взгляд на многостадийность через RL)
6. Айтемные башни (обучаемые эмбеддинги и их минусы, мешок слов, inductive bias, контентное кодирование, тяжелые хвосты)
7. Пользовательские башни (почему не подходят обучаемые эмбеддинги, average pooling, трансформеры, next item prediction)
И к лекции идет семинар, на котором ребята обучат трансформер над историей пользователя (и даже сделают logQ-коррекцию!).
Прикладываю кусочек лекции про logQ-коррекцию :)
P.S: слайды лекции, как и в прошлый раз, вечером скину.
🔥62👍11❤10🤣1
Датафест 2025.
На Датафесте 2025 в рексис треке будет доклад от вашего покорного слуги про масштабирование рекомендательных систем! Приходите посмотреть как я за 30 минут рассказываю 70+ слайдов :)
Еще от нашей команды будет доклад про графовые нейросети для рекомендаций в треке Яндекса. Выступит Артём Матвеев. Тоже приходите послушать!
На Датафесте 2025 в рексис треке будет доклад от вашего покорного слуги про масштабирование рекомендательных систем! Приходите посмотреть как я за 30 минут рассказываю 70+ слайдов :)
Еще от нашей команды будет доклад про графовые нейросети для рекомендаций в треке Яндекса. Выступит Артём Матвеев. Тоже приходите послушать!
👍49🔥22❤8👀3😁1
Лекция про графовые модели для рекомендательных систем в ШАД.
Сегодня в ШАДе пройдет сдвоенная лекция про графы в рексистемах для курсов по графам в машинном обучении и по рексистемам.
Содержание:
1. Введение в рексистемы: что такое рексистемы, многостадийность, генерация кандидатов и ранжирование. Матрица релевантностей, матричная факторизация, проблема тяжелого хвоста
2. Графовая постановка рексистем: двудольный user-item граф, ограничения классической коллаборативной фильтрации, NGCF (neural graph collaborative filtering), LightGCN
3. GraphSAGE, Pinterest, Pin-board граф, случайные блуждания для рекомендаций (Pixie), модель PinSage
4. Продвинутые рексистемы: нейросетевая генерация кандидатов (двухбашенность и лоссы), нейросетевое ранжирование (примерная архитектура). Почему важен representation learning
5. Гетерогенные графы в рекомендациях, графы знаний, TransE, TwHIN, MultiBiSage, чуть-чуть про PinnerFormer и OmniSage
6. Небольшой кусочек про графы в других компаниях: LinkedIn, Spotify, Netflix, Snapchat, etc
Лекция будет на стыке двух миров — графового и рекомендательного, поэтому сделана более самодостаточно; чуть-чуть повторяет какие-то вещи из отдельных курсов. Ну и более поверхностная, чем прошлые лекции. Цель в первую очередь заинтересовать в теме и показать реальные применения.
P.S: презентация делалась в максимально сжатые сроки, поэтому после прошлых двух скидывать её будет даже немного стыдно. Но я наверно все равно скину :)
Сегодня в ШАДе пройдет сдвоенная лекция про графы в рексистемах для курсов по графам в машинном обучении и по рексистемам.
Содержание:
1. Введение в рексистемы: что такое рексистемы, многостадийность, генерация кандидатов и ранжирование. Матрица релевантностей, матричная факторизация, проблема тяжелого хвоста
2. Графовая постановка рексистем: двудольный user-item граф, ограничения классической коллаборативной фильтрации, NGCF (neural graph collaborative filtering), LightGCN
3. GraphSAGE, Pinterest, Pin-board граф, случайные блуждания для рекомендаций (Pixie), модель PinSage
4. Продвинутые рексистемы: нейросетевая генерация кандидатов (двухбашенность и лоссы), нейросетевое ранжирование (примерная архитектура). Почему важен representation learning
5. Гетерогенные графы в рекомендациях, графы знаний, TransE, TwHIN, MultiBiSage, чуть-чуть про PinnerFormer и OmniSage
6. Небольшой кусочек про графы в других компаниях: LinkedIn, Spotify, Netflix, Snapchat, etc
Лекция будет на стыке двух миров — графового и рекомендательного, поэтому сделана более самодостаточно; чуть-чуть повторяет какие-то вещи из отдельных курсов. Ну и более поверхностная, чем прошлые лекции. Цель в первую очередь заинтересовать в теме и показать реальные применения.
P.S: презентация делалась в максимально сжатые сроки, поэтому после прошлых двух скидывать её будет даже немного стыдно. Но я наверно все равно скину :)
❤50👍24🔥12
Вредные советы по рекомендательным системам.
Пришла идея сделать “Вредные советы” для рекомендательных инженеров. Генерации в Sora уже кончились, а потенциальных карточек ещё много :) Сделать стиль иллюстраций более похожим на оригинальную книжку пока не получилось.
Пришла идея сделать “Вредные советы” для рекомендательных инженеров. Генерации в Sora уже кончились, а потенциальных карточек ещё много :) Сделать стиль иллюстраций более похожим на оригинальную книжку пока не получилось.
❤40😁33🔥10💩1