Мы с командой начинаем постепенно вкатываться в написание статей:
* засабмитили на ACM RecSys 2025 два full paper’а
* хотим засабмитить туда же short paper
* возможно и для reproducibility трека статью напишем
Это, конечно, ощущается как вторая фулл тайм работа (а подготовка курса для ШАД’а — как третья), но мы замотивированы и будем пытаться, пока не получится!
А еще, вроде как, буду делать на Датафесте в RecSys треке доклад на тему “Масштабирование рекомендательных систем”. С результатами :)
Напоследок, маленькая байка: в первой версии оригинальной статьи про семантические айдишники в рекомендациях Recommender Systems with Generative Retrieval обещали выложить код после принятия статьи на конфу, но так и не выложили. А строчку эту позже удалили :)
* засабмитили на ACM RecSys 2025 два full paper’а
* хотим засабмитить туда же short paper
* возможно и для reproducibility трека статью напишем
Это, конечно, ощущается как вторая фулл тайм работа (а подготовка курса для ШАД’а — как третья), но мы замотивированы и будем пытаться, пока не получится!
А еще, вроде как, буду делать на Датафесте в RecSys треке доклад на тему “Масштабирование рекомендательных систем”. С результатами :)
Напоследок, маленькая байка: в первой версии оригинальной статьи про семантические айдишники в рекомендациях Recommender Systems with Generative Retrieval обещали выложить код после принятия статьи на конфу, но так и не выложили. А строчку эту позже удалили :)
👍44🔥20❤12😁5
Welcome to the Era of Experience.
У Ричарда Саттона (автора самой популярной книжки по РЛ, а также bitter lesson) и Дэвида Сильвера (автора AlphaGo) вышла новая статья — Welcome to the Era of Experience. Эссе про bitter lesson я люблю, и во многом им вдохновляюсь в своей работе, поэтому и здесь сразу побежал читать. Не вижу смысла делать полный пересказ, такое стоит полностью от и до самостоятельно прочитать. Но попробую чуть-чуть заинтересовать:
1. Критикуют LLM’ки, RLHF, тюнинг под оценки человеческих экспертов и под успешные исходы диалогов, использование человеческого языка для ризонинга.
2. Оптимистично пишут про Deepseek, AlphaProof, computer use (агентов, взаимодействующих с миром через интерфейс компьютера), модели мира. Утверждают, что чтобы выйти за пределы человеческих возможностей, агенты должны учиться не на человеческих данных, а на собственном опыте. Этот опыт может включать фидбек от людей; но не от экспертов-разметчиков, а от пользователей. Очень сильно делают акцент на привязке всего происходящего к реальному миру, что награды должны быть связаны с реальным миром.
3. Часто приводят в пример сценарий ассистента, когда агент должен помогать пользователю в достижении долгосрочных целей, типа улучшения здоровья / изучения нового языка. Сценарий, когда цель агента — это совершить новые открытия / прорывы в науке, тоже упоминают.
В общем и целом вайб у статьи очень оптимистичный. Начинаешь верить, что это все действительно не за горами :)
А еще по мотивам статьи есть подкаст с Дэвидом.
У Ричарда Саттона (автора самой популярной книжки по РЛ, а также bitter lesson) и Дэвида Сильвера (автора AlphaGo) вышла новая статья — Welcome to the Era of Experience. Эссе про bitter lesson я люблю, и во многом им вдохновляюсь в своей работе, поэтому и здесь сразу побежал читать. Не вижу смысла делать полный пересказ, такое стоит полностью от и до самостоятельно прочитать. Но попробую чуть-чуть заинтересовать:
1. Критикуют LLM’ки, RLHF, тюнинг под оценки человеческих экспертов и под успешные исходы диалогов, использование человеческого языка для ризонинга.
2. Оптимистично пишут про Deepseek, AlphaProof, computer use (агентов, взаимодействующих с миром через интерфейс компьютера), модели мира. Утверждают, что чтобы выйти за пределы человеческих возможностей, агенты должны учиться не на человеческих данных, а на собственном опыте. Этот опыт может включать фидбек от людей; но не от экспертов-разметчиков, а от пользователей. Очень сильно делают акцент на привязке всего происходящего к реальному миру, что награды должны быть связаны с реальным миром.
3. Часто приводят в пример сценарий ассистента, когда агент должен помогать пользователю в достижении долгосрочных целей, типа улучшения здоровья / изучения нового языка. Сценарий, когда цель агента — это совершить новые открытия / прорывы в науке, тоже упоминают.
В общем и целом вайб у статьи очень оптимистичный. Начинаешь верить, что это все действительно не за горами :)
А еще по мотивам статьи есть подкаст с Дэвидом.
👍46❤10🕊4
Лекция про нейросетевое ранжирование в ШАД.
Сегодня в ШАД'е будет лекция про нейросетевое ранжирование! Содержимое — собранный по кусочкам пятилетний опыт работы с нейросетями для рекомендательных систем; чтения статей, экспериментов, внедрений:
1. Введение (recap ранжирования, проблемы градиентного бустинга, преимущества нейросетей, bitter lesson, проблемы нейросетей, эволюция ранжирования в pinterest)
2. Категориальные признаки (one hot кодирование и матрицы эмбеддингов, hashing trick и unified эмбеддинги, подбор размерностей, борьба с переобучением)
3. Вещественные признаки (log1p, sigmoid squashing, функция распределения, бинаризация, PLE)
4. Feature interaction layers (кросс-признаки, факторизационные машины, deepfm, dlrm, DCN, autoint, hiformer)
5. MLP, ResNet, DenseNet
6. Многозадачность (multi-task learning, negative transfer, mixture of experts, self-supervised learning, contrastive pre-training, knowledge distillation)
И на семинаре после лекции ребята посмотрят как это работает на практике.
P.S: Прикладываю кусочек лекции про категориальные признаки :)
Сегодня в ШАД'е будет лекция про нейросетевое ранжирование! Содержимое — собранный по кусочкам пятилетний опыт работы с нейросетями для рекомендательных систем; чтения статей, экспериментов, внедрений:
1. Введение (recap ранжирования, проблемы градиентного бустинга, преимущества нейросетей, bitter lesson, проблемы нейросетей, эволюция ранжирования в pinterest)
2. Категориальные признаки (one hot кодирование и матрицы эмбеддингов, hashing trick и unified эмбеддинги, подбор размерностей, борьба с переобучением)
3. Вещественные признаки (log1p, sigmoid squashing, функция распределения, бинаризация, PLE)
4. Feature interaction layers (кросс-признаки, факторизационные машины, deepfm, dlrm, DCN, autoint, hiformer)
5. MLP, ResNet, DenseNet
6. Многозадачность (multi-task learning, negative transfer, mixture of experts, self-supervised learning, contrastive pre-training, knowledge distillation)
И на семинаре после лекции ребята посмотрят как это работает на практике.
P.S: Прикладываю кусочек лекции про категориальные признаки :)
❤65🔥38👍1
Первого мая ребята из Пинтереста дропнули на архиве новую статью про графовые нейросети — OmniSage: Large Scale, Multi-Entity Heterogeneous Graph Representation Learning. Сделали гетерогенный граф, объединили обучение трансформера над пользователем (aka PinnerFormer) с обучением векторов пинов и других сущностей. Сама статья мне не очень понравилась, поэтому разбирать не будем :)
Стало интересно посмотреть насколько авторы статьи пересекаются с авторами PinSage / PinnerFormer; и, внезапно, пересекается только последний автор между PinnerFormer и OmniSage — Charles Rosenberg, видимо, менеджер команды.
Что стало с авторами PinSage:
* Rex Ying — assistant prof., Yale University
* Ruining He — staff SWE, Google Deepmind
* Kaifeng Chen — staff SWE / tech lead, Google Deepmind
* Pong Eksombatchai — principal engineer, Pinterest
* William L Hamilton — квант (!) в LLC Citadel
* Jure Leskovec — co-founder в kumo.ai (из коробки делают на данных representation learning)
Авторы PinnerFormer:
* Nikil Pancha — member of technical staff, OpenAI
* Andrew Zhai — stealth startup
* Jure Leskovec — см. выше
* Charles Rosenberg — тот самый менеджер
… то есть в Пинтересте осталось только два человека. Остальные разбрелись по университетам, Google Deepmind, OpenAi, стартапам. Даже кванты есть =)
Морали у этого поста нет, но почему мне новая статья не понравилась — стало понятней :)
Стало интересно посмотреть насколько авторы статьи пересекаются с авторами PinSage / PinnerFormer; и, внезапно, пересекается только последний автор между PinnerFormer и OmniSage — Charles Rosenberg, видимо, менеджер команды.
Что стало с авторами PinSage:
* Rex Ying — assistant prof., Yale University
* Ruining He — staff SWE, Google Deepmind
* Kaifeng Chen — staff SWE / tech lead, Google Deepmind
* Pong Eksombatchai — principal engineer, Pinterest
* William L Hamilton — квант (!) в LLC Citadel
* Jure Leskovec — co-founder в kumo.ai (из коробки делают на данных representation learning)
Авторы PinnerFormer:
* Nikil Pancha — member of technical staff, OpenAI
* Andrew Zhai — stealth startup
* Jure Leskovec — см. выше
* Charles Rosenberg — тот самый менеджер
… то есть в Пинтересте осталось только два человека. Остальные разбрелись по университетам, Google Deepmind, OpenAi, стартапам. Даже кванты есть =)
Морали у этого поста нет, но почему мне новая статья не понравилась — стало понятней :)
😢15👍6🤔4❤1🔥1
Лекция про нейросетевую генерацию кандидатов в ШАД.
Сегодня будет уже вторая лекция в ШАД’е про нейросети в рекомендательных системах — на этот раз про нейросетевой кандген. На эту лекцию ушло где-то в три раза больше времени, чем на прошлую:
1. Введение (идеальная рексистема, многостадийность, минусы классических кандгенов)
2. Двухбашенные модели (позднее связывание, семантическое пространство, информационный ботлнек и низкоранговое разложение матрицы релевантностей)
3. На что учить нейросетевой кандген (recap ранжирования, folding, softmax model, проблема полного софтмакса, сэмплированный софтмакс, равномерные негативы, in-batch негативы, logq-коррекция, альтернативные лоссы)
4. Функции похожести (скалярное произведение и почему оно выучивает популярности, косинус, температура)
5. Согласованность с ранжированием (рекомендации как RL, взгляд на многостадийность через RL)
6. Айтемные башни (обучаемые эмбеддинги и их минусы, мешок слов, inductive bias, контентное кодирование, тяжелые хвосты)
7. Пользовательские башни (почему не подходят обучаемые эмбеддинги, average pooling, трансформеры, next item prediction)
И к лекции идет семинар, на котором ребята обучат трансформер над историей пользователя (и даже сделают logQ-коррекцию!).
Прикладываю кусочек лекции про logQ-коррекцию :)
P.S: слайды лекции, как и в прошлый раз, вечером скину.
Сегодня будет уже вторая лекция в ШАД’е про нейросети в рекомендательных системах — на этот раз про нейросетевой кандген. На эту лекцию ушло где-то в три раза больше времени, чем на прошлую:
1. Введение (идеальная рексистема, многостадийность, минусы классических кандгенов)
2. Двухбашенные модели (позднее связывание, семантическое пространство, информационный ботлнек и низкоранговое разложение матрицы релевантностей)
3. На что учить нейросетевой кандген (recap ранжирования, folding, softmax model, проблема полного софтмакса, сэмплированный софтмакс, равномерные негативы, in-batch негативы, logq-коррекция, альтернативные лоссы)
4. Функции похожести (скалярное произведение и почему оно выучивает популярности, косинус, температура)
5. Согласованность с ранжированием (рекомендации как RL, взгляд на многостадийность через RL)
6. Айтемные башни (обучаемые эмбеддинги и их минусы, мешок слов, inductive bias, контентное кодирование, тяжелые хвосты)
7. Пользовательские башни (почему не подходят обучаемые эмбеддинги, average pooling, трансформеры, next item prediction)
И к лекции идет семинар, на котором ребята обучат трансформер над историей пользователя (и даже сделают logQ-коррекцию!).
Прикладываю кусочек лекции про logQ-коррекцию :)
P.S: слайды лекции, как и в прошлый раз, вечером скину.
🔥62👍11❤10🤣1