Forwarded from Рекомендательная [RecSys Channel]
Scaling law в рекомендательных системах
Законы масштабирования вышли за рамки NLP и успешно применяются в рекомендательных системах. В наших карточках исследователь Владимир Байкалов затронул последние работы на эту тему. С обзором прошлых статей можно ознакомиться в этом посте.
Работы, упомянутые в карточках:
- Language Models are Unsupervised Multitask Learners
- Scaling Laws for Neural Language Models
- Training Compute-Optimal Large Language Models
- Actions Speak Louder than Words: Trillion-Parameter Sequential Transducers for Generative Recommendations
- Scaling New Frontiers: Insights into Large Recommendation Models
- Unlocking Scaling Law in Industrial Recommendation Systems with a Three-step Paradigm based Large User Model
- Scalable Cross-Entropy Loss for Sequential Recommendations with Large Item Catalogs
- Разбор статьи HSTU в канале «Рекомендательная»
Обзор подготовил❣ Владимир Байкалов
Законы масштабирования вышли за рамки NLP и успешно применяются в рекомендательных системах. В наших карточках исследователь Владимир Байкалов затронул последние работы на эту тему. С обзором прошлых статей можно ознакомиться в этом посте.
Работы, упомянутые в карточках:
- Language Models are Unsupervised Multitask Learners
- Scaling Laws for Neural Language Models
- Training Compute-Optimal Large Language Models
- Actions Speak Louder than Words: Trillion-Parameter Sequential Transducers for Generative Recommendations
- Scaling New Frontiers: Insights into Large Recommendation Models
- Unlocking Scaling Law in Industrial Recommendation Systems with a Three-step Paradigm based Large User Model
- Scalable Cross-Entropy Loss for Sequential Recommendations with Large Item Catalogs
- Разбор статьи HSTU в канале «Рекомендательная»
Обзор подготовил
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from ML Baldini • Nikita Boyandin (Nikita Boyandin)
Огромный список open-source LLM для работы
1️⃣ Deepseek
DeepSeek-Math-7B
DeepSeek-Coder-1.3|6.7|7|33B
DeepSeek-VL-1.3|7B
DeepSeek-MoE-16B
DeepSeek-v2-236B-MoE
DeepSeek-Coder-v2-16|236B-MOE
DeepSeek-V2.5
DeepSeek-V3
DeepSeek-R1
2️⃣ Alibaba
Qwen-1.8B|7B|14B|72B
Qwen1.5-0.5B|1.8B|4B|7B|14B|32B|72B|110B|MoE-A2.7B
Qwen2-0.5B|1.5B|7B|57B-A14B-MoE|72B
Qwen2.5-0.5B|1.5B|3B|7B|14B|32B|72B
CodeQwen1.5-7B
Qwen2.5-Coder-1.5B|7B|32B
Qwen2-Math-1.5B|7B|72B
Qwen2.5-Math-1.5B|7B|72B
Qwen-VL-7B
Qwen2-VL-2B|7B|72B
Qwen2-Audio-7B
Qwen2.5-VL-3|7|72B
Qwen2.5-1M-7|14B
3️⃣ Meta
Llama 3.2-1|3|11|90B
Llama 3.1-8|70|405B
Llama 3-8|70B
Llama 2-7|13|70B
Llama 1-7|13|33|65B
OPT-1.3|6.7|13|30|66B
4️⃣ Mistral AI
Codestral-7|22B
Mistral-7B
Mixtral-8x7B
Mixtral-8x22B
5️⃣ Google
Gemma2-9|27B
Gemma-2|7B
RecurrentGemma-2B
T5
6️⃣ Apple
OpenELM-1.1|3B
7️⃣ Microsoft
Phi1-1.3B
Phi2-2.7B
Phi3-3.8|7|14B
8️⃣ Nvidia
Nemotron-4-340B
0️⃣ xAI
Grok-1-314B-MoE
🔟 Cohere
Command R-35
1⃣ 1⃣ OpenAI
Самые новые модели, которые вышли буквально во вторник
Ироничный получается вывод, если смотреть на топ этого списка) Какие бы вы еще хотели подборки?) Обязательно ставьте реакции и буду ждать вас в комментариях💗
DeepSeek-Math-7B
DeepSeek-Coder-1.3|6.7|7|33B
DeepSeek-VL-1.3|7B
DeepSeek-MoE-16B
DeepSeek-v2-236B-MoE
DeepSeek-Coder-v2-16|236B-MOE
DeepSeek-V2.5
DeepSeek-V3
DeepSeek-R1
Qwen-1.8B|7B|14B|72B
Qwen1.5-0.5B|1.8B|4B|7B|14B|32B|72B|110B|MoE-A2.7B
Qwen2-0.5B|1.5B|7B|57B-A14B-MoE|72B
Qwen2.5-0.5B|1.5B|3B|7B|14B|32B|72B
CodeQwen1.5-7B
Qwen2.5-Coder-1.5B|7B|32B
Qwen2-Math-1.5B|7B|72B
Qwen2.5-Math-1.5B|7B|72B
Qwen-VL-7B
Qwen2-VL-2B|7B|72B
Qwen2-Audio-7B
Qwen2.5-VL-3|7|72B
Qwen2.5-1M-7|14B
Llama 3.2-1|3|11|90B
Llama 3.1-8|70|405B
Llama 3-8|70B
Llama 2-7|13|70B
Llama 1-7|13|33|65B
OPT-1.3|6.7|13|30|66B
Codestral-7|22B
Mistral-7B
Mixtral-8x7B
Mixtral-8x22B
Gemma2-9|27B
Gemma-2|7B
RecurrentGemma-2B
T5
OpenELM-1.1|3B
Phi1-1.3B
Phi2-2.7B
Phi3-3.8|7|14B
Nemotron-4-340B
Grok-1-314B-MoE
Command R-35
Самые новые модели, которые вышли буквально во вторник
Ироничный получается вывод, если смотреть на топ этого списка) Какие бы вы еще хотели подборки?) Обязательно ставьте реакции и буду ждать вас в комментариях
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Борис опять
Оказывается у Univercity of Amsterdam есть отличный набор материалов к курсам по Deep Learning
https://uvadlc-notebooks.readthedocs.io/en/latest/index.html
Например, посмотрите какой красивый туториал по реализации SimCLR: https://uvadlc-notebooks.readthedocs.io/en/latest/tutorial_notebooks/tutorial17/SimCLR.html
Куча каких-то тем о которых очень сложно найти нормальные материалы, например про Tensor Parallelism для обучения и инференса одной большой модели на нескольких GPU.
Лекции тоже частично доступны за прошлые годы, например 2023: https://uvadlc.github.io/lectures-nov2023.html#.
https://uvadlc-notebooks.readthedocs.io/en/latest/index.html
Например, посмотрите какой красивый туториал по реализации SimCLR: https://uvadlc-notebooks.readthedocs.io/en/latest/tutorial_notebooks/tutorial17/SimCLR.html
Куча каких-то тем о которых очень сложно найти нормальные материалы, например про Tensor Parallelism для обучения и инференса одной большой модели на нескольких GPU.
Лекции тоже частично доступны за прошлые годы, например 2023: https://uvadlc.github.io/lectures-nov2023.html#.
Forwarded from Поступашки - ШАД, Стажировки и Магистратура
Pro_AlgoRoad.pdf
453.2 KB
Идут последние часы скидки на нашу продвинутую линейку карьерных курсов, записываемся!
В честь такого подготовили для вас роадмапу для продвинутых в алгоритмах с кратким гайдом, как этим пользоваться. Этот гайд поможет структуировать вашу подготовку к собеседованиям в хфт, CS/олимпиадам/экзаменам и подготовиться к первому семестру в ШАД, Ai Masters.
Давайте наберём 500 огоньков 🔥 и соберем такой же только в ML.
@postypashki_old
В честь такого подготовили для вас роадмапу для продвинутых в алгоритмах с кратким гайдом, как этим пользоваться. Этот гайд поможет структуировать вашу подготовку к собеседованиям в хфт, CS/олимпиадам/экзаменам и подготовиться к первому семестру в ШАД, Ai Masters.
Давайте наберём 500 огоньков 🔥 и соберем такой же только в ML.
@postypashki_old
Forwarded from Борис_ь с ml
#иб_для_ml
Прошедшие пару недель выдались жаркими на анонсы OWASP по AI Security. Организация представила сразу три документа, которые стоит прочитать всем, кто так или иначе работает с GenAI-моделями и AI-агентами: «Securing Agentic Apps Guide», «GenAI Incident Response Guide» и «State of Agentic AI Security and Governance». Эти работы можно назвать исчерпывающим собранием знаний о практической безопасности AI-агентов и просто GenAI на сегодня.
Итого - к ознакомлению рекомендую, но в идеале хотелось бы увидеть то же самое от авторов, только не по 80+ страниц каждый док, а хотя бы по 30.
Теперь фактура
Доступ к инструментам рекомендуется делать по Just-In-Time модели с ephemeral credentials, хотя механика триггеров включения/отключения пока не прописана.
Перечислили IoC для GenAI-инцидентов: всевозможные аномалии потоков входа/выхода GenAI-моделей, наличие PII в ответах, хэши популярных атакующих запросов.
Далее авторы пустились в полет фантазии: и методика оценки рисков, и примеры для дашбордов SOC для AI, и еще куча всего. Описана модель зрелости SOC для AI с необходимыми шагами для "эволюции".
Полезной могу отметить матрицу расчёта критичности AI-инцидентов по пяти направлениям, по которой можно определять скорость реагирования на инцидент, состав команды и масштаб пост-инцидентных мер.
Но что меня расстроило, так это как раз таки полное отсутствие специфики AI-агентов. Недоработали OWASP тут.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from DeepSchool
YOLO history. Part 8
В предыдущей статье мы рассказали о том, как использовать вспомогательные модели для улучшения качества основной.
В новой статье разберём устройство архитектур YOLOv8 и YOLOv11, а также отличия академического и индустриального подходов к созданию нового детектора.
Читайте новую статью по ссылке!
В предыдущей статье мы рассказали о том, как использовать вспомогательные модели для улучшения качества основной.
В новой статье разберём устройство архитектур YOLOv8 и YOLOv11, а также отличия академического и индустриального подходов к созданию нового детектора.
Читайте новую статью по ссылке!
DeepSchool
YOLO history. Part 8 - DeepSchool
Разбираем устройство архитектур YOLOv8 и YOLOv11, а также отличия академического и индустриального подходов к созданию нового детектора