Интересное что-то
517 subscribers
2.71K photos
253 videos
138 files
4.51K links
Материалы и мысли, понадерганные отовсюду
Блог: https://t.iss.one/asisakov_channel
Чат: https://t.iss.one/youknowds_chat
Download Telegram
Scaling law в рекомендательных системах

Законы масштабирования вышли за рамки NLP и успешно применяются в рекомендательных системах. В наших карточках исследователь Владимир Байкалов затронул последние работы на эту тему. С обзором прошлых статей можно ознакомиться в этом посте.

Работы, упомянутые в карточках:
- Language Models are Unsupervised Multitask Learners
- Scaling Laws for Neural Language Models
- Training Compute-Optimal Large Language Models
- Actions Speak Louder than Words: Trillion-Parameter Sequential Transducers for Generative Recommendations
- Scaling New Frontiers: Insights into Large Recommendation Models
- Unlocking Scaling Law in Industrial Recommendation Systems with a Three-step Paradigm based Large User Model
- Scalable Cross-Entropy Loss for Sequential Recommendations with Large Item Catalogs
- Разбор статьи HSTU в канале «Рекомендательная»

Обзор подготовил Владимир Байкалов
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from ML Baldini • Nikita Boyandin (Nikita Boyandin)
Огромный список open-source LLM для работы

1️⃣ Deepseek
DeepSeek-Math-7B
DeepSeek-Coder-1.3|6.7|7|33B
DeepSeek-VL-1.3|7B
DeepSeek-MoE-16B
DeepSeek-v2-236B-MoE
DeepSeek-Coder-v2-16|236B-MOE
DeepSeek-V2.5
DeepSeek-V3
DeepSeek-R1

2️⃣ Alibaba
Qwen-1.8B|7B|14B|72B
Qwen1.5-0.5B|1.8B|4B|7B|14B|32B|72B|110B|MoE-A2.7B
Qwen2-0.5B|1.5B|7B|57B-A14B-MoE|72B
Qwen2.5-0.5B|1.5B|3B|7B|14B|32B|72B
CodeQwen1.5-7B
Qwen2.5-Coder-1.5B|7B|32B
Qwen2-Math-1.5B|7B|72B
Qwen2.5-Math-1.5B|7B|72B
Qwen-VL-7B
Qwen2-VL-2B|7B|72B
Qwen2-Audio-7B
Qwen2.5-VL-3|7|72B
Qwen2.5-1M-7|14B

3️⃣ Meta
Llama 3.2-1|3|11|90B
Llama 3.1-8|70|405B
Llama 3-8|70B
Llama 2-7|13|70B
Llama 1-7|13|33|65B
OPT-1.3|6.7|13|30|66B

4️⃣ Mistral AI
Codestral-7|22B
Mistral-7B
Mixtral-8x7B
Mixtral-8x22B

5️⃣ Google
Gemma2-9|27B
Gemma-2|7B
RecurrentGemma-2B
T5

6️⃣ Apple
OpenELM-1.1|3B

7️⃣ Microsoft
Phi1-1.3B
Phi2-2.7B
Phi3-3.8|7|14B

8️⃣ Nvidia
Nemotron-4-340B

0️⃣ xAI
Grok-1-314B-MoE

🔟 Cohere
Command R-35

1⃣1⃣ OpenAI
Самые новые модели, которые вышли буквально во вторник

Ироничный получается вывод, если смотреть на топ этого списка) Какие бы вы еще хотели подборки?) Обязательно ставьте реакции и буду ждать вас в комментариях💗
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Борис опять
Оказывается у Univercity of Amsterdam есть отличный набор материалов к курсам по Deep Learning

https://uvadlc-notebooks.readthedocs.io/en/latest/index.html

Например, посмотрите какой красивый туториал по реализации SimCLR: https://uvadlc-notebooks.readthedocs.io/en/latest/tutorial_notebooks/tutorial17/SimCLR.html

Куча каких-то тем о которых очень сложно найти нормальные материалы, например про Tensor Parallelism для обучения и инференса одной большой модели на нескольких GPU.

Лекции тоже частично доступны за прошлые годы, например 2023: https://uvadlc.github.io/lectures-nov2023.html#.
Pro_AlgoRoad.pdf
453.2 KB
Идут последние часы скидки на нашу продвинутую линейку карьерных курсов, записываемся!

В честь такого подготовили для вас роадмапу для продвинутых в алгоритмах с кратким гайдом, как этим пользоваться. Этот гайд поможет структуировать вашу подготовку к собеседованиям в хфт, CS/олимпиадам/экзаменам и подготовиться к первому семестру в ШАД, Ai Masters.

Давайте наберём 500 огоньков 🔥 и соберем такой же только в ML.

@postypashki_old
Forwarded from Борис_ь с ml
📸 Безопасность агентов от OWASP
#иб_для_ml


Прошедшие пару недель выдались жаркими на анонсы OWASP по AI Security. Организация представила сразу три документа, которые стоит прочитать всем, кто так или иначе работает с GenAI-моделями и AI-агентами: «Securing Agentic Apps Guide», «GenAI Incident Response Guide» и «State of Agentic AI Security and Governance». Эти работы можно назвать исчерпывающим собранием знаний о практической безопасности AI-агентов и просто GenAI на сегодня.

👤 Начну с личных впечатлений. Данные документы однозначно позволят человеку без подготовки в AI Security погрузиться в тему безопасности AI-агентов. Но при этом потребуются знания по классической кибербезопасности и/или искусственному интеллекту. Рассмотрено много сателлитных тем, напрямую не относящихся к теме того или иного дока - это одновременно и плюс, и минус. Раскрытие информации постепенное, то есть про те же рантайм проверки в IR Guide расписано сначала в общих чертах, спустя 5-10 страниц подробнее, и потом через еще сколько-то - еще подробнее.
Итого - к ознакомлению рекомендую, но в идеале хотелось бы увидеть то же самое от авторов, только не по 80+ страниц каждый док, а хотя бы по 30.

Теперь фактура

В «Securing Agentic Apps Guide» собран перечень актуальных фреймворков для тестирования агентов — от знакомого нам AgentDojo до более свежих AgentFence, ASB, MAPS и AgentPoison. OWASP систематизировала меры безопасности по всем этапам жизненного цикла: проектирование, развертывание, эксплуатация. Для рантайма советуют искать аномалии в тексте промптов, частоте и параметрах вызова тулов, снижать объём памяти агента как ответ на инциденты (это мне прям понравилось, новая мысль), задавать срок жизни чувствительных данных (тоже новенькое), ограничивать размер контекстного окна, стирать память при смене темы и вообще никогда не допускать попадания в промпт секретов из списка на 12 пунктов.
Доступ к инструментам рекомендуется делать по Just-In-Time модели с ephemeral credentials, хотя механика триггеров включения/отключения пока не прописана.

🔃 «GenAI Incident Response Guide» — руководство по реагированию на инциденты в GenAI, полезное, прежде всего, организациям с молодой кибербезопасностью (где SOC и DevSecOps только строятся). Приведены меры сдерживания (пометки на аномальных сессиях, canary-prompts для защиты системного промпта, троттлинг подключений к модели), но они куда менее интересные, имхо, чем в Securing Apps.
Перечислили IoC для GenAI-инцидентов: всевозможные аномалии потоков входа/выхода GenAI-моделей, наличие PII в ответах, хэши популярных атакующих запросов.
Далее авторы пустились в полет фантазии: и методика оценки рисков, и примеры для дашбордов SOC для AI, и еще куча всего. Описана модель зрелости SOC для AI с необходимыми шагами для "эволюции".
Полезной могу отметить матрицу расчёта критичности AI-инцидентов по пяти направлениям, по которой можно определять скорость реагирования на инцидент, состав команды и масштаб пост-инцидентных мер.
Но что меня расстроило, так это как раз таки полное отсутствие специфики AI-агентов. Недоработали OWASP тут.

В «State of Agentic AI Security and Governance» OWASP рассматривается рынок фреймворков и механизмов защиты. Дан обзор безопасности open-source решений вроде dify, autogen, crewai у многих есть гардрейлы, а в Letta, OpenAI Agents SDK, Google ADK и т.д.. Проприетарные платформы тоже не обошли вниманием: AWS Bedrock Agents фильтрует контент и ограничивает действия агентов, SF Agentforce блокирует оффтоп и галлюцинации и маскирует доменные данные, Azure AI Foundry предоставляет дашборды рисков, инструменты для AI Red Teaming и DLP, IBM Watsonx Orchestrate — детектор неэтичности, управление ЖЦ агента и интеграция с Splunk/QRadar, Google Vertex AI Agent Builder — фильтры, агентный IAM и анализ reasoning-логов. Упомянуты и протоколы агентов, но анализ на безопасность меня не впечатлил. Завершают документ прогнозы по развитию compliance-практик, но они для России полностью нерелвантны, к сожалению.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from DeepSchool
YOLO history. Part 8

В предыдущей статье мы рассказали о том, как использовать вспомогательные модели для улучшения качества основной.
В новой статье разберём устройство архитектур YOLOv8 и YOLOv11, а также отличия академического и индустриального подходов к созданию нового детектора.

Читайте новую статью по ссылке!
Forwarded from Душный NLP
Лучшие работы Dissertation Award и немного статистики: подводим итоги ACL 2025

В этом году Ассоциация компьютерной лингвистики (ACL) учредила награду для лучших PhD-диссертаций. Критериев выбора несколько. Исследование должно:

⚪️быть связным и хорошо написанным;
⚪️охватывать одну из областей интереса ACL;
⚪️удовлетворять принятым в академии методологиям;
⚪️вызывать желание прочитать его целиком.

Диссертацию пубедителя публикуют в журнале Computational Linguistics, который индексируется в Scopus и Web of Science, а также стабильно входит в I и II квартиль.

В этом сезоне с 1 сентября 2022-го по 31 августа 2024 года на рассмотрении комиссии подали 29 диссертаций. Почётного упоминания удостоились работы:

Human-AI Collaboration to Support Mental Health and Well-Being
Ashish Sharma


Диссертация сдвигает границы взаимодействия человека с ИИ: автор исследует способы выявлять и имитировать эмпатию, расширяя возможности применения NLP для улучшения ментального здоровья людей.

Modeling Cross-lingual Transfer for Semantic Parsing
Tom Sherborne


В этой диссертации развивают высокоточные методы кросс-лингвистического трансфера для языков, на которых собрано слишком мало датасетов для разработки и обучения моделей. Эффективность методов демонстрируется в контекст семантического парсинга для интеграцим с базами данных API.

Лучшей диссертацией стала работа об LLM:

Rethinking Data Use in Large Language Models
Sewon Min


На фото улыбается победительница — Sewon Min, одна из самых известных учёных в области обработки естественного языка. Она специализируется на языковых моделях, использующих контекст. Большинство её статей посвящено задаче автоматического ответа на вопросы, в частности, проблеме повышения фактической корректности ответа.

В диссертации Sewon Min сосредоточилась на более узких темах: генерации на основе примеров (fewshot-learning), а также непараметрических языковых моделях, которые используют для генерации внешний корпус. В исследование вошло множество инсайтов о поведении и возможностях больших лингвистических моделей в рамках обучения с контекстом. Эти находки сформировали сегодняшнее ядро NLP.

Больше о трендах и лучших статьях конференции читайте в предыдущих постах:

В Вене проходит 63-я ежегодная конференция ассоциации компьютерной лингвистики — ACL 2025

Интересное с конференции ACL 2025

Запомнили для вас всё самое интересное Алексей Березникер и Алексей Сорокин

#YaACL25

Душный NLP
Please open Telegram to view this post
VIEW IN TELEGRAM
Python.pdf
6.2 MB
Итак, обещанные материалы: от абсолютного нуля до МЛ-бибизяна

1. Основы Python Эрик Мэтиз

2. Погружаемся в классический МЛ с Джейком Вандер Пласом

3. Уничтожаем свои нервные клетки двумя семестрами Deep Learning School от МФТИ

сначала https://stepik.org/course/196127/promo?search=6864012529
затем https://stepik.org/course/196142/promo?search=6864012526

4. Раздуваем своё портфолио https://fintech.tinkoff.ru/school/generation/dl/

---- Поздравляю, вы выросли вглубину, но не вширину. Рекомендую приправлять всё вышеперечисленное хакатонами. Идем дальше

5. SQL https://stepik.org/course/63054/syllabus

6. Docker https://karpov.courses/docker

7. MLops https://ods.ai/tracks/ml-in-production-spring-22

8. Spark https://pythonru.com/biblioteki/pyspark-dlja-nachinajushhih

9. Алгосы от Яши (идеально ботать перед собесом) https://github.com/VanjaRo/LeetCode/blob/main/README.md

10. Математика для ML/DL/AI https://academy.yandex.ru/handbook/ml идеально для собеса (порадуй свои глазные яблочки)

11. Git https://practicum.yandex.ru/profile/git-basics/

Вот и весь рецепт. Дальше самостоятельно😘
How we built fast UPDATEs for the ClickHouse column store

▫️Part 1: Purpose-built engines

▫️Part 2: SQL-style UPDATEs

В первой части автор Том Шрайбер поясняет, как ClickHouse обходится без традиционного обновления строк, превращая UPDATE/DELETE в вставки с помощью специальных движков вроде ReplacingMergeTree, CollapsingMergeTree и др., которые позднее сливаются фоновым процессом, обеспечивая высокую скорость и масштабируемость на аналитических нагрузках. Это решение позволило объединить эффективность вставок и возможность правки данных без ущерба для быстрого чтения.

Вторая статья рассказывает о новой архитектуре патч‑партиций (patch parts), благодаря которым ClickHouse наконец поддерживает классический синтаксис UPDATE … WHERE, но без затрат на перестройку колонок: патч‑партиции содержат только изменённые значения и сливаются в фоновом режиме, обеспечивая мгновенную видимость изменений и высокую производительность. Автор подробно описывает эволюцию от тяжёлых мутаций до экономных, декларативных обновлений на основе SQL, вдохновлённых механизмами MergeTree.

#ClickHouse