Forwarded from DeepSchool
Active learning
Active learning — это непрерывный цикл выбора данных, их разметки и обучения модели. От выбора данных для разметки зависит, сколько ресурсов будет потрачено для достижения целевых метрик в проекте. В новой статье рассматриваем одну из важнейших задач Active learning — отбор объектов 🫵
Из новой статьи вы узнаете:
- о концепции Active learning
- популярные методы отбора объектов: Entropy Sampling, Query-by-Committee, Bayesian Active learning by Disagreement (BALD) и др.
- сильные и слабые стороны рассмотренных методов
Читайте статью по ссылке! 👀
⚡️ Если хотите научиться решать сложные задачи в Computer Vision, то приходите на наш курс CV Rocket. Запишитесь в лист ожидания, чтобы получить скидку до 20%
Active learning — это непрерывный цикл выбора данных, их разметки и обучения модели. От выбора данных для разметки зависит, сколько ресурсов будет потрачено для достижения целевых метрик в проекте. В новой статье рассматриваем одну из важнейших задач Active learning — отбор объектов 🫵
Из новой статьи вы узнаете:
- о концепции Active learning
- популярные методы отбора объектов: Entropy Sampling, Query-by-Committee, Bayesian Active learning by Disagreement (BALD) и др.
- сильные и слабые стороны рассмотренных методов
Читайте статью по ссылке! 👀
Please open Telegram to view this post
VIEW IN TELEGRAM
DeepSchool
Active learning - DeepSchool
Активное обучение: выбор данных и методы семплирования
Forwarded from gonzo-обзоры ML статей
Если вдруг вы пропустили, пара полезных ресурсов про Agentic AI
1. "Agentic AI" course by Andrew Ng
https://www.deeplearning.ai/courses/agentic-ai/
2. "Agentic Design Patterns" book by Antonio Gulli
https://docs.google.com/document/d/1rsaK53T3Lg5KoGwvf8ukOUvbELRtH-V0LnOIFDxBryE/preview?tab=t.0
1. "Agentic AI" course by Andrew Ng
https://www.deeplearning.ai/courses/agentic-ai/
2. "Agentic Design Patterns" book by Antonio Gulli
https://docs.google.com/document/d/1rsaK53T3Lg5KoGwvf8ukOUvbELRtH-V0LnOIFDxBryE/preview?tab=t.0
DeepLearning.AI - Learning Platform
Agentic AI
In this course taught by Andrew Ng, you'll build agentic AI systems that take action through iterative, multi-step workflows.
Forwarded from gonzo-обзоры ML статей
Больше хороших референсных имплементаций!
https://github.com/karpathy/nanochat
This repo is a full-stack implementation of an LLM like ChatGPT in a single, clean, minimal, hackable, dependency-lite codebase. nanochat is designed to run on a single 8XH100 node via scripts like speedrun.sh, that run the entire pipeline start to end. This includes tokenization, pretraining, finetuning, evaluation, inference, and web serving over a simple UI so that you can talk to your own LLM just like ChatGPT. nanochat will become the capstone project of the course LLM101n being developed by Eureka Labs.
https://github.com/karpathy/nanochat
This repo is a full-stack implementation of an LLM like ChatGPT in a single, clean, minimal, hackable, dependency-lite codebase. nanochat is designed to run on a single 8XH100 node via scripts like speedrun.sh, that run the entire pipeline start to end. This includes tokenization, pretraining, finetuning, evaluation, inference, and web serving over a simple UI so that you can talk to your own LLM just like ChatGPT. nanochat will become the capstone project of the course LLM101n being developed by Eureka Labs.
GitHub
GitHub - karpathy/nanochat: The best ChatGPT that $100 can buy.
The best ChatGPT that $100 can buy. Contribute to karpathy/nanochat development by creating an account on GitHub.
Forwarded from IT-girl talks💗
Книга для аналитика
Я пошла на курс для подготовки к собеседованиям, потому что четко заметила за собой полное отсутствие понимания метрик для бизнеса и других связанных с тестированием гипотез тем.
Книги по аналитике я обычно не читаю - смотрела только видео на ютьюбе, но каждый раз я забывала абсолютно всё, да и какого-то четкого понимания так и не сложилось.
На курсе после лекций и семинаров появилась хорошая база и я потренировалась на кейсах. Уже хвалила курс - до сих пор рада, что учусь на нем и на следующей неделе он уже закончится, к сожалению:(
Я вам обещала книгу - делюсь. Посоветовали на курсе и многие однокурсники, как оказалось, ее уже читали и тоже хвалили.
Взяла себе в твердом переплете - и вам советую, потому что книга может вам еще пригодиться для повторения тем перед собеседованием. Но вроде бы есть слитая…
Интересная, читается легко и конечно - же она не только про игры, а в целом смысл можно экстраполировать на другие приложения.
Про метрики и суть аналитики подробно, понятно и интересно. Я эту книгу взяла с собой и рука действительно потянулась к ней. Похожа на учебник, но современный. Мне помогла начать осмыслять вообще в целом концепцию аналитики продукта и работу с данным более глубоко на уровне бизнеса. Да, почти 4 года работала и меня это не интересовало🤔
🥁 И это:🥁
Я пошла на курс для подготовки к собеседованиям, потому что четко заметила за собой полное отсутствие понимания метрик для бизнеса и других связанных с тестированием гипотез тем.
Книги по аналитике я обычно не читаю - смотрела только видео на ютьюбе, но каждый раз я забывала абсолютно всё, да и какого-то четкого понимания так и не сложилось.
На курсе после лекций и семинаров появилась хорошая база и я потренировалась на кейсах. Уже хвалила курс - до сих пор рада, что учусь на нем и на следующей неделе он уже закончится, к сожалению:(
Я вам обещала книгу - делюсь. Посоветовали на курсе и многие однокурсники, как оказалось, ее уже читали и тоже хвалили.
Взяла себе в твердом переплете - и вам советую, потому что книга может вам еще пригодиться для повторения тем перед собеседованием. Но вроде бы есть слитая…
Интересная, читается легко и конечно - же она не только про игры, а в целом смысл можно экстраполировать на другие приложения.
Про метрики и суть аналитики подробно, понятно и интересно. Я эту книгу взяла с собой и рука действительно потянулась к ней. Похожа на учебник, но современный. Мне помогла начать осмыслять вообще в целом концепцию аналитики продукта и работу с данным более глубоко на уровне бизнеса. Да, почти 4 года работала и меня это не интересовало
«Игра в цифры» Василий Сабиров
Короче - рекомендую. Читали?Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from DziS Science | Data Science
YouTube
Андрей Дзись. Как модели минимизируют риск?
Выступление на летней школе IT-сеанс: погружение в мир данных 2025, организованной центром непрерывного образования факультета компьютерных наук (ФКН) ВШЭ.
Мой ТГ канал: @dzis_science
Подробнее о школе по ссылке: cs.hse.ru/dpo/datascienceschool/summer2025/
Мой ТГ канал: @dzis_science
Подробнее о школе по ссылке: cs.hse.ru/dpo/datascienceschool/summer2025/
Привет всем!👋
Неожиданным (даже для меня) стало наличие записи моего выступления с IT-Сеанс.
Так что вашему вниманию предлагается серьезный Андрей (в пиджаке) и менее серьезная презентация (с котами) про серьезные вещи, которые мы делаем на работе.
Бегом смотреть!
👉Ссылка на видео👈
Кстати, вся информация по школе и другие материалы доступны по ссылке.
#мероприятия #видео
Неожиданным (даже для меня) стало наличие записи моего выступления с IT-Сеанс.
Так что вашему вниманию предлагается серьезный Андрей (в пиджаке) и менее серьезная презентация (с котами) про серьезные вещи, которые мы делаем на работе.
Бегом смотреть!
👉Ссылка на видео👈
Кстати, вся информация по школе и другие материалы доступны по ссылке.
#мероприятия #видео
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Заскуль питона (Data Science)
Многие аналитики знают формулировку, хотя встречаются кейсы, когда люди путают понятия, предыдущий пост
p-value — это вероятность получить наблюдаемое или более экстремальное значение статистики, если нулевая гипотеза верна (не отклонена).
p-value — это вероятность, что нулевая гипотеза верна
p-value = вероятность, что результаты случайны
Чем меньше p-value, тем больше вероятность, что гипотеза H₁
❓ Мы не знаем, где именно начинается отклонение от нормы, поэтому смотрим не только на наш результат, а и на все, которые встречаются ещё реже и сильнее отличаются. Так мы понимаем, насколько результат действительно выбивается из обычных случаев, а не просто совпадение.
Самый простой вариант: это показать, что монетка нечестная (например, мы подбрасывали 10 раз монетку, 9 раз выпал орел).
H₀ (нулевая гипотеза) — Монета честная, то есть орёл и решка выпадают с равной вероятностью 50/50. p = 1/2
H₁ (альтернативная гипотеза для орлов), можно проверить одностороннюю гипотезу , тогда p > 1/2 или p != 1/2 (двустороннюю)
В этом случае биномиальное распределение описывает все возможные исходы количества орлов и решек при подбрасывании монеты.
P(X = k) = Cn^k * p^k * (1-p)^(n-k)
Эта формула показывает вероятность того, что при n подбрасываниях монеты орёл выпадет ровно k раз.
где:
n — количество подбрасываний (в нашем случае 10),
k — количество орлов (успехов),
p — вероятность орла (для честной монеты 0.5),
Cn^k (сочетания из n по k) — число способов выбрать, в каких бросках выпадет орёл.
Считаем P(X=9), P(X=10) и складываем их между собой.
Получаем p-value ~ 0.01074
На уровне значимости 0.05 мы можем сказать, что монетка нечестная, на уровне значимости 0.01 результат на грани, но мы не можем отвергнуть нулевую гипотезу.
Ставьте
@zasql_python
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Заметки LLM-энтузиаста
🚀 Manus 1.5: Обновление ИИ-платформы для разработки
Компания Manus выпустила версию 1.5 своей платформы с несколькими значимыми улучшениями.
Основные изменения:
⚡️ Ускоренный движок — задачи выполняются заметно быстрее благодаря оптимизации архитектуры
🎯 Повышенное качество вывода — интерфейсы, переходы и выравнивание стали более профессиональными и точными
📊 Неограниченный контекст — возможность работы с крупными проектами без потери данных и истории, что упрощает командную работу (немного про то, как manus делает context engineering, будет в следующей заметке)
🛠 App Builder — создание полноценных приложений с фронтендом, серверной логикой, базой данных и аутентификацией по одному запросу.
Я с использованием этого App Builder в 1 промпт сделал приложение по генерации картинок при помощи YandexART и Nano Banana (на выбор), результаты можно посмотреть в комментариях. Можно сравнить с приложением от Lovable, которое мной создавалось по тому же промпту чуть ранее.
Мне результат от Manus App Builder очень понравился. Похоже, что у нас есть новый лидер Vibe Coding'а с самым низким порогом входа. Весь предварительный ресерч, подготовка PRD и спецификации на разработку - все делается автоматически. Особенно меня порадовало, что добавить YandexART в этот генератор картинок оказалось предельно просто:
Чуть позже я напишу в комментариях как с добавленим YandexART справился Lovable и Genspark AI Developer.
Пару дней назад я для демонстрации заказчику делал простенького веб-бота на базе yandexart (исходники здесь) , использовал: Github Codespaces, claude code (частично онлайн claude code в рамках бета тестирования), а также поиск рабочих код-снипетов в yandex cloud ml sdk и примерно представляю уровень неудобств. К слову, онлайн Codex так и не смог мне сгенерировать рабочий код такого бота.
🖼 Генерация и поиск изображений — интеграция с пониманием намерений пользователя
Для кого актуально:
1️⃣ Разработчики, работающие с ИИ-инструментами
2️⃣ Команды, создающие веб-приложения
3️⃣ Специалисты по автоматизации процессов
4️⃣ Пользователи, работающие с большими объемами данных
Обновление направлено на повышение производительности и расширение возможностей платформы для решения сложных задач разработки.
Если к этому добавить еще возможность отправки задач в manus по email, интеграцию manus с внешними инструментами и зарождающийся в документации API интерфейс к продукту, то Manus в скором времени может стать самым крутым универсальным ИИ-помощником. Который можно будет использовать и в "личном" общении, и в программном коде.
@llm_notes
#manus #ai #vibecoding #automation #productivity #app
Компания Manus выпустила версию 1.5 своей платформы с несколькими значимыми улучшениями.
Основные изменения:
⚡️ Ускоренный движок — задачи выполняются заметно быстрее благодаря оптимизации архитектуры
🎯 Повышенное качество вывода — интерфейсы, переходы и выравнивание стали более профессиональными и точными
📊 Неограниченный контекст — возможность работы с крупными проектами без потери данных и истории, что упрощает командную работу (немного про то, как manus делает context engineering, будет в следующей заметке)
🛠 App Builder — создание полноценных приложений с фронтендом, серверной логикой, базой данных и аутентификацией по одному запросу.
Я с использованием этого App Builder в 1 промпт сделал приложение по генерации картинок при помощи YandexART и Nano Banana (на выбор), результаты можно посмотреть в комментариях. Можно сравнить с приложением от Lovable, которое мной создавалось по тому же промпту чуть ранее.
Мне результат от Manus App Builder очень понравился. Похоже, что у нас есть новый лидер Vibe Coding'а с самым низким порогом входа. Весь предварительный ресерч, подготовка PRD и спецификации на разработку - все делается автоматически. Особенно меня порадовало, что добавить YandexART в этот генератор картинок оказалось предельно просто:
добавь пожалуйста поддержку модели yandexart с необходимостью ввода credentials: folder id и api key (добавь ссылку на инструкцию где их взять https://telegra.ph/Kak-i-otkuda-brat-kredy-dlya-dostupa-k-YandexGPT-10-09). Чуть позже я напишу в комментариях как с добавленим YandexART справился Lovable и Genspark AI Developer.
Пару дней назад я для демонстрации заказчику делал простенького веб-бота на базе yandexart (исходники здесь) , использовал: Github Codespaces, claude code (частично онлайн claude code в рамках бета тестирования), а также поиск рабочих код-снипетов в yandex cloud ml sdk и примерно представляю уровень неудобств. К слову, онлайн Codex так и не смог мне сгенерировать рабочий код такого бота.
🖼 Генерация и поиск изображений — интеграция с пониманием намерений пользователя
Для кого актуально:
1️⃣ Разработчики, работающие с ИИ-инструментами
2️⃣ Команды, создающие веб-приложения
3️⃣ Специалисты по автоматизации процессов
4️⃣ Пользователи, работающие с большими объемами данных
Обновление направлено на повышение производительности и расширение возможностей платформы для решения сложных задач разработки.
Если к этому добавить еще возможность отправки задач в manus по email, интеграцию manus с внешними инструментами и зарождающийся в документации API интерфейс к продукту, то Manus в скором времени может стать самым крутым универсальным ИИ-помощником. Который можно будет использовать и в "личном" общении, и в программном коде.
@llm_notes
#manus #ai #vibecoding #automation #productivity #app
Telegram
Заметки LLM-энтузиаста Chat
или вот еще вариант приложения - "генератор изображений"
приложение генерируется в "одно касание" без необходимости что-то траблшутить
вот такой исходный промпт:
🚀 Создайте приложение-генератор изображений на базе ИИ с Google Gemini Nano
Используйте новейшую…
приложение генерируется в "одно касание" без необходимости что-то траблшутить
вот такой исходный промпт:
🚀 Создайте приложение-генератор изображений на базе ИИ с Google Gemini Nano
Используйте новейшую…
Forwarded from Не AБы какие тесты
Доверительные интервалы, часть 2
Привет, товарищи-статистики!
Можно ли при стат.значимом результате добирать аудиторию для получения более суженного доверительного интервала эффекта? Хороший вопрос, так как кажется, что тут нет никакого подвоха, результат-то стат. значимый, можем открывать шампанское и вообще. Но все не так просто.
1) Концептуально, мы не застрахованы от того, что наш результат это ошибка 1-го рода, отсюда это мало чем отличается от обратной ситуации “донаберем данных до стат. значимости”. Стат. значимость не делает эффект достоверным, нам просто так удобнее думать.
2) Мы продолжим работать с условными CI, что охватили истинный эффект, то есть с 95 из 100, но после донабора охватывать истинный эффект будет уже 94. И вот тут вряд ли есть где-то ошибка в очень дубовой симуляции.
Почему так происходит? Дело в том, что каждые новые данные это реализация случайной величины с определенным разбросом, отсюда CI не только сужаются, но и колеблются, а поэтому из CI, которые уже охватили эффект, могут не охватить при новом наборе данных.
При этом CI как механизм охвата истинного параметра не сломаются, полна группа такая после добора:
CI охватил эффект | CI охватил эффект = 94,
CI не охватил эффект | CI охватил эффект = 1
CI не охватил эффект | CI не охватил эффект = 4,
CI охватил эффект | CI не охватил эффект = 1
Чуть перетасуем и получим более читаемый вид:
CI охватил эффект | CI охватил эффект = 94,
CI охватил эффект | CI не охватил эффект = 1
CI не охватил эффект | CI охватил эффект = 1
CI не охватил эффект | CI не охватил эффект = 4
п.2 порождают риск того, что ваш следующий интервал будет не стат. значимый. И что вы будете делать тогда? Мета-анализ зависимых гипотез? Но был ли он у вас в дизайне? Сможете ли вы его объяснить заказчику?
Я думаю, запланировать донабор возможно, но это потребует корректировки альфы и мощности; можно запланировать и мета-анализ. Просто это выглядит избыточным, мудреным и абсолютно не нужным. А незапланированный набор выглядит как, грубо говоря, подлог, который нужно штрафовать на уровне оценки объективности теста.
Если вам нужен узкий доверительный интервал, то на этапе дизайна:
- обратите внимание на то, что стандартная ошибка (вшитая в CI, если что) пропорциональна 1/корень(n). Это значит, например, увеличение в 2 раза выборки приведет только лишь к сокращению в 1.41 раза ширины CI, то есть на ~29%:
1/корень(1) - 1/корень(2) = 1 - 1/корень(2) = 1 - 0.71 = 0.29
—
Пользуйтесь эвристикой, вывод ее простой, сначала обобщим пример выше:
1 - 1/корень(1+k) = d, где d - доля снижения, где k - наш множитель
Через ряд алгебраических преобразований, мы получим:
k = (1 / (1-d) )^2, - смотри картинку поста для читаемости
Указывай долю снижения = получай множитель.
—
- подберите прокси-метрику с меньшей дисперсией, сохраняя тот же размер выборки по базовой метрике, но только помните про требования к таковой - связанность и сонаправленность с этой базовой
P.S. И к слову о штрафах. Так как игнорирование дизайна это бич стат. анализа, то уже давно думаю над тем, как внедрить как раз оценку объективности теста. Пока в голове просто прикидка а-ля пускай тест, задизайненный как следует и сделанный как планировалось, имеет объективность 100 баллов. За каждое отклонение, будь то “че-то еще давай посмотрим” или техническая проблема, минус сколько-то баллов. Само собой, не хватает конкретики, за что и насколько будем штрафовать, но мысль уже есть, думаю, рано или поздно что-нибудь да развернется. А если у вас что-то готово, делитесь :)
Привет, товарищи-статистики!
Можно ли при стат.значимом результате добирать аудиторию для получения более суженного доверительного интервала эффекта? Хороший вопрос, так как кажется, что тут нет никакого подвоха, результат-то стат. значимый, можем открывать шампанское и вообще. Но все не так просто.
1) Концептуально, мы не застрахованы от того, что наш результат это ошибка 1-го рода, отсюда это мало чем отличается от обратной ситуации “донаберем данных до стат. значимости”. Стат. значимость не делает эффект достоверным, нам просто так удобнее думать.
2) Мы продолжим работать с условными CI, что охватили истинный эффект, то есть с 95 из 100, но после донабора охватывать истинный эффект будет уже 94. И вот тут вряд ли есть где-то ошибка в очень дубовой симуляции.
Почему так происходит? Дело в том, что каждые новые данные это реализация случайной величины с определенным разбросом, отсюда CI не только сужаются, но и колеблются, а поэтому из CI, которые уже охватили эффект, могут не охватить при новом наборе данных.
При этом CI как механизм охвата истинного параметра не сломаются, полна группа такая после добора:
CI охватил эффект | CI охватил эффект = 94,
CI не охватил эффект | CI охватил эффект = 1
CI не охватил эффект | CI не охватил эффект = 4,
CI охватил эффект | CI не охватил эффект = 1
Чуть перетасуем и получим более читаемый вид:
CI охватил эффект | CI охватил эффект = 94,
CI охватил эффект | CI не охватил эффект = 1
CI не охватил эффект | CI охватил эффект = 1
CI не охватил эффект | CI не охватил эффект = 4
п.2 порождают риск того, что ваш следующий интервал будет не стат. значимый. И что вы будете делать тогда? Мета-анализ зависимых гипотез? Но был ли он у вас в дизайне? Сможете ли вы его объяснить заказчику?
Я думаю, запланировать донабор возможно, но это потребует корректировки альфы и мощности; можно запланировать и мета-анализ. Просто это выглядит избыточным, мудреным и абсолютно не нужным. А незапланированный набор выглядит как, грубо говоря, подлог, который нужно штрафовать на уровне оценки объективности теста.
Если вам нужен узкий доверительный интервал, то на этапе дизайна:
- обратите внимание на то, что стандартная ошибка (вшитая в CI, если что) пропорциональна 1/корень(n). Это значит, например, увеличение в 2 раза выборки приведет только лишь к сокращению в 1.41 раза ширины CI, то есть на ~29%:
1/корень(1) - 1/корень(2) = 1 - 1/корень(2) = 1 - 0.71 = 0.29
—
Пользуйтесь эвристикой, вывод ее простой, сначала обобщим пример выше:
1 - 1/корень(1+k) = d, где d - доля снижения, где k - наш множитель
Через ряд алгебраических преобразований, мы получим:
k = (1 / (1-d) )^2, - смотри картинку поста для читаемости
Указывай долю снижения = получай множитель.
—
- подберите прокси-метрику с меньшей дисперсией, сохраняя тот же размер выборки по базовой метрике, но только помните про требования к таковой - связанность и сонаправленность с этой базовой
P.S. И к слову о штрафах. Так как игнорирование дизайна это бич стат. анализа, то уже давно думаю над тем, как внедрить как раз оценку объективности теста. Пока в голове просто прикидка а-ля пускай тест, задизайненный как следует и сделанный как планировалось, имеет объективность 100 баллов. За каждое отклонение, будь то “че-то еще давай посмотрим” или техническая проблема, минус сколько-то баллов. Само собой, не хватает конкретики, за что и насколько будем штрафовать, но мысль уже есть, думаю, рано или поздно что-нибудь да развернется. А если у вас что-то готово, делитесь :)
Forwarded from 🏆 Data Feeling | AI (Aleron M)
• Дизайнерам: плагин для Canva/Figma конвертирует макеты в рабочий код
• Разработчикам: плагин в Postman генерирует коллекцию API-запросов для вашего приложения.
• Креаторам: плагин в NanoBanana генерирует логотип для сайта в один клик
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM