Forwarded from DevFM
Продолжая разговор о книге Адизеса хочется еще поделиться парочкой цитат, которые выписал, пока читал книгу.
Простая мысль, но в жизни часто бывает иначе: люди блокируют решения, не имея полномочий их принимать. И нужно четко понимать с кем ты работаешь и кто тебе нужен, чтобы протащить свое решение.
Очень часто это вижу и проговариваю с теми, кто приходит посоветоваться. Будь ты хоть миллион раз прав – если был агрессивен, раздражен или токсичен, тебя уже не будут слушать. Будут цепляться за форму, а не за содержание. Поэтому очень важно следить за тем, как ты доносишь свою точку зрения.
Проблема новоиспеченных тимлидов, которых поставили, нагрузили обязанностями, а вот про полномочия и власть – забыли. Кого нанимать? Не твое. Решение о премии? Не твое. Приоритеты менять? Согласуй сначала. Еще что-то хочешь внедрить – тоже согласуй. И вот у тебя куча обязанностей, а полномочий и власти – нет.
#books
Если в ответ на ваше предложение босс говорит "нет", спросите, имеет ли он право говорить "да". Если ему не позволено говорить "да", то выясните, кто обладает этим правом. Только этот человек и должен иметь право говорить "нет"
Простая мысль, но в жизни часто бывает иначе: люди блокируют решения, не имея полномочий их принимать. И нужно четко понимать с кем ты работаешь и кто тебе нужен, чтобы протащить свое решение.
Всякий раз, не соглашаясь с собеседником, уделяйте больше внимания тому, как вы выражаете несогласие, а не тому, что составляет его суть
Очень часто это вижу и проговариваю с теми, кто приходит посоветоваться. Будь ты хоть миллион раз прав – если был агрессивен, раздражен или токсичен, тебя уже не будут слушать. Будут цепляться за форму, а не за содержание. Поэтому очень важно следить за тем, как ты доносишь свою точку зрения.
Менеджеры результативны тогда, когда имеют достаточно полномочий, власти и влияния для выполнения своих обязанностей
Проблема новоиспеченных тимлидов, которых поставили, нагрузили обязанностями, а вот про полномочия и власть – забыли. Кого нанимать? Не твое. Решение о премии? Не твое. Приоритеты менять? Согласуй сначала. Еще что-то хочешь внедрить – тоже согласуй. И вот у тебя куча обязанностей, а полномочий и власти – нет.
#books
Telegram
DevFM
Управление изменениями
Книга "Управление изменениями без потрясений и конфликтов" Адизеса
Хорошая база позволяет принимать решения в сложных ситуациях. Когда у тебя есть структура в голове, ты не смотришь на новую проблему как на что-то уникальное – всегда…
Книга "Управление изменениями без потрясений и конфликтов" Адизеса
Хорошая база позволяет принимать решения в сложных ситуациях. Когда у тебя есть структура в голове, ты не смотришь на новую проблему как на что-то уникальное – всегда…
Forwarded from Тимлид Очевидность | Евгений Антонов
Я принес. Винни-Пух и его друзья решают менеджерские проблемы
Мой товарищ, коллега и сообщник по сообществу руководителей Management Hub Саша Коныгин написал на Хабре две статьи, которые мне очень понравились по нескольким причинам:
1. Он использует инструменты теории ограничений, чтобы и копнуть вглубь проблемы, и не пытаться разом всё на свете сделать одномоментно.
2. Забавно подано в стиле полилога между известными мультяшными персонажами.
3. Всё структурно и поэтапно. Для самых маленьких, так сказать. 🙂
Не уверен насчет того, как эта серия статей воспримется теми, кто не знаком с теорией ограничений, но мне, шапочно знакомому, было отрадно видеть, как теория превращается в практику и приносит пользу.
Обе статьи based on true story. 🙂
https://habr.com/ru/articles/971680/
https://habr.com/ru/articles/988796/
Мой товарищ, коллега и сообщник по сообществу руководителей Management Hub Саша Коныгин написал на Хабре две статьи, которые мне очень понравились по нескольким причинам:
1. Он использует инструменты теории ограничений, чтобы и копнуть вглубь проблемы, и не пытаться разом всё на свете сделать одномоментно.
2. Забавно подано в стиле полилога между известными мультяшными персонажами.
3. Всё структурно и поэтапно. Для самых маленьких, так сказать. 🙂
Не уверен насчет того, как эта серия статей воспримется теми, кто не знаком с теорией ограничений, но мне, шапочно знакомому, было отрадно видеть, как теория превращается в практику и приносит пользу.
Обе статьи based on true story. 🙂
https://habr.com/ru/articles/971680/
https://habr.com/ru/articles/988796/
Хабр
История, в которой Винни-Пух и его друзья учатся решать проблемы по одной
Когда проблем так много, что не знаешь, с чего начать Каждое ретро превращается в длинный список проблем: команда обсуждает всё подряд, составляет планы — но через месяц список остаётся тем же....
Forwarded from Борис опять
Верить в "its just scale" больше не модно, однако я все больше убеждаюсь во мнении, что решает ML/AI твою задачу или нет в первую очередь определяется способностями модели. Промтпы, скаффолды, раги и прочие костыли вносят эффект в пределах чуть больше погрешности. Даже если они помогают, то со следующим релизом модели побольше и поумнее эффект пропадает.
Несколько наблюдений на тему. Я сейчас играюсь с GUI агентами, даже сделал свой скаффолд а-ля MobileAgentV3. Общаясь текстом ты не сразу увидишь разницу скажем между Gemini 2.5 Flash, Gemini 3 Flash и Gemini 3 Pro. Но когда ты сажаешь эту штуку управлять телефоном через тулколы разница видна моментально несмотря на то, что модели обучались на схожих данных. Flash 2.5 не может тапнуть куда нужно, принимает иконку Google Translate за Google Play, галлюцинирует целые экраны. Flash 3 уже сносно работает, Pro 3 делает прям вау.
Причём ты можешь дать маленькой модели самый лучший скаффолд, заточить тулы под задачу, очень хитро и умно оптимизировать контекст и всё равно будет плохо. Ты можешь дать большой модели всё максимально кривое и она разберётся.
Другие наблюдения которые объясняются этой гипотезой. Почему Claude Code сработал так, как не сработал до этого Cursor? Потому что вышли Sonnet 4.5/Opus 4.5 у Claude Code и вкупе с максимально простым скаффолдом (фор луп + тулколлы + периодический compact) вдруг заработало. Почему у людей зааработал OpenClaw сделанный максимально проклято, хотя предыдущие попытки сделать такого ассистента не смогли? Вышел Sonnet 4.5 и заработало.
Вывод я для себя сформулировал так. Делая что-то на LLM надо начинать с самой умной и дорогой модели, а затем смотреть насколько ты можешь снизить косты не потеряв в качестве катастрофически. А не начинать эксперименты с мелких моделек и расти по необходимости. Ты понаделаешь для мелких моделей тонну костылей, но все равно не заработает, и все это будет впустую так как большим моделям костыли не нужны и даже мешают.
Очень хочется любить мелкие модели, но не получается
Несколько наблюдений на тему. Я сейчас играюсь с GUI агентами, даже сделал свой скаффолд а-ля MobileAgentV3. Общаясь текстом ты не сразу увидишь разницу скажем между Gemini 2.5 Flash, Gemini 3 Flash и Gemini 3 Pro. Но когда ты сажаешь эту штуку управлять телефоном через тулколы разница видна моментально несмотря на то, что модели обучались на схожих данных. Flash 2.5 не может тапнуть куда нужно, принимает иконку Google Translate за Google Play, галлюцинирует целые экраны. Flash 3 уже сносно работает, Pro 3 делает прям вау.
Причём ты можешь дать маленькой модели самый лучший скаффолд, заточить тулы под задачу, очень хитро и умно оптимизировать контекст и всё равно будет плохо. Ты можешь дать большой модели всё максимально кривое и она разберётся.
Другие наблюдения которые объясняются этой гипотезой. Почему Claude Code сработал так, как не сработал до этого Cursor? Потому что вышли Sonnet 4.5/Opus 4.5 у Claude Code и вкупе с максимально простым скаффолдом (фор луп + тулколлы + периодический compact) вдруг заработало. Почему у людей зааработал OpenClaw сделанный максимально проклято, хотя предыдущие попытки сделать такого ассистента не смогли? Вышел Sonnet 4.5 и заработало.
Вывод я для себя сформулировал так. Делая что-то на LLM надо начинать с самой умной и дорогой модели, а затем смотреть насколько ты можешь снизить косты не потеряв в качестве катастрофически. А не начинать эксперименты с мелких моделек и расти по необходимости. Ты понаделаешь для мелких моделей тонну костылей, но все равно не заработает, и все это будет впустую так как большим моделям костыли не нужны и даже мешают.
Очень хочется любить мелкие модели, но не получается
Forwarded from max.sh
Как строить evaluation системы для AI агентов?
Очередной крутой блог пост от Антропиков. Читать тут.
Прорывных мыслей, бенчмарков или сокрального знания тут не найти, но зато очень хорошая структура (такое пригождается на систем дизайн интервью, если что), отличный технический словарь (task, transcript, evaluation harness, agent harness, и.т.д) и призыв к действию для тех, кто активно шаманит над агентами в рабочих задачах.
И действительно. Если в прошлом году все поголовно были увлечены внедрением агентов процессы, то сейчас все переходят к стадии "а как с этими агентами со-существовать" и валидировать, что со временем они так же продолжают драйвить продуктивность (чтобы это не значило). Короче говоря, не хочется вслепую обновлять модель на новую и потом ловить себя на чувстве "так а чето стало только хуже".
Поэтому Eval-ы и нужны. Eval (от evaluation) – это по большому счету тест AI агента. Даете ему среду, задачу, запускаете, и оцениваете результат. На бумаге легко. На деле же каждая из переменных: среда, задача и оценка результата – безумно сложная задача. Особенно на масштабе организаций с сотнями репозиториев. Тут нужна методичность и структура. Поэтому так легко свалиться в "да пофиг, вроде стало лучше". По работе много общаюсь с энтерпрайзами и это головная боль чуть ли не каждого. Собственно поэтому мы и стали командой делать eval платформу, в которой можно эвалить разного рода контекст (например, вы сделали claude skill, а насколько он хорош? оценить можно тут) или целые репозитории и смотреть насколько хорошо агенты справляются с задачами. Но про это в другой раз.
Мне из блога откликнулись такие мысли.
* Смотреть на Eval-ы, как на модель швейцарского сыра. Картинка к посту в пояснение. Суть в том, что одним подходом все не поймать. Поэтому нужно много слоев. Где-то часть ошибок отловят автопроверки, где-то llm-as-judge, а где-то нужно смотреть не просто в input-output поведение, а анализировать логи агента и смотреть что он там накуролесил в процессе.
* Чем больше в системе детерминированных проверок, тем лучше (для вас). Проще дебажить, проще менять. Вслепую делегировать работу на откуп агенту-валидатору (читай llm-as-judge), себе дороже. По мнению такого валидатора все всегда будет ХО-РО-ШО. Как минимум рубрики нужно калибровать и смотреть глазами прежде чем внедрять такое и основывать на этом выводы.
* Чем раньше начнете задумываться о концепции eval-ов, тем проще будет с агентами дальше. Потому что так будет четкие аргументы, почему агент не может решать задачи именно в вашей кодовой базе и во что инвестировать, чтобы стало лучше. Несколько знакомых так уже получили промоушены в биг техах, чисто за счет какой-никакой observability-платформы для агентов. Лайфхаком не является, но намек вы поняли.
Очередной крутой блог пост от Антропиков. Читать тут.
Прорывных мыслей, бенчмарков или сокрального знания тут не найти, но зато очень хорошая структура (такое пригождается на систем дизайн интервью, если что), отличный технический словарь (task, transcript, evaluation harness, agent harness, и.т.д) и призыв к действию для тех, кто активно шаманит над агентами в рабочих задачах.
И действительно. Если в прошлом году все поголовно были увлечены внедрением агентов процессы, то сейчас все переходят к стадии "а как с этими агентами со-существовать" и валидировать, что со временем они так же продолжают драйвить продуктивность (чтобы это не значило). Короче говоря, не хочется вслепую обновлять модель на новую и потом ловить себя на чувстве "так а чето стало только хуже".
Поэтому Eval-ы и нужны. Eval (от evaluation) – это по большому счету тест AI агента. Даете ему среду, задачу, запускаете, и оцениваете результат. На бумаге легко. На деле же каждая из переменных: среда, задача и оценка результата – безумно сложная задача. Особенно на масштабе организаций с сотнями репозиториев. Тут нужна методичность и структура. Поэтому так легко свалиться в "да пофиг, вроде стало лучше". По работе много общаюсь с энтерпрайзами и это головная боль чуть ли не каждого. Собственно поэтому мы и стали командой делать eval платформу, в которой можно эвалить разного рода контекст (например, вы сделали claude skill, а насколько он хорош? оценить можно тут) или целые репозитории и смотреть насколько хорошо агенты справляются с задачами. Но про это в другой раз.
Мне из блога откликнулись такие мысли.
* Смотреть на Eval-ы, как на модель швейцарского сыра. Картинка к посту в пояснение. Суть в том, что одним подходом все не поймать. Поэтому нужно много слоев. Где-то часть ошибок отловят автопроверки, где-то llm-as-judge, а где-то нужно смотреть не просто в input-output поведение, а анализировать логи агента и смотреть что он там накуролесил в процессе.
* Чем больше в системе детерминированных проверок, тем лучше (для вас). Проще дебажить, проще менять. Вслепую делегировать работу на откуп агенту-валидатору (читай llm-as-judge), себе дороже. По мнению такого валидатора все всегда будет ХО-РО-ШО. Как минимум рубрики нужно калибровать и смотреть глазами прежде чем внедрять такое и основывать на этом выводы.
* Чем раньше начнете задумываться о концепции eval-ов, тем проще будет с агентами дальше. Потому что так будет четкие аргументы, почему агент не может решать задачи именно в вашей кодовой базе и во что инвестировать, чтобы стало лучше. Несколько знакомых так уже получили промоушены в биг техах, чисто за счет какой-никакой observability-платформы для агентов. Лайфхаком не является, но намек вы поняли.
Forwarded from Статистика и R в науке и аналитике
Дизайн A/B теста: пошаговая инструкция
Продолжаю рубрику вопросов с собеседований, сегодня предлагаю разогнать классический кейс на дизайн A/B теста.
К тебе приходит продакт с легендарной идеей покрасить кнопку “купить” в зеленый.
В таких вопросах A/B тест это не всегда единственный и лучший вариант, но в данном случае A/B наиболее просто задизайнить и объяснить.
Примерная структура ответа:
1. Уточнить контекст:
Какую проблему решаем (низкая конверсия, плохая заметность кнопки), какой ожидаемый эффект, как дорого это для разработки (в данном примере скорее всего недорого).
2. Выбрать метрики: ключевые, вспомогательные, заградительные
В данном случае скорее всего ключевой метрикой будет конверсия в успешную покупку, в качестве вспомогательных можно взять конверсию в клик по кнопке.
3. Сформулировать гипотезы: бизнесовые и статистические
Бизнес-гипотеза:
Зелёная кнопка повысит заметность, увеличит желание нажать на нее и увеличит конверсию в покупку.
Статистические гипотезы
H₀: конверсия в тестовой группе не отличается от контрольной;
H₁: конверсия в тестовой группе отличается от контрольной.
По умолчанию проводим именно двусторонний тест, так как наше воздействие может быть в обе стороны. Вообще односторонний тест на практике обычно не применяется и требует явного обоснования.
4. Дизайн эксперимента, расчет размера выборки
Вот здесь обычно начинаются сложности, рекомендую почитать пост Макса и планирую написать про это отдельно.
В рамках этого поста разберем буквально в двух словах:
Для расчета размера выборки нужно зафиксировать три параметра:
🟡 α - верхняя граница вероятности ошибки первого рода.
🟡 Мощность - вероятность обнаружить реальный эффект
🟡 MDE (Minimum Detectable Effect) - это минимальный размер эффекта, который эксперимент должен уметь обнаружить с заданной альфой и мощностью + имеет бизнес-смысл.
Дальше логика такая:
- от базовой конверсии выбираем MDE,
- фиксируем α и power,
- фиксируем сплитование: 50/50 даёт максимальную мощность, любой другой сплит нужно уметь объяснить.
- считаем размер выборки,
- делим на дневной трафик → получаем длительность теста,
- при необходимости учитываем недельную сезонность.
Важно понимать: чем меньше MDE, тем больше выборка и длиннее тест. Подробнее можно почитать здесь
5. Зафиксировать критерии принятия решения
Ещё на этапе дизайна договариваемся с продактом:
- Какой результат теста признаем успешным
- В каких сегментах будем смотреть
- Что будем делать с серым тестом (статистически незначимым)
- Какие критерии экстренной остановки теста
В некоторых случаях продакты могут раскатывать и серый тест, но нужно осознавать, какие могут быть последствия у этого.
6. Бонус: A/A тесты
На собеседовании упоминание A/A — скорее плюс:
- A/A полезен для проверки сплитовалки и метрик
- если система уже валидирована, перед каждым A/B его обычно не проводят
7. Подведение итогов теста
После завершения эксперимента:
- проверяем SRM (Sample Ratio Mismatch)
- сравниваем конверсии (обычно используется z-тест пропорций)
- смотрим доверительные интервалы
- анализируем заградительные и вспомогательные метрики (но решение принимаем по ключевой)
- отдаем продакту решение, а не просто p-value
Главное на собеседовании – уметь структурировать ответ, понимать ограничения A/B тестов и не запутаться в вопросах о статистике, если они будут!
Всем удачных собеседований и адекватных собеседующих 💪
#собес_PA #analytics #AB_tests
Продолжаю рубрику вопросов с собеседований, сегодня предлагаю разогнать классический кейс на дизайн A/B теста.
К тебе приходит продакт с легендарной идеей покрасить кнопку “купить” в зеленый.
В таких вопросах A/B тест это не всегда единственный и лучший вариант, но в данном случае A/B наиболее просто задизайнить и объяснить.
Примерная структура ответа:
1. Уточнить контекст:
Какую проблему решаем (низкая конверсия, плохая заметность кнопки), какой ожидаемый эффект, как дорого это для разработки (в данном примере скорее всего недорого).
2. Выбрать метрики: ключевые, вспомогательные, заградительные
В данном случае скорее всего ключевой метрикой будет конверсия в успешную покупку, в качестве вспомогательных можно взять конверсию в клик по кнопке.
3. Сформулировать гипотезы: бизнесовые и статистические
Бизнес-гипотеза:
Зелёная кнопка повысит заметность, увеличит желание нажать на нее и увеличит конверсию в покупку.
Статистические гипотезы
H₀: конверсия в тестовой группе не отличается от контрольной;
H₁: конверсия в тестовой группе отличается от контрольной.
По умолчанию проводим именно двусторонний тест, так как наше воздействие может быть в обе стороны. Вообще односторонний тест на практике обычно не применяется и требует явного обоснования.
4. Дизайн эксперимента, расчет размера выборки
Вот здесь обычно начинаются сложности, рекомендую почитать пост Макса и планирую написать про это отдельно.
В рамках этого поста разберем буквально в двух словах:
Для расчета размера выборки нужно зафиксировать три параметра:
Дальше логика такая:
- от базовой конверсии выбираем MDE,
- фиксируем α и power,
- фиксируем сплитование: 50/50 даёт максимальную мощность, любой другой сплит нужно уметь объяснить.
- считаем размер выборки,
- делим на дневной трафик → получаем длительность теста,
- при необходимости учитываем недельную сезонность.
Важно понимать: чем меньше MDE, тем больше выборка и длиннее тест. Подробнее можно почитать здесь
5. Зафиксировать критерии принятия решения
Ещё на этапе дизайна договариваемся с продактом:
- Какой результат теста признаем успешным
- В каких сегментах будем смотреть
- Что будем делать с серым тестом (статистически незначимым)
- Какие критерии экстренной остановки теста
В некоторых случаях продакты могут раскатывать и серый тест, но нужно осознавать, какие могут быть последствия у этого.
6. Бонус: A/A тесты
На собеседовании упоминание A/A — скорее плюс:
- A/A полезен для проверки сплитовалки и метрик
- если система уже валидирована, перед каждым A/B его обычно не проводят
7. Подведение итогов теста
После завершения эксперимента:
- проверяем SRM (Sample Ratio Mismatch)
- сравниваем конверсии (обычно используется z-тест пропорций)
- смотрим доверительные интервалы
- анализируем заградительные и вспомогательные метрики (но решение принимаем по ключевой)
- отдаем продакту решение, а не просто p-value
Главное на собеседовании – уметь структурировать ответ, понимать ограничения A/B тестов и не запутаться в вопросах о статистике, если они будут!
Всем удачных собеседований и адекватных собеседующих 💪
#собес_PA #analytics #AB_tests
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Датавиз в BI • Алиса Ручкина
Подборка мини-хаков в FineBI
Собрала подборку маленьких нюансов в FineBI, которые могут быть полезны для начинающих:
🤩 Создать легенду для нескольких мер
🤩 Создать ось для мер
🤩 Расположить названия мер на оси Y горизонтально (аналогично, если нужен наклон «минус 90 градусов»)
🤩 Убрать скролл в дашборде при использовании tab-компонента
🤩 Убрать наклон подписей на горизонтальной оси
🤩 Добавить сортировку по столбцу с типом «Число»
🤩 Добавить сортировку по дате с типом «Текст»
🤩 Добавить сортировку по мере, которая не отображена на графике
🤩 Добавить интерактивную сортировку по мере
Большую мега-подборку по FineBI смотри здесь🔗
#подборка #база
Собрала подборку маленьких нюансов в FineBI, которые могут быть полезны для начинающих:
Большую мега-подборку по FineBI смотри здесь🔗
#подборка #база
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Quant Valerian
Практики управления на уровне культуры команды
Итак, прошло несколько месяцев с тех пор, как я попробовал новые методы в работе с командой. Пришло время подвести промежуточные итоги и поделиться с вами результатами и самими практиками.
Какие цели я перед собой ставил?
- члены команды должны уметь работать самостоятельно и принимать решения автономно
- члены команды должны быть проактивны и стремиться решить проблему, а не сделать задачу
- члены команды должны научиться самостоятельно принимать решения
- члены команды должны *хотеть* помочь друг другу
Что конкретно я сделал?
Ввёл ритуалы!
Последовательно. На первых двух неделях:
- Каждый день проговариваем правило: «молчание = остановка». Если застрял — спроси, дойди, допинай, эскалируй. Двигайся!
- Если есть позитивные примеры такого поведения — подсвечиваем сразу и публично хвалим.
- Каждый день, на дейлике, каждый человек во время рассказа о статусе по своей задаче должен объяснить, зачем мы делаем эту задачу.
- Если он не может объяснить, то пытается объяснить кто-то другой, например, я. Если мы не можем объяснить, то это повод разобраться, а надо ли эту задачу делать.
Немного попугайская история, потому что каждый день это часто, но длится такое всего две недели, так что можно и потерпеть.
Это позволило ребятам почувствовать, что они вообще делают. Как сказал наш проджект, начать строить храм, а не просто носить кирпичи. Отсылка к известной притче.
Кроме того, ребята привыкают слушать друг друга, потому что теперь гораздо понятнее, чем занят сосед.
На третьей неделе обновили ритуал:
- Теперь нужно было объяснить не только зачем мы делаем задачу, но и связывать свою задачу с целями команды.
Здесь уже появляется связка между членами команды. Теперь они начинают слушать внимательно, ведь сосед делает вещи, которые напрямую влияют на твои дела. Тут началась кооперация, дискуссии, появилось желание ребят помочь друг другу.
На четвертой неделе еще одно обновление:
- Теперь нужно объяснить, почему мы делаем именно эту задачу и почему именно сейчас.
- Одну задачу в неделю команда может выбрать и запланировать сама, без менеджеров и лидов.
Этот ритуал переводит фокус внимания сотрудников с операционки на достижение поставленных целей, учит понимать приоритезацию. Помогает постоянно держать в голове стратегические цели.
На этом этапе ребята уже несколько раз ловили меня на том, что запланировал какую-то фигню к работе. И мы меняли приоритеты или скоуп. Ведь у них больше контекста, они реально лучше понимают риски и эффекты от разных проблем и фич.
Здесь уже была активная кооперация, и команда попёрла к целям как паровоз!
Кроме того, по пятницам мы ввели ещё один ритуал. С одной стороны командообразующий, с другой позволявший мне, как руководителю, измерять температуру в команде:
- Я просил каждого высказать свое мнение, как мы поработали на этой неделе. Лучше или хуже, чем на прошлой? Что было хорошего, а что плохого? Кому хочется сказать спасибо?
Это добавило теплоты и ламповости, создало среду, где ребята могут быть уязвимы друг перед другом. Это основа построения доверия.
Мы сделали и ещё несколько изменений, например, довольно существенно изменили процессы в сторону канбана, посрезали излишнюю бюрократию, жестко лимитировали WIP по эпикам. Но по моему общению с ребятами на 1-1, именно ритуалы произвели наибольший эффект и очень понравились команде.
Попробуете у себя? Или у вас уже есть подобные штуки?
Итак, прошло несколько месяцев с тех пор, как я попробовал новые методы в работе с командой. Пришло время подвести промежуточные итоги и поделиться с вами результатами и самими практиками.
Какие цели я перед собой ставил?
- члены команды должны уметь работать самостоятельно и принимать решения автономно
- члены команды должны быть проактивны и стремиться решить проблему, а не сделать задачу
- члены команды должны научиться самостоятельно принимать решения
- члены команды должны *хотеть* помочь друг другу
Что конкретно я сделал?
Ввёл ритуалы!
Последовательно. На первых двух неделях:
- Каждый день проговариваем правило: «молчание = остановка». Если застрял — спроси, дойди, допинай, эскалируй. Двигайся!
- Если есть позитивные примеры такого поведения — подсвечиваем сразу и публично хвалим.
- Каждый день, на дейлике, каждый человек во время рассказа о статусе по своей задаче должен объяснить, зачем мы делаем эту задачу.
- Если он не может объяснить, то пытается объяснить кто-то другой, например, я. Если мы не можем объяснить, то это повод разобраться, а надо ли эту задачу делать.
Немного попугайская история, потому что каждый день это часто, но длится такое всего две недели, так что можно и потерпеть.
Это позволило ребятам почувствовать, что они вообще делают. Как сказал наш проджект, начать строить храм, а не просто носить кирпичи. Отсылка к известной притче.
Кроме того, ребята привыкают слушать друг друга, потому что теперь гораздо понятнее, чем занят сосед.
На третьей неделе обновили ритуал:
- Теперь нужно было объяснить не только зачем мы делаем задачу, но и связывать свою задачу с целями команды.
Здесь уже появляется связка между членами команды. Теперь они начинают слушать внимательно, ведь сосед делает вещи, которые напрямую влияют на твои дела. Тут началась кооперация, дискуссии, появилось желание ребят помочь друг другу.
На четвертой неделе еще одно обновление:
- Теперь нужно объяснить, почему мы делаем именно эту задачу и почему именно сейчас.
- Одну задачу в неделю команда может выбрать и запланировать сама, без менеджеров и лидов.
Этот ритуал переводит фокус внимания сотрудников с операционки на достижение поставленных целей, учит понимать приоритезацию. Помогает постоянно держать в голове стратегические цели.
На этом этапе ребята уже несколько раз ловили меня на том, что запланировал какую-то фигню к работе. И мы меняли приоритеты или скоуп. Ведь у них больше контекста, они реально лучше понимают риски и эффекты от разных проблем и фич.
Здесь уже была активная кооперация, и команда попёрла к целям как паровоз!
Кроме того, по пятницам мы ввели ещё один ритуал. С одной стороны командообразующий, с другой позволявший мне, как руководителю, измерять температуру в команде:
- Я просил каждого высказать свое мнение, как мы поработали на этой неделе. Лучше или хуже, чем на прошлой? Что было хорошего, а что плохого? Кому хочется сказать спасибо?
Это добавило теплоты и ламповости, создало среду, где ребята могут быть уязвимы друг перед другом. Это основа построения доверия.
Мы сделали и ещё несколько изменений, например, довольно существенно изменили процессы в сторону канбана, посрезали излишнюю бюрократию, жестко лимитировали WIP по эпикам. Но по моему общению с ребятами на 1-1, именно ритуалы произвели наибольший эффект и очень понравились команде.
Попробуете у себя? Или у вас уже есть подобные штуки?
Forwarded from Варим МЛ
Ещё один пост про ИИ-агентов для разработки, на этот раз намного более конкретный, про Claude Code и мой опыт его использования. Гайд очень субъективный, могут быть косяки или глупости - очень уж быстро всё меняется.
И несколько объявлений:
- Очень ждём ваши ML-заявки на Codefest. Всё такой же майский, новосибирский и классный. По всем вопросам можно мне в личку - @crazyfrogspb
- Ура, мой доклад взяли на OpenTalks.AI в Белграде! Если будете там 18-20 февраля и хотите поболтать или покурить калик, пишите. Промокод на 25% - SpeakerColleagueOT2026
- Ура, я еду на Snow Base! Я обожаю South Hub, но в этом году туда, скорее всего, не попадаю, так что вдвойне радостно будет поехать. Это такой кэмп для всяких C-level и Head of в ML/DL/LLM/AI в горах Красной Поляны. Буду рад повидаться и там
#Жека #llm
И несколько объявлений:
- Очень ждём ваши ML-заявки на Codefest. Всё такой же майский, новосибирский и классный. По всем вопросам можно мне в личку - @crazyfrogspb
- Ура, мой доклад взяли на OpenTalks.AI в Белграде! Если будете там 18-20 февраля и хотите поболтать или покурить калик, пишите. Промокод на 25% - SpeakerColleagueOT2026
- Ура, я еду на Snow Base! Я обожаю South Hub, но в этом году туда, скорее всего, не попадаю, так что вдвойне радостно будет поехать. Это такой кэмп для всяких C-level и Head of в ML/DL/LLM/AI в горах Красной Поляны. Буду рад повидаться и там
#Жека #llm
Forwarded from декомпозиция и отвага
Чтобы лучше оценивать задачи, нужен простой советский… 🪄 🔮
1. Оценивайте зафиксированный скоуп требований. Новый влёт - новая оценка.
2. Попробуйте конкретизировать или уменьшить задачу через выделение MVP.
3. Если в задаче много «неизвестных», назойливо подчёркивайте это при оценке.
4. Возьмите время для исследования. В Jira есть специальный тип задач для этого - Spike.
5. Разбейте задачу на части или этапы и оценивайте их отдельно.
6. Не оценивайте за другие роли - разработчиков или тестировщиков. Пусть коллеги сами дадут свои оценки.
7. Посоветуйтесь с более опытными коллегами.
8. Проведите покер-планирование.
9. Ведите статистику план-факт по предыдущим оценкам. На это можно будет опереться при оценке аналогичных задач.
10. Посчитайте срок по формуле PERT.
11. Заложите в оценку риски, связанные с текущими изменениями в компании. Например, организационными перестановками, изменениями технологий или процессов.
12. Если для выполнения задачи требуются бюрократические формальности, заложите на них время.
13. Помните о том, что люди уходят в отпуска, болеют и увольняются.
14. Заложите буфер на случай абстрактных непредвиденных обстоятельств.
15. Если возможно, давайте вилку, а не точную оценку.
16. Фиксируйте оценки.
17. Оценивайте чаще. С каждым разом будет получаться всё лучше.
18. Проводите ретроспективы по кейсам, когда вы не попали в оценки.
19. Если кто-то систематически недооценивает задачи, умножайте их оценки на корректирующий коэффициент. Для разработчиков часто подходит х2 или даже х3.
20. Спросите, какой срок ожидает заказчик?
🙃 🙃 🙃 🙃 🙃 🙃 🙃 🙃 🙃 🙃 🙃 🙃 🙃 🙃
🚘 -
😎 - впн ,
🤨 -
Бизнес часто просит аналитиков оценить ту или иную доработку. Я подготовила большой список советов для подобных ситуаций. Советы абсолютно разного свойства и представлены в посте в хаотичном порядке. Кстати, это и делает список реально классным😏
1. Оценивайте зафиксированный скоуп требований. Новый влёт - новая оценка.
2. Попробуйте конкретизировать или уменьшить задачу через выделение MVP.
3. Если в задаче много «неизвестных», назойливо подчёркивайте это при оценке.
4. Возьмите время для исследования. В Jira есть специальный тип задач для этого - Spike.
5. Разбейте задачу на части или этапы и оценивайте их отдельно.
6. Не оценивайте за другие роли - разработчиков или тестировщиков. Пусть коллеги сами дадут свои оценки.
7. Посоветуйтесь с более опытными коллегами.
8. Проведите покер-планирование.
9. Ведите статистику план-факт по предыдущим оценкам. На это можно будет опереться при оценке аналогичных задач.
10. Посчитайте срок по формуле PERT.
11. Заложите в оценку риски, связанные с текущими изменениями в компании. Например, организационными перестановками, изменениями технологий или процессов.
12. Если для выполнения задачи требуются бюрократические формальности, заложите на них время.
13. Помните о том, что люди уходят в отпуска, болеют и увольняются.
14. Заложите буфер на случай абстрактных непредвиденных обстоятельств.
15. Если возможно, давайте вилку, а не точную оценку.
16. Фиксируйте оценки.
17. Оценивайте чаще. С каждым разом будет получаться всё лучше.
18. Проводите ретроспективы по кейсам, когда вы не попали в оценки.
19. Если кто-то систематически недооценивает задачи, умножайте их оценки на корректирующий коэффициент. Для разработчиков часто подходит х2 или даже х3.
20. Спросите, какой срок ожидает заказчик?
Как думаете, напишут ли такой пост в мессенджере MAX?
конечно, будем всем кооперативом даже с парковки читатьну уж нет, где там мои 150 рублей на заплачу и буду месяц из Нидерландов телеграммиться
Дуров, что сделать, чтобы вернуть свободный интернет?Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Аналитесса-разработчица👩🏻💻💅🏻 (anna)
Основы O-оценки сложности для алгособесов📈
Постараюсь ввести вас в курс дела как аналитиков, потому что любое Leetcode-собеседование (а их становится больше) подразумевает если не совсем оптимальное решение, то что кандидат хотя бы понимает, как это измеряется🤵
➡️ Что это вообще такое?
Big-O («О большое») — это асимптотическая* оценка того, c какой скоростью растут время и/или память алгоритма при увеличении размера входных данных, если отбросить константы
* для подробностей нужно определение предела, не сегодня
Время в данном случае — это количество простейших операций (что-нибудь сложить, умножить, присвоить), память — количество переменных, которое приходится хранить (например, во вспомогательных массивах), размер входа — сколько данных нам дано. Например, даётся один массив чисел — его длину мы обозначаем за
➡️ Основные правила оценки сложности вашего кода
Учим, как аксиомы:
⚪️ Любые фиксированные присвоения переменных (например, инициализация какой-нибудь суммы или указателей-индексов) — это константная сложность
⚪️ Линейный проход по всем элементам массива —
⚪️ Сортировка —
⚪️ Вложенные циклы: сложности перемножаются. Если у вас 2 вложенных
Если массива два, то будет
⚪️ У последовательных шагов сложности складываются, но более быстрорастущее слагаемое поглощает остальные. То есть, если у вас сначала один цикл обработки массива, а потом 2 вложенных, то в пределе не
Если циклы не вложенные по двум массивам, то мы оставляем
➡️ Быстрый порядок величин «от лучше к хуже»:
До последних двух мы стараемся не доходить в задачах на собесах, это нереально много операций. Например, задача рандомной перестановки элементов массива не подразумевает, что вы сгенерируете все
➡️ Библиотечные методы и структуры тоже учитываются
Они оптимизированы по мере возможности, но та же сортировка никогда не станет линейной😬 Продвинутый уровень — выучить, что оптимально для какой операции.
➡️ Пример фразы, которая растопит сердце интервьюера😎
Особенно, если вы реально понимаете, почему так работает))
Буду ждать фидбек, стало ли понятнее👍 И пересылайте друзьям, которые собираются на стажировки и другие собесы!
#хардов_пост #найм_и_собесы
@analytess👩
Постараюсь ввести вас в курс дела как аналитиков, потому что любое Leetcode-собеседование (а их становится больше) подразумевает если не совсем оптимальное решение, то что кандидат хотя бы понимает, как это измеряется
Big-O («О большое») — это асимптотическая* оценка того, c какой скоростью растут время и/или память алгоритма при увеличении размера входных данных, если отбросить константы
Время в данном случае — это количество простейших операций (что-нибудь сложить, умножить, присвоить), память — количество переменных, которое приходится хранить (например, во вспомогательных массивах), размер входа — сколько данных нам дано. Например, даётся один массив чисел — его длину мы обозначаем за
N. Может быть задача, где каждый элемент входного массива уже не просто число, а, например, строка длины не более M, и это тоже окажется важно...Учим, как аксиомы:
O(1)O(N)O(N log N), если встроенная и оптимальная, но иногда доходит до O(N^2) (это уже другая история)for i in arr, где arr — ваш входной массив длины N, то будет O(N^2), если 3 — то O(N^3), и так далее...Если массива два, то будет
O(N * M), пример:for i in range(len(arr_1)): # arr_1 - массив длины N
for j in range(len(arr_2)): # arr_2 - массив длины M
...
O(N^2) + O(N), а просто O(N^2).Если циклы не вложенные по двум массивам, то мы оставляем
O(N + M), потому что не можем сравнить N и M асимптотически.O(1) < O(log N) < O(N) < O(N log N) < O(N²) < O(2^N) < O(N!)До последних двух мы стараемся не доходить в задачах на собесах, это нереально много операций. Например, задача рандомной перестановки элементов массива не подразумевает, что вы сгенерируете все
N! штук, сохраните их и выберете.Они оптимизированы по мере возможности, но та же сортировка никогда не станет линейной
Тут получается сложность O(N) за счёт линейного поиска по массиву, инициализация переменных была за O(1). Могу написать бинпоиск, будет оптимальнее — за O(log N)...
Особенно, если вы реально понимаете, почему так работает))
Буду ждать фидбек, стало ли понятнее
#хардов_пост #найм_и_собесы
@analytess
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from АННА В ДАННЫХ
Как бесплатно прожарить свое резюме 🔥
Поделюсь действующим способом, которым пользуюсь сама
Да, я снова про нейронки. Но если раньше у вас могло не очень получаться пофиксить с ними резюме, то сегодня обязательно получится
Все дело в правильном промпте. Самая большая ошибка - это просить просто “красиво причесать резюме”. Нейронка причешет так, что вас будет не отличить от инфоцыгана🤓
Итак:
🐚 Открывайте Gemini (аналог ChatGPT от гугла, мне нравится больше)
🐚 Вставляйте промпт
🐚 И прикрепляйте файл со своим резюме
💫 Вуаля! 💫
Я обожаю этот промпт, он очень мощно прожаривает. Это помогает не только хорошо описать достижения на бумаге, но и подготовиться к рассказу о своем опыте на собеседовании (дополнительный топ-вопросов с собесов ищите в моем посте)
Да и с любым другим промптом важно использовать ИИ именно как генератор смыслов и не копировать результат 1 в 1, чтобы резюме “не воняло чатгпт”🤓 (извините, просто я насмотрелась)
Еще один хороший оставлю в комментах!
А как вы относитесь к написанию резюме с помощью нейронок? Если сами пользуетесь, поделитесь вашими любимыми промптами
#ИИ_анна_в_данных
#карьера_анна_в_данных
Поделюсь действующим способом, которым пользуюсь сама
Да, я снова про нейронки. Но если раньше у вас могло не очень получаться пофиксить с ними резюме, то сегодня обязательно получится
Все дело в правильном промпте. Самая большая ошибка - это просить просто “красиво причесать резюме”. Нейронка причешет так, что вас будет не отличить от инфоцыгана
Итак:
Представь, что ты скептичный CTO (технический директор) в крупной IT-компании. Вот мое резюме. Найди в нем все, что вызывает у тебя больше всего сомнений или выглядит как "вода". Задай мне уточняющие вопросы по каждому пункту, чтобы я могла добавить конкретные цифры и факты
Я обожаю этот промпт, он очень мощно прожаривает. Это помогает не только хорошо описать достижения на бумаге, но и подготовиться к рассказу о своем опыте на собеседовании (дополнительный топ-вопросов с собесов ищите в моем посте)
Да и с любым другим промптом важно использовать ИИ именно как генератор смыслов и не копировать результат 1 в 1, чтобы резюме “не воняло чатгпт”
Еще один хороший оставлю в комментах!
А как вы относитесь к написанию резюме с помощью нейронок? Если сами пользуетесь, поделитесь вашими любимыми промптами
#ИИ_анна_в_данных
#карьера_анна_в_данных
Please open Telegram to view this post
VIEW IN TELEGRAM