Forwarded from Quant Valerian
Люди не общаются
И это проблема, потому что сотрудники в таком сетапе являются группой исполнителей, но не командой. А значит, нет интерференции, нет шеринга знаний, увеличения бас фактора (и моего свободного времени вообще-то!). Нет и так нужного многим кандидатам командного духа, нет мотивации для некоторых типов сотрудников (по Герчикову). Я вообще такого раньше никогда не видел. Расселись по углам (мира), молчат, разговаривают формально и только по работе. Есть даже чат с мемами, но без мемов. Вообще почти мертвый.
Про дейлики я уже писал, что это не работает, а потому мы их отменили. Зато ввели неформальную, необязательную (важно!) встречу, типа тим кофе, просто пообщаться. Походили, пообсуждали погоду. Если я не прихожу, то встреча заканчивается за семь минут. Со временем некоторые люди перестали ходить, аргументируя тем, что там скучно.
И тут я превратился в тамаду. Теперь каждую неделю я выбираю что-нибудь не сильно кринжовое, но веселое и тимбилдящее с сайта www.funretrospectives.com, дарю. Это, кстати, работает. Во-первых, говорят, стало веселее, можно ходить. Во-вторых, люди что-то стали узнавать друг о друге, появились первые внутренние шутки.
Я пробовал устраивать ежедневные опросы "как настроение", "какой ты сегодня торт" и даже предлагал присылать кандидатов на мем дня — очень тухло.
Кроме тим кофе, мы сделали сессии "парного программирования" раз в неделю между разработчиками из одного конутра. На деле парного программирования там получается не много, зато люди общаются, вместе решают задачи, учатся друг у друга, шарят инструменты (например, я так нашел insomnia (аналог postman) с большим банков запросов к нашим сервисам и плагинами под нас; скрипты для монги на питоне, помогающие дебагать; группы закладок в браузере). Об этих сессиях тоже всегда положительные отзывы. Говорят, супер продуктивно и интересно.
И это проблема, потому что сотрудники в таком сетапе являются группой исполнителей, но не командой. А значит, нет интерференции, нет шеринга знаний, увеличения бас фактора (и моего свободного времени вообще-то!). Нет и так нужного многим кандидатам командного духа, нет мотивации для некоторых типов сотрудников (по Герчикову). Я вообще такого раньше никогда не видел. Расселись по углам (мира), молчат, разговаривают формально и только по работе. Есть даже чат с мемами, но без мемов. Вообще почти мертвый.
Про дейлики я уже писал, что это не работает, а потому мы их отменили. Зато ввели неформальную, необязательную (важно!) встречу, типа тим кофе, просто пообщаться. Походили, пообсуждали погоду. Если я не прихожу, то встреча заканчивается за семь минут. Со временем некоторые люди перестали ходить, аргументируя тем, что там скучно.
И тут я превратился в тамаду. Теперь каждую неделю я выбираю что-нибудь не сильно кринжовое, но веселое и тимбилдящее с сайта www.funretrospectives.com, дарю. Это, кстати, работает. Во-первых, говорят, стало веселее, можно ходить. Во-вторых, люди что-то стали узнавать друг о друге, появились первые внутренние шутки.
Я пробовал устраивать ежедневные опросы "как настроение", "какой ты сегодня торт" и даже предлагал присылать кандидатов на мем дня — очень тухло.
Кроме тим кофе, мы сделали сессии "парного программирования" раз в неделю между разработчиками из одного конутра. На деле парного программирования там получается не много, зато люди общаются, вместе решают задачи, учатся друг у друга, шарят инструменты (например, я так нашел insomnia (аналог postman) с большим банков запросов к нашим сервисам и плагинами под нас; скрипты для монги на питоне, помогающие дебагать; группы закладок в браузере). Об этих сессиях тоже всегда положительные отзывы. Говорят, супер продуктивно и интересно.
Forwarded from Reliable ML
АБ-тесты. Интеграция в процесс пилотирования
Полный цикл постов про процессы в АБ-тестировании
Друзья, цикл постов про процессы в АБ-тестировании можно торжественно объявить закрытым. Ура!🥇
Все посты цикла ниже:
Пост 1. АБ-тесты - это не только ценный мех… Но еще и процессы. Об инвестиционном цикле и месте АБ в нем.
Пост 2. Как выглядит типовой бизнес-процесс без АБ.
Пост 3. Риски типового бизнес-процесса без АБ.
Пост 4. Что делать. Взаимодействие АБ-команды, финансовой службы и бизнеса.
Пост 5. Что делать. База пилотов.
Пост 6. Что делать. Математическая методика дизайна и оценки результатов пилотов.
Пост 7. Что делать. Подборка материалов по АБ.
Пост 8. Что делать. Экстраполяция результатов пилота.
Пост 9. Что делать. Дополнительное об экстраполяции результатов пилота.
В планах - собрать это все добро в одну большую красивую статью на Хабр.
#tech #ab_testing
Полный цикл постов про процессы в АБ-тестировании
Друзья, цикл постов про процессы в АБ-тестировании можно торжественно объявить закрытым. Ура!
Все посты цикла ниже:
Пост 1. АБ-тесты - это не только ценный мех… Но еще и процессы. Об инвестиционном цикле и месте АБ в нем.
Пост 2. Как выглядит типовой бизнес-процесс без АБ.
Пост 3. Риски типового бизнес-процесса без АБ.
Пост 4. Что делать. Взаимодействие АБ-команды, финансовой службы и бизнеса.
Пост 5. Что делать. База пилотов.
Пост 6. Что делать. Математическая методика дизайна и оценки результатов пилотов.
Пост 7. Что делать. Подборка материалов по АБ.
Пост 8. Что делать. Экстраполяция результатов пилота.
Пост 9. Что делать. Дополнительное об экстраполяции результатов пилота.
В планах - собрать это все добро в одну большую красивую статью на Хабр.
#tech #ab_testing
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Варим МЛ
Telegraph
Интерпретируемость в медицине
Так совпало, что я недавно прочёл статью Transparency of deep neural networks for medical image analysis и пост от канала Reliable ML про интерпретируемость. Я работаю в сфере медицины уже почти пять лет, и всё это время постоянно где-то на орбите внимания…
Forwarded from Сиолошная
Вчера вышла интересная статья от ребят из Salesforce. Когда-то для меня было удивлением, что у них вообще есть отдел исследований искусственного интеллекта, ведь их основной бизнес - это SaaS CRM-система (по простому, система управления взаимоотношениями с клиентами по модели предоставления готового ПО). У них даже тикер на бирже CRM, хех 🤔
Так вот, они то и дело выпускают неплохие работы по Large Language Models и мультимодальным моделям, причём субъективно у меня складывается ощущение, что многое делается с задачей уменьшения требуемых ресурсов. То есть не полгода тренировать нейронку на кластере GPU, а нечто более приземленное.
Мультимодальные модели - это модели, работающие с несколькими типами данных, или модальностями. Картинки, текст, звук, видео - это разные модальности, и приемы-архитектуры нейронок должны быть адаптированы для них. Один из самых простых примеров мультимодальности - это ответ на вопрос по картинке: в каком городе находится достопримечательность (и картинка) ? что надето на человеке справа? И так далее.
Основная проблема в том, что нужно связывать два разных сигнала, от изображения и текста. Подходы давно существуют, работают неплохо, но зачастую требуют длительного обучения большиииииих моделек, чтобы "выровнять" их, или связать - то есть чтобы текстовая модель понимала сигнал от картиночной и наоборот.
Господа из Salesforce предложили переиспользовать существующие модели, замораживая их веса во время обучения (то есть не считая по ним градиенты и не изменяя), а между ними обучать маленькую сетку, которая формирует запросы (в прямом и переносном смысле) от одной модели к другой (на прикрепленном изображении это Q-former). Получается, что обучать нужно совсем мало - а метрики выходят лучше, чем у текущего State-of-the-Art подхода.
Подход просто гениален в своей простоте и изящности)
💨 Статья тут, веса и код здесь, коллаб имеется - можно зайти поиграться со своими картинками.
Так вот, они то и дело выпускают неплохие работы по Large Language Models и мультимодальным моделям, причём субъективно у меня складывается ощущение, что многое делается с задачей уменьшения требуемых ресурсов. То есть не полгода тренировать нейронку на кластере GPU, а нечто более приземленное.
Мультимодальные модели - это модели, работающие с несколькими типами данных, или модальностями. Картинки, текст, звук, видео - это разные модальности, и приемы-архитектуры нейронок должны быть адаптированы для них. Один из самых простых примеров мультимодальности - это ответ на вопрос по картинке: в каком городе находится достопримечательность (и картинка) ? что надето на человеке справа? И так далее.
Основная проблема в том, что нужно связывать два разных сигнала, от изображения и текста. Подходы давно существуют, работают неплохо, но зачастую требуют длительного обучения большиииииих моделек, чтобы "выровнять" их, или связать - то есть чтобы текстовая модель понимала сигнал от картиночной и наоборот.
Господа из Salesforce предложили переиспользовать существующие модели, замораживая их веса во время обучения (то есть не считая по ним градиенты и не изменяя), а между ними обучать маленькую сетку, которая формирует запросы (в прямом и переносном смысле) от одной модели к другой (на прикрепленном изображении это Q-former). Получается, что обучать нужно совсем мало - а метрики выходят лучше, чем у текущего State-of-the-Art подхода.
Подход просто гениален в своей простоте и изящности)
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Start Career in DS
🐍 Регулярные выражения в Python. Лучшая статья на русском!
Регулярные выражения супер-полезны, когда вам нужно перелопатить большой объём текстовых данных.
Например, вытащить из наименований товаров граммаж, достать города из адресов и т.д.
При этом на русском материалы по этой теме очень сложно найти.
Вот эта статья на хабре - лучшее что я видел 🙂
Регулярные выражения в Python от простого к сложному. Подробности, примеры, картинки, упражнения
Регулярные выражения супер-полезны, когда вам нужно перелопатить большой объём текстовых данных.
Например, вытащить из наименований товаров граммаж, достать города из адресов и т.д.
При этом на русском материалы по этой теме очень сложно найти.
Вот эта статья на хабре - лучшее что я видел 🙂
Регулярные выражения в Python от простого к сложному. Подробности, примеры, картинки, упражнения
#dl #cv #courses
Из ODS:
Есть отличный курс по CV с домашками и материалами EECS442, который ведет Дж. Джонсон (он же был ассистентом в Стэнфорде на cs231n и сейчас преподает его обновленную версию в Мичигане): https://web.eecs.umich.edu/~justincj/teaching/eecs442/WI2021/
Видео лекций есть у китайцев:
https://www.bilibili.com/video/BV1BV411n7Km/
Из ODS:
Есть отличный курс по CV с домашками и материалами EECS442, который ведет Дж. Джонсон (он же был ассистентом в Стэнфорде на cs231n и сейчас преподает его обновленную версию в Мичигане): https://web.eecs.umich.edu/~justincj/teaching/eecs442/WI2021/
Видео лекций есть у китайцев:
https://www.bilibili.com/video/BV1BV411n7Km/
EECS 442: Computer Vision
Website for UMich EECS 442 course
Forwarded from Igor Chebuniaev
Можно сделать следующие 5 курсов. Cначала вообще хорошо почитать Саттона и Барто:
https://web.stanford.edu/class/psych209/Readings/SuttonBartoIPRLBook2ndEd.pdf
Параллельно находить какие-то объяснительные сопроводительные материалы, которые помогают в этой книжке разобраться. Первые 4 курса как раз в этом помогают, они построено по главам книги, чтение там входит в домашку. Это специализация на курсере:
https://www.coursera.org/learn/fundamentals-of-reinforcement-learning/home/welcome
Паралелльно с этими 4-мя курсами настоятельно рекомендую смотреть лекции Сильвера. Они также хорошо привязываются к главам книжки. Очень он хорошо все по полочкам раскладывает.
https://www.youtube.com/watch?v=2pWv7GOvuf0&t=10s
Как альтернатива ему, чтобы проверять понимание, можно это:
https://www.youtube.com/playlist?list=PL-myaKI4DslUer7Pwkamk92F4PAFyBTPW
После этого нужен курс, который доводит базу, которую ты освоил до более современных (но уже не очень) методов.
Для этого можно посоветовать очень богатый курс от яндекса/вышки — Practical Reinforcement Learning. На курсере сейчас доступ к нему закрыли, но остались материалы на гитхабе:
https://github.com/yandexdataschool/Practical_RL
Тут как параллельные объясняловки хороши вот эти видео:
https://www.youtube.com/c/pieterabbeel
Запалировать и ознакомиться с использованием фреймворка stable baselines 3 можно как раз по курсу HF, рекомендованному выше.
Далее, как проверку усвоил ли ты материал, советую взять не совсем простую среду в gym-е и попробовать с нуля написать решение.
Такой средой может быть rocket-lander-v0.
https://web.stanford.edu/class/psych209/Readings/SuttonBartoIPRLBook2ndEd.pdf
Параллельно находить какие-то объяснительные сопроводительные материалы, которые помогают в этой книжке разобраться. Первые 4 курса как раз в этом помогают, они построено по главам книги, чтение там входит в домашку. Это специализация на курсере:
https://www.coursera.org/learn/fundamentals-of-reinforcement-learning/home/welcome
Паралелльно с этими 4-мя курсами настоятельно рекомендую смотреть лекции Сильвера. Они также хорошо привязываются к главам книжки. Очень он хорошо все по полочкам раскладывает.
https://www.youtube.com/watch?v=2pWv7GOvuf0&t=10s
Как альтернатива ему, чтобы проверять понимание, можно это:
https://www.youtube.com/playlist?list=PL-myaKI4DslUer7Pwkamk92F4PAFyBTPW
После этого нужен курс, который доводит базу, которую ты освоил до более современных (но уже не очень) методов.
Для этого можно посоветовать очень богатый курс от яндекса/вышки — Practical Reinforcement Learning. На курсере сейчас доступ к нему закрыли, но остались материалы на гитхабе:
https://github.com/yandexdataschool/Practical_RL
Тут как параллельные объясняловки хороши вот эти видео:
https://www.youtube.com/c/pieterabbeel
Запалировать и ознакомиться с использованием фреймворка stable baselines 3 можно как раз по курсу HF, рекомендованному выше.
Далее, как проверку усвоил ли ты материал, советую взять не совсем простую среду в gym-е и попробовать с нуля написать решение.
Такой средой может быть rocket-lander-v0.
Forwarded from Сиолошная
Если помните, есть такая компания Yahoo, которая поиск делала и делает. Они, конечно, тоже не хотят отставать от Google и Bing в гонке технологий, поэтому обращают внимание на Large Language Models (LLMs). У них ещё есть опенсорсная библиотека Vespa, в которой нет-нет да какие-то крутые фичи и добавляются.
Только что Jo Kristian Bergum, Distinguished Engineer (очень высокий грейд) в Yahoo, работающий над этой библиотекой, выпустил обзорный пост про использование LLM и генеративных моделей вообще для поиска. Вот ссылка - тык. Он - инженер в поиске с 20 годами стажа (!) - пишет, что "I've never been more excited". И это правда, потому что большие языковые модели помогут по-новому посмотреть на обучение приземленных маленьких-средних моделей, которые будут внедряться в прод.
У меня есть презентация и заготовленный доклад по теме обучения Retrieval-системы с использованием LLM, где сама модель осуществляет лишь всопомгательную функцию во время обучения, а для применения (инференса) не используется.
Ссылка на презентацию для самостоятельного разбора: тык (46 слайдов, ~1.5 часа на чтение)
Если под постом соберется 400 сердечек - сделаю видео-лекцию на YouTuve по этой прзентации, где детально расскажу, что, как и почему происходит в пайплайне. А пока - всем удачного изучения :)
Репосты приветствуются, чтобы получить 400 ❤️ как можно скорее😳
Только что Jo Kristian Bergum, Distinguished Engineer (очень высокий грейд) в Yahoo, работающий над этой библиотекой, выпустил обзорный пост про использование LLM и генеративных моделей вообще для поиска. Вот ссылка - тык. Он - инженер в поиске с 20 годами стажа (!) - пишет, что "I've never been more excited". И это правда, потому что большие языковые модели помогут по-новому посмотреть на обучение приземленных маленьких-средних моделей, которые будут внедряться в прод.
У меня есть презентация и заготовленный доклад по теме обучения Retrieval-системы с использованием LLM, где сама модель осуществляет лишь всопомгательную функцию во время обучения, а для применения (инференса) не используется.
Ссылка на презентацию для самостоятельного разбора: тык (46 слайдов, ~1.5 часа на чтение)
Если под постом соберется 400 сердечек - сделаю видео-лекцию на YouTuve по этой прзентации, где детально расскажу, что, как и почему происходит в пайплайне. А пока - всем удачного изучения :)
Репосты приветствуются, чтобы получить 400 ❤️ как можно скорее
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Pavel Volkovitskiy
возможно вот эта?
https://m.youtube.com/watch?v=qGKBvm4zm48
https://m.youtube.com/watch?v=qGKBvm4zm48
YouTube
Лена Кочева и Таня Дурова - Как эффективно подготовиться к собеседованию на английском
- Канал Лены Кочевой: https://t.iss.one/lingua_strategy
- Сайт: https://lingua-strategy.ru
- Youtube канал: https://www.youtube.com/channel/UCoASK-7wWAkvMCmRB72_Drg
Итак, вы начали искать работу. После АМА Дани и Тани (Тюнинг Linkedin и резюме: трудовая миграция…
- Сайт: https://lingua-strategy.ru
- Youtube канал: https://www.youtube.com/channel/UCoASK-7wWAkvMCmRB72_Drg
Итак, вы начали искать работу. После АМА Дани и Тани (Тюнинг Linkedin и резюме: трудовая миграция…
Forwarded from Нейронный Кот
Вау, streamlit от питонистов 🤩
Вышел новый фреймворк (в альфе сейчас) под названием Pynecone. Выглядит он как pytorch vs tensorflow и как FastAPI vs Flask, то есть очень удобный.
1) ООП (например, нужно наследоваться от
2) pydantic для валидации типов объектов
3) SQLAlchemy под капотом для баз данных!
4) Можно легко вставлять react компоненты
Есть галлерея с демками, го тестить
https://pynecone.io/docs/gallery
Вышел новый фреймворк (в альфе сейчас) под названием Pynecone. Выглядит он как pytorch vs tensorflow и как FastAPI vs Flask, то есть очень удобный.
1) ООП (например, нужно наследоваться от
pc.State, чтобы поддерживать стейт в приложении, а не st.session_state["my_key"] 🤮)2) pydantic для валидации типов объектов
3) SQLAlchemy под капотом для баз данных!
4) Можно легко вставлять react компоненты
Есть галлерея с демками, го тестить
https://pynecone.io/docs/gallery
Forwarded from Записки Ппилифа (Ppilif [GMT+1])
На что я смотрю во время собесов #собесы
Выше немного написал про то, как бы я готовился к собесу по алгоритмам. В этом посте хочу описать, на что я обычно смотрю, как собеседующий. Кажется, что к текущему моменту, в общей сложности, я провел около 50 собесов. Не так много, но и не так мало. В основном, это были собесы с джунами/мидлами по аналитике и ML. Иногда дополнением в рамках этих секций шёл код.
Все мои тейки применимы именно к обсуждению кейсов. Про задачи с кодом напишу отдельно.
1. Любая задача — это приглашение к разговору. Ценен сам разговор и ход мыслей, а не правильное решение задачи. Мы должны понять, как человек думает и как он будет проявлять себея в работе, а не сколько брейнтизеров он вызубрил.
Брейнтизеры — это плохое приглашение к разговору. Кандидат либо вызубрил брейнтизер либо нет. Никогда не спрашивайте брейнтизеры
Куда лучше вкинуть какой-то кейс. Это может быть игрушечный кейс вроде детсадовской аналитики:
Хороший кандидат моментально накидает проблем, а дальше из каждой из них можно будет уйти в технические детали, и поговорить, как правильно собирать выборки, как проверять гипотезы, как посчитать сколько наблюдений надо для АБ и так далее.
Это может быть какой-то реальный кейс про то, что вы делаете с коллегами на работе, но очень поверхностный:
Ну а дальше начинается разговор про регулярки, сбор выборок, разметки, обучение модели, подбор порогов для ручной модерации. С каждой точки можно свернуть в технические детали, а можно по-быстрому её проскочить, если кандидат говорит уверенно, либо наоборот лажает я на какой-то части. Все детали уточняются в разговоре.
Если важно не решение задачи, то что важно? Важно то, как чувак будет впоследствии работать. По собесу ты должен это понять.
Поэтому первым делом мы должны прикинуть, что чувак будет делать в команде. Он будет анализорвать АБ? Он будет обучать модели в рамках уже существующих ML-ных библиотек? Он будет писать трансформеры в торче?
От ответа на этот вопрос зависит то, насколько глубоко и в какую сторону надо закапываться в технические детали.
2. Технические детали.
Чувак будет заниматься АБ? Окей, говорим про АБ, но не упарываемся. Плевать как выглядят конкретные формулы, не надо заставлять кандидата их выводить. Надо выяснить, понимает ли он смысл, лежащий за АБ и сможет ли применить формулу с википедии.
Например, если ты спросил у кандидата, как найти число наблюдений для проведения АБ для долей, а он с ходу сказал число наблюдений зависит от ошибки первого рода, второго рода и MDE, на этом можно остановиться. Можно спросить, где зависмость прямая, а где обратная либо уйти в смысл ошибок и откуда брать MDE. Заставлять выводить формулу абсолютно бессмысленно.
По аналогии, с ML. Если вы работаете с готовыми библиотеками, не надо в подробностях спрашивать как устроен бустинг, просить выписывать формулы и выводить на доске для нейронок производные для бэкпропа. Это кринж уровня брейнтизеров.
Лучше попросите кандидата подобрать пороги для классификатора так, чтобы модераторов не завалило потоком фолсов. Либо поговорите про то, как будете собирать пул для обучения модели и оценивать её качество, надо ли тест по таймстемпу отделять, на каких фичах учиться, где в пайплайне обучения могут быть лики, что делать если эвристики работают нормально, а модель не хочет учиться от слова совсем. Где искать проблемы? Как дебажить, при условии что с кишками библиотеки для обучения всё впорядке и тп.
Выше немного написал про то, как бы я готовился к собесу по алгоритмам. В этом посте хочу описать, на что я обычно смотрю, как собеседующий. Кажется, что к текущему моменту, в общей сложности, я провел около 50 собесов. Не так много, но и не так мало. В основном, это были собесы с джунами/мидлами по аналитике и ML. Иногда дополнением в рамках этих секций шёл код.
Все мои тейки применимы именно к обсуждению кейсов. Про задачи с кодом напишу отдельно.
1. Любая задача — это приглашение к разговору. Ценен сам разговор и ход мыслей, а не правильное решение задачи. Мы должны понять, как человек думает и как он будет проявлять себея в работе, а не сколько брейнтизеров он вызубрил.
Брейнтизеры — это плохое приглашение к разговору. Кандидат либо вызубрил брейнтизер либо нет. Никогда не спрашивайте брейнтизеры
Куда лучше вкинуть какой-то кейс. Это может быть игрушечный кейс вроде детсадовской аналитики:
Двадцати детям в детском садике задали вопрос: живут ли их родители вместе? Два ребёнка ответили, что не живут. На следующий день в местной газете выходит статья с заголовком: "10% семей в нашем городе в разводе". Почему данное утверждение неверно?
Хороший кандидат моментально накидает проблем, а дальше из каждой из них можно будет уйти в технические детали, и поговорить, как правильно собирать выборки, как проверять гипотезы, как посчитать сколько наблюдений надо для АБ и так далее.
Это может быть какой-то реальный кейс про то, что вы делаете с коллегами на работе, но очень поверхностный:
У нас есть комментарии. Мы хотим очистить их от спама. Хотим использовать ML и модераторов. Выборок пока что нет. Как бы ты это делал?
Ну а дальше начинается разговор про регулярки, сбор выборок, разметки, обучение модели, подбор порогов для ручной модерации. С каждой точки можно свернуть в технические детали, а можно по-быстрому её проскочить, если кандидат говорит уверенно, либо наоборот лажает я на какой-то части. Все детали уточняются в разговоре.
Если важно не решение задачи, то что важно? Важно то, как чувак будет впоследствии работать. По собесу ты должен это понять.
Поэтому первым делом мы должны прикинуть, что чувак будет делать в команде. Он будет анализорвать АБ? Он будет обучать модели в рамках уже существующих ML-ных библиотек? Он будет писать трансформеры в торче?
От ответа на этот вопрос зависит то, насколько глубоко и в какую сторону надо закапываться в технические детали.
2. Технические детали.
Чувак будет заниматься АБ? Окей, говорим про АБ, но не упарываемся. Плевать как выглядят конкретные формулы, не надо заставлять кандидата их выводить. Надо выяснить, понимает ли он смысл, лежащий за АБ и сможет ли применить формулу с википедии.
Например, если ты спросил у кандидата, как найти число наблюдений для проведения АБ для долей, а он с ходу сказал число наблюдений зависит от ошибки первого рода, второго рода и MDE, на этом можно остановиться. Можно спросить, где зависмость прямая, а где обратная либо уйти в смысл ошибок и откуда брать MDE. Заставлять выводить формулу абсолютно бессмысленно.
По аналогии, с ML. Если вы работаете с готовыми библиотеками, не надо в подробностях спрашивать как устроен бустинг, просить выписывать формулы и выводить на доске для нейронок производные для бэкпропа. Это кринж уровня брейнтизеров.
Лучше попросите кандидата подобрать пороги для классификатора так, чтобы модераторов не завалило потоком фолсов. Либо поговорите про то, как будете собирать пул для обучения модели и оценивать её качество, надо ли тест по таймстемпу отделять, на каких фичах учиться, где в пайплайне обучения могут быть лики, что делать если эвристики работают нормально, а модель не хочет учиться от слова совсем. Где искать проблемы? Как дебажить, при условии что с кишками библиотеки для обучения всё впорядке и тп.