Forwarded from Quant Valerian
Люди не общаются
И это проблема, потому что сотрудники в таком сетапе являются группой исполнителей, но не командой. А значит, нет интерференции, нет шеринга знаний, увеличения бас фактора (и моего свободного времени вообще-то!). Нет и так нужного многим кандидатам командного духа, нет мотивации для некоторых типов сотрудников (по Герчикову). Я вообще такого раньше никогда не видел. Расселись по углам (мира), молчат, разговаривают формально и только по работе. Есть даже чат с мемами, но без мемов. Вообще почти мертвый.
Про дейлики я уже писал, что это не работает, а потому мы их отменили. Зато ввели неформальную, необязательную (важно!) встречу, типа тим кофе, просто пообщаться. Походили, пообсуждали погоду. Если я не прихожу, то встреча заканчивается за семь минут. Со временем некоторые люди перестали ходить, аргументируя тем, что там скучно.
И тут я превратился в тамаду. Теперь каждую неделю я выбираю что-нибудь не сильно кринжовое, но веселое и тимбилдящее с сайта www.funretrospectives.com, дарю. Это, кстати, работает. Во-первых, говорят, стало веселее, можно ходить. Во-вторых, люди что-то стали узнавать друг о друге, появились первые внутренние шутки.
Я пробовал устраивать ежедневные опросы "как настроение", "какой ты сегодня торт" и даже предлагал присылать кандидатов на мем дня — очень тухло.
Кроме тим кофе, мы сделали сессии "парного программирования" раз в неделю между разработчиками из одного конутра. На деле парного программирования там получается не много, зато люди общаются, вместе решают задачи, учатся друг у друга, шарят инструменты (например, я так нашел insomnia (аналог postman) с большим банков запросов к нашим сервисам и плагинами под нас; скрипты для монги на питоне, помогающие дебагать; группы закладок в браузере). Об этих сессиях тоже всегда положительные отзывы. Говорят, супер продуктивно и интересно.
И это проблема, потому что сотрудники в таком сетапе являются группой исполнителей, но не командой. А значит, нет интерференции, нет шеринга знаний, увеличения бас фактора (и моего свободного времени вообще-то!). Нет и так нужного многим кандидатам командного духа, нет мотивации для некоторых типов сотрудников (по Герчикову). Я вообще такого раньше никогда не видел. Расселись по углам (мира), молчат, разговаривают формально и только по работе. Есть даже чат с мемами, но без мемов. Вообще почти мертвый.
Про дейлики я уже писал, что это не работает, а потому мы их отменили. Зато ввели неформальную, необязательную (важно!) встречу, типа тим кофе, просто пообщаться. Походили, пообсуждали погоду. Если я не прихожу, то встреча заканчивается за семь минут. Со временем некоторые люди перестали ходить, аргументируя тем, что там скучно.
И тут я превратился в тамаду. Теперь каждую неделю я выбираю что-нибудь не сильно кринжовое, но веселое и тимбилдящее с сайта www.funretrospectives.com, дарю. Это, кстати, работает. Во-первых, говорят, стало веселее, можно ходить. Во-вторых, люди что-то стали узнавать друг о друге, появились первые внутренние шутки.
Я пробовал устраивать ежедневные опросы "как настроение", "какой ты сегодня торт" и даже предлагал присылать кандидатов на мем дня — очень тухло.
Кроме тим кофе, мы сделали сессии "парного программирования" раз в неделю между разработчиками из одного конутра. На деле парного программирования там получается не много, зато люди общаются, вместе решают задачи, учатся друг у друга, шарят инструменты (например, я так нашел insomnia (аналог postman) с большим банков запросов к нашим сервисам и плагинами под нас; скрипты для монги на питоне, помогающие дебагать; группы закладок в браузере). Об этих сессиях тоже всегда положительные отзывы. Говорят, супер продуктивно и интересно.
Forwarded from Reliable ML
АБ-тесты. Интеграция в процесс пилотирования
Полный цикл постов про процессы в АБ-тестировании
Друзья, цикл постов про процессы в АБ-тестировании можно торжественно объявить закрытым. Ура!🥇
Все посты цикла ниже:
Пост 1. АБ-тесты - это не только ценный мех… Но еще и процессы. Об инвестиционном цикле и месте АБ в нем.
Пост 2. Как выглядит типовой бизнес-процесс без АБ.
Пост 3. Риски типового бизнес-процесса без АБ.
Пост 4. Что делать. Взаимодействие АБ-команды, финансовой службы и бизнеса.
Пост 5. Что делать. База пилотов.
Пост 6. Что делать. Математическая методика дизайна и оценки результатов пилотов.
Пост 7. Что делать. Подборка материалов по АБ.
Пост 8. Что делать. Экстраполяция результатов пилота.
Пост 9. Что делать. Дополнительное об экстраполяции результатов пилота.
В планах - собрать это все добро в одну большую красивую статью на Хабр.
#tech #ab_testing
Полный цикл постов про процессы в АБ-тестировании
Друзья, цикл постов про процессы в АБ-тестировании можно торжественно объявить закрытым. Ура!
Все посты цикла ниже:
Пост 1. АБ-тесты - это не только ценный мех… Но еще и процессы. Об инвестиционном цикле и месте АБ в нем.
Пост 2. Как выглядит типовой бизнес-процесс без АБ.
Пост 3. Риски типового бизнес-процесса без АБ.
Пост 4. Что делать. Взаимодействие АБ-команды, финансовой службы и бизнеса.
Пост 5. Что делать. База пилотов.
Пост 6. Что делать. Математическая методика дизайна и оценки результатов пилотов.
Пост 7. Что делать. Подборка материалов по АБ.
Пост 8. Что делать. Экстраполяция результатов пилота.
Пост 9. Что делать. Дополнительное об экстраполяции результатов пилота.
В планах - собрать это все добро в одну большую красивую статью на Хабр.
#tech #ab_testing
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Варим МЛ
Telegraph
Интерпретируемость в медицине
Так совпало, что я недавно прочёл статью Transparency of deep neural networks for medical image analysis и пост от канала Reliable ML про интерпретируемость. Я работаю в сфере медицины уже почти пять лет, и всё это время постоянно где-то на орбите внимания…
Forwarded from Сиолошная
Вчера вышла интересная статья от ребят из Salesforce. Когда-то для меня было удивлением, что у них вообще есть отдел исследований искусственного интеллекта, ведь их основной бизнес - это SaaS CRM-система (по простому, система управления взаимоотношениями с клиентами по модели предоставления готового ПО). У них даже тикер на бирже CRM, хех 🤔
Так вот, они то и дело выпускают неплохие работы по Large Language Models и мультимодальным моделям, причём субъективно у меня складывается ощущение, что многое делается с задачей уменьшения требуемых ресурсов. То есть не полгода тренировать нейронку на кластере GPU, а нечто более приземленное.
Мультимодальные модели - это модели, работающие с несколькими типами данных, или модальностями. Картинки, текст, звук, видео - это разные модальности, и приемы-архитектуры нейронок должны быть адаптированы для них. Один из самых простых примеров мультимодальности - это ответ на вопрос по картинке: в каком городе находится достопримечательность (и картинка) ? что надето на человеке справа? И так далее.
Основная проблема в том, что нужно связывать два разных сигнала, от изображения и текста. Подходы давно существуют, работают неплохо, но зачастую требуют длительного обучения большиииииих моделек, чтобы "выровнять" их, или связать - то есть чтобы текстовая модель понимала сигнал от картиночной и наоборот.
Господа из Salesforce предложили переиспользовать существующие модели, замораживая их веса во время обучения (то есть не считая по ним градиенты и не изменяя), а между ними обучать маленькую сетку, которая формирует запросы (в прямом и переносном смысле) от одной модели к другой (на прикрепленном изображении это Q-former). Получается, что обучать нужно совсем мало - а метрики выходят лучше, чем у текущего State-of-the-Art подхода.
Подход просто гениален в своей простоте и изящности)
💨 Статья тут, веса и код здесь, коллаб имеется - можно зайти поиграться со своими картинками.
Так вот, они то и дело выпускают неплохие работы по Large Language Models и мультимодальным моделям, причём субъективно у меня складывается ощущение, что многое делается с задачей уменьшения требуемых ресурсов. То есть не полгода тренировать нейронку на кластере GPU, а нечто более приземленное.
Мультимодальные модели - это модели, работающие с несколькими типами данных, или модальностями. Картинки, текст, звук, видео - это разные модальности, и приемы-архитектуры нейронок должны быть адаптированы для них. Один из самых простых примеров мультимодальности - это ответ на вопрос по картинке: в каком городе находится достопримечательность (и картинка) ? что надето на человеке справа? И так далее.
Основная проблема в том, что нужно связывать два разных сигнала, от изображения и текста. Подходы давно существуют, работают неплохо, но зачастую требуют длительного обучения большиииииих моделек, чтобы "выровнять" их, или связать - то есть чтобы текстовая модель понимала сигнал от картиночной и наоборот.
Господа из Salesforce предложили переиспользовать существующие модели, замораживая их веса во время обучения (то есть не считая по ним градиенты и не изменяя), а между ними обучать маленькую сетку, которая формирует запросы (в прямом и переносном смысле) от одной модели к другой (на прикрепленном изображении это Q-former). Получается, что обучать нужно совсем мало - а метрики выходят лучше, чем у текущего State-of-the-Art подхода.
Подход просто гениален в своей простоте и изящности)
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Start Career in DS
🐍 Регулярные выражения в Python. Лучшая статья на русском!
Регулярные выражения супер-полезны, когда вам нужно перелопатить большой объём текстовых данных.
Например, вытащить из наименований товаров граммаж, достать города из адресов и т.д.
При этом на русском материалы по этой теме очень сложно найти.
Вот эта статья на хабре - лучшее что я видел 🙂
Регулярные выражения в Python от простого к сложному. Подробности, примеры, картинки, упражнения
Регулярные выражения супер-полезны, когда вам нужно перелопатить большой объём текстовых данных.
Например, вытащить из наименований товаров граммаж, достать города из адресов и т.д.
При этом на русском материалы по этой теме очень сложно найти.
Вот эта статья на хабре - лучшее что я видел 🙂
Регулярные выражения в Python от простого к сложному. Подробности, примеры, картинки, упражнения
#dl #cv #courses
Из ODS:
Есть отличный курс по CV с домашками и материалами EECS442, который ведет Дж. Джонсон (он же был ассистентом в Стэнфорде на cs231n и сейчас преподает его обновленную версию в Мичигане): https://web.eecs.umich.edu/~justincj/teaching/eecs442/WI2021/
Видео лекций есть у китайцев:
https://www.bilibili.com/video/BV1BV411n7Km/
Из ODS:
Есть отличный курс по CV с домашками и материалами EECS442, который ведет Дж. Джонсон (он же был ассистентом в Стэнфорде на cs231n и сейчас преподает его обновленную версию в Мичигане): https://web.eecs.umich.edu/~justincj/teaching/eecs442/WI2021/
Видео лекций есть у китайцев:
https://www.bilibili.com/video/BV1BV411n7Km/
EECS 442: Computer Vision
Website for UMich EECS 442 course
Forwarded from Igor Chebuniaev
Можно сделать следующие 5 курсов. Cначала вообще хорошо почитать Саттона и Барто:
https://web.stanford.edu/class/psych209/Readings/SuttonBartoIPRLBook2ndEd.pdf
Параллельно находить какие-то объяснительные сопроводительные материалы, которые помогают в этой книжке разобраться. Первые 4 курса как раз в этом помогают, они построено по главам книги, чтение там входит в домашку. Это специализация на курсере:
https://www.coursera.org/learn/fundamentals-of-reinforcement-learning/home/welcome
Паралелльно с этими 4-мя курсами настоятельно рекомендую смотреть лекции Сильвера. Они также хорошо привязываются к главам книжки. Очень он хорошо все по полочкам раскладывает.
https://www.youtube.com/watch?v=2pWv7GOvuf0&t=10s
Как альтернатива ему, чтобы проверять понимание, можно это:
https://www.youtube.com/playlist?list=PL-myaKI4DslUer7Pwkamk92F4PAFyBTPW
После этого нужен курс, который доводит базу, которую ты освоил до более современных (но уже не очень) методов.
Для этого можно посоветовать очень богатый курс от яндекса/вышки — Practical Reinforcement Learning. На курсере сейчас доступ к нему закрыли, но остались материалы на гитхабе:
https://github.com/yandexdataschool/Practical_RL
Тут как параллельные объясняловки хороши вот эти видео:
https://www.youtube.com/c/pieterabbeel
Запалировать и ознакомиться с использованием фреймворка stable baselines 3 можно как раз по курсу HF, рекомендованному выше.
Далее, как проверку усвоил ли ты материал, советую взять не совсем простую среду в gym-е и попробовать с нуля написать решение.
Такой средой может быть rocket-lander-v0.
https://web.stanford.edu/class/psych209/Readings/SuttonBartoIPRLBook2ndEd.pdf
Параллельно находить какие-то объяснительные сопроводительные материалы, которые помогают в этой книжке разобраться. Первые 4 курса как раз в этом помогают, они построено по главам книги, чтение там входит в домашку. Это специализация на курсере:
https://www.coursera.org/learn/fundamentals-of-reinforcement-learning/home/welcome
Паралелльно с этими 4-мя курсами настоятельно рекомендую смотреть лекции Сильвера. Они также хорошо привязываются к главам книжки. Очень он хорошо все по полочкам раскладывает.
https://www.youtube.com/watch?v=2pWv7GOvuf0&t=10s
Как альтернатива ему, чтобы проверять понимание, можно это:
https://www.youtube.com/playlist?list=PL-myaKI4DslUer7Pwkamk92F4PAFyBTPW
После этого нужен курс, который доводит базу, которую ты освоил до более современных (но уже не очень) методов.
Для этого можно посоветовать очень богатый курс от яндекса/вышки — Practical Reinforcement Learning. На курсере сейчас доступ к нему закрыли, но остались материалы на гитхабе:
https://github.com/yandexdataschool/Practical_RL
Тут как параллельные объясняловки хороши вот эти видео:
https://www.youtube.com/c/pieterabbeel
Запалировать и ознакомиться с использованием фреймворка stable baselines 3 можно как раз по курсу HF, рекомендованному выше.
Далее, как проверку усвоил ли ты материал, советую взять не совсем простую среду в gym-е и попробовать с нуля написать решение.
Такой средой может быть rocket-lander-v0.
Forwarded from Сиолошная
Если помните, есть такая компания Yahoo, которая поиск делала и делает. Они, конечно, тоже не хотят отставать от Google и Bing в гонке технологий, поэтому обращают внимание на Large Language Models (LLMs). У них ещё есть опенсорсная библиотека Vespa, в которой нет-нет да какие-то крутые фичи и добавляются.
Только что Jo Kristian Bergum, Distinguished Engineer (очень высокий грейд) в Yahoo, работающий над этой библиотекой, выпустил обзорный пост про использование LLM и генеративных моделей вообще для поиска. Вот ссылка - тык. Он - инженер в поиске с 20 годами стажа (!) - пишет, что "I've never been more excited". И это правда, потому что большие языковые модели помогут по-новому посмотреть на обучение приземленных маленьких-средних моделей, которые будут внедряться в прод.
У меня есть презентация и заготовленный доклад по теме обучения Retrieval-системы с использованием LLM, где сама модель осуществляет лишь всопомгательную функцию во время обучения, а для применения (инференса) не используется.
Ссылка на презентацию для самостоятельного разбора: тык (46 слайдов, ~1.5 часа на чтение)
Если под постом соберется 400 сердечек - сделаю видео-лекцию на YouTuve по этой прзентации, где детально расскажу, что, как и почему происходит в пайплайне. А пока - всем удачного изучения :)
Репосты приветствуются, чтобы получить 400 ❤️ как можно скорее😳
Только что Jo Kristian Bergum, Distinguished Engineer (очень высокий грейд) в Yahoo, работающий над этой библиотекой, выпустил обзорный пост про использование LLM и генеративных моделей вообще для поиска. Вот ссылка - тык. Он - инженер в поиске с 20 годами стажа (!) - пишет, что "I've never been more excited". И это правда, потому что большие языковые модели помогут по-новому посмотреть на обучение приземленных маленьких-средних моделей, которые будут внедряться в прод.
У меня есть презентация и заготовленный доклад по теме обучения Retrieval-системы с использованием LLM, где сама модель осуществляет лишь всопомгательную функцию во время обучения, а для применения (инференса) не используется.
Ссылка на презентацию для самостоятельного разбора: тык (46 слайдов, ~1.5 часа на чтение)
Если под постом соберется 400 сердечек - сделаю видео-лекцию на YouTuve по этой прзентации, где детально расскажу, что, как и почему происходит в пайплайне. А пока - всем удачного изучения :)
Репосты приветствуются, чтобы получить 400 ❤️ как можно скорее
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Pavel Volkovitskiy
возможно вот эта?
https://m.youtube.com/watch?v=qGKBvm4zm48
https://m.youtube.com/watch?v=qGKBvm4zm48
YouTube
Лена Кочева и Таня Дурова - Как эффективно подготовиться к собеседованию на английском
- Канал Лены Кочевой: https://t.iss.one/lingua_strategy
- Сайт: https://lingua-strategy.ru
- Youtube канал: https://www.youtube.com/channel/UCoASK-7wWAkvMCmRB72_Drg
Итак, вы начали искать работу. После АМА Дани и Тани (Тюнинг Linkedin и резюме: трудовая миграция…
- Сайт: https://lingua-strategy.ru
- Youtube канал: https://www.youtube.com/channel/UCoASK-7wWAkvMCmRB72_Drg
Итак, вы начали искать работу. После АМА Дани и Тани (Тюнинг Linkedin и резюме: трудовая миграция…
Forwarded from Нейронный Кот
Вау, streamlit от питонистов 🤩
Вышел новый фреймворк (в альфе сейчас) под названием Pynecone. Выглядит он как pytorch vs tensorflow и как FastAPI vs Flask, то есть очень удобный.
1) ООП (например, нужно наследоваться от
2) pydantic для валидации типов объектов
3) SQLAlchemy под капотом для баз данных!
4) Можно легко вставлять react компоненты
Есть галлерея с демками, го тестить
https://pynecone.io/docs/gallery
Вышел новый фреймворк (в альфе сейчас) под названием Pynecone. Выглядит он как pytorch vs tensorflow и как FastAPI vs Flask, то есть очень удобный.
1) ООП (например, нужно наследоваться от
pc.State, чтобы поддерживать стейт в приложении, а не st.session_state["my_key"] 🤮)2) pydantic для валидации типов объектов
3) SQLAlchemy под капотом для баз данных!
4) Можно легко вставлять react компоненты
Есть галлерея с демками, го тестить
https://pynecone.io/docs/gallery