Интересное что-то
557 subscribers
2.79K photos
253 videos
140 files
4.59K links
Материалы и мысли, понадерганные отовсюду
Блог: https://t.iss.one/asisakov_channel
Чат: https://t.iss.one/youknowds_chat
Download Telegram
Forwarded from Quant Valerian
Люди не общаются

И это проблема, потому что сотрудники в таком сетапе являются группой исполнителей, но не командой. А значит, нет интерференции, нет шеринга знаний, увеличения бас фактора (и моего свободного времени вообще-то!). Нет и так нужного многим кандидатам командного духа, нет мотивации для некоторых типов сотрудников (по Герчикову). Я вообще такого раньше никогда не видел. Расселись по углам (мира), молчат, разговаривают формально и только по работе. Есть даже чат с мемами, но без мемов. Вообще почти мертвый.
Про дейлики я уже писал, что это не работает, а потому мы их отменили. Зато ввели неформальную, необязательную (важно!) встречу, типа тим кофе, просто пообщаться. Походили, пообсуждали погоду. Если я не прихожу, то встреча заканчивается за семь минут. Со временем некоторые люди перестали ходить, аргументируя тем, что там скучно.
И тут я превратился в тамаду. Теперь каждую неделю я выбираю что-нибудь не сильно кринжовое, но веселое и тимбилдящее с сайта www.funretrospectives.com, дарю. Это, кстати, работает. Во-первых, говорят, стало веселее, можно ходить. Во-вторых, люди что-то стали узнавать друг о друге, появились первые внутренние шутки.
Я пробовал устраивать ежедневные опросы "как настроение", "какой ты сегодня торт" и даже предлагал присылать кандидатов на мем дня — очень тухло.

Кроме тим кофе, мы сделали сессии "парного программирования" раз в неделю между разработчиками из одного конутра. На деле парного программирования там получается не много, зато люди общаются, вместе решают задачи, учатся друг у друга, шарят инструменты (например, я так нашел insomnia (аналог postman) с большим банков запросов к нашим сервисам и плагинами под нас; скрипты для монги на питоне, помогающие дебагать; группы закладок в браузере). Об этих сессиях тоже всегда положительные отзывы. Говорят, супер продуктивно и интересно.
Forwarded from Reliable ML
АБ-тесты. Интеграция в процесс пилотирования
Полный цикл постов про процессы в АБ-тестировании

Друзья, цикл постов про процессы в АБ-тестировании можно торжественно объявить закрытым. Ура! 🥇

Все посты цикла ниже:

Пост 1. АБ-тесты - это не только ценный мех… Но еще и процессы. Об инвестиционном цикле и месте АБ в нем.
Пост 2. Как выглядит типовой бизнес-процесс без АБ.
Пост 3. Риски типового бизнес-процесса без АБ.
Пост 4. Что делать. Взаимодействие АБ-команды, финансовой службы и бизнеса.
Пост 5. Что делать. База пилотов.
Пост 6. Что делать. Математическая методика дизайна и оценки результатов пилотов.
Пост 7. Что делать. Подборка материалов по АБ.
Пост 8. Что делать. Экстраполяция результатов пилота.
Пост 9. Что делать. Дополнительное об экстраполяции результатов пилота.

В планах - собрать это все добро в одну большую красивую статью на Хабр.

#tech #ab_testing
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Сиолошная
Вчера вышла интересная статья от ребят из Salesforce. Когда-то для меня было удивлением, что у них вообще есть отдел исследований искусственного интеллекта, ведь их основной бизнес - это SaaS CRM-система (по простому, система управления взаимоотношениями с клиентами по модели предоставления готового ПО). У них даже тикер на бирже CRM, хех 🤔

Так вот, они то и дело выпускают неплохие работы по Large Language Models и мультимодальным моделям, причём субъективно у меня складывается ощущение, что многое делается с задачей уменьшения требуемых ресурсов. То есть не полгода тренировать нейронку на кластере GPU, а нечто более приземленное.

Мультимодальные модели - это модели, работающие с несколькими типами данных, или модальностями. Картинки, текст, звук, видео - это разные модальности, и приемы-архитектуры нейронок должны быть адаптированы для них. Один из самых простых примеров мультимодальности - это ответ на вопрос по картинке: в каком городе находится достопримечательность (и картинка) ? что надето на человеке справа? И так далее.

Основная проблема в том, что нужно связывать два разных сигнала, от изображения и текста. Подходы давно существуют, работают неплохо, но зачастую требуют длительного обучения большиииииих моделек, чтобы "выровнять" их, или связать - то есть чтобы текстовая модель понимала сигнал от картиночной и наоборот.

Господа из Salesforce предложили переиспользовать существующие модели, замораживая их веса во время обучения (то есть не считая по ним градиенты и не изменяя), а между ними обучать маленькую сетку, которая формирует запросы (в прямом и переносном смысле) от одной модели к другой (на прикрепленном изображении это Q-former). Получается, что обучать нужно совсем мало - а метрики выходят лучше, чем у текущего State-of-the-Art подхода.
Подход просто гениален в своей простоте и изящности)

💨 Статья тут, веса и код здесь, коллаб имеется - можно зайти поиграться со своими картинками.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Start Career in DS
🐍 Регулярные выражения в Python. Лучшая статья на русском!

Регулярные выражения супер-полезны, когда вам нужно перелопатить большой объём текстовых данных.
Например, вытащить из наименований товаров граммаж, достать города из адресов и т.д.
При этом на русском материалы по этой теме очень сложно найти.

Вот эта статья на хабре - лучшее что я видел 🙂
Регулярные выражения в Python от простого к сложному. Подробности, примеры, картинки, упражнения
#dl #cv #courses
Из ODS:

Есть отличный курс по CV с домашками и материалами EECS442, который ведет Дж. Джонсон (он же был ассистентом в Стэнфорде на cs231n и сейчас преподает его обновленную версию в Мичигане): https://web.eecs.umich.edu/~justincj/teaching/eecs442/WI2021/
Видео лекций есть у китайцев:
https://www.bilibili.com/video/BV1BV411n7Km/
#rl #courses
С чего начать изучение RL
Forwarded from Igor Chebuniaev
Можно сделать следующие 5 курсов. Cначала вообще хорошо почитать Саттона и Барто:
https://web.stanford.edu/class/psych209/Readings/SuttonBartoIPRLBook2ndEd.pdf

Параллельно находить какие-то объяснительные сопроводительные материалы, которые помогают в этой книжке разобраться. Первые 4 курса как раз в этом помогают, они построено по главам книги, чтение там входит в домашку. Это специализация на курсере:
https://www.coursera.org/learn/fundamentals-of-reinforcement-learning/home/welcome

Паралелльно с этими 4-мя курсами настоятельно рекомендую смотреть лекции Сильвера. Они также хорошо привязываются к главам книжки. Очень он хорошо все по полочкам раскладывает.
https://www.youtube.com/watch?v=2pWv7GOvuf0&t=10s

Как альтернатива ему, чтобы проверять понимание, можно это:
https://www.youtube.com/playlist?list=PL-myaKI4DslUer7Pwkamk92F4PAFyBTPW

После этого нужен курс, который доводит базу, которую ты освоил до более современных (но уже не очень) методов.
Для этого можно посоветовать очень богатый курс от яндекса/вышки — Practical Reinforcement Learning. На курсере сейчас доступ к нему закрыли, но остались материалы на гитхабе:
https://github.com/yandexdataschool/Practical_RL

Тут как параллельные объясняловки хороши вот эти видео:
https://www.youtube.com/c/pieterabbeel

Запалировать и ознакомиться с использованием фреймворка stable baselines 3 можно как раз по курсу HF, рекомендованному выше.

Далее, как проверку усвоил ли ты материал, советую взять не совсем простую среду в gym-е и попробовать с нуля написать решение.
Такой средой может быть rocket-lander-v0.
Forwarded from Сиолошная
Если помните, есть такая компания Yahoo, которая поиск делала и делает. Они, конечно, тоже не хотят отставать от Google и Bing в гонке технологий, поэтому обращают внимание на Large Language Models (LLMs). У них ещё есть опенсорсная библиотека Vespa, в которой нет-нет да какие-то крутые фичи и добавляются.

Только что Jo Kristian Bergum, Distinguished Engineer (очень высокий грейд) в Yahoo, работающий над этой библиотекой, выпустил обзорный пост про использование LLM и генеративных моделей вообще для поиска. Вот ссылка - тык. Он - инженер в поиске с 20 годами стажа (!) - пишет, что "I've never been more excited". И это правда, потому что большие языковые модели помогут по-новому посмотреть на обучение приземленных маленьких-средних моделей, которые будут внедряться в прод.

У меня есть презентация и заготовленный доклад по теме обучения Retrieval-системы с использованием LLM, где сама модель осуществляет лишь всопомгательную функцию во время обучения, а для применения (инференса) не используется.
Ссылка на презентацию для самостоятельного разбора: тык (46 слайдов, ~1.5 часа на чтение)

Если под постом соберется 400 сердечек - сделаю видео-лекцию на YouTuve по этой прзентации, где детально расскажу, что, как и почему происходит в пайплайне. А пока - всем удачного изучения :)

Репосты приветствуются, чтобы получить 400 ❤️ как можно скорее 😳
Please open Telegram to view this post
VIEW IN TELEGRAM
Вау, streamlit от питонистов 🤩

Вышел новый фреймворк (в альфе сейчас) под названием Pynecone. Выглядит он как pytorch vs tensorflow и как FastAPI vs Flask, то есть очень удобный.

1) ООП (например, нужно наследоваться от pc.State, чтобы поддерживать стейт в приложении, а не st.session_state["my_key"] 🤮)
2) pydantic для валидации типов объектов
3) SQLAlchemy под капотом для баз данных!
4) Можно легко вставлять react компоненты

Есть галлерея с демками, го тестить

https://pynecone.io/docs/gallery