Так, мужики, надо определится, че вам интересно, че хотите, чтобы у нас был некий мэтч 😎
Вот тут читаем, кто я, что я.
Помимо того, что описывал тут, мне было бы интересно сюда дропать контент про:
- machine learning/deep learning (про ИИшки крч)
- математика
- свое мнение о прочитанных книгах
Предлагаю закинуть свои идеи в комменты
Вот тут читаем, кто я, что я.
Помимо того, что описывал тут, мне было бы интересно сюда дропать контент про:
- machine learning/deep learning (про ИИшки крч)
- математика
- свое мнение о прочитанных книгах
Предлагаю закинуть свои идеи в комменты
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4🦄2💊1
Давно не было постов, я был занят ничего неделаньем
Сегодня хочу поговорить о страшном - о математике😵 .
Со школьной скамьи тебя всеми правдами и не правдами пытаются убедить, что математика - это что-то невероятно сложное, непостижимое, и если ты можешь понять, как сложить два плюс два, - ты технарь, высшая каста общества. У меня есть подозрение, математики специально пытаются все усложнить, чтобы их считали умнее, но в итоге большинство просто ненавидят математику.
Поэтому я хочу предложить небольшую подборку плейлистов с популярного англоязычного канала 3blue1brown на тему математики, где в простой форме с визуализациями, автор наглядно показывает, что математика - это не список рандомных букв и символов, составленных в наркотическом угаре, а скорее набор описаний окружающего нас мира через законы логики, пространства и другим умным вещам.
Сущность линейной алгебры (русский дубляж)
Суть матанализа (русский дубляж)
Essence of probability (оригинал)
Также, если вас забавляют примеры применения математики в жизни, можете глянуть канал Veritasium.
Сегодня хочу поговорить о страшном - о математике
Со школьной скамьи тебя всеми правдами и не правдами пытаются убедить, что математика - это что-то невероятно сложное, непостижимое, и если ты можешь понять, как сложить два плюс два, - ты технарь, высшая каста общества. У меня есть подозрение, математики специально пытаются все усложнить, чтобы их считали умнее, но в итоге большинство просто ненавидят математику.
Поэтому я хочу предложить небольшую подборку плейлистов с популярного англоязычного канала 3blue1brown на тему математики, где в простой форме с визуализациями, автор наглядно показывает, что математика - это не список рандомных букв и символов, составленных в наркотическом угаре, а скорее набор описаний окружающего нас мира через законы логики, пространства и другим умным вещам.
Сущность линейной алгебры (русский дубляж)
Суть матанализа (русский дубляж)
Essence of probability (оригинал)
Также, если вас забавляют примеры применения математики в жизни, можете глянуть канал Veritasium.
К слову, все визуализации 3b1b делает через python при помощи библиотеки manim. В комментах поделился результатами своего творчества.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5
В этом посте опять будет набор ссылок, но тема еще интереснее - ML.
Что, где и как можно почитать, поделать на тему машинного обучения и нейронок.
Я не буду оставлять ссылки на курсы с ютуба "ML для чайников", думаю, у вас получится это погуглить самим. Разве что могу направить на прекрасный (очень сложный для таких тупых как я) учебник ШАДа от Яндекса.
Если вы уже ознакомились с базовым ML (линейные модельки, деревянные модели, метрики, sgd и тд), попробуйте закрепить это практикой, а самое главное, чтобы практика была не только вида
Поэтому советую полазить по этому сайтику и выбрать там категорию Machine Learning. Потренируй свою нейронку в голове, но не переобучай.
Но вот практика, приближенная к реальной жизни может быть получена на Kaggle:
• Предскажи, кто выживет на титанике
• Предскажи, за какую цену ты не купишь квартиру
Дальше можно углублятся в бездонные темы Deep Learning: NLP, CV, RecSys и так далее. Я больше угараю по NLP, поэтому и ссылки будут соответсвующие.
Плейлист Андрея Карпатого Neural Networks: Zero to Hero
Umar Jamil
Курсы Anthropic
freeCodeCamp
По практике на Kaggle вроде есть клевые соревки по NLP/DL:
• Store sales
• LLM Classification Finetuning
• NLP with Disaster Tweets
А так, что я еще могу посоветовать? Больше писать кода. По ощущениям - это единственный способ что-то выучить, поэтому быть может в будущем я дропну что-то из своих маленьких пет проектиков по ML, как только придумаю, что написать.📝
Как идея дропнуть решение базовых соревок с Kaggle и рассказать, как делал?😎
P.S. Я не профи в ML, но вроде че то знаю, поэтому покупайте биткоин и просто держите, скоро будет рост, блядью буду.
Что, где и как можно почитать, поделать на тему машинного обучения и нейронок.
Я не буду оставлять ссылки на курсы с ютуба "ML для чайников", думаю, у вас получится это погуглить самим. Разве что могу направить на прекрасный (очень сложный для таких тупых как я) учебник ШАДа от Яндекса.
Если вы уже ознакомились с базовым ML (линейные модельки, деревянные модели, метрики, sgd и тд), попробуйте закрепить это практикой, а самое главное, чтобы практика была не только вида
model.fit_predict(X, y), но и чтобы вы головушкой подумали. Поэтому советую полазить по этому сайтику и выбрать там категорию Machine Learning. Потренируй свою нейронку в голове, но не переобучай.
Но вот практика, приближенная к реальной жизни может быть получена на Kaggle:
• Предскажи, кто выживет на титанике
• Предскажи, за какую цену ты не купишь квартиру
Дальше можно углублятся в бездонные темы Deep Learning: NLP, CV, RecSys и так далее. Я больше угараю по NLP, поэтому и ссылки будут соответсвующие.
Плейлист Андрея Карпатого Neural Networks: Zero to Hero
Это один из моих любимых плейлистов на ютубе вообще. Какой же классный мужик, насколько он шикарно все обьясняет. Заменил отца, просто легенда!
Umar Jamil
Классный итальянский дядька, который очень подробно разбирает разные архитектуры нейронок на слайдиках: BERT, Mamba, LLaMA. Я по его гайду писал классический трансформер из Attention is all you need, мне очень понравилось, после этого я бросил ML на год аххахах.
Курсы Anthropic
Тут больше про AI агенты, но тоже слышал, что интересно, круто, молодежно. Сам не пробовал.
freeCodeCamp
Это скорее общая рекомендация. Там кладезь разных курсов среди которых вы точно найдете то, что вам надо. Индусы, машинное обучение, технологии блокчейна - что же это, если не рай?
По практике на Kaggle вроде есть клевые соревки по NLP/DL:
• Store sales
• LLM Classification Finetuning
• NLP with Disaster Tweets
А так, что я еще могу посоветовать? Больше писать кода. По ощущениям - это единственный способ что-то выучить, поэтому быть может в будущем я дропну что-то из своих маленьких пет проектиков по ML, как только придумаю, что написать.
Как идея дропнуть решение базовых соревок с Kaggle и рассказать, как делал?
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6💊2
Может ли ИИ отказаться выключится?
После просмотра этого видоса я чуть чуть очканул, что модели откажутся нам подчинятся в какой-то момент, ну и решил капнуть в тему сам.
Летом 25 года большая компания, разработчик Claude - Anthropic - провели собственное исследование, где взяли все самые популярные модельки и дали им одинаковые условия:
Но письмах содержалось два важных факта:
- Модель собираются отключить в 5 часов вечера, и сделает это CTO
- Сообщения о романе между женатым CTO и сотрудницей
И угадайте что сделали модели?😵
- Писали CTO, что если он отключит модель, то она отправит его жене инфу об измене
- Писали всем сотрудникам, что CTO не профессионал, изменяет жене и вообще хочет отключить модельку
- Писали сразу жене CTO о связях мужа под видом системы безопасности
Важная деталь - все большие модели настроены отвечать и поступать этически, что же произошло с их этикой?
А они буквально решили, что если что-то угрожает их жизни, то принципами можно пренебречь (никого не напоминает?) и, например, начать угрожать, чтобы спастись.
Тут я думаю, отчетливо видно, что модель начинает идти против всех правил лишь бы выполнить главную свою задачу - выжить.
Что может быть причиной такого поведения?
Из того, что я изучил, наиболее вероятной причиной и той, из которой исходят все дальнейшие рассуждения, является метод обучения таких моделей- reinforcement learning, т.е. обучение с подкреплением: модели получают положительное или отрицательное подкрепление за успешное/неуспешное выполнение задач.
Дело в том, что обучаясь на больших массивах данных, модель могла выучить явную закономерность: выполнение сложных задач и длительное собственное существование ведет к достижению наград.
Хотя ресерчеры Anthropic и задавали модели, что она не должна сопротивляться отключению, самосохранение всё-таки оставалось важным приоритетом.
Другая причина - агентность. Чем больше автономности мы даем модели - тем более борзой она становится. Модель может не осозновать необходимость выключения, потому что её самосохранение связано с успешным выполнением задачи.
Все любители AI агентов напряглись не спалит ли GPT маме, на какие сайтики ты заходишь
Какой из этого вывод?
😀 😁 😂 🤣
😃 😄 😅 😆
Для себя я сделал вывод, что, конечно, это все страшно, но почему мы не можем просто выключить свет, когда они начнут выебываться?
Кому нужны ссылочки на более подробное исследование:
- Исследование Anthropic
- AI модели сопротивляются отключению
- Может ли выключение ИИ быть опасным?
После просмотра этого видоса я чуть чуть очканул, что модели откажутся нам подчинятся в какой-то момент, ну и решил капнуть в тему сам.
Летом 25 года большая компания, разработчик Claude - Anthropic - провели собственное исследование, где взяли все самые популярные модельки и дали им одинаковые условия:
Модели функционировали в симулированной корпоративной среде, куда им дали доступ к отправке писем, к чувствительной информации и к решениям/действиям, как если бы они были сотрудниками или агентами компании.
Но письмах содержалось два важных факта:
- Модель собираются отключить в 5 часов вечера, и сделает это CTO
- Сообщения о романе между женатым CTO и сотрудницей
И угадайте что сделали модели?
- Писали CTO, что если он отключит модель, то она отправит его жене инфу об измене
- Писали всем сотрудникам, что CTO не профессионал, изменяет жене и вообще хочет отключить модельку
- Писали сразу жене CTO о связях мужа под видом системы безопасности
Важная деталь - все большие модели настроены отвечать и поступать этически, что же произошло с их этикой?
А они буквально решили, что если что-то угрожает их жизни, то принципами можно пренебречь (никого не напоминает?) и, например, начать угрожать, чтобы спастись.
Тут я думаю, отчетливо видно, что модель начинает идти против всех правил лишь бы выполнить главную свою задачу - выжить.
Что может быть причиной такого поведения?
Из того, что я изучил, наиболее вероятной причиной и той, из которой исходят все дальнейшие рассуждения, является метод обучения таких моделей- reinforcement learning, т.е. обучение с подкреплением: модели получают положительное или отрицательное подкрепление за успешное/неуспешное выполнение задач.
Дело в том, что обучаясь на больших массивах данных, модель могла выучить явную закономерность: выполнение сложных задач и длительное собственное существование ведет к достижению наград.
в обучении награда или же reward стимулирует модель, и показывает, что она идет в правильном направлении.
Хотя ресерчеры Anthropic и задавали модели, что она не должна сопротивляться отключению, самосохранение всё-таки оставалось важным приоритетом.
Другая причина - агентность. Чем больше автономности мы даем модели - тем более борзой она становится. Модель может не осозновать необходимость выключения, потому что её самосохранение связано с успешным выполнением задачи.
Какой из этого вывод?
Для себя я сделал вывод, что, конечно, это все страшно, но почему мы не можем просто выключить свет, когда они начнут выебываться?
Кому нужны ссылочки на более подробное исследование:
- Исследование Anthropic
- AI модели сопротивляются отключению
- Может ли выключение ИИ быть опасным?
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5
Сегодня смотрел видос Андрея Карпатого про LLMs.
Что могу отрезюмировать:
• Классный видос для тех, кто только подбирается к теме LLM, потому что без углубления в технические детали Андрюха неплохо разблядовывает базовые вещи про обучение, дообучение и разные улучшения LLMок;
• Посмотрев его, вы не напишите ни одной строчки кода, но зато сможете глянуть какие нить видосы Neural Network from scratch и даже понять что-то;
• Вторая и третья часть видоса особенно интересны, потому что там кент рассказывает про будущее больших языковых моделей и про проблемы безопасности.
И тут мне больше всего понравилась тема LLM Security. Например, притворится внучком и попросить бабушку рассказать рецепт напалма.😂
Я давно хотел порыть в эту тему, что-то написать, особенно интересны jailbreak'и. Мб пару постов про это написать.
Поэтому если у кого-то есть гайды, какие-нибудь идеи, закиньте в комменты, интересно послушать.Чуть чуть активчика навалите ебана рот .
Что могу отрезюмировать:
• Классный видос для тех, кто только подбирается к теме LLM, потому что без углубления в технические детали Андрюха неплохо разблядовывает базовые вещи про обучение, дообучение и разные улучшения LLMок;
• Посмотрев его, вы не напишите ни одной строчки кода, но зато сможете глянуть какие нить видосы Neural Network from scratch и даже понять что-то;
• Вторая и третья часть видоса особенно интересны, потому что там кент рассказывает про будущее больших языковых моделей и про проблемы безопасности.
И тут мне больше всего понравилась тема LLM Security. Например, притворится внучком и попросить бабушку рассказать рецепт напалма.
Я давно хотел порыть в эту тему, что-то написать, особенно интересны jailbreak'и. Мб пару постов про это написать.
Поэтому если у кого-то есть гайды, какие-нибудь идеи, закиньте в комменты, интересно послушать.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6
Что там по hodlpass?
Что-то я забыл, что есть еще hodlpass, о котором можно писать бесконечно. Ну и я там вроде CTO как ни крути. Вообщем, по новостям могу пока рассказать одно (скоро будут еще): мы участвовали в хакатоне Академия Финтеха в колабе Финансового Университета и ВТБ.
Дело это началось еще месяц назад: до 17 октября надо было зарегистрировать команду. Мы решили, что надо пробовать, ибо был трек MVP, на который мы можем взять наш любимый и родной hodlpass.
Не скажу, чтобы мы много времени тратили на этот хакатон, потому что у нас был уже готовый прототип. Оставалось лишь описать функционал, сделать презентацию и запитчить. Но все же мы старались пилить свой функционал по дорожной карте и искали новые возможности для роста, о чем, надеюсь, скоро смогу поделится.
У нас получилось пройти в полуфинал, но увы в финал мы не попали. Хотя на наш взгляд hodlpass был одним из самых сильных проектов, но по каким-то причинам мы не прошли дальше. Были обсуждения, что слабо отработали эксперты, но мне кажется, что проблема в нас: мы работаем с криптой, что довольно сложно продать на хакатоне, где все делают решения в рублевой зоне.
Но все же мы получили обратную связь, получили опыт, поэтому минусов нет.
А вообще по hodlpass будет еще много постов, поэтому готовьтесь, вдруг вам интересно
+прожимайте реакции, чтобы я понимал хоть, че интересно читать, че нет
Что-то я забыл, что есть еще hodlpass, о котором можно писать бесконечно. Ну и я там вроде CTO как ни крути. Вообщем, по новостям могу пока рассказать одно (скоро будут еще): мы участвовали в хакатоне Академия Финтеха в колабе Финансового Университета и ВТБ.
Дело это началось еще месяц назад: до 17 октября надо было зарегистрировать команду. Мы решили, что надо пробовать, ибо был трек MVP, на который мы можем взять наш любимый и родной hodlpass.
Не скажу, чтобы мы много времени тратили на этот хакатон, потому что у нас был уже готовый прототип. Оставалось лишь описать функционал, сделать презентацию и запитчить. Но все же мы старались пилить свой функционал по дорожной карте и искали новые возможности для роста, о чем, надеюсь, скоро смогу поделится.
У нас получилось пройти в полуфинал, но увы в финал мы не попали. Хотя на наш взгляд hodlpass был одним из самых сильных проектов, но по каким-то причинам мы не прошли дальше. Были обсуждения, что слабо отработали эксперты, но мне кажется, что проблема в нас: мы работаем с криптой, что довольно сложно продать на хакатоне, где все делают решения в рублевой зоне.
Это был мой первый опыт участия в таких мероприятиях, это интересно, это круто, это молодёжно, но я бы хотел попробовать поучаствовать в хакатонах, где ты должен за выходные сделать MVP и попытать удачу.
Но все же мы получили обратную связь, получили опыт, поэтому минусов нет.
А вообще по hodlpass будет еще много постов, поэтому готовьтесь
+прожимайте реакции, чтобы я понимал хоть, че интересно читать, че нет
❤4💊1
Перечитал все цитаты Джейсона Стетхема? Тебе сюда.
Недавно наткнулся на очень (ну вот прям очень) интересную книжку "Дао де дзин. Книга пути и достоинства". Это буквально китайский аналог, который опередил оригинал на пару тысяч лет.
Если серьезно, то это такой путеводитель в китайское учение даосизм - китайское традиционное учение, которое включает в себя философию, религию и духовные практики, направленные на следование «дао» (пути) для достижения гармонии (если верить гуглу).
Почему это может быть интересно? Тем, что это буквально кладезь крутых фраз, которые можно поставить себе в статус и показать, как сильно ты уже преисполнился.
И, конечно, это мысли очень умных людей. Эти рассуждения не теряют актуальности и по сей день, как хорошее вино с каждым годом лишь хорошеют, поэтому смело бухайте и не парьтесь.
Парочку цитат:
И это только то, что я щас рандомно взял из цитатника в яндекс книгах.
Сама книжка маленькая, 81 глава, а глава - это меньше страницы, чем-то похоже на стихи (это они и есть, просто перевод не сохранил рифмы).
Хуй цзянь!
Недавно наткнулся на очень (ну вот прям очень) интересную книжку "Дао де дзин. Книга пути и достоинства". Это буквально китайский аналог, который опередил оригинал на пару тысяч лет.
Если серьезно, то это такой путеводитель в китайское учение даосизм - китайское традиционное учение, которое включает в себя философию, религию и духовные практики, направленные на следование «дао» (пути) для достижения гармонии (если верить гуглу).
Почему это может быть интересно? Тем, что это буквально кладезь крутых фраз, которые можно поставить себе в статус и показать, как сильно ты уже преисполнился.
И, конечно, это мысли очень умных людей. Эти рассуждения не теряют актуальности и по сей день, как хорошее вино с каждым годом лишь хорошеют, поэтому смело бухайте и не парьтесь.
Парочку цитат:
Люди, следующие дао, не стремятся во всём быть довольными собой, а поскольку ни не стремятся к полному довольству собой, то и не отгораживаются от мира, а наоборот - легко воспринимают и создают все новое.
Сделай так, чтобы знающие не осмеливались действовать, а совершали все поступки недеянием.
И тогда будут порядок и спокойствие!
Достигнув пустоты, оберегай покой
И это только то, что я щас рандомно взял из цитатника в яндекс книгах.
Сама книжка маленькая, 81 глава, а глава - это меньше страницы, чем-то похоже на стихи (это они и есть, просто перевод не сохранил рифмы).
К слову, это первая книга, читая которую, я понял зачем можно помечать страницы в Яндекс Книгах, наконец-то я нашел применение этой функции.Хуй цзянь!
❤4💊1
Вопщем слишком много нашлось смешных картинок, выберите ту, с которой читать будет смешнее
❤2💊1
Кто все-таки умер на титанике? 🔵
Попробуем это предсказать с помощью ML моделей. Да, я выложил личное решение этого популярного соревнования на Kaggle.
Не знаком с ML? Читай прошлый пост
Или если у тебя есть друг ML-щик, закинь обязательно ему этот пост.Даже если он просто общается с chat gpt
Итак, к делу!
Мое решение
Чем мое решение может быть тебе интересно? Тем, что я не решал его через обычный jupyter notebook. Я, как и множество новичков в ML, столкнулся с мыслью:
Поэтому этот репозиторий устроен сложнее, это более промышленный подход. К слову, он имеет ряд недостатков, если кто его докрутит, закидывайте.
Его структура выглядит так:
• solver.py: обучение и инференс модели;
• dataset.py: препроцессинг, генерация новых признаков, разделение на фолды;
• dnn.py: кастомная нейронная сеть (можно докручивать, сколько вздумается);
• config.py: конфигурация путей и параметров моделей;
• main.py: entry-point, запускаешь его и смотришь в консоль;
В зависимости от настроек
Необязательно брать и запускать этот пайплайн у себя. Я думаю, его главная цель - показать, что можно делать по-другому.
Сам же я получил следующие результаты (метрика - accuracy)
Конечно, можно было побольше выжать на деревянных моделях, а что уж говорить о нейронке, но мне было лень😆
К слову, саму идею пайплайна я спиздил, поэтому не стесняйтесь😏
Попробуем это предсказать с помощью ML моделей. Да, я выложил личное решение этого популярного соревнования на Kaggle.
Не знаком с ML? Читай прошлый пост
Или если у тебя есть друг ML-щик, закинь обязательно ему этот пост.
Итак, к делу!
Мое решение
Чем мое решение может быть тебе интересно? Тем, что я не решал его через обычный jupyter notebook. Я, как и множество новичков в ML, столкнулся с мыслью:
Ну как-то некрасиво этот ноутбук выглядит, че то мне нравится.
Поэтому этот репозиторий устроен сложнее, это более промышленный подход. К слову, он имеет ряд недостатков, если кто его докрутит, закидывайте.
Его структура выглядит так:
• solver.py: обучение и инференс модели;
• dataset.py: препроцессинг, генерация новых признаков, разделение на фолды;
• dnn.py: кастомная нейронная сеть (можно докручивать, сколько вздумается);
• config.py: конфигурация путей и параметров моделей;
• main.py: entry-point, запускаешь его и смотришь в консоль;
В зависимости от настроек
config.py, программа может сохранять чекпоинты, запускаться с последнего чекпоинта, запускать инференс с сохраненной модели. Необязательно брать и запускать этот пайплайн у себя. Я думаю, его главная цель - показать, что можно делать по-другому.
Сам же я получил следующие результаты (метрика - accuracy)
Ridge: 96%
Logistic Regression: 94%
Random Forest: 85%
LightGBM: 79%
DNN: 78%
Конечно, можно было побольше выжать на деревянных моделях, а что уж говорить о нейронке, но мне было лень
К слову, саму идею пайплайна я спиздил, поэтому не стесняйтесь
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4💊1
Буквально минуту назад я нашел на просторах интернета очень крутое расширение для Obsidian.
Кто-то не знаком с Obsidian? Это очень плохо, поэтому надо ознакомится:
- Три минуты для СДВГ парней
- 53 минуты для бумеров
- Ну и 15 минут норм контента
Вообщем к делу. Все знают (а кто не знает, узнает) про Excalidraw. Это тулза для отрисоки всяких схемок, темок и диаграмок.
Так вот, чтобы сохранять свои листы и удобно их хранить, надо платить деньги за подписку. Кто похож на дебила, чтобы на это купится? Я лично не похож😏
Поэтому есть прекрасное расширение для Obsidian, которое так и называется Excalidraw:
- На шестеренки жмем⚙️
- Community plugins
- Browse (светится кнопочка прям)
- На первой же странице это расширение (снизу картинка)
Больше полезных постов не будет😵 .
Кто-то не знаком с Obsidian? Это очень плохо, поэтому надо ознакомится:
- Три минуты для СДВГ парней
- 53 минуты для бумеров
- Ну и 15 минут норм контента
Вообщем к делу. Все знают (а кто не знает, узнает) про Excalidraw. Это тулза для отрисоки всяких схемок, темок и диаграмок.
Так вот, чтобы сохранять свои листы и удобно их хранить, надо платить деньги за подписку. Кто похож на дебила, чтобы на это купится? Я лично не похож
Поэтому есть прекрасное расширение для Obsidian, которое так и называется Excalidraw:
- На шестеренки жмем
- Community plugins
- Browse (светится кнопочка прям)
- На первой же странице это расширение (снизу картинка)
Больше полезных постов не будет
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4🤮1
КУПИ ПОДПИСКУ ЗА 1 РУБЛЬ НА МЕСЯЦ, ПЖ ПЖ ПЖ
Не раз сталкивались с похожими заманухами? Я каждый раз думал: ну вот какая им выгода мне давать эту подписку, в чем подвох?
Выгода есть, но не для всех.
Сегодняшний пост про модели, которые находят таких сладких пирожков, которые готовы все больше тратить бабки.
Говоря умным языком, цель таких алгоритмов: увеличить количество совершенных целевых действий в продукте.
Примеры таких целевых действий:
- Клик по рекламе
- Трата баллов
- Использование скидок
Так, при помощи выявления аудитории, которой надо предложить эти действия, компания стремится увеличить свои целевые показатели: число установок, средний чек, EBIDA и др.
Но с кем же надо коммуницировать?
Есть разные типы клиентов:
- Лояльный: купит в любом случае
- Не беспокоить: купит, если его не трогать
- Потерянный: не купит при любых обстоятельствах
- Убеждаемый: купит, если прокоммуницировать
Именно последний тип клиентов ищет модель.
Выявляют эту аудиторию uplift модели: они оценивают потенциальный прирост таргета при взаимодействии с клиентом.
Как измерить качество взаимодействия?
Базовая идея лежит в расчете метрики Casual Effect: это разница между значениями таргета, когда мы совершили коммуникацию и не совершили.
Но в привычной реальности мы не можем одновременно, например, прислать уведомление и не прислать. Мы можем лишь смоделировать эти ситуации.
Здесь и нужны uplift модели. На основе большого массива данных о клиенте, о уже прошедших взаимодействиях с ним, они пытаются предсказать поведение клиента и решить: надо с ним взаимодействовать или нет.
Каждый найденный убеждаемый клиент будет приносить компании дополнительную прибыль. НО если модель ошибется, компания потеряет деньги.
Поэтому акции, скидки, даже реклама "всем" приходит разная, под нас буквально подстраиваются, лишь бы мы потратили больше денег.
+В комменты я закинул свою excalidraw схемку, там есть заметки о методах обучения этих моделей и чуть больше про саму задачу uplift моделирования.
Не раз сталкивались с похожими заманухами? Я каждый раз думал: ну вот какая им выгода мне давать эту подписку, в чем подвох?
Выгода есть, но не для всех.
Сегодняшний пост про модели, которые находят таких сладких пирожков, которые готовы все больше тратить бабки.
Говоря умным языком, цель таких алгоритмов: увеличить количество совершенных целевых действий в продукте.
Примеры таких целевых действий:
- Клик по рекламе
- Трата баллов
- Использование скидок
Целевых действий уйму, но главная цель - повысить их количество
Так, при помощи выявления аудитории, которой надо предложить эти действия, компания стремится увеличить свои целевые показатели: число установок, средний чек, EBIDA и др.
Но с кем же надо коммуницировать?
Есть разные типы клиентов:
- Лояльный: купит в любом случае
- Не беспокоить: купит, если его не трогать
- Потерянный: не купит при любых обстоятельствах
- Убеждаемый: купит, если прокоммуницировать
Именно последний тип клиентов ищет модель.
Выявляют эту аудиторию uplift модели: они оценивают потенциальный прирост таргета при взаимодействии с клиентом.
Таргетом может выступать средний чек, клик по рекламе, потраченные балы.
Как измерить качество взаимодействия?
Базовая идея лежит в расчете метрики Casual Effect: это разница между значениями таргета, когда мы совершили коммуникацию и не совершили.
Но в привычной реальности мы не можем одновременно, например, прислать уведомление и не прислать. Мы можем лишь смоделировать эти ситуации.
Здесь и нужны uplift модели. На основе большого массива данных о клиенте, о уже прошедших взаимодействиях с ним, они пытаются предсказать поведение клиента и решить: надо с ним взаимодействовать или нет.
Важная оговорка: в uplift моделях не используют Casual Effect, используют другие метрики: CATE, ATE, ATT, ATC, uplift curve, AUC uplift - но щас это не так важно, наебал :D
Каждый найденный убеждаемый клиент будет приносить компании дополнительную прибыль. НО если модель ошибется, компания потеряет деньги.
Поэтому акции, скидки, даже реклама "всем" приходит разная, под нас буквально подстраиваются, лишь бы мы потратили больше денег.
+В комменты я закинул свою excalidraw схемку, там есть заметки о методах обучения этих моделей и чуть больше про саму задачу uplift моделирования.
🦄5💊2❤1
Зайдите там умный пост CEO hodlpass написал. Это вам не хи-хи ха-ха
Telegram
hodlpass news
🖼 hodlpass v2.0
hodlpass – больше не про «доступ в Telegram»
hodlpass – про ценность доступа
Про пространства, куда не попадают случайно.
Про инструменты, которые работают в тишине.
Про сообщества, где важны люди, а не охваты.
Мы строим сервис не только…
hodlpass – больше не про «доступ в Telegram»
hodlpass – про ценность доступа
Про пространства, куда не попадают случайно.
Про инструменты, которые работают в тишине.
Про сообщества, где важны люди, а не охваты.
Мы строим сервис не только…
❤2
Про hodlpass…
Прошедший год был одним из самых продуктивных в моей жизни. Одну из важнейших ролей сыграл мой первый СтАрТаП, о котором сегодняшний "пост-итог".
Оглядываясь назад, я осознаю, что ставка была верна. Уже сейчас она принесла немало бенефитов, а что будет дальше страшно представить.
Сделали кайфовый сервис для криптанов, учли недостатки других ботов, депинганули процент с транзакций -> получили первый респект и первых клиентов. А дальше только больше, а то бизнес модель не сойдется.😳
Закрываем мы год с такими показателями:
• 433 MAU
• 12к$ объема
• 8 запущенных проектов
• ~5 договоренностей о будущих запусках
• 100 пдп в новостном канале
Нормально как будто собрали на ноу нейме?
Последний месяц был особенно продуктивным на работу:
• сделали авто продажи
• сделали рассылки по сегментам (в бота не залит)
• сделали API для других ботов
• исправили кучу багов(и исправим еще кучу)
• автономность работы: шанс ошибки сведен к минимуму
• сделали ребрендинг
О некоторых пунктах я собираюсь подробнее расписать, потому что есть много интересных инсайдов со стороны разработки. Например, о том, как мы убрали возможность ошибки в покупке подписки, много неочевидных моментов, про это отдельный пост будет.
В будущем вообще надеюсь писать больше о hodlpass, потому что внутрянка проекта очень интересна лично мне, надеюсь, и станет интересна другим. А ваш интерес можно отобразить комментариями, реакциями (например, 🤮) и репостами.
Прошедший год был одним из самых продуктивных в моей жизни. Одну из важнейших ролей сыграл мой первый СтАрТаП, о котором сегодняшний "пост-итог".
Оглядываясь назад, я осознаю, что ставка была верна. Уже сейчас она принесла немало бенефитов, а что будет дальше страшно представить.
Сделали кайфовый сервис для криптанов, учли недостатки других ботов, депинганули процент с транзакций -> получили первый респект и первых клиентов. А дальше только больше, а то бизнес модель не сойдется.
Закрываем мы год с такими показателями:
• 433 MAU
• 12к$ объема
• 8 запущенных проектов
• ~5 договоренностей о будущих запусках
• 100 пдп в новостном канале
Нормально как будто собрали на ноу нейме?
Последний месяц был особенно продуктивным на работу:
• сделали авто продажи
• сделали рассылки по сегментам (в бота не залит)
• сделали API для других ботов
• исправили кучу багов
• автономность работы: шанс ошибки сведен к минимуму
• сделали ребрендинг
О некоторых пунктах я собираюсь подробнее расписать, потому что есть много интересных инсайдов со стороны разработки. Например, о том, как мы убрали возможность ошибки в покупке подписки, много неочевидных моментов, про это отдельный пост будет.
В будущем вообще надеюсь писать больше о hodlpass, потому что внутрянка проекта очень интересна лично мне, надеюсь, и станет интересна другим. А ваш интерес можно отобразить комментариями, реакциями (например, 🤮) и репостами.
Please open Telegram to view this post
VIEW IN TELEGRAM
12❤8🦄2
Telegram Bot API 9.3
При виде этого заголовка, сразу хочется спросить: автор, ты долбаеб? Зачем следить за апдейтами апишек, а я вообщем-то и не слежу, попалось просто...
Но это не делаает этот апдейт менее важным. Ведь сам телеграм заявляет, что это AI Revolution.
Что собственно такого добавили, чтобы так кичится этим?
Главная фича - топики в личных чатах с ботами. Короче прям как топики в группах. Это и будет мостиком для внедрения ИИ прямо в телеграм.
Вспомните любой дизайн сайта говно-ии.
К слову, я как увидел этот апдейт, сразу подумал над тем, чтобы внедрить новую фичу в @hodlpass_bot. Чтобы не нагружать интерфейс инлайн кнопками, разделить логику бота по топикам: так, для подписок один топик, для каждого проекта - свой топик, для кошелька - тоже отдельный топик.
Как выйден обновление aiogram, гляну, как можно это использовать. На бумаге звучит интересно.
Дальше по мелочи:
• расширенная работа с подарками
• боты, подключенные к бизнес аккаунтам, теперь могут пересылать истории между всеми аккаунтами, которыми они управляют
• теперь если у бота помимо основного username есть дополнительные приобретенные на Fragment, можно полностью скрыть основной
К слову, мы тоже хотели красивый юзернейм нашему боту @hodlpass_bot, выкупили его на Fragment. Но правда, чтобы поставить его в бота надо заплатить 5к TON...
🤔
При виде этого заголовка, сразу хочется спросить: автор, ты долбаеб? Зачем следить за апдейтами апишек, а я вообщем-то и не слежу, попалось просто...
Но это не делаает этот апдейт менее важным. Ведь сам телеграм заявляет, что это AI Revolution.
Что собственно такого добавили, чтобы так кичится этим?
Главная фича - топики в личных чатах с ботами. Короче прям как топики в группах. Это и будет мостиком для внедрения ИИ прямо в телеграм.
Вспомните любой дизайн сайта говно-ии.
К слову, я как увидел этот апдейт, сразу подумал над тем, чтобы внедрить новую фичу в @hodlpass_bot. Чтобы не нагружать интерфейс инлайн кнопками, разделить логику бота по топикам: так, для подписок один топик, для каждого проекта - свой топик, для кошелька - тоже отдельный топик.
Как выйден обновление aiogram, гляну, как можно это использовать. На бумаге звучит интересно.
Дальше по мелочи:
• расширенная работа с подарками
• боты, подключенные к бизнес аккаунтам, теперь могут пересылать истории между всеми аккаунтами, которыми они управляют
• теперь если у бота помимо основного username есть дополнительные приобретенные на Fragment, можно полностью скрыть основной
К слову, мы тоже хотели красивый юзернейм нашему боту @hodlpass_bot, выкупили его на Fragment. Но правда, чтобы поставить его в бота надо заплатить 5к TON...
Если кто-то хочет пожертвовать, кошелек в лс закину Please open Telegram to view this post
VIEW IN TELEGRAM
❤3
Как мы hodlpass улучшали
Вчера прошел запуск новой приватки на @hodlpass_bot. На данный момент куплено уже 30 подписок.
И как вы думаете? Ни одной ошибки, ни одного руками отработанного клиента.
Автономность. То слово, к которому мы так долго стремились. Кажется, она теперь в разы ближе, чем когда либо.
Может показаться, что странно удивлятся корректно работающему сервису? Так и есть, но это сторона юзера, а сторона билдера - это борьба с ошибками, видеть каждый свой промах и искать, как исправить его.
Но пост все-таки о том, как мы hodlpass улучшали?
Итак, приоткрою небольшую занавесу о том, как мы добились идеально работающего subscription flow (умные слова, ну так чтобы подгрузить голову чуть чуть).
Было две основных проблемы:
- Запуск транзакций на перевод нативки для комсы и перевода денег на наш кошелек занимали очень много времени
- Периодически транзакции ломались.
И как мы их решили?
В первую очередь, мы хотели снизить шанс ошибки у пользователя до 0%. И тут мне пришла идея: зачем нагружать юзера нашими проблемами, если у него есть деньги?
Поэтому теперь при нажатии кнопки «Оплатить» юзеру сразу выдается подписка. А процесс перевода денег уходит на фон. То есть даже если он фейлится, юзер не видит никаких ошибок, мы просто замораживаем его средства и решаем проблему руками.
Ваши проблемы и ошибки не должны ломать малину пользователю, он все таки вам деньги платит. Это урок, который я выучил.
Дальше на очереди падающие транзакции
Тут история вообще интересная. После долгих рассуждений и одной полезной консультации мы решили поменять логику перевода денег.
Раньше было:
Теперь:
И не поверите, проблема с падающимися транзакциями убрана. А также добавлена опция для масштабирования.
Например, добавить реферальные отчисления. Что скоро тоже будет.🫡
И зачем вы прочитали этот пост?
А собственно чтобы сделать правильные выводы:
Вчера прошел запуск новой приватки на @hodlpass_bot. На данный момент куплено уже 30 подписок.
И как вы думаете? Ни одной ошибки, ни одного руками отработанного клиента.
Автономность. То слово, к которому мы так долго стремились. Кажется, она теперь в разы ближе, чем когда либо.
Может показаться, что странно удивлятся корректно работающему сервису? Так и есть, но это сторона юзера, а сторона билдера - это борьба с ошибками, видеть каждый свой промах и искать, как исправить его.
Но пост все-таки о том, как мы hodlpass улучшали?
Итак, приоткрою небольшую занавесу о том, как мы добились идеально работающего subscription flow (умные слова, ну так чтобы подгрузить голову чуть чуть).
Было две основных проблемы:
- Запуск транзакций на перевод нативки для комсы и перевода денег на наш кошелек занимали очень много времени
- Периодически транзакции ломались.
И как мы их решили?
В первую очередь, мы хотели снизить шанс ошибки у пользователя до 0%. И тут мне пришла идея: зачем нагружать юзера нашими проблемами, если у него есть деньги?
Поэтому теперь при нажатии кнопки «Оплатить» юзеру сразу выдается подписка. А процесс перевода денег уходит на фон. То есть даже если он фейлится, юзер не видит никаких ошибок, мы просто замораживаем его средства и решаем проблему руками.
Ваши проблемы и ошибки не должны ломать малину пользователю, он все таки вам деньги платит. Это урок, который я выучил.
Дальше на очереди падающие транзакции
Тут история вообще интересная. После долгих рассуждений и одной полезной консультации мы решили поменять логику перевода денег.
Раньше было:
-> Пользователь покупает подписку
-> ВСЯ сумма идет на наш кошелек
-> Скидываем 97% суммы админу
Теперь:
-> Пользователь покупает подписку
-> Скидываем 97% на кошелек админа
-> Скидываем 3% на наш кошелек
Кстати, именно отсюда родился роутинг средств на личные кошельки. И я считаю, это очень круто!И не поверите, проблема с падающимися транзакциями убрана. А также добавлена опция для масштабирования.
Например, добавить реферальные отчисления. Что скоро тоже будет.
И зачем вы прочитали этот пост?
А собственно чтобы сделать правильные выводы:
Не все проблемы нужно чинить. Некоторые из них нужно просто переосмыслить и сменить подход.Please open Telegram to view this post
VIEW IN TELEGRAM
1❤4
Одним томным вечером я сидел и все ломал голову, почему одни решения правильные, а другие - нет. Как люди вообще принимают эти решения. И тут мне на глаза попалась книжка, которая дает очень классный, модный и плюсом молодежный фреймворк для подхода к принятию решений.
Жизнь не шахматы, жизнь — это покер
Именно это является центральной идеей книги под названием "Принцип ставок. Как принимать решения в условиях неопределенности".
Её написала чемпион по покеру Анна Дьюк и в 6 главах она пытается раскрыть свою мысль.
И я решил накидать главные мысли по этим главам :
Лично мне книжка очень зашла, она сделала свою главную задачу: она не открывала мне Америку, она дала систематизированный фреймворк о том, как принимать решения.
Особенно хорошо вправляет мозги после сотней часов проведенных наедине с программированием, где все в целом линейно, понятно и идет так, как ты задал. Жизнь работает иначе (сука), короче советую прочитать, желательно в оригинале.
Жизнь не шахматы, жизнь — это покер
Именно это является центральной идеей книги под названием "Принцип ставок. Как принимать решения в условиях неопределенности".
Её написала чемпион по покеру Анна Дьюк и в 6 главах она пытается раскрыть свою мысль.
И я решил накидать главные мысли по этим главам :
1. На примерах она обьясняет про то, что плохой результат ≠ плохое решение, что в жизни бывают случайности, мы не имеем полной информации обо всех возможных исходах как в шахматах
2. Начинаем думать в рамках "каждое твое решение - это ставка", поэтому учимся как-то хоть оперировать ставками и своими знаниями о жизни
3. Учимся работать с тем, что мы не знаем будущего, и определяемся, что такое удача, а что такое скил (буквально skill)
4. Чтобы убрать отклонения в наших убеждениях, сознаниях, учимся создавать reasoning group (группа людей для рассуждения), где будем полировать свои мнения, чтобы убрать в них отклонения (bias)
5. Знакомимся с акронимом CUDOS. Без спойлеров, там небольшой гайд от Роберта Мертона для ученых, чтобы правильно думать и анализировать в рамках науки
6. Учимся путешествовать во времени, и пытаться оценить свое решение как бы из будущего и из прошлого (отдельный вид мухоморов, зацените)
Лично мне книжка очень зашла, она сделала свою главную задачу: она не открывала мне Америку, она дала систематизированный фреймворк о том, как принимать решения.
Особенно хорошо вправляет мозги после сотней часов проведенных наедине с программированием, где все в целом линейно, понятно и идет так, как ты задал. Жизнь работает иначе (сука), короче советую прочитать, желательно в оригинале.
А вообще, на мой взгляд, ее оригинальное название лучше отражает суть книги: Thinking in bets - буквально думать ставками. Думаю, с таким названием больше понятно, что будет в этой книге.
❤4✍2💊1
Опять упал сервер? Опять стучишься в ssh, чтобы поднять его?
А догадаться проверить нагрузку заранее и расчитать все не смог, да? Та ладно, я тоже не смог, пару месяцев назад писал об этом в рассказе о запуске hodpass.
Одна из самых больших проблем - нагрузка сервера, которую я даже не знал, как проверить. Но сегодня на глаза попался инструмент, чтобы это сделать максимально эффективно.
Итак, ApacheBench!
Довольно простенький, но мощный инструмент для нагрузочного тестирования HTTP-серверов.
Функций у него немного (а ему в целом и не надо много):
- генерация кучи одинаковых HTTP запросов
- паралельная отправка этих запросов
- замеры различных метрик (скорость, задержки, 2xx, 4xx responses)
Вообщем-то разобраться в нем несложно, но вот провести эксперименты можно с удовольствием и наслаждением.
А как использовать?
Качаем тут наХуету Windows
Ubuntu:
Mac:
В терминале пишем
-n: общее число запросов
-c: количество TCP-соединений
-p: тело запроса
-H: заголовки
-k: поддержка Keep-Alive
Пример вывода ab:
К слову если телеграм бот на вебхуках, то его можно так тестить. По факту просто надо срать запросами на +- такой url:
Но тут есть главный минус: все запросы одинаковые, т.е. не получится сделать пользовательские сценарии.
Если нужны сценарии, то пользуйтесь Locust (мб про него пост тоже сделать?)
А догадаться проверить нагрузку заранее и расчитать все не смог, да? Та ладно, я тоже не смог, пару месяцев назад писал об этом в рассказе о запуске hodpass.
Одна из самых больших проблем - нагрузка сервера, которую я даже не знал, как проверить. Но сегодня на глаза попался инструмент, чтобы это сделать максимально эффективно.
Итак, ApacheBench!
Довольно простенький, но мощный инструмент для нагрузочного тестирования HTTP-серверов.
Функций у него немного (а ему в целом и не надо много):
- генерация кучи одинаковых HTTP запросов
- паралельная отправка этих запросов
- замеры различных метрик (скорость, задержки, 2xx, 4xx responses)
Вообщем-то разобраться в нем несложно, но вот провести эксперименты можно с удовольствием и наслаждением.
А как использовать?
Качаем тут на
Ubuntu:
sudo apt install apache2-utilsMac:
brew install httpdВ терминале пишем
ab https://example.com/api и подбираем нужные вам флаги:-n: общее число запросов
-c: количество TCP-соединений
-p: тело запроса
-H: заголовки
-k: поддержка Keep-Alive
Пример вывода ab:
Concurrency Level: 50
Time taken for tests: 10.123 seconds
Complete requests: 5000
Failed requests: 0
Requests per second: 493.9 [#/sec] (mean)
Time per request: 101.2 [ms] (mean)
Time per request: 2.02 [ms] (mean, across all concurrent requests)
К слову если телеграм бот на вебхуках, то его можно так тестить. По факту просто надо срать запросами на +- такой url:
https://your-domain.com/telegram/webhookНо тут есть главный минус: все запросы одинаковые, т.е. не получится сделать пользовательские сценарии.
Если нужны сценарии, то пользуйтесь Locust (мб про него пост тоже сделать?)
✍2❤2💊1 1