Деанон ортомича😱
Подписчики, всем привет! Сразу к сути
Давно, даже слишком давно, я себя ловлю на мысли что этот блог является скорее моим утяжелителем, нежели чем то прикольным и крутым. Я его то стесняюсь, то не знаю что постить, то ограничиваю себя форматом и тд. Из за этого оч сложно что то писать и делиться, тк любые рамки (искусственные тоже) всегда мешают творчеству
Канал этот был создан когда мне было 17 лет, создан он бы с целью делиться тем, чем я занимаюсь и для публикации собственных конспектов (статей). В итоге это все стало абузой, особенно это подогрел тот некий «успех» который я смог заиметь в моменте от нескольких достаточно популярных в узких кругах статей (они рил были классные). Хоть это и было круто, принесло результаты и несомненно повлияло на мою жизнь, время идти дальше, тем более что с тех времен, очевидно, поменялось много чего, и в первую очередь я, а вот блог будто бы застыл в том старом образе…
Я хоть и люблю писать статьи, но делать это каждым постом, как я это себе видел (и видел себя в этом) - такое себе на самом деле занятие, а форматы разные пробовать хочется, оттуда и мои потуги в создании журнала, других каналов (их оч много и все они Ortomich-related) ютуба и тд, хотя стоило просто это публиковать тут и не париться
Поэтому сегодня день некоторого раскаяния, хочу сбросить оковы прошлого и начать постить что хочется, не сковывая себя разными «но». Хочется сделать этот блог все же снова про меня, а не про выдуманного у меня в голове ортомича, которая может писать исключительно душниловские (хоть и прикольные) статьи
Ну и я стал меньше стесняться себя, взросление вещь такая, поэтомувотоня
Ps это не означает что я перестану постить душные статьи, просто в плане коммуникации с вами, мои дорогие подписчики, это, я считаю, важный пост, чтобы вы понимали изменения, которые тут потенциально будут происходить, хотя по последним постам сдвиг уже можно было заметить…
📟 Прилетело из @ortomich_main
Подписчики, всем привет! Сразу к сути
Давно, даже слишком давно, я себя ловлю на мысли что этот блог является скорее моим утяжелителем, нежели чем то прикольным и крутым. Я его то стесняюсь, то не знаю что постить, то ограничиваю себя форматом и тд. Из за этого оч сложно что то писать и делиться, тк любые рамки (искусственные тоже) всегда мешают творчеству
Канал этот был создан когда мне было 17 лет, создан он бы с целью делиться тем, чем я занимаюсь и для публикации собственных конспектов (статей). В итоге это все стало абузой, особенно это подогрел тот некий «успех» который я смог заиметь в моменте от нескольких достаточно популярных в узких кругах статей (они рил были классные). Хоть это и было круто, принесло результаты и несомненно повлияло на мою жизнь, время идти дальше, тем более что с тех времен, очевидно, поменялось много чего, и в первую очередь я, а вот блог будто бы застыл в том старом образе…
Я хоть и люблю писать статьи, но делать это каждым постом, как я это себе видел (и видел себя в этом) - такое себе на самом деле занятие, а форматы разные пробовать хочется, оттуда и мои потуги в создании журнала, других каналов (их оч много и все они Ortomich-related) ютуба и тд, хотя стоило просто это публиковать тут и не париться
Поэтому сегодня день некоторого раскаяния, хочу сбросить оковы прошлого и начать постить что хочется, не сковывая себя разными «но». Хочется сделать этот блог все же снова про меня, а не про выдуманного у меня в голове ортомича, которая может писать исключительно душниловские (хоть и прикольные) статьи
Ну и я стал меньше стесняться себя, взросление вещь такая, поэтому
Ps это не означает что я перестану постить душные статьи, просто в плане коммуникации с вами, мои дорогие подписчики, это, я считаю, важный пост, чтобы вы понимали изменения, которые тут потенциально будут происходить, хотя по последним постам сдвиг уже можно было заметить…
📟 Прилетело из @ortomich_main
"Не тупи, просто следи за китами или инфлюенсерами" - почему это плохая стратегия? Или почему я не советую вкладываться / повторять за собой.
Я сам через это проходил.
Здесь расскажу о своём опыте копирования за другими, и как действую уже года 3.
Помню в 2021 году подписывался на разные трейдинговые каналы и источники, где описывались активности.
На торговлю средств было немного, поэтому и не участвовал особо: просто следил.
Но вот в плане аэрдропов - было дело!
Представьте ситуацию:
Открываю я Galxe (сайт с квестами), и начинаю проходить задания.
А ведь в некоторых из них было по 50 действий с 30 лайками и ретвитами. Да ещё и требовалось процитировать двух друзей иногда. В какой-то момент понимаешь, что работаешь SMM-щиком-спамером за обещание 🙂.
В общем, времени на это уходило куча.
А в итоге за это получил мало, если вообще что получил.
Основной источник прибыли был совсем в ином направлении аэрдропов.
То есть даже здесь я потерял зря время, повторюшничая 🙂.
Что уж говорить о торговле:
1. Когда вам советуют, могут рекламировать свои просевшие портфели.
А то и вовсе советовать токен тех, кто автору заплатил.
И я не говорю уже про всякие мошеннические схемы. Например, человек покупает опубликованный токен, а его после роста продают. Поскольку люди покупают последними, теряют.
2. Автор, каким бы он профессионалом не был, не может знать рыночную ситуацию.
Допустим, ему нравится $TAO. Он видит перспективу проекта: ИИ актуален, это основа многого в этой сфере, …
Но BTC падает из-за какой-то очень негативной новости (вспомните Ковид в марте 2020 и крах Ftx в 2022) и цена токена рушится вслед за Биткоином.
Результат: читатель разочарован, так как он получил существенный убыток.
Да: проект может существовать. И вполне реален рост в 2-5-10 раз от падения. Но не факт, что это покроет убыток из-за такого паник-сейла.
И конечно не забываем про то, что ситуации бывают разными. Например, какой-то классный проект теряет спрос на свой функционал = падает = пользователи уходят. А на момент аналитики это может быть перспективным.
И напоследок про DeFi.
Это ещё одна категория авторов / китов, за которыми повторяют.
Тут нельзя вестись на большие APY и APR: чем больше доходность, тем больше рисков. Например, волатильность (для не стейблов или слабый алгоритм стейблкоина).
Почему я объединяю авторов и китов в одну группу?
Всё просто:
1. Когда вы следите за авторами каналов, копируете действия на основе их слов.
2. Когда повторяете за китами, смотрите их портфолио с их доходностями и действиями.
Допустим, видите вы APY 40% на стейбл-пару у кита. Вкладываетесь.
А для него это 0.1% от портфеля, которые он вложил в сверх рисковый AMM dex в непонятной сети.
Как я действую:
Не читаю советов.
- В случае дропов соизмеряю время и возможный доход. Всегда надо понимать, что могут дать < 100 $.
- В случае покупки и инвестиций вовсе сам анализирую проекты, смотрю на разное без следования. И главное: диверсифицирую (иначе можно профукать существенную часть баланса из-за взлома нейронкой старого протокола).
Почему я не даю советов по инвестированию в токены или проекты?
Причины описал выше. Человеческий фактор всегда присутствует: лучше, если вы сами изучите результаты моей аналитики или даже сделаете свой, после чего примете решение об участии.
А вы повторяли за китами / инфлюенсерами при инвестировании? Если да, каковы были результаты? Давно ли занимались копированием действий?
😎 Незрячий web3 программист (подписаться)
Чат | бот
📟 Прилетело из @blind_dev
Я сам через это проходил.
Здесь расскажу о своём опыте копирования за другими, и как действую уже года 3.
Помню в 2021 году подписывался на разные трейдинговые каналы и источники, где описывались активности.
На торговлю средств было немного, поэтому и не участвовал особо: просто следил.
Но вот в плане аэрдропов - было дело!
Представьте ситуацию:
Открываю я Galxe (сайт с квестами), и начинаю проходить задания.
А ведь в некоторых из них было по 50 действий с 30 лайками и ретвитами. Да ещё и требовалось процитировать двух друзей иногда. В какой-то момент понимаешь, что работаешь SMM-щиком-спамером за обещание 🙂.
В общем, времени на это уходило куча.
А в итоге за это получил мало, если вообще что получил.
Основной источник прибыли был совсем в ином направлении аэрдропов.
То есть даже здесь я потерял зря время, повторюшничая 🙂.
Что уж говорить о торговле:
1. Когда вам советуют, могут рекламировать свои просевшие портфели.
А то и вовсе советовать токен тех, кто автору заплатил.
И я не говорю уже про всякие мошеннические схемы. Например, человек покупает опубликованный токен, а его после роста продают. Поскольку люди покупают последними, теряют.
2. Автор, каким бы он профессионалом не был, не может знать рыночную ситуацию.
Допустим, ему нравится $TAO. Он видит перспективу проекта: ИИ актуален, это основа многого в этой сфере, …
Но BTC падает из-за какой-то очень негативной новости (вспомните Ковид в марте 2020 и крах Ftx в 2022) и цена токена рушится вслед за Биткоином.
Результат: читатель разочарован, так как он получил существенный убыток.
Да: проект может существовать. И вполне реален рост в 2-5-10 раз от падения. Но не факт, что это покроет убыток из-за такого паник-сейла.
И конечно не забываем про то, что ситуации бывают разными. Например, какой-то классный проект теряет спрос на свой функционал = падает = пользователи уходят. А на момент аналитики это может быть перспективным.
И напоследок про DeFi.
Это ещё одна категория авторов / китов, за которыми повторяют.
Тут нельзя вестись на большие APY и APR: чем больше доходность, тем больше рисков. Например, волатильность (для не стейблов или слабый алгоритм стейблкоина).
Почему я объединяю авторов и китов в одну группу?
Всё просто:
1. Когда вы следите за авторами каналов, копируете действия на основе их слов.
2. Когда повторяете за китами, смотрите их портфолио с их доходностями и действиями.
Допустим, видите вы APY 40% на стейбл-пару у кита. Вкладываетесь.
А для него это 0.1% от портфеля, которые он вложил в сверх рисковый AMM dex в непонятной сети.
Как я действую:
Не читаю советов.
- В случае дропов соизмеряю время и возможный доход. Всегда надо понимать, что могут дать < 100 $.
- В случае покупки и инвестиций вовсе сам анализирую проекты, смотрю на разное без следования. И главное: диверсифицирую (иначе можно профукать существенную часть баланса из-за взлома нейронкой старого протокола).
Почему я не даю советов по инвестированию в токены или проекты?
Причины описал выше. Человеческий фактор всегда присутствует: лучше, если вы сами изучите результаты моей аналитики или даже сделаете свой, после чего примете решение об участии.
А вы повторяли за китами / инфлюенсерами при инвестировании? Если да, каковы были результаты? Давно ли занимались копированием действий?
😎 Незрячий web3 программист (подписаться)
Чат | бот
📟 Прилетело из @blind_dev
Начинаю бета-тест моего проекта
Если вы помните, в прошлом году я активно занимался сбором аудиторских отчетов, извлечением из них описаний уязвимостей и формированием базы данных для работы с нейронными сетями. На днях эта работа была завершена, и я перехожу к этапу закрытого бета-тестирования. В связи с этим хотел бы обратиться к вам с просьбой помочь в «прогоне» системы.
Сначала я вкратце расскажу о проекте, а в конце дам инвайты для регистрации и поясню, что именно нужно проверить.
HornetMCP — это MCP/API-сервер, который реализует поиск уязвимостей, схожих с запросом пользователя. Однако, в отличие от стандартных API (таких, как Solodit), работающих на основе ключевых слов и тегов, здесь используется векторное сходство данных.
Как это работает на практике?
1. Пользователь отправляет в базу данных запрос, содержащий пример функции и контекст — что она делает, за что отвечает, что нужно проверить и т.д.
2. Запрос преобразуется в эмбеддинги — то есть переводится в векторное пространство.
3. Полученные векторы сравниваются с векторами (эмбеддингами), хранящимися в базе данных.
4. Система выбирает 5–10 наиболее похожих векторов и возвращает пользователю соответствующие отчеты, из которых эти векторы были получены.
5. В случае использования через MCP (например, с Claude) нейросеть самостоятельно проводит дальнейший анализ функции и выдает результат. При работе через API пользователь получает непосредственно отчеты. Также доступно тестовое чат-окно для разового запроса, который анализирует найденные отчеты (промт пока в доработке). Кроме того, чат использует бесплатную модель DeepSeek R1T2 Chimera - поэтому работа чуть медленнее обычного чата и немного хуже ответы, чем в Claude или ChatGPT.
Здесь важно сразу уточнить, чтобы избежать недопонимания: это не анализатор кода. Система не проводит анализ и не формирует уязвимости автоматически. Если вы передадите ей функцию, она вернет только похожие отчеты, в которых могли встречаться аналогичные паттерны.
Почему я решил создать этот проект? Было несколько причин. Во-первых, я хотел глубже погрузиться в работу с нейросетями и RAG. Во-вторых, в ходе аудита смарт-контрактов я регулярно сталкивался с вопросами вроде: «Были ли уже подобные уязвимости?», «Не упускаю ли я важный паттерн?», «Есть ли скрытые проблемы?» — иными словами, мне хотелось получать больше идей и гипотез для проверки. Solodit, например, предлагает хороший фильтр, но он работает по ключевым словам и тегам. Вставить функцию и получить релевантные отчеты на основе семантики там нельзя. А векторный поиск как раз решает эту задачу.
Сейчас я ищу участников канала, которые в своей работе используют нейросети и MCP-серверы — для разработки контрактов или для аудита. Необходимо протестировать работу проекта, его стабильность и качество векторного поиска отчетов. В идеале — если вы будете использовать проект вместе с Claude или другой LLM, поддерживающей MCP: это обеспечит максимальную эффективность.
Для регистрации потребуется подтверждение email (я параллельно тестирую сервис Resend для отправки писем). Также нужно будет сформировать APIKey для отправки запросов через MCP/API.
Сайт проекта — https://hornetmcp.com/
Инвайт — solidityset
Количество инвайтов ограничено 10 регистрациями — проект находится в стадии беты, и я понимаю, что не так много участников канала активно используют MCP-серверы.
Все комментарии и замечания можно направлять в группу под этим постом.
Спасибо всем, кто примет участие в тестировании!
#hornetmcp
📟 Прилетело из @solidityset
Если вы помните, в прошлом году я активно занимался сбором аудиторских отчетов, извлечением из них описаний уязвимостей и формированием базы данных для работы с нейронными сетями. На днях эта работа была завершена, и я перехожу к этапу закрытого бета-тестирования. В связи с этим хотел бы обратиться к вам с просьбой помочь в «прогоне» системы.
Сначала я вкратце расскажу о проекте, а в конце дам инвайты для регистрации и поясню, что именно нужно проверить.
HornetMCP — это MCP/API-сервер, который реализует поиск уязвимостей, схожих с запросом пользователя. Однако, в отличие от стандартных API (таких, как Solodit), работающих на основе ключевых слов и тегов, здесь используется векторное сходство данных.
Как это работает на практике?
1. Пользователь отправляет в базу данных запрос, содержащий пример функции и контекст — что она делает, за что отвечает, что нужно проверить и т.д.
2. Запрос преобразуется в эмбеддинги — то есть переводится в векторное пространство.
3. Полученные векторы сравниваются с векторами (эмбеддингами), хранящимися в базе данных.
4. Система выбирает 5–10 наиболее похожих векторов и возвращает пользователю соответствующие отчеты, из которых эти векторы были получены.
5. В случае использования через MCP (например, с Claude) нейросеть самостоятельно проводит дальнейший анализ функции и выдает результат. При работе через API пользователь получает непосредственно отчеты. Также доступно тестовое чат-окно для разового запроса, который анализирует найденные отчеты (промт пока в доработке). Кроме того, чат использует бесплатную модель DeepSeek R1T2 Chimera - поэтому работа чуть медленнее обычного чата и немного хуже ответы, чем в Claude или ChatGPT.
Здесь важно сразу уточнить, чтобы избежать недопонимания: это не анализатор кода. Система не проводит анализ и не формирует уязвимости автоматически. Если вы передадите ей функцию, она вернет только похожие отчеты, в которых могли встречаться аналогичные паттерны.
Почему я решил создать этот проект? Было несколько причин. Во-первых, я хотел глубже погрузиться в работу с нейросетями и RAG. Во-вторых, в ходе аудита смарт-контрактов я регулярно сталкивался с вопросами вроде: «Были ли уже подобные уязвимости?», «Не упускаю ли я важный паттерн?», «Есть ли скрытые проблемы?» — иными словами, мне хотелось получать больше идей и гипотез для проверки. Solodit, например, предлагает хороший фильтр, но он работает по ключевым словам и тегам. Вставить функцию и получить релевантные отчеты на основе семантики там нельзя. А векторный поиск как раз решает эту задачу.
Сейчас я ищу участников канала, которые в своей работе используют нейросети и MCP-серверы — для разработки контрактов или для аудита. Необходимо протестировать работу проекта, его стабильность и качество векторного поиска отчетов. В идеале — если вы будете использовать проект вместе с Claude или другой LLM, поддерживающей MCP: это обеспечит максимальную эффективность.
Для регистрации потребуется подтверждение email (я параллельно тестирую сервис Resend для отправки писем). Также нужно будет сформировать APIKey для отправки запросов через MCP/API.
Сайт проекта — https://hornetmcp.com/
Инвайт — solidityset
Количество инвайтов ограничено 10 регистрациями — проект находится в стадии беты, и я понимаю, что не так много участников канала активно используют MCP-серверы.
Все комментарии и замечания можно направлять в группу под этим постом.
Спасибо всем, кто примет участие в тестировании!
#hornetmcp
📟 Прилетело из @solidityset
Рассказал
• как устроены AI агенты
• как с ними норм прогать
• как работать с контекстом
• как прогать тг голосовухами
🔗 habr.com/ru/articles/987382/
посмотрим, насколько аудитория habr консерватина
В конце статьи бахнул опрос про любимый агент, результаты пока ожидаемы.
📟 Прилетело из @danokhlopkov
• как устроены AI агенты
• как с ними норм прогать
• как работать с контекстом
• как прогать тг голосовухами
🔗 habr.com/ru/articles/987382/
посмотрим, насколько аудитория habr консерватина
В конце статьи бахнул опрос про любимый агент, результаты пока ожидаемы.
📟 Прилетело из @danokhlopkov
#predictions #OxygenDelta #обновления
Залили обновление, которое делает таблицу не просто сканером, а инструментом для нормальной работы со сделками.
👀 Что добавили
— Новая версия анализа событий
Алгоритм стал точнее: больше реальных возможностей.
— Таймаут для событий
Вы можете скрыть на время маркет, который вам мешает (например если там не зайти на нужный вам размер).
— Новый дизайн / более удобный UI
Быстрее читать таблицу, проще принимать решение, меньше кликов.
— Трекер портфолио
Теперь Oxygen Delta умеет отслеживать ваши позиции и спред внутри них - то есть вы видите не только вход, но и когда сделка становится удобной для выхода.
💪 Почему это важно
Многие говорили: "какой смысл, если событие может висеть годами".
С трекером это перестаёт быть проблемой: вы просто наблюдаете, когда спред выровняется и закрываете позицию лимитками в удобный момент. Чтобы отслеживать сделки нужно добавить адреса аккаунтов.
Потестить можно тут:
https://oxygendelta.com
https://oxygendelta.com
https://oxygendelta.com
📟 Прилетело из @oxygen_tools
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Вайб статистика @blockwallbot
Дал DATABASE_URL Клоду и сказал — посчитай там продуктовые метрики по боту какие считаешь важными.
В конце он предложил: а хочешь я видео сделаю?
И тут я ошалел. Но потом вспомнил, что сегодня увидел твит от remotion и добавил их скил. Слежу за ними уже давно.
Через 7 минут мне присылается файл. Смотрим:
📟 Прилетело из @danokhlopkov
Дал DATABASE_URL Клоду и сказал — посчитай там продуктовые метрики по боту какие считаешь важными.
В конце он предложил: а хочешь я видео сделаю?
И тут я ошалел. Но потом вспомнил, что сегодня увидел твит от remotion и добавил их скил. Слежу за ними уже давно.
Через 7 минут мне присылается файл. Смотрим:
📟 Прилетело из @danokhlopkov
Еще инвайты
Добавил еще 10 инвайтов для теста моего проекта. Если кто хотел, но не успел - это ваш шанс!
Инвайт тот же -
Буду рад отзывам!
#hornetmcp
📟 Прилетело из @solidityset
Добавил еще 10 инвайтов для теста моего проекта. Если кто хотел, но не успел - это ваш шанс!
Инвайт тот же -
soliditysetБуду рад отзывам!
#hornetmcp
📟 Прилетело из @solidityset
Этот подход аналитики спас меня от излишней веры в один проект.
Ниже — как я оцениваю проекты по системе 4К+ и почему в этом случае это помогло избежать лишних потерь.
В прошлом году проводил трансляцию с обзором Lighter.
Если кто не помнит - это perp и спот dex на базе zk роллапа Ethereum (сеть второго уровня).
Я там поставил оценку 15 из 25. В основном из-за разделов "Коин" - 2 из 5 (токеномики не было тогда) и "Код" - 1 из 5 (он закрыт).
Поэтому участвовал без напряга и без надежды на чудо.
К счастью, при таком подходе я почти ничего не потерял — и при этом получил хороший дроп.
Но сейчас $LIT себя показывает слабо (упал с 3.2 $ до $1.6).
Да и судя по данным, прибыль протокола сильно просела.
Значит мой аудит подтверждается: проект не очень, каким бы он интересным технически не был.
Если бы не разобрал проект заранее, я бы держал токены и продавал их по 20% со временем.
Я даже прикидывал такой сценарий: итог был бы на несколько процентов хуже текущего из-за падения цены.
А теперь — о том, как я оцениваю проекты и почему использую 4К+.
Благодарю Владимира Менаскопа за идею. Она у него называлась 4К, и состояла из списка вопросов.
Я её адаптировал, сделав более современной (например, сейчас нет смысла ставить балл за наличие проекта на форуме Bitcointalk).
Символ плюса же - это за практику.
Я считаю, что важно оценить и качество веб приложения. Если его нет, продуктом это назвать сложно — а значит, и говорить о клиентах и прибыли рано.
Остальные же разделы такие же:
1. Команда: профессионализм на основе опыта и соцсети (активность, ответы на вопросы и их корректность).
2. Концепт: документация (её качество и полнота). А также есть ли анализ спроса и конкурентов.
3. Коин - токеномика, инвестиции (от известных ли фондов, и нет ли у них большинства проектов с просадками больше чем на 90%).
Ещё хочу добавить ончейн анализ для существующих активов: если они централизованы на десяти кошельках - это минус проекту.
4. Код - открыт ли, активна разработка и есть ли аудиты (решены ли проблемы в них).
5. Практика - работает ли функционал, нет ли скрытых комиссий и насколько всё удобно.
Для меня важна и доступность для незрячих (элементы текстовые, есть блоки), но в рамках аналитики это не считаю важным: тут цель - определить параметры для всех.
А у вас есть формализованный подход к анализу проектов или он у вас скорее интуитивный?
😎 Незрячий web3 программист (подписаться)
Чат | бот
📟 Прилетело из @blind_dev
Ниже — как я оцениваю проекты по системе 4К+ и почему в этом случае это помогло избежать лишних потерь.
В прошлом году проводил трансляцию с обзором Lighter.
Если кто не помнит - это perp и спот dex на базе zk роллапа Ethereum (сеть второго уровня).
Я там поставил оценку 15 из 25. В основном из-за разделов "Коин" - 2 из 5 (токеномики не было тогда) и "Код" - 1 из 5 (он закрыт).
Поэтому участвовал без напряга и без надежды на чудо.
К счастью, при таком подходе я почти ничего не потерял — и при этом получил хороший дроп.
Но сейчас $LIT себя показывает слабо (упал с 3.2 $ до $1.6).
Да и судя по данным, прибыль протокола сильно просела.
Значит мой аудит подтверждается: проект не очень, каким бы он интересным технически не был.
Если бы не разобрал проект заранее, я бы держал токены и продавал их по 20% со временем.
Я даже прикидывал такой сценарий: итог был бы на несколько процентов хуже текущего из-за падения цены.
А теперь — о том, как я оцениваю проекты и почему использую 4К+.
Благодарю Владимира Менаскопа за идею. Она у него называлась 4К, и состояла из списка вопросов.
Я её адаптировал, сделав более современной (например, сейчас нет смысла ставить балл за наличие проекта на форуме Bitcointalk).
Символ плюса же - это за практику.
Я считаю, что важно оценить и качество веб приложения. Если его нет, продуктом это назвать сложно — а значит, и говорить о клиентах и прибыли рано.
Остальные же разделы такие же:
1. Команда: профессионализм на основе опыта и соцсети (активность, ответы на вопросы и их корректность).
2. Концепт: документация (её качество и полнота). А также есть ли анализ спроса и конкурентов.
3. Коин - токеномика, инвестиции (от известных ли фондов, и нет ли у них большинства проектов с просадками больше чем на 90%).
Ещё хочу добавить ончейн анализ для существующих активов: если они централизованы на десяти кошельках - это минус проекту.
4. Код - открыт ли, активна разработка и есть ли аудиты (решены ли проблемы в них).
5. Практика - работает ли функционал, нет ли скрытых комиссий и насколько всё удобно.
Для меня важна и доступность для незрячих (элементы текстовые, есть блоки), но в рамках аналитики это не считаю важным: тут цель - определить параметры для всех.
А у вас есть формализованный подход к анализу проектов или он у вас скорее интуитивный?
😎 Незрячий web3 программист (подписаться)
Чат | бот
📟 Прилетело из @blind_dev
Кого там еще обещает заменить AI?
Именно этим мы сегодня и займемся!
— ваши проекты и планы
— ваши дневники, мысли и переживания
— ссылки на ваши соцсети (попросите собрать тексты - пригодятся)
Поздравляю, вы сделали жалкое подобие себя любимого, только умнее, гуглит быстрее и код пишет лучше.
Леха обещал поподробнее расписать про свой сетап.
Не забываем про организацию по папочкам и ссылки между файлами, чтобы агент смог найти и подгрузить в контекст только нужное.
Я еще положил в корне CLAUDE.md и явно попросил не редактировать мои сырые заметки и мысли, только править форматирование и расставлять ссылки между файлами.
В итоге организовывается личная база знаний, которой можно задавать вопросы:
И многие многие другое. Ограничение — только ваша фантазия, ваш кругозор, который вы успели набрать до этой сингулярности. Не забываем также про интеграции и автоматизации по вкусу. Организуй своего агента сам!
Список для чтения: сетап других
github.com/danielmiessler/Personal_AI_Infrastructure
Теория
github.com/heyitsnoah/claudesidian
claude + obsidian template
youtube.com/watch?v=8V9tZwgjiRs
какой-то умный чел рассказывает, как юзает AI as a thinking partner
clawd.bot
опенсорс AI бот с кучей интеграций и автоматизаций
Перешли его в Избранное, чтобы никогда не открыть. Напиши в комменты про свой сетап!
📟 Прилетело из @danokhlopkov
Please open Telegram to view this post
VIEW IN TELEGRAM
Noise: карманный проект Paradigm?
Noise — очередной предикт, но не совсем. Проект будет представлять из себя DEX с возможностью открытия позиций по трендам (грубо говоря Google Trends с плечом).
Недавно проект собрал 7.1M$ от Paradigm (самый щедрый по дропам фонд).
Сейчас они на стадии закрытого тестнета, а доступ можно получить только за активности в Discord и Twitter.
Как поучаствовать?
> Вступаем в Discord и подписываемся на X
> Делаем контент с данным проектов и выкладываем себе на страницу
> Все ссылки на посты закидываем в ветку #making-noise
WL станет доступом к раннему тестированию, а следовательно и потенциальным наградам (дропу).
Если желания тестировать проект нету, то WL сливают на ОТС по 80$, поэтому лоубанкам точно есть смысл погриндить.
Чат | Support | Market
Pelican | HiddenCode [EN]
📟 Прилетело из @hidden_coding
Noise — очередной предикт, но не совсем. Проект будет представлять из себя DEX с возможностью открытия позиций по трендам (грубо говоря Google Trends с плечом).
Недавно проект собрал 7.1M$ от Paradigm (самый щедрый по дропам фонд).
Сейчас они на стадии закрытого тестнета, а доступ можно получить только за активности в Discord и Twitter.
Как поучаствовать?
> Вступаем в Discord и подписываемся на X
> Делаем контент с данным проектов и выкладываем себе на страницу
> Все ссылки на посты закидываем в ветку #making-noise
WL станет доступом к раннему тестированию, а следовательно и потенциальным наградам (дропу).
Если желания тестировать проект нету, то WL сливают на ОТС по 80$, поэтому лоубанкам точно есть смысл погриндить.
Чат | Support | Market
Pelican | HiddenCode [EN]
📟 Прилетело из @hidden_coding
Алгоритмы. Пузырьковая сортировка
Продолжаем наше изучение алгоритмов и сегодня начнем разбирать пузырьковой сортировки, один из наиболее наглядных методов упорядочивания данных. Идея сортировки в целом подобна приведению в порядок перепутанной колоды карт, когда требуется расположить элементы от меньшего к большему или наоборот. В программировании эта задача возникает постоянно: будь то числа, строки или другие данные, требующие определённой последовательности. Например, изначальный список
Название "пузырьковая" отражает суть процесса: более лёгкие элементы, подобно пузырькам воздуха в воде, постепенно всплывают к началу списка, в то время как тяжёлые опускаются в конец. Алгоритм построен на простом принципе: последовательно сравниваются соседние элементы, и если они расположены в неправильном порядке, происходит их обмен. Эти действия повторяются до тех пор, пока весь массив не будет упорядочен.
Для лучшего понимания разберём визуальный пример сортировки списка
Теперь перейдём к программной реализации. Код функции пузырьковой сортировки на Python выглядит следующим образом:
Разберём каждую часть. Функция
Внутренний цикл
Внутри внутреннего цикла условие
Для демонстрации работы приведём полный пример:
📟 Прилетело из @solidityset
Продолжаем наше изучение алгоритмов и сегодня начнем разбирать пузырьковой сортировки, один из наиболее наглядных методов упорядочивания данных. Идея сортировки в целом подобна приведению в порядок перепутанной колоды карт, когда требуется расположить элементы от меньшего к большему или наоборот. В программировании эта задача возникает постоянно: будь то числа, строки или другие данные, требующие определённой последовательности. Например, изначальный список
[64, 34, 25, 12, 22] после сортировки превращается в [12, 22, 25, 34, 64].Название "пузырьковая" отражает суть процесса: более лёгкие элементы, подобно пузырькам воздуха в воде, постепенно всплывают к началу списка, в то время как тяжёлые опускаются в конец. Алгоритм построен на простом принципе: последовательно сравниваются соседние элементы, и если они расположены в неправильном порядке, происходит их обмен. Эти действия повторяются до тех пор, пока весь массив не будет упорядочен.
Для лучшего понимания разберём визуальный пример сортировки списка
[5, 3, 8, 4, 2] по возрастанию. В первом проходе сравниваются 5 и 3 — поскольку 5 больше 3, они меняются местами, и список становится [3, 5, 8, 4, 2]. Далее 5 и 8 остаются на своих местах, так как 5 меньше 8. Затем 8 и 4 обмениваются, получается [3, 5, 4, 8, 2]. Наконец, 8 и 2 также меняются, и результат первого прохода — [3, 5, 4, 2, 8]. Обратите внимание, что самое большое число 8 оказалось в конце, заняв свою окончательную позицию. Второй проход перемещает 5 на предпоследнее место: после сравнений и обменов список принимает вид [3, 4, 2, 5, 8]. Третий проход ставит на место 4: [3, 2, 4, 5, 8]. Четвёртый проход завершает сортировку, обменяв 3 и 2, и итоговый результат — [2, 3, 4, 5, 8].Теперь перейдём к программной реализации. Код функции пузырьковой сортировки на Python выглядит следующим образом:
def bubble_sort(arr):
"""Пузырьковая сортировка списка."""
n = len(arr)
for i in range(n):
swapped = False
for j in range(0, n - i - 1):
if arr[j] > arr[j + 1]:
arr[j], arr[j + 1] = arr[j + 1], arr[j]
swapped = True
if not swapped:
break
return arr
Разберём каждую часть. Функция
bubble_sort принимает список arr. Переменная n хранит его длину. Внешний цикл for i in range(n) определяет количество полных проходов по списку. Внутри него устанавливается флаг swapped = False, который отслеживает, были ли совершены обмены во время текущего прохода. Это важная оптимизация: если обменов не произошло, список уже отсортирован, и дальнейшие проходы не нужны.Внутренний цикл
for j in range(0, n - i - 1) отвечает за попарное сравнение соседних элементов. Выражение n - i - 1 ограничивает диапазон, потому что после каждого прохода самый крупный элемент "всплывает" в конец, и проверять его уже не требуется. Например, для списка из пяти элементов при первом проходе (i = 0) будут сравниваться пары с индексами от 0 до 3, при втором (i = 1) — от 0 до 2, и так далее.Внутри внутреннего цикла условие
if arr[j] > arr[j + 1]: проверяет, стоит ли текущий элемент правее, чем следующий. Если да, то с помощью конструкции arr[j], arr[j + 1] = arr[j + 1], arr[j] элементы меняются местами, а флаг swapped устанавливается в True. После завершения внутреннего цикла проверяется значение флага: если он остался False, что означает отсутствие обменов, внешний цикл прерывается оператором break. В конце функция возвращает отсортированный список.Для демонстрации работы приведём полный пример:
📟 Прилетело из @solidityset
def bubble_sort(arr):
n = len(arr)
for i in range(n):
swapped = False
for j in range(0, n - i - 1):
if arr[j] > arr[j + 1]:
arr[j], arr[j + 1] = arr[j + 1], arr[j]
swapped = True
if not swapped:
break
return arr
# Пример 1: Обычная сортировка
data1 = [64, 34, 25, 12, 22, 11, 90]
print(bubble_sort(data1.copy()))
# Результат: [11, 12, 22, 25, 34, 64, 90]
# Пример 2: Уже отсортированный список
data2 = [1, 2, 3, 4, 5]
print(bubble_sort(data2.copy()))
# Результат: [1, 2, 3, 4, 5]
# Пример 3: Обратный порядок
data3 = [5, 4, 3, 2, 1]
print(bubble_sort(data3.copy()))
# Результат: [1, 2, 3, 4, 5]
Чтобы лучше проследить за ходом алгоритма, можно использовать визуализированную версию:
def bubble_sort_visualized(arr):
n = len(arr)
print(f"Начальный список: {arr}")
print()
for i in range(n):
print(f"=== Проход {i + 1} ===")
swapped = False
for j in range(0, n - i - 1):
print(f"Сравниваем {arr[j]} и {arr[j + 1]}", end=" ")
if arr[j] > arr[j + 1]:
arr[j], arr[j + 1] = arr[j + 1], arr[j]
swapped = True
print(f"→ Меняем! Теперь: {arr}")
else:
print(f"→ Оставляем")
if not swapped:
print("Обменов не было, список отсортирован!")
break
print()
print(f"\nИтоговый список: {arr}")
return arr
data = [5, 2, 8, 1, 9]
bubble_sort_visualized(data)
Одним из недостатков пузырьковой сортировки является её низкая эффективность на больших наборах данных. Сложность алгоритма в худшем и среднем случае оценивается как O(n²), где n — количество элементов. Это означает, что с ростом размера списка количество необходимых операций сравнения и обмена растёт квадратично. Например, для тысячи элементов может потребоваться около миллиона сравнений, в то время как более совершенные алгоритмы, такие как быстрая сортировка, справляются с этой задачей за порядка двадцати тысяч операций. Именно поэтому пузырьковая сортировка, при всей своей простоте и наглядности, не применяется в реальных проектах с большими объёмами данных.
Алгоритм можно модифицировать для сортировки по убыванию. Для этого достаточно изменить условие сравнения с
> на <, чтобы более мелкие элементы перемещались вправо:def bubble_sort_descending(arr):
"""Пузырьковая сортировка в порядке УБЫВАНИЯ."""
n = len(arr)
for i in range(n):
swapped = False
for j in range(0, n - i - 1):
if arr[j] < arr[j + 1]:
arr[j], arr[j + 1] = arr[j + 1], arr[j]
swapped = True
if not swapped:
break
return arr
data1 = [64, 34, 25, 12, 22, 11, 90]
print(bubble_sort_descending(data1.copy()))
# Результат: [90, 64, 34, 25, 22, 12, 11]
Также можно создать универсальную функцию, принимающую параметр
reverse для выбора направления сортировки.В заключение, пузырьковая сортировка служит отличным учебным инструментом для понимания базовых принципов алгоритмов сортировки. Она проста для восприятия и реализации, корректно работает на любых данных, но из-за квадратичной сложности неприменима для серьёзных задач. Её изучение даёт необходимую основу для перехода к более эффективным алгоритмам.
#algorithm
📟 Прилетело из @solidityset
В нашем чате @og_mishgun разгонал фомо про beads (таск-трекер для агентов) и gas town (оркестрацию десятков агентов).
Стал рисерчить, что из этого реально стоит попробовать:
🍭 beads показался очень нативным и минималистичным: просто ведет таски в .jsonl, структурирует, декомпозирует, позволяет доводить дело до конца, а не бросать на полпути. Все хранится в твоем же репе, контекст не теряется, вроде удобно.
🍭 gas town напротив: куча файлов и ролей (какой еще мэр и конвой?). и я решил, что это мне не нужно.
Я всегда очень скептически отношусь к таким вот фреймворкам вокруг агентов: по-хорошему их надо сидеть изучать, читать их промпты, чтобы правильно использовать as designed. Это на самом деле очень полезно: понять, что придумывают другие люди (см personal AI).
Но вместо того, чтобы взять и “установить” себе кучу чужих файлов, промптов и MCP в контекст, я лучше черри-пикаю то, что действительно нужно, собирая своего агента и минимизируя мусор. И не загоняю свой мысленный паровоз на чужие рельсы.
К тому же индустрия развивается буквально на глазах: все самые лучше практики быстро добавляются в Claude Code: вот сегодня вышел анонс что “beads реально крутая тема, мы вдохновились и обновили свои todo в полноценный task tracker”. Всё: теперь нужно обратно выпиливать beads, ведь эксперты из Anthropic с бесконечными токенами на тесты уж явно лучше запрогают свой же тул. К тому же, first-party is the best party.
🥤 Бустаните канал, плиз: хочу больше реакций добавить и автоперевод постов 👉👈
📟 Прилетело из @danokhlopkov
Стал рисерчить, что из этого реально стоит попробовать:
Я всегда очень скептически отношусь к таким вот фреймворкам вокруг агентов: по-хорошему их надо сидеть изучать, читать их промпты, чтобы правильно использовать as designed. Это на самом деле очень полезно: понять, что придумывают другие люди (см personal AI).
Но вместо того, чтобы взять и “установить” себе кучу чужих файлов, промптов и MCP в контекст, я лучше черри-пикаю то, что действительно нужно, собирая своего агента и минимизируя мусор. И не загоняю свой мысленный паровоз на чужие рельсы.
К тому же индустрия развивается буквально на глазах: все самые лучше практики быстро добавляются в Claude Code: вот сегодня вышел анонс что “beads реально крутая тема, мы вдохновились и обновили свои todo в полноценный task tracker”. Всё: теперь нужно обратно выпиливать beads, ведь эксперты из Anthropic с бесконечными токенами на тесты уж явно лучше запрогают свой же тул. К тому же, first-party is the best party.
Вывод: изучайте поделки других людей, но обустройте себе агента сами. Чужое legacy вам не нужно.
📟 Прилетело из @danokhlopkov
Please open Telegram to view this post
VIEW IN TELEGRAM
#Ethereal #PerpLand #полезное
Вчера проект раздал 200M поинтов. Теперь это количество будет фиксированным каждую неделю, раньше значение было плавающим.
Кроме этого ретроспективно распределили 125M поинтов за каждую неделю от 1 до 10, наши аккаунты получили прибавку к поинтам в 10-30%, хотя мы начали всего 2 недели назад.
😏 Наша статистика
Объем: $287k
Поинты: 20 968
Цена за поинт: 0.0035
Торговал в основном BTC, немного ETH/SOL. 30-40 сделок, держались примерно 20-40 минут.
Объем: $300k
Поинты: 30 362
Цена за поинт: 0.003
Торговал примерно тем же размером, но держал позиции по 1-2 часа, и в итоге получил 30к поинтов.
Вывод простой: больше всего поинтов Ethereal выделяют на OI (удержание позиций), а не на объём.
Кроме этого можно получать до 27% APR на маржу используемую в открытых позициях. APR зависит от монеты, на BTC это 16%.
🤑 Оптимизируем фарм
Чтобы снизить расходы на поинты:
— держим позиции по 1-2-3 часа и дольше
— заходим на сайзы крупнее, чтобы получать больше APR
— открываем хедж либо на двух других аккаунтах ethereal, либо на другой площадке (extended, pacifica, aster и др.)
Так мы будем получать максимум ревардов:
— поинты Ethereal
— поинты на втором перпе (если хеджить 1:1)
— APR на маржу (тот самый USDe APR)
Ethereal это по сути проект Ethena, только со своей командой. Все связи, партнерства и другие ресурсы Ethena им доступны. Команда собирается активнее заняться маркетингом и привлекать больше пользователей на платформу, это точно скажется на цене поинта, поэтому если вы собирались крутить - не затягивайте.
Легче всего начать отработку нашим софтом: ТЫК🔗
❤️ Бонусы для вас
Вход в приложение только по инвайтам, можете использовать этот код:
https://app.ethereal.trade/?ref=TNIB5X6BEAET
https://app.ethereal.trade/?ref=TNIB5X6BEAET
https://app.ethereal.trade/?ref=TNIB5X6BEAET
https://t.iss.one/OduLandBot
📟 Прилетело из @oxygen_tools
Please open Telegram to view this post
VIEW IN TELEGRAM
Как я разгрёб склад своих работающих ботов на этой неделе.
Смотрю тут на днях, что оперативка заканчивается. И думаю: а всё ли нужно, чтоб работало?
В итоге:
Сначала передал Moni checker bot команде Moni.
Надеюсь, будет им полезен. Во всяком случае были рады получить код.
Логин @MoniCheckerBot принадлежит теперь не мне.
Потом отключил и опубликовал последние изменения @mirrorPostsBot (GitHub).
Причина: включили антибот-систему в Paragraph rss: не получить.
А заморачиваться с браузерами не хочу. Да и сам нашёл другие средства чтения rss.
Если интересно, напишите в комментах - распишу способы.
А далее занялся @price_informerBot.
Уже как-то писал про постраничную навигацию: оказывается она не работала, если туда-сюда листать. Исправил: была ошибка учёта в истории.
И главное:
сделал возможность поиска токенов путём простого ввода в чат с ботом!
Теперь можно просто запустить его и ввести, например, "
Но и конечно "биткоин", "Солана" и т. п. поддерживаются.
Хотя и есть недостаток:
Если ввести "Эфир" ничего не найдёт. $ETH ищет лишь по "Этериум".
Либо, само собой, на Английском: "Ethereum".
Можно также искать по блокчейнам: Hyperliquid, Golos, Minter (вот что я пробовал).
В общем, думаю полезная функция. Приятного использования 😊.
А да! Чуть не забыл:
В @blind_dev_bot исправил историю. Теперь все сообщения, которые пишет пользователь в чат, не сохраняются в историю навигации (только команды). И теперь корректно работает выход из режима "Пригласить в канал" (у одного пользователя из-за нахождения там удалялись сообщения в @blind_dev_chat).
На этом всё. Хороших выходных!
😎 Незрячий web3 программист (подписаться)
Чат | бот
📟 Прилетело из @blind_dev
Смотрю тут на днях, что оперативка заканчивается. И думаю: а всё ли нужно, чтоб работало?
В итоге:
Сначала передал Moni checker bot команде Moni.
Надеюсь, будет им полезен. Во всяком случае были рады получить код.
Логин @MoniCheckerBot принадлежит теперь не мне.
Потом отключил и опубликовал последние изменения @mirrorPostsBot (GitHub).
Причина: включили антибот-систему в Paragraph rss: не получить.
А заморачиваться с браузерами не хочу. Да и сам нашёл другие средства чтения rss.
Если интересно, напишите в комментах - распишу способы.
А далее занялся @price_informerBot.
Уже как-то писал про постраничную навигацию: оказывается она не работала, если туда-сюда листать. Исправил: была ошибка учёта в истории.
И главное:
сделал возможность поиска токенов путём простого ввода в чат с ботом!
Теперь можно просто запустить его и ввести, например, "
Золото" - получите все токены с gold в названиях и тикерах.Но и конечно "биткоин", "Солана" и т. п. поддерживаются.
Хотя и есть недостаток:
Если ввести "Эфир" ничего не найдёт. $ETH ищет лишь по "Этериум".
Либо, само собой, на Английском: "Ethereum".
Можно также искать по блокчейнам: Hyperliquid, Golos, Minter (вот что я пробовал).
В общем, думаю полезная функция. Приятного использования 😊.
А да! Чуть не забыл:
В @blind_dev_bot исправил историю. Теперь все сообщения, которые пишет пользователь в чат, не сохраняются в историю навигации (только команды). И теперь корректно работает выход из режима "Пригласить в канал" (у одного пользователя из-за нахождения там удалялись сообщения в @blind_dev_chat).
На этом всё. Хороших выходных!
😎 Незрячий web3 программист (подписаться)
Чат | бот
📟 Прилетело из @blind_dev
Крипто Devs | Gnezdo Hub
Как сделать своего личного AI ассистента / коуча / ментора
Опубликовал лонгрид про
• почему именно Claude Code
• как сделать личного AI ассистента дома
Поддержите лайкосом комментиком, а я потом сравню выхлопы со статьей на habr
🥱 vc.ru/id505848/2703538-lichnyj-ai-assistent-claude-code
📟 Прилетело из @danokhlopkov
Опубликовал лонгрид про
• почему именно Claude Code
• как сделать личного AI ассистента дома
Поддержите лайкосом комментиком, а я потом сравню выхлопы со статьей на habr
📟 Прилетело из @danokhlopkov
Please open Telegram to view this post
VIEW IN TELEGRAM
Раз среди нас есть любители scraping, поделюсь ещё одной статьёй, которую закончил буквально вчера. Это про сбор данных с amazon, но с помощью стороннего API (про "scraping амазона голыми руками" у меня тоже есть гайд, но там, конечно, будут боль и унижение).
Удобство API в том, что многие вещи уже делаются за вас, и вы можете сфокусироваться именно на работе с данными. https://www.scrapingbee.com/blog/how-to-scrape-amazon-product-data/
📟 Прилетело из @dev_in_ruby_colors
Удобство API в том, что многие вещи уже делаются за вас, и вы можете сфокусироваться именно на работе с данными. https://www.scrapingbee.com/blog/how-to-scrape-amazon-product-data/
📟 Прилетело из @dev_in_ruby_colors
Scrapingbee
Scraping Amazon product data with Python | ScrapingBee
Amazon API scraping made simple: learn how to scrape Amazon product data with Python using structured API responses instead of brittle HTML scraping.