В нашем чате @og_mishgun разгонал фомо про beads (таск-трекер для агентов) и gas town (оркестрацию десятков агентов).
Стал рисерчить, что из этого реально стоит попробовать:
🍭 beads показался очень нативным и минималистичным: просто ведет таски в .jsonl, структурирует, декомпозирует, позволяет доводить дело до конца, а не бросать на полпути. Все хранится в твоем же репе, контекст не теряется, вроде удобно.
🍭 gas town напротив: куча файлов и ролей (какой еще мэр и конвой?). и я решил, что это мне не нужно.
Я всегда очень скептически отношусь к таким вот фреймворкам вокруг агентов: по-хорошему их надо сидеть изучать, читать их промпты, чтобы правильно использовать as designed. Это на самом деле очень полезно: понять, что придумывают другие люди (см personal AI).
Но вместо того, чтобы взять и “установить” себе кучу чужих файлов, промптов и MCP в контекст, я лучше черри-пикаю то, что действительно нужно, собирая своего агента и минимизируя мусор. И не загоняю свой мысленный паровоз на чужие рельсы.
К тому же индустрия развивается буквально на глазах: все самые лучше практики быстро добавляются в Claude Code: вот сегодня вышел анонс что “beads реально крутая тема, мы вдохновились и обновили свои todo в полноценный task tracker”. Всё: теперь нужно обратно выпиливать beads, ведь эксперты из Anthropic с бесконечными токенами на тесты уж явно лучше запрогают свой же тул. К тому же, first-party is the best party.
🥤 Бустаните канал, плиз: хочу больше реакций добавить и автоперевод постов 👉👈
📟 Прилетело из @danokhlopkov
Стал рисерчить, что из этого реально стоит попробовать:
Я всегда очень скептически отношусь к таким вот фреймворкам вокруг агентов: по-хорошему их надо сидеть изучать, читать их промпты, чтобы правильно использовать as designed. Это на самом деле очень полезно: понять, что придумывают другие люди (см personal AI).
Но вместо того, чтобы взять и “установить” себе кучу чужих файлов, промптов и MCP в контекст, я лучше черри-пикаю то, что действительно нужно, собирая своего агента и минимизируя мусор. И не загоняю свой мысленный паровоз на чужие рельсы.
К тому же индустрия развивается буквально на глазах: все самые лучше практики быстро добавляются в Claude Code: вот сегодня вышел анонс что “beads реально крутая тема, мы вдохновились и обновили свои todo в полноценный task tracker”. Всё: теперь нужно обратно выпиливать beads, ведь эксперты из Anthropic с бесконечными токенами на тесты уж явно лучше запрогают свой же тул. К тому же, first-party is the best party.
Вывод: изучайте поделки других людей, но обустройте себе агента сами. Чужое legacy вам не нужно.
📟 Прилетело из @danokhlopkov
Please open Telegram to view this post
VIEW IN TELEGRAM
#Ethereal #PerpLand #полезное
Вчера проект раздал 200M поинтов. Теперь это количество будет фиксированным каждую неделю, раньше значение было плавающим.
Кроме этого ретроспективно распределили 125M поинтов за каждую неделю от 1 до 10, наши аккаунты получили прибавку к поинтам в 10-30%, хотя мы начали всего 2 недели назад.
😏 Наша статистика
Объем: $287k
Поинты: 20 968
Цена за поинт: 0.0035
Торговал в основном BTC, немного ETH/SOL. 30-40 сделок, держались примерно 20-40 минут.
Объем: $300k
Поинты: 30 362
Цена за поинт: 0.003
Торговал примерно тем же размером, но держал позиции по 1-2 часа, и в итоге получил 30к поинтов.
Вывод простой: больше всего поинтов Ethereal выделяют на OI (удержание позиций), а не на объём.
Кроме этого можно получать до 27% APR на маржу используемую в открытых позициях. APR зависит от монеты, на BTC это 16%.
🤑 Оптимизируем фарм
Чтобы снизить расходы на поинты:
— держим позиции по 1-2-3 часа и дольше
— заходим на сайзы крупнее, чтобы получать больше APR
— открываем хедж либо на двух других аккаунтах ethereal, либо на другой площадке (extended, pacifica, aster и др.)
Так мы будем получать максимум ревардов:
— поинты Ethereal
— поинты на втором перпе (если хеджить 1:1)
— APR на маржу (тот самый USDe APR)
Ethereal это по сути проект Ethena, только со своей командой. Все связи, партнерства и другие ресурсы Ethena им доступны. Команда собирается активнее заняться маркетингом и привлекать больше пользователей на платформу, это точно скажется на цене поинта, поэтому если вы собирались крутить - не затягивайте.
Легче всего начать отработку нашим софтом: ТЫК🔗
❤️ Бонусы для вас
Вход в приложение только по инвайтам, можете использовать этот код:
https://app.ethereal.trade/?ref=TNIB5X6BEAET
https://app.ethereal.trade/?ref=TNIB5X6BEAET
https://app.ethereal.trade/?ref=TNIB5X6BEAET
https://t.iss.one/OduLandBot
📟 Прилетело из @oxygen_tools
Please open Telegram to view this post
VIEW IN TELEGRAM
Как я разгрёб склад своих работающих ботов на этой неделе.
Смотрю тут на днях, что оперативка заканчивается. И думаю: а всё ли нужно, чтоб работало?
В итоге:
Сначала передал Moni checker bot команде Moni.
Надеюсь, будет им полезен. Во всяком случае были рады получить код.
Логин @MoniCheckerBot принадлежит теперь не мне.
Потом отключил и опубликовал последние изменения @mirrorPostsBot (GitHub).
Причина: включили антибот-систему в Paragraph rss: не получить.
А заморачиваться с браузерами не хочу. Да и сам нашёл другие средства чтения rss.
Если интересно, напишите в комментах - распишу способы.
А далее занялся @price_informerBot.
Уже как-то писал про постраничную навигацию: оказывается она не работала, если туда-сюда листать. Исправил: была ошибка учёта в истории.
И главное:
сделал возможность поиска токенов путём простого ввода в чат с ботом!
Теперь можно просто запустить его и ввести, например, "
Но и конечно "биткоин", "Солана" и т. п. поддерживаются.
Хотя и есть недостаток:
Если ввести "Эфир" ничего не найдёт. $ETH ищет лишь по "Этериум".
Либо, само собой, на Английском: "Ethereum".
Можно также искать по блокчейнам: Hyperliquid, Golos, Minter (вот что я пробовал).
В общем, думаю полезная функция. Приятного использования 😊.
А да! Чуть не забыл:
В @blind_dev_bot исправил историю. Теперь все сообщения, которые пишет пользователь в чат, не сохраняются в историю навигации (только команды). И теперь корректно работает выход из режима "Пригласить в канал" (у одного пользователя из-за нахождения там удалялись сообщения в @blind_dev_chat).
На этом всё. Хороших выходных!
😎 Незрячий web3 программист (подписаться)
Чат | бот
📟 Прилетело из @blind_dev
Смотрю тут на днях, что оперативка заканчивается. И думаю: а всё ли нужно, чтоб работало?
В итоге:
Сначала передал Moni checker bot команде Moni.
Надеюсь, будет им полезен. Во всяком случае были рады получить код.
Логин @MoniCheckerBot принадлежит теперь не мне.
Потом отключил и опубликовал последние изменения @mirrorPostsBot (GitHub).
Причина: включили антибот-систему в Paragraph rss: не получить.
А заморачиваться с браузерами не хочу. Да и сам нашёл другие средства чтения rss.
Если интересно, напишите в комментах - распишу способы.
А далее занялся @price_informerBot.
Уже как-то писал про постраничную навигацию: оказывается она не работала, если туда-сюда листать. Исправил: была ошибка учёта в истории.
И главное:
сделал возможность поиска токенов путём простого ввода в чат с ботом!
Теперь можно просто запустить его и ввести, например, "
Золото" - получите все токены с gold в названиях и тикерах.Но и конечно "биткоин", "Солана" и т. п. поддерживаются.
Хотя и есть недостаток:
Если ввести "Эфир" ничего не найдёт. $ETH ищет лишь по "Этериум".
Либо, само собой, на Английском: "Ethereum".
Можно также искать по блокчейнам: Hyperliquid, Golos, Minter (вот что я пробовал).
В общем, думаю полезная функция. Приятного использования 😊.
А да! Чуть не забыл:
В @blind_dev_bot исправил историю. Теперь все сообщения, которые пишет пользователь в чат, не сохраняются в историю навигации (только команды). И теперь корректно работает выход из режима "Пригласить в канал" (у одного пользователя из-за нахождения там удалялись сообщения в @blind_dev_chat).
На этом всё. Хороших выходных!
😎 Незрячий web3 программист (подписаться)
Чат | бот
📟 Прилетело из @blind_dev
Крипто Devs | Gnezdo Hub
Как сделать своего личного AI ассистента / коуча / ментора
Опубликовал лонгрид про
• почему именно Claude Code
• как сделать личного AI ассистента дома
Поддержите лайкосом комментиком, а я потом сравню выхлопы со статьей на habr
🥱 vc.ru/id505848/2703538-lichnyj-ai-assistent-claude-code
📟 Прилетело из @danokhlopkov
Опубликовал лонгрид про
• почему именно Claude Code
• как сделать личного AI ассистента дома
Поддержите лайкосом комментиком, а я потом сравню выхлопы со статьей на habr
📟 Прилетело из @danokhlopkov
Please open Telegram to view this post
VIEW IN TELEGRAM
Раз среди нас есть любители scraping, поделюсь ещё одной статьёй, которую закончил буквально вчера. Это про сбор данных с amazon, но с помощью стороннего API (про "scraping амазона голыми руками" у меня тоже есть гайд, но там, конечно, будут боль и унижение).
Удобство API в том, что многие вещи уже делаются за вас, и вы можете сфокусироваться именно на работе с данными. https://www.scrapingbee.com/blog/how-to-scrape-amazon-product-data/
📟 Прилетело из @dev_in_ruby_colors
Удобство API в том, что многие вещи уже делаются за вас, и вы можете сфокусироваться именно на работе с данными. https://www.scrapingbee.com/blog/how-to-scrape-amazon-product-data/
📟 Прилетело из @dev_in_ruby_colors
Scrapingbee
Scraping Amazon product data with Python | ScrapingBee
Amazon API scraping made simple: learn how to scrape Amazon product data with Python using structured API responses instead of brittle HTML scraping.
У вас тоже такое бывает, что понимаете безграничные возможности агентов, но все очевидное уже сделали?
И хотите, чтобы он сам там что-то придумал что полезное делать. Условно промпт «сделай лучше» или «нагенери и воплоти гениальные идеи по проекту»?
А бывает еще такое, что вот он вроде придумал, что еще можно сделать. Написал, расписал, обосновал. А вам лень это читать?
Жиза?
Пришлите в комменты, что вы делаете в таких ситуациях. Мб есть волшебные промты, которые тупо делают лучше. Только то, чем сами пользуетесь.👁️🗨️
📟 Прилетело из @danokhlopkov
И хотите, чтобы он сам там что-то придумал что полезное делать. Условно промпт «сделай лучше» или «нагенери и воплоти гениальные идеи по проекту»?
А бывает еще такое, что вот он вроде придумал, что еще можно сделать. Написал, расписал, обосновал. А вам лень это читать?
Жиза?
Пришлите в комменты, что вы делаете в таких ситуациях. Мб есть волшебные промты, которые тупо делают лучше. Только то, чем сами пользуетесь.
📟 Прилетело из @danokhlopkov
Please open Telegram to view this post
VIEW IN TELEGRAM
Если у тебя нет хотя бы 30 идей того, куда можно интегрировать AI – ngmi!
📟 Прилетело из @insuline_eth
📟 Прилетело из @insuline_eth
i will not die in the toilet
я прошёл все стадии принятия туалетного кодинга: от отрицания до полного принятия.
для максимального комфорта пересел на связку neovim + neovide. накатил туда astro, свой кастомный плагин для работы с проектами и плагин для интеграции с opencode.
почему именно это?
пиздато. бесшовная интеграция, единый дизайн, никаких нареканий. neovim сейчас использую как опциональную часть флоу — в основном для ревью. пока не приноровился оркестрировать нейронкой без кода, пишу в нём.
что за opencode?
очередной терминальный агент, который делает твою работу за тебя. но в отличие от claude code — значительно приятнее по ux. многие вещи здесь сделаны неожиданно достойно.
текущий флоу
открыть neovide → открыть opencode → писать промпт. ничего сложного.🤙 🤙 🤙
планы на будущее
думаю жёстко напичкать opus говном. моделька умная, но ей нужно много контекста, чтобы не воротила хуету:
- писать rules
- создавать skills под конкретные таски
- запускать субагентов
- возможно, собрать тулу для оркестрации несколькими моделями сразу
итог
за весь опыт кодинга мне давно не удавалось выудить хотя бы толику удовольствия от процесса. а сейчас, благодаря нейро-зависимости, любая идея становится реализуемой и постижимой.
если тебе нужны конфиги для нвима - ищи в интернете. ты ж не дурак бля?
БУДУ ЕЩЕ БЛЯ ТВИТТЕР СЕБЕ ДВИГАТЬ ТУДА СЮДА ТЫРЫ ПЫРЫ АХУЕТЬ ФА ВОТОФА ШНЕЙНЕ ФАААААА
📟 Прилетело из @dolbaebskicode
я прошёл все стадии принятия туалетного кодинга: от отрицания до полного принятия.
для максимального комфорта пересел на связку neovim + neovide. накатил туда astro, свой кастомный плагин для работы с проектами и плагин для интеграции с opencode.
почему именно это?
пиздато. бесшовная интеграция, единый дизайн, никаких нареканий. neovim сейчас использую как опциональную часть флоу — в основном для ревью. пока не приноровился оркестрировать нейронкой без кода, пишу в нём.
что за opencode?
очередной терминальный агент, который делает твою работу за тебя. но в отличие от claude code — значительно приятнее по ux. многие вещи здесь сделаны неожиданно достойно.
текущий флоу
открыть neovide → открыть opencode → писать промпт. ничего сложного.
планы на будущее
думаю жёстко напичкать opus говном. моделька умная, но ей нужно много контекста, чтобы не воротила хуету:
- писать rules
- создавать skills под конкретные таски
- запускать субагентов
- возможно, собрать тулу для оркестрации несколькими моделями сразу
итог
за весь опыт кодинга мне давно не удавалось выудить хотя бы толику удовольствия от процесса. а сейчас, благодаря нейро-зависимости, любая идея становится реализуемой и постижимой.
если тебе нужны конфиги для нвима - ищи в интернете. ты ж не дурак бля?
БУДУ ЕЩЕ БЛЯ ТВИТТЕР СЕБЕ ДВИГАТЬ ТУДА СЮДА ТЫРЫ ПЫРЫ АХУЕТЬ ФА ВОТОФА ШНЕЙНЕ ФАААААА
📟 Прилетело из @dolbaebskicode
Please open Telegram to view this post
VIEW IN TELEGRAM
Самые дорогие города для жизни (да, иногда я люблю поглядеть такую статистику) 😄 Найдите себя! https://www.numbeo.com/cost-of-living/rankings.jsp
📟 Прилетело из @dev_in_ruby_colors
📟 Прилетело из @dev_in_ruby_colors
Numbeo
Cost of Living Index 2026
Rankings: Cost of Living Index, Restaurant Prices Index, Transportation Price Index, Grocery Price Index, Local Purchasing Power Index, ...
Можешь ли ты себя представить через 10 лет?
Посмотри на современный рынок AI — вся реальная власть находится у крупных централизованных компаний. Они полностью контролируют не только модели, но и правила их использования: доступ к API, лимиты, приоритеты, условия отключения. По сути, именно они решают, кто и на каких условиях вообще может использовать AI
Уже сейчас, если взять двух одинаковых по скилу программистов и одному дать Claude Code, а другого заставить писать по-старинке, то кодер с AI будет разительно выше по уровню, чем тот, кто пишет без AI
Логичный вопрос: если сегодня отсутствие доступа к AI делает тебя неконкурентным, то что будет завтра, если текущие компании начнут резко ограничивать доступ к своим моделям?
Ты увидишь себя в мире, где во все рабочие процессы плотно вписано использование AI. Получается, это полноценная зависимость от поставщиков: потеря доступа к моделям означает смерть для твоего сервиса
Также и на примере с программистами. Подписка на Claude Code делает тебя человеком, который может работать и конкурировать с другими такими же кодерами, которые юзают аи
Получается какая-то антиутопия:
• узкая верхушка монополистов, владеющих моделями и вычислительными мощностями• ниже — прослойка подписантов, которые буквально платят за то, чтобы остаться на рынке• на самом дне — либо слишком бедные, либо просто неудобные для компании Для сохранения такой структуры несколькими монополистами важно системно подавлять конкуренцию — от поглощения и копирования идей до судебных разбирательств
Примером будет Uber и Waymo. Uber в какой-то момент активно двигался в сторону AV, пока не получили пизды от Waymo, дочерней компании Alphabet Inc (Google), которые подали в суд за якобы «кражу технологий»
По такой же логике душатся стартапы. Сначала они юзаются как R&D-песочницы (изучение чужих ошибок, как полигон) и в случае успеха поглощаются
Да, можно сказать, что так действует весь рынок. Но за всю историю не существовало одновременно такой концентрации власти, такой приватизации целого сектора и такой системы оплаты за доступ к базовой инфраструктуре
Просто подумай, какое же хуёвое будущее у нас будет с такой системой
Если абстрагироваться от коммерции и стартапов и говорить о науке и развитии AI в целом — ситуация ничуть не лучше. Прогресс становится условным, если все значимые вычислительные мощности сосредоточены у нескольких компаний.
В довесок все модели закрыты, что лишает нас воспроизводимости — возможности повторить результат. Какой же тогда будет прогресс без независимых аудитов и экспериментов? Те же стартапы можно спокойно душить и забирать идеи, подстраивая их под свои критерии.
Прикол ещё в том, что критерии того, что считается «качественным» и «безопасным», задаются владельцами моделей. Вдумайтесь в это, насколько это сильный способ зачищать рынок.
Наша текущая проблема не в том, как быстро развивается AI и когда он заменит любого работягу. Проблема в том, как происходит распределение доступа к этому AI
Текущая архитектура делает нейронку лицензируемым ресурсом и делает нас полностью зависимыми от подписки. Ну типа ебать, ценность человека можно будет оценить, основываясь на том, какую модель он использует — Opus 4.5 или DeepSeek
Лучший вариант, который решает все проблемы — децентрализованная архитектура
Если же применить децентрализацию как основу, то мы, конечно же, не получим полностью бесплатный доступ и «счастье для всех даром». Мы получим правильное перераспределение контроля над вычислениями и лояльные права доступа
В следующем посте разберу текущие альтернативы, которые уже начинают развиваться и базируются на децентрализованной структуре. В частности, речь будет идти про gonka.ai, им и вдохновился на этот пост
📟 Прилетело из @in_crypto_info
Please open Telegram to view this post
VIEW IN TELEGRAM
крч если ты слишком тупой для работы с нейронкой то это уже дурка (ну ты тупой нет?)
если все еще не так сильно запущено то это для тя
оптимизация работы с ллм - это ваще главная вещь! а еще лучше уметь объяснять нейронке как правильно ей работать!
но тут не об этом, сейчас будем обсуждать как упростить работу себе любимому и чтобы за тебя работали сразу 1000000 агентов блядских!
есть дохуя вариантов как это НЕ правильнее всего сделать, но тут мы остановимся на основных (исключительно по моему мнению ебаному) приколах!
ТОП 3 ГОВНА (кроме первого) ЧТО ЛУЧШЕ НЕ ЮЗАТЬ НАХУЙ ВОООООБЩЕ
1. git worktree - предлагается даже в доках клауде кода, как решение для запуска параллельных агентов!
если ты никогда не работал с гитом то мб тебе будет тяжело вникнуть (требуется больше одной команды в терминале писать), да и тем кто работал (git commit/git push) тоже будет довольно сложно разобраться, НО МЫ ПОСТАРАЕМСЯ
итак, основная задача сделать гит репо локальное:
после чего тебя локально будет создан репозиторий!!
дальше нам нужно сделать очень сложную вещь:
ну ты пон тут крч разница типа в -b параметре. ВООООТ...
дальше там нужно выполнить еще две команды:
ну и соответственно ты можешь сделать 100000 таких деревьев и 100000 агентов раскидать, они все будут в сендбоксе раниться + мейн ветку не будут засорять
2. Auto Claude - прикольная с виду вещь, можно в канбан таск менеджере ТИПА оркестрейтить агентов, настраивается финкинг для разных целей, но есть одно НО - оно воркает вокруг agent sdk от антропиков(ДАДА БЛЯТЬ), следственно помойный тулкол это 10000 часов, ибо это просто std(in/out) кол cli тулы блять
очень медленный, ОЧЕНЬ, прям не хочется на такое смотреть, опенкод значительно быстрее в любом из исполнений
дизайн приятный, если боитесь бана - лучшее решение наверно
3. Vibe Kanban - не выкупил прикола этой штуки, максимально уебищный дизайн, максимально уебищные промпты (буквально кодекс 5.2 ХАЙ(пока) не смог по файлу создать директории)
больно уж расхайпленная хуета для дегенератов, уебище еще то
КРЧ, все это говно мне не нравится потому что уебищно работает вообще нахуй блядь!
в некст посте будет ебанутая альфа ахуеете
📟 Прилетело из @dolbaebskicode
если все еще не так сильно запущено то это для тя
оптимизация работы с ллм - это ваще главная вещь! а еще лучше уметь объяснять нейронке как правильно ей работать!
но тут не об этом, сейчас будем обсуждать как упростить работу себе любимому и чтобы за тебя работали сразу 1000000 агентов блядских!
есть дохуя вариантов как это НЕ правильнее всего сделать, но тут мы остановимся на основных (исключительно по моему мнению ебаному) приколах!
ТОП 3 ГОВНА (кроме первого) ЧТО ЛУЧШЕ НЕ ЮЗАТЬ НАХУЙ ВОООООБЩЕ
1. git worktree - предлагается даже в доках клауде кода, как решение для запуска параллельных агентов!
если ты никогда не работал с гитом то мб тебе будет тяжело вникнуть (требуется больше одной команды в терминале писать), да и тем кто работал (git commit/git push) тоже будет довольно сложно разобраться, НО МЫ ПОСТАРАЕМСЯ
итак, основная задача сделать гит репо локальное:
$ git init
после чего тебя локально будет создан репозиторий!!
дальше нам нужно сделать очень сложную вещь:
# Въебать в новую ветку какашку
$ git worktree add ../project-feature-a -b feature-a
# сделать в уже существующей
$ git worktree add ../project-bugfix bugfix-123
ну ты пон тут крч разница типа в -b параметре. ВООООТ...
дальше там нужно выполнить еще две команды:
# Перейти в директорию дерева
$ cd ../project-feature-a
# Заколить клауде
$ claude (ИЛИ opencode)
ну и соответственно ты можешь сделать 100000 таких деревьев и 100000 агентов раскидать, они все будут в сендбоксе раниться + мейн ветку не будут засорять
2. Auto Claude - прикольная с виду вещь, можно в канбан таск менеджере ТИПА оркестрейтить агентов, настраивается финкинг для разных целей, но есть одно НО - оно воркает вокруг agent sdk от антропиков(ДАДА БЛЯТЬ), следственно помойный тулкол это 10000 часов, ибо это просто std(in/out) кол cli тулы блять
очень медленный, ОЧЕНЬ, прям не хочется на такое смотреть, опенкод значительно быстрее в любом из исполнений
дизайн приятный, если боитесь бана - лучшее решение наверно
3. Vibe Kanban - не выкупил прикола этой штуки, максимально уебищный дизайн, максимально уебищные промпты (буквально кодекс 5.2 ХАЙ(пока) не смог по файлу создать директории)
больно уж расхайпленная хуета для дегенератов, уебище еще то
КРЧ, все это говно мне не нравится потому что уебищно работает вообще нахуй блядь!
в некст посте будет ебанутая альфа ахуеете
📟 Прилетело из @dolbaebskicode
ЛЛМ истерия
Всем привет! Я думаю все заметили сейчас (особенно в тг) возросший шум по отношению к нейронкам. Он безусловно оправдан, нейронки штуки классные, клауд код большой молодец, в работе это нужно обязательно применять, но у меня есть некоторый консерн
Немного хронологии
Когда появился гитхаб копилот - это был разрыв. Он действительно очень помогал, редко, но метко подсказывал и был именно что "копилотом", а не основной рабочей силой
Далее примерно в одно время появился курсор и лавбл. Они тоже были оч хайповыми, ими было прикольно играться, но я для себя обнаружил один момент - оба этих инструмента оч классные с точки зрения бутстрапа проектов, но они очень себя плохо показывают в доведении до production-ready и люто засирали проект спустя 5-10 правок. Курсор в моменте вообще ничанал сходить с ума и кидать suggest просто чтобы что-то показать, а не потому что там реально это нужно
Теперь появился клауд код, для меня первый продукт, которым можно наконец удобно пользоваться сразу из коробки и собирать хотяб какие-то простые проекты до нормального состояния, ну а что касаемо бутстрапа - вообще супер он с этим справляется
Но встает очень важный вопрос, возвращаясь к теме истерии:
Какие нахуй у вас 100 агентов запущены у каждого? Вы чем занимаетесь? Интернет революцией?
Я могу придумать себе наверно пару проектов/агентов, которые бы хоть как-то были мне полезны в жизни и те собираются буквально за 10-20 нажатий кнопки enter в клауд коде. В плане повседневной работы мне тоже в целом не нужны десятки настроенных агентов и хватает парочки
В целом я оцениваю эффективность всех аишек не по тому что они могут, а сколько они мне рил времени и сил экономят, ибо если мне настраивать иишку и разбираться с ней дольше чем самому все сделать - зачем мне этим пользоваться (ток если for the love of the game)
В итоге либо я что-то не догоняю на тему 100 агентов, либо я счастливый человек, которому не нужны 10 пет проектов для нормального самочувствия, дайте знать в комментах что думаете
📟 Прилетело из @ortomich_main
Всем привет! Я думаю все заметили сейчас (особенно в тг) возросший шум по отношению к нейронкам. Он безусловно оправдан, нейронки штуки классные, клауд код большой молодец, в работе это нужно обязательно применять, но у меня есть некоторый консерн
Немного хронологии
Когда появился гитхаб копилот - это был разрыв. Он действительно очень помогал, редко, но метко подсказывал и был именно что "копилотом", а не основной рабочей силой
Далее примерно в одно время появился курсор и лавбл. Они тоже были оч хайповыми, ими было прикольно играться, но я для себя обнаружил один момент - оба этих инструмента оч классные с точки зрения бутстрапа проектов, но они очень себя плохо показывают в доведении до production-ready и люто засирали проект спустя 5-10 правок. Курсор в моменте вообще ничанал сходить с ума и кидать suggest просто чтобы что-то показать, а не потому что там реально это нужно
Теперь появился клауд код, для меня первый продукт, которым можно наконец удобно пользоваться сразу из коробки и собирать хотяб какие-то простые проекты до нормального состояния, ну а что касаемо бутстрапа - вообще супер он с этим справляется
Но встает очень важный вопрос, возвращаясь к теме истерии:
Какие нахуй у вас 100 агентов запущены у каждого? Вы чем занимаетесь? Интернет революцией?
Я могу придумать себе наверно пару проектов/агентов, которые бы хоть как-то были мне полезны в жизни и те собираются буквально за 10-20 нажатий кнопки enter в клауд коде. В плане повседневной работы мне тоже в целом не нужны десятки настроенных агентов и хватает парочки
В целом я оцениваю эффективность всех аишек не по тому что они могут, а сколько они мне рил времени и сил экономят, ибо если мне настраивать иишку и разбираться с ней дольше чем самому все сделать - зачем мне этим пользоваться (ток если for the love of the game)
В итоге либо я что-то не догоняю на тему 100 агентов, либо я счастливый человек, которому не нужны 10 пет проектов для нормального самочувствия, дайте знать в комментах что думаете
📟 Прилетело из @ortomich_main
This media is not supported in your browser
VIEW IN TELEGRAM
🔺 как в обсуждалке этого канала люди делятся своими находками и исследованиями использования AI агентов
🔻 так в приватке 100 фаундеров часто делятся другими интересными находками:
В этот вечер воскресенья советую посмотреть полуторачасовой ролик от которого невозможно оторваться. Он про нашу эволюцию.
⚠️ Я не читал о чем ролик, просто начал смотреть. И первые 20-30 минут держится жесткая интрига: о чем же ролик? Не смотрите прикрепленный кусочек или комменты под ютубом, если не хотите спойлеров.
🔗 youtube.com/watch?v=v6HoOOp5fII
Спасибо за видос.
📟 Прилетело из @danokhlopkov
🔻 так в приватке 100 фаундеров часто делятся другими интересными находками:
В этот вечер воскресенья советую посмотреть полуторачасовой ролик от которого невозможно оторваться. Он про нашу эволюцию.
⚠️ Я не читал о чем ролик, просто начал смотреть. И первые 20-30 минут держится жесткая интрига: о чем же ролик? Не смотрите прикрепленный кусочек или комменты под ютубом, если не хотите спойлеров.
🔗 youtube.com/watch?v=v6HoOOp5fII
Спасибо за видос.
📟 Прилетело из @danokhlopkov
Base: ждем дроп в этом году?
Пока рынок штормит вкину немного позитива и напомнить о том, что на медвежкках были одни из самых легендарных дропов (Uniswap, Celestia, Optimism, Arbitrum, BONK, DYDX).
Думаю, что у Base будет та же участь выйти на падающем рынке, но раздадут они хорошую котлетку.
Сейчас Coindesk закладывает TGE Base на Q2-Q4 с минимальным FDV в 10В$+, что звучит очень bullish.
Я начинал отрабатывать Base еще со времен LZ, ZK, STRK и вот на что сейчас я делаю упор, дабы попасть под дроп.
> Нативный контент в Х о проекте
> Активность в BaseApp
> Взаимодействие с их обширной экосистемой
> Квесты в Guild
> Для кодеров, запилить свою апку
Думаю, всего вышеперечисленного будет достаточно, чтобы хоть как-то выделиться среди миллионов сибиллов.
Кстати, недавно Base добавили в черекер на Layerhub, по ссылке можно чекнуть свой топ и помечтать о дропе.
Чат | Support | Market
Pelican | HiddenCode [EN]
📟 Прилетело из @hidden_coding
Пока рынок штормит вкину немного позитива и напомнить о том, что на медвежкках были одни из самых легендарных дропов (Uniswap, Celestia, Optimism, Arbitrum, BONK, DYDX).
Думаю, что у Base будет та же участь выйти на падающем рынке, но раздадут они хорошую котлетку.
Сейчас Coindesk закладывает TGE Base на Q2-Q4 с минимальным FDV в 10В$+, что звучит очень bullish.
Я начинал отрабатывать Base еще со времен LZ, ZK, STRK и вот на что сейчас я делаю упор, дабы попасть под дроп.
> Нативный контент в Х о проекте
> Активность в BaseApp
> Взаимодействие с их обширной экосистемой
> Квесты в Guild
> Для кодеров, запилить свою апку
Думаю, всего вышеперечисленного будет достаточно, чтобы хоть как-то выделиться среди миллионов сибиллов.
Кстати, недавно Base добавили в черекер на Layerhub, по ссылке можно чекнуть свой топ и помечтать о дропе.
Чат | Support | Market
Pelican | HiddenCode [EN]
📟 Прилетело из @hidden_coding
Алгоритмы. Быстрая сортировка
Быстрая сортировка представляет собой эффективный алгоритм, основанный на стратегии «разделяй и властвуй». Представьте себе задачу упорядочить книги на полке по высоте. Вместо того чтобы последовательно сравнивать каждую книгу с каждой, что потребовало бы значительного времени, можно выбрать одну книгу среднего размера в качестве условного эталона. Все книги меньше этого эталона помещаются слева, а все больше — справа. Затем эта же процедура рекурсивно применяется к каждой из образовавшихся групп. Именно эта идея лежит в основе быстрой сортировки.
Алгоритм работает, разделяя исходный массив данных на части относительно специально выбранного элемента, который называется опорным или пивотом. Стратегия «разделяй и властвуй» подразумевает три этапа: сначала большую задачу разбивают на меньшие независимые подзадачи, затем каждую из них решают, и наконец, полученные решения объединяют в окончательный результат. Этот процесс можно представить как преобразование большого беспорядка в несколько маленьких, которые затем приводятся в порядок.
Рассмотрим работу алгоритма пошагово на примере массива
Второй шаг — разделение массива. Все элементы, меньшие опорного, помещаются в одну группу, равные ему — в другую, а большие — в третью.
Наглядно это можно изобразить так:
Третий шаг — рекурсивное применение того же алгоритма к левой и правой частям, так как группа равных опорному элементу уже считается отсортированной. Для левой части
Четвертый шаг — объединение результатов. После того как все рекурсивные вызовы завершены, отсортированные части собираются вместе. Сборка происходит снизу вверх: отсортированные подмассивы меньших размеров объединяются с опорными элементами.
Полное дерево рекурсии для данного примера выглядит следующим образом:
Сборка снизу вверх:
Реализация этого алгоритма на Python демонстрирует его лаконичность. Ключевая часть — рекурсивное разделение и объединение массивов.
📟 Прилетело из @solidityset
Быстрая сортировка представляет собой эффективный алгоритм, основанный на стратегии «разделяй и властвуй». Представьте себе задачу упорядочить книги на полке по высоте. Вместо того чтобы последовательно сравнивать каждую книгу с каждой, что потребовало бы значительного времени, можно выбрать одну книгу среднего размера в качестве условного эталона. Все книги меньше этого эталона помещаются слева, а все больше — справа. Затем эта же процедура рекурсивно применяется к каждой из образовавшихся групп. Именно эта идея лежит в основе быстрой сортировки.
Алгоритм работает, разделяя исходный массив данных на части относительно специально выбранного элемента, который называется опорным или пивотом. Стратегия «разделяй и властвуй» подразумевает три этапа: сначала большую задачу разбивают на меньшие независимые подзадачи, затем каждую из них решают, и наконец, полученные решения объединяют в окончательный результат. Этот процесс можно представить как преобразование большого беспорядка в несколько маленьких, которые затем приводятся в порядок.
Рассмотрим работу алгоритма пошагово на примере массива
[64, 34, 25, 12, 22, 11, 90]. Первым шагом является выбор опорного элемента. Это может быть первый, последний, средний или случайный элемент массива. В нашем примере выберем средний элемент по индексу: arr[3] = 12.Второй шаг — разделение массива. Все элементы, меньшие опорного, помещаются в одну группу, равные ему — в другую, а большие — в третью.
Меньше 12: [11]
Равно 12: [12]
Больше 12: [64, 34, 25, 22, 90]
Наглядно это можно изобразить так:
[64, 34, 25, 12, 22, 11, 90]
↓
выбираем pivot = 12
↓
┌─────────────────┼─────────────────┐
↓ ↓ ↓
[11] [12] [64, 34, 25, 22, 90]
(меньше) (равно) (больше)
Третий шаг — рекурсивное применение того же алгоритма к левой и правой частям, так как группа равных опорному элементу уже считается отсортированной. Для левой части
[11], состоящей из одного элемента, рекурсия завершается. Для правой части [64, 34, 25, 22, 90] снова выбирается опорный элемент, например, средний — 25, и процесс разделения повторяется.Четвертый шаг — объединение результатов. После того как все рекурсивные вызовы завершены, отсортированные части собираются вместе. Сборка происходит снизу вверх: отсортированные подмассивы меньших размеров объединяются с опорными элементами.
Уровень 4: [] + [64] + [90] = [64, 90]
Уровень 3: [] + [34] + [64, 90] = [34, 64, 90]
Уровень 2: [22] + [25] + [34, 64, 90] = [22, 25, 34, 64, 90]
Уровень 1: [11] + [12] + [22, 25, 34, 64, 90] = [11, 12, 22, 25, 34, 64, 90]
Полное дерево рекурсии для данного примера выглядит следующим образом:
[64, 34, 25, 12, 22, 11, 90]
pivot=12
/ | \
[11] [12] [64, 34, 25, 22, 90]
↓ pivot=25
[11] / | \
[22] [25] [64, 34, 90]
↓ pivot=34
[22] / | \
[] [34] [64, 90]
pivot=64
/ | \
[] [64] [90]
↓
[90]
Сборка снизу вверх:
[11] + [12] + ([22] + [25] + ([] + [34] + ([] + [64] + [90])))
= [11, 12, 22, 25, 34, 64, 90]
Реализация этого алгоритма на Python демонстрирует его лаконичность. Ключевая часть — рекурсивное разделение и объединение массивов.
📟 Прилетело из @solidityset
def quick_sort(arr):
"""Быстрая сортировка списка."""
# Базовый случай: массив из 0 или 1 элемента уже отсортирован
if len(arr) <= 1:
return arr
else:
# Выбираем опорный элемент (средний по индексу)
pivot = arr[len(arr) // 2]
# Создаём три подмассива:
# left - все элементы меньше опорного
left = [x for x in arr if x < pivot]
# middle - все элементы равные опорному
middle = [x for x in arr if x == pivot]
# right - все элементы больше опорного
right = [x for x in arr if x > pivot]
# Рекурсивно сортируем левую и правую части,
# объединяем результаты
return quick_sort(left) + middle + quick_sort(right)
Наличие группы
middle в реализации принципиально важно для корректной обработки массивов с повторяющимися элементами. Без неё алгоритм может попасть в бесконечную рекурсию, пытаясь сортировать одинаковые значения.Производительность быстрой сортировки в первую очередь зависит от выбора опорного элемента. Хороший выбор, когда пивот делит массив примерно пополам, приводит к временной сложности O(n log n) в лучшем и среднем случаях. Это происходит потому, что глубина рекурсии составляет log n уровней, и на каждом уровне выполняется порядка n операций. Однако если опорный элемент постоянно оказывается минимальным или максимальным, дерево рекурсии становится несбалансированным, что приводит к худшему случаю со сложностью O(n²). Для улучшения выбора пивота применяют такие методы, как случайный выбор или выбор медианы из трех элементов — первого, среднего и последнего. Например:
import random
pivot = arr[random.randint(0, len(arr)-1)]
Пространственная сложность представленной реализации составляет O(n), так как на каждом уровне рекурсии создаются новые списки. Однако существует оптимизированная версия алгоритма, выполняющая сортировку на месте, которая требует O(log n) дополнительной памяти для стека рекурсии.
Сравнение быстрой сортировки с сортировкой слиянием выявляет их ключевые различия. Оба алгоритма имеют среднюю сложность O(n log n), но сортировка слиянием гарантирует эту сложность даже в худшем случае, тогда как быстрая сортировка может деградировать до O(n²). С другой стороны, быстрая сортировка часто оказывается быстрее на практике из-за меньших константных множителей и может быть реализована с меньшим потреблением памяти. Сортировка слиянием является стабильной — она сохраняет относительный порядок равных элементов, что не всегда верно для классической in-place реализации быстрой сортировки.
Встроенная функция
sort() в Python использует более сложный гибридный алгоритм — Timsort. Он сочетает в себе идеи сортировки слиянием и сортировки вставками. Timsort эффективно использует уже существующие упорядоченные подпоследовательности в данных, что делает его особенно быстрым для частично отсортированных массивов, где он может достигать сложности O(n). Этот алгоритм является стабильным и гарантирует производительность O(n log n) в худшем случае, что делает его отличным выбором для стандартной библиотеки Python. Пример его использования:data = [64, 34, 25, 12, 22, 11, 90]
data.sort()
sorted_data = sorted(data, reverse=True)
Таким образом, быстрая сортировка остается важным и фундаментальным алгоритмом, наглядно демонстрирующим принцип «разделяй и властвуй». Она эффективна на практике, хотя и требует внимательного подхода к выбору опорного элемента. Для большинства повседневных задач предпочтительнее использовать оптимизированные встроенные средства языка, такие как Timsort в Python, но глубокое понимание работы быстрой сортировки необходимо для анализа алгоритмов и решения специализированных задач.
#algorithm
📟 Прилетело из @solidityset
Show Me Your AI Setup
Сегодня в 19:00 по Москве (через ~1.5 часа) будет стрим с @og_mishgun
Я буду задавать вопросы: что пробовал, что реально работает, что дальше.
Будем импровизировать, будет лампово.
Накидывайте вопросы в комменты
📟 Прилетело из @danokhlopkov
Please open Telegram to view this post
VIEW IN TELEGRAM
Radiant: взлом, после которого я перестал верить в "проверенные" протоколы
Я уже писал про взлом Radiant сразу после события. Сейчас — о том, какие выводы пришлось сделать спустя время.
Часть дропа $ARB я оставил и, когда цена просела, решил положить их в Radiant. Это оказалось серьёзной ошибкой.
Если бы я просто ничего не делал.
Они были бы у меня до сих пор.
Это ещё раз подтвердило моё мнение: самой надёжной стратегией часто оказывается лень ☺️.
Теперь остаётся ждать компенсации, если она вообще будет.
Про Radiant я отдельно не писал и не разбирал его - он упоминался у меня только в контексте LayerZero (в начале поддерживали кроссчейн кредитование).
Не проанализировать - это оказался ещё один промах. На тот момент это была ощутимая для моего портфеля сумма, и именно поэтому сейчас этот опыт так отрезвляет.
Тогда меня удивило, что взлом произошёл спустя два года после запуска.
А когда позже начали взламываться "старики" вроде Balancer, стало ясно: возраст в DeFi больше не аргумент.
Что я усвоил после этого события:
1. Всегда стоит изучать проект хотя бы по формализованному подходу. Например, который я описывал ранее.
Благо сейчас есть ИИ-модели. Можно делегировать первичный сбор информации им, а затем проверять источники вручную.
2. Для себя я создал правило: не вкладывать больше 1-2% портфеля в один протокол. Больше - существенный риск потерять. Если бы нашёл 5-10 проектов, не произошло бы этого или потери были бы меньше.
3. Потом уже прочитал, и с этим согласен:
Для диверсификации важно выбирать не просто «хорошие» проекты, а проекты с уникальной основой.
Иначе можно распределить капитал по форкам (клонам) - и потерять всё из-за одной и той же уязвимости.
Представьте, что я бы выбрал 10 проектов на основе Radiant (таки не существует, но это гипотетическая ситуация). Их бы все взломали из-за того, что они - форки (если не исправили уязвимость, но это редко). И я бы все равно потерял средства.
А вы теряли деньги из-за взломов?
Были ли случаи, когда диверсификация по форкам не спасла, а наоборот - усилила потери?
😎 Незрячий web3 программист (подписаться)
Чат | бот
📟 Прилетело из @blind_dev
Я уже писал про взлом Radiant сразу после события. Сейчас — о том, какие выводы пришлось сделать спустя время.
Часть дропа $ARB я оставил и, когда цена просела, решил положить их в Radiant. Это оказалось серьёзной ошибкой.
Если бы я просто ничего не делал.
Они были бы у меня до сих пор.
Это ещё раз подтвердило моё мнение: самой надёжной стратегией часто оказывается лень ☺️.
Теперь остаётся ждать компенсации, если она вообще будет.
Про Radiant я отдельно не писал и не разбирал его - он упоминался у меня только в контексте LayerZero (в начале поддерживали кроссчейн кредитование).
Не проанализировать - это оказался ещё один промах. На тот момент это была ощутимая для моего портфеля сумма, и именно поэтому сейчас этот опыт так отрезвляет.
Тогда меня удивило, что взлом произошёл спустя два года после запуска.
А когда позже начали взламываться "старики" вроде Balancer, стало ясно: возраст в DeFi больше не аргумент.
Что я усвоил после этого события:
1. Всегда стоит изучать проект хотя бы по формализованному подходу. Например, который я описывал ранее.
Благо сейчас есть ИИ-модели. Можно делегировать первичный сбор информации им, а затем проверять источники вручную.
2. Для себя я создал правило: не вкладывать больше 1-2% портфеля в один протокол. Больше - существенный риск потерять. Если бы нашёл 5-10 проектов, не произошло бы этого или потери были бы меньше.
3. Потом уже прочитал, и с этим согласен:
Для диверсификации важно выбирать не просто «хорошие» проекты, а проекты с уникальной основой.
Иначе можно распределить капитал по форкам (клонам) - и потерять всё из-за одной и той же уязвимости.
Представьте, что я бы выбрал 10 проектов на основе Radiant (таки не существует, но это гипотетическая ситуация). Их бы все взломали из-за того, что они - форки (если не исправили уязвимость, но это редко). И я бы все равно потерял средства.
А вы теряли деньги из-за взломов?
Были ли случаи, когда диверсификация по форкам не спасла, а наоборот - усилила потери?
😎 Незрячий web3 программист (подписаться)
Чат | бот
📟 Прилетело из @blind_dev
Всем спасибо 🙂
Ставьте реакцию, если хотите еще
и предлагайте, с кем провести следующий стрим
подписывайтесь на Мишу @og_mishgun и добавляйтесь к нам в чат
Запись есть!
📟 Прилетело из @danokhlopkov
Ставьте реакцию, если хотите еще
и предлагайте, с кем провести следующий стрим
подписывайтесь на Мишу @og_mishgun и добавляйтесь к нам в чат
Запись есть!
📟 Прилетело из @danokhlopkov