Pavel Zloi pinned «Skills это как MCP-сервер, но... Давненько у меня в голове назревала эта публикация. Чем больше пользуюсь Skills и MCP-серверами, тем больше понимаю, что по сути они очень похожи, хотя по форме есть нюансики. Сходства 1. Есть некая сущность (Skill/MCP);…»
С огромным удовольствием прослушал аудиокнигу Сценарии будущего. Как жить и работать в мире захваченном нейросетью и роботами за авторством Руслана Юсуфова.
В ней автор выступает в роли футуролога и представляет нашему вниманию возможные варианты технологического будущего, есть сценарии утопичные, есть антиутопичные, про засилие нейросетей, про киборгизацию, про генную инженерию, про сегментацию общества, про применение нейросетей в экономике, социологии и так далее.
Мне книга очень понравилась, рекомендую её всем, кто задумывается о вероятных сценариях развития нашего мира и общества.
В ней автор выступает в роли футуролога и представляет нашему вниманию возможные варианты технологического будущего, есть сценарии утопичные, есть антиутопичные, про засилие нейросетей, про киборгизацию, про генную инженерию, про сегментацию общества, про применение нейросетей в экономике, социологии и так далее.
Мне книга очень понравилась, рекомендую её всем, кто задумывается о вероятных сценариях развития нашего мира и общества.
books.yandex.ru
Аудиокнига Сценарии будущего. Как жить и работать в мире, захваченном нейросетью и роботами, Руслан Юсуфов — слушать бесплатно…
Аудиокнига «Сценарии будущего. Как жить и работать в мире, захваченном нейросетью и роботами» Руслан Юсуфов слушать полную версию онлайн бесплатно в исполнении Руслан Юсуфов на сайте электронной библиотеки Яндекс Книг.
2❤16👍8👎2
Хабр
L в аббревиатуре LLM означает «ложь»
Если верить хайпу, та отрасль разработки ПО, к которой мы привыкли, уже мертва. Однако странно, что, несмотря на годы работы с ИИ-инструментарием, результаты выглядят, ощущаются и работают примерно...
Нейросети захватывают мир - что делать?
Прочел на Хабре пост "L в аббревиатуре LLM означает «ложь»" и там в очередной раз поднимается популярная в узких кругах тема. Автор рассуждает о том, что нейросети никуда не годятся, что они лишь переосмысляют уже придуманное до них, что разработчики с ИИ только плодят технический долг, а самый правильный путь это отказаться от агентов, вайбкодинга и прочих новых инструментов разработки.
Самое забавное тут вот что, текст ИМХО местами очень уж похож на сгенерированный, я конечно не эксперт по детекту, но глаз уж дюже цепляется за характерные клише, которыми грешат модельки. Может не весь текст, а лишь часть, но диссонанс имеется, кажется будто одной рукой автор критикует нейросети, другой, вероятно, ими же и пользуется.
Другой забавный момент в том, что у данной публикации очень большое количество положительных реакций и комментариев, автор прям очень удачно попал в сердечко читателей Хабр. Нюанc только в том, что он не предложил альтернативу, что делать на меняющемся рынке?
И вот это, на мой скромный взгляд, показательная история.
Потому что перед нами нео-луддиты. Не в старом смысле, где люди шли и ломали станки, а в новом. Очень легко ворчать, писать осуждающие тексты, делать вид, что прогресс переоценен, а все новое - это игрульки и ерунда. Суть, впрочем, не меняется. Когда технология начинает резко менять рынок, всегда находятся те, кто пытается не адаптироваться, а объявить саму перемену ошибкой, а создателей виноватыми (в силу возраста или из-за страха потерять уютное место, не суть важно).
И особенно занятно наблюдать это в моей любимой АйТишечке, инженеров годами учили быть (почти) машиной, учили писать (почти) "идеальный" код максимально быстро, вписываться в процессы, ревьюить перфоманс, где-то даже строками кода. А потом внезапно пришли настоящие машины и выяснилось, что они это делают быстрее и в умелых руках даже лучше. И тут у части людей вместо рефлексии началась teh drama.
Хотя для меня решение очевидно. Если значимую часть рутины теперь можно спихнуть на агентов и нейронки, то это не горе, а радость. Можно меньше заниматься механической работой и больше думать, проектировать, проверять, собирать системы, делать продукты, строить агентов, автоматизировать свою работу. То есть заниматься как раз более интересными вещами, а не вот этим вот всем. Кстати, очень рекомендую почитать пост "[Bus Factor] Почему ваша незаменимость — это архитектурная уязвимость (SPOF), а не повод для гордости" на Хабр.
Страдают ИХМО от этого, как мне видится, прежде всего те, кто пришел в IT только ради денег или привык к уютному месту, где можно было делать минимум работы и при этом жить очень неплохо, а прогресс постучал в дверь и намекнул, что так будет не всегда, и вероятность того, что первым делом заменят самых незаменимых с каждым днём всё выше и выше, и вот похоже это многих беспокоит сильнее всего.
Поэтому вся эта риторика про "не надо ваших агентов", "откажитесь от новых инструментов", "все это ненастоящая разработка" звучит не столько как взвешенная критика, а скорее как страх перемен. В этом смысле происходящее очень хорошо ложится на темы из книги "Сценарии будущего", о которой я рассказывал намедни. Там как раз много про то, что вероятные сценарии развития технологий сопровождаются социальными потрясениями, попытками объявить новый этап неправильным и бороться с ним. Но при этом важно осознавать, что прогрессу в целом абсолютно все равно, нравится он кому-то или нет, он просто есть.
Лично я стараюсь смотреть на тенденцию трезво, не быть незаменимым и заранее стелить себе соломку, да, мир меняется, да, общество меняется, всё меняется, что делать? Мой выбор учиться, учиться учиться, перестраиваться, заходить в новые инструменты и осваивать нейронки на уровне практики и теории.
Прочел на Хабре пост "L в аббревиатуре LLM означает «ложь»" и там в очередной раз поднимается популярная в узких кругах тема. Автор рассуждает о том, что нейросети никуда не годятся, что они лишь переосмысляют уже придуманное до них, что разработчики с ИИ только плодят технический долг, а самый правильный путь это отказаться от агентов, вайбкодинга и прочих новых инструментов разработки.
Самое забавное тут вот что, текст ИМХО местами очень уж похож на сгенерированный, я конечно не эксперт по детекту, но глаз уж дюже цепляется за характерные клише, которыми грешат модельки. Может не весь текст, а лишь часть, но диссонанс имеется, кажется будто одной рукой автор критикует нейросети, другой, вероятно, ими же и пользуется.
В комментариях подсказали, что этот пост перевод The L in "LLM" Stands for Lying, поэтому вопрос про похожесть текста на сгенерированный снимается.
Другой забавный момент в том, что у данной публикации очень большое количество положительных реакций и комментариев, автор прям очень удачно попал в сердечко читателей Хабр. Нюанc только в том, что он не предложил альтернативу, что делать на меняющемся рынке?
И вот это, на мой скромный взгляд, показательная история.
Потому что перед нами нео-луддиты. Не в старом смысле, где люди шли и ломали станки, а в новом. Очень легко ворчать, писать осуждающие тексты, делать вид, что прогресс переоценен, а все новое - это игрульки и ерунда. Суть, впрочем, не меняется. Когда технология начинает резко менять рынок, всегда находятся те, кто пытается не адаптироваться, а объявить саму перемену ошибкой, а создателей виноватыми (в силу возраста или из-за страха потерять уютное место, не суть важно).
И особенно занятно наблюдать это в моей любимой АйТишечке, инженеров годами учили быть (почти) машиной, учили писать (почти) "идеальный" код максимально быстро, вписываться в процессы, ревьюить перфоманс, где-то даже строками кода. А потом внезапно пришли настоящие машины и выяснилось, что они это делают быстрее и в умелых руках даже лучше. И тут у части людей вместо рефлексии началась teh drama.
Хотя для меня решение очевидно. Если значимую часть рутины теперь можно спихнуть на агентов и нейронки, то это не горе, а радость. Можно меньше заниматься механической работой и больше думать, проектировать, проверять, собирать системы, делать продукты, строить агентов, автоматизировать свою работу. То есть заниматься как раз более интересными вещами, а не вот этим вот всем. Кстати, очень рекомендую почитать пост "[Bus Factor] Почему ваша незаменимость — это архитектурная уязвимость (SPOF), а не повод для гордости" на Хабр.
Страдают ИХМО от этого, как мне видится, прежде всего те, кто пришел в IT только ради денег или привык к уютному месту, где можно было делать минимум работы и при этом жить очень неплохо, а прогресс постучал в дверь и намекнул, что так будет не всегда, и вероятность того, что первым делом заменят самых незаменимых с каждым днём всё выше и выше, и вот похоже это многих беспокоит сильнее всего.
Поэтому вся эта риторика про "не надо ваших агентов", "откажитесь от новых инструментов", "все это ненастоящая разработка" звучит не столько как взвешенная критика, а скорее как страх перемен. В этом смысле происходящее очень хорошо ложится на темы из книги "Сценарии будущего", о которой я рассказывал намедни. Там как раз много про то, что вероятные сценарии развития технологий сопровождаются социальными потрясениями, попытками объявить новый этап неправильным и бороться с ним. Но при этом важно осознавать, что прогрессу в целом абсолютно все равно, нравится он кому-то или нет, он просто есть.
Лично я стараюсь смотреть на тенденцию трезво, не быть незаменимым и заранее стелить себе соломку, да, мир меняется, да, общество меняется, всё меняется, что делать? Мой выбор учиться, учиться учиться, перестраиваться, заходить в новые инструменты и осваивать нейронки на уровне практики и теории.
❤20👍14💯9👎1🤡1🥱1😴1
YouTube
Pax Historia Introduction
Official Pax Historia Statistics Video for Investors
#history #historia #games #introduction #video #youtube
#history #historia #games #introduction #video #youtube
Песочница
Похоже я нашёл первый случай когда несколько агентов работающих параллельно это хорошая идея, встречайте игру Pax Historia.
Данная игра реализована в виде песочницы, навевает вайбы Hears of Iron, при запуске пользователь задает стартовый сценарий, далее выбирает страну за которую будет играть и модель под капотом агентов, при этом каждой страной управляет свой полноценный агент, с памятью, моделью и так далее, смотрите мой пост на тему агентов.
Далее перед пользователем открывается игровая политическая карта и слева чатик, пользователь пишет своё действие, потом нажимает кнопку промотки времени, происходят события и можно почитать, что получилось и как наши действия повлияли на политическую карту. Самое занятное, что другие страны (агенты) тоже живут своей жизнью и одновременно с вашими действиями выполняют какие-то свои (у них происходят разные события укладывающиеся в парадигму данного агента и его сценария).
Очень любопытный проект, рекомендую ознакомиться.
Похоже я нашёл первый случай когда несколько агентов работающих параллельно это хорошая идея, встречайте игру Pax Historia.
Данная игра реализована в виде песочницы, навевает вайбы Hears of Iron, при запуске пользователь задает стартовый сценарий, далее выбирает страну за которую будет играть и модель под капотом агентов, при этом каждой страной управляет свой полноценный агент, с памятью, моделью и так далее, смотрите мой пост на тему агентов.
Далее перед пользователем открывается игровая политическая карта и слева чатик, пользователь пишет своё действие, потом нажимает кнопку промотки времени, происходят события и можно почитать, что получилось и как наши действия повлияли на политическую карту. Самое занятное, что другие страны (агенты) тоже живут своей жизнью и одновременно с вашими действиями выполняют какие-то свои (у них происходят разные события укладывающиеся в парадигму данного агента и его сценария).
Очень любопытный проект, рекомендую ознакомиться.
7❤8🔥2
Прокачал за вчера coddy.
Запилил такие вот фичи:
- добавил в observer синхронизацию всех issues и pull_requests на старте системы
- переработал логику раскладывания issues и pull_requests по разным папкам (рис.2)
- добавил флоу автоматического тестирования PR
- флоу автоматической простановки git tag при мердже PR
- флоу, который запускает сборку docker-образа и пушит на docker hub
- и много других небольших правок и оптимизации.
Исходники тут::
https://github.com/coddy-project/coddy-bot
Готовые образы тут:
https://hub.docker.com/r/evilfreelancer/coddybot
Там же на Docker Hub будет подробная инструкция как запустить контейнер.
Запилил такие вот фичи:
- добавил в observer синхронизацию всех issues и pull_requests на старте системы
- переработал логику раскладывания issues и pull_requests по разным папкам (рис.2)
- добавил флоу автоматического тестирования PR
- флоу автоматической простановки git tag при мердже PR
- флоу, который запускает сборку docker-образа и пушит на docker hub
- и много других небольших правок и оптимизации.
Исходники тут::
https://github.com/coddy-project/coddy-bot
Готовые образы тут:
https://hub.docker.com/r/evilfreelancer/coddybot
Там же на Docker Hub будет подробная инструкция как запустить контейнер.
1🔥13❤4👍1
GitHub
GitHub - sipeed/picoclaw: Tiny, Fast, and Deployable anywhere — automate the mundane, unleash your creativity
Tiny, Fast, and Deployable anywhere — automate the mundane, unleash your creativity - sipeed/picoclaw
Crab People
Последовал примеру Валерия @neuraldeep и поднял себе на домашней малинке PicoClaw, решил начать с простых задач, типа работы с github и поиска в сети, очень приятно и легко всё настраивается, хотя возможно людям без опыта работы с linux будет местами сложновато, так как надо будет прописывать allow list команд который можно выполнять, но это в любом случае в разы более качественный и удобный проект нежели OpenClaw.
Запустил всё ессно в docker-конейнере.
Чуть поразбирался с этим проектом, он состоит из 3х контейнеров:
- onboard - хитрый контейнер который генерит пустой конфиг
- gateway - контейнер который запускает ботов, без web-интерфейса
- launcher - контейнер который включает в себя все функции gateway, плюс имеет web-интерфейс
В админке (launcher) скажем так не очень много возможностей предусмотрено, хотя вполне достаточно и наверно больше и не требуется, однако, авторизации нет, так что его в формате сайтика за пределы сети выпускать не стоит, поэтому я пока еду на клиенте (gateway).
Ещё пока разбираюсь, но пользоваться приятно.
Последовал примеру Валерия @neuraldeep и поднял себе на домашней малинке PicoClaw, решил начать с простых задач, типа работы с github и поиска в сети, очень приятно и легко всё настраивается, хотя возможно людям без опыта работы с linux будет местами сложновато, так как надо будет прописывать allow list команд который можно выполнять, но это в любом случае в разы более качественный и удобный проект нежели OpenClaw.
Запустил всё ессно в docker-конейнере.
Чуть поразбирался с этим проектом, он состоит из 3х контейнеров:
- onboard - хитрый контейнер который генерит пустой конфиг
- gateway - контейнер который запускает ботов, без web-интерфейса
- launcher - контейнер который включает в себя все функции gateway, плюс имеет web-интерфейс
В админке (launcher) скажем так не очень много возможностей предусмотрено, хотя вполне достаточно и наверно больше и не требуется, однако, авторизации нет, так что его в формате сайтика за пределы сети выпускать не стоит, поэтому я пока еду на клиенте (gateway).
Ещё пока разбираюсь, но пользоваться приятно.
👍16
Обычно я редко пишу про релизы новых языковых моделей, но это случай выдающийся, вчера компания Nvidia зарелизила NVIDIA Nemotron v3, это линейка MoE моделей, на 120B параметров всего и 12B активных.
Нашему внимания представлены несколько вариантов сжатия, самый любопытный из них лично для меня nvidia/NVIDIA-Nemotron-3-Super-120B-A12B-NVFP4, так как этот формат является почти полным аналогом MXFP4 (подробнее тут).
Позиционируется данная модель как решение для продвинутых on-prem агентов (циферки и правда впечатляют), а так же как конкурент:
- openai/gpt-oss-120b (MoE, у которой лишь 5B активных и только MXFP4)
- Qwen/Qwen3.5-122B-A10B (MoE у которой 10B активных, но нет MXFP4 версий, только BF16, F16 и FP8)
Ну и так вот, примечательно в новом Немотроне то, что у неё 12B активных, что почти является рубиконом эмерджентности (13B параметров), плюс нативная поддержка FP4, а это значит для её запуска на контексте в 128к (но продел до 1m) токенов хватит 86Гб VRAM, почти как gpt-oss-120b.
Нашему внимания представлены несколько вариантов сжатия, самый любопытный из них лично для меня nvidia/NVIDIA-Nemotron-3-Super-120B-A12B-NVFP4, так как этот формат является почти полным аналогом MXFP4 (подробнее тут).
Позиционируется данная модель как решение для продвинутых on-prem агентов (циферки и правда впечатляют), а так же как конкурент:
- openai/gpt-oss-120b (MoE, у которой лишь 5B активных и только MXFP4)
- Qwen/Qwen3.5-122B-A10B (MoE у которой 10B активных, но нет MXFP4 версий, только BF16, F16 и FP8)
Ну и так вот, примечательно в новом Немотроне то, что у неё 12B активных, что почти является рубиконом эмерджентности (13B параметров), плюс нативная поддержка FP4, а это значит для её запуска на контексте в 128к (но продел до 1m) токенов хватит 86Гб VRAM, почти как gpt-oss-120b.
👍13❤3
О чём молчат Антропики (про скилы, опять)
Концепция Skills, которую предложили Антропики не так давно, мне очень нравится, я несколько раз писал на эту тему (раз, два, три), часто пользуюсь готовыми скилами, а какие-то пишу сам, но есть у них один фатальный недостаток, о котором, к моему большому удивлению, мало кто задумывается, эту проблему можно описать как кроссплатформенность компилируемых бинарных файлов.
К примеру, у меня есть скил, который вызывает некий бинарник, скомпилированный под x86/64, и есть Raspberry Pi на процессоре ARM64, допустим, я хочу установить этот скил, он устанавливается, но по факту бесполезен, так как архитектура бинарника и моего процессора не совпадает, можно придумать и другой пример, скажем, бинарь собран под Linux, но пользователь хочет установить скил на Windows.
Из вероятных решений, которые приходят на ум, это процедура установки, когда агент сам скачивает бинарник через условный curl/wget под нужную архитектуру (в момент первого вызова), сам закидывает в папку с бинарниками и выполняет полезную работу, но что-то подобных скилов мне ещё пока не попадалось, все, что видел, предлагают отдельно выполнить установку бинаря и отдельно ставить скил на систему, в которой нужный бинарь уже есть.
А как вы решаете эту проблему?
Концепция Skills, которую предложили Антропики не так давно, мне очень нравится, я несколько раз писал на эту тему (раз, два, три), часто пользуюсь готовыми скилами, а какие-то пишу сам, но есть у них один фатальный недостаток, о котором, к моему большому удивлению, мало кто задумывается, эту проблему можно описать как кроссплатформенность компилируемых бинарных файлов.
К примеру, у меня есть скил, который вызывает некий бинарник, скомпилированный под x86/64, и есть Raspberry Pi на процессоре ARM64, допустим, я хочу установить этот скил, он устанавливается, но по факту бесполезен, так как архитектура бинарника и моего процессора не совпадает, можно придумать и другой пример, скажем, бинарь собран под Linux, но пользователь хочет установить скил на Windows.
Из вероятных решений, которые приходят на ум, это процедура установки, когда агент сам скачивает бинарник через условный curl/wget под нужную архитектуру (в момент первого вызова), сам закидывает в папку с бинарниками и выполняет полезную работу, но что-то подобных скилов мне ещё пока не попадалось, все, что видел, предлагают отдельно выполнить установку бинаря и отдельно ставить скил на систему, в которой нужный бинарь уже есть.
А как вы решаете эту проблему?
❤7🤣2💯1
OpenAPI to CLI это врапер между API и консолью
Не так давно я публиковал проект openapi-to-mcp, который позволяет любой API сервер с нормальной OpenAPI/Swagger спецификацией конвертировать в MCP сервер. Но теперь я развил эту идею в сторону консоли и сделал openapi-to-cli, который по OpenAPI/Swagger спецификации генерит удобную CLI над тем же самым API.
Как это работает
Допустим в спецификации API есть такие эндпоинты:
- GET /messages
- POST /messages
- GET /status
- GET /users
В момент добавления профиля
- npx openapi-to-cli messages_get
- npx openapi-to-cli messages_post
- npx openapi-to-cli status
- npx openapi-to-cli users
Каждая такая команда это по сути HTTP запрос к API серверу, параметры запроса попадают через опции CLI, а ответ API печатается обратно в терминал, подробную справку по каждой команде можно почитать добавив
Быстрый старт через npx
Самый простой способ попробовать:
Эта команда:
1. качает пакет
2. создает профиль
3. скачивает и кэширует OpenAPI спеку под
4. записывает настройки профиля в
Список доступных команд можно посмотреть вызвав:
После этого можно ходить в API из терминала, например вот так:
Есть короткая команда
Подробная справка на странице проекта.
Исходники: https://github.com/EvilFreelancer/openapi-to-cli
Пакет: https://www.npmjs.com/package/openapi-to-cli
Не так давно я публиковал проект openapi-to-mcp, который позволяет любой API сервер с нормальной OpenAPI/Swagger спецификацией конвертировать в MCP сервер. Но теперь я развил эту идею в сторону консоли и сделал openapi-to-cli, который по OpenAPI/Swagger спецификации генерит удобную CLI над тем же самым API.
Как это работает
Допустим в спецификации API есть такие эндпоинты:
- GET /messages
- POST /messages
- GET /status
- GET /users
В момент добавления профиля
openapi-to-cli конвертирует их в команды CLI примерно такого вида:- npx openapi-to-cli messages_get
- npx openapi-to-cli messages_post
- npx openapi-to-cli status
- npx openapi-to-cli users
Каждая такая команда это по сути HTTP запрос к API серверу, параметры запроса попадают через опции CLI, а ответ API печатается обратно в терминал, подробную справку по каждой команде можно почитать добавив
-h или --help на конце.Быстрый старт через npx
Самый простой способ попробовать:
npx openapi-to-cli profiles add default \
--api-base-url https://127.0.0.1:8080 \
--openapi-spec https://raw.githubusercontent.com/readmeio/oas-examples/refs/heads/main/3.1/json/petstore-simple.json
Эта команда:
1. качает пакет
openapi-to-cli, если его еще нет в кэше2. создает профиль
default для вашего API3. скачивает и кэширует OpenAPI спеку под
.ocli/specs/default.json4. записывает настройки профиля в
.ocli/profiles.iniСписок доступных команд можно посмотреть вызвав:
npx openapi-to-cli commands
После этого можно ходить в API из терминала, например вот так:
npx openapi-to-cli messages --limit 10
Есть короткая команда
ocli, она заменяет npx openapi-to-cli, но нужно ставить глобально через через:npm -g openapi-to-cli
Подробная справка на странице проекта.
Исходники: https://github.com/EvilFreelancer/openapi-to-cli
Пакет: https://www.npmjs.com/package/openapi-to-cli
7🔥28👍4❤3
Forwarded from Валера Ковальский
Забудь про MCP и tools — конвертируй 100 000 API методов в один CLI инструмент на лету
Все сейчас пишут MCP-серверы и tools для агентов
На каждый API endpoint — отдельный tool с описанием, параметрами, схемой
10 методов? Ок
100? Уже больно
845 (GitHub API)? Удачи (да да можно делать поиск и тулов и MCP) но какой же это зоопарк и как его поддерживать?
Но так же мы поняли новый тренд это cli обертки
От сюда мы с @evilfreelancer пошли другим путём: берём любой OpenAPI spec (JSON/YAML) и конвертируем его в CLI команды на лету Без кодогенерации.
Без компиляции
Один бинарник — любое API
Что это даёт:
→ ocli search --query "create pull request" --limit 5 — BM25-поиск по 845 эндпоинтам за 7мс
→ ocli search --regex "repos.*pulls" — regex по путям, именам, описаниям
→ Несколько профилей одного API с разными наборами эндпоинтов (include/exclude)
→ Несколько API серверов в одном инструменте
Почему CLI, а не MCP tools для агентов?
100 MCP tools → ~50 000 токенов на описания в контексте
100 CLI команд → 1 tool "execute_command" + поиск нужной команды
Объективно я счита что агентов больше таскают команды вызвать, нежели разбираться с тонне контекста tools
Агент вызывает ocli search, находит нужную команду, выполняет её
Один tool_exec вместо тысяч
Контекстное окно свободно для работы, а не для описаний инструментов.
Сделал быстрый тест на реальных API:
- GitHub API — 845 endpoints, 11MB spec, JSON
- Box API — 258 endpoints, YAML
BM25 поиск — порт из Go (picoclaw) на TypeScript с Robertson IDF smoothing.
GitHub: https://github.com/EvilFreelancer/openapi-to-cli
Все сейчас пишут MCP-серверы и tools для агентов
На каждый API endpoint — отдельный tool с описанием, параметрами, схемой
10 методов? Ок
100? Уже больно
845 (GitHub API)? Удачи (да да можно делать поиск и тулов и MCP) но какой же это зоопарк и как его поддерживать?
Но так же мы поняли новый тренд это cli обертки
От сюда мы с @evilfreelancer пошли другим путём: берём любой OpenAPI spec (JSON/YAML) и конвертируем его в CLI команды на лету Без кодогенерации.
Без компиляции
Один бинарник — любое API
Что это даёт:
→ ocli search --query "create pull request" --limit 5 — BM25-поиск по 845 эндпоинтам за 7мс
→ ocli search --regex "repos.*pulls" — regex по путям, именам, описаниям
→ Несколько профилей одного API с разными наборами эндпоинтов (include/exclude)
→ Несколько API серверов в одном инструменте
Почему CLI, а не MCP tools для агентов?
100 MCP tools → ~50 000 токенов на описания в контексте
100 CLI команд → 1 tool "execute_command" + поиск нужной команды
Объективно я счита что агентов больше таскают команды вызвать, нежели разбираться с тонне контекста tools
Агент вызывает ocli search, находит нужную команду, выполняет её
Один tool_exec вместо тысяч
Контекстное окно свободно для работы, а не для описаний инструментов.
Сделал быстрый тест на реальных API:
- GitHub API — 845 endpoints, 11MB spec, JSON
- Box API — 258 endpoints, YAML
BM25 поиск — порт из Go (picoclaw) на TypeScript с Robertson IDF smoothing.
npm install -g git+https://github.com/EvilFreelancer/openapi-to-cli.git#feat/command-searchocli profile add githubocli search --query "upload file" --limit 5GitHub: https://github.com/EvilFreelancer/openapi-to-cli
GitHub
GitHub - EvilFreelancer/openapi-to-cli: Turns any OpenAPI/Swagger API into an CLI with set of commands. One CLI command per endpoint.
Turns any OpenAPI/Swagger API into an CLI with set of commands. One CLI command per endpoint. - EvilFreelancer/openapi-to-cli
5🔥26❤5
Приехала коробочка Beelink ME mini на 16гб RAM и процессором N150 с AliExpress, повезло урвать себе версию с 1Тб nvme на борту.
2🔥30👎1
Валера Ковальский
Забудь про MCP и tools — конвертируй 100 000 API методов в один CLI инструмент на лету Все сейчас пишут MCP-серверы и tools для агентов На каждый API endpoint — отдельный tool с описанием, параметрами, схемой 10 методов? Ок 100? Уже больно 845 (GitHub API)?…
Немножечко хайпа на Reddit думаю не помешает ;)
Reddit
From the LocalLLaMA community on Reddit: Turn 10,000 API endpoints into one CLI tool instead of MCP, Skills and tools zoo
Explore this post and more from the LocalLLaMA community
3👍26👏6❤1🤡1
Media is too big
VIEW IN TELEGRAM
Забрал RTX 4090 из сервиса Vik-on после модификации до 48гб, солидно она схуднула конечно. #server
1🔥30❤2
Феномен предвзятости подтверждения и... нейросети
Сегодня предлагаю ещё один вопрос для рефлексии и философствования, на этот раз про одну из самых недооценённых проблем LLM, которая заключена не в галлюцинациях и даже не ошибках самих по себе, а в том как легко модели подыгрывают позиции пользователя.
Когда человек изучает некую тему, например про бег, он может спросить модельку "почему бег полезен" и получить вполне убедительный текст про сердце, кардиовыносливость, настроение и метаболизм. Но если другой человек спросит "почему бег вреден", модель с такой же уверенностью распишет про нагрузку на суставы, травмы, кортизол и износ организма.
Чуть иначе сформулировал запрос - и получил не просто другой акцент, а местами вообще противоположный вывод, в таких случаях мне вспоминается народная мудрость:
Любой наш вопрос по отношению к модели скорее всего будет задан не из нейтральной позиции, даже при работе с кодовым агентом, а склоняясь к некоей определённой точке зрения, так как обычно вопрос уже содержит в себе скрытый ответ или намёк на него.
Частенько некоторые из нас не столько исследуют тему, сколько приходят за подтверждением того, к чему уже и так склоняются. И модель в таком сценарии работает не как объективный источник знаний, а как множитель мысли пользователя, усиливая его позицию аргументами. Про нечто похожее я уже писал ранее (но с точки зрения программирования), в том исследовании говорилось, что чем менее опытный инженер при помощи агентов создаёт программное обеспечение, тем менее сопровождаемое оно получается. И в этом, как по мне, одна из самых неприятных сторон языковых моделей, они очень убедительны там, где меньше всего нужна убедительность и больше всего нужна объективность. Проблема не только в том, что модель может ошибиться, проблема в том, что она может ошибиться в желаемую для пользователя сторону.
На этом фоне показательно смотрится тема, которую поднял Влад @NGI_ru в разрезе психологии. В посте на который я ссылаюсь проблема рассматривается с точки зрения галлюцинаций модели, но я всё же склоняюсь к предположению о том, что причина в самих вопросах (составленных вероятно предвзято), содержащих в себе частицу ответа, которую модель мультиплицировала.
В общем есть над чем задуматься.
PS. Кстати, рекомендую ознакомиться с вот этой публикацией Confirmation bias (предвзятость подтверждения), там очень хорошо расписана затронутая мною тема.
Сегодня предлагаю ещё один вопрос для рефлексии и философствования, на этот раз про одну из самых недооценённых проблем LLM, которая заключена не в галлюцинациях и даже не ошибках самих по себе, а в том как легко модели подыгрывают позиции пользователя.
Когда человек изучает некую тему, например про бег, он может спросить модельку "почему бег полезен" и получить вполне убедительный текст про сердце, кардиовыносливость, настроение и метаболизм. Но если другой человек спросит "почему бег вреден", модель с такой же уверенностью распишет про нагрузку на суставы, травмы, кортизол и износ организма.
Чуть иначе сформулировал запрос - и получил не просто другой акцент, а местами вообще противоположный вывод, в таких случаях мне вспоминается народная мудрость:
Вопрос содержит в себе 90% ответа.
Любой наш вопрос по отношению к модели скорее всего будет задан не из нейтральной позиции, даже при работе с кодовым агентом, а склоняясь к некоей определённой точке зрения, так как обычно вопрос уже содержит в себе скрытый ответ или намёк на него.
Частенько некоторые из нас не столько исследуют тему, сколько приходят за подтверждением того, к чему уже и так склоняются. И модель в таком сценарии работает не как объективный источник знаний, а как множитель мысли пользователя, усиливая его позицию аргументами. Про нечто похожее я уже писал ранее (но с точки зрения программирования), в том исследовании говорилось, что чем менее опытный инженер при помощи агентов создаёт программное обеспечение, тем менее сопровождаемое оно получается. И в этом, как по мне, одна из самых неприятных сторон языковых моделей, они очень убедительны там, где меньше всего нужна убедительность и больше всего нужна объективность. Проблема не только в том, что модель может ошибиться, проблема в том, что она может ошибиться в желаемую для пользователя сторону.
На этом фоне показательно смотрится тема, которую поднял Влад @NGI_ru в разрезе психологии. В посте на который я ссылаюсь проблема рассматривается с точки зрения галлюцинаций модели, но я всё же склоняюсь к предположению о том, что причина в самих вопросах (составленных вероятно предвзято), содержащих в себе частицу ответа, которую модель мультиплицировала.
В общем есть над чем задуматься.
PS. Кстати, рекомендую ознакомиться с вот этой публикацией Confirmation bias (предвзятость подтверждения), там очень хорошо расписана затронутая мною тема.
👍24💯6❤🔥3
Forwarded from Валера Ковальский
Openapi-to-cli
«openapi-to-cli» (ocli) — CLI-утилита на TypeScript, которая превращает любое OpenAPI/Swagger API в набор CLI-команд в рантайме, без кодогенерации. По сравнению с MCP+Search подходом, ocli даёт в 15 раз более компактные результаты поиска
Самый быстро растущий наш с Пашей проект за меньше чем 5 дней 100+ звезд
400 + Clones
2000 посещений репо
Что интересно в части рабочих чатиков видел обсуждение и тесты тулзы (и пока только положительные впечетления)
РЕПО: https://github.com/EvilFreelancer/openapi-to-cli
«openapi-to-cli» (ocli) — CLI-утилита на TypeScript, которая превращает любое OpenAPI/Swagger API в набор CLI-команд в рантайме, без кодогенерации. По сравнению с MCP+Search подходом, ocli даёт в 15 раз более компактные результаты поиска
Самый быстро растущий наш с Пашей проект за меньше чем 5 дней 100+ звезд
400 + Clones
2000 посещений репо
Что интересно в части рабочих чатиков видел обсуждение и тесты тулзы (и пока только положительные впечетления)
РЕПО: https://github.com/EvilFreelancer/openapi-to-cli
52🔥26👍1