Вайб-кодинг по Чуйкову | ИИ
714 subscribers
114 photos
18 videos
1 file
120 links
Меня зовут Константин. Пишу код больше 15 лет, а сейчас пишу про то, как ИИ будет писать код следующие 15 лет. Канал про ИИ в разработке и вайб-кодинге.

Сотрудничество @chuikoff
Download Telegram
Пока я тут писал рефлексивные посты, переживая за тот уровень искренности, который я в них вложил, внезапно обнаружил Telegram тренд, в котором авторы делятся своим саммари того, что с ними произошло за последние 5 лет.

Потом пошел дальше, нашел пост Кирилла о том, как он ушел из С-level позиции в саббатикал. И еще несколько таких же историй в комментариях.

И я перестал переживать за искренность. Ну и в целом переживать за возможные будущие изменения.

Оказалось, процессы которые происходили у меня в голове, и продолжают происходить, абсолютно типичны, с ними сталкиваются люди абсолютно на разных этапах развития.

Десятки тысяч подписчиков, С-level позиция, бизнес, путешествия - это не последствия благополучия, и не гарант благополучия. Это индикатор того, что несмотря на все, человек не сдается и продолжает идти вперед.

А как вы относитесь к тому, когда автор экспертного канала делится личным?
11
This media is not supported in your browser
VIEW IN TELEGRAM
Trae получил крутой апдейт - SOLO Mode.

Kiro задал новую планку контекстной инженерии. И пока Cursor, Windsurf приходят в себя после произошедших с ними изменений, первым эту волну подхватил Trae.

Теперь SOLO режим Trae на основе поставленной задачи формирует требования, описывает техническую реализацию, разбивает на задачи и запускает ее реализацию.

Контекстная инженерия - сейчас база вайб-кодинга. Markdown документация по проекту должна занимать 30-40% всего репозитория, чтобы при переходе в другого агента, не терялся контекст, и агенты могли продолжить работу.

Сейчас важнее не сверх-умные промпты, а полный, структурированный контекст проекта.

Это и попытались подхватить ребята из ByteDance. И кажется у них недурно получилось.

Но я пока считаю, что Kiro - это лучшее, что произошло с нами этим летом. Их подход задал высокую планку и приблизил вайб-кодеров к продакшен уровню.

Но конкуренция как известно двигает прогресс, так что прочитать что нам приготовил SOLO режим от Trae можно по ссылке.

🎚️ @vibe_coding_channel
🎚️ @vibe_coding_community
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍1
🎁 KiloCode раздает деньги! А точнее бустит ваш платеж на 300%. Например пополняете баланс на 5$, на выходе получаете 20$. Бонусы превратятся в тыкву 28 августа.

Этот баланс можно потратить над запросы к любой модели доступной в Open Router. К тому же работать с Open Router через KiloCode выгоднее, нет наценки 5%. OpenRouter without 5% markup - говорится на сайте.

KiloCode - это расширение для VSCode для осознанного вайба. То есть вайб-кодинга с контролем кода.

KiloCode также неплохо работает с локальными моделями, но там уже вам платить не придется. Только дольше ждать, и чаще править код 😅

Также в KiloCode есть кастомизируемые режимы и мультиагенты.

Конечно после Kiro, возвращаться в VSCode+Ext болезненно, но если уперся в лимиты, и никакая IDE не работает, то достойная альтернатива для простых задач: баг найти, тесты написать, и так далее.

Делитесь с друзьями и коллегами, праздник невиданной щедрости ограничен.

@vibe_coding_channel
@vibe_coding_community
👍5🙏2
В последнее время стал реже писать технические посты про вайб-кодинг. Связано это с изменениями на работе. Сейчас много времени посвящаю изучению low-code платформ.

Пока что, лучше, проще, и понятнее, чем n8n я не встречал. Концепт, когда на экране input - params - output, гениален! И я не понимаю почему остальные системы не идут таким же путем.

Но у n8n есть некоторые неудобства применительно к интерпрайз уровню. Внутрикомандные инструменты сделать - ок. Но выносить в продакшен на публику, особенно если это коммерческий проект, увы не получится.

Нашел я недавно Kestra, заявляется как интерпрайз уровень, флоу агентов пишется в yaml, значит легко внедрить в Git workflow. Куча крутых штук для интерпрайза, но OSS версия очень ограничена. И честно говоря писать флоу в yaml ну не удобно.

Flowise я ставил для экспериментов с ИИ агентами по советам одного блогера. Но в какой-то момент уткнутся в ограничения банальные, которые в n8n решаются одним пальцем. В итоге удалил.

Сейчас по работе поставил себе Langflow. Выглядит более функциональным, чем Flowise. Но очень не хватает Input - Params - Output подхода как в n8n. Для мониторинга приходится дополнительно подключать Langfuse, но там зато в придачу идут еще некоторые крутые фичи, типа версионирования промптов.

В общем, если вы для себя хотите делать ИИ агентов - то n8n, лучшее, что я когда-либо встречал. Если вам нужен интепрайз уровень, можно смотреть в сторону Langflow. Но уверен по пути будет не мало подводных камней.

Так что, помимо вайб-кодинга, буду периодически писать и про low-code инструменты. В целом эти две темы близки, потому как вайб-кодинг отлично дополняет отстутствие необходимых узлов в low-code платформах.

🎚️ @vibe_coding_channel
🎚️ @vibe_coding_community
Please open Telegram to view this post
VIEW IN TELEGRAM
4🔥1
Media is too big
VIEW IN TELEGRAM
Сравнение N8N и Langflow при работе с векторной базой данных Qdrant.

В этом видео пошагово и наглядно показываю на сколько отличается уровень пользовательского опыта при работе с векторной базой данных Qdrant в n8n и Langflow.

Я сделал простой флоу - один триггер запускает добавление чанков в базу, а другой - поиск чанков.

В n8n для каждой операции с базой у тебя своя форма настройки, и при изменении операции тебе показываются настройки которые касаются только этой операции.

В Langflow у тебя единая нода, и тебе нужно для каждой операции настроить ее индивидуально выбирая параметры из общего списка.

У меня вопрос - для кого это сделано?!

@vibe_coding_channel
@vibe_coding_community
1👍63🔥2
Meta* проводит тестирование новых форматов собеседований, в которых соискателям позволяется использовать ИИ.

Компания просит существующих сотрудников пройти пробные мок-собесы с использованием ИИ, чтобы обкатать процесс.

Цукерберг говорит, что вайб-кодинг становится неотъемлемой частью работы инженеров, поэтому такие собеседования более репрезентативны.

Не знаете где можно в РФ попасть на подобные собесы?

@vibe_coding_channel
@vibe_coding_community

* Meta - запрещенная в РФ организация.
🔥61
This media is not supported in your browser
VIEW IN TELEGRAM
Ollama наконец-то обзавелась собственным UI.

Как-то я писал свой топ UI для Ollama. С тех пор я сильно пересмотрел свои взгляды.

Из всех десктоп интерфейсов больше всего мне зашел платный MindMac.

OpenWebUI тоже хорош, но для моих потребностей слишком, кушает много ОЗУ в Docker, а пользуюсь я не так часто.

Поэтому сейчас лучший UI для Ollama для меня - это Telegram бот работающий через n8n. Но только для моделей до 8B. Более большие модели работают долго и нужны в основном для автономных задач.

Новый UI от Ollama можно посмотреть тут - https://ollama.com/blog/new-app

@vibe_coding_channel
@vibe_coding_community
👍4🔥41
VIbe Coding Interview Guide in the Shopify.pdf
117.7 KB
🚀 Гайд по прохождению собеса в Shopify с использованием ИИ.

Попался мне документ с описанием процесса прохождения собеседования в Shopify для инженера. Вот что примечательного я для себя отметил.

Shopify использует подход — парное программирование, при котором один программист пишет код, второй анализирует и направляет. Это повышает качество кода, помогает быстрее решать сложные задачи и обучаться новому.

Но по факту получается не совсем pair programming, а скорее mob programming. Потому что:
— над задачей работаете вы,
— пишет код ИИ,
— а действующий инженер Shopify наблюдает, задаёт вектор, комментирует.

Mob Programming — подход к разработке, при котором вся команда работает над одной и той же задачей, в одно и то же время, в одном и том же месте, используя один и тот же компьютер.


💡Что важно продемонстрировать на таком собеседовании:
Покажите свои сильные стороны. Озвучивайте мысли, делитесь логикой решений, используйте те инструменты, с которыми вам комфортно.
Будьте открыты к взаимодействию. Принимайте фидбэк и адаптируйте решение.
Подключайте критическое мышление. Прежде чем писать — разберите задачу, крайние случаи, возможности масштабирования, план тестирования.
Пишите чисто. Говорящие переменные, логичная структура, комментарии к сложным участкам.
Следите за временем. Если зависли — не бойтесь это озвучить. Иногда лучше обсудить альтернативу, чем вязнуть.

Часто задаваемые вопросы:

— Можно ли использовать онлайн-документацию?
Да, и это поощряется. Умение искать и учиться важнее запоминания.

— Можно ли задавать вопросы интервьюеру?
Да. Это не экзамен, а совместная работа. Главное — вы ведёте процесс.

— Нужно ли обязательно завершить задачу?
Нет. Главное — как вы думаете, структурируете решение и взаимодействуете. Лучше половина качественного решения, чем полный, но нечитабельный хардкод.

— Есть ли “правильный” ответ?
Цель — работающее решение. Но путей может быть много. Важно: читаемость, производительность, возможность масштабирования.

— Можно ли использовать ИИ?
Да. Более того — это ожидается. Shopify хочет видеть, как вы работаете в реальности, а не в вакууме без инструментов.

👀 Хотели бы пройти такое мок-собеседование в формате pair/mob programming — чтобы почувствовать, как это устроено?

@vibe_coding_channel
@vibe_coding_community
👍6🔥1
Вайб-кодим сервис транскрибации аудио на базе Whisper под Apple Silicon.

Как вы помните, я недавно снял видео, в котором сравнивал UX n8n и langflow. Перед публикацией в Telegram мне нужно было наложить на видео субтитры. Я загуглил, что сейчас можно использовать для таких целей и нашел следующие варианты:

veed.io - крутой инструмент, но очень дорогой, к тому же я не так часто делаю видео, чтобы платить 20$ за это дело.

clideo.com - я не пожалел денег и оплатил его, просто потому, что он обошелся в 9$, и я как фронтендер в анамнезе, ценю минималистичные и простые интерфейсы. А там интерфейсы делал какой-то Конфуций, на столько просто, чисто, изящно, я прям получил удовольствие.

Но потом я подумал, что субтитры не такая уж и сложная вещь, чтобы за нее платить, и вспоминил что gladia.com дает 10 часов в месяц бесплатно на транскрибации, и у них есть возможность их скачивать в формате .srt. Я залил свое видео на YouTube, и закинул ссылку на Gladia, он сделал мне .srt. Я открыл бесплатную программу для сжатия видео HandBrake, и там вставил полученный .srt во вкладке Subtitles. Вот такой бесплатный способ я нашел.

Но я подумал, Gladia - это внешний зарубежный сервис, лимиты могут меняться (привет Cursor), а Handbrake вообще десктопное приложение. Значит такой способ не подходит для интеграций в n8n. Тогда я решил сделать то, что давно хотел на своем домашнем сервере MacStudio, а именно поднять свой Whisper как веб-сервис на FastApi.

Начал я с whisper-cli. Поднял его с помощью Brew. Скачал сначала Base модель, но качество мне не понравилось. Когда попробовал Large модель, ощутил как продакшен уровень вошел в мой дом.

Я попросил Kiro написать мне микросервис с одним ендпоинтом POST /srt, который бы дергал whisper-cli. Он сначала начал делать все правильно, а потом начал путаться, и использовать Python библиотеку whisper, которая работает на базе Torch. В процессе работы с ней, я узнал что Torch еще не работает нормально с Apple Silicon Metal GPU. А запускать транскрибацию на Large модели на CPU, ну прям больно.

Попросил выпилить Torch версию Whisper, и использовать whisper-cli. Потом пошел гуглить, какие еще есть альтернативы, и обнаружил крутой репозиторий с примерами портирования разных ML моделей под MLX. MLX - это фреймворк для машинного обучения, специально разработанный для эффективной работы на чипах Apple Silicon.

И среди примеров оказался Whisper MLX который отлично запускается на Apple Silicon, через Python библиотеку, а не через CLI. Kiro быстро сориентировался в документации, выпилил whisper-cli, и переписал все на whisper-mlx. Заработало как по маслу, GPU очень эффективно использовал, транскрибировал 18 минутную запись на Large модели за 1-2 минуты. Но мне показалось, что качество Large модели под MLX ниже, чем под whisper-cli, но об этом я напишу в другой раз.

@vibe_coding_channel
@vibe_coding_community
1🔥65
🎁 Первый кто подаст заявку на вступление в @vibe_coding_community получит от меня ключ от аккаунта в KiloCode с балансом 20$.
Please open Telegram to view this post
VIEW IN TELEGRAM
В Telegram наконец появился глобальный поиск по постам публичных каналов.

Поиск работает неплохо с точки зрения вариативности. «вайб-кодинг» и «вайб кодинг», считает одним запросом. Но например «vibe coding» относит к каналам других языковых групп, что делает поиск не удобным. Но думаю это поправят.

Но больше всего меня удивила политика ограниченности количество бесплатных запросов. Паша, ну? Кто платит в наше время за поиск?

@vibe_coding_channel
@vibe_coding_community
👍42😁2
🤰 Каналу уже почти 9 месяцев, пора родить новую подборку.

Я уже делал две подборки: одна - посты чисто про вайб-кодинг, другая - посты с философским уклоном.

Сегодня решил сделать подборку, которая поможет новым подписчикам лучше познакомится со мной и узнать про мой опыт и интересы.

Мой карьерный путь:
- Часть 1. Фриланс
- Часть 2. Своя веб-студия
- Часть 3. Работа в компаниях

Мой путь спикера:
- Воркшоп по вайб-кодингу в Vibe Coding Community
- Мастер-класс по вайб-кодингу в Синергии
- Мастер-класс по вайб-кодингу в СберУниверситете

Мой домашний сервер на Mac Studio:
- Зачем мне домашний сервер?
- Установка и настройка Mac Studio. Часть 1. Технические вводные и сетевые настройки.
- Установка и настройка Mac Studio. Часть 2. Проблемы с сетевым доступом и использование тунелей.
- Установка и настройка Mac Studio. Часть 3. N8N, ollama и другие сервисы, которые я использую.
- Установка и настройка Mac Studio. Часть 4. Запуск локальных моделей.
- Установка и настройка Mac Studio. Часть 5. Новый роутер - Keenetic.
- Автоматизация с помощью ИИ. Ожидания и реальность.

1 декабря, когда каналу будет ровно 1 год, я напишу подборку подборок.

И жена обещала испечь торт на 1000 подписчиков. Поддержите ее новыми подписками и рекомендациями 😉

🎚️ @vibe_coding_channel
🎚️ @vibe_coding_community
Please open Telegram to view this post
VIEW IN TELEGRAM
113🔥3
🦸Очередной псевдо-герой EasyCode.ai

Увидел его упоминание в нескольких ИИ каналах. Увидел лейбочку YC Backed.

Фразы на сайте, типа:
Built for experienced devs.
Built for vibe coders.

Вообще растопили мое сердце.

Или посмотрите на это:

The Past
front end engineer
back end engineer
devops engineer
ML engineer
product manager

The Future
Vibe Coder
AI Developer
Future Builder

Что по итогу? По итогу чрезмерная адаптация и натренированность под Next.js + Supabase, а это значит минус гибкость. Хотите чтобы у вас на компе под каждый стек стояло отделение приложение агент? Я - нет.

Одна модель.
За счет всяких визуальных наворотов, получился такой медленный (закодили на чистом вайбе) форк VSCode с красивыми диаграмками.

В общем, не тратьте свое время.

Я сейчас еще тестирую Dyad который тоже светился в тех же пабликах. Первое впечатление не очень. Но там хотя бы можно локальные модели гонять, и они даже работают. Но о нем я напишу в другой раз.

🎚️ @vibe_coding_channel
🎚️ @vibe_coding_community
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI зарелизили открытую модель gpt-oss в двух весовых категориях - 120b и 20b.

Ее уже сейчас можно попробовать в Ollama. Судя по описанию они идут сразу с reasoning’ом и tool calling’ом, что делает модель отличным вариантом для использования в агентной среде.

Что еще меня поразило, так это возможность использования встроенного в Ollama веб-поиска и вызова Python скриптов.

И все это чудо под лицензией Apache 2.0.

Ощущение, что Ollama докрутили под эту модель, потому что ты ее не поставишь пока не обновишь Ollama до последней версии.

В Ollama появился режим Turbo. Судя по всему это, тот самый configurable reasoning effort. Оказалось нет, режим Turbo, это облачный сервис от Ollama. Теперь понятно почему в режиме Turbo я получил достаточно быстро результат. А вот без активации режима Turbo, я так и не смог получить никакого результата, даже спустя 5 минут, причем не видно, чтобы GPU нагружался.

Хотел запустить в консоли ollama run gpt-oss:20b --verbose чтобы увидеть конкретные метрики скрорости, но получил ошибку:
Error: template: :3: function "currentDate" not defined


Теперь даже удалить ее не могу.

А у вас как? Все работает? Пробовали уже? Как вам?

UPD: Сегодня ошибку в Ollama уже пофиксили.

🎚️ @vibe_coding_channel
🎚️ @vibe_coding_community
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8
Как заставить модель писать как вы?

Как вы помните, у меня есть домашний сервер на Mac Studio, с локальными моделями и n8n. На нем я экспериментирую со всякими SMM штуками, типа аналитики и формирования мнений. Самая большая сложность в задачах автоматизации постинга в социальных сетях (в Telegram я практически всегда пишу сам!) - это чтобы модель писала то, что ты хочешь, и так как ты хочешь. А именно придерживалась твоего tone of voice, и не писала чушь от твоего лица.

Небольшое отступление, немного юмора.

Экспериментировал с негативными комментариями в Threads* о вайб-кодинге, с целью изменить мнение в отношении этого направления. Пробовал разные локальные модели типа, gemma3, phi3, и другие. И промпт был какой-то простой, типа "переубеди собеседника в том, что вайб-кодинг - это просто инструмент, которым нужно научится правильно пользоваться".

Завайбкодил chrome extension для автопостинга комментариев от своего аккаунта, была уже ночь, и я пошел спать, думая что эта штука не работает. Утром обнаружил обратное. Получил несколько подписчиков. Начал читать, что там модели напридумывали. И это был кринж.

Пришлось все чистить. Но самый прикол был с одним комментарием, где "я" вдруг вспомнил какой-то проигранный в Нью-Йорке суд из-за вайб-кодинга. Но и это не самое смешное. На той стороне тоже оказался бот, который стал оправдываться, почему он проиграл тот суд 😂

Короче, меня ситуация не устроила, я пошел работать над промптами, экспериментировать с моделями и параметрами. Начал я с моего любимого инструмента генерации промптов от Anthropic. И вот что я "нащупал".

Чтобы заставить модель говорить как ты, нужно дать ей примеры твоей ествественной речи, например:


The tone of voice for your message should follow this example:
<tone_of_voice>
Копируем сюда пару десяток сообщений из чатов tg, которые отражают твоей естественный стиль и тон общения. Чем разнообразнее, тем лучше.
</tone_of_voice>


Чтобы заставить модель говорить что ты хочешь, нужно дать ей базу знаний. Тут я бы не шел в сторону RAG, хотя можно и так. Лично я для себя просто тезисно в системном промпте сформулировал всё то важное, что я посчитал нужно знать начинающим о вайб-кодинге.


When crafting your response, consider the following knowledge base:
<knowledges>
### Про себя:
- ...

### Про вайб-кодинг:
- ...

### Про Vibe Coding Community
- ...

### Про дебаггинг:
- ...

### Про промпты:
- ...

### Про безопасность:
- ...
</knowledges>



Но на промптах ничего не заканчивается, разные модели по разному влияют на результат и слушаются инструкций. Для креатива размышляющие модели не очень подходят, поэтому из неразмышляющих локально у меня стояли только gemma3 и phi4. Gemma3 показывала неплохой результат, но очень уж формальный. Phi4 был чуть хуже, и иногда менял язык.

Потом я нашел на сайте ollama, что 3 недели назад вышла mistral-small3.2 на 24 миллиарда параметров, и решил попробовать. И получил нормальный живой результат, осмысленные ответы основанные на базе знаний. Но не постоянные. И тут я понял свою ошибку. Когда промпт был простой, типа придумай аргументы, там нужна была температура 1.0-1.2, для большей креативности. Но промпт с базой знаний подразумевает четкое следование этой базе, и тут решающим стало изменение температуры с 1.2 на 0.6. Модель стала стабильно неплохо выдавать результат, за который в целом было не стыдно.

В конце хотел спросить: "а кто-то вообще пользуется Threads?", но подумал что лучше закончить фразой: "Threads - социальная сеть от запрещенной в России организации".

🎚️ @vibe_coding_channel
🎚️ @vibe_coding_community
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥51
Yann Dubois из OpenAI показывает на презентации ChatGPT 5, как будет выглядеть вайб-кодинг с приходом новой модели. Можно посмотреть презентацию тут - https://www.youtube.com/watch?v=0Uu_VJeVVfo, примерно на 28 минуте. Показывает как сделать персональное приложение для изучения французского языка.

@vibe_coding_channel
@vibe_coding_community
🔥4
Зашел на сайт OpenAI чтобы оплатить Plus подписку и в числе первых попробовать новую ChatGPT 5. И мне тут прилетела скидка 50% на три месяца. Вместо 20$ в месяц, буду платить 10$.

🎚️ @vibe_coding_channel
🎚️ @vibe_coding_community
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4
Заявляют, что GPT-5 обходит о3 в задачах по кодингу. Посмотрим, посмотрим.
👍3
This media is not supported in your browser
VIEW IN TELEGRAM
Cursor завез не только GPT-5, но и сделал свой CLI инструмент на подобие Claude Code, Gemini CLI, Codex CLI.

Ставится простой командой:

curl https://cursor.com/install -fsS | bash


Можно использовать в любой привычной IDE, не только Cursor, но за подписочку денежку курсору не забывайте отваливать.

В целом минималистично, ничего примечательного, просто еще один CLI Coding Agent, для любителей по-вайбкодить в терминале. Ну или автоматизировать какие-то процессы в CI Pipelines.

🎚️ @vibe_coding_channel
🎚️ @vibe_coding_community
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6
This media is not supported in your browser
VIEW IN TELEGRAM
Вам кто-нибудь давал три дня безлимитного доступа к Claude 4.1 Opus? А я знаю такого провайдера!

Несколько месяцев назад проводил мастер-класс в СберУниверситете по вайб-кодингу, в котором мы в Harvi.pro делали лендинг и дэшборд. Но тогда был просто Claude 4 Sonnet.

Сейчас модель обновили до Claude 4.1 Opus. Opus 4.1 - флагманская модель от Anthropic. Так что если вы успели воспользоваться моим промокодом 70%, то вы купили Opus по цене Sonnet.

Если нет, промокод у меня еще действует до конца года. Пишите в личку @chuikoff. А если не уверены, то harvi.pro, с 10 по 13 августа сделали бесплатный безлимитный доступ к Claude 4.1 Opus.

Пробуйте сами и делитесь с друзьями и коллегами.

P.S. На видео пример игры которую я сделал за пару вечеров в Harvi.pro

🎚️ @vibe_coding_channel
🎚️ @vibe_coding_community
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥21