Пока я тут писал рефлексивные посты, переживая за тот уровень искренности, который я в них вложил, внезапно обнаружил Telegram тренд, в котором авторы делятся своим саммари того, что с ними произошло за последние 5 лет.
Потом пошел дальше, нашел пост Кирилла о том, как он ушел из С-level позиции в саббатикал. И еще несколько таких же историй в комментариях.
И я перестал переживать за искренность. Ну и в целом переживать за возможные будущие изменения.
Оказалось, процессы которые происходили у меня в голове, и продолжают происходить, абсолютно типичны, с ними сталкиваются люди абсолютно на разных этапах развития.
Десятки тысяч подписчиков, С-level позиция, бизнес, путешествия - это не последствия благополучия, и не гарант благополучия. Это индикатор того, что несмотря на все, человек не сдается и продолжает идти вперед.
А как вы относитесь к тому, когда автор экспертного канала делится личным?
Потом пошел дальше, нашел пост Кирилла о том, как он ушел из С-level позиции в саббатикал. И еще несколько таких же историй в комментариях.
И я перестал переживать за искренность. Ну и в целом переживать за возможные будущие изменения.
Оказалось, процессы которые происходили у меня в голове, и продолжают происходить, абсолютно типичны, с ними сталкиваются люди абсолютно на разных этапах развития.
Десятки тысяч подписчиков, С-level позиция, бизнес, путешествия - это не последствия благополучия, и не гарант благополучия. Это индикатор того, что несмотря на все, человек не сдается и продолжает идти вперед.
А как вы относитесь к тому, когда автор экспертного канала делится личным?
❤11
This media is not supported in your browser
VIEW IN TELEGRAM
Trae получил крутой апдейт - SOLO Mode.
Kiro задал новую планку контекстной инженерии. И пока Cursor, Windsurf приходят в себя после произошедших с ними изменений, первым эту волну подхватил Trae.
Теперь SOLO режим Trae на основе поставленной задачи формирует требования, описывает техническую реализацию, разбивает на задачи и запускает ее реализацию.
Контекстная инженерия - сейчас база вайб-кодинга. Markdown документация по проекту должна занимать 30-40% всего репозитория, чтобы при переходе в другого агента, не терялся контекст, и агенты могли продолжить работу.
Сейчас важнее не сверх-умные промпты, а полный, структурированный контекст проекта.
Это и попытались подхватить ребята из ByteDance. И кажется у них недурно получилось.
Но я пока считаю, что Kiro - это лучшее, что произошло с нами этим летом. Их подход задал высокую планку и приблизил вайб-кодеров к продакшен уровню.
Но конкуренция как известно двигает прогресс, так что прочитать что нам приготовил SOLO режим от Trae можно по ссылке.
🎚️ @vibe_coding_channel
🎚️ @vibe_coding_community
Kiro задал новую планку контекстной инженерии. И пока Cursor, Windsurf приходят в себя после произошедших с ними изменений, первым эту волну подхватил Trae.
Теперь SOLO режим Trae на основе поставленной задачи формирует требования, описывает техническую реализацию, разбивает на задачи и запускает ее реализацию.
Контекстная инженерия - сейчас база вайб-кодинга. Markdown документация по проекту должна занимать 30-40% всего репозитория, чтобы при переходе в другого агента, не терялся контекст, и агенты могли продолжить работу.
Сейчас важнее не сверх-умные промпты, а полный, структурированный контекст проекта.
Это и попытались подхватить ребята из ByteDance. И кажется у них недурно получилось.
Но я пока считаю, что Kiro - это лучшее, что произошло с нами этим летом. Их подход задал высокую планку и приблизил вайб-кодеров к продакшен уровню.
Но конкуренция как известно двигает прогресс, так что прочитать что нам приготовил SOLO режим от Trae можно по ссылке.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍1
🎁 KiloCode раздает деньги! А точнее бустит ваш платеж на 300%. Например пополняете баланс на 5$, на выходе получаете 20$. Бонусы превратятся в тыкву 28 августа.
Этот баланс можно потратить над запросы к любой модели доступной в Open Router. К тому же работать с Open Router через KiloCode выгоднее, нет наценки 5%. OpenRouter without 5% markup - говорится на сайте.
KiloCode - это расширение для VSCode для осознанного вайба. То есть вайб-кодинга с контролем кода.
KiloCode также неплохо работает с локальными моделями, но там уже вам платить не придется. Только дольше ждать, и чаще править код 😅
Также в KiloCode есть кастомизируемые режимы и мультиагенты.
Конечно после Kiro, возвращаться в VSCode+Ext болезненно, но если уперся в лимиты, и никакая IDE не работает, то достойная альтернатива для простых задач: баг найти, тесты написать, и так далее.
Делитесь с друзьями и коллегами, праздник невиданной щедрости ограничен.
@vibe_coding_channel
@vibe_coding_community
Этот баланс можно потратить над запросы к любой модели доступной в Open Router. К тому же работать с Open Router через KiloCode выгоднее, нет наценки 5%. OpenRouter without 5% markup - говорится на сайте.
KiloCode - это расширение для VSCode для осознанного вайба. То есть вайб-кодинга с контролем кода.
KiloCode также неплохо работает с локальными моделями, но там уже вам платить не придется. Только дольше ждать, и чаще править код 😅
Также в KiloCode есть кастомизируемые режимы и мультиагенты.
Конечно после Kiro, возвращаться в VSCode+Ext болезненно, но если уперся в лимиты, и никакая IDE не работает, то достойная альтернатива для простых задач: баг найти, тесты написать, и так далее.
Делитесь с друзьями и коллегами, праздник невиданной щедрости ограничен.
@vibe_coding_channel
@vibe_coding_community
👍5🙏2
В последнее время стал реже писать технические посты про вайб-кодинг. Связано это с изменениями на работе. Сейчас много времени посвящаю изучению low-code платформ.
Пока что, лучше, проще, и понятнее, чем n8n я не встречал. Концепт, когда на экране input - params - output, гениален! И я не понимаю почему остальные системы не идут таким же путем.
Но у n8n есть некоторые неудобства применительно к интерпрайз уровню. Внутрикомандные инструменты сделать - ок. Но выносить в продакшен на публику, особенно если это коммерческий проект, увы не получится.
Нашел я недавно Kestra, заявляется как интерпрайз уровень, флоу агентов пишется в yaml, значит легко внедрить в Git workflow. Куча крутых штук для интерпрайза, но OSS версия очень ограничена. И честно говоря писать флоу в yaml ну не удобно.
Flowise я ставил для экспериментов с ИИ агентами по советам одного блогера. Но в какой-то момент уткнутся в ограничения банальные, которые в n8n решаются одним пальцем. В итоге удалил.
Сейчас по работе поставил себе Langflow. Выглядит более функциональным, чем Flowise. Но очень не хватает Input - Params - Output подхода как в n8n. Для мониторинга приходится дополнительно подключать Langfuse, но там зато в придачу идут еще некоторые крутые фичи, типа версионирования промптов.
В общем, если вы для себя хотите делать ИИ агентов - то n8n, лучшее, что я когда-либо встречал. Если вам нужен интепрайз уровень, можно смотреть в сторону Langflow. Но уверен по пути будет не мало подводных камней.
Так что, помимо вайб-кодинга, буду периодически писать и про low-code инструменты. В целом эти две темы близки, потому как вайб-кодинг отлично дополняет отстутствие необходимых узлов в low-code платформах.
🎚️ @vibe_coding_channel
🎚️ @vibe_coding_community
Пока что, лучше, проще, и понятнее, чем n8n я не встречал. Концепт, когда на экране input - params - output, гениален! И я не понимаю почему остальные системы не идут таким же путем.
Но у n8n есть некоторые неудобства применительно к интерпрайз уровню. Внутрикомандные инструменты сделать - ок. Но выносить в продакшен на публику, особенно если это коммерческий проект, увы не получится.
Нашел я недавно Kestra, заявляется как интерпрайз уровень, флоу агентов пишется в yaml, значит легко внедрить в Git workflow. Куча крутых штук для интерпрайза, но OSS версия очень ограничена. И честно говоря писать флоу в yaml ну не удобно.
Flowise я ставил для экспериментов с ИИ агентами по советам одного блогера. Но в какой-то момент уткнутся в ограничения банальные, которые в n8n решаются одним пальцем. В итоге удалил.
Сейчас по работе поставил себе Langflow. Выглядит более функциональным, чем Flowise. Но очень не хватает Input - Params - Output подхода как в n8n. Для мониторинга приходится дополнительно подключать Langfuse, но там зато в придачу идут еще некоторые крутые фичи, типа версионирования промптов.
В общем, если вы для себя хотите делать ИИ агентов - то n8n, лучшее, что я когда-либо встречал. Если вам нужен интепрайз уровень, можно смотреть в сторону Langflow. Но уверен по пути будет не мало подводных камней.
Так что, помимо вайб-кодинга, буду периодически писать и про low-code инструменты. В целом эти две темы близки, потому как вайб-кодинг отлично дополняет отстутствие необходимых узлов в low-code платформах.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4🔥1
Media is too big
VIEW IN TELEGRAM
Сравнение N8N и Langflow при работе с векторной базой данных Qdrant.
В этом видео пошагово и наглядно показываю на сколько отличается уровень пользовательского опыта при работе с векторной базой данных Qdrant в n8n и Langflow.
Я сделал простой флоу - один триггер запускает добавление чанков в базу, а другой - поиск чанков.
В n8n для каждой операции с базой у тебя своя форма настройки, и при изменении операции тебе показываются настройки которые касаются только этой операции.
В Langflow у тебя единая нода, и тебе нужно для каждой операции настроить ее индивидуально выбирая параметры из общего списка.
У меня вопрос - для кого это сделано?!
@vibe_coding_channel
@vibe_coding_community
В этом видео пошагово и наглядно показываю на сколько отличается уровень пользовательского опыта при работе с векторной базой данных Qdrant в n8n и Langflow.
Я сделал простой флоу - один триггер запускает добавление чанков в базу, а другой - поиск чанков.
В n8n для каждой операции с базой у тебя своя форма настройки, и при изменении операции тебе показываются настройки которые касаются только этой операции.
В Langflow у тебя единая нода, и тебе нужно для каждой операции настроить ее индивидуально выбирая параметры из общего списка.
У меня вопрос - для кого это сделано?!
@vibe_coding_channel
@vibe_coding_community
1👍6❤3🔥2
Meta* проводит тестирование новых форматов собеседований, в которых соискателям позволяется использовать ИИ.
Компания просит существующих сотрудников пройти пробные мок-собесы с использованием ИИ, чтобы обкатать процесс.
Цукерберг говорит, что вайб-кодинг становится неотъемлемой частью работы инженеров, поэтому такие собеседования более репрезентативны.
Не знаете где можно в РФ попасть на подобные собесы?
@vibe_coding_channel
@vibe_coding_community
* Meta - запрещенная в РФ организация.
Компания просит существующих сотрудников пройти пробные мок-собесы с использованием ИИ, чтобы обкатать процесс.
Цукерберг говорит, что вайб-кодинг становится неотъемлемой частью работы инженеров, поэтому такие собеседования более репрезентативны.
Не знаете где можно в РФ попасть на подобные собесы?
@vibe_coding_channel
@vibe_coding_community
* Meta - запрещенная в РФ организация.
🔥6❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Ollama наконец-то обзавелась собственным UI.
Как-то я писал свой топ UI для Ollama. С тех пор я сильно пересмотрел свои взгляды.
Из всех десктоп интерфейсов больше всего мне зашел платный MindMac.
OpenWebUI тоже хорош, но для моих потребностей слишком, кушает много ОЗУ в Docker, а пользуюсь я не так часто.
Поэтому сейчас лучший UI для Ollama для меня - это Telegram бот работающий через n8n. Но только для моделей до 8B. Более большие модели работают долго и нужны в основном для автономных задач.
Новый UI от Ollama можно посмотреть тут - https://ollama.com/blog/new-app
@vibe_coding_channel
@vibe_coding_community
Как-то я писал свой топ UI для Ollama. С тех пор я сильно пересмотрел свои взгляды.
Из всех десктоп интерфейсов больше всего мне зашел платный MindMac.
OpenWebUI тоже хорош, но для моих потребностей слишком, кушает много ОЗУ в Docker, а пользуюсь я не так часто.
Поэтому сейчас лучший UI для Ollama для меня - это Telegram бот работающий через n8n. Но только для моделей до 8B. Более большие модели работают долго и нужны в основном для автономных задач.
Новый UI от Ollama можно посмотреть тут - https://ollama.com/blog/new-app
@vibe_coding_channel
@vibe_coding_community
👍4🔥4❤1
VIbe Coding Interview Guide in the Shopify.pdf
117.7 KB
🚀 Гайд по прохождению собеса в Shopify с использованием ИИ.
Попался мне документ с описанием процесса прохождения собеседования в Shopify для инженера. Вот что примечательного я для себя отметил.
Shopify использует подход — парное программирование, при котором один программист пишет код, второй анализирует и направляет. Это повышает качество кода, помогает быстрее решать сложные задачи и обучаться новому.
Но по факту получается не совсем pair programming, а скорее mob programming. Потому что:
— над задачей работаете вы,
— пишет код ИИ,
— а действующий инженер Shopify наблюдает, задаёт вектор, комментирует.
💡Что важно продемонстрировать на таком собеседовании:
— Покажите свои сильные стороны. Озвучивайте мысли, делитесь логикой решений, используйте те инструменты, с которыми вам комфортно.
— Будьте открыты к взаимодействию. Принимайте фидбэк и адаптируйте решение.
— Подключайте критическое мышление. Прежде чем писать — разберите задачу, крайние случаи, возможности масштабирования, план тестирования.
— Пишите чисто. Говорящие переменные, логичная структура, комментарии к сложным участкам.
— Следите за временем. Если зависли — не бойтесь это озвучить. Иногда лучше обсудить альтернативу, чем вязнуть.
❓Часто задаваемые вопросы:
— Можно ли использовать онлайн-документацию?
Да, и это поощряется. Умение искать и учиться важнее запоминания.
— Можно ли задавать вопросы интервьюеру?
Да. Это не экзамен, а совместная работа. Главное — вы ведёте процесс.
— Нужно ли обязательно завершить задачу?
Нет. Главное — как вы думаете, структурируете решение и взаимодействуете. Лучше половина качественного решения, чем полный, но нечитабельный хардкод.
— Есть ли “правильный” ответ?
Цель — работающее решение. Но путей может быть много. Важно: читаемость, производительность, возможность масштабирования.
— Можно ли использовать ИИ?
Да. Более того — это ожидается. Shopify хочет видеть, как вы работаете в реальности, а не в вакууме без инструментов.
👀 Хотели бы пройти такое мок-собеседование в формате pair/mob programming — чтобы почувствовать, как это устроено?
@vibe_coding_channel
@vibe_coding_community
Попался мне документ с описанием процесса прохождения собеседования в Shopify для инженера. Вот что примечательного я для себя отметил.
Shopify использует подход — парное программирование, при котором один программист пишет код, второй анализирует и направляет. Это повышает качество кода, помогает быстрее решать сложные задачи и обучаться новому.
Но по факту получается не совсем pair programming, а скорее mob programming. Потому что:
— над задачей работаете вы,
— пишет код ИИ,
— а действующий инженер Shopify наблюдает, задаёт вектор, комментирует.
Mob Programming — подход к разработке, при котором вся команда работает над одной и той же задачей, в одно и то же время, в одном и том же месте, используя один и тот же компьютер.
💡Что важно продемонстрировать на таком собеседовании:
— Покажите свои сильные стороны. Озвучивайте мысли, делитесь логикой решений, используйте те инструменты, с которыми вам комфортно.
— Будьте открыты к взаимодействию. Принимайте фидбэк и адаптируйте решение.
— Подключайте критическое мышление. Прежде чем писать — разберите задачу, крайние случаи, возможности масштабирования, план тестирования.
— Пишите чисто. Говорящие переменные, логичная структура, комментарии к сложным участкам.
— Следите за временем. Если зависли — не бойтесь это озвучить. Иногда лучше обсудить альтернативу, чем вязнуть.
❓Часто задаваемые вопросы:
— Можно ли использовать онлайн-документацию?
Да, и это поощряется. Умение искать и учиться важнее запоминания.
— Можно ли задавать вопросы интервьюеру?
Да. Это не экзамен, а совместная работа. Главное — вы ведёте процесс.
— Нужно ли обязательно завершить задачу?
Нет. Главное — как вы думаете, структурируете решение и взаимодействуете. Лучше половина качественного решения, чем полный, но нечитабельный хардкод.
— Есть ли “правильный” ответ?
Цель — работающее решение. Но путей может быть много. Важно: читаемость, производительность, возможность масштабирования.
— Можно ли использовать ИИ?
Да. Более того — это ожидается. Shopify хочет видеть, как вы работаете в реальности, а не в вакууме без инструментов.
👀 Хотели бы пройти такое мок-собеседование в формате pair/mob programming — чтобы почувствовать, как это устроено?
@vibe_coding_channel
@vibe_coding_community
👍6🔥1
Вайб-кодим сервис транскрибации аудио на базе Whisper под Apple Silicon.
Как вы помните, я недавно снял видео, в котором сравнивал UX n8n и langflow. Перед публикацией в Telegram мне нужно было наложить на видео субтитры. Я загуглил, что сейчас можно использовать для таких целей и нашел следующие варианты:
veed.io - крутой инструмент, но очень дорогой, к тому же я не так часто делаю видео, чтобы платить 20$ за это дело.
clideo.com - я не пожалел денег и оплатил его, просто потому, что он обошелся в 9$, и я как фронтендер в анамнезе, ценю минималистичные и простые интерфейсы. А там интерфейсы делал какой-то Конфуций, на столько просто, чисто, изящно, я прям получил удовольствие.
Но потом я подумал, что субтитры не такая уж и сложная вещь, чтобы за нее платить, и вспоминил что gladia.com дает 10 часов в месяц бесплатно на транскрибации, и у них есть возможность их скачивать в формате .srt. Я залил свое видео на YouTube, и закинул ссылку на Gladia, он сделал мне .srt. Я открыл бесплатную программу для сжатия видео HandBrake, и там вставил полученный .srt во вкладке Subtitles. Вот такой бесплатный способ я нашел.
Но я подумал, Gladia - это внешний зарубежный сервис, лимиты могут меняться (привет Cursor), а Handbrake вообще десктопное приложение. Значит такой способ не подходит для интеграций в n8n. Тогда я решил сделать то, что давно хотел на своем домашнем сервере MacStudio, а именно поднять свой Whisper как веб-сервис на FastApi.
Начал я с whisper-cli. Поднял его с помощью Brew. Скачал сначала Base модель, но качество мне не понравилось. Когда попробовал Large модель, ощутил как продакшен уровень вошел в мой дом.
Я попросил Kiro написать мне микросервис с одним ендпоинтом POST /srt, который бы дергал whisper-cli. Он сначала начал делать все правильно, а потом начал путаться, и использовать Python библиотеку whisper, которая работает на базе Torch. В процессе работы с ней, я узнал что Torch еще не работает нормально с Apple Silicon Metal GPU. А запускать транскрибацию на Large модели на CPU, ну прям больно.
Попросил выпилить Torch версию Whisper, и использовать whisper-cli. Потом пошел гуглить, какие еще есть альтернативы, и обнаружил крутой репозиторий с примерами портирования разных ML моделей под MLX. MLX - это фреймворк для машинного обучения, специально разработанный для эффективной работы на чипах Apple Silicon.
И среди примеров оказался Whisper MLX который отлично запускается на Apple Silicon, через Python библиотеку, а не через CLI. Kiro быстро сориентировался в документации, выпилил whisper-cli, и переписал все на whisper-mlx. Заработало как по маслу, GPU очень эффективно использовал, транскрибировал 18 минутную запись на Large модели за 1-2 минуты. Но мне показалось, что качество Large модели под MLX ниже, чем под whisper-cli, но об этом я напишу в другой раз.
@vibe_coding_channel
@vibe_coding_community
Как вы помните, я недавно снял видео, в котором сравнивал UX n8n и langflow. Перед публикацией в Telegram мне нужно было наложить на видео субтитры. Я загуглил, что сейчас можно использовать для таких целей и нашел следующие варианты:
veed.io - крутой инструмент, но очень дорогой, к тому же я не так часто делаю видео, чтобы платить 20$ за это дело.
clideo.com - я не пожалел денег и оплатил его, просто потому, что он обошелся в 9$, и я как фронтендер в анамнезе, ценю минималистичные и простые интерфейсы. А там интерфейсы делал какой-то Конфуций, на столько просто, чисто, изящно, я прям получил удовольствие.
Но потом я подумал, что субтитры не такая уж и сложная вещь, чтобы за нее платить, и вспоминил что gladia.com дает 10 часов в месяц бесплатно на транскрибации, и у них есть возможность их скачивать в формате .srt. Я залил свое видео на YouTube, и закинул ссылку на Gladia, он сделал мне .srt. Я открыл бесплатную программу для сжатия видео HandBrake, и там вставил полученный .srt во вкладке Subtitles. Вот такой бесплатный способ я нашел.
Но я подумал, Gladia - это внешний зарубежный сервис, лимиты могут меняться (привет Cursor), а Handbrake вообще десктопное приложение. Значит такой способ не подходит для интеграций в n8n. Тогда я решил сделать то, что давно хотел на своем домашнем сервере MacStudio, а именно поднять свой Whisper как веб-сервис на FastApi.
Начал я с whisper-cli. Поднял его с помощью Brew. Скачал сначала Base модель, но качество мне не понравилось. Когда попробовал Large модель, ощутил как продакшен уровень вошел в мой дом.
Я попросил Kiro написать мне микросервис с одним ендпоинтом POST /srt, который бы дергал whisper-cli. Он сначала начал делать все правильно, а потом начал путаться, и использовать Python библиотеку whisper, которая работает на базе Torch. В процессе работы с ней, я узнал что Torch еще не работает нормально с Apple Silicon Metal GPU. А запускать транскрибацию на Large модели на CPU, ну прям больно.
Попросил выпилить Torch версию Whisper, и использовать whisper-cli. Потом пошел гуглить, какие еще есть альтернативы, и обнаружил крутой репозиторий с примерами портирования разных ML моделей под MLX. MLX - это фреймворк для машинного обучения, специально разработанный для эффективной работы на чипах Apple Silicon.
И среди примеров оказался Whisper MLX который отлично запускается на Apple Silicon, через Python библиотеку, а не через CLI. Kiro быстро сориентировался в документации, выпилил whisper-cli, и переписал все на whisper-mlx. Заработало как по маслу, GPU очень эффективно использовал, транскрибировал 18 минутную запись на Large модели за 1-2 минуты. Но мне показалось, что качество Large модели под MLX ниже, чем под whisper-cli, но об этом я напишу в другой раз.
@vibe_coding_channel
@vibe_coding_community
1🔥6❤5
Please open Telegram to view this post
VIEW IN TELEGRAM
В Telegram наконец появился глобальный поиск по постам публичных каналов.
Поиск работает неплохо с точки зрения вариативности. «вайб-кодинг» и «вайб кодинг», считает одним запросом. Но например «vibe coding» относит к каналам других языковых групп, что делает поиск не удобным. Но думаю это поправят.
Но больше всего меня удивила политика ограниченности количество бесплатных запросов. Паша, ну? Кто платит в наше время за поиск?
@vibe_coding_channel
@vibe_coding_community
Поиск работает неплохо с точки зрения вариативности. «вайб-кодинг» и «вайб кодинг», считает одним запросом. Но например «vibe coding» относит к каналам других языковых групп, что делает поиск не удобным. Но думаю это поправят.
Но больше всего меня удивила политика ограниченности количество бесплатных запросов. Паша, ну? Кто платит в наше время за поиск?
@vibe_coding_channel
@vibe_coding_community
👍4❤2😁2
🤰 Каналу уже почти 9 месяцев, пора родить новую подборку.
Я уже делал две подборки: одна - посты чисто про вайб-кодинг, другая - посты с философским уклоном.
Сегодня решил сделать подборку, которая поможет новым подписчикам лучше познакомится со мной и узнать про мой опыт и интересы.
Мой карьерный путь:
- Часть 1. Фриланс
- Часть 2. Своя веб-студия
- Часть 3. Работа в компаниях
Мой путь спикера:
- Воркшоп по вайб-кодингу в Vibe Coding Community
- Мастер-класс по вайб-кодингу в Синергии
- Мастер-класс по вайб-кодингу в СберУниверситете
Мой домашний сервер на Mac Studio:
- Зачем мне домашний сервер?
- Установка и настройка Mac Studio. Часть 1. Технические вводные и сетевые настройки.
- Установка и настройка Mac Studio. Часть 2. Проблемы с сетевым доступом и использование тунелей.
- Установка и настройка Mac Studio. Часть 3. N8N, ollama и другие сервисы, которые я использую.
- Установка и настройка Mac Studio. Часть 4. Запуск локальных моделей.
- Установка и настройка Mac Studio. Часть 5. Новый роутер - Keenetic.
- Автоматизация с помощью ИИ. Ожидания и реальность.
1 декабря, когда каналу будет ровно 1 год, я напишу подборку подборок.
И жена обещала испечь торт на 1000 подписчиков. Поддержите ее новыми подписками и рекомендациями 😉
🎚️ @vibe_coding_channel
🎚️ @vibe_coding_community
Я уже делал две подборки: одна - посты чисто про вайб-кодинг, другая - посты с философским уклоном.
Сегодня решил сделать подборку, которая поможет новым подписчикам лучше познакомится со мной и узнать про мой опыт и интересы.
Мой карьерный путь:
- Часть 1. Фриланс
- Часть 2. Своя веб-студия
- Часть 3. Работа в компаниях
Мой путь спикера:
- Воркшоп по вайб-кодингу в Vibe Coding Community
- Мастер-класс по вайб-кодингу в Синергии
- Мастер-класс по вайб-кодингу в СберУниверситете
Мой домашний сервер на Mac Studio:
- Зачем мне домашний сервер?
- Установка и настройка Mac Studio. Часть 1. Технические вводные и сетевые настройки.
- Установка и настройка Mac Studio. Часть 2. Проблемы с сетевым доступом и использование тунелей.
- Установка и настройка Mac Studio. Часть 3. N8N, ollama и другие сервисы, которые я использую.
- Установка и настройка Mac Studio. Часть 4. Запуск локальных моделей.
- Установка и настройка Mac Studio. Часть 5. Новый роутер - Keenetic.
- Автоматизация с помощью ИИ. Ожидания и реальность.
1 декабря, когда каналу будет ровно 1 год, я напишу подборку подборок.
И жена обещала испечь торт на 1000 подписчиков. Поддержите ее новыми подписками и рекомендациями 😉
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤13🔥3
🦸Очередной псевдо-герой EasyCode.ai
Увидел его упоминание в нескольких ИИ каналах. Увидел лейбочку YC Backed.
Фразы на сайте, типа:
Вообще растопили мое сердце.
Или посмотрите на это:
The Past
front end engineer
back end engineer
devops engineer
ML engineer
product manager
The Future
Vibe Coder
AI Developer
Future Builder
Что по итогу? По итогу чрезмерная адаптация и натренированность под Next.js + Supabase, а это значит минус гибкость. Хотите чтобы у вас на компе под каждый стек стояло отделение приложение агент? Я - нет.
Одна модель.
За счет всяких визуальных наворотов, получился такой медленный (закодили на чистом вайбе) форк VSCode с красивыми диаграмками.
В общем, не тратьте свое время.
Я сейчас еще тестирую Dyad который тоже светился в тех же пабликах. Первое впечатление не очень. Но там хотя бы можно локальные модели гонять, и они даже работают. Но о нем я напишу в другой раз.
🎚️ @vibe_coding_channel
🎚️ @vibe_coding_community
Увидел его упоминание в нескольких ИИ каналах. Увидел лейбочку YC Backed.
Фразы на сайте, типа:
Built forexperienced devs.
Built for vibe coders.
Вообще растопили мое сердце.
Или посмотрите на это:
The Past
front end engineer
back end engineer
devops engineer
ML engineer
product manager
The Future
Vibe Coder
AI Developer
Future Builder
Что по итогу? По итогу чрезмерная адаптация и натренированность под Next.js + Supabase, а это значит минус гибкость. Хотите чтобы у вас на компе под каждый стек стояло отделение приложение агент? Я - нет.
Одна модель.
За счет всяких визуальных наворотов, получился такой медленный (закодили на чистом вайбе) форк VSCode с красивыми диаграмками.
В общем, не тратьте свое время.
Я сейчас еще тестирую Dyad который тоже светился в тех же пабликах. Первое впечатление не очень. Но там хотя бы можно локальные модели гонять, и они даже работают. Но о нем я напишу в другой раз.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI зарелизили открытую модель gpt-oss в двух весовых категориях - 120b и 20b.
Ее уже сейчас можно попробовать в Ollama. Судя по описанию они идут сразу с reasoning’ом и tool calling’ом, что делает модель отличным вариантом для использования в агентной среде.
Что еще меня поразило, так это возможность использования встроенного в Ollama веб-поиска и вызова Python скриптов.
И все это чудо под лицензией Apache 2.0.
Ощущение, что Ollama докрутили под эту модель, потому что ты ее не поставишь пока не обновишь Ollama до последней версии.
В Ollama появился режим Turbo.Судя по всему это, тот самый configurable reasoning effort. Оказалось нет, режим Turbo, это облачный сервис от Ollama. Теперь понятно почему в режиме Turbo я получил достаточно быстро результат. А вот без активации режима Turbo, я так и не смог получить никакого результата, даже спустя 5 минут, причем не видно, чтобы GPU нагружался.
Хотел запустить в консоли
Теперь даже удалить ее не могу.
А у вас как? Все работает? Пробовали уже? Как вам?
UPD: Сегодня ошибку в Ollama уже пофиксили.
🎚️ @vibe_coding_channel
🎚️ @vibe_coding_community
Ее уже сейчас можно попробовать в Ollama. Судя по описанию они идут сразу с reasoning’ом и tool calling’ом, что делает модель отличным вариантом для использования в агентной среде.
Что еще меня поразило, так это возможность использования встроенного в Ollama веб-поиска и вызова Python скриптов.
И все это чудо под лицензией Apache 2.0.
Ощущение, что Ollama докрутили под эту модель, потому что ты ее не поставишь пока не обновишь Ollama до последней версии.
В Ollama появился режим Turbo.
Хотел запустить в консоли
ollama run gpt-oss:20b --verbose
чтобы увидеть конкретные метрики скрорости, но получил ошибку: Error: template: :3: function "currentDate" not defined
Теперь даже удалить ее не могу.
А у вас как? Все работает? Пробовали уже? Как вам?
UPD: Сегодня ошибку в Ollama уже пофиксили.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8
Как заставить модель писать как вы?
Как вы помните, у меня есть домашний сервер на Mac Studio, с локальными моделями и n8n. На нем я экспериментирую со всякими SMM штуками, типа аналитики и формирования мнений. Самая большая сложность в задачах автоматизации постинга в социальных сетях (в Telegram я практически всегда пишу сам!) - это чтобы модель писала то, что ты хочешь, и так как ты хочешь. А именно придерживалась твоего tone of voice, и не писала чушь от твоего лица.
Небольшое отступление, немного юмора.
Экспериментировал с негативными комментариями в Threads* о вайб-кодинге, с целью изменить мнение в отношении этого направления. Пробовал разные локальные модели типа, gemma3, phi3, и другие. И промпт был какой-то простой, типа "переубеди собеседника в том, что вайб-кодинг - это просто инструмент, которым нужно научится правильно пользоваться".
Завайбкодил chrome extension для автопостинга комментариев от своего аккаунта, была уже ночь, и я пошел спать, думая что эта штука не работает. Утром обнаружил обратное. Получил несколько подписчиков. Начал читать, что там модели напридумывали. И это был кринж.
Пришлось все чистить. Но самый прикол был с одним комментарием, где "я" вдруг вспомнил какой-то проигранный в Нью-Йорке суд из-за вайб-кодинга. Но и это не самое смешное. На той стороне тоже оказался бот, который стал оправдываться, почему он проиграл тот суд 😂
Короче, меня ситуация не устроила, я пошел работать над промптами, экспериментировать с моделями и параметрами. Начал я с моего любимого инструмента генерации промптов от Anthropic. И вот что я "нащупал".
Чтобы заставить модель говорить как ты, нужно дать ей примеры твоей ествественной речи, например:
Чтобы заставить модель говорить что ты хочешь, нужно дать ей базу знаний. Тут я бы не шел в сторону RAG, хотя можно и так. Лично я для себя просто тезисно в системном промпте сформулировал всё то важное, что я посчитал нужно знать начинающим о вайб-кодинге.
Но на промптах ничего не заканчивается, разные модели по разному влияют на результат и слушаются инструкций. Для креатива размышляющие модели не очень подходят, поэтому из неразмышляющих локально у меня стояли только gemma3 и phi4. Gemma3 показывала неплохой результат, но очень уж формальный. Phi4 был чуть хуже, и иногда менял язык.
Потом я нашел на сайте ollama, что 3 недели назад вышла mistral-small3.2 на 24 миллиарда параметров, и решил попробовать. И получил нормальный живой результат, осмысленные ответы основанные на базе знаний. Но не постоянные. И тут я понял свою ошибку. Когда промпт был простой, типа придумай аргументы, там нужна была температура 1.0-1.2, для большей креативности. Но промпт с базой знаний подразумевает четкое следование этой базе, и тут решающим стало изменение температуры с 1.2 на 0.6. Модель стала стабильно неплохо выдавать результат, за который в целом было не стыдно.
В конце хотел спросить: "а кто-то вообще пользуется Threads?", но подумал что лучше закончить фразой: "Threads - социальная сеть от запрещенной в России организации".
🎚️ @vibe_coding_channel
🎚️ @vibe_coding_community
Как вы помните, у меня есть домашний сервер на Mac Studio, с локальными моделями и n8n. На нем я экспериментирую со всякими SMM штуками, типа аналитики и формирования мнений. Самая большая сложность в задачах автоматизации постинга в социальных сетях (в Telegram я практически всегда пишу сам!) - это чтобы модель писала то, что ты хочешь, и так как ты хочешь. А именно придерживалась твоего tone of voice, и не писала чушь от твоего лица.
Небольшое отступление, немного юмора.
Экспериментировал с негативными комментариями в Threads* о вайб-кодинге, с целью изменить мнение в отношении этого направления. Пробовал разные локальные модели типа, gemma3, phi3, и другие. И промпт был какой-то простой, типа "переубеди собеседника в том, что вайб-кодинг - это просто инструмент, которым нужно научится правильно пользоваться".
Завайбкодил chrome extension для автопостинга комментариев от своего аккаунта, была уже ночь, и я пошел спать, думая что эта штука не работает. Утром обнаружил обратное. Получил несколько подписчиков. Начал читать, что там модели напридумывали. И это был кринж.
Пришлось все чистить. Но самый прикол был с одним комментарием, где "я" вдруг вспомнил какой-то проигранный в Нью-Йорке суд из-за вайб-кодинга. Но и это не самое смешное. На той стороне тоже оказался бот, который стал оправдываться, почему он проиграл тот суд 😂
Короче, меня ситуация не устроила, я пошел работать над промптами, экспериментировать с моделями и параметрами. Начал я с моего любимого инструмента генерации промптов от Anthropic. И вот что я "нащупал".
Чтобы заставить модель говорить как ты, нужно дать ей примеры твоей ествественной речи, например:
The tone of voice for your message should follow this example:
<tone_of_voice>
Копируем сюда пару десяток сообщений из чатов tg, которые отражают твоей естественный стиль и тон общения. Чем разнообразнее, тем лучше.
</tone_of_voice>
Чтобы заставить модель говорить что ты хочешь, нужно дать ей базу знаний. Тут я бы не шел в сторону RAG, хотя можно и так. Лично я для себя просто тезисно в системном промпте сформулировал всё то важное, что я посчитал нужно знать начинающим о вайб-кодинге.
When crafting your response, consider the following knowledge base:
<knowledges>
### Про себя:
- ...
### Про вайб-кодинг:
- ...
### Про Vibe Coding Community
- ...
### Про дебаггинг:
- ...
### Про промпты:
- ...
### Про безопасность:
- ...
</knowledges>
Но на промптах ничего не заканчивается, разные модели по разному влияют на результат и слушаются инструкций. Для креатива размышляющие модели не очень подходят, поэтому из неразмышляющих локально у меня стояли только gemma3 и phi4. Gemma3 показывала неплохой результат, но очень уж формальный. Phi4 был чуть хуже, и иногда менял язык.
Потом я нашел на сайте ollama, что 3 недели назад вышла mistral-small3.2 на 24 миллиарда параметров, и решил попробовать. И получил нормальный живой результат, осмысленные ответы основанные на базе знаний. Но не постоянные. И тут я понял свою ошибку. Когда промпт был простой, типа придумай аргументы, там нужна была температура 1.0-1.2, для большей креативности. Но промпт с базой знаний подразумевает четкое следование этой базе, и тут решающим стало изменение температуры с 1.2 на 0.6. Модель стала стабильно неплохо выдавать результат, за который в целом было не стыдно.
В конце хотел спросить: "а кто-то вообще пользуется Threads?", но подумал что лучше закончить фразой: "Threads - социальная сеть от запрещенной в России организации".
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5❤1
Yann Dubois из OpenAI показывает на презентации ChatGPT 5, как будет выглядеть вайб-кодинг с приходом новой модели. Можно посмотреть презентацию тут - https://www.youtube.com/watch?v=0Uu_VJeVVfo, примерно на 28 минуте. Показывает как сделать персональное приложение для изучения французского языка.
@vibe_coding_channel
@vibe_coding_community
@vibe_coding_channel
@vibe_coding_community
YouTube
Introducing GPT-5
Sam Altman, Greg Brockman, Sebastien Bubeck, Mark Chen, Yann Dubois, Brian Fioca, Adi Ganesh, Oliver Godement, Saachi Jain, Christina Kaplan, Christina Kim, Elaine Ya Le, Felipe Millon, Michelle Pokrass, Jakub Pachocki, Max Schwarzer, Rennie Song, Ruochen…
🔥4
Зашел на сайт OpenAI чтобы оплатить Plus подписку и в числе первых попробовать новую ChatGPT 5. И мне тут прилетела скидка 50% на три месяца. Вместо 20$ в месяц, буду платить 10$.
🎚️ @vibe_coding_channel
🎚️ @vibe_coding_community
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4
This media is not supported in your browser
VIEW IN TELEGRAM
Cursor завез не только GPT-5, но и сделал свой CLI инструмент на подобие Claude Code, Gemini CLI, Codex CLI.
Ставится простой командой:
Можно использовать в любой привычной IDE, не только Cursor, но за подписочку денежку курсору не забывайте отваливать.
В целом минималистично, ничего примечательного, просто еще один CLI Coding Agent, для любителей по-вайбкодить в терминале. Ну или автоматизировать какие-то процессы в CI Pipelines.
🎚️ @vibe_coding_channel
🎚️ @vibe_coding_community
Ставится простой командой:
curl https://cursor.com/install -fsS | bash
Можно использовать в любой привычной IDE, не только Cursor, но за подписочку денежку курсору не забывайте отваливать.
В целом минималистично, ничего примечательного, просто еще один CLI Coding Agent, для любителей по-вайбкодить в терминале. Ну или автоматизировать какие-то процессы в CI Pipelines.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6
This media is not supported in your browser
VIEW IN TELEGRAM
Вам кто-нибудь давал три дня безлимитного доступа к Claude 4.1 Opus? А я знаю такого провайдера!
Несколько месяцев назад проводил мастер-класс в СберУниверситете по вайб-кодингу, в котором мы в Harvi.pro делали лендинг и дэшборд. Но тогда был просто Claude 4 Sonnet.
Сейчас модель обновили до Claude 4.1 Opus. Opus 4.1 - флагманская модель от Anthropic. Так что если вы успели воспользоваться моим промокодом 70%, то вы купили Opus по цене Sonnet.
Если нет, промокод у меня еще действует до конца года. Пишите в личку @chuikoff. А если не уверены, то harvi.pro, с 10 по 13 августа сделали бесплатный безлимитный доступ к Claude 4.1 Opus.
Пробуйте сами и делитесь с друзьями и коллегами.
P.S. На видео пример игры которую я сделал за пару вечеров в Harvi.pro
🎚️ @vibe_coding_channel
🎚️ @vibe_coding_community
Несколько месяцев назад проводил мастер-класс в СберУниверситете по вайб-кодингу, в котором мы в Harvi.pro делали лендинг и дэшборд. Но тогда был просто Claude 4 Sonnet.
Сейчас модель обновили до Claude 4.1 Opus. Opus 4.1 - флагманская модель от Anthropic. Так что если вы успели воспользоваться моим промокодом 70%, то вы купили Opus по цене Sonnet.
Если нет, промокод у меня еще действует до конца года. Пишите в личку @chuikoff. А если не уверены, то harvi.pro, с 10 по 13 августа сделали бесплатный безлимитный доступ к Claude 4.1 Opus.
Пробуйте сами и делитесь с друзьями и коллегами.
P.S. На видео пример игры которую я сделал за пару вечеров в Harvi.pro
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥2❤1