🤰 Каналу уже почти 9 месяцев, пора родить новую подборку.
Я уже делал две подборки: одна - посты чисто про вайб-кодинг, другая - посты с философским уклоном.
Сегодня решил сделать подборку, которая поможет новым подписчикам лучше познакомится со мной и узнать про мой опыт и интересы.
Мой карьерный путь:
- Часть 1. Фриланс
- Часть 2. Своя веб-студия
- Часть 3. Работа в компаниях
Мой путь спикера:
- Воркшоп по вайб-кодингу в Vibe Coding Community
- Мастер-класс по вайб-кодингу в Синергии
- Мастер-класс по вайб-кодингу в СберУниверситете
Мой домашний сервер на Mac Studio:
- Зачем мне домашний сервер?
- Установка и настройка Mac Studio. Часть 1. Технические вводные и сетевые настройки.
- Установка и настройка Mac Studio. Часть 2. Проблемы с сетевым доступом и использование тунелей.
- Установка и настройка Mac Studio. Часть 3. N8N, ollama и другие сервисы, которые я использую.
- Установка и настройка Mac Studio. Часть 4. Запуск локальных моделей.
- Установка и настройка Mac Studio. Часть 5. Новый роутер - Keenetic.
- Автоматизация с помощью ИИ. Ожидания и реальность.
1 декабря, когда каналу будет ровно 1 год, я напишу подборку подборок.
И жена обещала испечь торт на 1000 подписчиков. Поддержите ее новыми подписками и рекомендациями 😉
🎚️ @vibe_coding_channel
🎚️ @vibe_coding_community
Я уже делал две подборки: одна - посты чисто про вайб-кодинг, другая - посты с философским уклоном.
Сегодня решил сделать подборку, которая поможет новым подписчикам лучше познакомится со мной и узнать про мой опыт и интересы.
Мой карьерный путь:
- Часть 1. Фриланс
- Часть 2. Своя веб-студия
- Часть 3. Работа в компаниях
Мой путь спикера:
- Воркшоп по вайб-кодингу в Vibe Coding Community
- Мастер-класс по вайб-кодингу в Синергии
- Мастер-класс по вайб-кодингу в СберУниверситете
Мой домашний сервер на Mac Studio:
- Зачем мне домашний сервер?
- Установка и настройка Mac Studio. Часть 1. Технические вводные и сетевые настройки.
- Установка и настройка Mac Studio. Часть 2. Проблемы с сетевым доступом и использование тунелей.
- Установка и настройка Mac Studio. Часть 3. N8N, ollama и другие сервисы, которые я использую.
- Установка и настройка Mac Studio. Часть 4. Запуск локальных моделей.
- Установка и настройка Mac Studio. Часть 5. Новый роутер - Keenetic.
- Автоматизация с помощью ИИ. Ожидания и реальность.
1 декабря, когда каналу будет ровно 1 год, я напишу подборку подборок.
И жена обещала испечь торт на 1000 подписчиков. Поддержите ее новыми подписками и рекомендациями 😉
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤13🔥3
🦸Очередной псевдо-герой EasyCode.ai
Увидел его упоминание в нескольких ИИ каналах. Увидел лейбочку YC Backed.
Фразы на сайте, типа:
Вообще растопили мое сердце.
Или посмотрите на это:
The Past
front end engineer
back end engineer
devops engineer
ML engineer
product manager
The Future
Vibe Coder
AI Developer
Future Builder
Что по итогу? По итогу чрезмерная адаптация и натренированность под Next.js + Supabase, а это значит минус гибкость. Хотите чтобы у вас на компе под каждый стек стояло отделение приложение агент? Я - нет.
Одна модель.
За счет всяких визуальных наворотов, получился такой медленный (закодили на чистом вайбе) форк VSCode с красивыми диаграмками.
В общем, не тратьте свое время.
Я сейчас еще тестирую Dyad который тоже светился в тех же пабликах. Первое впечатление не очень. Но там хотя бы можно локальные модели гонять, и они даже работают. Но о нем я напишу в другой раз.
🎚️ @vibe_coding_channel
🎚️ @vibe_coding_community
Увидел его упоминание в нескольких ИИ каналах. Увидел лейбочку YC Backed.
Фразы на сайте, типа:
Built forexperienced devs.
Built for vibe coders.
Вообще растопили мое сердце.
Или посмотрите на это:
The Past
front end engineer
back end engineer
devops engineer
ML engineer
product manager
The Future
Vibe Coder
AI Developer
Future Builder
Что по итогу? По итогу чрезмерная адаптация и натренированность под Next.js + Supabase, а это значит минус гибкость. Хотите чтобы у вас на компе под каждый стек стояло отделение приложение агент? Я - нет.
Одна модель.
За счет всяких визуальных наворотов, получился такой медленный (закодили на чистом вайбе) форк VSCode с красивыми диаграмками.
В общем, не тратьте свое время.
Я сейчас еще тестирую Dyad который тоже светился в тех же пабликах. Первое впечатление не очень. Но там хотя бы можно локальные модели гонять, и они даже работают. Но о нем я напишу в другой раз.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI зарелизили открытую модель gpt-oss в двух весовых категориях - 120b и 20b.
Ее уже сейчас можно попробовать в Ollama. Судя по описанию они идут сразу с reasoning’ом и tool calling’ом, что делает модель отличным вариантом для использования в агентной среде.
Что еще меня поразило, так это возможность использования встроенного в Ollama веб-поиска и вызова Python скриптов.
И все это чудо под лицензией Apache 2.0.
Ощущение, что Ollama докрутили под эту модель, потому что ты ее не поставишь пока не обновишь Ollama до последней версии.
В Ollama появился режим Turbo.Судя по всему это, тот самый configurable reasoning effort. Оказалось нет, режим Turbo, это облачный сервис от Ollama. Теперь понятно почему в режиме Turbo я получил достаточно быстро результат. А вот без активации режима Turbo, я так и не смог получить никакого результата, даже спустя 5 минут, причем не видно, чтобы GPU нагружался.
Хотел запустить в консоли
Теперь даже удалить ее не могу.
А у вас как? Все работает? Пробовали уже? Как вам?
UPD: Сегодня ошибку в Ollama уже пофиксили.
🎚️ @vibe_coding_channel
🎚️ @vibe_coding_community
Ее уже сейчас можно попробовать в Ollama. Судя по описанию они идут сразу с reasoning’ом и tool calling’ом, что делает модель отличным вариантом для использования в агентной среде.
Что еще меня поразило, так это возможность использования встроенного в Ollama веб-поиска и вызова Python скриптов.
И все это чудо под лицензией Apache 2.0.
Ощущение, что Ollama докрутили под эту модель, потому что ты ее не поставишь пока не обновишь Ollama до последней версии.
В Ollama появился режим Turbo.
Хотел запустить в консоли
ollama run gpt-oss:20b --verbose
чтобы увидеть конкретные метрики скрорости, но получил ошибку: Error: template: :3: function "currentDate" not defined
Теперь даже удалить ее не могу.
А у вас как? Все работает? Пробовали уже? Как вам?
UPD: Сегодня ошибку в Ollama уже пофиксили.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8
Как заставить модель писать как вы?
Как вы помните, у меня есть домашний сервер на Mac Studio, с локальными моделями и n8n. На нем я экспериментирую со всякими SMM штуками, типа аналитики и формирования мнений. Самая большая сложность в задачах автоматизации постинга в социальных сетях (в Telegram я практически всегда пишу сам!) - это чтобы модель писала то, что ты хочешь, и так как ты хочешь. А именно придерживалась твоего tone of voice, и не писала чушь от твоего лица.
Небольшое отступление, немного юмора.
Экспериментировал с негативными комментариями в Threads* о вайб-кодинге, с целью изменить мнение в отношении этого направления. Пробовал разные локальные модели типа, gemma3, phi3, и другие. И промпт был какой-то простой, типа "переубеди собеседника в том, что вайб-кодинг - это просто инструмент, которым нужно научится правильно пользоваться".
Завайбкодил chrome extension для автопостинга комментариев от своего аккаунта, была уже ночь, и я пошел спать, думая что эта штука не работает. Утром обнаружил обратное. Получил несколько подписчиков. Начал читать, что там модели напридумывали. И это был кринж.
Пришлось все чистить. Но самый прикол был с одним комментарием, где "я" вдруг вспомнил какой-то проигранный в Нью-Йорке суд из-за вайб-кодинга. Но и это не самое смешное. На той стороне тоже оказался бот, который стал оправдываться, почему он проиграл тот суд 😂
Короче, меня ситуация не устроила, я пошел работать над промптами, экспериментировать с моделями и параметрами. Начал я с моего любимого инструмента генерации промптов от Anthropic. И вот что я "нащупал".
Чтобы заставить модель говорить как ты, нужно дать ей примеры твоей ествественной речи, например:
Чтобы заставить модель говорить что ты хочешь, нужно дать ей базу знаний. Тут я бы не шел в сторону RAG, хотя можно и так. Лично я для себя просто тезисно в системном промпте сформулировал всё то важное, что я посчитал нужно знать начинающим о вайб-кодинге.
Но на промптах ничего не заканчивается, разные модели по разному влияют на результат и слушаются инструкций. Для креатива размышляющие модели не очень подходят, поэтому из неразмышляющих локально у меня стояли только gemma3 и phi4. Gemma3 показывала неплохой результат, но очень уж формальный. Phi4 был чуть хуже, и иногда менял язык.
Потом я нашел на сайте ollama, что 3 недели назад вышла mistral-small3.2 на 24 миллиарда параметров, и решил попробовать. И получил нормальный живой результат, осмысленные ответы основанные на базе знаний. Но не постоянные. И тут я понял свою ошибку. Когда промпт был простой, типа придумай аргументы, там нужна была температура 1.0-1.2, для большей креативности. Но промпт с базой знаний подразумевает четкое следование этой базе, и тут решающим стало изменение температуры с 1.2 на 0.6. Модель стала стабильно неплохо выдавать результат, за который в целом было не стыдно.
В конце хотел спросить: "а кто-то вообще пользуется Threads?", но подумал что лучше закончить фразой: "Threads - социальная сеть от запрещенной в России организации".
🎚️ @vibe_coding_channel
🎚️ @vibe_coding_community
Как вы помните, у меня есть домашний сервер на Mac Studio, с локальными моделями и n8n. На нем я экспериментирую со всякими SMM штуками, типа аналитики и формирования мнений. Самая большая сложность в задачах автоматизации постинга в социальных сетях (в Telegram я практически всегда пишу сам!) - это чтобы модель писала то, что ты хочешь, и так как ты хочешь. А именно придерживалась твоего tone of voice, и не писала чушь от твоего лица.
Небольшое отступление, немного юмора.
Экспериментировал с негативными комментариями в Threads* о вайб-кодинге, с целью изменить мнение в отношении этого направления. Пробовал разные локальные модели типа, gemma3, phi3, и другие. И промпт был какой-то простой, типа "переубеди собеседника в том, что вайб-кодинг - это просто инструмент, которым нужно научится правильно пользоваться".
Завайбкодил chrome extension для автопостинга комментариев от своего аккаунта, была уже ночь, и я пошел спать, думая что эта штука не работает. Утром обнаружил обратное. Получил несколько подписчиков. Начал читать, что там модели напридумывали. И это был кринж.
Пришлось все чистить. Но самый прикол был с одним комментарием, где "я" вдруг вспомнил какой-то проигранный в Нью-Йорке суд из-за вайб-кодинга. Но и это не самое смешное. На той стороне тоже оказался бот, который стал оправдываться, почему он проиграл тот суд 😂
Короче, меня ситуация не устроила, я пошел работать над промптами, экспериментировать с моделями и параметрами. Начал я с моего любимого инструмента генерации промптов от Anthropic. И вот что я "нащупал".
Чтобы заставить модель говорить как ты, нужно дать ей примеры твоей ествественной речи, например:
The tone of voice for your message should follow this example:
<tone_of_voice>
Копируем сюда пару десяток сообщений из чатов tg, которые отражают твоей естественный стиль и тон общения. Чем разнообразнее, тем лучше.
</tone_of_voice>
Чтобы заставить модель говорить что ты хочешь, нужно дать ей базу знаний. Тут я бы не шел в сторону RAG, хотя можно и так. Лично я для себя просто тезисно в системном промпте сформулировал всё то важное, что я посчитал нужно знать начинающим о вайб-кодинге.
When crafting your response, consider the following knowledge base:
<knowledges>
### Про себя:
- ...
### Про вайб-кодинг:
- ...
### Про Vibe Coding Community
- ...
### Про дебаггинг:
- ...
### Про промпты:
- ...
### Про безопасность:
- ...
</knowledges>
Но на промптах ничего не заканчивается, разные модели по разному влияют на результат и слушаются инструкций. Для креатива размышляющие модели не очень подходят, поэтому из неразмышляющих локально у меня стояли только gemma3 и phi4. Gemma3 показывала неплохой результат, но очень уж формальный. Phi4 был чуть хуже, и иногда менял язык.
Потом я нашел на сайте ollama, что 3 недели назад вышла mistral-small3.2 на 24 миллиарда параметров, и решил попробовать. И получил нормальный живой результат, осмысленные ответы основанные на базе знаний. Но не постоянные. И тут я понял свою ошибку. Когда промпт был простой, типа придумай аргументы, там нужна была температура 1.0-1.2, для большей креативности. Но промпт с базой знаний подразумевает четкое следование этой базе, и тут решающим стало изменение температуры с 1.2 на 0.6. Модель стала стабильно неплохо выдавать результат, за который в целом было не стыдно.
В конце хотел спросить: "а кто-то вообще пользуется Threads?", но подумал что лучше закончить фразой: "Threads - социальная сеть от запрещенной в России организации".
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5❤1
Yann Dubois из OpenAI показывает на презентации ChatGPT 5, как будет выглядеть вайб-кодинг с приходом новой модели. Можно посмотреть презентацию тут - https://www.youtube.com/watch?v=0Uu_VJeVVfo, примерно на 28 минуте. Показывает как сделать персональное приложение для изучения французского языка.
@vibe_coding_channel
@vibe_coding_community
@vibe_coding_channel
@vibe_coding_community
YouTube
Introducing GPT-5
Sam Altman, Greg Brockman, Sebastien Bubeck, Mark Chen, Yann Dubois, Brian Fioca, Adi Ganesh, Oliver Godement, Saachi Jain, Christina Kaplan, Christina Kim, Elaine Ya Le, Felipe Millon, Michelle Pokrass, Jakub Pachocki, Max Schwarzer, Rennie Song, Ruochen…
🔥4
Зашел на сайт OpenAI чтобы оплатить Plus подписку и в числе первых попробовать новую ChatGPT 5. И мне тут прилетела скидка 50% на три месяца. Вместо 20$ в месяц, буду платить 10$.
🎚️ @vibe_coding_channel
🎚️ @vibe_coding_community
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4
This media is not supported in your browser
VIEW IN TELEGRAM
Cursor завез не только GPT-5, но и сделал свой CLI инструмент на подобие Claude Code, Gemini CLI, Codex CLI.
Ставится простой командой:
Можно использовать в любой привычной IDE, не только Cursor, но за подписочку денежку курсору не забывайте отваливать.
В целом минималистично, ничего примечательного, просто еще один CLI Coding Agent, для любителей по-вайбкодить в терминале. Ну или автоматизировать какие-то процессы в CI Pipelines.
🎚️ @vibe_coding_channel
🎚️ @vibe_coding_community
Ставится простой командой:
curl https://cursor.com/install -fsS | bash
Можно использовать в любой привычной IDE, не только Cursor, но за подписочку денежку курсору не забывайте отваливать.
В целом минималистично, ничего примечательного, просто еще один CLI Coding Agent, для любителей по-вайбкодить в терминале. Ну или автоматизировать какие-то процессы в CI Pipelines.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6
This media is not supported in your browser
VIEW IN TELEGRAM
Вам кто-нибудь давал три дня безлимитного доступа к Claude 4.1 Opus? А я знаю такого провайдера!
Несколько месяцев назад проводил мастер-класс в СберУниверситете по вайб-кодингу, в котором мы в Harvi.pro делали лендинг и дэшборд. Но тогда был просто Claude 4 Sonnet.
Сейчас модель обновили до Claude 4.1 Opus. Opus 4.1 - флагманская модель от Anthropic. Так что если вы успели воспользоваться моим промокодом 70%, то вы купили Opus по цене Sonnet.
Если нет, промокод у меня еще действует до конца года. Пишите в личку @chuikoff. А если не уверены, то harvi.pro, с 10 по 13 августа сделали бесплатный безлимитный доступ к Claude 4.1 Opus.
Пробуйте сами и делитесь с друзьями и коллегами.
P.S. На видео пример игры которую я сделал за пару вечеров в Harvi.pro
🎚️ @vibe_coding_channel
🎚️ @vibe_coding_community
Несколько месяцев назад проводил мастер-класс в СберУниверситете по вайб-кодингу, в котором мы в Harvi.pro делали лендинг и дэшборд. Но тогда был просто Claude 4 Sonnet.
Сейчас модель обновили до Claude 4.1 Opus. Opus 4.1 - флагманская модель от Anthropic. Так что если вы успели воспользоваться моим промокодом 70%, то вы купили Opus по цене Sonnet.
Если нет, промокод у меня еще действует до конца года. Пишите в личку @chuikoff. А если не уверены, то harvi.pro, с 10 по 13 августа сделали бесплатный безлимитный доступ к Claude 4.1 Opus.
Пробуйте сами и делитесь с друзьями и коллегами.
P.S. На видео пример игры которую я сделал за пару вечеров в Harvi.pro
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤2🔥2
Но есть нюанс: после 200К токенов, ценник вырастает вдвое. Чтобы не сжечь бюджет, нужно использовать prompt caching и batch processing, позволяет экономить до 50%.
Пока фича в бете и доступна по API для клиентов с Tier 4, но в течении недели обещают раскатать на всех.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1