This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI зарелизили открытую модель gpt-oss в двух весовых категориях - 120b и 20b.
Ее уже сейчас можно попробовать в Ollama. Судя по описанию они идут сразу с reasoning’ом и tool calling’ом, что делает модель отличным вариантом для использования в агентной среде.
Что еще меня поразило, так это возможность использования встроенного в Ollama веб-поиска и вызова Python скриптов.
И все это чудо под лицензией Apache 2.0.
Ощущение, что Ollama докрутили под эту модель, потому что ты ее не поставишь пока не обновишь Ollama до последней версии.
В Ollama появился режим Turbo.Судя по всему это, тот самый configurable reasoning effort. Оказалось нет, режим Turbo, это облачный сервис от Ollama. Теперь понятно почему в режиме Turbo я получил достаточно быстро результат. А вот без активации режима Turbo, я так и не смог получить никакого результата, даже спустя 5 минут, причем не видно, чтобы GPU нагружался.
Хотел запустить в консоли
Теперь даже удалить ее не могу.
А у вас как? Все работает? Пробовали уже? Как вам?
UPD: Сегодня ошибку в Ollama уже пофиксили.
🎚️ @vibe_coding_channel
🎚️ @vibe_coding_community
Ее уже сейчас можно попробовать в Ollama. Судя по описанию они идут сразу с reasoning’ом и tool calling’ом, что делает модель отличным вариантом для использования в агентной среде.
Что еще меня поразило, так это возможность использования встроенного в Ollama веб-поиска и вызова Python скриптов.
И все это чудо под лицензией Apache 2.0.
Ощущение, что Ollama докрутили под эту модель, потому что ты ее не поставишь пока не обновишь Ollama до последней версии.
В Ollama появился режим Turbo.
Хотел запустить в консоли
ollama run gpt-oss:20b --verbose
чтобы увидеть конкретные метрики скрорости, но получил ошибку: Error: template: :3: function "currentDate" not defined
Теперь даже удалить ее не могу.
А у вас как? Все работает? Пробовали уже? Как вам?
UPD: Сегодня ошибку в Ollama уже пофиксили.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8
Как заставить модель писать как вы?
Как вы помните, у меня есть домашний сервер на Mac Studio, с локальными моделями и n8n. На нем я экспериментирую со всякими SMM штуками, типа аналитики и формирования мнений. Самая большая сложность в задачах автоматизации постинга в социальных сетях (в Telegram я практически всегда пишу сам!) - это чтобы модель писала то, что ты хочешь, и так как ты хочешь. А именно придерживалась твоего tone of voice, и не писала чушь от твоего лица.
Небольшое отступление, немного юмора.
Экспериментировал с негативными комментариями в Threads* о вайб-кодинге, с целью изменить мнение в отношении этого направления. Пробовал разные локальные модели типа, gemma3, phi3, и другие. И промпт был какой-то простой, типа "переубеди собеседника в том, что вайб-кодинг - это просто инструмент, которым нужно научится правильно пользоваться".
Завайбкодил chrome extension для автопостинга комментариев от своего аккаунта, была уже ночь, и я пошел спать, думая что эта штука не работает. Утром обнаружил обратное. Получил несколько подписчиков. Начал читать, что там модели напридумывали. И это был кринж.
Пришлось все чистить. Но самый прикол был с одним комментарием, где "я" вдруг вспомнил какой-то проигранный в Нью-Йорке суд из-за вайб-кодинга. Но и это не самое смешное. На той стороне тоже оказался бот, который стал оправдываться, почему он проиграл тот суд 😂
Короче, меня ситуация не устроила, я пошел работать над промптами, экспериментировать с моделями и параметрами. Начал я с моего любимого инструмента генерации промптов от Anthropic. И вот что я "нащупал".
Чтобы заставить модель говорить как ты, нужно дать ей примеры твоей ествественной речи, например:
Чтобы заставить модель говорить что ты хочешь, нужно дать ей базу знаний. Тут я бы не шел в сторону RAG, хотя можно и так. Лично я для себя просто тезисно в системном промпте сформулировал всё то важное, что я посчитал нужно знать начинающим о вайб-кодинге.
Но на промптах ничего не заканчивается, разные модели по разному влияют на результат и слушаются инструкций. Для креатива размышляющие модели не очень подходят, поэтому из неразмышляющих локально у меня стояли только gemma3 и phi4. Gemma3 показывала неплохой результат, но очень уж формальный. Phi4 был чуть хуже, и иногда менял язык.
Потом я нашел на сайте ollama, что 3 недели назад вышла mistral-small3.2 на 24 миллиарда параметров, и решил попробовать. И получил нормальный живой результат, осмысленные ответы основанные на базе знаний. Но не постоянные. И тут я понял свою ошибку. Когда промпт был простой, типа придумай аргументы, там нужна была температура 1.0-1.2, для большей креативности. Но промпт с базой знаний подразумевает четкое следование этой базе, и тут решающим стало изменение температуры с 1.2 на 0.6. Модель стала стабильно неплохо выдавать результат, за который в целом было не стыдно.
В конце хотел спросить: "а кто-то вообще пользуется Threads?", но подумал что лучше закончить фразой: "Threads - социальная сеть от запрещенной в России организации".
🎚️ @vibe_coding_channel
🎚️ @vibe_coding_community
Как вы помните, у меня есть домашний сервер на Mac Studio, с локальными моделями и n8n. На нем я экспериментирую со всякими SMM штуками, типа аналитики и формирования мнений. Самая большая сложность в задачах автоматизации постинга в социальных сетях (в Telegram я практически всегда пишу сам!) - это чтобы модель писала то, что ты хочешь, и так как ты хочешь. А именно придерживалась твоего tone of voice, и не писала чушь от твоего лица.
Небольшое отступление, немного юмора.
Экспериментировал с негативными комментариями в Threads* о вайб-кодинге, с целью изменить мнение в отношении этого направления. Пробовал разные локальные модели типа, gemma3, phi3, и другие. И промпт был какой-то простой, типа "переубеди собеседника в том, что вайб-кодинг - это просто инструмент, которым нужно научится правильно пользоваться".
Завайбкодил chrome extension для автопостинга комментариев от своего аккаунта, была уже ночь, и я пошел спать, думая что эта штука не работает. Утром обнаружил обратное. Получил несколько подписчиков. Начал читать, что там модели напридумывали. И это был кринж.
Пришлось все чистить. Но самый прикол был с одним комментарием, где "я" вдруг вспомнил какой-то проигранный в Нью-Йорке суд из-за вайб-кодинга. Но и это не самое смешное. На той стороне тоже оказался бот, который стал оправдываться, почему он проиграл тот суд 😂
Короче, меня ситуация не устроила, я пошел работать над промптами, экспериментировать с моделями и параметрами. Начал я с моего любимого инструмента генерации промптов от Anthropic. И вот что я "нащупал".
Чтобы заставить модель говорить как ты, нужно дать ей примеры твоей ествественной речи, например:
The tone of voice for your message should follow this example:
<tone_of_voice>
Копируем сюда пару десяток сообщений из чатов tg, которые отражают твоей естественный стиль и тон общения. Чем разнообразнее, тем лучше.
</tone_of_voice>
Чтобы заставить модель говорить что ты хочешь, нужно дать ей базу знаний. Тут я бы не шел в сторону RAG, хотя можно и так. Лично я для себя просто тезисно в системном промпте сформулировал всё то важное, что я посчитал нужно знать начинающим о вайб-кодинге.
When crafting your response, consider the following knowledge base:
<knowledges>
### Про себя:
- ...
### Про вайб-кодинг:
- ...
### Про Vibe Coding Community
- ...
### Про дебаггинг:
- ...
### Про промпты:
- ...
### Про безопасность:
- ...
</knowledges>
Но на промптах ничего не заканчивается, разные модели по разному влияют на результат и слушаются инструкций. Для креатива размышляющие модели не очень подходят, поэтому из неразмышляющих локально у меня стояли только gemma3 и phi4. Gemma3 показывала неплохой результат, но очень уж формальный. Phi4 был чуть хуже, и иногда менял язык.
Потом я нашел на сайте ollama, что 3 недели назад вышла mistral-small3.2 на 24 миллиарда параметров, и решил попробовать. И получил нормальный живой результат, осмысленные ответы основанные на базе знаний. Но не постоянные. И тут я понял свою ошибку. Когда промпт был простой, типа придумай аргументы, там нужна была температура 1.0-1.2, для большей креативности. Но промпт с базой знаний подразумевает четкое следование этой базе, и тут решающим стало изменение температуры с 1.2 на 0.6. Модель стала стабильно неплохо выдавать результат, за который в целом было не стыдно.
В конце хотел спросить: "а кто-то вообще пользуется Threads?", но подумал что лучше закончить фразой: "Threads - социальная сеть от запрещенной в России организации".
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5❤1
Yann Dubois из OpenAI показывает на презентации ChatGPT 5, как будет выглядеть вайб-кодинг с приходом новой модели. Можно посмотреть презентацию тут - https://www.youtube.com/watch?v=0Uu_VJeVVfo, примерно на 28 минуте. Показывает как сделать персональное приложение для изучения французского языка.
@vibe_coding_channel
@vibe_coding_community
@vibe_coding_channel
@vibe_coding_community
YouTube
Introducing GPT-5
Sam Altman, Greg Brockman, Sebastien Bubeck, Mark Chen, Yann Dubois, Brian Fioca, Adi Ganesh, Oliver Godement, Saachi Jain, Christina Kaplan, Christina Kim, Elaine Ya Le, Felipe Millon, Michelle Pokrass, Jakub Pachocki, Max Schwarzer, Rennie Song, Ruochen…
🔥4
Зашел на сайт OpenAI чтобы оплатить Plus подписку и в числе первых попробовать новую ChatGPT 5. И мне тут прилетела скидка 50% на три месяца. Вместо 20$ в месяц, буду платить 10$.
🎚️ @vibe_coding_channel
🎚️ @vibe_coding_community
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4
This media is not supported in your browser
VIEW IN TELEGRAM
Cursor завез не только GPT-5, но и сделал свой CLI инструмент на подобие Claude Code, Gemini CLI, Codex CLI.
Ставится простой командой:
Можно использовать в любой привычной IDE, не только Cursor, но за подписочку денежку курсору не забывайте отваливать.
В целом минималистично, ничего примечательного, просто еще один CLI Coding Agent, для любителей по-вайбкодить в терминале. Ну или автоматизировать какие-то процессы в CI Pipelines.
🎚️ @vibe_coding_channel
🎚️ @vibe_coding_community
Ставится простой командой:
curl https://cursor.com/install -fsS | bash
Можно использовать в любой привычной IDE, не только Cursor, но за подписочку денежку курсору не забывайте отваливать.
В целом минималистично, ничего примечательного, просто еще один CLI Coding Agent, для любителей по-вайбкодить в терминале. Ну или автоматизировать какие-то процессы в CI Pipelines.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6
This media is not supported in your browser
VIEW IN TELEGRAM
Вам кто-нибудь давал три дня безлимитного доступа к Claude 4.1 Opus? А я знаю такого провайдера!
Несколько месяцев назад проводил мастер-класс в СберУниверситете по вайб-кодингу, в котором мы в Harvi.pro делали лендинг и дэшборд. Но тогда был просто Claude 4 Sonnet.
Сейчас модель обновили до Claude 4.1 Opus. Opus 4.1 - флагманская модель от Anthropic. Так что если вы успели воспользоваться моим промокодом 70%, то вы купили Opus по цене Sonnet.
Если нет, промокод у меня еще действует до конца года. Пишите в личку @chuikoff. А если не уверены, то harvi.pro, с 10 по 13 августа сделали бесплатный безлимитный доступ к Claude 4.1 Opus.
Пробуйте сами и делитесь с друзьями и коллегами.
P.S. На видео пример игры которую я сделал за пару вечеров в Harvi.pro
🎚️ @vibe_coding_channel
🎚️ @vibe_coding_community
Несколько месяцев назад проводил мастер-класс в СберУниверситете по вайб-кодингу, в котором мы в Harvi.pro делали лендинг и дэшборд. Но тогда был просто Claude 4 Sonnet.
Сейчас модель обновили до Claude 4.1 Opus. Opus 4.1 - флагманская модель от Anthropic. Так что если вы успели воспользоваться моим промокодом 70%, то вы купили Opus по цене Sonnet.
Если нет, промокод у меня еще действует до конца года. Пишите в личку @chuikoff. А если не уверены, то harvi.pro, с 10 по 13 августа сделали бесплатный безлимитный доступ к Claude 4.1 Opus.
Пробуйте сами и делитесь с друзьями и коллегами.
P.S. На видео пример игры которую я сделал за пару вечеров в Harvi.pro
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤2🔥2