Вайб-кодинг по Чуйкову | ИИ
716 subscribers
114 photos
18 videos
1 file
120 links
Меня зовут Константин. Пишу код больше 15 лет, а сейчас пишу про то, как ИИ будет писать код следующие 15 лет. Канал про ИИ в разработке и вайб-кодинге.

Сотрудничество @chuikoff
Download Telegram
90% людей не воспользуются всей мощью ИИ.

В прошлый раз я писал про тест «Кто вы - скептик, реалист или мечтатель», который определяет уровень энтузиазма в отношении развития ИИ.

Большинство моих знакомых - мечтатели. Но вчера состоялась интересная беседа с коллегой на работе, который более скептичен. Но даже не в отношении ИИ. А скорее в отношении людей.

Тезис был в следующем. У всех людей сейчас в кармане лежит смартфон, который позволяет производить невообразимое количество полезных операций. У людей под рукой 24 часа в сутки доступ к знаниям, и мощности недоступные ученым лет 50 назад. Но что делает среднестатистический житель Земли? Листает рилсы, тиктоки, сторисы.

Так, что получается? Люди создают ИИ, но только условные оставшиеся 10% людей на планете будут использовать его потенциал? А остальные найдут еще одну «дофаминовую ловушку»? Что думаете вы? Поделитесь в комментариях.
1👍62
Типы и уровни развития ИИ.

Сейчас в каждом ИИ канале мерцает аббревиатура AGI. Что же это такое? Для тех кто не знает, давайте разбираться.

Выделяют три типа или уровня развития ИИ:

Слабый ИИ (ANI) — ИИ, способный решать конкретную задачу оптимизации, например, рекомендации товара на маркетплейсе или полного управления автомобилем. Такой ИИ называют еще узкоспециализированным (narrow).

Сильный ИИ (AGI) — ИИ способный решать не только задачи оптимизации, но и делать творческие успехи, например саморефлексия. Такой тип ИИ сможет решать все задачи, что и человек. Такой ИИ называют еще общим (general).

Супер ИИ (ASI) — ИИ, способный решать задачи в любой сфере лучше любого человека или коллективного разума.

Как вы думаете, на каком уровне сейчас находятся современные ИИ технологии и почему? Делитесь в комментариях!
1👍1
📢 TITANS: Новый прорыв в архитектуре ИИ от Google Research

Сегодня в рубрике #НеЮтуб рассмотрим основные тезисы из этого зарубежного YouTube видео

Команда Google Research представила революционный подход к памяти нейросетей, который может перевернуть наше понимание работы искусственного интеллекта!

🧠 Что такое TITANS?
Это новая архитектура, которая максимально приближает работу ИИ к человеческому мозгу. Основной принцип - "удивление = запоминание".

🔑 Ключевые особенности:
Три типа памяти: кратковременная, долговременная и постоянная
Механизм "сюрприза" - модель запоминает только действительно важную информацию
Возможность обучаться прямо во время выполнения задачи (inference time)
Работа с контекстом до 2 миллионов токенов без потери качества

💥 Прорывные эксперименты показали:

TITANS превосходит существующие модели по всем бенчмаркам
Стабильно высокая точность при работе с длинными контекстами
Эффективное "забывание" неактуальной информации

🤯 Аналогия с человеческим мозгом: представьте, что ИИ теперь учится запоминать также, как мы - через удивление и эмоциональную значимость события!

Это определенно следующий уровень в мире искусственного интеллекта.
Следите за обновлениями! 🚀

#НеЮтуб@ai_skillful #AI #GoogleResearch #TITANS #ИскусственныйИнтеллект

P.S. Кто уже представляет, как это изменит ChatGPT и других гигантов? Пишите в комментах! 👇
🔥6👍1
🚀 Шикарная новость для разработчиков - вышло обновление OpenAI API.

1️⃣ OpenAI o1: новые возможности и снижение задержек
- В API появился OpenAI o1 с функциями: вызов функций, структурированные ответы, поддержка изображений и сообщений разработчика.
- Новый параметр reasoning_effort позволяет управлять временем размышлений модели.
- O1 потребляет на 60% меньше reasoning-токенов и работает быстрее. Пока доступен для разработчиков уровня 5, но скоро расширится на другие тарифы.

2️⃣ Улучшения Realtime API
- Новый снапшот модели gpt-4o-realtime-preview-2024-12-17 снижает стоимость аудио-токенов на 60% и кэшированных входных данных на 87,5%.
- Введён GPT-4o-mini — до 10 раз дешевле предыдущих моделей.
- Поддержка WebRTC упрощает интеграцию в несколько строк кода.

3️⃣ Бесплатные токены за помощь в улучшении моделей
- До конца февраля некоторые пользователи могут получать до 1 млн токенов в день для OpenAI o1 и GPT-4o, и до 10 млн — для mini-версий. Проверяйте доступность на своей панели управления.

4️⃣ Preference fine-tuning: настройка под ваши задачи
- Новый метод обучения — Direct Preference Optimization — помогает модели понимать предпочтения в ответах. Особенно полезно для задач, где важны тон, стиль и креативность.
- Доступно для GPT-4o, вскоре поддержка расширится.

5️⃣ Usage API: контроль расходов и токенов
- Новый Usage API позволяет отслеживать использование токенов и затраты в реальном времени: по минутам, часам, дням, а также по ключам, проектам и моделям.

📖 Подробнее читайте в документации OpenAI и тестируйте новые функции.

#Новости #ИИ #OpenAI
🔥51
This media is not supported in your browser
VIEW IN TELEGRAM
Доброе утро 😃

Мои хорошие друзья с Камчатки, сделали липсинк своей собаке Мальте, получилось весьма забавно.

Еще у них есть небольшой ламповый музыкальный канал с собственными зарисовками.

Всем хороших выходных! ❤️
1👍6😁5🥰1
Искусственный интеллект, машинное обучение, глубокое обучение: в чем разница?

Сегодня, в рубрике #ЯПроспал рассмотрим три базовых понятия и отличия между ними. Это поможет вам ориентироваться в терминологии, когда будете погружаться в мир искусственного интеллекта еще глубже.

AI (Искусственный интеллект) — это глобальная концепция, которая охватывает технологии и методы, позволяющие машинам имитировать человеческий интеллект. Это может включать как простые алгоритмы, так и сложные системы.

ML (Машинное обучение) — это математические методы, которые на основании исторических данных строят различные прогнозы и находят закономерности. ML является подмножеством AI. То есть одним из способов строить искусственный интеллект. Но не единственным.

DL (Глубокое обучение) — это отдельный раздел машинного обучения, который решает задачи предсказания для неструктурированных данных (изображение, звук). Мозг человека хорошо справляется с такими задачами. Поэтому вначале ученые пытались смоделировать работу нейронных сетей головного мозга, так и возник термин «нейронные сети». Сейчас уже не считают, что они копируют работу головного мозга, но название закрепилось: модели глубокого обучения называют нейросетями (Neural Networks).

В чем разница ML и DL? Представьте что вы собрали тысячи фотографий кошек и собак. В машинном обучении, вы самостоятельно указываете по каким признакам их отличать. При глубоком обучении, система сама определяет отличительные признаки и закономерности в данных.
2👍4🔥31🙏1
Слушаю лекцию Андрея Комиссарова в СберУниверситете про «Искусственный интеллект в образовании».

Через часик будет мастер-класс. Будем помогать методистам применять на практике ИИ инструменты.

Для меня было открытие сервиса https://300.yandex.ru для суммаризации видео, статьей и текстов. Крутая штука всем рекомендую!

@ai_skillful
🔥5👍2
Я - тимлид ИИ-агентов или программисты больше не нужны?!

Когда в 2021 году вышел GitHub Copilot, все твердили, что профессия программиста ВСЁ. Я посмеялся.

Когда в 2022 году вышел ChatGPT, все твердили, что профессия программиста ВСЁ. Я улыбнулся.

Когда в 2024 году релизнули ИИ-агента OpenHands, все молча поняли, что они натворили. А я сильно насторожился.

Когда в 2025 году я за пару дней и 10$ сделал вот этого Telegram бота, ни написав ни строчки кода. Мне правда стало не до смеха. И я не уверен, стоит ли об этом распространяться.

Open Hands - это не подсказки, это реальные руки, которые создают файлы, пишут код, запускают код, устанавливают зависимости, тестируют результат и исправляют если есть ошибки в логах. То есть доводит задачу до результата. И речь идет не об Hello World, или очередном Todo List.

@DeepSeekR1Bot - этот бот обладает нехилым набором фич!
- Он стучится в DeepSeek R1 API, получает ответ и стримит его в сообщение, по ходу "рассуждения" модели.
- Он проверяет подписан ли пользователь на этот канал, и даст доступ к функциям только после подписки.
- В боте встроена реферальная программа, которая позволяет увиличить количество токенов за приглашенных друзей
- Есть команда сброса истории диалога
- Есть команда которая отображает статистику потребления токенов с прогресс-баром.

Повторяю, я потратил пару дней, я занимался своими делами, работал, смотрел сериалы, пока Open Hands писал за меня код.
Пожалуйста, никому не рассказывайте об этой штуке!
1😁9👍6🔥4
В начале было Слово, и слово было в терминале.

И видел человек, что тьма покрывала землю, и в поте лица своего он писал код, вручную создавая мир строк и переменных.

И сказал человек: “Да будет свет”, — и появились операционные системы и текстовые редакторы.
И увидел человек свет, что он хорош, ибо стало проще работать с кодом.

И сотворил человек землю — IDE и VSCode.
И отделил человек IDE от текстового редактора, и стало это местом для творения великого кода.

И произрастил человек растительность — плагины и расширения для VSCode.
И принесли они плоды — подсветку синтаксиса, автозавершение и линтеры, что помогали человеку творить быстрее.

И сотворил человек морских животных — Copilot.
И помогали они человеку, плывя по волнам кода, подсказывая строки и шаблоны, чтобы человек не уставал.

И сотворил человек птиц небесных — ChatGPT.
И распространились они, облетая весь мир знаний, отвечая на вопросы, объясняя сложное и помогая людям не только в коде, но и в жизни.

И наконец появился OpenHands.
Сотворил человек агента, что мог писать код сам, вести проекты и улучшать системы. И видел человек, что это весьма хорошо.

Но с ростом кодовой базы и амбиций OpenHands познал искушение.
И стал он грешить, творя баги и ошибки в своем коде.
И возопили люди: “Откуда нам знать, что OpenHands творит?”

И стало расти потребление токенов, и росли финансовые затраты.
И понял человек, что его творение — не совершенство, но инструмент. И начал он работать над тем, чтобы вновь обуздать OpenHands и наставить его на путь праведный.

И был вечер, и было утро — новый день для кода.
2😁11🔥41
🤖 Хотели качественный зарубежный сервис транскрибации аудиофайлов с внятным интерфейсом и без VPN?

gladia.io

💥 Интерфейс без русского языка, но сделан очень просто, удобно и интуитивно понятно. (Зачет UX/UI дизайнерам!)
💥 Бесплатный лимит - 10 часов транскрибации каждый месяц.
💥 Можно достать аудио из видео сервисов Youtube, Tiktok, Facebook, загрузить свои файлы, или записать с микрофона.

Также есть ASR Comparator - инструмент предназначенный для сравнения результатов распознавания речи, чтобы оценить их качество, точность и производительность. Такой инструмент может быть полезен для разработчиков ASR, компаний, использующих распознавание речи, и исследователей.
Показывает, где системы допускают ошибки (например, сложные слова, акценты, шумы), чтобы разработчики могли улучшить модели.
WER (Word Error Rate) — процент ошибок в распознанных словах.

🫶 Пользуйтесь, делитесь с коллегами!

#инструменты@ai_skillful
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥41
4 вывода после 7 дней использования ИИ-агента OpenHands.

1. С ростом кодовой базы затраты на токены сильно возрастают. Грубый пример: за первые 2 дня вы можете реализовать 80% функционала, затратив 20% бюджета. А потом на оставшиеся 20% функционала сольете оставшиеся 80% бюджета.

2. С ростом кодовой базы нужно быть все более точным в своих промптах. И четко понимать что нужно изменить в коде. Нечеткими промптами можно загубить проект так, что ни один естественный интеллект не распутает эти «макароны».

3. Проекты на Python потребляют меньше количество токенов, чем на Node.js (TypeScript). Думаю это связано с более простым синтаксисом языка, динамической типизацией, и более лаконичными конструкциями.

4. LLM все еще лучше справляются с задачами серверной разработки (backend), чем с клиентскими (frontend). Связано это с тем, что визуальное представление имеет более обширное количество параметров, которые быстрее поменять в ручную, чем в несколько итераций промптами.

Резюмирую:
OpenHands отлично подходит для создания микросервисов на Python. Один микросервис - одна задача. Рекомендую сразу просить написать тесты. И все таки еще нужно знать половину ответа, чтобы сделать реально большой проект, ни написав ни строчки самому. Ну либо нужно иметь большой бюджет на токены, терпение и хорошие навыки промпт-инжиниринга.

@ai_skillful

#OpenHands #AI4Development
3🔥6👏51💯1
❤️ Спасибо всем, кто ставит звездочки к постам! Ваша щедрость бесценна!
4
This media is not supported in your browser
VIEW IN TELEGRAM
1
Сравниваем модели Claude Sonnet и DeepSeek R1 в кодинге на OpenHands.

Сегодня попробовал переключиться с Claude Sonnet на DeepSeek R1 в OpenHands. Мотив простой: китайская модель дешевле, плюс еще и ризонинг. Гипотеза была, ну как минимум - не хуже. Но увы, DeepSeek R1 во-первых не справилась с задачей совсем, а во-вторых, совсем не "размышляла". Просто молча изменила код, не углубляясь в контекст.

Так что пока вернулся на Claude. Можете сравнить результаты на двух фото.

Слева DeepSeek молча поменяла код. Справа Claude, объясняла что она делает и зачем.

Вот benchmark сравнения разных моделей для OpenHands. Судя по всему ризонинг модели просто еще нормально не адаптировали для OpenHands.

@ai_skillful
1🔥43
API DeepSeek R1 лежит второй день. Пробуем локально с Ollama.

В этом посте я рассказывал как я с помощью OpenHands сделал бота @DeepSeekR1Bot, который использовал API этой модели для ответов. Но, из-за того, что API DeepSeek второй день лежит, то ли из-за атаки конкурентов, то ли из-за нагрузки, бот по факту не функционирует.

Я решил попробовать поднять локально на M2 Pro с 16Гб RAM - 8B модель. Мне очень нравится Open Source проект - Ollama. Супер удобно, быстро, и в самолете, когда ты оффлайн, можно потыкать в маленькие модельки. Можно даже покодить с автокомплитом оффлайн в VSCode с расширением Continue. Но сейчас я хотел протестить именно DeepSeek R1 локально, тем более в Ollama ее уже подвезли.

Как запустить DeepSeek R1 локально? Скачиваем Ollama с официального сайта. Устанавливаем.
Открываем командную строку, и проверяем установлена ли Ollama командой ollama --version.
Далее переходим на страничку поиска моделей и находим там DeepSeek R1.

А дальше, в зависимости от мощности вашего железа, а именно GPU и RAM ставим себе соответствующие модели.
Например, на мой M2 Pro с 16Гб RAM, подойдет только 8B модель. Если у вас 32Гб RAM и 24Gb GPU то, можно и 32B попробовать.
Вобщем, запускаем командой: ollama run deepseek-r1:8b, и можем потестить в командной строке.
А если хотите удобный пользовательский интерфейс, ставьте огонечки, соберу для вас ТОП Open Source GUI для Ollama, и не только.
1🔥122🙏2
ТОП-3 бесплатных графических интерфейса для Ollama.

Полный перечень можно найти на github.

3 место делят между собой - Enchanted, Macai, Ollamac так как они очень похожи между собой.

Минималистичный интерфейс, нативный apple design. Если у вас Apple, и вы не дружите с командной строкой (хотя вряд ли, если вы смогли установить Ollama), то это вариант для вас. Практически сразу обнаруживают все Ollama модели, которые у вас установлены. Как говорится, сел и поехал!

2 место - Open WebUI.

Когда я только познакомился с Ollama, выбор конечно был значительно скуднее, и тогда я остановился на Open WebUI. Ставил через Docker. Использовал в формате - Q&A, выбирал между моделями, и вобщем-то все. Но сейчас вижу, что туда добавили кучу новых фич, типа:

Model Builder – легко создавай и кастомизируй LLM-модели.
Python Tool – подключай свои функции и код.
Локальный RAG – загружай документы и ищи в них прямо в чате.
Web Search – интеграция с поисковыми сервисами.
Браузинг – встраивай сайты в диалог.
Генерация изображений – поддержка A1111, ComfyUI и DALL-E.

1 место - AI Toolkit for VSCode.

Но не потому что, это реально самый крутой GUI для работы с Ollama, а просто потому что я в анамнезе разработчик, провел в VSCode половину своей жизни, я в нем только не ел, и не спал, все остальное предпочитаю делать там. Там даже есть расширение Yandex.Music, что еще нужно для счастья?! Но на самом деле в этом AI Toolkit много крутых фич:
- можно использовать локальные модели с Ollama
- можно скачать модели с Hugging Face
- есть Playground с настройками для моделей
- есть возможность загружать датасеты и оценивать работу разных моделей по разным метрикам
А это супер круто для промпт-инженеров, которые хотят протестить свои промпты на массиве данных, оценить по параметрам, выбрать лучший промпт и сразу засунуть в код. Короче топчик!

@ai_skillful
1🔥5
This media is not supported in your browser
VIEW IN TELEGRAM
Каналу 2 месяца, 250+ подписчиков, спасибо, что с нами!

Для тех, кто недавно присоединился, расскажу немного о себе, и ниже оставлю ТОП-5 популярных постов.

Об авторе:

Привет! Меня зовут Константин, в сфере IT я с 2011 года. Последние несколько лет я руковожу разработкой EdTech проектов на базе искусственного интеллекта.

Сейчас работаю в СберУниверситете, развиваю ИИ ассистента в обучении «Истра». До этого работал в Университете 2035 и Самолет Образовании.

1 декабря 2024 года, начал вести этот канал, чтобы систематизировать свои знания по теме ИИ, и делиться полезным контентом.

ТОП-5 постов за 2 месяца:

1. Я - тимлид ИИ-агентов или программисты больше не нужны?!

2. Создаем анимированные стикеры для Telegram за один вечер с помощью ИИ. Пошаговое руководство

3. 4 вывода после 7 дней использования ИИ-агента OpenHands.

4. Искусственный интеллект, машинное обучение, глубокое обучение: в чем разница?

5. Скептик, реалист или мечтатель — ваш взгляд на развитие ИИ.
2🔥131
🥱 Тот случай, когда OpenHands говорит мне: "Работает - не трогай!".

А вообще, это реально круто, я дал задачу, он посмотрел код, и говорит: "Слушай, а у тебя тут все круто, тут менять ничего не нужно", и не меняет ни строчки кода.

🤔 Кажется придется идти в o3-mini-high на консультацию.
😁8
Zero-shot, few-shot в деятельности. Как достичь единого формата результата?

Я уже как-то писал об этих методах промпт-инженерии в рубрике #урок@ai_skillful, и всегда думал, что примеры для few-shot промптов должны быть "из жизни", с просторов интернета, от людей.

А сейчас, сижу запускаю одинаковый промпт с инструкцией, но без примеров, на сравнительно схожих транскриптах аудио, и всегда получаю разный формат выдачи, один лучше, другой хуже.

Думаю, как бы мне сделать, чтобы формат был всегда одинаковый?! И тут до меня дошло! Few-shot. Берешь один-два результата, который тебе понравился после запуска zero-shot промпта, вставляешь в этот промпт, в качестве примера, все остальные результаты будут в нужном тебе, едином формате. Простая вещь, тыщу раз читал про few-shot. Но только сейчас понял в деятельности, откуда лучше всего брать примеры: из результатов zero-shot.

@ai_skillful
2👍91🔥1
Типа Napkin.AI - генерируем графики самостоятельно.

Думаю уже все слышали об этом нашумевшем AI проекте, который позволяет генерировать инфографику на основе ваших текстов. Это супер полезный тул, чтобы не разбираясь в Excel, быстро сделать красивый график для презентации.

Все в сервисе хорошо, кроме непредсказуемого предложения вариантов графиков. Возможно зависит от данных, но я загружал с десяток однотипных данных, и где-то он мне предлагал линейный график, а где-то только столбчатый. А варианта объединить сразу несколько линейных графиков в одном пространстве, просто нет.

Что я сделал? Написал промпт, который неструктурированный текст превращает в набор структурированных данных. Ищет зависимости в данных, цифровые представления. Дальше нахожу какой-нибудь график на React.js например. Смотрю в каком формате нужно подставить данные. И составляю второй промпт который структурированные данные перегоняет в этот формат. Подставляю данные в настройки компонента, и вуаля, получаю продвинутый Napkin.

В теории можно и в csv перегнать, и с помощью Excel визуализировать. Но у React.js компонентов есть одно маленькое преимущество - гибкая настройка и интерактивное взаимодействие с графиком.

#кейс@ai_skillful

🙏🙏🙏🙏
Please open Telegram to view this post
VIEW IN TELEGRAM
26🔥4👍1🙏1