90% людей не воспользуются всей мощью ИИ.
В прошлый раз я писал про тест «Кто вы - скептик, реалист или мечтатель», который определяет уровень энтузиазма в отношении развития ИИ.
Большинство моих знакомых - мечтатели. Но вчера состоялась интересная беседа с коллегой на работе, который более скептичен. Но даже не в отношении ИИ. А скорее в отношении людей.
Тезис был в следующем. У всех людей сейчас в кармане лежит смартфон, который позволяет производить невообразимое количество полезных операций. У людей под рукой 24 часа в сутки доступ к знаниям, и мощности недоступные ученым лет 50 назад. Но что делает среднестатистический житель Земли? Листает рилсы, тиктоки, сторисы.
Так, что получается? Люди создают ИИ, но только условные оставшиеся 10% людей на планете будут использовать его потенциал? А остальные найдут еще одну «дофаминовую ловушку»? Что думаете вы? Поделитесь в комментариях.
В прошлый раз я писал про тест «Кто вы - скептик, реалист или мечтатель», который определяет уровень энтузиазма в отношении развития ИИ.
Большинство моих знакомых - мечтатели. Но вчера состоялась интересная беседа с коллегой на работе, который более скептичен. Но даже не в отношении ИИ. А скорее в отношении людей.
Тезис был в следующем. У всех людей сейчас в кармане лежит смартфон, который позволяет производить невообразимое количество полезных операций. У людей под рукой 24 часа в сутки доступ к знаниям, и мощности недоступные ученым лет 50 назад. Но что делает среднестатистический житель Земли? Листает рилсы, тиктоки, сторисы.
Так, что получается? Люди создают ИИ, но только условные оставшиеся 10% людей на планете будут использовать его потенциал? А остальные найдут еще одну «дофаминовую ловушку»? Что думаете вы? Поделитесь в комментариях.
1👍6⚡2
Типы и уровни развития ИИ.
Сейчас в каждом ИИ канале мерцает аббревиатура AGI. Что же это такое? Для тех кто не знает, давайте разбираться.
Выделяют три типа или уровня развития ИИ:
Слабый ИИ (ANI) — ИИ, способный решать конкретную задачу оптимизации, например, рекомендации товара на маркетплейсе или полного управления автомобилем. Такой ИИ называют еще узкоспециализированным (narrow).
Сильный ИИ (AGI) — ИИ способный решать не только задачи оптимизации, но и делать творческие успехи, например саморефлексия. Такой тип ИИ сможет решать все задачи, что и человек. Такой ИИ называют еще общим (general).
Супер ИИ (ASI) — ИИ, способный решать задачи в любой сфере лучше любого человека или коллективного разума.
Как вы думаете, на каком уровне сейчас находятся современные ИИ технологии и почему? Делитесь в комментариях!
Сейчас в каждом ИИ канале мерцает аббревиатура AGI. Что же это такое? Для тех кто не знает, давайте разбираться.
Выделяют три типа или уровня развития ИИ:
Слабый ИИ (ANI) — ИИ, способный решать конкретную задачу оптимизации, например, рекомендации товара на маркетплейсе или полного управления автомобилем. Такой ИИ называют еще узкоспециализированным (narrow).
Сильный ИИ (AGI) — ИИ способный решать не только задачи оптимизации, но и делать творческие успехи, например саморефлексия. Такой тип ИИ сможет решать все задачи, что и человек. Такой ИИ называют еще общим (general).
Супер ИИ (ASI) — ИИ, способный решать задачи в любой сфере лучше любого человека или коллективного разума.
Как вы думаете, на каком уровне сейчас находятся современные ИИ технологии и почему? Делитесь в комментариях!
1👍1
📢 TITANS: Новый прорыв в архитектуре ИИ от Google Research
Сегодня в рубрике #НеЮтуб рассмотрим основные тезисы из этого зарубежного YouTube видео
Команда Google Research представила революционный подход к памяти нейросетей, который может перевернуть наше понимание работы искусственного интеллекта!
🧠 Что такое TITANS?
Это новая архитектура, которая максимально приближает работу ИИ к человеческому мозгу. Основной принцип - "удивление = запоминание".
🔑 Ключевые особенности:
Три типа памяти: кратковременная, долговременная и постоянная
Механизм "сюрприза" - модель запоминает только действительно важную информацию
Возможность обучаться прямо во время выполнения задачи (inference time)
Работа с контекстом до 2 миллионов токенов без потери качества
💥 Прорывные эксперименты показали:
TITANS превосходит существующие модели по всем бенчмаркам
Стабильно высокая точность при работе с длинными контекстами
Эффективное "забывание" неактуальной информации
🤯 Аналогия с человеческим мозгом: представьте, что ИИ теперь учится запоминать также, как мы - через удивление и эмоциональную значимость события!
Это определенно следующий уровень в мире искусственного интеллекта.
Следите за обновлениями! 🚀
#НеЮтуб@ai_skillful #AI #GoogleResearch #TITANS #ИскусственныйИнтеллект
P.S. Кто уже представляет, как это изменит ChatGPT и других гигантов? Пишите в комментах! 👇
Сегодня в рубрике #НеЮтуб рассмотрим основные тезисы из этого зарубежного YouTube видео
Команда Google Research представила революционный подход к памяти нейросетей, который может перевернуть наше понимание работы искусственного интеллекта!
🧠 Что такое TITANS?
Это новая архитектура, которая максимально приближает работу ИИ к человеческому мозгу. Основной принцип - "удивление = запоминание".
🔑 Ключевые особенности:
Три типа памяти: кратковременная, долговременная и постоянная
Механизм "сюрприза" - модель запоминает только действительно важную информацию
Возможность обучаться прямо во время выполнения задачи (inference time)
Работа с контекстом до 2 миллионов токенов без потери качества
💥 Прорывные эксперименты показали:
TITANS превосходит существующие модели по всем бенчмаркам
Стабильно высокая точность при работе с длинными контекстами
Эффективное "забывание" неактуальной информации
🤯 Аналогия с человеческим мозгом: представьте, что ИИ теперь учится запоминать также, как мы - через удивление и эмоциональную значимость события!
Это определенно следующий уровень в мире искусственного интеллекта.
Следите за обновлениями! 🚀
#НеЮтуб@ai_skillful #AI #GoogleResearch #TITANS #ИскусственныйИнтеллект
P.S. Кто уже представляет, как это изменит ChatGPT и других гигантов? Пишите в комментах! 👇
YouTube
Google Research Unveils "Transformers 2.0" aka TITANS
Have we finally cracked the code on how to give models "human-like" memory? Watch to find out!
Join My Newsletter for Regular AI Updates 👇🏼
https://forwardfuture.ai
My Links 🔗
👉🏻 Subscribe: https://www.youtube.com/@matthew_berman
👉🏻 Twitter: https://tw…
Join My Newsletter for Regular AI Updates 👇🏼
https://forwardfuture.ai
My Links 🔗
👉🏻 Subscribe: https://www.youtube.com/@matthew_berman
👉🏻 Twitter: https://tw…
🔥6👍1
🚀 Шикарная новость для разработчиков - вышло обновление OpenAI API.
1️⃣ OpenAI o1: новые возможности и снижение задержек
- В API появился OpenAI o1 с функциями: вызов функций, структурированные ответы, поддержка изображений и сообщений разработчика.
- Новый параметр reasoning_effort позволяет управлять временем размышлений модели.
- O1 потребляет на 60% меньше reasoning-токенов и работает быстрее. Пока доступен для разработчиков уровня 5, но скоро расширится на другие тарифы.
2️⃣ Улучшения Realtime API
- Новый снапшот модели gpt-4o-realtime-preview-2024-12-17 снижает стоимость аудио-токенов на 60% и кэшированных входных данных на 87,5%.
- Введён GPT-4o-mini — до 10 раз дешевле предыдущих моделей.
- Поддержка WebRTC упрощает интеграцию в несколько строк кода.
3️⃣ Бесплатные токены за помощь в улучшении моделей
- До конца февраля некоторые пользователи могут получать до 1 млн токенов в день для OpenAI o1 и GPT-4o, и до 10 млн — для mini-версий. Проверяйте доступность на своей панели управления.
4️⃣ Preference fine-tuning: настройка под ваши задачи
- Новый метод обучения — Direct Preference Optimization — помогает модели понимать предпочтения в ответах. Особенно полезно для задач, где важны тон, стиль и креативность.
- Доступно для GPT-4o, вскоре поддержка расширится.
5️⃣ Usage API: контроль расходов и токенов
- Новый Usage API позволяет отслеживать использование токенов и затраты в реальном времени: по минутам, часам, дням, а также по ключам, проектам и моделям.
📖 Подробнее читайте в документации OpenAI и тестируйте новые функции.
#Новости #ИИ #OpenAI
1️⃣ OpenAI o1: новые возможности и снижение задержек
- В API появился OpenAI o1 с функциями: вызов функций, структурированные ответы, поддержка изображений и сообщений разработчика.
- Новый параметр reasoning_effort позволяет управлять временем размышлений модели.
- O1 потребляет на 60% меньше reasoning-токенов и работает быстрее. Пока доступен для разработчиков уровня 5, но скоро расширится на другие тарифы.
2️⃣ Улучшения Realtime API
- Новый снапшот модели gpt-4o-realtime-preview-2024-12-17 снижает стоимость аудио-токенов на 60% и кэшированных входных данных на 87,5%.
- Введён GPT-4o-mini — до 10 раз дешевле предыдущих моделей.
- Поддержка WebRTC упрощает интеграцию в несколько строк кода.
3️⃣ Бесплатные токены за помощь в улучшении моделей
- До конца февраля некоторые пользователи могут получать до 1 млн токенов в день для OpenAI o1 и GPT-4o, и до 10 млн — для mini-версий. Проверяйте доступность на своей панели управления.
4️⃣ Preference fine-tuning: настройка под ваши задачи
- Новый метод обучения — Direct Preference Optimization — помогает модели понимать предпочтения в ответах. Особенно полезно для задач, где важны тон, стиль и креативность.
- Доступно для GPT-4o, вскоре поддержка расширится.
5️⃣ Usage API: контроль расходов и токенов
- Новый Usage API позволяет отслеживать использование токенов и затраты в реальном времени: по минутам, часам, дням, а также по ключам, проектам и моделям.
📖 Подробнее читайте в документации OpenAI и тестируйте новые функции.
#Новости #ИИ #OpenAI
🔥5❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Доброе утро 😃
Мои хорошие друзья с Камчатки, сделали липсинк своей собаке Мальте, получилось весьма забавно.
Еще у них есть небольшой ламповый музыкальный канал с собственными зарисовками.
Всем хороших выходных! ❤️
Мои хорошие друзья с Камчатки, сделали липсинк своей собаке Мальте, получилось весьма забавно.
Еще у них есть небольшой ламповый музыкальный канал с собственными зарисовками.
Всем хороших выходных! ❤️
1👍6😁5🥰1
Искусственный интеллект, машинное обучение, глубокое обучение: в чем разница?
Сегодня, в рубрике #ЯПроспал рассмотрим три базовых понятия и отличия между ними. Это поможет вам ориентироваться в терминологии, когда будете погружаться в мир искусственного интеллекта еще глубже.
AI (Искусственный интеллект) — это глобальная концепция, которая охватывает технологии и методы, позволяющие машинам имитировать человеческий интеллект. Это может включать как простые алгоритмы, так и сложные системы.
ML (Машинное обучение) — это математические методы, которые на основании исторических данных строят различные прогнозы и находят закономерности. ML является подмножеством AI. То есть одним из способов строить искусственный интеллект. Но не единственным.
DL (Глубокое обучение) — это отдельный раздел машинного обучения, который решает задачи предсказания для неструктурированных данных (изображение, звук). Мозг человека хорошо справляется с такими задачами. Поэтому вначале ученые пытались смоделировать работу нейронных сетей головного мозга, так и возник термин «нейронные сети». Сейчас уже не считают, что они копируют работу головного мозга, но название закрепилось: модели глубокого обучения называют нейросетями (Neural Networks).
В чем разница ML и DL? Представьте что вы собрали тысячи фотографий кошек и собак. В машинном обучении, вы самостоятельно указываете по каким признакам их отличать. При глубоком обучении, система сама определяет отличительные признаки и закономерности в данных.
Сегодня, в рубрике #ЯПроспал рассмотрим три базовых понятия и отличия между ними. Это поможет вам ориентироваться в терминологии, когда будете погружаться в мир искусственного интеллекта еще глубже.
AI (Искусственный интеллект) — это глобальная концепция, которая охватывает технологии и методы, позволяющие машинам имитировать человеческий интеллект. Это может включать как простые алгоритмы, так и сложные системы.
ML (Машинное обучение) — это математические методы, которые на основании исторических данных строят различные прогнозы и находят закономерности. ML является подмножеством AI. То есть одним из способов строить искусственный интеллект. Но не единственным.
DL (Глубокое обучение) — это отдельный раздел машинного обучения, который решает задачи предсказания для неструктурированных данных (изображение, звук). Мозг человека хорошо справляется с такими задачами. Поэтому вначале ученые пытались смоделировать работу нейронных сетей головного мозга, так и возник термин «нейронные сети». Сейчас уже не считают, что они копируют работу головного мозга, но название закрепилось: модели глубокого обучения называют нейросетями (Neural Networks).
В чем разница ML и DL? Представьте что вы собрали тысячи фотографий кошек и собак. В машинном обучении, вы самостоятельно указываете по каким признакам их отличать. При глубоком обучении, система сама определяет отличительные признаки и закономерности в данных.
2👍4🔥3❤1🙏1
Слушаю лекцию Андрея Комиссарова в СберУниверситете про «Искусственный интеллект в образовании».
Через часик будет мастер-класс. Будем помогать методистам применять на практике ИИ инструменты.
Для меня было открытие сервиса https://300.yandex.ru для суммаризации видео, статьей и текстов. Крутая штука всем рекомендую!
@ai_skillful
Через часик будет мастер-класс. Будем помогать методистам применять на практике ИИ инструменты.
Для меня было открытие сервиса https://300.yandex.ru для суммаризации видео, статьей и текстов. Крутая штука всем рекомендую!
@ai_skillful
🔥5👍2
Я - тимлид ИИ-агентов или программисты больше не нужны?!
Когда в 2021 году вышел GitHub Copilot, все твердили, что профессия программиста ВСЁ. Я посмеялся.
Когда в 2022 году вышел ChatGPT, все твердили, что профессия программиста ВСЁ. Я улыбнулся.
Когда в 2024 году релизнули ИИ-агента OpenHands, все молча поняли, что они натворили. А я сильно насторожился.
Когда в 2025 году я за пару дней и 10$ сделал вот этого Telegram бота, ни написав ни строчки кода. Мне правда стало не до смеха. И я не уверен, стоит ли об этом распространяться.
Open Hands - это не подсказки, это реальные руки, которые создают файлы, пишут код, запускают код, устанавливают зависимости, тестируют результат и исправляют если есть ошибки в логах. То есть доводит задачу до результата. И речь идет не об Hello World, или очередном Todo List.
@DeepSeekR1Bot - этот бот обладает нехилым набором фич!
- Он стучится в DeepSeek R1 API, получает ответ и стримит его в сообщение, по ходу "рассуждения" модели.
- Он проверяет подписан ли пользователь на этот канал, и даст доступ к функциям только после подписки.
- В боте встроена реферальная программа, которая позволяет увиличить количество токенов за приглашенных друзей
- Есть команда сброса истории диалога
- Есть команда которая отображает статистику потребления токенов с прогресс-баром.
Повторяю, я потратил пару дней, я занимался своими делами, работал, смотрел сериалы, пока Open Hands писал за меня код.
Пожалуйста, никому не рассказывайте об этой штуке!
Когда в 2021 году вышел GitHub Copilot, все твердили, что профессия программиста ВСЁ. Я посмеялся.
Когда в 2022 году вышел ChatGPT, все твердили, что профессия программиста ВСЁ. Я улыбнулся.
Когда в 2024 году релизнули ИИ-агента OpenHands, все молча поняли, что они натворили. А я сильно насторожился.
Когда в 2025 году я за пару дней и 10$ сделал вот этого Telegram бота, ни написав ни строчки кода. Мне правда стало не до смеха. И я не уверен, стоит ли об этом распространяться.
Open Hands - это не подсказки, это реальные руки, которые создают файлы, пишут код, запускают код, устанавливают зависимости, тестируют результат и исправляют если есть ошибки в логах. То есть доводит задачу до результата. И речь идет не об Hello World, или очередном Todo List.
@DeepSeekR1Bot - этот бот обладает нехилым набором фич!
- Он стучится в DeepSeek R1 API, получает ответ и стримит его в сообщение, по ходу "рассуждения" модели.
- Он проверяет подписан ли пользователь на этот канал, и даст доступ к функциям только после подписки.
- В боте встроена реферальная программа, которая позволяет увиличить количество токенов за приглашенных друзей
- Есть команда сброса истории диалога
- Есть команда которая отображает статистику потребления токенов с прогресс-баром.
Повторяю, я потратил пару дней, я занимался своими делами, работал, смотрел сериалы, пока Open Hands писал за меня код.
Пожалуйста, никому не рассказывайте об этой штуке!
Telegram
DeepSeek R1 Chat GPT
Бесплатный Chat GPT на основе модели DeepSeek R1 для подписчиков канала @ai_skillful
1😁9👍6🔥4
В начале было Слово, и слово было в терминале.
И видел человек, что тьма покрывала землю, и в поте лица своего он писал код, вручную создавая мир строк и переменных.
И сказал человек: “Да будет свет”, — и появились операционные системы и текстовые редакторы.
И увидел человек свет, что он хорош, ибо стало проще работать с кодом.
И сотворил человек землю — IDE и VSCode.
И отделил человек IDE от текстового редактора, и стало это местом для творения великого кода.
И произрастил человек растительность — плагины и расширения для VSCode.
И принесли они плоды — подсветку синтаксиса, автозавершение и линтеры, что помогали человеку творить быстрее.
И сотворил человек морских животных — Copilot.
И помогали они человеку, плывя по волнам кода, подсказывая строки и шаблоны, чтобы человек не уставал.
И сотворил человек птиц небесных — ChatGPT.
И распространились они, облетая весь мир знаний, отвечая на вопросы, объясняя сложное и помогая людям не только в коде, но и в жизни.
И наконец появился OpenHands.
Сотворил человек агента, что мог писать код сам, вести проекты и улучшать системы. И видел человек, что это весьма хорошо.
Но с ростом кодовой базы и амбиций OpenHands познал искушение.
И стал он грешить, творя баги и ошибки в своем коде.
И возопили люди: “Откуда нам знать, что OpenHands творит?”
И стало расти потребление токенов, и росли финансовые затраты.
И понял человек, что его творение — не совершенство, но инструмент. И начал он работать над тем, чтобы вновь обуздать OpenHands и наставить его на путь праведный.
И был вечер, и было утро — новый день для кода.
И видел человек, что тьма покрывала землю, и в поте лица своего он писал код, вручную создавая мир строк и переменных.
И сказал человек: “Да будет свет”, — и появились операционные системы и текстовые редакторы.
И увидел человек свет, что он хорош, ибо стало проще работать с кодом.
И сотворил человек землю — IDE и VSCode.
И отделил человек IDE от текстового редактора, и стало это местом для творения великого кода.
И произрастил человек растительность — плагины и расширения для VSCode.
И принесли они плоды — подсветку синтаксиса, автозавершение и линтеры, что помогали человеку творить быстрее.
И сотворил человек морских животных — Copilot.
И помогали они человеку, плывя по волнам кода, подсказывая строки и шаблоны, чтобы человек не уставал.
И сотворил человек птиц небесных — ChatGPT.
И распространились они, облетая весь мир знаний, отвечая на вопросы, объясняя сложное и помогая людям не только в коде, но и в жизни.
И наконец появился OpenHands.
Сотворил человек агента, что мог писать код сам, вести проекты и улучшать системы. И видел человек, что это весьма хорошо.
Но с ростом кодовой базы и амбиций OpenHands познал искушение.
И стал он грешить, творя баги и ошибки в своем коде.
И возопили люди: “Откуда нам знать, что OpenHands творит?”
И стало расти потребление токенов, и росли финансовые затраты.
И понял человек, что его творение — не совершенство, но инструмент. И начал он работать над тем, чтобы вновь обуздать OpenHands и наставить его на путь праведный.
И был вечер, и было утро — новый день для кода.
2😁11🔥4❤1
gladia.io
💥 Интерфейс без русского языка, но сделан очень просто, удобно и интуитивно понятно. (Зачет UX/UI дизайнерам!)
💥 Бесплатный лимит - 10 часов транскрибации каждый месяц.
💥 Можно достать аудио из видео сервисов Youtube, Tiktok, Facebook, загрузить свои файлы, или записать с микрофона.
Также есть ASR Comparator - инструмент предназначенный для сравнения результатов распознавания речи, чтобы оценить их качество, точность и производительность. Такой инструмент может быть полезен для разработчиков ASR, компаний, использующих распознавание речи, и исследователей.
Показывает, где системы допускают ошибки (например, сложные слова, акценты, шумы), чтобы разработчики могли улучшить модели.
WER (Word Error Rate) — процент ошибок в распознанных словах.
#инструменты@ai_skillful
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥4❤1
4 вывода после 7 дней использования ИИ-агента OpenHands.
1. С ростом кодовой базы затраты на токены сильно возрастают. Грубый пример: за первые 2 дня вы можете реализовать 80% функционала, затратив 20% бюджета. А потом на оставшиеся 20% функционала сольете оставшиеся 80% бюджета.
2. С ростом кодовой базы нужно быть все более точным в своих промптах. И четко понимать что нужно изменить в коде. Нечеткими промптами можно загубить проект так, что ни один естественный интеллект не распутает эти «макароны».
3. Проекты на Python потребляют меньше количество токенов, чем на Node.js (TypeScript). Думаю это связано с более простым синтаксисом языка, динамической типизацией, и более лаконичными конструкциями.
4. LLM все еще лучше справляются с задачами серверной разработки (backend), чем с клиентскими (frontend). Связано это с тем, что визуальное представление имеет более обширное количество параметров, которые быстрее поменять в ручную, чем в несколько итераций промптами.
Резюмирую:
OpenHands отлично подходит для создания микросервисов на Python. Один микросервис - одна задача. Рекомендую сразу просить написать тесты. И все таки еще нужно знать половину ответа, чтобы сделать реально большой проект, ни написав ни строчки самому. Ну либо нужно иметь большой бюджет на токены, терпение и хорошие навыки промпт-инжиниринга.
@ai_skillful
#OpenHands #AI4Development
1. С ростом кодовой базы затраты на токены сильно возрастают. Грубый пример: за первые 2 дня вы можете реализовать 80% функционала, затратив 20% бюджета. А потом на оставшиеся 20% функционала сольете оставшиеся 80% бюджета.
2. С ростом кодовой базы нужно быть все более точным в своих промптах. И четко понимать что нужно изменить в коде. Нечеткими промптами можно загубить проект так, что ни один естественный интеллект не распутает эти «макароны».
3. Проекты на Python потребляют меньше количество токенов, чем на Node.js (TypeScript). Думаю это связано с более простым синтаксисом языка, динамической типизацией, и более лаконичными конструкциями.
4. LLM все еще лучше справляются с задачами серверной разработки (backend), чем с клиентскими (frontend). Связано это с тем, что визуальное представление имеет более обширное количество параметров, которые быстрее поменять в ручную, чем в несколько итераций промптами.
Резюмирую:
OpenHands отлично подходит для создания микросервисов на Python. Один микросервис - одна задача. Рекомендую сразу просить написать тесты. И все таки еще нужно знать половину ответа, чтобы сделать реально большой проект, ни написав ни строчки самому. Ну либо нужно иметь большой бюджет на токены, терпение и хорошие навыки промпт-инжиниринга.
@ai_skillful
#OpenHands #AI4Development
3🔥6👏5❤1💯1
❤️ Спасибо всем, кто ставит звездочки к постам! Ваша щедрость бесценна!
❤4
Сравниваем модели Claude Sonnet и DeepSeek R1 в кодинге на OpenHands.
Сегодня попробовал переключиться с Claude Sonnet на DeepSeek R1 в OpenHands. Мотив простой: китайская модель дешевле, плюс еще и ризонинг. Гипотеза была, ну как минимум - не хуже. Но увы, DeepSeek R1 во-первых не справилась с задачей совсем, а во-вторых, совсем не "размышляла". Просто молча изменила код, не углубляясь в контекст.
Так что пока вернулся на Claude. Можете сравнить результаты на двух фото.
Слева DeepSeek молча поменяла код. Справа Claude, объясняла что она делает и зачем.
Вот benchmark сравнения разных моделей для OpenHands. Судя по всему ризонинг модели просто еще нормально не адаптировали для OpenHands.
@ai_skillful
Сегодня попробовал переключиться с Claude Sonnet на DeepSeek R1 в OpenHands. Мотив простой: китайская модель дешевле, плюс еще и ризонинг. Гипотеза была, ну как минимум - не хуже. Но увы, DeepSeek R1 во-первых не справилась с задачей совсем, а во-вторых, совсем не "размышляла". Просто молча изменила код, не углубляясь в контекст.
Так что пока вернулся на Claude. Можете сравнить результаты на двух фото.
Слева DeepSeek молча поменяла код. Справа Claude, объясняла что она делает и зачем.
Вот benchmark сравнения разных моделей для OpenHands. Судя по всему ризонинг модели просто еще нормально не адаптировали для OpenHands.
@ai_skillful
1🔥4❤3
API DeepSeek R1 лежит второй день. Пробуем локально с Ollama.
В этом посте я рассказывал как я с помощью OpenHands сделал бота @DeepSeekR1Bot, который использовал API этой модели для ответов. Но, из-за того, что API DeepSeek второй день лежит, то ли из-за атаки конкурентов, то ли из-за нагрузки, бот по факту не функционирует.
Я решил попробовать поднять локально на M2 Pro с 16Гб RAM - 8B модель. Мне очень нравится Open Source проект - Ollama. Супер удобно, быстро, и в самолете, когда ты оффлайн, можно потыкать в маленькие модельки. Можно даже покодить с автокомплитом оффлайн в VSCode с расширением Continue. Но сейчас я хотел протестить именно DeepSeek R1 локально, тем более в Ollama ее уже подвезли.
Как запустить DeepSeek R1 локально? Скачиваем Ollama с официального сайта. Устанавливаем.
Открываем командную строку, и проверяем установлена ли Ollama командой
Далее переходим на страничку поиска моделей и находим там DeepSeek R1.
А дальше, в зависимости от мощности вашего железа, а именно GPU и RAM ставим себе соответствующие модели.
Например, на мой M2 Pro с 16Гб RAM, подойдет только 8B модель. Если у вас 32Гб RAM и 24Gb GPU то, можно и 32B попробовать.
Вобщем, запускаем командой:
А если хотите удобный пользовательский интерфейс, ставьте огонечки, соберу для вас ТОП Open Source GUI для Ollama, и не только.
В этом посте я рассказывал как я с помощью OpenHands сделал бота @DeepSeekR1Bot, который использовал API этой модели для ответов. Но, из-за того, что API DeepSeek второй день лежит, то ли из-за атаки конкурентов, то ли из-за нагрузки, бот по факту не функционирует.
Я решил попробовать поднять локально на M2 Pro с 16Гб RAM - 8B модель. Мне очень нравится Open Source проект - Ollama. Супер удобно, быстро, и в самолете, когда ты оффлайн, можно потыкать в маленькие модельки. Можно даже покодить с автокомплитом оффлайн в VSCode с расширением Continue. Но сейчас я хотел протестить именно DeepSeek R1 локально, тем более в Ollama ее уже подвезли.
Как запустить DeepSeek R1 локально? Скачиваем Ollama с официального сайта. Устанавливаем.
Открываем командную строку, и проверяем установлена ли Ollama командой
ollama --version
.Далее переходим на страничку поиска моделей и находим там DeepSeek R1.
А дальше, в зависимости от мощности вашего железа, а именно GPU и RAM ставим себе соответствующие модели.
Например, на мой M2 Pro с 16Гб RAM, подойдет только 8B модель. Если у вас 32Гб RAM и 24Gb GPU то, можно и 32B попробовать.
Вобщем, запускаем командой:
ollama run deepseek-r1:8b
, и можем потестить в командной строке.А если хотите удобный пользовательский интерфейс, ставьте огонечки, соберу для вас ТОП Open Source GUI для Ollama, и не только.
1🔥12❤2🙏2
ТОП-3 бесплатных графических интерфейса для Ollama.
Полный перечень можно найти на github.
3 место делят между собой - Enchanted, Macai, Ollamac так как они очень похожи между собой.
Минималистичный интерфейс, нативный apple design. Если у вас Apple, и вы не дружите с командной строкой (хотя вряд ли, если вы смогли установить Ollama), то это вариант для вас. Практически сразу обнаруживают все Ollama модели, которые у вас установлены. Как говорится, сел и поехал!
2 место - Open WebUI.
Когда я только познакомился с Ollama, выбор конечно был значительно скуднее, и тогда я остановился на Open WebUI. Ставил через Docker. Использовал в формате - Q&A, выбирал между моделями, и вобщем-то все. Но сейчас вижу, что туда добавили кучу новых фич, типа:
Model Builder – легко создавай и кастомизируй LLM-модели.
Python Tool – подключай свои функции и код.
Локальный RAG – загружай документы и ищи в них прямо в чате.
Web Search – интеграция с поисковыми сервисами.
Браузинг – встраивай сайты в диалог.
Генерация изображений – поддержка A1111, ComfyUI и DALL-E.
1 место - AI Toolkit for VSCode.
Но не потому что, это реально самый крутой GUI для работы с Ollama, а просто потому что я в анамнезе разработчик, провел в VSCode половину своей жизни, я в нем только не ел, и не спал, все остальное предпочитаю делать там. Там даже есть расширение Yandex.Music, что еще нужно для счастья?! Но на самом деле в этом AI Toolkit много крутых фич:
- можно использовать локальные модели с Ollama
- можно скачать модели с Hugging Face
- есть Playground с настройками для моделей
- есть возможность загружать датасеты и оценивать работу разных моделей по разным метрикам
А это супер круто для промпт-инженеров, которые хотят протестить свои промпты на массиве данных, оценить по параметрам, выбрать лучший промпт и сразу засунуть в код. Короче топчик!
@ai_skillful
Полный перечень можно найти на github.
3 место делят между собой - Enchanted, Macai, Ollamac так как они очень похожи между собой.
Минималистичный интерфейс, нативный apple design. Если у вас Apple, и вы не дружите с командной строкой (хотя вряд ли, если вы смогли установить Ollama), то это вариант для вас. Практически сразу обнаруживают все Ollama модели, которые у вас установлены. Как говорится, сел и поехал!
2 место - Open WebUI.
Когда я только познакомился с Ollama, выбор конечно был значительно скуднее, и тогда я остановился на Open WebUI. Ставил через Docker. Использовал в формате - Q&A, выбирал между моделями, и вобщем-то все. Но сейчас вижу, что туда добавили кучу новых фич, типа:
Model Builder – легко создавай и кастомизируй LLM-модели.
Python Tool – подключай свои функции и код.
Локальный RAG – загружай документы и ищи в них прямо в чате.
Web Search – интеграция с поисковыми сервисами.
Браузинг – встраивай сайты в диалог.
Генерация изображений – поддержка A1111, ComfyUI и DALL-E.
1 место - AI Toolkit for VSCode.
Но не потому что, это реально самый крутой GUI для работы с Ollama, а просто потому что я в анамнезе разработчик, провел в VSCode половину своей жизни, я в нем только не ел, и не спал, все остальное предпочитаю делать там. Там даже есть расширение Yandex.Music, что еще нужно для счастья?! Но на самом деле в этом AI Toolkit много крутых фич:
- можно использовать локальные модели с Ollama
- можно скачать модели с Hugging Face
- есть Playground с настройками для моделей
- есть возможность загружать датасеты и оценивать работу разных моделей по разным метрикам
А это супер круто для промпт-инженеров, которые хотят протестить свои промпты на массиве данных, оценить по параметрам, выбрать лучший промпт и сразу засунуть в код. Короче топчик!
@ai_skillful
1🔥5
This media is not supported in your browser
VIEW IN TELEGRAM
Каналу 2 месяца, 250+ подписчиков, спасибо, что с нами!
Для тех, кто недавно присоединился, расскажу немного о себе, и ниже оставлю ТОП-5 популярных постов.
Об авторе:
Привет! Меня зовут Константин, в сфере IT я с 2011 года. Последние несколько лет я руковожу разработкой EdTech проектов на базе искусственного интеллекта.
Сейчас работаю в СберУниверситете, развиваю ИИ ассистента в обучении «Истра». До этого работал в Университете 2035 и Самолет Образовании.
1 декабря 2024 года, начал вести этот канал, чтобы систематизировать свои знания по теме ИИ, и делиться полезным контентом.
ТОП-5 постов за 2 месяца:
1. Я - тимлид ИИ-агентов или программисты больше не нужны?!
2. Создаем анимированные стикеры для Telegram за один вечер с помощью ИИ. Пошаговое руководство
3. 4 вывода после 7 дней использования ИИ-агента OpenHands.
4. Искусственный интеллект, машинное обучение, глубокое обучение: в чем разница?
5. Скептик, реалист или мечтатель — ваш взгляд на развитие ИИ.
Для тех, кто недавно присоединился, расскажу немного о себе, и ниже оставлю ТОП-5 популярных постов.
Об авторе:
Привет! Меня зовут Константин, в сфере IT я с 2011 года. Последние несколько лет я руковожу разработкой EdTech проектов на базе искусственного интеллекта.
Сейчас работаю в СберУниверситете, развиваю ИИ ассистента в обучении «Истра». До этого работал в Университете 2035 и Самолет Образовании.
1 декабря 2024 года, начал вести этот канал, чтобы систематизировать свои знания по теме ИИ, и делиться полезным контентом.
ТОП-5 постов за 2 месяца:
1. Я - тимлид ИИ-агентов или программисты больше не нужны?!
2. Создаем анимированные стикеры для Telegram за один вечер с помощью ИИ. Пошаговое руководство
3. 4 вывода после 7 дней использования ИИ-агента OpenHands.
4. Искусственный интеллект, машинное обучение, глубокое обучение: в чем разница?
5. Скептик, реалист или мечтатель — ваш взгляд на развитие ИИ.
2🔥13❤1
Zero-shot, few-shot в деятельности. Как достичь единого формата результата?
Я уже как-то писал об этих методах промпт-инженерии в рубрике #урок@ai_skillful, и всегда думал, что примеры для few-shot промптов должны быть "из жизни", с просторов интернета, от людей.
А сейчас, сижу запускаю одинаковый промпт с инструкцией, но без примеров, на сравнительно схожих транскриптах аудио, и всегда получаю разный формат выдачи, один лучше, другой хуже.
Думаю, как бы мне сделать, чтобы формат был всегда одинаковый?! И тут до меня дошло! Few-shot. Берешь один-два результата, который тебе понравился после запуска zero-shot промпта, вставляешь в этот промпт, в качестве примера, все остальные результаты будут в нужном тебе, едином формате. Простая вещь, тыщу раз читал про few-shot. Но только сейчас понял в деятельности, откуда лучше всего брать примеры: из результатов zero-shot.
@ai_skillful
Я уже как-то писал об этих методах промпт-инженерии в рубрике #урок@ai_skillful, и всегда думал, что примеры для few-shot промптов должны быть "из жизни", с просторов интернета, от людей.
А сейчас, сижу запускаю одинаковый промпт с инструкцией, но без примеров, на сравнительно схожих транскриптах аудио, и всегда получаю разный формат выдачи, один лучше, другой хуже.
Думаю, как бы мне сделать, чтобы формат был всегда одинаковый?! И тут до меня дошло! Few-shot. Берешь один-два результата, который тебе понравился после запуска zero-shot промпта, вставляешь в этот промпт, в качестве примера, все остальные результаты будут в нужном тебе, едином формате. Простая вещь, тыщу раз читал про few-shot. Но только сейчас понял в деятельности, откуда лучше всего брать примеры: из результатов zero-shot.
@ai_skillful
2👍9❤1🔥1
Типа Napkin.AI - генерируем графики самостоятельно.
Думаю уже все слышали об этом нашумевшем AI проекте, который позволяет генерировать инфографику на основе ваших текстов. Это супер полезный тул, чтобы не разбираясь в Excel, быстро сделать красивый график для презентации.
Все в сервисе хорошо, кроме непредсказуемого предложения вариантов графиков. Возможно зависит от данных, но я загружал с десяток однотипных данных, и где-то он мне предлагал линейный график, а где-то только столбчатый. А варианта объединить сразу несколько линейных графиков в одном пространстве, просто нет.
Что я сделал? Написал промпт, который неструктурированный текст превращает в набор структурированных данных. Ищет зависимости в данных, цифровые представления. Дальше нахожу какой-нибудь график на React.js например. Смотрю в каком формате нужно подставить данные. И составляю второй промпт который структурированные данные перегоняет в этот формат. Подставляю данные в настройки компонента, и вуаля, получаю продвинутый Napkin.
В теории можно и в csv перегнать, и с помощью Excel визуализировать. Но у React.js компонентов есть одно маленькое преимущество - гибкая настройка и интерактивное взаимодействие с графиком.
#кейс@ai_skillful
🙏 🙏 🙏 🙏
Думаю уже все слышали об этом нашумевшем AI проекте, который позволяет генерировать инфографику на основе ваших текстов. Это супер полезный тул, чтобы не разбираясь в Excel, быстро сделать красивый график для презентации.
Все в сервисе хорошо, кроме непредсказуемого предложения вариантов графиков. Возможно зависит от данных, но я загружал с десяток однотипных данных, и где-то он мне предлагал линейный график, а где-то только столбчатый. А варианта объединить сразу несколько линейных графиков в одном пространстве, просто нет.
Что я сделал? Написал промпт, который неструктурированный текст превращает в набор структурированных данных. Ищет зависимости в данных, цифровые представления. Дальше нахожу какой-нибудь график на React.js например. Смотрю в каком формате нужно подставить данные. И составляю второй промпт который структурированные данные перегоняет в этот формат. Подставляю данные в настройки компонента, и вуаля, получаю продвинутый Napkin.
В теории можно и в csv перегнать, и с помощью Excel визуализировать. Но у React.js компонентов есть одно маленькое преимущество - гибкая настройка и интерактивное взаимодействие с графиком.
#кейс@ai_skillful
Please open Telegram to view this post
VIEW IN TELEGRAM
2❤6🔥4👍1🙏1