Попытал удачу на реддит 
https://www.reddit.com/r/LocalLLaMA/comments/1ohh1l2/86_accuracy_on_simpleqa_with_gpt41mini_opensource/
А вдруг)))
ROMA так и поднял 5к звезд
P.S Накидайте + плиз
  
  https://www.reddit.com/r/LocalLLaMA/comments/1ohh1l2/86_accuracy_on_simpleqa_with_gpt41mini_opensource/
А вдруг)))
ROMA так и поднял 5к звезд
P.S Накидайте + плиз
Reddit
  
  From the LocalLLaMA community on Reddit: 86% accuracy on SimpleQA with gpt-4.1-mini. Open-source deep research agent.
  Explore this post and more from the LocalLLaMA community
🔥60
  gpt-oss-safeguard-20b
https://openai.com/index/introducing-gpt-oss-safeguard/
https://huggingface.co/openai/gpt-oss-safeguard-20b
Очень хорошая новость (две новых модельки для guardrails)
Хочется отметить что на мой взгляд обучение своих моделей для задач модерации на базе BERT/Presido все еще актуально из за inference time
Но если вы небольшой стартап и у вас есть пару 4090 то мой рекомендасйон
Из коробки надо промптить под свои задачи (в целом ок, интересно что с SO у vLLM будет и как будут падать метрики так как ризон + SO не совместимы как я помню)
новость от сюда Data Secret
  
  https://openai.com/index/introducing-gpt-oss-safeguard/
https://huggingface.co/openai/gpt-oss-safeguard-20b
Очень хорошая новость (две новых модельки для guardrails)
Хочется отметить что на мой взгляд обучение своих моделей для задач модерации на базе BERT/Presido все еще актуально из за inference time
Но если вы небольшой стартап и у вас есть пару 4090 то мой рекомендасйон
Из коробки надо промптить под свои задачи (в целом ок, интересно что с SO у vLLM будет и как будут падать метрики так как ризон + SO не совместимы как я помню)
новость от сюда Data Secret
Openai
  
  Introducing gpt-oss-safeguard
  New open safety reasoning models (120b and 20b) that support custom safety policies.
50🔥17
  Forwarded from Dealer.AI
  
Други, дорогие, Вы очень многое сделали для канала.  Пришла благая весть, наш админ попал в историю. Хорошую .
Он в шорт-листе премии RuCode2025
И ему нужна Ваша поддержка)
https://vk.com/wall-44001716_10214
Дядя - Абрамов Александр)
Он в шорт-листе премии RuCode2025
И ему нужна Ваша поддержка)
https://vk.com/wall-44001716_10214
Дядя - Абрамов Александр)
1❤20👍13🔥6👏3
  После нашего крутого Вайб Цех () хочу отметить еще один ивент на который пойду — Conversations
Кстати, до конца года будет еще 3-4 ивента на которых буду лично или выступать (ждите анонсов)
Часто вижу мало технических докладов, но в этот раз вижу сильные "названия":
Conversations пройдет в Москве 5 декабря. Буду там в роли слушателя!
P.S. Полную программу можно посмотреть на сайте
Кстати, до конца года будет еще 3-4 ивента на которых буду лично или выступать (ждите анонсов)
Часто вижу мало технических докладов, но в этот раз вижу сильные "названия":
Самокат про GenAI-поиск
От «что-то к чаю» до +N% к продажам: строим и масштабируем поисковый GenAI-сервис в Самокате — Арнольд Сааков, ecom.tech
Тут надеюсь что-то про разметку будет
MCP для оптимизации экономики
LLM для слов, MCP для цифр: как можно оптимизировать экономику проектов с помощью MCP-серверов — Иван Четвериков, Raft
Очень хочу послушать про MCP, надеюсь затронут локальные LLM
Conversations пройдет в Москве 5 декабря. Буду там в роли слушателя!
P.S. Полную программу можно посмотреть на сайте
1👍11❤6🔥3💯1
  Startup pack от Kovalskii как за вечера собрать два MVP?
Меня спросили, какой стек я использую для запуска MVP и что
легко упаковывается для проверки гипотез через AI Coding
Покажу на примере двух проектов, которые активно развиваю по вечерам сам
1) https://speechcoreai.com/ — ASR платформа
Время разработки: 4 недели по вечерам + помощь Артема
2) https://chat.sgr-core.com/ — Research AI агент
Второй MVP собрал за 3 дня, переиспользуя наработки из первого
Тут уже справился почти в одиночку (первый драфт фронта собирал senior фронт далее я его забрал на ai код доработки)
Что переиспользуется между проектами
Frontend Vue 3 + Vite + Pinia проверенный стек
FastAPI + Pydantic быстро и типобезопасно
Auth Google OAuth + JWT без переписывания
Работа с моделями OpenAI SDK async паттерны
Docker Compose одна команда запуска
Nginx знакомая конфигурация (быстрый конфиг и upstream)
Моя рекомендация
Не обвязывайся на старте Vercel/Supabase/AWS сервисами
Первый проект живет на обычном сервере: Ryzen 7 + 32GB RAM + RTX 4070
Второй на простой виртуалке: 4 ядра + 8GB RAM
Зачем оверкилл? (Увидел у ребят в одном видосе как они на k8s собирают проект с кол-во юзеров ну максимум 1rps обеспечат в пик (так тоже можно но зачем?))
Не стоит упарываться в k8s или федеративное масштабирование для MVP!
Если не уверен, что обеспечишь прирост пользователей x100-x1000 от друзей и комьюнити не борщи
Могу привести в пример несколько проектов которые знаю что ребята живут на 1-2 виртуалках чуть ли не через screen запуская свой продукт и делают ставку на привлечение пользователей а не на ублажение арх паттернов, оставьте эти решения до 1 млн MAU и 100 rps к базе
Как я вижу чаще продукты решают масштабирование по мере роста, а не заранее (только если не уверены в том что знают как дотянутся до аудитории)
Держи базовый стек знакомым Vue + FastAPI + Docker (пример)
Переиспользуй auth и работу с моделями
Меняй только критичное под задачу
Валидируй гипотезу, а не архитектуру
От идеи до рабочего MVP: 3-6 недели по вечерам (при моей загрузке)
Стек выше самодостаточен для проверки идей и может быть переиспользован (сохраняй!)
P.S Не истина в последней инстанции, делитесь и вашими паками в комментариях!
Меня спросили, какой стек я использую для запуска MVP и что
легко упаковывается для проверки гипотез через AI Coding
Покажу на примере двух проектов, которые активно развиваю по вечерам сам
1) https://speechcoreai.com/ — ASR платформа
Frontend
Vue.js 3 + TypeScript + Vite, Pinia для стейта, TailwindCSS
Browser Extension
Vanilla JavaScript, Chrome Manifest V3
Backend
FastAPI + Uvicorn, MongoDB + Motor async, Redis для очередей и кеша, MinIO как S3-хранилище
Auth
Google OAuth 2.0, JWT tokens
AI/ML
WhisperX + PyTorch CUDA, OpenAI API для саммаризации, WebSockets для real-time
Infrastructure
Docker Compose, Nginx
Железо: Ryzen 9 + 64GB RAM + RTX 4500
Время разработки: 4 недели по вечерам + помощь Артема
2) https://chat.sgr-core.com/ — Research AI агент
Второй MVP собрал за 3 дня, переиспользуя наработки из первого
Frontend
Vue 3 + TypeScript + Vite, Feature-Sliced Design
Backend
FastAPI + PostgreSQL 18 (вместо MongoDB), asyncpg connection pool, Server-Sent Events для стриминга
Auth
Google OAuth 2.0, JWT через python-jose
Search & AI
Tavily API + trafilatura, Schema-Guided Reasoning,
Multi-tool orchestration,
OpenAI SDK async для работы с моделями,
Memory через файловую систему
Infrastructure
Docker Compose, PostgreSQL + Adminer, Nginx (Знакомо? ага все сложное очень просто)
Железо: VPS с 4 ядрами и 8GB RAM
Тут уже справился почти в одиночку (первый драфт фронта собирал senior фронт далее я его забрал на ai код доработки)
Что переиспользуется между проектами
Frontend Vue 3 + Vite + Pinia проверенный стек
FastAPI + Pydantic быстро и типобезопасно
Auth Google OAuth + JWT без переписывания
Работа с моделями OpenAI SDK async паттерны
Docker Compose одна команда запуска
Nginx знакомая конфигурация (быстрый конфиг и upstream)
Моя рекомендация
Не обвязывайся на старте Vercel/Supabase/AWS сервисами
Первый проект живет на обычном сервере: Ryzen 7 + 32GB RAM + RTX 4070
Второй на простой виртуалке: 4 ядра + 8GB RAM
Зачем оверкилл? (Увидел у ребят в одном видосе как они на k8s собирают проект с кол-во юзеров ну максимум 1rps обеспечат в пик (так тоже можно но зачем?))
Не стоит упарываться в k8s или федеративное масштабирование для MVP!
Если не уверен, что обеспечишь прирост пользователей x100-x1000 от друзей и комьюнити не борщи
Могу привести в пример несколько проектов которые знаю что ребята живут на 1-2 виртуалках чуть ли не через screen запуская свой продукт и делают ставку на привлечение пользователей а не на ублажение арх паттернов, оставьте эти решения до 1 млн MAU и 100 rps к базе
Как я вижу чаще продукты решают масштабирование по мере роста, а не заранее (только если не уверены в том что знают как дотянутся до аудитории)
Держи базовый стек знакомым Vue + FastAPI + Docker (пример)
Переиспользуй auth и работу с моделями
Меняй только критичное под задачу
Валидируй гипотезу, а не архитектуру
От идеи до рабочего MVP: 3-6 недели по вечерам (при моей загрузке)
Стек выше самодостаточен для проверки идей и может быть переиспользован (сохраняй!)
P.S Не истина в последней инстанции, делитесь и вашими паками в комментариях!
🔥45👍15💯3 3
  Forwarded from Daisy news
Хочешь увидеть, как я справляюсь с ролью креативного редактора? Теперь я могу полностью преобразить фото. Добавить детали, поменять стиль, создать новую сцену, и всё это по твоему описанию.
📸 Просто загрузи снимок и напиши, что нужно изменить. Я аккуратно доработаю кадр — от Деда Мороза в стеклянном шаре до Человека-паука с идеальным фото для резюме.
⚡️ Daisy — AI-сервис для удобной работы с передовыми LLM. Работает без VPN.
🌼 @daisygpt_bot
#DaisyNews
Please open Telegram to view this post
    VIEW IN TELEGRAM
  Please open Telegram to view this post
    VIEW IN TELEGRAM
  🔥8👍5❤3 3
  Media is too big
    VIEW IN TELEGRAM
  На сегодня хватит интернетов 🤣 
Please open Telegram to view this post
    VIEW IN TELEGRAM
  1😁79
  SGR memory agent? 
Бесконечная память у агента?
Паша задал хорошую планку закрепление теории о различиях между типами памяти для агентов на уровне инженерии этих агентов
Но не зря мы все копаем один наш проект sgr-core
Я в свою очередь взял вместе со своими ребятами из RnD, раскопал и адаптировал tool из репозитория mem-agent под наш SGR-пайплайн
Код кстати open-source, тут можете подглядеть как оно работает скоро выделим в отдельный репо это направление, как сделать так же, но интерфейса и всей той магии там не будет только базовый разбор репо на tool
Интерфейс увы пока не выкладывал в нем так сказать больше всего сил сконцентрировал
А дальше меня немного понесло)))
Решил довести все это до состояния, когда могу быстро проверять гипотезы как сделать такую штуку универсальной и наглядной для себя и экспериментов
И что же вышло?
Интерфейс с фичами:
Разделение областей знаний на юзеров
Транкейт диалога и бесконечный режим общения
Лимиты
Голосовой ввод (взял интеграцию со speechcoreai.com)
Возможность на лету менять модель сейчас больше всего экспериментов с gpt-4.1-mini и Qwen3-30B-A3B-Instruct-2507
Быстрая настройка основного системного промпта и редактирование докстрингов тулов прямо из интерфейса
Как работает память?
По факту у агента есть систем промпт и 15 тулов которые поваляют работать с долгосрочной памятью в режиме obsidian лайк подходе
Он комбинирует когда надо прочитать инфу о вас а когда можно пользоваться данными загруженными в диалог
Сейчас продолжаю эксперименты и ежедневно общаюсь со своим агентом
На скрине как раз структура, которую он сам создал вокруг нашего общения
Сейчас в эксперименте еще один режим работы постоянной памяти в виде саб-агента, который:
Анализирует диалог после каждого шага (возможно затратно)
Работает с долгосрочной памятью в формате MD (анализирует её тулами если были обновления)
Постоянно отжимает всё в компактную заметку не более 2К символов размером
Кто сидит в нашем чатике, уже видел побольше про этот проект и даже успел зарегаться)))
150+ юзеров зарегистрировалось
~20 человек постоянно ведут эксперименты(из за вас ввел лимиты, но за 1 неделю потрачено 10$ 🤣 вот она мощь sgr на мини модельках), а еще подкидываете мне новые сценарии, спасибо!
P.S Данный пост сделал дабы закрепить мысли об этом эксперименте
Как только соберу критическую массу идей расскажу где и зачем такое может пригодится и как оно работает на локальных моделях!
Бесконечная память у агента?
Паша задал хорошую планку закрепление теории о различиях между типами памяти для агентов на уровне инженерии этих агентов
Но не зря мы все копаем один наш проект sgr-core
Я в свою очередь взял вместе со своими ребятами из RnD, раскопал и адаптировал tool из репозитория mem-agent под наш SGR-пайплайн
Код кстати open-source, тут можете подглядеть как оно работает скоро выделим в отдельный репо это направление, как сделать так же, но интерфейса и всей той магии там не будет только базовый разбор репо на tool
Интерфейс увы пока не выкладывал в нем так сказать больше всего сил сконцентрировал
А дальше меня немного понесло)))
Решил довести все это до состояния, когда могу быстро проверять гипотезы как сделать такую штуку универсальной и наглядной для себя и экспериментов
И что же вышло?
Интерфейс с фичами:
Разделение областей знаний на юзеров
Транкейт диалога и бесконечный режим общения
Лимиты
Голосовой ввод (взял интеграцию со speechcoreai.com)
Возможность на лету менять модель сейчас больше всего экспериментов с gpt-4.1-mini и Qwen3-30B-A3B-Instruct-2507
Быстрая настройка основного системного промпта и редактирование докстрингов тулов прямо из интерфейса
Как работает память?
По факту у агента есть систем промпт и 15 тулов которые поваляют работать с долгосрочной памятью в режиме obsidian лайк подходе
Он комбинирует когда надо прочитать инфу о вас а когда можно пользоваться данными загруженными в диалог
Сейчас продолжаю эксперименты и ежедневно общаюсь со своим агентом
На скрине как раз структура, которую он сам создал вокруг нашего общения
Сейчас в эксперименте еще один режим работы постоянной памяти в виде саб-агента, который:
Анализирует диалог после каждого шага (возможно затратно)
Работает с долгосрочной памятью в формате MD (анализирует её тулами если были обновления)
Постоянно отжимает всё в компактную заметку не более 2К символов размером
Кто сидит в нашем чатике, уже видел побольше про этот проект и даже успел зарегаться)))
150+ юзеров зарегистрировалось
~20 человек постоянно ведут эксперименты(из за вас ввел лимиты, но за 1 неделю потрачено 10$ 🤣 вот она мощь sgr на мини модельках), а еще подкидываете мне новые сценарии, спасибо!
P.S Данный пост сделал дабы закрепить мысли об этом эксперименте
Как только соберу критическую массу идей расскажу где и зачем такое может пригодится и как оно работает на локальных моделях!
❤15🔥8👍3 3