SimpleAGI
232 subscribers
49 photos
2 files
42 links
Здесь ты найдешь понятные лайфхаки и примеры использования LLM в повседневной жизни и бизнесе.

Подпишись, чтобы вместе шаг за шагом разбираться в технологиях, которые уже меняют наше будущее.
Download Telegram
Сегодня столкнулся с до боли знакомой всем ситуацией.

В процессе работы над проектом, он тебе как родной и ты понимаешь каждую строчку. Пархаешь, как бабочка. Руки бегут быстрее мысли, фичи пилятся, баги фиксятся.

Но стоит только "забыть" о проекте на месяц - ВСЁ. Смотришь на код и вообще не в зуб ногой.

Надеюсь у тебя такое будет как можно реже)
1😁22
На ближайшее время (Возможно месяц-два), планы такие:
- не забить на изучение волшебного фреймворка pydantic-ai и написать еще пару домашних проектов. Про взаимодействие агентской системы я обязательно вам расскажу.

- Продолжить изучение Qdrat . Написать проект использующий гибридный поиск для работы с документами.

Это "домашние планы". А по работе:
- Развить задачу автоматизированного RAG для отделов менеджеров. Поиск и генерация ответов должны быть настроены максимально просто в рамках допущенных критериев точности. Это та самая задача, где нужно постараться не лезть на вершину передовых технологий, а использовать "старичков" с упором на стабильность.

Надеюсь, что после озвучивания планов вам, у меня появится ещё один пункт в мотивации этим заниматься⌨️
Please open Telegram to view this post
VIEW IN TELEGRAM
14🔥31
Я уже рассказывал про французскую модель Mistral.
Так вот в неё завезли агентов!
Это специализированные помощники на какие-то отдельные области\задачи.

Вот пример агента писателя)

Так еще есть возможность своих создавать.
И, судя по всему, это обновление уже доступно каждому.

Так что добро пожаловать в мир агентов!
14
Предполагаю, что на этой неделе будут новости о новых RAG подходах завязанных на самообучении ретривера вне зависимости от модели генерации.

Либо я прав, либо нет) НО я прям верю!

RAG - Генерация с дополненным поиском. В целом - один из подходов промптинга, что мы обсуждали выше. Насыщаем промпт релевантным контекстом по вопросу, чтоб ответ модели был точнее.
13
Прочитал интересную статью.

5 практических рекомендаций для продуктов данных с акцентом на создание бизнес-ценности.

Главный тезис:
Масштабирование продуктов данных — это прежде всего стратегическая задача, а не техническая


1. Цель разработки продуктов данных — не в генерации «лучших данных», а в создании конкретной бизнес-ценности

2. Инвестиции в создание продукта должны нести единовременный характер, так как амортизируются при повторном использовании для новых кейсов.

3. Продукт проектируется таким образом, чтоб максимизировать повторное использование и сокращение переделок под новые кейсы.

4. Владение продуктом, это бизнес, Руководитель должен формулировать ценность, искать новые кейсы.

5. Интегрировать ИИ в продукт для автоматизации задач для сокращения времени разработки и экономии денег.

Как по мне, так классные рекомендации, которые можно использовать даже для своих пет-проектов, чтоб была надежда на их рост. 😎
Please open Telegram to view this post
VIEW IN TELEGRAM
3
Только-только закрыл рабочий ноут.

А всему причина мысль(идея) сотрудника на работе, что можно сделать имитацию вопросов по документации и имитацию ответов похожие на боевые вопросы сотрудников во время работы.

Мол такое тестирование не займет много времени, но можно будет уже оттолкнуться по расчету метрик.

Ух каким я чудом пытался добиться от модели список вопросов и ответов по документу в формате json, которые еще и будет корректно парситься.

На малом объеме документов получилось выполнить задачу через цепочку из двух запросов по документу и все ради того, чтоб вывод был структурированный. Ведь наша модель не умеет в SO.

Всем спасибо, доброй ночи
14
Дошел до того, что пришлось обновить мышку, а то кисть болит.

Кажется я буду очень долго привыкать.
Ничего не понятно, но очень интересно.
3🔥1
Наконец-то поставил vllm на свою NVIDIA 5090! Делюсь пошаговой инструкцией в своём стиле – чтобы вы не наступали на грабли и сразу начали тестить модели.

1. Создаём локальную среду
python3 -m venv .venv
source .venv/bin/activate


2. Устанавливаем ночную сборку PyTorch
pip3 install --pre torch torchvision torchaudio \
--index-url https://download.pytorch.org/whl/nightly/cu128


3. Клонируем репозиторий vllm
git clone https://github.com/vllm-project/vllm.git
cd vllm


4. Собираем и устанавливаем vllm
python use_existing_torch.py
pip install -r requirements/build.txt
export MAX_JOBS=6 # подберите под своё железо, без этого — риск зависаний
pip install --no-build-isolation -e .

5. Организуем структуру проекта
/home/nikita/PROJECTS/
├── my_project/ # ваш основной проект
└── vllm/ # клон репозитория vllm
├── vllm/ # исходники библиотеки
├── setup.py
└── …


Так удобно держать всё раздельно и подключать vllm как локальный пакет.

⏱️ Установка заняла у меня ~20 минут. Чертовски рад, теперь можно запускать агентов и гонять модели.
⌨️
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥43😱1
в этой картинке 10 часов времени. Томный субботний день.
Надеюсь, что вы "веселитесь" иначе.
🔥72
Я тут пропал на долго. Сначала пытался проект выше довести до ума и даже что-то получилось.

API сервис по работе с локальными LLM
Есть возможность загружать модели с HF в хранилище.
Выбирать модель для инициализации.
Выгружать модель из памяти.
Передавать вопросы, как с chat_template, так и просто текстом.

В целом доволен, Я умничка 😎

А для работы сделал:
Бот в корп. месседжере для сотрудников
- html файлы конвертирует в Markdown,
- Из .md через LLM создает базу вопросов и ответов по документации.
- Заполняет 2 JSON базы со связью между вопросами и путями до файлов.
- Проверяет все дубликаты файлов и не обрабатывает их.
- Обновляет файлы если они изменились.
- Пользователь прям из бота может загрузить новый html файл и он попадет в базу.
- И сам RAG , хоть и простенький, но достаточный.
- Пользователь задает вопрос по документациям - бот отвечает исходя из контекста.

Надеюсь этот ад скоро закончится.
С понедельника отпуск и жду его как никогда)
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥3🔥321
Канал то действительно называется SimpleAGI,
Так что сегодня разбираемся, как потрогать RAG и попробовать самому поиграть с Markdown файлами.

Написал проект, с подробными комментариями, ссылками на полезные странички, постарался максимально подробно на примере продемонстрировать работу системы обращения к внешним данным.
Сплиттер,
FAISS,
модель FRIDA,
BM25s,
Ollama,

Столько интересного, мама-мия))

P.S.
Пост и проект сделан по предложению из чата.
Так что заходите и друзей приглашайте)

GitHub
12🔥74
Please open Telegram to view this post
VIEW IN TELEGRAM
10
Тут важное обновление вышло у Google Gemini.
Если у вас есть какие-то сложные задачи или объемные, то попробуйте.
Я пока что очень доволен.

Ну и жду, когда в VSCode перестанет 500 ошибка на gemini выпадать за 30 баксов в месяц)
4🔥22
Попытался восстановить промпт Gemini, а если точнее, её рассуждений перед финальным ответом.

Не сказал бы, что рассуждения идеальны, но вектор точно верный.

Как же хочется выжать хоть из какого-то решения максимум для своих задач.
3🔥21
На днях вышла Qwen3-Embedding-0.6B,
Весит 1.2 Гб

Решил сравнить её с топовой моделью для русского языка: FRIDA
Весит 3 Гб

Сравнивал на своем датасете из юридический, банковских, законодательных статьях.

Результат интересен, хоть и выборка не очень большая.

Единственное ограничение - Qwen показывает хорошие результаты только с flash_attention_2, а его не на каждую машину получится поставить
🔥43🤔21
Правильно говорят, чем больше данных, тем точнее ответ.
FRIDA всё же ТОП для своего размера в RU сегменте.

Зря хайпанул)
32🔥2🤩1
Собрал системную инструкцию для агентов в IDE.
Чисто питонячая и, как по мне, рабочая.

Кажись уже нет большой разницы на каком языке взаимодействовать с моделями, так что на русском языке.

Если кто будет пробовать, оставьте отзыв, мне прям интересно!👍
GitHub
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥41🤩1
как-то очень тяжело с теорией дообучения моделей.
Надеюсь, что какая-то часть информации в голове сохранится.

Ну и хочется верить, что лучше учиться,
чем Не учиться😐
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥31
https://www.youtube.com/live/0_DjDdfqtUE
Трансляция APPLE по своим продуктам. Потенциально должны представить собственную LLM.
Может быть интересно.

Ставлю на то, что бесполезно)
🔥42👏11
Моя, в определенном смысле гордость.
Скрипт для выгрузки проекта в единый markdown файл.
Чем это полезно?

- Ты можешь собрать весь свой проект и грузануть в любую LLM которая поможет тебе в нем разобраться и завайбкодиться по самые уши.

Так же можно использовать и для других проектов, в которых нужно разобраться.

Вряд ли это из "Simple", но это безумно полезно

https://github.com/nikitaCodeSave/save_project_for_vibe/blob/main/create_all_repo_md.py
🔥522