SimpleAGI
232 subscribers
49 photos
2 files
42 links
Здесь ты найдешь понятные лайфхаки и примеры использования LLM в повседневной жизни и бизнесе.

Подпишись, чтобы вместе шаг за шагом разбираться в технологиях, которые уже меняют наше будущее.
Download Telegram
А вот и Claude обновили пулл своих моделей и это будет огромной новостной бомбой.

Так что кратко о произошедшем:

Claude Opus 4 — лучшая в мире модель кодирования, обеспечивающая устойчивую производительность при выполнении сложных, длительных задач и рабочих процессов агентов. Claude Sonnet 4 — это значительное обновление Claude Sonnet 3.7, обеспечивающее превосходное кодирование и обоснование, а также более точную реакцию на ваши инструкции.

Сильный упор на агентские системы, выпустили инструмент в OpenSource для построения агентов самостоятельно.

Звучит круто!
3
SimpleAGI
А вот и Claude обновили пулл своих моделей и это будет огромной новостной бомбой. Так что кратко о произошедшем: Claude Opus 4 — лучшая в мире модель кодирования, обеспечивающая устойчивую производительность при выполнении сложных, длительных задач и рабочих…
Я попробовал Claude Opus 4 в Copilot VSCode.
Друзья, Я в ауте. Уверен, что это новая веха в индустрии.
Ставлю на то, что телеграмм несколько месяцев не будет утихать!

Я пол дня писал проект про сбору страниц с сайтов документаций библиотек.

Opus Исправил все мои ошибки буквально за 2 промпта без использования каких-либо системных сообщений, просто в режиме чата.

Это что-то на уровне мечтаний.
🤔4🔥2
6. Tree of Thoughts
Техника, где LLM строит целое дерево рассуждений, а не одну прямую цепочку. Смотри картинку выше: слева — привычный CoT, справа — ToT со множеством веток.

Почему это важно?
Когда задача сложная и требует поиска, одной тропинки мало. ToT даёт модели:

- Исследование: несколько параллельных путей → больше шансов найти правильное решение.

- Оценку: можно “проголосовать”, какая ветка логичнее.

- Гибкость: легко обрубить бесперспективные ветки и углубиться в перспективные.

Как работает ToT (упрощённо)

1. Стартуем с входа (Input)
2. Генерируем 3-5 «мыслей» = промежуточных шагов
3. Для каждой мысли снова рожаем варианты
4. Повторяем, пока не дойдём до глубины N
5. Сравниваем листовые узлы, берём самый адекватный
6. Выводим ответ

Плюсы

- Более точные решения на задачах с поиском (головоломки, планирование, код).

- Возможность визуализировать ход мысли — полезно для дебага.

Вот пример использования и ответ.
Запрос
Ты — эксперт-логист. Реши задачу
Используй Tree of Thoughts с k=3, max_depth=4
На каждом узле выводи краткую оценку
В финале дай оптимальный маршрут и поясни выбор


Задача: найти кратчайший путь между двумя городами.
ToT: модель сразу предлагает 3 маршрута, на втором уровне уточняет расстояния, на третьем сравнивает пробки и стоимость, в финале выдаёт оптимальный.

Ответ длинный и интересный, так что прикладываю ссылку на него, открывать с VPN
Тык
🔥6👏2
За последние дни я раскрыл серию постов, которые раз и навсегда изменят твой подход к работе с нейросетями! Ты узнаешь:

Что такое Zero-shot, One-shot и Few-shot промпты — и почему от них зависит точность модели.
Пост №1

Чем Системный промпт отличается от Контекстного промпта и как использовать оба, чтобы получать идеально подходящие ответы.
Пост №2

Почему Chain of Thought (CoT) — настоящий прорыв, который поможет тебе не только получить точный ответ, но и понять ход рассуждений модели.
Пост №3

И самое продвинутое — Tree of Thoughts, техника, которая заставит твою модель мыслить многомерно и выдавать решения даже для самых сложных задач.
Пост №4

Поверь, после этой серии твоя продуктивность и качество общения с нейросетями взлетят до небес.

Рекомендую пройти весь цикл постов, чтобы не упустить важнейшие детали!

Пост "Кто я такой", будем дружить)
🔥5
Прошел интересный курс от IBM.
Можно сказать что прослушал и поотвечал на тесты успешно.

Всё же не поддается мне математика ну никак. В моменте понимаю, что происходит и буквально через мгновение - пустота)

Вообще считаю, что даже слушать курсы полезно, какая-то часть новой информации трансформируется в знания.
🔥52
Последние дни разбирался с библиотекой Qdrant.
Это векторная база данных для работы с текстом(и не только).

Нужна для поиска и хранения текстов и последующим поиском релевантных фрагментов.

Написал проект с ней и намучился вдоволь⌨️
Ругался, матерился, отвлекался, ну всё, что происходит с каждым из нас. Чувство горящей жопы и чтение документации и соседних проектов в GitHub.

А чего мне не хватало? Так простого мануала для старта, что делать, чтоб посмотреть на быстрые результаты и закрепить мысль
"Это действительно удобно и практично, Я смогу разобраться!"

Так о чем я?
Написал такой мануал и предлагаю вам ознакомиться.
Даже если ты далек от подобного, посмотри на вывод кода и ячеек и станет понятно, что это за технологии такие и из чего строится процесс "программирования"

Это не так страшно, как кажется на берегу.

Возможно на базе этого мануала начнется твоя личная история погружения.
По крайней мере я на это надеюсь)
Всё же хочется делать что-то полезное для людей, а не только для работодателя.

Вот такое "Доброе утро, друзья"
❤️

Мануал
Please open Telegram to view this post
VIEW IN TELEGRAM
15👏4❤‍🔥31
Из интересного и приятного:

На работе есть ежегодная оценка
(Прям как в вузе 😁)
И мне прям приятно!
18🔥2❤‍🔥1
Сегодня столкнулся с до боли знакомой всем ситуацией.

В процессе работы над проектом, он тебе как родной и ты понимаешь каждую строчку. Пархаешь, как бабочка. Руки бегут быстрее мысли, фичи пилятся, баги фиксятся.

Но стоит только "забыть" о проекте на месяц - ВСЁ. Смотришь на код и вообще не в зуб ногой.

Надеюсь у тебя такое будет как можно реже)
1😁22
На ближайшее время (Возможно месяц-два), планы такие:
- не забить на изучение волшебного фреймворка pydantic-ai и написать еще пару домашних проектов. Про взаимодействие агентской системы я обязательно вам расскажу.

- Продолжить изучение Qdrat . Написать проект использующий гибридный поиск для работы с документами.

Это "домашние планы". А по работе:
- Развить задачу автоматизированного RAG для отделов менеджеров. Поиск и генерация ответов должны быть настроены максимально просто в рамках допущенных критериев точности. Это та самая задача, где нужно постараться не лезть на вершину передовых технологий, а использовать "старичков" с упором на стабильность.

Надеюсь, что после озвучивания планов вам, у меня появится ещё один пункт в мотивации этим заниматься⌨️
Please open Telegram to view this post
VIEW IN TELEGRAM
14🔥31
Я уже рассказывал про французскую модель Mistral.
Так вот в неё завезли агентов!
Это специализированные помощники на какие-то отдельные области\задачи.

Вот пример агента писателя)

Так еще есть возможность своих создавать.
И, судя по всему, это обновление уже доступно каждому.

Так что добро пожаловать в мир агентов!
14
Предполагаю, что на этой неделе будут новости о новых RAG подходах завязанных на самообучении ретривера вне зависимости от модели генерации.

Либо я прав, либо нет) НО я прям верю!

RAG - Генерация с дополненным поиском. В целом - один из подходов промптинга, что мы обсуждали выше. Насыщаем промпт релевантным контекстом по вопросу, чтоб ответ модели был точнее.
13
Прочитал интересную статью.

5 практических рекомендаций для продуктов данных с акцентом на создание бизнес-ценности.

Главный тезис:
Масштабирование продуктов данных — это прежде всего стратегическая задача, а не техническая


1. Цель разработки продуктов данных — не в генерации «лучших данных», а в создании конкретной бизнес-ценности

2. Инвестиции в создание продукта должны нести единовременный характер, так как амортизируются при повторном использовании для новых кейсов.

3. Продукт проектируется таким образом, чтоб максимизировать повторное использование и сокращение переделок под новые кейсы.

4. Владение продуктом, это бизнес, Руководитель должен формулировать ценность, искать новые кейсы.

5. Интегрировать ИИ в продукт для автоматизации задач для сокращения времени разработки и экономии денег.

Как по мне, так классные рекомендации, которые можно использовать даже для своих пет-проектов, чтоб была надежда на их рост. 😎
Please open Telegram to view this post
VIEW IN TELEGRAM
3
Только-только закрыл рабочий ноут.

А всему причина мысль(идея) сотрудника на работе, что можно сделать имитацию вопросов по документации и имитацию ответов похожие на боевые вопросы сотрудников во время работы.

Мол такое тестирование не займет много времени, но можно будет уже оттолкнуться по расчету метрик.

Ух каким я чудом пытался добиться от модели список вопросов и ответов по документу в формате json, которые еще и будет корректно парситься.

На малом объеме документов получилось выполнить задачу через цепочку из двух запросов по документу и все ради того, чтоб вывод был структурированный. Ведь наша модель не умеет в SO.

Всем спасибо, доброй ночи
14
Дошел до того, что пришлось обновить мышку, а то кисть болит.

Кажется я буду очень долго привыкать.
Ничего не понятно, но очень интересно.
3🔥1
Наконец-то поставил vllm на свою NVIDIA 5090! Делюсь пошаговой инструкцией в своём стиле – чтобы вы не наступали на грабли и сразу начали тестить модели.

1. Создаём локальную среду
python3 -m venv .venv
source .venv/bin/activate


2. Устанавливаем ночную сборку PyTorch
pip3 install --pre torch torchvision torchaudio \
--index-url https://download.pytorch.org/whl/nightly/cu128


3. Клонируем репозиторий vllm
git clone https://github.com/vllm-project/vllm.git
cd vllm


4. Собираем и устанавливаем vllm
python use_existing_torch.py
pip install -r requirements/build.txt
export MAX_JOBS=6 # подберите под своё железо, без этого — риск зависаний
pip install --no-build-isolation -e .

5. Организуем структуру проекта
/home/nikita/PROJECTS/
├── my_project/ # ваш основной проект
└── vllm/ # клон репозитория vllm
├── vllm/ # исходники библиотеки
├── setup.py
└── …


Так удобно держать всё раздельно и подключать vllm как локальный пакет.

⏱️ Установка заняла у меня ~20 минут. Чертовски рад, теперь можно запускать агентов и гонять модели.
⌨️
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥43😱1
в этой картинке 10 часов времени. Томный субботний день.
Надеюсь, что вы "веселитесь" иначе.
🔥72
Я тут пропал на долго. Сначала пытался проект выше довести до ума и даже что-то получилось.

API сервис по работе с локальными LLM
Есть возможность загружать модели с HF в хранилище.
Выбирать модель для инициализации.
Выгружать модель из памяти.
Передавать вопросы, как с chat_template, так и просто текстом.

В целом доволен, Я умничка 😎

А для работы сделал:
Бот в корп. месседжере для сотрудников
- html файлы конвертирует в Markdown,
- Из .md через LLM создает базу вопросов и ответов по документации.
- Заполняет 2 JSON базы со связью между вопросами и путями до файлов.
- Проверяет все дубликаты файлов и не обрабатывает их.
- Обновляет файлы если они изменились.
- Пользователь прям из бота может загрузить новый html файл и он попадет в базу.
- И сам RAG , хоть и простенький, но достаточный.
- Пользователь задает вопрос по документациям - бот отвечает исходя из контекста.

Надеюсь этот ад скоро закончится.
С понедельника отпуск и жду его как никогда)
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥3🔥321
Канал то действительно называется SimpleAGI,
Так что сегодня разбираемся, как потрогать RAG и попробовать самому поиграть с Markdown файлами.

Написал проект, с подробными комментариями, ссылками на полезные странички, постарался максимально подробно на примере продемонстрировать работу системы обращения к внешним данным.
Сплиттер,
FAISS,
модель FRIDA,
BM25s,
Ollama,

Столько интересного, мама-мия))

P.S.
Пост и проект сделан по предложению из чата.
Так что заходите и друзей приглашайте)

GitHub
12🔥74
Please open Telegram to view this post
VIEW IN TELEGRAM
10
Тут важное обновление вышло у Google Gemini.
Если у вас есть какие-то сложные задачи или объемные, то попробуйте.
Я пока что очень доволен.

Ну и жду, когда в VSCode перестанет 500 ошибка на gemini выпадать за 30 баксов в месяц)
4🔥22
Попытался восстановить промпт Gemini, а если точнее, её рассуждений перед финальным ответом.

Не сказал бы, что рассуждения идеальны, но вектор точно верный.

Как же хочется выжать хоть из какого-то решения максимум для своих задач.
3🔥21