6. Tree of Thoughts
Техника, где LLM строит целое дерево рассуждений, а не одну прямую цепочку. Смотри картинку выше: слева — привычный CoT, справа — ToT со множеством веток.
Почему это важно?
Когда задача сложная и требует поиска, одной тропинки мало. ToT даёт модели:
- Исследование: несколько параллельных путей → больше шансов найти правильное решение.
- Оценку: можно “проголосовать”, какая ветка логичнее.
- Гибкость: легко обрубить бесперспективные ветки и углубиться в перспективные.
Как работает ToT (упрощённо)
Плюсы
- Более точные решения на задачах с поиском (головоломки, планирование, код).
- Возможность визуализировать ход мысли — полезно для дебага.
Вот пример использования и ответ.
Запрос
Ответ длинный и интересный, так что прикладываю ссылку на него, открывать с VPN
Тык
Техника, где LLM строит целое дерево рассуждений, а не одну прямую цепочку. Смотри картинку выше: слева — привычный CoT, справа — ToT со множеством веток.
Почему это важно?
Когда задача сложная и требует поиска, одной тропинки мало. ToT даёт модели:
- Исследование: несколько параллельных путей → больше шансов найти правильное решение.
- Оценку: можно “проголосовать”, какая ветка логичнее.
- Гибкость: легко обрубить бесперспективные ветки и углубиться в перспективные.
Как работает ToT (упрощённо)
1. Стартуем с входа (Input)
2. Генерируем 3-5 «мыслей» = промежуточных шагов
3. Для каждой мысли снова рожаем варианты
4. Повторяем, пока не дойдём до глубины N
5. Сравниваем листовые узлы, берём самый адекватный
6. Выводим ответ
Плюсы
- Более точные решения на задачах с поиском (головоломки, планирование, код).
- Возможность визуализировать ход мысли — полезно для дебага.
Вот пример использования и ответ.
Запрос
Ты — эксперт-логист. Реши задачу
Используй Tree of Thoughts с k=3, max_depth=4
На каждом узле выводи краткую оценку
В финале дай оптимальный маршрут и поясни выбор
Задача: найти кратчайший путь между двумя городами.
ToT: модель сразу предлагает 3 маршрута, на втором уровне уточняет расстояния, на третьем сравнивает пробки и стоимость, в финале выдаёт оптимальный.
Ответ длинный и интересный, так что прикладываю ссылку на него, открывать с VPN
Тык
🔥6👏2
За последние дни я раскрыл серию постов, которые раз и навсегда изменят твой подход к работе с нейросетями! Ты узнаешь:
✅ Что такое Zero-shot, One-shot и Few-shot промпты — и почему от них зависит точность модели.
Пост №1
✅ Чем Системный промпт отличается от Контекстного промпта и как использовать оба, чтобы получать идеально подходящие ответы.
Пост №2
✅ Почему Chain of Thought (CoT) — настоящий прорыв, который поможет тебе не только получить точный ответ, но и понять ход рассуждений модели.
Пост №3
✅ И самое продвинутое — Tree of Thoughts, техника, которая заставит твою модель мыслить многомерно и выдавать решения даже для самых сложных задач.
Пост №4
Поверь, после этой серии твоя продуктивность и качество общения с нейросетями взлетят до небес.
Рекомендую пройти весь цикл постов, чтобы не упустить важнейшие детали!
Пост "Кто я такой", будем дружить)
✅ Что такое Zero-shot, One-shot и Few-shot промпты — и почему от них зависит точность модели.
Пост №1
✅ Чем Системный промпт отличается от Контекстного промпта и как использовать оба, чтобы получать идеально подходящие ответы.
Пост №2
✅ Почему Chain of Thought (CoT) — настоящий прорыв, который поможет тебе не только получить точный ответ, но и понять ход рассуждений модели.
Пост №3
✅ И самое продвинутое — Tree of Thoughts, техника, которая заставит твою модель мыслить многомерно и выдавать решения даже для самых сложных задач.
Пост №4
Поверь, после этой серии твоя продуктивность и качество общения с нейросетями взлетят до небес.
Рекомендую пройти весь цикл постов, чтобы не упустить важнейшие детали!
Пост "Кто я такой", будем дружить)
🔥5
Прошел интересный курс от IBM.
Можно сказать что прослушал и поотвечал на тесты успешно.
Всё же не поддается мне математика ну никак. В моменте понимаю, что происходит и буквально через мгновение - пустота)
Вообще считаю, что даже слушать курсы полезно, какая-то часть новой информации трансформируется в знания.
Можно сказать что прослушал и поотвечал на тесты успешно.
Всё же не поддается мне математика ну никак. В моменте понимаю, что происходит и буквально через мгновение - пустота)
Вообще считаю, что даже слушать курсы полезно, какая-то часть новой информации трансформируется в знания.
🔥5❤2
Последние дни разбирался с библиотекой Qdrant.
Это векторная база данных для работы с текстом(и не только).
Нужна для поиска и хранения текстов и последующим поиском релевантных фрагментов.
Написал проект с ней и намучился вдоволь⌨️
Ругался, матерился, отвлекался, ну всё, что происходит с каждым из нас. Чувство горящей жопы и чтение документации и соседних проектов в GitHub.
А чего мне не хватало? Так простого мануала для старта, что делать, чтоб посмотреть на быстрые результаты и закрепить мысль
"Это действительно удобно и практично, Я смогу разобраться!"
Так о чем я?
Написал такой мануал и предлагаю вам ознакомиться.
Даже если ты далек от подобного, посмотри на вывод кода и ячеек и станет понятно, что это за технологии такие и из чего строится процесс "программирования"
Это не так страшно, как кажется на берегу.
Возможно на базе этого мануала начнется твоя личная история погружения.
По крайней мере я на это надеюсь)
Всё же хочется делать что-то полезное для людей, а не только для работодателя.
Вот такое "Доброе утро, друзья"
❤️
Мануал
Это векторная база данных для работы с текстом(и не только).
Нужна для поиска и хранения текстов и последующим поиском релевантных фрагментов.
Написал проект с ней и намучился вдоволь
Ругался, матерился, отвлекался, ну всё, что происходит с каждым из нас. Чувство горящей жопы и чтение документации и соседних проектов в GitHub.
А чего мне не хватало? Так простого мануала для старта, что делать, чтоб посмотреть на быстрые результаты и закрепить мысль
"Это действительно удобно и практично, Я смогу разобраться!"
Так о чем я?
Написал такой мануал и предлагаю вам ознакомиться.
Даже если ты далек от подобного, посмотри на вывод кода и ячеек и станет понятно, что это за технологии такие и из чего строится процесс "программирования"
Это не так страшно, как кажется на берегу.
Возможно на базе этого мануала начнется твоя личная история погружения.
По крайней мере я на это надеюсь)
Всё же хочется делать что-то полезное для людей, а не только для работодателя.
Вот такое "Доброе утро, друзья"
Мануал
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
Qdrant_tutor/notebook.ipynb at main · nikitaCodeSave/Qdrant_tutor
Contribute to nikitaCodeSave/Qdrant_tutor development by creating an account on GitHub.
1❤5👏4❤🔥3 1
Сегодня столкнулся с до боли знакомой всем ситуацией.
В процессе работы над проектом, он тебе как родной и ты понимаешь каждую строчку. Пархаешь, как бабочка. Руки бегут быстрее мысли, фичи пилятся, баги фиксятся.
Но стоит только "забыть" о проекте на месяц - ВСЁ. Смотришь на код и вообще не в зуб ногой.
Надеюсь у тебя такое будет как можно реже)
В процессе работы над проектом, он тебе как родной и ты понимаешь каждую строчку. Пархаешь, как бабочка. Руки бегут быстрее мысли, фичи пилятся, баги фиксятся.
Но стоит только "забыть" о проекте на месяц - ВСЁ. Смотришь на код и вообще не в зуб ногой.
Надеюсь у тебя такое будет как можно реже)
1😁2 2
На ближайшее время (Возможно месяц-два), планы такие:
- не забить на изучение волшебного фреймворка pydantic-ai и написать еще пару домашних проектов. Про взаимодействие агентской системы я обязательно вам расскажу.
- Продолжить изучение Qdrat . Написать проект использующий гибридный поиск для работы с документами.
Это "домашние планы". А по работе:
- Развить задачу автоматизированного RAG для отделов менеджеров. Поиск и генерация ответов должны быть настроены максимально просто в рамках допущенных критериев точности. Это та самая задача, где нужно постараться не лезть на вершину передовых технологий, а использовать "старичков" с упором на стабильность.
Надеюсь, что после озвучивания планов вам, у меня появится ещё один пункт в мотивации этим заниматься⌨️
- не забить на изучение волшебного фреймворка pydantic-ai и написать еще пару домашних проектов. Про взаимодействие агентской системы я обязательно вам расскажу.
- Продолжить изучение Qdrat . Написать проект использующий гибридный поиск для работы с документами.
Это "домашние планы". А по работе:
- Развить задачу автоматизированного RAG для отделов менеджеров. Поиск и генерация ответов должны быть настроены максимально просто в рамках допущенных критериев точности. Это та самая задача, где нужно постараться не лезть на вершину передовых технологий, а использовать "старичков" с упором на стабильность.
Надеюсь, что после озвучивания планов вам, у меня появится ещё один пункт в мотивации этим заниматься
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤4🔥3 1
Я уже рассказывал про французскую модель Mistral.
Так вот в неё завезли агентов!
Это специализированные помощники на какие-то отдельные области\задачи.
Вот пример агента писателя)
Так еще есть возможность своих создавать.
И, судя по всему, это обновление уже доступно каждому.
Так что добро пожаловать в мир агентов!
Так вот в неё завезли агентов!
Это специализированные помощники на какие-то отдельные области\задачи.
Вот пример агента писателя)
Так еще есть возможность своих создавать.
И, судя по всему, это обновление уже доступно каждому.
Так что добро пожаловать в мир агентов!
1❤4
Предполагаю, что на этой неделе будут новости о новых RAG подходах завязанных на самообучении ретривера вне зависимости от модели генерации.
Либо я прав, либо нет) НО я прям верю!
RAG - Генерация с дополненным поиском. В целом - один из подходов промптинга, что мы обсуждали выше. Насыщаем промпт релевантным контекстом по вопросу, чтоб ответ модели был точнее.
Либо я прав, либо нет) НО я прям верю!
RAG - Генерация с дополненным поиском. В целом - один из подходов промптинга, что мы обсуждали выше. Насыщаем промпт релевантным контекстом по вопросу, чтоб ответ модели был точнее.
1 3
Прочитал интересную статью.
5 практических рекомендаций для продуктов данных с акцентом на создание бизнес-ценности.
Главный тезис:
1. Цель разработки продуктов данных — не в генерации «лучших данных», а в создании конкретной бизнес-ценности
2. Инвестиции в создание продукта должны нести единовременный характер, так как амортизируются при повторном использовании для новых кейсов.
3. Продукт проектируется таким образом, чтоб максимизировать повторное использование и сокращение переделок под новые кейсы.
4. Владение продуктом, это бизнес, Руководитель должен формулировать ценность, искать новые кейсы.
5. Интегрировать ИИ в продукт для автоматизации задач для сокращения времени разработки и экономии денег.
Как по мне, так классные рекомендации, которые можно использовать даже для своих пет-проектов, чтоб была надежда на их рост.😎
5 практических рекомендаций для продуктов данных с акцентом на создание бизнес-ценности.
Главный тезис:
Масштабирование продуктов данных — это прежде всего стратегическая задача, а не техническая
1. Цель разработки продуктов данных — не в генерации «лучших данных», а в создании конкретной бизнес-ценности
2. Инвестиции в создание продукта должны нести единовременный характер, так как амортизируются при повторном использовании для новых кейсов.
3. Продукт проектируется таким образом, чтоб максимизировать повторное использование и сокращение переделок под новые кейсы.
4. Владение продуктом, это бизнес, Руководитель должен формулировать ценность, искать новые кейсы.
5. Интегрировать ИИ в продукт для автоматизации задач для сокращения времени разработки и экономии денег.
Как по мне, так классные рекомендации, которые можно использовать даже для своих пет-проектов, чтоб была надежда на их рост.
Please open Telegram to view this post
VIEW IN TELEGRAM
McKinsey & Company
The missing data link: Five practical lessons to scale your data products
As companies increasingly rely on data to innovate and grow, scaling data products has become a top strategic issue. We look at how to unlock this new value.
Только-только закрыл рабочий ноут.
А всему причина мысль(идея) сотрудника на работе, что можно сделать имитацию вопросов по документации и имитацию ответов похожие на боевые вопросы сотрудников во время работы.
Мол такое тестирование не займет много времени, но можно будет уже оттолкнуться по расчету метрик.
Ух каким я чудом пытался добиться от модели список вопросов и ответов по документу в формате json, которые еще и будет корректно парситься.
На малом объеме документов получилось выполнить задачу через цепочку из двух запросов по документу и все ради того, чтоб вывод был структурированный. Ведь наша модель не умеет в SO.
Всем спасибо, доброй ночи
А всему причина мысль(идея) сотрудника на работе, что можно сделать имитацию вопросов по документации и имитацию ответов похожие на боевые вопросы сотрудников во время работы.
Мол такое тестирование не займет много времени, но можно будет уже оттолкнуться по расчету метрик.
Ух каким я чудом пытался добиться от модели список вопросов и ответов по документу в формате json, которые еще и будет корректно парситься.
На малом объеме документов получилось выполнить задачу через цепочку из двух запросов по документу и все ради того, чтоб вывод был структурированный. Ведь наша модель не умеет в SO.
Всем спасибо, доброй ночи
1❤4
Наконец-то поставил vllm на свою NVIDIA 5090! Делюсь пошаговой инструкцией в своём стиле – чтобы вы не наступали на грабли и сразу начали тестить модели.
1. Создаём локальную среду
2. Устанавливаем ночную сборку PyTorch
3. Клонируем репозиторий vllm
4. Собираем и устанавливаем vllm
5. Организуем структуру проекта
Так удобно держать всё раздельно и подключать vllm как локальный пакет.
⏱️ Установка заняла у меня ~20 минут. Чертовски рад, теперь можно запускать агентов и гонять модели.
⌨️
1. Создаём локальную среду
python3 -m venv .venv
source .venv/bin/activate
2. Устанавливаем ночную сборку PyTorch
pip3 install --pre torch torchvision torchaudio \
--index-url https://download.pytorch.org/whl/nightly/cu128
3. Клонируем репозиторий vllm
git clone https://github.com/vllm-project/vllm.git
cd vllm
4. Собираем и устанавливаем vllm
python use_existing_torch.py
pip install -r requirements/build.txt
export MAX_JOBS=6 # подберите под своё железо, без этого — риск зависаний
pip install --no-build-isolation -e .
5. Организуем структуру проекта
/home/nikita/PROJECTS/
├── my_project/ # ваш основной проект
└── vllm/ # клон репозитория vllm
├── vllm/ # исходники библиотеки
├── setup.py
└── …
Так удобно держать всё раздельно и подключать vllm как локальный пакет.
⏱️ Установка заняла у меня ~20 минут. Чертовски рад, теперь можно запускать агентов и гонять модели.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4❤3😱1
Я тут пропал на долго. Сначала пытался проект выше довести до ума и даже что-то получилось.
API сервис по работе с локальными LLM
Есть возможность загружать модели с HF в хранилище.
Выбирать модель для инициализации.
Выгружать модель из памяти.
Передавать вопросы, как с chat_template, так и просто текстом.
В целом доволен, Я умничка😎
А для работы сделал:
Бот в корп. месседжере для сотрудников
- html файлы конвертирует в Markdown,
- Из .md через LLM создает базу вопросов и ответов по документации.
- Заполняет 2 JSON базы со связью между вопросами и путями до файлов.
- Проверяет все дубликаты файлов и не обрабатывает их.
- Обновляет файлы если они изменились.
- Пользователь прям из бота может загрузить новый html файл и он попадет в базу.
- И сам RAG , хоть и простенький, но достаточный.
- Пользователь задает вопрос по документациям - бот отвечает исходя из контекста.
Надеюсь этот ад скоро закончится.
С понедельника отпуск и жду его как никогда)
API сервис по работе с локальными LLM
Есть возможность загружать модели с HF в хранилище.
Выбирать модель для инициализации.
Выгружать модель из памяти.
Передавать вопросы, как с chat_template, так и просто текстом.
В целом доволен, Я умничка
А для работы сделал:
Бот в корп. месседжере для сотрудников
- html файлы конвертирует в Markdown,
- Из .md через LLM создает базу вопросов и ответов по документации.
- Заполняет 2 JSON базы со связью между вопросами и путями до файлов.
- Проверяет все дубликаты файлов и не обрабатывает их.
- Обновляет файлы если они изменились.
- Пользователь прям из бота может загрузить новый html файл и он попадет в базу.
- И сам RAG , хоть и простенький, но достаточный.
- Пользователь задает вопрос по документациям - бот отвечает исходя из контекста.
Надеюсь этот ад скоро закончится.
С понедельника отпуск и жду его как никогда)
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥3🔥3❤2 1
Канал то действительно называется SimpleAGI,
Так что сегодня разбираемся, как потрогать RAG и попробовать самому поиграть с Markdown файлами.
Написал проект, с подробными комментариями, ссылками на полезные странички, постарался максимально подробно на примере продемонстрировать работу системы обращения к внешним данным.
Сплиттер,
FAISS,
модель FRIDA,
BM25s,
Ollama,
Столько интересного, мама-мия))
P.S.
Пост и проект сделан по предложению из чата.
Так что заходите и друзей приглашайте)
GitHub
Так что сегодня разбираемся, как потрогать RAG и попробовать самому поиграть с Markdown файлами.
Написал проект, с подробными комментариями, ссылками на полезные странички, постарался максимально подробно на примере продемонстрировать работу системы обращения к внешним данным.
Сплиттер,
FAISS,
модель FRIDA,
BM25s,
Ollama,
Столько интересного, мама-мия))
P.S.
Пост и проект сделан по предложению из чата.
Так что заходите и друзей приглашайте)
GitHub
GitHub
GitHub - nikitaCodeSave/SimpleAgi_RAG
Contribute to nikitaCodeSave/SimpleAgi_RAG development by creating an account on GitHub.
12🔥7❤4
Тут важное обновление вышло у Google Gemini.
Если у вас есть какие-то сложные задачи или объемные, то попробуйте.
Я пока что очень доволен.
Ну и жду, когда в VSCode перестанет 500 ошибка на gemini выпадать за 30 баксов в месяц)
Если у вас есть какие-то сложные задачи или объемные, то попробуйте.
Я пока что очень доволен.
Ну и жду, когда в VSCode перестанет 500 ошибка на gemini выпадать за 30 баксов в месяц)
Gemini
Google Gemini
Meet Gemini, Google’s AI assistant. Get help with writing, planning, brainstorming, and more. Experience the power of generative AI.
❤4🔥2 2
На днях вышла Qwen3-Embedding-0.6B,
Весит 1.2 Гб
Решил сравнить её с топовой моделью для русского языка: FRIDA
Весит 3 Гб
Сравнивал на своем датасете из юридический, банковских, законодательных статьях.
Результат интересен, хоть и выборка не очень большая.
Единственное ограничение - Qwen показывает хорошие результаты только с flash_attention_2, а его не на каждую машину получится поставить
Весит 1.2 Гб
Решил сравнить её с топовой моделью для русского языка: FRIDA
Весит 3 Гб
Сравнивал на своем датасете из юридический, банковских, законодательных статьях.
Результат интересен, хоть и выборка не очень большая.
Единственное ограничение - Qwen показывает хорошие результаты только с flash_attention_2, а его не на каждую машину получится поставить
🔥4 3🤔2 1