Вот частое заблуждение про RAG
Когда говорят про RAG, обычно думают так: проиндексировали док → потом достали этот же док.
Но индексация ≠ ретривал.
То есть данные, которые ты индексируешь, не обязаны совпадать с теми данными, которые ты потом скармливаешь LLM на этапе генерации.
Вот 4 умных способа индексировать данные:
1) Chunk Indexing
▪️ Самый распространенный подход.
▪️ Режешь документ на чанки, строишь эмбеддинги и кладешь их в векторную базу.
▪️ Во время запроса просто достаешь ближайшие чанки.
Подход простой и рабочий, но большие или шумные чанки могут просаживать точность.
2) Sub-chunk Indexing
▪️ Берешь исходные чанки и дробишь их еще мельче на сабчанки.
▪️ Индексируешь уже эти более мелкие куски.
▪️ Но при выдаче все равно возвращаешь “большой” чанк для контекста.
Помогает, когда в одном абзаце/секции намешано несколько разных идей: шанс точно сматчиться с запросом выше.
3) Query Indexing
▪️ Вместо сырого текста генеришь гипотетические вопросы, на которые, по мнению LLM, этот чанк может ответить.
▪️ Эмбеддишь эти вопросы и сохраняешь.
▪️ При ретривале реальные пользовательские запросы обычно лучше ложатся на такие “вопросные” представления.
▪️ Похожая идея есть в HyDE, только там матчат гипотетический ответ с реальными чанками.
Кайфово для QA-систем, потому что уменьшает семантический разрыв между запросом пользователя и тем, что лежит в индексе.
4) Summary Indexing
▪️ Просишь LLM кратко резюмировать каждый чанк в компактную семантическую форму.
▪️ Индексируешь summary вместо исходного текста.
▪️ А возвращаешь все равно полный чанк для контекста.
Особенно эффективно для плотных или структурированных данных (типа CSV/таблиц), где эмбеддинги сырого текста часто слабо что-то выражают
👉 @PythonPortal
Когда говорят про RAG, обычно думают так: проиндексировали док → потом достали этот же док.
Но индексация ≠ ретривал.
То есть данные, которые ты индексируешь, не обязаны совпадать с теми данными, которые ты потом скармливаешь LLM на этапе генерации.
Вот 4 умных способа индексировать данные:
1) Chunk Indexing
Подход простой и рабочий, но большие или шумные чанки могут просаживать точность.
2) Sub-chunk Indexing
Помогает, когда в одном абзаце/секции намешано несколько разных идей: шанс точно сматчиться с запросом выше.
3) Query Indexing
Кайфово для QA-систем, потому что уменьшает семантический разрыв между запросом пользователя и тем, что лежит в индексе.
4) Summary Indexing
Особенно эффективно для плотных или структурированных данных (типа CSV/таблиц), где эмбеддинги сырого текста часто слабо что-то выражают
Please open Telegram to view this post
VIEW IN TELEGRAM
❤16
Вот полный путь, который я бы рекомендовал, чтобы в этом году собрать production-grade AI-агентов:
▪️ база по Python и алгоритмам
▪️ математика и основы ML
▪️ трансформеры и LLM
▪️ prompt engineering
▪️ memory и RAG
▪️ tools и интеграции
▪️ фреймворки типа LangChain или CrewAI
▪️ multi-agent системы
▪️ тестирование, деплой, безопасность
👉 @PythonPortal
Please open Telegram to view this post
VIEW IN TELEGRAM
😁15❤6🤣5👍4
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤12
Большой Python-грех: использовать изменяемый объект как аргумент по умолчанию
Не используй изменяемые объекты в качестве значений по умолчанию. В Python значения аргументов по умолчанию вычисляются один раз, в момент определения функции, а не при каждом ее вызове.
Если у тебя аргумент по умолчанию выглядит так:
Лучший вариант: ставить неизменяемый объект в значение по умолчанию. Тогда каждый вызов будет получать новый список, как в примере
👉 @PythonPortal
Не используй изменяемые объекты в качестве значений по умолчанию. В Python значения аргументов по умолчанию вычисляются один раз, в момент определения функции, а не при каждом ее вызове.
Если у тебя аргумент по умолчанию выглядит так:
items=[], этот список будет общим для всех вызовов, и ты получишь накапливающееся состояние, которого не планировал.Лучший вариант: ставить неизменяемый объект в значение по умолчанию. Тогда каждый вызов будет получать новый список, как в примере
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥26❤11👍5😁5
Please open Telegram to view this post
VIEW IN TELEGRAM
😁46🤣20❤5
This media is not supported in your browser
VIEW IN TELEGRAM
Китайский агент для автоматизации рабочего стола, который работает полностью локально.
Он умеет запускать любые приложения, открывать файлы, серфить по сайтам и автоматизировать задачи без подключения к интернету.
100% Open-Source.
👉 @PythonPortal
Он умеет запускать любые приложения, открывать файлы, серфить по сайтам и автоматизировать задачи без подключения к интернету.
100% Open-Source.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍18❤6🤔2
Please open Telegram to view this post
VIEW IN TELEGRAM
👀30❤4👍3
Чувак полностью реализовал архитектуру GPT-OSS-20B с нуля на PyTorch. Все компоненты написаны с нуля:
▪️ RoPE с YaRN + NTK-by-parts для масштабирования контекста
▪️ RMSNorm
▪️ SwiGLU с клэмпингом и residual connections
▪️ Mixture-of-Experts (MoE)
▪️ Self-Attention, оптимизированный через Grouped Query Attention (GQA)
▪️ Learned sinks
▪️ Banded (скользящее окно) attention
▪️ Поддержка KV-кэширования
Всё это работает на одной A100 SXM (80GB). Он также написал подробную документацию с теорией каждого компонента, а также инструкциями по настройке и инференсу.
Репозиторий: https://github.com/HamzaElshafie/gpt-oss-20B
👉 @PythonPortal
Всё это работает на одной A100 SXM (80GB). Он также написал подробную документацию с теорией каждого компонента, а также инструкциями по настройке и инференсу.
Репозиторий: https://github.com/HamzaElshafie/gpt-oss-20B
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤24🤯18🔥10👍6
Google выпустил новый инструмент: PaperBanana
Умеет создавать академические иллюстрации, готовые к публикации, просто на основе текста с описанием методологии.
Без Figma. Без ручного дизайна. Без навыков рисования.
Как это работает:
Команда AI-агентов трудится за кулисами:
→ Один ищет подходящие примеры диаграмм
→ Один планирует структуру
→ Один оформляет стиль и компоновку
→ Один генерирует изображение
→ Один оценивает результат и улучшает его
Самое интересное: случайные примеры ссылок работают почти так же хорошо, как идеально подобранные. Главное — показать модели, как выглядят хорошие диаграммы, а не искать идеальный тематический пример.
В слепых тестах люди предпочли результаты PaperBanana в 75% случаев.
Это та самая рекурсия, которую мы ждали: AI-системы, способные полностью визуально документировать сами себя.
Открыта запись в лист ожидания
👉 @PythonPortal
Умеет создавать академические иллюстрации, готовые к публикации, просто на основе текста с описанием методологии.
Без Figma. Без ручного дизайна. Без навыков рисования.
Как это работает:
Команда AI-агентов трудится за кулисами:
→ Один ищет подходящие примеры диаграмм
→ Один планирует структуру
→ Один оформляет стиль и компоновку
→ Один генерирует изображение
→ Один оценивает результат и улучшает его
Самое интересное: случайные примеры ссылок работают почти так же хорошо, как идеально подобранные. Главное — показать модели, как выглядят хорошие диаграммы, а не искать идеальный тематический пример.
В слепых тестах люди предпочли результаты PaperBanana в 75% случаев.
Это та самая рекурсия, которую мы ждали: AI-системы, способные полностью визуально документировать сами себя.
Открыта запись в лист ожидания
Please open Telegram to view this post
VIEW IN TELEGRAM
❤13👍4👀3
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6
Тюнинг LLM больше не обязательно должен быть медленным, дорогим и прожорливым к GPU.
Открытые инструменты сильно прокачались.
Теперь можно дообучать мощные LLM без корпоративного железа.
Вот 4 библиотеки, которые стоит знать, чтобы тюнинг был быстрее и дешевле:
1. Unsloth
Наверняка самый быстрый способ дообучения LLM на сегодня.
✅ До 2× быстрее
✅ ~70% меньше использования VRAM
✅ Работает с Gemma, Qwen, LLaMA, Mistral и другими
✅ Запускается на потребительских GPU (даже Colab/Kaggle с ~3GB VRAM 🤯 )
2. LLaMA Factory
Полный набор для дообучения.
✅ Поддержка 100+ моделей
✅ CLI + WebUI (подходит новичкам)
✅ LoRA, QLoRA, полный и замороженный FT (2–8 бит)
✅ Встроенные датасеты, мониторинг тренировки и экспорт моделей
3. DeepSpeed
Если идёте на большие масштабы.
✅ ZeRO и FSDP для масштабного обучения
✅ Оптимизация под multi-GPU и multi-node
✅ Проверен в продакшн-LLM тренировках
Если вы масштабируете серьёзные модели → это ваш выбор.
4. Axolotl
Конфигурационно-ориентированное дообучение, сделанное правильно.
✅ Workflow на YAML
✅ Поддержка LoRA, QLoRA, DPO, GRPO и мультимодальных моделей
✅ Оптимизация памяти на уровне ядра
✅ Плавная интеграция с Hugging Face
👉 @PythonPortal
Открытые инструменты сильно прокачались.
Теперь можно дообучать мощные LLM без корпоративного железа.
Вот 4 библиотеки, которые стоит знать, чтобы тюнинг был быстрее и дешевле:
1. Unsloth
Наверняка самый быстрый способ дообучения LLM на сегодня.
2. LLaMA Factory
Полный набор для дообучения.
3. DeepSpeed
Если идёте на большие масштабы.
Если вы масштабируете серьёзные модели → это ваш выбор.
4. Axolotl
Конфигурационно-ориентированное дообучение, сделанное правильно.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10
Media is too big
VIEW IN TELEGRAM
9 ключевых концепций искусственного интеллекта, объясненных за 7 минут
- Tokenization
- Text Decoding
- Prompt Engineering
- Multi Step AI Agents
- RAGs
- RLHF
- VAE
- Diffusion Models
- LoRA
👉 @PythonPortal
- Tokenization
- Text Decoding
- Prompt Engineering
- Multi Step AI Agents
- RAGs
- RLHF
- VAE
- Diffusion Models
- LoRA
Please open Telegram to view this post
VIEW IN TELEGRAM
👍13❤1
This media is not supported in your browser
VIEW IN TELEGRAM
CLAUDE CODE, но для взлома.
Shannon: полностью автономный AI-хакер, который находит реальные эксплойты в ваших веб-приложениях.
Shannon показал 96,15% успешности на бенчмарке XBOW без подсказок, с учётом исходного кода.
Фичи:
» Полностью автономная работа
» Отчёты уровня пентеста с воспроизводимыми эксплойтами
» Покрытие критических уязвимостей из OWASP
» Динамическое тестирование с пониманием кода
» Работает на базе интегрированных security-инструментов
» Параллельная обработка для ускорения результатов
https://github.com/KeygraphHQ/shannon
👉 @PythonPortal
Shannon: полностью автономный AI-хакер, который находит реальные эксплойты в ваших веб-приложениях.
Shannon показал 96,15% успешности на бенчмарке XBOW без подсказок, с учётом исходного кода.
Фичи:
» Полностью автономная работа
» Отчёты уровня пентеста с воспроизводимыми эксплойтами
» Покрытие критических уязвимостей из OWASP
» Динамическое тестирование с пониманием кода
» Работает на базе интегрированных security-инструментов
» Параллельная обработка для ускорения результатов
https://github.com/KeygraphHQ/shannon
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯19👍8❤2🤔1
Совет на 2026 год — освойте ВАЙБ-КОДИНГ. ИИ уже пишет код, чинит баги, генерит тесты и документацию быстрее и качественнее любой команды айтишников
И те, кто научится вайбкодить сейчас, будут зарабатывать в разы больше тех, кто всё ещё делает всё вручную
Разобраться в этом с нуля поможет канал Вайб-кодинг. Там простым языком разбирают, какие инструменты действительно стоит использовать, как собирать проекты от идеи до релиза и что сейчас актуально в вайбкодинге
Подписывайтесь, нас уже 15 тысяч: @vibecoding_tg
И те, кто научится вайбкодить сейчас, будут зарабатывать в разы больше тех, кто всё ещё делает всё вручную
Разобраться в этом с нуля поможет канал Вайб-кодинг. Там простым языком разбирают, какие инструменты действительно стоит использовать, как собирать проекты от идеи до релиза и что сейчас актуально в вайбкодинге
Подписывайтесь, нас уже 15 тысяч: @vibecoding_tg
🤣54🤔10😁3👍1