Давай соберем динамическую память для AI-агентов на графах знаний и RAG всего в 6 строк кода, шаг за шагом (100% локально).
Когда ты шлёшь в агента большие объёмы данных, это часто приводит к раздутию контекста и галлюцинациям.
Чтобы агенты были надежными, нужен способ связать данные между собой и зафиксировать базовые «ground truth», которые повышают точность в многошаговых диалогах.
Именно это и делает Cognee.
Он помогает строить динамическую память для AI-агентов, заменяя RAG на масштабируемые модульные ECL-пайплайны (Extract, Cognify, Load).
Давай пройдемся по настройке по шагам:
Шаг 1: Data ingestion
В этом примере мы просто прокинем строку текста в Cognee и превратим её в память для ИИ.
Но ты не ограничен только текстом: можно кормить документы, файлы или любые другие источники данных, чтобы собрать knowledge graph.
Дальше можно дергать search() и ходить в него с обычными текстовыми запросами.
Шаг 2: Memify
Теперь добавляем функции памяти. Они работают поверх семантического слоя (knowledge graph), связывают точки и улучшают поиск.
Memify полностью кастомизируется и может использовать любые преобразования, которые ты напишешь.
Шаг 3: Наконец, добавляем Feedback Loops
Cognee поддерживает непрерывное улучшение за счёт механизма обратной связи: он фиксирует, насколько полезны и релевантны результаты поиска по реальным сообщениям пользователей.
Со временем получается обучающаяся система, которая адаптируется под твои задачи и предпочтения.
Cognee сделан под память агентов. Он превращает документы, чаты и файлы в knowledge graph, по которому любая LLM может рассуждать.
Можно запускать локально, в том числе через интерактивные ноутбуки.
Он на 100% опенсорс.😱
👉 @PythonPortal
Когда ты шлёшь в агента большие объёмы данных, это часто приводит к раздутию контекста и галлюцинациям.
Чтобы агенты были надежными, нужен способ связать данные между собой и зафиксировать базовые «ground truth», которые повышают точность в многошаговых диалогах.
Именно это и делает Cognee.
Он помогает строить динамическую память для AI-агентов, заменяя RAG на масштабируемые модульные ECL-пайплайны (Extract, Cognify, Load).
Давай пройдемся по настройке по шагам:
Шаг 1: Data ingestion
В этом примере мы просто прокинем строку текста в Cognee и превратим её в память для ИИ.
Но ты не ограничен только текстом: можно кормить документы, файлы или любые другие источники данных, чтобы собрать knowledge graph.
Дальше можно дергать search() и ходить в него с обычными текстовыми запросами.
Шаг 2: Memify
Теперь добавляем функции памяти. Они работают поверх семантического слоя (knowledge graph), связывают точки и улучшают поиск.
Memify полностью кастомизируется и может использовать любые преобразования, которые ты напишешь.
Шаг 3: Наконец, добавляем Feedback Loops
Cognee поддерживает непрерывное улучшение за счёт механизма обратной связи: он фиксирует, насколько полезны и релевантны результаты поиска по реальным сообщениям пользователей.
Со временем получается обучающаяся система, которая адаптируется под твои задачи и предпочтения.
Cognee сделан под память агентов. Он превращает документы, чаты и файлы в knowledge graph, по которому любая LLM может рассуждать.
Можно запускать локально, в том числе через интерактивные ноутбуки.
Он на 100% опенсорс.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍17❤4🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Использовать mocap-костюм, чтобы робот пнул тебя по яйцам, звучит как идеальная метафора для финала 2025.
👉 @PythonPortal
Please open Telegram to view this post
VIEW IN TELEGRAM
35😁53🤣17❤4💊3
Сейчас у VSCode реально полно нативных AI-фич: автодополнение, предложения правок кода, подтверждение изменений с помощью модели и прочие штуки прямо из коробки.
Please open Telegram to view this post
VIEW IN TELEGRAM
💊37😁13❤2👍2
Кое-что интересненькое: проект отслеживает позы людей сквозь стены, используя Wi-Fi сигналы для реконструкции положения тела.
100% открытый исходный код🕺
👉 @PythonPortal
100% открытый исходный код
Please open Telegram to view this post
VIEW IN TELEGRAM
❤24😁11👍4👀3🤔1🌭1
5 реальных проектов на Python
1. Трекер расходов (приложение для личных финансов)
Что делает:
Отслеживает доходы, траты, категории, месячную статистику.
Практический кейс:
Люди используют такое, чтобы контролировать бюджет, как в Walnut или Money Manager.
Что прокачаешь:
• работа с файлами / SQLite
• структуры данных
• базовая аналитика
• простой UI или CLI
2. Веб-скрэпер для отслеживания цен
Что делает:
Собирает цены с Amazon/Flipkart и присылает уведомления при снижении.
Практический кейс:
Используется в сервисах сравнения цен.
Что прокачаешь:
• веб-скрейпинг (BeautifulSoup / Selenium)
• HTTP-запросы
• автоматизация
• планировщики задач
3. Бот для автоматизации рутины
Что делает:
Автоматизирует повторяющиеся задачи: почта, отчёты, переименовывание файлов.
Практический кейс:
Офисная автоматизация, фриланс, помощь в рабочих процессах.
Что прокачаешь:
• планирование/расписание задач
• автоматизация почты
• скриптовая логика
4. Анализатор цен акций
Что делает:
Следит за котировками, считает прибыль/убыток, строит графики.
Практический кейс:
Используют трейдеры, аналитики, финтех-приложения.
Что прокачаешь:
• API
• анализ данных (pandas)
• графики (matplotlib)
5. Система логина и аутентификации
Что делает:
Обрабатывает регистрацию и вход пользователей с безопасным хранением данных.
Практический кейс:
Нужно в любом веб-приложении.
Что прокачаешь:
• хеширование паролей
• поток аутентификации
• работа с базой и отношениями таблиц
👉 @PythonPortal
1. Трекер расходов (приложение для личных финансов)
Что делает:
Отслеживает доходы, траты, категории, месячную статистику.
Практический кейс:
Люди используют такое, чтобы контролировать бюджет, как в Walnut или Money Manager.
Что прокачаешь:
• работа с файлами / SQLite
• структуры данных
• базовая аналитика
• простой UI или CLI
2. Веб-скрэпер для отслеживания цен
Что делает:
Собирает цены с Amazon/Flipkart и присылает уведомления при снижении.
Практический кейс:
Используется в сервисах сравнения цен.
Что прокачаешь:
• веб-скрейпинг (BeautifulSoup / Selenium)
• HTTP-запросы
• автоматизация
• планировщики задач
3. Бот для автоматизации рутины
Что делает:
Автоматизирует повторяющиеся задачи: почта, отчёты, переименовывание файлов.
Практический кейс:
Офисная автоматизация, фриланс, помощь в рабочих процессах.
Что прокачаешь:
• планирование/расписание задач
• автоматизация почты
• скриптовая логика
4. Анализатор цен акций
Что делает:
Следит за котировками, считает прибыль/убыток, строит графики.
Практический кейс:
Используют трейдеры, аналитики, финтех-приложения.
Что прокачаешь:
• API
• анализ данных (pandas)
• графики (matplotlib)
5. Система логина и аутентификации
Что делает:
Обрабатывает регистрацию и вход пользователей с безопасным хранением данных.
Практический кейс:
Нужно в любом веб-приложении.
Что прокачаешь:
• хеширование паролей
• поток аутентификации
• работа с базой и отношениями таблиц
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21❤4🔥2🤣2💊1
Новая Python-библиотека для алгоритмического трейдинга.
Представляют TensorTrade — опенсорсный Python-фреймворк для трейдинга на базе обучения с подкреплением (RL / AI).
По словам Quant Science :
TensorTrade — это фреймворк для сборки, обучения, оценки и деплоя торговых стратегий на RL, использующий стек:
- numpy
- pandas
- gym
- keras
- tensorflow
Пример: обучение и оценка стратегии с Reinforcement Learning
Шаг 1: формируем датасеты для тренировки и валидации
Готовим два CSV, один под обучение, второй под тест.
Шаг 2: конфигурация
В конфиг-словарь кладём нужные параметры, включая имя CSV, который будем читать. (3 скрин)
Шаг 3: запуск через Ray
Инициализируем Ray, пробрасываем параметры и имя функции, создающей окружение (create_env из примера выше), и запускаем пайплайн. (4 скрин)
Дальше: Reward Agents
Reward Agents позволяют интегрировать систему вознаграждений, чтобы агент оптимизировал стратегию под конкретную метрику (например, прибыль). По сути, это даёт нормальный цикл RL-тюнинга под реальные цели. (5 скрин)
Какой следующий шаг, если хочется заняться этим по-серьёзке?
- разобраться с базой и посмотреть, как собирали свой хедж-фонд на Python
👉 @PythonPortal
Представляют TensorTrade — опенсорсный Python-фреймворк для трейдинга на базе обучения с подкреплением (RL / AI).
По словам Quant Science :
TensorTrade — это фреймворк для сборки, обучения, оценки и деплоя торговых стратегий на RL, использующий стек:
- numpy
- pandas
- gym
- keras
- tensorflow
Пример: обучение и оценка стратегии с Reinforcement Learning
Шаг 1: формируем датасеты для тренировки и валидации
Готовим два CSV, один под обучение, второй под тест.
import yfinance
import pandas_ta #noqa
TICKER = 'ITRD' # TODO: подставь свой тикер
TRAIN_START_DATE = '2021-02-09' # TODO: замени на свою дату начала обучения
TRAIN_END_DATE = '2021-09-30' # TODO: замени на свою дату конца обучения
EVAL_START_DATE = '2021-10-01' # TODO: замени на свою дату начала валидации
EVAL_END_DATE = '2021-11-12' # TODO: замени на свою дату конца валидации
yf_ticker = yfinance.Ticker(ticker=TICKER)
# Загружаем данные для обучения
df_training = yf_ticker.history(start=TRAIN_START_DATE, end=TRAIN_END_DATE, interval='60m')
df_training.drop(['Dividends', 'Stock Splits'], axis=1, inplace=True)
df_training["Volume"] = df_training["Volume"].astype(int)
# Технические индикаторы
df_training.ta.log_return(append=True, length=16)
df_training.ta.rsi(append=True, length=14)
df_training.ta.macd(append=True, fast=12, slow=26)
df_training.to_csv('training.csv', index=False)
# Загружаем данные для оценки
df_evaluation = yf_ticker.history(start=EVAL_START_DATE, end=EVAL_END_DATE, interval='60m')
df_evaluation.drop(['Dividends', 'Stock Splits'], axis=1, inplace=True)
df_evaluation["Volume"] = df_evaluation["Volume"].astype(int)
# Те же индикаторы для оценки
df_evaluation.ta.log_return(append=True, length=16)
df_evaluation.ta.rsi(append=True, length=14)
df_evaluation.ta.macd(append=True, fast=12, slow=26)
df_evaluation.to_csv('evaluation.csv', index=False)
Шаг 2: конфигурация
В конфиг-словарь кладём нужные параметры, включая имя CSV, который будем читать. (3 скрин)
Шаг 3: запуск через Ray
Инициализируем Ray, пробрасываем параметры и имя функции, создающей окружение (create_env из примера выше), и запускаем пайплайн. (4 скрин)
Дальше: Reward Agents
Reward Agents позволяют интегрировать систему вознаграждений, чтобы агент оптимизировал стратегию под конкретную метрику (например, прибыль). По сути, это даёт нормальный цикл RL-тюнинга под реальные цели. (5 скрин)
Какой следующий шаг, если хочется заняться этим по-серьёзке?
- разобраться с базой и посмотреть, как собирали свой хедж-фонд на Python
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤3
This media is not supported in your browser
VIEW IN TELEGRAM
Роботы стали настолько точными, что могут проводить операции на яйце, не разбивая его. 😆
👉 @PythonPortal
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥76🤯12👍3
Media is too big
VIEW IN TELEGRAM
API — это узкое горлышко, а не решение.
ИИ-агенты не видят 95% веба, потому что у большинства сайтов просто нет API.
Порталы поставщиков, системы записи, региональные джобборды — у них нет dev-API.
Полезные данные спрятаны за логином, многошаговыми формами и интерфейсами, сделанными под людей, а не под машины.
Поэтому уже лет 25 всё упирается в одно и то же:
- Поисковики индексируют процентов пять интернета (ничего за аутентификацией)
- Ручной ввод данных или хрупкие скрейперы, которые падают от любого правки CSS
Эту проблему и закрывает Mino от TinyFish.
Это веб-автоматизация с API, которая может одновременно обходить сотни сайтов и превращать их в структурированные данные.
Ты отправляешь список URL и цель обычным текстом. На выходе получаешь JSON.
Подход отличается от типичных ИИ-агентов:
Большинство браузерных агентов используют vision-модели: делают скрин, думают что кликнуть, снова скрин — и так по циклу.
Каждое действие — отдельный вызов модели. Медленно и дорого.
Mino один раз учит структуру сайта, а потом исполняет всё детерминированным кодом. Первый прогон разбирает страницу. Все последующие — работают как точный код за миллисекунды.
Три базовые возможности:
→ Navigate — логины, формы, многошаговые сценарии
→ Extract — вытащить структурированный JSON из любой вёрстки
→ Execute — параллельный запуск 100+ сайтов в стелс-режиме
Производительность на уровне продакшена:
85–95% успеха на сложных сценария
10–30 секунд на задачу
Копейки за запуск
Работает за аутентификацией, обходит антибот-защиту и всегда возвращает чистый JSON.
Плюс можно подключить его MCP-сервер к клиентам вроде Claude Desktop. В видео есть разбор.
Пробуем😎
👉 @PythonPortal
ИИ-агенты не видят 95% веба, потому что у большинства сайтов просто нет API.
Порталы поставщиков, системы записи, региональные джобборды — у них нет dev-API.
Полезные данные спрятаны за логином, многошаговыми формами и интерфейсами, сделанными под людей, а не под машины.
Поэтому уже лет 25 всё упирается в одно и то же:
- Поисковики индексируют процентов пять интернета (ничего за аутентификацией)
- Ручной ввод данных или хрупкие скрейперы, которые падают от любого правки CSS
Эту проблему и закрывает Mino от TinyFish.
Это веб-автоматизация с API, которая может одновременно обходить сотни сайтов и превращать их в структурированные данные.
Ты отправляешь список URL и цель обычным текстом. На выходе получаешь JSON.
Подход отличается от типичных ИИ-агентов:
Большинство браузерных агентов используют vision-модели: делают скрин, думают что кликнуть, снова скрин — и так по циклу.
Каждое действие — отдельный вызов модели. Медленно и дорого.
Mino один раз учит структуру сайта, а потом исполняет всё детерминированным кодом. Первый прогон разбирает страницу. Все последующие — работают как точный код за миллисекунды.
Три базовые возможности:
→ Navigate — логины, формы, многошаговые сценарии
→ Extract — вытащить структурированный JSON из любой вёрстки
→ Execute — параллельный запуск 100+ сайтов в стелс-режиме
Производительность на уровне продакшена:
85–95% успеха на сложных сценария
10–30 секунд на задачу
Копейки за запуск
Работает за аутентификацией, обходит антибот-защиту и всегда возвращает чистый JSON.
Плюс можно подключить его MCP-сервер к клиентам вроде Claude Desktop. В видео есть разбор.
Пробуем
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥17❤6👍4
Анализируй свой инвестиционный портфель в пару строк на Python 👍
Если ты когда-нибудь пытался разобрать портфель как пет-проект, то знаешь, насколько муторно склеивать всё из разных Python-библиотек.
ffn закрывает весь пайплайн анализа портфеля в одном пакете с API, похожим на Pandas.
Основные фичи:
• Подтягивает котировки прямо из Yahoo Finance
• Считает доходность и метрики риска автоматически
• Помогает подобрать оптимальное распределение активов
• Строит графики сравнения и корреляций по производительности
Вот репозиторий
Пример запуска
👉 @PythonPortal
Если ты когда-нибудь пытался разобрать портфель как пет-проект, то знаешь, насколько муторно склеивать всё из разных Python-библиотек.
ffn закрывает весь пайплайн анализа портфеля в одном пакете с API, похожим на Pandas.
Основные фичи:
• Подтягивает котировки прямо из Yahoo Finance
• Считает доходность и метрики риска автоматически
• Помогает подобрать оптимальное распределение активов
• Строит графики сравнения и корреляций по производительности
Вот репозиторий
Пример запуска
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10👍4
This media is not supported in your browser
VIEW IN TELEGRAM
Это прям момент DeepSeek для голосового ИИ.
Chatterbox Turbo — голосовая модель с MIT-лицензией, которая обходит ElevenLabs Turbo и Cartesia Sonic 3.
- <150 мс до первого звука
- Клонирование голоса с 5 секунд аудио
- Паралингвистические теги для живой, человеческой подачи
И всё это полностью open-source.
👉 @PythonPortal
Chatterbox Turbo — голосовая модель с MIT-лицензией, которая обходит ElevenLabs Turbo и Cartesia Sonic 3.
- <150 мс до первого звука
- Клонирование голоса с 5 секунд аудио
- Паралингвистические теги для живой, человеческой подачи
И всё это полностью open-source.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥20👍5😁2❤1
Гарвард выложил в открытый доступ свой учебник по ML-системам. Штука максимально прикладная: не только про то, как тренировать модели, а как собирать продакшн-системы вокруг них — то, что реально решает.
Темы там прям топ:
> сборка autograd, оптимизаторов, attention и мини-PyTorch с нуля, чтобы понять, как фреймворк устроен изнутри. (это вообще кайф)
> базовые вещи по DL: батчи, точность вычислений, архитектуры моделей и тренировка
> оптимизация производительности ML, ускорение на железе, бенчмаркинг, эффективность
То есть это не просто вводный курс по ML, а полный цикл от старта до боевого применения. Уже сейчас можно читать книгу и смотреть код бесплатно. На 2025 год это один из самых сильных учебников, что выходили, так что лучше не пропускать.
Репозиторий тут, ссылка на книгу внутри👏
👉 @PythonPortal
Темы там прям топ:
> сборка autograd, оптимизаторов, attention и мини-PyTorch с нуля, чтобы понять, как фреймворк устроен изнутри. (это вообще кайф)
> базовые вещи по DL: батчи, точность вычислений, архитектуры моделей и тренировка
> оптимизация производительности ML, ускорение на железе, бенчмаркинг, эффективность
То есть это не просто вводный курс по ML, а полный цикл от старта до боевого применения. Уже сейчас можно читать книгу и смотреть код бесплатно. На 2025 год это один из самых сильных учебников, что выходили, так что лучше не пропускать.
Репозиторий тут, ссылка на книгу внутри
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥23❤9👍3🌭1