This media is not supported in your browser
VIEW IN TELEGRAM
Эта новая графовая БД в 496 раз быстрее Neo4j!
Давайте разберем почему:
Классическая графовая БД хранит две вещи: узлы (entities) и ребра (relationships между ними).
Когда вы делаете запрос в классическую графовую БД, она делает обход через pointer chasing:
→ стартуем с узла
→ переходим по указателю к связанному узлу
→ еще один указатель
→ и так далее
Это по своей природе последовательный процесс. Один hop за раз. И по мере роста графа это становится болезненно медленным.
FalkorDB задает другой вопрос:
А что если представить весь граф как матрицу?
Как это работает:
Представьте обычную таблицу. Строки — source nodes, колонки — destination nodes.
Если Mary подписана на Bob, ставим в позицию [Mary, Bob] = 1.
Все. Весь граф теперь это матрица из 1 и 0.
Назовем ее матрицей Follows (F).
Дальше интереснее:
Хотите узнать на кого подписаны друзья Mary? В классической графовой БД вам нужно сделать два перехода: Mary → друзья → друзья друзей.
Но с матрицами вы просто умножаете матрицу Follows саму на себя: F × F = F².
Это одна операция — и готово!
А более сложный паттерн вида “A follows B, B likes C” превращается в: Follows × Likes.
То есть traversal можно выразить через математику.
Почему это важно:
- матричные операции оптимизируются уже больше 50 лет
- современное железо (CPU/GPU) заточено под матрицы
- операции выполняются параллельно (pointer chasing не может)
Плюс есть еще несколько оптимизаций (например sparse matrices, реализация на C и т.д.), и все это делает FalkorDB в 496 раз быстрее Neo4j.
График на фото это хорошо показывает.
Классические графовые БД идут через Cypher QL → Pointer-Based Traversal, а FalkorDB использует Matrix-Aware Planner, который превращает запросы в матричные операции.
FalkorDB полностью строится на этом принципе:
- нативный модуль Redis (in-memory и очень быстрый)
- использует GraphBLAS для sparse matrix вычислений
- автоматически транслирует Cypher-запросы в матрическую алгебру
Это важная тема для AI-приложений, потому что…
Современным AI-агентам и RAG-системам нужно обходить сложные связи в реальном времени. Когда агент делает reasoning через knowledge graph, связывая пользователей, действия и результаты — каждая миллисекунда задержки складывается.
Vector DBs ловят семантическую близость. Но они не держат явных связей.
Knowledge graphs закрывают эту дыру.
И когда вашему агенту нужно делать multi-hop reasoning по тысячам связанных сущностей, матричный traversal упрощает масштабирование AI-приложения без проблем с задержками.
FalkorDB полностью open-source, вы можете посмотреть реализацию на GitHub и попробовать сами.
Ссылка на GitHub-репозиторий
👉 @PythonPortal
Давайте разберем почему:
Классическая графовая БД хранит две вещи: узлы (entities) и ребра (relationships между ними).
Когда вы делаете запрос в классическую графовую БД, она делает обход через pointer chasing:
→ стартуем с узла
→ переходим по указателю к связанному узлу
→ еще один указатель
→ и так далее
Это по своей природе последовательный процесс. Один hop за раз. И по мере роста графа это становится болезненно медленным.
FalkorDB задает другой вопрос:
А что если представить весь граф как матрицу?
Как это работает:
Представьте обычную таблицу. Строки — source nodes, колонки — destination nodes.
Если Mary подписана на Bob, ставим в позицию [Mary, Bob] = 1.
Все. Весь граф теперь это матрица из 1 и 0.
Назовем ее матрицей Follows (F).
Дальше интереснее:
Хотите узнать на кого подписаны друзья Mary? В классической графовой БД вам нужно сделать два перехода: Mary → друзья → друзья друзей.
Но с матрицами вы просто умножаете матрицу Follows саму на себя: F × F = F².
Это одна операция — и готово!
А более сложный паттерн вида “A follows B, B likes C” превращается в: Follows × Likes.
То есть traversal можно выразить через математику.
Почему это важно:
- матричные операции оптимизируются уже больше 50 лет
- современное железо (CPU/GPU) заточено под матрицы
- операции выполняются параллельно (pointer chasing не может)
Плюс есть еще несколько оптимизаций (например sparse matrices, реализация на C и т.д.), и все это делает FalkorDB в 496 раз быстрее Neo4j.
График на фото это хорошо показывает.
Классические графовые БД идут через Cypher QL → Pointer-Based Traversal, а FalkorDB использует Matrix-Aware Planner, который превращает запросы в матричные операции.
FalkorDB полностью строится на этом принципе:
- нативный модуль Redis (in-memory и очень быстрый)
- использует GraphBLAS для sparse matrix вычислений
- автоматически транслирует Cypher-запросы в матрическую алгебру
Это важная тема для AI-приложений, потому что…
Современным AI-агентам и RAG-системам нужно обходить сложные связи в реальном времени. Когда агент делает reasoning через knowledge graph, связывая пользователей, действия и результаты — каждая миллисекунда задержки складывается.
Vector DBs ловят семантическую близость. Но они не держат явных связей.
Knowledge graphs закрывают эту дыру.
И когда вашему агенту нужно делать multi-hop reasoning по тысячам связанных сущностей, матричный traversal упрощает масштабирование AI-приложения без проблем с задержками.
FalkorDB полностью open-source, вы можете посмотреть реализацию на GitHub и попробовать сами.
Ссылка на GitHub-репозиторий
Please open Telegram to view this post
VIEW IN TELEGRAM
❤22🔥15
Tailwind уволила 75% своего персонала, потому что почти никто их не поддерживает.
В отчаянной попытке избежать банкротства они выпустили свой фильм в кинотеатрах.
Честно говоря, вы бы заплатили, чтобы посмотреть его?😆
👉 @PythonPortal
В отчаянной попытке избежать банкротства они выпустили свой фильм в кинотеатрах.
Честно говоря, вы бы заплатили, чтобы посмотреть его?
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥36😁7👍4😢4❤2🤔2
This media is not supported in your browser
VIEW IN TELEGRAM
А что если обучать AI-агентов на обычном ноуте было бы так же просто, как на GPU-кластере?
Команда из UIUC U Lab под руководством проф. Jiaxuan You выложила в опенсорс OpenTinker.
Это новая система формата Reinforcement-Learning-as-a-Service (RLaaS), которая разбивает тяжелый RL-пайтлайн на простые распределенные сервисы с удобными API.
Итог — снимает большую часть инженерных болячек вокруг RL, обгоняя классические фреймворки по доступности и простоте деплоя, наконец-то делая обучение агентов реалистичным вариантом для обычных разработчиков и команд.
Project: https://open-tinker.github.io/opentinker-page/
Code: https://github.com/open-tinker/OpenTinker
U Lab: https://github.com/ulab-uiuc
👉 @PythonPortal
Команда из UIUC U Lab под руководством проф. Jiaxuan You выложила в опенсорс OpenTinker.
Это новая система формата Reinforcement-Learning-as-a-Service (RLaaS), которая разбивает тяжелый RL-пайтлайн на простые распределенные сервисы с удобными API.
Итог — снимает большую часть инженерных болячек вокруг RL, обгоняя классические фреймворки по доступности и простоте деплоя, наконец-то делая обучение агентов реалистичным вариантом для обычных разработчиков и команд.
Project: https://open-tinker.github.io/opentinker-page/
Code: https://github.com/open-tinker/OpenTinker
U Lab: https://github.com/ulab-uiuc
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8👍6
Please open Telegram to view this post
VIEW IN TELEGRAM
❤45🤣10👀6🌭2
4 парадигмы обучения в машинном обучении, объяснённые визуально:
1. Transfer Learning
2. Fine-tuning
3. Multi-task Learning
4. Federated Learning
👉 @PythonPortal
1. Transfer Learning
2. Fine-tuning
3. Multi-task Learning
4. Federated Learning
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥17👍2
Эти Google Colab-ноутбуки помогают реализовать все алгоритмы машинного обучения с нуля 🤯
👉 @PythonPortal
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍22❤5
Сейчас ИИ-инструменты уже умеют читать сообщения, размышлять над ними и сами дергать нужные функции.
Для сборки таких связок есть LangChain — популярный фреймворк, который позволяет подружить языковые модели, инструменты и приложения.
В этом туториале показывают, как собрать и задеплоить своего ИИ-агента на связке LangChain, FastAPI и Sevalla.
👉 @PythonPortal
Для сборки таких связок есть LangChain — популярный фреймворк, который позволяет подружить языковые модели, инструменты и приложения.
В этом туториале показывают, как собрать и задеплоить своего ИИ-агента на связке LangChain, FastAPI и Sevalla.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁4❤3👍3