Media is too big
VIEW IN TELEGRAM
Это, пожалуй, самая ловкая задача, которую я видел у человекоподобного робота.
Полностью автономно, на движке Sharpa CraftNet (VTLA), с тактильной обратной связью, которая позволяет в реальном времени подстраивать взаимодействие на уровне последних миллиметров.
👉 @PythonPortal
Полностью автономно, на движке Sharpa CraftNet (VTLA), с тактильной обратной связью, которая позволяет в реальном времени подстраивать взаимодействие на уровне последних миллиметров.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍36❤10
Ищем новичков во frontend-разработке и вёрстке сайтов.
Айтилогия запускает бесплатное обучение, где будет:
1. Практика на реальном заказе ценой до 10 000₽.
2. Разбор работ куратором.
3. Задачи от Fullstack-разработчика с 12-летним опытом.
4. Именной сертификат.
И главное — ты почувствуешь уверенность.
Потому что увидишь, что выполнить заказ на frontend-проект тебе по силам.
👉 Приходи на бесплатное обучение и зови с собой друзей
🔥 С 2019 Айтилогия стабильно помогает с обучением, практикой, зарабатывать на фрилансе и проходить собеседования.
Айтилогия запускает бесплатное обучение, где будет:
1. Практика на реальном заказе ценой до 10 000₽.
2. Разбор работ куратором.
3. Задачи от Fullstack-разработчика с 12-летним опытом.
4. Именной сертификат.
И главное — ты почувствуешь уверенность.
Потому что увидишь, что выполнить заказ на frontend-проект тебе по силам.
👉 Приходи на бесплатное обучение и зови с собой друзей
🔥 С 2019 Айтилогия стабильно помогает с обучением, практикой, зарабатывать на фрилансе и проходить собеседования.
💊12🤣4🌚3❤2👍2🤯1
Please open Telegram to view this post
VIEW IN TELEGRAM
😁66❤11👍3💊3
This media is not supported in your browser
VIEW IN TELEGRAM
Первый по-настоящему открытый аудио-видео модельный стек.
LTX-2 это базовая модель на DiT с полноценными возможностями генерации видео в одном унифицированном варианте.
Спроектирована так, чтобы запускаться локально на потребительских GPU.
- text-to-video
- image-to-video
- и video-to-video режимы
100% open-source
👉 @PythonPortal
LTX-2 это базовая модель на DiT с полноценными возможностями генерации видео в одном унифицированном варианте.
Спроектирована так, чтобы запускаться локально на потребительских GPU.
- text-to-video
- image-to-video
- и video-to-video режимы
100% open-source
Please open Telegram to view this post
VIEW IN TELEGRAM
👀14👍8
This media is not supported in your browser
VIEW IN TELEGRAM
VS Code прокачали и завезли Agent Skills - открытый стандарт от Anthropic для расширения AI-агентов специализированными возможностями.
Работает с Claude Code и скоро будет поддержка Cursor.
👉 @PythonPortal
Работает с Claude Code и скоро будет поддержка Cursor.
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍14❤3🔥3😁1
This media is not supported in your browser
VIEW IN TELEGRAM
Эта новая графовая БД в 496 раз быстрее Neo4j!
Давайте разберем почему:
Классическая графовая БД хранит две вещи: узлы (entities) и ребра (relationships между ними).
Когда вы делаете запрос в классическую графовую БД, она делает обход через pointer chasing:
→ стартуем с узла
→ переходим по указателю к связанному узлу
→ еще один указатель
→ и так далее
Это по своей природе последовательный процесс. Один hop за раз. И по мере роста графа это становится болезненно медленным.
FalkorDB задает другой вопрос:
А что если представить весь граф как матрицу?
Как это работает:
Представьте обычную таблицу. Строки — source nodes, колонки — destination nodes.
Если Mary подписана на Bob, ставим в позицию [Mary, Bob] = 1.
Все. Весь граф теперь это матрица из 1 и 0.
Назовем ее матрицей Follows (F).
Дальше интереснее:
Хотите узнать на кого подписаны друзья Mary? В классической графовой БД вам нужно сделать два перехода: Mary → друзья → друзья друзей.
Но с матрицами вы просто умножаете матрицу Follows саму на себя: F × F = F².
Это одна операция — и готово!
А более сложный паттерн вида “A follows B, B likes C” превращается в: Follows × Likes.
То есть traversal можно выразить через математику.
Почему это важно:
- матричные операции оптимизируются уже больше 50 лет
- современное железо (CPU/GPU) заточено под матрицы
- операции выполняются параллельно (pointer chasing не может)
Плюс есть еще несколько оптимизаций (например sparse matrices, реализация на C и т.д.), и все это делает FalkorDB в 496 раз быстрее Neo4j.
График на фото это хорошо показывает.
Классические графовые БД идут через Cypher QL → Pointer-Based Traversal, а FalkorDB использует Matrix-Aware Planner, который превращает запросы в матричные операции.
FalkorDB полностью строится на этом принципе:
- нативный модуль Redis (in-memory и очень быстрый)
- использует GraphBLAS для sparse matrix вычислений
- автоматически транслирует Cypher-запросы в матрическую алгебру
Это важная тема для AI-приложений, потому что…
Современным AI-агентам и RAG-системам нужно обходить сложные связи в реальном времени. Когда агент делает reasoning через knowledge graph, связывая пользователей, действия и результаты — каждая миллисекунда задержки складывается.
Vector DBs ловят семантическую близость. Но они не держат явных связей.
Knowledge graphs закрывают эту дыру.
И когда вашему агенту нужно делать multi-hop reasoning по тысячам связанных сущностей, матричный traversal упрощает масштабирование AI-приложения без проблем с задержками.
FalkorDB полностью open-source, вы можете посмотреть реализацию на GitHub и попробовать сами.
Ссылка на GitHub-репозиторий
👉 @PythonPortal
Давайте разберем почему:
Классическая графовая БД хранит две вещи: узлы (entities) и ребра (relationships между ними).
Когда вы делаете запрос в классическую графовую БД, она делает обход через pointer chasing:
→ стартуем с узла
→ переходим по указателю к связанному узлу
→ еще один указатель
→ и так далее
Это по своей природе последовательный процесс. Один hop за раз. И по мере роста графа это становится болезненно медленным.
FalkorDB задает другой вопрос:
А что если представить весь граф как матрицу?
Как это работает:
Представьте обычную таблицу. Строки — source nodes, колонки — destination nodes.
Если Mary подписана на Bob, ставим в позицию [Mary, Bob] = 1.
Все. Весь граф теперь это матрица из 1 и 0.
Назовем ее матрицей Follows (F).
Дальше интереснее:
Хотите узнать на кого подписаны друзья Mary? В классической графовой БД вам нужно сделать два перехода: Mary → друзья → друзья друзей.
Но с матрицами вы просто умножаете матрицу Follows саму на себя: F × F = F².
Это одна операция — и готово!
А более сложный паттерн вида “A follows B, B likes C” превращается в: Follows × Likes.
То есть traversal можно выразить через математику.
Почему это важно:
- матричные операции оптимизируются уже больше 50 лет
- современное железо (CPU/GPU) заточено под матрицы
- операции выполняются параллельно (pointer chasing не может)
Плюс есть еще несколько оптимизаций (например sparse matrices, реализация на C и т.д.), и все это делает FalkorDB в 496 раз быстрее Neo4j.
График на фото это хорошо показывает.
Классические графовые БД идут через Cypher QL → Pointer-Based Traversal, а FalkorDB использует Matrix-Aware Planner, который превращает запросы в матричные операции.
FalkorDB полностью строится на этом принципе:
- нативный модуль Redis (in-memory и очень быстрый)
- использует GraphBLAS для sparse matrix вычислений
- автоматически транслирует Cypher-запросы в матрическую алгебру
Это важная тема для AI-приложений, потому что…
Современным AI-агентам и RAG-системам нужно обходить сложные связи в реальном времени. Когда агент делает reasoning через knowledge graph, связывая пользователей, действия и результаты — каждая миллисекунда задержки складывается.
Vector DBs ловят семантическую близость. Но они не держат явных связей.
Knowledge graphs закрывают эту дыру.
И когда вашему агенту нужно делать multi-hop reasoning по тысячам связанных сущностей, матричный traversal упрощает масштабирование AI-приложения без проблем с задержками.
FalkorDB полностью open-source, вы можете посмотреть реализацию на GitHub и попробовать сами.
Ссылка на GitHub-репозиторий
Please open Telegram to view this post
VIEW IN TELEGRAM
❤22🔥15
Tailwind уволила 75% своего персонала, потому что почти никто их не поддерживает.
В отчаянной попытке избежать банкротства они выпустили свой фильм в кинотеатрах.
Честно говоря, вы бы заплатили, чтобы посмотреть его?😆
👉 @PythonPortal
В отчаянной попытке избежать банкротства они выпустили свой фильм в кинотеатрах.
Честно говоря, вы бы заплатили, чтобы посмотреть его?
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥37😁7👍4😢4❤2🤔2
This media is not supported in your browser
VIEW IN TELEGRAM
А что если обучать AI-агентов на обычном ноуте было бы так же просто, как на GPU-кластере?
Команда из UIUC U Lab под руководством проф. Jiaxuan You выложила в опенсорс OpenTinker.
Это новая система формата Reinforcement-Learning-as-a-Service (RLaaS), которая разбивает тяжелый RL-пайтлайн на простые распределенные сервисы с удобными API.
Итог — снимает большую часть инженерных болячек вокруг RL, обгоняя классические фреймворки по доступности и простоте деплоя, наконец-то делая обучение агентов реалистичным вариантом для обычных разработчиков и команд.
Project: https://open-tinker.github.io/opentinker-page/
Code: https://github.com/open-tinker/OpenTinker
U Lab: https://github.com/ulab-uiuc
👉 @PythonPortal
Команда из UIUC U Lab под руководством проф. Jiaxuan You выложила в опенсорс OpenTinker.
Это новая система формата Reinforcement-Learning-as-a-Service (RLaaS), которая разбивает тяжелый RL-пайтлайн на простые распределенные сервисы с удобными API.
Итог — снимает большую часть инженерных болячек вокруг RL, обгоняя классические фреймворки по доступности и простоте деплоя, наконец-то делая обучение агентов реалистичным вариантом для обычных разработчиков и команд.
Project: https://open-tinker.github.io/opentinker-page/
Code: https://github.com/open-tinker/OpenTinker
U Lab: https://github.com/ulab-uiuc
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8👍6
Please open Telegram to view this post
VIEW IN TELEGRAM
❤46🤣10👀6🌭2👍1
4 парадигмы обучения в машинном обучении, объяснённые визуально:
1. Transfer Learning
2. Fine-tuning
3. Multi-task Learning
4. Federated Learning
👉 @PythonPortal
1. Transfer Learning
2. Fine-tuning
3. Multi-task Learning
4. Federated Learning
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥18👍2
Эти Google Colab-ноутбуки помогают реализовать все алгоритмы машинного обучения с нуля 🤯
👉 @PythonPortal
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍24❤5
Сейчас ИИ-инструменты уже умеют читать сообщения, размышлять над ними и сами дергать нужные функции.
Для сборки таких связок есть LangChain — популярный фреймворк, который позволяет подружить языковые модели, инструменты и приложения.
В этом туториале показывают, как собрать и задеплоить своего ИИ-агента на связке LangChain, FastAPI и Sevalla.
👉 @PythonPortal
Для сборки таких связок есть LangChain — популярный фреймворк, который позволяет подружить языковые модели, инструменты и приложения.
В этом туториале показывают, как собрать и задеплоить своего ИИ-агента на связке LangChain, FastAPI и Sevalla.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10👍4😁4