map, apply, applymap, aggregate и transform.
Позволяет без проблем передавать async функции в эти методы. Библиотека автоматически запустит их асинхронно, управляя количеством одновременно выполняемых задач с помощью параметра
max_parallel
.✨ Ключевые возможности:
▪ Простая интеграция: Используйте как замену стандартным функциям Pandas, но теперь с полноценной поддержкой async функций.
▪ Контролируемый параллелизм: Автоматическое асинхронное выполнение ваших корутин с возможностью ограничить максимальное число параллельных задач (max_parallel). Идеально для управления нагрузкой на внешние сервисы!
▪ Гибкая обработка ошибок: Встроенные опции для управления ошибками во время выполнения: выбросить исключение (raise), проигнорировать (ignore) или записать в лог (log).
▪ Индикация прогресса: Встроенная поддержка tqdm для наглядного отслеживания процесса выполнения долгих операций в реальном времени.
#python #pandas #asyncio #async #datascience #программирование #обработкаданных #асинхронность
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11❤10🔥6
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Проект 3DGRUT представляет собой набор официальных реализаций методов 3D Gaussian Ray Tracing (3DGRT) и 3D Gaussian Unscented Transform (3DGUT).
💡 Основная идея:
Проект предлагает альтернативный подход к традиционному рендерингу, основанный на трассировке лучей, где вместо точечных лучей используются объёмные гауссовы частицы. Это позволяет моделировать сложные эффекты, например, камеры с искажениями (роллинг-шаттер) и временные эффекты.
⚙️ Гибридный подход:
3DGRUT объединяет преимущества растеризации и трассировки лучей – первичные лучи можно рендерить быстро через растеризацию, а вторичные лучи обрабатываются с помощью трассировки, что повышает гибкость и производительность.
🚀 Текущая стадия:
Проект находится на стадии альфа-версии. Он включает демонстрационную среду (Playground) для тестирования и экспериментов, а также предоставляет подробные инструкции по установке, настройке и запуску.
🔧 Требования и установка:
Для работы проекта требуется Python (3.10+), соответствующие зависимости, а также поддержка OpenGL и других библиотек. В репозитории описаны команды для установки необходимых пакетов и запуска тренировочного процесса.
Проект предназначен для исследователей и разработчиков, желающих экспериментировать с новыми методами рендеринга, а также для тех, кто интересуется интеграцией современных подходов в компьютерную графику.
📌 Github
@data_analysis_ml
💡 Основная идея:
Проект предлагает альтернативный подход к традиционному рендерингу, основанный на трассировке лучей, где вместо точечных лучей используются объёмные гауссовы частицы. Это позволяет моделировать сложные эффекты, например, камеры с искажениями (роллинг-шаттер) и временные эффекты.
⚙️ Гибридный подход:
3DGRUT объединяет преимущества растеризации и трассировки лучей – первичные лучи можно рендерить быстро через растеризацию, а вторичные лучи обрабатываются с помощью трассировки, что повышает гибкость и производительность.
🚀 Текущая стадия:
Проект находится на стадии альфа-версии. Он включает демонстрационную среду (Playground) для тестирования и экспериментов, а также предоставляет подробные инструкции по установке, настройке и запуску.
🔧 Требования и установка:
Для работы проекта требуется Python (3.10+), соответствующие зависимости, а также поддержка OpenGL и других библиотек. В репозитории описаны команды для установки необходимых пакетов и запуска тренировочного процесса.
Проект предназначен для исследователей и разработчиков, желающих экспериментировать с новыми методами рендеринга, а также для тех, кто интересуется интеграцией современных подходов в компьютерную графику.
📌 Github
@data_analysis_ml
👍5❤4🔥2⚡1
Репозиторий Awesome Weekly Robotics на GitHub, представляет собой большую коллекцию проектов, инструментов и ресурсов по робототехнике с открытым исходным кодом.
🔗 Github
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9🔥3
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 В chat.qwenlm.ai chat теперь доступны голосовой режим + режим видеочата
Более того китайцы выложили код своей Qwen2.5-Omni-7B - единой omni-модели, которая может понимать текст, аудио, изображение и видео.
Они разработали архитектуру "thinker-talker", которая обеспечивает одновременное размышление модели и ее разговор .
Вскоре обещают выпустить в опенсорс модели на еще большее количество параметров.
Просто топ, бегом тестить.
🟢 Попробовать: https://chat.qwenlm.ai
🟢 Paper: https://github.com/QwenLM/Qwen2.5-Omni/blob/main/assets/Qwen2.5_Omni.pdf
🟢 Blog: https://qwenlm.github.io/blog/qwen2.5-omni
🟢 GitHub: https://github.com/QwenLM/Qwen2.5-Omni
🟢 Hugging Face: https://huggingface.co/Qwen/Qwen2.5-Omni-7B
🟢 ModelScope: https://modelscope.cn/models/Qwen/Qwen2.5-Omni-7B
@ai_machinelearning_big_data
#qwen #release #Omni
Более того китайцы выложили код своей Qwen2.5-Omni-7B - единой omni-модели, которая может понимать текст, аудио, изображение и видео.
Они разработали архитектуру "thinker-talker", которая обеспечивает одновременное размышление модели и ее разговор .
Вскоре обещают выпустить в опенсорс модели на еще большее количество параметров.
Просто топ, бегом тестить.
@ai_machinelearning_big_data
#qwen #release #Omni
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10👍9🔥6
import ChatTTS
from IPython.display import Audio
chat = ChatTTS.Chat()
chat.load_models()
texts = ["<PUT YOUR TEXT HERE>",]
wavs = chat.infer(texts, use_decoder=True)
Audio(wavs[0], rate=24_000, autoplay=True)
ChatTTS — это модель преобразования текста в речь, разработанная специально для сценариев диалога, таких как LLM-ассистент.
ChatTTS поддерживает как английский, так и китайский языки (если кому актуально).
🤗 Погонять в Hugging Face
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7👍4🔥1
🎉 Выпущен Техрепорт Wan! 🚀
📖 https://arxiv.org/abs/2503.20314
Wan 2.1 — это открытый инструмент для генерации видео от Alibaba.
В отчете описана архитектура модели, конвейер обработки данных, обучение модели, повышение ее эффективности, алгоритм редактирования видео и т. д.
🟢 Официальный сайт: https://wan.video
🟢 Github: https://github.com/Wan-Video/Wan2.1
🟢 HF: https://huggingface.co/Wan-AI
🟢 Modelscope: https://modelscope.cn/organization/Wan-AI
#WAN #OpenSource #VideoGeneration
📖 https://arxiv.org/abs/2503.20314
Wan 2.1 — это открытый инструмент для генерации видео от Alibaba.
В отчете описана архитектура модели, конвейер обработки данных, обучение модели, повышение ее эффективности, алгоритм редактирования видео и т. д.
#WAN #OpenSource #VideoGeneration
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7👍3🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Этот гайд демонстрирует, как использовать Florence 2 с Ultralytics YOLO для обнаружения объектов, сегментации изображений и создания визуализаций на основе текстовых промпов, например, для создания подписей к изображениям.
Microsoft выпустила модель Florence-2 в прошлом году. Это мощная CV модель зрения, которая использует подход, на подсказках, для решения широкого спектра задач, связанных со зрением и языком зрения. Она может интерпретировать простые текстовые подсказки для выполнения таких задач, как создание надписей, обнаружение объектов и сегментация.
Для обучения в гайде используется набор данных FLD-5B, содержащий 5,4 миллиарда аннотаций к 126 миллионам изображений.
📌 Гайд
📌 Colab
@data_analysis_ml
Microsoft выпустила модель Florence-2 в прошлом году. Это мощная CV модель зрения, которая использует подход, на подсказках, для решения широкого спектра задач, связанных со зрением и языком зрения. Она может интерпретировать простые текстовые подсказки для выполнения таких задач, как создание надписей, обнаружение объектов и сегментация.
Для обучения в гайде используется набор данных FLD-5B, содержащий 5,4 миллиарда аннотаций к 126 миллионам изображений.
📌 Гайд
📌 Colab
@data_analysis_ml
👍9❤3🔥3
AI-агенты для девелоперской компании
ГК ФСК, крупный российский девелопер, столкнулся с проблемой обработки массивов данных. Техническая документация часто обновляется, из-за чего сотрудникам и клиентам сложно получить доступ к актуальной информации. Чтобы решить проблему, red_mad_robot внедрили смарт-платформу с двумя AI-агентами на базе RAG:
Для клиентов: AI-ассистент в чат-боте сайта обрабатывает запросы и выдаёт актуальные ответы на вопросы о квартирах (включая детали вроде панорамных окон), ипотеке и акциях.
Для сотрудников: Внутренний AI-агент, интегрированный с корпоративными системами, позволяет команде поддержки и продаж находить нужные данные (регламенты, детали ЖК).
Подробнее о технических деталях кейса можно почитать в статье на Хабр.
ГК ФСК, крупный российский девелопер, столкнулся с проблемой обработки массивов данных. Техническая документация часто обновляется, из-за чего сотрудникам и клиентам сложно получить доступ к актуальной информации. Чтобы решить проблему, red_mad_robot внедрили смарт-платформу с двумя AI-агентами на базе RAG:
Для клиентов: AI-ассистент в чат-боте сайта обрабатывает запросы и выдаёт актуальные ответы на вопросы о квартирах (включая детали вроде панорамных окон), ипотеке и акциях.
Для сотрудников: Внутренний AI-агент, интегрированный с корпоративными системами, позволяет команде поддержки и продаж находить нужные данные (регламенты, детали ЖК).
Подробнее о технических деталях кейса можно почитать в статье на Хабр.
👍9❤4🔥3
Подробное руководство от TecMint, демонстрирующее, как установить и запустить модель DeepSeek локально на Linux (Ubuntu 24.04) с использованием Ollama.
Гайд охватывает все этапы установки: обновление системы, инсталляцию Python и Git, настройку Ollama для управления DeepSeek, а также запуск модели через командную строку или с помощью удобного Web UI.
▪ Руководство также включает инструкции по автоматическому запуску Web UI при старте системы через systemd, что делает работу с моделью более комфортной и доступной.
Подойдет для тех, кто хочет исследовать возможности работы с крупными языковыми моделями без привязки к облачным сервисам, обеспечивая полный контроль над моделью и её настройками.
▪ Читать
Please open Telegram to view this post
VIEW IN TELEGRAM
👍17❤5🔥2
Эти описания охватывают широкий спектр роботов: от манипуляторов и гуманоидов до дронов и мобильных манипуляторов. Каждое описание включает информацию о производителе, формате файла, лицензии и наличии визуализаций, инерций и коллизий.
Форматы URDF (Unified Robot Description Format), Xacro и MJCF (MuJoCo XML) используются для описания кинематических и динамических характеристик роботов.
Эти описания необходимы для симуляции, планирования движений и управления роботами в различных программных средах.
▪ GitHub
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤3🔥3
Media is too big
VIEW IN TELEGRAM
▪️Github
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9❤5🔥4
This media is not supported in your browser
VIEW IN TELEGRAM
Весь X/twitter завален конентом с генерациями в стиле Ghibli,
если вам надоел такой контент, умельцы создали Chrome расширение с открытым исходным кодом для удаления таких твитов.
📌 Github
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9😁8🔥3👍1👏1
📌Пройдите тест из 9 вопросов и проверьте, насколько вы готовы к обучению на курсе «BI-аналитика» от OTUS.
Вы научитесь на курсе:
+ Визуализировать данные с помощью Power BI, Tableau и Analytic Workspace.
+ Создавать интерактивные дашборды и аналитические панели на Python в Dash, Numpy, Pandas, Matplotlib, Seaborn и Plotly.
+ Работать с Big Data и использовать решения с открытым исходным кодом в BI-аналитике.
+ Работать с DAX-формулами.
+ Обрабатывать и трансформировать данные в Power Query, создавать модели данных в Power Pivot.
🦉В честь дня рождения Отус, скидка 10% до 01.04
🎁Так же промо-код на курс «BI-аналитика» со скидкой 5% (суммируется на сайте):
BI_04 до 18.05. Успейте купить выгодно!
👉ПРОЙТИ ТЕСТ: https://otus.pw/8QNY/?erid=2W5zFJGJRLU
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
#реклама
О рекламодателе
Вы научитесь на курсе:
+ Визуализировать данные с помощью Power BI, Tableau и Analytic Workspace.
+ Создавать интерактивные дашборды и аналитические панели на Python в Dash, Numpy, Pandas, Matplotlib, Seaborn и Plotly.
+ Работать с Big Data и использовать решения с открытым исходным кодом в BI-аналитике.
+ Работать с DAX-формулами.
+ Обрабатывать и трансформировать данные в Power Query, создавать модели данных в Power Pivot.
🦉В честь дня рождения Отус, скидка 10% до 01.04
🎁Так же промо-код на курс «BI-аналитика» со скидкой 5% (суммируется на сайте):
BI_04 до 18.05. Успейте купить выгодно!
👉ПРОЙТИ ТЕСТ: https://otus.pw/8QNY/?erid=2W5zFJGJRLU
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
#реклама
О рекламодателе
❤4👍3
❓ LLaMA 4 уже на подходе?
На LMSYS Arena появились новые модели под названием “Spider” и “Cybele"
Также появилась модель, которая, судя по всему, принадлежит Google и называется Moonhowler.
@data_analysis_ml
На LMSYS Arena появились новые модели под названием “Spider” и “Cybele"
Также появилась модель, которая, судя по всему, принадлежит Google и называется Moonhowler.
@data_analysis_ml
❤7🔥4🤔2👍1
Forwarded from Machinelearning
Представлены значительные улучшения, особенно в области хранения и обработки больших моделей и датасетов.
Интеграция с Xet: Внедрена поддержка Xet — передового протокола для хранения крупных объектов в Git-репозиториях, призванного заменить Git LFS.
В отличие от LFS, который выполняет дедупликацию на уровне файлов, Xet работает на уровне фрагментов данных, что особенно полезно для специалистов, работающих с массивными моделями и датасетами.
Для интеграции с Python используется пакет
xet-core,
написанный на Rust, который обрабатывает все низкоуровневые детали.Чтобы начать использовать Xet, установите дополнительную зависимость:
pip install -U huggingface_hub[hf_xet]
После установки вы сможете загружать файлы из репозиториев, поддерживающих Xet.
Доплнительно:
huggingface-cli delete-cache
получила опцию --sort для сортировки кэшированных репозиториев (например, по размеру: --sort=size
).@ai_machinelearning_big_data
#huggingface #release #xet
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤4🔥2
👍12❤4🔥4