🔥Tencent выпустили новую генеративную модель для 3D - Hunyuan3D 2.0
Hunyuan3D 2.0, усовершенствованная система 3D-синтеза и генерации текстурированных 3D-объектов
высокого разрешения.
Эта система включает в себя два основных компонента: модель генерации формы - Hunyuan3D-DiT и модель синтеза текстуры - Hunyuan3D-Paint.
Генеративная модель формы, построена на масштабируемом диффузионном трансформере, и необходима для создания геометрии объекта и отвечает за согласование генерации.
Модель синтеза текстур генерирует карты текстур высокого разрешения для сгенерированных или созданных вручную сеток.
Hunyuan3D 2.0 превосходит предыдущие модели, как с открытым кодом, так и закрытые модели, по детализации геометрии, выравниванию генерации, качеству текстур и т. д.
GitHub: https://github.com/tencent/Hunyuan3D-2
Hunyuan3D 2.0, усовершенствованная система 3D-синтеза и генерации текстурированных 3D-объектов
высокого разрешения.
Эта система включает в себя два основных компонента: модель генерации формы - Hunyuan3D-DiT и модель синтеза текстуры - Hunyuan3D-Paint.
Генеративная модель формы, построена на масштабируемом диффузионном трансформере, и необходима для создания геометрии объекта и отвечает за согласование генерации.
Модель синтеза текстур генерирует карты текстур высокого разрешения для сгенерированных или созданных вручную сеток.
Hunyuan3D 2.0 превосходит предыдущие модели, как с открытым кодом, так и закрытые модели, по детализации геометрии, выравниванию генерации, качеству текстур и т. д.
GitHub: https://github.com/tencent/Hunyuan3D-2
❤9👍4🔥3🥰1
✅ Ускорение обработки запросов через миграцию парсера
Выпускник Школы анализа данных Яндекса выкатил годноту — руководство по переносу парсера YQL (SQL-диалект для YDB и YTsaurus) с ANTLR3 на ANTLR4.
Основные моменты:
→ ANTLR — генератор парсеров, который переводит грамматики в исполняемые парсеры для разбора и анализа текстовых данных.
→ Для нового парсера использовалась генерация Protobuf-схем, что позволило сохранить структуру AST и упростить интеграцию с парсером.
→ Были разработаны специализированные шаблоны (stg-файлы) для генерации кода, что позволило адаптировать логику парсинга под изменяющиеся требования.
Ссылка на статью
Выпускник Школы анализа данных Яндекса выкатил годноту — руководство по переносу парсера YQL (SQL-диалект для YDB и YTsaurus) с ANTLR3 на ANTLR4.
Основные моменты:
→ ANTLR — генератор парсеров, который переводит грамматики в исполняемые парсеры для разбора и анализа текстовых данных.
→ Для нового парсера использовалась генерация Protobuf-схем, что позволило сохранить структуру AST и упростить интеграцию с парсером.
→ Были разработаны специализированные шаблоны (stg-файлы) для генерации кода, что позволило адаптировать логику парсинга под изменяющиеся требования.
Ссылка на статью
❤7
This media is not supported in your browser
VIEW IN TELEGRAM
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10❤5👍4
Forwarded from Machinelearning
🌟 Google только что выпустили новую модель Gemini 2.0 Flash Thinking
✅ Контекст с 1 миллионом токенов (5-х больше, чем o1 Pro)
#1 на арене чат-ботов👑
Модель показала наивысший результат, обогнав Gemini-Exp-1206
+ 17 очков прироста по сравнению с предыдущей контрольной точкой 1219
- №1 по всем направлениям (генерации кода), за исключением управления стилем.
• AIME: 73.3%
• GPQA: 74.2%
• MMMU: 75.4%
Модель доступна в ai-gradio
pip install --upgrade "ai-gradio[gemini]"
Они так же выпустили Gemini2.0 Pro.
https://aistudio.google.com/prompts/new_chat?model=gemini-2.0-flash-thinking-exp-01-21
#google #gemini
✅ Контекст с 1 миллионом токенов (5-х больше, чем o1 Pro)
#1 на арене чат-ботов
Модель показала наивысший результат, обогнав Gemini-Exp-1206
+ 17 очков прироста по сравнению с предыдущей контрольной точкой 1219
- №1 по всем направлениям (генерации кода), за исключением управления стилем.
• AIME: 73.3%
• GPQA: 74.2%
• MMMU: 75.4%
Модель доступна в ai-gradio
pip install --upgrade "ai-gradio[gemini]"
Они так же выпустили Gemini2.0 Pro.
https://aistudio.google.com/prompts/new_chat?model=gemini-2.0-flash-thinking-exp-01-21
#google #gemini
Please open Telegram to view this post
VIEW IN TELEGRAM
❤12👍2
Agent Recipes
— мастерская с огромным количеством примеров кода, который вы можете скопировать и использовать в своих собственных проектах ИИ!@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤13👍4🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Creating new games with interactive generative videos that learns from a small-scale dataset of Minecraft data.
▪Project page: https://vvictoryuki.github.io/gamefactory/
▪Paper: https://arxiv.org/abs/2501.08325
▪ Dataset: https://huggingface.co/datasets/KwaiVGI/GameFactory-Dataset
@data_analysis_ml
▪Project page: https://vvictoryuki.github.io/gamefactory/
▪Paper: https://arxiv.org/abs/2501.08325
▪ Dataset: https://huggingface.co/datasets/KwaiVGI/GameFactory-Dataset
@data_analysis_ml
❤7👍4🔥3
Media is too big
VIEW IN TELEGRAM
🔥 Обобщение и переобучение в машинном обучении.
- Видео
- Урок 1 / Урок2 / Урок3 / Урок4 / Урок5 /
- Урок6/ Урок7/ Урок 8
- Colab
-Полный курс
#ml #math #mlmath #probability #машинноеобучение
@data_analysis_ml
- Видео
- Урок 1 / Урок2 / Урок3 / Урок4 / Урок5 /
- Урок6/ Урок7/ Урок 8
- Colab
-Полный курс
#ml #math #mlmath #probability #машинноеобучение
@data_analysis_ml
❤11👍3🔥1
⚡️ Bespoke-Stratos-32B, новая ризонинг модель, разработанную на основе DeepSeek-R1 с использованием Sky-T1 от Berkeley NovaSky.
Модель превосходит Sky-T1 и o1-preview в тестах reasoning (математика и написаний кода) и почти достигает производительности DeepSeek-R1-Distill-Qwen-32B при обучении, котором было использовано 47 раз меньшее количество примеров!
Важно отметить то, что разработчики используют набор данных с открытым исходным кодом.
▪Data: https://huggingface.co/datasets/bespokelabs/Bespoke-Stratos-17k
▪Curator: https://github.com/bespokelabsai/curator/
▪32B model: https://huggingface.co/bespokelabs/Bespoke-Stratos-32B
▪7B model: https://huggingface.co/bespokelabs/Bespoke-Stratos-7B
▪Сode: https://github.com/bespokelabsai/curator/tree/main/examples/bespoke-stratos-data-generation
@data_analysis_ml
Модель превосходит Sky-T1 и o1-preview в тестах reasoning (математика и написаний кода) и почти достигает производительности DeepSeek-R1-Distill-Qwen-32B при обучении, котором было использовано 47 раз меньшее количество примеров!
Важно отметить то, что разработчики используют набор данных с открытым исходным кодом.
▪Data: https://huggingface.co/datasets/bespokelabs/Bespoke-Stratos-17k
▪Curator: https://github.com/bespokelabsai/curator/
▪32B model: https://huggingface.co/bespokelabs/Bespoke-Stratos-32B
▪7B model: https://huggingface.co/bespokelabs/Bespoke-Stratos-7B
▪Сode: https://github.com/bespokelabsai/curator/tree/main/examples/bespoke-stratos-data-generation
@data_analysis_ml
❤9🔥2👍1🥰1
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤4
Forwarded from Machinelearning
SmolVLM - серия компактных VLM отличающихся высокой эффективностью использования памяти и могут быть развернуты на локальных устройствах с ограниченными ресурсами.
Только что были выпущены SmolVLM (256M и 500M), которым требуются GPU <1GB для запуска.
Модели настолько маленькт, что могут работать 100% локально в вашем браузере на WebGPU!
🤗 Модели: https://huggingface.co/collections/HuggingFaceTB/smolvlm-256m-and-500m-6791fafc5bb0ab8acc960fb0
@ai_machinelearning_big_data
#AI #ML #SmallVLM #Huggingface
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍12❤5🔥1
🚀 Вам от 13 до 20 лет, вы уже знаете основы Python и хотите двигаться дальше, в область современной аналитики? Тогда у вас есть крутой шанс прокачать свои навыки на бесплатной программе по анализу данных от Яндекс Лицея! 📊
Специализация длится 3 месяца и проходит онлайн. Вас будут учить опытные профессионалы с реальным практическим опытом. Они расскажут, как анализировать и визуализировать данные с помощью Python, а также принимать решения на основе полученной информации.
Набор открыт также на онлайн-программы по веб-разработке на Go и Django, машинному обучению и большим данным. Не откладывайте на следующий год — подайте заявку до 29 января! 💻
Специализация длится 3 месяца и проходит онлайн. Вас будут учить опытные профессионалы с реальным практическим опытом. Они расскажут, как анализировать и визуализировать данные с помощью Python, а также принимать решения на основе полученной информации.
Набор открыт также на онлайн-программы по веб-разработке на Go и Django, машинному обучению и большим данным. Не откладывайте на следующий год — подайте заявку до 29 января! 💻
❤6🍌3
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍3⚡1❤🔥1❤1
Только что вышла версия CUDA 12.8 с поддержкой Blackwell.
Гайд по работе с TensorCore 5-го поколения:
https://docs.nvidia.com/cuda/parallel-thread-execution/index.html#tensorcore-5th-generation-instructions
#cuda #TensorCore #nvidia
Гайд по работе с TensorCore 5-го поколения:
https://docs.nvidia.com/cuda/parallel-thread-execution/index.html#tensorcore-5th-generation-instructions
#cuda #TensorCore #nvidia
🔥5🤣3❤2🥰1
⭐️ DataDreamer, библиотека Python с открытым исходным кодом, позволяет легко генерировать синтетические данные и интегрируется с huggingface
🔍 Узнайте, как это сделать: https://huggingface.co/blog/asoria/datadreamer-datasets#6790671e20a7d3ca6f72b6cb
@data_analysis_ml
🔍 Узнайте, как это сделать: https://huggingface.co/blog/asoria/datadreamer-datasets#6790671e20a7d3ca6f72b6cb
@data_analysis_ml
👍7❤3🔥2😐2
▪ Model: https://huggingface.co/collections/DAMO-NLP-SG/videollama3-678cdda9281a0e32fe79af15
▪ Paper: https://huggingface.co/papers/2501.13106
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍5🔥3
🔥 Minima — это open source решение для RAG в контейнерах для развертывания на любых мощностях (клауд или локал), с возможностью интеграции с ChatGPT и MCP.
Minima также может использоваться как RAG на вашей машине.
Minima поддерживает три режима работы:
1. Изолированная установка — Работа в контейнерах без внешних зависимостей, таких как ChatGPT или Claude. Все нейронные сети (LLM, ранкер, эмбеддинг) и векторный сторедж запускаются на вашем сервере или ПК, обеспечивая безопасность ваших данных.
2. Кастомный GPT — Запросы к вашим локальным документам через приложение или веб-версию ChatGPT с использованием кастомных GPT. Индексатор работает на вашем сервере или локальном ПК, а основная LLM остаётся ChatGPT.
3. Anthropic Claude — Использование приложения Anthropic Claude для запросов к вашим локальным документам. Индексатор работает на вашем локальном ПК, а основная LLM — это Anthropic Claude.
В данный момент, Minima решает задачу RAG on-premises и призывает всех поставить звезду и форкнуть репозиторий, а так же не стесняться и принять участие в разработке.
📌 Лицензия MPL-2.0
▪ Github
@data_analysis_ml
Minima также может использоваться как RAG на вашей машине.
Minima поддерживает три режима работы:
1. Изолированная установка — Работа в контейнерах без внешних зависимостей, таких как ChatGPT или Claude. Все нейронные сети (LLM, ранкер, эмбеддинг) и векторный сторедж запускаются на вашем сервере или ПК, обеспечивая безопасность ваших данных.
2. Кастомный GPT — Запросы к вашим локальным документам через приложение или веб-версию ChatGPT с использованием кастомных GPT. Индексатор работает на вашем сервере или локальном ПК, а основная LLM остаётся ChatGPT.
3. Anthropic Claude — Использование приложения Anthropic Claude для запросов к вашим локальным документам. Индексатор работает на вашем локальном ПК, а основная LLM — это Anthropic Claude.
В данный момент, Minima решает задачу RAG on-premises и призывает всех поставить звезду и форкнуть репозиторий, а так же не стесняться и принять участие в разработке.
📌 Лицензия MPL-2.0
▪ Github
@data_analysis_ml
👍8❤6🔥4
⚡️ Повторно дистиллированная
Deepseek AiR1 (1,5B) превосходит по своим характеристикам оригинальную дистиллированную модель!
https://huggingface.co/mobiuslabsgmbh/DeepSeek-R1-ReDistill-Qwen-1.5B-v1.0
@data_analysis_ml
Deepseek AiR1 (1,5B) превосходит по своим характеристикам оригинальную дистиллированную модель!
https://huggingface.co/mobiuslabsgmbh/DeepSeek-R1-ReDistill-Qwen-1.5B-v1.0
@data_analysis_ml
👍15😱3❤1🔥1