Forwarded from Machinelearning
🌟 Google только что выпустили новую модель Gemini 2.0 Flash Thinking
✅ Контекст с 1 миллионом токенов (5-х больше, чем o1 Pro)
#1 на арене чат-ботов👑
Модель показала наивысший результат, обогнав Gemini-Exp-1206
+ 17 очков прироста по сравнению с предыдущей контрольной точкой 1219
- №1 по всем направлениям (генерации кода), за исключением управления стилем.
• AIME: 73.3%
• GPQA: 74.2%
• MMMU: 75.4%
Модель доступна в ai-gradio
pip install --upgrade "ai-gradio[gemini]"
Они так же выпустили Gemini2.0 Pro.
https://aistudio.google.com/prompts/new_chat?model=gemini-2.0-flash-thinking-exp-01-21
#google #gemini
✅ Контекст с 1 миллионом токенов (5-х больше, чем o1 Pro)
#1 на арене чат-ботов
Модель показала наивысший результат, обогнав Gemini-Exp-1206
+ 17 очков прироста по сравнению с предыдущей контрольной точкой 1219
- №1 по всем направлениям (генерации кода), за исключением управления стилем.
• AIME: 73.3%
• GPQA: 74.2%
• MMMU: 75.4%
Модель доступна в ai-gradio
pip install --upgrade "ai-gradio[gemini]"
Они так же выпустили Gemini2.0 Pro.
https://aistudio.google.com/prompts/new_chat?model=gemini-2.0-flash-thinking-exp-01-21
#google #gemini
Please open Telegram to view this post
VIEW IN TELEGRAM
❤12👍2
Agent Recipes
— мастерская с огромным количеством примеров кода, который вы можете скопировать и использовать в своих собственных проектах ИИ!@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤13👍4🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Creating new games with interactive generative videos that learns from a small-scale dataset of Minecraft data.
▪Project page: https://vvictoryuki.github.io/gamefactory/
▪Paper: https://arxiv.org/abs/2501.08325
▪ Dataset: https://huggingface.co/datasets/KwaiVGI/GameFactory-Dataset
@data_analysis_ml
▪Project page: https://vvictoryuki.github.io/gamefactory/
▪Paper: https://arxiv.org/abs/2501.08325
▪ Dataset: https://huggingface.co/datasets/KwaiVGI/GameFactory-Dataset
@data_analysis_ml
❤7👍4🔥3
Media is too big
VIEW IN TELEGRAM
🔥 Обобщение и переобучение в машинном обучении.
- Видео
- Урок 1 / Урок2 / Урок3 / Урок4 / Урок5 /
- Урок6/ Урок7/ Урок 8
- Colab
-Полный курс
#ml #math #mlmath #probability #машинноеобучение
@data_analysis_ml
- Видео
- Урок 1 / Урок2 / Урок3 / Урок4 / Урок5 /
- Урок6/ Урок7/ Урок 8
- Colab
-Полный курс
#ml #math #mlmath #probability #машинноеобучение
@data_analysis_ml
❤11👍3🔥1
⚡️ Bespoke-Stratos-32B, новая ризонинг модель, разработанную на основе DeepSeek-R1 с использованием Sky-T1 от Berkeley NovaSky.
Модель превосходит Sky-T1 и o1-preview в тестах reasoning (математика и написаний кода) и почти достигает производительности DeepSeek-R1-Distill-Qwen-32B при обучении, котором было использовано 47 раз меньшее количество примеров!
Важно отметить то, что разработчики используют набор данных с открытым исходным кодом.
▪Data: https://huggingface.co/datasets/bespokelabs/Bespoke-Stratos-17k
▪Curator: https://github.com/bespokelabsai/curator/
▪32B model: https://huggingface.co/bespokelabs/Bespoke-Stratos-32B
▪7B model: https://huggingface.co/bespokelabs/Bespoke-Stratos-7B
▪Сode: https://github.com/bespokelabsai/curator/tree/main/examples/bespoke-stratos-data-generation
@data_analysis_ml
Модель превосходит Sky-T1 и o1-preview в тестах reasoning (математика и написаний кода) и почти достигает производительности DeepSeek-R1-Distill-Qwen-32B при обучении, котором было использовано 47 раз меньшее количество примеров!
Важно отметить то, что разработчики используют набор данных с открытым исходным кодом.
▪Data: https://huggingface.co/datasets/bespokelabs/Bespoke-Stratos-17k
▪Curator: https://github.com/bespokelabsai/curator/
▪32B model: https://huggingface.co/bespokelabs/Bespoke-Stratos-32B
▪7B model: https://huggingface.co/bespokelabs/Bespoke-Stratos-7B
▪Сode: https://github.com/bespokelabsai/curator/tree/main/examples/bespoke-stratos-data-generation
@data_analysis_ml
❤9🔥2👍1🥰1
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤4
Forwarded from Machinelearning
SmolVLM - серия компактных VLM отличающихся высокой эффективностью использования памяти и могут быть развернуты на локальных устройствах с ограниченными ресурсами.
Только что были выпущены SmolVLM (256M и 500M), которым требуются GPU <1GB для запуска.
Модели настолько маленькт, что могут работать 100% локально в вашем браузере на WebGPU!
🤗 Модели: https://huggingface.co/collections/HuggingFaceTB/smolvlm-256m-and-500m-6791fafc5bb0ab8acc960fb0
@ai_machinelearning_big_data
#AI #ML #SmallVLM #Huggingface
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍12❤5🔥1
🚀 Вам от 13 до 20 лет, вы уже знаете основы Python и хотите двигаться дальше, в область современной аналитики? Тогда у вас есть крутой шанс прокачать свои навыки на бесплатной программе по анализу данных от Яндекс Лицея! 📊
Специализация длится 3 месяца и проходит онлайн. Вас будут учить опытные профессионалы с реальным практическим опытом. Они расскажут, как анализировать и визуализировать данные с помощью Python, а также принимать решения на основе полученной информации.
Набор открыт также на онлайн-программы по веб-разработке на Go и Django, машинному обучению и большим данным. Не откладывайте на следующий год — подайте заявку до 29 января! 💻
Специализация длится 3 месяца и проходит онлайн. Вас будут учить опытные профессионалы с реальным практическим опытом. Они расскажут, как анализировать и визуализировать данные с помощью Python, а также принимать решения на основе полученной информации.
Набор открыт также на онлайн-программы по веб-разработке на Go и Django, машинному обучению и большим данным. Не откладывайте на следующий год — подайте заявку до 29 января! 💻
❤6🍌3
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍3⚡1❤🔥1❤1
Только что вышла версия CUDA 12.8 с поддержкой Blackwell.
Гайд по работе с TensorCore 5-го поколения:
https://docs.nvidia.com/cuda/parallel-thread-execution/index.html#tensorcore-5th-generation-instructions
#cuda #TensorCore #nvidia
Гайд по работе с TensorCore 5-го поколения:
https://docs.nvidia.com/cuda/parallel-thread-execution/index.html#tensorcore-5th-generation-instructions
#cuda #TensorCore #nvidia
🔥5🤣3❤2🥰1
⭐️ DataDreamer, библиотека Python с открытым исходным кодом, позволяет легко генерировать синтетические данные и интегрируется с huggingface
🔍 Узнайте, как это сделать: https://huggingface.co/blog/asoria/datadreamer-datasets#6790671e20a7d3ca6f72b6cb
@data_analysis_ml
🔍 Узнайте, как это сделать: https://huggingface.co/blog/asoria/datadreamer-datasets#6790671e20a7d3ca6f72b6cb
@data_analysis_ml
👍7❤3🔥2😐2
▪ Model: https://huggingface.co/collections/DAMO-NLP-SG/videollama3-678cdda9281a0e32fe79af15
▪ Paper: https://huggingface.co/papers/2501.13106
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍5🔥3
🔥 Minima — это open source решение для RAG в контейнерах для развертывания на любых мощностях (клауд или локал), с возможностью интеграции с ChatGPT и MCP.
Minima также может использоваться как RAG на вашей машине.
Minima поддерживает три режима работы:
1. Изолированная установка — Работа в контейнерах без внешних зависимостей, таких как ChatGPT или Claude. Все нейронные сети (LLM, ранкер, эмбеддинг) и векторный сторедж запускаются на вашем сервере или ПК, обеспечивая безопасность ваших данных.
2. Кастомный GPT — Запросы к вашим локальным документам через приложение или веб-версию ChatGPT с использованием кастомных GPT. Индексатор работает на вашем сервере или локальном ПК, а основная LLM остаётся ChatGPT.
3. Anthropic Claude — Использование приложения Anthropic Claude для запросов к вашим локальным документам. Индексатор работает на вашем локальном ПК, а основная LLM — это Anthropic Claude.
В данный момент, Minima решает задачу RAG on-premises и призывает всех поставить звезду и форкнуть репозиторий, а так же не стесняться и принять участие в разработке.
📌 Лицензия MPL-2.0
▪ Github
@data_analysis_ml
Minima также может использоваться как RAG на вашей машине.
Minima поддерживает три режима работы:
1. Изолированная установка — Работа в контейнерах без внешних зависимостей, таких как ChatGPT или Claude. Все нейронные сети (LLM, ранкер, эмбеддинг) и векторный сторедж запускаются на вашем сервере или ПК, обеспечивая безопасность ваших данных.
2. Кастомный GPT — Запросы к вашим локальным документам через приложение или веб-версию ChatGPT с использованием кастомных GPT. Индексатор работает на вашем сервере или локальном ПК, а основная LLM остаётся ChatGPT.
3. Anthropic Claude — Использование приложения Anthropic Claude для запросов к вашим локальным документам. Индексатор работает на вашем локальном ПК, а основная LLM — это Anthropic Claude.
В данный момент, Minima решает задачу RAG on-premises и призывает всех поставить звезду и форкнуть репозиторий, а так же не стесняться и принять участие в разработке.
📌 Лицензия MPL-2.0
▪ Github
@data_analysis_ml
👍8❤6🔥4
⚡️ Повторно дистиллированная
Deepseek AiR1 (1,5B) превосходит по своим характеристикам оригинальную дистиллированную модель!
https://huggingface.co/mobiuslabsgmbh/DeepSeek-R1-ReDistill-Qwen-1.5B-v1.0
@data_analysis_ml
Deepseek AiR1 (1,5B) превосходит по своим характеристикам оригинальную дистиллированную модель!
https://huggingface.co/mobiuslabsgmbh/DeepSeek-R1-ReDistill-Qwen-1.5B-v1.0
@data_analysis_ml
👍15😱3❤1🔥1
Он демонстрирует использование передовых методов рассуждений LLM, методов RAG и облачной инфраструктуры для решения сложных задач программирования в больших масштабах.
Посмотрите запись: https://www.youtube.com/watch?v=cvIeT4MlIx4
@data_analysis_ml
#pytorch #ai #expertexchange
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
PyTorch Expert Exchange Hacker Cup AI
AI-Powered Competitive Programming: My HackerCup 2024 Experience with Anton Pidkuiko, Meta.
In this talk, Anton shares how he built an AI agent that ranked #1 in the finals of Meta HackerCup 2024 (AI division). Anton developed a workflow that could solve…
In this talk, Anton shares how he built an AI agent that ranked #1 in the finals of Meta HackerCup 2024 (AI division). Anton developed a workflow that could solve…
❤13👍9🔥2
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12👍10❤3
🔥 Qwen 2.5 - 7B and 14B с длинной контекста в 1 миллион!
Они также выпустили свой собственный форк vllm - чтобы вы могли развернуть модель у себя дома! 💥
Стоит отметить, что модель 14B-1M выигрывает у гораздо более крупной модели Qwen 2.5 Turbo (предположительно MoE с тем же количеством активных параметров).
Более того, она еще и превосходит бета-версия GPT-4/ 4o на длинном контексте!
https://huggingface.co/collections/Qwen/qwen25-1m-679325716327ec07860530ba
@data_analysis_ml
#Qwen
Они также выпустили свой собственный форк vllm - чтобы вы могли развернуть модель у себя дома! 💥
Стоит отметить, что модель 14B-1M выигрывает у гораздо более крупной модели Qwen 2.5 Turbo (предположительно MoE с тем же количеством активных параметров).
Более того, она еще и превосходит бета-версия GPT-4/ 4o на длинном контексте!
https://huggingface.co/collections/Qwen/qwen25-1m-679325716327ec07860530ba
@data_analysis_ml
#Qwen
👍13🔥7❤3