Forwarded from Machinelearning
📄 ML NEWS
🤖 Microsoft Research только что опубликовали новую версию AutoGen - суперпопулярного фреймворка для работы с агентами с открытым исходным кодом
AutoGen v0.4 это переработанный фреймворк, в котором значительно улучшена масштабируемость, добавлена модульность и новая система отладки процессов agentic AI за счет внедрения асинхронной архитектуры, управляемой событиями.
▪ Github
🖥 Google представил архитектуру Titans, которая возможно станет очень важным элементом развития больших языковых моделей (LLM) в 2025 году.
Архитектура состоит из 3х типов памяти:
- Краткосрочная память – для оперативной обработки данных.
- Долгосрочная память – для всей сохранения значимой информации.
- Постоянная память – для фиксации важной информации.
По заявлениям разработчиков Titans может эффективно обрабатывать контекст превышающим 2 миллионов токенов.
▪Подробнее
🖥 ChatGPT теперь таск-менеджер:
ИИ теперь способен инициировать диалог благодаря новой функции Tasks. Ранее он только отвечал на запросы, а теперь способен самостоятельно выполнять задачи.
Tasks позволяют пользователям давать ChatGPT задачи с указанием времени выполнения.
▪Подробнее
📱 DeepSeek V3 вышел на айфонах
Приложение доступно AppStore бесплатно и работает очень быстро
▪Скачать можно здесь.
⚡️ Выпущена новая открытая модель Omni!
MiniCPM-o 2.6 - это новая мультимодальная модель с 8B параметрами, работающая на edge девайсах.
- 8B параметров (SigLip-400M + Whisper-300M + ChatTTS-200M + Qwen2.5-7B)
- Превосходит GPT-4V в vision задачах с 70. 2 баллами на OpenCompass
- Лучшие в своем классе возможности двуязычной речи с разговором в реальном времени и клонированием голоса
▪ Model
👩💻 Stable point-aware 3D от Stability AI
Свежий инструмент с открытым исходным кодом, который отлично справляется с созданием 3D объектов по одному изображению.
▪Github
@ai_machinelearning_big_data
#news #ml #digest #Stability #chatgpt #google #microsoft #deepSeek #MiniCPM
AutoGen v0.4 это переработанный фреймворк, в котором значительно улучшена масштабируемость, добавлена модульность и новая система отладки процессов agentic AI за счет внедрения асинхронной архитектуры, управляемой событиями.
▪ Github
Архитектура состоит из 3х типов памяти:
- Краткосрочная память – для оперативной обработки данных.
- Долгосрочная память – для всей сохранения значимой информации.
- Постоянная память – для фиксации важной информации.
По заявлениям разработчиков Titans может эффективно обрабатывать контекст превышающим 2 миллионов токенов.
▪Подробнее
ИИ теперь способен инициировать диалог благодаря новой функции Tasks. Ранее он только отвечал на запросы, а теперь способен самостоятельно выполнять задачи.
Tasks позволяют пользователям давать ChatGPT задачи с указанием времени выполнения.
▪Подробнее
Приложение доступно AppStore бесплатно и работает очень быстро
▪Скачать можно здесь.
⚡️ Выпущена новая открытая модель Omni!
MiniCPM-o 2.6 - это новая мультимодальная модель с 8B параметрами, работающая на edge девайсах.
- 8B параметров (SigLip-400M + Whisper-300M + ChatTTS-200M + Qwen2.5-7B)
- Превосходит GPT-4V в vision задачах с 70. 2 баллами на OpenCompass
- Лучшие в своем классе возможности двуязычной речи с разговором в реальном времени и клонированием голоса
▪ Model
Свежий инструмент с открытым исходным кодом, который отлично справляется с созданием 3D объектов по одному изображению.
▪Github
@ai_machinelearning_big_data
#news #ml #digest #Stability #chatgpt #google #microsoft #deepSeek #MiniCPM
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10👍7🔥3
🌟Вышела InternLM v3!
- Производительность SoTA, превосходит такие модели, как Llama3.1-8B и Qwen2.5-7B
- Способность к глубоким рассуждениям с использованием системных промптов (подробности в карточке модели)
- Модель обучалась только на токенах высокого качества 4T.
https://huggingface.co/collections/internlm/internlm3-67875827c377690c01a9131d
@data_analysis_ml
#llm #reasoning #ml
- Производительность SoTA, превосходит такие модели, как Llama3.1-8B и Qwen2.5-7B
- Способность к глубоким рассуждениям с использованием системных промптов (подробности в карточке модели)
- Модель обучалась только на токенах высокого качества 4T.
https://huggingface.co/collections/internlm/internlm3-67875827c377690c01a9131d
@data_analysis_ml
#llm #reasoning #ml
❤5👍2🔥2🥰1
This media is not supported in your browser
VIEW IN TELEGRAM
🗣 Kokoro-TTS
Мощнейшая TTS-модель всего лишь на 82M параметров.
Она превосходит более крупные модели и генерирует минуты речи за секунды.
Самое главное - это открытый исходный код!
Попробуйте и убедитесь сами: 👇
🤗 Hf: https://huggingface.co/spaces/hexgrad/Kokoro-TTS
#tts #ml #opensource
Мощнейшая TTS-модель всего лишь на 82M параметров.
Она превосходит более крупные модели и генерирует минуты речи за секунды.
Самое главное - это открытый исходный код!
Попробуйте и убедитесь сами: 👇
🤗 Hf: https://huggingface.co/spaces/hexgrad/Kokoro-TTS
#tts #ml #opensource
👍13🔥7❤5
⚡️⚡️⚡️ Train 400x faster Static Embedding Models with Sentence Transformers
Интересное чтиво- очень быстрый метод обучения статических моделей эмбедингов, которые выполняются на процессоре.
На тестах он показал себя в 100-400 раз быстрее, чем обычные модели, при сохранении качества более в районе 85%!
Внутри:
- Две модели (для английского языка и многоязычная),
- Подробная стратегия обучения, которой следовали авторы, от разработки идеи до выбора фдатасета, реализации и оценки.
- Сценарии обучения, основанные на опенсорсной библиотеке sentence transformers с открытым исходным кодом.
- Отчеты о весах и отклонениях с метриками обучения и оценки, собранными во время обучения.
- Список датасетов, которые авторы использовали: 30 для обучения и 13 для оценки моделей.
🤗 HF: https://huggingface.co/blog/static-embeddings
#transformers #embeddingmodel #tutorial
Интересное чтиво- очень быстрый метод обучения статических моделей эмбедингов, которые выполняются на процессоре.
На тестах он показал себя в 100-400 раз быстрее, чем обычные модели, при сохранении качества более в районе 85%!
Внутри:
- Две модели (для английского языка и многоязычная),
- Подробная стратегия обучения, которой следовали авторы, от разработки идеи до выбора фдатасета, реализации и оценки.
- Сценарии обучения, основанные на опенсорсной библиотеке sentence transformers с открытым исходным кодом.
- Отчеты о весах и отклонениях с метриками обучения и оценки, собранными во время обучения.
- Список датасетов, которые авторы использовали: 30 для обучения и 13 для оценки моделей.
🤗 HF: https://huggingface.co/blog/static-embeddings
#transformers #embeddingmodel #tutorial
❤7👍3🔥3
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥22👍8❤6
Новый токенизатор, который позволяет обучать VLA в 5 раз быстрее по сравнению с предыдущей SoTA.
Его очень легко использовать и это опенсорс.
▪Описание: https://pi.website/research/fast
▪HF: https://huggingface.co/physical-intelligence/fast
▪Статья: https://www.pi.website/download/fast.pdf
@data_analysis_ml
#robots #tokenization
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥5❤4👍3🔥3⚡1
🌮 TACO: Learning Multi-modal Action Models with Synthetic Chains-of-Thought-and-Action
TACO новое семейство мультимодальных моделей с открытым исходным кодом, которые хорошо справляются со сложными задачами визуального анализа, требующими нескольких шагов размышлений и использования внешних инструментов!
Модели TACO превосходят базовые, настроенные на основе прометав модели, по 8 тестам, достигая улучшения в среднем на 3,6%, а в задачах MMVet, связанных с распознаванием текста, математическим мышлением и пространственным мышлением, прирост достигает 15%.
▪Github
▪Paper
▪Dataset
▪Demo
@data_analysis_ml
TACO новое семейство мультимодальных моделей с открытым исходным кодом, которые хорошо справляются со сложными задачами визуального анализа, требующими нескольких шагов размышлений и использования внешних инструментов!
Модели TACO превосходят базовые, настроенные на основе прометав модели, по 8 тестам, достигая улучшения в среднем на 3,6%, а в задачах MMVet, связанных с распознаванием текста, математическим мышлением и пространственным мышлением, прирост достигает 15%.
▪Github
▪Paper
▪Dataset
▪Demo
@data_analysis_ml
❤6👍4🔥2
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7👍3🔥2🤩2🤔1
В нем рассказывается как правильно работать с функциями и вызывать их. Внутри много рекомендаций и рабочих примеров.
https://platform.openai.com/docs/guides/function-calling.
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤14👍8🔥3😐2🥰1