🌟Вышела InternLM v3!
- Производительность SoTA, превосходит такие модели, как Llama3.1-8B и Qwen2.5-7B
- Способность к глубоким рассуждениям с использованием системных промптов (подробности в карточке модели)
- Модель обучалась только на токенах высокого качества 4T.
https://huggingface.co/collections/internlm/internlm3-67875827c377690c01a9131d
@data_analysis_ml
#llm #reasoning #ml
- Производительность SoTA, превосходит такие модели, как Llama3.1-8B и Qwen2.5-7B
- Способность к глубоким рассуждениям с использованием системных промптов (подробности в карточке модели)
- Модель обучалась только на токенах высокого качества 4T.
https://huggingface.co/collections/internlm/internlm3-67875827c377690c01a9131d
@data_analysis_ml
#llm #reasoning #ml
❤5👍2🔥2🥰1
This media is not supported in your browser
VIEW IN TELEGRAM
🗣 Kokoro-TTS
Мощнейшая TTS-модель всего лишь на 82M параметров.
Она превосходит более крупные модели и генерирует минуты речи за секунды.
Самое главное - это открытый исходный код!
Попробуйте и убедитесь сами: 👇
🤗 Hf: https://huggingface.co/spaces/hexgrad/Kokoro-TTS
#tts #ml #opensource
Мощнейшая TTS-модель всего лишь на 82M параметров.
Она превосходит более крупные модели и генерирует минуты речи за секунды.
Самое главное - это открытый исходный код!
Попробуйте и убедитесь сами: 👇
🤗 Hf: https://huggingface.co/spaces/hexgrad/Kokoro-TTS
#tts #ml #opensource
👍13🔥7❤5
⚡️⚡️⚡️ Train 400x faster Static Embedding Models with Sentence Transformers
Интересное чтиво- очень быстрый метод обучения статических моделей эмбедингов, которые выполняются на процессоре.
На тестах он показал себя в 100-400 раз быстрее, чем обычные модели, при сохранении качества более в районе 85%!
Внутри:
- Две модели (для английского языка и многоязычная),
- Подробная стратегия обучения, которой следовали авторы, от разработки идеи до выбора фдатасета, реализации и оценки.
- Сценарии обучения, основанные на опенсорсной библиотеке sentence transformers с открытым исходным кодом.
- Отчеты о весах и отклонениях с метриками обучения и оценки, собранными во время обучения.
- Список датасетов, которые авторы использовали: 30 для обучения и 13 для оценки моделей.
🤗 HF: https://huggingface.co/blog/static-embeddings
#transformers #embeddingmodel #tutorial
Интересное чтиво- очень быстрый метод обучения статических моделей эмбедингов, которые выполняются на процессоре.
На тестах он показал себя в 100-400 раз быстрее, чем обычные модели, при сохранении качества более в районе 85%!
Внутри:
- Две модели (для английского языка и многоязычная),
- Подробная стратегия обучения, которой следовали авторы, от разработки идеи до выбора фдатасета, реализации и оценки.
- Сценарии обучения, основанные на опенсорсной библиотеке sentence transformers с открытым исходным кодом.
- Отчеты о весах и отклонениях с метриками обучения и оценки, собранными во время обучения.
- Список датасетов, которые авторы использовали: 30 для обучения и 13 для оценки моделей.
🤗 HF: https://huggingface.co/blog/static-embeddings
#transformers #embeddingmodel #tutorial
❤7👍3🔥3
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥22👍8❤6
Новый токенизатор, который позволяет обучать VLA в 5 раз быстрее по сравнению с предыдущей SoTA.
Его очень легко использовать и это опенсорс.
▪Описание: https://pi.website/research/fast
▪HF: https://huggingface.co/physical-intelligence/fast
▪Статья: https://www.pi.website/download/fast.pdf
@data_analysis_ml
#robots #tokenization
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥5❤4👍3🔥3⚡1
🌮 TACO: Learning Multi-modal Action Models with Synthetic Chains-of-Thought-and-Action
TACO новое семейство мультимодальных моделей с открытым исходным кодом, которые хорошо справляются со сложными задачами визуального анализа, требующими нескольких шагов размышлений и использования внешних инструментов!
Модели TACO превосходят базовые, настроенные на основе прометав модели, по 8 тестам, достигая улучшения в среднем на 3,6%, а в задачах MMVet, связанных с распознаванием текста, математическим мышлением и пространственным мышлением, прирост достигает 15%.
▪Github
▪Paper
▪Dataset
▪Demo
@data_analysis_ml
TACO новое семейство мультимодальных моделей с открытым исходным кодом, которые хорошо справляются со сложными задачами визуального анализа, требующими нескольких шагов размышлений и использования внешних инструментов!
Модели TACO превосходят базовые, настроенные на основе прометав модели, по 8 тестам, достигая улучшения в среднем на 3,6%, а в задачах MMVet, связанных с распознаванием текста, математическим мышлением и пространственным мышлением, прирост достигает 15%.
▪Github
▪Paper
▪Dataset
▪Demo
@data_analysis_ml
❤6👍4🔥2
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7👍3🔥2🤩2🤔1
В нем рассказывается как правильно работать с функциями и вызывать их. Внутри много рекомендаций и рабочих примеров.
https://platform.openai.com/docs/guides/function-calling.
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤14👍8🔥3😐2🥰1
Вы можете практиковаться и изучать CUDA онлайн, без использования графического процессора!
https://leetgpu.com/
@data_analysis_ml
#cuda #gpu #cpu #playground
Please open Telegram to view this post
VIEW IN TELEGRAM
👍23❤7🔥7⚡1
⚡️Легкий способ получать свежие обновления и следить за трендами в разработке на вашем языке. Находите свой стек и подписывайтесь:
МАШИННОЕ ОБУЧЕНИЕ: t.iss.one/ai_machinelearning_big_data
C++ t.iss.one/cpluspluc
Python: t.iss.one/pythonl
Linux: t.iss.one/linuxacademiya
Хакинг: t.iss.one/linuxkalii
Devops: t.iss.one/DevOPSitsec
Data Science: t.iss.one/data_analysis_ml
Javascript: t.iss.one/javascriptv
C#: t.iss.one/csharp_ci
Java: t.iss.one/javatg
Базы данных: t.iss.one/sqlhub
Python собеседования: t.iss.one/python_job_interview
Мобильная разработка: t.iss.one/mobdevelop
Docker: t.iss.one/DevopsDocker
Golang: t.iss.one/Golang_google
React: t.iss.one/react_tg
Rust: t.iss.one/rust_code
ИИ: t.iss.one/vistehno
PHP: t.iss.one/phpshka
Android: t.iss.one/android_its
Frontend: t.iss.one/front
Big Data: t.iss.one/bigdatai
Собеседования МЛ: t.iss.one/machinelearning_interview
МАТЕМАТИКА: t.iss.one/data_math
Kubernets: t.iss.one/kubernetc
Разработка игр: https://t.iss.one/gamedev
Haskell: t.iss.one/haskell_tg
Физика: t.iss.one/fizmat
💼 Папка с вакансиями: t.iss.one/addlist/_zyy_jQ_QUsyM2Vi
Папка Go разработчика: t.iss.one/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.iss.one/addlist/eEPya-HF6mkxMGIy
Папка ML: https://t.iss.one/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://t.iss.one/addlist/mzMMG3RPZhY2M2Iy
😆ИТ-Мемы: t.iss.one/memes_prog
🇬🇧Английский: t.iss.one/english_forprogrammers
🧠ИИ: t.iss.one/vistehno
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
📕Ит-книги бесплатно: https://t.iss.one/addlist/BkskQciUW_FhNjEy
МАШИННОЕ ОБУЧЕНИЕ: t.iss.one/ai_machinelearning_big_data
C++ t.iss.one/cpluspluc
Python: t.iss.one/pythonl
Linux: t.iss.one/linuxacademiya
Хакинг: t.iss.one/linuxkalii
Devops: t.iss.one/DevOPSitsec
Data Science: t.iss.one/data_analysis_ml
Javascript: t.iss.one/javascriptv
C#: t.iss.one/csharp_ci
Java: t.iss.one/javatg
Базы данных: t.iss.one/sqlhub
Python собеседования: t.iss.one/python_job_interview
Мобильная разработка: t.iss.one/mobdevelop
Docker: t.iss.one/DevopsDocker
Golang: t.iss.one/Golang_google
React: t.iss.one/react_tg
Rust: t.iss.one/rust_code
ИИ: t.iss.one/vistehno
PHP: t.iss.one/phpshka
Android: t.iss.one/android_its
Frontend: t.iss.one/front
Big Data: t.iss.one/bigdatai
Собеседования МЛ: t.iss.one/machinelearning_interview
МАТЕМАТИКА: t.iss.one/data_math
Kubernets: t.iss.one/kubernetc
Разработка игр: https://t.iss.one/gamedev
Haskell: t.iss.one/haskell_tg
Физика: t.iss.one/fizmat
💼 Папка с вакансиями: t.iss.one/addlist/_zyy_jQ_QUsyM2Vi
Папка Go разработчика: t.iss.one/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.iss.one/addlist/eEPya-HF6mkxMGIy
Папка ML: https://t.iss.one/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://t.iss.one/addlist/mzMMG3RPZhY2M2Iy
😆ИТ-Мемы: t.iss.one/memes_prog
🇬🇧Английский: t.iss.one/english_forprogrammers
🧠ИИ: t.iss.one/vistehno
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
📕Ит-книги бесплатно: https://t.iss.one/addlist/BkskQciUW_FhNjEy
❤7
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤13🔥8👍3👏3
✅Генерация бесконечных 4D городов
CityDreamer4D - это новая генеративная модель создания городов в 4D, которая объединяет статические и динамические сцены.
Заявлена высокая управляемость и реалистичность генераций.
- Проект: https://infinitescript.com/project/city-dreamer-4d/
- Код (обещают залить в ближайшее время ): https://github.com/hzxie/CityDreamer4D
- Датасет CityTopia: https://gateway.infinitescript.com/s/CityTopia
@data_analysis_ml
CityDreamer4D - это новая генеративная модель создания городов в 4D, которая объединяет статические и динамические сцены.
Заявлена высокая управляемость и реалистичность генераций.
- Проект: https://infinitescript.com/project/city-dreamer-4d/
- Код (обещают залить в ближайшее время ): https://github.com/hzxie/CityDreamer4D
- Датасет CityTopia: https://gateway.infinitescript.com/s/CityTopia
@data_analysis_ml
🔥12❤4👍4😐3
🔥Google представили стратегию эволюционного поиска для масштабирования времени инференса в больших языковых моделях.
Предлагаемый подход, Mind Evolution, использует языковую модель для генерации, рекомбинации и уточнения ответов-модели.
Контролируя инференс модели, разработчики обнаружили, что Mind Evolution значительно превосходит другие стратегии инференса, такие как Best-of-N и Sequential Revision, в задачах планирования на естественном языке.
В бенчмарках TravelPlanner и Natural Plan Mind Evolution, модель решает успешно более 98 %.
https://huggingface.co/papers/2501.09891
Предлагаемый подход, Mind Evolution, использует языковую модель для генерации, рекомбинации и уточнения ответов-модели.
Контролируя инференс модели, разработчики обнаружили, что Mind Evolution значительно превосходит другие стратегии инференса, такие как Best-of-N и Sequential Revision, в задачах планирования на естественном языке.
В бенчмарках TravelPlanner и Natural Plan Mind Evolution, модель решает успешно более 98 %.
https://huggingface.co/papers/2501.09891
👍7❤3🔥2
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7👍5🔥5😐1