227K subscribers
3.8K photos
632 videos
17 files
4.45K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
⚡️ Релиз Python 3.13 и Git 2.47 ⚡️

Python 3.13, спустя ровно год с начала разработки, выпущен в релиз. Поддержка версии 3.13 планируется в течение 1.5 лет, и, после окончания этого срока еще 3.5 года версия будет получать критические обновления, связанные с безопасностью.

Ключевые изменения:

🟢экспериментальный компилятор JIT. Запуск в CPython –enable-experimental-jit;

🟢экспериментальный режим сборки CPython без GIL. Запуск –without-gil;

🟢интерактивный интерпретатор с многострочным редактированием, по подобию PyPy;

🟢изменена семантика locals() для функций, генераторов и сопрограмм;

🟢включена в состав модифицированная версия mimalloc от Microsoft;

🟢компилятор теперь очищает лидирующие пробелы из docstring;

🟢в модуле dbm реализован бэкенд dbm.sqlite3 по умолчанию для новых файлов;

🟢typing.TypeIs стала более интуитивной, чем typing.TypeGuard;

🟢typing.ReadOnly позволяет помечать элементы TypeDicts, доступные только для чтения;

🟢warnings.deprecated() добавлена для указания устаревших элементов в системе типов;

🟢удалены ifc, audioop, chunk, cgi, cgitb, crypt, imghdr, mailcap, msilib, nis, nntplib, ossaudiodev, pipes, sndhdr, spwd, sunau, telnetlib, uu, xdrlib и lib2to3 из стандартной библиотеки;

🟢в copy добавлена copy.replace();

🟢в os добавлены функции для работы с таймером через timerfd;

🟢random получил интерфейс CLI;

🟢macOS версий 10.9 - 10.12 больше не поддерживаются.

▶️Страница релиза 3.13 ▶️Документация 3.13


Git выпустил Git 2.47 с функциями и исправлениями ошибок от более чем 83 разработчиков, 28 из которых - новые.

В этой версии основное внимание уделяется повышению производительности и улучшению пользовательского опыта.

Основные изменения:

🟠инкрементные многопакетные индексы: экспериментальная функция, позволяющая сохранять несколько многопакетных индексов в цепочке слоев MIDX;

🟠ускорена идентификация базовой ветви : новый инструмент for-each-ref помогает определять базовую ветвь коммита, сводя к минимуму уникальные коммиты от первого родителя и упрощая идентификацию;

🟠обновлена политика поддержки: в Git 2.47 представлен новый документ, описывающий требования к поддержке для различных платформ, включая стандарты C99 или C11 и стабильные версии зависимостей;

🟠DEVELOPER=1 mode: теперь при компиляции с DEVELOPER=1 наличие неиспользуемых параметров является ошибкой времени компиляции;

🟠остальные улучшения : усовершенствования серверной части reftable, обновление платформы модульного тестирования, усовершенствование git fsck и интеграция кода Visual Studio с git mergetool.

▶️Полный список изменений


@ai_machinelearning_big_data

#AI #ML #Python #Git #Release
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍43🔥119
⚡️ Китай продолжает выпускать новые МОЩНЫЕ и ДЕШЕВЫЕ модели искусственного интеллекта!

Материнская компания Tik-Tok, ByteDance, выпустила Doubao-1.5-pro.:
🔸На бенчмарках с GPT-4o они идут рука об руку
🔸Экономичная цена:
- 0,022 доллара за миллион кэшированных токенов
- 0,11 доллара за миллион токенов
- 0,275 доллара за миллион выходных токенов
🔸Преимущество в стоимости:
- в 5 раз дешевле, чем DeepSeek
- Более чем в 200 раз доступнее, чем OpenAI o1
🔸Особенности:
- контекстное окно размером 32k + 256k
Архитектура: Для повышения эффективности используется MoE
Влияние на рынок: Этот шаг является частью широкой китайской инициативы в области искусственного интеллекта от ByteDance и DeepSeek для доминировали на ИИ рынке

> превосходит на топовых бенчмарках почти всех остальных LLM
> превосходит o1 на AIME
> использует MoE с 7 экспертами
> 20b активированных параметров

https://team.doubao.com/zh/special/doubao_1_5_pro

#Doubao #llm #ml #ai #release
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥85👍2816🥱4👏1👀1
🖥 OpenAI o3-mini теперь доступен в ChatGPT и по API.

Про-пользователи получат неограниченный доступ к o3-mini.

Бесплатные пользователи могут попробовать o3-mini в ChatGPT, выбрав кнопку Reason под сообщением.

Платные пользователи также могут выбрать o3-mini-high в меню выбора моделей, чтобы получить версию с более высоким уровнем интеллекта, которой требуется немного больше времени для ответов.

o3-mini превосходит предыдущие модели на бенчмарке GPQA Diamond, в математике (AIME) и в кодингке (Codeforces).

o3-mini — хорошая модель, но DeepSeek r1 имеет примерно такую же производительность, но при этом дешевле.

Chatgpt:
System Card

@ai_machinelearning_big_data


#openai #chatgp #ai #release #ml #llm
Please open Telegram to view this post
VIEW IN TELEGRAM
👍63🔥14🤣145😭3
This media is not supported in your browser
VIEW IN TELEGRAM
✔️ Gemma 3 — свежий релиз, который значительно расширяет возможности открытых моделей и упрощает их развёртывание:

🟢 27B модель: Достигла рейтинга ELO 1338 и при этом умещается на одном H100.
🟢 Поддержка vision: Теперь модель способна обрабатывать смешанный контент, включая изображения, видео и текст.
🟢Доступны версии на 1В, 4В, 12В, 27В в базовых и instruct версиях
🟢 Расширенное окно контекста: Модель может работать с контекстом до 128k токенов
🟢 Широкая языковая поддержка: Поддерживается 140 языков
🟢 Встроенные возможности для реализации агентных сценариев и интеграции с внешними инструментами.

Попробуйте модель по ссылке: Gemma 3 27B.

🟡Пост: https://blog.google/technology/developers/gemma-3/

🟡Попробовать: aistudio.google.com/prompts/new_chat?model=gemma3-27b

🟡Tech report: https://storage.googleapis.com/deepmind-media/gemma/Gemma3Report.pdf

🟡Видео https://youtube.com/watch?v=UU13FN2Xpyw

🟡HF: https://huggingface.co/blog/gemma3

@ai_machinelearning_big_data

#gemma #ai #ml #release #google #
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥52👍2213
🔥 Stable Virtual Camera – релиз от Stability AI: модель генерации 3D видео из 2D изображений.

Эта разработка, представленная в исследовательском превью, позволяет создавать реалистичные 3D видео без сложной реконструкции сцены или специализированной оптимизации.

С помощью одного или нескольких изображений модель позволяет создать видео с плавной траекторией с любой перспективы, которой вы пожелаете.

🌟 Основные моменты:

▶️ Модель использует мультивью диффузию для преобразования обычных 2D изображений в объемные 3D видео с достоверной глубиной и перспективой.
▶️ Динамическое управление камерой: поддерживаются не только стандартные движения, но и 14 различных траекторий, включая 360°, Лемнискату, Спираль, Dolly Zoom и другие, что позволяет создавать уникальные кинематографические эффекты.
▶️ Гибкость входных данных: возможность генерировать 3D видео, используя как одно изображение, так и до 32 изображений.
▶️ Продвинутая архитектура: применение двухпроходного процедурного сэмплинга обеспечивает плавные переходы даже в видео длиной до 1000 кадров, гарантируя непрерывное и стабильное отображение движения.
▶️ Преимущество перед конкурентами: в тестах на синтез новых точек обзора (NVS) модель показывает хорошие результаты, превосходя такие инструменты, как ViewCrafter и CAT3D, благодаря оптимальному соотношению генеративного потенциала и плавности временных переходов.

Релиз доступен для исследовательского использования под некоммерческой лицензией.

🟡Релиз: https://stability.ai/news/introducing-stable-virtual-camera-multi-view-video-generation-with-3d-camera-control
🟡Статья: https://stability.ai/s/stable-virtual-camera.pdf
Веса: https://huggingface.co/stabilityai/stable-virtual-camera
🖥 Github: https://github.com/Stability-AI/stable-virtual-camera

@ai_machinelearning_big_data


#stability #ai #ml #release
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
42🔥21👍9
🔥 YandexART 2.5 и YandexART 2.5 Pro — релиз от Яндекса: новое поколение визуальной генеративной модели

Разработчики уменьшили количество дефектов и улучшили генерацию текста на изображениях. Модели стали чётче следовать инструкциям в промтах. Впервые применили VLM для оценки качества работы нейросети. Визуально-лингвистическая модель проверяла множество изображений на соответствие заданным промтам. Например, действительно ли на картинке присутствовали все заданные пользователем элементы.

🌟 Архитектурные улучшения и технические инновации в YandexART 2.5 Pro:

▶️ Уникальный подход к файнтьюну: разработчики внедрили технологию "супирования" — метод, позволяющий комбинировать различные техники обучения в единый процесс.

▶️ Повышение разрешающей способности: автокодировщик VAE заменили с 4-канального на 16-канальный, увеличив в 4 раза размер латентного пространства, в котором работает диффузионная модель.

▶️ Масштабирование обучающего датасета: почти 1 млрд пар изображений и детализированных описаний.

▶️ Двухэтапная система оценки: специальная визуально-лингвистическая модель не только создаёт описания изображений, но и верифицирует соответствие сгенерированных артефактов исходному запросу.

▶️ Существенное улучшение текстовых возможностей: генерация надписей на латинице улучшена на 68%.

▶️ Контекстно-зависимая адаптация стиля: автоматический подбор визуальной эстетики в зависимости от задачи.

Тесты показывают превосходство YandexART 2.5 над Midjourney 6.1 и паритет с другими SOTA-моделями.

Доступ к базовой версии — бесплатно в Шедевруме. Для Pro-версии есть подписка за 100₽/месяц.

🟡Релиз: https://habr.com/ru/companies/yandex/news/892532/

@ai_machinelearning_big_data

#ai #ml #release
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥48👍2918🥱9🌭3🗿2
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 В chat.qwenlm.ai chat теперь доступны голосовой режим + режим видеочата

Более того китайцы выложили код своей Qwen2.5-Omni-7B - единой omni-модели, которая может понимать текст, аудио, изображение и видео.

Они разработали архитектуру "thinker-talker", которая обеспечивает одновременное размышление модели и ее разговор .

Вскоре обещают выпустить в опенсорс модели на еще большее количество параметров.

Просто топ, бегом тестить.

🟢Попробовать: https://chat.qwenlm.ai
🟢Paper: https://github.com/QwenLM/Qwen2.5-Omni/blob/main/assets/Qwen2.5_Omni.pdf
🟢Blog: https://qwenlm.github.io/blog/qwen2.5-omni
🟢GitHub: https://github.com/QwenLM/Qwen2.5-Omni
🟢Hugging Face: https://huggingface.co/Qwen/Qwen2.5-Omni-7B
🟢ModelScope: https://modelscope.cn/models/Qwen/Qwen2.5-Omni-7B

@ai_machinelearning_big_data

#qwen #release #Omni
Please open Telegram to view this post
VIEW IN TELEGRAM
49👍27🔥25
🔥 ​Hugging Face выпустила версию 0.30.0 библиотеки huggingface_hub - это самое крупное обновление за два года!

Представлены значительные улучшения, особенно в области хранения и обработки больших моделей и датасетов.​

✔️ Основные нововведения:

Интеграция с Xet: Внедрена поддержка Xet — передового протокола для хранения крупных объектов в Git-репозиториях, призванного заменить Git LFS.

В отличие от LFS, который выполняет дедупликацию на уровне файлов, Xet работает на уровне фрагментов данных, что особенно полезно для специалистов, работающих с массивными моделями и датасетами.

Для интеграции с Python используется пакет xet-core, написанный на Rust, который обрабатывает все низкоуровневые детали.​

Чтобы начать использовать Xet, установите дополнительную зависимость:​
pip install -U huggingface_hub[hf_xet]

После установки вы сможете загружать файлы из репозиториев, поддерживающих Xet.​

Доплнительно:
😶 Расширен InferenceClient:
😶 Добавлена поддержка новых провайдеров для инференса: Cerebras и Cohere.
😶 Внедрены асинхронные вызовы для задач инференса (например, text-to-video), что повышает стабильность и удобство работы.
😶 Улучшен CLI
😶 Команда huggingface-cli upload теперь поддерживает wildcards (шаблоны) прямо в пути к файлам (например, huggingface-cli upload my-model *.safetensors вместо опции --include).
😶 Команда huggingface-cli delete-cache получила опцию --sort для сортировки кэшированных репозиториев (например, по размеру: --sort=size).

✔️ Полный список обновлений
✔️Блог
✔️Документация по Xet

@ai_machinelearning_big_data


#huggingface #release #xet
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4612🔥6🥱1🍾1
✔️ OpenRouterAI представила бесплатную модель Quasar Alpha.

OpenRouterAI объявила о предварительном выпуске своей первой мультимодальной модели - Quasar Alpha, с длиной контекста в 1 млн. токенов. Модель оптимизирована для задач программирования, но в то же время подходит для общих NLP-задач.

Модель 55% на бенчмарке aider. Это сопоставимо с o3-mini-medium, последним DeepSeek V3 и старым Sonnet 3.6. Главная фишка - Quasar Alpha работает невероятно быстро.

Quasar Alpha доступна бесплатно, ее анонс вызвал интерес в ИИ-сообществе, где пытаются предположить, какая лаборатория стоит за разработкой этой модели.

Модель называет себя ChatGPT

🟡Quasar Alpha
🟡Попробовать
🟡OpenRouterAI в X (ex-Twitter)
🟡Aider LLM Leaderboards

@ai_machinelearning_big_data


#quasar #chatgpt ? #release
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍49🔥179