🛠️ Fine-tuning GPT-OSS и деплой в FP4
Простое дообучение в MXFP4 часто рушит качество модели.
NVIDIA показала рабочий рецепт: совмещаем fine-tuning с Quantization-Aware Training (QAT), а затем возвращаем модель в 4-битную точность — быстро и без потери качества при инференсе.
🚀 В блоге:
- Пошаговый QAT-гайд с кодом
- Бенчмарки после fine-tune + QAT
- Как NVFP4 на Blackwell даёт ещё больше точности
📖 Полный рецепт в NVIDIA Model Optimizer: https://developer.nvidia.com/blog/fine-tuning-gpt-oss-for-accuracy-and-performance-with-quantization-aware-training/
Простое дообучение в MXFP4 часто рушит качество модели.
NVIDIA показала рабочий рецепт: совмещаем fine-tuning с Quantization-Aware Training (QAT), а затем возвращаем модель в 4-битную точность — быстро и без потери качества при инференсе.
🚀 В блоге:
- Пошаговый QAT-гайд с кодом
- Бенчмарки после fine-tune + QAT
- Как NVFP4 на Blackwell даёт ещё больше точности
📖 Полный рецепт в NVIDIA Model Optimizer: https://developer.nvidia.com/blog/fine-tuning-gpt-oss-for-accuracy-and-performance-with-quantization-aware-training/
❤13🔥4👍3
🚀 LongCat-Flash-Chat — новая MoE-модель от Meituan
Что это:
LongCat-Flash-Chat — огромная модель на 560B параметров с архитектурой Mixture-of-Experts (MoE).
При этом в работе активируется только 18.6–31.3B параметров (в среднем ~27B), что делает её очень эффективной.
Особенности:
- Дизайн ScMoE (shortcut-connected MoE) позволяет перекрывать вычисления и коммуникации → скорость инференса более 100 токенов/сек.
- Продуманная стратегия масштабирования: стабильное обучение, защита от ошибок данных, репродуцируемость.
- Настроена под агентные задачи: контекст до 128k токенов, multi-stage пост-трейнинг, синтез данных с участием мультиагентов.
Результаты:
Модель показывает конкурентную производительность в понимании текста, академических задачах, программировании и агентных сценариях.
Лицензия и доступ:
- Доступна бесплатно на Hugging Face.
- Лицензия MIT — можно использовать в любых проектах.
https://huggingface.co/meituan-longcat/LongCat-Flash-Chat
Что это:
LongCat-Flash-Chat — огромная модель на 560B параметров с архитектурой Mixture-of-Experts (MoE).
При этом в работе активируется только 18.6–31.3B параметров (в среднем ~27B), что делает её очень эффективной.
Особенности:
- Дизайн ScMoE (shortcut-connected MoE) позволяет перекрывать вычисления и коммуникации → скорость инференса более 100 токенов/сек.
- Продуманная стратегия масштабирования: стабильное обучение, защита от ошибок данных, репродуцируемость.
- Настроена под агентные задачи: контекст до 128k токенов, multi-stage пост-трейнинг, синтез данных с участием мультиагентов.
Результаты:
Модель показывает конкурентную производительность в понимании текста, академических задачах, программировании и агентных сценариях.
Лицензия и доступ:
- Доступна бесплатно на Hugging Face.
- Лицензия MIT — можно использовать в любых проектах.
https://huggingface.co/meituan-longcat/LongCat-Flash-Chat
🔥10❤7👍3
📝 Новое исследование о креативности текста
Учёные показали: тексты, созданные человеком, семантически новее, чем сгенерированные ИИ.
🔎 Как измеряли
Они ввели метрику «semantic novelty» — косинусное расстояние между соседними предложениями.
🧠 Главные выводы
Человеческие тексты стабильно показывают более высокую новизну на разных эмбеддинг-моделях (RoBERTa, DistilBERT, MPNet, MiniLM).
В датасете «human-AI storytelling» вклад людей оказался семантически разнообразнее.
✨ Но есть нюанс
То, что мы называем «галлюцинациями» ИИ, может быть полезным в совместном сторителлинге. Они добавляют неожиданные повороты и помогают удерживать интерес к истории.
👉 Вывод: люди более новаторские, ИИ — более предсказуемый, но вместе они усиливают друг друга.
Подробности
Учёные показали: тексты, созданные человеком, семантически новее, чем сгенерированные ИИ.
🔎 Как измеряли
Они ввели метрику «semantic novelty» — косинусное расстояние между соседними предложениями.
🧠 Главные выводы
Человеческие тексты стабильно показывают более высокую новизну на разных эмбеддинг-моделях (RoBERTa, DistilBERT, MPNet, MiniLM).
В датасете «human-AI storytelling» вклад людей оказался семантически разнообразнее.
✨ Но есть нюанс
То, что мы называем «галлюцинациями» ИИ, может быть полезным в совместном сторителлинге. Они добавляют неожиданные повороты и помогают удерживать интерес к истории.
👉 Вывод: люди более новаторские, ИИ — более предсказуемый, но вместе они усиливают друг друга.
Подробности
❤12🔥5👍4
🚀 Новый тариф GLM Coding Plan для Claude Code!
Теперь работать с GLM-4.5 стало проще и дешевле:
- 💸 Цена снизилась в 7 раз
- ⚡️ В 3 раза больше промптов для задач по коду
🟠 Get started: https://z.ai/subscribe
🟠 Integration guide: https://docs.z.ai/scenario-example/develop-tools/claude
Теперь работать с GLM-4.5 стало проще и дешевле:
- 💸 Цена снизилась в 7 раз
- ⚡️ В 3 раза больше промптов для задач по коду
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🔥4👍2
🗣 TaDiCodec — новый токенайзер речи, который умеет экстремально сжимать звук без потери качества.
Что в нём особенного:
- ⚙️ Метод Binary Spherical Quantization (BSQ) — никакого «развала» кодбука
- 🎯 Латенты превращаются в дискретные токены через простую бинаризацию
- 📦 Кодбук на 16,384 токена
- 📉 Супернизкий битрейт: 0.0875 kbps при 24 kHz
- 🌀 Архитектура на diffusion autoencoder — без GAN’ов и сложных костылей
👉 TaDiCodec показывает: можно сжимать аудио в десятки тысяч раз и всё равно сохранять качество речи.
🟠 HF: https://huggingface.co/amphion/TaDiCodec
🟠 Github: https://github.com/HeCheng0625/Diffusion-Speech-Tokenizer
@data_analysis_ml
Что в нём особенного:
- ⚙️ Метод Binary Spherical Quantization (BSQ) — никакого «развала» кодбука
- 🎯 Латенты превращаются в дискретные токены через простую бинаризацию
- 📦 Кодбук на 16,384 токена
- 📉 Супернизкий битрейт: 0.0875 kbps при 24 kHz
- 🌀 Архитектура на diffusion autoencoder — без GAN’ов и сложных костылей
👉 TaDiCodec показывает: можно сжимать аудио в десятки тысяч раз и всё равно сохранять качество речи.
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10❤6👍3
🧠 Новый шаг к мозгу на чипе
Учёные из Stanford, Sandia National Labs и Purdue создали искусственные нейроны, которые могут передавать и электрические, и световые сигналы одновременно — так же, как это делают настоящие клетки мозга.
⚡ В мозге нейроны общаются короткими электрическими импульсами. Большинство нейроморфных чипов копируют только это.
💡 Но на дальние расстояния куда эффективнее работает свет.
🔬 Новые электро-оптические нейроны из диоксида ниобия решают этот разрыв:
— каждый импульс несёт электрический сигнал для локальной обработки
— и синхронный световой импульс, который может передаваться дальше
Это значит, что один искусственный нейрон теперь может и вычислять, и коммуницировать одновременно.
💡 Перспектива: интеграция электрических и оптических функций в одной системе без дорогого оборудования и конвертации сигналов.
Источник: techxplore.com/news/2025-08-scientists-private-ai.html
#AI #Neuroscience #Innovation #Neuromorphic
Учёные из Stanford, Sandia National Labs и Purdue создали искусственные нейроны, которые могут передавать и электрические, и световые сигналы одновременно — так же, как это делают настоящие клетки мозга.
⚡ В мозге нейроны общаются короткими электрическими импульсами. Большинство нейроморфных чипов копируют только это.
💡 Но на дальние расстояния куда эффективнее работает свет.
🔬 Новые электро-оптические нейроны из диоксида ниобия решают этот разрыв:
— каждый импульс несёт электрический сигнал для локальной обработки
— и синхронный световой импульс, который может передаваться дальше
Это значит, что один искусственный нейрон теперь может и вычислять, и коммуницировать одновременно.
💡 Перспектива: интеграция электрических и оптических функций в одной системе без дорогого оборудования и конвертации сигналов.
Источник: techxplore.com/news/2025-08-scientists-private-ai.html
#AI #Neuroscience #Innovation #Neuromorphic
🔥12❤5👍4
🤝 OpenAI покупает стартап Statsig за $1.1 млрд
📌 Что делает Statsig:
Инструменты для A/B-тестов и аналитики → можно сравнивать версии продукта, смотреть поведение пользователей и быстро выкатывать/откатывать изменения.
⚡ Зачем OpenAI:
Теперь они смогут тестировать LLM-фичи (промпты, фильтры, задержки, цену) на реальных данных и управлять обновлениями автоматически.
👥 Основатель Виджай Раджи станет CTO приложений в OpenAI.
💰 Контекст:
- Это одна из крупнейших покупок компании
- В 2025 OpenAI уже привлекла $40 млрд и обсуждает новую сделку, которая может поднять оценку до $500 млрд
- Ранее купили AI-стартап Джони Айва ($6.5 млрд), но сделка с Windsurf ($3 млрд) сорвалась
🔗 theverge.com/openai/769325/openai-statsig-acquisition-executive-moves
@data_analysis_ml
📌 Что делает Statsig:
Инструменты для A/B-тестов и аналитики → можно сравнивать версии продукта, смотреть поведение пользователей и быстро выкатывать/откатывать изменения.
⚡ Зачем OpenAI:
Теперь они смогут тестировать LLM-фичи (промпты, фильтры, задержки, цену) на реальных данных и управлять обновлениями автоматически.
👥 Основатель Виджай Раджи станет CTO приложений в OpenAI.
💰 Контекст:
- Это одна из крупнейших покупок компании
- В 2025 OpenAI уже привлекла $40 млрд и обсуждает новую сделку, которая может поднять оценку до $500 млрд
- Ранее купили AI-стартап Джони Айва ($6.5 млрд), но сделка с Windsurf ($3 млрд) сорвалась
🔗 theverge.com/openai/769325/openai-statsig-acquisition-executive-moves
@data_analysis_ml
❤15👍4🔥3🙏1🌚1
🧠 Как уменьшить галлюцинации в мультимодальных ИИ без экспертов и с минимальными данными
Новая работа про метод TARS показывает:
всего 4.8k примеров предпочтений (без аннотаторов и экспертов) достаточно, чтобы:
🔻 снизить галлюцинации: с 26.4% до 13.2%
🔻 сократить когнитивную “пустоту” ответа: с 2.5 до 0.4
📊 и даже догнать GPT‑4o по нескольким метрикам
💡 В чём суть:
- Большинство моделей цепляются за “частые фразы” и забывают смотреть на изображение
- TARS превращает обучение в игру в перетягивание каната:
- внутренняя фаза перетасовывает незначимые слова (предлоги, вводные)
- внешняя — учит модель сохранять “человеческий ответ”, несмотря на шум
- Только слова с почти нулевой связью с изображением редактируются — зрительная опора не теряется
- Дополнительно: loss на частотных шаблонах помогает модели не залипать в запомненных фразах
📈 Результат:
- +8 пунктов к охвату объектов на изображениях
- когнитивная согласованность резко растёт
- метод масштабируется от 7B до 13B без доп. данных
🎯 Главный вывод:
Модель учится доверять картинке, а не языковым штампам.
📄 Статья: https://arxiv.org/abs/2507.21584
Новая работа про метод TARS показывает:
всего 4.8k примеров предпочтений (без аннотаторов и экспертов) достаточно, чтобы:
🔻 снизить галлюцинации: с 26.4% до 13.2%
🔻 сократить когнитивную “пустоту” ответа: с 2.5 до 0.4
📊 и даже догнать GPT‑4o по нескольким метрикам
💡 В чём суть:
- Большинство моделей цепляются за “частые фразы” и забывают смотреть на изображение
- TARS превращает обучение в игру в перетягивание каната:
- внутренняя фаза перетасовывает незначимые слова (предлоги, вводные)
- внешняя — учит модель сохранять “человеческий ответ”, несмотря на шум
- Только слова с почти нулевой связью с изображением редактируются — зрительная опора не теряется
- Дополнительно: loss на частотных шаблонах помогает модели не залипать в запомненных фразах
📈 Результат:
- +8 пунктов к охвату объектов на изображениях
- когнитивная согласованность резко растёт
- метод масштабируется от 7B до 13B без доп. данных
🎯 Главный вывод:
Модель учится доверять картинке, а не языковым штампам.
📄 Статья: https://arxiv.org/abs/2507.21584
🔥10❤7👏1
Что делать с тонной архивов о природе, накопленных за 50+ лет? Довериться ИИ!
Эксперты ВТБ, Высшая школа менеджмента СПбГУ и АНО «Дальневосточные леопарды» создали настоящего ИИ-учёного с функционалом для обработки и систематизации данных.
Новая разработка создана для национального парка «Земля леопарда». Работы много — он автоматически обрабатывает и безопасно хранит для исследователей, рассказала Ольга Дергунова, руководитель «ВТБ Образование» в рамках ВЭФ-2025.
А в будущем планируется пойти ещё дальше — добавить распознавание аудиозаписей, обработку снимков с фотоловушек, возможность для посетителей заповедников загружать свои фото для научных и образовательных целей. ИИ-инструмент может быть масштабирован на другие заповедные территории России.
Эксперты ВТБ, Высшая школа менеджмента СПбГУ и АНО «Дальневосточные леопарды» создали настоящего ИИ-учёного с функционалом для обработки и систематизации данных.
Новая разработка создана для национального парка «Земля леопарда». Работы много — он автоматически обрабатывает и безопасно хранит для исследователей, рассказала Ольга Дергунова, руководитель «ВТБ Образование» в рамках ВЭФ-2025.
А в будущем планируется пойти ещё дальше — добавить распознавание аудиозаписей, обработку снимков с фотоловушек, возможность для посетителей заповедников загружать свои фото для научных и образовательных целей. ИИ-инструмент может быть масштабирован на другие заповедные территории России.
❤6🔥1🍌1
🛠️ ChatMock: API для OpenAI с использованием вашего ChatGPT аккаунта
ChatMock создает локальный сервер, который позволяет взаимодействовать с моделями OpenAI через ваш аккаунт ChatGPT Plus/Pro. Это решение не требует API ключа и поддерживает работу с GPT-5 и другими моделями, обеспечивая гибкость в использовании.
🚀 Основные моменты:
- Локальный сервер для OpenAI/Ollama API.
- Использует ваш ChatGPT аккаунт для аутентификации.
- Поддержка моделей GPT-5 и Codex.
- Настраиваемые параметры для "умственного усилия" и "резюме мышления".
- Необходима платная подписка на ChatGPT.
📌 GitHub: https://github.com/RayBytes/ChatMock
ChatMock создает локальный сервер, который позволяет взаимодействовать с моделями OpenAI через ваш аккаунт ChatGPT Plus/Pro. Это решение не требует API ключа и поддерживает работу с GPT-5 и другими моделями, обеспечивая гибкость в использовании.
🚀 Основные моменты:
- Локальный сервер для OpenAI/Ollama API.
- Использует ваш ChatGPT аккаунт для аутентификации.
- Поддержка моделей GPT-5 и Codex.
- Настраиваемые параметры для "умственного усилия" и "резюме мышления".
- Необходима платная подписка на ChatGPT.
📌 GitHub: https://github.com/RayBytes/ChatMock
GitHub
GitHub - RayBytes/ChatMock: Access OpenAI models programmatically through your ChatGPT subscription.
Access OpenAI models programmatically through your ChatGPT subscription. - RayBytes/ChatMock
👍8❤5🔥4🥴1
Анализ данных (Data analysis)
🛠️ ChatMock: API для OpenAI с использованием вашего ChatGPT аккаунта ChatMock создает локальный сервер, который позволяет взаимодействовать с моделями OpenAI через ваш аккаунт ChatGPT Plus/Pro. Это решение не требует API ключа и поддерживает работу с GPT…
Parlant помогает задавать агенту чёткое поведение: сценарии шагов (Journeys), правила тона и политики, подключение инструментов (API, БД, поиски), готовые ответы и объяснимость действий.
pip install parlant
Github: https://github.com/emcie-co/parlant
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9❤5🔥4