🚀 LongCat-Flash-Chat — новая MoE-модель от Meituan
Что это:
LongCat-Flash-Chat — огромная модель на 560B параметров с архитектурой Mixture-of-Experts (MoE).
При этом в работе активируется только 18.6–31.3B параметров (в среднем ~27B), что делает её очень эффективной.
Особенности:
- Дизайн ScMoE (shortcut-connected MoE) позволяет перекрывать вычисления и коммуникации → скорость инференса более 100 токенов/сек.
- Продуманная стратегия масштабирования: стабильное обучение, защита от ошибок данных, репродуцируемость.
- Настроена под агентные задачи: контекст до 128k токенов, multi-stage пост-трейнинг, синтез данных с участием мультиагентов.
Результаты:
Модель показывает конкурентную производительность в понимании текста, академических задачах, программировании и агентных сценариях.
Лицензия и доступ:
- Доступна бесплатно на Hugging Face.
- Лицензия MIT — можно использовать в любых проектах.
https://huggingface.co/meituan-longcat/LongCat-Flash-Chat
Что это:
LongCat-Flash-Chat — огромная модель на 560B параметров с архитектурой Mixture-of-Experts (MoE).
При этом в работе активируется только 18.6–31.3B параметров (в среднем ~27B), что делает её очень эффективной.
Особенности:
- Дизайн ScMoE (shortcut-connected MoE) позволяет перекрывать вычисления и коммуникации → скорость инференса более 100 токенов/сек.
- Продуманная стратегия масштабирования: стабильное обучение, защита от ошибок данных, репродуцируемость.
- Настроена под агентные задачи: контекст до 128k токенов, multi-stage пост-трейнинг, синтез данных с участием мультиагентов.
Результаты:
Модель показывает конкурентную производительность в понимании текста, академических задачах, программировании и агентных сценариях.
Лицензия и доступ:
- Доступна бесплатно на Hugging Face.
- Лицензия MIT — можно использовать в любых проектах.
https://huggingface.co/meituan-longcat/LongCat-Flash-Chat
🔥9❤5👍3
📝 Новое исследование о креативности текста
Учёные показали: тексты, созданные человеком, семантически новее, чем сгенерированные ИИ.
🔎 Как измеряли
Они ввели метрику «semantic novelty» — косинусное расстояние между соседними предложениями.
🧠 Главные выводы
Человеческие тексты стабильно показывают более высокую новизну на разных эмбеддинг-моделях (RoBERTa, DistilBERT, MPNet, MiniLM).
В датасете «human-AI storytelling» вклад людей оказался семантически разнообразнее.
✨ Но есть нюанс
То, что мы называем «галлюцинациями» ИИ, может быть полезным в совместном сторителлинге. Они добавляют неожиданные повороты и помогают удерживать интерес к истории.
👉 Вывод: люди более новаторские, ИИ — более предсказуемый, но вместе они усиливают друг друга.
Подробности
Учёные показали: тексты, созданные человеком, семантически новее, чем сгенерированные ИИ.
🔎 Как измеряли
Они ввели метрику «semantic novelty» — косинусное расстояние между соседними предложениями.
🧠 Главные выводы
Человеческие тексты стабильно показывают более высокую новизну на разных эмбеддинг-моделях (RoBERTa, DistilBERT, MPNet, MiniLM).
В датасете «human-AI storytelling» вклад людей оказался семантически разнообразнее.
✨ Но есть нюанс
То, что мы называем «галлюцинациями» ИИ, может быть полезным в совместном сторителлинге. Они добавляют неожиданные повороты и помогают удерживать интерес к истории.
👉 Вывод: люди более новаторские, ИИ — более предсказуемый, но вместе они усиливают друг друга.
Подробности
❤9🔥5👍4
🚀 Новый тариф GLM Coding Plan для Claude Code!
Теперь работать с GLM-4.5 стало проще и дешевле:
- 💸 Цена снизилась в 7 раз
- ⚡️ В 3 раза больше промптов для задач по коду
🟠 Get started: https://z.ai/subscribe
🟠 Integration guide: https://docs.z.ai/scenario-example/develop-tools/claude
Теперь работать с GLM-4.5 стало проще и дешевле:
- 💸 Цена снизилась в 7 раз
- ⚡️ В 3 раза больше промптов для задач по коду
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4🔥3👍1