Анализ данных (Data analysis)
46.4K subscribers
2.41K photos
279 videos
1 file
2.1K links
Data science, наука о данных.

@haarrp - админ

@itchannels_telegram - 🔥 главное в ит

@ai_machinelearning_big_data - ML

@machinelearning_interview - вопросы с собесдований по Ml

РКН: clck.ru/3FmyAp
Download Telegram
🛠️ Fine-tuning GPT-OSS и деплой в FP4

Простое дообучение в MXFP4 часто рушит качество модели.

NVIDIA показала рабочий рецепт: совмещаем fine-tuning с Quantization-Aware Training (QAT), а затем возвращаем модель в 4-битную точность — быстро и без потери качества при инференсе.

🚀 В блоге:
- Пошаговый QAT-гайд с кодом
- Бенчмарки после fine-tune + QAT
- Как NVFP4 на Blackwell даёт ещё больше точности

📖 Полный рецепт в NVIDIA Model Optimizer: https://developer.nvidia.com/blog/fine-tuning-gpt-oss-for-accuracy-and-performance-with-quantization-aware-training/
13🔥4👍3
🚀 LongCat-Flash-Chat — новая MoE-модель от Meituan

Что это:
LongCat-Flash-Chat — огромная модель на 560B параметров с архитектурой Mixture-of-Experts (MoE).

При этом в работе активируется только 18.6–31.3B параметров (в среднем ~27B), что делает её очень эффективной.

Особенности:
- Дизайн ScMoE (shortcut-connected MoE) позволяет перекрывать вычисления и коммуникации → скорость инференса более 100 токенов/сек.
- Продуманная стратегия масштабирования: стабильное обучение, защита от ошибок данных, репродуцируемость.
- Настроена под агентные задачи: контекст до 128k токенов, multi-stage пост-трейнинг, синтез данных с участием мультиагентов.

Результаты:
Модель показывает конкурентную производительность в понимании текста, академических задачах, программировании и агентных сценариях.

Лицензия и доступ:
- Доступна бесплатно на Hugging Face.
- Лицензия MIT — можно использовать в любых проектах.


https://huggingface.co/meituan-longcat/LongCat-Flash-Chat
🔥107👍3
📝 Новое исследование о креативности текста

Учёные показали: тексты, созданные человеком, семантически новее, чем сгенерированные ИИ.

🔎 Как измеряли
Они ввели метрику «semantic novelty» — косинусное расстояние между соседними предложениями.

🧠 Главные выводы

Человеческие тексты стабильно показывают более высокую новизну на разных эмбеддинг-моделях (RoBERTa, DistilBERT, MPNet, MiniLM).

В датасете «human-AI storytelling» вклад людей оказался семантически разнообразнее.

Но есть нюанс
То, что мы называем «галлюцинациями» ИИ, может быть полезным в совместном сторителлинге. Они добавляют неожиданные повороты и помогают удерживать интерес к истории.

👉 Вывод: люди более новаторские, ИИ — более предсказуемый, но вместе они усиливают друг друга.

Подробности
12🔥5👍4
🚀 Новый тариф GLM Coding Plan для Claude Code!

Теперь работать с GLM-4.5 стало проще и дешевле:

- 💸 Цена снизилась в 7 раз
- ⚡️ В 3 раза больше промптов для задач по коду

🟠Get started: https://z.ai/subscribe
🟠Integration guide: https://docs.z.ai/scenario-example/develop-tools/claude
Please open Telegram to view this post
VIEW IN TELEGRAM
5🔥4👍2
🗣 TaDiCodec — новый токенайзер речи, который умеет экстремально сжимать звук без потери качества.

Что в нём особенного:
- ⚙️ Метод Binary Spherical Quantization (BSQ) — никакого «развала» кодбука
- 🎯 Латенты превращаются в дискретные токены через простую бинаризацию
- 📦 Кодбук на 16,384 токена
- 📉 Супернизкий битрейт: 0.0875 kbps при 24 kHz
- 🌀 Архитектура на diffusion autoencoder — без GAN’ов и сложных костылей

👉 TaDiCodec показывает: можно сжимать аудио в десятки тысяч раз и всё равно сохранять качество речи.

🟠HF: https://huggingface.co/amphion/TaDiCodec
🟠Github: https://github.com/HeCheng0625/Diffusion-Speech-Tokenizer

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥106👍3
Модели с контекстным окном в 1 миллион токенов после 200 тыс. токенов

@data_analysis_ml
😁367👍4🔥3💯1
🧠 Новый шаг к мозгу на чипе

Учёные из Stanford, Sandia National Labs и Purdue создали искусственные нейроны, которые могут передавать и электрические, и световые сигналы одновременно — так же, как это делают настоящие клетки мозга.

В мозге нейроны общаются короткими электрическими импульсами. Большинство нейроморфных чипов копируют только это.
💡 Но на дальние расстояния куда эффективнее работает свет.

🔬 Новые электро-оптические нейроны из диоксида ниобия решают этот разрыв:
— каждый импульс несёт электрический сигнал для локальной обработки
— и синхронный световой импульс, который может передаваться дальше

Это значит, что один искусственный нейрон теперь может и вычислять, и коммуницировать одновременно.

💡 Перспектива: интеграция электрических и оптических функций в одной системе без дорогого оборудования и конвертации сигналов.

Источник: techxplore.com/news/2025-08-scientists-private-ai.html

#AI #Neuroscience #Innovation #Neuromorphic
🔥125👍4
🤝 OpenAI покупает стартап Statsig за $1.1 млрд

📌 Что делает Statsig:
Инструменты для A/B-тестов и аналитики → можно сравнивать версии продукта, смотреть поведение пользователей и быстро выкатывать/откатывать изменения.

Зачем OpenAI:
Теперь они смогут тестировать LLM-фичи (промпты, фильтры, задержки, цену) на реальных данных и управлять обновлениями автоматически.

👥 Основатель Виджай Раджи станет CTO приложений в OpenAI.

💰 Контекст:
- Это одна из крупнейших покупок компании
- В 2025 OpenAI уже привлекла $40 млрд и обсуждает новую сделку, которая может поднять оценку до $500 млрд
- Ранее купили AI-стартап Джони Айва ($6.5 млрд), но сделка с Windsurf ($3 млрд) сорвалась

🔗 theverge.com/openai/769325/openai-statsig-acquisition-executive-moves

@data_analysis_ml
15👍4🔥3🙏1🌚1
🧠 Как уменьшить галлюцинации в мультимодальных ИИ без экспертов и с минимальными данными

Новая работа про метод TARS показывает:
всего 4.8k примеров предпочтений (без аннотаторов и экспертов) достаточно, чтобы:

🔻 снизить галлюцинации: с 26.4% до 13.2%
🔻 сократить когнитивную “пустоту” ответа: с 2.5 до 0.4
📊 и даже догнать GPT‑4o по нескольким метрикам

💡 В чём суть:
- Большинство моделей цепляются за “частые фразы” и забывают смотреть на изображение
- TARS превращает обучение в игру в перетягивание каната:
- внутренняя фаза перетасовывает незначимые слова (предлоги, вводные)
- внешняя — учит модель сохранять “человеческий ответ”, несмотря на шум
- Только слова с почти нулевой связью с изображением редактируются — зрительная опора не теряется
- Дополнительно: loss на частотных шаблонах помогает модели не залипать в запомненных фразах

📈 Результат:
- +8 пунктов к охвату объектов на изображениях
- когнитивная согласованность резко растёт
- метод масштабируется от 7B до 13B без доп. данных

🎯 Главный вывод:
Модель учится доверять картинке, а не языковым штампам.

📄 Статья: https://arxiv.org/abs/2507.21584
🔥107👏1
Что делать с тонной архивов о природе, накопленных за 50+ лет? Довериться ИИ!

Эксперты ВТБ, Высшая школа менеджмента СПбГУ и АНО «Дальневосточные леопарды» создали настоящего ИИ-учёного с функционалом для обработки и систематизации данных.

Новая разработка создана для национального парка «Земля леопарда». Работы много — он автоматически обрабатывает и безопасно хранит для исследователей, рассказала Ольга Дергунова, руководитель «ВТБ Образование» в рамках ВЭФ-2025.

А в будущем планируется пойти ещё дальше — добавить распознавание аудиозаписей, обработку снимков с фотоловушек, возможность для посетителей заповедников загружать свои фото для научных и образовательных целей. ИИ-инструмент может быть масштабирован на другие заповедные территории России.
6🔥1🍌1
🛠️ ChatMock: API для OpenAI с использованием вашего ChatGPT аккаунта

ChatMock создает локальный сервер, который позволяет взаимодействовать с моделями OpenAI через ваш аккаунт ChatGPT Plus/Pro. Это решение не требует API ключа и поддерживает работу с GPT-5 и другими моделями, обеспечивая гибкость в использовании.

🚀 Основные моменты:
- Локальный сервер для OpenAI/Ollama API.
- Использует ваш ChatGPT аккаунт для аутентификации.
- Поддержка моделей GPT-5 и Codex.
- Настраиваемые параметры для "умственного усилия" и "резюме мышления".
- Необходима платная подписка на ChatGPT.

📌 GitHub: https://github.com/RayBytes/ChatMock
👍85🔥4🥴1
Анализ данных (Data analysis)
🛠️ ChatMock: API для OpenAI с использованием вашего ChatGPT аккаунта ChatMock создает локальный сервер, который позволяет взаимодействовать с моделями OpenAI через ваш аккаунт ChatGPT Plus/Pro. Это решение не требует API ключа и поддерживает работу с GPT…
🤖 Parlant — простой фреймворк для разработки LLM-агентов

Parlant помогает задавать агенту чёткое поведение: сценарии шагов (Journeys), правила тона и политики, подключение инструментов (API, БД, поиски), готовые ответы и объяснимость действий.


pip install parlant


Github: https://github.com/emcie-co/parlant
Please open Telegram to view this post
VIEW IN TELEGRAM
👍95🔥4