Forwarded from Machinelearning
🔥 представлен ChatGPT-5
Модель выглядит очень круто, особенно в кодинге! На aime-2025 получила 100 процентов!
Альтман заявляет, что модель дадут даже бесплатным пользователям и прямо сегодня.
https://openai.com/index/introducing-gpt-5/
Стрим, кстати, смотрят 155 к человек: https://www.youtube.com/watch?v=0Uu_VJeVVfo
Пробуем: https://chatgpt.com/
@ai_machinelearning_big_data
#Chatgpt5
Модель выглядит очень круто, особенно в кодинге! На aime-2025 получила 100 процентов!
Альтман заявляет, что модель дадут даже бесплатным пользователям и прямо сегодня.
https://openai.com/index/introducing-gpt-5/
Стрим, кстати, смотрят 155 к человек: https://www.youtube.com/watch?v=0Uu_VJeVVfo
Пробуем: https://chatgpt.com/
@ai_machinelearning_big_data
#Chatgpt5
👍19❤4🥰4👨💻1
🤖 Вот сравнение GPT‑5 и Grok 4:
На бенчмарке *Humanity’s Last Exam* модель GPT‑5 с тулзами показывает результат между Grok 4 и Grok 4 Heavy.
Другими словами, GPT‑5 с тузами обходит обычную Grok 4, но всё ещё уступает Grok 4 Heavy.
Интересно, как они покажут себя на других бенчмарках
На бенчмарке *Humanity’s Last Exam* модель GPT‑5 с тулзами показывает результат между Grok 4 и Grok 4 Heavy.
Другими словами, GPT‑5 с тузами обходит обычную Grok 4, но всё ещё уступает Grok 4 Heavy.
Интересно, как они покажут себя на других бенчмарках
👍30❤7🔥6
🚀 Qwen3-30B-A3B-2507 и Qwen3-235B-A22B-2507 теперь поддерживают контекст до 1 млн токенов!
🔧 Технологии под капотом:
• Dual Chunk Attention (DCA) — метод экстраполяции длины, который делит длинные последовательности на управляемые блоки, сохраняя глобальную связность.
• MInference — разреженное внимание, уменьшающее вычислительные затраты за счёт фокуса на ключевых токенах.
💡 Что это даёт:
- Более высокая точность генерации на длинных контекстах
- До 3× быстрее инференс на последовательностях, близких к 1M токенов
- ✅ Полная совместимость с vLLM и SGLang для эффективного развёртывания
📄 Подробности и включение функции — в карточках моделей:
https://huggingface.co/Qwen/Qwen3-235B-A22B-Instruct-2507
https://huggingface.co/Qwen/Qwen3-235B-A22B-Thinking-2507
https://huggingface.co/Qwen/Qwen3-30B-A3B-Instruct-2507
https://huggingface.co/Qwen/Qwen3-30B-A3B-Thinking-2507
https://modelscope.cn/models/Qwen/Qwen3-235B-A22B-Instruct-2507
https://modelscope.cn/models/Qwen/Qwen3-235B-A22B-Thinking-2507
https://modelscope.cn/models/Qwen/Qwen3-30B-A3B-Instruct-2507
https://modelscope.cn/models/Qwen/Qwen3-30B-A3B-Thinking-2507
#Qwen #LLM #AI #LongContext
🔧 Технологии под капотом:
• Dual Chunk Attention (DCA) — метод экстраполяции длины, который делит длинные последовательности на управляемые блоки, сохраняя глобальную связность.
• MInference — разреженное внимание, уменьшающее вычислительные затраты за счёт фокуса на ключевых токенах.
💡 Что это даёт:
- Более высокая точность генерации на длинных контекстах
- До 3× быстрее инференс на последовательностях, близких к 1M токенов
- ✅ Полная совместимость с vLLM и SGLang для эффективного развёртывания
📄 Подробности и включение функции — в карточках моделей:
https://huggingface.co/Qwen/Qwen3-235B-A22B-Instruct-2507
https://huggingface.co/Qwen/Qwen3-235B-A22B-Thinking-2507
https://huggingface.co/Qwen/Qwen3-30B-A3B-Instruct-2507
https://huggingface.co/Qwen/Qwen3-30B-A3B-Thinking-2507
https://modelscope.cn/models/Qwen/Qwen3-235B-A22B-Instruct-2507
https://modelscope.cn/models/Qwen/Qwen3-235B-A22B-Thinking-2507
https://modelscope.cn/models/Qwen/Qwen3-30B-A3B-Instruct-2507
https://modelscope.cn/models/Qwen/Qwen3-30B-A3B-Thinking-2507
#Qwen #LLM #AI #LongContext
❤15👍8🔥4👨💻1
🧠 SmallThinker — новая серия LLM, нативно обученная для локального запуска
SmallThinker — это семейство языковых моделей, созданное с нуля для запуска на обычных устройствах:
📉 низкая память, 🐌 медленное хранилище, ❌ без GPU — и всё это без потери качества.
🔧 Технологии под капотом:
• Двухуровневая разреженность: MoE + sparse ReGLU (>60% нейронов неактивны)
• Pre-attention router: предсказание нужных экспертов заранее → читаем с SSD параллельно
• NoPE-RoPE гибрид: 1:3 глобальное:локальное внимание → KV-кэш в 4 раза меньше
• Кэширование и оффлоадинг экспертов → экономим CPU и дисковый ввод
• Sparse LM head: предсказываем подмножество словаря, не нужен полный софтмакс
• Чекпойнт-мёрджинг: баланс между универсальностью и инструкционной точностью
⚙️ Производительность (CPU-only, Q4_0):
• 🪶 4B-A0.6B (1 ГБ ОЗУ): 82.3% HumanEval, 66.1% MMLU, 108 ток/с
• 🚀 21B-A3B (8 ГБ ОЗУ): 89.6% HumanEval, 84.4% MMLU — на уровне Qwen3‑30B, но с 85× меньшим потреблением памяти
🏃♂️ Работает на CPU, ARM, Raspberry Pi — 20–108 токенов/сек.
📦 Полностью open-source. Готово к локальному использованию без компромиссов.
#LLM #SmallThinker #AI #LocalLLM #OpenSource
HF: https://huggingface.co/PowerInfer
PAPER: https://arxiv.org/abs/2507.20984
SmallThinker — это семейство языковых моделей, созданное с нуля для запуска на обычных устройствах:
📉 низкая память, 🐌 медленное хранилище, ❌ без GPU — и всё это без потери качества.
🔧 Технологии под капотом:
• Двухуровневая разреженность: MoE + sparse ReGLU (>60% нейронов неактивны)
• Pre-attention router: предсказание нужных экспертов заранее → читаем с SSD параллельно
• NoPE-RoPE гибрид: 1:3 глобальное:локальное внимание → KV-кэш в 4 раза меньше
• Кэширование и оффлоадинг экспертов → экономим CPU и дисковый ввод
• Sparse LM head: предсказываем подмножество словаря, не нужен полный софтмакс
• Чекпойнт-мёрджинг: баланс между универсальностью и инструкционной точностью
⚙️ Производительность (CPU-only, Q4_0):
• 🪶 4B-A0.6B (1 ГБ ОЗУ): 82.3% HumanEval, 66.1% MMLU, 108 ток/с
• 🚀 21B-A3B (8 ГБ ОЗУ): 89.6% HumanEval, 84.4% MMLU — на уровне Qwen3‑30B, но с 85× меньшим потреблением памяти
🏃♂️ Работает на CPU, ARM, Raspberry Pi — 20–108 токенов/сек.
📦 Полностью open-source. Готово к локальному использованию без компромиссов.
#LLM #SmallThinker #AI #LocalLLM #OpenSource
HF: https://huggingface.co/PowerInfer
PAPER: https://arxiv.org/abs/2507.20984
🔥22👍13🥰9❤3👨💻1
🧠 R-Zero: самообучающийся LLM для развития навыков рассуждения без исходных данных
💡 Идея
Большинство современных моделей рассуждения (reasoning LLM) зависят от огромных объёмов размеченных человеком данных и задач. Это тормозит развитие ИИ за пределы человеческого уровня, потому что сбор таких датасетов дорог и ограничен.
R-Zero предлагает иной путь — полностью автономное обучение с нуля, без единой готовой задачи или метки.
🔧 Как это работает
1. Берётся одна базовая LLM.
2. Создаются две её копии с разными ролями:
- Challenger (Испытатель) — придумывает задачи на грани возможностей модели.
- Solver (Решатель) — пытается их решить.
3. Каждая роль обучается отдельно:
- Испытатель получает награду за сложность и новизну задач.
- Решатель получает награду за успешное решение.
4. Этот цикл формирует саморазвивающуюся учебную программу — задачи постепенно усложняются, и обе модели эволюционируют.
📈 Результаты
- Улучшение математического рассуждения: +6.49 балла на бенчмарках.
- Рост общего уровня рассуждения: +7.54 балла.
- Работает на разных архитектурах, например, Qwen3-4B-Base заметно усилился после обучения через R-Zero.
🚀 Почему это важно
- Полная независимость от размеченных датасетов.
- Автоматическая генерация и усложнение задач.
- Масштабируемый путь к моделям, которые учатся быстрее и шире, чем позволяют человеческие данные.
- Может ускорить прогресс в ИИ-системах, приближая их к супер-интеллекту.
🔮 Потенциал
- Обучение специализированных reasoning-моделей для науки, инженерии, медицины.
- Быстрая адаптация ИИ под новые, ранее не встречавшиеся задачи.
- Возможность самообучения в симуляциях без внешних инструкций.
🟢 Github
🟢 Paper
💡 Идея
Большинство современных моделей рассуждения (reasoning LLM) зависят от огромных объёмов размеченных человеком данных и задач. Это тормозит развитие ИИ за пределы человеческого уровня, потому что сбор таких датасетов дорог и ограничен.
R-Zero предлагает иной путь — полностью автономное обучение с нуля, без единой готовой задачи или метки.
🔧 Как это работает
1. Берётся одна базовая LLM.
2. Создаются две её копии с разными ролями:
- Challenger (Испытатель) — придумывает задачи на грани возможностей модели.
- Solver (Решатель) — пытается их решить.
3. Каждая роль обучается отдельно:
- Испытатель получает награду за сложность и новизну задач.
- Решатель получает награду за успешное решение.
4. Этот цикл формирует саморазвивающуюся учебную программу — задачи постепенно усложняются, и обе модели эволюционируют.
📈 Результаты
- Улучшение математического рассуждения: +6.49 балла на бенчмарках.
- Рост общего уровня рассуждения: +7.54 балла.
- Работает на разных архитектурах, например, Qwen3-4B-Base заметно усилился после обучения через R-Zero.
🚀 Почему это важно
- Полная независимость от размеченных датасетов.
- Автоматическая генерация и усложнение задач.
- Масштабируемый путь к моделям, которые учатся быстрее и шире, чем позволяют человеческие данные.
- Может ускорить прогресс в ИИ-системах, приближая их к супер-интеллекту.
🔮 Потенциал
- Обучение специализированных reasoning-моделей для науки, инженерии, медицины.
- Быстрая адаптация ИИ под новые, ранее не встречавшиеся задачи.
- Возможность самообучения в симуляциях без внешних инструкций.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤22👍14🔥7👨💻1
🎨 X-Omni от Tencent: прорыв в text-to-image генерации. Новая модель X-Omni демонстрирует, как reinforcement learning может вывести авторегрессионные text-to-image системы на новый уровень. В основе — гибридная архитектура: SigLIP-VQ токенизирует изображения, Qwen2.5-7B обрабатывает мультимодальные данные, а диффузионный декодер FLUX.1-dev завершает рендеринг.
Интерес вызывает комплексная reward-система, оценивающая результат по эстетике, семантике и читаемости текста. На тестах модель превзошла GPT-4o в рендеринге надписей, особенно для китайского языка. При этом X-Omni стабильно работает без CFG, что выделяет её среди аналогов.
🔗 Ссылка - *клик*
Интерес вызывает комплексная reward-система, оценивающая результат по эстетике, семантике и читаемости текста. На тестах модель превзошла GPT-4o в рендеринге надписей, особенно для китайского языка. При этом X-Omni стабильно работает без CFG, что выделяет её среди аналогов.
🔗 Ссылка - *клик*
👍17🔥7❤4🥱2👨💻1
🍏 Apple выпустила мощный open-source инструмент для визуализации эмбеддингов — Embedding Atlas.
Идеально подходит для работы с большими наборами текста и метаданных.
Что он умеет:
✅ Мгновенный поиск
✅ Отрисовка миллионов точек в реальном времени
✅ Автоматическая кластеризация с подписями
✅ UMAP-проекции
✅ Фасетный поиск по метаданным (например, "страна vs. цена")
✅ Подсказки и ховеры по точкам
✅ Интерактивные фильтры, гистограммы, оверлеи кластеров
✅ Связанные scatterplot + таблицы
Под капотом:
• WebGPU (с WebGL-фолбэком) для быстрой отрисовки
• Поиск по смысловому сходству в эмбеддингах
• Kernel density contours для поиска кластеров и выбросов
Пример Apple: визуализация ~200K отзывов о вине с метаданными (цена, страна, заметки о вкусе) — всё летает прямо в браузере, без допкода.
Загружаешь
Это как Tableau для LLM-разработчиков: оптимизировано под текст, чат и современные датасеты.
Отлично подойдёт для RAG-оценок, тюнинга поиска, объяснения кластеров и аудита данных.
📌 Github
Идеально подходит для работы с большими наборами текста и метаданных.
Что он умеет:
✅ Мгновенный поиск
✅ Отрисовка миллионов точек в реальном времени
✅ Автоматическая кластеризация с подписями
✅ UMAP-проекции
✅ Фасетный поиск по метаданным (например, "страна vs. цена")
✅ Подсказки и ховеры по точкам
✅ Интерактивные фильтры, гистограммы, оверлеи кластеров
✅ Связанные scatterplot + таблицы
Под капотом:
• WebGPU (с WebGL-фолбэком) для быстрой отрисовки
• Поиск по смысловому сходству в эмбеддингах
• Kernel density contours для поиска кластеров и выбросов
Пример Apple: визуализация ~200K отзывов о вине с метаданными (цена, страна, заметки о вкусе) — всё летает прямо в браузере, без допкода.
Загружаешь
.jsonl
или .csv
с текстом, векторами и метаданными — инструмент сам делает кластеризацию, разметку и строит UI.Это как Tableau для LLM-разработчиков: оптимизировано под текст, чат и современные датасеты.
Отлично подойдёт для RAG-оценок, тюнинга поиска, объяснения кластеров и аудита данных.
📌 Github
🔥32❤10🥰7👨💻1
🔥 БЕСПЛАТНЫЙ КУРС ПО СОЗДАНИЮ НЕЙРО-СОТРУДНИКОВ НА GPT И ДРУГИХ LLM 🔥
Ищете практический и углубленный курс, чтобы освоить создание нейро-сотрудников? Мы создали курс из 5 объемных занятий. Это именно то, что нужно, чтобы прокачать свои навыки абсолютно бесплатно!
📌 Темы занятий:
1. Введение в мир нейро-сотрудников
2. Как работают LLM и их аналоги
3. Создание базы знаний для нейро-сотрудника (RAG)
4. Тестирование и отладка нейро-сотрудников
5. Интеграция нейро-сотрудников в Production
Вот 5 тем курса - он максимально простой и доступный, общеобразовательный, без какого-либо сложного программирования 📚Прохождение этого курса, скорее всего, займет у вас от 1 до 3 часов
🤖 Присоединяйтесь к нашему бесплатному курсу и разберитесь в этой увлекательной теме с нами!
Ищете практический и углубленный курс, чтобы освоить создание нейро-сотрудников? Мы создали курс из 5 объемных занятий. Это именно то, что нужно, чтобы прокачать свои навыки абсолютно бесплатно!
📌 Темы занятий:
1. Введение в мир нейро-сотрудников
2. Как работают LLM и их аналоги
3. Создание базы знаний для нейро-сотрудника (RAG)
4. Тестирование и отладка нейро-сотрудников
5. Интеграция нейро-сотрудников в Production
Вот 5 тем курса - он максимально простой и доступный, общеобразовательный, без какого-либо сложного программирования 📚Прохождение этого курса, скорее всего, займет у вас от 1 до 3 часов
🤖 Присоединяйтесь к нашему бесплатному курсу и разберитесь в этой увлекательной теме с нами!
❤10😁7👍4🤔1👨💻1
🎨 Dreambooth-Stable-Diffusion — инструмент для тонкой настройки Stable Diffusion под конкретные объекты или стили. Позволяет обучить модель на ваших фотографиях, артах или предметах, чтобы затем генерировать их в разных контекстах.
Проект поддерживает работу на облачных сервисах и локальных машинах, включая Windows. Особенно полезен для цифровых художников и кинематографистов, которые хотят интегрировать собственные элементы в генерацию изображений.
🤖 GitHub
@machinelearning_interview
Проект поддерживает работу на облачных сервисах и локальных машинах, включая Windows. Особенно полезен для цифровых художников и кинематографистов, которые хотят интегрировать собственные элементы в генерацию изображений.
🤖 GitHub
@machinelearning_interview
🤔8🔥4👨💻1