Neural Networks | Нейронные сети
11.6K subscribers
737 photos
161 videos
170 files
9.4K links
Все о машинном обучении

По всем вопросам - @notxxx1

№ 4959169263
Download Telegram
🚀 MixGRPO от Tencent — теперь в открытом доступе! Новый подход к обучению моделей по человеческим предпочтениям

🔧 Что нового и крутого:

1⃣ Первый фреймворк с гибридным семплированием ODE+SDE — меньше шагов, меньше вычислений
2⃣ До 71% быстрее обучения (вариант MixGRPO‑Flash), при этом точнее и эффективнее, чем DanceGRPO
3⃣ Поддержка ускоренных ODE-решателей — ещё выше скорость без потери качества
4⃣ Работает как с диффузионными, так и с flow-based моделями — требует всего несколько итераций

🔗 Проект: https://tulvgengenr.github.io/MixGRPO-Project-Page/
📦 Код и модели: https://github.com/Tencent-Hunyuan/MixGRPO
📄 Статья: https://arxiv.org/abs/2507.21802

@neural
🚨 ANTHROPIC ОТКЛЮЧИЛА OPENAI ОТ ДОСТУПА К CLAUDE

> Anthropic отозвала доступ OpenAI к API своих моделей Claude
> Заявление: “Технические сотрудники OpenAI использовали наши инструменты для программирования перед запуском GPT-5”
> “К сожалению, это прямое нарушение условий использования”

🔥 Кажется, война ИИ-компаний вышла на новый уровень.

@data_analysis_ml

#GPT5 #openai #ANTHROPIC
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Похоже, что GPT‑5 выйдет четверг
Просто парад релизов)
This media is not supported in your browser
VIEW IN TELEGRAM
⚠️ Мы в матрице - официально

Идеальная рекурсия достигнута с Google Genie 3.

🎬 ИИ, который создаёт миры… где сам себя воссоздаёт.

👉 Посмотри это видео до конца — ты офигеешь.
🎓 Студенты из Harvard и MIT массово бросают учёбу — и уходят в AI‑safety.

Причина? Страх перед будущим с суперразумным ИИ. Многие верят, что технология может вызвать массовую безработицу (до 20%) и уже сейчас ищут способы повлиять на вектор её развития.

> “Если твою карьеру автоматизируют к концу десятилетия, каждый год в колледже — это минус один год из короткой карьеры”,
— говорит Никола Юркович, выпускник Гарварда и лидер инициативы по подготовке к AGI.

Многие создают стартапы или идут работать в компании, занимающиеся безопасностью ИИ — пока ещё не стало поздно.

Источник
Forwarded from Machinelearning
⚡️ GGUF-версии GPT-OSS от Unsloth.

Unsloth конвертировали обе GPT-OSS (20B и 120B) и исправили ошибки, чтобы повысить качество инференса.

🟡Оптимальный сетап:

🟢20B работает со скоростью более 10 токенов/с при полной точности на 14 ГБ оперативной памяти.

🟢120B с полной точностью будет давать >40 токенов/с на примерно 64 ГБ ОЗУ.

Минимальных требований для запуска моделей нет, запуститься можно даже если у вас всего 6 ГБ и только CPU, но инференс будет медленнее.

GPU не требуется , особенно для модели 20B, но его наличие значительно увеличивает скорость вывода (~80 токенов/с). С чем-то вроде H100 можно получить пропускную способность 140 токенов/с, и это значительно быстрее, чем у OpenAI в ChatGPT.

Модели можно запустить через llama.cpp, LM Studio или Open WebUI. Если модель 120B слишком медленная, попробуйте версию 20B - она очень быстрая и работает не хуже o3-mini.

Помимо моделей формата GGUF c полной точностью, Unsloth сделали версии с 4-bit и 16-bit точностью. 4-бинтый квант, кстати, можно файнтюнить на 24 ГБ VRAM.

📌 Подробная пошаговая инструкция по локальному запуску и файнтюну - в документации Unsloth.


🟡Набор моделей
🟡Документация


@ai_machinelearning_big_data

#AI #ML #GPTOSS #GGUF #Unsloth
Please open Telegram to view this post
VIEW IN TELEGRAM