Технозаметки Малышева
5.58K subscribers
2.79K photos
936 videos
38 files
3.07K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
Алгоритм искусственной пчелиной колонии в оптимизации

Искусственная пчелиная колония (ABC) является метаэвристическим алгоритмом, ищущим решения числовых оптимизационных задач.
Алгоритм моделирует поиск пищи настоящими пчелами с разделением на работающих, безработных пчел-сборщиц и источники пищи.
Особое внимание в ABC уделяется обмену информацией между взаимодействующими агентами, имитирующими социальное поведение насекомых.
Эволюционные механизмы алгоритма позволяют эффективно находить глобальные оптимумы.
Применение ABC охватывает рекомендательные системы, оптимизацию энергосетей, калибровку камер, поиск и сегментацию изображений.

Методы ABC активно покоряют разные области, демонстрируя, что природные алгоритмы могут революционизировать IT-сферу.

#ABC #оптимизация #алгоритм
🧠 Впихнуть невпихуемое, решить не решаемое - Новый фреймворк MIT заставил LLM решать "нерешаемые" задачи планирования

Исследователи из MIT создали очень интересный подход - LLMFP (LLM-Based Formalized Programming). Это решение покрывает одну из главных проблем современных LLM: они слабо справляются со сложными задачами планирования.

Суть проблемы в том, что даже GPT-4o и Claude 3.5 не могут сами по себе вырабатывать оптимальные решения для задач с множеством ограничений или многошаговым планированием.

Как это работает:

Вместо бесполезных попыток заставить LLM напрямую решать такие задачи, фреймворк использует языковую модель для формализации задачи, преобразуя её в задачу оптимизации:

1. Definer: определяет цель, переменные решения и ограничения
2. Formulator: создаёт JSON-представление всех переменных
3. Code Generator: пишет код для использования решателя SMT
4. Result Formatter: форматирует результат в понятном виде
5. Self Assessment: проверяет каждый шаг и исправляет ошибки

Фреймворк не требует специфических примеров для каждой задачи. Показал успех 83-87% на 9 разных задачах планирования.
При этом базовые методы едва дотягивают до 40%.

Практические применения в бизнесе:

- Оптимизация цепочек поставок (кейс с кофе из статьи)
- Планирование персонала и рабочих смен
- Управление производственными мощностями
- Распределение задач между роботами в автоматизированных средах

Классический кейс "делай то, в чем ты хорош". LLM понимают язык, решатели SMT решают структурированные задачи. Вместе они становятся намного сильнее.

Что это значит для нас?
Теперь можно не возиться с математическими моделями оптимизации, а просто описать задачу на человеческом языке - и получить оптимизированное решение, созданное LLM.

paper

#Оптимизация #MIT
———
@tsingular
🔥15👍81
🚀 Unsloth Dynamic v2.0: Революция в квантизации языковых моделей

Команда Unsloth представила важное обновление своего метода квантизации - Dynamic v2.0, который устанавливает новые стандарты производительности для сжатых LLM-моделей.

💡 Техническая суть обновления

• Интеллектуальная послойная квантизация: Вместо избирательной модификации определенных слоев, Dynamic 2.0 динамически адаптирует тип квантизации для каждого возможного слоя, причем комбинации различаются в зависимости от слоя и архитектуры модели

• Улучшенный калибровочный датасет: От 300K до 1.5M токенов высококачественных, вручную отобранных данных для оптимизации разговорной производительности

• Расширенная совместимость: Теперь работает со всеми архитектурами, включая MoE (раньше оптимально работал только с DeepSeek-R1)

• Модельно-специфичная оптимизация: Каждая модель получает индивидуально настроенную схему квантизации - слои, квантизированные в Gemma 3, значительно отличаются от таковых в Llama 4

📊 Оценка качества через KL-дивергенцию
Unsloth использует KL-дивергенцию как золотой стандарт для измерения ошибок квантизации вместо перплексии. Как показывает исследование "Accuracy is Not All You Need", перплексия может давать искаженные результаты из-за компенсирующих эффектов вероятностей токенов, в то время как KL-дивергенция напрямую коррелирует с "флипами" - изменениями ответов с неверных на верные и наоборот.

🧪 Результаты
На примере Gemma 3 27B:
• Dynamic 2.0 с квантизацией Q2_K_XL достигает 68.70% по MMLU 5-shot (против 67.77% в стандартной квантизации)
• 4-битная версия на 2GB меньше, но даёт на 1% лучшую точность, чем QAT-версия от Google

Метрика эффективности, рассчитанная как (MMLU 5-shot - 25)/размер в GB, показывает, что 2-битные квантизации (IQ2_XXS, IQ2_M, Q2_K_XL) обеспечивают оптимальный баланс между производительностью и размером.

🛠 Доступные модели с Dynamic v2.0
• DeepSeek: R1, V3-0324
• Llama: 4 (Scout), 3.1 (8B)
• Gemma 3: 4B, 12B, 27B
• Mistral: Small-3.1-2503

Все квантизированные модели доступны на Hugging Face и готовы к запуску в любом движке вывода: llama.cpp, Ollama или Open WebUI.

Unsloth также помог исправить несколько критических багов в Llama 4, что привело к повышению точности MMLU Pro с 68.58% до 71.53%.

#квантизация #Unsloth #Gemma3 #Llama4 #оптимизация
———
@tsingular
👍6❤‍🔥21