Google представила MLE-STAR — ИИ-агента, который автоматизирует разработку ML-моделей и побеждает в 63% соревнований Kaggle.
🚀 Полная автоматизация — агент сам проектирует, тестирует и оптимизирует модели без ручного кода.
🏆 Рекордные результаты — медали в 63% конкурсов MLE Bench Lite (36% из них — золото) против 25,8% у предыдущих решений.
🌐 Веб-поиск вместо устаревших моделей — MLE-STAR находит и использует актуальные архитектуры (EfficientNet, ViT) вместо ResNet.
🛡 Три модуля защиты — автоматическая проверка на баги, утечки данных и ошибки LLM.
💻 Open source — Google выложила код в составе Agent Development Kit (ADK).
🔄 Авто-апгрейд — за счёт постоянного поиска новейших моделей производительность растёт сама по мере развития ML.
🔜 Подробнее
#Google #GoogleResearch #ml #mle #llm
🚀 Полная автоматизация — агент сам проектирует, тестирует и оптимизирует модели без ручного кода.
🏆 Рекордные результаты — медали в 63% конкурсов MLE Bench Lite (36% из них — золото) против 25,8% у предыдущих решений.
🌐 Веб-поиск вместо устаревших моделей — MLE-STAR находит и использует актуальные архитектуры (EfficientNet, ViT) вместо ResNet.
🛡 Три модуля защиты — автоматическая проверка на баги, утечки данных и ошибки LLM.
💻 Open source — Google выложила код в составе Agent Development Kit (ADK).
🔄 Авто-апгрейд — за счёт постоянного поиска новейших моделей производительность растёт сама по мере развития ML.
#Google #GoogleResearch #ml #mle #llm
Please open Telegram to view this post
VIEW IN TELEGRAM
😱7❤4👍1🔥1💩1
🧠 LogicRAG: умный RAG без предсобранных графов
LLM часто ошибаются, когда ответ требует связать много фактов. Классический GraphRAG строит огромный граф по всему корпусу, что дорого и не всегда соответствует логике вопроса.
LogicRAG решает это иначе:
Разбивает запрос на подзадачи и строит небольшой граф зависимостей только для этого вопроса.
Упорядочивает его топологической сортировкой и решает шаг за шагом, подгружая только нужные данные.
Ведёт «скользящую память» — краткое резюме найденных фактов, удаляя лишний контекст.
Объединяет подзадачи одного уровня, чтобы не делать лишние запросы.
Не повторяет почти одинаковые подзапросы.
📊 Результаты:
- 2WikiMQA: +14,7% точности к лучшему базовому методу.
- HotpotQA и MuSiQue: стабильное превосходство.
- Время ответа ~9,8 секунд без затрат на построение графа.
💡 Итог: извлечение данных следует логике вопроса, а не заранее заготовленной карте, что даёт точнее и дешевле ответы.
arxiv.org/abs/2508.06105
LLM часто ошибаются, когда ответ требует связать много фактов. Классический GraphRAG строит огромный граф по всему корпусу, что дорого и не всегда соответствует логике вопроса.
LogicRAG решает это иначе:
Разбивает запрос на подзадачи и строит небольшой граф зависимостей только для этого вопроса.
Упорядочивает его топологической сортировкой и решает шаг за шагом, подгружая только нужные данные.
Ведёт «скользящую память» — краткое резюме найденных фактов, удаляя лишний контекст.
Объединяет подзадачи одного уровня, чтобы не делать лишние запросы.
Не повторяет почти одинаковые подзапросы.
📊 Результаты:
- 2WikiMQA: +14,7% точности к лучшему базовому методу.
- HotpotQA и MuSiQue: стабильное превосходство.
- Время ответа ~9,8 секунд без затрат на построение графа.
💡 Итог: извлечение данных следует логике вопроса, а не заранее заготовленной карте, что даёт точнее и дешевле ответы.
arxiv.org/abs/2508.06105
👍7🤔2❤1🔥1
Исследователи представили AR-GRPO, метод интеграции обучения с подкреплением (online RL) в авторегрессионные (AR) модели генерации изображений.
Он адаптирует алгоритм Group Relative Policy Optimization (GRPO), чтобы дообучать обычные AR-модели с учётом специально разработанных функций вознаграждения.
Эти функции оценивают сгенерированные изображения сразу по нескольким параметрам качества:
- Визуальная привлекательность (perceptual quality)
- Реалистичность (realism)
- Семантическое соответствие запросу (semantic fidelity)
В результате модель учится выдавать не только красивые, но и реалистичные картинки, точно отражающие смысл входного описания.
https://arxiv.org/abs/2508.06924
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍2🔥2
Forwarded from Machinelearning
Embedding Atlas — опенсорсный инструмент от Apple для интерактивной визуализации больших наборов векторных представлений, который позволяет не просто смотреть на облако точек, а полноценно с ним работать. И что самое приятное, он способен отрисовывать до нескольких миллионов точек благодаря реализации на WebGPU.
Embedding Atlas сам находит скопления в данных и подписывает их, позволяя мгновенно сориентироваться в общей структуре датасета. Чтобы отделить реальные кластеры от случайных выбросов, используется оценка плотности ядра с отрисовкой контуров плотности.
Решена и вечная проблема визуализаций - "каша" из перекрывающихся точек. Embedding Atlas использует технологию order-independent transparency, так что даже при большом наложении точек картинка остаётся четкой и информативной.
В инструменте есть поиск в реальном времени и нахождение ближайших соседей. Можно ввести текстовый запрос или просто кликнуть на любую точку в облаке, и Embedding Atlas мгновенно подсветит наиболее похожие на нее данные.
Еще есть интерактивный фильтр по метаданным. Например, можно выбрать на гистограмме определенный класс объектов, и визуализация тут же отфильтрует эмбединги, оставив только соответствующие ему точки.
Дает три варианта интеграции: утилиту командной строки для быстрой визуализации датафреймов, виджет для Jupyter, позволяющий встраивать атлас прямо в ноутбуки, и компонент для Streamlit, если вы создаете полноценные веб-приложения.
Этот пакет для тех, кто хочет встроить визуализацию в собственные веб-приложения. Он предоставляет готовые UI-компоненты в виде API:
Table
, EmbeddingView
, EmbeddingViewMosaic
и EmbeddingAtlas
.@ai_machinelearning_big_data
#AI #ML #Embedding #Visualisation #Apple
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9🔥3🥰1🤯1
PyTorch vs TensorFlow — свежий обзор по трём главным критериям: удобство, производительность и деплой.
🛠 **Удобство разработки**
- PyTorch — полностью динамический граф: код работает как обычный Python, можно дебажить без лишних танцев с бубном.
- TensorFlow начинал со статических графов (TF 1.x), но в TF 2 был сделан переход на eager execution с Keras.
⚡ Скорость и ресурсы
- В тестах PyTorch обучался ~25% быстрее и выполнял инференс до ~78% быстрее.
- TensorFlow может сокращать разрыв с XLA или TPUs, но всё зависит от тюнинга и железа.
🚀 Деплой и экосистема
- TensorFlow лидирует в продакшене: TensorFlow Lite (мобильные/IoT), TF.js (браузер), TensorFlow Serving (серверы).
- PyTorch — TorchScript, ONNX, TorchServe: отлично для серверов, но тяжелее для мобильных и встроенных устройств.
📊 Вывод
- Быстрые тесты, кастомный ресёрч → PyTorch.
- Масштабный продакшн, мобильные/браузерные клиенты → TensorFlow.
📌 Подробности
🛠 **Удобство разработки**
- PyTorch — полностью динамический граф: код работает как обычный Python, можно дебажить без лишних танцев с бубном.
- TensorFlow начинал со статических графов (TF 1.x), но в TF 2 был сделан переход на eager execution с Keras.
⚡ Скорость и ресурсы
- В тестах PyTorch обучался ~25% быстрее и выполнял инференс до ~78% быстрее.
- TensorFlow может сокращать разрыв с XLA или TPUs, но всё зависит от тюнинга и железа.
🚀 Деплой и экосистема
- TensorFlow лидирует в продакшене: TensorFlow Lite (мобильные/IoT), TF.js (браузер), TensorFlow Serving (серверы).
- PyTorch — TorchScript, ONNX, TorchServe: отлично для серверов, но тяжелее для мобильных и встроенных устройств.
📊 Вывод
- Быстрые тесты, кастомный ресёрч → PyTorch.
- Масштабный продакшн, мобильные/браузерные клиенты → TensorFlow.
📌 Подробности
🔥9👍3❤1🥰1