🔥 Learning From Mistakes Makes LLM Better Reasoner
LEMA fine-tunes LLMs on mistakecorrection data pairs generated by GPT-4.
Большие языковые модели недавно продемонстрировали замечательные способности к рассуждениям при решении математических задач. Для дальнейшего улучшения этих возможностей в данной работе предлагается метод обучения на ошибках (LeMa), аналогичный процессам обучения человека.
Если взять студента, который не смог решить математическую задачу, для достижения успеха, студент узнает, какую ошибку он допустил и как ее исправить. Имитируя этот процесс обучения, основанный на ошибках, LeMa производит тонкую настройку LLM на парах данных "ошибка-исправление", генерируемых GPT-4.
В частности, сначала собираются неточные пути рассуждений от различных ЛЛМ, а затем используется GPT-4 в качестве "
LeMa стабильно улучшает производительность моделей по сравнению с тонкой настройкой и превосходит показатели SOTA, достигнутые другими моделями с открытым исходным кодом на различных сложных задачах.
🖥 Github: https://github.com/microsoft/codet
📕 Paper: https://arxiv.org/pdf/2310.20689v1.pdf
⏩ Dataset: https://paperswithcode.com/dataset/math
@ai_machinelearning_big_data
LEMA fine-tunes LLMs on mistakecorrection data pairs generated by GPT-4.
Большие языковые модели недавно продемонстрировали замечательные способности к рассуждениям при решении математических задач. Для дальнейшего улучшения этих возможностей в данной работе предлагается метод обучения на ошибках (LeMa), аналогичный процессам обучения человека.
Если взять студента, который не смог решить математическую задачу, для достижения успеха, студент узнает, какую ошибку он допустил и как ее исправить. Имитируя этот процесс обучения, основанный на ошибках, LeMa производит тонкую настройку LLM на парах данных "ошибка-исправление", генерируемых GPT-4.
В частности, сначала собираются неточные пути рассуждений от различных ЛЛМ, а затем используется GPT-4 в качестве "
корректора
", чтобы (1) определить ошибочный шаг, (2) объяснить причину ошибки, (3) исправить ошибку и сформировать окончательный ответ. LeMa стабильно улучшает производительность моделей по сравнению с тонкой настройкой и превосходит показатели SOTA, достигнутые другими моделями с открытым исходным кодом на различных сложных задачах.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍18🔥8❤2
This media is not supported in your browser
VIEW IN TELEGRAM
Instructed by AI pioneer Andrew Ng, Generative AI for Everyone offers his unique perspective on empowering you and your work with generative AI.
Узнайте, как работает генеративный искусственный интеллект в новом бесплатном курсе от легендарного Эндрю Ына. Как использовать ИИ в профессиональной или личной жизни и как он повлияет на работу, бизнес и общество.
Вы познакомитесь с реальными примерами работы ии, изучите типичные кейсы использования, получите возможность практической работы с инструментами генеративного ИИ, чтобы применить полученные знания на практике и получить представление о влиянии ИИ на бизнес и общество.
Этот курс доступен для всех и не предполагает наличия опыта кодинга или работы с искусственным интеллектом.
https://www.deeplearning.ai/courses/generative-ai-for-everyone/
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍23🔥3❤2🥴1
🚀 Важное событие в области искусственного интеллекта! Восьмая глобальная онлайн-конференция AI Journey 2023 в сфере ИИ.
С 22 по 24 ноября главные эксперты по ИИ из России и других стран поделятся информацией о новых трендах в области искусственного интеллекта и машинного обучения. Конференцию также можно посмотреть онлайн.
Кроме того, AI Journey 2023 объявит официальных финалистов AI Journey Science и вручит награды победителям международных онлайн-соревнований AI Challenge и AIJ Contest.
Смотрим тут.
@ai_machinelearning_big_data
С 22 по 24 ноября главные эксперты по ИИ из России и других стран поделятся информацией о новых трендах в области искусственного интеллекта и машинного обучения. Конференцию также можно посмотреть онлайн.
Кроме того, AI Journey 2023 объявит официальных финалистов AI Journey Science и вручит награды победителям международных онлайн-соревнований AI Challenge и AIJ Contest.
Смотрим тут.
@ai_machinelearning_big_data
👍17🔥6❤4🙊1
⚡️ LLMRec: Large Language Models with Graph Augmentation for Recommendation
LLMRec - это новый фреймворк и датасет, улучшающий рекомендательные системы путем применения простых, но эффективных стратегий дополнения графов на основе LLM.
🖥 Github: https://github.com/hkuds/llmrec
📕 Paper: https://arxiv.org/abs/2311.00423v1
⏩ Project: https://llmrec.github.io/
🌐 Dataset: https://llmrec.github.io/#
@ai_machinelearning_big_data
LLMRec - это новый фреймворк и датасет, улучшающий рекомендательные системы путем применения простых, но эффективных стратегий дополнения графов на основе LLM.
🌐 Dataset: https://llmrec.github.io/#
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
❤11👍8🔥2
Comprehensive PyTorch Library for deep learning uncertainty quantification techniques.
TorchUncertainty - это, фреймворк для использования методов квантования неопределенности для повышения надежности глубоких нейронных сетей. Пакет предоставляет многоуровневый API, включая:
▪готовые к обучению базовые модели на исследовательских датасетах, таких как ImageNet и CIFAR
▪базовые системы глубокого обучения, доступные для обучения на ваших наборах данных
▪предварительно настроенные веса для этих базовых сетей на ImageNet и CIFAR
▪готовые слои, доступные для использования в ваших сетях
▪методы постобработки в стиле scikit-learn, такие как Temperature Scaling.
Более полный список реализованных методов в справке по API.
pip install torch-uncertainty
🌐 Dataset: https://paperswithcode.com/dataset/cifar-10
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍18🔥5❤3
Video2Music: Suitable Music Generation from Videos using an Affective Multimodal Transformer model.
Многочисленные исследования в области генерации музыки продемонстрировали впечатляющую производительность, однако практически ни одна модель не способна напрямую генерировать музыку для сопровождения видео.
В данной работе представлен генеративный музыкальный ИИ-фреймворк
Video2Music
, который может генерировать музыку под предоставленное видео. Сначала была собрана уникальная коллекцию музыкальных клипов. Затем проанализированы музыкальные видеоролики, чтобы получить семантические характеристики, характеристики смещения сцены, движения и эмоций.
Эти отличительные признаки используются в качестве исходных данных для модели генерации музыки.
Затем транскрибируются аудиофайлы в MIDI и аккорды, а также извлекаются такие характеристики, как плотность нот и громкость.
В результате был собран набор мультимодальных данных под названием MuVi-Sync, на котором обучена модель для генерации музыки на основе видео. Эта модель включает в себя новый механизм, обеспечивающий сходство между видео и музыкой. Наконец, выполняется постобработка на основе регрессионной модели на базе biGRU для оценки плотности и громкости нот на основе характеристик видео.
Это обеспечивает динамическую визуализацию генерируемых аккордов с изменяющимся ритмом и громкостью.
В ходе экспериментов показано, что фреймворк позволяет генерировать музыку, соответствующую видеоконтенту с точки зрения эмоций. Музыкальное качество, а также качество согласования музыки и видео подтверждается в ходе исследования.
Модель AMT, а также новый датасет MuVi-Sync представляют собой перспективный шаг для задачи генерации музыки для видео.
🌐 Dataset: https://zenodo.org/records/10057093
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍18🔥9❤5
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 One of the most beautiful interactive visualizations on how LLMs work.
Хотите понять, как работают большие языковые модели?
Эта статья поможет вам понять основные концепции в интерактивной форме!
Одна из самых красивых визуализаций того, как работают
https://ig.ft.com/generative-ai/
@ai_machinelearning_big_data
Хотите понять, как работают большие языковые модели?
Эта статья поможет вам понять основные концепции в интерактивной форме!
Одна из самых красивых визуализаций того, как работают
LLM
.https://ig.ft.com/generative-ai/
@ai_machinelearning_big_data
👍32🔥7❤4😍2
This media is not supported in the widget
VIEW IN TELEGRAM
👍56🥴15🔥7🤬4🏆4🌚2❤1
OpenAI DevDay сейчас идет онлайн конференции для разработчиков от OpenAI.
OpenAI выпустит
— Можно писать промты длинной в 128 тысяч токенов — это 365 страниц примерно обычной книги!
— Поддерживает возможность загружать собственные документы (PDF и прочие форматы);
— Можно может писать ответы в JSON-формате;
— Обновили базу данных до апреля 2023 года;
— Цена будет дешевле, работа по API для разработчиков — в 3 раза меньше цена для промта и в 2 раза для генераций.
— Голоса ChatGPT теперь не отличить от человеческих.
— GPT-4 turbo стала намного умнее.
— В 3 раза меньше цена для промта и в 2 раза для генераций.
Выпущен: https://github.com/openai/whisper
https://www.youtube.com/watch?v=U9mJuUkhUzk
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - openai/whisper: Robust Speech Recognition via Large-Scale Weak Supervision
Robust Speech Recognition via Large-Scale Weak Supervision - openai/whisper
👍22🔥12❤5
⚡️ EntitySeg Toolbox: Towards open-world and high-quality image segmentation
EntitySeg - это инструментарий с открытым исходным кодом, предназначенный для сегментации изображений с открытым миром и высоким качеством.
На сегодняшний день в EntitySeg реализованы следующие алгортмы:
▪Open-World Entity Segmentation (TPAMI2022)
▪High Quality Segmentation for Ultra High-resolution Images (CVPR2022)
▪CA-SSL: Class-Agnostic Semi-Supervised Learning for Detection and Segmentation (ECCV2022)
▪High-Quality Entity Segmentation (ICCV2023 Oral)
▪Rethinking Evaluation Metrics of Open-Vocabulary Segmentaion --- released
🖥 Github: https://github.com/qqlu/entity
📕 Paper: https://arxiv.org/abs/2311.03352v1
🌐 Dataset: https://paperswithcode.com/dataset/coco
@ai_machinelearning_big_data
EntitySeg - это инструментарий с открытым исходным кодом, предназначенный для сегментации изображений с открытым миром и высоким качеством.
На сегодняшний день в EntitySeg реализованы следующие алгортмы:
▪Open-World Entity Segmentation (TPAMI2022)
▪High Quality Segmentation for Ultra High-resolution Images (CVPR2022)
▪CA-SSL: Class-Agnostic Semi-Supervised Learning for Detection and Segmentation (ECCV2022)
▪High-Quality Entity Segmentation (ICCV2023 Oral)
▪Rethinking Evaluation Metrics of Open-Vocabulary Segmentaion --- released
🌐 Dataset: https://paperswithcode.com/dataset/coco
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍13❤2🔥1👏1
🚀 Introducing YOLO-NAS Pose : A Game-Changer in Pose Estimation 🚀
This Model is a redefinition of pose estimation's potential.
Компьютерное зрение достигло значительных успехов, и последний скачок произошел благодаря модели YOLO-NAS Pose.
Эта модель открывает новые возможности обнаружения и оценки позы людей на видео.
- Ошеломляющее снижение задержки на 38,85% на мощных процессорах Intel Xeon.
-Модель поднимает YOLOv8 на новую высоту по качеству обнаружения.
-Ориентирована на работу в режиме реального времени, уникальное сочетание точности и скорости.
- Невероятное улучшение на 0,27 балла на [email protected]
Для решения различных задач модель выпускается в четырех вариантах, каждый из которых имеет свой размер и время задержки.
🖥 Github: https://github.com/Deci-AI/super-gradients
📕 Notebook: https://colab.research.google.com/drive/1O4N5Vbzv0rfkT81LQidPktX8RtoS5A40
🚀 Demo: https://huggingface.co/spaces/Deci/YOLO-NAS-Pose-Demo
🌐 Colab: https://colab.research.google.com/drive/1agLj0aGx48C_rZPrTkeA18kuncack6lF
@ai_machinelearning_big_data
This Model is a redefinition of pose estimation's potential.
Компьютерное зрение достигло значительных успехов, и последний скачок произошел благодаря модели YOLO-NAS Pose.
Эта модель открывает новые возможности обнаружения и оценки позы людей на видео.
- Ошеломляющее снижение задержки на 38,85% на мощных процессорах Intel Xeon.
-Модель поднимает YOLOv8 на новую высоту по качеству обнаружения.
-Ориентирована на работу в режиме реального времени, уникальное сочетание точности и скорости.
- Невероятное улучшение на 0,27 балла на [email protected]
Для решения различных задач модель выпускается в четырех вариантах, каждый из которых имеет свой размер и время задержки.
🚀 Demo: https://huggingface.co/spaces/Deci/YOLO-NAS-Pose-Demo
🌐 Colab: https://colab.research.google.com/drive/1agLj0aGx48C_rZPrTkeA18kuncack6lF
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥16👍7❤4
🚀 Whisper-V3 / Consistency Decoder
Improved decoding for stable diffusion vaes.
Многие упустили из виду, что на Dev Day компания OpenAI выложила в открытый доступ сразу две модели, и на них стоит обратить внимание.
Первая из них - Whisper-V3, лучшая из существующих OSS-моделей распознавания речи. Она демонстрирует значительные улучшения по сравнению с Whisper-V2 на десятках языков.
Whisper остается одной из лучших фундаментальных моделей всех времен. В отличие от предыдущих работ, в которых создавались сложные конвейеры, Whisper представляет собой большой трансформер, который преобразует звук непосредственно в текст, со специальными "
Скорее всего Whisper позволил получить не менее триллиона высококачественных разговорных лексем из интернет-видео/аудиозаписей для GPT-4 и последующих проектов.
Второй открытый проект - это декодер согласованности (Consistency Decoder) из работы "Consistency Models" (Модели согласованности) под руководством Доктор Янге Сонг.
Янг был одним из первопроходцев в области диффузионных моделей. Вы можете заменить декодер Stable Diffusion на Consistency Decoder, и это улучшит рендеринг текстов, лиц и геометрических фигур.
- Whisper paper: https://arxiv.org/abs/2212.04356
- Whisper-V3 checkpoint: https://github.com/openai/whisper/discussions/1762
- Consistency Models: https://arxiv.org/abs/2303.01469
- Consistency Decoder release: https://github.com/openai/consistencydecoder
@ai_machinelearning_big_data
Improved decoding for stable diffusion vaes.
Многие упустили из виду, что на Dev Day компания OpenAI выложила в открытый доступ сразу две модели, и на них стоит обратить внимание.
Первая из них - Whisper-V3, лучшая из существующих OSS-моделей распознавания речи. Она демонстрирует значительные улучшения по сравнению с Whisper-V2 на десятках языков.
Whisper остается одной из лучших фундаментальных моделей всех времен. В отличие от предыдущих работ, в которых создавались сложные конвейеры, Whisper представляет собой большой трансформер, который преобразует звук непосредственно в текст, со специальными "
метаязыковыми
" лексемами, позволяющими выполнять элегантную многозадачность: определение языка, перевод, распознавание голоса и т.д. Его первый автор - легендарный Алек Рэдфорд - человек, ответственный почти за все революционные статьи OAI.Скорее всего Whisper позволил получить не менее триллиона высококачественных разговорных лексем из интернет-видео/аудиозаписей для GPT-4 и последующих проектов.
Второй открытый проект - это декодер согласованности (Consistency Decoder) из работы "Consistency Models" (Модели согласованности) под руководством Доктор Янге Сонг.
Янг был одним из первопроходцев в области диффузионных моделей. Вы можете заменить декодер Stable Diffusion на Consistency Decoder, и это улучшит рендеринг текстов, лиц и геометрических фигур.
- Whisper paper: https://arxiv.org/abs/2212.04356
- Whisper-V3 checkpoint: https://github.com/openai/whisper/discussions/1762
- Consistency Models: https://arxiv.org/abs/2303.01469
- Consistency Decoder release: https://github.com/openai/consistencydecoder
@ai_machinelearning_big_data
👍25🔥3❤2
Бесплатный курс углубленного анализа данных c ChatGPT
Этот курс входит в специализацию Prompt Engineering
https://www.coursera.org/learn/chatgpt-advanced-data-analysis
ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍19🤣12❤5🔥4😱2
🪞 Mirror: A Universal Framework for Various Information Extraction Tasks
Мощный инструмент для решения практически всех задач извлечения и унификации информации.
🖥 Github: https://github.com/Spico197/Mirror
📕 Paper: https://arxiv.org/abs/2311.05419v1
🌐 Dataset: https://paperswithcode.com/dataset/glue
@ai_machinelearning_big_data
Мощный инструмент для решения практически всех задач извлечения и унификации информации.
🌐 Dataset: https://paperswithcode.com/dataset/glue
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14🔥6❤2
Latent Consistency Models: Synthesizing High-Resolution Images with Few-Step Inference.
Новый подход, который значительно уменьшает нагрузку на диффузионные модели для генерации изображений. Подход позволяет перевести любую существующую обученную LDM на быструю генерацию.
LoRA представляя собой универсальный ускоритель для различных задач генераций изображений.
pip install diffusers transformers accelerate gradio==3.48.0
🌐 Project: https://latent-consistency-models.github.io
🤗 Demo: https://huggingface.co/spaces/SimianLuo/Latent_Consistency_Model
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍22❤7🔥2🤔1
✨ Feature Selection for Deep Tabular Models
Аналог LASSO для нейронных сетей, названный Deep Lasso, который превосходит классические методы отбора признаков в сложных задачах.
🐱 Github: https://github.com/vcherepanova/tabular-feature-selection
📕 Paper: https://arxiv.org/pdf/2311.05877v1.pdf
⭐ Tasks: https://paperswithcode.com/task/feature-selection
@ai_machinelearning_big_data
Аналог LASSO для нейронных сетей, названный Deep Lasso, который превосходит классические методы отбора признаков в сложных задачах.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16🔥7❤2
LLaMA2-Accessory - это набор инструментов с открытым исходным кодом для предварительного обучения, тонкой настройки и развертывания больших языковых моделей (LLM) и муллимодальных LLM. Этот репозиторий в основном унаследован от LLaMA-Adapter с более расширенными возможностями.🧠
✨ В рамках этого инструментария представлена SPHINX, универсальная мультимодальная языковая модель (MLLM), которая показывает хорошие результаты генерации для широкого спектра задач.
🚀 Demo: https://imagebind-llm.opengvlab.com/
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍13🔥7❤3