301K subscribers
3.99K photos
702 videos
17 files
4.57K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
🔥 Learning From Mistakes Makes LLM Better Reasoner

LEMA fine-tunes LLMs on mistakecorrection data pairs generated by GPT-4.

Большие языковые модели недавно продемонстрировали замечательные способности к рассуждениям при решении математических задач. Для дальнейшего улучшения этих возможностей в данной работе предлагается метод обучения на ошибках (LeMa), аналогичный процессам обучения человека.

Если взять студента, который не смог решить математическую задачу, для достижения успеха, студент узнает, какую ошибку он допустил и как ее исправить. Имитируя этот процесс обучения, основанный на ошибках, LeMa производит тонкую настройку LLM на парах данных "ошибка-исправление", генерируемых GPT-4.

В частности, сначала собираются неточные пути рассуждений от различных ЛЛМ, а затем используется GPT-4 в качестве "корректора", чтобы (1) определить ошибочный шаг, (2) объяснить причину ошибки, (3) исправить ошибку и сформировать окончательный ответ.

LeMa стабильно улучшает производительность моделей по сравнению с тонкой настройкой и превосходит показатели SOTA, достигнутые другими моделями с открытым исходным кодом на различных сложных задачах.

🖥 Github: https://github.com/microsoft/codet

📕 Paper: https://arxiv.org/pdf/2310.20689v1.pdf

Dataset: https://paperswithcode.com/dataset/math

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍18🔥82
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Learn from Andrew Ng! Generative AI for Everyone

Instructed by AI pioneer Andrew Ng, Generative AI for Everyone offers his unique perspective on empowering you and your work with generative AI.

Узнайте, как работает генеративный искусственный интеллект в новом бесплатном курсе от легендарного Эндрю Ына. Как использовать ИИ в профессиональной или личной жизни и как он повлияет на работу, бизнес и общество.

Вы познакомитесь с реальными примерами работы ии, изучите типичные кейсы использования, получите возможность практической работы с инструментами генеративного ИИ, чтобы применить полученные знания на практике и получить представление о влиянии ИИ на бизнес и общество.

Этот курс доступен для всех и не предполагает наличия опыта кодинга или работы с искусственным интеллектом.

https://www.deeplearning.ai/courses/generative-ai-for-everyone/

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍23🔥32🥴1
🚀 Важное событие в области искусственного интеллекта! Восьмая глобальная онлайн-конференция AI Journey 2023 в сфере ИИ.

С 22 по 24 ноября главные эксперты по ИИ из России и других стран поделятся информацией о новых трендах в области искусственного интеллекта и машинного обучения. Конференцию также можно посмотреть онлайн.

Кроме того, AI Journey 2023 объявит официальных финалистов AI Journey Science и вручит награды победителям международных онлайн-соревнований AI Challenge и AIJ Contest.

Смотрим тут.

@ai_machinelearning_big_data
👍17🔥64🙊1
⚡️ LLMRec: Large Language Models with Graph Augmentation for Recommendation

LLMRec - это новый фреймворк и датасет, улучшающий рекомендательные системы путем применения простых, но эффективных стратегий дополнения графов на основе LLM.

🖥 Github: https://github.com/hkuds/llmrec

📕 Paper: https://arxiv.org/abs/2311.00423v1

Project: https://llmrec.github.io/

🌐 Dataset: https://llmrec.github.io/#

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
11👍8🔥2
🖥 TORCH UNCERTAINTY

Comprehensive PyTorch Library for deep learning uncertainty quantification techniques.

TorchUncertainty - это, фреймворк для использования методов квантования неопределенности для повышения надежности глубоких нейронных сетей. Пакет предоставляет многоуровневый API, включая:

готовые к обучению базовые модели на исследовательских датасетах, таких как ImageNet и CIFAR
базовые системы глубокого обучения, доступные для обучения на ваших наборах данных
предварительно настроенные веса для этих базовых сетей на ImageNet и CIFAR
готовые слои, доступные для использования в ваших сетях
методы постобработки в стиле scikit-learn, такие как Temperature Scaling.
Более полный список реализованных методов в справке по API.

pip install torch-uncertainty

🖥 Github: https://github.com/ensta-u2is/torch-uncertainty

📕 Paper: https://arxiv.org/abs/2311.01434v1

Project: https://llmrec.github.io/

👣 Api: https://torch-uncertainty.github.io/api.html

🌐 Dataset: https://paperswithcode.com/dataset/cifar-10

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍18🔥53
🎧 Video2Music: Suitable Music Generation from Videos using an Affective Multimodal Transformer model

Video2Music: Suitable Music Generation from Videos using an Affective Multimodal Transformer model.

Многочисленные исследования в области генерации музыки продемонстрировали впечатляющую производительность, однако практически ни одна модель не способна напрямую генерировать музыку для сопровождения видео.

В данной работе представлен генеративный музыкальный ИИ-фреймворк Video2Music, который может генерировать музыку под предоставленное видео.

Сначала была собрана уникальная коллекцию музыкальных клипов. Затем проанализированы музыкальные видеоролики, чтобы получить семантические характеристики, характеристики смещения сцены, движения и эмоций.

Эти отличительные признаки используются в качестве исходных данных для модели генерации музыки.

Затем транскрибируются аудиофайлы в MIDI и аккорды, а также извлекаются такие характеристики, как плотность нот и громкость.

В результате был собран набор мультимодальных данных под названием MuVi-Sync, на котором обучена модель для генерации музыки на основе видео. Эта модель включает в себя новый механизм, обеспечивающий сходство между видео и музыкой. Наконец, выполняется постобработка на основе регрессионной модели на базе biGRU для оценки плотности и громкости нот на основе характеристик видео.

Это обеспечивает динамическую визуализацию генерируемых аккордов с изменяющимся ритмом и громкостью.

В ходе экспериментов показано, что фреймворк позволяет генерировать музыку, соответствующую видеоконтенту с точки зрения эмоций. Музыкальное качество, а также качество согласования музыки и видео подтверждается в ходе исследования.

Модель AMT, а также новый датасет MuVi-Sync представляют собой перспективный шаг для задачи генерации музыки для видео.

🖥 Github: https://github.com/amaai-lab/video2music

📕 Paper: https://arxiv.org/abs/2311.00968v1

Demo: https://llmrec.github.io/

🌐 Dataset: https://zenodo.org/records/10057093

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍18🔥95
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 One of the most beautiful interactive visualizations on how LLMs work.

Хотите понять, как работают большие языковые модели?

Эта статья поможет вам понять основные концепции в интерактивной форме!

Одна из самых красивых визуализаций того, как работают LLM.

https://ig.ft.com/generative-ai/

@ai_machinelearning_big_data
👍32🔥74😍2
This media is not supported in the widget
VIEW IN TELEGRAM
👍56🥴15🔥7🤬4🏆4🌚21
⚡️ OpenAI DevDay, Opening Keynote

OpenAI DevDay сейчас идет онлайн конференции для разработчиков от OpenAI.

OpenAI
выпустит GPT-5 GPT-4-Turbo, новая модель превосходит старую во всем:

— Можно писать промты длинной в 128 тысяч токенов — это 365 страниц примерно обычной книги!

— Поддерживает возможность загружать собственные документы (PDF и прочие форматы);
— Можно может писать ответы в JSON-формате;
— Обновили базу данных до апреля 2023 года;
— Цена будет дешевле, работа по API для разработчиков — в 3 раза меньше цена для промта и в 2 раза для генераций.
— Голоса ChatGPT теперь не отличить от человеческих.
— GPT-4 turbo стала намного умнее.
— В 3 раза меньше цена для промта и в 2 раза для генераций.

Выпущен: https://github.com/openai/whisper

https://www.youtube.com/watch?v=U9mJuUkhUzk

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍22🔥125
⚡️ EntitySeg Toolbox: Towards open-world and high-quality image segmentation

EntitySeg - это инструментарий с открытым исходным кодом, предназначенный для сегментации изображений с открытым миром и высоким качеством.

На сегодняшний день в EntitySeg реализованы следующие алгортмы:

Open-World Entity Segmentation (TPAMI2022)
High Quality Segmentation for Ultra High-resolution Images (CVPR2022)
CA-SSL: Class-Agnostic Semi-Supervised Learning for Detection and Segmentation (ECCV2022)
High-Quality Entity Segmentation (ICCV2023 Oral)
Rethinking Evaluation Metrics of Open-Vocabulary Segmentaion --- released

🖥 Github: https://github.com/qqlu/entity

📕 Paper: https://arxiv.org/abs/2311.03352v1

🌐 Dataset: https://paperswithcode.com/dataset/coco

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍132🔥1👏1
🚀 Introducing YOLO-NAS Pose : A Game-Changer in Pose Estimation 🚀

This Model is a redefinition of pose estimation's potential.

Компьютерное зрение достигло значительных успехов, и последний скачок произошел благодаря модели YOLO-NAS Pose.

Эта модель открывает новые возможности обнаружения и оценки позы людей на видео.

- Ошеломляющее снижение задержки на 38,85% на мощных процессорах Intel Xeon.

-Модель поднимает YOLOv8 на новую высоту по качеству обнаружения.

-Ориентирована на работу в режиме реального времени, уникальное сочетание точности и скорости.

- Невероятное улучшение на 0,27 балла на [email protected]

Для решения различных задач модель выпускается в четырех вариантах, каждый из которых имеет свой размер и время задержки.

🖥 Github: https://github.com/Deci-AI/super-gradients

📕 Notebook: https://colab.research.google.com/drive/1O4N5Vbzv0rfkT81LQidPktX8RtoS5A40

🚀 Demo: https://huggingface.co/spaces/Deci/YOLO-NAS-Pose-Demo

🌐 Colab: https://colab.research.google.com/drive/1agLj0aGx48C_rZPrTkeA18kuncack6lF

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥16👍74
🚀 Whisper-V3 / Consistency Decoder

Improved decoding for stable diffusion vaes.

Многие упустили из виду, что на Dev Day компания OpenAI выложила в открытый доступ сразу две модели, и на них стоит обратить внимание.

Первая из них - Whisper-V3, лучшая из существующих OSS-моделей распознавания речи. Она демонстрирует значительные улучшения по сравнению с Whisper-V2 на десятках языков.

Whisper остается одной из лучших фундаментальных моделей всех времен. В отличие от предыдущих работ, в которых создавались сложные конвейеры, Whisper представляет собой большой трансформер, который преобразует звук непосредственно в текст, со специальными "метаязыковыми" лексемами, позволяющими выполнять элегантную многозадачность: определение языка, перевод, распознавание голоса и т.д. Его первый автор - легендарный Алек Рэдфорд - человек, ответственный почти за все революционные статьи OAI.

Скорее всего Whisper позволил получить не менее триллиона высококачественных разговорных лексем из интернет-видео/аудиозаписей для GPT-4 и последующих проектов.

Второй открытый проект - это декодер согласованности (Consistency Decoder) из работы "Consistency Models" (Модели согласованности) под руководством Доктор Янге Сонг.

Янг был одним из первопроходцев в области диффузионных моделей. Вы можете заменить декодер Stable Diffusion на Consistency Decoder, и это улучшит рендеринг текстов, лиц и геометрических фигур.

- Whisper paper: https://arxiv.org/abs/2212.04356
- Whisper-V3 checkpoint: https://github.com/openai/whisper/discussions/1762
- Consistency Models: https://arxiv.org/abs/2303.01469
- Consistency Decoder release: https://github.com/openai/consistencydecoder

@ai_machinelearning_big_data
👍25🔥32
🖥ChatGPT Advanced Data Analysis

Бесплатный курс углубленного анализа данных c ChatGPT

Этот курс входит в специализацию Prompt Engineering

https://www.coursera.org/learn/chatgpt-advanced-data-analysis

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍19🤣125🔥4😱2
🪞 Mirror: A Universal Framework for Various Information Extraction Tasks

Мощный инструмент для решения практически всех задач извлечения и унификации информации.

🖥 Github: https://github.com/Spico197/Mirror

📕 Paper: https://arxiv.org/abs/2311.05419v1

🌐 Dataset: https://paperswithcode.com/dataset/glue

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14🔥62
⚡️ LCM-LoRA: A Universal Stable-Diffusion Acceleration Module

Latent Consistency Models: Synthesizing High-Resolution Images with Few-Step Inference.

Новый подход, который значительно уменьшает нагрузку на диффузионные модели для генерации изображений. Подход позволяет перевести любую существующую обученную LDM на быструю генерацию.

LoRA представляя собой универсальный ускоритель для различных задач генераций изображений.

pip install diffusers transformers accelerate gradio==3.48.0

🖥 Github: https://github.com/luosiallen/latent-consistency-model

📕 Paper: https://arxiv.org/abs/2311.05556v1

🌐 Project: https://latent-consistency-models.github.io

🤗 Demo: https://huggingface.co/spaces/SimianLuo/Latent_Consistency_Model

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍227🔥2🤔1
Feature Selection for Deep Tabular Models

Аналог LASSO для нейронных сетей, названный Deep Lasso, который превосходит классические методы отбора признаков в сложных задачах.

🐱 Github: https://github.com/vcherepanova/tabular-feature-selection

📕 Paper: https://arxiv.org/pdf/2311.05877v1.pdf

Tasks: https://paperswithcode.com/task/feature-selection

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16🔥72
🏆 LLaMA2-Accessory: An Open-source Toolkit for LLM Development

LLaMA2-Accessory - это набор инструментов с открытым исходным кодом для предварительного обучения, тонкой настройки и развертывания больших языковых моделей (LLM) и муллимодальных LLM. Этот репозиторий в основном унаследован от LLaMA-Adapter с более расширенными возможностями.🧠

В рамках этого инструментария представлена SPHINX, универсальная мультимодальная языковая модель (MLLM), которая показывает хорошие результаты генерации для широкого спектра задач.

🐱 Github: https://github.com/alpha-vllm/llama2-accessory

🚀 Demo: https://imagebind-llm.opengvlab.com/

📕 Paper: https://arxiv.org/abs/2311.07575v1

Project: llama2-accessory.readthedocs.io/

Dataset: https://paperswithcode.com/dataset/vsr

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍13🔥73