BIG-EX | Machine Learning, Big Data & Data Science
1.25K subscribers
953 photos
941 links
Публикуем лучший материал по Machine Learning, Big Data, Data Science, Искусственному интеллекту и не только!

Купить рекламу:
@oksi_young

Положительный отзыв на telega.in - 1 реклама 1/24 бесплатно.
https://telega.in/c/big_data_go
Download Telegram
Open-Sora-Plan версии 1.0.0 - модель генерации, которая может генерировать 10-секундное видео с разрешением 1024 × 1024 со скоростью 24 кадра в секунду.

Этот проект направлен на создание простого и масштабируемого репозитория для воспроизведения Sora.

Github
Qwen — создан на массивной языковой модели и был обучен на ошеломляющих 3 триллионах токенов многоязычных данных.

Это чудо искусственного интеллекта понимает как английский, так и китайский язык, и было точно настроено для взаимодействия, подобного человеческому.

📎Перевод инструкции по установке

GitHub
Griffin соответствует производительности Llama-2, несмотря на то, что он обучен более чем в 6 раз меньшему количеству токенов.

Он может экстраполировать последовательности, значительно более длинные, чем те, которые наблюдались во время обучения.

Статья: arxiv.org/abs/2402.19427

Версия 2B на hugging face: huggingface.co/google/recurrentgemma-2b
В этой статье автор расскажет, как сделали облачное хранилище понятным и структурированным источником информации для Hoff, и почему надежность хранилища определяется качеством системы оповещений, то есть алертингом.

👉 Ссылка на статью
Please open Telegram to view this post
VIEW IN TELEGRAM
LLocalSearch — это полностью локально работающий поисковый агрегатор с использованием агентов LLM.

Пользователь может задать вопрос, и система будет использовать цепочку LLM для поиска ответа.

Github
В данной статье автор покажет основные этапы создания игры, где пользователь выбирает роль (Х или О), играя с компьютером.

👉 Ссылка на статью
Please open Telegram to view this post
VIEW IN TELEGRAM
В этой статье мы поделимся примером первого практического применения Продвинутой Аналитики в процессах стратегического бизнес-планирования численности ресурсов Сети для привлечения клиентов Юридических Лиц.

👉Ссылка на статью
Please open Telegram to view this post
VIEW IN TELEGRAM
В этой статье автор напишет простую импульсную нейронную сеть, используя NumPy и Pandas, для классической задачи машинного обучения с использованием кодирования рецептивными полями.

👉 Ссылка на статью
Please open Telegram to view this post
VIEW IN TELEGRAM
LoRA представляя собой универсальный ускоритель для различных задач генераций изображений.

Новый подход, который значительно уменьшает нагрузку на диффузионные модели для генерации изображений. Подход позволяет перевести любую существующую обученную LDM на быструю генерацию.

LCM можно выделить из любой предварительно обученной стабильной диффузии (SD) всего за 4000 шагов обучения (около 32 часов графического процессора A100) для создания высококачественных изображений с разрешением 768 x 768 за 2–4 шага или даже за один шаг, что значительно ускоряет обработку текста и генерацию изображения.

Github: https://github.com/luosiallen/latent-consistency-model

Paper: https://arxiv.org/abs/2311.05556v1

Project: https://latent-consistency-models.github.io

Demo: https://huggingface.co/spaces/SimianLuo/Latent_Consistency_Model
Мощный инструмент для решения практически всех задач извлечения и унификации информации.

Предварительно обученная модель Mirror в настоящее время поддерживает задачи IE на английском языке.

Github: https://github.com/Spico197/Mirror

Paper: https://arxiv.org/abs/2311.05419v1

Dataset: https://paperswithcode.com/dataset/glue
Text Generation Inference (TGI) — это набор инструментов для развертывания и обслуживания моделей большого языка (LLM).

TGI обеспечивает высокопроизводительную генерацию текста для самых популярных LLM с открытым исходным кодом, включая Llama, Falcon, StarCoder, BLOOM, GPT-NeoX и других.

В новую версию Text Generation Inference добавлена поддержка модели Command R+.

Используя возможности Medusa heads, на тестах достигается беспрецедентная скорость с задержкой всего в 9 мс на токен для модели 104B!

Github
Установка
DUSt3R — новый подход геометрического конструирования 3D на основе 2D (Dense and Unconstrained Stereo 3D Reconstruction).

DUSt3R не требует калибровки камеры или данных о точке обзора.

GitHub
EntitySeg — это набор инструментов с открытым исходным кодом, предназначенный для сегментации изображений в открытом мире и высокого качества.

Github: https://github.com/qqlu/entity

Paper: https://arxiv.org/abs/2311.03352v1

Dataset: https://paperswithcode.com/dataset/coco
В открытом доступе появилась первая фундаментальная ИИ-модель человеческого познания — Centaur, способная предсказывать и симулировать поведение людей в различных экспериментах. Она использует интуицию и анализ для значительного улучшения качества ответов.

Centaur создана на базе Llama 3.1 70B и обучена на 160 психологических экспериментах с участием 60 тысяч человек, что позволяет модели с высокой точностью прогнозировать поведение людей в любых условиях.

Будущее уже близко! Ознакомиться с исследованием можно по ссылке, а исходный код доступен здесь.
TorchUncertainty — это пакет, разработанный, чтобы помочь вам использовать методы количественной оценки неопределенности и сделать ваши глубокие нейронные сети более надежными.

TorchUncertainty в настоящее время поддерживает классификацию, вероятностную и точечную регрессию и сегментацию.

Github: https://github.com/ensta-u2is/torch-uncertainty

Paper: https://arxiv.org/abs/2311.01434v1

Project: https://llmrec.github.io/

Api: https://torch-uncertainty.github.io/api.html

Dataset: https://paperswithcode.com/dataset/cifar-10
TorchUncertainty — это пакет, разработанный, чтобы помочь вам использовать методы количественной оценки неопределенности и сделать ваши глубокие нейронные сети более надежными.

TorchUncertainty в настоящее время поддерживает классификацию, вероятностную и точечную регрессию и сегментацию.

Github: https://github.com/ensta-u2is/torch-uncertainty

Paper: https://arxiv.org/abs/2311.01434v1

Project: https://llmrec.github.io/

Api: https://torch-uncertainty.github.io/api.html

Dataset: https://paperswithcode.com/dataset/cifar-10
LLMRec — это новая структура, которая расширяет возможности рекомендателей за счет применения трех простых, но эффективных стратегий расширения графов на основе LLM к системе рекомендаций.

Github: https://github.com/hkuds/llmrec

Paper: https://arxiv.org/abs/2311.00423v1

Project: https://llmrec.github.io/

Dataset: https://llmrec.github.io/#
Статья расскажет о подходах к объединению крупных баз данных с клиентской информацией, несмотря на ошибки и опечатки. Описываются методы предотвращения неверных объединений, включая сложные случаи, такие как записи братьев-близнецов.

👉 Читать
Please open Telegram to view this post
VIEW IN TELEGRAM
В этой статье расскажем о квантовании и как оно помогает в выборе оборудования, а также рассмотрим основные типы квантов в llama.cpp.

👉 Читать
Please open Telegram to view this post
VIEW IN TELEGRAM
Когда твой руководитель говорит: «А теперь ты еще и администратор сервера Power BI». Гид по выживанию для разработчика, внезапно ставшего многостаночником.

👉 Читать
Please open Telegram to view this post
VIEW IN TELEGRAM