303K subscribers
4.06K photos
722 videos
17 files
4.62K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
☕️ LATTE3D: Large-scale Amortized Text-To-Enhanced3D Synthesis

NVIDIA выпустила еще одну новинку в области преобразования текста в 3D - LATTE3D. Потребность в высококачественных 3d-ресурсах огромна и охватывает медиа и развлечения, робототехнику и симуляцию, и это лишь некоторые из них.

DreamFusion, выпущенный примерно в 2022 году, был медленным и некачественным, но положил начало революции в области создания 3D. Такие модели, как ATT3D (амортизированный синтез текста в 3D-объекты), давали скорость за счет качества.

LATTE3D это высокое качество и генерация менее чем за секунду!
Это означает, что вы можете быстро выполнить генерации и создать 3D-мир, используя преобразование текста или изображения в 3D. Это прорыв в использовании как нейронного поля, так и текстурированной поверхности для создания высокодетализированных текстурированных сеток за один проход.

https://research.nvidia.com/labs/toronto-ai/LATTE3D/

@ai_machinelearning_big_data
👍15🔥63🍌2
This media is not supported in your browser
VIEW IN TELEGRAM
StreamMultiDiffusion: Real-Time Interactive Generation with Region-Based Semantic Control

Модель для генерации изображений с детальным управлением областями, с помощью текста.

Сode: https://github.com/ironjr/StreamMultiDiffusion
Paper: https://arxiv.org/abs/2403.09055

@ai_machinelearning_big_data
👍15🔥4🍌21
⚡️ Разработчик с помощью дипфейка в реальном времени прошёл собеседование за друга

Пользователь X под никнеймом facelessboy00 рассказал о том, как он помог другу пройти собеседование в технологическую компанию с помощью дипфейка. Сам он опытный разработчик, поэтому на созвон приходил сам и демонстрировал навыки, но в реальном времени заменял своё лицо на лицо друга. Со второй попытки удалось получить офер на 4 тыс. долларов в валюте.

На первом этапе другу собрали продающее резюме, которое помогло бы пройти первичный отбор. Для этого на LinkedIn отобрали профили людей из доменной области, которые работают в крупных компаниях. Другу искали работу в финтехе. Из выбранных профилей взяли пункты, которые хорошо бы смотрелись. Потом их перенесли в итоговое резюме, а в качестве опыта добавили несколько малоизвестных компаний. Для каждой из них накрутили минимум 2,5 года опыта.

После этого начали готовиться к интервью. Для этого использовали программу DeepFaceLive, которая захватывает видео и возвращает его с уже подменённым лицом. Задержка составляет 500 мс. Перед использованием нейросеть надо обучить на фото человека, которым будет заменяться лицо на видео. В качестве источника данных использовали датасет из 10 тыс. фотографий друга. Отмечается, что можно снять интервью и сделать нарезку кадров с крупным планом лица. Модель обучали 14 часов, а видеокарту RTX 3070 пришлось обновить до серии 4090.

📎 Читать подробнее

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍45😁25🔥96🤬4🥰2🍌2
💥 Embedding quantization!

Новый метод квантования эмбедингов, который позволяет ускорить работу в 45 раз при сохранении точности 96%.

🔥 Binary quantization: требует в 32 раза меньше памяти и работает до 45 раз быстрее поиск, сохраняя производительность ~96%
int8 quantization: в 4 раза меньше памяти и до 4 раз быстрее поис.
💰 Для 250 миллионов эмбедингов двоичному MxBai требуется 29 ГБ памяти против 953 ГБ для float32.

https://huggingface.co/blog/embedding-quantization

@ai_machinelearning_big_data
👍40🔥20👏32🍌2
🔥 Nvidia опубликовала в открытом доступе бесплатные обучающие курсы для пользователей любого уровня подготовки по нейросетям и нейромоделям для понимания работы ИИ

объяснение генеративного ИИ: базированный 2-часовой курс, который подробно объяснит устройство нейронок, их применение и возможности;

создаём «мозг» за 10 минут: объяснит, как нейронка обучается на данных и покажет всю математику у неё под капотом;

введение в ИИ в центре обработки данных: всё про машинное обучение и глубокое обучение; какие есть фреймворки и как видеокарты двигают ИИ;

усиливаем свою LLM с помощью RAG: объяснит всю базу по генерации с дополненной выборкой;

создание своих RAG-агентов: мощнейший 8-часовой курс про масштабируемые стратегии развертывания для LLM и векторные базы данных;

ускорение работы с Data Science без изменения кода: всё об обработке данных и машинном обучении без переписываний кода;

усиление рекомендательных систем с помощью ИИ: курс-коллаб NVIDIA и YouTube;

устройство сетей: база про протоколы TCP/IP и Ethernet — необходимо для понимания процессов обработки данных.

🔥 А здесь полный список лучших бесплатных курсов 2024 года и для изучения машинного обучения.

#бесплатныекурсы

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍52🔥177🍌2❤‍🔥1🆒1
This media is not supported in your browser
VIEW IN TELEGRAM
🧬 Evolving New Foundation Models: Unleashing the Power of Automating Model Development

Одна из самых оригинальных статей о LLM за последнее время. Слияние эволюционных моделей: новый подход, приближающий нас к автоматизации создания моделей.

Авторы используют эволюционные алгоритмы для поиска лучших способов объединения моделей с открытым исходным кодом для автоматического создания новых мощных моделей с заданными пользователем возможностями!

Blog: https://sakana.ai/evolutionary-model-merge/
Paper: https://arxiv.org/abs/2403.13187

@ai_machinelearning_big_data
👍19🔥84🍌1
🔥 В MIT придумали, как в 30 раз ускорить генерацию изображений с помощью ИИ

Исследователи из Массачусетского технологического института (MIT) смогли заметно ускорить создание изображений по текстовым описаниям с помощью генеративного искусственного интеллекта. Новый метод позволяет генерировать изображения высокой чёткости в 30 раз быстрее существующих.

Обычно в генеративных ИИ применяется техника так называемой «диффузии», когда создаётся максимально размытая картинка, а затем она детализируется до окончательного результата, максимально соответствующего тому, что ИИ может выдать в ответ на запрос пользователя. Диффузия занимает довольно много времени, поэтому исследователи MIT поставили цель её ускорить.

Исследователи из Лаборатории компьютерных наук и искусственного интеллекта MIT свели генерацию изображений к единственному проходу, а новый метод назвали «дистилляцией с согласованным распределением» (distribution matching distillation). Очевидно, что генерация картинки в один проход заметно быстрее, чем за типичные для диффузионных моделей 30–50 шагов. Так, на современном оборудовании Stable Diffusion 1.5 создаёт изображение за 1,5 секунды, в то время как новая модель на основе DMD справляется за 0,05 секунды.

Это не первая попытка дистилляции диффузионных моделей для ускорения генерации изображений. В Instaflow и LCM пытались применить похожий подход, но результаты не впечатляли. Компания Stability AI также пыталась ускорить диффузионные модели и добилась некоторых успехов, выпустив Stable Diffusion Turbo, создающую картинку с разрешением до 1 мегапикселя за один проход, однако сгенерированные в несколько проходов изображения всё равно получались заметно лучше.

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥36👍177❤‍🔥1🍌1
🔥 OpenAI готовит революцию в голосовом взаимодействии с техникой

Как стало известно, компания OpenAI не только работает над следующей версией фирменной языковой модели GPT, но и готовит к релизу продвинутый голосовой движок Voice Engine. На запуск нового проекта ранее намекал и Сэм Альтман, глава OpenAI.

Предполагается, что голосовой движок от OpenAI перевернёт представление о взаимодействии с техникой, поскольку он будет понимать человеческую речь так же хорошо, как и другой человек. Это позволит объяснять задачу естественным способом и разными словами, а не конкретными запрограммированными фразами и командами.

Более того, этот голосовой движок потенциально сможет генерировать речь, неотличимую от человеческой. Бывший сотрудник OpenAI Андрей Карпати не исключает появление виртуальных помощников, напоминающих «Джарвиса». Есть даже слухи, что OpenAI готовит какой-то физический продукт с использованием этого движка. Несложно также представить его появление в человекоподобных роботах, как уже было с чат-ботом ChatGPT.

Позже в этом году OpenAI также планирует выпустить нейросеть для генерации реалистичных видео Sora.

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍29🔥135🍌3😁1
Forwarded from Data Science. SQL hub
🔝 Где искать работу аналитику данных в различные направления DS,SQL, Аналитики и ML

Подборка с каналами, где можно найти вакансии или подработку:
Data Jobs
Data engineering/SQL
Python Jobs
Папка с вакансиями по различным направлениям
Аналитика данных
Машинное обучение полная папка

🔎 Полный ресурсов для поиска работы аналитику данных.

@sqlhub
🔥12👍42🍌2
This media is not supported in your browser
VIEW IN TELEGRAM
🌊 LaVague: automate automation with Large Action Model framework

Модель для генерации selenium скриптов для автоматизации интернет-серфинга, действий на сайтах и парсинга🔥

Github: https://github.com/lavague-ai/LaVague
Docs: https://docs.lavague.ai/en/latest/docs/
Colab: https://colab.research.google.com/github/lavague-ai/LaVague/blob/main/docs/docs/get-
started/quick-tour.ipynb

@ai_machinelearning_big_data
👍32🔥84🍌1
This media is not supported in your browser
VIEW IN TELEGRAM
☕️ Latte: Latent Diffusion Transformer for Video Generation

Новый трансформер скрытой диффузии Latte, для генерации видео.

Latte сначала извлекает пространственно-временные маркеры из входных видео, а затем использует серию блоков-трансформеров для генерации видео в скрытом пространстве.

Github
Project
Paper

@ai_machinelearning_big_data
👍13🔥6😁32🍌1
🌍 𝗠𝗮𝗷𝗼𝗿 𝗧𝗢𝗠: 𝗣𝗹𝗮𝗻𝗲𝘁 𝗘𝗮𝗿𝘁𝗵 𝗶𝘀 𝗯̶𝗹̶𝘂̶𝗲̶ 𝟱.𝟰𝟬𝟱 𝗚𝗛𝘇

MajorTom-Core-S1RTC новый стандарт изображений со спутников и датасет, который содержит 1 469 955 снимков.

16 ТБ радиометрически откалиброванных изображений.

HF: https://huggingface.co/Major-TOM
Github: https://github.com/ESA-PhiLab/Major-TOM/
Colab: https://colab.research.google.com/github/ESA-PhiLab/Major-TOM/blob/main/03-Filtering-in-Colab.ipynb
Paper: https://www.arxiv.org/abs/2402.12095
MajorTOM-Core-Viewer: https://huggingface.co/spaces/Major-TOM/MajorTOM-Core-Viewer

@ai_machinelearning_big_data
👍23🔥85🍌1
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Lumiere - это модель пространственно-временной диффузии от Google Research.

Используя одно эталонное изображение, Lumiere может создавать видеоролики в нужном вам стиле, используя точно настроенные веса модели преобразования текста в изображение.

Lumiere https://lumiere-video.github.io/?utm_source=social
Video: https://www.youtube.com/watch?v=wxLr02Dz2Sc&t=2s
Paper: https://arxiv.org/abs/2401.12945

@ai_machinelearning_big_data
👍148🔥6🎉2🍌1
⚡️ DBRX, a groundbreaking open-source Large Language Model (LLM) with a staggering 132 billion parameters.

Компания Databricks только что представила DBRX, новую модель большого языка с открытым исходным кодом (LM) с ошеломляющими 132 миллиардами параметров.

Модель превосходит все открытые модели на большинстве бенчмарков.

Вот что вам нужно знать 👇

• DBRX - это новая бесплатная модель искусственного интеллекта с 132 миллиардами параметров.
•Может обрабатывать до 32 000 токенов одновременно.
•Обучен на 12 триллионах токенов.
•Точное следование инструкциям.
•С открытым исходным кодом на GitHub.
•Интегрирован с HuggingFace.
•Оптимизирован для систем NVIDIA.
•Расширенная настройка с поддержкой Docker.

Github: https://github.com/databricks/dbrx
HF: https://huggingface.co/databricks/dbrx-base
Demo: https://huggingface.co/spaces/databricks/dbrx-instruct
Docs: https://docs.databricks.com/en/machine-learning/foundation-models/index.html

@ai_machinelearning_big_data
👍27🔥64🍌1
🔥 Яндекс представил третье поколение больших языковых моделей YandexGPT

YandexGPT 3 Pro, первая нейросетка линейки, уже появилась на Yandex Cloud. Её можно встроить через API, а перед этим, например, самостоятельно дообучить в сервисе ML-разработки Yandex DataSphere под конкретные задачи бизнеса.

Стоимость использования новой нейросети снизилась почти в два раза. Перед интеграцией в свои продукты у бизнеса есть возможность протестировать модель в отдельном чате на ограниченном количестве запросов. Для новых пользователей бесплатно доступно 100 запросов.

Языковая модель лучше понимает и держит контекст беседы, допускает меньше стилистических и фактических ошибок, а ещё теперь умеет представлять данные в формате JSON (JavaScript Object Notation).

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥31👍8🍌42🥱1🌭1