☕️ LATTE3D: Large-scale Amortized Text-To-Enhanced3D Synthesis
NVIDIA выпустила еще одну новинку в области преобразования текста в 3D - LATTE3D. Потребность в высококачественных 3d-ресурсах огромна и охватывает медиа и развлечения, робототехнику и симуляцию, и это лишь некоторые из них.
DreamFusion, выпущенный примерно в 2022 году, был медленным и некачественным, но положил начало революции в области создания 3D. Такие модели, как ATT3D (амортизированный синтез текста в 3D-объекты), давали скорость за счет качества.
LATTE3D это высокое качество и генерация менее чем за секунду! Это означает, что вы можете быстро выполнить генерации и создать 3D-мир, используя преобразование текста или изображения в 3D. Это прорыв в использовании как нейронного поля, так и текстурированной поверхности для создания высокодетализированных текстурированных сеток за один проход.
https://research.nvidia.com/labs/toronto-ai/LATTE3D/
@ai_machinelearning_big_data
NVIDIA выпустила еще одну новинку в области преобразования текста в 3D - LATTE3D. Потребность в высококачественных 3d-ресурсах огромна и охватывает медиа и развлечения, робототехнику и симуляцию, и это лишь некоторые из них.
DreamFusion, выпущенный примерно в 2022 году, был медленным и некачественным, но положил начало революции в области создания 3D. Такие модели, как ATT3D (амортизированный синтез текста в 3D-объекты), давали скорость за счет качества.
LATTE3D это высокое качество и генерация менее чем за секунду! Это означает, что вы можете быстро выполнить генерации и создать 3D-мир, используя преобразование текста или изображения в 3D. Это прорыв в использовании как нейронного поля, так и текстурированной поверхности для создания высокодетализированных текстурированных сеток за один проход.
https://research.nvidia.com/labs/toronto-ai/LATTE3D/
@ai_machinelearning_big_data
👍15🔥6❤3🍌2
This media is not supported in your browser
VIEW IN TELEGRAM
⚡ StreamMultiDiffusion: Real-Time Interactive Generation with Region-Based Semantic Control
Модель для генерации изображений с детальным управлением областями, с помощью текста.
▪Сode: https://github.com/ironjr/StreamMultiDiffusion
▪Paper: https://arxiv.org/abs/2403.09055
@ai_machinelearning_big_data
Модель для генерации изображений с детальным управлением областями, с помощью текста.
▪Сode: https://github.com/ironjr/StreamMultiDiffusion
▪Paper: https://arxiv.org/abs/2403.09055
@ai_machinelearning_big_data
👍15🔥4🍌2❤1
Пользователь X под никнеймом facelessboy00 рассказал о том, как он помог другу пройти собеседование в технологическую компанию с помощью дипфейка. Сам он опытный разработчик, поэтому на созвон приходил сам и демонстрировал навыки, но в реальном времени заменял своё лицо на лицо друга. Со второй попытки удалось получить офер на 4 тыс. долларов в валюте.
На первом этапе другу собрали продающее резюме, которое помогло бы пройти первичный отбор. Для этого на LinkedIn отобрали профили людей из доменной области, которые работают в крупных компаниях. Другу искали работу в финтехе. Из выбранных профилей взяли пункты, которые хорошо бы смотрелись. Потом их перенесли в итоговое резюме, а в качестве опыта добавили несколько малоизвестных компаний. Для каждой из них накрутили минимум 2,5 года опыта.
После этого начали готовиться к интервью. Для этого использовали программу DeepFaceLive, которая захватывает видео и возвращает его с уже подменённым лицом. Задержка составляет 500 мс. Перед использованием нейросеть надо обучить на фото человека, которым будет заменяться лицо на видео. В качестве источника данных использовали датасет из 10 тыс. фотографий друга. Отмечается, что можно снять интервью и сделать нарезку кадров с крупным планом лица. Модель обучали 14 часов, а видеокарту RTX 3070 пришлось обновить до серии 4090.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍45😁25🔥9❤6🤬4🥰2🍌2
💥 Embedding quantization!
Новый метод квантования эмбедингов, который позволяет ускорить работу в 45 раз при сохранении точности 96%.
🔥 Binary quantization: требует в 32 раза меньше памяти и работает до 45 раз быстрее поиск, сохраняя производительность ~96%
✨ int8 quantization: в 4 раза меньше памяти и до 4 раз быстрее поис.
💰 Для 250 миллионов эмбедингов двоичному MxBai требуется 29 ГБ памяти против 953 ГБ для float32.
https://huggingface.co/blog/embedding-quantization
@ai_machinelearning_big_data
Новый метод квантования эмбедингов, который позволяет ускорить работу в 45 раз при сохранении точности 96%.
🔥 Binary quantization: требует в 32 раза меньше памяти и работает до 45 раз быстрее поиск, сохраняя производительность ~96%
✨ int8 quantization: в 4 раза меньше памяти и до 4 раз быстрее поис.
💰 Для 250 миллионов эмбедингов двоичному MxBai требуется 29 ГБ памяти против 953 ГБ для float32.
https://huggingface.co/blog/embedding-quantization
@ai_machinelearning_big_data
👍40🔥20👏3❤2🍌2
🔥 А здесь полный список лучших бесплатных курсов 2024 года и для изучения машинного обучения.
#бесплатныекурсы
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍52🔥17❤7🍌2❤🔥1🆒1
This media is not supported in your browser
VIEW IN TELEGRAM
🧬 Evolving New Foundation Models: Unleashing the Power of Automating Model Development
Одна из самых оригинальных статей о LLM за последнее время. Слияние эволюционных моделей: новый подход, приближающий нас к автоматизации создания моделей.
Авторы используют эволюционные алгоритмы для поиска лучших способов объединения моделей с открытым исходным кодом для автоматического создания новых мощных моделей с заданными пользователем возможностями!
▪Blog: https://sakana.ai/evolutionary-model-merge/
▪Paper: https://arxiv.org/abs/2403.13187
@ai_machinelearning_big_data
Одна из самых оригинальных статей о LLM за последнее время. Слияние эволюционных моделей: новый подход, приближающий нас к автоматизации создания моделей.
Авторы используют эволюционные алгоритмы для поиска лучших способов объединения моделей с открытым исходным кодом для автоматического создания новых мощных моделей с заданными пользователем возможностями!
▪Blog: https://sakana.ai/evolutionary-model-merge/
▪Paper: https://arxiv.org/abs/2403.13187
@ai_machinelearning_big_data
👍19🔥8❤4🍌1
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥36👍17❤7❤🔥1🍌1
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍29🔥13❤5🍌3😁1
Forwarded from Data Science. SQL hub
🔝 Где искать работу аналитику данных в различные направления DS,SQL, Аналитики и ML
Подборка с каналами, где можно найти вакансии или подработку:
▪Data Jobs
▪Data engineering/SQL
▪Python Jobs
▪Папка с вакансиями по различным направлениям
▪Аналитика данных
▪Машинное обучение полная папка
🔎 Полный ресурсов для поиска работы аналитику данных.
@sqlhub
Подборка с каналами, где можно найти вакансии или подработку:
▪Data Jobs
▪Data engineering/SQL
▪Python Jobs
▪Папка с вакансиями по различным направлениям
▪Аналитика данных
▪Машинное обучение полная папка
🔎 Полный ресурсов для поиска работы аналитику данных.
@sqlhub
🔥12👍4❤2🍌2
This media is not supported in your browser
VIEW IN TELEGRAM
🌊 LaVague: automate automation with Large Action Model framework
Модель для генерации selenium скриптов для автоматизации интернет-серфинга, действий на сайтах и парсинга🔥
▪Github: https://github.com/lavague-ai/LaVague
▪Docs: https://docs.lavague.ai/en/latest/docs/
▪Colab: https://colab.research.google.com/github/lavague-ai/LaVague/blob/main/docs/docs/get-
started/quick-tour.ipynb
@ai_machinelearning_big_data
Модель для генерации selenium скриптов для автоматизации интернет-серфинга, действий на сайтах и парсинга🔥
▪Github: https://github.com/lavague-ai/LaVague
▪Docs: https://docs.lavague.ai/en/latest/docs/
▪Colab: https://colab.research.google.com/github/lavague-ai/LaVague/blob/main/docs/docs/get-
started/quick-tour.ipynb
@ai_machinelearning_big_data
👍32🔥8❤4🍌1
This media is not supported in your browser
VIEW IN TELEGRAM
☕️ Latte: Latent Diffusion Transformer for Video Generation
Новый трансформер скрытой диффузии Latte, для генерации видео.
Latte сначала извлекает пространственно-временные маркеры из входных видео, а затем использует серию блоков-трансформеров для генерации видео в скрытом пространстве.
▪Github
▪Project
▪Paper
@ai_machinelearning_big_data
Новый трансформер скрытой диффузии Latte, для генерации видео.
Latte сначала извлекает пространственно-временные маркеры из входных видео, а затем использует серию блоков-трансформеров для генерации видео в скрытом пространстве.
▪Github
▪Project
▪Paper
@ai_machinelearning_big_data
👍13🔥6😁3❤2🍌1
🌍 𝗠𝗮𝗷𝗼𝗿 𝗧𝗢𝗠: 𝗣𝗹𝗮𝗻𝗲𝘁 𝗘𝗮𝗿𝘁𝗵 𝗶𝘀 𝗯̶𝗹̶𝘂̶𝗲̶ 𝟱.𝟰𝟬𝟱 𝗚𝗛𝘇
MajorTom-Core-S1RTC новый стандарт изображений со спутников и датасет, который содержит 1 469 955 снимков.
16 ТБ радиометрически откалиброванных изображений.
▪HF: https://huggingface.co/Major-TOM
▪Github: https://github.com/ESA-PhiLab/Major-TOM/
▪Colab: https://colab.research.google.com/github/ESA-PhiLab/Major-TOM/blob/main/03-Filtering-in-Colab.ipynb
▪Paper: https://www.arxiv.org/abs/2402.12095
▪MajorTOM-Core-Viewer: https://huggingface.co/spaces/Major-TOM/MajorTOM-Core-Viewer
@ai_machinelearning_big_data
MajorTom-Core-S1RTC новый стандарт изображений со спутников и датасет, который содержит 1 469 955 снимков.
16 ТБ радиометрически откалиброванных изображений.
▪HF: https://huggingface.co/Major-TOM
▪Github: https://github.com/ESA-PhiLab/Major-TOM/
▪Colab: https://colab.research.google.com/github/ESA-PhiLab/Major-TOM/blob/main/03-Filtering-in-Colab.ipynb
▪Paper: https://www.arxiv.org/abs/2402.12095
▪MajorTOM-Core-Viewer: https://huggingface.co/spaces/Major-TOM/MajorTOM-Core-Viewer
@ai_machinelearning_big_data
👍23🔥8❤5🍌1
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Lumiere - это модель пространственно-временной диффузии от Google Research.
Используя одно эталонное изображение, Lumiere может создавать видеоролики в нужном вам стиле, используя точно настроенные веса модели преобразования текста в изображение.
▪Lumiere → https://lumiere-video.github.io/?utm_source=social
▪Video: https://www.youtube.com/watch?v=wxLr02Dz2Sc&t=2s
▪Paper: https://arxiv.org/abs/2401.12945
@ai_machinelearning_big_data
Используя одно эталонное изображение, Lumiere может создавать видеоролики в нужном вам стиле, используя точно настроенные веса модели преобразования текста в изображение.
▪Lumiere → https://lumiere-video.github.io/?utm_source=social
▪Video: https://www.youtube.com/watch?v=wxLr02Dz2Sc&t=2s
▪Paper: https://arxiv.org/abs/2401.12945
@ai_machinelearning_big_data
👍14❤8🔥6🎉2🍌1
⚡️ DBRX, a groundbreaking open-source Large Language Model (LLM) with a staggering 132 billion parameters.
Компания Databricks только что представила DBRX, новую модель большого языка с открытым исходным кодом (LM) с ошеломляющими 132 миллиардами параметров.
Модель превосходит все открытые модели на большинстве бенчмарков.
Вот что вам нужно знать 👇
• DBRX - это новая бесплатная модель искусственного интеллекта с 132 миллиардами параметров.
•Может обрабатывать до 32 000 токенов одновременно.
•Обучен на 12 триллионах токенов.
•Точное следование инструкциям.
•С открытым исходным кодом на GitHub.
•Интегрирован с HuggingFace.
•Оптимизирован для систем NVIDIA.
•Расширенная настройка с поддержкой Docker.
▪Github: https://github.com/databricks/dbrx
▪HF: https://huggingface.co/databricks/dbrx-base
▪Demo: https://huggingface.co/spaces/databricks/dbrx-instruct
▪Docs: https://docs.databricks.com/en/machine-learning/foundation-models/index.html
@ai_machinelearning_big_data
Компания Databricks только что представила DBRX, новую модель большого языка с открытым исходным кодом (LM) с ошеломляющими 132 миллиардами параметров.
Модель превосходит все открытые модели на большинстве бенчмарков.
Вот что вам нужно знать 👇
• DBRX - это новая бесплатная модель искусственного интеллекта с 132 миллиардами параметров.
•Может обрабатывать до 32 000 токенов одновременно.
•Обучен на 12 триллионах токенов.
•Точное следование инструкциям.
•С открытым исходным кодом на GitHub.
•Интегрирован с HuggingFace.
•Оптимизирован для систем NVIDIA.
•Расширенная настройка с поддержкой Docker.
▪Github: https://github.com/databricks/dbrx
▪HF: https://huggingface.co/databricks/dbrx-base
▪Demo: https://huggingface.co/spaces/databricks/dbrx-instruct
▪Docs: https://docs.databricks.com/en/machine-learning/foundation-models/index.html
@ai_machinelearning_big_data
👍27🔥6❤4🍌1
YandexGPT 3 Pro, первая нейросетка линейки, уже появилась на Yandex Cloud. Её можно встроить через API, а перед этим, например, самостоятельно дообучить в сервисе ML-разработки Yandex DataSphere под конкретные задачи бизнеса.
Стоимость использования новой нейросети снизилась почти в два раза. Перед интеграцией в свои продукты у бизнеса есть возможность протестировать модель в отдельном чате на ограниченном количестве запросов. Для новых пользователей бесплатно доступно 100 запросов.
Языковая модель лучше понимает и держит контекст беседы, допускает меньше стилистических и фактических ошибок, а ещё теперь умеет представлять данные в формате JSON (JavaScript Object Notation).
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥31👍8🍌4❤2🥱1🌭1