Media is too big
VIEW IN TELEGRAM
📽 VideoCrafter2: Overcoming Data Limitations for High-Quality Video Diffusion Models 🔥 Text2Video 📹 Image2Video 🎥 Jupyter Notebook 🥳
VideoCrafter 2 - это обновленный набор инструментов с открытым исходным кодом для создания и редактирования видео высокого качества.
В настоящее время он включает модели Text2Video и Image2Video.
🖥 Code: https://github.com/AILab-CVC/VideoCrafter
🚀 Project: https://ailab-cvc.github.io/videocrafter2/
📚 Paper: https://arxiv.org/abs/2401.09047
🦉 Jupyter: https://github.com/camenduru/VideoCrafter-colab
@ai_machinelearning_big_data
VideoCrafter 2 - это обновленный набор инструментов с открытым исходным кодом для создания и редактирования видео высокого качества.
В настоящее время он включает модели Text2Video и Image2Video.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍27❤3❤🔥2🔥2
🎉 Release Code Llama 70B!
Вышла Code Llama 70B: новая, более производительная версия LLM для генерации кода - доступная по той же лицензии, что и предыдущие модели Code Llama.
- Base https://hf.co/codellama/CodeLlama-70b-hf
- Python https://hf.co/codellama/CodeLlama-70b-Python-hf
- Instruct https://hf.co/codellama/CodeLlama-70b-Instruct-hf
CodeLlama-70B-Instruct достигает 67,8 балла в HumanEval, что делает ее одной из самых высокопроизводительных открытых моделей на сегодняшний день.
CodeLlama-70B - это самая производительная база для тонкой настройки моделей генерации кода.
✅ Разрешено коммерческое использование
➡️Скачать модели
@ai_machinelearning_big_data
Вышла Code Llama 70B: новая, более производительная версия LLM для генерации кода - доступная по той же лицензии, что и предыдущие модели Code Llama.
- Base https://hf.co/codellama/CodeLlama-70b-hf
- Python https://hf.co/codellama/CodeLlama-70b-Python-hf
- Instruct https://hf.co/codellama/CodeLlama-70b-Instruct-hf
CodeLlama-70B-Instruct достигает 67,8 балла в HumanEval, что делает ее одной из самых высокопроизводительных открытых моделей на сегодняшний день.
CodeLlama-70B - это самая производительная база для тонкой настройки моделей генерации кода.
✅ Разрешено коммерческое использование
➡️Скачать модели
@ai_machinelearning_big_data
👍35🔥5❤1🥰1😁1💘1
This media is not supported in your browser
VIEW IN TELEGRAM
from a Single Scan
Новый ИИ, который может раздевать 3D модели людей.
GALA может обработать однослойную сетку одетого 3D-человека и разложить ее на полноценные многослойные 3D-объекты.
Полученные результаты могут быть объединены с другими объектов для создания новых одетых человеческих аватаров с любой позой.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍19🔥5❤2
This media is not supported in your browser
VIEW IN TELEGRAM
Diffutoon - это новая модель диффузии для преобразования видео в анимационный стиль. Работает с высоким разрешением и быстрыми движениями.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍51🔥19😨7❤5
InstructIR принимает на вход изображение и инструкцию по его улучшению. Нейронная сеть выполняет комплексное восстановление и улучшение изображения.
InstructIR достигает передовых результатов в нескольких задачах реставрации, включая обесцвечивание, размытие и улучшение изображения (даже при слабом освещении).
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍29🔥9❤4🤓1
⚡️ MoE-LLaVA: Mixture of Experts for Large Vision-Language Models
Новая стратегия обучения MoE-tuning для LVLM, которая позволяет построить модель с огромным количеством параметров, которая эффективно решает проблему снижения производительности, обычно связанную с мультимодальным обучением и разреженностью модели.
Этот фреймворк уникальным образом активирует только топ-к экспертов через маршрутизаторы во время развертывания, оставляя остальных экспертов неактивными.
Обширные эксперименты подчеркивают возможности
Примечательно, что при наличии всего 3 миллиардов редко активируемых параметров MoE-LLaVA демонстрирует производительность, сравнимую с LLaVA-1.5-7B на различных наборах данных для визуального понимания, и даже превосходит LLaVA-1.5-13B в тестах на галлюцинации объектов.
🖥 Code: https://github.com/PKU-YuanGroup/MoE-LLaVA
🚀 Jupyter: https://github.com/camenduru/MoE-LLaVA-jupyter
📚 Paper: https://arxiv.org/abs/2401.15947
@ai_machinelearning_big_data
Новая стратегия обучения MoE-tuning для LVLM, которая позволяет построить модель с огромным количеством параметров, которая эффективно решает проблему снижения производительности, обычно связанную с мультимодальным обучением и разреженностью модели.
Этот фреймворк уникальным образом активирует только топ-к экспертов через маршрутизаторы во время развертывания, оставляя остальных экспертов неактивными.
Обширные эксперименты подчеркивают возможности
MoE-LLaVA
в визуальном понимании и ее потенциал для уменьшения галлюцинаций в результатах моделирования. Примечательно, что при наличии всего 3 миллиардов редко активируемых параметров MoE-LLaVA демонстрирует производительность, сравнимую с LLaVA-1.5-7B на различных наборах данных для визуального понимания, и даже превосходит LLaVA-1.5-13B в тестах на галлюцинации объектов.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍24❤5🔥3🎉1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ MotionDirector: Motion Customization of Text-to-Video Diffusion Models
MotionDirector модель генерации текста в видео, для создания видео в движении по указанным инструкциям.
🖥 Github: https://github.com/showlab/MotionDirector
📕 Paper: https://arxiv.org/abs/2310.08465
⭐️ Project: showlab.github.io/MotionDirector/
ai_machinelearning_big_data
MotionDirector модель генерации текста в видео, для создания видео в движении по указанным инструкциям.
ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍18❤3🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Простая и практичная библиотека на Python для CMA-ES.
Стратегия эволюции адаптации ковариационной матрицы (CMA-ES) - это особый вид стратегии для численной оптимизации .
Стратегии развития (ES) - это стохастические , методы без производных для числовой оптимизации не- линейной или не выпуклые задачи непрерывной оптимизации .
Они принадлежат к классу эволюционных алгоритмов и эволюционных вычислений . эволюционный алгоритм в целом основан на принципе биологической эволюции , а именно на повторяющемся взаимодействии вариаций (посредством рекомбинации и мутации) и отбора: в каждом поколении (итерации) новые особи (кандидаты решения, обозначенные как ), генерируются путем изменения, обычно стохастическим образом, текущих родительских особей.
$ pip install cmaes
import numpy as np
from cmaes import CMA
def quadratic(x1, x2):
return (x1 - 3) ** 2 + (10 * (x2 + 2)) ** 2
if __name__ == "__main__":
optimizer = CMA(mean=np.zeros(2), sigma=1.3)
for generation in range(50):
solutions = []
for _ in range(optimizer.population_size):
x = optimizer.ask()
value = quadratic(x[0], x[1])
solutions.append((x, value))
print(f"#{generation} {value} (x1={x[0]}, x2 = {x[1]})")
optimizer.tell(solutions)
ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍24❤5🔥5😢1🎉1
🔢 DeepSeekMath: Pushing the Limits of Mathematical Reasoning in Open Language Models
DeepSeekMath 7B - новая модель для решения математических задач. DeepSeekMath 7B показал впечатляющий результат в на соревновательном уровне в бенчмарке MATH , приблизившись к уровню Gemini-Ultra и GPT-4.
🖥 Github: https://github.com/deepseek-ai/deepseek-math
📚 Paper: https://arxiv.org/abs/2402.03300v1
🦾 Dataset: https://paperswithcode.com/dataset/math
ai_machinelearning_big_data
DeepSeekMath 7B - новая модель для решения математических задач. DeepSeekMath 7B показал впечатляющий результат в на соревновательном уровне в бенчмарке MATH , приблизившись к уровню Gemini-Ultra и GPT-4.
📚 Paper: https://arxiv.org/abs/2402.03300v1
🦾 Dataset: https://paperswithcode.com/dataset/math
ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍31❤3🥰3🎉2⚡1👏1👀1
This media is not supported in your browser
VIEW IN TELEGRAM
🎙 MetaVoice-1B: 1.2B parameter base model trained on 100K hours of speech for #TTS (text-to-speech)
> Новейшая модель высококачественного клонирования голоса .
> 1.2B параметрическая модель.
> Обучена на 100 тысячах часов данных.
> Синтез коротких и длинных разговоров.
> Генерация эмоциональной речи.
> Лицензия Apache 2.0. 🔥
Простая, но надежная архитектура:
> Encodec (Multi-Band Diffusion) и GPT + Encoder Transformer LM.
> DeepFilterNet для очистки от артефактов MBD.
🌐page: https://themetavoice.xyz
🧬code: https://github.com/metavoiceio/metavoice-src
🧪demo: https://ttsdemo.themetavoice.xyz
📦model: https://huggingface.co/metavoiceio/metavoice-1B-v0.1
ai_machinelearning_big_data
> Новейшая модель высококачественного клонирования голоса .
> 1.2B параметрическая модель.
> Обучена на 100 тысячах часов данных.
> Синтез коротких и длинных разговоров.
> Генерация эмоциональной речи.
> Лицензия Apache 2.0. 🔥
Простая, но надежная архитектура:
> Encodec (Multi-Band Diffusion) и GPT + Encoder Transformer LM.
> DeepFilterNet для очистки от артефактов MBD.
🌐page: https://themetavoice.xyz
🧬code: https://github.com/metavoiceio/metavoice-src
🧪demo: https://ttsdemo.themetavoice.xyz
📦model: https://huggingface.co/metavoiceio/metavoice-1B-v0.1
ai_machinelearning_big_data
🔥28👍10❤5
This media is not supported in your browser
VIEW IN TELEGRAM
Обнаружение объектов в режиме реального времени БЕЗ ОБУЧЕНИЯ.
YOLO-World - это новая SOTA, которая превосходит предыдущие модели как по точности обнаружения, так и по скорости. 35,4 AP при 52,0 FPS на V100.
Все, что вам нужно, это изображение + промпт (список категорий, которые вы хотите обнаружить).
📚 Paper: https://arxiv.org/abs/2401.17270
ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥56👍17❤4😁1😍1
👨🎓 Famous scientists and modern technologies by Kandinsky
Такой подборкой порадовала отечественная генеративная модель в честь Дня науки.
В частности, Kandinsky нарисовала Менделеева за ноутбуком, Дарвина за электронным микроскопом, Павлова с собакой-роботом и других.
🌐page: https://vk.com/kandinskiy_bot?w=wall-219823705_8793
ai_machinelearning_big_data
Такой подборкой порадовала отечественная генеративная модель в честь Дня науки.
В частности, Kandinsky нарисовала Менделеева за ноутбуком, Дарвина за электронным микроскопом, Павлова с собакой-роботом и других.
🌐page: https://vk.com/kandinskiy_bot?w=wall-219823705_8793
ai_machinelearning_big_data
👍23🔥8🥱8❤3👏2❤🔥1