Компания xAI объявила о запуске Grok 3 — самой продвинутой версии своего искусственного интеллекта, которую теперь можно попробовать абсолютно бесплатно. Однако разработчики предупреждают: доступ открыт «до тех пор, пока наши серверы не расплавятся от нагрузки»
Grok 3 уже доступен для тестирования через платформу X по ссылке. Пользователи с подпиской X Premium+ и SuperGrok получат расширенный доступ к новейшему ИИ, а также эксклюзивную возможность опробовать передовые функции, такие как голосовой режим (Voice Mode), раньше остальных.
Кроме того, для удобства пользователей xAI выпустила отдельное приложение Grok, которое уже доступно для скачивания в США через App Store для iOS. скачать его можно по ссылке. В ближайшее время ожидается выход приложения в Google Play для Android, однако пока точные сроки и список других стран, где оно станет доступно, не уточняются.
Спешите испытать Grok 3 — пока серверы не расплавились!
Please open Telegram to view this post
VIEW IN TELEGRAM
Новый прорыв от Microsoft 🏳️🌈
Компания Microsoft представила свою инновационную модель Muse - это ИИ для генерации игрового процесса. Модель была создана исследовательским подразделением Microsoft Research в сотрудничестве со студией Ninja Theory, известной по игре Bleeding Edge. Muse способна генерировать игровые окружения, понимая физику и динамику 3D-мира, а также реакции на действия игроков. Ее обучали на семилетнем объеме данных реального геймплея Bleeding Edge.
Разрабы негодуют, так как боятся что такими "инновациями" многолетний труд художников и разработчиков находится под угрозой и возможно сокращение рабочих мест в индустрии. Microsoft признает опасения и заявляет, что Muse предназначена для дополнения, а не замены человека.
⚙️ Технические данные:
🟡 Качество генерации: На текущем этапе Muse генерирует визуальные данные с разрешением 300×180 пикселей при 10 кадрах в секунду, что соответствует 1 секунде реального игрового процесса.
🟡 Обучение: Изначально обучение проводилось на кластере V100, что позволило масштабировать процесс до 100 GPU. Позднее обучение было перенесено на H100, что обеспечило более высокую производительность и эффективность.
🟡 Архитектура: Muse использует трансформерную архитектуру, адаптированную для обработки визуальных данных и действий контроллера. Для эффективного представления изображений и действий контроллера были приняты ключевые проектные решения, заимствованные из сообщества больших языковых моделей (LLM).
Статьи: xbox wire, wired, microsoft
Компания Microsoft представила свою инновационную модель Muse - это ИИ для генерации игрового процесса. Модель была создана исследовательским подразделением Microsoft Research в сотрудничестве со студией Ninja Theory, известной по игре Bleeding Edge. Muse способна генерировать игровые окружения, понимая физику и динамику 3D-мира, а также реакции на действия игроков. Ее обучали на семилетнем объеме данных реального геймплея Bleeding Edge.
Разрабы негодуют, так как боятся что такими "инновациями" многолетний труд художников и разработчиков находится под угрозой и возможно сокращение рабочих мест в индустрии. Microsoft признает опасения и заявляет, что Muse предназначена для дополнения, а не замены человека.
Статьи: xbox wire, wired, microsoft
Please open Telegram to view this post
VIEW IN TELEGRAM
Neurogen
VisoMaster Portable by Neurogen v 0.1.3 | DeepFake | Nvidia VisoMaster — мощная и простая в использовании программа для замены лиц (DeepFake) и редактирования видео, которая объединяет современные нейросетевые технологии для создания реалистичных эффектов.…
VisoMaster Portable by Neurogen v 0.1.4 | DeepFake | Nvidia
Начиная с данной версии, сборка поддерживает видеокарты серии RTX 50XX (RTX 5080, RTX 5090 и другие).
Для этого Cuda была обновлена до версии 12.8, TensorRT до версии 10.8 и CuDNN до версии 9.7.1
Обновление v0.1.4. Что нового:
Горячие клавиши:
F11: Переключение полноэкранного режима
V: Перемотка видео на 1 кадр вперед
C: Перемотка видео на 1 кадр назад
D: Перемотка видео на 30 кадров вперед
A: Перемотка видео на 30 кадров назад
Z: Переход к началу видео
Пробел: Воспроизведение/Пауза видео
R: Начало/Остановка записи
F: Добавление/удаление маркера (Alt+F для удаления)
W: Переход к следующему маркеру
Q: Переход к предыдущему маркеру
S: Переключение замены лиц
Дополнительно:
Добавлено контекстное меню для удаления элементов из разделов "Целевые медиа" и "Входные лица"
Добавлена опция вставки артефактов JPEG-сжатия в вывод для повышения реалистичности при работе с низкокачественными целевыми медиа
Обновлено управление параметрами с поддержкой резервного варианта
Автоматическая генерация эскизов для всех ранее загруженных целевых файлов
Горизонтальная прокрутка для списка эмбеддингов
Применение восстановителя выражений до восстановителя лиц в конвейере замены
Сборка доступна при поддержке проекта. Проект можно поддержать:
Boosty (Картой)
Telegram (USDT, ЮMoney, Telegram Stars)
#deepfake #portable #visomaster
Начиная с данной версии, сборка поддерживает видеокарты серии RTX 50XX (RTX 5080, RTX 5090 и другие).
Для этого Cuda была обновлена до версии 12.8, TensorRT до версии 10.8 и CuDNN до версии 9.7.1
Обновление v0.1.4. Что нового:
Горячие клавиши:
F11: Переключение полноэкранного режима
V: Перемотка видео на 1 кадр вперед
C: Перемотка видео на 1 кадр назад
D: Перемотка видео на 30 кадров вперед
A: Перемотка видео на 30 кадров назад
Z: Переход к началу видео
Пробел: Воспроизведение/Пауза видео
R: Начало/Остановка записи
F: Добавление/удаление маркера (Alt+F для удаления)
W: Переход к следующему маркеру
Q: Переход к предыдущему маркеру
S: Переключение замены лиц
Дополнительно:
Добавлено контекстное меню для удаления элементов из разделов "Целевые медиа" и "Входные лица"
Добавлена опция вставки артефактов JPEG-сжатия в вывод для повышения реалистичности при работе с низкокачественными целевыми медиа
Обновлено управление параметрами с поддержкой резервного варианта
Автоматическая генерация эскизов для всех ранее загруженных целевых файлов
Горизонтальная прокрутка для списка эмбеддингов
Применение восстановителя выражений до восстановителя лиц в конвейере замены
Сборка доступна при поддержке проекта. Проект можно поддержать:
Boosty (Картой)
Telegram (USDT, ЮMoney, Telegram Stars)
#deepfake #portable #visomaster
This media is not supported in your browser
VIEW IN TELEGRAM
[Open Beta] FastHynyuanVideo LowVRAM Portable by Neurogen
Сделал версию для видеокарт на 8-12Gb видеопамяти и более.
Для работы нужно минимум 32 Gb оперативной памяти, так как модели будут активно выгружаться в нее. Работа была проверена на RTX 3060 Ti 8Gb, генерация видео в 3-4 секунды заняло 600 секунд.
Данная сборка может показаться интересной и для владельцев видеокарт на 24Gb видеопамяти, так как позволяет генерировать ролики с большим разрешением / c большей длинной.
В основе лежат GGUF версии моделей, квантованные до 4 бит (Q4_0)
Для тех, кто уже активно пользуется ComfyUI, прикладываю файл workflow.
Запуск:
- Качаете архив, распаковываете, затем запускаете файл run_nvidia_gpu.bat
Затем у вас откроется браузер и в этой вкладке нажмите W. Затем в появившемся окне выберите наш рабочий процесс (он будет сверху, в избранном)
Для вас я специально выделил и подписал основные настройки в рамках одной группы, а также добавил подсказку по оптимальным параметрам.
Под капотом - полностью готовый к работе и настроенный ComfyUI, с кучей оптимизаций.
По производительности: генерация одного видео в несколько секунд хронометража генерируется на RTX 4090 примерно 60-80 секунд (что, как по мне, ну очень быстро). На RTX 3060 Ti время генерации составило уже 600 секунд.
Сборка поддерживает возможность выбора LoRA, специально для вас я закинул несколько, в том числе и для генерации NSFW контента😁 .
Дополнительные вы можете скачать на civit.ai, их там по моему целая сотня.
Рекомендуемые разрешения это 848x480, 960x544 и 1280x720, но на 24 GB VRAM наиболее адекватно работает 848x480, 960x544. Количество кадров от 25 до 129. В среднем, генерация ролика в таком случае занимает до двух минут.
Касаемо генерации image2video - пока что ее нет, разработчики HynyuanVideo не выпускали такой версии модели. Но есть уже дообученные модели, вроде SkyReels, и как только их квантуют - выпущу обновление.
Скачать сборку бесплатно можно с:
С Моего сервера | С Зеркала (Yandex Disk).
Просьба при наличии ошибок и проблем, присылайте сразу скрины консоли или скрины ошибок в комментарии. Я только начал собирать ядро своей универсальной сборки Комфи, поэтому могут быть различные проблемы.
Сделал версию для видеокарт на 8-12Gb видеопамяти и более.
Для работы нужно минимум 32 Gb оперативной памяти, так как модели будут активно выгружаться в нее. Работа была проверена на RTX 3060 Ti 8Gb, генерация видео в 3-4 секунды заняло 600 секунд.
Данная сборка может показаться интересной и для владельцев видеокарт на 24Gb видеопамяти, так как позволяет генерировать ролики с большим разрешением / c большей длинной.
В основе лежат GGUF версии моделей, квантованные до 4 бит (Q4_0)
Для тех, кто уже активно пользуется ComfyUI, прикладываю файл workflow.
Запуск:
- Качаете архив, распаковываете, затем запускаете файл run_nvidia_gpu.bat
Затем у вас откроется браузер и в этой вкладке нажмите W. Затем в появившемся окне выберите наш рабочий процесс (он будет сверху, в избранном)
Для вас я специально выделил и подписал основные настройки в рамках одной группы, а также добавил подсказку по оптимальным параметрам.
Под капотом - полностью готовый к работе и настроенный ComfyUI, с кучей оптимизаций.
По производительности: генерация одного видео в несколько секунд хронометража генерируется на RTX 4090 примерно 60-80 секунд (что, как по мне, ну очень быстро). На RTX 3060 Ti время генерации составило уже 600 секунд.
Сборка поддерживает возможность выбора LoRA, специально для вас я закинул несколько, в том числе и для генерации NSFW контента
Дополнительные вы можете скачать на civit.ai, их там по моему целая сотня.
Рекомендуемые разрешения это 848x480, 960x544 и 1280x720, но на 24 GB VRAM наиболее адекватно работает 848x480, 960x544. Количество кадров от 25 до 129. В среднем, генерация ролика в таком случае занимает до двух минут.
Касаемо генерации image2video - пока что ее нет, разработчики HynyuanVideo не выпускали такой версии модели. Но есть уже дообученные модели, вроде SkyReels, и как только их квантуют - выпущу обновление.
Скачать сборку бесплатно можно с:
С Моего сервера | С Зеркала (Yandex Disk).
Просьба при наличии ошибок и проблем, присылайте сразу скрины консоли или скрины ошибок в комментарии. Я только начал собирать ядро своей универсальной сборки Комфи, поэтому могут быть различные проблемы.
Please open Telegram to view this post
VIEW IN TELEGRAM
В прошлом месяце DeepSeek перевернул мир ИИ с ног на голову, выпустив новую, конкурентоспособную модель имитируемого рассуждения, которую можно было бесплатно загрузить и использовать по лицензии MIT . Теперь компания готовится сделать базовый код этой модели более доступным, обещая выпустить пять репозиториев с открытым исходным кодом, начиная со следующей недели.
В сообщении в социальных сетях в четверг вечером DeepSeek сообщила, что ежедневные релизы, которые она планирует в рамках своей «Недели открытого исходного кода», позволят увидеть «эти скромные строительные блоки нашего онлайн-сервиса, которые были задокументированы, развернуты и проверены в реальных условиях. Как часть сообщества открытого исходного кода, мы считаем, что каждая строка, которой мы делимся, становится коллективным импульсом, который ускоряет процесс».
Хотя DeepSeek не конкретизировал, каким именно кодом он будет делиться, сопроводительная страница GitHub для «DeepSeek Open Infra» обещает, что в будущих релизах будет представлен «код, который продвинул наш крошечный полет на Луну» и будет рассказано о «нашем небольшом, но искреннем прогрессе с полной прозрачностью». На странице также есть ссылка на статью 2024 года, в которой подробно описывается архитектура обучения DeepSeek и программный стек.
Этот шаг грозит усилить контраст между DeepSeek и OpenAI, чьи лидирующие на рынке модели ChatGPT остаются полностью проприетарными, что делает их внутреннюю работу непрозрачной для внешних пользователей и исследователей. Выпуск с открытым исходным кодом также может помочь обеспечить более широкий и простой доступ к DeepSeek, даже несмотря на то, что его мобильное приложение сталкивается с международными ограничениями из-за проблем с конфиденциальностью .
Первоначальный выпуск модели DeepSeek уже включал так называемый "открытый вес" доступ к базовым данным, представляющим силу связей между миллиардами смоделированных нейронов модели. Такой выпуск позволяет конечным пользователям легко настраивать эти параметры модели с помощью дополнительных данных обучения для более точных целей.
В настоящее время неясно, будет ли запланированный релиз DeepSeek с открытым исходным кодом также включать код, который команда использовала при обучении модели. Такой учебный код необходим для соответствия формальному определению Open Source Institute "ИИ с открытым исходным кодом" , которое было окончательно сформулировано в прошлом году после многих лет исследований. По-настоящему открытый ИИ также должен включать "достаточно подробную информацию о данных, используемых для обучения системы, чтобы опытный специалист мог построить по существу эквивалентную систему", согласно OSI.
Please open Telegram to view this post
VIEW IN TELEGRAM
RopeMod Portable by Neurogen v 2.7.3 Cuda 12.8 | Добавлена поддержка RTX 5070 Ti, RTX 5080, RTX 5090
Техническое обновление, добавляющее поддержку RTX 50XX. Cuda обновлена до 12.8, TensorRT 10.8, CuDNN 9.7.1
Сборка доступна для поддержавших канал по подписке, оформить подписку можно:
Оформить через банковскую карту (Boosty)
Оформить через USDT / ЮMoney / Telegram Stars (Telegram)
#rope #deepfake #portable
Техническое обновление, добавляющее поддержку RTX 50XX. Cuda обновлена до 12.8, TensorRT 10.8, CuDNN 9.7.1
Сборка доступна для поддержавших канал по подписке, оформить подписку можно:
Оформить через банковскую карту (Boosty)
Оформить через USDT / ЮMoney / Telegram Stars (Telegram)
#rope #deepfake #portable
This media is not supported in your browser
VIEW IN TELEGRAM
PIKADDITIONS
⁉️ Как сделать такое видео:
1. Заходишь на сайт или скачиваешь приложение Pika
2. Заходишь во вкладку "pikadditions"
3. Загружаешь свое видео длительностью более 5 секунд
4. Загружаешь изображение выбранного объекта или персонажа, которого хочешь добавить на видео
5. Пишешь в промпт:
6. Нажимаешь кнопку "Сгенерировать"
Ждешь пока видео сгенерируется и наслаждаешься результатом🎉
upd Pika временно приостановили бесплатные генерации, полагаю связанно с нагрузкой, будем ждать новостей
1. Заходишь на сайт или скачиваешь приложение Pika
2. Заходишь во вкладку "pikadditions"
3. Загружаешь свое видео длительностью более 5 секунд
4. Загружаешь изображение выбранного объекта или персонажа, которого хочешь добавить на видео
5. Пишешь в промпт:
Add this to my video. Based on the current actions in the original video, come up with a natural and engaging way to fit the object into the video.
6. Нажимаешь кнопку "Сгенерировать"
Ждешь пока видео сгенерируется и наслаждаешься результатом
upd Pika временно приостановили бесплатные генерации, полагаю связанно с нагрузкой, будем ждать новостей
Please open Telegram to view this post
VIEW IN TELEGRAM
Нейронка от Google которая составит за вас резюме и изучит возможности карьерного рост
Google запускает инструмент на основе искусственного интеллекта, который поможет вам изучить карьерные возможности.Инструмент под названием Career Dreamer — это «эксперимент на ранней стадии», который может составить для вас профессиональное резюме на основе вашего предыдущего опыта работы и навыков. Он также использует эту информацию для выявления возможных карьерных путей с подробностями о каждой роли.
Резюме за нас уже составили, собеседование прошли, осталось чтобы еще поработали.
🆓 Попробовать - работает только с айпишником США
Google запускает инструмент на основе искусственного интеллекта, который поможет вам изучить карьерные возможности.Инструмент под названием Career Dreamer — это «эксперимент на ранней стадии», который может составить для вас профессиональное резюме на основе вашего предыдущего опыта работы и навыков. Он также использует эту информацию для выявления возможных карьерных путей с подробностями о каждой роли.
Резюме за нас уже составили, собеседование прошли, осталось чтобы еще поработали.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Нейросеть которая способна создавать субтирты качества Netflix, дублировать видео, переводить и локализировать. Осмысленный перевод для наилучшего качества.
Работает (дубляж) на OpenAI, Azure и GPT-SoVITS
Перевод оддерживает языки все языки ЕС, а также русский и Китайский с Японским
Дублирует не все языки, смотря какой голос выбираете
🌐Официальный сайт - 15 минут аудио бесплатно
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Denis Sexy IT 🤖
Please open Telegram to view this post
VIEW IN TELEGRAM
LoRA для модели HunyuanVideo позволяет вам генерировать промежуточные кадры! Вы можете создать полноценное видео имея начальный и конечный кадр, грубо говоря сшить начальный и конечный кадр создав между ними промежуточные.
Как пользоваться?
Идеально подходит для:
P.S. Думаю, что в "видео-сборку" добавлю
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM