DALL•E 3 от ОпенAI — Д И Ч Ь
генерить тут 👉 https://www.bing.com/create
🌊 делиться результатами тут (нейроэстетика re_hub)
генерить тут 👉 https://www.bing.com/create
🌊 делиться результатами тут (нейроэстетика re_hub)
Вышел пайпер DALL•E 3
Латентные энкодеры,
Диффузионные декодеры,
Синтетические пары,
Эмбеддинги т5,
Обычные Юнэты,
Эвалы от GPT-V,
Clip скоры и отмена FID’а
ну почитать можно
📝 https://cdn.openai.com/papers/dall-e-3.pdf
Латентные энкодеры,
Диффузионные декодеры,
Синтетические пары,
Эмбеддинги т5,
Обычные Юнэты,
Эвалы от GPT-V,
Clip скоры и отмена FID’а
ну почитать можно
📝 https://cdn.openai.com/papers/dall-e-3.pdf
Сэм Альтман, сооснователь и главный исполнительный директор CEO OpenAI, был уволен после того, как утратил доверие совета директоров. Это произошло на фоне роста влияния OpenAI в мире, особенно после релиза таких продуктов, как ChatGPT и GPT-4. В роли временного главы компании выступит Мира Мурати, ранее занимавшая должность главного технического директора CTO OpenAI.
Данный переход произошёл внезапно и вызвал значительный резонанс в среде технологических компаний и специалистов в области ИИ.
Данный переход произошёл внезапно и вызвал значительный резонанс в среде технологических компаний и специалистов в области ИИ.
Stable Diffusion XL — Turbo. Text2Image в реальном времени
Stability AI представила SDXL Turbo — новаторскую модель генерации изображений из текста в реальном времени. Основываясь на технологии Adversarial Diffusion Distillation (ADD), SDXL Turbo достигает высочайшего качества, уменьшая количество необходимых шагов инференса с 50 до одного!
SDXL Turbo доступна для испытаний на платформе редактирования изображений Stability AI: Clipdrop, и пока предназначена только для некоммерческого использования.
https://youtu.be/adDyTzBdUcg?si=8NqucZ4y29IAHYNE
👉 https://stability.ai/news/stability-ai-sdxl-turbo
Stability AI представила SDXL Turbo — новаторскую модель генерации изображений из текста в реальном времени. Основываясь на технологии Adversarial Diffusion Distillation (ADD), SDXL Turbo достигает высочайшего качества, уменьшая количество необходимых шагов инференса с 50 до одного!
SDXL Turbo доступна для испытаний на платформе редактирования изображений Stability AI: Clipdrop, и пока предназначена только для некоммерческого использования.
https://youtu.be/adDyTzBdUcg?si=8NqucZ4y29IAHYNE
👉 https://stability.ai/news/stability-ai-sdxl-turbo
YouTube
SDXL Turbo
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
Короче, мы выкатили диффузию в инстаграм для редактирования изображений, а именно - генерацию фона по тексту. Эта модель была анонсирована еще на Connect, но только сейчас ее выкатили в прод в США.
Загружаешь фото, вводишь любой пропмт, например, "преследуемый динозаврами" или "я в Париже", и получаешь несколько новых версий своей фотки.
Моделька основана на нашей text2image диффузии Emu и технологии по типу SAM, которая позволяет автоматически находить нужную маску.
Тут я говорю "мы выкатили", потому что мы с нашей командой крутили и искоряли эту модель, чтобы она работала за пару секунд.
Диффузия Go Brrrrr! - это лозунг нашей команды.
Приятно, когда результатами твоей работы могут пользоваться миллионы людей. Даже работая в ресерче в фаанге, не всегда есть такая возможность. Мне в этом смысле повезло, т.к. наша GenAI орга, кроме написания статей, ещё и катит ресерч в продукты и имеет реальный импакт.
@ai_newz
Загружаешь фото, вводишь любой пропмт, например, "преследуемый динозаврами" или "я в Париже", и получаешь несколько новых версий своей фотки.
Моделька основана на нашей text2image диффузии Emu и технологии по типу SAM, которая позволяет автоматически находить нужную маску.
Тут я говорю "мы выкатили", потому что мы с нашей командой крутили и искоряли эту модель, чтобы она работала за пару секунд.
Диффузия Go Brrrrr! - это лозунг нашей команды.
Приятно, когда результатами твоей работы могут пользоваться миллионы людей. Даже работая в ресерче в фаанге, не всегда есть такая возможность. Мне в этом смысле повезло, т.к. наша GenAI орга, кроме написания статей, ещё и катит ресерч в продукты и имеет реальный импакт.
@ai_newz
📝 Официальный подробный гайд по Prompt Engineering в GPT-4 от OpenAI
https://platform.openai.com/docs/guides/prompt-engineering/strategy-test-changes-systematically
https://platform.openai.com/docs/guides/prompt-engineering/strategy-test-changes-systematically
This media is not supported in your browser
VIEW IN TELEGRAM
📼 OpenAI — SORA: Генерация видео по текстовому описанию
Очень впечатлило качество и консистентность генераций.
upd: paper (тех репорт) обещают выложить сегодня чуть позже.
👉 https://openai.com/sora
Очень впечатлило качество и консистентность генераций.
upd: paper (тех репорт) обещают выложить сегодня чуть позже.
👉 https://openai.com/sora
Google опенсорснул Gemma-3B и Gemma-9B. Или Gemma-2B Gemma7B? А разве не Gemma-2.51B Gemma-8,54B?
Размер модели является ключевым показателем, по которому оцениваются её возможности и сравниваются различные модели. Под размером модели подразумевается (всего-навсего) количество обучаемых параметров. Но Гугл решил перевести свои модели в более легкую весовую категорию, дав моделям имена 2B и 7B. Хотя, Gemma-7B, которая, как оказалось, имеет 8,54 миллиарда параметров, что значительно превышает цифру, предполагаемую в её названии.
Другие модели, такие как Mistral-7B и Llama-7B, имеют 7,24 и 6,74 миллиарда параметров соответственно и названы более точно.
Решения Google использовать объем словаря токенизатора в 256K токенов, в отличие от меньшего размера в 32K токенов (для Llama) привело к огромному количеству embedding параметров: ~20% от общего размера 2.51B модели и ~9% от 8.54B.
Размер модели является ключевым показателем, по которому оцениваются её возможности и сравниваются различные модели. Под размером модели подразумевается (всего-навсего) количество обучаемых параметров. Но Гугл решил перевести свои модели в более легкую весовую категорию, дав моделям имена 2B и 7B. Хотя, Gemma-7B, которая, как оказалось, имеет 8,54 миллиарда параметров, что значительно превышает цифру, предполагаемую в её названии.
Другие модели, такие как Mistral-7B и Llama-7B, имеют 7,24 и 6,74 миллиарда параметров соответственно и названы более точно.
Решения Google использовать объем словаря токенизатора в 256K токенов, в отличие от меньшего размера в 32K токенов (для Llama) привело к огромному количеству embedding параметров: ~20% от общего размера 2.51B модели и ~9% от 8.54B.