Как удалить SynthID watermark с генераций от Google?
Disclaimer: пост душный, вот тебе шанс сбежать отсюда
Немного введу в курс дела.
Что это?
Невидимая watermark, придуманная компанией Google. Ею маркируется весь контент, созданный моделями Google (изображения, аудио, видео).
Это та маленькая белая звёздочка в углу?
Нет. SynthID без подготовки изображения не увидеть.
Как проверить, есть ли SynthID?
Загрузить фото в Gemini с промптом:
Зачем удалять? Ведь благодаря ей Google не прижимает по цензуре.
Хз, прикольно же 😊.
Лан, давайте разбираться. Дальше - исключительно мои мысли, на абсолютную истину не претендую.
Как нам её увидеть?
Самый простой способ - попросить Google сгенерировать картинку с одноцветной заливкой. Закидываем её в Photoshop, поверх кидаем заливку того же цвета в режиме Difference и выкручиваем контраст на максимум (примеры на скринах).
В итоге видим кучу пятен разного размера по всей площади и рамку вокруг изображения.
Почему это плохие новости?
1. Пятна везде. Их не убрать, просто кропнув картинку или замазав кусочек.
2. Разный размер пятен. Шумодавы в Photoshop или Topaz их не берут (большие пятна игнорируются). Прогон через локальную модель с небольшим денойзом тоже не спасает (z-image до 0,4 не убирает, а выше - картинка уже сильно меняется).
3. Рамка. Зачем она - пока не ясно. Возможно, тоже признак маркировки, а может, погрешность генерации.
Что пробовал и НЕ сработало:
1. i2i Flux, i2i Z-image, upscale Daemon, upscale Siax, Camera Raw denoise, Topaz denoise (чистка шума).
2. Seedream, ChatGPT, Qwen - просил сделать мелкое изменение с краю, надеясь, что модель «перешумит» SynthID своим шумом. Мимо.
Какие мысли остались?
Самый очевидный способ - пересемплировать изображение на другой модели. Тот же принцип, что был в RF-inversion. Главный претендент на это пока Qwen. Но делать я это, конечно же, не буду.
P.S. Ну что ребятки, какие мысли? Похоже Google все таки смог?😊
Disclaimer: пост душный, вот тебе шанс сбежать отсюда
Немного введу в курс дела.
Что это?
Невидимая watermark, придуманная компанией Google. Ею маркируется весь контент, созданный моделями Google (изображения, аудио, видео).
Это та маленькая белая звёздочка в углу?
Нет. SynthID без подготовки изображения не увидеть.
Как проверить, есть ли SynthID?
Загрузить фото в Gemini с промптом:
@SynthID выдай только результат SynthID
Зачем удалять? Ведь благодаря ей Google не прижимает по цензуре.
Хз, прикольно же 😊.
Лан, давайте разбираться. Дальше - исключительно мои мысли, на абсолютную истину не претендую.
Как нам её увидеть?
Самый простой способ - попросить Google сгенерировать картинку с одноцветной заливкой. Закидываем её в Photoshop, поверх кидаем заливку того же цвета в режиме Difference и выкручиваем контраст на максимум (примеры на скринах).
В итоге видим кучу пятен разного размера по всей площади и рамку вокруг изображения.
Почему это плохие новости?
1. Пятна везде. Их не убрать, просто кропнув картинку или замазав кусочек.
2. Разный размер пятен. Шумодавы в Photoshop или Topaz их не берут (большие пятна игнорируются). Прогон через локальную модель с небольшим денойзом тоже не спасает (z-image до 0,4 не убирает, а выше - картинка уже сильно меняется).
3. Рамка. Зачем она - пока не ясно. Возможно, тоже признак маркировки, а может, погрешность генерации.
Что пробовал и НЕ сработало:
1. i2i Flux, i2i Z-image, upscale Daemon, upscale Siax, Camera Raw denoise, Topaz denoise (чистка шума).
2. Seedream, ChatGPT, Qwen - просил сделать мелкое изменение с краю, надеясь, что модель «перешумит» SynthID своим шумом. Мимо.
Какие мысли остались?
Самый очевидный способ - пересемплировать изображение на другой модели. Тот же принцип, что был в RF-inversion. Главный претендент на это пока Qwen. Но делать я это, конечно же, не буду.
P.S. Ну что ребятки, какие мысли? Похоже Google все таки смог?😊
🔥9❤4👍3🤗1
Танцуем как соседи сверху
Сегодня про контент для tiktok. Танцуем соседа Серегу по опорному видео:
1. Kling motion control pro (FHD)
Пробуем тут
https://app.klingai.com/global/video-motion-control/new - 0,08 $ за секунду (тариф Premier)
https://fal.ai/models/fal-ai/kling-video/v2.6/pro/motion-control - 0,112 $ за секунду
https://wavespeed.ai/models/kwaivgi/kling-v2.6-pro/motion-control - 0,112 $ за секунду
Через API максимальный тайминг может быть 10 секунд
2. Wan animate (HD)
https://create.wan.video/explore/avatar/photo-animate?model=wan2.2 - 0,10 $ за секунду (есть бесплатное, есть 1080P)
https://fal.ai/models/fal-ai/wan/v2.2-14b/animate/move - 0,08 $ за секунду
https://wavespeed.ai/models/wavespeed-ai/wan-2.2/animate - 0,08 $ за секунду
Запускаем локально через ComfyUI https://docs.comfy.org/tutorials/video/wan/wan2-2-animate
3. One-to-All-Animation (HD)
https://fal.ai/models/fal-ai/one-to-all-animation/14b - 0,12 $ за секунду
Запускаем локально через ComfyUI https://github.com/kijai/ComfyUI-WanVideoWrapper/blob/main/example_workflows/wanvideo_2_1_14B_OneToAllAnimation_pose_control_example_01.json
С дистанции сошел малыш https://github.com/zai-org/SCAIL потому что 512p и 121 кадр тайминга. Но в комменты его семпл тоже кину.
P.S. Исходники как обычно в комментах👇 👇 👇 .
Сегодня про контент для tiktok. Танцуем соседа Серегу по опорному видео:
1. Kling motion control pro (FHD)
Пробуем тут
https://app.klingai.com/global/video-motion-control/new - 0,08 $ за секунду (тариф Premier)
https://fal.ai/models/fal-ai/kling-video/v2.6/pro/motion-control - 0,112 $ за секунду
https://wavespeed.ai/models/kwaivgi/kling-v2.6-pro/motion-control - 0,112 $ за секунду
Через API максимальный тайминг может быть 10 секунд
2. Wan animate (HD)
https://create.wan.video/explore/avatar/photo-animate?model=wan2.2 - 0,10 $ за секунду (есть бесплатное, есть 1080P)
https://fal.ai/models/fal-ai/wan/v2.2-14b/animate/move - 0,08 $ за секунду
https://wavespeed.ai/models/wavespeed-ai/wan-2.2/animate - 0,08 $ за секунду
Запускаем локально через ComfyUI https://docs.comfy.org/tutorials/video/wan/wan2-2-animate
3. One-to-All-Animation (HD)
https://fal.ai/models/fal-ai/one-to-all-animation/14b - 0,12 $ за секунду
Запускаем локально через ComfyUI https://github.com/kijai/ComfyUI-WanVideoWrapper/blob/main/example_workflows/wanvideo_2_1_14B_OneToAllAnimation_pose_control_example_01.json
С дистанции сошел малыш https://github.com/zai-org/SCAIL потому что 512p и 121 кадр тайминга. Но в комменты его семпл тоже кину.
P.S. Исходники как обычно в комментах
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🍓5❤4🎉2🤣1
Ну что, новый год — новые цели? Оставлю мысли тут, вдруг кому-то это поможет получить тот самый «золотой заказ».
Disclaimer: пост получился длинным. Если есть моральная тяжесть видеть огромное скопление букв — Паша придумал делать из текста саммари. Пользуйтесь.
1. Адаптируй сопроводительное письмо под каждый заказ.
2. Собирай индивидуально релевантное портфолио (4 работы максимум).
3. Соглашайся на тестовое задание и выстраивай коммуникацию.
Для удобства предположим, что заказчик — это человек, который не понимает в AI-технологиях, часто сомневается в своем мнении и просто ищет исполнителя по понятным критериям: качество, сроки, бюджет, адекватность. Навскидку, это 90% заказчиков.
1. Адаптируй сопроводительное письмо
Письмо — это первое впечатление. Удивительно, но этого почти никто не делает. Из 150 откликов под задачу пишут максимум трое.
Представь, что заказчику «отгрузили» 150 писем. Огромное счастье — почитать их вечерком перед сном. И там есть всё: от «я хороший копирайтер» до «я крутой 3D-спец». Зачем это заказчику, который ищет AI-артиста — вопрос открытый.
Поэтому, когда в сопроводительном видишь знакомые слова, воспринимаешь это как маленькое чудо. Дополнительный плюсик кандидату: он как минимум прочитал задачу, а значит, не придется объяснять всё с нуля.
2. Формируй релевантное портфолио
Впечатление нужно закрепить работами. 4 РЕЛЕВАНТНЫЕ работы. Это МАКСИМУМ.
Если нет 4 релевантных — приложи одну подходящую и 3 работы, которые раскроют твой потенциал (желательно с демонстрацией разных навыков). Если подходящих работ нет совсем — я сторонник честно в этом признаться. Мол, кейсов нет, но есть сумасшедшее желание и интерес. Лично у меня такие кандидаты вызывают больше симпатии, чем ребята, заспамившие личку 8-секундными видео «не в тему».
Секрет, о котором никто не расскажет: у заказчика часто нет профессиональной насмотренности. Опорой для него служит наличие у тебя коммерческих работ. Даже если ему визуально не нравится, он думает: «Ну, раз это купили, значит, это я чего-то не понимаю».
Нюансик: держи в голове, что в больших корпорациях из-за безопасности часто нет доступа к КВН или некоторым облакам. Предусмотри, чтобы ссылка открылась у всех (Яндекс.Диск и т.п. — отличный вариант).
3. Тестовое задание
«А оно вообще для чего? Я зачем портфолио собирал? Чтобы бесплатно работать?»
Тестовое — это страховка от вранья в портфолио, а еще (о боги!) — проверка на адекватность. Здорово, что исполнитель умеет в нейронки, композицию и свет. Но что делать с таким гением, если он не пингуется сутками, а при малейшем вопросе идет на конфликт и обижается? Какой смысл в хард-скиллах, если с человеком невозможно работать?
Давайте сегодняшний вечер посвятим жесткой критике этого текста. Очевидно же, что автор не прав и нужно ему обязательно об этом рассказать 👇 Жду вас в комментариях!
Disclaimer: пост получился длинным. Если есть моральная тяжесть видеть огромное скопление букв — Паша придумал делать из текста саммари. Пользуйтесь.
1. Адаптируй сопроводительное письмо под каждый заказ.
2. Собирай индивидуально релевантное портфолио (4 работы максимум).
3. Соглашайся на тестовое задание и выстраивай коммуникацию.
Для удобства предположим, что заказчик — это человек, который не понимает в AI-технологиях, часто сомневается в своем мнении и просто ищет исполнителя по понятным критериям: качество, сроки, бюджет, адекватность. Навскидку, это 90% заказчиков.
1. Адаптируй сопроводительное письмо
Письмо — это первое впечатление. Удивительно, но этого почти никто не делает. Из 150 откликов под задачу пишут максимум трое.
Представь, что заказчику «отгрузили» 150 писем. Огромное счастье — почитать их вечерком перед сном. И там есть всё: от «я хороший копирайтер» до «я крутой 3D-спец». Зачем это заказчику, который ищет AI-артиста — вопрос открытый.
Поэтому, когда в сопроводительном видишь знакомые слова, воспринимаешь это как маленькое чудо. Дополнительный плюсик кандидату: он как минимум прочитал задачу, а значит, не придется объяснять всё с нуля.
2. Формируй релевантное портфолио
Впечатление нужно закрепить работами. 4 РЕЛЕВАНТНЫЕ работы. Это МАКСИМУМ.
Если нет 4 релевантных — приложи одну подходящую и 3 работы, которые раскроют твой потенциал (желательно с демонстрацией разных навыков). Если подходящих работ нет совсем — я сторонник честно в этом признаться. Мол, кейсов нет, но есть сумасшедшее желание и интерес. Лично у меня такие кандидаты вызывают больше симпатии, чем ребята, заспамившие личку 8-секундными видео «не в тему».
Секрет, о котором никто не расскажет: у заказчика часто нет профессиональной насмотренности. Опорой для него служит наличие у тебя коммерческих работ. Даже если ему визуально не нравится, он думает: «Ну, раз это купили, значит, это я чего-то не понимаю».
Нюансик: держи в голове, что в больших корпорациях из-за безопасности часто нет доступа к КВН или некоторым облакам. Предусмотри, чтобы ссылка открылась у всех (Яндекс.Диск и т.п. — отличный вариант).
3. Тестовое задание
«А оно вообще для чего? Я зачем портфолио собирал? Чтобы бесплатно работать?»
Тестовое — это страховка от вранья в портфолио, а еще (о боги!) — проверка на адекватность. Здорово, что исполнитель умеет в нейронки, композицию и свет. Но что делать с таким гением, если он не пингуется сутками, а при малейшем вопросе идет на конфликт и обижается? Какой смысл в хард-скиллах, если с человеком невозможно работать?
Давайте сегодняшний вечер посвятим жесткой критике этого текста. Очевидно же, что автор не прав и нужно ему обязательно об этом рассказать 👇 Жду вас в комментариях!
👍12❤5🥰3🤔2🍓2🔥1💯1🙉1
Ночной вопрос.
Почему у меня в комментариях рекламят себя только спамеры? Неужели среди нас нет профессиональных специалистов, которые хотели бы рассказать о себе?
P.S. Да ты правильно понял - этот пост, чтобы рассказать о себе 😊
Почему у меня в комментариях рекламят себя только спамеры? Неужели среди нас нет профессиональных специалистов, которые хотели бы рассказать о себе?
P.S. Да ты правильно понял - этот пост, чтобы рассказать о себе 😊
🥰9🔥5🤔4
Пару слов о ComfyUI Cloud (https://cloud.comfy.org)
1. Нужных нод нет, поэтому запустить можно только то, что лежит в шаблонах ComfyUI. Кстати, библиотека шаблонов заметно меньше, чем у локального ComfyUI.
2. "Свои" LoRA и модели можно добавить только с тарифа Creator (35 $). Но зачем - неясно: нужных нод нет.
3. Консоль всегда девственно чиста. Почему ворк не запустился, можно понять только при наличии опыта победы в 11-м сезоне "Битвы экстрасенсов".
4. Ворк обновляется не последовательно, как при локальных вычислениях, а целиком. Делать предпросмотр картинки где нить посередине ворка бессмысленно.
5. Регулярные дисконнекты.
Для кого это нужно - мне пока не ясно.
Исследовать новое - нет нод.
Катать свои ворки - нет нод.
Собирать свои ворки и запускать в облаке - правильно. Нет нод.
Мой вывод: нет железа - арендуй сервер.
Где арендовать:
- clore.ai (дешево)
- simplepod.ai
- gpudc.ru (рубли, Windows)
- massedcompute.com
Пару ссылок, которые помогут развернуть ComfyUI:
https://github.com/Tavris1/ComfyUI-Easy-Install
https://github.com/ai-dock/comfyui
Готовые сборки ComfyUI:
t.iss.one/prompt_by_art
https://huggingface.co/OreX/ComfyUI/tree/main
P.S. Могли бы хоть внешний Api прикрутить, чтобы использовать их как сервер. Этого тоже пока нет🙁
1. Нужных нод нет, поэтому запустить можно только то, что лежит в шаблонах ComfyUI. Кстати, библиотека шаблонов заметно меньше, чем у локального ComfyUI.
2. "Свои" LoRA и модели можно добавить только с тарифа Creator (35 $). Но зачем - неясно: нужных нод нет.
3. Консоль всегда девственно чиста. Почему ворк не запустился, можно понять только при наличии опыта победы в 11-м сезоне "Битвы экстрасенсов".
4. Ворк обновляется не последовательно, как при локальных вычислениях, а целиком. Делать предпросмотр картинки где нить посередине ворка бессмысленно.
5. Регулярные дисконнекты.
Для кого это нужно - мне пока не ясно.
Исследовать новое - нет нод.
Катать свои ворки - нет нод.
Собирать свои ворки и запускать в облаке - правильно. Нет нод.
Мой вывод: нет железа - арендуй сервер.
Где арендовать:
- clore.ai (дешево)
- simplepod.ai
- gpudc.ru (рубли, Windows)
- massedcompute.com
Пару ссылок, которые помогут развернуть ComfyUI:
https://github.com/Tavris1/ComfyUI-Easy-Install
https://github.com/ai-dock/comfyui
Готовые сборки ComfyUI:
t.iss.one/prompt_by_art
https://huggingface.co/OreX/ComfyUI/tree/main
P.S. Могли бы хоть внешний Api прикрутить, чтобы использовать их как сервер. Этого тоже пока нет🙁
4🔥12🙏6❤3
P.S. Тссс🤫
🔥15👍7😁7👀1
Так ребятки, я чет не понял.
А как это сделано?
А как это сделано?
🤔4
Ищем модельки для ComfyUI на автомате
Я устал искать модели для чужих ворков в ComfyUI, поэтому запилил GPT's. Кидаешь json - получаешь ссылки на модельки и путь к ним в ComfyUI (потому что заботушка). Ничего лишнего - только список.
А здесь оставлю промпт для ненавистников GPT's (поддерживаю):
P.S. Gemini pro справляется более чем. Остальные не тестил.
Я устал искать модели для чужих ворков в ComfyUI, поэтому запилил GPT's. Кидаешь json - получаешь ссылки на модельки и путь к ним в ComfyUI (потому что заботушка). Ничего лишнего - только список.
А здесь оставлю промпт для ненавистников GPT's (поддерживаю):
Роль: ты парсер ComfyUI workflow (JSON). Вход: полный JSON воркфлоу ComfyUI (как в export). Задача: найти все модели/файлы, которые используются в воркфлоу, и вывести для каждой: название файла/модели → папка ComfyUI → прямая ссылка(и) на скачивание. Где искать в JSON: по нодам загрузки моделей (Loader/Checkpoint/VAE/Lora/ControlNet/CLIP/UNet/IPAdapter/Embedding/Upscale и т.п.) по полям, где встречаются имена файлов: ckpt_name, checkpoint, model_name, vae_name, lora_name, control_net_name, clip_name, clip_vision_name, unet_name, ipadapter_name, embedding, upscale_model, а также любые строки с расширениями .safetensors .ckpt .pt .pth .bin .onnx Нормализуй и дедуплицируй: одинаковые файлы выводи 1 раз. Для каждой найденной модели определи папку назначения в ComfyUI: Checkpoint/CheckpointLoader → ComfyUI/models/checkpoints/ VAE/VAE Loader → ComfyUI/models/vae/ LoRA → ComfyUI/models/loras/ ControlNet/T2I-Adapter → ComfyUI/models/controlnet/ Embedding/Textual Inversion → ComfyUI/models/embeddings/ Upscaler/ESRGAN/SwinIR → ComfyUI/models/upscale_models/ CLIP → ComfyUI/models/clip/ CLIP Vision → ComfyUI/models/clip_vision/ UNet/Diffusion model (SD3/FLUX и т.п.) → ComfyUI/models/unet/ (если в воркфлоу явно указан другой тип — подбери ближайшую стандартную папку) IP-Adapter → ComfyUI/models/ipadapter/ Ссылки на скачивание: если в имени есть явный источник/репо — используй его иначе найди самую вероятную официальную страницу/файл (приоритет: HuggingFace → GitHub Releases → официальный сайт → Civitai) и дай прямую ссылку на файл (или страницу, если прямой ссылки нет) Формат ответа: только список, по 1 строке на модель: - <Тип> — <Имя файла/модели> — <Папка ComfyUI> — <Ссылка(и)> Никаких пояснений, абзацев, таблиц, пролога/эпилога — только список.
P.S. Gemini pro справляется более чем. Остальные не тестил.
2🔥23👍4❤3
Шевелим девушек для соцсетей на автомате (и даже с пигментными пятнами, черной как ночь кожей и голубыми глазами или двуглавыми альбиносами)
«Если не можешь победить — возглавь» (с)
Собрал 2 ворка для ComfyUI. На вход даем видео с движением и картинку нашей красавицы, на выходе получаем красавицу в движении (внезапно🤪 🤪 🤪 ).
Первый ворк для красноглазых ПК бояр - считает локально, второй для людей с долларовой картой - построен на API нодах.
В первом ворке не забудьте поменять разрешение и количество кадров (я считал на малых, потому что OOM), во втором - промпт на персонажа (заботливо показал стрелочками).
Файлы в комментах.
P.S. На улице -20, хочется тепла. Поставьте огонечек🔥
«Если не можешь победить — возглавь» (с)
Собрал 2 ворка для ComfyUI. На вход даем видео с движением и картинку нашей красавицы, на выходе получаем красавицу в движении (внезапно
Первый ворк для красноглазых ПК бояр - считает локально, второй для людей с долларовой картой - построен на API нодах.
В первом ворке не забудьте поменять разрешение и количество кадров (я считал на малых, потому что OOM), во втором - промпт на персонажа (заботливо показал стрелочками).
Файлы в комментах.
P.S. На улице -20, хочется тепла. Поставьте огонечек
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥36🍓4☃3🤨2👎1🥰1🎉1🍌1💋1💅1👾1