ПРОБИЗДИЗ 🙆🏻‍♂️
519 subscribers
66 photos
6 videos
13 files
85 links
Блог Ильи Вернер (20 лет в дизайне) про бизнес, дизайн и AI.

По всем вопросам пишите: @simplygreen
Download Telegram
ИИ-хостинг — вот что мне нужно. Никто таких не видел?
Manus и Lovable частично умеют, но они про другое.

Зачем.

Кейс 1:
Накидал сайт в Figma, нагенерил графики, быстро собрал в Framer или в Tilda на зеро-блоках. А выравнивать по сетке, все отступы равнять, шрифты смотреть чтобы по цветов не плавали, мобилку делать — всё лень. И ИИшек для такой рутины нет. Хотя казалось бы — это прямо очень понятно как делать.

С ИИ это делать можно — выгружаешь сайт кодом, отдаешь Sonnet 3.7 или Gemini 2.5 pro, говориш что нужно, потом берешь этот код, несёшь куда-нибудь на хостинг. Настраиваешь хостинг, заливаешь код файлами. Нужно обновить — снова лезь в код, снова иди в LLM, снова потом обновляй. GitHub немного может спасти положение. Но я вот с ним на "вы", я не разраб, мне это всё сложно и неудобно.

Кейс 2:
У меня уже есть сайт, а потом я на coedpen нахожу офигенскую анимацию, которая моим карточкам услуг на сайте идеально подойдёт. У меня развилка — либо скачиваю код сайта, и отдаю LLM'ке вместе с кодом анимации, и объясняю что нужно сделать, ну дальше как в кейсе 1.

Второй вариант — прошу LLM-ку дать мне инструкцию, как мне этот код прямо внутри no-code builder использовать. Практика показывает, что с моим уровень программирования, час я точно на это потрачу.

Решение — AI-хостинг.

Не Website Builder — это сильно сложно.
А именно хостинг. То есть собираю я сайт кривенько на Тильде, скачиваю кодом, закиыдваю на этот хостинг, и дальше все изменения вношу промптом. Прошу его что-нибудь поменять, что-то применить, адаптив сделать, отступы починить, анимашку найденную к карточке применить.

Короче, вопрос к вам:

Это чисто мои фантазии? Или эта боль про поддержку сайтов реально существует и такой AI-вебмастер кому-то еще нужен?

Давайте по-простому, через реакции:

👍 → ДА! БОЛИТ! ТЕМА ЖИВАЯ, ХОЧУ ТАКОЕ!

👎 → НЕТ! ФИГНЯ! ПРОБЛЕМЫ НЕТ / РЕШАЮ ИНАЧЕ!

И если не лень, черкните в комментах пару строк:

Почему да / почему нет?
Приходилось экспортировать сайты из no-code? Как справлялись с обновлениями?
Какая фича в таком AI-хостинге была бы для вас самой топ?
👍5👎1🤔1
Я заметил паттерн, который помогает мне решать о-очень сложные задачи с ИИ.

Назову его "цикл рефакторинга".

Данность: Самый большой вклад и пользу от ИИ получается взять при сложном, многоступенчатом взаимодействии. Не с одним чудо-промптом, а с мультиагентным подходом, с параелелльными задачами/чатами/проектами.

Сложность: Чем больше ступеней, тем больше вероятность что что-то сработает не так. А тестировать часто приходится весь пайплайн целиком, потому что отдельные шаги могут нормально работать, а именно с накапливающимся контекстом начинаются сложности. В итоге промпты в количестве и в размерах разрастаются. Прямо сейчас для одного проекта у меня в папке ChatGPT лежит 5 PDFок с промптами на разные этапы, а в системных инструкциях просто пошаговое сопровождение по этим промптам.

Промпты начинают обрастать форматированием: выделением <system_prompt>, ЗАГЛАВНЫМИ БУКВАМИ, большим количество DON'T правилами. И сначала это работает, но в какой-то момент становится слишком много, и система перестает нормально выполнять свои функции.

Потому что хорошие промпты, с четкой понятной инструкцией часто не нуждаются в таких костылях, но без костылей не получается сделать первую версию, потому что это часть отладки системы.

Решение:
Так вот моё правило — как только после очередного усложнения система начинает деградировать по ответу и это наблюдается хотя бы пару раз — начинается время для ручного рефакторинга. Именно ручного, потому что я пока не нашел как это делать с помощью ИИ. Если перегружать его контекстом, то даже самые умные модели убирают и чистят не так, как бы это сделал я для лучшего результата.

Поэтому я просто сажусь, и начинаю своими словами структурированно писать новый промпт. Прямо совсем новый, и вообще без "промпт-хакинга", просто понятно и прозрачно структированный промпт. И как правило — это срабатывает, и система начинает за меньшее количество токенов выполнять задачу лучше и предсказуемее.

Иногда, когда слишком много всего, лучший способ – это остановиться, "обнулиться" и начать выстраивать структуру заново, простыми и понятными шагами

Сори, что без конкретики. Прямо сейчас работаю над системой для дизайн-команды одной известной ИТ-корпорации. Там много интересного, практичного, крутого. Когда закончим, смогу рассказать подробнее.
🔥3
Вышел ранее утекший Google Material 3 Expressive:
https://m3.material.io/

Недизайнерам хватит видео-превьюшки: https://www.youtube.com/watch?v=n17dnMChX14

На самом деле внутренних изменений не так много. Чуть переосмысленная система плавающих элементов (привет Apple Floating Navigation). Что интересно, в обоих случаях в этом направлении шаги скромные и у Apple, и у Google. Например Apple в презентации чётко указали, что во всех больших системах это теперь основной способ навигации, но HIG (гайдах) остается указание и гораздо больше описания под стару систему.

Но это оффтоп. В общем Google Material в логике идет и повторяет удачные решения от Apple.

И то же касается новых правил Motion Physics. Тут тоже совсем новая система. Она выглядит плавно и классно. Но заметно более медленно, что в текущем Android, а для многих Андроидоводов как раз проблема с iOS — кажется слишком медленный из-за плавных анимаций. Теперь сравнялись кажется.

Работа с цветами, типографикой и формами — кайфовая.

Всё больше принципов из традиционной анимации переходит в UI Motion Design, и это прикольно.

Слышал мнение от дизайнеров — что это же системный UI. Он должен быть "никакой" по-хорошему, не мешать воспринимать контент. Типа да, но сюда же неприменимо.

Сам андроид в системной своей части как всегда, будет сильно более спокойный в формах и анимациях. А это гайды и стилёк, который как раз используется напрямую для функциональной части приложений, что и есть контент, который должен быть ярким, и должен быть центром.

Но при этом, я сильно уверен, что основные проблемы Google-дизайна никуда не денется. Основе этих проблем в том, что это не Design Driven компания. Конечно гораздо больше Design Driven, чем какой-нибудь Amazon или Microsoft, но всё-таки нет там в философии заложенных механизмов, которые могут исправить общую неконсистентность дизайна.

Поэтому расширение визуального языка можно в какой-то степени как раз считать таким "решением", типа мы не будем подгонять дизайн под правила, а расширим наши правила, и всё будет более допустимым. На концептуальном уровне конечно норм. На практическом уровне, у нас есть HIG, или другие дизайн-подходы, где это решено, так что для конечного пользователя всё-таки это совсем не сработает.
1👍1
У меня уже 7 лет бизнес 🫠
Но кажется, только сейчас я стал предпринимателем.

Сейчас вас научу 🤹

Я уже лет 10 руковожу людьми: сначала в найме, потом у себя. И с момента открытия бизнеса я себя считал предпринимателем. Но вот сейчас впервые понял, почему я им не совсем был.

Сдвиг понимания произошел в точке «💸 продажи»

Именно активный поиск, холодные сообщения, созвоны с инициативой от меня, маркетинговая стратегия — это всё со мной произошло впервые сейчас. И это капец как меняет ощущение от бизнеса.

Я бы даже сказал — переворачивает.

Для понимания, все мои клиенты студии — это сарафанное радио, рекомендации, стечения обстоятельств, личный нетворкинг (с циклом от знакомства до сделки иногда в несколько лет).

Но никогда не специально "продажи". Я несколько раз подступался к этому, но ни разу не переходил грань, когда запускается процесс.

И вот сейчас, когда мы запустили новый проект ИИ-агентство «SCULPT» — у меня нет наемных сотрудников в новом деле, только партнёрка.

Но здесь мы занялись продажами сразу. И тут я предприниматель, бизнесмен. А у себя в дизайн-студии я основатель и руководитель, а "предпринимателя" у нас там пока нет.

В чём, собственно, отличия в ощущениях:

1. Страх ненужности. Когда к тебе приходят теплые клиенты, все тебя рекомендуют, а конверсия из первого знакомства в сделку 80% — чувствуешь, что ничего не нужно думать, ничего позиционировать, ты и твоя команда хороши как они есть, сами по себе. А вот когда ты пишешь людям, а они не отвечают, или вежливо отказывают, или грубо отказывают, или соглашаются на созвон, а на созвоне сидят с таким 🗿 лицом — сначала возникает страх "я никому не нужен", потом гнев "да я, блин, в тысячу раз больше тебя понимаю в твоей же должности, ты чего себе позволяешь?!", потом постепенно начинаешь привыкать и смиряться с тем, что вот так вот устроен бизнес и его продвижение. Через постоянные продажи, через постоянные отказы оттачиваешь свой оффер, своё позиционирование.

И тут стратегия, коммуникация и оффер становятся критично важны.

Я пока не полностью тут. Бывает, возникает и гнев, и страх.

2. Контроль. Зато когда появляются первые контракты, первые деньги, начинаешь считать конверсии воронки, понимаешь, что они более-менее стабильные и ты можешь их улучшать — появляется уверенность, что в общем-то контроль у тебя в руках. И есть шанс масштабироваться. Не просто вырасти немного, а прямо по-настоящему масштабироваться и по-настоящему перейти в средний бизнес, а потом, может, и в крупный.

Круто. Но страшно.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🔥4💯42
Нащупали наконец-то пайплайн, с которым начал происходить экспоненциальный рост.

Принимаю поздравления — у нас первое видео со 100k просмотров, на AI-канале про дизайн.

https://youtu.be/YElVQqNwrJ4?si=ZTqAZ_ugne5DYQO9

Пока мало данных чтобы однозначно сказать, что подход реплицируемый. Но скоро дотестим, и тогда это будет частью нашей огромной библиотеки ИИ-пайплайнов, которые уже доказали свою эффективность.

Тут тоже расскажу. Если интересно, можете уже писать вопросы, все отвечу.
🏆7🔥2
Ну что, кажется мы пережили ИИ-волну, или даже ИИ-бурю за последню неделю. Слава богу пятница, можно передохнуть, надеюсь. Меня FOMO начало мучать, потому что нет возможности всё потрогать.

TL;DR
Несмотря на заметный рывок, глобально по прежнему самой юзабельной связкой остается ChatGPT Pro ($200) + Google AI plus ($20). Либо всё внутри Anthropic Claude.

Вот что мне кажется самым интересным:

Gemini 2.5 Pro Deep Think
Очень думающая модель. Попробовать не дали, но показали объяснение как она работает. "Много думать", значит поискать разные ответы, потом понять что из этого хорошее направление, что плохое, и из этой точки снова развилка подумать.

Очень похоже на o1 pro по описанию. И для меня это супер-модель, которая сильно нужна для очень большого количества задач. Точнее всего отвечает, меньше всего ошибается, лучше всех следует промпту. Но "эмоциональный интеллект" очень низкий. Нельзя дать ей кусок текста, как референс и сказать "напиши в таком же стиле". Не справляется с такими задачами.

Google Veo 3 (и Flow)
Лучший генератор видео. Veo 2 уже был лучший, а Veo 3 ещё и звуки генерирует сразу. Ну и уровень реализма запредельный часто. Лучше всего заценить видос не рекламный, с черри-пикнутыми результатами, а реальные эксперименты. Очень хорошо видно и сильные и слабые стороны.

Gemini 2.5 Pro
Старая модель, всё ещё в режиме Preview. Суть в том, что она отличная, прямо суперская. Для меня примерно на одном уровне с супер-думающим o1 pro и супер-разнсторонним o3. Проблема в том, что всё ещё в режимк preview, с кучей дурацких ограничений. Как и весь Gemini выглядит очень сырым, и многое там невозможно делать просто из-за интерфейса.

OpenAI Codex
В теориии это замена Manus AI. Но для чуть более продвинутого использования. В Manus AI я пишу в промпт всегда, что сделай это настолько простым, чтобы можно было развернуть прямо у тебя полностью работоспособную версию. А тут всё-таки надо будет разобраться с GitHub и стать чуть более tech guy, чем я есть. Либо всё-таки подождать, пока это станет ненужно, а я уверен что это произойдёт скоро 🙂 Пока не решил.

OpenAI "Sam & Jony introduce io"
WTF? Это что вообще такое?
— В заголовке анонс новой компании
— Фотография Альтмана и Айва в обнимку
— Текст про дружбу и важность визионерства
— 9-минутная очень красивая и невероятно круто сделаная документалка
— Документалка начинается с очень странных походок
— Потом они рассказывают, что они настоящие друзья в реале
— Потом Сэм мимлётом анонсирует продукт
— Потом они говорят, что io и OpenAI теперь объединяются
— Продукт в следующем году анонсируют

Что в сухом остатке? Джонни Айв теперь часть OpenAI, а его путь к найму немного напоминает путь Джобса обратно в Apple. Очень красиво, очень интересно, но капец как непонятно, что это именно, и почему именно так?

Anthropic Claude 4
Вот тут обидно. Claude имеет интерфейсные и инфраструктурные решения, которые позволяют делать то, что в други LLM делать нельзя. И они продолжают это развивать. При этом тариф за $20 настолько ограниченный, что я просто его отменил, потому что я постоянно упираюсь в лимиты.

При этом сама модель ну очень крутая. Бенчмарки разное показывают, но по ощущениям это самый прикольный текст на выходе. И для копирайта, и просто во время общения с моделью.

Но меня пока удерживает прошлый плохой опыт с лимитами, и в целом упор на разработку, как будто бы, чем на мои задачи.

Вроде всё? Ничего не забыл?

Вот ещё репортаж от Bloomberg про Stargate. Тот самый, который не так давно объявил Трамп, и который прозвучал немного как непонятный теоретический проект. Но по факту стройка идет полным ходом, и вообще в этом задействовано много чего очень интересного.
3
Мне сегодня 37 🤹
Please open Telegram to view this post
VIEW IN TELEGRAM
🎉30🍾7👏5🖕2
В редизайне iOS 26 есть одна большая проблема.

Но спикеры всю презентацию говорили, что решили эту проблему...

Новый дизайн очень прозрачный, и Apple говорят, что это помогает ещё больше фокуса на контент перенести. И звучит логично.

Только новый дизайн при всех его прикольностях и плюсах, конкретно с этой задачей справляется однозначно хуже.

Во-первых все стеклянные элементы стали сильно более прозрачными, и с гораздо меньшим блюром. Условно стекло больше не матовое. И как следствие появились преломления и блики

И чтобы понять, почему это проблема, надо вспомнить основу дизайна. А точнее определение, что такое дизайн. Дизайн — это управление вниманием пользователя. И основной инструмент для этого — контрасты. Цветовые, размеров, пространств.

Блик — это концентрация большого количества света в одном месте. И так часто получается, что блик на кнопке или на табе — это САМОЕ ЯРКОЕ ПЯТНО в округе. То есть самый контрастный кусок экрана. А значит, взгляд проскальзывая мимо с гораздо больше веротяностью зацепится за этот контрол.

Преломления — это искажения геометрии объектов под стеклом. Когда кнопка полностью какого-то цвета, или под ней заметно всё затенено или заблюрено — мы чётко видим прерываение. Вокруг — контент, внутри — не контент. А преломления — это показ того же контента, но при этом в искаженном виде. Что привлекает внимание по чисто антропологическим причинам, потому что устроено так, чтобы привлечь внимание.

При этом выглядит и правда супер прикольно! Чисто визуально.

Мой прогноз, за 2-3 года визуал заметно успокоится. Стекло станет менее жидким, меньше преломлений, меньше прозрачности на всех элементах. Сейчас выглядит как наскок с запасом. Плюс по developers beta видно, что многие базовые вопросы, которые возникают с этим всем ещё не решены, так что возможно уже даже к публичному релизу визуал дизайна будет немного спокойнее.
5🤡2👍1
iOS 26 вышла без логотипа. Я исправил это.
😁6🤮5🔥1🏆1
Я не понимаю, почему вокруг этого ещё нет волны хайпа.

Но вообще-то у нас тут Gemini 2.5 pro в версии за $20, в обычных задачах показывает какие-то запредельно хорошие результаты.

Я давно не смотрю на бенчмарки, потому что они мало что говорят о моих сценариях использования моделей. Прямо сейчас даже o3 pro почти во всех случаях проигрывает Gemini 2.5 pro. В понимании вопроса, в точности ответа, в галлюцинациях.

Одна из последних интересных задач — я строил Zero-Defect Design AI для дизайнеров Авито. Мы уже много раз использовали этот продукт в других компаниях и у себя в студии. И каждый раз приходилось очень много его настраивать, чтобы он понимал специфику макетов конкретной команды, специфику оценки этих макетов.

А в итоге я гордился тем, что уровень галлюцинаций у нас не больше 10%, в то время как у всех доступных решений 30-50% в зависимости от сложности макета.

Так вот перенос этого пайплайна с GPT o3 в Gemini 2.5 pro дал улучшение до 0% галлюцинаций. Прямо честный, настоящий ноль, при проверке несколько раз на разных макетах. Он просто не галлюцинирует, очень хорошо понимает, и стабильно выдает прекрасный результат.

Потестил на o3 pro — результат хуже. Во-первых есть галлюцинации (меньше 10%, но не считал точно), во-вторых глубина оценки не такая, как в Gemini.

Кстати, последний раз я писал "Я не понимаю, почему вокруг этого ещё нет волны хайпа." когда появился первый Deep Research. И я был прав, это поменяло LLM и расширило сценарии использования многократно. Я уверен, что сейчас что-то похожее будет с Gemini 2.5 pro, когда все распробуют.

Главный минус Gemini сейчас — интерфейсные и структурные недостатки. У них нет фишек памяти, проектов, Gems очень ограничены. Это всё сильно мешает, и приходится иметь ещё одну подписку под рукой. А под повторяющиеся задачи вообще делать свои интерфейсы, видимо. Но я пока ещё не настолько преисполнился.
👍2🤡1🏆1
Apple: "А так ли нужен accessibility в интерфейсе?"

iOS 26 даже при исправлениях косяков в beta явно даже на скриншотах не пройдет тест на минимальное соответствие стандартам accessibility WCAG. Кто не в курсе — это стандарты по контрастам и размером интерфейсов, чтобы всё было читаемо, и там разные ступени стандартов, для разных категорий пользователей и разных категорий устройств.

Но ведь большая часть пользователей не нуждается в этом? Я вот пока что спокойно читаю не очень контрастные мелкие надписи. И большинство тоже больших сложностей не заметят. Но есть категория — люди с ограниченными возможностями. И конечно ответственность, особенно больших компаний, чтобы они могли пользоваться интерфейсами.

Но если есть идея, которая кажется улучшит интерфейс, сделает его прикольнее, веселее, может быть даже в чем-то удобнее, но есть стандарты доступности, которые этому мешают. Может быть нормально в таком случае эти стандарты иметь опционально, а не ограничивать всю концепцию из-за них?

Я ничего не утвреждаю, просто задаюсь вопросом, ответов у меня нет.

Но есть наблюдение, что это растущий тренд, и Liquid Glass дизайн от Apple — его часть.

Можно предположить, что это продолжение так называемого "правого поворота" в политике и социуме, когда "право слабого" начинает восприниматься, как несправедливая, и требующая пересмотра концепция.

Ещё раз, не отменяйте раньше времени, я тут ничего не утверждаю. Мало того, скажу честно — у меня нет выработанной позиции по этим вопросам. Просто наблюдаю, и пытаюсь сделать выводы.

Я знаю, что современный подход и современные идеологи accessibility чётко заявляют, что интерфейс нужен для всех. Потому что переход между обычным и ограниченным пользователем — это не только серьезные нарушения. Это сломавшийся экран, шумный вагон метро, тяжелая сумка в руке. И развитие этих функций именно в "общей" вывело их на текущий уровень, а если делать отдельный 'safe mode' с такими функциями, то это будет обновляться и поддерживаться по остаточному принципу, и функции развиваться не будут. Поэтому нужно всё вместе обязательно.

Но у меня вопрос — а разве это не дихотомия — accessibility features vs. core features? Для меня это выглядит так, выбираем одно добро, но в ущерб другому.

Ну и конечно возникает вопрос ресурсов — что оно так работает, только если ресурсов мало и на то, и на другое. Но если так, то всё-таки получается общее занижение стандартов core аудитории в пользу accessibility. А если хватает, то всё это вообще не аргумент.

А если не хватает, то это уже парадокс 'creative constraint' — жесткие рамки и правила не убивают креатив, а, наоборот, заставляют мозг искать более изящные решения.

Короче одна за другое цепляется. И для меня это "ред флаг", который говорит что в этой концепции что-то не так. Нет понятного, логичного объяснения. А общая точка зрения — скорее не про вечное устоявшееся, а про временное и неустойчивое.
👍2🤡1
Зацените, 100% AI Generated сайт: https://delo.studio/courses/aiartdirector

Хотя что считать 100% AI Generated?

Ну я не написал ни строчки кода, и не нарисовал ни одного элемента графики, не написал ни одного текста, и даже не сфотографировался.

При этом работа заняла около 6 часов суммарно. Что всё ещё хорошо, но не сказать что прямо супер-быстро.

UPD: Делал на Gemini 2.5 pro, в базовом тарифе за $20, хостил топорно — на тильде новая страница только с <html> блоком, где весь код. Просто потому что уже было.
🔥83👍1🤮1🍌1
Я только что попытался купить достаточно дорогую гитару с комбиком в фирменном магазине Yamaha.

Покупка импульсивная, но осознанная.

А гитара и комбик капец красивые. Вживую ещё лучше, чем в обзорах.

И их больше нигде нет в Тбилиси. Я долго взвешивал за и против, в итоге взял деньги, и поехал на такси в магазин.

И в итоге я не купил!

Из-за неприветливости, из-за того что они там между собой сотрудники ссорились, ещё не хватило лар, а доллары они не принимали, и отправили менять, а у меня паспорта нет, так что я сходил по жаре и вернулся без долларов.

То есть 100% готовность, деньги в кармане, потраченные деньги и время на такси и поход в обменник, а в итоге когда она решили всё-таки принять доллары, но начали ругаться между собой, я просто сказал ничего надо, до свидания.

При этом постоянно неуместно предлагали мне что-то ещё посмотреть и купить в процессе. Хотя я на первое же ответил, что спасибо, но я уже посмотрел обзоры, и выбрал точную модель.

Но я это не для того, чтобы пожаловаться на магазин.

А мне грустно стало за бизнес. Настолько теплого клиента привести к непокупке — это надо постараться.

Кажется прикольный кейс в плане того, как важны эмоциональные штуки при любом чеке, любой аудитории, независимо от твоего положения.

Пользовательский опыт и нерациональные вещи очень-очень-очень важны.
👍4🥰3🤡1🌚1🙈1
Google Deep Mind с Darren Aronofsky сделали фильм, где оочень много чего сгенерировано с помощью Veo.

Получилось круто.

https://blog.google/technology/google-deepmind/ancestra-behind-the-scenes/
🔥3
А есть среди вас топовые UX?

Крутые спецы, которым доводилось делать большие и важные проекты?
Я работаю над большим и интересным проектом, и мне нужен крутой UX в команду. Проект: софт, desktop-first (да, такое бывает).

Если вы такой, пишите в личку с описанием проектов, которые вы делали.

Нужны именно сеньоры и именно с опытом крутых интересных проектов. Для других к сожалению ничего сейчас нет.
🤡6
Всё, официально заявляю, что мы живем в мире, где ИИ-генерация видео — это теперь обязательный инструмент для всех, кто связан с видео-производством, дизайном и рекламой.

Veo 3, Midjourney Video, Higgsfield + первые удобные интерфейсы, типа loveart, flora.ai и recraft. Для дизайнеров теперь маст-хэв.

Генерация картинок и постоянное использование LLM — теперь просто базовое требования ко всем, даже к младшим позициям.

А продвинутые требования — уметь генерировать видео, и активно пользоваться агентными системами, типа Manus или вот теперь ChatGPT agent.

Но про агентов — оффтоп.

Про видео хотел сказать. То что показывали в Sora, и то что всех впечатлило — уже безнадежно отстало. Три разных подхода от трех компаний продвинулись сильно-сильно далеко.

Veo 3 — универсальный сильный инструмент для генерации почти чего угодно. По-прежнему дорого, но есть Kling, который по качеству наступает на пятки, при этом стоит в десятки раз дешевле.

Higgsfield — это фактически интерфейс, плюс наборы из отточенных пресетов. Вместо того, чтобы давать вам полную свободу, они тщательно отполировали сотни повторяющихся шаблонов, которые покрывают 90% всего что происходит в музыкальных клипах или рекламных видео.

Midjourney Video — продолжение идеологии картиночного генератора. Самая впечатляющая с художественной точки зрения картинка, мало косяков. Но при этом очень мало контроля. Фактически то, что есть в Higgsfield по-поводу движений камеры и прочего — тут вшито в саму модель.

Плюс в стороне от прямой генерации стоят HeyGen, который давно не обновлялся, но по прежнему делает при определенном навыке невероятно реалистичные цифровые аватары. И Runway Act Two, который делает "ремоделлинг" людей в любых песронажей, ИИ motion capture.

При всей мощи Veo 3, я как и с картинками, вижу больше всего потенциала для дизайнеров в чисто-дизайнерских задачках — добавления анимаций в иконки/картинки — в Midjourney Video.
🔥4🤣3
Chris Chapman отрицает ИИ очень усиленно: https://quantuxblog.com/synthetic-survey-data-its-not-data

Это один из немногих именно заметных отрицателей прогресса, он даже придумал плашку "Written by a human, not by AI", что тоже кое о чём говорит об объективности.

Интересно, что Юрий Ветров, известный собиратель дизайн-дайджестов всея рунета (очень качественных), с большой симпатией к этой статье отнесся, хотя про ИИ он очень много публикует всего.

Я часто такое пропускаю, потому что редко там есть весомые доводы. Но во-первых Чапман важный и влиятельный спикер. А во-вторых статья напрямую задевает то, чему я обучаю дизайн-команды Авито, Яндекса и других компаний с чуть менее узнаваемыми именами.

Поэтому не смог пройти мимо и прочитал.

И убедился снова в том, что к сожалению в стане отрицателей прогресса нет изменений. В расчет не берутся реальные кейсы, и реально применение, зато находится рационализация из исследований и из личной логики.

Про роль логики в таких вопросах мы все всё хорошо знаем — одинакого логично можно что-то отрицать и что-то доказывать. Потому что конечно логика тут построена на очень твердой позиции. Чапман классический исследователь, для которого чистота и достоверность данных — это абсолютный фетиш.

Я вот пока писал это всё, думал перейти к рассмотрению отдельных доводов. Но решил, что нет в этом большого смысла. Есть практика, которая говорит сама за себя, которая показывает как определенные инсрументы приносят пользу, сокращают время, сильно помогают сделать что-то за 5% от того, сколько бы это стоило раньше.

Научные данные достоверны — я посмотрел на эти исследования, и действительно LLM выдают в том исследовании около 1% от всего разнообразия людских паттернов. Но прикол в том, что пайплайны по синтетическим интервью — это как раз способ эти ограничения преодолеть.

Когда мы делаем синтетические интервью — мы обогощаем персоны реальными данными через Deep Research и Manus, мы их верифицируем через них же, мы собираем психологичные персоны с точным описанием триггеров и анти-триггеров, с описанием реальных кейсов.
👍3🤣1