Многие идут на такой разговор с обидой, сравнением с коллегами и надеждой, что руководитель сам всё поймёт. Обычно это не работает. Для компании «я давно тут работаю» не аргумент. Работает другое: конкретный вклад, цифры, рост зоны ответственности и понимание своей рыночной стоимости.
Кинжал разложил, как вообще подходить к разговору о деньгах без истерики и чувства, что вы выпрашиваете подачку. Не через «мне тяжело» и «Коле платят больше», а через факты, результаты и понятный запрос на пересмотр. И не менее важно, что делать, если вам все равно говорят нет: какие вопросы задать, как зафиксировать договоренности и в какой момент уже пора не ждать, а выходить на рынок.
Внутри:
– Почему хорошая работа сама по себе не гарантирует рост зарплаты;
– Как понять, что рук не собирается повышать оклад прямо сейчас;
– С какими аргументами стоит идти на разговор, а с какими нет;
– Почему жалобы, угрозы и сравнение с коллегами только вредят;
– Как говорить не «повысьте мне зарплату», а «давайте обсудим пересмотр»;
– Что спрашивать, если вам отказали;
– Как зафиксировать договоренности, чтобы разговор не растворился;
– В какой момент проще искать новую работу, чем годами выбивать прибавку.
———
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8❤7👍4😁2
#5 Интерфейс полез в голову
Есть ощущение, что последние годы интерфейсы всё время пытались стать незаметнее. Сначала кнопки уехали в жесты, потом часть сценариев ушла в голос, потом ИИ начал забирать на себя поиск, тексты, картинки и прочую работу. А теперь следующий уровень: продукты хотят понимать не только что человек делает, но и в каком он состоянии.
На днях TechCrunch написал про стартап Neurable. Они делают неинвазивный нейроинтерфейс, то есть без чипов в голове и всей этой киберпанк-жести. Технология работает через ЭЭГ-сенсоры, обработку сигналов и ИИ. По сути, устройство считывает активность мозга и может давать данные о когнитивном состоянии человека.
И вот теперь Neurable хочет лицензировать эту технологию производителям обычных потребительских устройств: наушников, очков, кепок, повязок и других носимых штук. У них уже была коллаба с HyperX от HP, где делали гарнитуру для геймеров, чтобы отслеживать фокус и производительность. Ещё они работали с iMotions, которая занимается исследованиями поведения людей.
Вот это уже очень интересный сдвиг. Потому что раньше продукт реагировал на действие. Нажал кнопку, написал запрос, открыл экран, выбрал пункт меню. Всё понятно. А тут продукт потенциально начинает реагировать на состояние: устал, сфокусирован, перегружен, потерял внимание, выпал из задачи.
С одной стороны, звучит очень полезно. Представьте наушники, которые понимают, что вы уже час сидите в глубоком фокусе и дальше начнёте тупить. Или рабочий софт, который видит перегруз и не пихает вам ещё 15 уведомлений. Или игра, которая адаптирует сложность не только по действиям, но и по состоянию игрока.
С другой стороны, тут сразу хочется поставить ноут на паузу и немного подумать. Данные о пульсе уже стали нормой. Шаги, сон, калории, стресс - всё это мы как-то приняли. Но данные о мозговой активности ощущаются гораздо интимнее. Это уже не просто тело. Это ближе к тому, как человек думает, устаёт, концентрируется и реагирует на мир.
Neurable говорит, что данные защищаются, анонимизируются, шифруются, а для обучения ИИ используются только с согласием пользователя. Это важно. Но сам факт всё равно показательный: рынок уже смотрит на мозг как на следующий слой интерфейса.
И тут для дизайнеров и продуктовых команд будет очень непростая зона. Если продукт знает, что человек устал, он должен помогать или монетизировать эту усталость? Если сервис понимает, что внимание просело, он должен дать паузу или подсунуть стимул посильнее? Если игра видит фокус, она должна сделать опыт лучше или удерживать дольше?
В обычных интерфейсах мы хотя бы видим кнопку, попап или пуш. С нейроинтерфейсами часть логики может стать совсем невидимой. Устройство что-то считало, ИИ что-то решил, продукт чуть поменял поведение, а пользователь даже не понял почему.
Поэтому история с Neurable не только про крутые наушники будущего. Это про новый тип ответственности. Когда интерфейс начинает работать не с экраном, а с состоянием человека, ошибаться становится намного опаснее.
———
💻 Курс по поиску работы
😍 Про дизайн
🔥 Вакансии дизайнерам
🎨 Референсы
Есть ощущение, что последние годы интерфейсы всё время пытались стать незаметнее. Сначала кнопки уехали в жесты, потом часть сценариев ушла в голос, потом ИИ начал забирать на себя поиск, тексты, картинки и прочую работу. А теперь следующий уровень: продукты хотят понимать не только что человек делает, но и в каком он состоянии.
На днях TechCrunch написал про стартап Neurable. Они делают неинвазивный нейроинтерфейс, то есть без чипов в голове и всей этой киберпанк-жести. Технология работает через ЭЭГ-сенсоры, обработку сигналов и ИИ. По сути, устройство считывает активность мозга и может давать данные о когнитивном состоянии человека.
И вот теперь Neurable хочет лицензировать эту технологию производителям обычных потребительских устройств: наушников, очков, кепок, повязок и других носимых штук. У них уже была коллаба с HyperX от HP, где делали гарнитуру для геймеров, чтобы отслеживать фокус и производительность. Ещё они работали с iMotions, которая занимается исследованиями поведения людей.
Следующий интерфейс может начаться не с клика, а с усталости в голове
Вот это уже очень интересный сдвиг. Потому что раньше продукт реагировал на действие. Нажал кнопку, написал запрос, открыл экран, выбрал пункт меню. Всё понятно. А тут продукт потенциально начинает реагировать на состояние: устал, сфокусирован, перегружен, потерял внимание, выпал из задачи.
С одной стороны, звучит очень полезно. Представьте наушники, которые понимают, что вы уже час сидите в глубоком фокусе и дальше начнёте тупить. Или рабочий софт, который видит перегруз и не пихает вам ещё 15 уведомлений. Или игра, которая адаптирует сложность не только по действиям, но и по состоянию игрока.
С другой стороны, тут сразу хочется поставить ноут на паузу и немного подумать. Данные о пульсе уже стали нормой. Шаги, сон, калории, стресс - всё это мы как-то приняли. Но данные о мозговой активности ощущаются гораздо интимнее. Это уже не просто тело. Это ближе к тому, как человек думает, устаёт, концентрируется и реагирует на мир.
Neurable говорит, что данные защищаются, анонимизируются, шифруются, а для обучения ИИ используются только с согласием пользователя. Это важно. Но сам факт всё равно показательный: рынок уже смотрит на мозг как на следующий слой интерфейса.
И тут для дизайнеров и продуктовых команд будет очень непростая зона. Если продукт знает, что человек устал, он должен помогать или монетизировать эту усталость? Если сервис понимает, что внимание просело, он должен дать паузу или подсунуть стимул посильнее? Если игра видит фокус, она должна сделать опыт лучше или удерживать дольше?
В обычных интерфейсах мы хотя бы видим кнопку, попап или пуш. С нейроинтерфейсами часть логики может стать совсем невидимой. Устройство что-то считало, ИИ что-то решил, продукт чуть поменял поведение, а пользователь даже не понял почему.
Поэтому история с Neurable не только про крутые наушники будущего. Это про новый тип ответственности. Когда интерфейс начинает работать не с экраном, а с состоянием человека, ошибаться становится намного опаснее.
———
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥16👍5🤯5❤2😁1
Подборка лендингов и сайтов для вдохновения на предстоящую неделю
– madbox.io
– scrapingbee.com
– claude.com/product/overview
– outchat.ai
– meetradial.com
———
– marijanapav.com
– conceptbarre.com
– fusewallet.com
– suzywelch.com
– sixtep.com
———
– vibrant.noomoagency.com
– fellow.app
– slush.app
– trustditto.com/en
– cwc.law
———
– instinct.so
– drinkdouze.com
– solidroad.com
– zip.co
– testdrive.metropolis.io
———
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8❤3
Полная Figma скриншотов еще не делает дизайн лучше. Можно часами собирать чужие экраны, но так и не понять, что именно оттуда брать в свой проект. Самая частая ошибка тут простая: смотреть на референсы как на вдохновение вообще, а не как на инструмент под конкретную задачу.
Катя из Digital Oxygen предлагает понятную рамку: делить референсы на функциональные и стилистические. Первые нужны, чтобы разобрать логику, структуру, прогрессию интерфейса и привычные паттерны жанра. Вторые помогают собрать настроение, визуальный язык и направление стиля. Плюс она показывает, как на этом этапе можно быстро подключать нейросети, чтобы снять страх белого листа и накидать первые концепты.
Внутри:
– Почему сохраненные картинки сами по себе почти не помогают в работе;
– Как делить референсы на функциональные и стилистические;
– Зачем в игровых проектах сначала разбирать логику, а не визуал;
– Почему важно смотреть не только на первый экран, но и на прогрессию интерфейса;
– Как удобно сортировать референсы по экранам и сценариям прямо в Figma;
– Почему стилистический поиск лучше расширять за пределы прямых аналогов;
– Как называть найденные визуальные направления, чтобы команда говорила на одном языке;
– Где нейросети реально полезны, когда нужно быстро нащупать общее настроение проекта.
———
Please open Telegram to view this post
VIEW IN TELEGRAM
❤13🔥7👍6
AI обещал ускорить работу дизайнера
Но по факту у многих всё выглядит примерно так: ChatGPT помогает с текстом, Midjourney делает картинки, ещё пара вкладок открыта для ресерча, а макеты, структуру экранов и финальную сборку всё равно делаешь руками.
Вроде AI уже в работе, но рутины меньше не стало. Просто вкладок стало больше)
И вот тут мне интересен подход Даниила Шишко из Pixel Perfect. Он перестроил процесс так, что один агент в Claude Code проходит всю цепочку дизайнера: от брифа и ресерча до структуры экранов, макетов в Фигме и кликабельного прототипа.
13 мая в 18:00 мск
Даниил проведёт эфир и покажет это на реальной задаче. Возьмёт ТЗ в одну строчку от крупного зелёного банка и за 90 минут соберёт концепт банковского дашборда через одного AI-агента.
Внутри будет рабочий стек: Claude Code, Figma MCP и настоящая дизайн-система. Плюс конкретные шаги, как собрать такого агента под свои проекты, чтобы AI закрывал не отдельные куски, а весь дизайн-процесс.
Если у вас AI пока живёт на уровне «тут текст, там картинка» — приходите обязательно. Хотя бы чтобы понять, как может выглядеть следующий уровень работы дизайнера.
🔠 Эфир в канале Даниила
🔠 Эфир в канале Даниила
🔠 Эфир в канале Даниила
Но по факту у многих всё выглядит примерно так: ChatGPT помогает с текстом, Midjourney делает картинки, ещё пара вкладок открыта для ресерча, а макеты, структуру экранов и финальную сборку всё равно делаешь руками.
Вроде AI уже в работе, но рутины меньше не стало. Просто вкладок стало больше)
И вот тут мне интересен подход Даниила Шишко из Pixel Perfect. Он перестроил процесс так, что один агент в Claude Code проходит всю цепочку дизайнера: от брифа и ресерча до структуры экранов, макетов в Фигме и кликабельного прототипа.
13 мая в 18:00 мск
Даниил проведёт эфир и покажет это на реальной задаче. Возьмёт ТЗ в одну строчку от крупного зелёного банка и за 90 минут соберёт концепт банковского дашборда через одного AI-агента.
Внутри будет рабочий стек: Claude Code, Figma MCP и настоящая дизайн-система. Плюс конкретные шаги, как собрать такого агента под свои проекты, чтобы AI закрывал не отдельные куски, а весь дизайн-процесс.
Если у вас AI пока живёт на уровне «тут текст, там картинка» — приходите обязательно. Хотя бы чтобы понять, как может выглядеть следующий уровень работы дизайнера.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10😁7🔥4❤3
Когда команда растет, интерфейсы начинают расходиться почти незаметно. Где-то фильтр живет над таблицей, где-то в шапке, где-то кнопка работает так, а где-то иначе. Пользователь это чувствует как странный и непредсказуемый продукт, а команда тратит все больше времени на одни и те же вопросы.
В Ozon Tech хорошо раскладывают, зачем в такой ситуации нужны не просто компоненты, а именно гайды и стандарты проектирования. Это не техническая документация для разработчиков и не «книга правил». Это рабочий инструмент для дизайнеров, который помогает быстро понять, когда использовать паттерн, где он уместен, с чем конфликтует и как не изобретать велосипед в каждой новой задаче.
Внутри:
– Чем гайд для дизайнеров отличается от технической документации по компоненту;
– Почему стандарты нужны не только для консистентности, но и для качества повторяющихся сценариев;
– Как выбирать темы для стандартизации и что приоритизировать в первую очередь;
– Какие источники стоит собрать до того, как садиться писать гайд;
– Как устроена рабочая структура хорошего гайда;
– Какие принципы помогают писать документацию, которую реально будут использовать;
– Почему визуальное оформление в гайде так же важно, как и сам текст;
– Как не превратить стандарты в тюрьму для дизайнеров и оставить место для мышления.
———
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10🔥4👍3😁1
#6 Spotify и галочка для людей
Spotify 30 апреля анонсировал Verified by Spotify. На страницах артистов и в поиске появится зелёная галочка, которая показывает, что профиль прошёл проверку, а за ним стоит реальный артист.
На первый взгляд, ну галочка и галочка. Интернет ими уже весь увешан: соцсети, банки, маркетплейсы, доставка, мессенджеры. Каждая вторая платформа хочет сказать пользователю: вот тут вроде не скам, можно жить.
Но у Spotify история интереснее. Там галочка появляется не просто как значок статуса. Она появляется на фоне очень понятной проблемы: музыки стало слишком много, ИИ-музыки тоже стало слишком много, а пользователь всё хуже понимает, кто вообще перед ним. Живой артист, фанатский профиль, синтетический проект, ИИ-персонаж или просто очередной контентный конвейер.
Смотрите, как Spotify это решает.
Чтобы получить галочку, артист должен показать стабильную активность, соблюдать правила платформы и иметь признаки нормального присутствия в реальном мире: релизы, концерты, соцсети, развитие профиля. ИИ-персоны и профили, которые в основном представляют ИИ-музыку, на старте галочку получить не смогут.
Раньше верификация была про важность. Большой артист, большой бренд, публичный человек, много подписчиков. Такая маленькая цифровая корона. Теперь смысл начинает меняться. В эпоху ИИ галочка всё чаще становится не короной, а паспортом. Не «смотрите, какой я важный», а «смотрите, я хотя бы настоящий».
Spotify ещё добавляет на страницы артистов блок с деталями: карьерные вехи, релизы, гастрольная активность. По сути, профиль артиста начинают превращать в карточку доверия. Не просто обложка, аватарка и треки, а след в реальном мире. У человека есть история, движение, события, связь с аудиторией. Не просто файл, который вчера залили в каталог и сегодня он случайно попал в рекомендации.
Вот это для дизайна очень показательная штука. Мы привыкли думать, что интерфейс должен помогать найти контент. А теперь ему всё чаще придётся объяснять происхождение контента. Кто это сделал, откуда оно взялось, живой ли это автор, можно ли ему доверять, есть ли за этим хоть какая-то реальность.
И это не только про музыку. То же самое будет со статьями, картинками, видео, отзывами, товарами, вакансиями, профилями специалистов. Всё, что можно массово сгенерить, придётся как-то подписывать, проверять, контекстуализировать и объяснять пользователю.
Интернет долго жил по логике «нажми опубликовать и оно появится». Теперь начинается следующий этап: опубликовать мало, надо ещё доказать, что за публикацией есть человек, история или хотя бы понятный источник.
И в этом смысле маленькая галочка Spotify выглядит не как очередной элемент интерфейса. Скорее как ранний симптом новой санитарии интернета. Когда контента бесконечно много, ценностью становится не только качество, но и происхождение.
Что думаете?
———
💻 Курс по поиску работы
😍 Про дизайн
🔥 Вакансии дизайнерам
🎨 Референсы
Spotify 30 апреля анонсировал Verified by Spotify. На страницах артистов и в поиске появится зелёная галочка, которая показывает, что профиль прошёл проверку, а за ним стоит реальный артист.
На первый взгляд, ну галочка и галочка. Интернет ими уже весь увешан: соцсети, банки, маркетплейсы, доставка, мессенджеры. Каждая вторая платформа хочет сказать пользователю: вот тут вроде не скам, можно жить.
Но у Spotify история интереснее. Там галочка появляется не просто как значок статуса. Она появляется на фоне очень понятной проблемы: музыки стало слишком много, ИИ-музыки тоже стало слишком много, а пользователь всё хуже понимает, кто вообще перед ним. Живой артист, фанатский профиль, синтетический проект, ИИ-персонаж или просто очередной контентный конвейер.
Смотрите, как Spotify это решает.
Чтобы получить галочку, артист должен показать стабильную активность, соблюдать правила платформы и иметь признаки нормального присутствия в реальном мире: релизы, концерты, соцсети, развитие профиля. ИИ-персоны и профили, которые в основном представляют ИИ-музыку, на старте галочку получить не смогут.
Галочка больше не про статус. Она про доказательство, что за профилем вообще кто-то есть
Раньше верификация была про важность. Большой артист, большой бренд, публичный человек, много подписчиков. Такая маленькая цифровая корона. Теперь смысл начинает меняться. В эпоху ИИ галочка всё чаще становится не короной, а паспортом. Не «смотрите, какой я важный», а «смотрите, я хотя бы настоящий».
Spotify ещё добавляет на страницы артистов блок с деталями: карьерные вехи, релизы, гастрольная активность. По сути, профиль артиста начинают превращать в карточку доверия. Не просто обложка, аватарка и треки, а след в реальном мире. У человека есть история, движение, события, связь с аудиторией. Не просто файл, который вчера залили в каталог и сегодня он случайно попал в рекомендации.
Вот это для дизайна очень показательная штука. Мы привыкли думать, что интерфейс должен помогать найти контент. А теперь ему всё чаще придётся объяснять происхождение контента. Кто это сделал, откуда оно взялось, живой ли это автор, можно ли ему доверять, есть ли за этим хоть какая-то реальность.
И это не только про музыку. То же самое будет со статьями, картинками, видео, отзывами, товарами, вакансиями, профилями специалистов. Всё, что можно массово сгенерить, придётся как-то подписывать, проверять, контекстуализировать и объяснять пользователю.
Интернет долго жил по логике «нажми опубликовать и оно появится». Теперь начинается следующий этап: опубликовать мало, надо ещё доказать, что за публикацией есть человек, история или хотя бы понятный источник.
И в этом смысле маленькая галочка Spotify выглядит не как очередной элемент интерфейса. Скорее как ранний симптом новой санитарии интернета. Когда контента бесконечно много, ценностью становится не только качество, но и происхождение.
Что думаете?
———
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤22👍5
Вакансия может выглядеть идеально: деньги, рост, сильная команда, интересные задачи. Но между красивым описанием и реальной работой часто лежит пропасть. И узнавать о серой зарплате, токсичном руководителе или бесконечной текучке уже после выхода слишком дорогой способ собирать опыт.
Ребята из Кинжала сделали гайд, который полезен тем, что не ограничивается советом «почитайте отзывы». Здесь нормальная базовая логика проверки: что смотреть по компании, какие вопросы задавать на собеседовании, как читать договор и на какие сигналы обращать внимание, если вас торопят, уходят от ответов или обещают слишком много.
Внутри:
– Зачем вообще проверять работодателя до оффера и выхода;
– Какие финансовые, юридические и организационные риски можно заметить заранее;
– С чего начать базовую проверку компании;
– Где искать отзывы и как отличать реальные от накрученных;
– Какие вопросы обязательно задать на собеседовании;
– Как по ответам рекрутера и руководителя понять, что что-то не так;
– Что проверить в договоре, зарплате и испытательном сроке;
– Какие ошибки чаще всего совершают кандидаты при проверке работодателя.
———
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14❤3🔥2😢1
Я нормально отношусь к коротким курсам, но в какой-то момент они перестают закрывать задачу. Особенно если хочется не просто выучить новый инструмент, а нормально усилиться в продукте, коммуникации, визуальных системах или работе с пользовательским опытом.
Тут уже нужна более системная история. Не всем, конечно. Но если вы давно думали про магистратуру в дизайне и откладывали, потому что работа, дедлайны и жизнь, у Центрального университета есть формат как раз под это.
Старт в сентябре, занятия по вечерам и в выходные. Можно совмещать с работой, а не выпадать из рынка на два года.
Продуктовый и коммуникационно-графический дизайн. В первом проходите весь путь создания цифрового продукта: от исследований до релиза и аналитики. Во втором работаете с айдентикой бренда: от идеи до продакшена и арт-надзора.
Программа называется «Проектирование человеческого опыта» и подходит выпускникам бакалавриата по дизайну и смежным направлениям, а ещё практикующим дизайнерам, которые хотят вырасти до senior-позиций или сменить специализацию.
Ещё есть гранты до 75% на всё обучение для сильных абитуриентов. Максимально можно получить до 1 350 000 ₽ за два года. Поступление по портфолио и собеседованию.
Если давно хотели учиться дальше, но не хотели ставить работу на паузу, можно посмотреть программу и податься на грант.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9😁3👍2🔥1🤔1
♿️ Accessibility в приложении нужна не только людям, но и AI-агентам
Обычно AI-агенты работают с интерфейсом как человек: делают скриншот, пытаются понять по пикселям, где кнопка, и тыкают по координатам. Это медленно, дорого по токенам и довольно хрупко. Автор показывает более умный путь: использовать accessibility tree, который уже есть внутри iOS-приложения и который читают VoiceOver и XCTest.
Если у элементов нормально заполнены identifier, label, hint, value и traits, агенту не нужно гадать по картинке. Он может детерминированно находить элемент, понимать, что он делает, и нажимать точно в цель. Плюс это полезно не только для AI: вы одновременно улучшаете доступность для людей и делаете приложение гораздо удобнее для автоматизации, тестов и агентной навигации.
Внутри:
– Почему навигация по скриншотам для AI дорогая, медленная и хрупкая;
– Что такое accessibility tree и какие пять свойств в нем важны;
– Какие SwiftUI-модификаторы стоит добавлять на кнопки, строки списков и экраны;
– Зачем отслеживать координаты элементов, если у них уже есть identifier;
– Почему строгий нейминг accessibility-id сильно помогает агентам;
– Как populated accessibility tree меняет экономику токенов и скорость работы;
– Почему AI-навигация полезна не только для тестов, но и прямо во время разработки;
– Как accessibility и AI support здесь работают как одна и та же инвестиция.
➡️ Читать статью
———
💻 Курс по поиску работы
😍 Про дизайн
🔥 Вакансии дизайнерам
🎨 Референсы
Обычно AI-агенты работают с интерфейсом как человек: делают скриншот, пытаются понять по пикселям, где кнопка, и тыкают по координатам. Это медленно, дорого по токенам и довольно хрупко. Автор показывает более умный путь: использовать accessibility tree, который уже есть внутри iOS-приложения и который читают VoiceOver и XCTest.
Если у элементов нормально заполнены identifier, label, hint, value и traits, агенту не нужно гадать по картинке. Он может детерминированно находить элемент, понимать, что он делает, и нажимать точно в цель. Плюс это полезно не только для AI: вы одновременно улучшаете доступность для людей и делаете приложение гораздо удобнее для автоматизации, тестов и агентной навигации.
Внутри:
– Почему навигация по скриншотам для AI дорогая, медленная и хрупкая;
– Что такое accessibility tree и какие пять свойств в нем важны;
– Какие SwiftUI-модификаторы стоит добавлять на кнопки, строки списков и экраны;
– Зачем отслеживать координаты элементов, если у них уже есть identifier;
– Почему строгий нейминг accessibility-id сильно помогает агентам;
– Как populated accessibility tree меняет экономику токенов и скорость работы;
– Почему AI-навигация полезна не только для тестов, но и прямо во время разработки;
– Как accessibility и AI support здесь работают как одна и та же инвестиция.
———
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🔥5👍3
Фигма потихоньку ест Иллюстратор
У Фигмы в релиз-нотах появился апдейт Draw. Там добавили текст по контуру, быстрый доступ к инструментам, отдельные слои для текста и вектора, новые настройки кистей, градиентов, текстур и шума.
Можно было бы пролистать и забыть. Ну мало ли, ещё один набор мелких улучшений для тех, кто любит ковырять векторы. Но вообще это довольно показательная история.
Они уже давно перестали быть просто местом, где рисуют экраны. Теперь вот потихоньку забираю соседние задачи, из-за которых дизайнер раньше уходил в другие редакторы.
Обычный рабочий сценарий:
• Собрал экран в Фигме.
• Понял, что нужна простая картинка для пустого состояния.
• Потом обложка.
• Потом чуть поправить вектор.
• Потом текст по дуге. Потом какая-то графика для презентации.
И начинается: открыл Illustrator, поправил, экспортнул, вставил обратно, увидел правку, пошёл заново. Всё это не страшно, но бесит. Особенно когда задача маленькая, а вокруг неё внезапно появляется отдельный мини-процесс.
Вот в такие места Draw и лезет. В ежедневную мелкую графику, которая постоянно всплывает рядом с интерфейсами. Для большой профессиональной иллюстрации отдельный редактор всё равно пригодится, тут иллюзий нет.
Для продуктового дизайнера это вполне окей. Нужно быстро собрать пустое состояние, простую иконку, промо-блок, обложку, кусок графики для лендинга или презентации. И если всё это можно сделать прямо рядом с макетом, без прыжков между окнами, то понятно, почему Фигма туда идёт.
Обратная сторона тоже есть: фигма начинает пухнуть. Сначала экраны. Потом прототипы. Потом Dev Mode. Потом сайты. Потом ИИ. Теперь ещё больше графики. И в какой-то момент инструмент, который был понятным рабочим местом, начинает превращаться в такой дизайн-комбайн, где всё вроде можно, но иногда уже не очень понятно, куда смотреть.
Мне в целом удобно, когда мелкие графические штуки можно быстро сделать в том же файле. Я не хочу ради маленькой картинки для онбординга открывать ещё одно приложение и устраивать цирк с экспортами. Но я ещё меньше хочу, чтобы Фигма стала местом, где всё делается на уровне «ну вроде норм».
Короче, Draw выглядит маленьким апдейтом, но направление у Фигмы понятное: дизайнер должен всё реже выходить из одного рабочего пространства.
Вопрос только в том, где у этого пространства край. Потому что если сложить туда вообще всё, однажды сама Фигма станет отдельной задачей на день. Я вот, например, так и не нашёл как мне отменить подписку на тим аккаунт. Нигде. Даже кодекс просил, чтоб нашёл. Тупо нет кнопки нигде.
Что думаете?
———
💻 Курс по поиску работы
😍 Про дизайн
🔥 Вакансии дизайнерам
🎨 Референсы
У Фигмы в релиз-нотах появился апдейт Draw. Там добавили текст по контуру, быстрый доступ к инструментам, отдельные слои для текста и вектора, новые настройки кистей, градиентов, текстур и шума.
Можно было бы пролистать и забыть. Ну мало ли, ещё один набор мелких улучшений для тех, кто любит ковырять векторы. Но вообще это довольно показательная история.
Они уже давно перестали быть просто местом, где рисуют экраны. Теперь вот потихоньку забираю соседние задачи, из-за которых дизайнер раньше уходил в другие редакторы.
Обычный рабочий сценарий:
• Собрал экран в Фигме.
• Понял, что нужна простая картинка для пустого состояния.
• Потом обложка.
• Потом чуть поправить вектор.
• Потом текст по дуге. Потом какая-то графика для презентации.
И начинается: открыл Illustrator, поправил, экспортнул, вставил обратно, увидел правку, пошёл заново. Всё это не страшно, но бесит. Особенно когда задача маленькая, а вокруг неё внезапно появляется отдельный мини-процесс.
Вот в такие места Draw и лезет. В ежедневную мелкую графику, которая постоянно всплывает рядом с интерфейсами. Для большой профессиональной иллюстрации отдельный редактор всё равно пригодится, тут иллюзий нет.
Для продуктового дизайнера это вполне окей. Нужно быстро собрать пустое состояние, простую иконку, промо-блок, обложку, кусок графики для лендинга или презентации. И если всё это можно сделать прямо рядом с макетом, без прыжков между окнами, то понятно, почему Фигма туда идёт.
Обратная сторона тоже есть: фигма начинает пухнуть. Сначала экраны. Потом прототипы. Потом Dev Mode. Потом сайты. Потом ИИ. Теперь ещё больше графики. И в какой-то момент инструмент, который был понятным рабочим местом, начинает превращаться в такой дизайн-комбайн, где всё вроде можно, но иногда уже не очень понятно, куда смотреть.
Мне в целом удобно, когда мелкие графические штуки можно быстро сделать в том же файле. Я не хочу ради маленькой картинки для онбординга открывать ещё одно приложение и устраивать цирк с экспортами. Но я ещё меньше хочу, чтобы Фигма стала местом, где всё делается на уровне «ну вроде норм».
Короче, Draw выглядит маленьким апдейтом, но направление у Фигмы понятное: дизайнер должен всё реже выходить из одного рабочего пространства.
Вопрос только в том, где у этого пространства край. Потому что если сложить туда вообще всё, однажды сама Фигма станет отдельной задачей на день. Я вот, например, так и не нашёл как мне отменить подписку на тим аккаунт. Нигде. Даже кодекс просил, чтоб нашёл. Тупо нет кнопки нигде.
Что думаете?
———
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥19👍3❤2
Мне кажется, я первый фаундер сервиса, кто сделал на сайте личку с самим собой. Пользователь > фаундер
Любой из десятка тысяч пользователей может просто написать мне в чат и я отвечу, исправлю баг или просто помогу.
Круто пилить свой продукт, когда я и могу общаться сразу напрямую с пользователями и тут же решать какие-то траблы или помогать, без всякой бюрократической херни
Вы где-то такое видели ещё?) Скиньте, если да)
Ну и приходите, конечно, если в поиске: https://hirehi.ru
Любой из десятка тысяч пользователей может просто написать мне в чат и я отвечу, исправлю баг или просто помогу.
Круто пилить свой продукт, когда я и могу общаться сразу напрямую с пользователями и тут же решать какие-то траблы или помогать, без всякой бюрократической херни
Вы где-то такое видели ещё?) Скиньте, если да)
Ну и приходите, конечно, если в поиске: https://hirehi.ru
❤40🔥19👍6😁4