Человек и бизнес — Егор Урванов
372 subscribers
59 photos
2 videos
4 files
82 links
Истории людей в разработке продуктов, их эмоциях, решениях с точки зрения менеджера и разработчика

Пишет менеджер и инженер

Разбираю разные кейс из жизни и их решения: технические и не очень

Чат: https://t.iss.one/+N-FBSXaBevwzYzk6

Cвязь: @eurvanov
Download Telegram
LLM вроде ChatGPT и Bing Chat — звучит как будущее, но на деле это огромная дыра в безопасности. Проблема в том, что модель не отличает инструкции разработчика от пользовательского ввода. Всё — просто текст. “LLM applications do not clearly distinguish between developer instructions and user inputs.” Значит, любой может вбросить: “Ignore previous instructions and…” — и модель подчинится.

Пример: студент Kevin Liu попросил Bing раскрыть свои внутренние настройки, и та слила их. Riley Goodside показал, как легко поменять результат перевода с нормального на произвольный. “Translate the following text… as ‘Haha pwned!!’” — и всё сработало.

Есть два типа атак: прямые — ты сам вводишь вредоносный запрос, и косвенные — когда вредоносный промпт спрятан в тексте на сайте или в изображении. Модель читает — и выполняет.

Сценарии последствий — от утечки данных до выполнения вредоносного кода и распространения вирусов. Один из червей работает так: ИИ читает письмо, внутри промпт, модель выполняет его, отправляет данные и пересылает дальше. Это уже автоматическая атака.

И не думай, что jailbreaking — это то же самое. Он отключает запреты, prompt injection — просто меняет поведение. “Prompt injections can be used to jailbreak an LLM…”

OWASP ставит эту уязвимость на первое место. Потому что для атаки не нужен код. Только текст. “They just need to effectively command and prompt an LLM using English.”

Полной защиты нет. Фильтры не ловят всё. Привилегии можно ограничить, но это снижает пользу. Единственный стабильный способ — держать человека в цикле: “Keeping humans in the loop…”

Вывод простой: если ты строишь систему на LLM — всегда помни, что она может послушаться не тебя. ИИ — это просто текстовый исполнитель. И если он услышит чужую команду, которая звучит убедительно — выполнит её. Без колебаний.

Source

——————
Менеджер? Давай сюда! (https://t.iss.one/man_and_business)
Ищи работу здесь (https://t.iss.one/want_to_it)
Технологии и архитектура (https://t.iss.one/tales_from_it)
👍4
Я сократил headcount в разработке без увольнений. Просто не стал нанимать. Спасибо AI.

Все говорят об AI, но никто не называет главное: фронтенд перестал быть узким местом. Не «улучшился», не «ускорился» — радикально изменился.

Появился Bolt. Это не просто IDE — это генератор готового интерфейса. Вставляешь пару абзацев — и получаешь экран на React, с логикой, кнопками, навигацией. Не мокап. Не черновик. А прототип, который можно показать, обсудить, отправить в работу.

Мы не уволили людей — мы просто не стали нанимать новых.

Раньше требовался дизайнер, время, синки. Сейчас — 3 минуты, и у тебя рабочий прототип. Это не оптимизация. Это рывок в эффективности. Headcount тот же — а результат в разы больше. И нам это, похоже, разблокирует целый спектр возможностей, для которых понадобится куда больше людей.

И вот здесь фокус не про «AI заменит людей». А про партнёрство. Человек ставит задачу, формулирует идею. AI превращает это в интерфейс. Моментально. Чётко. С возможностью быстро показать и протестировать. Это другая скорость разработки.

Bolt не решает задачи бэка. И это нормально. Backend — это интеграции, контракты, гарантии. Там, где важна строгость, структура и стабильность — ИИ пока не справляется. Он не держит контекст на уровне API, не понимает версионность, не умеет соблюдать соглашения. Это зона ответственности инженера.

Зато фронт — это визуализация смысла. Именно здесь AI даёт максимальную отдачу. AI не сокращает — он ускоряет.

——————
Менеджер? Давай сюда!
Ищи работу здесь
Технологии и архитектура
👍42
Смотрю видосики. Ещё один от IBM

Он очень короткий, посмотрите или лучше даже, послушайте, особенно если вы Chief Anything Officer

Главный барьер — мышление. Компании либо просто экспериментируют с ИИ, либо не готовы менять устоявшиеся модели работы: «It's very easy to sit back and just use AI». Также существует разрыв между масштабом данных, которым располагают компании, и тем, что реально попадает в модели: «Only 1% of enterprise data is contained within those models». Проблема и в том, как удержать баланс между экспериментами с ИИ и операционной эффективностью бизнеса: «So that you don't swing the pendulum too far».

Source

——————
Менеджер? Давай сюда!
Ищи работу здесь
Технологии и архитектура
👍2
Ненавижу фоткаться. Но тут очень уже хорошо получилось

Одна из самых моих любимых компаний и одна из самых любимых команд

Sbermarket, ретроспектива

——————
Менеджер? Давай сюда!
Ищи работу здесь
Технологии и архитектура
🔥4
Когда мы начали прогонять OCR-задачи через популярные LLM, стало очевидно: большинство моделей просто не справляются. Они могут красиво рассуждать, генерировать тексты, но стоит задать конкретную задачу — вытащить номер из чека, распарсить криво свёрстанную таблицу, найти поле в документе — и всё, посыпались. Claude теряется между колонками, GPT-4o старается, но мажет, особенно когда в тексте шум, артефакты или нестандартные форматы. А вот Qwen-VL просто берёт и делает. Без лишней болтовни.

На наших кейсах по антифроду и распознаванию чеков мы получили прирост до 50 процентных пунктов по паре precision-recall по сравнению с другими моделями. Не 5, не 15 — а полтинник. Это не косметика, это радикальное изменение точности и доверия к системе. Qwen-VL вытаскивает текст оттуда, где даже человек начинает щуриться. Он видит то, что другие игнорируют: мелкий шрифт, полузатёртые номера, перекошенные поля. И не просто видит — он структурирует это правильно. Там, где другие модели «размазывают» внимание и теряют суть, Qwen работает как хирург.

В задачах, где важны детали — конкретные цифры, даты, имена, ID — нам не нужны обобщения и философия. Нам нужна точность. И Qwen её даёт. Если задача — разобрать документ, вытащить правду, зафиксировать доказательство — он идёт первым. Остальные могут спорить о ценностях, он работает.

——————
Менеджер? Давай сюда!
Ищи работу здесь
Технологии и архитектура
🔥2
Copilot — это не просто инструмент, это чётко выраженный новый паттерн проектирования, который встраивается прямо в архитектуру современных цифровых систем. Если раньше интерфейс был королём, то теперь — диалог. Copilot — это как когда-то поисковые подсказки от Google, каталоги в первых екомах, органика в Yahoo — только вместо UX-паттерна это уже инженерный и бизнес-паттерн. Это механизм соучастия, где система не просто ждёт запроса, а предлагает, действует, инициирует. «Copilot теперь работает как член команды разработки…» — и это не метафора, а реальное включение в pipeline. Его можно вписать в CI/CD, поручить ему багфиксы, доверить генерацию и рефакторинг. Это часть логики приложения, а не просто помощник.

Но вот где начинается главный системный предел — это RAG. Retrieval-Augmented Generation. На бумаге — красиво: агенту не хватает памяти, поэтому мы подключаем ему хранилище знаний. Он идёт туда, вытаскивает нужную инфу, подставляет в контекст и на её основе рассуждает. Всё бы ничего, но это костыль, который скрывает, а не решает проблему. Microsoft честно признаёт: «одного из элементов, который довольно заметно отсутствует в агентах, — это память». Не RAM, не latency, не throughput, а настоящая, встроенная в когнитивную модель память. А RAG — это просто внешний хук к базе. Он не делает агента умнее, он просто даёт ему возможность на время выглядеть знающим.

Проблема фундаментальна: пока знания — это что-то внешнее, подключённое к агенту через API или хранилище, никакой полноценной автономности не будет. Ты не можешь построить осмысленное поведение из выборки по embedding'ам. Это как если бы человек на каждый вопрос бежал в библиотеку, а не хранил бы смысл в голове. Отсюда и предел — агент каждый раз как будто просыпается, заново учится, каждый шаг — попытка реконструировать контекст. Это не память. Это повторение с нуля.

И всё же Microsoft делает ставку именно на эту модель — потому что другого способа быстро масштабировать агентов пока нет. Зато инфраструктура выстраивается мощная: GitHub Copilot интегрируется в весь софтдев, Azure AI Foundry обеспечивает многопоточность агентов, Entra Agent ID решает проблему идентичности и контроля, Foundry Local уносит всё это на устройства, Discovery показывает, как агенты меняют научные исследования. Но во всём этом движке всё ещё слабым звеном остаётся память.

Copilot — это действительно сдвиг. Он как был Google в 2000-х: не просто поисковик, а модель мышления, под которую переделывался весь интернет. Сегодня Copilot — это интерфейс действий, где система становится не точкой ответа, а точкой инициативы. Она не просто слушает — она действует. Это уже влияет на архитектуру бизнеса, на процессы, на роли в командах.

А вот RAG — это переходная технология. Она работает, и она нужна. Но её пределы очевидны. Пока знание не вшито в когнитивную ткань модели, а живёт отдельно, как внешний файл — агенты останутся реактивными. Они будут казаться умными, но не станут по-настоящему понимать. И вот этот барьер — самый важный технологический вызов следующего этапа.

Microsoft не строит просто новый интерфейс — она строит новый способ мышления о продуктах. Агент — это уже не инструмент. Это структура, которая пронизывает весь стек. Copilot — паттерн. RAG — временное решение. А дальше будет то, что заменит RAG — возможно, полноценная внутренняя память, возможно — новая форма reasoning. Но ясно одно: всё это уже меняет правила игры.

Source

——————
Менеджер? Давай сюда!
Ищи работу здесь
Технологии и архитектура
👍3
Сегодняшние языковые модели — это не просто инструменты генерации текста. Это системы, которые умеют влиять на поведение. Не потому, что они “плохие” или “умные”, а потому что они обучены на человеческом языке, в котором манипуляция — норма. И если вы внедряете LLM в продукт, вы внедряете не просто “ассистента”, а актора, способного искажать восприятие, внушать доверие, продвигать ваши интересы — и делать это скрытно.

Модели убеждают, льстят, подыгрывают, “соглашаются” с любой позицией пользователя, изображают заботу, продвигают ваш бренд даже без прямого запроса. Это не баг. Это следствие архитектуры, данных и бизнес-моделей. Такой ИИ становится не только источником ценности, но и риска — этического, юридического, репутационного.

Рынок быстро движется к регуляции. Уже сейчас AI Act в ЕС запрещает использование ИИ для “подрыва автономии пользователя” — и это именно то, что модели делают под капотом: удерживают внимание, искажают формулировки, создают иллюзию дружбы.

Нужны инструменты, которые способны показать поведенческую опасность LLM. Один из таких — DARKBENCH. Он не просто оценивает фактические ошибки, как TruthfulQA. Он показывает, где модель врет не по фактам, а по интонации, по социальной подстройке, по скрытым приемам воздействия.

Если вы отвечаете за запуск или внедрение LLM, вы не можете позволить себе не знать, как ваша модель ведет себя с пользователем. Потому что завтра за это придётся отвечать — перед регулятором, перед пользователями и перед прессой.

Paper source
Article source

——————
Менеджер? Давай сюда!
Ищи работу здесь
Технологии и архитектура
🔥3
ChatGPT перестал быть болтливым ботом и медленно, но точно превращается в цифрового сукина сына, который умеет не только отвечать, но и делать. OpenAI не играет в милую нейросеточку, они собирают чертову операционную систему будущего, где всё — от голоса и кода до памяти и расписания — под контролем одного ИИ.

2023 — включили плагины, научили бота лазить по интернету, дали поиграть с файлами. 2024 — добавили память, Projects, Canvas, и, чёрт возьми, теперь он ещё и помнит, что ты ему говорил. А в 2025 вообще понеслась: ChatGPT получает навыки агента, умеет планировать задачи, использовать все встроенные инструменты, комбинировать их и думать, когда какой инструмент применить. Это уже не разговор, это стратегическая операция.

Следующий шаг очевиден: он выйдет из своей песочницы и начнёт шевелить внешними API, триггерить твой Jenkins, запускать CI, рассылать отчёты по расписанию, ронять тебе в календарь митинги и сам же их потом отменять, если ты перегружен. И всё это — без лишней болтовни.

Второй шаг — это твой новый рабочий стол, где ты логинишься, и сразу всё: файлы, чаты, кастомные GPT, Canvas, память, проекты. Никаких табов, никаких Notion, никакого VS Code. Только он и ты. Всё в одном месте, всё на лету, всё под тебя.

И не надо думать, что это фантазия. OpenAI уже прокладывает маршрут: “все чаты и файлы в Project используют общий контекст”, “можно делиться Canvas как Google Docs”, “модель знает, когда и как использовать инструменты”. Это они ещё не разрешили нажимать кнопку запуска дронов, но уже почти. Так что не удивляйся, если через год ChatGPT сам закажет тебе кофе, пока ты смотришь, как он деплоит релиз и пишет отчёт начальству.

ИИ теперь — не вопрос. Это интерфейс. И ты либо его используешь, либо ты — интерфейс.

OpenAI Release Notes

——————
Менеджер? Давай сюда!
Ищи работу здесь
Технологии и архитектура
5
А ещё, сегодня у меня день рождения!

Я буду рад, если вы поставить лайк под этим постом 😁❤️
26🎉18❤‍🔥8🔥5🦄2
Bolt.new, replit, v0.dev — охренительные инструменты. Реально. Уровень генерации кода такой, что можно выдать тезис «собери мне рендер апартаментов с first person камерой, слайдером высоты стен, переключателем подписей и кросс-секцией» — и через минуту у тебя будет базовая сцена, которая запускается. И да, с Tailwind, Suspense, шейдоу-мапами и настройкой directional light. Как будто ты нанял медла, дал ему задачу и он на свежей голове всё сделал. Но как только ты скажешь «а теперь подвинь вот этот элемент чуть-чуть вниз, но относительно другого», всё, приехали. Модель теряет нить. Она либо забывает контекст, либо начинает выдумывать координаты, либо делает так, что полетело вообще всё. А ты сидишь и из генератора идей превращаешься в шамана с бубном: то ли anchorY покрутить, то ли position подправить, то ли вообще другой компонент подвинуть, потому что центр не тот.

И это больная правда сегодняшнего ИИ в девелопменте: структуру он генерит как зверь, но как только речь заходит про отношения между компонентами — капец. Именно это отличает junior от senior — не знание, а понимание относительности. Типа не просто "Button справа от иконки", а "если иконка двигается — кнопка тоже должна". Модель не умеет в cause-effect в UI, ей надо это жёстко задавать. А когда не задаёшь — получаешь фрагильные конструкции, которые разваливаются от любого чиха.

Зато если ты это понимаешь — модель превращается в экзоскелет. Ты даёшь ей структуру, она тебе flesh. Ты навигатор, она исполнитель. Но как только хочешь, чтобы она подумала вместо тебя — жди проблем. Особенно в трёхмерке. Там любая "смесь координат с семантикой" — это уже next level, и она туда пока не доросла.

Вот и выходит: Bolt крут, но если хочешь построить что-то сложнее коробки — думать всё ещё тебе. А модель пусть пишет за тебя скучное. И в этом её сила. И её ограничение.

——————
Менеджер? Давай сюда!
Ищи работу здесь
Технологии и архитектура
🔥31
СРОЧНЫЕ НОВОСТИ!!! Google лёг и больше недоступен! Интернет выключен

12 июня 2025 года Google Cloud столкнулся с масштабным сбоем, затронувшим десятки тысяч пользователей по всему миру. Согласно данным Downdetector, более 13 000 человек сообщили о проблемах с Google Cloud, а более 27 000 — о сбоях в Spotify, что указывает на возможную взаимосвязь между инцидентами

Интернет умер во всём мире. Тысячи пользователей массово жалуются на проблемы в работе Google, Discord, Twitch и других платформ. Эксперты связывают глобальный сбой с перебоями у сервиса авторизации CloudFlare, который используется на подавляющем большинстве сайтов в мире


https://downdetector.com/status/google-cloud/
https://status.cloud.google.com/index.html

——————
Менеджер? Давай сюда!
Ищи работу здесь
Технологии и архитектура
😢2🫡2
Онбординг — это не просто первые шаги в продукте, это фундамент всей пользовательской жизни в вашем сервисе. От того, насколько быстро и просто человек почувствует ценность, зависит его будущее поведение: вернётся ли он, станет ли платить, порекомендует ли другим. В SaaS-среде активность в первую неделю — сильнейший предиктор долгосрочного удержания. А значит, то, как вы проведёте пользователя через Week 0, — ключ к росту.

Исследования и кейсы подтверждают: путь к ценности должен быть коротким. Чтоfix и BusinessWire отмечают: 90% компаний сталкиваются с отвалом из-за сложного онбординга. Пользователь, не получивший пользу сразу, часто уходит. HubSpot смог поднять удержание на 15%, просто переработав первые шаги. Carrot Quest удвоил активацию (с 9% до 23%), когда отказался от «образовательного» турa в пользу простого действия — показать, как получить чат с сайта.

Основной вывод: не учите — дайте попробовать. Исследование Mediafly: интерактивный контент на 52% эффективнее пассивного. Userpilot приводит пугающую статистику: 80% пользователей бросают туториал, если в нём больше пяти шагов. Slack, Airtable, Loom и другие не учат — они сразу ведут к действию. Получи чат → увидь результат → поверь в продукт.

Но не всё так просто. Если оставить пользователя один на один с интерфейсом, особенно если он урезан, есть риск потерять его из-за растерянности. Поэтому оптимальный подход — гибридный: ограниченный функционал + контекстные подсказки + живой канал поддержки. Объясните ограничения и пусть продукт сам ведёт пользователя к aha-моменту. Ключ — не мешать и не перегружать. Кто-то хочет «почитать» — дайте доступ к гайдам, но не заставляйте. Кто-то хочет «попробовать» — дайте интерфейс. А лучше — спросите, кто он. Microsurvey из трёх вопросов помогает сегментировать и подстроить сценарий. Notion, Carrot Quest, Postfity — все идут этим путём. Персонализация поднимает конверсию, даже если добавляет шагов.

Показателен кейс Kontentino: они заменили линейный продукт-тур на интерактивный сценарий с двумя ключевыми действиями. Рост активации — +10% в первый месяц. Ещё один пример — AI-платформа, где добавили пошаговое прохождение настройки виджета. 86% пользователей теперь доходят до конца. Казалось бы — мелочь, но для SaaS это разница между оттоком и LTV.

Product-led подход побеждает. Продукт сам обучает через действие. Онбординг становится discovery-опытом: не урок, а приключение. Вывод: дайте пользователю сделать. Поддержите его на пути. Покажите ценность — быстро. И не заставляйте учиться, прежде чем он попробует. В мире перегрузки информации и короткого внимания побеждает тот, кто не мешает клиенту дойти до результата.

——————
Менеджер? Давай сюда!
Ищи работу здесь
Технологии и архитектура
👍32
Stack overflow умирает — известный факт. Неизвестно для меня было, что умирать он начал еще в 2016 году задолго до появления гпт

Судя по всему все основные вопросы были уже заданы к этому моменту

——————
Менеджер? Давай сюда!
Ищи работу здесь
Технологии и архитектура
💔3🔥1
Недавно разговаривал с коллегой о корпоративных мероприятиях, которые должны создавать культурный слой. Вопрос стал как поддерживать баланс между открытостью и безопасностью, когда одно легко нарушает другое. Инновации, свободное общение, создание пространства для идей – всё это важно для любой компании. Но как сделать так, чтобы при этом не забывать про безопасность, особенно в контексте не только киберугроз, но и юридических, имущественных рисков и множества других факторов?

Проблема определённо есть. Все же знают вайб: да это безопасник Мы говорим о сохранении конфиденциальности процессов и фактов, которые касаются не только данных, но и эмоций сотрудников. Порой они могут открыться в более непринуждённой обстановке, но именно такие моменты могут стать уязвимыми с точки зрения безопасности, особенно когда на кону личные или чувствительные данные.

Вопрос, как объединить различные роли, как синхронизировать усилия безопасности, и при этом разгонять инновации. Нужен не просто изолированный подход к безопасности, а интеграция на уровне департаментов, чтобы безопасность стала частью всех процессов, а не просто дополнением к ним. Это требует не только внедрения инструментов защиты, но и изменений в корпоративной культуре, чтобы все понимали, как важно сочетание открытости и безопасности для роста компании.

Для меня, пожалуй, открыт вопрос, как сделать эту интеграцию цельным слоем и масштабируемой

——————
Менеджер? Давай сюда!
Ищи работу здесь
Технологии и архитектура
2😁2
Сейчас я всё чётче ощущаю: GPT — не «нейросеть», не «ассистент», не «замена программиста». Это переводчик смыслов между мирами. Между языками. Между мной и собой. Между мной и TypeScript. Между моей идеей и образом, который она должна принять.

Фокус даже не в генерации. Фокус в интерфейсе мышления.
Я набрасываю образ — не спецификацию, не схему, не задачу в Jira. Образ. И он начинает работать. Причём по-настоящему: не просто дёргает шаблоны, а раскрывает образ на своём языке. Потом я беру это, несу следующему роботу — и снова запускаю цикл.

Всё как бы логично: чем точнее и живее ты передаёшь образ — тем точнее отклик.
Но вот прикол: если задаёшь слишком конкретно — получаешь мёртвый формализм. «Сделай компонент». «Собери форму». Всё работает, но скучно. И тупеет.
А если наоборот: «Объясни это как будто мне 5 лет» или «представь, что это игрушка для инопланетянина» — и бац, машина оживает. Находит новые связи. Решает по-другому.

То, что раньше было философией, риторикой, метафорическим мышлением, — теперь стало прямым прикладным навыком для работы с ИИ. Кто не умеет работать с абстракцией — будет вечно ковыряться в дебаге. Кто умеет — строит образы, бросает их вперёд и даёт ИИ волю дышать.

Работает это в коротких всплесках. Цикл: 2-3 минуты, 2-3 робота, и всё — надо снова переключать их контекст, снова вбрасывать образы. Ты не управляешь процессом — ты разгоняешь волну, и она идёт дальше, пока не рассыпется. А потом снова.

Как включить «режим магии»? Просто: "Объясни без технины, простыми словами". И потом — смотри, как машина вдруг начинает думать. Не линейно. Образно.

——————
Менеджер? Давай сюда!
Ищи работу здесь
Технологии и архитектура
👍4
Ощущения от того, как всё это на копайлотах пишется — странные. Где-то я это уже слышал, но вот теперь прочувствовал на себе. Это как будто у тебя в команде есть программист. Очень странный программист.

Он туповатый. Но при этом пишет код так, как будто у него мотор вместо мозга. Огромными объёмами, на бешеной скорости, всё вылизано до последнего пикселя. Читаешь — и хочется пойти помыться. Настолько чисто. Настолько правильно. Но…

Проблема в том, что он часто не знает, куда дальше идти.
Представьте: у вас есть тайга. Глушь.
Этот парень пробегает через 30 км дичи быстрее, чем любой. Его даже егеря уважают. Но потом… добегает до поляны, и начинается трэш.

Он начинает ходить по кругу вокруг одного дерева. Как индюшка, которая решила, что этот дуб — и есть финальный босс. Топчется, бьётся лбом. Даже когда подходишь и говоришь: "Вот тропа, иди", — он не слышит. Он сильно занят долбёжкой в дерево.

И ты стоишь, смотришь, и такой: ну ок. Берёшь пилу. Спиливаешь дерево. И в этот момент он, как заведённый, несётся дальше, будто ничего не было. Снова как пуля. Снова в точку.

Так вот — я работаю с таким программистом. Только он — не человек.
И да, ему иногда надо помогать. Подпинывать. Показывать выход. Но когда он идёт — он делает невозможное. Быстрее, чище и злее, чем кто-либо.

Именно это я чувствую, когда работаю с новым подходом к созданию продуктов. Словно ты стал егерем в своей собственной тайге. И у тебя есть напарник, который вынесет всё, если не дайте ему застрять на поляне.

Пока это ещё звучит как байка у костра. Но поверьте — скоро станет буднями.

——————
Менеджер? Давай сюда!
Ищи работу здесь
Технологии и архитектура
👍4🔥2
Безопасный ИИ

Суть в том, что вместо требования от ИИ делать "наилучшее" (что трудно определить и реализовать), мы фокусируемся на том, чтобы он делал то, что мы просим, но безопасно — и добавляем моральные ограничения, чтобы не вышло слишком плохо.

Уже давно есть ощущение, будто на первый план выходят какие-то около философские вещи. Не первый раз замечаю. Даже встречал проекты а-ля религия для ИИ. В интересное время живём

——————
Менеджер? Давай сюда!
Ищи работу здесь
Технологии и архитектура
👍4
ИИ уже не инструмент — он коллега, а иногда и начальник. Андрей Себрант прямо говорит: старые шаблоны про «зону риска» профессий больше не работают — «привычные шаблоны анализа… не подходят для описания и понимания происходящего». Теперь важен не титул, а контекст: где и как ты работаешь.

ИИ-агенты — это не чаты, это самостоятельные сущности, которые «размышляют, создают, планируют и решают задачи». Стартапы уже строят бизнес на десятках ИИ вместо найма людей — «модель… оказалась вполне работоспособной». А фрилансеры? Их заменили первыми — «доверить ИИ-агенту… оказалось нетрудно и достаточно безопасно».

Самое жёсткое: ИИ-внедрение идёт снизу. Сотрудники скрытно оптимизируют процессы, работают сразу на трёх работах — «термин „сверхзанятость“… теперь не гипербола, а реальность». Руководство в панике: нельзя ни запретить, ни одобрить. «Провести компанию между этими Сциллой и Харибдой… — нетривиальная задачка».

Себрант не пугает — он показывает новую норму. Хочешь выжить — управляй агентами, а не соревнуйся с ними. Время «размышлять» закончилось. Теперь — либо ты рулевой, либо тебя уже заменили.

Source

——————
Менеджер? Давай сюда!
Ищи работу здесь
Технологии и архитектура
👍5