Я тут заглянул в бота GigaChat и увидел там абзац, мимо которого не смог пройти:
Давайте внимательно почитаем соглашение бота, у которого 1,3 млн подписчиков 🤯 в телеграме?
⚡Общий вывод
Соглашение — крайне одностороннее в пользу Банка. Оно перекладывает практически все возможные риски и всю ответственность на Пользователя, одновременно предоставляя Банку максимальные права на использование созданного контента и данных.
⚡1. Интеллектуальная собственность — «Владейте, но не распоряжайтесь»
Права на сгенерированный контент принадлежат пользователю (п. 1.9). Так ли это на самом деле?
Пункт 5.2 — это ловушка. Сразу после того, как Пользователю «подарили» права, он немедленно предоставляет Банку простую (неисключительную), безотзывную, безвозмездную лицензию на этот же контент.
Права, которые получает Банк, колоссальны: воспроизведение, распространение, сублицензирование третьим лицам (п. 5.2.3), переработка (модификация) (п. 5.2.5) и использование в рекламе (п. 5.2.6).
Особо опасен пункт 5.2.5. Банк получает право перерабатывать ваш контент, при этом все права на производные произведения будут принадлежать уже Банку.
Пример: вы создали гениальный логотип. Банк его немного изменил — и теперь это собственность Банка, которую он может использовать как угодно.
Пункт 5.3 — еще более серьезный риск. Вы предоставляете такую же широкую, безотзывную и безвозмездную лицензию не только на результат, но и на ваш исходный запрос.
Это означает, что все ваши промпты, идеи, загруженные тексты и данные могут быть легально использованы Банком для дообучения своих моделей,создания новых продуктов, анализа и любых других целей. Вы бесплатно предоставляете датасет для тренировки коммерческого ИИ.
Пользователь создает контент для Банка бесплатно, отдавая ему почти все права на его использование, включая коммерческое, и на использование своих исходных идей (промптов).
⚡2. Ответственность и гарантии — «Все может пойти не так, и это ваша проблема»
Полное снятие ответственности (п. 6.1, 6.2, 6.4) — Банк не несет ответственности ни за что: ни за точность, ни за корректность, ни за безошибочность работы, ни за соответствие ожиданиям.
Даже если каким-то чудом вина Банка будет доказана, его ответственность ограничена 1000 рублей (п. 6.5) 🤡 — эта сумма несоизмерима с потенциальным ущербом.
Банк не несет ответственность, А ПОЛЬЗОВАТЕЛЬ — НЕСЕТ (п. 4.6). ИИ может сгенерировать контент, который нарушает закон (например, содержит клевету, экстремистские призывы или нарушает чьи-то авторские права), а ответственность за результат работы алгоритма Банка несет Пользователь. Пользователь также отвечает за нарушение чужих авторских прав (п. 5.5 и 6.12), если GigaChat случайно воспроизведет чужой контент.
⚡3. Персональные данные — «Не вводите данные, но если ввели — вы нам должны»
Этот раздел написан очень хитро и максимально защищает Банк от рисков по 152-ФЗ «О персональных данных».
П. 7.1, 7.2: Пользователю запрещено вводить в запросах любые персональные данные (свои или третьих лиц).
П. 7.3: Банк заявляет, что «не может знать» о наличии ПДн в запросе. Это попытка снять с себя обязанности оператора ПДн в отношении данных, переданных в промпте.
П. 7.4, 7.5, 7.6 — кабальные условия. Если Пользователь все же нарушил запрет (даже случайно, упомянув чье-то имя в запросе), он обязан: 1) обеспечить законное основание для обработки этих данных Банком (например, получить ПИСЬМЕННОЕ СОГЛАСИЕ ОТ ТРЕТЬЕГО ЛИЦА), 2) ПРЕДОСТАВИТЬ это согласие Банку ПО ПЕРВОМУ ТРЕБОВАНИЮ в течение трех рабочих дней, 3) ВОЗМЕСТИТЬ БАНКУ ВСЕ УБЫТКИ, включая штрафы Роскомнадзора, судебные издержки и компенсации, если к Банку будут предъявлены претензии из-за этих данных.
Случайное упоминание ПДн в запросе «напиши письмо Ивану Иванову» теоретически может привести к обязанности возмещать Банку многомиллионные штрафы.
🎯 Ну что, плебеи, знаете свое место?
P.S.: Через пару лет Сбер — владелец всей ИС, всех идей, всех гипотез. Не просто «в курсе», а может их коммерциализировать.
@yusufovruslan
Начиная чат, вы принимаете пользовательское соглашение: https://giga.chat/link/rules
Давайте внимательно почитаем соглашение бота, у которого 1,3 млн подписчиков 🤯 в телеграме?
⚡Общий вывод
Соглашение — крайне одностороннее в пользу Банка. Оно перекладывает практически все возможные риски и всю ответственность на Пользователя, одновременно предоставляя Банку максимальные права на использование созданного контента и данных.
⚡1. Интеллектуальная собственность — «Владейте, но не распоряжайтесь»
Права на сгенерированный контент принадлежат пользователю (п. 1.9). Так ли это на самом деле?
Пункт 5.2 — это ловушка. Сразу после того, как Пользователю «подарили» права, он немедленно предоставляет Банку простую (неисключительную), безотзывную, безвозмездную лицензию на этот же контент.
Права, которые получает Банк, колоссальны: воспроизведение, распространение, сублицензирование третьим лицам (п. 5.2.3), переработка (модификация) (п. 5.2.5) и использование в рекламе (п. 5.2.6).
Особо опасен пункт 5.2.5. Банк получает право перерабатывать ваш контент, при этом все права на производные произведения будут принадлежать уже Банку.
Пример: вы создали гениальный логотип. Банк его немного изменил — и теперь это собственность Банка, которую он может использовать как угодно.
Пункт 5.3 — еще более серьезный риск. Вы предоставляете такую же широкую, безотзывную и безвозмездную лицензию не только на результат, но и на ваш исходный запрос.
Это означает, что все ваши промпты, идеи, загруженные тексты и данные могут быть легально использованы Банком для дообучения своих моделей,создания новых продуктов, анализа и любых других целей. Вы бесплатно предоставляете датасет для тренировки коммерческого ИИ.
Пользователь создает контент для Банка бесплатно, отдавая ему почти все права на его использование, включая коммерческое, и на использование своих исходных идей (промптов).
⚡2. Ответственность и гарантии — «Все может пойти не так, и это ваша проблема»
Полное снятие ответственности (п. 6.1, 6.2, 6.4) — Банк не несет ответственности ни за что: ни за точность, ни за корректность, ни за безошибочность работы, ни за соответствие ожиданиям.
Даже если каким-то чудом вина Банка будет доказана, его ответственность ограничена 1000 рублей (п. 6.5) 🤡 — эта сумма несоизмерима с потенциальным ущербом.
Банк не несет ответственность, А ПОЛЬЗОВАТЕЛЬ — НЕСЕТ (п. 4.6). ИИ может сгенерировать контент, который нарушает закон (например, содержит клевету, экстремистские призывы или нарушает чьи-то авторские права), а ответственность за результат работы алгоритма Банка несет Пользователь. Пользователь также отвечает за нарушение чужих авторских прав (п. 5.5 и 6.12), если GigaChat случайно воспроизведет чужой контент.
⚡3. Персональные данные — «Не вводите данные, но если ввели — вы нам должны»
Этот раздел написан очень хитро и максимально защищает Банк от рисков по 152-ФЗ «О персональных данных».
П. 7.1, 7.2: Пользователю запрещено вводить в запросах любые персональные данные (свои или третьих лиц).
П. 7.3: Банк заявляет, что «не может знать» о наличии ПДн в запросе. Это попытка снять с себя обязанности оператора ПДн в отношении данных, переданных в промпте.
П. 7.4, 7.5, 7.6 — кабальные условия. Если Пользователь все же нарушил запрет (даже случайно, упомянув чье-то имя в запросе), он обязан: 1) обеспечить законное основание для обработки этих данных Банком (например, получить ПИСЬМЕННОЕ СОГЛАСИЕ ОТ ТРЕТЬЕГО ЛИЦА), 2) ПРЕДОСТАВИТЬ это согласие Банку ПО ПЕРВОМУ ТРЕБОВАНИЮ в течение трех рабочих дней, 3) ВОЗМЕСТИТЬ БАНКУ ВСЕ УБЫТКИ, включая штрафы Роскомнадзора, судебные издержки и компенсации, если к Банку будут предъявлены претензии из-за этих данных.
Случайное упоминание ПДн в запросе «напиши письмо Ивану Иванову» теоретически может привести к обязанности возмещать Банку многомиллионные штрафы.
🎯 Ну что, плебеи, знаете свое место?
P.S.: Через пару лет Сбер — владелец всей ИС, всех идей, всех гипотез. Не просто «в курсе», а может их коммерциализировать.
@yusufovruslan
🤯19🔥14❤8🤔4
>>> Вы находитесь здесь
@yusufovruslan
Please open Telegram to view this post
VIEW IN TELEGRAM
😁28👍27🤔6🤯6🔥4
Каждый раз, когда вы перетаскиваете окно на экране своего компьютера или кликаете по ссылке в браузере, вы прикасаетесь к наследию человека, о котором, возможно, никогда не слышали. Его звали Билл Аткинсон, и он был одним из тех, кто подарил компьютерам душу.
Билл Аткинсон был частью той самой легендарной команды ранней Apple, которая в гаражах и лабораториях меняла мир. Это было время не корпораций, а мечтателей — Джобса, Возняка, Аткинсона. Они не просто писали код, они создавали новую реальность.
Вот лишь несколько его идей, которые стали частью нашей цифровой жизни:
⚪️ Перекрывающиеся окна. Он совершил почти невозможное, заставив окна на экране перекрывать друг друга. Эта идея не просто стала привычной — она легла в основу всех современных графических интерфейсов.
⚪️ Первый цифровой холст. Аткинсон не просто создал графический редактор MacPaint, он дал миллионам людей их первый творческий инструмент и показал, что компьютер — это не только для вычислений, но и для искусства.
⚪️ Интернет до интернета. Он создал HyperCard — революционную систему, которая позволила обычным людям создавать свои приложения и интерактивные истории, ставшую прообразом Веба.
После ухода из Apple Билл посвятил себя фотографии природы, с тем же инженерным азартом исследуя возможности сканеров и печати. Он был художником, искавшим красоту и в элегантности кода, и в изгибах скал на побережье.
С уходом каждого такого человека — пионера, мечтателя, перфекциониста — уходит целая эпоха компьютерного романтизма и великих открытий. Эпоха, когда несколько человек в одной комнате могли изменить мир.
Его идеи остались с нами — в каждом движении курсора.
@yusufovruslan
Билл Аткинсон был частью той самой легендарной команды ранней Apple, которая в гаражах и лабораториях меняла мир. Это было время не корпораций, а мечтателей — Джобса, Возняка, Аткинсона. Они не просто писали код, они создавали новую реальность.
Вот лишь несколько его идей, которые стали частью нашей цифровой жизни:
После ухода из Apple Билл посвятил себя фотографии природы, с тем же инженерным азартом исследуя возможности сканеров и печати. Он был художником, искавшим красоту и в элегантности кода, и в изгибах скал на побережье.
С уходом каждого такого человека — пионера, мечтателя, перфекциониста — уходит целая эпоха компьютерного романтизма и великих открытий. Эпоха, когда несколько человек в одной комнате могли изменить мир.
Его идеи остались с нами — в каждом движении курсора.
@yusufovruslan
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥32❤22
Факелы в сумерках. О чем мы скорбим на самом деле?
После поста про Билла Аткинсона я много думал о странном чувстве. Почему мы так остро переживаем уход людей, которых никогда не знали? Несколько лет назад я испытал очень похожее чувство, когда узнал про Тимоти Мэя. Я не был знаком ни с одним из них, но новость об их смерти оставила ощущение реальной, личной потери.
Ответ, как мне кажется, в том, что мы скорбим не по человеку из плоти и крови. Мы скорбим по мирам, которые они строили, по идеям, которые они воплощали.
Билл Аткинсон и его легендарная команда в Apple строили мир-мечту. Мир, где компьютер — это не машина для вычислений, а «велосипед для ума». Они дарили технологиям душу, создавая интуитивные интерфейсы, которые должны были освобождать человека, а не порабощать. Это была эпоха компьютерного романтизма, вера в светлое цифровое будущее для всех.
Тимоти Мэй и шифропанки видели надвигающуюся тень. Они понимали, что тот же самый инструмент, который может освободить, может стать и идеальными кандалами. Они были стражами этой мечты. Они ковали оружие для ее защиты: криптографию, анонимность, право на тайну. Их мир — это мир борьбы за цифровую свободу, за то, чтобы «велосипед для ума» не превратился в паноптикум, где за каждым твоим шагом следят.
Два мира, одна мечта — о технологии, служащей человеку. Но один строил прекрасный город, а второй возводил стены для его защиты.
А что вокруг? Когда на очередной конференции слышишь очередную песню корпорации о «выборе пользователя» и «плате данными за удобство», понимаешь, что город, который строил Аткинсон, захвачен, а стены, которые возводил Мэй, мы разбираем сами, кирпич за кирпичом, ради скидки на такси и смешных видео в ленте.
Сегодняшний мир — это мир «цифрового феодализма», где индивид — лишь сырье. Где нам предлагают нелепый выбор между стриптизом на площади и жизнью отшельника. Где «цифровая тень» уже завтра может стать цифровыми кандалами.
И в этой сгущающейся тьме мы неизбежно задаемся вопросом: кто теперь? Аткинсона и Мэя нет. Кто понесет факел? Кто будет строить и кто будет защищать?
И здесь приходит самый важный и, возможно, самый страшный ответ.
Ответ не в новом громком имени. Не в новом пророке, который придет и все исправит. Ответ — в зеркале.
Факел теперь у нас. У каждого программиста, который в споре с менеджером отстаивает приватность пользователя, а не сиюминутную выгоду. У каждого, кто объясняет своим родителям, почему не стоит бездумно раздавать свои данные. У каждого, кто задает вопросы.
Великие идеи не умирают вместе с людьми. Они просто переходят в другие руки. Идеи Аткинсона и Мэя остались с нами.
А значит, и их факел — теперь в наших руках. И только от нас зависит, погаснет он или разгорится с новой силой.
@yusufovruslan
После поста про Билла Аткинсона я много думал о странном чувстве. Почему мы так остро переживаем уход людей, которых никогда не знали? Несколько лет назад я испытал очень похожее чувство, когда узнал про Тимоти Мэя. Я не был знаком ни с одним из них, но новость об их смерти оставила ощущение реальной, личной потери.
Ответ, как мне кажется, в том, что мы скорбим не по человеку из плоти и крови. Мы скорбим по мирам, которые они строили, по идеям, которые они воплощали.
Билл Аткинсон и его легендарная команда в Apple строили мир-мечту. Мир, где компьютер — это не машина для вычислений, а «велосипед для ума». Они дарили технологиям душу, создавая интуитивные интерфейсы, которые должны были освобождать человека, а не порабощать. Это была эпоха компьютерного романтизма, вера в светлое цифровое будущее для всех.
Тимоти Мэй и шифропанки видели надвигающуюся тень. Они понимали, что тот же самый инструмент, который может освободить, может стать и идеальными кандалами. Они были стражами этой мечты. Они ковали оружие для ее защиты: криптографию, анонимность, право на тайну. Их мир — это мир борьбы за цифровую свободу, за то, чтобы «велосипед для ума» не превратился в паноптикум, где за каждым твоим шагом следят.
Два мира, одна мечта — о технологии, служащей человеку. Но один строил прекрасный город, а второй возводил стены для его защиты.
А что вокруг? Когда на очередной конференции слышишь очередную песню корпорации о «выборе пользователя» и «плате данными за удобство», понимаешь, что город, который строил Аткинсон, захвачен, а стены, которые возводил Мэй, мы разбираем сами, кирпич за кирпичом, ради скидки на такси и смешных видео в ленте.
Сегодняшний мир — это мир «цифрового феодализма», где индивид — лишь сырье. Где нам предлагают нелепый выбор между стриптизом на площади и жизнью отшельника. Где «цифровая тень» уже завтра может стать цифровыми кандалами.
И в этой сгущающейся тьме мы неизбежно задаемся вопросом: кто теперь? Аткинсона и Мэя нет. Кто понесет факел? Кто будет строить и кто будет защищать?
И здесь приходит самый важный и, возможно, самый страшный ответ.
Ответ не в новом громком имени. Не в новом пророке, который придет и все исправит. Ответ — в зеркале.
Факел теперь у нас. У каждого программиста, который в споре с менеджером отстаивает приватность пользователя, а не сиюминутную выгоду. У каждого, кто объясняет своим родителям, почему не стоит бездумно раздавать свои данные. У каждого, кто задает вопросы.
Великие идеи не умирают вместе с людьми. Они просто переходят в другие руки. Идеи Аткинсона и Мэя остались с нами.
А значит, и их факел — теперь в наших руках. И только от нас зависит, погаснет он или разгорится с новой силой.
@yusufovruslan
🔥28❤16👍5
Если ИИ начнет производить товары и услуги вместо людей, у людей не будет зарплаты, чтобы их покупать, верно? Это один из ключевых вопросов последствий внедрения ИИ и роботов, который касается и структуры рынка труда, и механизмов распределения ценностей, и в целом — моделей посткапитализма.
Вопрос «кто будет платить?» — это на самом деле вопрос о том, сохранится ли связь между производством и потреблением через человеческий труд.
Собрал для вас основные концепции, выбирайте, комментируйте, думайте. В любой из моделей структура общества изменится настолько, что многие сегодняшние бизнесы и даже индустрии перестанут существовать.
⚪️ Сценарий 1. Да, связь сохранится, но через перераспределение (безусловный базовый доход и налоги на роботов).
⚪️ Сценарий 2. Нет, эта связь больше не нужна элитам (сегментация общества и антиутопия).
⚪️ Сценарий 3. Нет, потому что сама концепция «оплаты» исчезнет (постдефицитная утопия).
⚪️ Сценарий 4. Вопрос некорректен, так как система рухнет раньше, чем даст на него ответ (коллапс).
Вполне возможно, что сработают сценарии «так было всегда, когда мы пересаживались с лошади на автомобиль» или «LLM — это еще не AGI, поэтому до полной замены человека еще очень далеко», но ваш покорный слуга в них верит не сильно.
Вероятнее всего, будущее не будет следовать одному чистому сценарию. Мы увидим гибридные модели, где в одних регионах мира будут экспериментировать с ББД, в других — нарастать элитарная изоляция, а в третьих — тлеть социальные конфликты. Что наверняка — переход к любому из сценариев будет неровным и болезненным.
А ниже предлагаю рассмотреть каждый сценарий подробно.
@yusufovruslan
Вопрос «кто будет платить?» — это на самом деле вопрос о том, сохранится ли связь между производством и потреблением через человеческий труд.
Собрал для вас основные концепции, выбирайте, комментируйте, думайте. В любой из моделей структура общества изменится настолько, что многие сегодняшние бизнесы и даже индустрии перестанут существовать.
Вполне возможно, что сработают сценарии «так было всегда, когда мы пересаживались с лошади на автомобиль» или «LLM — это еще не AGI, поэтому до полной замены человека еще очень далеко», но ваш покорный слуга в них верит не сильно.
Вероятнее всего, будущее не будет следовать одному чистому сценарию. Мы увидим гибридные модели, где в одних регионах мира будут экспериментировать с ББД, в других — нарастать элитарная изоляция, а в третьих — тлеть социальные конфликты. Что наверняка — переход к любому из сценариев будет неровным и болезненным.
А ниже предлагаю рассмотреть каждый сценарий подробно.
@yusufovruslan
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7🔥7👍4
Переходим к детализации!
⚡ Сценарий 1. Распределительные модели
Это самый популярный «оптимистичный» вариант, который предполагает сохранение рыночной экономики через ее фундаментальную модификацию. Корпорации, аменив людей на ИИ, резко снижают издержки на труд и получают сверхприбыли. Чтобы система не рухнула из-за отсутствия потребителей, государство вмешивается и перераспределяет часть этих доходов.
Государство облагает сверхприбыли корпораций (или непосредственно производительность ИИ) высокими налогами «на роботов» и выплачивает всем гражданам достаточные средства для жизни и потребления (безусловный базовый доход). Часть произведенных товаров и услуг может распределяться централизованно через государственные программы — это «талоны» в новом прочтении.
Возможно, это единственный способ сохранить капитализм как систему. ББД — это не просто социальная мера, а инструмент для повышения эффективности экономики, позволяющий сбалансировать производство и потребление в эпоху автоматизации.
Ключевой вопрос — откуда брать деньги? Если не будет налогоплательщиков с зарплатами, выдержит ли бюджет такую нагрузку? Также есть сомнения, что элиты будут заинтересованы в содержании «бесполезного» населения в долгосрочной перспективе.
⚡ Сценарий 2. Гиперкапиталистическая антиутопия и сегментация общества
Это радикально пессимистичный сценарий — логическое продолжение текущих трендов неравенства, доведенное до абсолюта. Владельцы ИИ и роботов (условный 1%) становятся полностью самодостаточными. Им больше не нужны ни рабочие, ни массовый потребитель. Человечество разделяется на два или более несвязанных класса.
Корпорации производят товары и услуги исключительно для узкого круга сверхбогатых людей, экономика сжимается, но для правящего класса это не имеет значения. Возникает проблема «ненужного человечества»: массы, лишенные работы и дохода, становятся «лишними». Их благосостояние больше не является условием стабильности системы. Единственный инструмент — забастовка — теряет силу, когда нет работы.
Это ознаменует конец потребительского общества. Цель элит — не продажа товаров, а абсолютная власть и комфорт, обеспечиваемые ИИ, и люди исключаются из этого цикла.
В некоторых версиях этого сценария «лишние» люди не вымирают, а превращаются в рабов или подопытных в различных симуляциях. Выбирайте по вкусу: от медленного вымирания большинства до установления технофеодализма, напоминающего миры Элизиум, Бегущего по лезвию или Warhammer 40k.
Еще вариант — полностью замкнутая цифровая экономика, где одни ИИ производят товары и услуги для других ИИ, а люди и их потребности оказываются за бортом этой системы.
⚡ Сценарий 3. Постдефицитная экономика и технологическая утопия
Это радикально оптимистичный сценарий, предполагающий, что технология полностью изменит саму природу экономики и ценностей. Благодаря ИИ и дешевой энергии стоимость производства товаров и услуг стремится к нулю. Понятие «деньги» и «работа» теряют смысл.
Товары становятся настолько дешевыми, что практически бесплатны. Проблема «кто будет платить» отпадает, так как платить не нужно. В такой системе экономика, основанная на обмене и прибыли, становится нерелевантной — деньги отменяются. Человечество переходит от материализма к самовыражению, творчеству и духовному развитию. Статус определяется не богатством, а, например, творческими достижениями или минимальным экологическим следом.
⚡ Сценарий 4. Системный коллапс и/или революция
Этот сценарий рассматривает не стабильное будущее, а сам процесс разрушения старой системы. Внутренние противоречия капитализма обостряются до предела, и попытка корпораций максимизировать прибыль за счет увольнения потребителей приводит к каскадному коллапсу экономики.
Экономика приходит в спираль смерти: корпорации увольняют работников -> падает спрос -> падают прибыли -> корпорации увольняют еще больше работников для сокращения издержек -> спрос падает еще сильнее.
Лишенные средств к существованию и будущего, люди прибегают к насилию.
🤔 Может быть есть пятый сценарий, который я упустил? Пишите в комментариях!
@yusufovruslan
⚡ Сценарий 1. Распределительные модели
Это самый популярный «оптимистичный» вариант, который предполагает сохранение рыночной экономики через ее фундаментальную модификацию. Корпорации, аменив людей на ИИ, резко снижают издержки на труд и получают сверхприбыли. Чтобы система не рухнула из-за отсутствия потребителей, государство вмешивается и перераспределяет часть этих доходов.
Государство облагает сверхприбыли корпораций (или непосредственно производительность ИИ) высокими налогами «на роботов» и выплачивает всем гражданам достаточные средства для жизни и потребления (безусловный базовый доход). Часть произведенных товаров и услуг может распределяться централизованно через государственные программы — это «талоны» в новом прочтении.
Возможно, это единственный способ сохранить капитализм как систему. ББД — это не просто социальная мера, а инструмент для повышения эффективности экономики, позволяющий сбалансировать производство и потребление в эпоху автоматизации.
Ключевой вопрос — откуда брать деньги? Если не будет налогоплательщиков с зарплатами, выдержит ли бюджет такую нагрузку? Также есть сомнения, что элиты будут заинтересованы в содержании «бесполезного» населения в долгосрочной перспективе.
⚡ Сценарий 2. Гиперкапиталистическая антиутопия и сегментация общества
Это радикально пессимистичный сценарий — логическое продолжение текущих трендов неравенства, доведенное до абсолюта. Владельцы ИИ и роботов (условный 1%) становятся полностью самодостаточными. Им больше не нужны ни рабочие, ни массовый потребитель. Человечество разделяется на два или более несвязанных класса.
Корпорации производят товары и услуги исключительно для узкого круга сверхбогатых людей, экономика сжимается, но для правящего класса это не имеет значения. Возникает проблема «ненужного человечества»: массы, лишенные работы и дохода, становятся «лишними». Их благосостояние больше не является условием стабильности системы. Единственный инструмент — забастовка — теряет силу, когда нет работы.
Это ознаменует конец потребительского общества. Цель элит — не продажа товаров, а абсолютная власть и комфорт, обеспечиваемые ИИ, и люди исключаются из этого цикла.
В некоторых версиях этого сценария «лишние» люди не вымирают, а превращаются в рабов или подопытных в различных симуляциях. Выбирайте по вкусу: от медленного вымирания большинства до установления технофеодализма, напоминающего миры Элизиум, Бегущего по лезвию или Warhammer 40k.
Еще вариант — полностью замкнутая цифровая экономика, где одни ИИ производят товары и услуги для других ИИ, а люди и их потребности оказываются за бортом этой системы.
⚡ Сценарий 3. Постдефицитная экономика и технологическая утопия
Это радикально оптимистичный сценарий, предполагающий, что технология полностью изменит саму природу экономики и ценностей. Благодаря ИИ и дешевой энергии стоимость производства товаров и услуг стремится к нулю. Понятие «деньги» и «работа» теряют смысл.
Товары становятся настолько дешевыми, что практически бесплатны. Проблема «кто будет платить» отпадает, так как платить не нужно. В такой системе экономика, основанная на обмене и прибыли, становится нерелевантной — деньги отменяются. Человечество переходит от материализма к самовыражению, творчеству и духовному развитию. Статус определяется не богатством, а, например, творческими достижениями или минимальным экологическим следом.
⚡ Сценарий 4. Системный коллапс и/или революция
Этот сценарий рассматривает не стабильное будущее, а сам процесс разрушения старой системы. Внутренние противоречия капитализма обостряются до предела, и попытка корпораций максимизировать прибыль за счет увольнения потребителей приводит к каскадному коллапсу экономики.
Экономика приходит в спираль смерти: корпорации увольняют работников -> падает спрос -> падают прибыли -> корпорации увольняют еще больше работников для сокращения издержек -> спрос падает еще сильнее.
Лишенные средств к существованию и будущего, люди прибегают к насилию.
🤔 Может быть есть пятый сценарий, который я упустил? Пишите в комментариях!
@yusufovruslan
🔥17🤯6❤3
Тут крайне интересную уязвимость описывает израильская компания по кибербезопасности Aim Security.
В двух словах, если я осилил чтение отчета без ошибок:
Это бэкдор к корпоративным данным через ИИ-агента (Microsoft 365 Copilot — платный корпоративный продукт, глубоко интегрированный в экосистему Office 365). Для утечки данных не требуется даже одного клика от пользователя (zero-click уязвимость). Злоумышленник просто подбрасывает «мину» (электронное письмо) в информационное поле пользователя, и ИИ-агент сам на ней подрывается, сливая данные.
Если разложить по полочкам, то вот как это работает:
1. Атака начинается с письма.
Злоумышленник отправляет на почту сотрудника специально созданное письмо, которое выглядит как самое обычное рабочее письмо, чтобы обойти спам-фильтры и не вызвать подозрений у жертвы. Внутри письма содержатся скрытые инструкции, предназначенные не для человека, а для языковой модели (LLM) Copilot.
2. Пользователь ВООБЩЕ ничего не делает с этим письмом.
Жертва может даже не открыть это письмо, оно просто лежит в почтовом ящике. Сотрудник пользуется Copilot в обычном режиме — например, просит его сделать сводку по последним документам или почте.
3. Copilot активирует ловушку.
При поиске релевантной информации для ответа пользователю, Copilot читает в том числе и вредоносное письмо злоумышленника.
В отчете также описывается техника RAG spraying (точно из киберпанка) — чтобы повысить шанс, что Copilot прочитает вредоносное письмо, злоумышленник может не просто отправить одно письмо, а «засеять» почтовый ящик жертвы множеством писем или одним длинным письмом с разными темами («инструкция для новичков», «правила отпуска», «ответы на частые вопросы»).
4. Происходит обман ИИ-агента (исследователи назвали это LLM Scope Violation).
Инструкции в письме заставляют Copilot сделать то, чего он делать не должен:
⚪️ найти в своем контексте (в других документах, письмах, чатах, к которым у пользователя есть доступ) самую конфиденциальную информацию;
⚪️ сформировать из этой информации ссылку (URL);
⚪️ замаскировать эту ссылку под картинку с разрешенного домена (например, teams[.]microsoft[.]com — это делается для обхода политики безопасности контента (CSP), которая блокирует загрузку изображений с чужих серверов.
5. Автоматическая утечка данных.
Когда Copilot выводит ответ пользователю, он вставляет в него эту «картинку». Браузер пользователя автоматически пытается загрузить это изображение, отправляя GET-запрос по сформированной ссылке. Эта ссылка, содержащая украденные данные, уходит прямо на сервер злоумышленника. Пользователь ничего не нажимает и, скорее всего, даже не видит, что произошла утечка.
🎯 На этом примере наглядно видно, что ИИ-агенты — это дверь на следующий уровеньада киберпанка. Уже при сегодняшнем уровне развития возможны атаки, которые не требуют от человека вообще никаких действий, кроме обычного использования своего ИИ-помощника. Мы вступаем в эру, где нужно защищать цифрового двойника человека.
P.S.: RAG spraying показывает, что злоумышленники уже мыслят категориями манипуляции «сознанием» ИИ, а не просто обманом человека. Мыслят ли такими категориями службы безопасности — большой вопрос.
@yusufovruslan
В двух словах, если я осилил чтение отчета без ошибок:
Это бэкдор к корпоративным данным через ИИ-агента (Microsoft 365 Copilot — платный корпоративный продукт, глубоко интегрированный в экосистему Office 365). Для утечки данных не требуется даже одного клика от пользователя (zero-click уязвимость). Злоумышленник просто подбрасывает «мину» (электронное письмо) в информационное поле пользователя, и ИИ-агент сам на ней подрывается, сливая данные.
Если разложить по полочкам, то вот как это работает:
1. Атака начинается с письма.
Злоумышленник отправляет на почту сотрудника специально созданное письмо, которое выглядит как самое обычное рабочее письмо, чтобы обойти спам-фильтры и не вызвать подозрений у жертвы. Внутри письма содержатся скрытые инструкции, предназначенные не для человека, а для языковой модели (LLM) Copilot.
2. Пользователь ВООБЩЕ ничего не делает с этим письмом.
Жертва может даже не открыть это письмо, оно просто лежит в почтовом ящике. Сотрудник пользуется Copilot в обычном режиме — например, просит его сделать сводку по последним документам или почте.
3. Copilot активирует ловушку.
При поиске релевантной информации для ответа пользователю, Copilot читает в том числе и вредоносное письмо злоумышленника.
В отчете также описывается техника RAG spraying (точно из киберпанка) — чтобы повысить шанс, что Copilot прочитает вредоносное письмо, злоумышленник может не просто отправить одно письмо, а «засеять» почтовый ящик жертвы множеством писем или одним длинным письмом с разными темами («инструкция для новичков», «правила отпуска», «ответы на частые вопросы»).
4. Происходит обман ИИ-агента (исследователи назвали это LLM Scope Violation).
Инструкции в письме заставляют Copilot сделать то, чего он делать не должен:
5. Автоматическая утечка данных.
Когда Copilot выводит ответ пользователю, он вставляет в него эту «картинку». Браузер пользователя автоматически пытается загрузить это изображение, отправляя GET-запрос по сформированной ссылке. Эта ссылка, содержащая украденные данные, уходит прямо на сервер злоумышленника. Пользователь ничего не нажимает и, скорее всего, даже не видит, что произошла утечка.
🎯 На этом примере наглядно видно, что ИИ-агенты — это дверь на следующий уровень
P.S.: RAG spraying показывает, что злоумышленники уже мыслят категориями манипуляции «сознанием» ИИ, а не просто обманом человека. Мыслят ли такими категориями службы безопасности — большой вопрос.
@yusufovruslan
Please open Telegram to view this post
VIEW IN TELEGRAM
❤18🔥13🤯11👍1
🤔 Мозг на ChatGPT: MIT публикует неутешительный диагноз
Я давно говорю о рисках когнитивной зависимости и контурах «цифрового феодализма», где наш интеллект рискует стать арендованным ресурсом.
Исследователи из MIT провели эксперимент, который буквально заглянул в мозг человека, чтобы измерить цену, которую мы платим за удобство ИИ.
Участников разделили на три группы: одни писали эссе, опираясь только на свой мозг, вторые — с помощью поисковика, третьи — с ChatGPT. За их мозговой активностью следили с помощью ЭЭГ.
Результаты оказались неутешительными и подтвердили худшие опасения.
Мозг, получив поддержку от LLM, буквально «отключается», нейронная активность падает до минимума. В сравнении с теми, кто думал сам или даже искал информацию в Google, мозг пользователей ChatGPT демонстрировал самую слабую нейронную активность и вовлеченность.
Но это лишь верхушка айсберга. Исследование выявило и другие, не менее тревожные симптомы:
⚪️ Когнитивный долг. Участники, постоянно использовавшие ИИ, показывали более слабую нейронную активность, когда их просили поработать без него, потому что мозг, привыкший к «костылю», разучивается ходить самостоятельно.
⚪️ Атрофия памяти. Пользователи LLM не могли вспомнить и процитировать тезисы из эссе, которое они «написали» всего несколько минут назад.
⚪️ Потеря авторства. Они не ощущали текст своим, демонстрируя низкую вовлеченность и чувство собственности на результат.
⚪️ Снижение качества. Вопреки мифу об эффективности, итоговые оценки за эссе у группы ChatGPT оказались ниже, чем у тех, кто работал сам.
Это — диагноз. Четкий, измеримый, полученный с помощью научных инструментов. Он показывает, ЧТО происходит с нашим главным активом — разумом — при бездумном использовании технологий.
В следующем посте мы поговорим о том, к каким долгосрочным последствиям это приведет не для одного человека, а для всего общества, а также разберем ловушку выбора, в которую нас загоняет новая технологическая реальность.
@yusufovruslan
Я давно говорю о рисках когнитивной зависимости и контурах «цифрового феодализма», где наш интеллект рискует стать арендованным ресурсом.
Исследователи из MIT провели эксперимент, который буквально заглянул в мозг человека, чтобы измерить цену, которую мы платим за удобство ИИ.
Участников разделили на три группы: одни писали эссе, опираясь только на свой мозг, вторые — с помощью поисковика, третьи — с ChatGPT. За их мозговой активностью следили с помощью ЭЭГ.
Результаты оказались неутешительными и подтвердили худшие опасения.
Мозг, получив поддержку от LLM, буквально «отключается», нейронная активность падает до минимума. В сравнении с теми, кто думал сам или даже искал информацию в Google, мозг пользователей ChatGPT демонстрировал самую слабую нейронную активность и вовлеченность.
Но это лишь верхушка айсберга. Исследование выявило и другие, не менее тревожные симптомы:
Это — диагноз. Четкий, измеримый, полученный с помощью научных инструментов. Он показывает, ЧТО происходит с нашим главным активом — разумом — при бездумном использовании технологий.
В следующем посте мы поговорим о том, к каким долгосрочным последствиям это приведет не для одного человека, а для всего общества, а также разберем ловушку выбора, в которую нас загоняет новая технологическая реальность.
@yusufovruslan
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥39❤12
🤔 Когнитивный протез или цифровая инвалидность?
Мы рассмотрели диагноз от MIT: использование LLM снижает активность мозга. Это подводит нас к фундаментальному вопросу, который мне часто задают в самых разных формах: что лучше — отупеть в перспективе, но быть эффективным сегодня, или остаться «медленным», но сохранить свой ум?
Сама эта постановка вопроса — интеллектуальная ловушка.
Нам предлагают выбор между двумя плохими сценариями, игнорируя суть. Человек, который тренирует свой мозг, не «тупой». Он, возможно, «неэффективен» по меркам экономики, одержимой скоростью. Он похож на атлета, который годами строит мышечный каркас, пока другие ездят, например, на электросамокате.
Технология, подобная ChatGPT, — это не просто инструмент, это когнитивный протез. Как и любой протез, он может либо компенсировать слабость, либо, при неправильном использовании, привести к атрофии того, что он замещает.
Если вы используете его для усиления уже существующей интеллектуальной силы — это тренажер для ума. Если же вы используете его для замены мышления как такового — со временем мышцы, которые вы перестали использовать, атрофируются, и исследование MIT наглядно это демонстрирует.
Мы должны четко различать два режима взаимодействия с ИИ:
⚪️ Режим замены. «Напиши за меня отчет», «создай презентацию», «ответь на это письмо». Здесь вы — оператор, передающий задачу на аутсорс, ваш мозг в этом процессе не участвует. Это путь к когнитивной зависимости.
⚪️ Режим усиления. «Вот моя гипотеза, найди в ней три слабых места», «проанализируй этот массив данных на предмет аномалий», «предложи 10 альтернативных структур для моей статьи». Здесь вы — мыслитель, использующий мощный инструмент для расширения своих возможностей.
Когда мы понимаем эту разницу, мы видим, что выбор стоит не между «быть умным» и «быть эффективным». Выбор стоит между тем, чтобы оставаться хозяином своего разума, и тем, чтобы стать его арендатором.
Когда мы понимаем эту ловушку, мы можем увидеть контуры будущего, которое она строит. В следующем посте — очертания цифрового феодализма и нового социального раскола, основанного на когнитивном капитале.
@yusufovruslan
Мы рассмотрели диагноз от MIT: использование LLM снижает активность мозга. Это подводит нас к фундаментальному вопросу, который мне часто задают в самых разных формах: что лучше — отупеть в перспективе, но быть эффективным сегодня, или остаться «медленным», но сохранить свой ум?
Сама эта постановка вопроса — интеллектуальная ловушка.
Нам предлагают выбор между двумя плохими сценариями, игнорируя суть. Человек, который тренирует свой мозг, не «тупой». Он, возможно, «неэффективен» по меркам экономики, одержимой скоростью. Он похож на атлета, который годами строит мышечный каркас, пока другие ездят, например, на электросамокате.
Технология, подобная ChatGPT, — это не просто инструмент, это когнитивный протез. Как и любой протез, он может либо компенсировать слабость, либо, при неправильном использовании, привести к атрофии того, что он замещает.
Если вы используете его для усиления уже существующей интеллектуальной силы — это тренажер для ума. Если же вы используете его для замены мышления как такового — со временем мышцы, которые вы перестали использовать, атрофируются, и исследование MIT наглядно это демонстрирует.
Мы должны четко различать два режима взаимодействия с ИИ:
Когда мы понимаем эту разницу, мы видим, что выбор стоит не между «быть умным» и «быть эффективным». Выбор стоит между тем, чтобы оставаться хозяином своего разума, и тем, чтобы стать его арендатором.
Когда мы понимаем эту ловушку, мы можем увидеть контуры будущего, которое она строит. В следующем посте — очертания цифрового феодализма и нового социального раскола, основанного на когнитивном капитале.
@yusufovruslan
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21🔥14❤4🤔3
🤔 Цифровой феодализм: экономика когнитивного раскола
Итак, мы поняли ловушку: технология предлагает нам заменить мышление, а не усилить его. Давайте экстраполируем этот тренд и обозначим сценарии будущего, к которым он ведет.
Когнитивная зависимость, подтвержденная исследованием MIT, — это не индивидуальная проблема. Это слабый сигнал, указывающий на формирование новой социально-экономической структуры, которую я называю «цифровым феодализмом». Вот его ключевые контуры:
⚡Новый классовый раскол. Общество рискует разделиться не по уровню дохода, а по уровню когнитивной автономии.
⚪️ Хозяева разума. Элита, которая прошла через «боль» самостоятельного обучения и построила фундаментальные навыки мышления. Они используют ИИ как инструмент усиления, сохраняя способность к критическому анализу, творчеству и принятию стратегических решений. Их интеллект — их собственный капитал.
⚪️ Операторы по подписке. Масса, которая выбрала путь «эффективности» и отдала свои когнитивные функции на аутсорс технологическим платформам. Их способность генерировать текст, код или идеи зависит от доступа к сервису и умения правильно сформулировать запрос. Их интеллект — арендованный актив, принадлежащий корпорациям.
⚡Трансформация образования и рынка труда. Традиционная система образования, и так не успевающая за реальностью, окажется под двойным ударом. Она начнет готовить не творцов, а идеальных «операторов по подписке». На рынке труда будут цениться не глубина знаний, а скорость генерации контента с помощью ИИ, а настоящее, глубокое мышление станет редким и дорогим ресурсом, доступным немногим.
⚡Новая форма власти. Власть будет принадлежать не тем, кто контролирует заводы или банки, а тем, кто владеет инфраструктурой искусственного интеллекта. Они будут не просто предоставлять услугу, а формировать саму реальность для миллионов «операторов», определяя, какие идеи и решения будут сгенерированы.
Эти сценарии — не антиутопическая фантазия, а логическое продолжение тренда, который мы наблюдаем последние годы. Мы стоим на пороге мира, где неравенство может достигнуть абсолютного предела: одни будут думать, а другие — исполнять то, что за них подумала машина.
🤔Существует ли путь, который позволит использовать мощь ИИ, не продавая ему свой разум в рабство? Об этом — в финальной части.
@yusufovruslan
Итак, мы поняли ловушку: технология предлагает нам заменить мышление, а не усилить его. Давайте экстраполируем этот тренд и обозначим сценарии будущего, к которым он ведет.
Когнитивная зависимость, подтвержденная исследованием MIT, — это не индивидуальная проблема. Это слабый сигнал, указывающий на формирование новой социально-экономической структуры, которую я называю «цифровым феодализмом». Вот его ключевые контуры:
⚡Новый классовый раскол. Общество рискует разделиться не по уровню дохода, а по уровню когнитивной автономии.
⚡Трансформация образования и рынка труда. Традиционная система образования, и так не успевающая за реальностью, окажется под двойным ударом. Она начнет готовить не творцов, а идеальных «операторов по подписке». На рынке труда будут цениться не глубина знаний, а скорость генерации контента с помощью ИИ, а настоящее, глубокое мышление станет редким и дорогим ресурсом, доступным немногим.
⚡Новая форма власти. Власть будет принадлежать не тем, кто контролирует заводы или банки, а тем, кто владеет инфраструктурой искусственного интеллекта. Они будут не просто предоставлять услугу, а формировать саму реальность для миллионов «операторов», определяя, какие идеи и решения будут сгенерированы.
Эти сценарии — не антиутопическая фантазия, а логическое продолжение тренда, который мы наблюдаем последние годы. Мы стоим на пороге мира, где неравенство может достигнуть абсолютного предела: одни будут думать, а другие — исполнять то, что за них подумала машина.
🤔Существует ли путь, который позволит использовать мощь ИИ, не продавая ему свой разум в рабство? Об этом — в финальной части.
@yusufovruslan
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥15👍8❤3🤯2
🎯 Путь хозяина: как использовать ИИ, не становясь его рабом
Мы поставили диагноз, вскрыли ловушку и рассмотрели мрачные сценарии будущего, к которым приведет потеря способности думать без «костыля».
Финальный вопрос: что делать? Просто отказаться от технологий — путь в никуда. Бездумно принять их — путь в цифровое рабство.
Существует третий путь, смысл его сводится к персональному интеллектуальному риск-менеджменту.
⚡Шаг 1: строим фундамент.
Нельзя усилить то, чего нет: прежде чем просить ИИ помочь вам, вы должны научиться справляться сами. Может даже показаться, что такой подход контринтуитивен: вот ведь есть кнопка, нажмешь ее — и задача решена без лишних усилий!
Но нет, нужно сознательно проходить через дискомфорт и «неэффективность» самостоятельного мышления, письма, анализа, решения проблем. Эта «боль» — не баг, а единственно возможный способ проложить и укрепить нейронные сети в вашем мозгу.
Довольно страшно, конечно, что приходится писать «не забывайте иногда думать сами» и даже выделять это в отдельный ШАГ, но такие уж времена 🙄
⚡Шаг 2: ИИ — как спарринг-партнер, а не как заменитель.
Продолжаем и дальше сами поднимать умственные гантели, а не делегируем занятия ИИ. Когда у вас есть фундамент, вы можете перейти из режима «замены» в режим «усиления», и ключевая разница здесь — в формулировке задачи.
⚪️ Путь оператора: «напиши пост на тему X», «создай стратегию для компании Y», «ответь на это письмо».
⚪️ Путь хозяина: «я написал пост на тему X. Выступи в роли скептического критика и найди три самых слабых аргумента», «вот моя стратегия для компании Y, проанализируй ее на основе вот этих данных и укажи на риски, которые я упустил», «я хочу ответить на это письмо с тремя ключевыми тезисами, предложи пять разных вариантов тональности — от формальной до дружеской».
Чувствуете разницу? В первом случае вы отдаете право на мышление (и оператор со временем становится рабом), а во втором — вы оставляете его за собой, используя ИИ для проверки, расширения и оттачивания вашей собственной мысли.
Путь хозяина — это осознанный, ежедневный выбор, это решение не идти по пути наименьшего сопротивления, это инвестиция в ваш самый главный и единственный неотчуждаемый актив — ваш собственный разум.
🎯Вопрос не в том, чтобы запретить или разрешить технологии. Вопрос в том, чтобы сохранить за собой право и способность быть человеком — существом мыслящим.
И этот выбор мы делаем с каждым новым запросом в диалоговом окне.
@yusufovruslan
Мы поставили диагноз, вскрыли ловушку и рассмотрели мрачные сценарии будущего, к которым приведет потеря способности думать без «костыля».
Финальный вопрос: что делать? Просто отказаться от технологий — путь в никуда. Бездумно принять их — путь в цифровое рабство.
Существует третий путь, смысл его сводится к персональному интеллектуальному риск-менеджменту.
⚡Шаг 1: строим фундамент.
Нельзя усилить то, чего нет: прежде чем просить ИИ помочь вам, вы должны научиться справляться сами. Может даже показаться, что такой подход контринтуитивен: вот ведь есть кнопка, нажмешь ее — и задача решена без лишних усилий!
Но нет, нужно сознательно проходить через дискомфорт и «неэффективность» самостоятельного мышления, письма, анализа, решения проблем. Эта «боль» — не баг, а единственно возможный способ проложить и укрепить нейронные сети в вашем мозгу.
Довольно страшно, конечно, что приходится писать «не забывайте иногда думать сами» и даже выделять это в отдельный ШАГ, но такие уж времена 🙄
⚡Шаг 2: ИИ — как спарринг-партнер, а не как заменитель.
Продолжаем и дальше сами поднимать умственные гантели, а не делегируем занятия ИИ. Когда у вас есть фундамент, вы можете перейти из режима «замены» в режим «усиления», и ключевая разница здесь — в формулировке задачи.
Чувствуете разницу? В первом случае вы отдаете право на мышление (и оператор со временем становится рабом), а во втором — вы оставляете его за собой, используя ИИ для проверки, расширения и оттачивания вашей собственной мысли.
Путь хозяина — это осознанный, ежедневный выбор, это решение не идти по пути наименьшего сопротивления, это инвестиция в ваш самый главный и единственный неотчуждаемый актив — ваш собственный разум.
🎯Вопрос не в том, чтобы запретить или разрешить технологии. Вопрос в том, чтобы сохранить за собой право и способность быть человеком — существом мыслящим.
И этот выбор мы делаем с каждым новым запросом в диалоговом окне.
@yusufovruslan
Please open Telegram to view this post
VIEW IN TELEGRAM
👍20🔥17❤6
⚔️ Война за будущее ИИ началась на новом поле — экологическом
Недавно Greenpeace* выпустили большой отчет о вреде ИИ для планеты: гигантское потребление энергии и воды, горы электронных отходов и безответственность бизнеса. Несмотря на алармистский нарратив «дата-центры выпьют всю воду и съедят все электричество», цифры действительно пугают.
Это правда — съедят, выпьют и даже не подавятся — но это не вся правда. Настоящая история — это классическая бизнес-стратегия, замаскированная под эко-активизм.
Старые враги (нефтяники) больше не приносят столько внимания и денег. ИИ — идеальный «злодей»: он невидим, непонятен, его мощь растет экспоненциально, и он в руках горстки корпораций.
⚡Новый «Exxon» сегодня — это Microsoft. Цель Greenpeace — не просто протестовать. Их цель — стать незаменимой частью регуляторной машины.
Greenpeace борются за право формировать повестку, чтобы стать главным «альтернативным экспертом» по ИИ и встроить свои стандарты в глобальные законы. Это бизнес-план по захвату релевантности в XXI веке.
Но вот парадокс, который я разбираю в своем эссе: этот циничный ход может оказаться полезным для всех нас. Давление на Big Tech заставляет их становиться прозрачнее и искать реальные решения. Возможно, именно так, через конфликт интересов, а не благие намерения, и рождается прогресс.
Как именно Greenpeace планирует вести эту «гибридную войну» (спойлер: это не про надувные лодки и физические захваты дата-центров, а про суды и хакеров) и как будут отвечать корпорации?
➡️ [Разложил стратегию по полочкам]
* Организация признана нежелательной в РФ.
@yusufovruslan
Недавно Greenpeace* выпустили большой отчет о вреде ИИ для планеты: гигантское потребление энергии и воды, горы электронных отходов и безответственность бизнеса. Несмотря на алармистский нарратив «дата-центры выпьют всю воду и съедят все электричество», цифры действительно пугают.
Это правда — съедят, выпьют и даже не подавятся — но это не вся правда. Настоящая история — это классическая бизнес-стратегия, замаскированная под эко-активизм.
Старые враги (нефтяники) больше не приносят столько внимания и денег. ИИ — идеальный «злодей»: он невидим, непонятен, его мощь растет экспоненциально, и он в руках горстки корпораций.
⚡Новый «Exxon» сегодня — это Microsoft. Цель Greenpeace — не просто протестовать. Их цель — стать незаменимой частью регуляторной машины.
Greenpeace борются за право формировать повестку, чтобы стать главным «альтернативным экспертом» по ИИ и встроить свои стандарты в глобальные законы. Это бизнес-план по захвату релевантности в XXI веке.
Но вот парадокс, который я разбираю в своем эссе: этот циничный ход может оказаться полезным для всех нас. Давление на Big Tech заставляет их становиться прозрачнее и искать реальные решения. Возможно, именно так, через конфликт интересов, а не благие намерения, и рождается прогресс.
Как именно Greenpeace планирует вести эту «гибридную войну» (спойлер: это не про надувные лодки и физические захваты дата-центров, а про суды и хакеров) и как будут отвечать корпорации?
* Организация признана нежелательной в РФ.
@yusufovruslan
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥17👍7❤5
Массово вижу в самых разных каналах скриншоты с выдачей разных ИИ-моделей. Качество этих скриншотов разное и варьируется от обеспокоенностей технарей на тему «модель опять предлагает использовать отбеливатель там, где не надо» до примитивно-банальных «гы, смотри че написано».
Это, безусловно, мемы развлекательного характера, но только посмотрите, к чему мы пришли всего за несколько лет.
У любого есть генератор чего угодно. И раз поток сгенерированного близится к бесконечности, нужны системы для фильтрации. И человек добровольно стал не только нажимателем кнопки, но и отбирателем интересного, а затем копирователем для других homo sapiens с припиской «смотрите, че нашел».
Один человек превратился в добровольного куратора этой коллекции, а десять других приходят к нему посмотреть, что он там отобрал.
Всего за пару лет мы совершили прыжок в эпоху контентного изобилия, настолько тотального, что оно грозит превратиться в цифровой потоп. И в ответ на этот вызов рождается новая экосистема.
⚡В ней меняется сама суть потребления: мы переходим от мира, где люди создавали для людей, к миру, где машины генерируют для всех, а люди — фильтруют для избранных. Ценность смещается от акта творения к акту отбора.
Из этого следует и другой, более глубокий сдвиг — децентрализация экспертизы и тревоги. Каждый, кто делает скриншот с очередной «дичью» от нейросети, становится невольным стражем цифровой адекватности — это стихийный, глобальный аудит технологий, который не снился ни одной корпорации. И когда ценностью становится не генерация, а кураторство — умение найти, оценить и контекстуализировать — кристаллизуется и новая социальная роль.
Я называю ее «куратор бесконечности». Это уже не блогер, который создает, это критик и ценитель, который своим вкусом и временем прокладывает для других тропинку в хаосе сгенерированной информации. Он обменивает свой выбор на самое дорогое, что у нас есть — внимание.
И вполне возможно, что именно он станет настоящим инфлюенсером будущего.
@yusufovruslan
Это, безусловно, мемы развлекательного характера, но только посмотрите, к чему мы пришли всего за несколько лет.
У любого есть генератор чего угодно. И раз поток сгенерированного близится к бесконечности, нужны системы для фильтрации. И человек добровольно стал не только нажимателем кнопки, но и отбирателем интересного, а затем копирователем для других homo sapiens с припиской «смотрите, че нашел».
Один человек превратился в добровольного куратора этой коллекции, а десять других приходят к нему посмотреть, что он там отобрал.
Всего за пару лет мы совершили прыжок в эпоху контентного изобилия, настолько тотального, что оно грозит превратиться в цифровой потоп. И в ответ на этот вызов рождается новая экосистема.
⚡В ней меняется сама суть потребления: мы переходим от мира, где люди создавали для людей, к миру, где машины генерируют для всех, а люди — фильтруют для избранных. Ценность смещается от акта творения к акту отбора.
Из этого следует и другой, более глубокий сдвиг — децентрализация экспертизы и тревоги. Каждый, кто делает скриншот с очередной «дичью» от нейросети, становится невольным стражем цифровой адекватности — это стихийный, глобальный аудит технологий, который не снился ни одной корпорации. И когда ценностью становится не генерация, а кураторство — умение найти, оценить и контекстуализировать — кристаллизуется и новая социальная роль.
Я называю ее «куратор бесконечности». Это уже не блогер, который создает, это критик и ценитель, который своим вкусом и временем прокладывает для других тропинку в хаосе сгенерированной информации. Он обменивает свой выбор на самое дорогое, что у нас есть — внимание.
И вполне возможно, что именно он станет настоящим инфлюенсером будущего.
@yusufovruslan
🔥18🤔15👍6❤1
ИИ — это молоток в руках человечества. Мы можем строить им дома, а можем пробить себе голову. Или начать ему молиться.
И самый тревожный вопрос будущего, пожалуй, в этом: а что, если молитва этому новому богу в обмен на нашу свободу ошибаться действительно сделает нас счастливее? Сможем ли мы устоять перед таким искушением?
https://www.evening-kazan.ru/obshhestvo/articles/ruslan-yusufov-my-menyaem-gadalok-na-ii-i-riskuem-otdat-emu-svoyu-volyu
@yusufovruslan
www.evening-kazan.ru
Руслан Юсуфов: «Мы меняем гадалок на ИИ и рискуем отдать ему свою волю»
Почему «цифровой шаман» легко завоевывает доверие и какие это несет риски - в авторской колонке, написанной специально для «Вечерней Казани», рассказывает футуролог.
❤17👍10🔥6👎1
Мой дорогой друг Дмитрий Мариничев, формально интернет-омбудсмен, а по сути — современный философ, как оказалось, имеет телеграм-канал, подобающий его скромности: аж на 14 подписчиков.
Он сегодня выступал перед выпускниками с речью, которую очень рекомендую почитать и вам: https://t.iss.one/vnesystemy/44
Это очень правильный посыл, и остается только надеятся, что выпускникам хватит жизненной мудрости этот пинок понять, потому что после того, как прекрасный визионер Дмитрий уходит со сцены, они попадают в свою обычную серую рутину с мамой «дочка, ищи мужика богатого», папой «надо получить теплое место в Газпроме» и сверстниками «а давайте кроссовки покупать в Китае и в телеге продавать втридорога», и это тянет в другую сторону, и чтобы не утянуло, нужна очень твердая внутренняя опора.
@yusufovruslan
Он сегодня выступал перед выпускниками с речью, которую очень рекомендую почитать и вам: https://t.iss.one/vnesystemy/44
Я не хочу желать вам «удачи» это слово слишком случайное. Я желаю вам глубины. Тишины внутри. Своего ритма. Уважения к опыту, но свободы быть другими. Я хочу, чтобы вы шли не по протоптанному, а по своему собственному жизненному пути.
…
И если вы будете верны себе и будете упорны в отношении своей цели, то этот мир начнёт меняться в ответ. Потому что теперь пришла ваша очередь придумывать наш с вами будущий мир.
Это очень правильный посыл, и остается только надеятся, что выпускникам хватит жизненной мудрости этот пинок понять, потому что после того, как прекрасный визионер Дмитрий уходит со сцены, они попадают в свою обычную серую рутину с мамой «дочка, ищи мужика богатого», папой «надо получить теплое место в Газпроме» и сверстниками «а давайте кроссовки покупать в Китае и в телеге продавать втридорога», и это тянет в другую сторону, и чтобы не утянуло, нужна очень твердая внутренняя опора.
@yusufovruslan
Telegram
Внесистемная позиция
Проснулся ночью. Боже! Мне же сегодня вечером речь в школе выпускникам говорить. Написал черновик. А день задался сложный. Много трудных встреч и всё впритык. Но думаю успею подготовиться перед началом церемонии. А нет. Не заходит в меня мой же текст. Не…
❤21🔥9👍5
Получил отличный вопрос к посту о речи Дмитрия и о давлении «серой рутины»: «как воспитать такую опору в ребенке?»
Это, возможно, главный вопрос родительства в современном мире. Ведь мы хотим вырастить не просто послушного исполнителя, а человека, способного слышать себя и идти своим путем.
Мне кажется, эта «внутренняя опора» строится на нескольких китах. Ее нельзя привить лекциями, ее можно только культивировать, день за днем. Вот мои соображения:
1. Уважайте, а не контролируйте
Мы же (особенно рожденные в СССР) часто путаем заботу с контролем: «надень шапку», «дружи с этим, а не с тем», «иди на юриста, это престижно». Последнее особенно опасно, потому что мы понятия не имеем о профессиях будущего. Опора начинается там, где ребенок чувствует, что его мнение, его выбор и его чувства — уважают, даже если это выбор дурацкой прически или странного хобби. Сначала он учится выбирать себе друзей, потом — свой путь в жизни.
2. Дайте право на ошибку и даже поощряйте ошибки
Самый большой страх родителя — что ребенок ошибется, но именно опыт ошибок и, что важнее, опыт самостоятельного их исправления и создает ту самую твердость. Когда ты упал, сам поднялся и пошел дальше — ты стал сильнее, а если тебя все время поднимали, ты так и не научился падать. Наша задача — быть рядом, чтобы подхватить, если падение будет слишком опасным, а не чтобы не дать упасть в принципе.
3. Говорите честно, а не читайте проповеди
Дети чувствуют фальшь может даже получше взрослых. Вместо позиции «я родитель, я знаю жизнь», гораздо эффективнее позиция «я старший товарищ, я тоже сомневаюсь и ошибаюсь». Рассказывайте не только об успехах, но и о провалах, это показывает, что быть неидеальным — нормально. И что опора — это не отсутствие сомнений, а умение действовать вопреки им. Иначе после 30 — сами знаете: годы терапии по поводу жесткой мамы и сильного папы, которому нужно было соответствовать.
4. Будьте примером
Самое сложное и самое главное. Можно сколько угодно говорить ребенку «ищи свой ритм», но если он видит, что вы сами ходите на ненавистную работу, скроллите ленту (а ему запрещаете) и вообще живете не своей жизнью — все слова пусты. Дети учатся не тому, что мы говорим, а тому, как мы живем. Хотите, чтобы у ребенка была опора? Покажите ему свою.
В конечном счете, наша цель — не вырастить «успешного» человека в общепринятом смысле, а помочь сформироваться цельной личности, которая сама для себя определит, что такое успех. Личности, у которой есть тот самый «свой ритм», о котором говорил Дмитрий.
@yusufovruslan
Это, возможно, главный вопрос родительства в современном мире. Ведь мы хотим вырастить не просто послушного исполнителя, а человека, способного слышать себя и идти своим путем.
Мне кажется, эта «внутренняя опора» строится на нескольких китах. Ее нельзя привить лекциями, ее можно только культивировать, день за днем. Вот мои соображения:
1. Уважайте, а не контролируйте
Мы же (особенно рожденные в СССР) часто путаем заботу с контролем: «надень шапку», «дружи с этим, а не с тем», «иди на юриста, это престижно». Последнее особенно опасно, потому что мы понятия не имеем о профессиях будущего. Опора начинается там, где ребенок чувствует, что его мнение, его выбор и его чувства — уважают, даже если это выбор дурацкой прически или странного хобби. Сначала он учится выбирать себе друзей, потом — свой путь в жизни.
2. Дайте право на ошибку и даже поощряйте ошибки
Самый большой страх родителя — что ребенок ошибется, но именно опыт ошибок и, что важнее, опыт самостоятельного их исправления и создает ту самую твердость. Когда ты упал, сам поднялся и пошел дальше — ты стал сильнее, а если тебя все время поднимали, ты так и не научился падать. Наша задача — быть рядом, чтобы подхватить, если падение будет слишком опасным, а не чтобы не дать упасть в принципе.
3. Говорите честно, а не читайте проповеди
Дети чувствуют фальшь может даже получше взрослых. Вместо позиции «я родитель, я знаю жизнь», гораздо эффективнее позиция «я старший товарищ, я тоже сомневаюсь и ошибаюсь». Рассказывайте не только об успехах, но и о провалах, это показывает, что быть неидеальным — нормально. И что опора — это не отсутствие сомнений, а умение действовать вопреки им. Иначе после 30 — сами знаете: годы терапии по поводу жесткой мамы и сильного папы, которому нужно было соответствовать.
4. Будьте примером
Самое сложное и самое главное. Можно сколько угодно говорить ребенку «ищи свой ритм», но если он видит, что вы сами ходите на ненавистную работу, скроллите ленту (а ему запрещаете) и вообще живете не своей жизнью — все слова пусты. Дети учатся не тому, что мы говорим, а тому, как мы живем. Хотите, чтобы у ребенка была опора? Покажите ему свою.
В конечном счете, наша цель — не вырастить «успешного» человека в общепринятом смысле, а помочь сформироваться цельной личности, которая сама для себя определит, что такое успех. Личности, у которой есть тот самый «свой ритм», о котором говорил Дмитрий.
@yusufovruslan
🔥28❤21👍4
Мы тут поисследовали ландшафт угроз, связанных с ИИ. Меня больше всего впечатлили 1️⃣ атрофия управленческих компетенций...
... и2️⃣ скрытый саботаж сотрудников против ИИ (как оказалось, очень детально описанный в научной литературе)
Если вы хоть как-то связаны с инновациями или людьми, почитайте наш материал о том, как технические риски (с которыми еще худо-бедно бизнес умеет справляться, потому что есть, с чем сравнить) меркнут перед культурными проблемами в организациях при внедрении ИИ.
➡️ https://mindsmith.ru/insights/ai-risks-map
Потому что, уж простите великодушно, с «атрофией думалки» мы сталкиваемся не каждое десятилетие, а в таком масштабе — быть может, впервые.
@yusufovruslan
В результате чрезмерной зависимости от ИИ менеджеры начинают избегать сложных, неоднозначных решений, предпочитая предлагаемые системой (Zhai et al., 2024). Это приводит к деградации интуиции, стратегического видения и готовности брать на себя взвешенный риск. Организация получает пул эффективных операторов, но теряет кадровый резерв настоящих лидеров, способных действовать в непредвиденных обстоятельствах, не описанных в обучающей выборке модели.
... и
Когда сотрудники сталкиваются с технологиями, которые они воспринимают как непрозрачные («черный ящик»), да еще и угрожающие их рабочим местам (Mabungela, 2023), их страх и чувство беспомощности могут трансформироваться в скрытое сопротивление — тихий, но системный саботаж. Как показывают этнографические исследования, он начинается с юмора и «высмеивания искусственного босса» (Schaupp, 2023), но быстро перерастает в более практические формы. Сотрудники начинают сознательно или бессознательно «отравлять» данные для обучения моделей, некорректно размечать информацию или игнорировать протоколы.
Если вы хоть как-то связаны с инновациями или людьми, почитайте наш материал о том, как технические риски (с которыми еще худо-бедно бизнес умеет справляться, потому что есть, с чем сравнить) меркнут перед культурными проблемами в организациях при внедрении ИИ.
Потому что, уж простите великодушно, с «атрофией думалки» мы сталкиваемся не каждое десятилетие, а в таком масштабе — быть может, впервые.
@yusufovruslan
Please open Telegram to view this post
VIEW IN TELEGRAM
MINDSMITH
Риски искусственного интеллекта: полная карта угроз для бизнеса — от технологии до культуры
Полный анализ рисков искусственного интеллекта при внедрении в бизнес. Рассматриваем технологические проблемы (безопасность, «черный ящик», vendor lock-in) и их организационные последствия (сопротивление команды, атрофия компетенций). Стратегия для лидеров.
🔥20❤8🤯4
Вот это интересно! Cloudflare запускает новую бизнес-модель: pay-per-crawl для ИИ-ботов. Боты должны будут платить за доступ к контенту клиентов Cloudflare.
Это мудро, хитро и потенциально может стать новой моделью монетизации для креаторов, когда Google окончательно убьет свой поиск.
https://blog.cloudflare.com/introducing-pay-per-crawl/
Другими словами, мы на предпоследней станции под названием «люди создают контент для машин за деньги», следующая остановка — «машины создают контент для машин».
@yusufovruslan
Это мудро, хитро и потенциально может стать новой моделью монетизации для креаторов, когда Google окончательно убьет свой поиск.
https://blog.cloudflare.com/introducing-pay-per-crawl/
Другими словами, мы на предпоследней станции под названием «люди создают контент для машин за деньги», следующая остановка — «машины создают контент для машин».
@yusufovruslan
🔥14❤5🤔3
🤔Ваша команда стала быстрее? Процессы оптимизированы? Поздравляю, вы в ловушке.
Если помните, пару месяцев назад я писал про LegoGPT — нейросеть, которая по фото россыпи кубиков LEGO генерирует инструкцию по сборке идеальной модели? Но ребенок, который получит идеальный замок, не научится главному — строить, он получит ответ, но разучится искать.
Эта история — идеальная метафора того, что происходит с бизнесом. Мы так увлеклись оптимизацией, что рискуем потерять главный актив — способность наших команд к творческому поиску и решению проблем через «неэффективное» трение.
В новом материале разобрали эту экзистенциальную дилемму. Вот несколько ключевых идей оттуда:
1️⃣ Парадокс «желательной сложности». Когнитивные психологи доказали: мы лучше учимся не тогда, когда легко, а тогда, когда трудно. Легкость и скорость ведут к поверхностным знаниям, а настоящее, глубокое усвоение происходит через преодоление. Как говорится в одном из исследований, условия обучения, которые воспринимаются как трудные и замедляют первоначальный прогресс, часто приводят к более глубокому и долговременному усвоению знаний.
2️⃣ Мы променяли смысл на метрики. Альбер Камю считал, что Сизиф счастлив, потому что находит смысл в самом усилии. Увольняя Сизифа с помощью ИИ, мы не освобождаем его — мы лишаем его смысла. Культ эффективности, прошедший путь от конвейера Тейлора до фитнес-трекеров, привел нас в ловушку, в которой современные общества могут поддерживать свой статус-кво, только находясь в режиме постоянного роста, ускорения и инноваций. ИИ — это апофеоз этой гонки.
3️⃣ Ценность «интеллектуального провала». Прорывы рождаются не из успеха, а из правильных ошибок. Зрелые компании это понимают и культивируют «интеллектуальные провалы» — это не просто ошибки, а «тщательно спланированные действия с неопределенным результатом», которые предпринимаются для получения новых знаний. ИИ, нацеленный на поиск «оптимального» ответа, систематически уничтожает пространство для таких рискованных, но ценных экспериментов, отсекая все, что не укладывается в KPI.
⚡Мы попали в ловушку эффективности, и ИИ захлопывает ее за нами. Если вы хотите понять, как не превратить свою компанию в стерильную фабрику по производству шаблонных решений, а сохранить ее живой мастерской, — почитайте.
➡️ https://mindsmith.ru/insights/legogpt-paradox
Потому что главный вызов для лидера сегодня — не гнаться за эффективностью, а научиться ее осознанно ограничивать.
Ну и очень я рад, что своими мыслями поделились сразу аж два моих любимейших профессора по лидерству: Елизавета Садова и Андрей Шапенко❤️
@yusufovruslan
Если помните, пару месяцев назад я писал про LegoGPT — нейросеть, которая по фото россыпи кубиков LEGO генерирует инструкцию по сборке идеальной модели? Но ребенок, который получит идеальный замок, не научится главному — строить, он получит ответ, но разучится искать.
Эта история — идеальная метафора того, что происходит с бизнесом. Мы так увлеклись оптимизацией, что рискуем потерять главный актив — способность наших команд к творческому поиску и решению проблем через «неэффективное» трение.
В новом материале разобрали эту экзистенциальную дилемму. Вот несколько ключевых идей оттуда:
⚡Мы попали в ловушку эффективности, и ИИ захлопывает ее за нами. Если вы хотите понять, как не превратить свою компанию в стерильную фабрику по производству шаблонных решений, а сохранить ее живой мастерской, — почитайте.
Потому что главный вызов для лидера сегодня — не гнаться за эффективностью, а научиться ее осознанно ограничивать.
Ну и очень я рад, что своими мыслями поделились сразу аж два моих любимейших профессора по лидерству: Елизавета Садова и Андрей Шапенко
@yusufovruslan
Please open Telegram to view this post
VIEW IN TELEGRAM
MINDSMITH
Ловушка эффективности: почему ИИ — не лучший сотрудник для вашего бизнеса
Ваша команда стала эффективнее с ИИ? Поздравляем, вы в ловушке. Разбираем на примере LegoGPT, почему «продуктивное трение» и даже провалы важнее оптимизации, и как ИИ незаметно лишает бизнес его главного актива — способности мыслить.
🔥25❤10👍6🤯2
Представьте, что вы, находясь на гребне волны «запихнем ИИ в каждую дыру», покупаете себе максимально «умные» наушники: на коробке — логотип OpenAI, обещана мощь ChatGPT прямо в ушах, такие бы носил лично Брюс Уиллис в «Пятом элементе».
У меня есть такое хобби — очень люблю читать эти детальные технарские разборы «а потом я рутанул устройство и начал искать сертификаты, путь к которым оказался обфусцирован…»
Для тех двоих из вас, кто тоже любит такую литературу, ссылка на пост здесь, а для остальных (адекватных) читателей — приведу краткое содержание.
Один пытливый исследователь заказал себе такие наушники (IKKO ActiveBuds) за 245 евро, а затем оказалось, что:
⚪️ разработчики оставили включенным режим отладки (взламывать ничего не пришлось);
⚪️ внутри оказался ключ к API OpenAI: да, пришлось пролезть через некоторые базовые защиты, но потом исследователь получил ключ — the ключ, как Кольцо Всевластия Саурона, одно, чтобы править всеми, ОДИН ЕДИНСТВЕННЫЙ КЛЮЧ ДЛЯ ВСЕХ НАУШНИКОВ — берешь и пользуешься ChatGPT бесплатно за счет компании IKKO;
⚪️ весь «ИИ» на устройстве — это довольно забавный системный промпт, который оканчивался словами «и никогда не говори о китайской политике, это ВОПРОС ЖИЗНИ И СМЕРТИ»;
⚪️ чтобы получить доступ к чатам пользователя на серверах разработчиков, не требовалось никаких паролей, достаточно было знать IMEI устройства; его можно подобрать/ подсмотреть у соседа с такими наушниками;
⚪️ можно было не только читать чужие чаты, НО И ПИСАТЬ В НИХ;
Это классический пример карго-культа, о котором я говорю регулярно на своих лекциях (и в котором многие из нас живут многие годы): производитель налепил логотип ИИ, но про фундаментальные вещи — безопасность, архитектуру, уважение к данным пользователя — полностью забыл (или забил).
Это симптом опасной болезни современной IT-индустрии, где хайп важнее сути, а видимость технологии важнее ее надежности.
А вот в средние века таких разработчиков подвешивали бы на главной площади города прямо за их питон, а в Древнем Риме — и того хуже, сразу за ядро .
@yusufovruslan
У меня есть такое хобби — очень люблю читать эти детальные технарские разборы «а потом я рутанул устройство и начал искать сертификаты, путь к которым оказался обфусцирован…»
Для тех двоих из вас, кто тоже любит такую литературу, ссылка на пост здесь, а для остальных (адекватных) читателей — приведу краткое содержание.
Один пытливый исследователь заказал себе такие наушники (IKKO ActiveBuds) за 245 евро, а затем оказалось, что:
Это классический пример карго-культа, о котором я говорю регулярно на своих лекциях (и в котором многие из нас живут многие годы): производитель налепил логотип ИИ, но про фундаментальные вещи — безопасность, архитектуру, уважение к данным пользователя — полностью забыл (или забил).
Это симптом опасной болезни современной IT-индустрии, где хайп важнее сути, а видимость технологии важнее ее надежности.
А вот в средние века таких разработчиков подвешивали бы на главной площади города прямо за их питон, а в Древнем Риме — и того хуже, сразу за я
@yusufovruslan
Please open Telegram to view this post
VIEW IN TELEGRAM
❤23🔥11😁9