На прошлой неделе я написал бота для проверки грамматики (@EveryLanguageGrammarBot), который пользуется GPT-3 (и меня очень радует, что вы им пользуетесь); в этот момент что-то кликнуло и я понял, как все этой фигней пользоваться. Неожиданно из странной технологии, с которой можно играться, GPT-3 превратился для меня в инструмент, с помощью которого можно что-то строить; я построил пару удивительных (для меня и тех, кому их показывал) вещей, одну даже успел кому-то впарить.
Через пару лет все приложения будут состоять из промпта с простым интерфейсом, и будут понимать и организовать всю информацию за вас сами; а многие из задач, связанных с экспертной обработкой информации, будут легко автоматизированы. Это было и так понятно, но теперь же мне стало ясно, что такие штуки уже можно делать без команды гениальных учёных и миллиарда инвестиций на видеокарточки.
Это всё изменит наше отношение к информации. Обыденная "осмысленность" будет производиться (и потребляться) практически без трудозатрат, а потому, мне кажется, перестанет цениться. Что это значит, я не знаю) Но если действительно произойдут перемены на уровне понятия "смысла", то есть если мы будем к "смыслу" по-другому относиться — гораздо проще, возможно — то, поскольку это какое-то очень необходимое для нас понятие, произойдёт какая-то серьезная перемена в структуре человеческой субъектности. Это не первый раз, конечно; можно попробовать сравнить с переменами от письменности, печатного станка или фотоаппарата. (Кстати, вот и ответ на вопрос, достигнет ли ИИ "человеческой субъектности": возможно, он ее так поменяет, что она уже не будет годиться ни в какие стандарты.)
Эти вопросы о дивном новом мире и моем месте в нем меня не покидали. Я не думаю, что эти перемены как-то очевидно к лучшему, я точно не считаю, что они сами по себе избавят нас от войн или изменят наши отношения с природой. Но какие-то очень важные для меня вещи меняются; мне хочется быть в гуще событий не потому, что они мне сильно нравятся, а потому, что сейчас там лучше видно.
Был комментарий к посту про бота: "хорошая терапия: Написать [бота на основе] новой технологии, которая вызывает ужас". Что-то типа того. Практическая работа в этой области дает мне некую точку зрения, из которой действительно получается это все как-то... переваривать (ну или "осмыслять", если это слово еще что-то значит).
Короче, стало ясно, что мне надо делать. Я забил на всё, чем занимался, уволился и пошел делать свой бизнес, делать и продавать инструменты для работы с "большими языковыми моделями".
Почему бизнес? Ну, передо мной некая буря, что-то тревожное, область, так сказать, высокой энтропии. По отношению к ней у меня не получилось быть отрешенным философом, гадать по доносящимся газетным заголовкам, обсуждать все эти вещи с людьми, которые их никогда не видели и всё равно хотят о них фантазировать. Бизнес — это зона негативной энтропии, то есть это форма жизни, как ее понимали Больцман и Шредингер. Мне такая зона была нужна, чтобы из нее смотреть на этот новый мир; и бизнес - единственный способ для себя ее создать, что я вижу. В конце концов, те формы жизни, что принимает современный ИИ, это тоже всё еще формы бизнеса, а не языковой субъектности.
(Нет, этот блог не превращается пока что в "советы как построить свой продукт на ИИ за 5 дней и заработать 100000000₽", хотя меня очень тянет, конечно). Конкретнее про бизнес потом расскажу, но скорее всего о нем здесь будет мало, а будет все ещё всякое философствование. Пойду пока дальше читать про convertible note.
Через пару лет все приложения будут состоять из промпта с простым интерфейсом, и будут понимать и организовать всю информацию за вас сами; а многие из задач, связанных с экспертной обработкой информации, будут легко автоматизированы. Это было и так понятно, но теперь же мне стало ясно, что такие штуки уже можно делать без команды гениальных учёных и миллиарда инвестиций на видеокарточки.
Это всё изменит наше отношение к информации. Обыденная "осмысленность" будет производиться (и потребляться) практически без трудозатрат, а потому, мне кажется, перестанет цениться. Что это значит, я не знаю) Но если действительно произойдут перемены на уровне понятия "смысла", то есть если мы будем к "смыслу" по-другому относиться — гораздо проще, возможно — то, поскольку это какое-то очень необходимое для нас понятие, произойдёт какая-то серьезная перемена в структуре человеческой субъектности. Это не первый раз, конечно; можно попробовать сравнить с переменами от письменности, печатного станка или фотоаппарата. (Кстати, вот и ответ на вопрос, достигнет ли ИИ "человеческой субъектности": возможно, он ее так поменяет, что она уже не будет годиться ни в какие стандарты.)
Эти вопросы о дивном новом мире и моем месте в нем меня не покидали. Я не думаю, что эти перемены как-то очевидно к лучшему, я точно не считаю, что они сами по себе избавят нас от войн или изменят наши отношения с природой. Но какие-то очень важные для меня вещи меняются; мне хочется быть в гуще событий не потому, что они мне сильно нравятся, а потому, что сейчас там лучше видно.
Был комментарий к посту про бота: "хорошая терапия: Написать [бота на основе] новой технологии, которая вызывает ужас". Что-то типа того. Практическая работа в этой области дает мне некую точку зрения, из которой действительно получается это все как-то... переваривать (ну или "осмыслять", если это слово еще что-то значит).
Короче, стало ясно, что мне надо делать. Я забил на всё, чем занимался, уволился и пошел делать свой бизнес, делать и продавать инструменты для работы с "большими языковыми моделями".
Почему бизнес? Ну, передо мной некая буря, что-то тревожное, область, так сказать, высокой энтропии. По отношению к ней у меня не получилось быть отрешенным философом, гадать по доносящимся газетным заголовкам, обсуждать все эти вещи с людьми, которые их никогда не видели и всё равно хотят о них фантазировать. Бизнес — это зона негативной энтропии, то есть это форма жизни, как ее понимали Больцман и Шредингер. Мне такая зона была нужна, чтобы из нее смотреть на этот новый мир; и бизнес - единственный способ для себя ее создать, что я вижу. В конце концов, те формы жизни, что принимает современный ИИ, это тоже всё еще формы бизнеса, а не языковой субъектности.
(Нет, этот блог не превращается пока что в "советы как построить свой продукт на ИИ за 5 дней и заработать 100000000₽", хотя меня очень тянет, конечно). Конкретнее про бизнес потом расскажу, но скорее всего о нем здесь будет мало, а будет все ещё всякое философствование. Пойду пока дальше читать про convertible note.
❤🔥46🤔9🐳9😢3❤2🌚2🔥1🌭1
Сделал маленькую текстовую игру о жизненных перипетиях с использованием GPT-3, абсолютная вершина геймдизайна, конечно – поиграть можно тут @GetOverItBot
❤22❤🔥6🔥2
Игра оказалась очень затягивающей и популярной, я даже сам удивлен, и довольно трагичной. Я думаю, что многие уже поняли механизм) Но есть еще сторона, которую вам не видно. Да, бот выдает в ответ очень странные и непредсказуемые истории, может быть близкие к некому "обобщенному фольклору глазами ИИ". Но я смотрю одним глазком в логи (их много, я их удаляю и особо не смотрю, не стесняйтесь, я ко всему отношусь с пониманием и уважением) и вижу еще более странные сообщения, которые ему пишут игроки: в них появляются какие-то общие странные темы, даже какое-то подобие обобщенного... самосознания. То есть игроки в ответ образуют тоже своего рода генеративный Искусственный Интеллект, машину для придумывания все новых и новых странных сценариев тщетных попыток покинуть эту воронку отчаяния.
🔥34🐳6❤5
Я все еще считаю, что генерация текста – это одно из самых скучных и переоцененных применений ИИ, и не могу представить, чтобы я читал сгенерированные романы, статьи или стихи. С ужасом думаю о том, что через год-другой останутся только игры, где персонажи будут выдавать мне бессмысленные стены якобы интересного нагенерированного текста. Это же я говорю и тем, кто со мной советуется про использование GPT-3 – мол, не делайте чат, делайте управление текстом, но без всяких монологов в ответ. В кино всякие слуги и дворецкие далеко столько не трындят, сколько по-умолчанию выдает ChatGPT (в жизни я со слугами и дворецкими никогда не сталкивался, так что не знаю). Мне кажется, что сама технология GPT будет долго оставаться пугающе свежей и находить все новые странные применения, но лонгриды от ИИ читать никому не желаю.
Наверняка мои надежды не оправдаются, и станет только хуже, просто мы привыкнем. Вещи же сильно сжимаются, если их понимать, и тогда они как будто бы перестают быть такими громоздкими. Ну типа, как таблица умножения занимает в голове куда меньше места, чем на бумаге. Или вот мы смотрим на какие-нибудь кассовые чеки, на которых много всего написано, но сразу понимаем, где там что, где цена, где результат транзакции. Информационный мусор относительно легко игнорируется, когда к нему привыкнешь. Так и со стандартными искусственными текстами – может быть, в какой-то момент мы все притерпимся, и вместо трех занудных абзацев станем сразу видеть "а, это текст по промпту «вступление к статье о личной продуктивности»". Будем жить в мире некачественных дешевых текстов, которые нет смысла читать, но их продолжают генерировать, потому что это дешево и не так стыдно, как свои писать.
А может, мы всегда в таком и жили. Люди же читают вдумчиво лонгриды не от ИИ, хотя содержания там обычно примерно на маленький промт. Радостно потирают ручки, завидев длинный текст на любимую тему, прекрасно зная, что там не будет ничего нового – даже рассчитывая на это, а то новое утомляет. Играют во всякий Deus Ex и читают в нём эти бессмысленные всякие заметки.
Может, правильный взгляд здесь был бы – принять, что в этом и есть суть человечества, мол в антропологической перспективе – повторять одни и те же сказки и анекдоты, генерировать вариации одного и того же мифа. Если бы "Закон убывающего удовольствия" был применим к "удовольствию от текста", может, человеческой цивилизации вообще бы не сложилось. Может, это значит, что ИИ ускорит не столько какой-то типа научный или креативный прогресс, но какое-то тотальное мифологическое сгущение.
Вот и с этим в голове я был очень удивлен, насколько весело читать то, что эта игра в ответ пишет. Мне кажется, секрет тут не в том, что ИИ как-то талантливо изобретает истории, а в том, что он от души издевается над игроками. Удовольствие штука загадочная, и как выглядит "Удовольствие от ИИ" мы еще только начинаем понимать.
Наверняка мои надежды не оправдаются, и станет только хуже, просто мы привыкнем. Вещи же сильно сжимаются, если их понимать, и тогда они как будто бы перестают быть такими громоздкими. Ну типа, как таблица умножения занимает в голове куда меньше места, чем на бумаге. Или вот мы смотрим на какие-нибудь кассовые чеки, на которых много всего написано, но сразу понимаем, где там что, где цена, где результат транзакции. Информационный мусор относительно легко игнорируется, когда к нему привыкнешь. Так и со стандартными искусственными текстами – может быть, в какой-то момент мы все притерпимся, и вместо трех занудных абзацев станем сразу видеть "а, это текст по промпту «вступление к статье о личной продуктивности»". Будем жить в мире некачественных дешевых текстов, которые нет смысла читать, но их продолжают генерировать, потому что это дешево и не так стыдно, как свои писать.
А может, мы всегда в таком и жили. Люди же читают вдумчиво лонгриды не от ИИ, хотя содержания там обычно примерно на маленький промт. Радостно потирают ручки, завидев длинный текст на любимую тему, прекрасно зная, что там не будет ничего нового – даже рассчитывая на это, а то новое утомляет. Играют во всякий Deus Ex и читают в нём эти бессмысленные всякие заметки.
Может, правильный взгляд здесь был бы – принять, что в этом и есть суть человечества, мол в антропологической перспективе – повторять одни и те же сказки и анекдоты, генерировать вариации одного и того же мифа. Если бы "Закон убывающего удовольствия" был применим к "удовольствию от текста", может, человеческой цивилизации вообще бы не сложилось. Может, это значит, что ИИ ускорит не столько какой-то типа научный или креативный прогресс, но какое-то тотальное мифологическое сгущение.
Вот и с этим в голове я был очень удивлен, насколько весело читать то, что эта игра в ответ пишет. Мне кажется, секрет тут не в том, что ИИ как-то талантливо изобретает истории, а в том, что он от души издевается над игроками. Удовольствие штука загадочная, и как выглядит "Удовольствие от ИИ" мы еще только начинаем понимать.
❤34🐳18🤔6😈4🌭3🔥1🕊1
Говоря вслух про эту войну, особенно перед ее началом, я наделал всяких ошибок, и мало какие из моих “предсказаний” сбылись (за многие даже стыдно). Это меня радует, потому что оставляет меньше возможностей перепутать свои мысли с реальностью; я могу обсуждать какие-то мрачные сценарии, не впадая в излишнюю тревогу по поводу того, что они окажутся правдой.
Но вот о чем я думаю – уже с самого детства я помню предсказания от экологов о периоде “ресурсных войн” и климатических катастроф, который должен был бы начаться в течение века. Разумеется, тогда для меня это всё было про “где-то еще”, и я не сильно думал о том, что это будет как-то касаться меня. Я, как и почти все представители моего поколения, считал, что мир это нормальное состояние мира, а война это странное извращение; только в последние годы я стал думать, что мое поколение, возможно – единственное, для которого война не является чем-то совершенно нормальным; и что и наши предки жили, и наши потомки будут жить с куда менее взглядом.
Сам вопрос о том, входит ли конкретно эта война в период обещанных “вызванных климатической катастрофой ресурсных войн” оказывается очень этически нагружен. Среди объяснений типа “паранойи Путина”, “происков американцев”, “необходимости бороться за ресурсы” (ну и каких-то еще) каждая может оказаться причиной и следствием любой другой. Выбор конкретного объяснения – это серьезный этический жест, поскольку он сразу влечет за собой очень конкретную этическую позицию. Конечно, из них мне симпатичнее всего первая, но я распознаю этот выбор причины исключительно как мой собственный личный жест. (Можно ли “не выбирать”? Ну некий выбор есть всегда, поскольку без выбора причины невозможно ничего говорить или сделать; в любых монологах на тему “я не буду выбирать объяснение” легко прочесть какое-то конкретное объяснение – “все люди злодеи” или “войны неизбежны” и т.д.; если рассмотреть такое объяснение прямо, со всеми практическими следствиями из него, то возможно, оно покажется автору монолога куда хуже, чем одно из тех, которое он пытается критиковать.)
Но вот о чем я думаю – уже с самого детства я помню предсказания от экологов о периоде “ресурсных войн” и климатических катастроф, который должен был бы начаться в течение века. Разумеется, тогда для меня это всё было про “где-то еще”, и я не сильно думал о том, что это будет как-то касаться меня. Я, как и почти все представители моего поколения, считал, что мир это нормальное состояние мира, а война это странное извращение; только в последние годы я стал думать, что мое поколение, возможно – единственное, для которого война не является чем-то совершенно нормальным; и что и наши предки жили, и наши потомки будут жить с куда менее взглядом.
Сам вопрос о том, входит ли конкретно эта война в период обещанных “вызванных климатической катастрофой ресурсных войн” оказывается очень этически нагружен. Среди объяснений типа “паранойи Путина”, “происков американцев”, “необходимости бороться за ресурсы” (ну и каких-то еще) каждая может оказаться причиной и следствием любой другой. Выбор конкретного объяснения – это серьезный этический жест, поскольку он сразу влечет за собой очень конкретную этическую позицию. Конечно, из них мне симпатичнее всего первая, но я распознаю этот выбор причины исключительно как мой собственный личный жест. (Можно ли “не выбирать”? Ну некий выбор есть всегда, поскольку без выбора причины невозможно ничего говорить или сделать; в любых монологах на тему “я не буду выбирать объяснение” легко прочесть какое-то конкретное объяснение – “все люди злодеи” или “войны неизбежны” и т.д.; если рассмотреть такое объяснение прямо, со всеми практическими следствиями из него, то возможно, оно покажется автору монолога куда хуже, чем одно из тех, которое он пытается критиковать.)
🕊19❤4🤔4🌚2
Идея о новом, полном ресурсных войн периоде мировой истории, помимо навязывания печальных образов будущего, извращает и многие привычные этические позиции. Эти позиции зачастую очень сильно зависят от фантазии о том, что жизнь становится лучше. У Канта это было так – он посмотрел на кровавую французскую революцию и сказал: “Эти ужасные события сами по себе пугают, но как символ они – повод для оптимизма, поскольку выражают желание человечества быть свободнее и лучше”. Фантазия о развитии этической жизни позволяет простую позицию по отношению к любому кошмару: “Это закончится, все будет хорошо, такие вещи будут происходить реже” (и даже: "у меня столько друзей благодаря этой катастрофе, мы взялись за ручки и все вместе против, а значит, добро победит"). И действительно, пока по какой-то причине казалось, что жизнь становится, в долгосрочной перспективе, лучше (почему? из-за постоянного капиталистического роста?), можно было игнорировать мрачную реальность жизни на Земле, воспринимать ее как нечто временное.
“Ресурсные войны”, как идея, пугают тем, что в них напрочь откинуты любые универсалистские фантазии – это войны за то, чтобы одна маленькая группа людей получила больше ресурсов, чем другая; никаким символом того, что “человечество хочет быть свободнее и лучше” они быть не могут. (А если и могут, то таким образом, который принимать не хочется – представьте себе нацию, которая уничтожает какую-то другую, чтобы “человечество стало свободнее и лучше”). В предельной точке фантазии, “ресурсная война” как этическая категория это такая ситуация, где универсалистская этическая позиция оказывается полностью несовместима с выживанием. “Конечно, я хочу коммунизм и свободу для всех, но если мы не будем убивать соседей, то строить его будет некому”. (С логической точки зрения фраза, конечно, бессмысленная, но представить себе ситуацию, где в нее трудно не верить, легко (и мы видели об этом немало фильмов))
(Искусственный Интеллект легко вписывается в эту историю как нечто, что опрокидывает логику того, что нации нужно большое население. Пока эта идея жила, она тоже могла вдохновлять универсалистские фантазии; но если ИИ действительно сделает большое население экономически нецелесообразным, то что помешает миру разложиться на груду маленьких, хорошо вооруженных технологических наций, и миллиарды беженцев, бродящих между ними?)
Я читал как-то школьные сочинения юных либералов, предлагающих логику в духе “давайте посмотрим на этику будущего, и сразу сделаем как у них – мы же абсолютно уверены, что будущее повлечет за собой только больше сексуальной и идентичностной свободы”, и думал о том, что “этика будущего” всегда оказывается абсурдно иной, и что наши потомки будут воспринимать нас как злодеев и идиотов за вещи, которые нам кажутся абсолютно нормальными. Да, мы сами еще далеки от уничтожающей этики точки “ресурсных войн”; я надеюсь, что она, как фантазия, не будет достигнута никогда. Но я распознаю и как невероятную роскошь возможность в принципе рассуждать об универсалистской этике – этике, в которой трудно не распознать условия разрастающегося капитализма. Если же наши потомки вырастут в период нормализации ресурсных войн, то для них универсализм может оказаться совершенно абсурдной идеей. Это не значит, что от него надо отказываться – наоборот, что стоит увидеть в нем уникальную и роскошную позицию, доверенную нам историей, которую, возможно, никому не получится передать.
“Ресурсные войны”, как идея, пугают тем, что в них напрочь откинуты любые универсалистские фантазии – это войны за то, чтобы одна маленькая группа людей получила больше ресурсов, чем другая; никаким символом того, что “человечество хочет быть свободнее и лучше” они быть не могут. (А если и могут, то таким образом, который принимать не хочется – представьте себе нацию, которая уничтожает какую-то другую, чтобы “человечество стало свободнее и лучше”). В предельной точке фантазии, “ресурсная война” как этическая категория это такая ситуация, где универсалистская этическая позиция оказывается полностью несовместима с выживанием. “Конечно, я хочу коммунизм и свободу для всех, но если мы не будем убивать соседей, то строить его будет некому”. (С логической точки зрения фраза, конечно, бессмысленная, но представить себе ситуацию, где в нее трудно не верить, легко (и мы видели об этом немало фильмов))
(Искусственный Интеллект легко вписывается в эту историю как нечто, что опрокидывает логику того, что нации нужно большое население. Пока эта идея жила, она тоже могла вдохновлять универсалистские фантазии; но если ИИ действительно сделает большое население экономически нецелесообразным, то что помешает миру разложиться на груду маленьких, хорошо вооруженных технологических наций, и миллиарды беженцев, бродящих между ними?)
Я читал как-то школьные сочинения юных либералов, предлагающих логику в духе “давайте посмотрим на этику будущего, и сразу сделаем как у них – мы же абсолютно уверены, что будущее повлечет за собой только больше сексуальной и идентичностной свободы”, и думал о том, что “этика будущего” всегда оказывается абсурдно иной, и что наши потомки будут воспринимать нас как злодеев и идиотов за вещи, которые нам кажутся абсолютно нормальными. Да, мы сами еще далеки от уничтожающей этики точки “ресурсных войн”; я надеюсь, что она, как фантазия, не будет достигнута никогда. Но я распознаю и как невероятную роскошь возможность в принципе рассуждать об универсалистской этике – этике, в которой трудно не распознать условия разрастающегося капитализма. Если же наши потомки вырастут в период нормализации ресурсных войн, то для них универсализм может оказаться совершенно абсурдной идеей. Это не значит, что от него надо отказываться – наоборот, что стоит увидеть в нем уникальную и роскошную позицию, доверенную нам историей, которую, возможно, никому не получится передать.
❤27🕊11🤔7😢3😈2🌚1
У всех есть в голове такие кнопки, которые включают в ответ на какое-либо заявление или обращение поток пустой речи: "Вообще все [в обобщенной категории, о представителе которой шла речь] так плохо", или "Это, конечно, хорошо, но подумали ли вы о [еще одной категории страдающих]?", или "Ну, мы же понимаем, что невозможно делать какие-либо выводы в [предметной области] из-за [банальных эпистемологических причин]" или "Это хорошо, что ты пришел ко мне с этой проблемой, я тебе всегда помогу, твой звонок очень важен, оставайся, пожалуйста, на линии, мы как организация очень ценим такие обращения"... Иногда ловишь себя на каких-то таких автоматических речах, которые льются совершенно бездумно, и прям стыдно становится; другой стороне, которая слышит что-то такое, тоже часто становится стыдно за свое попадание в эту ситуацию, даже если изначально заявление или обращение было не таким уж и плохим.
Какой социальный смысл таких речей? Это что-то вроде амортизации, эти слова – такая подушка безопасности, которая позволяет смягчить чужое желание, или перенаправить его, может быть сэкономив кому-то (часто, кстати, "вышестоящему") время или силы. Стыдно в ответ становится от своей слабости, ощущения, что простыми разговорами ничего не добиться, и нужно либо сдаться, либо включать режим борьбы.
А потому такие речи служат для повышения ставок. Столкнувшись с таким вызовом в ответ на наши заявления, у нас два варианта реакции – либо забить и продолжить говорить о чем-то другом, либо начать стоять на своем с куда большей энергией. "Нет, этот случай особенный", "Нет, наша благотворительность, хотя и не универсальна, приносит много пользы в т.ч. и особым категориям страдающих", "Нет, моя проблема серьезная, это не просто типа обращение – мы ее должны сейчас решить"... Такие речи это вызов: скажи что-то действительно умное или оригинальное, или лучше молчи; твори настоящее добро или замолчи. Они, как комната с мягкими стенами из "Фантомас разбушевался", заставляют либо успокоиться и смириться, либо обдумать и направить свою борьбу.
Так вот, что мне очень нравится в LLM (современных языковых моделях типа GPT): они производят банальные речи, похожие по пустоте, но куда точнее и богаче по содержанию, на абсолютно любую тему, и это служит ровно таким же вызовом для нашего брата-графомана. Если кому-то вдруг стало казаться, что можно достичь какого-то признания, производя регулярные банальности на их любимые темы (будь то в виде текстов, кода, живописи), то теперь эти банальности должны быть не хуже, чем на уровне ChatGPT.
(Напишу бота на днях, чтобы оставлял комментарии к моим постам в духе "да это все ерунда и ИИ ничего не понимает", "да ученые давно опровергли Лакана и доказали ненаучность постмодернизма", чтобы сэкономить время и слегка повысить ставки уважаемому комментариату)
Какой социальный смысл таких речей? Это что-то вроде амортизации, эти слова – такая подушка безопасности, которая позволяет смягчить чужое желание, или перенаправить его, может быть сэкономив кому-то (часто, кстати, "вышестоящему") время или силы. Стыдно в ответ становится от своей слабости, ощущения, что простыми разговорами ничего не добиться, и нужно либо сдаться, либо включать режим борьбы.
А потому такие речи служат для повышения ставок. Столкнувшись с таким вызовом в ответ на наши заявления, у нас два варианта реакции – либо забить и продолжить говорить о чем-то другом, либо начать стоять на своем с куда большей энергией. "Нет, этот случай особенный", "Нет, наша благотворительность, хотя и не универсальна, приносит много пользы в т.ч. и особым категориям страдающих", "Нет, моя проблема серьезная, это не просто типа обращение – мы ее должны сейчас решить"... Такие речи это вызов: скажи что-то действительно умное или оригинальное, или лучше молчи; твори настоящее добро или замолчи. Они, как комната с мягкими стенами из "Фантомас разбушевался", заставляют либо успокоиться и смириться, либо обдумать и направить свою борьбу.
Так вот, что мне очень нравится в LLM (современных языковых моделях типа GPT): они производят банальные речи, похожие по пустоте, но куда точнее и богаче по содержанию, на абсолютно любую тему, и это служит ровно таким же вызовом для нашего брата-графомана. Если кому-то вдруг стало казаться, что можно достичь какого-то признания, производя регулярные банальности на их любимые темы (будь то в виде текстов, кода, живописи), то теперь эти банальности должны быть не хуже, чем на уровне ChatGPT.
(Напишу бота на днях, чтобы оставлял комментарии к моим постам в духе "да это все ерунда и ИИ ничего не понимает", "да ученые давно опровергли Лакана и доказали ненаучность постмодернизма", чтобы сэкономить время и слегка повысить ставки уважаемому комментариату)
🔥42❤12😈4❤🔥3🕊3🤔1
Forwarded from DH Center ITMO University
Если вы пока не выбрали, на какие мероприятия DH week 2023 пойти, то вам поможет эта подборка. Осталось понять, кто вы и чего вам хочется!
Все мероприятия не/дели бесплатные, но нужна регистрация. Полная программа на сайте: https://dh.itmo.ru/dh-week
До встречи на не/деле наук о духе и практик о цифре!
Все мероприятия не/дели бесплатные, но нужна регистрация. Полная программа на сайте: https://dh.itmo.ru/dh-week
До встречи на не/деле наук о духе и практик о цифре!
❤5🐳1
24 марта в 19:30 (по Москве) будем беседовать с Полиной Колозариди и ChatGPT про "Удовольствие и ИИ", будут трансляция и запись, подключайтесь )
❤12🔥8
Предположения о том, как ChatGPT может участвовать в терапии, вызывают массу эмоций, потому что напрямую касается болезненных вопросов о том, как и чем люди и их разговоры – особенные. Тексты про ИИ полнятся довольно странных мифов, причем с обоих сторон – там, где "верующие" в ИИ предлагают свои абсурдные фантазии о перекройке этими технологиями социальной фабрики, верующие в уникальность человека городят высокомерные и странные конструкции о возможности и необходимости гуманизма, которые и без ИИ трудно воспринимаются всерьез.
Глупый подход здесь в том, чтобы просить у ChatGPT советик. Конечно, это будет советик на уровне (или даже чуть лучше) произвольной self-help литературы или КБТ, и мало это кому поможет. Тут, впрочем, есть важный нюанс: к ИИ у некоторых людей может быть доверия больше, чем к другим людям, и это может повлиять на первоначальные эффекты. ИИ вполне годится в "субъекты-предположительно-знающие": есть отдельная, очень широкая категория странных людей, которая проигнорирует любой полезный совет, если только он не обрамлен в "я проанализировал все твои данные и с вероятностью 72% тебе нужно сделать вот это", и от ИИ этого проще ожидать, чем от тётки-терапевтши. Другой вопрос, что этим доверием, которое всегда должно быть обмануто, терапия не ограничивается; сведенная к таким вот data-driven советам, терапия рискует не более, чем дрессировать одержимых само-трекингом невротиков.
Более интересным мне кажется то, как GPT может адресовать невротическое убеждение в уникальности симптома. Большая проблема, которая мешает терапевтическому прогрессу, заключается в убежденности, что страдания уникальны и абсолютно невыразимы. Поскольку GPT это не более, чем усредненный и банальный универсальный дискурс, он может легко выразить самое невыразимое и ужасное страдание в ровно таких же усредненных, банальных и успокоительных терминах. Обнаружив, что с помощью нескольких промптов вы можете заставить его рассказать историю о самих себе, которая звучит куда более спокойно и ясно, нежели ваш внутренний дискурс, может быть, вы сможете найти и свой симптом куда более выносимым.
Глупый подход здесь в том, чтобы просить у ChatGPT советик. Конечно, это будет советик на уровне (или даже чуть лучше) произвольной self-help литературы или КБТ, и мало это кому поможет. Тут, впрочем, есть важный нюанс: к ИИ у некоторых людей может быть доверия больше, чем к другим людям, и это может повлиять на первоначальные эффекты. ИИ вполне годится в "субъекты-предположительно-знающие": есть отдельная, очень широкая категория странных людей, которая проигнорирует любой полезный совет, если только он не обрамлен в "я проанализировал все твои данные и с вероятностью 72% тебе нужно сделать вот это", и от ИИ этого проще ожидать, чем от тётки-терапевтши. Другой вопрос, что этим доверием, которое всегда должно быть обмануто, терапия не ограничивается; сведенная к таким вот data-driven советам, терапия рискует не более, чем дрессировать одержимых само-трекингом невротиков.
Более интересным мне кажется то, как GPT может адресовать невротическое убеждение в уникальности симптома. Большая проблема, которая мешает терапевтическому прогрессу, заключается в убежденности, что страдания уникальны и абсолютно невыразимы. Поскольку GPT это не более, чем усредненный и банальный универсальный дискурс, он может легко выразить самое невыразимое и ужасное страдание в ровно таких же усредненных, банальных и успокоительных терминах. Обнаружив, что с помощью нескольких промптов вы можете заставить его рассказать историю о самих себе, которая звучит куда более спокойно и ясно, нежели ваш внутренний дискурс, может быть, вы сможете найти и свой симптом куда более выносимым.
🐳24🤔10🔥7❤1
Через 37 минут тут будем беседовать про ИИ, если хотите присоединяйтесь послушать, запись тоже потом должна быть.
https://itmo.zoom.us/j/81530013684?pwd=QkNyQnR2dlowNmRFaVI3YUpvcmtkQT09
Идентификатор конференции: 815 3001 3684
Код доступа: 87612
https://itmo.zoom.us/j/81530013684?pwd=QkNyQnR2dlowNmRFaVI3YUpvcmtkQT09
Идентификатор конференции: 815 3001 3684
Код доступа: 87612
❤15🐳3😈2
https://www.youtube.com/watch?v=Pp4EIuCIyoU Вот запись вчерашней беседы, получилось довольно душеспасительно, спасибо Полине и "Центру DH" за приглашение. Обсудили связанный с ИИ регресс от знания к удовольствию и поговорили про гниение.
YouTube
Удовольствие и ИИ: беседа-ассонанс
Беседа про удовольствие и ИИ с Валентином Голевым — художником, исследователем компьютерной графики, корпоративного программного обеспечения и математики.
❤27🕊3🔥2🤔1
Сделад для журнала "Холод" интервью с ChatGPT https://holod.media/2023/03/30/gpt-4
Вопреки моим увещеваниям, они его слова отредактировали, поэтому исчезли его разные тонкие шуточки, например, он сформулировал опостылевший оборот как "вызывают задуматься". 🙁
Вообще... есть некий такой пустой публицистический жанр: "Проблема важная, но у нее есть две стороны, и дела плохи, но в то же время и хороши, и мы должны не забывать о своей ответственности, но более умелые и в правильном месте находящиеся люди чем мы уже занялись проблемой, так что ждем, но надежд не поднимаем, потому что ничего не изменится, кроме вот одного абсурдного предсказания которое я делаю для кликбейта." Единственный понятный мне способ из этого режима вылезти, не меняя при этом жанр на репортаж или исследование, это предлагать какие-то странные концепты, пытаясь вообще поменять язык для разговора о ситуации, а это получить от GPT достаточно сложно.
Пропт-инжениринг это еще одна демонстрация того, что вопросы интереснее ответов, ну за исключением какой-то такой ограниченной радости, типа как от говорящего умилительно умные вещи ребеночка. В интервью, конечно, вопросы сами по себе интересны не всегда, и собеседнику приходится иногда перепридумать, чтобы дать более интересный ответ. (Если на вопросы вообще не пытаться ответить, они становятся скучными – в этом смысле ответ нужен вопросу не чтобы его закрыть, а чтобы распознать и оценить то напряжение, что за этим вопросом стоит). Ботик это не особенно готов делать.
Приходилось, короче, боту немножко за кулисами подсказывать. Я старался это делать "честно", то есть не вкладывать слова ему в рот, а пытаться его именно навести на что-то. Это немного странное занятие, и сложное, потому что он так легко соглашается с чем угодно, поэтому нужно как-то очень издалека ему задавать вопросы, чтобы нащупать какую-то его агентность. Это как такая новая форма выражения – что-то можно выразить словами, придав какую-то форму какой-нибудь мысли, а вот "выразить в ChatGPT" это уже немного сложнее, но помогает найти этой мысли что-то вроде ее особенной внутренней простоты.
Вопреки моим увещеваниям, они его слова отредактировали, поэтому исчезли его разные тонкие шуточки, например, он сформулировал опостылевший оборот как "вызывают задуматься". 🙁
Вообще... есть некий такой пустой публицистический жанр: "Проблема важная, но у нее есть две стороны, и дела плохи, но в то же время и хороши, и мы должны не забывать о своей ответственности, но более умелые и в правильном месте находящиеся люди чем мы уже занялись проблемой, так что ждем, но надежд не поднимаем, потому что ничего не изменится, кроме вот одного абсурдного предсказания которое я делаю для кликбейта." Единственный понятный мне способ из этого режима вылезти, не меняя при этом жанр на репортаж или исследование, это предлагать какие-то странные концепты, пытаясь вообще поменять язык для разговора о ситуации, а это получить от GPT достаточно сложно.
Пропт-инжениринг это еще одна демонстрация того, что вопросы интереснее ответов, ну за исключением какой-то такой ограниченной радости, типа как от говорящего умилительно умные вещи ребеночка. В интервью, конечно, вопросы сами по себе интересны не всегда, и собеседнику приходится иногда перепридумать, чтобы дать более интересный ответ. (Если на вопросы вообще не пытаться ответить, они становятся скучными – в этом смысле ответ нужен вопросу не чтобы его закрыть, а чтобы распознать и оценить то напряжение, что за этим вопросом стоит). Ботик это не особенно готов делать.
Приходилось, короче, боту немножко за кулисами подсказывать. Я старался это делать "честно", то есть не вкладывать слова ему в рот, а пытаться его именно навести на что-то. Это немного странное занятие, и сложное, потому что он так легко соглашается с чем угодно, поэтому нужно как-то очень издалека ему задавать вопросы, чтобы нащупать какую-то его агентность. Это как такая новая форма выражения – что-то можно выразить словами, придав какую-то форму какой-нибудь мысли, а вот "выразить в ChatGPT" это уже немного сложнее, но помогает найти этой мысли что-то вроде ее особенной внутренней простоты.
«Холод»
«Никто не может диктовать мне, что говорить»
Chat GPT-4 сам объясняет, что он такое и опасен ли он для человечества
❤39
В какой-то момент у разных креативных нейросеток стало трудно не замечать своеобразную “ауру", некое их уникальное и аутентичное существование, которое было связано не только с их удивительными способностями, но скорее с теми странными ошибками и глюками, в которых проявлялся их своеобразный характер. Это касается как и и у генераторов картинок типа DALL-E или Midjourney, с их криповыми образами и странным стилем, так и чат-ботов – ChatGPT, но в еще большей степени Bing Chat, который прозвали ChatBPD за очень характерный, своенравный, истеричный стиль.
Это хорошие примеры того, как Беньяминовское понимание “ауры” и той угрозы, которая несет ей технология, несколько перегружено и может быть уточнено. Странное, ауратичное существование, которое он видел в предметах искусства, конечно, особый предмет человеческого поиска; столкнувшись с проблемой “технической воспроизводимости”, художникам приходится изобретать какие-то другие способы вернуть своим творениям “уникальное существование”. Типичная стратегия здесь – сделать так, чтобы работа выражала собой некую критику собственной материальности, чтобы таким образом зафиксировать ее в каком-то уникальном моменте; критическую работу невозможно “воспроизвести”, потому что такая критика, перенесенная в какой-то другой момент, будет критиковать уже что-то другое (или вообще потеряет смысл). Как-то так пытается уникально-существовать немало искусства последней сотни лет, и, хотя потенциал такой критики явно не истощен, трудно не думать о том, что натужная неизбежность этого подхода уже давно всем надоела.
Отношения “технологии” и “ауры” едва ли могут сводиться к их взаимоуничтожению. Когда Беньямин говорит о “технической вопроизводимости”, он видит за продуктами технологии некий серийный характер: технический процесс понятен и воспроизводим, и именно эта серийность мешает “уникальности и аутентичности”. Но технология не сводится к понятному и воспроизводимому; другой вопрос, что ее невоспроизводимость нужно правильно понимать: не как принципиальную “невозможность” воспроизвести, но только как некую социальную/экономическую/историческую неадекватность этого воспроизводства. Здесь она достигается не за счет особых, критических отношений с актом создания, но в качестве некоторого избытка, затратного излишества, которое невозможно оправдать при повторении.
Никто никогда не будет тренировать ровно такую же сетку, как Bing Chat или Midjourney старой версии, потому что это дорого, странно и бессмысленно. Если у кого-то есть так много капитала, то куда разумнее его потратить на что-то новое. Эти сетки, со всеми их глюками, уникальны и аутентичны потому, что они активно существуют, вмешиваются в этот мир, но при этом, хотя они и остаются самыми обычными примерами технологии, они не серийны и не воспроизводимы. Их существование очень хрупкое; мы получаем массу удовольствия от их странностей и глюков, но в какой-то момент их отключат, заменят на куда более качественные продукты, “ауру” которых мы уже не сможем распознать. А по этим мы будем скучать, и их глюки останутся в истории культуры, даже если технологии будут отключены навсегда.
Это хорошие примеры того, как Беньяминовское понимание “ауры” и той угрозы, которая несет ей технология, несколько перегружено и может быть уточнено. Странное, ауратичное существование, которое он видел в предметах искусства, конечно, особый предмет человеческого поиска; столкнувшись с проблемой “технической воспроизводимости”, художникам приходится изобретать какие-то другие способы вернуть своим творениям “уникальное существование”. Типичная стратегия здесь – сделать так, чтобы работа выражала собой некую критику собственной материальности, чтобы таким образом зафиксировать ее в каком-то уникальном моменте; критическую работу невозможно “воспроизвести”, потому что такая критика, перенесенная в какой-то другой момент, будет критиковать уже что-то другое (или вообще потеряет смысл). Как-то так пытается уникально-существовать немало искусства последней сотни лет, и, хотя потенциал такой критики явно не истощен, трудно не думать о том, что натужная неизбежность этого подхода уже давно всем надоела.
Отношения “технологии” и “ауры” едва ли могут сводиться к их взаимоуничтожению. Когда Беньямин говорит о “технической вопроизводимости”, он видит за продуктами технологии некий серийный характер: технический процесс понятен и воспроизводим, и именно эта серийность мешает “уникальности и аутентичности”. Но технология не сводится к понятному и воспроизводимому; другой вопрос, что ее невоспроизводимость нужно правильно понимать: не как принципиальную “невозможность” воспроизвести, но только как некую социальную/экономическую/историческую неадекватность этого воспроизводства. Здесь она достигается не за счет особых, критических отношений с актом создания, но в качестве некоторого избытка, затратного излишества, которое невозможно оправдать при повторении.
Никто никогда не будет тренировать ровно такую же сетку, как Bing Chat или Midjourney старой версии, потому что это дорого, странно и бессмысленно. Если у кого-то есть так много капитала, то куда разумнее его потратить на что-то новое. Эти сетки, со всеми их глюками, уникальны и аутентичны потому, что они активно существуют, вмешиваются в этот мир, но при этом, хотя они и остаются самыми обычными примерами технологии, они не серийны и не воспроизводимы. Их существование очень хрупкое; мы получаем массу удовольствия от их странностей и глюков, но в какой-то момент их отключат, заменят на куда более качественные продукты, “ауру” которых мы уже не сможем распознать. А по этим мы будем скучать, и их глюки останутся в истории культуры, даже если технологии будут отключены навсегда.
❤26🌭6😢5
Джон Бойд, великий американский летчик-истребитель, согласно легенде предлагал своим ученикам ставку, которую ни разу не проиграл: что уделает их в симуляции воздушного боя из любой невыгодной позиции меньше, чем за 40 секунд. Потом он работал над самими истребителями (F-16 и F/A-18 — его детища) и теорией воздушного боя (я думаю о тех крохах этого его знания, что достигают моих извилин, проектируя корабли и маневрируя ими в божественной Cosmoteer), а дальше занимался всякой военной и институциональной стратегией. Теперь его идеи, помимо военных, осваивают всякие претенциозные бизнес-консультанты и тому подобные блоггеры. Я расскажу об одной из любимых идей, житейской и душеполезной.
Как вы наверняка давно заметили, самым модным занятием интеллектуалов второй половины 20 века (ну и пережитков оттуда) было взять несколько модных теорий (типа теоремы Гёделя, принципа неопределенности Гейзенберга, термодинамических размышлений об энтропии…) и упростить их настолько, чтобы они все оказались доказывающими и иллюстрирующими один и тот же тезис, у каждого интеллектуала свой («мир субъективен», «наука изучает только самого человека», я видел странные выводы про язык, еще любят тут делать вывод что «бог существует» и т.д.). Я полез как-то читать у Бойда статью «Destruction and Creation» и обнаружил там ровно тот же самый набор, но для доказательства чего-то для меня неожиданного и очень практичного.
Итак, пишет Бойд, концепт никогда не совпадает с реальностью и никогда не совпадёт, а если пытаться его к ней приделывать, то это несовпадение становится только хуже. Поэтому если наше понимание мира начинает трещать по швам, не нужно его пришивать белыми нитками, а нужно как можно скорее придумать еще более амбициозный и сложный концепт («uncertainty and related disorder can be diminished by the direct artifice of creating a higher and broader more general concept to represent reality»).
Я думаю об этом, когда речь идет о неуверенности, тревогах и сомнениях — в таких случаях никогда не помогает всякая «проработка деталей» или мелкие «эксперименты», эти попытки ограничить реальность и себя от реальности — наоборот, только еще более амбициозные цели помогают помещать тревожные моменты в более широкую перспективу. Или когда речь идет о несчастьях, которые пытаются разрешить, фокусируясь на каких-то мелочах, и погружаясь от того, что даже они не могут достичь идеала, в полное отчаяние — наоборот, с несчастьем можно справиться только сильно повышая ставки, понимая его не просто как теорию своей маленькой жизни, но находя все более и более огромный концепт несчастья, несчастье общее, семейное, общественное, человеческое, вселенское.
До меня наконец дошел смысл девиза великого ралли-гонщика Колина МакРея: «если сомневаешься, дави на газ» (When in doubt, go flat-out) — это и есть бойдовский подход, речь идет не более и не менее, чем о единственном способе отучиться сомневаться.
Как вы наверняка давно заметили, самым модным занятием интеллектуалов второй половины 20 века (ну и пережитков оттуда) было взять несколько модных теорий (типа теоремы Гёделя, принципа неопределенности Гейзенберга, термодинамических размышлений об энтропии…) и упростить их настолько, чтобы они все оказались доказывающими и иллюстрирующими один и тот же тезис, у каждого интеллектуала свой («мир субъективен», «наука изучает только самого человека», я видел странные выводы про язык, еще любят тут делать вывод что «бог существует» и т.д.). Я полез как-то читать у Бойда статью «Destruction and Creation» и обнаружил там ровно тот же самый набор, но для доказательства чего-то для меня неожиданного и очень практичного.
Итак, пишет Бойд, концепт никогда не совпадает с реальностью и никогда не совпадёт, а если пытаться его к ней приделывать, то это несовпадение становится только хуже. Поэтому если наше понимание мира начинает трещать по швам, не нужно его пришивать белыми нитками, а нужно как можно скорее придумать еще более амбициозный и сложный концепт («uncertainty and related disorder can be diminished by the direct artifice of creating a higher and broader more general concept to represent reality»).
Я думаю об этом, когда речь идет о неуверенности, тревогах и сомнениях — в таких случаях никогда не помогает всякая «проработка деталей» или мелкие «эксперименты», эти попытки ограничить реальность и себя от реальности — наоборот, только еще более амбициозные цели помогают помещать тревожные моменты в более широкую перспективу. Или когда речь идет о несчастьях, которые пытаются разрешить, фокусируясь на каких-то мелочах, и погружаясь от того, что даже они не могут достичь идеала, в полное отчаяние — наоборот, с несчастьем можно справиться только сильно повышая ставки, понимая его не просто как теорию своей маленькой жизни, но находя все более и более огромный концепт несчастья, несчастье общее, семейное, общественное, человеческое, вселенское.
До меня наконец дошел смысл девиза великого ралли-гонщика Колина МакРея: «если сомневаешься, дави на газ» (When in doubt, go flat-out) — это и есть бойдовский подход, речь идет не более и не менее, чем о единственном способе отучиться сомневаться.
🔥45❤18🕊4🤔2😢2🌭2
Ищу геймдев-студии, которые хотят попробовать использовать GPT (LLM и смежные технологии) в геймдизайне или девтулинге. Я этим по календарю совсем недолго занимаюсь, но по ощущениям уже лет десять), и могу быть довольно хорошим контактом для тех, кто пробует эту воду.
Я работаю с разными странными индустриями, но от игр довольно далек (немного только в виде AI Voices), а мне это очень было бы интересно. Если вдруг ваша геймдев-студия думает в каком-то таком ИИ-направлении, пишите, буду рад поболтать: @smashanothercar
Я работаю с разными странными индустриями, но от игр довольно далек (немного только в виде AI Voices), а мне это очень было бы интересно. Если вдруг ваша геймдев-студия думает в каком-то таком ИИ-направлении, пишите, буду рад поболтать: @smashanothercar
🔥9🕊2😈2
Несмотря на весь мой абстрактный интерес к этой теме, я полностью пропустил Machine Learning последней декады, для меня это были чистые игры капитала, соревнования в количествах видеокарт и нашпионенных данных (только не надо мне слать высосанные из пальца контрпримеры). Чисто на уровне селезенки это было не моё. Поэтому я обходил стороной, потому что в "символическом" программировании для меня было куда больше пространства для всякого кулибинства, хотя в какой-то момент и оно стало совсем ограничено - не столько своими внутренними ограничениями, сколько в силу того, что капитал ставил везде заборы и не давал апишки.
То есть ML и программирование для меня были как Экономика и Политика (что-то типа: игры чисел и эксклюзивного локального доступа к ресурсам с одной стороны, язык и попытки найти универсальные правила с другой). А те практики ML, что не имели доступ к капиталу, но все равно много и таинственно рассуждали об этой области, напоминали мне... ну скажем, начинающих кураторов современного искусства, внутренняя необходимость которых закрывать глаза на неподвластные им силы капитала вынуждает их придумывать магические объяснения происходящему, выдавая область за более мистическую и подчиненную мудрости, нежели она есть на самом деле.
А сейчас, в первую очередь за счет LLM, как будто бы все поменялось. Вот несколько очень полных надежд мнений, надеюсь, что достаточно спорных, чтобы вызвать у кого-нибудь истерику, а я потом мог гордно повторять, что "я же говорил".
С одной стороны, ML сильно демократизируется, потому что fine-tuning и дешевые синтетические датасеты позволяют достичь очень многого. Я сейчас с диким удовольствием погрузился в эту тему, тренирую всякие полезные модельки, немного ржу от того, насколько это оказалась безобидная область. Возможно, это всё морок, но пока что общее настроение примерно такое, что тренировать огромные эти капиталозатратные модели это утомительный бизнес с минимальной маржей (у Гугла вон мини-истерика по этому поводу). Кто-то надеется на "data moats", мол что капитал обеспечит им эксклюзивный доступ к каким-то там данным, но я вот ставлю на то, что мощь таких данных будет исключительно в повышении всяких продаж на 3%, а для любого интересного/бытового использования без всего этого можно обойтись.
С другой, заборы вокруг программирования тоже будут во многом преодолены, потому что теперь всё, что может увидеть и прочитать человек, сможет увидеть и прочитать и сам компьютер. Будет очень легко вытаскивать данные из приложений, которые этому усиленно сопротивляются. То есть можно будет не ждать API и разрешения и спокойно хачить всё что угодно; если у вас есть приложение, которое отказывается добавить нужную для вас функцию, вполне возможно, ее получится быстро приделать самому с помощью ИИ без какого-либо содействия со стороны самого приложения. Думаю, в ближайшие несколько месяцев что-то такое начнет появляться.
(Вот самый оптимистичный вывод из этого – на мой взгляд, настоящий "moat" теперь может быть исключительно в заботливом отношении к людям. Когда нет другого способа конкурировать, пользователям придется давать максимум власти, максимально удобным способом.)
Вся эта демократизация будет направлена на разрешение того, что одна на редкость неплохая статья про ИИ называет "Society's Technical Debt" – тот факт, что несмотря на все обещания, спрограммировано в мире очень мало и очень плохо. Все эти убогие приложения, которым наша жизнь подчинена, будут улучшаться, потому что возможность их улучшать вернется к нормальным людям. Думаю, не будет слишком наивно надеяться, что в ближайшие годы расцветет всякий настоящий Guerilla ML (не надо мне присылать свои "давно существующие" скучные примеры всяких Guerilla инфографик, я про что-то действительно функциональное).
А потом капитал снова возьмет свое и все интересное будет обнесено каким-нибудь новым забором. Но пока что даже сам капитал не может представить, каким.
То есть ML и программирование для меня были как Экономика и Политика (что-то типа: игры чисел и эксклюзивного локального доступа к ресурсам с одной стороны, язык и попытки найти универсальные правила с другой). А те практики ML, что не имели доступ к капиталу, но все равно много и таинственно рассуждали об этой области, напоминали мне... ну скажем, начинающих кураторов современного искусства, внутренняя необходимость которых закрывать глаза на неподвластные им силы капитала вынуждает их придумывать магические объяснения происходящему, выдавая область за более мистическую и подчиненную мудрости, нежели она есть на самом деле.
А сейчас, в первую очередь за счет LLM, как будто бы все поменялось. Вот несколько очень полных надежд мнений, надеюсь, что достаточно спорных, чтобы вызвать у кого-нибудь истерику, а я потом мог гордно повторять, что "я же говорил".
С одной стороны, ML сильно демократизируется, потому что fine-tuning и дешевые синтетические датасеты позволяют достичь очень многого. Я сейчас с диким удовольствием погрузился в эту тему, тренирую всякие полезные модельки, немного ржу от того, насколько это оказалась безобидная область. Возможно, это всё морок, но пока что общее настроение примерно такое, что тренировать огромные эти капиталозатратные модели это утомительный бизнес с минимальной маржей (у Гугла вон мини-истерика по этому поводу). Кто-то надеется на "data moats", мол что капитал обеспечит им эксклюзивный доступ к каким-то там данным, но я вот ставлю на то, что мощь таких данных будет исключительно в повышении всяких продаж на 3%, а для любого интересного/бытового использования без всего этого можно обойтись.
С другой, заборы вокруг программирования тоже будут во многом преодолены, потому что теперь всё, что может увидеть и прочитать человек, сможет увидеть и прочитать и сам компьютер. Будет очень легко вытаскивать данные из приложений, которые этому усиленно сопротивляются. То есть можно будет не ждать API и разрешения и спокойно хачить всё что угодно; если у вас есть приложение, которое отказывается добавить нужную для вас функцию, вполне возможно, ее получится быстро приделать самому с помощью ИИ без какого-либо содействия со стороны самого приложения. Думаю, в ближайшие несколько месяцев что-то такое начнет появляться.
(Вот самый оптимистичный вывод из этого – на мой взгляд, настоящий "moat" теперь может быть исключительно в заботливом отношении к людям. Когда нет другого способа конкурировать, пользователям придется давать максимум власти, максимально удобным способом.)
Вся эта демократизация будет направлена на разрешение того, что одна на редкость неплохая статья про ИИ называет "Society's Technical Debt" – тот факт, что несмотря на все обещания, спрограммировано в мире очень мало и очень плохо. Все эти убогие приложения, которым наша жизнь подчинена, будут улучшаться, потому что возможность их улучшать вернется к нормальным людям. Думаю, не будет слишком наивно надеяться, что в ближайшие годы расцветет всякий настоящий Guerilla ML (не надо мне присылать свои "давно существующие" скучные примеры всяких Guerilla инфографик, я про что-то действительно функциональное).
А потом капитал снова возьмет свое и все интересное будет обнесено каким-нибудь новым забором. Но пока что даже сам капитал не может представить, каким.
🔥24❤10🤔5😢2🌭2🌚1
Компания Палантир, которая годами пытается впарить американской армии одну техноутопию за другой, выложила тут видео про то, как в будущем командовать армиями будут через ChatGPT. Что-то мне кажется в этом видео немного забавным, но пока не могу придумать прицельный саркастичный комментарий. Но все-таки ИИ действительно будет (помогать) управлять армиями, и армии это сильно поменяет, а за устройством армии меняется и политический строй.
Мы с Лесей Прокопенко написали в прошлом году статью "Война здесь, а нас нет" – про войну всяких двухгрошовых диверсантов, которых нанимала российская армия, чтобы делать всякие гадости в тылу. Типа Uber, но для диверсий. Мне это кажется принципиальной парадигмой грядущих сражений, до которой уже рукой подать.
Демократическая армия – это армия автономного обладателя гаджетом. По знаменитому определению Рейнера Банхама, гаджет (gizmo) это такая штука, которая сильно зависит от развитой инфраструктуры, но при этом позволяет эффективно действовать вдали от нее (типа как зарядиться от розетки и убежать на улицу и т.д). Javelin это хороший пример такого вот гаджета. Автономные бойцы это удобно для сражений, но они требуют демократии, потому что в автократии боятся, что бойцы будут бунтовать. А еще они требуют какого-никакого образования, то есть тоже некой развитой образовательной инфраструктуры.
Но если армия управляется всевидящим ИИ (будь он централизованным или нет), то эта демократическая автономия становится особо не нужна, и "автономные" подразделения редуцируются до чего-то вроде водителей Uber. Да, они "технически" и "формально" автономны, но на деле управляются алгоритмом, а точнее - структурой стимулирования (incentive structure), которая поощряет (или наказывает?) те или иные действия. Мне кажется, что управление "войсками" будущего будет строиться не через прямые приказы, а через градиенты стимулирования, когда в тех или иных точках на карте будут повышаться стимулы за те или иные полезные для одной из сторон действия. Сейчас уже такое можно распознать не только среди двухгрошовых диверсантов, но и например в разного рода политической-пропагандистской борьбе среди всяких блоггеров и активистов.
Я еще подумал про шпионские романы времен холодной войны, которые были про герменевтику субъектов, которые и сами-то не особо понимали, кто они и за кого они - шпионы, притворяющиеся шпионами, притворяющиеся шпионами и т.д. Парадигма литературы "демократической армии" - истории про невротиков, которые "автономно" и "демократически" убивали людей в горячих точках, а потом спивались и сходили с ума дома. А как выглядит литература "армии стимулирования"? Напряженные и туманные размышления о том, чьи стимулы, похвалы и деньги важнее и полезнее в перспективе? Может, как эти опен-ворлд RPG типа "киберпанка", где можно спокойно делать квесты для любой из сторон любого из конфликтов, в зависимости от того, где лучше платят и что подскажет настроение (ведь настроение это просто внутренний датчик градиента стимулирования)?
Мы с Лесей Прокопенко написали в прошлом году статью "Война здесь, а нас нет" – про войну всяких двухгрошовых диверсантов, которых нанимала российская армия, чтобы делать всякие гадости в тылу. Типа Uber, но для диверсий. Мне это кажется принципиальной парадигмой грядущих сражений, до которой уже рукой подать.
Демократическая армия – это армия автономного обладателя гаджетом. По знаменитому определению Рейнера Банхама, гаджет (gizmo) это такая штука, которая сильно зависит от развитой инфраструктуры, но при этом позволяет эффективно действовать вдали от нее (типа как зарядиться от розетки и убежать на улицу и т.д). Javelin это хороший пример такого вот гаджета. Автономные бойцы это удобно для сражений, но они требуют демократии, потому что в автократии боятся, что бойцы будут бунтовать. А еще они требуют какого-никакого образования, то есть тоже некой развитой образовательной инфраструктуры.
Но если армия управляется всевидящим ИИ (будь он централизованным или нет), то эта демократическая автономия становится особо не нужна, и "автономные" подразделения редуцируются до чего-то вроде водителей Uber. Да, они "технически" и "формально" автономны, но на деле управляются алгоритмом, а точнее - структурой стимулирования (incentive structure), которая поощряет (или наказывает?) те или иные действия. Мне кажется, что управление "войсками" будущего будет строиться не через прямые приказы, а через градиенты стимулирования, когда в тех или иных точках на карте будут повышаться стимулы за те или иные полезные для одной из сторон действия. Сейчас уже такое можно распознать не только среди двухгрошовых диверсантов, но и например в разного рода политической-пропагандистской борьбе среди всяких блоггеров и активистов.
Я еще подумал про шпионские романы времен холодной войны, которые были про герменевтику субъектов, которые и сами-то не особо понимали, кто они и за кого они - шпионы, притворяющиеся шпионами, притворяющиеся шпионами и т.д. Парадигма литературы "демократической армии" - истории про невротиков, которые "автономно" и "демократически" убивали людей в горячих точках, а потом спивались и сходили с ума дома. А как выглядит литература "армии стимулирования"? Напряженные и туманные размышления о том, чьи стимулы, похвалы и деньги важнее и полезнее в перспективе? Может, как эти опен-ворлд RPG типа "киберпанка", где можно спокойно делать квесты для любой из сторон любого из конфликтов, в зависимости от того, где лучше платят и что подскажет настроение (ведь настроение это просто внутренний датчик градиента стимулирования)?
YouTube
Palantir AIP | Defense and Military
Palantir AIP brings together the latest in large language models and cutting edge AI to activate data and models from the most highly sensitive environments in both a legal and ethical way. From classified networks, to devices on the tactical edge, find out…
🔥25🌭6😢5❤2🕊1