Forwarded from Start in AI Safety
Подборка онлайн и оффлайн сообществ
На сайте AI Safety.сom есть раздел Communities — подборка сообществ по всему миру, связанных с темой сейфети. Список большой и его держат в актуальном состоянии, последнее обновление было в начале месяца.
Что там:
Вы и так знаете, что сообщества — это встречи, хакатоны, партнёры для учёбы и карьеры, обсуждение новостей, в конце концов. Но многие недооценивают, как участие в группе помогает не выгореть и не потеряться.
Посмотрите, вдруг неподалеку от вас есть что-то интересное.
Если знаете классное AI safety сообщество, которого в этой подборке нет, можно написать авторам в Discord.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
Forwarded from Sasha Berezhnoi
🚀 Make your high-impact career pivot – https://www.effectivealtruism.org/courses/bootcamp
Буткемп который помогает найти high-impact careers подходящие под ваши скиллы и бэкграунд. Продолжительность – 4 дня по 6-8 часов.
Заявка занимает ~30 минут, податься можно до 14 сентября. Поделитесь с друзьями и коллегами, кому актуально.
Буткемп который помогает найти high-impact careers подходящие под ваши скиллы и бэкграунд. Продолжительность – 4 дня по 6-8 часов.
Заявка занимает ~30 минут, податься можно до 14 сентября. Поделитесь с друзьями и коллегами, кому актуально.
Effective Altruism
Make your high-impact career pivot | Effective Altruism
An online bootcamp to identify high-impact careers that match your skills, then build momentum for your next steps with exercises, advisor feedback, and peer accountability.
На канале Байесятина за последние два дня опубликованы две новых статьи.
Статья "Меня укусил рационалист" посвящена достаточно популярному сценарию, в котором человек, познакомившийся с какими-то трудами по скептицизму/критическому мышлению/рациональности начинает ими восхищаться настолько, что начинает совершать некоторые достаточно типичные ошибки. Одному из видов ошибок и посвящена статья.
В статье "Спорить бесполезно? Люди никогда не меняют своего мнения" автор исследует вопрос о том, насколько аргументированные споры меняют чужое мнение. (От себя замечу, что эта статья несколько сдвинула моё мнение по основному вопросу, однако, с моей точки зрения, этот вопрос гораздо более интересен деталями: спорить можно очень по-разному и ставить цели в споре тоже можно достаточно разные).
Статья "Меня укусил рационалист" посвящена достаточно популярному сценарию, в котором человек, познакомившийся с какими-то трудами по скептицизму/критическому мышлению/рациональности начинает ими восхищаться настолько, что начинает совершать некоторые достаточно типичные ошибки. Одному из видов ошибок и посвящена статья.
В статье "Спорить бесполезно? Люди никогда не меняют своего мнения" автор исследует вопрос о том, насколько аргументированные споры меняют чужое мнение. (От себя замечу, что эта статья несколько сдвинула моё мнение по основному вопросу, однако, с моей точки зрения, этот вопрос гораздо более интересен деталями: спорить можно очень по-разному и ставить цели в споре тоже можно достаточно разные).
👍17
Forwarded from Start in AI Safety
Self-study course from Non-trivial
Non-trivial выложил в открытый доступ онлайн-курс с громким названием "How to (actually) change the world". Название кликбейтное, но авторы подошли к теме со здоровой самоиронией, а к подбору материалов с должной аккуратность.
Ориентирован в первую очередь на школьников и студентов и посвящен эффективному выбору карьеры.
В общем для тех, кто хотел от научной карьеры не только стабильности и интересных задач, но и шанса оставить свой след в истории.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6
Новый перевод на сайте - эссе Элиезера Юдковского "Цель не оправдывает средства (среди людей)" из цепочки "Количественный гуманизм".
Спор о том, оправдывают ли цели средства, уже довольно стар. Однако, кажется, что ответ "не оправдывают" более популярен.
Эссе начинается с вопроса "Если не цель оправдывает средства, то что оправдывает?". Если мы хотим быть консеквенциалистами, то как цели могут не оправдывать средства?
Именно об этом Юдковский и рассуждает.
https://lesswrong.ru/5117
Спор о том, оправдывают ли цели средства, уже довольно стар. Однако, кажется, что ответ "не оправдывают" более популярен.
Эссе начинается с вопроса "Если не цель оправдывает средства, то что оправдывает?". Если мы хотим быть консеквенциалистами, то как цели могут не оправдывать средства?
Именно об этом Юдковский и рассуждает.
https://lesswrong.ru/5117
LessWrong на русском
Цель не оправдывает средства (среди людей)
> «Если не цель оправдывает средства, то что оправдывает?» > — приписывается разным источникам > > «Я рассматриваю себя как сущность, запущенную на враждебном оборудовании.» > — Джастин Корвин Я упоминал, что, возможно, у людей эволюционно появилась некая…
👍9
Этой осенью, как обычно, по всему миру пройдут встречи поклонников творчества Скотта Александера. Узнать, будет ли встреча где-то недалеко от вас, и когда и где именно она будет, можно по ссылке: https://www.astralcodexten.com/p/meetups-everywhere-2025-times-and
Astralcodexten
Meetups Everywhere 2025: Times and Places
...
👍3
https://www.youtube.com/watch?v=H9WJ1jnicq8
Доклад Романа Малова об инфрабайесианстве (https://www.lesswrong.com/w/infra-bayesianism) - новом подходе в эпистемологии и теории принятия решений, который развивается людьми с LW. В докладе описывается, что это, почему оно понадобилось, и где это предполагается применять.
Доклад Романа Малова об инфрабайесианстве (https://www.lesswrong.com/w/infra-bayesianism) - новом подходе в эпистемологии и теории принятия решений, который развивается людьми с LW. В докладе описывается, что это, почему оно понадобилось, и где это предполагается применять.
YouTube
Что такое инфрабайесианство? -- Роман Малов
Лекция от Романа Малова -- студента магистратуры в МФТИ, выпускника AI Safety Camp (исследовательская группа Абрама Демски), занимается техническим и концептуальным AI Safety, ведет канал Start in AI Sfety (https://t.iss.one/ai_safety_digest) и личный блог Healing…
👍6🤔1
Про нас внезапно написали в Forbes. Пока только в русскоязычном, впрочем, написали так, что, вероятно, лучше бы не писали вовсе. Основные темы: можно ли использовать мозг как компьютер и является ли LW культом.
Мой ответ получился несколько объёмным: https://telegra.ph/I-eshchyo-raz-o-tom-yavlyaetsya-li-LessWrong-kultom-09-18
Мой ответ получился несколько объёмным: https://telegra.ph/I-eshchyo-raz-o-tom-yavlyaetsya-li-LessWrong-kultom-09-18
Telegraph
Рационалисты: ответ на статью Forbes
В Forbes вчера вышла статья про сообщество рационалистов. Интересно, что когда меня просили дать интервью для написания этого текста, речь шла о достаточно малоизвестном ресурсе для начинающих журналистов. Однако, видимо, благодаря новой книге Юдковского…
2🤯15👍8😁6😢1
Как многие, наверное, уже знают, на этой неделе вышла новая книга Элиезера Юдковского "If Anyone Builds It, Everyone Dies". В связи с этим энтузиасты составили список способов, как можно заказать книгу для тех, кто живёт в России:
https://docs.google.com/document/d/10Luo48j7XvFtwaN7YaLRsfwYI3lGsz1ki6nGD6qSAv4/view
https://docs.google.com/document/d/10Luo48j7XvFtwaN7YaLRsfwYI3lGsz1ki6nGD6qSAv4/view
Google Docs
Инструкция: как в России заказать новую книгу Юдковского с Amazon
Если можете порекомендовать другие способы, напишите в нашем чате о печати ГПиМРМ. Ссылка на Amazon: amzn.to/4pnKLAW. Сотни человек думают похоже на вас; решение заказать книжки -> заказ сотен книжек. (Если вы заказали книжки, пожалуйста, расскажите нам об…
👍14
Новый перевод на сайте - юмористическая зарисовка Скотта Александера "Жития святых рационалистов". Автор в шуточной форме рассказывает, что считается добродетелями с точки зрения сообщества.
https://lesswrong.ru/5135
https://lesswrong.ru/5135
LessWrong на русском
Жития святых рационалистов
Св. Феликс во всеуслышание заявил, что с 79% вероятностью уверен в естественном происхождении COVID. Его доставили к императору, который угрозой смерти принуждал его обновиться до 100%. Когда св. Феликс отказался, император, впечатлённый такой принципиальностью…
👍8😁5
Forwarded from Start in AI Safety
Конкурс мемов и коротких видео
Мы описывали самые разные возможности в области ЕА и AI Safety, но эта пока самая неожиданная.
Премия «Existential Hope» приглашает авторов со всего интернета представить свои самые вдохновляющие, мотивационные и воспевающие прогресс мемы или короткие видео о победе над экзистенциальными рисками, технологическом будущем, глобальном сотрудничестве итд.
Формат работ:
Правила:
Как поучаствовать:
P.S. В жюри Стивен Пинкер...
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🤔3👎2
Forwarded from Start in AI Safety
менторское сопровождение в исследовательских и карьерных задачах
Sci.STEPS дают менторскую поддержку под широкий набор задач, связанных с научными и карьерными треками. Обязательных встреч с ментором немного: программа скорее про коммитмент и помощь в приоритизации. Подходит, напрмер, если вам нужно податься в PhD или магистратуру, собрать нормальное резюме или наконец-то сесть за ресёрч, но оно всё откладывается.
В этом сезоне много русскоговорящих менторов и много менторов из разных университетов мира. Если вы собираетесь поступать в один из них, то это хорошая возможность узнать про внутреннюю кухню академии в конкретном месте. Есть менторы по ML и AI Safety (их немного, но они есть, так что лучше заполнять заявки оперативно).
Что предоставляют:
Что можно делать в рамках программы:
Кого ждут (требования):
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7
Forwarded from Рациональный гуманист
Анонс: Честность vs Эффективность. Эфир со Славой Меритон
В последних постах я очень много говорил на тему инструментальной пользы уверенности. Некоторые преданные подписчики в комментариях справедливо замечали, что попытки «накачать» уверенность выглядят как самообман, искажающий карту реальности.
Действительно, есть ощущение конфликта между Эпистемической честностью (видеть мир таким, какой он есть) и Инструментальной эффективностью (действовать так, чтобы побеждать).
Чтобы разобраться, как это работает на самом деле, я решил позвать человека, который варится в контексте рациональности гораздо дольше меня и имеет свою позицию по теме.
В ближайший понедельник, 22 декабря в 19:00 по МСК, мы поговорим со Славой Меритон.
Слава — одна из заметных фигур в русскоязычном рациональном сообществе и у неё есть интересный взгляд на эту проблему, который немного перпендикулярен нашему спору. Её тезис примерно такой: пока одни ревностно высчитывают свои (обычно низкие) вероятности успеха, другие просто берут и делают.
Поговорим о том:
— Не становится ли сам подсчет вероятностей ловушкой, убивающей агентность?
— Где проходит граница между «полезным игнорированием сложностей» и глупостью?
— И насколько допустимо менять свою карту для того, чтобы быстрее добираться до пунктов назначения?
Формат:
Голосовой эфир прямо здесь, в канале. Мы начнем с диалога, но значительную часть времени уделим общению с вами. Так что приходите, задавайте вопросы, спорьте.
Запись, конечно, тоже сделаем и потом выложим на YouTube, но лучше быть онлайн, чтобы поучаствовать в дискуссии.
Ставьте напоминание: Понедельник, 22 декабря 19:00 МСК
В последних постах я очень много говорил на тему инструментальной пользы уверенности. Некоторые преданные подписчики в комментариях справедливо замечали, что попытки «накачать» уверенность выглядят как самообман, искажающий карту реальности.
Действительно, есть ощущение конфликта между Эпистемической честностью (видеть мир таким, какой он есть) и Инструментальной эффективностью (действовать так, чтобы побеждать).
Чтобы разобраться, как это работает на самом деле, я решил позвать человека, который варится в контексте рациональности гораздо дольше меня и имеет свою позицию по теме.
В ближайший понедельник, 22 декабря в 19:00 по МСК, мы поговорим со Славой Меритон.
Слава — одна из заметных фигур в русскоязычном рациональном сообществе и у неё есть интересный взгляд на эту проблему, который немного перпендикулярен нашему спору. Её тезис примерно такой: пока одни ревностно высчитывают свои (обычно низкие) вероятности успеха, другие просто берут и делают.
Поговорим о том:
— Не становится ли сам подсчет вероятностей ловушкой, убивающей агентность?
— Где проходит граница между «полезным игнорированием сложностей» и глупостью?
— И насколько допустимо менять свою карту для того, чтобы быстрее добираться до пунктов назначения?
Формат:
Голосовой эфир прямо здесь, в канале. Мы начнем с диалога, но значительную часть времени уделим общению с вами. Так что приходите, задавайте вопросы, спорьте.
Запись, конечно, тоже сделаем и потом выложим на YouTube, но лучше быть онлайн, чтобы поучаствовать в дискуссии.
Ставьте напоминание: Понедельник, 22 декабря 19:00 МСК
👍14
Глеб Горов, автор телеграм-канала "Рациональный Гуманист", выложил запись эфира со Славой Меритон по теме "Честность против эффективности".
Поскольку на выбор темы эфира в какой-то степени повлияли именно мои вопросы и замечания, немного напишу, что я по этому поводу думаю.
Я полностью согласен с тезисом, что не имеет никакого смысла тратить слишком много времени на вычисление шансов на успех. Если можно что-то быстро "взять и сделать", и потенциальные потери в случае неудачи не выглядят существенными, то, конечно, проще всего "взять и сделать".
Однако у меня сложилось впечатление, что участники эфира под оценкой шансов подразумевают что-то очень сложное и действительно малореалистичное. Я же скорее под оценкой шансов подразумеваю что-то вроде метода, упомянутого Элиезером Юдковским в "Лицензии героя":
Очевидно, что это очень неточный метод, и тем более он будет неточным для человека, который не "калибровался" в этой сфере (т.е. не записывал ранее своих предсказаний на эту тему и не оценивал результаты). Однако мне представляется, что, во-первых, начать калиброваться в этой области никогда не поздно, и это будет скорее полезно. Во-вторых, мне представляется, что даже из самых несовершенных интуитивных оценок на эту тему можно делать какие-то выводы.
Если вы ощущаете, что готовы поставить на свой успех 10 против 1, то, действительно, можно задаться вопросом, а почему вы ещё не начали свой путь к этому успеху. И наоборот, если даже ставка 1 против 10 вас как-то не вдохновляет, то стоит задуматься, а действительно ли успех того стоит. (На всякий случай отмечу, что на уровне интуитивной калибровки не стоит оценивать шансы меньшие, чем 1:100 - чтобы быть уверенным в своей калибровке на таких шансах, вам, очевидно, нужно никак не меньше 100 предыдущих наблюдений.)
Также в порядке мысленного эксперимента можно задавать вопрос: а сколько бы поставил ваш лучший друг на ваш успех, если бы он был достаточно в курсе ваших дел и идей?
И этот же мысленный эксперимент, с моей точки зрения, порождает вопросы к тезису про уверенность. Предположим, вы спрашиваете своего лучшего друга: "Какие, по-твоему, мои шансы на успех в деле Х?" И после получения ответа задаёте следующий вопрос: "А если я буду очень в себе уверен?" Я бы ожидал встретить здесь некоторое недоумение.
С моей точки зрения, люди не умеют переключать уверенность в себе усилием воли. Конечно, можно проделать какие-то действия, которые уверенность в себе могут повысить. Они могут стать частью плана. Но в этом случае при оценке шансов на успех нужно уже оценивать не абстрактную "уверенность в себе", а конкретный план.
Что же касается тезиса "если я буду оценивать свои шансы на успех, то я пойму, что они низки, и не смогу заставить себя этим заниматься", то здесь, с моей точки зрения, важно отметить, что "осмысленность" действия определяется не только тем, насколько высоки шансы. Если потенциальный выигрыш очень велик, а потенциальные потери - малы, то вполне осмысленно "ставить" и на довольно малые шансы. Очень много на эту тему написано, например, книге Джулии Галеф "Настрой разведчика" (неоднократно упомянутой в этом канале).
Поскольку на выбор темы эфира в какой-то степени повлияли именно мои вопросы и замечания, немного напишу, что я по этому поводу думаю.
Я полностью согласен с тезисом, что не имеет никакого смысла тратить слишком много времени на вычисление шансов на успех. Если можно что-то быстро "взять и сделать", и потенциальные потери в случае неудачи не выглядят существенными, то, конечно, проще всего "взять и сделать".
Однако у меня сложилось впечатление, что участники эфира под оценкой шансов подразумевают что-то очень сложное и действительно малореалистичное. Я же скорее под оценкой шансов подразумеваю что-то вроде метода, упомянутого Элиезером Юдковским в "Лицензии героя":
Когда я задумываюсь о шансах, я считаю, что я согласился бы на пари 20:1 — в смысле, если бы вы предложили мне 20 долларов против одного ... И мне было бы неуютно заключать пари при ставке 4 доллара против одного. Возьмём примерно геометрическое среднее и получим шансы 9:1.
Очевидно, что это очень неточный метод, и тем более он будет неточным для человека, который не "калибровался" в этой сфере (т.е. не записывал ранее своих предсказаний на эту тему и не оценивал результаты). Однако мне представляется, что, во-первых, начать калиброваться в этой области никогда не поздно, и это будет скорее полезно. Во-вторых, мне представляется, что даже из самых несовершенных интуитивных оценок на эту тему можно делать какие-то выводы.
Если вы ощущаете, что готовы поставить на свой успех 10 против 1, то, действительно, можно задаться вопросом, а почему вы ещё не начали свой путь к этому успеху. И наоборот, если даже ставка 1 против 10 вас как-то не вдохновляет, то стоит задуматься, а действительно ли успех того стоит. (На всякий случай отмечу, что на уровне интуитивной калибровки не стоит оценивать шансы меньшие, чем 1:100 - чтобы быть уверенным в своей калибровке на таких шансах, вам, очевидно, нужно никак не меньше 100 предыдущих наблюдений.)
Также в порядке мысленного эксперимента можно задавать вопрос: а сколько бы поставил ваш лучший друг на ваш успех, если бы он был достаточно в курсе ваших дел и идей?
И этот же мысленный эксперимент, с моей точки зрения, порождает вопросы к тезису про уверенность. Предположим, вы спрашиваете своего лучшего друга: "Какие, по-твоему, мои шансы на успех в деле Х?" И после получения ответа задаёте следующий вопрос: "А если я буду очень в себе уверен?" Я бы ожидал встретить здесь некоторое недоумение.
С моей точки зрения, люди не умеют переключать уверенность в себе усилием воли. Конечно, можно проделать какие-то действия, которые уверенность в себе могут повысить. Они могут стать частью плана. Но в этом случае при оценке шансов на успех нужно уже оценивать не абстрактную "уверенность в себе", а конкретный план.
Что же касается тезиса "если я буду оценивать свои шансы на успех, то я пойму, что они низки, и не смогу заставить себя этим заниматься", то здесь, с моей точки зрения, важно отметить, что "осмысленность" действия определяется не только тем, насколько высоки шансы. Если потенциальный выигрыш очень велик, а потенциальные потери - малы, то вполне осмысленно "ставить" и на довольно малые шансы. Очень много на эту тему написано, например, книге Джулии Галеф "Настрой разведчика" (неоднократно упомянутой в этом канале).
👍9😁1
Читательский клуб, где обсуждаются разные книги, так или иначе связанные с популярными на LW темами, переходит к следующей книге. Ей станет вышедшая в прошлом году книга Элиезера Юдковского и Нейта Соареса "If Anyone Builds It, Everyone Dies".
Встречи будут проходить по понедельникам. Первая встреча пройдёт уже сегодня, начало в 21:00 по московскому времени (UTC+3). Однако, в дальнейшем встречи будут начинаться в 20:30 (по московскому времени).
Группа читательского клуба в телеграме: https://t.iss.one/minireading
Встречи проходят в онлайне (в настоящее время в Google Meet, но это может меняться). Подробности в упомянутой группе.
Встречи будут проходить по понедельникам. Первая встреча пройдёт уже сегодня, начало в 21:00 по московскому времени (UTC+3). Однако, в дальнейшем встречи будут начинаться в 20:30 (по московскому времени).
Группа читательского клуба в телеграме: https://t.iss.one/minireading
Встречи проходят в онлайне (в настоящее время в Google Meet, но это может меняться). Подробности в упомянутой группе.
👍6
Для тех, кто больше любит смотреть или слушать.
В конце июля прошлого года на канале Елизаветы Осетинской вышло большое интервью с Дмитрием Волковым, руководителем исследований в Palisade Research - некоммерческой организации, занимающейся вопросами безопасности ИИ. В интервью Дмитрий рассказывает, какую опасность потенциально может представлять искусственный интеллект, какие исследования на эту тему проводятся уже сейчас и что с этим можно делать.
Интервью рассчитано на очень широкую аудиторию.
https://www.youtube.com/watch?v=au5fU-nbZmc
В конце июля прошлого года на канале Елизаветы Осетинской вышло большое интервью с Дмитрием Волковым, руководителем исследований в Palisade Research - некоммерческой организации, занимающейся вопросами безопасности ИИ. В интервью Дмитрий рассказывает, какую опасность потенциально может представлять искусственный интеллект, какие исследования на эту тему проводятся уже сейчас и что с этим можно делать.
Интервью рассчитано на очень широкую аудиторию.
https://www.youtube.com/watch?v=au5fU-nbZmc
YouTube
«Мы строим бога, который может стереть все в пепел» — чем опасен AI и что нам делать? Дмитрий Волков
НАСТОЯЩИЙ МАТЕРИАЛ (ИНФОРМАЦИЯ) ПРОИЗВЕДЕН И РАСПРОСТРАНЕН ИНОСТРАННЫМ АГЕНТОМ ЕЛИЗАВЕТОЙ НИКОЛАЕВНОЙ ОСЕТИНСКОЙ ЛИБО КАСАЕТСЯ ДЕЯТЕЛЬНОСТИ ИНОСТРАННОГО АГЕНТА ЕЛИЗАВЕТЫ НИКОЛАЕВНЫ ОСЕТИНСКОЙ 18+
Поддержать нас и попасть в закрытый телеграм-чат с Осетинской:…
Поддержать нас и попасть в закрытый телеграм-чат с Осетинской:…
👍6
Forwarded from ЦДО “Моноид”
Evals for AI Safety — это методология измерения качества, надежности и безопасности ИИ-систем. В условиях повсеместного внедрения языковых моделей в продакшн умение корректно оценивать их возможности и риски становится приоритетным навыком.
Как устроен курс:
Цель курса:
Дать базу для начала карьеры в области оценки ИИ и понимание того, какую роль evals играет в AI Safety. Программа знакомит с основными концепциями evals, учит анализировать существующие бенчмарки, проектировать собственные оценки и разрабатывать дизайн экспериментов в области evals. Участники курса освоят Inspect AI (один из самых популярных фреймворков для оценки LLM).
Кого мы ждем:
Подробнее: тут
Подать заявку на участие в курсе, а также на фасилитацию можно до 22 февраля: тут
Если вам интересно менторство, преподавание, сотрудничество с курсом или вы хотите задать вопрос, то напишите Юле
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7👎2
Читательский клуб, где обсуждаются разные книги, так или иначе связанные с популярными на LW темами, переходит к следующей книге. В ближайшее время будет обсуждаться книга Кевина Симлера и Робина Хансона "Слон в голове" ("The Elephant in the Brain") - книга о неосознаваемых или скрытых по другим причинам человеческих мотивах.
Робин Хансон в своё время вместе с Юдковским создал блог Overcoming Bias, от которого позже отделился LessWrong. Юдковский утверждал, что цинизм профессора Квиррелла из "ГПиМРМ" частично позаимствован у Хансона. Как я понимаю, в книге это будет заметно.
Встречи проходят по понедельникам, онлайн, в Google Meet (но это может измениться). Начало в 20:30 по московскому времени (UTC+3).
Подробности: https://t.iss.one/minireading
Робин Хансон в своё время вместе с Юдковским создал блог Overcoming Bias, от которого позже отделился LessWrong. Юдковский утверждал, что цинизм профессора Квиррелла из "ГПиМРМ" частично позаимствован у Хансона. Как я понимаю, в книге это будет заметно.
Встречи проходят по понедельникам, онлайн, в Google Meet (но это может измениться). Начало в 20:30 по московскому времени (UTC+3).
Подробности: https://t.iss.one/minireading
👍10
Леонид Хоменко написал серию постов про неявное знание и его важность в контексте работы с LLM.
Когда мы хорошо что-то знаем или умеем, мы часто забываем, как сложно нам было этому научиться. И когда мы пытаемся это своё знание кому-то передать, мы нередко недооцениваем количество информации, которое для этого необходимо. Леонид пишет об этом в контексте обучения и в контексте работы с LLM, однако мне представляется, что описанная идея актуальна много где.
Я не во всём согласен с автором с точки зрения практических выводов, но само понятие выглядит довольно полезным инструментом.
Когда мы хорошо что-то знаем или умеем, мы часто забываем, как сложно нам было этому научиться. И когда мы пытаемся это своё знание кому-то передать, мы нередко недооцениваем количество информации, которое для этого необходимо. Леонид пишет об этом в контексте обучения и в контексте работы с LLM, однако мне представляется, что описанная идея актуальна много где.
Я не во всём согласен с автором с точки зрения практических выводов, но само понятие выглядит довольно полезным инструментом.
👍8
Forwarded from Уменьшение страданий | Reducing Suffering
Есть вещи, о которых мы даже не подозреваем | Брайан Томасик
Порой кажется, что сторонники эффективного альтруизма одержимы «квантифицированной эффективностью»: метриками, показывающими результативность чего-либо — будь то QALY на доллар, управление временем, результаты опросов или оптимизация диеты и физических упражнений. Квантификация полезна и часто может выявить серьёзные пробелы, которые можно упустить, если применять только качественное, а не количественное мышление. Также квантификация может привести к выводам, которые не были очевидны до обработки данных. Цифры позволяют проводить гораздо больше вычислений, чем способен делать наш мозг сам по себе.
В то же время я опасаюсь, что некоторые сторонники эффективного альтруизма слишком сильно увлекаются квантификацией и перестают видеть лес за деревьями. Стоит помнить принцип «мусор на входе, мусор на выходе»: метрики хороши лишь настолько, насколько хороши те рассуждения, на основании которых мы решили, что именно эти метрики стоит оптимизировать. Кроме того, они могут упускать какие-то ключевые соображения. Чрезмерно оптимизируя что-то по узким или даже довольно широким метрикам, вы можете приносить в жертву какие-то важные элементы ценного, которые просто не измерялись. Оптимизация по метрике может создавать иллюзию прогресса, в то время как более широкий взгляд на ситуацию показал бы, что всё гораздо более размыто, чем казалось. Порой качественное, масштабное мышление человеческого мозга лучше справляется с подобными макроуровневыми проблемами, чем другие из доступных нам инструментов. Холден Карнофски обсуждает этот и другие связанные вопросы в эссе «Passive vs. rational vs. quantified».
Одна из областей, в которых оптимизация по метрикам сталкивается с серьёзными трудностями, — это открытие, выражаясь словами диснеевской Покахонтас, «вещей, о которых ты даже не подозревал» [things you never knew you never knew]. Непонятно, как вообще строить метрики для измерения тех аспектов проблемы, о которых мы ещё даже не подумали*. Если мы слишком сильно оптимизируем свои нынешние цели, мы можем упустить важность того, чтобы отступить на шаг назад и посмотреть на картину в целом. Суженный фокус — одна из нескольких проблем, о которых говорят авторы статьи «Goals Gone Wild: The Systematic Side Effects of Over-Prescribing Goal Setting».
* См. такие понятия как «тяжёлая неопределенность», «неизвестные неизвестности», «чёрные лебеди» и «неведение» — прим. пер.
Оригинал: Things you never knew you never knew (2013-2019)
Перевод: К. Кирдан (добавлены ссылки)
#Брайан_Томасик #эффективный_альтруизм
Порой кажется, что сторонники эффективного альтруизма одержимы «квантифицированной эффективностью»: метриками, показывающими результативность чего-либо — будь то QALY на доллар, управление временем, результаты опросов или оптимизация диеты и физических упражнений. Квантификация полезна и часто может выявить серьёзные пробелы, которые можно упустить, если применять только качественное, а не количественное мышление. Также квантификация может привести к выводам, которые не были очевидны до обработки данных. Цифры позволяют проводить гораздо больше вычислений, чем способен делать наш мозг сам по себе.
В то же время я опасаюсь, что некоторые сторонники эффективного альтруизма слишком сильно увлекаются квантификацией и перестают видеть лес за деревьями. Стоит помнить принцип «мусор на входе, мусор на выходе»: метрики хороши лишь настолько, насколько хороши те рассуждения, на основании которых мы решили, что именно эти метрики стоит оптимизировать. Кроме того, они могут упускать какие-то ключевые соображения. Чрезмерно оптимизируя что-то по узким или даже довольно широким метрикам, вы можете приносить в жертву какие-то важные элементы ценного, которые просто не измерялись. Оптимизация по метрике может создавать иллюзию прогресса, в то время как более широкий взгляд на ситуацию показал бы, что всё гораздо более размыто, чем казалось. Порой качественное, масштабное мышление человеческого мозга лучше справляется с подобными макроуровневыми проблемами, чем другие из доступных нам инструментов. Холден Карнофски обсуждает этот и другие связанные вопросы в эссе «Passive vs. rational vs. quantified».
Одна из областей, в которых оптимизация по метрикам сталкивается с серьёзными трудностями, — это открытие, выражаясь словами диснеевской Покахонтас, «вещей, о которых ты даже не подозревал» [things you never knew you never knew]. Непонятно, как вообще строить метрики для измерения тех аспектов проблемы, о которых мы ещё даже не подумали*. Если мы слишком сильно оптимизируем свои нынешние цели, мы можем упустить важность того, чтобы отступить на шаг назад и посмотреть на картину в целом. Суженный фокус — одна из нескольких проблем, о которых говорят авторы статьи «Goals Gone Wild: The Systematic Side Effects of Over-Prescribing Goal Setting».
* См. такие понятия как «тяжёлая неопределенность», «неизвестные неизвестности», «чёрные лебеди» и «неведение» — прим. пер.
Оригинал: Things you never knew you never knew (2013-2019)
Перевод: К. Кирдан (добавлены ссылки)
#Брайан_Томасик #эффективный_альтруизм
👍13🤔2