FSCP
18.4K subscribers
30K photos
3.43K videos
858 files
77K links
another filter bubble канал изначально созданный несколькими друзьями чтобы делиться копипастой, иногда оценочным суждением

технологии, деньги, социум

редакция @id9QGq_bot
реклама @johneditor
в будущее возьмут не всех
выводы самостоятельно

мир меняется
Download Telegram
НАЙДЕН ОПТИМАЛЬНЫЙ СПОСОБ ПРИНЯТИЯ РЕШЕНИЙ

Это потрясающее открытие имеет колоссальные перспективы.

Оно может принципиально изменить способ принятия решений в бизнесе, социальной сфере, госуправлении и даже в организации государственной власти.

Повышение качества управления (важнейший фактор в конкурентной борьбе) - это улучшение соотношения удачно принятых (то есть правильных) решений к общему количеству принимаемых решений.

Сегодня, согласно McKinsey, как минимум, половина управленческих решений оказываются не верными, не смотря на все усилия науки и управленческих практик - см. например, здесь, здесь, здесь и здесь.

И хотя человечество уже вплотную подошло к необходимости включения в процесс принятия решений «социального интеллекта» («social intelligence»), методы краудсорсинга, «интеллекта роя» и пр. пока что не смогли изменить удручающую ситуацию с неумением людей найти оптимальную схему принятия сложных решений.

Прорыв произошел довольно неожиданно. На стыке нейронауки, теории информации, теории коллективного поведения и статистической физики удалось построить и верифицировать на большом объеме экспериментальных данных динамическую, стохастическую, распределенную модель принятия решений.

   Вопросы, поставленные авторами исследования, были достаточно сумасшедшими, равно как и 100%но научными:
-- как принимаются решения мозгом?
-- на уровне отдельных нейронов или огромной сетью коммуницирующих нейронов?
-- какова схема этого - как это происходит, и как организован процесс принятия решений?


Природа, в ходе эволюции, смогла создать так и не превзойденные современной наукой механику и биохимию живых существ. Логично предположить, что и в вопросе поиска наилучшей схемы принятия решений нейронами головного мозга природа опережает достигнутый уровень развития науки.

Новое исследование Центра Биосоциальных Сложных Систем и «Института сумасшедших идей» в Сата-Фе не только определило схему принятия решений нейронами головного мозга, но и доказало, что эта схема является оптимальной для любых коллективных вычислений, производимых сетью интеллектуальных агентов.

Эта схема, названная «кодирующая двойственность» состоит их 2х этапов.

— Первый этап более всего похож на то, что я, в свое время, назвал термином синтеллектуальный краудсорсинг - отличающийся от традиционного краудсорсинга, в первую очередь, ограничением на взаимодействие интеллектуальных агентов в начальной фазе процесса принятия решения.
Цель данного этапа – накопление информации в условиях подавления информационного шума.

— Второй этап – это «формирование консенсуса», в ходе которого информация быстро распространяется от «знающих» нейронов (имеющих доступ к информации) к множеству остальных участвующих в схеме нейронов, резко увеличивая этим избыточность в системе.

Принципиальным для эффективности схемы является то, что этапы накопления и консенсуса, отличаются разными временными шкалами.


#Нейронаука #ПринятиеРешений #Краудсорсинг
Я НАЧАЛЬНИК, ТЫ – AI

В прошлом посте была указана открытая ссылка за пэйвол HBR на последний номер этого журнала.

И поскольку доступ к этому номеру у вас уже есть, хочу порекомендовать еще один интересный материал из него – короткая статья «Алгоритмы видимость контроля».

В ней рассказывается про весьма неприятную историю, связанную с AI, - про которую почти не пишут. Речь идет о т.н. Эффекте «неприятия алгоритма»:
   --  истоки которого коренятся у нас в сознании, но до конца не понятно – почему, и потому не очень ясно, как с этим бороться;
-- последствия которого определяют успех/неуспех и, соответственно, – применение/неприменение той или иной AI технологии в конкретных индустриях и областях личного и общественного использования.

Суть этого «неприятия» в следующем.

Люди предъявляют к алгоритмам (решениям, принимаемым машинами) куда более жесткие требования, чем к самим себе. И поскольку почти любой алгоритм не идеален, люди отказываются использовать алгоритм, ссылаясь на его недостаточную точность и надежность.

Другими словами, себе-любимому мы готовы простить даже бОльшую ошибку, чем компьютеру.

   Это смахивает на наше свойство «в чужом глазу соломину видеть, а в своём — бревна не замечать». 


В результате, человек оставляет за собой работу, куда лучше выполняемую компьютером. А бизнес продолжает терять на этом кучу денег, эффективность не растет и, вообще, прогресс не идет, куда следует.

Например, вот такая ситуация:

(1) врач в состоянии самостоятельно поставить правильный диагноз по снимку с вероятностью 60%,

(2) ему дается AI, который якобы будет ставить правильные диагнозы по снимкам с вероятностью 90%;

(3) на практике же получается, что AI ставит правильные диагнозы с вероятностью «только» 80%.

В результате, врач заявляет, что не нужен ему такой плохой AI, который не дотягивает до обещанной точности диагностики. Более того, раз он не может обеспечить 90% точность диагностики, ему вообще нельзя доверять.

В статье HBR описываются эксперименты, проводимые с целью найти способ борьбы с «неприятием алгоритма».

Согласно экспериментам, неприятие снижается, если человеку дать возможность подправлять решения AI.

Т.е. этот самый врач, у которого точность диагноза на треть хуже, чем у AI, будет подправлять диагностику AI.

Бред, конечно! А что делать? Иначе человек не может ничего с собой поделать и будет всячески дискредитировать и саботировать решения AI.

Цена вопроса здесь колоссальная. Эксперты считают, что «неприятию алгоритма» человечество обязано многими миллиардами, теряемыми, например, в ритейле из-за того, что там, по-прежнему, предпочитают опираться на человеческий прогноз при пополнении запасов, а не на куда более точные прогнозы уже существующих AI систем.

- - - - -
Легко представить, что для борьбы с «неприятием алгоритма» разработчики AI начнут предусматривать спецтрюки. Например, человек будет считать, что корректирует решения AI, а на самом деле, AI просто будет в этот момент играть с человеком в поддавки, давая ему ложное ощущение, что тот – главный.

Такой путь может закончиться плохо. И я бы сильно подумал, прежде чем пойти на такой риск.

Так за кем должно оставаться финальное решение???

N.B. От ответа на этот вопрос, в частности, зависит юридическая легализация управляемых AI авто и даже то, решится ли одна из сторон нанести ядерный удар.

Такова важность решения вопроса о «неприятии алгоритма».

Статья ссылается на это исследование.
Но есть и более новое.

#AI #ПринятиеРешений #Прогнозирование #НеприятиеАлгоритма
ЦРУ создает кентавров для предсказания будущего.

Эта тема — одна из моих любимых. И уже не первый месяц, как я собираюсь начать о ней писать.

Хотя не совсем так. Кое-что я уже про это писал. И даже не раз. Но не системно, а как-то по касательной. Как бы подступаясь к этой многогранной истории с разных сторон:
— писал об интеллектуальных кентаврах — симбиозе интеллекта человека и компьютера, — альтернативе мейнстриму ИИ технологий, плодящему «бездумные машины»;
— о том, как устроен интеллект человека, и в чем его принципиальное отличие от интеллекта компьютера;
— о возможности предсказания будущего;
— о роли случайности.

Наверное, наиболее проницательные из моих читателей уже поняли, куда я клоню.
К тому, что всё вышеперечисленное — грани одной комплексной темы: взаимосвязи интеллекта (человеческого, машинного, кентаврического) и предсказаний будущего. Но как они связаны — интеллект и предсказания?
Полагаю, хватить дробить эту тему. Пора попытаться нарисовать общую картину.

Но такой рассказ в один или даже пару постов не втиснуть. Слишком много здесь захватывающих, крайне малоизвестных и интригующих поворотов. Хочу попробовать редкий для е-каналов жанр — постосериал, еженедельно публикуя продолжение одной большой истории.
Ну а начну с прояснения заголовка. Как в этой теме сплелись кентавры и предсказания будущего, объясню чуть позже. А начну с интриги, — при здесь ЦРУ, да еще и на ключевой позиции.

Тегов у этого постосериала будет много:
#ИнтеллектКентавра #AI #ИИ #IA #AIA #Краудсорсинг #РынкиПредсказаний #АльтернативныйИИ #Прогнозирование #Будущее #ПринятиеРешений #Случайность #Память #КогнитивныеСистемы #Нейронаука #IARPA

Мда… И обо всем этом я собираюсь написать в одном постосериале? … Ну хотя бы попробую 😊
Вот 1й пост 1го сезона нового постосериала. https://goo.gl/2AemSJ
Предсказания становятся приоритетом.
3й пост постосериала «ЦРУ создает кентавров для предсказания будущего».

Новый этап исследований и разработок по предсказанию будущих событий для обеспечения национальной безопасности США возглавила разведка. Он продолжался до прошлого 2017 года и отличался от 1го этапа двумя принципиальными моментами:
1) Законодательный запрет на игру на деньги в области предсказаний, заставил сместить фокус исследований с рынков предсказаний на поиск супер-предсказателей и ряд других методов повышения эффективности предсказаний «коллективного интеллекта».
2) Объемы финансирования и, соответственно, число и разнообразие проектов качественно выросло после оглашения в 2004 результатов работы комиссии по теракту 9/11. Разведсообщество было поставлено перед фактом – делайте, что хотите, но такого повториться не должно.
Этот этап исследований можно условно назвать «Поиск максимума человеческих возможностей в предсказаниях». Об этом и будет рассказ.

Продолжить чтение в Instant View на Medium
https://goo.gl/4Y1Kp1

Предыдущие посты постосериала:
№1 https://goo.gl/2AemSJ
№2 https://goo.gl/9J2321

#ИнтеллектКентавра #AI #ИИ #IA #AIA #Краудсорсинг #РынкиПредсказаний #АльтернативныйИИ #Прогнозирование #Будущее #ПринятиеРешений #Случайность #Память #КогнитивныеСистемы #Нейронаука #IARPA
Не знаю, как читать, но писать о том, о чем в мире очень мало кто знает, - весьма увлекательно. Хочется писать и писать. Но даже лонгрид не резиновый.
Ну а как кратко описать, о чем этот лонгрид – вообще загадка.
Попробую последовать с детства любимому Жюлю-Верну.

Краткое содержание лонгрида про «топор под компасом американской разведки» и про то, кто кого сборет - краудсорсинг против рынков предсказаний:

Бомба замедленного действия. — Таинственная смерть на Эвересте. — Триумф и крах Intrade. — Упреждающая разведка. — ЦРУ спешит на помощь. — Результативность прогнозов растет. — Но точность хромает. — Два сокрушительных удара. — Черные лебеди не ловятся. — Требуются кентавры.

Мой новый пост https://goo.gl/ggcXCo

#ИнтеллектКентавра #AI #ИИ #IA #AIA #Краудсорсинг #РынкиПредсказаний #АльтернативныйИИ #Прогнозирование #Будущее #ПринятиеРешений #Случайность #Память #КогнитивныеСистемы #Нейронаука #IARPA
Алгоритм экономического доверия зашит в наших генах.
Это удивительное открытие озадачивает – а что еще там зашито?

Насколько сложные поведенческие стратегии и алгоритмы их исполнения зашиты в наших генах и передаются по наследству? Речь здесь не о простых поведенческих реакциях, типа страха, а о сложных поведенческих стратегиях, отсутствующих у животных, но имеющихся у людей.
Например, - базовая поведенческая стратегия, на которой стоит вся экономика человечества, и без которой нашей цивилизации просто не было бы. Речь об экономическом доверии – основе взаимовыгодного взаимодействия.

Что это такое, никому объяснять не нужно. Взрослый человек понимает это интуитивно. Два главных параметра этого понятия для нас столь же очевидны, как ощущение усталости или головной боли.
Первый параметр – потенциал пользы от проявляемого нами доверия (что мы может за наше доверие получить). Второй – моральный риск того, что партнер может нас обмануть (насколько больно нам будет в душе, если нас кинут).

До сих пор считалось, что сложные поведенческие стратегии, уровня экономического доверия, - продукт исключительно культурной эволюции человека. И, следовательно, экономическое доверие – плод социального научения человека в процессе жизни.
Однако, результаты исследования «Экономическое доверие у маленьких детей», опубликованного на прошлой неделе в Трудах Королевского научного общества, опровергает существующую точку зрения.

✔️ Путем разработанных авторами забавных и весьма креативных поведенческих экспериментов с куклами (см. видео, которое пока что посмотрели меньше 100 человек во всем мире!), авторы убедительно доказали, что в головах детей 4-6 летнего возраста уже есть все необходимое для понимания и следования стратегиям экономического доверия.

Дело в том, что в этом возрасте у детей просто отсутствуют:
- способности к ориентированному на будущее мышлению,
- опыт социального научения экономическим отношениям.
А это значит, что базовый уровень поведенческой стратегии экономического доверия, а также алгоритмы исполнения этой стратегии зашиты в наших генах.

И это поразительно. Ведь алгоритмика нейро-химического управления стратегией столь высокого уровня сложности куда сложней, чем, например, зашитые в нас алгоритмы ориентации в 3х мерном пространстве или оценки расстояний между предметами (FYI: оба этих умения лежат в основе научения ребенком тому, что мы называем «видеть», в первые месяцы после его рождения).

• Каким образом в ДНК умещаются столь сложные алгоритмы?
• Каким супер-эффективным кодом они там закодированы?
• А может, все-таки, они загружаются из каких-то внешних источников, отличных от опыта социального научения?


Все это пока неизвестно. Но тем интересней 🤓

Исследование:
- популярно;
- для профи.

#Биопсихология #ЭволюционнаяПсихология #ПринятиеРешений #Эволюция #СравнительнаяПсихология
​​Результаты голосования и вакцинации зависят от «обезьян» и «упертых».
Учет сложного взаимодействия когнитивных и социальных факторов при принятии коллективных решений.

Три прорывных открытия могут сильно повысить шансы человечества на благополучное прохождение новых кризисов в результате прилетов очередных «черных лебедей». Все они касаются способов принятия важных коллективных решений.

1-е открытие раскрывает секрет возникновения многих черных лебедей.
Они появляются в результате массового поведения людей в предкритических глобальных ситуациях: от обвалов финансовых рынков и экономических кризисов до схлопывания политических режимов (типа «Арабской весны») и инфо-вирусных пандемий (типа COVID-19).
Ключевых факторов того, взлетит ли новый черный лебедь или все как-то утрясется без катастроф, два:
1) насколько близко подошла система к критической (переломной) точке - фазовому переходу;
2) в какую сторону: к критической точке или от нее подталкивает систему коллективное поведение (как следствие коллективных решений).
Подробней см. (1)

2-е и 3-е открытия раскрывают секрет механизма принятия коллективных решений в предкризисных ситуациях.
Ведь в большинстве из них коллективное поведение общества играет не меньшую роль, чем стратегия, избираемая властью. А эта стратегия, в значительной степени, также зависит от предпочтений большинства в обществе (COVID-19 тому яркий пример).

2-е открытие в том, что наличие «упертых несогласных» в обществе кардинально повышает качество коллективных решений.
Упертые несогласные – это люди, имеющих собственное мнение, не вписывающееся в агрегированный итог иерархического сбора мнений, и не готовые от него отказаться даже под угрозой притеснений или даже репрессий.
Похоже, это новый закон природы - чем больше упертых несогласных, тем выше качество коллективных решений общества.
Подробней см. (2)

3-е открытие определяет критический порог «обезьян» в обществе, после которого катастрофически падает качество коллективных решений.
Исследование, опубликованное неделю назад в PNAS (3), уточняет и дополняет 2 предыдущих.
Подобно двум архетипам людей по их видению мира (ежи, которые смотрят на мир через призму одной определяющей идеи, и лисы, которые опираются на широкий спектр опыта и для которых мир не может быть сведён к одной идее), существуют два архетипа по принятию коллективных решений: кошки и обезьяны.
Люди – кошки предпочитают во всех вариантах выбора разбираться самим и принимать решение, опираясь на собственное понимание вопроса.
Тогда как люди – обезьяны не исследуют достоинства имеющихся вариантов самостоятельно, а принимают мнения и поведение других людей в качестве основы собственных решений.
Авторы исследования построили 1-ю в мире многопараметрическую модель, учитывающую сложное взаимодействие когнитивных и социальных факторов при принятии коллективных решений. Цель была – численно определить, где прячутся причины катастрофических коллективных решений.

Ответ найден.
В любом классе коллективных решений (от голосования на выборах до решения о вакцинации) существует критический порог доли числа «обезьян» в обществе, после которого возникает бистабильное состояние, позволяющее обществу отдать предпочтение худшему варианту. Если же критический порог не достигнут, общество тяготеет к лучшему из вариантов.

Дополнительный вывод исследования касается важной роли влияния «упертых несогласных» на «обезьян».
Рост их доли в обществе и степень их упертости может быть решающим фактором влияния на решения, принимаемые «обезьянами»

Этот вывод, подтверждаемый примерами многих революций, заставляет вспомнить мой пост 2011 года «Суперкомпьютер рассчитал, при каких условиях сменится власть в России» (кто не читал, погуглите).

ИТОГО: нужно снижать долю обезьян и повышать долю упертых.

Источники: 1, 2, 3,

#ПринятиеРешений
_______
Источник | #theworldisnoteasy
​​Мы не иррациональные обезьяны, а сверхэффективный суперкомпьютер.
Смена парадигмы иррациональности косвенно подтверждает вычислительную теорию разума.

Наша иррациональность (нерациональное поведение при принятии решений и осуществлении выбора) уникальна. Ни одно животное не способно действовать столь нерационально, выбирая, рискуя или сотрудничая. Люди – особый вид, иррациональность поведения которого (наряду с языком) превратила нас в царя природы и сверхразумное подобие Бога (кто бы еще из животных променял жизнь в раю на несколько укусов яблока - шутка, соответствующая реальности).

Разгадать природу нашей иррациональности психологи, экономисты и нейробиологи целенаправленно пытаются 60+ лет. В результате опубликованы тысячи научных статей и более двухсот монографий, присуждено несколько Нобелевских премий, проданы миллионы экземпляров мировых бестселлеров... 1
Но центральный вопрос экономики, психологии и нейробиологии принятия иррациональных решений – почему поведение людей при выборе вариантов столь предвзято, - по-прежнему открыт.

Установлено, что источником предвзятостей являются многообразные когнитивные искажения 2.
Но что за механизм их вызывает?

Согласно традиционным представлениям, механизм примерно таков - мозг функционирует, как несколько конкурирующих агентов 3:
• быстро и неосознанно на автомате решающей Системы 1
• и внимательно-задумчивой и потому медленной Системы 2
В результате внутренней конкуренции агентов возникают когнитивные искажения, ведущие к иррациональному поведению: странные финансовые решения; поступки, совершенные как бы в несознанке; импульсивные решения во вред себе (типа приема наркотиков) и т.д. 4

ОДНАКО!

В августовском выпуске Trends in Cognitive Sciences 5 публикуется новая работа отца нейроэкономики Пола Глимчера «Efficiently irrational: deciphering the riddle of human choice». Она подводит итог 10-летних исследований Глимчера, результаты которых могут кардинально поменять существующую научную парадигму объяснения иррациональности выбора людей в нейробиологии, психологии, экономике, социологии и политике.

Революционный вывод новой теории в том, что никакой иррациональности нет: мозг вовсе не максимизирует функцию полезности, а абсолютно рационально ищет компромисс между точностью своих вычислений и энергозатратами на них.

Сверхразумность Homo имеет высокую энергетическую цену (см. рис. ниже):
• Вычислительные потребности мозга около 10 ватт энергии в час (за сутки - 240 Вт)
• Для выработки 240 Вт требуется примерно 400 ккал энергии (около 20% суточной нормы поступающих с пищей калорий)
Это сверхэффективное энергопотребление мозга в сравнении с современными компьютерами, потребляющими в 30-100 раз больше энергии, но зато способными обеспечить высочайшую точность вычислений.

Чтобы повысить точность вычислений мозга на порядок, потребовалось бы 100 ватт энергии в час.
• За сутки энергопотребление составило бы 2400 Вт
• Для их выработки требуется примерно 4000 ккал энергии. Если этот объем калорий составит около 70% суточной потребности, то человеку потребуется ежедневно потреблять пищи, содержащей около 5600 ккал.
Т.е. для повышения точности вычислений лишь на 1 порядок, людям пришлось бы есть в 3 раза больше.

Реальность среды обитания не позволяла эволюции пойти на подобные энергозатраты мозга. Пришлось искать компромисс между точностью вычислений и энергопотреблением.

Как это делается в мозге, сам Глимчер рассказывает в часовой лекции 6.
И если Глимчер прав, это сильный (хоть и косвенный) аргумент в пользу вычислительной теории разума.
#Рациональность #КогнитивныеИскажения #ПринятиеРешений
_______
Источник | #theworldisnoteasy
Когнитивные иллюзии ведут к когнитивным ловушкам.
Начинается переосмысление: ИИ - это неизбежность, а не панацея.

Редакционная статья Nature «Почему ученые слишком доверяют ИИ - и что с этим делать» [1] впервые на столь высоком научном уровне кардинально смещает фокус видения ИИ-рисков для человечества:
Колоссальная и уже сейчас вполне реальная опасность развития ИИ-технологий - отнюдь не попадание людей под пяту Сверхразума, и влияние на наш разум этого супер-инструмента расширения когнитивных возможностей людей.

Также было и при освоении человеком огня: первоначальное примитивное понимания рисков смещалось по мере развития технологий использования огня: от риска ожога и сгоревшего шалаша к рискам огнеметов, напалма и хиросим.

С ИИ рисками происходит подобное, только много быстрее: от рисков несогласованных с людьми целей ИИ к рискам когнитивных иллюзий, - наших иллюзий, а не ИИ, - но миллиардократно им усугубленным.

Опираясь на данные антропологии и когнитивной науки, исследователи университетов Йеля и Принстона первой среди таких иллюзий называют иллюзию понимания (иллюзию глубины объяснения), когда люди, полагаясь на ИИ, считают свои знания глубже и точнее, чем на самом деле [2].

Итогом этого становятся когнитивные ловушки. Степень катастрофичности которых зависит от «впаянности» когнитивной иллюзии в нашу когнитивную практику и от её институализированности в научном дискурсе.

Об одной из самых поразительных когнитивных иллюзий, в плену которой человечество пребывает уже более 300 лет, я писал в лонгриде «300 лет в искаженной реальности» [3].

Новый лонгрид «Ловушка неэргодических целей. Самый технопродвинутый путь к катастрофическим решениям» - , как и следует из названия, о потенциальных катастрофических последствиях превращения, при применении ИИ, этой самой накрепко впаянной в нас когнитивной иллюзии в колоссальную когнитивную ловушку.

P.S. Не удивляйтесь, что этот и последующие мои лонгриды теперь на Busty и Patreon
www.patreon.com
boosty.to
Иного способа понять, стоит ли время на написание лонгридов реального интереса к ним со стороны 140 тыс моих бесплатных подписчиков на 4-х существующих платформах, у меня нет.
Кроме того, для подписчиков на Busty и Patreon:
• Открыт ТГ-чат для комментариев и обсуждений, где я планирую отвечать на вопросы читателей.
• Также планируется рассылка несколько раз в год тщательно отобранных подборок моих откомментированных текстов в виде электронных книг.
• Позже есть мысли сделать и подкаст

Так что, добро пожаловать в клуб «Малоизвестное интересное»!

И спасибо всем за поздравления с ДР!
😊

1 www.nature.com
2 www.nature.com
3 https://t.iss.one/theworldisnoteasy/953
#Вероятность #Эргодичность #ПринятиеРешений
_______
Источник | #theworldisnoteasy
@F_S_C_P
Узнай судьбу картами Таро:
Anna Taro bot