Малоизвестное интересное
68.2K subscribers
125 photos
2 videos
11 files
1.83K links
Авторский взгляд через призму новейших исследований на наше понимание реальности, человеческой сущности и того, как ИИ меняет их.




Рекламы, ВП и т.п. в канале нет.
Пишите на @karelovs
Download Telegram
Я НАЧАЛЬНИК, ТЫ – AI

В прошлом посте была указана открытая ссылка за пэйвол HBR на последний номер этого журнала.

И поскольку доступ к этому номеру у вас уже есть, хочу порекомендовать еще один интересный материал из него – короткая статья «Алгоритмы видимость контроля».

В ней рассказывается про весьма неприятную историю, связанную с AI, - про которую почти не пишут. Речь идет о т.н. Эффекте «неприятия алгоритма»:
   --  истоки которого коренятся у нас в сознании, но до конца не понятно – почему, и потому не очень ясно, как с этим бороться;
-- последствия которого определяют успех/неуспех и, соответственно, – применение/неприменение той или иной AI технологии в конкретных индустриях и областях личного и общественного использования.

Суть этого «неприятия» в следующем.

Люди предъявляют к алгоритмам (решениям, принимаемым машинами) куда более жесткие требования, чем к самим себе. И поскольку почти любой алгоритм не идеален, люди отказываются использовать алгоритм, ссылаясь на его недостаточную точность и надежность.

Другими словами, себе-любимому мы готовы простить даже бОльшую ошибку, чем компьютеру.

   Это смахивает на наше свойство «в чужом глазу соломину видеть, а в своём — бревна не замечать». 


В результате, человек оставляет за собой работу, куда лучше выполняемую компьютером. А бизнес продолжает терять на этом кучу денег, эффективность не растет и, вообще, прогресс не идет, куда следует.

Например, вот такая ситуация:

(1) врач в состоянии самостоятельно поставить правильный диагноз по снимку с вероятностью 60%,

(2) ему дается AI, который якобы будет ставить правильные диагнозы по снимкам с вероятностью 90%;

(3) на практике же получается, что AI ставит правильные диагнозы с вероятностью «только» 80%.

В результате, врач заявляет, что не нужен ему такой плохой AI, который не дотягивает до обещанной точности диагностики. Более того, раз он не может обеспечить 90% точность диагностики, ему вообще нельзя доверять.

В статье HBR описываются эксперименты, проводимые с целью найти способ борьбы с «неприятием алгоритма».

Согласно экспериментам, неприятие снижается, если человеку дать возможность подправлять решения AI.

Т.е. этот самый врач, у которого точность диагноза на треть хуже, чем у AI, будет подправлять диагностику AI.

Бред, конечно! А что делать? Иначе человек не может ничего с собой поделать и будет всячески дискредитировать и саботировать решения AI.

Цена вопроса здесь колоссальная. Эксперты считают, что «неприятию алгоритма» человечество обязано многими миллиардами, теряемыми, например, в ритейле из-за того, что там, по-прежнему, предпочитают опираться на человеческий прогноз при пополнении запасов, а не на куда более точные прогнозы уже существующих AI систем.

- - - - -
Легко представить, что для борьбы с «неприятием алгоритма» разработчики AI начнут предусматривать спецтрюки. Например, человек будет считать, что корректирует решения AI, а на самом деле, AI просто будет в этот момент играть с человеком в поддавки, давая ему ложное ощущение, что тот – главный.

Такой путь может закончиться плохо. И я бы сильно подумал, прежде чем пойти на такой риск.

Так за кем должно оставаться финальное решение???

N.B. От ответа на этот вопрос, в частности, зависит юридическая легализация управляемых AI авто и даже то, решится ли одна из сторон нанести ядерный удар.

Такова важность решения вопроса о «неприятии алгоритма».

Статья ссылается на это исследование.
Но есть и более новое.

#AI #ПринятиеРешений #Прогнозирование #НеприятиеАлгоритма
Новая социально-сетевая социология опросов не только точнее традиционной. Она способна свести к нулю выборные сюрпризы.

Только что опубликованы результаты «секретного» исследования группы ученых под руководством Мирты Галесич (называю его «секретным», поскольку о нем до сих пор не сообщалось из-за проведения проверки работоспособности его методики на президентских выборах в США 2016 и Франции 2017) «Вопросы о социальном окружении улучшают выборные прогнозы».

Результаты исследования подтвердили – учет «социального взаимовлияния»:
- ощутимо улучшает прогнозы результатов выборов;
- позволяет прогнозировать сюрпризы: как на уровне индивидуальных предпочтений, так и на уровне отдельных регионов (как это было в ряде штатов США);
- принципиально дополняет «формулу выборов» (см. мой пост «Открыта формула победы на выборах») возможностью прогнозировать явку избирателей (без которой невозможно предсказать итог выборов).


Т.о. мир стал на шаг ближе к превращению прогнозирования выборов в науку путем междисциплинарной синергии теории сложных систем, социологии и социальной психологии.

Об этом я написал в новом посте на 5 мин чтения https://goo.gl/3Q9mUT

#Выборы #Поведение #СоциальныеСети #Прогнозирование
ЦРУ создает кентавров для предсказания будущего.

Эта тема — одна из моих любимых. И уже не первый месяц, как я собираюсь начать о ней писать.

Хотя не совсем так. Кое-что я уже про это писал. И даже не раз. Но не системно, а как-то по касательной. Как бы подступаясь к этой многогранной истории с разных сторон:
— писал об интеллектуальных кентаврах — симбиозе интеллекта человека и компьютера, — альтернативе мейнстриму ИИ технологий, плодящему «бездумные машины»;
— о том, как устроен интеллект человека, и в чем его принципиальное отличие от интеллекта компьютера;
— о возможности предсказания будущего;
— о роли случайности.

Наверное, наиболее проницательные из моих читателей уже поняли, куда я клоню.
К тому, что всё вышеперечисленное — грани одной комплексной темы: взаимосвязи интеллекта (человеческого, машинного, кентаврического) и предсказаний будущего. Но как они связаны — интеллект и предсказания?
Полагаю, хватить дробить эту тему. Пора попытаться нарисовать общую картину.

Но такой рассказ в один или даже пару постов не втиснуть. Слишком много здесь захватывающих, крайне малоизвестных и интригующих поворотов. Хочу попробовать редкий для е-каналов жанр — постосериал, еженедельно публикуя продолжение одной большой истории.
Ну а начну с прояснения заголовка. Как в этой теме сплелись кентавры и предсказания будущего, объясню чуть позже. А начну с интриги, — при здесь ЦРУ, да еще и на ключевой позиции.

Тегов у этого постосериала будет много:
#ИнтеллектКентавра #AI #ИИ #IA #AIA #Краудсорсинг #РынкиПредсказаний #АльтернативныйИИ #Прогнозирование #Будущее #ПринятиеРешений #Случайность #Память #КогнитивныеСистемы #Нейронаука #IARPA

Мда… И обо всем этом я собираюсь написать в одном постосериале? … Ну хотя бы попробую 😊
Вот 1й пост 1го сезона нового постосериала. https://goo.gl/2AemSJ