FSCP
18.3K subscribers
30.1K photos
3.44K videos
859 files
77K links
another filter bubble канал изначально созданный несколькими друзьями чтобы делиться копипастой, иногда оценочным суждением

технологии, деньги, социум

редакция @id9QGq_bot
реклама @johneditor
в будущее возьмут не всех
выводы самостоятельно

мир меняется
Download Telegram
Я НАЧАЛЬНИК, ТЫ – AI

В прошлом посте была указана открытая ссылка за пэйвол HBR на последний номер этого журнала.

И поскольку доступ к этому номеру у вас уже есть, хочу порекомендовать еще один интересный материал из него – короткая статья «Алгоритмы видимость контроля».

В ней рассказывается про весьма неприятную историю, связанную с AI, - про которую почти не пишут. Речь идет о т.н. Эффекте «неприятия алгоритма»:
   --  истоки которого коренятся у нас в сознании, но до конца не понятно – почему, и потому не очень ясно, как с этим бороться;
-- последствия которого определяют успех/неуспех и, соответственно, – применение/неприменение той или иной AI технологии в конкретных индустриях и областях личного и общественного использования.

Суть этого «неприятия» в следующем.

Люди предъявляют к алгоритмам (решениям, принимаемым машинами) куда более жесткие требования, чем к самим себе. И поскольку почти любой алгоритм не идеален, люди отказываются использовать алгоритм, ссылаясь на его недостаточную точность и надежность.

Другими словами, себе-любимому мы готовы простить даже бОльшую ошибку, чем компьютеру.

   Это смахивает на наше свойство «в чужом глазу соломину видеть, а в своём — бревна не замечать». 


В результате, человек оставляет за собой работу, куда лучше выполняемую компьютером. А бизнес продолжает терять на этом кучу денег, эффективность не растет и, вообще, прогресс не идет, куда следует.

Например, вот такая ситуация:

(1) врач в состоянии самостоятельно поставить правильный диагноз по снимку с вероятностью 60%,

(2) ему дается AI, который якобы будет ставить правильные диагнозы по снимкам с вероятностью 90%;

(3) на практике же получается, что AI ставит правильные диагнозы с вероятностью «только» 80%.

В результате, врач заявляет, что не нужен ему такой плохой AI, который не дотягивает до обещанной точности диагностики. Более того, раз он не может обеспечить 90% точность диагностики, ему вообще нельзя доверять.

В статье HBR описываются эксперименты, проводимые с целью найти способ борьбы с «неприятием алгоритма».

Согласно экспериментам, неприятие снижается, если человеку дать возможность подправлять решения AI.

Т.е. этот самый врач, у которого точность диагноза на треть хуже, чем у AI, будет подправлять диагностику AI.

Бред, конечно! А что делать? Иначе человек не может ничего с собой поделать и будет всячески дискредитировать и саботировать решения AI.

Цена вопроса здесь колоссальная. Эксперты считают, что «неприятию алгоритма» человечество обязано многими миллиардами, теряемыми, например, в ритейле из-за того, что там, по-прежнему, предпочитают опираться на человеческий прогноз при пополнении запасов, а не на куда более точные прогнозы уже существующих AI систем.

- - - - -
Легко представить, что для борьбы с «неприятием алгоритма» разработчики AI начнут предусматривать спецтрюки. Например, человек будет считать, что корректирует решения AI, а на самом деле, AI просто будет в этот момент играть с человеком в поддавки, давая ему ложное ощущение, что тот – главный.

Такой путь может закончиться плохо. И я бы сильно подумал, прежде чем пойти на такой риск.

Так за кем должно оставаться финальное решение???

N.B. От ответа на этот вопрос, в частности, зависит юридическая легализация управляемых AI авто и даже то, решится ли одна из сторон нанести ядерный удар.

Такова важность решения вопроса о «неприятии алгоритма».

Статья ссылается на это исследование.
Но есть и более новое.

#AI #ПринятиеРешений #Прогнозирование #НеприятиеАлгоритма