ОБ AI ПО ГАМБУРГСКОМУ СЧЕТУ
Желающие могут скачать отчет здесь (PDF 3MB, 80 стр.)
Я же попробую отжать в сухой остаток ключевые тезисы и визуализировать их.
1️⃣ Мы в самом начале AI-революции:
— инвестиции уже колоссальные и быстро растут;
— понимания, что и как с этим делать, пока, к сожалению, мало;
— реальной отдачи в бизнесе – еще меньше;
— главное поле битвы пока что не бизнес, а патенты и интеллектуальная собственность.
2️⃣ Однако, реальную отдачу от AI для бизнеса уже получают ранние внедренцы - «по жизни цифровые индустрии». Например:
— Netflix получает $1 млрд в год только за свой уникальный рекомендательный сервис, удерживающий клиентов от ухода к конкурентам;
— Amazon сократил интервал времени «Заказ-Отгрузка» с 70 мин. до 15 мин., сократив этим затраты на 20% и увеличив емкость складов на 50%.
3️⃣ США и Китай ушли в отрыв. Даже Европе (не говоря уж о России) практически нечего ловить.
— только Baidu и Google уже тратят по $20-$30 млрд внутренних инвестиций в год на AI;
— 90% идет на R&D и лишь 10% на M&A (т.е. рынок еще в пеленках);
— основные внешние инвестиции (от внешних инвесторов) вкладываются в Машинное обучение, хотя этот сегмент неотвратимо растворяется в других.
4️⃣ Перспективы траектории «спрос-предложение» сильно отличаются для разных индустрий
— финансы, хай-тек, телеком съедят больше половины AI пирога;
— обучение (увы!) застрянет, почти как строительство.
5️⃣ Ключевые вызовы на пути AI-революции и Цифровой трансформации – не массовая безработица и «бунт машин», а вот что:
— понять, как учить и переучивать людей;
— создать культуру кооперации с роботами (чтоб не гнобить и не подсиживать их);
— понять, как решать вопросы ответственности, доверия и правового обеспечения при сосуществовании и кооперации человека и AI - тут пока что ВООБЩЕ КОНЬ НЕ ВАЛЯЛСЯ И НИЧЕГО НЕ ПОНЯТНО
- - - - -
Как видите, AI по гамбургскому счету не сильно похож на то, что о нем пишут ученые, вендоры и журналисты. На то он и гамбургский счет 😳
#McKinsey #AI #МашинноеОбучение
Уже не раз писал, что о перспективах технологий нельзя судить по статьям ученых, вендоров и журналистов. Слишком они противоречивы и ангажированы.
Лишь экспертный анализ бизнес-консультантов с высокой репутацией способен оценить положение и перспективы по гамбургскому счету – независимо от сиюминутных обстоятельств и корыстных интересов, максимально реалистично, практично и точно.
И сегодня такая возможность появилось с выходом отчета McKinsey Global Institute.
Желающие могут скачать отчет здесь (PDF 3MB, 80 стр.)
Я же попробую отжать в сухой остаток ключевые тезисы и визуализировать их.
1️⃣ Мы в самом начале AI-революции:
— инвестиции уже колоссальные и быстро растут;
— понимания, что и как с этим делать, пока, к сожалению, мало;
— реальной отдачи в бизнесе – еще меньше;
— главное поле битвы пока что не бизнес, а патенты и интеллектуальная собственность.
2️⃣ Однако, реальную отдачу от AI для бизнеса уже получают ранние внедренцы - «по жизни цифровые индустрии». Например:
— Netflix получает $1 млрд в год только за свой уникальный рекомендательный сервис, удерживающий клиентов от ухода к конкурентам;
— Amazon сократил интервал времени «Заказ-Отгрузка» с 70 мин. до 15 мин., сократив этим затраты на 20% и увеличив емкость складов на 50%.
3️⃣ США и Китай ушли в отрыв. Даже Европе (не говоря уж о России) практически нечего ловить.
— только Baidu и Google уже тратят по $20-$30 млрд внутренних инвестиций в год на AI;
— 90% идет на R&D и лишь 10% на M&A (т.е. рынок еще в пеленках);
— основные внешние инвестиции (от внешних инвесторов) вкладываются в Машинное обучение, хотя этот сегмент неотвратимо растворяется в других.
4️⃣ Перспективы траектории «спрос-предложение» сильно отличаются для разных индустрий
— финансы, хай-тек, телеком съедят больше половины AI пирога;
— обучение (увы!) застрянет, почти как строительство.
5️⃣ Ключевые вызовы на пути AI-революции и Цифровой трансформации – не массовая безработица и «бунт машин», а вот что:
— понять, как учить и переучивать людей;
— создать культуру кооперации с роботами (чтоб не гнобить и не подсиживать их);
— понять, как решать вопросы ответственности, доверия и правового обеспечения при сосуществовании и кооперации человека и AI - тут пока что ВООБЩЕ КОНЬ НЕ ВАЛЯЛСЯ И НИЧЕГО НЕ ПОНЯТНО
- - - - -
Как видите, AI по гамбургскому счету не сильно похож на то, что о нем пишут ученые, вендоры и журналисты. На то он и гамбургский счет 😳
#McKinsey #AI #МашинноеОбучение
McKinsey & Company
How artificial intelligence can deliver real value to companies
Companies new to the space can learn a great deal from early adopters who have invested billions into AI and are now beginning to reap a range of benefits.
Я НАЧАЛЬНИК, ТЫ – AI
В прошлом посте была указана открытая ссылка за пэйвол HBR на последний номер этого журнала.
И поскольку доступ к этому номеру у вас уже есть, хочу порекомендовать еще один интересный материал из него – короткая статья «Алгоритмы видимость контроля».
В ней рассказывается про весьма неприятную историю, связанную с AI, - про которую почти не пишут. Речь идет о т.н. Эффекте «неприятия алгоритма»:
Суть этого «неприятия» в следующем.
Люди предъявляют к алгоритмам (решениям, принимаемым машинами) куда более жесткие требования, чем к самим себе. И поскольку почти любой алгоритм не идеален, люди отказываются использовать алгоритм, ссылаясь на его недостаточную точность и надежность.
Другими словами, себе-любимому мы готовы простить даже бОльшую ошибку, чем компьютеру.
В результате, человек оставляет за собой работу, куда лучше выполняемую компьютером. А бизнес продолжает терять на этом кучу денег, эффективность не растет и, вообще, прогресс не идет, куда следует.
Например, вот такая ситуация:
(1) врач в состоянии самостоятельно поставить правильный диагноз по снимку с вероятностью 60%,
(2) ему дается AI, который якобы будет ставить правильные диагнозы по снимкам с вероятностью 90%;
(3) на практике же получается, что AI ставит правильные диагнозы с вероятностью «только» 80%.
В результате, врач заявляет, что не нужен ему такой плохой AI, который не дотягивает до обещанной точности диагностики. Более того, раз он не может обеспечить 90% точность диагностики, ему вообще нельзя доверять.
В статье HBR описываются эксперименты, проводимые с целью найти способ борьбы с «неприятием алгоритма».
Согласно экспериментам, неприятие снижается, если человеку дать возможность подправлять решения AI.
Бред, конечно! А что делать? Иначе человек не может ничего с собой поделать и будет всячески дискредитировать и саботировать решения AI.
Цена вопроса здесь колоссальная. Эксперты считают, что «неприятию алгоритма» человечество обязано многими миллиардами, теряемыми, например, в ритейле из-за того, что там, по-прежнему, предпочитают опираться на человеческий прогноз при пополнении запасов, а не на куда более точные прогнозы уже существующих AI систем.
- - - - -
Легко представить, что для борьбы с «неприятием алгоритма» разработчики AI начнут предусматривать спецтрюки. Например, человек будет считать, что корректирует решения AI, а на самом деле, AI просто будет в этот момент играть с человеком в поддавки, давая ему ложное ощущение, что тот – главный.
Такой путь может закончиться плохо. И я бы сильно подумал, прежде чем пойти на такой риск.
Так за кем должно оставаться финальное решение???
N.B. От ответа на этот вопрос, в частности, зависит юридическая легализация управляемых AI авто и даже то, решится ли одна из сторон нанести ядерный удар.
Такова важность решения вопроса о «неприятии алгоритма».
Статья ссылается на это исследование.
Но есть и более новое.
#AI #ПринятиеРешений #Прогнозирование #НеприятиеАлгоритма
В прошлом посте была указана открытая ссылка за пэйвол HBR на последний номер этого журнала.
И поскольку доступ к этому номеру у вас уже есть, хочу порекомендовать еще один интересный материал из него – короткая статья «Алгоритмы видимость контроля».
В ней рассказывается про весьма неприятную историю, связанную с AI, - про которую почти не пишут. Речь идет о т.н. Эффекте «неприятия алгоритма»:
-- истоки которого коренятся у нас в сознании, но до конца не понятно – почему, и потому не очень ясно, как с этим бороться;
-- последствия которого определяют успех/неуспех и, соответственно, – применение/неприменение той или иной AI технологии в конкретных индустриях и областях личного и общественного использования.
Суть этого «неприятия» в следующем.
Люди предъявляют к алгоритмам (решениям, принимаемым машинами) куда более жесткие требования, чем к самим себе. И поскольку почти любой алгоритм не идеален, люди отказываются использовать алгоритм, ссылаясь на его недостаточную точность и надежность.
Другими словами, себе-любимому мы готовы простить даже бОльшую ошибку, чем компьютеру.
Это смахивает на наше свойство «в чужом глазу соломину видеть, а в своём — бревна не замечать».
В результате, человек оставляет за собой работу, куда лучше выполняемую компьютером. А бизнес продолжает терять на этом кучу денег, эффективность не растет и, вообще, прогресс не идет, куда следует.
Например, вот такая ситуация:
(1) врач в состоянии самостоятельно поставить правильный диагноз по снимку с вероятностью 60%,
(2) ему дается AI, который якобы будет ставить правильные диагнозы по снимкам с вероятностью 90%;
(3) на практике же получается, что AI ставит правильные диагнозы с вероятностью «только» 80%.
В результате, врач заявляет, что не нужен ему такой плохой AI, который не дотягивает до обещанной точности диагностики. Более того, раз он не может обеспечить 90% точность диагностики, ему вообще нельзя доверять.
В статье HBR описываются эксперименты, проводимые с целью найти способ борьбы с «неприятием алгоритма».
Согласно экспериментам, неприятие снижается, если человеку дать возможность подправлять решения AI.
Т.е. этот самый врач, у которого точность диагноза на треть хуже, чем у AI, будет подправлять диагностику AI.
Бред, конечно! А что делать? Иначе человек не может ничего с собой поделать и будет всячески дискредитировать и саботировать решения AI.
Цена вопроса здесь колоссальная. Эксперты считают, что «неприятию алгоритма» человечество обязано многими миллиардами, теряемыми, например, в ритейле из-за того, что там, по-прежнему, предпочитают опираться на человеческий прогноз при пополнении запасов, а не на куда более точные прогнозы уже существующих AI систем.
- - - - -
Легко представить, что для борьбы с «неприятием алгоритма» разработчики AI начнут предусматривать спецтрюки. Например, человек будет считать, что корректирует решения AI, а на самом деле, AI просто будет в этот момент играть с человеком в поддавки, давая ему ложное ощущение, что тот – главный.
Такой путь может закончиться плохо. И я бы сильно подумал, прежде чем пойти на такой риск.
Так за кем должно оставаться финальное решение???
N.B. От ответа на этот вопрос, в частности, зависит юридическая легализация управляемых AI авто и даже то, решится ли одна из сторон нанести ядерный удар.
Такова важность решения вопроса о «неприятии алгоритма».
Статья ссылается на это исследование.
Но есть и более новое.
#AI #ПринятиеРешений #Прогнозирование #НеприятиеАлгоритма
Ssrn
Overcoming Algorithm Aversion: People Will Use Imperfect Algorithms If They Can (Even Slightly) Modify Them
Although evidence-based algorithms consistently outperform human forecasters, people often fail to use them after learning that they are imperfect, a phenomenon
УТИНЫЙ ТЕСТ ДЛЯ AI
Рассказываю.
1) Все эти заголовки, типа Умные боты Facebook придумали свой язык на случай важных переговоров, Восстание машин: чат-боты Facebook создали собственный язык, Человечество было в одном шаге от реального бунта машин и т.п., - просто погоня за дешевыми сенсациями, и сами статьи не имеют ничего общего с сутью события.
2) Да и события-то, в принципе, никакого не было. И, казалось бы, - о чем говорить?
— Уже известно, что AI-системы способны оперировать не существовавшими ранее языками (см., например, здесь).
— Программисты, разрабатывавшие чат-боты для Facebook, не установили в программу ограничение, чтобы боты ОБЯЗАТЕЛЬНО общались на языке людей. Поэтому боты, для повышения эффективности своего диалога, стали банально «упрощать» язык людей под поставленную им задачу. Например, вместо того, чтобы заморачиваться со сложными языковыми конструкциями, бот называл пять раз один и тот же предмет, что «на новом языке» означало потребность в пяти экземплярах данного предмета.
— Поскольку по техзаданию требовались боты ИСКЛЮЧИТЕЛЬНО для общения с людьми, эксперимент С ЭТИМИ БОТАМИ был признан неудачным и завершен.
— Microsoft запустила в Twitter ИИ-бота — подростка, и он за сутки научился плохим вещам
— Cначала Tay, теперь Zo: очередной чат-бот Microsoft вышел из-под контроля
— AI Is Inventing Languages Humans Can’t Understand. Should We Stop It? и т.д. и т.п.
✔️ Цунами фейковых новостей имеют единственную цель – любым путем подогревать интерес к AI-разработкам со стороны инвесторов. А это невозможно без ажиотажного интереса к AI со стороны Нового Бога XXI века – МЕДИА (и об этом, кстати, есть отличный сериал)
✔️ Если прекратить извергать цунами фейковых новостей, то и МЕДИА, и инвесторы довольно скоро поймут, что «Создать искусственное сознание невозможно — даже случайно».
И, следовательно, в AI разработках нужно добиваться не антропоморфизма, а механоморфизма, т.е. мы должны перестать пытаться заставить ботов действовать как люди.
Они не смогут действовать, как люди, поскольку без сознания никакой бот не будет способен ПОНИМАТЬ тонкостей контекста и даже, хотя бы, просто вежливо себя вести.
Нынешнее же направление разработок разговорных ботов (и шире – AI) более всего напоминает скевоморфизм в дизайне – имитацию другого объекта путем имитирования его материала, формы и функциональности.
В результате, прохождение разрабатываемыми сейчас AI-системами Теста Тьюринга, по сути, превратилось в прохождение Утиного теста.
Но если что-то выглядит как утка, плавает как утка и крякает как утка, - это все же не гарантирует, что перед нами утка.
Если только под уткой не понимается фейковая новость.
#AI #ФейковыеНовости #Язык
Читатель канала предложил рассказать, «что стоит за сообщениями про то, как Фейсбук убил проект, где два чат бота стали разговаривать друг с другом на непонятном языке - наверняка журналисты все переврали».
Рассказываю.
1) Все эти заголовки, типа Умные боты Facebook придумали свой язык на случай важных переговоров, Восстание машин: чат-боты Facebook создали собственный язык, Человечество было в одном шаге от реального бунта машин и т.п., - просто погоня за дешевыми сенсациями, и сами статьи не имеют ничего общего с сутью события.
2) Да и события-то, в принципе, никакого не было. И, казалось бы, - о чем говорить?
— Уже известно, что AI-системы способны оперировать не существовавшими ранее языками (см., например, здесь).
— Программисты, разрабатывавшие чат-боты для Facebook, не установили в программу ограничение, чтобы боты ОБЯЗАТЕЛЬНО общались на языке людей. Поэтому боты, для повышения эффективности своего диалога, стали банально «упрощать» язык людей под поставленную им задачу. Например, вместо того, чтобы заморачиваться со сложными языковыми конструкциями, бот называл пять раз один и тот же предмет, что «на новом языке» означало потребность в пяти экземплярах данного предмета.
— Поскольку по техзаданию требовались боты ИСКЛЮЧИТЕЛЬНО для общения с людьми, эксперимент С ЭТИМИ БОТАМИ был признан неудачным и завершен.
Так почему же появляются все новые и новые фейковые новости вокруг темы языков ботов и шире – языков AI?
— Microsoft запустила в Twitter ИИ-бота — подростка, и он за сутки научился плохим вещам
— Cначала Tay, теперь Zo: очередной чат-бот Microsoft вышел из-под контроля
— AI Is Inventing Languages Humans Can’t Understand. Should We Stop It? и т.д. и т.п.
Ответ на поставленный вопрос, хоть и лежит на поверхности, но осознается не сразу.
✔️ Цунами фейковых новостей имеют единственную цель – любым путем подогревать интерес к AI-разработкам со стороны инвесторов. А это невозможно без ажиотажного интереса к AI со стороны Нового Бога XXI века – МЕДИА (и об этом, кстати, есть отличный сериал)
✔️ Если прекратить извергать цунами фейковых новостей, то и МЕДИА, и инвесторы довольно скоро поймут, что «Создать искусственное сознание невозможно — даже случайно».
И, следовательно, в AI разработках нужно добиваться не антропоморфизма, а механоморфизма, т.е. мы должны перестать пытаться заставить ботов действовать как люди.
Они не смогут действовать, как люди, поскольку без сознания никакой бот не будет способен ПОНИМАТЬ тонкостей контекста и даже, хотя бы, просто вежливо себя вести.
Нынешнее же направление разработок разговорных ботов (и шире – AI) более всего напоминает скевоморфизм в дизайне – имитацию другого объекта путем имитирования его материала, формы и функциональности.
В результате, прохождение разрабатываемыми сейчас AI-системами Теста Тьюринга, по сути, превратилось в прохождение Утиного теста.
Но если что-то выглядит как утка, плавает как утка и крякает как утка, - это все же не гарантирует, что перед нами утка.
Если только под уткой не понимается фейковая новость.
#AI #ФейковыеНовости #Язык
Lenta.RU
Умные боты Facebook придумали свой язык на случай важных переговоров
Исследователи лаборатории искусственного интеллекта Facebook (FAIR) обнаружили, что умные чат-боты соцсети придумали свой собственный язык. Они начали видоизменять слова и фразы, а затем упростили ряд выражений и грамматических конструкций. Также разработаны…