ОБ AI ПО ГАМБУРГСКОМУ СЧЕТУ
Желающие могут скачать отчет здесь (PDF 3MB, 80 стр.)
Я же попробую отжать в сухой остаток ключевые тезисы и визуализировать их.
1️⃣ Мы в самом начале AI-революции:
— инвестиции уже колоссальные и быстро растут;
— понимания, что и как с этим делать, пока, к сожалению, мало;
— реальной отдачи в бизнесе – еще меньше;
— главное поле битвы пока что не бизнес, а патенты и интеллектуальная собственность.
2️⃣ Однако, реальную отдачу от AI для бизнеса уже получают ранние внедренцы - «по жизни цифровые индустрии». Например:
— Netflix получает $1 млрд в год только за свой уникальный рекомендательный сервис, удерживающий клиентов от ухода к конкурентам;
— Amazon сократил интервал времени «Заказ-Отгрузка» с 70 мин. до 15 мин., сократив этим затраты на 20% и увеличив емкость складов на 50%.
3️⃣ США и Китай ушли в отрыв. Даже Европе (не говоря уж о России) практически нечего ловить.
— только Baidu и Google уже тратят по $20-$30 млрд внутренних инвестиций в год на AI;
— 90% идет на R&D и лишь 10% на M&A (т.е. рынок еще в пеленках);
— основные внешние инвестиции (от внешних инвесторов) вкладываются в Машинное обучение, хотя этот сегмент неотвратимо растворяется в других.
4️⃣ Перспективы траектории «спрос-предложение» сильно отличаются для разных индустрий
— финансы, хай-тек, телеком съедят больше половины AI пирога;
— обучение (увы!) застрянет, почти как строительство.
5️⃣ Ключевые вызовы на пути AI-революции и Цифровой трансформации – не массовая безработица и «бунт машин», а вот что:
— понять, как учить и переучивать людей;
— создать культуру кооперации с роботами (чтоб не гнобить и не подсиживать их);
— понять, как решать вопросы ответственности, доверия и правового обеспечения при сосуществовании и кооперации человека и AI - тут пока что ВООБЩЕ КОНЬ НЕ ВАЛЯЛСЯ И НИЧЕГО НЕ ПОНЯТНО
- - - - -
Как видите, AI по гамбургскому счету не сильно похож на то, что о нем пишут ученые, вендоры и журналисты. На то он и гамбургский счет 😳
#McKinsey #AI #МашинноеОбучение
Уже не раз писал, что о перспективах технологий нельзя судить по статьям ученых, вендоров и журналистов. Слишком они противоречивы и ангажированы.
Лишь экспертный анализ бизнес-консультантов с высокой репутацией способен оценить положение и перспективы по гамбургскому счету – независимо от сиюминутных обстоятельств и корыстных интересов, максимально реалистично, практично и точно.
И сегодня такая возможность появилось с выходом отчета McKinsey Global Institute.
Желающие могут скачать отчет здесь (PDF 3MB, 80 стр.)
Я же попробую отжать в сухой остаток ключевые тезисы и визуализировать их.
1️⃣ Мы в самом начале AI-революции:
— инвестиции уже колоссальные и быстро растут;
— понимания, что и как с этим делать, пока, к сожалению, мало;
— реальной отдачи в бизнесе – еще меньше;
— главное поле битвы пока что не бизнес, а патенты и интеллектуальная собственность.
2️⃣ Однако, реальную отдачу от AI для бизнеса уже получают ранние внедренцы - «по жизни цифровые индустрии». Например:
— Netflix получает $1 млрд в год только за свой уникальный рекомендательный сервис, удерживающий клиентов от ухода к конкурентам;
— Amazon сократил интервал времени «Заказ-Отгрузка» с 70 мин. до 15 мин., сократив этим затраты на 20% и увеличив емкость складов на 50%.
3️⃣ США и Китай ушли в отрыв. Даже Европе (не говоря уж о России) практически нечего ловить.
— только Baidu и Google уже тратят по $20-$30 млрд внутренних инвестиций в год на AI;
— 90% идет на R&D и лишь 10% на M&A (т.е. рынок еще в пеленках);
— основные внешние инвестиции (от внешних инвесторов) вкладываются в Машинное обучение, хотя этот сегмент неотвратимо растворяется в других.
4️⃣ Перспективы траектории «спрос-предложение» сильно отличаются для разных индустрий
— финансы, хай-тек, телеком съедят больше половины AI пирога;
— обучение (увы!) застрянет, почти как строительство.
5️⃣ Ключевые вызовы на пути AI-революции и Цифровой трансформации – не массовая безработица и «бунт машин», а вот что:
— понять, как учить и переучивать людей;
— создать культуру кооперации с роботами (чтоб не гнобить и не подсиживать их);
— понять, как решать вопросы ответственности, доверия и правового обеспечения при сосуществовании и кооперации человека и AI - тут пока что ВООБЩЕ КОНЬ НЕ ВАЛЯЛСЯ И НИЧЕГО НЕ ПОНЯТНО
- - - - -
Как видите, AI по гамбургскому счету не сильно похож на то, что о нем пишут ученые, вендоры и журналисты. На то он и гамбургский счет 😳
#McKinsey #AI #МашинноеОбучение
McKinsey & Company
How artificial intelligence can deliver real value to companies
Companies new to the space can learn a great deal from early adopters who have invested billions into AI and are now beginning to reap a range of benefits.
Я НАЧАЛЬНИК, ТЫ – AI
В прошлом посте была указана открытая ссылка за пэйвол HBR на последний номер этого журнала.
И поскольку доступ к этому номеру у вас уже есть, хочу порекомендовать еще один интересный материал из него – короткая статья «Алгоритмы видимость контроля».
В ней рассказывается про весьма неприятную историю, связанную с AI, - про которую почти не пишут. Речь идет о т.н. Эффекте «неприятия алгоритма»:
Суть этого «неприятия» в следующем.
Люди предъявляют к алгоритмам (решениям, принимаемым машинами) куда более жесткие требования, чем к самим себе. И поскольку почти любой алгоритм не идеален, люди отказываются использовать алгоритм, ссылаясь на его недостаточную точность и надежность.
Другими словами, себе-любимому мы готовы простить даже бОльшую ошибку, чем компьютеру.
В результате, человек оставляет за собой работу, куда лучше выполняемую компьютером. А бизнес продолжает терять на этом кучу денег, эффективность не растет и, вообще, прогресс не идет, куда следует.
Например, вот такая ситуация:
(1) врач в состоянии самостоятельно поставить правильный диагноз по снимку с вероятностью 60%,
(2) ему дается AI, который якобы будет ставить правильные диагнозы по снимкам с вероятностью 90%;
(3) на практике же получается, что AI ставит правильные диагнозы с вероятностью «только» 80%.
В результате, врач заявляет, что не нужен ему такой плохой AI, который не дотягивает до обещанной точности диагностики. Более того, раз он не может обеспечить 90% точность диагностики, ему вообще нельзя доверять.
В статье HBR описываются эксперименты, проводимые с целью найти способ борьбы с «неприятием алгоритма».
Согласно экспериментам, неприятие снижается, если человеку дать возможность подправлять решения AI.
Бред, конечно! А что делать? Иначе человек не может ничего с собой поделать и будет всячески дискредитировать и саботировать решения AI.
Цена вопроса здесь колоссальная. Эксперты считают, что «неприятию алгоритма» человечество обязано многими миллиардами, теряемыми, например, в ритейле из-за того, что там, по-прежнему, предпочитают опираться на человеческий прогноз при пополнении запасов, а не на куда более точные прогнозы уже существующих AI систем.
- - - - -
Легко представить, что для борьбы с «неприятием алгоритма» разработчики AI начнут предусматривать спецтрюки. Например, человек будет считать, что корректирует решения AI, а на самом деле, AI просто будет в этот момент играть с человеком в поддавки, давая ему ложное ощущение, что тот – главный.
Такой путь может закончиться плохо. И я бы сильно подумал, прежде чем пойти на такой риск.
Так за кем должно оставаться финальное решение???
N.B. От ответа на этот вопрос, в частности, зависит юридическая легализация управляемых AI авто и даже то, решится ли одна из сторон нанести ядерный удар.
Такова важность решения вопроса о «неприятии алгоритма».
Статья ссылается на это исследование.
Но есть и более новое.
#AI #ПринятиеРешений #Прогнозирование #НеприятиеАлгоритма
В прошлом посте была указана открытая ссылка за пэйвол HBR на последний номер этого журнала.
И поскольку доступ к этому номеру у вас уже есть, хочу порекомендовать еще один интересный материал из него – короткая статья «Алгоритмы видимость контроля».
В ней рассказывается про весьма неприятную историю, связанную с AI, - про которую почти не пишут. Речь идет о т.н. Эффекте «неприятия алгоритма»:
-- истоки которого коренятся у нас в сознании, но до конца не понятно – почему, и потому не очень ясно, как с этим бороться;
-- последствия которого определяют успех/неуспех и, соответственно, – применение/неприменение той или иной AI технологии в конкретных индустриях и областях личного и общественного использования.
Суть этого «неприятия» в следующем.
Люди предъявляют к алгоритмам (решениям, принимаемым машинами) куда более жесткие требования, чем к самим себе. И поскольку почти любой алгоритм не идеален, люди отказываются использовать алгоритм, ссылаясь на его недостаточную точность и надежность.
Другими словами, себе-любимому мы готовы простить даже бОльшую ошибку, чем компьютеру.
Это смахивает на наше свойство «в чужом глазу соломину видеть, а в своём — бревна не замечать».
В результате, человек оставляет за собой работу, куда лучше выполняемую компьютером. А бизнес продолжает терять на этом кучу денег, эффективность не растет и, вообще, прогресс не идет, куда следует.
Например, вот такая ситуация:
(1) врач в состоянии самостоятельно поставить правильный диагноз по снимку с вероятностью 60%,
(2) ему дается AI, который якобы будет ставить правильные диагнозы по снимкам с вероятностью 90%;
(3) на практике же получается, что AI ставит правильные диагнозы с вероятностью «только» 80%.
В результате, врач заявляет, что не нужен ему такой плохой AI, который не дотягивает до обещанной точности диагностики. Более того, раз он не может обеспечить 90% точность диагностики, ему вообще нельзя доверять.
В статье HBR описываются эксперименты, проводимые с целью найти способ борьбы с «неприятием алгоритма».
Согласно экспериментам, неприятие снижается, если человеку дать возможность подправлять решения AI.
Т.е. этот самый врач, у которого точность диагноза на треть хуже, чем у AI, будет подправлять диагностику AI.
Бред, конечно! А что делать? Иначе человек не может ничего с собой поделать и будет всячески дискредитировать и саботировать решения AI.
Цена вопроса здесь колоссальная. Эксперты считают, что «неприятию алгоритма» человечество обязано многими миллиардами, теряемыми, например, в ритейле из-за того, что там, по-прежнему, предпочитают опираться на человеческий прогноз при пополнении запасов, а не на куда более точные прогнозы уже существующих AI систем.
- - - - -
Легко представить, что для борьбы с «неприятием алгоритма» разработчики AI начнут предусматривать спецтрюки. Например, человек будет считать, что корректирует решения AI, а на самом деле, AI просто будет в этот момент играть с человеком в поддавки, давая ему ложное ощущение, что тот – главный.
Такой путь может закончиться плохо. И я бы сильно подумал, прежде чем пойти на такой риск.
Так за кем должно оставаться финальное решение???
N.B. От ответа на этот вопрос, в частности, зависит юридическая легализация управляемых AI авто и даже то, решится ли одна из сторон нанести ядерный удар.
Такова важность решения вопроса о «неприятии алгоритма».
Статья ссылается на это исследование.
Но есть и более новое.
#AI #ПринятиеРешений #Прогнозирование #НеприятиеАлгоритма
Ssrn
Overcoming Algorithm Aversion: People Will Use Imperfect Algorithms If They Can (Even Slightly) Modify Them
Although evidence-based algorithms consistently outperform human forecasters, people often fail to use them after learning that they are imperfect, a phenomenon
УТИНЫЙ ТЕСТ ДЛЯ AI
Рассказываю.
1) Все эти заголовки, типа Умные боты Facebook придумали свой язык на случай важных переговоров, Восстание машин: чат-боты Facebook создали собственный язык, Человечество было в одном шаге от реального бунта машин и т.п., - просто погоня за дешевыми сенсациями, и сами статьи не имеют ничего общего с сутью события.
2) Да и события-то, в принципе, никакого не было. И, казалось бы, - о чем говорить?
— Уже известно, что AI-системы способны оперировать не существовавшими ранее языками (см., например, здесь).
— Программисты, разрабатывавшие чат-боты для Facebook, не установили в программу ограничение, чтобы боты ОБЯЗАТЕЛЬНО общались на языке людей. Поэтому боты, для повышения эффективности своего диалога, стали банально «упрощать» язык людей под поставленную им задачу. Например, вместо того, чтобы заморачиваться со сложными языковыми конструкциями, бот называл пять раз один и тот же предмет, что «на новом языке» означало потребность в пяти экземплярах данного предмета.
— Поскольку по техзаданию требовались боты ИСКЛЮЧИТЕЛЬНО для общения с людьми, эксперимент С ЭТИМИ БОТАМИ был признан неудачным и завершен.
— Microsoft запустила в Twitter ИИ-бота — подростка, и он за сутки научился плохим вещам
— Cначала Tay, теперь Zo: очередной чат-бот Microsoft вышел из-под контроля
— AI Is Inventing Languages Humans Can’t Understand. Should We Stop It? и т.д. и т.п.
✔️ Цунами фейковых новостей имеют единственную цель – любым путем подогревать интерес к AI-разработкам со стороны инвесторов. А это невозможно без ажиотажного интереса к AI со стороны Нового Бога XXI века – МЕДИА (и об этом, кстати, есть отличный сериал)
✔️ Если прекратить извергать цунами фейковых новостей, то и МЕДИА, и инвесторы довольно скоро поймут, что «Создать искусственное сознание невозможно — даже случайно».
И, следовательно, в AI разработках нужно добиваться не антропоморфизма, а механоморфизма, т.е. мы должны перестать пытаться заставить ботов действовать как люди.
Они не смогут действовать, как люди, поскольку без сознания никакой бот не будет способен ПОНИМАТЬ тонкостей контекста и даже, хотя бы, просто вежливо себя вести.
Нынешнее же направление разработок разговорных ботов (и шире – AI) более всего напоминает скевоморфизм в дизайне – имитацию другого объекта путем имитирования его материала, формы и функциональности.
В результате, прохождение разрабатываемыми сейчас AI-системами Теста Тьюринга, по сути, превратилось в прохождение Утиного теста.
Но если что-то выглядит как утка, плавает как утка и крякает как утка, - это все же не гарантирует, что перед нами утка.
Если только под уткой не понимается фейковая новость.
#AI #ФейковыеНовости #Язык
Читатель канала предложил рассказать, «что стоит за сообщениями про то, как Фейсбук убил проект, где два чат бота стали разговаривать друг с другом на непонятном языке - наверняка журналисты все переврали».
Рассказываю.
1) Все эти заголовки, типа Умные боты Facebook придумали свой язык на случай важных переговоров, Восстание машин: чат-боты Facebook создали собственный язык, Человечество было в одном шаге от реального бунта машин и т.п., - просто погоня за дешевыми сенсациями, и сами статьи не имеют ничего общего с сутью события.
2) Да и события-то, в принципе, никакого не было. И, казалось бы, - о чем говорить?
— Уже известно, что AI-системы способны оперировать не существовавшими ранее языками (см., например, здесь).
— Программисты, разрабатывавшие чат-боты для Facebook, не установили в программу ограничение, чтобы боты ОБЯЗАТЕЛЬНО общались на языке людей. Поэтому боты, для повышения эффективности своего диалога, стали банально «упрощать» язык людей под поставленную им задачу. Например, вместо того, чтобы заморачиваться со сложными языковыми конструкциями, бот называл пять раз один и тот же предмет, что «на новом языке» означало потребность в пяти экземплярах данного предмета.
— Поскольку по техзаданию требовались боты ИСКЛЮЧИТЕЛЬНО для общения с людьми, эксперимент С ЭТИМИ БОТАМИ был признан неудачным и завершен.
Так почему же появляются все новые и новые фейковые новости вокруг темы языков ботов и шире – языков AI?
— Microsoft запустила в Twitter ИИ-бота — подростка, и он за сутки научился плохим вещам
— Cначала Tay, теперь Zo: очередной чат-бот Microsoft вышел из-под контроля
— AI Is Inventing Languages Humans Can’t Understand. Should We Stop It? и т.д. и т.п.
Ответ на поставленный вопрос, хоть и лежит на поверхности, но осознается не сразу.
✔️ Цунами фейковых новостей имеют единственную цель – любым путем подогревать интерес к AI-разработкам со стороны инвесторов. А это невозможно без ажиотажного интереса к AI со стороны Нового Бога XXI века – МЕДИА (и об этом, кстати, есть отличный сериал)
✔️ Если прекратить извергать цунами фейковых новостей, то и МЕДИА, и инвесторы довольно скоро поймут, что «Создать искусственное сознание невозможно — даже случайно».
И, следовательно, в AI разработках нужно добиваться не антропоморфизма, а механоморфизма, т.е. мы должны перестать пытаться заставить ботов действовать как люди.
Они не смогут действовать, как люди, поскольку без сознания никакой бот не будет способен ПОНИМАТЬ тонкостей контекста и даже, хотя бы, просто вежливо себя вести.
Нынешнее же направление разработок разговорных ботов (и шире – AI) более всего напоминает скевоморфизм в дизайне – имитацию другого объекта путем имитирования его материала, формы и функциональности.
В результате, прохождение разрабатываемыми сейчас AI-системами Теста Тьюринга, по сути, превратилось в прохождение Утиного теста.
Но если что-то выглядит как утка, плавает как утка и крякает как утка, - это все же не гарантирует, что перед нами утка.
Если только под уткой не понимается фейковая новость.
#AI #ФейковыеНовости #Язык
Lenta.RU
Умные боты Facebook придумали свой язык на случай важных переговоров
Исследователи лаборатории искусственного интеллекта Facebook (FAIR) обнаружили, что умные чат-боты соцсети придумали свой собственный язык. Они начали видоизменять слова и фразы, а затем упростили ряд выражений и грамматических конструкций. Также разработаны…
КАК AI ОЦЕНИВАЕТ ПУТИНА И ТРАМПА
Понимание эмоционального подтекста сетевых высказываний (твитов, коментов и т.д.) – задача стоимостью в десятки миллиардов долларов.
Ее решение до последнего времени никак не находилось. Куда там эмоциональный подтекст, - нам бы точный смысл понять.
И вот прорыв. Причем идея лежала перед носом уже не один год.
Поскольку эмоциональный подтекст упрятан в языке неимоверно глубоко, что, если и не пытаться его самим оттуда откапывать, а предложить AI заняться этим, обучая его на текстах, содержащих эмодзи - идеограммы и смайлики, используемые в электронных сообщениях и веб-страницах.
Идея оказалась крайне продуктивной. Натасканный на текстах с эмодзи AI научился определять сарказм лучше людей.
Столь великолепный результат поставил 2 новых, весьма неожиданных, вопроса:
Первое, что приходит в голову по вопросу 1 на волне хайпа рэп-батла Oxxxymiron против Гнойного – использовать утонченный сарказм AI для написания панчлайнов (это короткая строка или фраза, которая должна сильно задеть соперника).
Эту идею уже пытаются реализовать на https://deepbeat.org/ , но пока не сильно удачно: со смыслом и ритмом AI кое-как справляется. А вот сарказм они пока реализовать не смогли (почему - см. здесь и здесь)
Ответ на 2й вопрос может быть дан на примере здесь.
Например, что за «скрытая от нас мысль» подвигает AI при оценке фразы Putin is the best president ever оценить эмоциональный подтекст имени Putin - эмодзи 👏 , а эмоциональный подтекст имени Trump во фразе Trump is the best president ever - эмодзи 💀?
О чем это AI – о возможном ядерном ударе Трампа по КНДР или его вероятном импичменте?
И так ли уж для AI мил Путин?
Ответ на последний вопрос я попробовал получить на https://deepbeat.org/ (если будете повторять, не забудьте включить режим Deep Learning справа сверху), задав 1й строчкой нового рэпа
Putin is the best president ever
AI думал 30 сек и выдал набор вариантов 2й строки. Например, такой:
Truth be told never made a deal with Satan 😈
#AI
Последние несколько постов получились с претензией на некое высоконаучное знание. И чтобы чуть понизить градус претенциозности, попробую сегодня рассказать о чем-то не только малоизвестном и интересном, но и забавно-прикольном.
😃 Понимание эмоционального подтекста сетевых высказываний (твитов, коментов и т.д.) – задача стоимостью в десятки миллиардов долларов.
Ее решение до последнего времени никак не находилось. Куда там эмоциональный подтекст, - нам бы точный смысл понять.
И вот прорыв. Причем идея лежала перед носом уже не один год.
Поскольку эмоциональный подтекст упрятан в языке неимоверно глубоко, что, если и не пытаться его самим оттуда откапывать, а предложить AI заняться этим, обучая его на текстах, содержащих эмодзи - идеограммы и смайлики, используемые в электронных сообщениях и веб-страницах.
Идея оказалась крайне продуктивной. Натасканный на текстах с эмодзи AI научился определять сарказм лучше людей.
Столь великолепный результат поставил 2 новых, весьма неожиданных, вопроса:
1) Как еще (кроме оценки эмоционального подтекста сетевых высказываний) можно использовать столь утонченное понимание AI человеческого сарказма?
2) Поскольку «ход мыслей» AI при выявлении сарказма нам неизвестен (что типично при глубинном обучении), могут ли за этим «ходом мыслей» прятаться некие скрытые для нас смыслы?
Первое, что приходит в голову по вопросу 1 на волне хайпа рэп-батла Oxxxymiron против Гнойного – использовать утонченный сарказм AI для написания панчлайнов (это короткая строка или фраза, которая должна сильно задеть соперника).
Эту идею уже пытаются реализовать на https://deepbeat.org/ , но пока не сильно удачно: со смыслом и ритмом AI кое-как справляется. А вот сарказм они пока реализовать не смогли (почему - см. здесь и здесь)
Ответ на 2й вопрос может быть дан на примере здесь.
Например, что за «скрытая от нас мысль» подвигает AI при оценке фразы Putin is the best president ever оценить эмоциональный подтекст имени Putin - эмодзи 👏 , а эмоциональный подтекст имени Trump во фразе Trump is the best president ever - эмодзи 💀?
О чем это AI – о возможном ядерном ударе Трампа по КНДР или его вероятном импичменте?
И так ли уж для AI мил Путин?
Ответ на последний вопрос я попробовал получить на https://deepbeat.org/ (если будете повторять, не забудьте включить режим Deep Learning справа сверху), задав 1й строчкой нового рэпа
Putin is the best president ever
AI думал 30 сек и выдал набор вариантов 2й строки. Например, такой:
Truth be told never made a deal with Satan 😈
#AI
MIT Technology Review
An Algorithm Trained on Emoji Knows When You’re Being Sarcastic on Twitter
Understanding sarcasm could help AI fight racism, abuse, and harassment.
Новый поворот в развитии ИИ
С одной стороны, машинное обучение достигло многого. ИИ уже обыгрывает чемпионов в Го, неплохо управляет автомобилем, быстро прогрессирует в игре в покер, распознает рак на МРТ лучше врачей и т.д. и т.п.
С другой стороны, не понятно, куда двигаться дальше. А нужен какой-то принципиальный поворот. Ведь до универсальных возможностей мозга пока, как до Альфа Центавра. ИИ по-прежнему туп, как пробка, и лишь умеет перемалывать тонны данных, самосовершенствуясь в решении узких специализированных задач.
При смене задачи, приходится начинать учить ИИ (или давать ему самому учиться), по сути, с нуля. Да и с перемалыванием данных засада – ИИ не умеет сам отбирать нужные данные, а лишь способен очень быстро обрабатывать всё, поступающее ему на вход. А как известно – «мусор на входе – мусор на выходе».
И вот – новый поворот.
На только что закончившейся конференции IJCAI 2017 IBM представила 2 новых направления совершенствования ИИ, основанных на имитации функциональных свойств мозга.
1е направление – использование модели внимания, мотивируемого полезностью - способности быстро выбирать и обрабатывать самую нужную и важную информацию из огромного потока сенсорных сигналов (визуальных, слуховых и т. д.) – по англ. Quick adaptation with reward-driven attention.
Новый алгоритм учится быстро фокусировать внимание на обработке самых важных данных. И это обучение основано на вознаграждении (обратной связи), получаемом во время выполнения задания. Чем выше награда, тем больше внимания будет уделяться определенной части данных.
Новый подход абсолютно революционен. Он позволяет не просто мотивировать ИИ, но и увязывать мотивацию с целью действий. Т.е. действие перестает быть просто обучением ИИ, а способно, например, превратиться в обеспечение ИИ собственного существования (так, к примеру, работает мозг антилопы, в зоне внимания которой дрогнула ветка, за которой может скрываться тигр).
2е направление основано на нейрогенном обучении или нейропластичности - адаптации модели меняющегося мира в реальном времени – по англ. Building memories for long term adaptation: neurogenetic learning. В мозге это возможно за счет роста новых и разрушении старых клеток мозга (нейронов) и динамической перестройки их связей.
До сих пор основой машинного обучения было изменение силы нейронных связей. Новый революционный подход позволяет также расширять и сжимать скрытые слои сети, имитируя рождение и смерть нейронов.
Нейрогенез добавляет новое измерение в машинное обучение. Алгоритм не только адаптируется к новой среде (например, к новому классу задач), но также сохраняет воспоминания о прошлом опыте решения иных классов задач, тем самым делая шаг к ИИ, обучающемуся на протяжении всей его «жизни».
- - - - -
P.S. Революционность двух вышеописанных подходов такова, что кавычки в слове «жизнь» применительно к ИИ могут стать лишними.
Подробней со ссылками на научные статьи с описанием экспериментов – здесь
А тут и тут – статьи с популярным изложением.
#AI
С одной стороны, машинное обучение достигло многого. ИИ уже обыгрывает чемпионов в Го, неплохо управляет автомобилем, быстро прогрессирует в игре в покер, распознает рак на МРТ лучше врачей и т.д. и т.п.
С другой стороны, не понятно, куда двигаться дальше. А нужен какой-то принципиальный поворот. Ведь до универсальных возможностей мозга пока, как до Альфа Центавра. ИИ по-прежнему туп, как пробка, и лишь умеет перемалывать тонны данных, самосовершенствуясь в решении узких специализированных задач.
При смене задачи, приходится начинать учить ИИ (или давать ему самому учиться), по сути, с нуля. Да и с перемалыванием данных засада – ИИ не умеет сам отбирать нужные данные, а лишь способен очень быстро обрабатывать всё, поступающее ему на вход. А как известно – «мусор на входе – мусор на выходе».
И вот – новый поворот.
На только что закончившейся конференции IJCAI 2017 IBM представила 2 новых направления совершенствования ИИ, основанных на имитации функциональных свойств мозга.
1е направление – использование модели внимания, мотивируемого полезностью - способности быстро выбирать и обрабатывать самую нужную и важную информацию из огромного потока сенсорных сигналов (визуальных, слуховых и т. д.) – по англ. Quick adaptation with reward-driven attention.
Новый алгоритм учится быстро фокусировать внимание на обработке самых важных данных. И это обучение основано на вознаграждении (обратной связи), получаемом во время выполнения задания. Чем выше награда, тем больше внимания будет уделяться определенной части данных.
Новый подход абсолютно революционен. Он позволяет не просто мотивировать ИИ, но и увязывать мотивацию с целью действий. Т.е. действие перестает быть просто обучением ИИ, а способно, например, превратиться в обеспечение ИИ собственного существования (так, к примеру, работает мозг антилопы, в зоне внимания которой дрогнула ветка, за которой может скрываться тигр).
2е направление основано на нейрогенном обучении или нейропластичности - адаптации модели меняющегося мира в реальном времени – по англ. Building memories for long term adaptation: neurogenetic learning. В мозге это возможно за счет роста новых и разрушении старых клеток мозга (нейронов) и динамической перестройки их связей.
До сих пор основой машинного обучения было изменение силы нейронных связей. Новый революционный подход позволяет также расширять и сжимать скрытые слои сети, имитируя рождение и смерть нейронов.
Нейрогенез добавляет новое измерение в машинное обучение. Алгоритм не только адаптируется к новой среде (например, к новому классу задач), но также сохраняет воспоминания о прошлом опыте решения иных классов задач, тем самым делая шаг к ИИ, обучающемуся на протяжении всей его «жизни».
- - - - -
P.S. Революционность двух вышеописанных подходов такова, что кавычки в слове «жизнь» применительно к ИИ могут стать лишними.
Подробней со ссылками на научные статьи с описанием экспериментов – здесь
А тут и тут – статьи с популярным изложением.
#AI
Engadget
IBM is teaching AI to behave more like the human brain
IBM gives AI the ability to pay attention and make persistent memories.
Мнение технологических реалистов
Технологические пессимисты все громче взывают о рисках ИИ и робототехники, создающих угрозы для нашей конфиденциальности, рабочих мест и даже безопасности, поскольку все больше и больше задач передаются мозгам на основе кремния.
Оптимисты же, в противовес, рисуют все более поразительные картины будущего, где роботы с ИИ уже не только грузчики, уборщики и слесари, а художники, поэты, композиторы, режиссеры и дирижеры.
Голос реалистов слышен не так громко, и потому особенно ценен. Особенно, если речь не просто об отдельных публикациях, а о ресурсах, взявших на себя миссию «просвещенных реалистов», цель которых «делать своих подписчиков умнее каждый день», рассказывая о применениях наиболее прорывных технологий, которые уже работают.
Первый из таких ресурсов, который я смело рекомендую, - BBC Future, на днях рассказал о уже работающих проектах, показывающих замечательные результаты за счет максимального использования 3х простых качеств ИИ при выполнении рутинных работ:
1) физическая неутомимость,
2) толерантность к скуке,
3) способностью обнаруживать паттерны - шаблоны, выявляющие закономерности в рисунках, фото, звуках, динамике изменений и т.д. и т.п.
По всем 3м качествам, ИИ намного превосходит все, на что способны люди.
Всего один пример (остальные смотрите на BBC Future).
Проект Microsoft’s Project Premonition использует ИИ для согласованного управления:
— дронами, находящими «места тусовки» москитов,
— роботизироваными ловушками москитов,
— анализаторами патогенов в ДНК крови, забранной москитами из укушенных ими животных.
Система уже работает и позволяет с точностью 88% определять потенциальные очаги эпидемий лихорадки Зика за 3 мес. до того, как она может начаться – видео
Второй из рекомендуемых ресурсов «просвещенных реалистов» - российский телеграм-канал «Это работает».
Столь же обширный по тематике, как и BBC Future, этот канал обладает своей фишкой. Он засеивает Рунет видео-лекциями, собирая их в тематические «сериалы», закручивая их интригу «от сезона к сезону», так, что они превращаются в восприятии аудитории в один захватывающий фильм на единственную тему - человечество в эпоху Интернета.
Вот пример такого «сериала» из всего одного поста:
— Сон, мелатонин, старение: в чём связь?
— Удивительная история открытия и освоения одного из самых загадочных явлений природы – электричества.
— Почему этику в России так часто заменяют рациональные мотивы и стремление к утопической стабильности.
— Счастье дурака: что, как не глупость, может наполнить нашу жизнь удовольствием и радостью.
Для меня же самое главное, что оба канала - BBC Future и «Это работает» – источник удовлетворения ненасытного любопытства.
А любопытство, как писал Станислав Лем, это то, что объединяет разум и сверхразум.
Так что, оно того стоит!
#AI #ПолезныеРесурсы
Технологические пессимисты все громче взывают о рисках ИИ и робототехники, создающих угрозы для нашей конфиденциальности, рабочих мест и даже безопасности, поскольку все больше и больше задач передаются мозгам на основе кремния.
Оптимисты же, в противовес, рисуют все более поразительные картины будущего, где роботы с ИИ уже не только грузчики, уборщики и слесари, а художники, поэты, композиторы, режиссеры и дирижеры.
Голос реалистов слышен не так громко, и потому особенно ценен. Особенно, если речь не просто об отдельных публикациях, а о ресурсах, взявших на себя миссию «просвещенных реалистов», цель которых «делать своих подписчиков умнее каждый день», рассказывая о применениях наиболее прорывных технологий, которые уже работают.
Первый из таких ресурсов, который я смело рекомендую, - BBC Future, на днях рассказал о уже работающих проектах, показывающих замечательные результаты за счет максимального использования 3х простых качеств ИИ при выполнении рутинных работ:
1) физическая неутомимость,
2) толерантность к скуке,
3) способностью обнаруживать паттерны - шаблоны, выявляющие закономерности в рисунках, фото, звуках, динамике изменений и т.д. и т.п.
По всем 3м качествам, ИИ намного превосходит все, на что способны люди.
Всего один пример (остальные смотрите на BBC Future).
Проект Microsoft’s Project Premonition использует ИИ для согласованного управления:
— дронами, находящими «места тусовки» москитов,
— роботизироваными ловушками москитов,
— анализаторами патогенов в ДНК крови, забранной москитами из укушенных ими животных.
Система уже работает и позволяет с точностью 88% определять потенциальные очаги эпидемий лихорадки Зика за 3 мес. до того, как она может начаться – видео
Второй из рекомендуемых ресурсов «просвещенных реалистов» - российский телеграм-канал «Это работает».
Столь же обширный по тематике, как и BBC Future, этот канал обладает своей фишкой. Он засеивает Рунет видео-лекциями, собирая их в тематические «сериалы», закручивая их интригу «от сезона к сезону», так, что они превращаются в восприятии аудитории в один захватывающий фильм на единственную тему - человечество в эпоху Интернета.
Вот пример такого «сериала» из всего одного поста:
— Сон, мелатонин, старение: в чём связь?
— Удивительная история открытия и освоения одного из самых загадочных явлений природы – электричества.
— Почему этику в России так часто заменяют рациональные мотивы и стремление к утопической стабильности.
— Счастье дурака: что, как не глупость, может наполнить нашу жизнь удовольствием и радостью.
Для меня же самое главное, что оба канала - BBC Future и «Это работает» – источник удовлетворения ненасытного любопытства.
А любопытство, как писал Станислав Лем, это то, что объединяет разум и сверхразум.
Так что, оно того стоит!
#AI #ПолезныеРесурсы
Bbc
Home
You’ll find stories on BBC Future on almost every topic that matters: psychology, food, climate change, health, social trends, technology and more.
Какова реальная отдача от ИИ в бизнесе (сейчас и через 5 лет)
https://yadi.sk/i/0vOcvnfq3NPWSD
Новый совместный отчет MIT Sloan Management и Boston Consulting Group на тему в заголовке https://sloanreview.mit.edu/projects/reshaping-business-with-artificial-intelligence/ :
А) как и июльский отчет Mckinsey https://t.iss.one/theworldisnoteasy/275 , раскрывает тему с неожиданной стороны, перпендикулярной тому, что, в основном, пишут про ИИ в популярных медиа;
Б) добавляет к 5ти ключевым выводам McKinsey 6ой важный пункт, объясняющий, почему так низка пока что отдача от ИИ в бизнесе;
В) детализирует 5й ключевой вывод McKinsey, что главный вызов ИИ – это не массовая безработица и «бунт машин», а как учить и переучивать людей.
Резюмируя мысли нового отчета по пп. Б и В, можно сказать так.
✔️ Отдача от ИИ в бизнесе пока что так низка (в зависимости от отрасли лишь 10-20% компаний имеют реальную отдачу от использования ИИ в бизнес-процессах – см. приложенный рисунок), потому что бизнес-руководители все еще редко понимают, что ИИ – это всего лишь алгоритмы, - тупые и бесполезные, если их как следует не научить. А для этого нужны данные для обучения, время на обучение и люди, способные это грамотно организовать.
А если бизнес-руководители считают, что, например, для оптимизации ассортимента универсама достаточно лишь закупить алгоритм и загрузить в него данные по всем кассовым чекам за последний год, - то успеха не видать. Ни сейчас, ни через 5 лет.
✔️ Пора прекращать обсуждать высосанную из пальца проблему безработицы, как следствия внедрения ИИ. Проблема совсем в ином, потому что:
— Automation of Tasks ≠ Automation of Jobs (т.е. автоматизация с помощью ИИ - это не замена сотрудника алгоритмом, а высвобождение времени сотрудника для выполнения более сложных и полезных для бизнеса функций).
— ИИ – не уничтожитель рабочих мест, а их создатель (например, страховая индустрия может увеличиться в разы, когда с помощью ИИ люди-агенты научатся оценивать риски ущерба для репутации и бренда или риски кибер-уязвимости)
#AI
https://yadi.sk/i/0vOcvnfq3NPWSD
Новый совместный отчет MIT Sloan Management и Boston Consulting Group на тему в заголовке https://sloanreview.mit.edu/projects/reshaping-business-with-artificial-intelligence/ :
А) как и июльский отчет Mckinsey https://t.iss.one/theworldisnoteasy/275 , раскрывает тему с неожиданной стороны, перпендикулярной тому, что, в основном, пишут про ИИ в популярных медиа;
Б) добавляет к 5ти ключевым выводам McKinsey 6ой важный пункт, объясняющий, почему так низка пока что отдача от ИИ в бизнесе;
В) детализирует 5й ключевой вывод McKinsey, что главный вызов ИИ – это не массовая безработица и «бунт машин», а как учить и переучивать людей.
Резюмируя мысли нового отчета по пп. Б и В, можно сказать так.
✔️ Отдача от ИИ в бизнесе пока что так низка (в зависимости от отрасли лишь 10-20% компаний имеют реальную отдачу от использования ИИ в бизнес-процессах – см. приложенный рисунок), потому что бизнес-руководители все еще редко понимают, что ИИ – это всего лишь алгоритмы, - тупые и бесполезные, если их как следует не научить. А для этого нужны данные для обучения, время на обучение и люди, способные это грамотно организовать.
А если бизнес-руководители считают, что, например, для оптимизации ассортимента универсама достаточно лишь закупить алгоритм и загрузить в него данные по всем кассовым чекам за последний год, - то успеха не видать. Ни сейчас, ни через 5 лет.
✔️ Пора прекращать обсуждать высосанную из пальца проблему безработицы, как следствия внедрения ИИ. Проблема совсем в ином, потому что:
— Automation of Tasks ≠ Automation of Jobs (т.е. автоматизация с помощью ИИ - это не замена сотрудника алгоритмом, а высвобождение времени сотрудника для выполнения более сложных и полезных для бизнеса функций).
— ИИ – не уничтожитель рабочих мест, а их создатель (например, страховая индустрия может увеличиться в разы, когда с помощью ИИ люди-агенты научатся оценивать риски ущерба для репутации и бренда или риски кибер-уязвимости)
#AI
Yandex.Disk
AI.JPG
View and download from Yandex.Disk
Фейковая заказуха высокого полета
⚠️ Не стоит искать и смотреть ролик прежде, чем дочитаете пост до конца (а там решайте – смотреть или нет).
Видеоролик Slaughterbots (Роботы для массовых убийств) за 5 дней набрал на Youtube 600К+ просмотров.
https://d38zt8ehae1tnt.cloudfront.net/slaughterbots_they_cannot_be_stopped__234846.jpg?v=1510666020
Наберет и миллион. И не один. Ведь он тиражируется по разным аудиториям весьма популярными блогерами (от Гоблина до Себранта), его показывают в ООН, о нем пишут СМИ… Но главное, - ролик весьма талантлив и денег на него не пожалели.
Якобы это предупреждение человечеству: «У нас еще есть возможность предотвратить наступление будущего, которое вы сейчас видели, но окно этой возможности скоро закроется» - завершают ролик слова уважаемого профессора из Беркли.
В общем, класс! И притом, как уже сказано, - фейковая заказуха высокого полета (как в прямом, так и в переносном смыслах), призванная напугать, чтобы заставить мир поверить:
ИИ вот-вот привнесет в жизнь каждого из нас невиданные и немыслимые ранее опасности, и потому человечество (в лице его самых ответственных и бескорыстных представителей) должно мобилизовать силы (и конечно же, деньги) на выработку ограничителей и подстраховок от этого страшнейшего потенциального зла (но нужно торопиться, ибо окно возможностей по сдерживанию супер-зла вот-вот закроется).
В роли самых ответственных и бескорыстных борцов с супер-злом, понятное дело, самые шустрые:
✔️ левая бюрократия с правозащитным уклоном – глобальная коалиция 64х международных, региональных и национальных НГО из 28 стран, признанная остановить роботов-убийц https://www.stopkillerrobots.org/coalition/ ;
✔️ суперизвестные алармисты ИИ из института «Будущее жизни»: Ник Бостром, Морган Фриман, Стивен Хокинг и др. https://futureoflife.org/team-russian/ ;
✔️ суперизвестный бизнесмен, которого, по его собственному признанию, перепахали идеи Ника Бострома – многоликий Илон Маск (со своим OpenAI https://ru.wikipedia.org/wiki/OpenAI ), считающий, что «лидеры мира технологий обязаны направить силы на решение глобальных проблем и отражение глобальных рисков, которые может повлечь усовершенствованный искусственный интеллект».
Именно эти уважаемые организации и люди спонсировали и организовали не только производство видеоролика Slaughterbots, но и спец-эвент в ООН, направленный на лоббирование «международного моратория на роботов-убийц».
При этом, видимо, считая: пусть люди убивают друг друга банальными пулями и снарядами, высокоточными бомбами и ракетами, все уничтожающим ядерным оружием; пусть все это оружие для индивидуального и массового убийства управляется всевозможными IT-технологиями, включая самые продвинутые технологии ИИ.
Это все не требует моратория: от умных пуль и бомб, до программы Autonomy Минобороны США https://ndiastorage.blob.core.usgovcloudapi.net/ndia/2015/SET/WedBornstein.pdf
Но вот автономным роботам-убийцам на земле не место. Нельзя. Мораторий https://autonomousweapons.org/ .
Трезвых голосов, вскрывающих манипулятивный идиотизм этой фейковой показухи, единицы. Среди них проф. Суббарао Камбхампати https://hightech.fm/2017/11/16/killer_robots_ban_campaign.
«Манипулятивный агитационный видеоролик больше похоже на разжигание страха и ненависти, чем на повышение осведомленности» - пишет он в своей колонке.
- Что попадет под запрет - автономность или интеллект?
- Можно ли считать самонаводящуюся ракету автономным роботом-убийцей?
- Как запрет повлияет на действия стран и отдельных лиц, которые не признают международные нормы права?
Над ответами на эти и десятки других вопросов будут совместно работать вышеназванные левые бюрократы, алармисты и бизнесмены, публикуя новые толстые отчеты и собирая международные конференции. Одни – за спонсорские взносы. Другие - повышая свою PR-репутацию. И их не остановить.
Ну а простодушные и равнодушные будут продолжать тиражировать всю эту фейковую заказуху.
Все! Даю зарок - больше ни одного поста: ни про бунт машин, ни про роботов-убийц, ни про ИИборчество Илона Маска.
#ИИ #AI
⚠️ Не стоит искать и смотреть ролик прежде, чем дочитаете пост до конца (а там решайте – смотреть или нет).
Видеоролик Slaughterbots (Роботы для массовых убийств) за 5 дней набрал на Youtube 600К+ просмотров.
https://d38zt8ehae1tnt.cloudfront.net/slaughterbots_they_cannot_be_stopped__234846.jpg?v=1510666020
Наберет и миллион. И не один. Ведь он тиражируется по разным аудиториям весьма популярными блогерами (от Гоблина до Себранта), его показывают в ООН, о нем пишут СМИ… Но главное, - ролик весьма талантлив и денег на него не пожалели.
Якобы это предупреждение человечеству: «У нас еще есть возможность предотвратить наступление будущего, которое вы сейчас видели, но окно этой возможности скоро закроется» - завершают ролик слова уважаемого профессора из Беркли.
В общем, класс! И притом, как уже сказано, - фейковая заказуха высокого полета (как в прямом, так и в переносном смыслах), призванная напугать, чтобы заставить мир поверить:
ИИ вот-вот привнесет в жизнь каждого из нас невиданные и немыслимые ранее опасности, и потому человечество (в лице его самых ответственных и бескорыстных представителей) должно мобилизовать силы (и конечно же, деньги) на выработку ограничителей и подстраховок от этого страшнейшего потенциального зла (но нужно торопиться, ибо окно возможностей по сдерживанию супер-зла вот-вот закроется).
В роли самых ответственных и бескорыстных борцов с супер-злом, понятное дело, самые шустрые:
✔️ левая бюрократия с правозащитным уклоном – глобальная коалиция 64х международных, региональных и национальных НГО из 28 стран, признанная остановить роботов-убийц https://www.stopkillerrobots.org/coalition/ ;
✔️ суперизвестные алармисты ИИ из института «Будущее жизни»: Ник Бостром, Морган Фриман, Стивен Хокинг и др. https://futureoflife.org/team-russian/ ;
✔️ суперизвестный бизнесмен, которого, по его собственному признанию, перепахали идеи Ника Бострома – многоликий Илон Маск (со своим OpenAI https://ru.wikipedia.org/wiki/OpenAI ), считающий, что «лидеры мира технологий обязаны направить силы на решение глобальных проблем и отражение глобальных рисков, которые может повлечь усовершенствованный искусственный интеллект».
Именно эти уважаемые организации и люди спонсировали и организовали не только производство видеоролика Slaughterbots, но и спец-эвент в ООН, направленный на лоббирование «международного моратория на роботов-убийц».
При этом, видимо, считая: пусть люди убивают друг друга банальными пулями и снарядами, высокоточными бомбами и ракетами, все уничтожающим ядерным оружием; пусть все это оружие для индивидуального и массового убийства управляется всевозможными IT-технологиями, включая самые продвинутые технологии ИИ.
Это все не требует моратория: от умных пуль и бомб, до программы Autonomy Минобороны США https://ndiastorage.blob.core.usgovcloudapi.net/ndia/2015/SET/WedBornstein.pdf
Но вот автономным роботам-убийцам на земле не место. Нельзя. Мораторий https://autonomousweapons.org/ .
Трезвых голосов, вскрывающих манипулятивный идиотизм этой фейковой показухи, единицы. Среди них проф. Суббарао Камбхампати https://hightech.fm/2017/11/16/killer_robots_ban_campaign.
«Манипулятивный агитационный видеоролик больше похоже на разжигание страха и ненависти, чем на повышение осведомленности» - пишет он в своей колонке.
- Что попадет под запрет - автономность или интеллект?
- Можно ли считать самонаводящуюся ракету автономным роботом-убийцей?
- Как запрет повлияет на действия стран и отдельных лиц, которые не признают международные нормы права?
Над ответами на эти и десятки других вопросов будут совместно работать вышеназванные левые бюрократы, алармисты и бизнесмены, публикуя новые толстые отчеты и собирая международные конференции. Одни – за спонсорские взносы. Другие - повышая свою PR-репутацию. И их не остановить.
Ну а простодушные и равнодушные будут продолжать тиражировать всю эту фейковую заказуху.
Все! Даю зарок - больше ни одного поста: ни про бунт машин, ни про роботов-убийц, ни про ИИборчество Илона Маска.
#ИИ #AI
Для чего нужны компьютеры, и как это связано с увеличением интеллекта человека
Вот уже 70 лет люди используют компьютеры для решения собственных интеллектуальных проблем, - т.е. для когнитивного аутсорсинга. Пусть он ЗА НАС посчитает, определит, спрогнозирует, сделает …
Точно так же мы используем ИИ (AI), уже и не заморачиваясь, как он там что-то делает. Отдаем ему на аутсорсинг решение проблемы и пользуемся результатами (от распознавания и перевода до автопилота и принятия решений).
И мало кто задумывается, что существует принципиально иной, куда более совершенный и изысканный способ использования компьютеров и AI. Иная парадигма, сулящая человечеству не только преодоление технологической сингулярности, но и превращение человека в иной, куда более совершенный носитель разума.
Эта альтернативная AI парадигма называется AIA - Artificial Intelligence Augmentation (искусственное увеличение интеллекта).
И это не завиральная идея. Это существующее и вполне практическое направление, альтернативное мейнстримному AI и имеющее хорошее шансы забрать у последнего желтую майку лидера инвестиций и внимания СМИ.
Это история столь важная, малоизвестная и интересная, что я написал о ней поподробней в посте на 7 мин чтения
https://telegra.ph/Dlya-chego-nuzhny-kompyutery-i-kak-ehto-svyazano-s-uvelicheniem-intellekta-cheloveka-12-11
#AI #AIA
Вот уже 70 лет люди используют компьютеры для решения собственных интеллектуальных проблем, - т.е. для когнитивного аутсорсинга. Пусть он ЗА НАС посчитает, определит, спрогнозирует, сделает …
Точно так же мы используем ИИ (AI), уже и не заморачиваясь, как он там что-то делает. Отдаем ему на аутсорсинг решение проблемы и пользуемся результатами (от распознавания и перевода до автопилота и принятия решений).
И мало кто задумывается, что существует принципиально иной, куда более совершенный и изысканный способ использования компьютеров и AI. Иная парадигма, сулящая человечеству не только преодоление технологической сингулярности, но и превращение человека в иной, куда более совершенный носитель разума.
Эта альтернативная AI парадигма называется AIA - Artificial Intelligence Augmentation (искусственное увеличение интеллекта).
И это не завиральная идея. Это существующее и вполне практическое направление, альтернативное мейнстримному AI и имеющее хорошее шансы забрать у последнего желтую майку лидера инвестиций и внимания СМИ.
Это история столь важная, малоизвестная и интересная, что я написал о ней поподробней в посте на 7 мин чтения
https://telegra.ph/Dlya-chego-nuzhny-kompyutery-i-kak-ehto-svyazano-s-uvelicheniem-intellekta-cheloveka-12-11
#AI #AIA
Telegraph
Для чего нужны компьютеры, и как это связано с увеличением интеллекта человека
Месяц назад прошел очередной симпозиум «Сложность интеллекта». Его темой был вопрос «Зачем существует человек в свете наблюдаемого бурного развития ИИ и вытекающих из этого перспектив?» Одним из постановочных докладов стала презентация Майкла Нильсена «Using…
Почему «титаны науки» Марвин Минский, Ноам Хомский и Сидней Бреннер решили бросить вызов «богам бизнеса» типа Google, утверждая, что человечеству пора отказаться от ошибочных представлений об устройстве интеллекта (человеческого и машинного), подобно тому, как пришлось отказаться от геоцентрической модели мироздания?
Станет ли победа «богов бизнеса» над «титанами науки» катализатором идеального шторма - созданного руками человечества веера сценариев тотального самоуничтожения? Причем, не от мифического Скайнета и Сверх-интеллекта, а от «искусственного бездумия» современных компьютеров, ведущего человечество к натуральному безумию.
Об этом в моем новом посте.
Читать 18 мин
#AI #ИИ
Станет ли победа «богов бизнеса» над «титанами науки» катализатором идеального шторма - созданного руками человечества веера сценариев тотального самоуничтожения? Причем, не от мифического Скайнета и Сверх-интеллекта, а от «искусственного бездумия» современных компьютеров, ведущего человечество к натуральному безумию.
Об этом в моем новом посте.
Читать 18 мин
#AI #ИИ
Medium
Бездумные машины
Что пошло не так в развитии ИИ и куда это может привести