Скрестив размышления о роли антропологии в профессиональной жизни среднестатистического маркетолога с животрепещущей темой коммерциализации больших данных (big data), неоднократно муссировавшейся на прошлой неделе на пленарных заседаниях самых разных форумов, позволю себе вновь задаться вопросом: а на что вообще способны маркетологи, вооружённые исчерпывающей «бигдатой»?
Утомлённые чрезмерной услужливостью, если не панибратством, «рекламных подсказок» из любого утюга и претензией всякой выставленной на продажу вещи на безапелляционное выражение собственного мировоззрения, потребители давно уже вправе ожидать, что в словосочетании «искусственный интеллект» интеллект-таки возобладает.
Увы, практика показывает, что покуда в основе новейших технологических инструментов «предиктивного анализа» — всё те же дряхлые трибалистические стереотипы, от коих довольно ощутимо веет погребом, победы здравого смысла ждать не приходится.
Потребительница контента #Netflix афроамериканского происхождения оказалась неприятно удивлена тем, что, подсовывая ей рекомендации посмотреть тот или иной фильм или сериал с актерами европеоидного обличья в главных ролях, канал «чутко» заменяет их изображение кадрами темнокожих (в оригинале у #TheGuardian — “black”) персонажей второго плана, даже если на них в этом кинопродукте приходится в общей сложности не более 10 минут. Эта закономерность была подмечена не только зрителями определённого этноса, но и, например, одинокими парнями, которым канал заботливо подбирает сюжеты лишь о жизни и приключениях одиноких парней.
В ответ на раздражённые вопросы общественности о том, каким образом (а главное, с какой целью) формируются алгоритмы подсказок на основе анализа потребительских данных, #Netflix заверяет, что даже и не думал выяснять гендерную, этническую и социальную принадлежность своих зрителей, а рекомендации персонализируются исключительно на основании анализа «прошлого опыта» просмотров каждого потребителя контента.
Погодите, но не в бездумной ли зацикленности на прошлом опыте покупок при формировании «персональных» предложений своим посетителям обвиняют маркетологов электронных ритейлеров во главе с их мировым предводителем #Amazon? (Я уже делилась личным примером регулярного получения, мягко говоря, оптимистичных предложений от одной из локальных сетей детских товаров купить коляску, переноску и стерилизатор для бутылочек в течение 6 (!) лет с момента рождения ребёнка.)
“Если всё, что мы можем предложить клиенту, основывается на его прошлом опыте, то как нам сообщить ему о том, каков новый большой тренд?” — справедливо задаётся вопросом Селина Бернетт, руководитель отдела маркетингового анализа онлайн-магазина модной одежды #Asos. По её мнению, когда речь идёт о таргетировании и персонализации, менталитет “традиционных исследований” давно пора списать в архив.
“Есть переломный момент, после которого все эти назойливые [индивидуализированные обращения] перестают вызывать что-либо, кроме гадливости. Итог один — утрата доверия бренду. Лучший способ избежать этого и удержать верный баланс — помнить о том, что наша конечная цель все-таки в том, чтобы потребитель получил необходимый опыт взаимодействия с брендом, и эта цель превыше всех остальных.”
(По материалам #MarketingWeek и #TheGuardian)
Утомлённые чрезмерной услужливостью, если не панибратством, «рекламных подсказок» из любого утюга и претензией всякой выставленной на продажу вещи на безапелляционное выражение собственного мировоззрения, потребители давно уже вправе ожидать, что в словосочетании «искусственный интеллект» интеллект-таки возобладает.
Увы, практика показывает, что покуда в основе новейших технологических инструментов «предиктивного анализа» — всё те же дряхлые трибалистические стереотипы, от коих довольно ощутимо веет погребом, победы здравого смысла ждать не приходится.
Потребительница контента #Netflix афроамериканского происхождения оказалась неприятно удивлена тем, что, подсовывая ей рекомендации посмотреть тот или иной фильм или сериал с актерами европеоидного обличья в главных ролях, канал «чутко» заменяет их изображение кадрами темнокожих (в оригинале у #TheGuardian — “black”) персонажей второго плана, даже если на них в этом кинопродукте приходится в общей сложности не более 10 минут. Эта закономерность была подмечена не только зрителями определённого этноса, но и, например, одинокими парнями, которым канал заботливо подбирает сюжеты лишь о жизни и приключениях одиноких парней.
В ответ на раздражённые вопросы общественности о том, каким образом (а главное, с какой целью) формируются алгоритмы подсказок на основе анализа потребительских данных, #Netflix заверяет, что даже и не думал выяснять гендерную, этническую и социальную принадлежность своих зрителей, а рекомендации персонализируются исключительно на основании анализа «прошлого опыта» просмотров каждого потребителя контента.
Погодите, но не в бездумной ли зацикленности на прошлом опыте покупок при формировании «персональных» предложений своим посетителям обвиняют маркетологов электронных ритейлеров во главе с их мировым предводителем #Amazon? (Я уже делилась личным примером регулярного получения, мягко говоря, оптимистичных предложений от одной из локальных сетей детских товаров купить коляску, переноску и стерилизатор для бутылочек в течение 6 (!) лет с момента рождения ребёнка.)
“Если всё, что мы можем предложить клиенту, основывается на его прошлом опыте, то как нам сообщить ему о том, каков новый большой тренд?” — справедливо задаётся вопросом Селина Бернетт, руководитель отдела маркетингового анализа онлайн-магазина модной одежды #Asos. По её мнению, когда речь идёт о таргетировании и персонализации, менталитет “традиционных исследований” давно пора списать в архив.
“Есть переломный момент, после которого все эти назойливые [индивидуализированные обращения] перестают вызывать что-либо, кроме гадливости. Итог один — утрата доверия бренду. Лучший способ избежать этого и удержать верный баланс — помнить о том, что наша конечная цель все-таки в том, чтобы потребитель получил необходимый опыт взаимодействия с брендом, и эта цель превыше всех остальных.”
(По материалам #MarketingWeek и #TheGuardian)
Forwarded from @corpequities
Дэвид Рансимэн, специалист в области политических наук из Университета #Кембридж, признает, что за столетия взаимодействия с корпорациями люди «так и не научились их толком контролировать».
Действительно, хрестоматийный кейс с разливом нефти #BP (2010), погубившим 11 человеческих жизней и экосистему целого Мексиканского залива, но не приведшим за решётку ни одного руководителя корпорации, — лучшая иллюстрация того, как работают организационные методички, помогающие уходить от корпоративной ответственности.
«Корпорации — сама конструкция которых наделяет их умением (и правом) распоряжаться собственной судьбой, — не что иное, как ещё одна форма искусственного интеллекта в действии», — отмечает Рансимэн.
Почему это становится важно сейчас? Потому что именно на таких корпоративных методичках создаются алгоритмы искусственного интеллекта. Производство алгоритмов — тот же бизнес, и действует он с теми же хирургическими хладнокровием и безапелляционностью, что и сто лет назад, когда потребность в создании “методологии выработки оптимальных решений” в военных целях надолго отвлекла западную математическую и статистическую науку от задач более гуманистических, или шестьдесят лет назад, когда появление программного обеспечения для первых ЭВМ в Великобритании, например, было продиктовано нуждой решать задачи сугубо утилитарные — государственного администрирования).
Потенциал #ИИ традиционно связывают со способностью обеспечивать широкомасштабную автоматизированную классификацию всего и вся — скажем, обучать нейросети отличать злокачественные родинки на коже от обычных. Однако в «нелинейных» и куда более сложных условиях повседневной жизни такой «потенциал» #ИИ — беззаботные ярлыки и неадекватные определения жизненных явлений и обстоятельств под личиной ложного авторитета — может наносить непоправимый вред.
(Многоуважаемая Ирина Ивановна Кибина, помнится, делилась недоумением по поводу того, как корпорация #Apple в ходе опроса потребительского мнения потеряла к ней интерес, как только узнала её возраст. Очевидно, довольный собой и совсем не любознательный алгоритм оказался не в состоянии предположить, что «лица старше 50» способны приобретать гаджеты #Apple — и не только для собственного пользования, а для всех членов семьи. О том, какое чувство брезгливости вызывают рекомендации брендов, основанные на весьма бесхитростном и насквозь пронизанном стереотипами анализе персональных данных ЦА, писал #MarketingWeek на кейсе #Netflix пару месяцев назад. В этом смысле интеллект искусственный, положенный в основу взаимодействия с ЦА, ничуть не выше интеллекта того, кого он заменил, — маркетолога средней руки.)
Вольное или невольное закрепление сложившейся в обществе культуры притеснения тех или иных социальных групп или подрыв уважения к человеческому достоинству сегодня можно обнаружить в самых разнообразных системах алгоритмов, созданных по шаблонам, принятым в бизнес-среде. Поголовной этической экспертизы (и прививки) для всех создаваемых нейросетей пока не предусмотрено.
При этом, сетует #TheEconomist, многие современные #ИИ-системы копируют не столько яркое, образное человеческое мышление, сколько мышление бюрократических институтов, их создающих, — а оно, как известно, наделено куда менее богатым воображением.
Действительно, хрестоматийный кейс с разливом нефти #BP (2010), погубившим 11 человеческих жизней и экосистему целого Мексиканского залива, но не приведшим за решётку ни одного руководителя корпорации, — лучшая иллюстрация того, как работают организационные методички, помогающие уходить от корпоративной ответственности.
«Корпорации — сама конструкция которых наделяет их умением (и правом) распоряжаться собственной судьбой, — не что иное, как ещё одна форма искусственного интеллекта в действии», — отмечает Рансимэн.
Почему это становится важно сейчас? Потому что именно на таких корпоративных методичках создаются алгоритмы искусственного интеллекта. Производство алгоритмов — тот же бизнес, и действует он с теми же хирургическими хладнокровием и безапелляционностью, что и сто лет назад, когда потребность в создании “методологии выработки оптимальных решений” в военных целях надолго отвлекла западную математическую и статистическую науку от задач более гуманистических, или шестьдесят лет назад, когда появление программного обеспечения для первых ЭВМ в Великобритании, например, было продиктовано нуждой решать задачи сугубо утилитарные — государственного администрирования).
Потенциал #ИИ традиционно связывают со способностью обеспечивать широкомасштабную автоматизированную классификацию всего и вся — скажем, обучать нейросети отличать злокачественные родинки на коже от обычных. Однако в «нелинейных» и куда более сложных условиях повседневной жизни такой «потенциал» #ИИ — беззаботные ярлыки и неадекватные определения жизненных явлений и обстоятельств под личиной ложного авторитета — может наносить непоправимый вред.
(Многоуважаемая Ирина Ивановна Кибина, помнится, делилась недоумением по поводу того, как корпорация #Apple в ходе опроса потребительского мнения потеряла к ней интерес, как только узнала её возраст. Очевидно, довольный собой и совсем не любознательный алгоритм оказался не в состоянии предположить, что «лица старше 50» способны приобретать гаджеты #Apple — и не только для собственного пользования, а для всех членов семьи. О том, какое чувство брезгливости вызывают рекомендации брендов, основанные на весьма бесхитростном и насквозь пронизанном стереотипами анализе персональных данных ЦА, писал #MarketingWeek на кейсе #Netflix пару месяцев назад. В этом смысле интеллект искусственный, положенный в основу взаимодействия с ЦА, ничуть не выше интеллекта того, кого он заменил, — маркетолога средней руки.)
Вольное или невольное закрепление сложившейся в обществе культуры притеснения тех или иных социальных групп или подрыв уважения к человеческому достоинству сегодня можно обнаружить в самых разнообразных системах алгоритмов, созданных по шаблонам, принятым в бизнес-среде. Поголовной этической экспертизы (и прививки) для всех создаваемых нейросетей пока не предусмотрено.
При этом, сетует #TheEconomist, многие современные #ИИ-системы копируют не столько яркое, образное человеческое мышление, сколько мышление бюрократических институтов, их создающих, — а оно, как известно, наделено куда менее богатым воображением.
The Economist
AI thinks like a corporation—and that’s worrying
Artificial intelligence was born of organisational decision-making and state power; it needs human ethics, says Jonnie Penn of the University of Cambridge