data stories
1.55K subscribers
89 photos
14 files
317 links
канал о том, как (цифровые) технологии и данные меняют общество (и как они этим обществом делаются, оспариваются и меняют свое значение)

канал ведет Дмитрий Муравьёв @Katerfas
Download Telegram
Forwarded from Empires Burn
Протесты в эру Covid19 - взгляд активистов и исследователей

Международный коллектив социологов, политологов, антропологов и других исследователей протестных движений выпустил замечательный тематический журнал о том как коронавирус изменил формы активизма в мире - от Европы до Африки. Тут и феминистские инициативы против домашнего насилия в Ухани, и движение за права беженцев в разгар пандемии на Балканах, и движение за альтернативную экономику и сельское хозяйство как ответ на продовольственный кризис в стране Басков. Журнал доступен онлайн бесплатно и включает в себя 38 материалов. Сборник статей объединяет и аналитику от известных учёных, таких как Донатэлла Дэлапорта, и живые истории рассказанные самими активистами.

Также на сайте опубликован список научной и актививстской литературы по теме протестов в эпоху ковида. Очень рекомендую!
Нью-йорский музей современного искусства на своем сайте опубликовал подборку фильмов, по-разному отражающих роль энергетических инфраструктур в (гео)политике и размышляющих об их влиянии на окружающую среду.

Sci-fi видеоэссе канадско-иранской режиссерки и писательницы Бахар Нуризаде After Scarcity разыгрывает утопическую идею советских кибернетиков о полностью автоматизированной плановой экономике.
"Выступая за «другой интернет», фильм размышляет об экономическом применении социалистических кибернетических экспериментов, сравнивая их с финансовыми механизмами и imaginaries энергетических структур в капиталистических странах".

Фильм доступен до 12 августа.

За наводку спасибо каналу kinotron
С удовольствием и интересом прочитал статью Андрея Кузнецова «Туманности нейросетей: ‘черные ящики’ технологий и наглядные уроки непрозрачности алгоритмов» из нового номера «Социологии власти». Из-за близости для меня этой темы очень хочется ее обсуждать, поэтому пост будем (слишком?) академическим. 

Во многом статья про возможности STS-подходов для понимания и развития современных дискуссий вокруг алгоритмической прозрачности как подотчетности (здесь еще очень важна оговорка, что алгоритмическая подотчетность к прозрачности не сводится). Разбирая три подхода к ценностной нейтральности технологий, Кузнецов приходит к выводу, что все они, пускай и по-разному, но упускают саму технологию из виду. Проблемы с технологиями и их ценностным, социально-политическим статусом вообще можно обнаруживать в разных аспектах социотехнических процессов: 
– Дизайне (кто, как, зачем и почему проектирует тот или иной технологический артефакт)
– Пользовательских действиях (кто и как им пользуется; афоризм «guns don’t kill people, people do» вот сюда)
– Эффектах технологий на группы, проблемы, общества, контексты, и.т.д.

Но независимо от выбранного аспекта такая критика, пишет Кузнецов, приводит нас к тому, что внимание с самой технологии уводится, и значимыми становятся условия, в которых она используется, производится, оказывает воздействие, и так далее. И для социальных исследований технологии тут есть проблема: сама материальность, то есть, грубо говоря, сама конкретная устроенность технологии не учитывается – как исследователи мы начинаем смотреть сквозь них. Для нас при такой перспективе технология становится послушным и предсказуемым проводником человеческих намерений.  

Решение Кузнецова здесь состоит в том, чтобы развернуть проблему раскрытия «черного ящика» (здесь – проблема понимания того, что же делает алгоритм) с помощью акторно-сетевой теории Латура. И тогда технологии начинают пониматься не просто как проводники человеческих действий и интенций, а нечто, что своей материальностью способно «дать им отпор». Технологии тогда становятся медиаторами, порождающими новые правила взаимодействий и способными нас удивлять – они становятся событием, которое не может быть редуцировано к тому, что мы привыкли называть «социальным». Больше нельзя сказать, что технология является расисткой или воспроизводит расовые различия, исключительно потому что стоящие за ней проектировщики сами были скрытыми или явными расистами. 

И сама по себе такая теоретическая переориентация кажется важной, и я думаю, что, к примеру, художественные работы о Amazon Echo или о труде в ИИ во многом похожи на эту задачу картографирования гетерогенных элементов, составляющих алгоритмическую систему как ассамбляж.

Однако то, что мне очень интересно и до конца непонятно, так это возможность критики при такой латуровской позиции. Я бы, возможно, и не вспомнил об этом, но в статье мимолетом также пишется и о социально-политической важности переориентации подходов к «черным ящикам» алгоритмов. При этом я не хочу писать об этом как о какой-то критике статьи, скорее это мои собственные переживания по поводу этой проблемы. Для Латура более привычные критические установки в социальных науках «выдохлись», поэтому надо идти от самих технологий и смотреть, как последние непрерывно становятся временным реляционным достижением взаимодействиях разных гетерогенных элементов. Эта статья Латура есть кстати в переводе в «Художественном журнале».
Но если «технологии есть общество», и если они и правда «собираются в каждом конкретном случае (ре)инновации», то как так получается, что часто проблемы с алгоритмами схожи и устойчивы? Есть ли и правда смысл в попытке критической переориентации картографировать алгоритмы, разбирая состав их разнородных соучастников, если мы вновь обнаруживаем, к примеру, гендерную и расовую дискриминацию? То есть как введение этой материальности в теоретический язык должно поменять социальные и политические ставки разных акторов и пересобрать критику? Более того, сложные отношения между теоретико-методологическими установками АСТ и статусом социальных объяснений (что само по себе не плохо, в тему этого есть классная статья Александра Широкова) создают проблемы для критики, так как тогда мы лишаемся возможности понять, кто несет ответственность и как распределяется власть в случае симметрии акторов. В общем, много вопросов!
наконец-то делимся с миром материалами апрельской конференции Internet Beyond Change

неожиданный онлайн вместо офлайна, кажется, многих весной застал врасплох. но мы неплохо справились! и сама конференция, и материалы, которые по её итогам мы выкладываем на сайт, — это довольно необычные форматы. немного расскажем, как это было:

конференция шла три дня. с разных сторон мы обсуждали вопрос о том, как интернет меняет мир и меняется сам (или не меняет и не меняется, тут всё не просто).

всё проходило в зуме, но участники заранее рассылали друг другу презентации, аудио или видео со своими докладами. так что можно было заранее послушать друг друга во время прогулки или повседневных дел. а потом, уже на самих созвонах, уделить время только обсуждению, острым вопросам, сомнениям и идеям. а ещё мы заранее начинали собирать вопросы к докладам письменно, в общих гугл-документах. а во время созвонов обсуждение шло ещё и в чате зума. так что получилось мультимодально, насыщенно и, надеемся, вдохновляюще.

(а ещё каждый вечер в течение недели всем участникам и слушателям конференции приходила рассылка с рекомендацией арт-проектов или книг по теме секций, коктейля и музыки на вечер)

если вы всё пропустили (или не всё, а часть) и хотите узнать, что происходило в мире российских интернет-исследований в этом апреле, приходите на сайт: https://internetbeyond.net/

под каждым докладом можно найти ссылки на доступные материалы: аудио/видео, презентации, гугл-доки с предварительными вопросами и обсуждениями, видеозапись обсуждений в зуме и тексты обсуждений в чате.

enjoy!
​​8 мифов о ИИ

Классный ресурс с ссылками на хорошие статьи по теме мифов, окружающих ИИ. Особенно мне нравится наличие статьи про сложности с этическими кодексами и гайдлайнами. Часто когда речь заходит о теме «ИИ и общество», все сразу начинают думать про этику и сводить все многообразие сложностей дизайна и внедрения таких систем к вопросам злого/доброго, морали, ответственности – всего того, что мы обычно понимаем под этикой. И «этика ИИ» – очень модное направление сейчас, в котором многие видят решение назревших проблем. Для коммерческих компаний это также удобная рамка, так как этические кодексы и комитеты внутри таких компаний часто понимаются как альтернатива государственному регулированию, которое намного более затратно. 

Так почему же с этикой все непросто? С одной стороны, с ней есть очевидные сложности, связанные с определением «этики». О какой этике мы говорим (и для кого)? Это деонтологический подход, в котором мы должны соизмерять намерения поступков с некоторым всеобщим законом? Или это должен быть утилитаризм (который в бизнес-этике особенно любят, т.к. там можно последствия действий «складывать» и «вычитать») или же феминистская этика заботы? А кто вообще будет решать, какие этические координаты будут вписаны в дизайн ИИ? 

Но помимо сложностей с определением этики, есть и другой момент. Так, в статье на этом ресурсе, на мой взгляд, хорошо показывается, почему разговоры о «этичном ИИ» нас часто уводят в сторону. Ведь тогда будто достаточно добавить «щепоточку этики», хорошенько перемешать, и любая технология станет замечательной. Но можем ли мы сказать, что любая технология при должном уровне вмешательства может стать «этичной»? Почему опция отказа вообще не предусматривается, а подспудно как будто бы предполагается, что мы живем в такой ситуации, где любые «инновации» неостановимы и нам нужно только наложить на них этические заплатки?
Forwarded from Городские данные (Anna Barinova)
Разные интересные и загадочные вещи то и дело происходят на онлайн-картах с территориями со спорным статусом с точки зрения международного права (например, если кто-нибудь что-нибудь аннексирует). А сейчас любопытная история с Косово: министр иностранных дел Мелиза Харадинай пишет письмо Тиму Куку с просьбой обозначить Косово как независимое государство на Apple Maps. Сейчас Косово изображено как часть Сербии, что, по мнению Харадинай, «находится в прямом противоречии с политической и юридической реальностью». Другие диджитал-сервисы, включая LinkedIn, Twitter, Facebook и Spotify, выделяют Косово как независимую страну.

https://twitter.com/MelizaHaradinaj/status/1287494182521704451
Забавный сюжет развернулся в Великобритании. Экзамены в школах отменили из-за коронавируса. Чтобы поставить оценки выпускникам, разработали алгоритм, основанный на исторических данных об успеваемости школы и внутренних рейтингах учеников в школах. Итог — полный хаос. Почти 40% учеников получили заниженные оценки, некоторые — сразу на несколько баллов. Особенно пострадали успешные ученики плохих школ — алгоритм придавал много значения историческим данным, и если твоя школа показывала раньше плохие результаты, то высшую оценку алгоритм тебе уже не поставит, как бы хорошо не учился ты сам.

Несправедливые оценки получили почти 300 000 выпускников. Разразился национальный скандал, обиженные школьники вышли на митинги — у многих сорвались планы по поступлению. В итоге от идеи автоматического оценивания отказались, а итоговые оценки школьникам выставили их учителя. Посмотрите, как школьники скандируют "fuck the algorithm" — без контекста выглядит как эпизод из "Черного зеркала", да и с контекстом тоже, если бы не отмена несправедливых оценок.

Все-таки не стоит поручать непрозрачным алгоритмам решения, которые влекут за собой серьезные социальные последствия.
На Кольте вышло мое интервью с Михаэлом Пунтшу, экспертом в области этики ИИ. Он участвовал в проекте Algo.Rules, целью которого было выработать критерии, помогающие направлять процесс дизайна алгоритмических систем. 

Мне там особенно нравится часть с обсуждением дискурса «моральных машин» в этике ИИ – идеи того, что мы можем «вписать» определенные «этичные» ориентиры принятия решений в дизайн систем. Как (с моей точки зрения) верно указывает Михаэль, бесконечные обсуждения «дилемм вагонетки» в формате «а-кого-тут-должен-сбить-беспилотный-автомобиль» нас в понимании этичного ИИ особенно вперед не двигают. 

Вместе с другими классными экспертами Михаэль принимает участие в «Сетевом сентябре», который совместно делают Гете-Институт и Теплица социальных технологий. Там множество интересных панелей – технологии и пандемия, активизм и молодые люди, алгоритмы и их регулирование. Зарегистрироваться можно здесь.
В своей последней статье «Борьба за цифровой суверенитет: что это такое и почему это имеет значение, особенно для ЕС» научный сотрудник Оксфордского института интернет-исследователей Лучано Флориди высказывает, среди прочих, тезис о том, что будущее цифрового регулирования будет завязано на взаимодействии политической власти национальных государств и власти больших технологических корпораций. В своем желании вернуть/обрести суверенитет над разными взаимосвязанными «компоненты» интернета государства сталкиваются с технологическими компаниями, маневрирующими между юрисдикциями, при этом находясь в зависимости от технологий этих компаний. 

Флориди также намечает ряд возможных траекторий, по которым цифровой суверенитет может быть вновь обретен в контексте ЕС, учитывая отношения между наднациональным и национальным уровнями управления. Сложные отношения между корпорациями и государствами – лейтмотив большого числа новостей про все цифровое, от вопроса о данных и интернета вещей до 5G и ИИ. 

Однако с тем, как Флориди ставит проблему цифрового суверенитета – выяснение отношений между политической и корпоративной властью – на мой взгляд, есть проблема. А именно – это проблематизация ситуации, более актуальная именно для западных стран, в юрисдикциях которых такие компании расположены. Если ваше государство не принадлежит к таким странам, то ваши возможности вовлечься в великую баталию «политическая vs корпоративная власть» значительно меняются. Я бы сказал, что тогда ваша страна существует в другом масштабе проблемы цифрового суверенитета – для вас это не история про вашу политическу власть против чужой корпоративной в предлагаемом Флориди смысле. Просто потому что политическая власть у вас другая (если вообще есть), хотя и разрешение проблемы в масштабе западных стран для вас будет иметь последствия.
И еще хочу приложить сюда статью Саеда Мустафа Али «Prolegomenon to the Decolonization of Internet Governance»  про колониальность интернет-управления и деколониальную возможность, где посвящается достаточно много места подробному анализу текстов ключевых исследователей в интернет-управлении. Статья большая, плотная и непростая. Я осилил ее за несколько попыток, но по итогу она мне очень нравится.
В твиттере сейчас обсуждается статья "What they do in the shadows: examining the far-right networks on Telegram", причем не так, как это зачастую происходит. Чаще всего научные статьи в твиттере получают похвалу коллег, но конкретно в этой ситуации в комментарии пришли те, кто в исследовательском дизайне прежде были объектами исследования.

Задумка работы в следующем: многие авторы право-радикальных каналов уходят из социальных платформ и приходят в Телеграм – менее регулируемую платформу и потому более «свободную» для такого контента. Многие люди были искренне удивлены тем, что увидели себя как данные, ставшие частью работы про право-радикальные каналы. И многие из откликнушихся в комментариях идентифицируют себя как приверженцы прямо противоположных политических взглядов или просто не понимают, почему их канал стал частью право-радикального списка.  

Этика в исследованиях сейчас преимущественно построена на идее того, что если ты как исследователь работаешь с людьми напрямую, то с тебе спросят, как ты это делал, а также зачем и почему. Но что делать, если мы говорим об исходно цифровом контенте, когда авторы тг-каналов и их контент — строки в датасете?

Для Бруно Латура любые социальные группы — не внешние продукты, слепленные из материала "социального". Напротив, группообразование — постоянный процесс, в котором принимают участие в том числе и социальные исследователи, когда говорят о "нации", "высшем среднем классе", "молодежи" и других группах. В этом смысле границы между группами сами становятся результатами работы разных акторов, к которым социальные исследователи также принадлежат.  

И хотя об этике в исследованиях часто думают как о чем-то, что должно быть сделано "до" или "после" исследования, мне кажется здесь очень полезным идея интернет-исследовательницы Аннет Маркхэм, которая говорит об этике как части метода. Тогда этика не начинается и не заканчивается в определённые моменты исследования: она сопровождает весь процесс. Таким образом, соединяя здесь Латура и Маркхэм, мы можем спросить: насколько этичным был процесс группообразования в данном случае? На каких основаниях мы как исследователи относим скрывающихся за операционализированными метриками людей и контент к определённым категориям? Готовы ли мы к тому, чтобы отстаивать метрики, когда "объекты" исследования неожиданно для нас приобретают конкретное обличие и голос?
Дима интересно написал про шумную историю с исследованием праворадикального телеграмом.

в данных исследователей многие нашли себя, своих друзей, левых феминисток и канал с гифками про собак.

Латур и Маркхэм нам здорово помогут понять, как действовать иначе, согласна. но ещё важно помнить про вот что:

- исследование абсолютно нечувствительно к контексту, с которым работает

- ясных механизмов влияния на репутацию и судьбу статьи нет, будут и дальше цитировать статью про праворадикальные гифки про собак

- авторша исследования написала нескольким людям в духе 'почитайте нашу методологию, а если не получается понять, почитайте ещё раз'

- исследование опубликовано в хорошем журнале, значит редакторы и ревьюеры согласились с тем, что оно годное

в общем, этика этикой, но когда говорят, что это — исследование интернета, и на дата-аналитические курсы выстраиваются очереди, это всё очень странно, друзья.
Этика в социальных исследованиях - важный предмет, вокруг которого постоянно идут дискуссии. Интересный кейс рассматривает @datastudies. И, на мой взгляд, совершенно справедливо акцентирует внимание на идее известной исследовательницы А. Маркхэм о том, что этика должна быть частью метода. И важно здесь не только применение соответствующих норм при сборе и обработке данных, чтобы не ранить чувства объектов изучения, но и умение грамотно инкорпорировать этические принципы в исследовательский дизайн без ущерба для аналитической составляющей метода.

Мне эта история напомнила, как однажды на большой международной конференции учёная из России выступала с докладом об исследовании оппозиционных и экстремистских сетей во Вконтакте. И в презентации у неё были скриншоты аккаунтов с персональными данными, а имена и фамилии указывались в сетевых картах. И никто из слушателей не указал ей на нарушение этических принципов, что меня очень и очень удивило. Потом мне пришлось долго и с примерами объяснять своим студентам, которым её доклад, кстати, очень понравился, что так делать нельзя.

Получается, что даже наличие в учебных планах дисциплин по этике научных исследований не спасает. Их содержание студентами часто рассматривается как что-то абстрактное и не имеющее отношения к реальной исследовательской деятельности. И это, несомненно, наше преподавательское упущение - видимо, мы и сами не такие уж "этичные".
#методология

UPD. Оказалось, что опубликованная статья задела многих. Можно почитать ещё реакции
https://t.iss.one/rufuturism/19468
https://t.iss.one/club4internet/345
https://t.iss.one/verdachtig/922
В статье «Platform enclosure of human behavior and its measurement: Using behavioral trace data against platform episteme» Angela Xiao Wu & Harsh Taneja предлагают эпистемологически проблематизировать обращение к данным из социальных медиа для понимания человеческого поведения. Когда исследователи анализируют данные из соцсетей, то между данными и поведением обычно устанавливаются отношения репрезентации: вот это те маленькие следы, которые мы оставляем, гуляя по платформам. И они же дают нам способ посмотреть на них как отражение человеческого поведения, к пониманию которого исследователи хотят подступиться поближе.

Но насколько в такой трактовке принимаются в расчет сами «условия измерения», меняющие наше поведения? Ведь платформы не только дозволяет, определяют, оформляют определенные пользовательские действия, но также они выстроены с целями получения прибыли. Это банально, но это важно для осмысления эпистемологии количественных исследований, обращающихся к платформам. Если коммерческая ориентированность платформ на захват пользовательского внимания является институциональным условием производства данных, то конструкция данные -> поведение рушится, а вместо нее нам придется переосмыслить как она трансформируется при учете материальности платформ.

Thus, it is difficult to tell to what extent the patterns emerging from platform data are about “us,” rather than testimonies to the effects of platform nudges. (из заметки о статье)
Forwarded from РУКИ
Курьеры в США начали устанавливать смартфоны на деревьях, чтобы перехитрить алгоритмы и получать больше заказов. Сервис доставки продуктов Amazon Flex работает примерно так же, как Uber: курьер, который оказывается ближе всего к магазину, получает заказ первым – он забирает продукты и отвозит их на своей машине клиенту.

Flex постоянно сканирует местоположение работников и выбирает самый быстрый вариант. Иногда все решает буквально несколько секунд и пара метров – если курьер стоит у входа в Whole Foods, шансов на успех у него больше, чем у конкурента, который сидит на парковке.

В Bloomberg предположили, что один смартфон на дереве раздает заказы сразу нескольким курьерам. Этот лайфхак не позволяет Amazon понять, какой именно аккаунт "ломает" систему. Вероятно, кто-то настраивает сервис и берет с курьеров небольшой процент за свои услуги.

Первыми на “читерство” обратили внимание другие курьеры – они заметили, что некоторые конкуренты получают заказы чаще и быстрее других. Amazon уже начала свое расследование.

Протест против работы алгоритмов – интересный феномен последнего десятилетия. Журнал Logic недавно рассказывал, как сотрудники Amazon обманывают алгоритмы, чтобы избежать контроля и слежки со стороны компании. Например, накручивают очки за эффективность. Иногда работники из чувства протеста идут на саботаж – находят в базе товары с ошибочно низкими ценами и закупают их оптом или нарушают правила безопасности. Некоторые устраивают пранки, чтобы снять стресс. Как пишет Logic, In this context, daily acts of resistance serve as body and sanity-saving strategies. Small workarounds — tricks, games, minor sabotage — extend the time one can bear the relentless and deadening grind.

Кстати, недавно стало известно, что Amazon нанимает “разведчиков”, чтобы отслеживать попытки сотрудников создать профсоюзы – активистам профсоюзных групп будут ограничивать доступ к офисам и складам с помощью охранных ордеров.
На Сигме вышла статья про роль технологий и новых цифровых инфраструктур в организации поддержании протеста в Беларуси. Она от куратора и исследовательницы Антонины Стебур и художника и писателя Алексея Толстова. 

Интересное чтение и нравится, насколько ясно там обозначена техноутопическая позиция. При этом вот я все же после прочтения в сомнениях – не уверен, что такое утопическое воображение должно основываться на том, что «молодой интернет 90-ых … производил инфраструктурную материальность всеобщего равенства, которое было главным условием подключения к сети, моделировал мир без границ и иерархий». И в раннем интернете было много гендерных, расовых, колониальных и обусловленных (технической) экспертностью иерархий, и поэтому большой вопрос, насколько интернет в этом смысле вообще когда-то соответствовал такому представлению. И не уверен, что неиерархичность/горизонтальность политически устроены именно так, как описывается в тексте, но мне эту мысль развить дальше сложно.

Но еще мне понравилось про Голос и анализ протоколов с голосами как про «публичну. инфраструктуру подсчета и контроля прозрачности подсчета голосов». Кажется, что такие инфраструктуры альтернативной репрезентации воли народа как оспаривания государственной – это вообще очень большая и интересная тема, как в Беларуси, так и в России. Григорий Юдин пишет о чем-то похожем в статье «Governing Through Polls», когда говорит о «возвращении непредставленного» на парламентских выборах 2011 и мэрских выборах в Москве в 2013.  

Здесь мне вспоминается такое понятие как counter-data action (не знаю, как перевести хорошо). К нему обращались, среди прочих, исследователи Аманда Менг и Карл ДиСалво. Они прослеживали, как черные активисты в Атланте мобилизовались и самоорганизовывались, и как через сомнение к собранным местным правительством данным и создание своих собственных датасетов, активисты выступали за более доступное для их сообщества жилье. 

А еще в том тексте на Сигме тепло описана политизация инфрастуктур заботы и «слабость» как точка опоры политического сопротивления.