Как изучать интернет: этика и политика в исследованиях
Методичка для исследователей, художников и всех, кому интересен интернет
Сегодня с радостью делюсь новостью о выходе сборника, над которыми мы с коллегами работали весь прошлый год, – он посвящён тем этическим беспокойствам и политическим проблемам, с которыми разные "мы" живут, когда данные становятся частью их/нашей жизни. Хотя этические и политические вопросы часто разводятся, в структуре и драматургии сборника мы пытались обдумать и предложить их более плотную сцепку, которая выражается в конкретных и изменчивых практиках людей. И поэтому в методичке есть вопросы, схемы, конспекты, зарисовки – формы знания, запечатляющие неполноту, частичность и практическое происхождение тех или иных вопросов жизни с данными.
А это ссылка на саму методичку!
Внутри сборника:
– перевод текста о том, что случается с этикой, когда та обретает своё место внутри компаний
– перевод текста о том, что публичность данных необязательно означает беспроблемность их использования
– тексты про этику как способ выстраивать отношения (от меня про данные и от Татьяны Мироновой в контексте художественной практики работы с документами)
– схема, которая, как мы надеемся, позволит структурировать размышления о работе и жизни с данными
– зарисовки наших коллективных размышлений об этой теме, работающие на то, чтобы этическая и критическая работа не выглядела как бесшовный и опрятный продукт на выходе
– моя беседа с антропологом Ником Сивером об этнографии алгоритмов, где видна переплетенность технического и человеческого
– конспекты по критической педагогике данных
Большое публичное спасибо всей команде проекта (посмотреть на всех участников можно на странице 7), было радостно все это организовывать. Пожалуйста, если вы знаете кого-то, кому это может пригодиться, то поделитесь с ними, мы будем рады!
Методичка для исследователей, художников и всех, кому интересен интернет
Сегодня с радостью делюсь новостью о выходе сборника, над которыми мы с коллегами работали весь прошлый год, – он посвящён тем этическим беспокойствам и политическим проблемам, с которыми разные "мы" живут, когда данные становятся частью их/нашей жизни. Хотя этические и политические вопросы часто разводятся, в структуре и драматургии сборника мы пытались обдумать и предложить их более плотную сцепку, которая выражается в конкретных и изменчивых практиках людей. И поэтому в методичке есть вопросы, схемы, конспекты, зарисовки – формы знания, запечатляющие неполноту, частичность и практическое происхождение тех или иных вопросов жизни с данными.
А это ссылка на саму методичку!
Внутри сборника:
– перевод текста о том, что случается с этикой, когда та обретает своё место внутри компаний
– перевод текста о том, что публичность данных необязательно означает беспроблемность их использования
– тексты про этику как способ выстраивать отношения (от меня про данные и от Татьяны Мироновой в контексте художественной практики работы с документами)
– схема, которая, как мы надеемся, позволит структурировать размышления о работе и жизни с данными
– зарисовки наших коллективных размышлений об этой теме, работающие на то, чтобы этическая и критическая работа не выглядела как бесшовный и опрятный продукт на выходе
– моя беседа с антропологом Ником Сивером об этнографии алгоритмов, где видна переплетенность технического и человеческого
– конспекты по критической педагогике данных
Большое публичное спасибо всей команде проекта (посмотреть на всех участников можно на странице 7), было радостно все это организовывать. Пожалуйста, если вы знаете кого-то, кому это может пригодиться, то поделитесь с ними, мы будем рады!
Как социология дала нам идею, что дружба (в социальных сетях) – это про похожесть
Отличное эссе, которое я сначала хотел пересказать здесь, но понял, что слишком много нюансов нужно было бы перенести, потому расскажу кратко. Текст посвящен истории и значению термина «гомофилия», который американские социологи Пол Лазарсфельд и Роберт Мертон предложили в своём эссе 1954 года. Изучая расовые аспекты расселения в США, они интересовались следующим вопросом: насколько дружба, понимаемая прочные социальные связи, возникают из похожести людей? У них была достаточно прикладная задача: жилищный кризис того времени способствовал уменьшению расовой сегрегации в расселении и появлению более расово разнообразных районов.
На основании данных о близких связях индивидов и их отношении к идее расово разнообразных районов социологии за счёт определенных методологических допущений (и упущений) пришли к выводу, что люди дружат с такими же, как они. Авторы эссе показывают, что такой вывод стал самосбывающимся пророчеством – вера в это убеждение без учёта ограничений, из которых оно происходит, способствовала его реализации. Гомофилия затем стала распространённым концептом в науке о сетях (network science) и одной из центральных логик современных социальных сетей: их интерфейсы предлагают нам дружить с теми, кто, как предполагается, на нас похож. В этом одновременно социальном и техническом решении можно обнаружить одну из причин поляризации, эхо-камер, и так далее.
В результате как понятие гомофилия потеснило разнообразие и отличие из области смыслов дружбы. Из текста следует, что понимание гомофилии у самого Мертона в дальнейшем менялось, однако это не помешало именно этой версии понятия закрепиться в результате – как будто бы индивиды во всех социальных контекстах естественно тяготяют к общению с себе подобным. Сейчас со всех сторон много пишут о том, что для решения проблем с технологиями – интернетом / искусственным интеллектом / большими данными / подставьте нужное – необходимо позвать социальных учёных, гуманитариев и других лириков, которые разбавят мысли физиков. К примеру, Мона Слоан и Эмануэль Мосс пишут о «дефиците социальных наук» в контексте разработок искусственного интеллекта. Эссе про гомофилию же показывает, что вопрос заключается не в недостатке социально-гуманитарных наук как таковом. Скорее, вопрос в том, какие социально-гуманитарные науки нам нужно и как можно выстроить дистанцию по отношению к тем предпосылкам, на которых они основаны.
Отличное эссе, которое я сначала хотел пересказать здесь, но понял, что слишком много нюансов нужно было бы перенести, потому расскажу кратко. Текст посвящен истории и значению термина «гомофилия», который американские социологи Пол Лазарсфельд и Роберт Мертон предложили в своём эссе 1954 года. Изучая расовые аспекты расселения в США, они интересовались следующим вопросом: насколько дружба, понимаемая прочные социальные связи, возникают из похожести людей? У них была достаточно прикладная задача: жилищный кризис того времени способствовал уменьшению расовой сегрегации в расселении и появлению более расово разнообразных районов.
На основании данных о близких связях индивидов и их отношении к идее расово разнообразных районов социологии за счёт определенных методологических допущений (и упущений) пришли к выводу, что люди дружат с такими же, как они. Авторы эссе показывают, что такой вывод стал самосбывающимся пророчеством – вера в это убеждение без учёта ограничений, из которых оно происходит, способствовала его реализации. Гомофилия затем стала распространённым концептом в науке о сетях (network science) и одной из центральных логик современных социальных сетей: их интерфейсы предлагают нам дружить с теми, кто, как предполагается, на нас похож. В этом одновременно социальном и техническом решении можно обнаружить одну из причин поляризации, эхо-камер, и так далее.
В результате как понятие гомофилия потеснило разнообразие и отличие из области смыслов дружбы. Из текста следует, что понимание гомофилии у самого Мертона в дальнейшем менялось, однако это не помешало именно этой версии понятия закрепиться в результате – как будто бы индивиды во всех социальных контекстах естественно тяготяют к общению с себе подобным. Сейчас со всех сторон много пишут о том, что для решения проблем с технологиями – интернетом / искусственным интеллектом / большими данными / подставьте нужное – необходимо позвать социальных учёных, гуманитариев и других лириков, которые разбавят мысли физиков. К примеру, Мона Слоан и Эмануэль Мосс пишут о «дефиците социальных наук» в контексте разработок искусственного интеллекта. Эссе про гомофилию же показывает, что вопрос заключается не в недостатке социально-гуманитарных наук как таковом. Скорее, вопрос в том, какие социально-гуманитарные науки нам нужно и как можно выстроить дистанцию по отношению к тем предпосылкам, на которых они основаны.
e-flux
Homophily: The Urban History of an Algorithm
The word “homophily” was coined in a highly-cited 1954 essay by Paul F. Lazarsfeld and Robert K. Merton on friendship in a mixed-race housing project in Pittsburgh, Pennsylvania. The researchers were suspicious of the “familiar and egregiously misleading…
Хрупкость истории и критики в Твиттере
Как наверное уже многие читали, Илон Маск купил Твиттер, поувольнял кучу людей, предложил голубую галочку за деньги, а затем отменил это решение после начавшегося хаоса верификации. На этом фоне отдельные группы начали покидать Твиттер и перебираться на иные платформы, например, Мастодон. Не хочется придавать событию какую-то грандиозную значимость и говорить о "смерти платформы", но это все толкает на ряд размышлений.
Например, понимаем ли мы сейчас значение Твиттера как платформы для будущих историков? К примеру, независимо от того, насколько события Арабской весны и правда "твиттер-революции" или нет, видится неоспоримым, что эти протесты имели присутствие на платформе, и часть их истории разворачивалась на ней. Как процесс постепенного умирания платформы – нежели единомоментной смерти – скажется на характере того знания, который есть и будет у нас о прошлом?
Также в процессе смены руководства была уволена команда, занимавшаяся вопросами этики искусственного интеллекта. Хотя в последние годы этика стала сильно институционализироваться и становиться частью IT-фирм в западных странах, такие кейсы, как и увольнением Тимнит Гебру из Гугла, вскрывают хрупкость таких пространств. При всей критике корпоративной этики все равно кажется важным думать о создании более устойчивые пространств критики, которые имеют влияние на сами платформы изнутри.
Как наверное уже многие читали, Илон Маск купил Твиттер, поувольнял кучу людей, предложил голубую галочку за деньги, а затем отменил это решение после начавшегося хаоса верификации. На этом фоне отдельные группы начали покидать Твиттер и перебираться на иные платформы, например, Мастодон. Не хочется придавать событию какую-то грандиозную значимость и говорить о "смерти платформы", но это все толкает на ряд размышлений.
Например, понимаем ли мы сейчас значение Твиттера как платформы для будущих историков? К примеру, независимо от того, насколько события Арабской весны и правда "твиттер-революции" или нет, видится неоспоримым, что эти протесты имели присутствие на платформе, и часть их истории разворачивалась на ней. Как процесс постепенного умирания платформы – нежели единомоментной смерти – скажется на характере того знания, который есть и будет у нас о прошлом?
Также в процессе смены руководства была уволена команда, занимавшаяся вопросами этики искусственного интеллекта. Хотя в последние годы этика стала сильно институционализироваться и становиться частью IT-фирм в западных странах, такие кейсы, как и увольнением Тимнит Гебру из Гугла, вскрывают хрупкость таких пространств. При всей критике корпоративной этики все равно кажется важным думать о создании более устойчивые пространств критики, которые имеют влияние на сами платформы изнутри.
WIRED
Elon Musk Has Fired Twitter’s ‘Ethical AI’ Team
As part of a wave of layoffs, the new CEO disbanded a group working to make Twitter’s algorithms more transparent and fair.
Forwarded from DH Center ITMO University
«Документ не является тем, что представляет из себя его содержание. От этого возникают политические, практические и этические смыслы документов».
В пятничный вечер — новая #летопись. В этот раз — о том, что мы понимаем под этикой, когда говорим о данных.
Где в работе с данными мы видим пространство для вопросов этики? Как этика становится методом? И в какой момент речь заходит о власти художника или исследователя? Читайте в тексте Вики Бордуковой, в основу которого лег диалог исследователя данных Дмитрия Муравьева и куратора Татьяны Мироновой.
В конце статьи, как обычно, делимся тем, что стоит прочитать и посмотреть, чтобы углубиться в тему.
В пятничный вечер — новая #летопись. В этот раз — о том, что мы понимаем под этикой, когда говорим о данных.
Где в работе с данными мы видим пространство для вопросов этики? Как этика становится методом? И в какой момент речь заходит о власти художника или исследователя? Читайте в тексте Вики Бордуковой, в основу которого лег диалог исследователя данных Дмитрия Муравьева и куратора Татьяны Мироновой.
В конце статьи, как обычно, делимся тем, что стоит прочитать и посмотреть, чтобы углубиться в тему.
Telegraph
Данные и документы: пересечения этических и критических вопросов
Для обсуждения этики использования данных и документов в исследованиях и проектах мы позвали на встречу Дмитрия Муравьёва, социального исследователя технологий, автора телеграм-канала Data Stories, и Татьяну Миронову, куратора, исследователя проблемы репрезентации…
Подкасты о технологиях
На мой взгляд большинство подкастов о технологиях невозможно слушать. Подавляющая часть из них – это реклама, причем достаточно неувлекательная. Однако я вот в последнее время нашёл несколько подкастов, которые меня заинтересовали, хочу поделиться с вами.
The Good Robots Podcast – это подкаст о феминизме, гендере и технологиях. Там отличный подбор гостей, а ещё всех гостей спрашивают о том, что для них "хорошая технология" – и каждый из них даёт свой интересный ответ. На сайте подкаста есть расшифровки разговоров и подобранная гостем литература.
Tech Won't Save Us – левый и критический подкаст о техиндустрии, у них есть ещё своя новостная рассылка. Вопросы и гости на мой взгляд подобраны отлично, особенно мне понравилась серия разговоров с историками про технологии в разных странах (США, Чили, СССР, Франции).
New Books in Science, Technology, and Society – это серия подкастов с авторами новых академических книжек в области изучения взаимоотношений технологии и общества. New Books Network покрывает вообще почти все социально-гуманитарные дисциплины, так что на их сайте можно найти подкасты по совершенно различным темам. Я вот недавно послушал восхитительный выпуск про историю открыток.
The Radical AI Podcast – подкаст про критическое отношение к текущему устройству разговоров об этике искусственного интеллекта. Также много интервью с работниками и работницами некоммерческого сектора, для которых тема технологиях не чужда.
Databites – подкаст от института Data & Society, они обычно записывают разговоры не с ведущим, а между несколькими спикерами, и выходит классный разговор. У него также есть расшифровки.
На мой взгляд большинство подкастов о технологиях невозможно слушать. Подавляющая часть из них – это реклама, причем достаточно неувлекательная. Однако я вот в последнее время нашёл несколько подкастов, которые меня заинтересовали, хочу поделиться с вами.
The Good Robots Podcast – это подкаст о феминизме, гендере и технологиях. Там отличный подбор гостей, а ещё всех гостей спрашивают о том, что для них "хорошая технология" – и каждый из них даёт свой интересный ответ. На сайте подкаста есть расшифровки разговоров и подобранная гостем литература.
Tech Won't Save Us – левый и критический подкаст о техиндустрии, у них есть ещё своя новостная рассылка. Вопросы и гости на мой взгляд подобраны отлично, особенно мне понравилась серия разговоров с историками про технологии в разных странах (США, Чили, СССР, Франции).
New Books in Science, Technology, and Society – это серия подкастов с авторами новых академических книжек в области изучения взаимоотношений технологии и общества. New Books Network покрывает вообще почти все социально-гуманитарные дисциплины, так что на их сайте можно найти подкасты по совершенно различным темам. Я вот недавно послушал восхитительный выпуск про историю открыток.
The Radical AI Podcast – подкаст про критическое отношение к текущему устройству разговоров об этике искусственного интеллекта. Также много интервью с работниками и работницами некоммерческого сектора, для которых тема технологиях не чужда.
Databites – подкаст от института Data & Society, они обычно записывают разговоры не с ведущим, а между несколькими спикерами, и выходит классный разговор. У него также есть расшифровки.
The Good Robot
Feminism And Technology | The Good Robot Podcast
Join Dr Eleanor Drage and Dr Kerry McInerney as they explore feminist approaches to technology on The Good Robot Podcast. They ask the experts: what is good tech? Is it even possible? And how does feminism help us work towards it?
Forwarded from Колпинец
Уже полгода думаю о том, что если бы кто-то взял и написал книгу о русскоязычном Telegram после 24 февраля – это был бы хит, бомба и бестселлер всех времен и народов. Причем бестселлер международного уровня, потому что такую книгу оторвут с руками издатели хоть в Европе, хоть в Америке, хоть в Азии.
И я сейчас не про рекомендации «как раскрутить канал» и «продавать блоки», не про славную историю времен «футляра от виолончели», не про инсайды Кристины П. о «скандальном телеграме» из книжки 2019 года.
Речь о нормальном таком этнографическом исследовании мессенджера, который превратился одновременно в главное российское медиа 2022, где уже сложился собственный канон военного репортажа, новости, расследования, публицистики и в главную мультимедийную платформу с собственной, уникальной инфраструктурой. Не про конкретных людей, хотя интересны и они, а про субъектность самого медиа: какими средствами телеграм формирует не просто некую повестку или чувство (часто ложное) осведомленности, а само пространство политического.
Представление о том, что такое война, что такое политика и кто такой политик (канал Кадырова и канал Медведева, из того, что на поверхности), что такое экспертиза, мнение, фейк, новость, скандал. Телеграм повлиял на каждую из этих вещей.
Нужна полновесная этнографическая работа, несколько десятков интервью, работа с веб-архивами, кучей сторонних источников, чтобы хотя бы немного приблизиться к пониманию, какой путь проделал сам мессенджер и его главное изобретение – телеграм канал за эти шесть лет. Про невероятно расширившийся инструментарий (про кружки, считаю, должна быть отдельная глава) и про то, какой тип публичности этот инструментарий производит. И как все это сочетается с привычным функционалом телеграма как, собственно, мессенджера, которым каждый день пользуются десятки миллионов людей.
Когда я рассказывала об этой идее знакомым, такую книгу сразу же предлагали написать мне. Но я слабо представляю, что потяну такой объем работы. Так что дарю идею. Если такая книга все-таки выйдет, это будет хит
И я сейчас не про рекомендации «как раскрутить канал» и «продавать блоки», не про славную историю времен «футляра от виолончели», не про инсайды Кристины П. о «скандальном телеграме» из книжки 2019 года.
Речь о нормальном таком этнографическом исследовании мессенджера, который превратился одновременно в главное российское медиа 2022, где уже сложился собственный канон военного репортажа, новости, расследования, публицистики и в главную мультимедийную платформу с собственной, уникальной инфраструктурой. Не про конкретных людей, хотя интересны и они, а про субъектность самого медиа: какими средствами телеграм формирует не просто некую повестку или чувство (часто ложное) осведомленности, а само пространство политического.
Представление о том, что такое война, что такое политика и кто такой политик (канал Кадырова и канал Медведева, из того, что на поверхности), что такое экспертиза, мнение, фейк, новость, скандал. Телеграм повлиял на каждую из этих вещей.
Нужна полновесная этнографическая работа, несколько десятков интервью, работа с веб-архивами, кучей сторонних источников, чтобы хотя бы немного приблизиться к пониманию, какой путь проделал сам мессенджер и его главное изобретение – телеграм канал за эти шесть лет. Про невероятно расширившийся инструментарий (про кружки, считаю, должна быть отдельная глава) и про то, какой тип публичности этот инструментарий производит. И как все это сочетается с привычным функционалом телеграма как, собственно, мессенджера, которым каждый день пользуются десятки миллионов людей.
Когда я рассказывала об этой идее знакомым, такую книгу сразу же предлагали написать мне. Но я слабо представляю, что потяну такой объем работы. Так что дарю идею. Если такая книга все-таки выйдет, это будет хит
Гендер, технологии и тела-инструменты
Недавно прочитал про две штуки, зацепившие мое внимание общностью одной темы.
В XIX веке ученые нанимали женщин для астрономических подсчетов. С одной стороны, это было связано с представлениями о научном знании: "неквалифицированный" труд считался гарантией того, что полученные результаты не несли отпечаток влияния самого ученого. Через разделение труда обеспечивалась "отстраненность" от самого научного знания, и тем самым природа приоткрывалась для вдумчивого изучения. Во-вторых, в гендерных представлениях того времени женщина понималась как непредрасположенная к высоким размышлениям и науке, что делало её ещё более подходящим кандидатом для такой работы. (1)
Второй эпизод уводит нас в совершенно другую плоскостью – историю отопления. Задолго до появления термостатов, в богатых аристократических домах именно женщины-служанки были теми, кто отвечал за тепло в доме. Забота о последнем лежала на женских телах, и именно их ощущение тепла было индикатором, вокруг которого выстраивалось регулирование температуры. (2)
Помимо классового измерения в этих историях, в этих сюжетах я также вижу сцепку между гендером, телом и технологиями. Женские тела здесь технологизируются – в том смысле, что воображаются как не требующие осмысления инструменты – и обеспечивают за счёт своих предполагаемых свойств учёт наблюдаемых показателей. При этом такой подсчёт делает работу женских тел невидимой: как будто бы "астрономические данные" или "температура" естественно открывают себя взору без влияния посредника.
Источники:
(1) Daston, L., & Galison, P. (2007). Objectivity. Princeton University Press.
(2) Starosielski, N. (2021). Media Hot and Cold. Duke University Press.
Недавно прочитал про две штуки, зацепившие мое внимание общностью одной темы.
В XIX веке ученые нанимали женщин для астрономических подсчетов. С одной стороны, это было связано с представлениями о научном знании: "неквалифицированный" труд считался гарантией того, что полученные результаты не несли отпечаток влияния самого ученого. Через разделение труда обеспечивалась "отстраненность" от самого научного знания, и тем самым природа приоткрывалась для вдумчивого изучения. Во-вторых, в гендерных представлениях того времени женщина понималась как непредрасположенная к высоким размышлениям и науке, что делало её ещё более подходящим кандидатом для такой работы. (1)
Второй эпизод уводит нас в совершенно другую плоскостью – историю отопления. Задолго до появления термостатов, в богатых аристократических домах именно женщины-служанки были теми, кто отвечал за тепло в доме. Забота о последнем лежала на женских телах, и именно их ощущение тепла было индикатором, вокруг которого выстраивалось регулирование температуры. (2)
Помимо классового измерения в этих историях, в этих сюжетах я также вижу сцепку между гендером, телом и технологиями. Женские тела здесь технологизируются – в том смысле, что воображаются как не требующие осмысления инструменты – и обеспечивают за счёт своих предполагаемых свойств учёт наблюдаемых показателей. При этом такой подсчёт делает работу женских тел невидимой: как будто бы "астрономические данные" или "температура" естественно открывают себя взору без влияния посредника.
Источники:
(1) Daston, L., & Galison, P. (2007). Objectivity. Princeton University Press.
(2) Starosielski, N. (2021). Media Hot and Cold. Duke University Press.
Прошло много времени, пора бы и обновить закрепленное сообщение. С сентября этого года я начал аспирантуру в Делфтском техническом университете в Нидерландах, и там я часть новой лаборатории AI DeMoS. Вместе с коллегами на пересечении философии и дизайна мы будем разбираться, как же могут и должны быть устроены отношения между искусственным интеллектом и демократией. У нас получилась отличная команда, и, несмотря на тот мрак, что творится вокруг, я рад быть на новом месте.
Я начал этот канал в 2019 году и радуюсь вдвойне тому, что я его не забросил и что часто слышал от людей, что мой канал им нравится. Спасибо за то, что вы его читаете, надеюсь, что он полезен и интересен для вас!
Объект моего исследовательского проекта в аспирантуре – это синтетические медиа. Это созданные с помощью искусственного интеллекта такие продукты как, например, синтезирование голоса, deepfakes, перевод текста в изображения и наоборт. В связи с этим на канале в дальнейшем будет появляться больше мыслей, ссылок и материалов на темы, связанные с такими медиа. В остальном же канал сохраняет и прежнюю тематику: это широкий интерес к тому, как (цифровые) технологии и общество взаимно влияют друг на друга. Я стараюсь освещать это отношение с критической перспективы, которую дают социальные и гуманитарные науки, и уделять внимание историческим, политическим и культурным обстоятельствам, в которых технологии живут.
Я начал этот канал в 2019 году и радуюсь вдвойне тому, что я его не забросил и что часто слышал от людей, что мой канал им нравится. Спасибо за то, что вы его читаете, надеюсь, что он полезен и интересен для вас!
Объект моего исследовательского проекта в аспирантуре – это синтетические медиа. Это созданные с помощью искусственного интеллекта такие продукты как, например, синтезирование голоса, deepfakes, перевод текста в изображения и наоборт. В связи с этим на канале в дальнейшем будет появляться больше мыслей, ссылок и материалов на темы, связанные с такими медиа. В остальном же канал сохраняет и прежнюю тематику: это широкий интерес к тому, как (цифровые) технологии и общество взаимно влияют друг на друга. Я стараюсь освещать это отношение с критической перспективы, которую дают социальные и гуманитарные науки, и уделять внимание историческим, политическим и культурным обстоятельствам, в которых технологии живут.
Цензура и Яндекс.Новости
И сразу небольшой, но более содержательный пост. Три дня назад на The Village вышла статья про цензуру в Яндекс.Новостях: я сразу заинтересовался и побежал покупать подписку. Если вы читали какие-то статьи про этот агрегатор раньше, то сам факт цензуры вряд ли новость для вас. Но именно в материале The Village внутреннее устройство цензуры раскрывается подробнее и сфокусированнее. В материала мне особенно понравились два сюжета:
1. Несистематичность списков цензуры. Согласно расследованию, нельзя сказать, к примеру, что любое медиа-"инагент" или медиа без лицензии автоматически не попадают в список "доверенных" изданий. Скорее список работает "в ручном режиме", и вот это сочетание ручного режима и алгоритма и есть создающая цензуру спайка. Эту мысль можно дальше развивать и в исторические сравнения о смене характера цензуры, и в плоскость понимания цензуры как продукта взаимодействий человека и алгоритма.
2. Как прозрачность алгоритма может стать оружием. Часто говорят, что для соответствия демократическим идеалам работа алгоритма должна быть прозрачна, понятна и доступна для объяснения. Однако эту позицию подвергают критике, и в расследовании The Village есть отличный пример. Так, сотрудники Яндекса рассказали Московской мэрии о работе алгоритма ранжирования новостей, а те воспользовались им для увеличения выдачи новостей о Собянине. На мой взгляд это показывает, что нужно усложнять дискусии о алгоритмической прозрачности, если она как-то сама по себе и может быть связана с демократией.
Вообще с моей точки зрения жанр "журналистики алгоритма" – тип текстов, где главным героем является алгоритм, будет становится все более важным. Ещё о Яндекс.Новостях можно почитать в статье «Codes of conduct for algorithmic news recommendation: The Yandex.News controversy in Russia» от Françoise Daucé и Benjamin Loveluck, а вот здесь я её кратко пересказываю.
И сразу небольшой, но более содержательный пост. Три дня назад на The Village вышла статья про цензуру в Яндекс.Новостях: я сразу заинтересовался и побежал покупать подписку. Если вы читали какие-то статьи про этот агрегатор раньше, то сам факт цензуры вряд ли новость для вас. Но именно в материале The Village внутреннее устройство цензуры раскрывается подробнее и сфокусированнее. В материала мне особенно понравились два сюжета:
1. Несистематичность списков цензуры. Согласно расследованию, нельзя сказать, к примеру, что любое медиа-"инагент" или медиа без лицензии автоматически не попадают в список "доверенных" изданий. Скорее список работает "в ручном режиме", и вот это сочетание ручного режима и алгоритма и есть создающая цензуру спайка. Эту мысль можно дальше развивать и в исторические сравнения о смене характера цензуры, и в плоскость понимания цензуры как продукта взаимодействий человека и алгоритма.
2. Как прозрачность алгоритма может стать оружием. Часто говорят, что для соответствия демократическим идеалам работа алгоритма должна быть прозрачна, понятна и доступна для объяснения. Однако эту позицию подвергают критике, и в расследовании The Village есть отличный пример. Так, сотрудники Яндекса рассказали Московской мэрии о работе алгоритма ранжирования новостей, а те воспользовались им для увеличения выдачи новостей о Собянине. На мой взгляд это показывает, что нужно усложнять дискусии о алгоритмической прозрачности, если она как-то сама по себе и может быть связана с демократией.
Вообще с моей точки зрения жанр "журналистики алгоритма" – тип текстов, где главным героем является алгоритм, будет становится все более важным. Ещё о Яндекс.Новостях можно почитать в статье «Codes of conduct for algorithmic news recommendation: The Yandex.News controversy in Russia» от Françoise Daucé и Benjamin Loveluck, а вот здесь я её кратко пересказываю.
data stories pinned «Прошло много времени, пора бы и обновить закрепленное сообщение. С сентября этого года я начал аспирантуру в Делфтском техническом университете в Нидерландах, и там я часть новой лаборатории AI DeMoS. Вместе с коллегами на пересечении философии и дизайна…»
Forwarded from Разработчик на острове 🇺🇦
Очень интересная история, как отказавшаяся от сканирования лица для дальнейшего использования технологии распознавания лиц корейка проходила американскую таможню при въезде в страну и препиралась с миграционными офицерами.
Для них то, что кто-то осмелилась сказать "Я не хочу проходить через киоск со сканированием лица, потому что не желаю, чтобы моё лицо постоянно сканировали", стало открытием, и в итоге против неё были сразу трое офицеров, пытаясь переубедить. Сначала сказали "ну у нас и так есть ваши фотографии", потом "прохождение границы для вас займёт дольше времени".
И это несмотря на то, что согласно их же policy, "U.S. citizens and select foreign nationals who are not required to provide biometrics and who wish to opt out of the new facial biometric process may simply notify a CBP officer, request a manual document check, and proceed with processing consistent with existing requirements for entry into the United States”, т.е граждане США и некоторые иностранцы, которым не требуется предъявлять биометрию, могут отказаться от лицевого сканирования путём уведомления сотрудника погранслужбы.
Для них то, что кто-то осмелилась сказать "Я не хочу проходить через киоск со сканированием лица, потому что не желаю, чтобы моё лицо постоянно сканировали", стало открытием, и в итоге против неё были сразу трое офицеров, пытаясь переубедить. Сначала сказали "ну у нас и так есть ваши фотографии", потом "прохождение границы для вас займёт дольше времени".
И это несмотря на то, что согласно их же policy, "U.S. citizens and select foreign nationals who are not required to provide biometrics and who wish to opt out of the new facial biometric process may simply notify a CBP officer, request a manual document check, and proceed with processing consistent with existing requirements for entry into the United States”, т.е граждане США и некоторые иностранцы, которым не требуется предъявлять биометрию, могут отказаться от лицевого сканирования путём уведомления сотрудника погранслужбы.
mas.to
YK Hong (@[email protected])
Since folks asked what happens whenever I opt out of facial recognition, I documented it for you while going through US border patrol.
Coming out of the flight there was a row of kiosks for facial biometric capture. There were no people. Just kiosks. So…
Coming out of the flight there was a row of kiosks for facial biometric capture. There were no people. Just kiosks. So…
Большой проект в Нидерландах по социально-гуманитарным исследованиям искусственного интеллекта, податься можно вот до 16 января.
Forwarded from Дорогие коллеги
Дорогие коллеги,
🇳🇱Если вам интересно исследования AI, то в algosoc есть 13 PhD позиций и 4 позиции постдоков
algosoc - это программа новаторских исследований взаимосвязи между технологиями и обществом. У них есть три направления: media, justice и health. По всем трем направлением есть несколько PhD вакансий, посмотрите:
🌐https://www.algosocvacancies.org/
#постдок #PhD #AI #STS
🇳🇱Если вам интересно исследования AI, то в algosoc есть 13 PhD позиций и 4 позиции постдоков
algosoc - это программа новаторских исследований взаимосвязи между технологиями и обществом. У них есть три направления: media, justice и health. По всем трем направлением есть несколько PhD вакансий, посмотрите:
🌐https://www.algosocvacancies.org/
#постдок #PhD #AI #STS
Forwarded from Канал Алексея Радченко
Еще немного про транспорт и про статистику по нему...
Уже полгода как у меня лежат данные по движению московского транспорта "аналогичные тем, что можно выкачать из КПП". Данные включат все рейсы автобусов в течение дня в привязке к остановкам. Данные очень крутые и проливают свет на знаменитые эпитеты коллег из ДТ про интервал в четыре минуты на трамвайно сети и другие перлы. Косвенно эти же данные показывают скорости автобусов и трамваев, в том числе влияет ли на скорость выделенка или обособление.
Данные суперские, но вот сделать на их основе нормальное расследование и визуал я за полгода не осилил, сказались война и все с этим связано, стресс, переезды, разорванные связи... не важно. В итоге я не придумал ничего лучше как делегировать задачу :)
Мы приглашаем аналитиков данных, городских исследователей и всех кто умеет красиво визуализирует. С нас данные и их подробное описание, посильная помощь, ну и самое главное... деньги! Двадцать тысяч рублей за первое место, и по пять за второе и третье. Кроме того у нас роскошное жюри - Андрей Дорожный, Дмитрий Муравьев и Артем Панкин (а так в проекте еще куча крутых ребят). В общем:
Тут (https://mosdatachallenge.tilda.ws/) - описание собственно конкурса и условий, там же кнопка регистрации.
Ну а тут (https://artempankin.notion.site/a5fa5cef8ae24ee59a0e8d2ad1505549) - описание данных.
Какие вещи ждем: не обязательно карты, но красивые и наглядные истории, соответствие задаче и функции, приятные эстетика и грамотный визуальный язык. Формат работ не критичен: и pdf, и фигма, и слайды и интерактивный сайт подойдут.
Результаты ждем до конца января.
Уже полгода как у меня лежат данные по движению московского транспорта "аналогичные тем, что можно выкачать из КПП". Данные включат все рейсы автобусов в течение дня в привязке к остановкам. Данные очень крутые и проливают свет на знаменитые эпитеты коллег из ДТ про интервал в четыре минуты на трамвайно сети и другие перлы. Косвенно эти же данные показывают скорости автобусов и трамваев, в том числе влияет ли на скорость выделенка или обособление.
Данные суперские, но вот сделать на их основе нормальное расследование и визуал я за полгода не осилил, сказались война и все с этим связано, стресс, переезды, разорванные связи... не важно. В итоге я не придумал ничего лучше как делегировать задачу :)
Мы приглашаем аналитиков данных, городских исследователей и всех кто умеет красиво визуализирует. С нас данные и их подробное описание, посильная помощь, ну и самое главное... деньги! Двадцать тысяч рублей за первое место, и по пять за второе и третье. Кроме того у нас роскошное жюри - Андрей Дорожный, Дмитрий Муравьев и Артем Панкин (а так в проекте еще куча крутых ребят). В общем:
Тут (https://mosdatachallenge.tilda.ws/) - описание собственно конкурса и условий, там же кнопка регистрации.
Ну а тут (https://artempankin.notion.site/a5fa5cef8ae24ee59a0e8d2ad1505549) - описание данных.
Какие вещи ждем: не обязательно карты, но красивые и наглядные истории, соответствие задаче и функции, приятные эстетика и грамотный визуальный язык. Формат работ не критичен: и pdf, и фигма, и слайды и интерактивный сайт подойдут.
Результаты ждем до конца января.
mosdatachallenge.tilda.ws
Дата-челлендж "Московский транспорт"
Конкурс визуализации данных транспорта Москвы
Экономики добродетели и этика искусственного интеллекта
Классный сборник вышел у Института сетевых культур про положение этики и критики искусственного интеллекта. Пока успел там почитать два интервью, и они оба хорошо проблематизируют, что вообще значит пытаться работать с искусственным интеллектом сейчас. К примеру, из интервью с Мередит Уиттакер (она сейчас президент мессенджера Signal Foundation) можно узнать, что у её организации AI Now Institute, ведущего аналитического центра по социальным исследования искусственного интеллекта, были проблема с получением финасирования от Нью-Йоркского университета. Несмотря на без преуменьшения мировую известность этого центра и первоклассные исследовательские результаты, руководство полагало, что Мередит и её коллегам нужно соотнести их повестку с той, что есть у инжерных центров университета. По факту им мягко указали на то, что им стоит быть менее критичными, чтобы не отпугнуть доноров вроде Amazon или Google от университета.
Мне кажется, мало по какой теме в социальных и гуманитарных науках сейчас открывается там много позиций и проектов как по тематике искусственного интеллекта. Все это происходит на волне ожиданий, разочарований, беспокойств и озабоченностей, которые эта технология вызывает в различных странах. Потоки финансирования и публичного внимания к искусственному интеллекту – есть одновременно и возможность, и проблема.
Моя рабочая позиция в том числе стала возможной благодаря такому внимания, и поэтому для меня важно ставить под сомнение, как это отражается на моей позиции и интеллектуальном труде. Среди прочего, это значит обращать внимание на устройство самих дискуссий и их (не)явные предпосылки. К примеру, сам термин "искусственный интеллект" на мой взгляд достаточно проблемный, потому что предполагает, что мы и правда имеем дело с интеллектом в каком-то виде. Это точка зрения для меня сомнительная, поскольку такое понимание интеллекта основано исключительно на идее высокоэффективной обработки информации. Но за термином "искусственный интеллект" стоят ожидания, подпитывающие дискуссии о том, что "роботы нас всех захватят", уф. Понимания социального контекста своей собственной интеллектуальной повестки все же, как будто бы, должно помочь лучше сформулировать тот язык, с помощью которого можно делать исследования и говорить о них.
Классный сборник вышел у Института сетевых культур про положение этики и критики искусственного интеллекта. Пока успел там почитать два интервью, и они оба хорошо проблематизируют, что вообще значит пытаться работать с искусственным интеллектом сейчас. К примеру, из интервью с Мередит Уиттакер (она сейчас президент мессенджера Signal Foundation) можно узнать, что у её организации AI Now Institute, ведущего аналитического центра по социальным исследования искусственного интеллекта, были проблема с получением финасирования от Нью-Йоркского университета. Несмотря на без преуменьшения мировую известность этого центра и первоклассные исследовательские результаты, руководство полагало, что Мередит и её коллегам нужно соотнести их повестку с той, что есть у инжерных центров университета. По факту им мягко указали на то, что им стоит быть менее критичными, чтобы не отпугнуть доноров вроде Amazon или Google от университета.
Мне кажется, мало по какой теме в социальных и гуманитарных науках сейчас открывается там много позиций и проектов как по тематике искусственного интеллекта. Все это происходит на волне ожиданий, разочарований, беспокойств и озабоченностей, которые эта технология вызывает в различных странах. Потоки финансирования и публичного внимания к искусственному интеллекту – есть одновременно и возможность, и проблема.
Моя рабочая позиция в том числе стала возможной благодаря такому внимания, и поэтому для меня важно ставить под сомнение, как это отражается на моей позиции и интеллектуальном труде. Среди прочего, это значит обращать внимание на устройство самих дискуссий и их (не)явные предпосылки. К примеру, сам термин "искусственный интеллект" на мой взгляд достаточно проблемный, потому что предполагает, что мы и правда имеем дело с интеллектом в каком-то виде. Это точка зрения для меня сомнительная, поскольку такое понимание интеллекта основано исключительно на идее высокоэффективной обработки информации. Но за термином "искусственный интеллект" стоят ожидания, подпитывающие дискуссии о том, что "роботы нас всех захватят", уф. Понимания социального контекста своей собственной интеллектуальной повестки все же, как будто бы, должно помочь лучше сформулировать тот язык, с помощью которого можно делать исследования и говорить о них.
networkcultures.org
TOD #46: Economies of Virtue – The Circulation of ‘Ethics’ in AI
Theory on Demand #46Economies of Virtue: The Circulation of ‘Ethics’ in AIEdited by Thao Phan, Jake Goldenfein, Declan Kuch, and Monique MannAI ethics has never been far from the indus
Смотрите, какой интересный курс, вдруг вам захочется поучаствовать. Лично я убежден, что без понимания как минимум одной из тем курса – а именно той трансформация, что случилась с науками о человеке в период холодной войны, нам будет сложно что-то понять про технологии и общество сейчас.
Forwarded from Структура наносит ответный удар
Набор на онлайн-курс по исследованиям социальных и гуманитарных наук
Правда ли, что гуманитарная академия состоит из сетевых банд? В чем секрет успеха публичного интеллектуала? Можно ли сказать, что социальное знание не описывает общество, а производит его? Как европейский империализм влиял на социальные науки в XIX веке, а Холодная война – в веке XX? На эти и многие другие вопросы мы с Сергеем Машуковым попытаемся дать ответы совместно со слушателями на своем новом курсе «Наблюдая наблюдателей: введение в исследования социальных и гуманитарных наук».
Наша миссия – познакомить с активно развивающейся междисциплинарной областью Studies of Social Sciences and Humanities (SSSH), посвященной поискам социальных оснований наук о человеке. На наших занятиях мы рассмотрим принятые в ней теоретические языки, наиболее актуальные темы и методологические дизайны эмпирических исследований. Работа будет организована вокруг чтения текстов Мишель Ламонт, Пьера Бурдье, Дональда Маккензи, Михаила Соколова и многих других ярких представителей поля SSSH. Более подробно познакомиться с программой можно здесь.
Участие в курсе подразумевает небольшую плату. Места в группах ограничены, поэтому спешите забронировать их за собой! Для этого нужно написать @theghostagainstthemachine или @epistemic_justice в личку, представившись и рассказав пару слов о себе для более гладкой коммуникации. На курсе предусмотрены и 3 бюджетных места. Их займут победители конкурса мотивационных писем, которые можно направлять до 12 февраля на гугл-форму.
Максимальнейший репост! Энергичнейший шер! На ваши вопросы с радостью отвечу в комментариях.
Правда ли, что гуманитарная академия состоит из сетевых банд? В чем секрет успеха публичного интеллектуала? Можно ли сказать, что социальное знание не описывает общество, а производит его? Как европейский империализм влиял на социальные науки в XIX веке, а Холодная война – в веке XX? На эти и многие другие вопросы мы с Сергеем Машуковым попытаемся дать ответы совместно со слушателями на своем новом курсе «Наблюдая наблюдателей: введение в исследования социальных и гуманитарных наук».
Наша миссия – познакомить с активно развивающейся междисциплинарной областью Studies of Social Sciences and Humanities (SSSH), посвященной поискам социальных оснований наук о человеке. На наших занятиях мы рассмотрим принятые в ней теоретические языки, наиболее актуальные темы и методологические дизайны эмпирических исследований. Работа будет организована вокруг чтения текстов Мишель Ламонт, Пьера Бурдье, Дональда Маккензи, Михаила Соколова и многих других ярких представителей поля SSSH. Более подробно познакомиться с программой можно здесь.
Участие в курсе подразумевает небольшую плату. Места в группах ограничены, поэтому спешите забронировать их за собой! Для этого нужно написать @theghostagainstthemachine или @epistemic_justice в личку, представившись и рассказав пару слов о себе для более гладкой коммуникации. На курсе предусмотрены и 3 бюджетных места. Их займут победители конкурса мотивационных писем, которые можно направлять до 12 февраля на гугл-форму.
Максимальнейший репост! Энергичнейший шер! На ваши вопросы с радостью отвечу в комментариях.
Политическое измерение алгоритмической ошибки
Решения, что основаны на алгоритмах, бывают ошибочны. К примеру, алгоритмы неправильно распознают лицо, и человека задерживают. В таких случаях частый импульс – это "исправить" алгоритм, минимизировать вероятность ошибки различными способами – техническими, социальными или же какой-то их "смесью". И хотя сама по себе вероятность ошибки неискоренима, любопытно то, что алгоритмические ошибки не выводят нас за рамки алгоритма как способа принятия решений.
И, кажется, что это связано с тем, что само понятие ошибки в случаев алгоритмов машинного обучения оставляет нас в горизонте самой технологии. Здесь хочется обратиться к Тео Лепейдж-Ришеру, который прослеживает историю adversariality (сложно перевести этот термин на русский, но это что-то вроде состязательности) в кибернетике Норберта Виннера и современной литературе по нейронным сетям. Среди прочего, в этом блестящем эссе показано, что если для Виннера оппоненты были внешними и идентифицируемыми (к примеру, вражеские пилоты), то в современной литературе по нейронным сетям оппоненты становятся ошибкой – одновременно и угрозой, и способом лучше обучить сам алгоритм. Таким образом, современное машинное обучение концептуально предполагает, что пределы познания нейронных сетей принципиально неограничены. Ведь возможность ошибки как проявление таких пределов не повод отказаться от технологии, а временный недостаток, способ её улучшить.
Из такой истории науки и технологии следует важное политическое следствие. Если нам кажется важным поставить под сомнение алгоритм как способ решения проблем, то обращение к его ошибкам не может быть политически плодотворно.
Решения, что основаны на алгоритмах, бывают ошибочны. К примеру, алгоритмы неправильно распознают лицо, и человека задерживают. В таких случаях частый импульс – это "исправить" алгоритм, минимизировать вероятность ошибки различными способами – техническими, социальными или же какой-то их "смесью". И хотя сама по себе вероятность ошибки неискоренима, любопытно то, что алгоритмические ошибки не выводят нас за рамки алгоритма как способа принятия решений.
И, кажется, что это связано с тем, что само понятие ошибки в случаев алгоритмов машинного обучения оставляет нас в горизонте самой технологии. Здесь хочется обратиться к Тео Лепейдж-Ришеру, который прослеживает историю adversariality (сложно перевести этот термин на русский, но это что-то вроде состязательности) в кибернетике Норберта Виннера и современной литературе по нейронным сетям. Среди прочего, в этом блестящем эссе показано, что если для Виннера оппоненты были внешними и идентифицируемыми (к примеру, вражеские пилоты), то в современной литературе по нейронным сетям оппоненты становятся ошибкой – одновременно и угрозой, и способом лучше обучить сам алгоритм. Таким образом, современное машинное обучение концептуально предполагает, что пределы познания нейронных сетей принципиально неограничены. Ведь возможность ошибки как проявление таких пределов не повод отказаться от технологии, а временный недостаток, способ её улучшить.
Из такой истории науки и технологии следует важное политическое следствие. Если нам кажется важным поставить под сомнение алгоритм как способ решения проблем, то обращение к его ошибкам не может быть политически плодотворно.
SpringerLink
Adversariality in Machine Learning Systems: On Neural Networks and the
Since their introduction by Warren McCulloch and Walter Pitts in the 1940s, neural networks have evolved from an experimentally inclined model of the mind to a powerful machine learning architecture. While this transformation is generally narrated as a story…
К примеру, есть художественный проект Лиама Янга и Джейкоба Джонаса "хореографический камуфляж". В ответ на алгоритмы распознавания походки и скелетной модели художники сделали перформанс, в котором танцоры двигаются непредсказуемо. Однако такой проект как будто бы работает на сам технический горизонт алгоритмов нейронных сетей, для которых ошибка – не только и не столько провал, сколько возможность улучшения. Непредсказуемые движения, нацеленные на максимизацию ошибки, есть также отличный способ в конечном итоге алгоритм улучшить. В литературе по кибербезопасности, к примеру, схожим образом обсуждают понятие adversarial examples (состязательные примеры) – специально созданные вводные данные, которые создал злоумышленники для того, чтобы модель совершила ошибку. Вот поэтому кажется, что политический ответ, направленный на ограничение зон, где алгоритм может действовать, не может полагаться исключительно на их ошибочность.