Forwarded from DH Center ITMO University
«Документ не является тем, что представляет из себя его содержание. От этого возникают политические, практические и этические смыслы документов».
В пятничный вечер — новая #летопись. В этот раз — о том, что мы понимаем под этикой, когда говорим о данных.
Где в работе с данными мы видим пространство для вопросов этики? Как этика становится методом? И в какой момент речь заходит о власти художника или исследователя? Читайте в тексте Вики Бордуковой, в основу которого лег диалог исследователя данных Дмитрия Муравьева и куратора Татьяны Мироновой.
В конце статьи, как обычно, делимся тем, что стоит прочитать и посмотреть, чтобы углубиться в тему.
В пятничный вечер — новая #летопись. В этот раз — о том, что мы понимаем под этикой, когда говорим о данных.
Где в работе с данными мы видим пространство для вопросов этики? Как этика становится методом? И в какой момент речь заходит о власти художника или исследователя? Читайте в тексте Вики Бордуковой, в основу которого лег диалог исследователя данных Дмитрия Муравьева и куратора Татьяны Мироновой.
В конце статьи, как обычно, делимся тем, что стоит прочитать и посмотреть, чтобы углубиться в тему.
Telegraph
Данные и документы: пересечения этических и критических вопросов
Для обсуждения этики использования данных и документов в исследованиях и проектах мы позвали на встречу Дмитрия Муравьёва, социального исследователя технологий, автора телеграм-канала Data Stories, и Татьяну Миронову, куратора, исследователя проблемы репрезентации…
Подкасты о технологиях
На мой взгляд большинство подкастов о технологиях невозможно слушать. Подавляющая часть из них – это реклама, причем достаточно неувлекательная. Однако я вот в последнее время нашёл несколько подкастов, которые меня заинтересовали, хочу поделиться с вами.
The Good Robots Podcast – это подкаст о феминизме, гендере и технологиях. Там отличный подбор гостей, а ещё всех гостей спрашивают о том, что для них "хорошая технология" – и каждый из них даёт свой интересный ответ. На сайте подкаста есть расшифровки разговоров и подобранная гостем литература.
Tech Won't Save Us – левый и критический подкаст о техиндустрии, у них есть ещё своя новостная рассылка. Вопросы и гости на мой взгляд подобраны отлично, особенно мне понравилась серия разговоров с историками про технологии в разных странах (США, Чили, СССР, Франции).
New Books in Science, Technology, and Society – это серия подкастов с авторами новых академических книжек в области изучения взаимоотношений технологии и общества. New Books Network покрывает вообще почти все социально-гуманитарные дисциплины, так что на их сайте можно найти подкасты по совершенно различным темам. Я вот недавно послушал восхитительный выпуск про историю открыток.
The Radical AI Podcast – подкаст про критическое отношение к текущему устройству разговоров об этике искусственного интеллекта. Также много интервью с работниками и работницами некоммерческого сектора, для которых тема технологиях не чужда.
Databites – подкаст от института Data & Society, они обычно записывают разговоры не с ведущим, а между несколькими спикерами, и выходит классный разговор. У него также есть расшифровки.
На мой взгляд большинство подкастов о технологиях невозможно слушать. Подавляющая часть из них – это реклама, причем достаточно неувлекательная. Однако я вот в последнее время нашёл несколько подкастов, которые меня заинтересовали, хочу поделиться с вами.
The Good Robots Podcast – это подкаст о феминизме, гендере и технологиях. Там отличный подбор гостей, а ещё всех гостей спрашивают о том, что для них "хорошая технология" – и каждый из них даёт свой интересный ответ. На сайте подкаста есть расшифровки разговоров и подобранная гостем литература.
Tech Won't Save Us – левый и критический подкаст о техиндустрии, у них есть ещё своя новостная рассылка. Вопросы и гости на мой взгляд подобраны отлично, особенно мне понравилась серия разговоров с историками про технологии в разных странах (США, Чили, СССР, Франции).
New Books in Science, Technology, and Society – это серия подкастов с авторами новых академических книжек в области изучения взаимоотношений технологии и общества. New Books Network покрывает вообще почти все социально-гуманитарные дисциплины, так что на их сайте можно найти подкасты по совершенно различным темам. Я вот недавно послушал восхитительный выпуск про историю открыток.
The Radical AI Podcast – подкаст про критическое отношение к текущему устройству разговоров об этике искусственного интеллекта. Также много интервью с работниками и работницами некоммерческого сектора, для которых тема технологиях не чужда.
Databites – подкаст от института Data & Society, они обычно записывают разговоры не с ведущим, а между несколькими спикерами, и выходит классный разговор. У него также есть расшифровки.
The Good Robot
Feminism And Technology | The Good Robot Podcast
Join Dr Eleanor Drage and Dr Kerry McInerney as they explore feminist approaches to technology on The Good Robot Podcast. They ask the experts: what is good tech? Is it even possible? And how does feminism help us work towards it?
Forwarded from Колпинец
Уже полгода думаю о том, что если бы кто-то взял и написал книгу о русскоязычном Telegram после 24 февраля – это был бы хит, бомба и бестселлер всех времен и народов. Причем бестселлер международного уровня, потому что такую книгу оторвут с руками издатели хоть в Европе, хоть в Америке, хоть в Азии.
И я сейчас не про рекомендации «как раскрутить канал» и «продавать блоки», не про славную историю времен «футляра от виолончели», не про инсайды Кристины П. о «скандальном телеграме» из книжки 2019 года.
Речь о нормальном таком этнографическом исследовании мессенджера, который превратился одновременно в главное российское медиа 2022, где уже сложился собственный канон военного репортажа, новости, расследования, публицистики и в главную мультимедийную платформу с собственной, уникальной инфраструктурой. Не про конкретных людей, хотя интересны и они, а про субъектность самого медиа: какими средствами телеграм формирует не просто некую повестку или чувство (часто ложное) осведомленности, а само пространство политического.
Представление о том, что такое война, что такое политика и кто такой политик (канал Кадырова и канал Медведева, из того, что на поверхности), что такое экспертиза, мнение, фейк, новость, скандал. Телеграм повлиял на каждую из этих вещей.
Нужна полновесная этнографическая работа, несколько десятков интервью, работа с веб-архивами, кучей сторонних источников, чтобы хотя бы немного приблизиться к пониманию, какой путь проделал сам мессенджер и его главное изобретение – телеграм канал за эти шесть лет. Про невероятно расширившийся инструментарий (про кружки, считаю, должна быть отдельная глава) и про то, какой тип публичности этот инструментарий производит. И как все это сочетается с привычным функционалом телеграма как, собственно, мессенджера, которым каждый день пользуются десятки миллионов людей.
Когда я рассказывала об этой идее знакомым, такую книгу сразу же предлагали написать мне. Но я слабо представляю, что потяну такой объем работы. Так что дарю идею. Если такая книга все-таки выйдет, это будет хит
И я сейчас не про рекомендации «как раскрутить канал» и «продавать блоки», не про славную историю времен «футляра от виолончели», не про инсайды Кристины П. о «скандальном телеграме» из книжки 2019 года.
Речь о нормальном таком этнографическом исследовании мессенджера, который превратился одновременно в главное российское медиа 2022, где уже сложился собственный канон военного репортажа, новости, расследования, публицистики и в главную мультимедийную платформу с собственной, уникальной инфраструктурой. Не про конкретных людей, хотя интересны и они, а про субъектность самого медиа: какими средствами телеграм формирует не просто некую повестку или чувство (часто ложное) осведомленности, а само пространство политического.
Представление о том, что такое война, что такое политика и кто такой политик (канал Кадырова и канал Медведева, из того, что на поверхности), что такое экспертиза, мнение, фейк, новость, скандал. Телеграм повлиял на каждую из этих вещей.
Нужна полновесная этнографическая работа, несколько десятков интервью, работа с веб-архивами, кучей сторонних источников, чтобы хотя бы немного приблизиться к пониманию, какой путь проделал сам мессенджер и его главное изобретение – телеграм канал за эти шесть лет. Про невероятно расширившийся инструментарий (про кружки, считаю, должна быть отдельная глава) и про то, какой тип публичности этот инструментарий производит. И как все это сочетается с привычным функционалом телеграма как, собственно, мессенджера, которым каждый день пользуются десятки миллионов людей.
Когда я рассказывала об этой идее знакомым, такую книгу сразу же предлагали написать мне. Но я слабо представляю, что потяну такой объем работы. Так что дарю идею. Если такая книга все-таки выйдет, это будет хит
Гендер, технологии и тела-инструменты
Недавно прочитал про две штуки, зацепившие мое внимание общностью одной темы.
В XIX веке ученые нанимали женщин для астрономических подсчетов. С одной стороны, это было связано с представлениями о научном знании: "неквалифицированный" труд считался гарантией того, что полученные результаты не несли отпечаток влияния самого ученого. Через разделение труда обеспечивалась "отстраненность" от самого научного знания, и тем самым природа приоткрывалась для вдумчивого изучения. Во-вторых, в гендерных представлениях того времени женщина понималась как непредрасположенная к высоким размышлениям и науке, что делало её ещё более подходящим кандидатом для такой работы. (1)
Второй эпизод уводит нас в совершенно другую плоскостью – историю отопления. Задолго до появления термостатов, в богатых аристократических домах именно женщины-служанки были теми, кто отвечал за тепло в доме. Забота о последнем лежала на женских телах, и именно их ощущение тепла было индикатором, вокруг которого выстраивалось регулирование температуры. (2)
Помимо классового измерения в этих историях, в этих сюжетах я также вижу сцепку между гендером, телом и технологиями. Женские тела здесь технологизируются – в том смысле, что воображаются как не требующие осмысления инструменты – и обеспечивают за счёт своих предполагаемых свойств учёт наблюдаемых показателей. При этом такой подсчёт делает работу женских тел невидимой: как будто бы "астрономические данные" или "температура" естественно открывают себя взору без влияния посредника.
Источники:
(1) Daston, L., & Galison, P. (2007). Objectivity. Princeton University Press.
(2) Starosielski, N. (2021). Media Hot and Cold. Duke University Press.
Недавно прочитал про две штуки, зацепившие мое внимание общностью одной темы.
В XIX веке ученые нанимали женщин для астрономических подсчетов. С одной стороны, это было связано с представлениями о научном знании: "неквалифицированный" труд считался гарантией того, что полученные результаты не несли отпечаток влияния самого ученого. Через разделение труда обеспечивалась "отстраненность" от самого научного знания, и тем самым природа приоткрывалась для вдумчивого изучения. Во-вторых, в гендерных представлениях того времени женщина понималась как непредрасположенная к высоким размышлениям и науке, что делало её ещё более подходящим кандидатом для такой работы. (1)
Второй эпизод уводит нас в совершенно другую плоскостью – историю отопления. Задолго до появления термостатов, в богатых аристократических домах именно женщины-служанки были теми, кто отвечал за тепло в доме. Забота о последнем лежала на женских телах, и именно их ощущение тепла было индикатором, вокруг которого выстраивалось регулирование температуры. (2)
Помимо классового измерения в этих историях, в этих сюжетах я также вижу сцепку между гендером, телом и технологиями. Женские тела здесь технологизируются – в том смысле, что воображаются как не требующие осмысления инструменты – и обеспечивают за счёт своих предполагаемых свойств учёт наблюдаемых показателей. При этом такой подсчёт делает работу женских тел невидимой: как будто бы "астрономические данные" или "температура" естественно открывают себя взору без влияния посредника.
Источники:
(1) Daston, L., & Galison, P. (2007). Objectivity. Princeton University Press.
(2) Starosielski, N. (2021). Media Hot and Cold. Duke University Press.
Прошло много времени, пора бы и обновить закрепленное сообщение. С сентября этого года я начал аспирантуру в Делфтском техническом университете в Нидерландах, и там я часть новой лаборатории AI DeMoS. Вместе с коллегами на пересечении философии и дизайна мы будем разбираться, как же могут и должны быть устроены отношения между искусственным интеллектом и демократией. У нас получилась отличная команда, и, несмотря на тот мрак, что творится вокруг, я рад быть на новом месте.
Я начал этот канал в 2019 году и радуюсь вдвойне тому, что я его не забросил и что часто слышал от людей, что мой канал им нравится. Спасибо за то, что вы его читаете, надеюсь, что он полезен и интересен для вас!
Объект моего исследовательского проекта в аспирантуре – это синтетические медиа. Это созданные с помощью искусственного интеллекта такие продукты как, например, синтезирование голоса, deepfakes, перевод текста в изображения и наоборт. В связи с этим на канале в дальнейшем будет появляться больше мыслей, ссылок и материалов на темы, связанные с такими медиа. В остальном же канал сохраняет и прежнюю тематику: это широкий интерес к тому, как (цифровые) технологии и общество взаимно влияют друг на друга. Я стараюсь освещать это отношение с критической перспективы, которую дают социальные и гуманитарные науки, и уделять внимание историческим, политическим и культурным обстоятельствам, в которых технологии живут.
Я начал этот канал в 2019 году и радуюсь вдвойне тому, что я его не забросил и что часто слышал от людей, что мой канал им нравится. Спасибо за то, что вы его читаете, надеюсь, что он полезен и интересен для вас!
Объект моего исследовательского проекта в аспирантуре – это синтетические медиа. Это созданные с помощью искусственного интеллекта такие продукты как, например, синтезирование голоса, deepfakes, перевод текста в изображения и наоборт. В связи с этим на канале в дальнейшем будет появляться больше мыслей, ссылок и материалов на темы, связанные с такими медиа. В остальном же канал сохраняет и прежнюю тематику: это широкий интерес к тому, как (цифровые) технологии и общество взаимно влияют друг на друга. Я стараюсь освещать это отношение с критической перспективы, которую дают социальные и гуманитарные науки, и уделять внимание историческим, политическим и культурным обстоятельствам, в которых технологии живут.
Цензура и Яндекс.Новости
И сразу небольшой, но более содержательный пост. Три дня назад на The Village вышла статья про цензуру в Яндекс.Новостях: я сразу заинтересовался и побежал покупать подписку. Если вы читали какие-то статьи про этот агрегатор раньше, то сам факт цензуры вряд ли новость для вас. Но именно в материале The Village внутреннее устройство цензуры раскрывается подробнее и сфокусированнее. В материала мне особенно понравились два сюжета:
1. Несистематичность списков цензуры. Согласно расследованию, нельзя сказать, к примеру, что любое медиа-"инагент" или медиа без лицензии автоматически не попадают в список "доверенных" изданий. Скорее список работает "в ручном режиме", и вот это сочетание ручного режима и алгоритма и есть создающая цензуру спайка. Эту мысль можно дальше развивать и в исторические сравнения о смене характера цензуры, и в плоскость понимания цензуры как продукта взаимодействий человека и алгоритма.
2. Как прозрачность алгоритма может стать оружием. Часто говорят, что для соответствия демократическим идеалам работа алгоритма должна быть прозрачна, понятна и доступна для объяснения. Однако эту позицию подвергают критике, и в расследовании The Village есть отличный пример. Так, сотрудники Яндекса рассказали Московской мэрии о работе алгоритма ранжирования новостей, а те воспользовались им для увеличения выдачи новостей о Собянине. На мой взгляд это показывает, что нужно усложнять дискусии о алгоритмической прозрачности, если она как-то сама по себе и может быть связана с демократией.
Вообще с моей точки зрения жанр "журналистики алгоритма" – тип текстов, где главным героем является алгоритм, будет становится все более важным. Ещё о Яндекс.Новостях можно почитать в статье «Codes of conduct for algorithmic news recommendation: The Yandex.News controversy in Russia» от Françoise Daucé и Benjamin Loveluck, а вот здесь я её кратко пересказываю.
И сразу небольшой, но более содержательный пост. Три дня назад на The Village вышла статья про цензуру в Яндекс.Новостях: я сразу заинтересовался и побежал покупать подписку. Если вы читали какие-то статьи про этот агрегатор раньше, то сам факт цензуры вряд ли новость для вас. Но именно в материале The Village внутреннее устройство цензуры раскрывается подробнее и сфокусированнее. В материала мне особенно понравились два сюжета:
1. Несистематичность списков цензуры. Согласно расследованию, нельзя сказать, к примеру, что любое медиа-"инагент" или медиа без лицензии автоматически не попадают в список "доверенных" изданий. Скорее список работает "в ручном режиме", и вот это сочетание ручного режима и алгоритма и есть создающая цензуру спайка. Эту мысль можно дальше развивать и в исторические сравнения о смене характера цензуры, и в плоскость понимания цензуры как продукта взаимодействий человека и алгоритма.
2. Как прозрачность алгоритма может стать оружием. Часто говорят, что для соответствия демократическим идеалам работа алгоритма должна быть прозрачна, понятна и доступна для объяснения. Однако эту позицию подвергают критике, и в расследовании The Village есть отличный пример. Так, сотрудники Яндекса рассказали Московской мэрии о работе алгоритма ранжирования новостей, а те воспользовались им для увеличения выдачи новостей о Собянине. На мой взгляд это показывает, что нужно усложнять дискусии о алгоритмической прозрачности, если она как-то сама по себе и может быть связана с демократией.
Вообще с моей точки зрения жанр "журналистики алгоритма" – тип текстов, где главным героем является алгоритм, будет становится все более важным. Ещё о Яндекс.Новостях можно почитать в статье «Codes of conduct for algorithmic news recommendation: The Yandex.News controversy in Russia» от Françoise Daucé и Benjamin Loveluck, а вот здесь я её кратко пересказываю.
data stories pinned «Прошло много времени, пора бы и обновить закрепленное сообщение. С сентября этого года я начал аспирантуру в Делфтском техническом университете в Нидерландах, и там я часть новой лаборатории AI DeMoS. Вместе с коллегами на пересечении философии и дизайна…»
Forwarded from Разработчик на острове 🇺🇦
Очень интересная история, как отказавшаяся от сканирования лица для дальнейшего использования технологии распознавания лиц корейка проходила американскую таможню при въезде в страну и препиралась с миграционными офицерами.
Для них то, что кто-то осмелилась сказать "Я не хочу проходить через киоск со сканированием лица, потому что не желаю, чтобы моё лицо постоянно сканировали", стало открытием, и в итоге против неё были сразу трое офицеров, пытаясь переубедить. Сначала сказали "ну у нас и так есть ваши фотографии", потом "прохождение границы для вас займёт дольше времени".
И это несмотря на то, что согласно их же policy, "U.S. citizens and select foreign nationals who are not required to provide biometrics and who wish to opt out of the new facial biometric process may simply notify a CBP officer, request a manual document check, and proceed with processing consistent with existing requirements for entry into the United States”, т.е граждане США и некоторые иностранцы, которым не требуется предъявлять биометрию, могут отказаться от лицевого сканирования путём уведомления сотрудника погранслужбы.
Для них то, что кто-то осмелилась сказать "Я не хочу проходить через киоск со сканированием лица, потому что не желаю, чтобы моё лицо постоянно сканировали", стало открытием, и в итоге против неё были сразу трое офицеров, пытаясь переубедить. Сначала сказали "ну у нас и так есть ваши фотографии", потом "прохождение границы для вас займёт дольше времени".
И это несмотря на то, что согласно их же policy, "U.S. citizens and select foreign nationals who are not required to provide biometrics and who wish to opt out of the new facial biometric process may simply notify a CBP officer, request a manual document check, and proceed with processing consistent with existing requirements for entry into the United States”, т.е граждане США и некоторые иностранцы, которым не требуется предъявлять биометрию, могут отказаться от лицевого сканирования путём уведомления сотрудника погранслужбы.
mas.to
YK Hong (@[email protected])
Since folks asked what happens whenever I opt out of facial recognition, I documented it for you while going through US border patrol.
Coming out of the flight there was a row of kiosks for facial biometric capture. There were no people. Just kiosks. So…
Coming out of the flight there was a row of kiosks for facial biometric capture. There were no people. Just kiosks. So…
Большой проект в Нидерландах по социально-гуманитарным исследованиям искусственного интеллекта, податься можно вот до 16 января.
Forwarded from Дорогие коллеги
Дорогие коллеги,
🇳🇱Если вам интересно исследования AI, то в algosoc есть 13 PhD позиций и 4 позиции постдоков
algosoc - это программа новаторских исследований взаимосвязи между технологиями и обществом. У них есть три направления: media, justice и health. По всем трем направлением есть несколько PhD вакансий, посмотрите:
🌐https://www.algosocvacancies.org/
#постдок #PhD #AI #STS
🇳🇱Если вам интересно исследования AI, то в algosoc есть 13 PhD позиций и 4 позиции постдоков
algosoc - это программа новаторских исследований взаимосвязи между технологиями и обществом. У них есть три направления: media, justice и health. По всем трем направлением есть несколько PhD вакансий, посмотрите:
🌐https://www.algosocvacancies.org/
#постдок #PhD #AI #STS
Forwarded from Канал Алексея Радченко
Еще немного про транспорт и про статистику по нему...
Уже полгода как у меня лежат данные по движению московского транспорта "аналогичные тем, что можно выкачать из КПП". Данные включат все рейсы автобусов в течение дня в привязке к остановкам. Данные очень крутые и проливают свет на знаменитые эпитеты коллег из ДТ про интервал в четыре минуты на трамвайно сети и другие перлы. Косвенно эти же данные показывают скорости автобусов и трамваев, в том числе влияет ли на скорость выделенка или обособление.
Данные суперские, но вот сделать на их основе нормальное расследование и визуал я за полгода не осилил, сказались война и все с этим связано, стресс, переезды, разорванные связи... не важно. В итоге я не придумал ничего лучше как делегировать задачу :)
Мы приглашаем аналитиков данных, городских исследователей и всех кто умеет красиво визуализирует. С нас данные и их подробное описание, посильная помощь, ну и самое главное... деньги! Двадцать тысяч рублей за первое место, и по пять за второе и третье. Кроме того у нас роскошное жюри - Андрей Дорожный, Дмитрий Муравьев и Артем Панкин (а так в проекте еще куча крутых ребят). В общем:
Тут (https://mosdatachallenge.tilda.ws/) - описание собственно конкурса и условий, там же кнопка регистрации.
Ну а тут (https://artempankin.notion.site/a5fa5cef8ae24ee59a0e8d2ad1505549) - описание данных.
Какие вещи ждем: не обязательно карты, но красивые и наглядные истории, соответствие задаче и функции, приятные эстетика и грамотный визуальный язык. Формат работ не критичен: и pdf, и фигма, и слайды и интерактивный сайт подойдут.
Результаты ждем до конца января.
Уже полгода как у меня лежат данные по движению московского транспорта "аналогичные тем, что можно выкачать из КПП". Данные включат все рейсы автобусов в течение дня в привязке к остановкам. Данные очень крутые и проливают свет на знаменитые эпитеты коллег из ДТ про интервал в четыре минуты на трамвайно сети и другие перлы. Косвенно эти же данные показывают скорости автобусов и трамваев, в том числе влияет ли на скорость выделенка или обособление.
Данные суперские, но вот сделать на их основе нормальное расследование и визуал я за полгода не осилил, сказались война и все с этим связано, стресс, переезды, разорванные связи... не важно. В итоге я не придумал ничего лучше как делегировать задачу :)
Мы приглашаем аналитиков данных, городских исследователей и всех кто умеет красиво визуализирует. С нас данные и их подробное описание, посильная помощь, ну и самое главное... деньги! Двадцать тысяч рублей за первое место, и по пять за второе и третье. Кроме того у нас роскошное жюри - Андрей Дорожный, Дмитрий Муравьев и Артем Панкин (а так в проекте еще куча крутых ребят). В общем:
Тут (https://mosdatachallenge.tilda.ws/) - описание собственно конкурса и условий, там же кнопка регистрации.
Ну а тут (https://artempankin.notion.site/a5fa5cef8ae24ee59a0e8d2ad1505549) - описание данных.
Какие вещи ждем: не обязательно карты, но красивые и наглядные истории, соответствие задаче и функции, приятные эстетика и грамотный визуальный язык. Формат работ не критичен: и pdf, и фигма, и слайды и интерактивный сайт подойдут.
Результаты ждем до конца января.
mosdatachallenge.tilda.ws
Дата-челлендж "Московский транспорт"
Конкурс визуализации данных транспорта Москвы
Экономики добродетели и этика искусственного интеллекта
Классный сборник вышел у Института сетевых культур про положение этики и критики искусственного интеллекта. Пока успел там почитать два интервью, и они оба хорошо проблематизируют, что вообще значит пытаться работать с искусственным интеллектом сейчас. К примеру, из интервью с Мередит Уиттакер (она сейчас президент мессенджера Signal Foundation) можно узнать, что у её организации AI Now Institute, ведущего аналитического центра по социальным исследования искусственного интеллекта, были проблема с получением финасирования от Нью-Йоркского университета. Несмотря на без преуменьшения мировую известность этого центра и первоклассные исследовательские результаты, руководство полагало, что Мередит и её коллегам нужно соотнести их повестку с той, что есть у инжерных центров университета. По факту им мягко указали на то, что им стоит быть менее критичными, чтобы не отпугнуть доноров вроде Amazon или Google от университета.
Мне кажется, мало по какой теме в социальных и гуманитарных науках сейчас открывается там много позиций и проектов как по тематике искусственного интеллекта. Все это происходит на волне ожиданий, разочарований, беспокойств и озабоченностей, которые эта технология вызывает в различных странах. Потоки финансирования и публичного внимания к искусственному интеллекту – есть одновременно и возможность, и проблема.
Моя рабочая позиция в том числе стала возможной благодаря такому внимания, и поэтому для меня важно ставить под сомнение, как это отражается на моей позиции и интеллектуальном труде. Среди прочего, это значит обращать внимание на устройство самих дискуссий и их (не)явные предпосылки. К примеру, сам термин "искусственный интеллект" на мой взгляд достаточно проблемный, потому что предполагает, что мы и правда имеем дело с интеллектом в каком-то виде. Это точка зрения для меня сомнительная, поскольку такое понимание интеллекта основано исключительно на идее высокоэффективной обработки информации. Но за термином "искусственный интеллект" стоят ожидания, подпитывающие дискуссии о том, что "роботы нас всех захватят", уф. Понимания социального контекста своей собственной интеллектуальной повестки все же, как будто бы, должно помочь лучше сформулировать тот язык, с помощью которого можно делать исследования и говорить о них.
Классный сборник вышел у Института сетевых культур про положение этики и критики искусственного интеллекта. Пока успел там почитать два интервью, и они оба хорошо проблематизируют, что вообще значит пытаться работать с искусственным интеллектом сейчас. К примеру, из интервью с Мередит Уиттакер (она сейчас президент мессенджера Signal Foundation) можно узнать, что у её организации AI Now Institute, ведущего аналитического центра по социальным исследования искусственного интеллекта, были проблема с получением финасирования от Нью-Йоркского университета. Несмотря на без преуменьшения мировую известность этого центра и первоклассные исследовательские результаты, руководство полагало, что Мередит и её коллегам нужно соотнести их повестку с той, что есть у инжерных центров университета. По факту им мягко указали на то, что им стоит быть менее критичными, чтобы не отпугнуть доноров вроде Amazon или Google от университета.
Мне кажется, мало по какой теме в социальных и гуманитарных науках сейчас открывается там много позиций и проектов как по тематике искусственного интеллекта. Все это происходит на волне ожиданий, разочарований, беспокойств и озабоченностей, которые эта технология вызывает в различных странах. Потоки финансирования и публичного внимания к искусственному интеллекту – есть одновременно и возможность, и проблема.
Моя рабочая позиция в том числе стала возможной благодаря такому внимания, и поэтому для меня важно ставить под сомнение, как это отражается на моей позиции и интеллектуальном труде. Среди прочего, это значит обращать внимание на устройство самих дискуссий и их (не)явные предпосылки. К примеру, сам термин "искусственный интеллект" на мой взгляд достаточно проблемный, потому что предполагает, что мы и правда имеем дело с интеллектом в каком-то виде. Это точка зрения для меня сомнительная, поскольку такое понимание интеллекта основано исключительно на идее высокоэффективной обработки информации. Но за термином "искусственный интеллект" стоят ожидания, подпитывающие дискуссии о том, что "роботы нас всех захватят", уф. Понимания социального контекста своей собственной интеллектуальной повестки все же, как будто бы, должно помочь лучше сформулировать тот язык, с помощью которого можно делать исследования и говорить о них.
networkcultures.org
TOD #46: Economies of Virtue – The Circulation of ‘Ethics’ in AI
Theory on Demand #46Economies of Virtue: The Circulation of ‘Ethics’ in AIEdited by Thao Phan, Jake Goldenfein, Declan Kuch, and Monique MannAI ethics has never been far from the indus
Смотрите, какой интересный курс, вдруг вам захочется поучаствовать. Лично я убежден, что без понимания как минимум одной из тем курса – а именно той трансформация, что случилась с науками о человеке в период холодной войны, нам будет сложно что-то понять про технологии и общество сейчас.
Forwarded from Структура наносит ответный удар
Набор на онлайн-курс по исследованиям социальных и гуманитарных наук
Правда ли, что гуманитарная академия состоит из сетевых банд? В чем секрет успеха публичного интеллектуала? Можно ли сказать, что социальное знание не описывает общество, а производит его? Как европейский империализм влиял на социальные науки в XIX веке, а Холодная война – в веке XX? На эти и многие другие вопросы мы с Сергеем Машуковым попытаемся дать ответы совместно со слушателями на своем новом курсе «Наблюдая наблюдателей: введение в исследования социальных и гуманитарных наук».
Наша миссия – познакомить с активно развивающейся междисциплинарной областью Studies of Social Sciences and Humanities (SSSH), посвященной поискам социальных оснований наук о человеке. На наших занятиях мы рассмотрим принятые в ней теоретические языки, наиболее актуальные темы и методологические дизайны эмпирических исследований. Работа будет организована вокруг чтения текстов Мишель Ламонт, Пьера Бурдье, Дональда Маккензи, Михаила Соколова и многих других ярких представителей поля SSSH. Более подробно познакомиться с программой можно здесь.
Участие в курсе подразумевает небольшую плату. Места в группах ограничены, поэтому спешите забронировать их за собой! Для этого нужно написать @theghostagainstthemachine или @epistemic_justice в личку, представившись и рассказав пару слов о себе для более гладкой коммуникации. На курсе предусмотрены и 3 бюджетных места. Их займут победители конкурса мотивационных писем, которые можно направлять до 12 февраля на гугл-форму.
Максимальнейший репост! Энергичнейший шер! На ваши вопросы с радостью отвечу в комментариях.
Правда ли, что гуманитарная академия состоит из сетевых банд? В чем секрет успеха публичного интеллектуала? Можно ли сказать, что социальное знание не описывает общество, а производит его? Как европейский империализм влиял на социальные науки в XIX веке, а Холодная война – в веке XX? На эти и многие другие вопросы мы с Сергеем Машуковым попытаемся дать ответы совместно со слушателями на своем новом курсе «Наблюдая наблюдателей: введение в исследования социальных и гуманитарных наук».
Наша миссия – познакомить с активно развивающейся междисциплинарной областью Studies of Social Sciences and Humanities (SSSH), посвященной поискам социальных оснований наук о человеке. На наших занятиях мы рассмотрим принятые в ней теоретические языки, наиболее актуальные темы и методологические дизайны эмпирических исследований. Работа будет организована вокруг чтения текстов Мишель Ламонт, Пьера Бурдье, Дональда Маккензи, Михаила Соколова и многих других ярких представителей поля SSSH. Более подробно познакомиться с программой можно здесь.
Участие в курсе подразумевает небольшую плату. Места в группах ограничены, поэтому спешите забронировать их за собой! Для этого нужно написать @theghostagainstthemachine или @epistemic_justice в личку, представившись и рассказав пару слов о себе для более гладкой коммуникации. На курсе предусмотрены и 3 бюджетных места. Их займут победители конкурса мотивационных писем, которые можно направлять до 12 февраля на гугл-форму.
Максимальнейший репост! Энергичнейший шер! На ваши вопросы с радостью отвечу в комментариях.
Политическое измерение алгоритмической ошибки
Решения, что основаны на алгоритмах, бывают ошибочны. К примеру, алгоритмы неправильно распознают лицо, и человека задерживают. В таких случаях частый импульс – это "исправить" алгоритм, минимизировать вероятность ошибки различными способами – техническими, социальными или же какой-то их "смесью". И хотя сама по себе вероятность ошибки неискоренима, любопытно то, что алгоритмические ошибки не выводят нас за рамки алгоритма как способа принятия решений.
И, кажется, что это связано с тем, что само понятие ошибки в случаев алгоритмов машинного обучения оставляет нас в горизонте самой технологии. Здесь хочется обратиться к Тео Лепейдж-Ришеру, который прослеживает историю adversariality (сложно перевести этот термин на русский, но это что-то вроде состязательности) в кибернетике Норберта Виннера и современной литературе по нейронным сетям. Среди прочего, в этом блестящем эссе показано, что если для Виннера оппоненты были внешними и идентифицируемыми (к примеру, вражеские пилоты), то в современной литературе по нейронным сетям оппоненты становятся ошибкой – одновременно и угрозой, и способом лучше обучить сам алгоритм. Таким образом, современное машинное обучение концептуально предполагает, что пределы познания нейронных сетей принципиально неограничены. Ведь возможность ошибки как проявление таких пределов не повод отказаться от технологии, а временный недостаток, способ её улучшить.
Из такой истории науки и технологии следует важное политическое следствие. Если нам кажется важным поставить под сомнение алгоритм как способ решения проблем, то обращение к его ошибкам не может быть политически плодотворно.
Решения, что основаны на алгоритмах, бывают ошибочны. К примеру, алгоритмы неправильно распознают лицо, и человека задерживают. В таких случаях частый импульс – это "исправить" алгоритм, минимизировать вероятность ошибки различными способами – техническими, социальными или же какой-то их "смесью". И хотя сама по себе вероятность ошибки неискоренима, любопытно то, что алгоритмические ошибки не выводят нас за рамки алгоритма как способа принятия решений.
И, кажется, что это связано с тем, что само понятие ошибки в случаев алгоритмов машинного обучения оставляет нас в горизонте самой технологии. Здесь хочется обратиться к Тео Лепейдж-Ришеру, который прослеживает историю adversariality (сложно перевести этот термин на русский, но это что-то вроде состязательности) в кибернетике Норберта Виннера и современной литературе по нейронным сетям. Среди прочего, в этом блестящем эссе показано, что если для Виннера оппоненты были внешними и идентифицируемыми (к примеру, вражеские пилоты), то в современной литературе по нейронным сетям оппоненты становятся ошибкой – одновременно и угрозой, и способом лучше обучить сам алгоритм. Таким образом, современное машинное обучение концептуально предполагает, что пределы познания нейронных сетей принципиально неограничены. Ведь возможность ошибки как проявление таких пределов не повод отказаться от технологии, а временный недостаток, способ её улучшить.
Из такой истории науки и технологии следует важное политическое следствие. Если нам кажется важным поставить под сомнение алгоритм как способ решения проблем, то обращение к его ошибкам не может быть политически плодотворно.
SpringerLink
Adversariality in Machine Learning Systems: On Neural Networks and the
Since their introduction by Warren McCulloch and Walter Pitts in the 1940s, neural networks have evolved from an experimentally inclined model of the mind to a powerful machine learning architecture. While this transformation is generally narrated as a story…
К примеру, есть художественный проект Лиама Янга и Джейкоба Джонаса "хореографический камуфляж". В ответ на алгоритмы распознавания походки и скелетной модели художники сделали перформанс, в котором танцоры двигаются непредсказуемо. Однако такой проект как будто бы работает на сам технический горизонт алгоритмов нейронных сетей, для которых ошибка – не только и не столько провал, сколько возможность улучшения. Непредсказуемые движения, нацеленные на максимизацию ошибки, есть также отличный способ в конечном итоге алгоритм улучшить. В литературе по кибербезопасности, к примеру, схожим образом обсуждают понятие adversarial examples (состязательные примеры) – специально созданные вводные данные, которые создал злоумышленники для того, чтобы модель совершила ошибку. Вот поэтому кажется, что политический ответ, направленный на ограничение зон, где алгоритм может действовать, не может полагаться исключительно на их ошибочность.
Forwarded from провода+болота
две позиции про GPT-3
как человек преподающий и курирующий образовательную программу, я воодушевлена тем, что GPT-3 используется для написания курсовых, дипломных и иных работ.
рассуждая из этих своих позиций, я искренне не понимаю, зачем их запрещать.
(ниже я пишу, почему как работница институции я вижу в этом проблемы)
стоит работать с машинами, давать им задания, изучать их способ действия, помогать друг другу распознавать кусочки реальности и её описаний. если студенты не будут уметь работать с GPT на выходе из университета — это вот проблема.
вот сходу несколько вариантов того, как использовать GPT-3 в образовательном процессе, какие задания давать студентам:
- дать GPT-3 задачу написать эссе по своей теме, фиксировать процесс, объяснить, зачем давались конкретные задачи, какого результата добивался человек.
вторым ходом нужно попросить GPT-3 и решить и задачу метаописания, бэклога. устно объяснить, в чём разница.
- групповое задание — сравнить, чем отличаются постановки задач у разных людей, какие критерии исходят из разных логик (и студенческих и из разных логик задач курса/преподавателя)
- реконструировать, из каких источников GPT-3 берёт элементы текста (это невозможно сделать в полной мере, но пытаться — следует). написать методическую рекомендацию по тому, какие брать не следует. обсудить в группе «за» и «против» открытости разных источников.
- написать эссе/обзор литры/план исследования на ту же тему, что GPT-3. сравнить, в табличке написать, в чём разница.
- поработать с разными переводчиками и языками, грамматическими формами, выявить разницу, дать ей интерпретацию.
- разработать школьный урок с вариациями текстов, созданных GPT-3. продумать, какие формы проверки возможны, какие плагины можно придумать, чтобы школьники смогли фальсифицировать свою работу.
но! есть структурные проблемы. существование, политика и финансирование университетов исходит из принципов унификации и автоматизации. как вы понимаете, программу учебной дисциплины GPT-3 составит не хуже иного препода, и оценит работы, и напишет фидбек. людей в университетах включали в системы, где они/мы как бы играют в машин. к сожалению, не играли в эту игру — единицы.
перейти к тем способам оценки, которые позволят учесть труд и интерес человека и коллектива — смогут не все.
пересборка больших процессов по такому учёту — будет чудовищной. я с болью смотрю на эту часть истории, в которой мы живём — сколько судеб будет ломаться, сколько видов знаний не сможет пережить этого и вынужено будет искать новые способы существования.
искать стоит вместе. тут и кибернетические корни гуманитарных наук понадобятся, и знания историков про то, какие этапы автоматизации мы уже переживали, и умение работать с машинными интерфейсами, и критика данных/знания.
так что если вам, как и мне, GPT-3 скорее помогает, стоит пристёгивая себя, оглядываться на соседей.
как человек преподающий и курирующий образовательную программу, я воодушевлена тем, что GPT-3 используется для написания курсовых, дипломных и иных работ.
рассуждая из этих своих позиций, я искренне не понимаю, зачем их запрещать.
стоит работать с машинами, давать им задания, изучать их способ действия, помогать друг другу распознавать кусочки реальности и её описаний. если студенты не будут уметь работать с GPT на выходе из университета — это вот проблема.
вот сходу несколько вариантов того, как использовать GPT-3 в образовательном процессе, какие задания давать студентам:
- дать GPT-3 задачу написать эссе по своей теме, фиксировать процесс, объяснить, зачем давались конкретные задачи, какого результата добивался человек.
вторым ходом нужно попросить GPT-3 и решить и задачу метаописания, бэклога. устно объяснить, в чём разница.
- групповое задание — сравнить, чем отличаются постановки задач у разных людей, какие критерии исходят из разных логик (и студенческих и из разных логик задач курса/преподавателя)
- реконструировать, из каких источников GPT-3 берёт элементы текста (это невозможно сделать в полной мере, но пытаться — следует). написать методическую рекомендацию по тому, какие брать не следует. обсудить в группе «за» и «против» открытости разных источников.
- написать эссе/обзор литры/план исследования на ту же тему, что GPT-3. сравнить, в табличке написать, в чём разница.
- поработать с разными переводчиками и языками, грамматическими формами, выявить разницу, дать ей интерпретацию.
- разработать школьный урок с вариациями текстов, созданных GPT-3. продумать, какие формы проверки возможны, какие плагины можно придумать, чтобы школьники смогли фальсифицировать свою работу.
но! есть структурные проблемы. существование, политика и финансирование университетов исходит из принципов унификации и автоматизации. как вы понимаете, программу учебной дисциплины GPT-3 составит не хуже иного препода, и оценит работы, и напишет фидбек. людей в университетах включали в системы, где они/мы как бы играют в машин. к сожалению, не играли в эту игру — единицы.
перейти к тем способам оценки, которые позволят учесть труд и интерес человека и коллектива — смогут не все.
пересборка больших процессов по такому учёту — будет чудовищной. я с болью смотрю на эту часть истории, в которой мы живём — сколько судеб будет ломаться, сколько видов знаний не сможет пережить этого и вынужено будет искать новые способы существования.
искать стоит вместе. тут и кибернетические корни гуманитарных наук понадобятся, и знания историков про то, какие этапы автоматизации мы уже переживали, и умение работать с машинными интерфейсами, и критика данных/знания.
так что если вам, как и мне, GPT-3 скорее помогает, стоит пристёгивая себя, оглядываться на соседей.
Славная рассылка у Kit про искусственный интеллект, рекомендую! Пока читал её, думал об объективности, которая там тематически немного появляется. В текущий технологический и политический момент важно сомневаться в объективности алгоритмов – ведь в том, как они принимают решений, много предрассудков, искажений, этически и социально нежелательных исходов, а ещё просто сюрпризов. Вместе с тем, такое разоблачение алгоритмической объективности, неспособной соответствовать высоким ожиданиям, на мой взгляд, должно также уметь оценить стоящие за этими проектам намерения и усилия. Все же за такими попытками по созданию объективных алгоритмов стоит сильное обещание изменить процесс принятия решений «в лучшую сторону», какой бы она не была. Ведь у алгоритмического принятия решений нет автоматически выигрышной противоположности здесь, человеческие решения также воплощают в себе различные предрассудки.
Вот история и философии науки нас учат, что объективность – многосоставный, исторический изменчивый идеал (про это есть замечательная книга «Объективность» П. Галисон и Л. Дастон). Этот идеал, безусловно, создается, но это никак не отменяет его ценности. Объективность – это не ценностно нейтральная позиция безусловной непредвзятости, «взгляд Бога». Однако смысл этого идеала вполне может быть переиначен при сохранении его значимости как познавательного и политического импульса. Так, сейчас я читаю книгу Сандры Хардинг «Объективность и разнообразие», где она с точки зрения ряда дисциплин пытается сделать именно это, а именно – указать, что можно и нужно культивировать более сильный идеал объективности, который не противоречит, а подкрепляется разнообразием позиций и предлагаемого ими знания.
Вот история и философии науки нас учат, что объективность – многосоставный, исторический изменчивый идеал (про это есть замечательная книга «Объективность» П. Галисон и Л. Дастон). Этот идеал, безусловно, создается, но это никак не отменяет его ценности. Объективность – это не ценностно нейтральная позиция безусловной непредвзятости, «взгляд Бога». Однако смысл этого идеала вполне может быть переиначен при сохранении его значимости как познавательного и политического импульса. Так, сейчас я читаю книгу Сандры Хардинг «Объективность и разнообразие», где она с точки зрения ряда дисциплин пытается сделать именно это, а именно – указать, что можно и нужно культивировать более сильный идеал объективности, который не противоречит, а подкрепляется разнообразием позиций и предлагаемого ими знания.
Forwarded from Kit
В российском сериале «Фандорин. Азазель» (действие там происходит в альтернативном 2023 году) компьютер прогнозирует совершение убийства. Хотя убийца и жертва еще даже не знакомы друг с другом, на одного из них уже надевают наручники. Ситуация выглядит фантастической, однако возможно, вскоре она станет реальностью.
Искусственный интеллект все чаще участвует в принятии решений, которые влияют на нашу жизнь. Дадут вам ипотеку или нет? Повысят вас в должности? А может, вы террорист? А если террорист — убить вас или нет? Это не преувеличение: ИИ проник во все сферы жизни. Например, в начале февраля в Колумбии судья вынес решение, посоветовавшись с нейростетью.
От искусственного интеллекта ждут справедливости, объективности и беспристрастности. Но на самом деле алгоритмы просто воспроизводят закономерности, характерные для реального мира. Ведь, чтобы нейросеть начала «думать», ей «скармливают» тысячи примеров и дают задачу повторить их. К примеру, фемактивистка Дарья Серенко обвинила нейросеть приложения Lensa в «нейросексизме»: программа сгенерировала эротические изображения, хотя в нее загрузили фотографии в одежде.
Мультимедийный художник и публицист Иван Неткачев в письме Kit рассказывает почему алгоритмы не строят для нас новый справедливый мир, а, наоборот, только укрепляют старый несправедливый.
Если вы подписчик Kit, ищите его в своем почтовом ящике. Если еще нет — вы можете подписаться по ссылке.
Искусственный интеллект все чаще участвует в принятии решений, которые влияют на нашу жизнь. Дадут вам ипотеку или нет? Повысят вас в должности? А может, вы террорист? А если террорист — убить вас или нет? Это не преувеличение: ИИ проник во все сферы жизни. Например, в начале февраля в Колумбии судья вынес решение, посоветовавшись с нейростетью.
От искусственного интеллекта ждут справедливости, объективности и беспристрастности. Но на самом деле алгоритмы просто воспроизводят закономерности, характерные для реального мира. Ведь, чтобы нейросеть начала «думать», ей «скармливают» тысячи примеров и дают задачу повторить их. К примеру, фемактивистка Дарья Серенко обвинила нейросеть приложения Lensa в «нейросексизме»: программа сгенерировала эротические изображения, хотя в нее загрузили фотографии в одежде.
Мультимедийный художник и публицист Иван Неткачев в письме Kit рассказывает почему алгоритмы не строят для нас новый справедливый мир, а, наоборот, только укрепляют старый несправедливый.
Если вы подписчик Kit, ищите его в своем почтовом ящике. Если еще нет — вы можете подписаться по ссылке.