Forwarded from Brodetskyi. Tech, VC, Startups
Забавный сюжет развернулся в Великобритании. Экзамены в школах отменили из-за коронавируса. Чтобы поставить оценки выпускникам, разработали алгоритм, основанный на исторических данных об успеваемости школы и внутренних рейтингах учеников в школах. Итог — полный хаос. Почти 40% учеников получили заниженные оценки, некоторые — сразу на несколько баллов. Особенно пострадали успешные ученики плохих школ — алгоритм придавал много значения историческим данным, и если твоя школа показывала раньше плохие результаты, то высшую оценку алгоритм тебе уже не поставит, как бы хорошо не учился ты сам.
Несправедливые оценки получили почти 300 000 выпускников. Разразился национальный скандал, обиженные школьники вышли на митинги — у многих сорвались планы по поступлению. В итоге от идеи автоматического оценивания отказались, а итоговые оценки школьникам выставили их учителя. Посмотрите, как школьники скандируют "fuck the algorithm" — без контекста выглядит как эпизод из "Черного зеркала", да и с контекстом тоже, если бы не отмена несправедливых оценок.
Все-таки не стоит поручать непрозрачным алгоритмам решения, которые влекут за собой серьезные социальные последствия.
Несправедливые оценки получили почти 300 000 выпускников. Разразился национальный скандал, обиженные школьники вышли на митинги — у многих сорвались планы по поступлению. В итоге от идеи автоматического оценивания отказались, а итоговые оценки школьникам выставили их учителя. Посмотрите, как школьники скандируют "fuck the algorithm" — без контекста выглядит как эпизод из "Черного зеркала", да и с контекстом тоже, если бы не отмена несправедливых оценок.
Все-таки не стоит поручать непрозрачным алгоритмам решения, которые влекут за собой серьезные социальные последствия.
The Verge
UK ditches exam results generated by biased algorithm after student protests
Formal exams had to be canceled due to the pandemic.
На Кольте вышло мое интервью с Михаэлом Пунтшу, экспертом в области этики ИИ. Он участвовал в проекте Algo.Rules, целью которого было выработать критерии, помогающие направлять процесс дизайна алгоритмических систем.
Мне там особенно нравится часть с обсуждением дискурса «моральных машин» в этике ИИ – идеи того, что мы можем «вписать» определенные «этичные» ориентиры принятия решений в дизайн систем. Как (с моей точки зрения) верно указывает Михаэль, бесконечные обсуждения «дилемм вагонетки» в формате «а-кого-тут-должен-сбить-беспилотный-автомобиль» нас в понимании этичного ИИ особенно вперед не двигают.
Вместе с другими классными экспертами Михаэль принимает участие в «Сетевом сентябре», который совместно делают Гете-Институт и Теплица социальных технологий. Там множество интересных панелей – технологии и пандемия, активизм и молодые люди, алгоритмы и их регулирование. Зарегистрироваться можно здесь.
Мне там особенно нравится часть с обсуждением дискурса «моральных машин» в этике ИИ – идеи того, что мы можем «вписать» определенные «этичные» ориентиры принятия решений в дизайн систем. Как (с моей точки зрения) верно указывает Михаэль, бесконечные обсуждения «дилемм вагонетки» в формате «а-кого-тут-должен-сбить-беспилотный-автомобиль» нас в понимании этичного ИИ особенно вперед не двигают.
Вместе с другими классными экспертами Михаэль принимает участие в «Сетевом сентябре», который совместно делают Гете-Институт и Теплица социальных технологий. Там множество интересных панелей – технологии и пандемия, активизм и молодые люди, алгоритмы и их регулирование. Зарегистрироваться можно здесь.
www.colta.ru
Михаэль Пунтшу: «Некоторых из ошибок, совершаемых алгоритмами, не сделал бы и ребенок»
Алгоритмы — это по-своему terra incognita. Как освоить эту землю, чтобы она приносила нам больше пользы, чем вреда, рассказывает немецкий эксперт из проекта Algo.Rules
В своей последней статье «Борьба за цифровой суверенитет: что это такое и почему это имеет значение, особенно для ЕС» научный сотрудник Оксфордского института интернет-исследователей Лучано Флориди высказывает, среди прочих, тезис о том, что будущее цифрового регулирования будет завязано на взаимодействии политической власти национальных государств и власти больших технологических корпораций. В своем желании вернуть/обрести суверенитет над разными взаимосвязанными «компоненты» интернета государства сталкиваются с технологическими компаниями, маневрирующими между юрисдикциями, при этом находясь в зависимости от технологий этих компаний.
Флориди также намечает ряд возможных траекторий, по которым цифровой суверенитет может быть вновь обретен в контексте ЕС, учитывая отношения между наднациональным и национальным уровнями управления. Сложные отношения между корпорациями и государствами – лейтмотив большого числа новостей про все цифровое, от вопроса о данных и интернета вещей до 5G и ИИ.
Однако с тем, как Флориди ставит проблему цифрового суверенитета – выяснение отношений между политической и корпоративной властью – на мой взгляд, есть проблема. А именно – это проблематизация ситуации, более актуальная именно для западных стран, в юрисдикциях которых такие компании расположены. Если ваше государство не принадлежит к таким странам, то ваши возможности вовлечься в великую баталию «политическая vs корпоративная власть» значительно меняются. Я бы сказал, что тогда ваша страна существует в другом масштабе проблемы цифрового суверенитета – для вас это не история про вашу политическу власть против чужой корпоративной в предлагаемом Флориди смысле. Просто потому что политическая власть у вас другая (если вообще есть), хотя и разрешение проблемы в масштабе западных стран для вас будет иметь последствия.
Флориди также намечает ряд возможных траекторий, по которым цифровой суверенитет может быть вновь обретен в контексте ЕС, учитывая отношения между наднациональным и национальным уровнями управления. Сложные отношения между корпорациями и государствами – лейтмотив большого числа новостей про все цифровое, от вопроса о данных и интернета вещей до 5G и ИИ.
Однако с тем, как Флориди ставит проблему цифрового суверенитета – выяснение отношений между политической и корпоративной властью – на мой взгляд, есть проблема. А именно – это проблематизация ситуации, более актуальная именно для западных стран, в юрисдикциях которых такие компании расположены. Если ваше государство не принадлежит к таким странам, то ваши возможности вовлечься в великую баталию «политическая vs корпоративная власть» значительно меняются. Я бы сказал, что тогда ваша страна существует в другом масштабе проблемы цифрового суверенитета – для вас это не история про вашу политическу власть против чужой корпоративной в предлагаемом Флориди смысле. Просто потому что политическая власть у вас другая (если вообще есть), хотя и разрешение проблемы в масштабе западных стран для вас будет иметь последствия.
И еще хочу приложить сюда статью Саеда Мустафа Али «Prolegomenon to the Decolonization of Internet Governance» про колониальность интернет-управления и деколониальную возможность, где посвящается достаточно много места подробному анализу текстов ключевых исследователей в интернет-управлении. Статья большая, плотная и непростая. Я осилил ее за несколько попыток, но по итогу она мне очень нравится.
В твиттере сейчас обсуждается статья "What they do in the shadows: examining the far-right networks on Telegram", причем не так, как это зачастую происходит. Чаще всего научные статьи в твиттере получают похвалу коллег, но конкретно в этой ситуации в комментарии пришли те, кто в исследовательском дизайне прежде были объектами исследования.
Задумка работы в следующем: многие авторы право-радикальных каналов уходят из социальных платформ и приходят в Телеграм – менее регулируемую платформу и потому более «свободную» для такого контента. Многие люди были искренне удивлены тем, что увидели себя как данные, ставшие частью работы про право-радикальные каналы. И многие из откликнушихся в комментариях идентифицируют себя как приверженцы прямо противоположных политических взглядов или просто не понимают, почему их канал стал частью право-радикального списка.
Этика в исследованиях сейчас преимущественно построена на идее того, что если ты как исследователь работаешь с людьми напрямую, то с тебе спросят, как ты это делал, а также зачем и почему. Но что делать, если мы говорим об исходно цифровом контенте, когда авторы тг-каналов и их контент — строки в датасете?
Для Бруно Латура любые социальные группы — не внешние продукты, слепленные из материала "социального". Напротив, группообразование — постоянный процесс, в котором принимают участие в том числе и социальные исследователи, когда говорят о "нации", "высшем среднем классе", "молодежи" и других группах. В этом смысле границы между группами сами становятся результатами работы разных акторов, к которым социальные исследователи также принадлежат.
И хотя об этике в исследованиях часто думают как о чем-то, что должно быть сделано "до" или "после" исследования, мне кажется здесь очень полезным идея интернет-исследовательницы Аннет Маркхэм, которая говорит об этике как части метода. Тогда этика не начинается и не заканчивается в определённые моменты исследования: она сопровождает весь процесс. Таким образом, соединяя здесь Латура и Маркхэм, мы можем спросить: насколько этичным был процесс группообразования в данном случае? На каких основаниях мы как исследователи относим скрывающихся за операционализированными метриками людей и контент к определённым категориям? Готовы ли мы к тому, чтобы отстаивать метрики, когда "объекты" исследования неожиданно для нас приобретают конкретное обличие и голос?
Задумка работы в следующем: многие авторы право-радикальных каналов уходят из социальных платформ и приходят в Телеграм – менее регулируемую платформу и потому более «свободную» для такого контента. Многие люди были искренне удивлены тем, что увидели себя как данные, ставшие частью работы про право-радикальные каналы. И многие из откликнушихся в комментариях идентифицируют себя как приверженцы прямо противоположных политических взглядов или просто не понимают, почему их канал стал частью право-радикального списка.
Этика в исследованиях сейчас преимущественно построена на идее того, что если ты как исследователь работаешь с людьми напрямую, то с тебе спросят, как ты это делал, а также зачем и почему. Но что делать, если мы говорим об исходно цифровом контенте, когда авторы тг-каналов и их контент — строки в датасете?
Для Бруно Латура любые социальные группы — не внешние продукты, слепленные из материала "социального". Напротив, группообразование — постоянный процесс, в котором принимают участие в том числе и социальные исследователи, когда говорят о "нации", "высшем среднем классе", "молодежи" и других группах. В этом смысле границы между группами сами становятся результатами работы разных акторов, к которым социальные исследователи также принадлежат.
И хотя об этике в исследованиях часто думают как о чем-то, что должно быть сделано "до" или "после" исследования, мне кажется здесь очень полезным идея интернет-исследовательницы Аннет Маркхэм, которая говорит об этике как части метода. Тогда этика не начинается и не заканчивается в определённые моменты исследования: она сопровождает весь процесс. Таким образом, соединяя здесь Латура и Маркхэм, мы можем спросить: насколько этичным был процесс группообразования в данном случае? На каких основаниях мы как исследователи относим скрывающихся за операционализированными метриками людей и контент к определённым категориям? Готовы ли мы к тому, чтобы отстаивать метрики, когда "объекты" исследования неожиданно для нас приобретают конкретное обличие и голос?
Forwarded from любим интернет каждый день
Дима интересно написал про шумную историю с исследованием праворадикального телеграмом.
в данных исследователей многие нашли себя, своих друзей, левых феминисток и канал с гифками про собак.
Латур и Маркхэм нам здорово помогут понять, как действовать иначе, согласна. но ещё важно помнить про вот что:
- исследование абсолютно нечувствительно к контексту, с которым работает
- ясных механизмов влияния на репутацию и судьбу статьи нет, будут и дальше цитировать статью про праворадикальные гифки про собак
- авторша исследования написала нескольким людям в духе 'почитайте нашу методологию, а если не получается понять, почитайте ещё раз'
- исследование опубликовано в хорошем журнале, значит редакторы и ревьюеры согласились с тем, что оно годное
в общем, этика этикой, но когда говорят, что это — исследование интернета, и на дата-аналитические курсы выстраиваются очереди, это всё очень странно, друзья.
в данных исследователей многие нашли себя, своих друзей, левых феминисток и канал с гифками про собак.
Латур и Маркхэм нам здорово помогут понять, как действовать иначе, согласна. но ещё важно помнить про вот что:
- исследование абсолютно нечувствительно к контексту, с которым работает
- ясных механизмов влияния на репутацию и судьбу статьи нет, будут и дальше цитировать статью про праворадикальные гифки про собак
- авторша исследования написала нескольким людям в духе 'почитайте нашу методологию, а если не получается понять, почитайте ещё раз'
- исследование опубликовано в хорошем журнале, значит редакторы и ревьюеры согласились с тем, что оно годное
в общем, этика этикой, но когда говорят, что это — исследование интернета, и на дата-аналитические курсы выстраиваются очереди, это всё очень странно, друзья.
Forwarded from Политический ученый
Этика в социальных исследованиях - важный предмет, вокруг которого постоянно идут дискуссии. Интересный кейс рассматривает @datastudies. И, на мой взгляд, совершенно справедливо акцентирует внимание на идее известной исследовательницы А. Маркхэм о том, что этика должна быть частью метода. И важно здесь не только применение соответствующих норм при сборе и обработке данных, чтобы не ранить чувства объектов изучения, но и умение грамотно инкорпорировать этические принципы в исследовательский дизайн без ущерба для аналитической составляющей метода.
Мне эта история напомнила, как однажды на большой международной конференции учёная из России выступала с докладом об исследовании оппозиционных и экстремистских сетей во Вконтакте. И в презентации у неё были скриншоты аккаунтов с персональными данными, а имена и фамилии указывались в сетевых картах. И никто из слушателей не указал ей на нарушение этических принципов, что меня очень и очень удивило. Потом мне пришлось долго и с примерами объяснять своим студентам, которым её доклад, кстати, очень понравился, что так делать нельзя.
Получается, что даже наличие в учебных планах дисциплин по этике научных исследований не спасает. Их содержание студентами часто рассматривается как что-то абстрактное и не имеющее отношения к реальной исследовательской деятельности. И это, несомненно, наше преподавательское упущение - видимо, мы и сами не такие уж "этичные".
#методология
UPD. Оказалось, что опубликованная статья задела многих. Можно почитать ещё реакции
https://t.iss.one/rufuturism/19468
https://t.iss.one/club4internet/345
https://t.iss.one/verdachtig/922
Мне эта история напомнила, как однажды на большой международной конференции учёная из России выступала с докладом об исследовании оппозиционных и экстремистских сетей во Вконтакте. И в презентации у неё были скриншоты аккаунтов с персональными данными, а имена и фамилии указывались в сетевых картах. И никто из слушателей не указал ей на нарушение этических принципов, что меня очень и очень удивило. Потом мне пришлось долго и с примерами объяснять своим студентам, которым её доклад, кстати, очень понравился, что так делать нельзя.
Получается, что даже наличие в учебных планах дисциплин по этике научных исследований не спасает. Их содержание студентами часто рассматривается как что-то абстрактное и не имеющее отношения к реальной исследовательской деятельности. И это, несомненно, наше преподавательское упущение - видимо, мы и сами не такие уж "этичные".
#методология
UPD. Оказалось, что опубликованная статья задела многих. Можно почитать ещё реакции
https://t.iss.one/rufuturism/19468
https://t.iss.one/club4internet/345
https://t.iss.one/verdachtig/922
Telegram
data stories
В твиттере сейчас обсуждается статья "What they do in the shadows: examining the far-right networks on Telegram", причем не так, как это зачастую происходит. Чаще всего научные статьи в твиттере получают похвалу коллег, но конкретно в этой ситуации в комментарии…
В статье «Platform enclosure of human behavior and its measurement: Using behavioral trace data against platform episteme» Angela Xiao Wu & Harsh Taneja предлагают эпистемологически проблематизировать обращение к данным из социальных медиа для понимания человеческого поведения. Когда исследователи анализируют данные из соцсетей, то между данными и поведением обычно устанавливаются отношения репрезентации: вот это те маленькие следы, которые мы оставляем, гуляя по платформам. И они же дают нам способ посмотреть на них как отражение человеческого поведения, к пониманию которого исследователи хотят подступиться поближе.
Но насколько в такой трактовке принимаются в расчет сами «условия измерения», меняющие наше поведения? Ведь платформы не только дозволяет, определяют, оформляют определенные пользовательские действия, но также они выстроены с целями получения прибыли. Это банально, но это важно для осмысления эпистемологии количественных исследований, обращающихся к платформам. Если коммерческая ориентированность платформ на захват пользовательского внимания является институциональным условием производства данных, то конструкция данные -> поведение рушится, а вместо нее нам придется переосмыслить как она трансформируется при учете материальности платформ.
Thus, it is difficult to tell to what extent the patterns emerging from platform data are about “us,” rather than testimonies to the effects of platform nudges. (из заметки о статье)
Но насколько в такой трактовке принимаются в расчет сами «условия измерения», меняющие наше поведения? Ведь платформы не только дозволяет, определяют, оформляют определенные пользовательские действия, но также они выстроены с целями получения прибыли. Это банально, но это важно для осмысления эпистемологии количественных исследований, обращающихся к платформам. Если коммерческая ориентированность платформ на захват пользовательского внимания является институциональным условием производства данных, то конструкция данные -> поведение рушится, а вместо нее нам придется переосмыслить как она трансформируется при учете материальности платформ.
Thus, it is difficult to tell to what extent the patterns emerging from platform data are about “us,” rather than testimonies to the effects of platform nudges. (из заметки о статье)
Forwarded from РУКИ
Курьеры в США начали устанавливать смартфоны на деревьях, чтобы перехитрить алгоритмы и получать больше заказов. Сервис доставки продуктов Amazon Flex работает примерно так же, как Uber: курьер, который оказывается ближе всего к магазину, получает заказ первым – он забирает продукты и отвозит их на своей машине клиенту.
Flex постоянно сканирует местоположение работников и выбирает самый быстрый вариант. Иногда все решает буквально несколько секунд и пара метров – если курьер стоит у входа в Whole Foods, шансов на успех у него больше, чем у конкурента, который сидит на парковке.
В Bloomberg предположили, что один смартфон на дереве раздает заказы сразу нескольким курьерам. Этот лайфхак не позволяет Amazon понять, какой именно аккаунт "ломает" систему. Вероятно, кто-то настраивает сервис и берет с курьеров небольшой процент за свои услуги.
Первыми на “читерство” обратили внимание другие курьеры – они заметили, что некоторые конкуренты получают заказы чаще и быстрее других. Amazon уже начала свое расследование.
Протест против работы алгоритмов – интересный феномен последнего десятилетия. Журнал Logic недавно рассказывал, как сотрудники Amazon обманывают алгоритмы, чтобы избежать контроля и слежки со стороны компании. Например, накручивают очки за эффективность. Иногда работники из чувства протеста идут на саботаж – находят в базе товары с ошибочно низкими ценами и закупают их оптом или нарушают правила безопасности. Некоторые устраивают пранки, чтобы снять стресс. Как пишет Logic, In this context, daily acts of resistance serve as body and sanity-saving strategies. Small workarounds — tricks, games, minor sabotage — extend the time one can bear the relentless and deadening grind.
Кстати, недавно стало известно, что Amazon нанимает “разведчиков”, чтобы отслеживать попытки сотрудников создать профсоюзы – активистам профсоюзных групп будут ограничивать доступ к офисам и складам с помощью охранных ордеров.
Flex постоянно сканирует местоположение работников и выбирает самый быстрый вариант. Иногда все решает буквально несколько секунд и пара метров – если курьер стоит у входа в Whole Foods, шансов на успех у него больше, чем у конкурента, который сидит на парковке.
В Bloomberg предположили, что один смартфон на дереве раздает заказы сразу нескольким курьерам. Этот лайфхак не позволяет Amazon понять, какой именно аккаунт "ломает" систему. Вероятно, кто-то настраивает сервис и берет с курьеров небольшой процент за свои услуги.
Первыми на “читерство” обратили внимание другие курьеры – они заметили, что некоторые конкуренты получают заказы чаще и быстрее других. Amazon уже начала свое расследование.
Протест против работы алгоритмов – интересный феномен последнего десятилетия. Журнал Logic недавно рассказывал, как сотрудники Amazon обманывают алгоритмы, чтобы избежать контроля и слежки со стороны компании. Например, накручивают очки за эффективность. Иногда работники из чувства протеста идут на саботаж – находят в базе товары с ошибочно низкими ценами и закупают их оптом или нарушают правила безопасности. Некоторые устраивают пранки, чтобы снять стресс. Как пишет Logic, In this context, daily acts of resistance serve as body and sanity-saving strategies. Small workarounds — tricks, games, minor sabotage — extend the time one can bear the relentless and deadening grind.
Кстати, недавно стало известно, что Amazon нанимает “разведчиков”, чтобы отслеживать попытки сотрудников создать профсоюзы – активистам профсоюзных групп будут ограничивать доступ к офисам и складам с помощью охранных ордеров.
Bloomberg.com
Amazon Drivers Are Hanging Smartphones in Trees to Get More Work
A strange phenomenon has emerged near Amazon.com Inc. delivery stations and Whole Foods stores in the Chicago suburbs: smartphones dangling from trees. Contract delivery drivers are putting them there to get a jump on rivals seeking orders, according to people…
На Сигме вышла статья про роль технологий и новых цифровых инфраструктур в организации поддержании протеста в Беларуси. Она от куратора и исследовательницы Антонины Стебур и художника и писателя Алексея Толстова.
Интересное чтение и нравится, насколько ясно там обозначена техноутопическая позиция. При этом вот я все же после прочтения в сомнениях – не уверен, что такое утопическое воображение должно основываться на том, что «молодой интернет 90-ых … производил инфраструктурную материальность всеобщего равенства, которое было главным условием подключения к сети, моделировал мир без границ и иерархий». И в раннем интернете было много гендерных, расовых, колониальных и обусловленных (технической) экспертностью иерархий, и поэтому большой вопрос, насколько интернет в этом смысле вообще когда-то соответствовал такому представлению. И не уверен, что неиерархичность/горизонтальность политически устроены именно так, как описывается в тексте, но мне эту мысль развить дальше сложно.
Но еще мне понравилось про Голос и анализ протоколов с голосами как про «публичну. инфраструктуру подсчета и контроля прозрачности подсчета голосов». Кажется, что такие инфраструктуры альтернативной репрезентации воли народа как оспаривания государственной – это вообще очень большая и интересная тема, как в Беларуси, так и в России. Григорий Юдин пишет о чем-то похожем в статье «Governing Through Polls», когда говорит о «возвращении непредставленного» на парламентских выборах 2011 и мэрских выборах в Москве в 2013.
Здесь мне вспоминается такое понятие как counter-data action (не знаю, как перевести хорошо). К нему обращались, среди прочих, исследователи Аманда Менг и Карл ДиСалво. Они прослеживали, как черные активисты в Атланте мобилизовались и самоорганизовывались, и как через сомнение к собранным местным правительством данным и создание своих собственных датасетов, активисты выступали за более доступное для их сообщества жилье.
А еще в том тексте на Сигме тепло описана политизация инфрастуктур заботы и «слабость» как точка опоры политического сопротивления.
Интересное чтение и нравится, насколько ясно там обозначена техноутопическая позиция. При этом вот я все же после прочтения в сомнениях – не уверен, что такое утопическое воображение должно основываться на том, что «молодой интернет 90-ых … производил инфраструктурную материальность всеобщего равенства, которое было главным условием подключения к сети, моделировал мир без границ и иерархий». И в раннем интернете было много гендерных, расовых, колониальных и обусловленных (технической) экспертностью иерархий, и поэтому большой вопрос, насколько интернет в этом смысле вообще когда-то соответствовал такому представлению. И не уверен, что неиерархичность/горизонтальность политически устроены именно так, как описывается в тексте, но мне эту мысль развить дальше сложно.
Но еще мне понравилось про Голос и анализ протоколов с голосами как про «публичну. инфраструктуру подсчета и контроля прозрачности подсчета голосов». Кажется, что такие инфраструктуры альтернативной репрезентации воли народа как оспаривания государственной – это вообще очень большая и интересная тема, как в Беларуси, так и в России. Григорий Юдин пишет о чем-то похожем в статье «Governing Through Polls», когда говорит о «возвращении непредставленного» на парламентских выборах 2011 и мэрских выборах в Москве в 2013.
Здесь мне вспоминается такое понятие как counter-data action (не знаю, как перевести хорошо). К нему обращались, среди прочих, исследователи Аманда Менг и Карл ДиСалво. Они прослеживали, как черные активисты в Атланте мобилизовались и самоорганизовывались, и как через сомнение к собранным местным правительством данным и создание своих собственных датасетов, активисты выступали за более доступное для их сообщества жилье.
А еще в том тексте на Сигме тепло описана политизация инфрастуктур заботы и «слабость» как точка опоры политического сопротивления.
syg.ma
Как вода. Динамика беларуского протеста: от существующего технического базиса к утопическим горизонтам будущего
Антонина Стебур и Алексей Толстов о ситуации в Беларуси и возможных сценариях будущего, основанного на технооптимизме и принципах самоорганизации
а много вы знаете про историю югославского DIY-компьютера Galaksija?
Antonić found a name for his computer: the Galaksija. The limits of its 4K of memory forced many idiosyncratic design choices, like its error message:
* WHAT? (syntax error)
* HOW? (input error)
* SORRY (out of memory)
Antonić found a name for his computer: the Galaksija. The limits of its 4K of memory forced many idiosyncratic design choices, like its error message:
* WHAT? (syntax error)
* HOW? (input error)
* SORRY (out of memory)
Антисоциальная «Социальная дилемма»
Я посмотрел нетфликовскую документалку про ужасы социальных сетей «Social Dilemma», и мне есть что сказать. Не буду говоорить о киноязыке (там все тоже не очень хорошо), но скажу о другом – как в фильме оформляются проблемы и решения, связанные с технологиями.
Во-первых, статус детей в этом фильме. Один из главных героев попадает в т.н. «кроличью нору» (рекомендации, ведущие вас к теориям плоской Земли и пр.) Ютуба и приближается к радикализации вымышленным политическим движением, а в конце фильма героя и его сестру (она, к слову, уверенно социальные сети отрицает) драматично связывает полиция на митинге. Проблема в том, что способ критики социальных сетей и тинейджеров в фильме не сильно отличается от совсем уж прямолинейной моральной паники вроде «эти гаджеты забирают у нас наших детей». Сами же дети рисуются как безвольные субъекты, которые вообще не способны ни к какому сопротивлению и послушно выполняют то, что им скажут их смартфоны.
Да, проблема «кроличьих нор» реально существует, и вот здесь есть такой потенциал для фильма, ведь мы так мало об этом знаем. Именно здесь, как кажется, документальность фильма и могла проявиться, но вместо этого мы опять видим клише. Почему создатели фильма не позвали, к примеру, Соню Ливингстон или Дану Бойд – исследовательниц, посвятивших года, чтобы понять, как подростки используют социальные платформы?
Во-вторых, герои фильма по преимуществу это такие «пробудившиеся» белые чуваки, бывшие работники техиндустрии, которые раньше «хотели нести свет и добро технологией», а сейчас поняли, что что-то идет не так. Среди них главный персонаж – Тристан Харрис, сооснователь Центра гуманистических технологий, которого еще называют «совесть Кремниевой долины». Харрис в какой-то момент фильма говорит примерно следующее: «Никто так сильно не переживал как сейчас, когда появилсь велосипеды». Но это просто неправда! Переживали и много, вот про женщин, например. В какой-то момент Харрис еще отличился тем, что предложил в своем Твиттере создать исследовательскую область, которая занималась бы взаимоотношений науки, технологий и общества. Но такая область существует уже 50-60 лет.
И не то чтобы плохо не знать про велосипеды или про какую-то исследовательскую область, но кажется, что если ты позиционируешь себя как публичное лицо и эксперт по проблеме, то, мне кажется, важно знать, какая интеллектуальная работа здесь была проделана до тебя (или хотя бы знать, что она существует). И пример с велосипедами, который Харрис так неосознанно выбрал, на самом же деле замечательный здесь, поэтому жаль, что он не мог его раскрутить.
И то, что предлагает Харрис – как в целом в своей работе, так и в фильме – особая версия техгуманизма, где решением нашей «зависимости от технологий» является усовершенствованный дизайн. С такой идеей есть много проблем, но я не скажу об этом лучше, чем Бен Тарнофф и Мойра Вейгель в их статье. Она начинается с гениального предложения «Big Tech is sorry» и разбирает как сами идеи нового технологического гуманизма, так и их влияние на индустрию.
В-третьих, в целом кажется не очень удачным критиковать фильм за то, чего в нем нет, но немного хочется об этом все же сказать. Кажется очень странным, что в фильме почти полностью отсутствуют перспективы небелых активистов и исследователей, а проблемы расизма совершенно не обсуждаются. Постоянное обращение к универсальной человечности в фильме, которой угрожают социальные платформы, разнообразие человеческого опыта явно не учитывает. И экономические, социальные и идеологические аспекты техиндустрии также остаются в тени. А конец фильма с посылами «давайте щепотку регулирования» и «но все же все не так плохо, конечно» впечатление также не улучшает.
Я посмотрел нетфликовскую документалку про ужасы социальных сетей «Social Dilemma», и мне есть что сказать. Не буду говоорить о киноязыке (там все тоже не очень хорошо), но скажу о другом – как в фильме оформляются проблемы и решения, связанные с технологиями.
Во-первых, статус детей в этом фильме. Один из главных героев попадает в т.н. «кроличью нору» (рекомендации, ведущие вас к теориям плоской Земли и пр.) Ютуба и приближается к радикализации вымышленным политическим движением, а в конце фильма героя и его сестру (она, к слову, уверенно социальные сети отрицает) драматично связывает полиция на митинге. Проблема в том, что способ критики социальных сетей и тинейджеров в фильме не сильно отличается от совсем уж прямолинейной моральной паники вроде «эти гаджеты забирают у нас наших детей». Сами же дети рисуются как безвольные субъекты, которые вообще не способны ни к какому сопротивлению и послушно выполняют то, что им скажут их смартфоны.
Да, проблема «кроличьих нор» реально существует, и вот здесь есть такой потенциал для фильма, ведь мы так мало об этом знаем. Именно здесь, как кажется, документальность фильма и могла проявиться, но вместо этого мы опять видим клише. Почему создатели фильма не позвали, к примеру, Соню Ливингстон или Дану Бойд – исследовательниц, посвятивших года, чтобы понять, как подростки используют социальные платформы?
Во-вторых, герои фильма по преимуществу это такие «пробудившиеся» белые чуваки, бывшие работники техиндустрии, которые раньше «хотели нести свет и добро технологией», а сейчас поняли, что что-то идет не так. Среди них главный персонаж – Тристан Харрис, сооснователь Центра гуманистических технологий, которого еще называют «совесть Кремниевой долины». Харрис в какой-то момент фильма говорит примерно следующее: «Никто так сильно не переживал как сейчас, когда появилсь велосипеды». Но это просто неправда! Переживали и много, вот про женщин, например. В какой-то момент Харрис еще отличился тем, что предложил в своем Твиттере создать исследовательскую область, которая занималась бы взаимоотношений науки, технологий и общества. Но такая область существует уже 50-60 лет.
И не то чтобы плохо не знать про велосипеды или про какую-то исследовательскую область, но кажется, что если ты позиционируешь себя как публичное лицо и эксперт по проблеме, то, мне кажется, важно знать, какая интеллектуальная работа здесь была проделана до тебя (или хотя бы знать, что она существует). И пример с велосипедами, который Харрис так неосознанно выбрал, на самом же деле замечательный здесь, поэтому жаль, что он не мог его раскрутить.
И то, что предлагает Харрис – как в целом в своей работе, так и в фильме – особая версия техгуманизма, где решением нашей «зависимости от технологий» является усовершенствованный дизайн. С такой идеей есть много проблем, но я не скажу об этом лучше, чем Бен Тарнофф и Мойра Вейгель в их статье. Она начинается с гениального предложения «Big Tech is sorry» и разбирает как сами идеи нового технологического гуманизма, так и их влияние на индустрию.
В-третьих, в целом кажется не очень удачным критиковать фильм за то, чего в нем нет, но немного хочется об этом все же сказать. Кажется очень странным, что в фильме почти полностью отсутствуют перспективы небелых активистов и исследователей, а проблемы расизма совершенно не обсуждаются. Постоянное обращение к универсальной человечности в фильме, которой угрожают социальные платформы, разнообразие человеческого опыта явно не учитывает. И экономические, социальные и идеологические аспекты техиндустрии также остаются в тени. А конец фильма с посылами «давайте щепотку регулирования» и «но все же все не так плохо, конечно» впечатление также не улучшает.
Марианн ван ден Бумен - Как цифровое становится социальным
Начиная с 1980-х социальные объединения пользователей BBS-сетей и раннего интернета начали привлекать внимание общественности. Уже в 1987 году Говард Рейнгольд (журналист и лектор, один из первых писавших о компьютерах как инструментах мышления и социального взаимодействия) ввел термин «виртуальное сообщество» для описания этого явления [2]. Но по-настоящему это понятие получило известность в 1993 году, когда Рейнгольд опубликовал знаменитую книгу «Виртуальное сообщество: заселение электронных рубежей» [3]. Термин «виртуальное сообщество» стал частью дискуссий об интернете в 1990-х: в частности, дискуссий о перспективах развития интернета и потенциальном росте охвата пользователей. Термин – а в особенности его оптимистические, и даже утопические, импликации – критиковался с момента своего появления [4]. Но в массовой культуре и зарождающемся академическом дискурсе о киберпространстве и киберкультуре он превратился в устоявшийся концепт для обозначения более или менее стабильных форм коллективного онлайн-общения.
https://www.intelros.ru/readroom/nz/130-2020/42754-kak-cifrovoe-stanovitsya-socialnym.html
Начиная с 1980-х социальные объединения пользователей BBS-сетей и раннего интернета начали привлекать внимание общественности. Уже в 1987 году Говард Рейнгольд (журналист и лектор, один из первых писавших о компьютерах как инструментах мышления и социального взаимодействия) ввел термин «виртуальное сообщество» для описания этого явления [2]. Но по-настоящему это понятие получило известность в 1993 году, когда Рейнгольд опубликовал знаменитую книгу «Виртуальное сообщество: заселение электронных рубежей» [3]. Термин «виртуальное сообщество» стал частью дискуссий об интернете в 1990-х: в частности, дискуссий о перспективах развития интернета и потенциальном росте охвата пользователей. Термин – а в особенности его оптимистические, и даже утопические, импликации – критиковался с момента своего появления [4]. Но в массовой культуре и зарождающемся академическом дискурсе о киберпространстве и киберкультуре он превратился в устоявшийся концепт для обозначения более или менее стабильных форм коллективного онлайн-общения.
https://www.intelros.ru/readroom/nz/130-2020/42754-kak-cifrovoe-stanovitsya-socialnym.html
www.intelros.ru
Как цифровое становится социальным » ИНТЕЛРОС
Начиная с 1980-х социальные объединения пользователей BBS-сетей и раннего интернета начали привлекать внимание общественности. Уже в 1987 году Говард Рейнгольд (журналист и лектор, один из п
Воображаемые и будущности
В исследованиях науки и технологии есть концепт «социотехнических воображаемых». Эта идея отсылает к связке между проектами технонауки и теми представления о (не)желаемом будущем, которых мы как коллективы придерживаемся. Мы с коллегами некоторое время назад написали материал, пытаясь разобраться в этой идее. Чтобы завлечь вас скажу, что там описывается исследование антрополога Джошуа Баркера про историю индонезийского интернета. Баркер особенно известен за книгу «Engineers and Political Dreams: Indonesia in the Satellite Age» и потому сравнивает в своей работе интернет со спутниками.
Но здесь мне больше хотелось написать не о исследованиях, а о том, что после прочтения книги Т. Мортона «Стать экологичным» я думаю о том, насколько наши представления о будущем технологий и науки основаны на определенном виде будущности (futurality). Насколько я понимаю, для Мортона наш способ планирования и проектирования конкретных объектов сильно ограничен антропоцентричностью нашего взгляда. И поэтому мы мы, как кажется, редко учитываем, как будущность многих объектов постоянно раскрывается по-разному для других живых и неживых существ. Вот что Мортон пишет:
"Следовательно, нам нужно проявлять осторожность, когда мы, люди,создаем какие-то проекты, поскольку мы буквально проектируем будущее, и это будущее не совпадает с нашей идеей о вещи, с тем, как, по нашей мысли, она будет использоваться и т. д., — последнее является лишь нашим режимом доступа. Будущее возникает непосредственно из самих объектов, задуманных нами. [...] Выходит, проектировщикам надо задумываться о том, что именно они проектируют. Когда они что-то разрабатывают, возможно, им следовало бы мыслить в нескольких разных темпоральных масштабах. Пластиковый пакет предназначен не только для людей. Он еще и для чаек, которые в нем задыхаются, и теперь мы можем видеть это на фотографиях таких художников, как Крис Джордан, который фотографирует существ, застрявших в тихоокеанском «мусоровороте». Кружка из полистирола — не только для кофе: она будет медленно перевариваться почвенными бактериями в течение пятисот лет."
И Мортон здесь, как я понимаю, более осторожен, чем некоторые другие теоретики, которых волнуют схожие проблемы. Нам недостаточно просто обозвать привычные будущности антропоцентричными и демонстративно откинуть их, чтобы на их месте возникли магические «постчеловеческие» и «прогрессивные» будущности, что бы это ни значило. Но все же, размышляя о Мортоне в связке с идеей социотехнического воображения, интересно, как можно было бы помыслить технонауку и ее связку с конкретными социально-политическими идеями и проектами таким образом, чтобы сделать возможными новые типы будущности?
В исследованиях науки и технологии есть концепт «социотехнических воображаемых». Эта идея отсылает к связке между проектами технонауки и теми представления о (не)желаемом будущем, которых мы как коллективы придерживаемся. Мы с коллегами некоторое время назад написали материал, пытаясь разобраться в этой идее. Чтобы завлечь вас скажу, что там описывается исследование антрополога Джошуа Баркера про историю индонезийского интернета. Баркер особенно известен за книгу «Engineers and Political Dreams: Indonesia in the Satellite Age» и потому сравнивает в своей работе интернет со спутниками.
Но здесь мне больше хотелось написать не о исследованиях, а о том, что после прочтения книги Т. Мортона «Стать экологичным» я думаю о том, насколько наши представления о будущем технологий и науки основаны на определенном виде будущности (futurality). Насколько я понимаю, для Мортона наш способ планирования и проектирования конкретных объектов сильно ограничен антропоцентричностью нашего взгляда. И поэтому мы мы, как кажется, редко учитываем, как будущность многих объектов постоянно раскрывается по-разному для других живых и неживых существ. Вот что Мортон пишет:
"Следовательно, нам нужно проявлять осторожность, когда мы, люди,создаем какие-то проекты, поскольку мы буквально проектируем будущее, и это будущее не совпадает с нашей идеей о вещи, с тем, как, по нашей мысли, она будет использоваться и т. д., — последнее является лишь нашим режимом доступа. Будущее возникает непосредственно из самих объектов, задуманных нами. [...] Выходит, проектировщикам надо задумываться о том, что именно они проектируют. Когда они что-то разрабатывают, возможно, им следовало бы мыслить в нескольких разных темпоральных масштабах. Пластиковый пакет предназначен не только для людей. Он еще и для чаек, которые в нем задыхаются, и теперь мы можем видеть это на фотографиях таких художников, как Крис Джордан, который фотографирует существ, застрявших в тихоокеанском «мусоровороте». Кружка из полистирола — не только для кофе: она будет медленно перевариваться почвенными бактериями в течение пятисот лет."
И Мортон здесь, как я понимаю, более осторожен, чем некоторые другие теоретики, которых волнуют схожие проблемы. Нам недостаточно просто обозвать привычные будущности антропоцентричными и демонстративно откинуть их, чтобы на их месте возникли магические «постчеловеческие» и «прогрессивные» будущности, что бы это ни значило. Но все же, размышляя о Мортоне в связке с идеей социотехнического воображения, интересно, как можно было бы помыслить технонауку и ее связку с конкретными социально-политическими идеями и проектами таким образом, чтобы сделать возможными новые типы будущности?
clubforinternet.net
больше о social imaginaries
текст тьюторов курса о дискурсах
если кто-то вдруг занимается темами вокруг surveillance & society, то исследовательская сеть Surveillance Studies Network открыла конкурс микрогрантов до 500 фунтов для исследователей из регионов с меньшим количеством экономических ресурсов.
надо написать короткий пропоузал о том, что за исследование вы делаете (и куда пойдут деньги). подавать можно до 31 октября.
надо написать короткий пропоузал о том, что за исследование вы делаете (и куда пойдут деньги). подавать можно до 31 октября.
Forwarded from mediajesus
Осень просто пожар, для каждой нашей медиа сестры и каждого диджитал брата, не иначе!
Завтра, в 16:00 на онлайн конференции в рамках Data Fest начнется показ докладов от художников, работающих с машинным обучением.
После каждого доклада будет живое общение с авторами.
Никита Панин на примере своего проекта «The perenneural philosophy» поделится мыслями и деталями использования StyleGan2 в качестве инструмента для выразительного осмысленного генеративного визуального искусства.
Олеся Ильенок расскажет о проекте WALL FOR SCROLL - практике стрит-арта в цифровом слое города Владивостока, Россия.
Александр Нотченко расскажет о классе вероятностных моделей GLOW и их применении в motion capture для речи.
Вадим Эпштейн расскажет о «темной стороне» StarGAN2. Доклад иллюстрирован премьерными работами художника.
Показ докладов пройдет а комнате ML ART в spatial chat: https://spatial.chat/s/ods
пароль: allhailtheoneandonlypartyparrot
Еще больше подробностей тут
Завтра, в 16:00 на онлайн конференции в рамках Data Fest начнется показ докладов от художников, работающих с машинным обучением.
После каждого доклада будет живое общение с авторами.
Никита Панин на примере своего проекта «The perenneural philosophy» поделится мыслями и деталями использования StyleGan2 в качестве инструмента для выразительного осмысленного генеративного визуального искусства.
Олеся Ильенок расскажет о проекте WALL FOR SCROLL - практике стрит-арта в цифровом слое города Владивостока, Россия.
Александр Нотченко расскажет о классе вероятностных моделей GLOW и их применении в motion capture для речи.
Вадим Эпштейн расскажет о «темной стороне» StarGAN2. Доклад иллюстрирован премьерными работами художника.
Показ докладов пройдет а комнате ML ART в spatial chat: https://spatial.chat/s/ods
пароль: allhailtheoneandonlypartyparrot
Еще больше подробностей тут
Forwarded from Ivan Begtin (Ivan Begtin)
Незаслуженно пропущенная мной новость о том что Mozilla опубликовали исследования в направлении Data Futures [1], например, отчет Shifting Power Through Data Governance [2] о 7 подходах в управлении данными, это такие подходы как:
- data cooperative (кооператив данных)
- data commons (общие данные)
- data collaborative (совместные данные)
- data trust (фонд данных)
- data fiduciary (дата-опека)
- Indigenous data sovereignty (автохонный суверенитет над данными)
- data marketplace (маркетплейс данных)
Исследование более чем полезное для всех кто хочет понимать как будет развиваться дальнейшее регулирование работы с данными в ЕС, США и других странах. Как будет устроено управление данными в некоммерческих организациях.
Ссылки:
[1] https://foundation.mozilla.org/en/initiatives/data-futures/
[2] https://drive.google.com/file/d/1OB9iXHFCxk4Dc-1E5B_O48LKCC6mWtcT/view
#data #datapolicy
- data cooperative (кооператив данных)
- data commons (общие данные)
- data collaborative (совместные данные)
- data trust (фонд данных)
- data fiduciary (дата-опека)
- Indigenous data sovereignty (автохонный суверенитет над данными)
- data marketplace (маркетплейс данных)
Исследование более чем полезное для всех кто хочет понимать как будет развиваться дальнейшее регулирование работы с данными в ЕС, США и других странах. Как будет устроено управление данными в некоммерческих организациях.
Ссылки:
[1] https://foundation.mozilla.org/en/initiatives/data-futures/
[2] https://drive.google.com/file/d/1OB9iXHFCxk4Dc-1E5B_O48LKCC6mWtcT/view
#data #datapolicy