Forwarded from Разработчик на острове 🇺🇦
Очень интересная история, как отказавшаяся от сканирования лица для дальнейшего использования технологии распознавания лиц корейка проходила американскую таможню при въезде в страну и препиралась с миграционными офицерами.
Для них то, что кто-то осмелилась сказать "Я не хочу проходить через киоск со сканированием лица, потому что не желаю, чтобы моё лицо постоянно сканировали", стало открытием, и в итоге против неё были сразу трое офицеров, пытаясь переубедить. Сначала сказали "ну у нас и так есть ваши фотографии", потом "прохождение границы для вас займёт дольше времени".
И это несмотря на то, что согласно их же policy, "U.S. citizens and select foreign nationals who are not required to provide biometrics and who wish to opt out of the new facial biometric process may simply notify a CBP officer, request a manual document check, and proceed with processing consistent with existing requirements for entry into the United States”, т.е граждане США и некоторые иностранцы, которым не требуется предъявлять биометрию, могут отказаться от лицевого сканирования путём уведомления сотрудника погранслужбы.
Для них то, что кто-то осмелилась сказать "Я не хочу проходить через киоск со сканированием лица, потому что не желаю, чтобы моё лицо постоянно сканировали", стало открытием, и в итоге против неё были сразу трое офицеров, пытаясь переубедить. Сначала сказали "ну у нас и так есть ваши фотографии", потом "прохождение границы для вас займёт дольше времени".
И это несмотря на то, что согласно их же policy, "U.S. citizens and select foreign nationals who are not required to provide biometrics and who wish to opt out of the new facial biometric process may simply notify a CBP officer, request a manual document check, and proceed with processing consistent with existing requirements for entry into the United States”, т.е граждане США и некоторые иностранцы, которым не требуется предъявлять биометрию, могут отказаться от лицевого сканирования путём уведомления сотрудника погранслужбы.
mas.to
YK Hong (@[email protected])
Since folks asked what happens whenever I opt out of facial recognition, I documented it for you while going through US border patrol.
Coming out of the flight there was a row of kiosks for facial biometric capture. There were no people. Just kiosks. So…
Coming out of the flight there was a row of kiosks for facial biometric capture. There were no people. Just kiosks. So…
Большой проект в Нидерландах по социально-гуманитарным исследованиям искусственного интеллекта, податься можно вот до 16 января.
Forwarded from Дорогие коллеги
Дорогие коллеги,
🇳🇱Если вам интересно исследования AI, то в algosoc есть 13 PhD позиций и 4 позиции постдоков
algosoc - это программа новаторских исследований взаимосвязи между технологиями и обществом. У них есть три направления: media, justice и health. По всем трем направлением есть несколько PhD вакансий, посмотрите:
🌐https://www.algosocvacancies.org/
#постдок #PhD #AI #STS
🇳🇱Если вам интересно исследования AI, то в algosoc есть 13 PhD позиций и 4 позиции постдоков
algosoc - это программа новаторских исследований взаимосвязи между технологиями и обществом. У них есть три направления: media, justice и health. По всем трем направлением есть несколько PhD вакансий, посмотрите:
🌐https://www.algosocvacancies.org/
#постдок #PhD #AI #STS
Forwarded from Канал Алексея Радченко
Еще немного про транспорт и про статистику по нему...
Уже полгода как у меня лежат данные по движению московского транспорта "аналогичные тем, что можно выкачать из КПП". Данные включат все рейсы автобусов в течение дня в привязке к остановкам. Данные очень крутые и проливают свет на знаменитые эпитеты коллег из ДТ про интервал в четыре минуты на трамвайно сети и другие перлы. Косвенно эти же данные показывают скорости автобусов и трамваев, в том числе влияет ли на скорость выделенка или обособление.
Данные суперские, но вот сделать на их основе нормальное расследование и визуал я за полгода не осилил, сказались война и все с этим связано, стресс, переезды, разорванные связи... не важно. В итоге я не придумал ничего лучше как делегировать задачу :)
Мы приглашаем аналитиков данных, городских исследователей и всех кто умеет красиво визуализирует. С нас данные и их подробное описание, посильная помощь, ну и самое главное... деньги! Двадцать тысяч рублей за первое место, и по пять за второе и третье. Кроме того у нас роскошное жюри - Андрей Дорожный, Дмитрий Муравьев и Артем Панкин (а так в проекте еще куча крутых ребят). В общем:
Тут (https://mosdatachallenge.tilda.ws/) - описание собственно конкурса и условий, там же кнопка регистрации.
Ну а тут (https://artempankin.notion.site/a5fa5cef8ae24ee59a0e8d2ad1505549) - описание данных.
Какие вещи ждем: не обязательно карты, но красивые и наглядные истории, соответствие задаче и функции, приятные эстетика и грамотный визуальный язык. Формат работ не критичен: и pdf, и фигма, и слайды и интерактивный сайт подойдут.
Результаты ждем до конца января.
Уже полгода как у меня лежат данные по движению московского транспорта "аналогичные тем, что можно выкачать из КПП". Данные включат все рейсы автобусов в течение дня в привязке к остановкам. Данные очень крутые и проливают свет на знаменитые эпитеты коллег из ДТ про интервал в четыре минуты на трамвайно сети и другие перлы. Косвенно эти же данные показывают скорости автобусов и трамваев, в том числе влияет ли на скорость выделенка или обособление.
Данные суперские, но вот сделать на их основе нормальное расследование и визуал я за полгода не осилил, сказались война и все с этим связано, стресс, переезды, разорванные связи... не важно. В итоге я не придумал ничего лучше как делегировать задачу :)
Мы приглашаем аналитиков данных, городских исследователей и всех кто умеет красиво визуализирует. С нас данные и их подробное описание, посильная помощь, ну и самое главное... деньги! Двадцать тысяч рублей за первое место, и по пять за второе и третье. Кроме того у нас роскошное жюри - Андрей Дорожный, Дмитрий Муравьев и Артем Панкин (а так в проекте еще куча крутых ребят). В общем:
Тут (https://mosdatachallenge.tilda.ws/) - описание собственно конкурса и условий, там же кнопка регистрации.
Ну а тут (https://artempankin.notion.site/a5fa5cef8ae24ee59a0e8d2ad1505549) - описание данных.
Какие вещи ждем: не обязательно карты, но красивые и наглядные истории, соответствие задаче и функции, приятные эстетика и грамотный визуальный язык. Формат работ не критичен: и pdf, и фигма, и слайды и интерактивный сайт подойдут.
Результаты ждем до конца января.
mosdatachallenge.tilda.ws
Дата-челлендж "Московский транспорт"
Конкурс визуализации данных транспорта Москвы
Экономики добродетели и этика искусственного интеллекта
Классный сборник вышел у Института сетевых культур про положение этики и критики искусственного интеллекта. Пока успел там почитать два интервью, и они оба хорошо проблематизируют, что вообще значит пытаться работать с искусственным интеллектом сейчас. К примеру, из интервью с Мередит Уиттакер (она сейчас президент мессенджера Signal Foundation) можно узнать, что у её организации AI Now Institute, ведущего аналитического центра по социальным исследования искусственного интеллекта, были проблема с получением финасирования от Нью-Йоркского университета. Несмотря на без преуменьшения мировую известность этого центра и первоклассные исследовательские результаты, руководство полагало, что Мередит и её коллегам нужно соотнести их повестку с той, что есть у инжерных центров университета. По факту им мягко указали на то, что им стоит быть менее критичными, чтобы не отпугнуть доноров вроде Amazon или Google от университета.
Мне кажется, мало по какой теме в социальных и гуманитарных науках сейчас открывается там много позиций и проектов как по тематике искусственного интеллекта. Все это происходит на волне ожиданий, разочарований, беспокойств и озабоченностей, которые эта технология вызывает в различных странах. Потоки финансирования и публичного внимания к искусственному интеллекту – есть одновременно и возможность, и проблема.
Моя рабочая позиция в том числе стала возможной благодаря такому внимания, и поэтому для меня важно ставить под сомнение, как это отражается на моей позиции и интеллектуальном труде. Среди прочего, это значит обращать внимание на устройство самих дискуссий и их (не)явные предпосылки. К примеру, сам термин "искусственный интеллект" на мой взгляд достаточно проблемный, потому что предполагает, что мы и правда имеем дело с интеллектом в каком-то виде. Это точка зрения для меня сомнительная, поскольку такое понимание интеллекта основано исключительно на идее высокоэффективной обработки информации. Но за термином "искусственный интеллект" стоят ожидания, подпитывающие дискуссии о том, что "роботы нас всех захватят", уф. Понимания социального контекста своей собственной интеллектуальной повестки все же, как будто бы, должно помочь лучше сформулировать тот язык, с помощью которого можно делать исследования и говорить о них.
Классный сборник вышел у Института сетевых культур про положение этики и критики искусственного интеллекта. Пока успел там почитать два интервью, и они оба хорошо проблематизируют, что вообще значит пытаться работать с искусственным интеллектом сейчас. К примеру, из интервью с Мередит Уиттакер (она сейчас президент мессенджера Signal Foundation) можно узнать, что у её организации AI Now Institute, ведущего аналитического центра по социальным исследования искусственного интеллекта, были проблема с получением финасирования от Нью-Йоркского университета. Несмотря на без преуменьшения мировую известность этого центра и первоклассные исследовательские результаты, руководство полагало, что Мередит и её коллегам нужно соотнести их повестку с той, что есть у инжерных центров университета. По факту им мягко указали на то, что им стоит быть менее критичными, чтобы не отпугнуть доноров вроде Amazon или Google от университета.
Мне кажется, мало по какой теме в социальных и гуманитарных науках сейчас открывается там много позиций и проектов как по тематике искусственного интеллекта. Все это происходит на волне ожиданий, разочарований, беспокойств и озабоченностей, которые эта технология вызывает в различных странах. Потоки финансирования и публичного внимания к искусственному интеллекту – есть одновременно и возможность, и проблема.
Моя рабочая позиция в том числе стала возможной благодаря такому внимания, и поэтому для меня важно ставить под сомнение, как это отражается на моей позиции и интеллектуальном труде. Среди прочего, это значит обращать внимание на устройство самих дискуссий и их (не)явные предпосылки. К примеру, сам термин "искусственный интеллект" на мой взгляд достаточно проблемный, потому что предполагает, что мы и правда имеем дело с интеллектом в каком-то виде. Это точка зрения для меня сомнительная, поскольку такое понимание интеллекта основано исключительно на идее высокоэффективной обработки информации. Но за термином "искусственный интеллект" стоят ожидания, подпитывающие дискуссии о том, что "роботы нас всех захватят", уф. Понимания социального контекста своей собственной интеллектуальной повестки все же, как будто бы, должно помочь лучше сформулировать тот язык, с помощью которого можно делать исследования и говорить о них.
networkcultures.org
TOD #46: Economies of Virtue – The Circulation of ‘Ethics’ in AI
Theory on Demand #46Economies of Virtue: The Circulation of ‘Ethics’ in AIEdited by Thao Phan, Jake Goldenfein, Declan Kuch, and Monique MannAI ethics has never been far from the indus
Смотрите, какой интересный курс, вдруг вам захочется поучаствовать. Лично я убежден, что без понимания как минимум одной из тем курса – а именно той трансформация, что случилась с науками о человеке в период холодной войны, нам будет сложно что-то понять про технологии и общество сейчас.
Forwarded from Структура наносит ответный удар
Набор на онлайн-курс по исследованиям социальных и гуманитарных наук
Правда ли, что гуманитарная академия состоит из сетевых банд? В чем секрет успеха публичного интеллектуала? Можно ли сказать, что социальное знание не описывает общество, а производит его? Как европейский империализм влиял на социальные науки в XIX веке, а Холодная война – в веке XX? На эти и многие другие вопросы мы с Сергеем Машуковым попытаемся дать ответы совместно со слушателями на своем новом курсе «Наблюдая наблюдателей: введение в исследования социальных и гуманитарных наук».
Наша миссия – познакомить с активно развивающейся междисциплинарной областью Studies of Social Sciences and Humanities (SSSH), посвященной поискам социальных оснований наук о человеке. На наших занятиях мы рассмотрим принятые в ней теоретические языки, наиболее актуальные темы и методологические дизайны эмпирических исследований. Работа будет организована вокруг чтения текстов Мишель Ламонт, Пьера Бурдье, Дональда Маккензи, Михаила Соколова и многих других ярких представителей поля SSSH. Более подробно познакомиться с программой можно здесь.
Участие в курсе подразумевает небольшую плату. Места в группах ограничены, поэтому спешите забронировать их за собой! Для этого нужно написать @theghostagainstthemachine или @epistemic_justice в личку, представившись и рассказав пару слов о себе для более гладкой коммуникации. На курсе предусмотрены и 3 бюджетных места. Их займут победители конкурса мотивационных писем, которые можно направлять до 12 февраля на гугл-форму.
Максимальнейший репост! Энергичнейший шер! На ваши вопросы с радостью отвечу в комментариях.
Правда ли, что гуманитарная академия состоит из сетевых банд? В чем секрет успеха публичного интеллектуала? Можно ли сказать, что социальное знание не описывает общество, а производит его? Как европейский империализм влиял на социальные науки в XIX веке, а Холодная война – в веке XX? На эти и многие другие вопросы мы с Сергеем Машуковым попытаемся дать ответы совместно со слушателями на своем новом курсе «Наблюдая наблюдателей: введение в исследования социальных и гуманитарных наук».
Наша миссия – познакомить с активно развивающейся междисциплинарной областью Studies of Social Sciences and Humanities (SSSH), посвященной поискам социальных оснований наук о человеке. На наших занятиях мы рассмотрим принятые в ней теоретические языки, наиболее актуальные темы и методологические дизайны эмпирических исследований. Работа будет организована вокруг чтения текстов Мишель Ламонт, Пьера Бурдье, Дональда Маккензи, Михаила Соколова и многих других ярких представителей поля SSSH. Более подробно познакомиться с программой можно здесь.
Участие в курсе подразумевает небольшую плату. Места в группах ограничены, поэтому спешите забронировать их за собой! Для этого нужно написать @theghostagainstthemachine или @epistemic_justice в личку, представившись и рассказав пару слов о себе для более гладкой коммуникации. На курсе предусмотрены и 3 бюджетных места. Их займут победители конкурса мотивационных писем, которые можно направлять до 12 февраля на гугл-форму.
Максимальнейший репост! Энергичнейший шер! На ваши вопросы с радостью отвечу в комментариях.
Политическое измерение алгоритмической ошибки
Решения, что основаны на алгоритмах, бывают ошибочны. К примеру, алгоритмы неправильно распознают лицо, и человека задерживают. В таких случаях частый импульс – это "исправить" алгоритм, минимизировать вероятность ошибки различными способами – техническими, социальными или же какой-то их "смесью". И хотя сама по себе вероятность ошибки неискоренима, любопытно то, что алгоритмические ошибки не выводят нас за рамки алгоритма как способа принятия решений.
И, кажется, что это связано с тем, что само понятие ошибки в случаев алгоритмов машинного обучения оставляет нас в горизонте самой технологии. Здесь хочется обратиться к Тео Лепейдж-Ришеру, который прослеживает историю adversariality (сложно перевести этот термин на русский, но это что-то вроде состязательности) в кибернетике Норберта Виннера и современной литературе по нейронным сетям. Среди прочего, в этом блестящем эссе показано, что если для Виннера оппоненты были внешними и идентифицируемыми (к примеру, вражеские пилоты), то в современной литературе по нейронным сетям оппоненты становятся ошибкой – одновременно и угрозой, и способом лучше обучить сам алгоритм. Таким образом, современное машинное обучение концептуально предполагает, что пределы познания нейронных сетей принципиально неограничены. Ведь возможность ошибки как проявление таких пределов не повод отказаться от технологии, а временный недостаток, способ её улучшить.
Из такой истории науки и технологии следует важное политическое следствие. Если нам кажется важным поставить под сомнение алгоритм как способ решения проблем, то обращение к его ошибкам не может быть политически плодотворно.
Решения, что основаны на алгоритмах, бывают ошибочны. К примеру, алгоритмы неправильно распознают лицо, и человека задерживают. В таких случаях частый импульс – это "исправить" алгоритм, минимизировать вероятность ошибки различными способами – техническими, социальными или же какой-то их "смесью". И хотя сама по себе вероятность ошибки неискоренима, любопытно то, что алгоритмические ошибки не выводят нас за рамки алгоритма как способа принятия решений.
И, кажется, что это связано с тем, что само понятие ошибки в случаев алгоритмов машинного обучения оставляет нас в горизонте самой технологии. Здесь хочется обратиться к Тео Лепейдж-Ришеру, который прослеживает историю adversariality (сложно перевести этот термин на русский, но это что-то вроде состязательности) в кибернетике Норберта Виннера и современной литературе по нейронным сетям. Среди прочего, в этом блестящем эссе показано, что если для Виннера оппоненты были внешними и идентифицируемыми (к примеру, вражеские пилоты), то в современной литературе по нейронным сетям оппоненты становятся ошибкой – одновременно и угрозой, и способом лучше обучить сам алгоритм. Таким образом, современное машинное обучение концептуально предполагает, что пределы познания нейронных сетей принципиально неограничены. Ведь возможность ошибки как проявление таких пределов не повод отказаться от технологии, а временный недостаток, способ её улучшить.
Из такой истории науки и технологии следует важное политическое следствие. Если нам кажется важным поставить под сомнение алгоритм как способ решения проблем, то обращение к его ошибкам не может быть политически плодотворно.
SpringerLink
Adversariality in Machine Learning Systems: On Neural Networks and the
Since their introduction by Warren McCulloch and Walter Pitts in the 1940s, neural networks have evolved from an experimentally inclined model of the mind to a powerful machine learning architecture. While this transformation is generally narrated as a story…
К примеру, есть художественный проект Лиама Янга и Джейкоба Джонаса "хореографический камуфляж". В ответ на алгоритмы распознавания походки и скелетной модели художники сделали перформанс, в котором танцоры двигаются непредсказуемо. Однако такой проект как будто бы работает на сам технический горизонт алгоритмов нейронных сетей, для которых ошибка – не только и не столько провал, сколько возможность улучшения. Непредсказуемые движения, нацеленные на максимизацию ошибки, есть также отличный способ в конечном итоге алгоритм улучшить. В литературе по кибербезопасности, к примеру, схожим образом обсуждают понятие adversarial examples (состязательные примеры) – специально созданные вводные данные, которые создал злоумышленники для того, чтобы модель совершила ошибку. Вот поэтому кажется, что политический ответ, направленный на ограничение зон, где алгоритм может действовать, не может полагаться исключительно на их ошибочность.
Forwarded from провода+болота
две позиции про GPT-3
как человек преподающий и курирующий образовательную программу, я воодушевлена тем, что GPT-3 используется для написания курсовых, дипломных и иных работ.
рассуждая из этих своих позиций, я искренне не понимаю, зачем их запрещать.
(ниже я пишу, почему как работница институции я вижу в этом проблемы)
стоит работать с машинами, давать им задания, изучать их способ действия, помогать друг другу распознавать кусочки реальности и её описаний. если студенты не будут уметь работать с GPT на выходе из университета — это вот проблема.
вот сходу несколько вариантов того, как использовать GPT-3 в образовательном процессе, какие задания давать студентам:
- дать GPT-3 задачу написать эссе по своей теме, фиксировать процесс, объяснить, зачем давались конкретные задачи, какого результата добивался человек.
вторым ходом нужно попросить GPT-3 и решить и задачу метаописания, бэклога. устно объяснить, в чём разница.
- групповое задание — сравнить, чем отличаются постановки задач у разных людей, какие критерии исходят из разных логик (и студенческих и из разных логик задач курса/преподавателя)
- реконструировать, из каких источников GPT-3 берёт элементы текста (это невозможно сделать в полной мере, но пытаться — следует). написать методическую рекомендацию по тому, какие брать не следует. обсудить в группе «за» и «против» открытости разных источников.
- написать эссе/обзор литры/план исследования на ту же тему, что GPT-3. сравнить, в табличке написать, в чём разница.
- поработать с разными переводчиками и языками, грамматическими формами, выявить разницу, дать ей интерпретацию.
- разработать школьный урок с вариациями текстов, созданных GPT-3. продумать, какие формы проверки возможны, какие плагины можно придумать, чтобы школьники смогли фальсифицировать свою работу.
но! есть структурные проблемы. существование, политика и финансирование университетов исходит из принципов унификации и автоматизации. как вы понимаете, программу учебной дисциплины GPT-3 составит не хуже иного препода, и оценит работы, и напишет фидбек. людей в университетах включали в системы, где они/мы как бы играют в машин. к сожалению, не играли в эту игру — единицы.
перейти к тем способам оценки, которые позволят учесть труд и интерес человека и коллектива — смогут не все.
пересборка больших процессов по такому учёту — будет чудовищной. я с болью смотрю на эту часть истории, в которой мы живём — сколько судеб будет ломаться, сколько видов знаний не сможет пережить этого и вынужено будет искать новые способы существования.
искать стоит вместе. тут и кибернетические корни гуманитарных наук понадобятся, и знания историков про то, какие этапы автоматизации мы уже переживали, и умение работать с машинными интерфейсами, и критика данных/знания.
так что если вам, как и мне, GPT-3 скорее помогает, стоит пристёгивая себя, оглядываться на соседей.
как человек преподающий и курирующий образовательную программу, я воодушевлена тем, что GPT-3 используется для написания курсовых, дипломных и иных работ.
рассуждая из этих своих позиций, я искренне не понимаю, зачем их запрещать.
стоит работать с машинами, давать им задания, изучать их способ действия, помогать друг другу распознавать кусочки реальности и её описаний. если студенты не будут уметь работать с GPT на выходе из университета — это вот проблема.
вот сходу несколько вариантов того, как использовать GPT-3 в образовательном процессе, какие задания давать студентам:
- дать GPT-3 задачу написать эссе по своей теме, фиксировать процесс, объяснить, зачем давались конкретные задачи, какого результата добивался человек.
вторым ходом нужно попросить GPT-3 и решить и задачу метаописания, бэклога. устно объяснить, в чём разница.
- групповое задание — сравнить, чем отличаются постановки задач у разных людей, какие критерии исходят из разных логик (и студенческих и из разных логик задач курса/преподавателя)
- реконструировать, из каких источников GPT-3 берёт элементы текста (это невозможно сделать в полной мере, но пытаться — следует). написать методическую рекомендацию по тому, какие брать не следует. обсудить в группе «за» и «против» открытости разных источников.
- написать эссе/обзор литры/план исследования на ту же тему, что GPT-3. сравнить, в табличке написать, в чём разница.
- поработать с разными переводчиками и языками, грамматическими формами, выявить разницу, дать ей интерпретацию.
- разработать школьный урок с вариациями текстов, созданных GPT-3. продумать, какие формы проверки возможны, какие плагины можно придумать, чтобы школьники смогли фальсифицировать свою работу.
но! есть структурные проблемы. существование, политика и финансирование университетов исходит из принципов унификации и автоматизации. как вы понимаете, программу учебной дисциплины GPT-3 составит не хуже иного препода, и оценит работы, и напишет фидбек. людей в университетах включали в системы, где они/мы как бы играют в машин. к сожалению, не играли в эту игру — единицы.
перейти к тем способам оценки, которые позволят учесть труд и интерес человека и коллектива — смогут не все.
пересборка больших процессов по такому учёту — будет чудовищной. я с болью смотрю на эту часть истории, в которой мы живём — сколько судеб будет ломаться, сколько видов знаний не сможет пережить этого и вынужено будет искать новые способы существования.
искать стоит вместе. тут и кибернетические корни гуманитарных наук понадобятся, и знания историков про то, какие этапы автоматизации мы уже переживали, и умение работать с машинными интерфейсами, и критика данных/знания.
так что если вам, как и мне, GPT-3 скорее помогает, стоит пристёгивая себя, оглядываться на соседей.
Славная рассылка у Kit про искусственный интеллект, рекомендую! Пока читал её, думал об объективности, которая там тематически немного появляется. В текущий технологический и политический момент важно сомневаться в объективности алгоритмов – ведь в том, как они принимают решений, много предрассудков, искажений, этически и социально нежелательных исходов, а ещё просто сюрпризов. Вместе с тем, такое разоблачение алгоритмической объективности, неспособной соответствовать высоким ожиданиям, на мой взгляд, должно также уметь оценить стоящие за этими проектам намерения и усилия. Все же за такими попытками по созданию объективных алгоритмов стоит сильное обещание изменить процесс принятия решений «в лучшую сторону», какой бы она не была. Ведь у алгоритмического принятия решений нет автоматически выигрышной противоположности здесь, человеческие решения также воплощают в себе различные предрассудки.
Вот история и философии науки нас учат, что объективность – многосоставный, исторический изменчивый идеал (про это есть замечательная книга «Объективность» П. Галисон и Л. Дастон). Этот идеал, безусловно, создается, но это никак не отменяет его ценности. Объективность – это не ценностно нейтральная позиция безусловной непредвзятости, «взгляд Бога». Однако смысл этого идеала вполне может быть переиначен при сохранении его значимости как познавательного и политического импульса. Так, сейчас я читаю книгу Сандры Хардинг «Объективность и разнообразие», где она с точки зрения ряда дисциплин пытается сделать именно это, а именно – указать, что можно и нужно культивировать более сильный идеал объективности, который не противоречит, а подкрепляется разнообразием позиций и предлагаемого ими знания.
Вот история и философии науки нас учат, что объективность – многосоставный, исторический изменчивый идеал (про это есть замечательная книга «Объективность» П. Галисон и Л. Дастон). Этот идеал, безусловно, создается, но это никак не отменяет его ценности. Объективность – это не ценностно нейтральная позиция безусловной непредвзятости, «взгляд Бога». Однако смысл этого идеала вполне может быть переиначен при сохранении его значимости как познавательного и политического импульса. Так, сейчас я читаю книгу Сандры Хардинг «Объективность и разнообразие», где она с точки зрения ряда дисциплин пытается сделать именно это, а именно – указать, что можно и нужно культивировать более сильный идеал объективности, который не противоречит, а подкрепляется разнообразием позиций и предлагаемого ими знания.
Forwarded from Kit
В российском сериале «Фандорин. Азазель» (действие там происходит в альтернативном 2023 году) компьютер прогнозирует совершение убийства. Хотя убийца и жертва еще даже не знакомы друг с другом, на одного из них уже надевают наручники. Ситуация выглядит фантастической, однако возможно, вскоре она станет реальностью.
Искусственный интеллект все чаще участвует в принятии решений, которые влияют на нашу жизнь. Дадут вам ипотеку или нет? Повысят вас в должности? А может, вы террорист? А если террорист — убить вас или нет? Это не преувеличение: ИИ проник во все сферы жизни. Например, в начале февраля в Колумбии судья вынес решение, посоветовавшись с нейростетью.
От искусственного интеллекта ждут справедливости, объективности и беспристрастности. Но на самом деле алгоритмы просто воспроизводят закономерности, характерные для реального мира. Ведь, чтобы нейросеть начала «думать», ей «скармливают» тысячи примеров и дают задачу повторить их. К примеру, фемактивистка Дарья Серенко обвинила нейросеть приложения Lensa в «нейросексизме»: программа сгенерировала эротические изображения, хотя в нее загрузили фотографии в одежде.
Мультимедийный художник и публицист Иван Неткачев в письме Kit рассказывает почему алгоритмы не строят для нас новый справедливый мир, а, наоборот, только укрепляют старый несправедливый.
Если вы подписчик Kit, ищите его в своем почтовом ящике. Если еще нет — вы можете подписаться по ссылке.
Искусственный интеллект все чаще участвует в принятии решений, которые влияют на нашу жизнь. Дадут вам ипотеку или нет? Повысят вас в должности? А может, вы террорист? А если террорист — убить вас или нет? Это не преувеличение: ИИ проник во все сферы жизни. Например, в начале февраля в Колумбии судья вынес решение, посоветовавшись с нейростетью.
От искусственного интеллекта ждут справедливости, объективности и беспристрастности. Но на самом деле алгоритмы просто воспроизводят закономерности, характерные для реального мира. Ведь, чтобы нейросеть начала «думать», ей «скармливают» тысячи примеров и дают задачу повторить их. К примеру, фемактивистка Дарья Серенко обвинила нейросеть приложения Lensa в «нейросексизме»: программа сгенерировала эротические изображения, хотя в нее загрузили фотографии в одежде.
Мультимедийный художник и публицист Иван Неткачев в письме Kit рассказывает почему алгоритмы не строят для нас новый справедливый мир, а, наоборот, только укрепляют старый несправедливый.
Если вы подписчик Kit, ищите его в своем почтовом ящике. Если еще нет — вы можете подписаться по ссылке.