"Искусственный интеллект и предубеждения" (AI and bias) [1] серия статей Брукингского института (США) где на сегодня их опубликовано уже три:
- Challenges for mitigating bias in algorithmic hiring [2]
- Fairness in algorithmic decision-making [3]
- Assessing employer intent when AI hiring tools are biased [4]
Все статьи посвящены актуальной теме алгоритмической дискриминации, с особенным акцентом в алгоритмическом найме людей. Например, там упоминается что из-за того что из-за того что алгоритмы языковых моделей обучаются на Google новостях то и, например, при применении word2vec, инструмента использующего корпус новостных данных, итоговый алгоритм оказывается предубеждённым относительно гендерных ролей в обществе [5]
Хотя и прямо сейчас в России это не кажется самой актуальной темой, однако не стоит её недооценивать. Алгоритмическая этика может "замыкать людей" в их социальных стратах не давая возможности выйти за их пределы.
Ссылки:
[1] https://www.brookings.edu/series/ai-and-bias/
[2] https://www.brookings.edu/research/challenges-for-mitigating-bias-in-algorithmic-hiring/
[3] https://www.brookings.edu/research/fairness-in-algorithmic-decision-making/
[4] https://www.brookings.edu/research/assessing-employer-intent-when-ai-hiring-tools-are-biased/
[5] https://arxiv.org/pdf/1607.06520.pdf
#ai #ethics
- Challenges for mitigating bias in algorithmic hiring [2]
- Fairness in algorithmic decision-making [3]
- Assessing employer intent when AI hiring tools are biased [4]
Все статьи посвящены актуальной теме алгоритмической дискриминации, с особенным акцентом в алгоритмическом найме людей. Например, там упоминается что из-за того что из-за того что алгоритмы языковых моделей обучаются на Google новостях то и, например, при применении word2vec, инструмента использующего корпус новостных данных, итоговый алгоритм оказывается предубеждённым относительно гендерных ролей в обществе [5]
Хотя и прямо сейчас в России это не кажется самой актуальной темой, однако не стоит её недооценивать. Алгоритмическая этика может "замыкать людей" в их социальных стратах не давая возможности выйти за их пределы.
Ссылки:
[1] https://www.brookings.edu/series/ai-and-bias/
[2] https://www.brookings.edu/research/challenges-for-mitigating-bias-in-algorithmic-hiring/
[3] https://www.brookings.edu/research/fairness-in-algorithmic-decision-making/
[4] https://www.brookings.edu/research/assessing-employer-intent-when-ai-hiring-tools-are-biased/
[5] https://arxiv.org/pdf/1607.06520.pdf
#ai #ethics
Brookings
AI and Bias | Brookings
Сегодня вышел в свет доклад об этике в цифровых технологиях от Центр подготовки руководителей цифровой трансформации где коллектив авторов написали так много разделов что читать их можно долго, если бы они не были написаны так хорошо что читать их было бы легко и полезно.
Как мог, я тоже влился в его подготовку, и во всех разделах про этику работы с данными выступил как автор.
Доклад можно прочитать по ссылке [1]
Ссылки:
[1] https://ethics.cdto.center/
#digital #ethics #dataethics
Как мог, я тоже влился в его подготовку, и во всех разделах про этику работы с данными выступил как автор.
Доклад можно прочитать по ссылке [1]
Ссылки:
[1] https://ethics.cdto.center/
#digital #ethics #dataethics
ethics.cdto.center
Аналитический доклад «Этика и "цифра"»
Очевидно, что государство не может предусмотреть все этические риски цифровой трансформации и преодолеть их, но оно должно сделать этические принципы цифровизации своим приоритетом на ближайшее будущее. Одним из первых шагов на этом пути и является данный
В рамках национальной стратегии данных в США опубликованы финальные версии каталога навыков по работе с данными и этический фреймворк по работе с данными [1].
Конечно, весьма бюрократизированные, но интересные документы. В отличие от российских они создавались непосредственно теми кто занимается наймом людей с этими навыками и их обучением в органы власти США. То есть теория уже после практики и это разумно.
Ссылки:
[1] https://strategy.data.gov/news/2020/12/01/data-skills-catalog-and-data-ethics-framework/
#data #ethics #usa
Конечно, весьма бюрократизированные, но интересные документы. В отличие от российских они создавались непосредственно теми кто занимается наймом людей с этими навыками и их обучением в органы власти США. То есть теория уже после практики и это разумно.
Ссылки:
[1] https://strategy.data.gov/news/2020/12/01/data-skills-catalog-and-data-ethics-framework/
#data #ethics #usa
strategy.data.gov
Data Skills Catalog and Data Ethics Framework Now Available - Federal Data Strategy
Design and build fast, accessible, mobile-friendly government websites backed by user research.
В NewYorker статья "Who Should Stop Unethical A.I.?" [1] о нарастающей тревоге учёных за результаты разработки искусственного интеллекта. Чем лучше идут исследования, чем совершеннее становятся системы автоматического принятия решения, тем больше опасений. Многие начинают избегать направления исследований которые потенциально могут привести к появлению оружия нового поколения.
Там же отсылки про саморегулирование научного сообщества, как это было с исследованиями плутония в 1941 году, когда учёные сознательно, придерживали их до конца войны или с исследованиями связанными с возможностью создания биооружия. Главные риски в том что почти все исследования в области ИИ имеют двойное назначение.
Сейчас Вы разрабатываете автономных дронов для доставки грузов вместо курьеров, а через несколько лет они могут разрушать инфраструктуру противника в гибридных войнах. Сейчас Вы проектируете системы распознавания лиц, поведения и угроз для выявления преступников, а через несколько лет они могут использоваться диктатурами для подавления протестов населения и ужесточения контроля за гражданами. И так далее, это длинный список всех рисков и последствий.
И, действительно, в случае ИИ до сих пор нет "своей Хиросимы", большого знакового события-катастрофы с участием ИИ или автоматической системы принятия решения способного напугать человечество.
Если оно произойдёт то мы получим мощнейший всплеск нео-луддизма с тотальным ограничением всех ИИ исследований по всему миру.
Ссылки:
[1] https://www.newyorker.com/tech/annals-of-technology/who-should-stop-unethical-ai
#ai #ethics
Там же отсылки про саморегулирование научного сообщества, как это было с исследованиями плутония в 1941 году, когда учёные сознательно, придерживали их до конца войны или с исследованиями связанными с возможностью создания биооружия. Главные риски в том что почти все исследования в области ИИ имеют двойное назначение.
Сейчас Вы разрабатываете автономных дронов для доставки грузов вместо курьеров, а через несколько лет они могут разрушать инфраструктуру противника в гибридных войнах. Сейчас Вы проектируете системы распознавания лиц, поведения и угроз для выявления преступников, а через несколько лет они могут использоваться диктатурами для подавления протестов населения и ужесточения контроля за гражданами. И так далее, это длинный список всех рисков и последствий.
И, действительно, в случае ИИ до сих пор нет "своей Хиросимы", большого знакового события-катастрофы с участием ИИ или автоматической системы принятия решения способного напугать человечество.
Если оно произойдёт то мы получим мощнейший всплеск нео-луддизма с тотальным ограничением всех ИИ исследований по всему миру.
Ссылки:
[1] https://www.newyorker.com/tech/annals-of-technology/who-should-stop-unethical-ai
#ai #ethics
The New Yorker
Who Should Stop Unethical A.I.?
At artificial-intelligence conferences, researchers are increasingly alarmed by what they see.