Ivan Begtin
7.98K subscribers
1.85K photos
3 videos
101 files
4.56K links
I write about Open Data, Data Engineering, Government, Privacy, Digital Preservation and other gov related and tech stuff.

Founder of Dateno https://dateno.io

Telegram @ibegtin
Facebook - https://facebook.com/ibegtin
Secure contacts [email protected]
Download Telegram
AlgorithWatch опубликовали свежий отчёт о идентификации граждан и скоринге в 5 африканских странах и в Китае [1]. В отчете разобраны примеры Уганды, Туниса, Ганы, Руанды, Зимбабве и приведен пример китая по социальному скорингу. Почитать отчёт будет интересно всем тем кто задумывается о том как идентификация и цифровизация происходит в мире.

Вот лишь несколько важных факторов:
- только в Тунисе регистрируют всех детей до 5 лет, в остальных африканских странах только каждого второго;
- подавляющее число поставщиков систем скоринга и идентификации в Африке находятся за пределами континента. Это США, Китай и Евросоюз. Почти все они представлены на выставке ID4Africa проходящей с 2005 года;
- в Руанде компании секторов энергетики, ЖКХ и телекома передают данные о гражданах в кредитные бюро для большей точности кредитного скоринга;
- в Зимбабве работает наиболее продвинутая биометрическая база по идентификации людей по лицу и походке на базе китайской системы CloudWalk

Ссылки:
[1] https://algorithmwatch.org/en/identity-management-and-citizen-scoring-in-ghana-rwanda-tunisia-uganda-zimbabwe-and-china/

#privacy #biometrics
IBM отказались в будущем разрабатывать технологии распознавания по лицам, об этом в письме руководителя IBM Арвинда Кришна в адрес Сената США [1] . The Verge подробно разобрали ситуацию с применением [2] технологий распознавания лиц и, в том числе, "расовым предубеждением алгоритмов" и злоупотребление полиции использования этой технологии.

Тема слежки полиции за гражданами сейчас будет одной из важнейших в США точно. 12 июня, завтра выходит фильм "Запрограммированное предубеждение" (Coded Bias) [3] за авторством Joy Buolamwini которая когда и обнаружила и описала то что алгоритмы распознавания лиц плохо различают женщин и людей с темным цветом кожи.

На многое ли это повлияет в мире? Пока сложно предсказать. Этих шагов не возникло бы из-за стихийных митингов в США, обвинений полиции в использовании технологий и активизации НКО противодействующих неэтичному использованию ИИ, например, AI Justice United [4] и другие.


Ссылки:
[1] https://www.ibm.com/blogs/policy/facial-recognition-susset-racial-justice-reforms/
[2] https://www.theverge.com/2020/6/8/21284683/ibm-no-longer-general-purpose-facial-recognition-analysis-software
[3] https://www.hrwfilmfestivalstream.org/film/coded-bias/
[4] https://ajlunited.org/

#facialrecognition #ibm #bias #biometrics #ai
Comparitech выпустили сравнение 96 стран по тому как те используют биометрические данные [1]. Согласно исследованию хуже всего ситуация в Китае и лучше всего в Эфиопии и Туркменистане (видимо из-за неразвитости технологий). В целом исследование не претендует на научность и практически полностью основано на публикациях в СМИ, которые и приведены в списке источников.

Уровень использования биометрических данных в России лучше чем в США или в Иране, но хуже чем в Польше, Германии или Казахстане.

Опять же, поскольку методология исследования вызывает очень много вопросов, интереснее приводимые там факты. Например, национальная биометрическая база в Китае включающая теперь ещё и данные ДНК [2] или разрешение компаниям собирать данных о мозговых волнах работниках [3].

И так далее, ещё много примеров по другим странам.

Что находится за пределами этого исследования так это то что биометрические данные концентрируются не только в государстве. Если говорить про Россию, то из актуального - это вхождение Яндекса в капитал Генотек'а [4], где хоть и сделано множество оговорок про не передачу Яндексу каких-либо данных, но не тревожить не может.

Впрочем, если говорить про Россию, то у нас наиболее вероятен китайский путь с построением одной или нескольких национальных баз данных с биометрическими данными и постепенное введение регуляторки по сдачи в государственную информационную систему(-ы) биометрических данных собираемых частными компаниями.

P.S. Не все знают и не все понимают природу биометрических данных. Приведу несколько примеров, без ссылок:
- кроме распознавания лиц есть немало других технологий бесконтактного снятия биометрических данных, например, распознавание радужной оболочки возможно на расстоянии до 10 метров, распознавание походки, распознавание по форме рук и кистей и др.
- расшифровка генома - это передача третьей стороне данных не только о себе, но и о своих ближайших родственниках;
- отпечатки пальцев родственников имеют много схожих признаков и, при наличии финансирования исследований в этом направлении, можно научиться выявлять взаимосвязи;

По биометрии не так много хорошей литературы, многие технологии в этой области очень наукоёмки и требуют длительных исследований, с другой стороны, если запреты на именно распознавание по лицам получит распространение, то пойдут инвестиции в исследования в других направлениях: распознавание одежды, формы горла и ушей и иных биометрических признаков.

Ссылки:
[1] https://www.comparitech.com/blog/vpn-privacy/biometric-data-study/
[2] https://www.rfa.org/english/news/china/collect-08232019115209.html
[3] https://www.businessinsider.com/china-emotional-surveillance-technology-2018-4?r=US&IR=T
[4] https://blog.genotek.ru/genotek-and-yandex

#privacy #biometrics #genetics
По поводу принуждения к сдаче биометрии для получения Госуслуг [1] лично я считаю всё это ошибкой и принуждение к сдаче биометрических данных особенно. Причём ошибка эта двойная.

Первая её часть в том что если подталкиваешь к чему-то граждан то важна просветительская кампания которой не было, нет и, похоже, не планируется. Потому что найдутся те кто дойдет до Конституционного суда если их принуждать сдавать биометрию.

А вторая часть этой ошибки в том что тезисы о том что биометрия обеспечивает лучшую защиту очень спорный. Утечка биометрических данных невосполнима, лицо, отпечатки пальцев, голос и многое другое - не поменять и кроме биометрии есть и другие пути идентифицировать граждан/пользователей.

Я вообще не понимаю зачем именно гос-во ввязалось в создание ЕБС, сама идея с постепенным принуждением будет вызывать раздражение у граждан. Уже вызывает, на самом то деле. Граждане всё больше напрягаются на любые требования по сбору их личных данных и текущий подход по сбору биометрии ошибочен.

Ссылки:
[1] https://www.kommersant.ru/doc/5171552

#biometrics #security #authentication #government
Сегодня в 11:10, в рамках Privacy Day 2022 модерирую сессию Биометрия и другие персональные данные в школах: в чем опасность единой базы данных о детях.

Подключайтесь к трансляции https://privacyday.ru

#privacy #biometrics #vents
Есть и другие новости, Налоговая служба США (IRS) законтрактовалась с компанием ID.me на работы по идентификации и распознаванию по лицам тех кто сдаёт личную налоговую отчетность онлайн. Об этом статья в Scientific American [1] со ссылкой на сайт IRS [2]. Главная причина - резкий всплеск мошенничества и преступлений связанных с подменой личности. Об этом в США был большой госдоклад за 2020 год [3] систематизирующий такие преступления.

Отдельная тема упоминаемая в статье, о том что частная компания обеспечивает идентификацию людей для госоргана и опасения что нельзя отдавать такие критичные функции бизнесу.

По моим наблюдениям, в России противоположная ситуация. Многих тревожит требование по биометрии именно потому что это делается как государственная система и сразу возникают страхи всеобъемлющей слежки.

Ссылки:
[1] https://www.scientificamerican.com/article/facial-recognition-plan-from-irs-raises-big-concerns/
[2] https://www.irs.gov/newsroom/irs-unveils-new-online-identity-verification-process-for-accessing-self-help-tools
[3] https://www.ftc.gov/system/files/documents/reports/consumer-sentinel-network-data-book-2020/csn_annual_data_book_2020.pdf

#privacy #facialrecognition #biometrics #usa #irs
На vc.ru статья [1] про инициативу конкретного человека по сбору списка сотрудников компании NTechLab и, по сути, применения к ним культуры отмены. Для тех кто не знает, NTechLab - это российская компания разработчик технологии распознавания по лицам. Технологии мирового уровня по многим измерениям, оценкам и практике применения.

Лично я, мягко говоря, против культуры отмены. Персонифицированные бойкоты слишком похожи на самосуд, даже при плохой правоохранительной системе, они, в основном, создают поддерживают атмосферу общего ожесточения.

Но сейчас хочу сказать не об этом. В технологических компаниях очень многие и слишком часто забывают про то что многие технологии имеют двойное назначение. В каких-то областях это давно знают, есть ограничения таких как Вассенаарских соглашения [2], иногда спорно применяемых к технологиям сильного шифрования, но тем не менее.

Так вот дело в том что во многих технологиях уже невозможно говорить о благих намерениях или говорить о непонимании того как Ваша технология будет применяться на практике. Разработчики безусловно отвечают за применение их технологии и должны уметь отвечать на вопросы:
1. Можно ли с помощью технологии нарушать права граждан?
2. Можно ли с помощью технологии усилить нарушение прав граждан?
3. Какие меры разработчик предпринимает чтобы снизить последствия такого применения?
и ещё многие другие.

Технологии распознавания лиц, силуэтов, походки, или технологии глубокого перехвата трафика и ещё многие безусловно относятся как таким технологиям двойного назначения.

И везде где возможно в мире внедрению таких технологий препятствуют общественные организации, политики, учёные и отдельные активисты.

Есть много примеров такого сопротивления. Сотрудники Гугл активно протестовали против разработки ПО для военных. Соцсети под давлением общественного мнения заблокировали ПО Geofeedia использовавшееся для мониторинга протестов полицейскими в США, а в отношении компании NetSweeper продающей ПО для фильтрации интернета было полномасштабное расследование [3] со стороны НКО Citizenlab в 2018 году.

Меры общественного сопротивления таким технологиям в мире включали: общественные кампании, публикации в СМИ, призывы правительствам стран проводить расследования, протесты при внедрении таких систем, письма сотрудникам с призывом увольняться и многое другое.

Но нигде не было призывов составлять списки всех сотрудников компании и применять к ним культуру отмены (читаем правильно - применять санкции и устраивать самосуд).

При том что я лично понимаю насколько все легальные меры воздействия на подобные компании в России и ряде других стран сейчас ограничены, но очень важно помнить что покраска мира в черно-белый цвет очень редко достигает своих целей.

Для меня всё это выглядит как часть очень неприятного для мира изменения - радикализация инженеров. Главное отличие профессионального инженера в способности нанести гораздо больший вред окружающему обществу при желании. Технологии, в принципе, за последние годы в направлении усиления малых команд и одиночек. Ни один террорист-смертник не мог ранее нанести столько вреда как очень мотивированный инженер сейчас. Возможно пользы тоже, но вред первичен.

Возвращаясь к ситуации с NTechLab. Методы культуры отмены против сотрудников которые сейчас против них применяют, безусловно, мне не нравятся, но и компания безусловно пошла по пути когда их технологии специально заточены под технологии массовой слежки.

Вопрос лишь кто может оказаться следующим на рынке нарушения приватности?

Ссылки:
[1] https://vc.ru/services/435936-programmist-opublikoval-spisok-sotrudnikov-ntechlab-on-obvinyaet-ih-v-pomoshchi-silovikam-v-arestah-posle-mitingov
[2] https://ru.wikipedia.org/wiki/Вассенаарские_соглашения
[3] https://citizenlab.ca/2018/04/planet-netsweeper/

#privacy #security #biometrics #facerecognition