data stories
1.55K subscribers
89 photos
14 files
317 links
канал о том, как (цифровые) технологии и данные меняют общество (и как они этим обществом делаются, оспариваются и меняют свое значение)

канал ведет Дмитрий Муравьёв @Katerfas
Download Telegram
Ценность наших лиц

Послушал на Постнауке лекцию Олега Воскобойникова про лицо в Средние века. Если в Античности и Ренессансе люди интересовались именно индивидуальностью лиц для художественного изображения, то в Средние века такого интереса не было – изображать лица как нечто уникальное просто не мыслилось как значимая вещь, а интерес к лицу возвращается вместе с распространением физиогномики.

И так интересно, каким образом меняется наш интерес к лицу сейчас. У группы авторов на Стрелке вышел текст про лицо как инфраструктуру, где они пишут о том, как лицо меняет свое значение из-за возникающих эпидемиологических беспокойств, потребности его показывать на нескончаемых видеоконференциях и защищать при выходе на улицу.

Более того, можем добавить сюжеты, связанные с распознаванием лиц, использующемся как в политических, так и в коммерческих целях. Здесь вспоминается недавнее исследование, где исследователи утверждают, что анализ лица позволяет делать выводы о психологических чертах человека. Если открыть оригинальную статью, то там авторы пишут, что технология может пригодится на тех же собеседованиях при personality assesment. Вот кстати критическая статья про подобобное применение распознавания лиц. 

Если мы берем такую широкую историческую перспективу, то становится более отчетливо видно, как наше лицо медиатизируется через разные технологии – художественые средства или алгоритмы распознавания лиц – и приобретает новую ценность через разные способы такой медиатизации.
Forwarded from Empires Burn
Публичные контроверзы и внезапные попутчики

Я тут занимаюсь занимательной вебэтнографией на тему онлайн-митингов и случайно наткнулась на это мероприятие. Речь идёт об онлайн-митинге "Человек - не номер!", который состоялся 6 мая 2020 года. Митинг был организован против введения Единого Федерального Информационного Реестра, который организаторы называют "цифровым концлагерем" (выражение между прочим полюбившееся и нашим либералам, и борцам за свободные интернеты). Любопытно что организаторы затронули тему реестра с позиции тех самых граждан, о ком сейчас принято говорить "чипированные". В составе организаторов - представители РПЦ, члены патриотических и просемейных организаций.

К проблеме Единого реестра можно подойти как к хрестоматийному примеру "публичной контроверзы" (public controversy), которая полярно разделяет общество, но также выявляет любопытные, неочевидные сходства между идеологически далёкими друг от друга группами и организациями. В инженерных школах Франции, где мне посчастливилось преподавать (Mines ParisTech, Telecom ParisTech, Centrale-Supelec) давно идёт курс под названием Mapping controversies, в ходе которого студентов учат разбирать спорное техническое нововведение или законодательную инициативу регулирующую то или иное техническое изобретение, таким образом чтобы описать поле в максимальной его многосторонности, многоакторности, динамике.

Изучать такого рода контроверзы принято составляя "дерево проблем" (рисуя ментальные карты, которые показывают как разветвляются те или иные проблемы на составляющие их подпроблемы, какие основные моменты вызывают наибольшую критику). Второй сопутствующий метод - картографирования заинтересованных и участвующих в дебатах акторов, будь то НКО, депутаты-авторы законопроектов, активисты с разных концов политического спектра, и даже айти-компании-участники тендеров. Если грамотно расписать кто и почему против реестра, а кто и почему за него, может получиться что мы случайно поплывём в одной бочке с представителями церкви и "просемейных" организаций.

Вы обязательно гляньте видео с митинга, хоть мельком. Очень любопытно.

О курсе картографии контроверз можно почитать тут. Я бы очень хотела чтобы его начали преподавать и в российских вузах. Очень полезная оптика.
Раса и технологии

Представители IBM недавно объявили, что больше не будут заниматься исследованиями в области распознавания лиц. CEO компании Арвинд Кришна в письме для Конгреса даже вспомнил о том, как в 1950-ых годах IBM отказались от расовой сегрегации на рабочих местах. В тексте также содержится ряд предложений по продвижению расового равенства.

Подобное событие не было бы возможно без долгой работы исследователей, правозащитников и журналистов по раскрытию алгоритмической предвзятости (algorithmic bias) по расовому и гендерному признаку. И такой деятельности слишком много, чтобы перечислить в одном посте более или менее исчерпывающе, но кажется важным немного написать об этом и дать ссылки на другие ресурсы по теме расы и технологий. 

Более того, сейчас как никогда важно говорить о том, что это во многом достижения именно небелых профессионалов из разных областей. Меня также вдохновили схожие списки 1 и 2 от каналов @nyphilosophy и @impossibleworlds

Несколько ссылок по теме раса и технологии:

👁 Движение Algorithmic Justice League, основанное Джой Буламвини, бывшей студенткой и исследовательнице в MIT, которая в своей работе подчеркивала, что программное обеспечение в сфере распознавания лиц неодинаково относится к разным группам. Вместе с другой черной исследовательницей Тимнит Гебру они сделали проект Gender Shades про то, насколько алгоритмы разных компаний успешны в распознавании лиц людей разных гендеров и рас. 
🖤 Книга черной исследовательницы Рухи Бенджамин Race After Technology, здесь ее выступление на 30 минут про ее работу, а там про то, как технологии оказываются раз за разом расово окрашены. Сам я книгу пока не читал, но очень хочется. Бенджамин также основала Just Data Lab, где исследователи, активисты и художники объединяются для того, чтобы попытаться перепридумать, как возможно иначе обращаться к данным и действовать на их основе.
⚖️ Книга Dark Matters: On the Surveillance of Blackness прослеживает долгую историю технологий, используемых для наблюдения за черным населением. Вот тут Симона Браун рассказывает о своей книге.  
📚Тут давал ссылку учебный план курса по Critical Race & Digital Studies, это подальше от алгоритмов, больше в сторону исследований интернета и цифровых культур, но тоже про расу

И все это дело, конечно, далеко не ограничивается и не заканчивается на распознавании лиц, это только часть системной проблемы, и либеральные решения в рамках антидискриминационного законодательства тут далеко не всегда помогают. Об этом в контексте дискриминации на основе данных есть замечательная статья Анны Хоффманн, о ней может напишу попозже.
А отказ от распознавания лиц со стороны IBM, конечно, не значит, что они за один день стали белыми и пушистыми. Они до сих пор сотрудничают с миграционной службой США (ICE) и работают совместно с другими компаниями над сомнительными технологическими решениями, позволяющим определять, кто «хороший» мигрант, а кто – «плохой». 

В российских массмедиа сейчас об этом говорят не так много, но недавно МВД сообщали, что планируют создание единой информационной системы о мигрантах и даже систему «рейтинга социального доверия мигрантам». Помимо того, что это по понятным причинам осложняет жизнь многим мигрантам, эта инициатива также подразумевает и создание нового правового режима, что зачастую в таких контекстах означает скорее лишение прав, нежели их прибавление.
Forwarded from Ivan Begtin (Ivan Begtin)
Data Literacy Guidebook - это пособие по "дата-справедливости' и по "дата-грамотности". Довольно любопытное пособие было опубликовано [1] 12 июня от Data Justice Lab, проектной лаборатории при Школе Университета Кардиффа по журналистике, медиа и культуре.

Пособие весьма любопытное, его тема - это обзор инструментов. По цифровой самозащите, по алгоритмической экологии и по там как исследовать и расследовать предрассудки у алгоритмов. Фактически - это обзор существующих проектов по всему миру и обзор неплохой.

Всего 17 страниц простым английским языком.

Ссылки;
[1] https://datajusticelab.org/2020/06/12/djl-publishes-guidebook-on-data-literacy-tools/
[2] https://datajusticelab.org/

#privacy
Есть в России такая хорошая некоммерческая организация как Инфокультура, и сейчас они делают вебинары по животрепещущим для многих сообществ темам.

Вот на их ютуб-канале, помимо других интереных вещей, уже лежат записи двух первых встреч: про защиту приватности во время борьбы с пандемией и утечки персональных данных.

А уже завтра будет про отношения пользователя и корпораций в вопросах приватности. Регистрироваться здесь. В этой теме много интересных вопросов как про разные политики сбора и хранения, так и про то, что и как с данными делать (а что лучше нет), а также про то, в какие отношения компании вступают с другими акторами. Надеюсь, получится интересный разговор.
AI.Assembly – репозиторий работ, посвященных ответу на один простой вопрос: «Что ИИ хочет от нас?»

ссылки на эссе, выступления и другие работы от примущественно черных художников, исследователей, computer scientists: там и про данные, и про код, и про будущее, и про слежку

я оттуда, например, узнал про любопытный подкаст Wampum.Codes, где берут интервью у представителей коренных народов о их взаимоотношениях с технологиями

сайт приятный, но не могу перестать думать о возможном скрытом смысле заставлять портреты перемещаться по экрану, загораживая названия материалов. из-за этого, впрочем, становится чуть более любопытно узнать, а что же там все же написано.
У известного медиатеоретика и художницы Хито Штейерль есть эссе «Proxy Politics: Signal and Noise», где в том числе есть про алгоритмическое распознавание порнографии. Она пишет там, что подобная задача предполагает необходимость понять, что в видео и изображениях является сексом или наготой, а что — нет. 

Штейерль описывает устройство алгоритмов, которые предназначены для распознавания «непристной наготы» и принятия решений о блокировке изображений или видео. В эссе Штейерль выстраивает такую идею: в своей последовательной реализации проект алгоритмического распознавания порнографии во многом предполагает детальную классификацию сексуального поведения во всей его вариативности. 

This grammar as well as the library of partial objects are reminiscent of Roland Barthes’ notion of a “porn grammar,” where he describes the Marquis de Sade’s writings as a system of positions and body parts ready to permutate into every possible combination. Yet this marginalized and openly persecuted system could be seen as a reflex of a more general grammar of knowledge deployed during the so-called Enlightenment

Задача эта хоть и амбициозная, но осложнена своим стремлением к тотальности, то есть всеохватностью в попытке зафиксировать то, чем вообще может быть сексуальность. Ведь сексуальность, порнографическое, также границы между этими понятиями не являются чем-то предзаданным и очевидным.

А к попыткам определить их насильственными средствами — как со стороны алгоритмов, так и со стороны людей –  важно относиться критически.

От того еще более печалит дело Юлии Цветковой, которое, конечно, не только о рисунках, но еще и о ее образовательной и активистской деятельности как феминистки. Прочитать о нем можно здесь: https://www.freetsvet.net
Forwarded from (Im)possible worlds (Ragazza Fugni)
Смотрю очень умную и местами смешную лекцию историкессы науки Ксении Татарченко про советские компьютеры в рамках странного события infocosm.ru. Татарченко начинает рассказ с того что иронично показывает как сознание Глобального Севера не понимает откуда же в России компьютеры и программисты, там-тут же сплошные руины Утопии.
После Ксении Татарченко там великая (серьезно) исследовательница кибервойны Свитлана Матвиенко, но ее я посмотрю попозже

https://vimeo.com/324947027
А еще у Ксении есть очень много интересных статей про историю технологий в СССР. Вот, например, статья «Thinking Algorithmically: From Cold War Computer Science to the Socialist Information Culture». Она там красочно описывает переплетения между американскими и советскими учеными в период Холодной войны, и то, как понятие «алгоритмического мышления» динамично заключало в себе ряд совершенно разных идей по поводу того, что компьютеры могут дать для человеческой жизни.

Или же вот ее другая работа «‘The Computer Does Not Believe in Tears’: Soviet Programming, Professionalization, and the Gendering of Authority» про важность гендера как аналитической категории при рассмотрении социальной истории компьютеров в советский период.

В своих работах Татарченко открыто дискутирует с многими конвенциями, принятыми в истории технологий советского периода, вводит новые интересные темы и концепты и показывает, почему многие советские сюжеты могут быть важны и для глобального контекста. Ведь когда мы отказываемся от восприятия советского технологического опыта как исключительно «проигрышного» для триумфальной истории инноваций, ведущей нас к смартфоном, то история прошлого можем перестать быть руинами, которые видит ангел Клее. И тогда, быть может, у нас и получится рассмотреть новые идеи, практики и образы того, как могут сосуществовать технологии и общество.
​​EEF сделали прикольную штуку – атлас систем наблюдения в США. По сути – интерактивная карта, где можно смотреть на распространение разных систем слежки (распознавание лиц, детектор автомобильных номеров, дроны, предиктивная аналитика, и.т.д.). Сделали с помощью агрегации данных из предыдущей журналистской и исследовательской работы, а также краудсорсинга. Классный проект по высвечиванию зачастую невидимых инфраструктур.
Forwarded from дайджест антропоцена (Olga Der)
В издательстве Open Humanities Press вышли две новые книги, которые, как обычно, можно скачать бесплатно.

Во-первых, это "MACHINE SENSATIONS: Anthropomorphism and ‘Natural’ Interaction with
Nonhumans", by Tessa G. Leach.

Тесса Лич представляет в своем исследовании несколько кейсов – природные интерфейсы, искусственный интеллект, секс-роботы – заостряющих различия между человеческой и нечеловеческой чувственностью. В своей книге Лич обращается к STS и акторно-сетевой теории.

Во-вторых, появилась новая книга "AI ART: MACHINE VISIONS AND WARPED DREAMS" by Joanna Zylinska.

Зилинска анализирует искусство, созданное нейросетями, предварив свои размышления кратким экскурсом в историю нет-арта и машинного искусства.
алгоритмы и время

Есть такая идея, что наше восприятие времени постоянно медиатизируется. Вот историк Фредерик Барбье в книге «Европа Гутенберга» мимоходом высказывает тезис, что именно формат печатной книги задает нам линейное понимание времени и истории, приводя в пример разметку и сигнализацию «Прибавления к всемирной хронике, от сотворения мира до 1482 года» богослова и хрониста Джакома Форести. Эта работа не только сопровождается разбивкой на абзацы, разбивающие текст на логические смысловые единицы, но также имеет двойную хронологию – от Сотворения мира и рождества Христова. 

И, кажется, что в этой идее что-то есть. С материальной точки зрения книга до какой-то степени упряма – она чаще всего предполагает прочтение от начала до конца. Контрпримеров, конечно, полно: это энциклопедии, условные «Игра в классики», опция «разбей книгу на две книги» (тут можно вспомнить работу антрополога Аннмари Мол «Множественное тело»). И сами читатели тоже свободны в том, что читать и пропускать в тексте, но все же кажется, что с книгами сложнее рассказывать нелинейные истории. Так или иначе, приходится что-то помещать как текст именно последующей главы. Думаю, для тех, кто пытается в нелинейные исторические описания, материальная устроенность современных печатных книг может быть проблемой. Уже хочу увидеть книгу, которую можно читать, допустим, по кругу (не спрашивайте).
Но тут я еще подумал о том, что ленты социальных сетей тоже до какого-то времени воплощали линейное время. До прихода «умных» лент, как кажется, доминирующей формой их представления была хронология. Но не сейчас. Вот я листаю любую соцсеть и вижу сначала пост трехдневной давности, потом сегодняшний, потом вчерашний и думаю – вот и конец линейного времени. 

И тогда если алгоритмы и правда медиатизируют наше восприятие временной последовательности в социальных сетях, то какая логика за этим стоит? Прибыль, удержание внимания, получение данных – все это важно и играет роль, но мало позволяет ответить и понять, какой же переход в восприятии времени осуществляют «умные» ленты по сравнению с традиционными линейными хронологиями.
Forwarded from Empires Burn
Протесты в эру Covid19 - взгляд активистов и исследователей

Международный коллектив социологов, политологов, антропологов и других исследователей протестных движений выпустил замечательный тематический журнал о том как коронавирус изменил формы активизма в мире - от Европы до Африки. Тут и феминистские инициативы против домашнего насилия в Ухани, и движение за права беженцев в разгар пандемии на Балканах, и движение за альтернативную экономику и сельское хозяйство как ответ на продовольственный кризис в стране Басков. Журнал доступен онлайн бесплатно и включает в себя 38 материалов. Сборник статей объединяет и аналитику от известных учёных, таких как Донатэлла Дэлапорта, и живые истории рассказанные самими активистами.

Также на сайте опубликован список научной и актививстской литературы по теме протестов в эпоху ковида. Очень рекомендую!
Нью-йорский музей современного искусства на своем сайте опубликовал подборку фильмов, по-разному отражающих роль энергетических инфраструктур в (гео)политике и размышляющих об их влиянии на окружающую среду.

Sci-fi видеоэссе канадско-иранской режиссерки и писательницы Бахар Нуризаде After Scarcity разыгрывает утопическую идею советских кибернетиков о полностью автоматизированной плановой экономике.
"Выступая за «другой интернет», фильм размышляет об экономическом применении социалистических кибернетических экспериментов, сравнивая их с финансовыми механизмами и imaginaries энергетических структур в капиталистических странах".

Фильм доступен до 12 августа.

За наводку спасибо каналу kinotron
С удовольствием и интересом прочитал статью Андрея Кузнецова «Туманности нейросетей: ‘черные ящики’ технологий и наглядные уроки непрозрачности алгоритмов» из нового номера «Социологии власти». Из-за близости для меня этой темы очень хочется ее обсуждать, поэтому пост будем (слишком?) академическим. 

Во многом статья про возможности STS-подходов для понимания и развития современных дискуссий вокруг алгоритмической прозрачности как подотчетности (здесь еще очень важна оговорка, что алгоритмическая подотчетность к прозрачности не сводится). Разбирая три подхода к ценностной нейтральности технологий, Кузнецов приходит к выводу, что все они, пускай и по-разному, но упускают саму технологию из виду. Проблемы с технологиями и их ценностным, социально-политическим статусом вообще можно обнаруживать в разных аспектах социотехнических процессов: 
– Дизайне (кто, как, зачем и почему проектирует тот или иной технологический артефакт)
– Пользовательских действиях (кто и как им пользуется; афоризм «guns don’t kill people, people do» вот сюда)
– Эффектах технологий на группы, проблемы, общества, контексты, и.т.д.

Но независимо от выбранного аспекта такая критика, пишет Кузнецов, приводит нас к тому, что внимание с самой технологии уводится, и значимыми становятся условия, в которых она используется, производится, оказывает воздействие, и так далее. И для социальных исследований технологии тут есть проблема: сама материальность, то есть, грубо говоря, сама конкретная устроенность технологии не учитывается – как исследователи мы начинаем смотреть сквозь них. Для нас при такой перспективе технология становится послушным и предсказуемым проводником человеческих намерений.  

Решение Кузнецова здесь состоит в том, чтобы развернуть проблему раскрытия «черного ящика» (здесь – проблема понимания того, что же делает алгоритм) с помощью акторно-сетевой теории Латура. И тогда технологии начинают пониматься не просто как проводники человеческих действий и интенций, а нечто, что своей материальностью способно «дать им отпор». Технологии тогда становятся медиаторами, порождающими новые правила взаимодействий и способными нас удивлять – они становятся событием, которое не может быть редуцировано к тому, что мы привыкли называть «социальным». Больше нельзя сказать, что технология является расисткой или воспроизводит расовые различия, исключительно потому что стоящие за ней проектировщики сами были скрытыми или явными расистами. 

И сама по себе такая теоретическая переориентация кажется важной, и я думаю, что, к примеру, художественные работы о Amazon Echo или о труде в ИИ во многом похожи на эту задачу картографирования гетерогенных элементов, составляющих алгоритмическую систему как ассамбляж.

Однако то, что мне очень интересно и до конца непонятно, так это возможность критики при такой латуровской позиции. Я бы, возможно, и не вспомнил об этом, но в статье мимолетом также пишется и о социально-политической важности переориентации подходов к «черным ящикам» алгоритмов. При этом я не хочу писать об этом как о какой-то критике статьи, скорее это мои собственные переживания по поводу этой проблемы. Для Латура более привычные критические установки в социальных науках «выдохлись», поэтому надо идти от самих технологий и смотреть, как последние непрерывно становятся временным реляционным достижением взаимодействиях разных гетерогенных элементов. Эта статья Латура есть кстати в переводе в «Художественном журнале».
Но если «технологии есть общество», и если они и правда «собираются в каждом конкретном случае (ре)инновации», то как так получается, что часто проблемы с алгоритмами схожи и устойчивы? Есть ли и правда смысл в попытке критической переориентации картографировать алгоритмы, разбирая состав их разнородных соучастников, если мы вновь обнаруживаем, к примеру, гендерную и расовую дискриминацию? То есть как введение этой материальности в теоретический язык должно поменять социальные и политические ставки разных акторов и пересобрать критику? Более того, сложные отношения между теоретико-методологическими установками АСТ и статусом социальных объяснений (что само по себе не плохо, в тему этого есть классная статья Александра Широкова) создают проблемы для критики, так как тогда мы лишаемся возможности понять, кто несет ответственность и как распределяется власть в случае симметрии акторов. В общем, много вопросов!
наконец-то делимся с миром материалами апрельской конференции Internet Beyond Change

неожиданный онлайн вместо офлайна, кажется, многих весной застал врасплох. но мы неплохо справились! и сама конференция, и материалы, которые по её итогам мы выкладываем на сайт, — это довольно необычные форматы. немного расскажем, как это было:

конференция шла три дня. с разных сторон мы обсуждали вопрос о том, как интернет меняет мир и меняется сам (или не меняет и не меняется, тут всё не просто).

всё проходило в зуме, но участники заранее рассылали друг другу презентации, аудио или видео со своими докладами. так что можно было заранее послушать друг друга во время прогулки или повседневных дел. а потом, уже на самих созвонах, уделить время только обсуждению, острым вопросам, сомнениям и идеям. а ещё мы заранее начинали собирать вопросы к докладам письменно, в общих гугл-документах. а во время созвонов обсуждение шло ещё и в чате зума. так что получилось мультимодально, насыщенно и, надеемся, вдохновляюще.

(а ещё каждый вечер в течение недели всем участникам и слушателям конференции приходила рассылка с рекомендацией арт-проектов или книг по теме секций, коктейля и музыки на вечер)

если вы всё пропустили (или не всё, а часть) и хотите узнать, что происходило в мире российских интернет-исследований в этом апреле, приходите на сайт: https://internetbeyond.net/

под каждым докладом можно найти ссылки на доступные материалы: аудио/видео, презентации, гугл-доки с предварительными вопросами и обсуждениями, видеозапись обсуждений в зуме и тексты обсуждений в чате.

enjoy!
​​8 мифов о ИИ

Классный ресурс с ссылками на хорошие статьи по теме мифов, окружающих ИИ. Особенно мне нравится наличие статьи про сложности с этическими кодексами и гайдлайнами. Часто когда речь заходит о теме «ИИ и общество», все сразу начинают думать про этику и сводить все многообразие сложностей дизайна и внедрения таких систем к вопросам злого/доброго, морали, ответственности – всего того, что мы обычно понимаем под этикой. И «этика ИИ» – очень модное направление сейчас, в котором многие видят решение назревших проблем. Для коммерческих компаний это также удобная рамка, так как этические кодексы и комитеты внутри таких компаний часто понимаются как альтернатива государственному регулированию, которое намного более затратно. 

Так почему же с этикой все непросто? С одной стороны, с ней есть очевидные сложности, связанные с определением «этики». О какой этике мы говорим (и для кого)? Это деонтологический подход, в котором мы должны соизмерять намерения поступков с некоторым всеобщим законом? Или это должен быть утилитаризм (который в бизнес-этике особенно любят, т.к. там можно последствия действий «складывать» и «вычитать») или же феминистская этика заботы? А кто вообще будет решать, какие этические координаты будут вписаны в дизайн ИИ? 

Но помимо сложностей с определением этики, есть и другой момент. Так, в статье на этом ресурсе, на мой взгляд, хорошо показывается, почему разговоры о «этичном ИИ» нас часто уводят в сторону. Ведь тогда будто достаточно добавить «щепоточку этики», хорошенько перемешать, и любая технология станет замечательной. Но можем ли мы сказать, что любая технология при должном уровне вмешательства может стать «этичной»? Почему опция отказа вообще не предусматривается, а подспудно как будто бы предполагается, что мы живем в такой ситуации, где любые «инновации» неостановимы и нам нужно только наложить на них этические заплатки?
Forwarded from Городские данные (Anna Barinova)
Разные интересные и загадочные вещи то и дело происходят на онлайн-картах с территориями со спорным статусом с точки зрения международного права (например, если кто-нибудь что-нибудь аннексирует). А сейчас любопытная история с Косово: министр иностранных дел Мелиза Харадинай пишет письмо Тиму Куку с просьбой обозначить Косово как независимое государство на Apple Maps. Сейчас Косово изображено как часть Сербии, что, по мнению Харадинай, «находится в прямом противоречии с политической и юридической реальностью». Другие диджитал-сервисы, включая LinkedIn, Twitter, Facebook и Spotify, выделяют Косово как независимую страну.

https://twitter.com/MelizaHaradinaj/status/1287494182521704451