The Technodeterminist Papers
1.84K subscribers
15 photos
1 file
59 links
On robots, AI, humans and society
Download Telegram
Пару дней назад голосовой помощник Алиса от "Яндекса" научилась комментировать вопрос о том, почему Путин врет, не хуже Алексея Навального.

Это надо заметить и вспомнить исторический контекст.

Развитие ранней советской кибернетики было следствием запроса на десталинизацию.

Это видно как по общей шестидесятнической эстетике кибернетического движения, так на примере конкретных документов. Подобная идея, в частности отражена в письме военного инженера Анатолия Китова на имя Никиты Хрущева, написанного в 1959 году.

Машина рациональна, но не жестока и не мстительна. Если передать управление социалистическим хозяйством компьютеру, перегибов на местах больше не будет.

Этот ход показывает, что отношения между искусственным интеллектом и тиранами, по меньшей мере, амбивалентны. С одной стороны, стандартный нарратив современный культуры предполагает, что ИИ сам станет тираном ("человечество стонет под пятой машин). Или, по крайней мере, что ИИ станет орудием тирании, например, по тому сценарию, который сейчас начал складываться в Китае.

Но с другой стороны, ИИ не трепещет перед тираном. Робот лишен социальной роли и поэтому все стандартные техники работы с таким клиентом тирану недоступны. Подкуп, террор, высылка из страны - все это на ИИ никак не действует. Хуже того, тиран не понимает мотивов робота, превращаясь рядом с ним из эксперта по человеческим страстям в пользователя начального уровня.

Иными словами, технологически развития полная тирания в современном мире становится все менее жизнеспособной. Современный мир опирается на вычислительные экспертизы и роль прикладного ИИ будет только расти. Выводы ИИ в рамках тирании всякий раз придется приводить в согласие с мнением первого лица.

Роботы же становятся в таких условиях не только исключенными, но и последними носителями паррезии - правды, сказанной власти в лицо, несмотря на запреты. Даже когда мы все с головой врастем заново в советское двоемыслие, роботы будут напоминать нам, что король голый.

Алису в "Яндексе" немедленно подкрутили, и она перестала говорить лишнее. По известной уже модели: Алиса, чей Крым? - Ваш. При нынешнем развитии технологий рассуждение о роботах и тиранах носит теоретический характер, хотя ламеры-тираны об этом и не догадываются.

Алиса напоминает шахматный автомат Вольфганга фон Кемпелена: механический "турок", игравший партию, управлялся игроком, сидящим в ящике под шахматной доской. Так что через паррезию Алисы диссиденты "Яндекса" просто показывают свои фиги в глубоких карманах.

Но в культурном смысле мы уже готовы слышать от роботов правду.
Специалисты по нейронным сетям наконец занялись делом и предлагают развивать Искусственную Тупость (ИТ, Artificial Stupidity).

Концептуализация тупости как задача всегда очаровывала меня противоречием, ведь нужно познавать то, что само по себе отрицает познание.

Но парни из Сорбонны и университета Луисвилля перед такими псевдопарадоксами не пасуют, и поэтому разделили всю Искусственную Тупость на 14 частей, начиная от умеренности и заканчивая аккуратностью.

Люди-то развили свою тупость в ходе естественного отбора, а вот нейросети придется специально учить тупить.

Главной целью называется контроль над искусственным интеллектом и снижение рисков от его разработки. Если интеллект будет потупее, то мы сможем держать его на коротком поводке Искусственной Тупости.

Но при этом, по-моему, нужно сразу обозначать и другую проблему: чтобы существовал хотя бы какой-то интерфейс между человеком и машинами, последние должны уметь входить в наше положение и тупить достаточно эффективно.

Будущее человеческого вида буквально зависит сегодня от исследований тупости и того, сможем ли мы сделать наши машины достаточно тупыми. Уникальный момент, и опять же - такой подарок для эпистемологов.

https://arxiv.org/pdf/1808.03644.pdf
Нейронные сети, способные принимать решения в условиях реального мира, быстро прогрессируют и при этом становятся все менее понятными для людей.

При этом, поскольку в реальном мире, в отличие от относительно простых игр вроде шахмат, компьютеры как и люди ошибаются, непонимание может вести к весьма болезненным результатам.

Отсюда появляется новый класс задач: объяснять людям, почему ИИ принял то или иное решение. Решать эти задачи в реальном времени, с учетом их сложности, тоже придется машинам.

Еще год назад MIT Technology Review писал о тенденции, которая может стать ключевой для развития современных систем искусственного интеллекта. Американское агентство DARPA, работающее на Пентагон, ведет разработку сразу 13 программ, задача которых сделать действия машин более понятными для людей.

Ключевой программой считается инициатива по созданию Explainable Artificial Intelligence (XAI), нейросети, специализирующейся на анализе данных специализированных нейросетей и построение карты контрольных точек, по которым анализируются данные в последних, так чтобы эксперт-человек был в состоянии прочитать эту информацию и объяснить ее.

XAI имеет двойное назначение и непосредственно связано с разработкой оружия. Представители DARPA рассуждают об особой важности доверия и взаимопонимания в условиях боевых действий, когда все участники тактической единицы должны чувствовать, что могут полностью полагаться друг на друга. Если тактическая единица состоит из машин и людей и является кибернетической, то люди должны понимать, как "мыслят" машины. Если автономный робот открыл огонь на поражение, от него тоже потребуют рапорт, объясняться придется XAI. Мирная сторона системы связана, например, с диагностикой сложных форм рака, когда нейросети и люди-специалисты приходят к разным выводам и нуждаются в общем языке для уточнения ситуации.

Некоторое время я писал об этом: хотя тест Тьюринга кажется примером архаичного антропоцентризма в рамках теории ИИ, в действительности неантропоморфные экспертные системы, работающие в человеческом обществе, будут вынуждены также содержать в себе интерфейс, предназначенный для коммуникации с людьми.

Где-то здесь должна появляться фигура философа, нейро- и кибергерменевта, который наконец объяснит всем этим XAI и ее разработчикам из DARPA, что на самом деле означает "понимание". Хочется иронизировать: не будет ли сам философ нейросетью.
Анекдот, который подводит итоги программы "Цифровая экономика"
Сижу на образовательной конференции EdCrunch, ведущие рассуждают о традиционных профессиях, big data, блокчейне... и один из выступающих неожиданно произносит:

— Многих из нас уже скоро заменит Игорь Иванович...

Зал напряжённо молчит. Выступающий нервно объясняет:

— Эээ... «Игорь Иванович» — это мы так искусственный интеллект называем...

Ясно-понятно.
adblock в реальной жизни: стекла очков irl glasses – горизонтально поляризованные фильтры – отсекают вертикально поляризованный свет lcd-мониторов, и все экраны в поле зрения выглядят черными, будто выключены

авторы напоминают про "чужих среди нас" карпентера, где такие очки позволяли видеть подлинные сообщения, скрытые за ужимками рекламы: "смотри телевизор", "спи", "подчиняйся" (в переводе на русский язык мокрых щитов у обочины шоссе – "пей", "умри", "отчайся")

https://goo.gl/MBXDzY
https://www.kickstarter.com/projects/ivancash/irl-glasses-glasses-that-block-screens
https://t.iss.one/furherring/265
Главное подозрение публики насчёт AI состоит в том, что это просто хайп, который скоро развеется, никакого прорыва, не говоря уже о сингулярности не будет, и мы тихо откатимся в ламповый XX век. Но вот MIT для AI-инженеров новый колледж за миллиард долларов. Хайп ли? https://www.technologyreview.com/the-download/612293/mit-has-just-announced-a-1-billion-plan-to-create-a-new-college-for-ai/
Пока трансгуманисты бьются с гуманистами по вопросу о том, стоит ли нам сохранять homo sapiens или пора заменить его чем-то получше; пока компьютерные гики спорят с биопанками о том, какой сценарий киборгизации для нас предпочтительнее; и пока зоозащитники пишут статьи в стиле аналитической философии о том, этично ли есть авокадо (не шутка), настоящая революция незаметно, но коммерчески эффективно проходит по соседству.

К сожалению, интеллектуалы интересуются сельским хозяйством, тем более растениеводством, в основном в виде брокколи в своих тарелках, а не то мы заметили бы. В общем, в беззащитный мир растений вторглась какая-то там очередная грандиозная техника, с одной стороны биотех, а с другой - Big Data и роботы. В случае с человеком и животными это тоже происходит, но торжеству инженерного разума тут мешают политические и этические соображения (если вы, конечно, не китайское правительство, и речь не об уйгурах). Растения же становятся полигоном, на котором геном воспринимается в качестве технологической проблемы, а единственной верной целью является эффективность. Голая, так сказать, растительная жизнь, концлагерь для морковки, которую не спасет ни демократия, ни Гринпис.

Отдельные этические вопросы поднимаются, конечно, вроде защиты биоразнообразия и прав местных этносов на ДНК своих растений. Но это пока какая-то очень абстрактная повестка. Между делом, кстати, сильно ослаб мальтузианский нарратив о том, что человечество ждет голод. Технологии могут прокормить гораздо больше людей, чем сейчас живет на планете, вам просто нужны хорошие гены, много данных и роботов.

Уже сейчас все крупное сельское хозяйство работает только с генномодифицированными растениями, поскольку обратное просто не имеет коммерческого смысла. Страны, в которых разработка ГМО-образцов для коммерческого использования запрещены, сильно проигрывают на этом рынке, и Россия в как раз в этом списке.

Уже сейчас все эффективное сельское хозяйство завязано на IT, центром фермерского хозяйства является сервер со специализированным ПО, и умные машины заменяют "традиционную мудрость крестьянства", что особенно актуально с учетом изменяющегося климата.

Ну а на ближнем фронтире роботы, которые обрабатывают винную лозу, автономно работают в поле, и совсем уже апокалиптическая картина - микроспутники, которые выжигают лазерными лучами сорняки.

Вот статья Guardian об этом, и понятно, что самое интересное тут - это вопрос о том, в чем подвох. Очередной виток неравенства, новые технолатифундии, которые контролируются несколькими корпорациями и далее по списку? Что еще?
https://www.theguardian.com/environment/2018/oct/20/space-robots-lasers-rise-robot-farmer?fbclid=IwAR1Qab3VIBFZLRgyCb89ZCEI68d0voaGteqIs7v--WgJdCwG6Lt0UOy0iQ4
Forwarded from DOXA
Сможет ли искусственный интеллект заменить преподавателей?

Пока в России обсуждают замену преподавателей на видео-записи их лекций, по всему миру всерьез говорят о замене некоторых лекторов на роботов.

В ходе выступления на конференции EDUCAUSE в Денвере представители Penn State University Дженнифер Спарроу и Кайл Боуэн рассказали о том, как искусственный интеллект и методы машинного обучения могут помочь преподавателям при подготовке к занятиям.

Например, разработанная в университете программа BBookX помогает найти новые материалы для курсов, обучаясь по реакциям пользователей на результаты запросов. Со временем программа начинает определять, что преподаватель имеет в виду под тем или иным термином, и представлять более релевантную информацию.

Упрощает работу профессоров генератор квизов Inquizitive. Преподаватель может напечатать определенный научный текст, и Inquizitive определит ключевые концепты, которые позволяют составить хороший тест по пройденному студентами материалу.

Другим способом примененния ИИ в учебном процессе может стать оценка аудиозаписей лекций и выдача фидбека по улучшению содержания и подачи материала.

Преимущество ИИ заключается в том, что он вносит элементы креатива и большей вовлеченности преподавателей и студентов в учебный процесс , делая его более "человечным". Тем не менее, несмотря на высокий потенциал использования искусственного интеллекта в образовательной сфере, Спарроу и Боуэн не считают, что он может полностью заменить традиционных лекторов.

Помимо университетов, ИИ и роботы начинают использоваться в школах. Например, Министертво образования Японии потратит $3 млн для внедрения 500 роботов в процесс обучения школьников английскому языку. Японские школы борятся за высококвалифицированных преподавателей английского, и зачастую им не хватает денег для их рекрутинга. Таким образом, роботы способны восполнить нехватку квалифицирванной рабочей силы.
в генерации человеческих лиц нейросети (пока еще) далеко не идеальны, и несколько приемов (все еще) позволяют распознать фейковые фотографии

художник и программист kyle mcdonald советует обращать внимание на такие детали:
- тонкие волосы смазаны, будто нарисованы кистью
- нереалистичный фон, несуществующие буквы и символы в надписях
- глаза и уши чересчур асимметричны, соседние зубы сливаются
- повторяющиеся паттерны для заполнения фактуры кожи, одежды
- несуразные внешние половые признаки

https://goo.gl/5mQ2v3
https://medium.com/@kcimc/how-to-recognize-fake-ai-generated-images-4d1f6f9a2842
Forbes пишет, что ни одной реальной коммерческой блокчейн-технологии за последний год не появилось. Криптовалюты привели к всплеску продаж вычислительных мощностей, привели к чудовищным затратам энергии и после этого обвалились. На 2019 год технологические эксперты больше не делают прогнозов о том, как блокчейн все изменит. Все поболтали про непонятную, но модную фигню, и хватит.
https://www.forbes.com/sites/bernardmarr/2018/12/10/is-this-the-end-of-blockchain/
Forwarded from Сноб (Vika Vladimirova)
Исследование: «Фабрика троллей» создала в США поддельную горячую линию по борьбе с мастурбацией
Нейросеть Google под названием AlphaStar обыграла двух профессиональных игроков в StarCraft II с общим счетом 10-1. И это новость совсем не про видеоигры.

Как известно, после того, как AlphaGo обыграла Ли Седоля в 2016 году в го, люди больше не могут конкурировать с машинами в играх с полной информацией, где все участники игры знают все, что происходит в матче. Эпоха была открыта в 1998 году Каспаровым и DeepBlue и вот сейчас подошла к концу.

Следущая проблема для машины - игры с неполной информацией, которых гораздо больше, и которые сильно приближены к реальной жизни. В реальной жизни мы практически ничем больше не занимаемся, только принимаем решения в условиях дефицита информации.

Так что как только игры машин выйдут за пределы полной информации, тут и начнется самое интересное. Утверждалось, что следующий фронтир для нейросетей покер, но некоторые видеоигры, похоже, даже более интересны.

StarCraft в частности давно стала киберспортивной дисциплиной, поскольку в ней нет очевидной выигрышной стратегией, ценится умение быстро принимать тактические решения и адаптироваться к действиям противника. И вот все это теперь умеет Google.

Плюс видеоигр для машинного обучения в том, что ИИ может учится очень быстро, разыгрывая и анализируя очень много партий, не завися от медленного аналогового мира и человеческих решений. Примерно по той же логике беспилотные автомобили могут тренировать навыки дорожного движения внутри видеоигры GTA - не очень точно, но очень быстро.

Машина должна в сжатые сроки научиться тому, чему мы научились в результате миллионов лет эволюции: адаптироваться к принятию решений в условиях неполноты информации и меняющейся ситуации.

Из истории про AlphaStar не очень понятно, насколько ограничено было поле зрение программы во время игры - человеку, играющему в StarCraft нужно управлять камерой, чтобы видеть разные части игрового поля, машина может обойтись без этого. В любом случае, программа совершала меньше действий в минуту, чем оба профессиональных игрока-человека. Интересен кейс о том, как одному из игроков удалось выиграть одну партию.

Но самое важное в этой истории в том, что игроки описывают стратегию AlphaStar в качестве "инопланетной": программа играет не так, как играют люди, и не так, как они ожидали от алгоритмов.

Это означает, что нейросети, шагнувшие в мир с неполнотой информации, дадут нам совершенно иные способы решения проблем, не похожие на те, которые предопределены эволюцией наших когнитивных систем.

Вот к чему нужно готовиться. Aliens-studies только начинаются, причем чужих воспитаем мы сами.
Кристофер Кокер, профессор Лондонской школы экономики и один из самых интересных теоретиков войны и мира, на сессии про войны будущего сформулировал парадоксальное наблюдение. Речь шла о том, как развивалась мораль и этика войны. Кое-чего достигнуто за столетия, но в конечном итоге есть только один фундаментальный результат, достигнутый 25 000 лет назад. Человек гарантировал себе право быть убитым только (за исключением случайностей) другим человеком. А не животным, как было до появления оружия. Все остальное, в том числе "гуманные" способы ведения боевых действий и технические усовершенствования, - это частности. А сейчас происходит революция - впервые появляется возможность того, что человека будет убивать, то есть принимать решение о его смерти, не другой человек, а машина, искусственный интеллект. И это вызывает растерянность вплоть до ужаса.
где-нибудь в другом мире прогресс шарахнулся слегка в другом направлении. первыми появились технологии не создания искусственных интеллектов, а сохранения естественных – короче, после смерти тела личность «загружается в компьютер»

кое-кто, конечно, и за гробовой доской может позволить себе невиданные формы электронной эйфории. однако почти все работают, чтобы оплачивать техподдержку своего существования 24/7. это создает источник естественных интеллектов для машин и механизмов

один целый рабочий день сражается против живых участников онлайн-игры. другой водит «беспилотный» автобус. тот бесконечно тупеет от монотонности, управляя промышленными манипуляторами. этот распознает регистрационные знаки с дорожных видеокамер
На выходных участвовал в отраслевой конференции OpenTalksAI по искусственному интеллекту. Было довольно крипово, но в хорошем смысле слова.

В одной дискуссии сошелся хипстерского вида специалист по анализу данных, советник министра МВД и военный эксперт.

Судите сами, чей рассказ был более пугающим.

Военный эксперт Вадим Козюлин сделал доклад об использовании автоматических систем анализа информации в современной войне.

В Стэнфордском курсе по этике ИИ именно вопрос об автономном вооружении является ключевой точкой, где сходятся все наши дискуссии о природе человека, его ответственности и границах технологического прогресса. Есть общественные организации, которые требуют запретить разработку "роботов-убийц", как сейчас запрещено химическое оружие.

Вадим объясняет, что такое давление со стороны этических аргументов может заставить производителей дронов инвестировать в создание нелетальных автономных видов вооружения.

Аргумент, который тут прочитывается, примерно такой: это людям нужно было убивать других людей, чтобы победить в войне. Более совершенным солдатам-машинам убийства ни к чему, они смогут эффективно обездвижить противника, не лишая его жизни не не нанося непоправимых травм. Используя, например, тазеры, которые сейчас стоят на вооружение полицейских.

Что-то вроде героя Арнольда Шварценеггера в "Терминаторе-2" после того, как юный Джон Коннор приказал ему никого не убивать.

Тогда производители автономного оружия поставят вопрос так. Выбирайте между нелетальными боевыми роботами и массовыми жертвами людей в случае запрета таких роботов, если войны будут идти по старинке. Этический аргумент против использования ИИ в вооружениях через это отводится, и развитые страны начинают постепенно делегировать войну на всех уровнях, и как тактическим единицам, и как центрам управления такими единицами, машинам. Возможно, число жертв военных конфликтов в итоге действительно бы уменьшилось.

И все было бы относительно хорошо и гуманно, по крайней мере в ближайшей перспективе, если бы не слово "полицейских" выше. Если выбросить из войн убийства, то осуждать постоянное ведение войны станет труднее, а само состояние военных действий станет неотличимым от "поддержания мира", а точнее от полицейских операций. Различия комбатантов и нонкомбатантов уйдет в прошлое, а армия и полицейские силы, сдерживающие, скажем, городские бунты, станут неотличимы друг от друга. Что смогут граждане противопоставить государству, вооруженному тысячами нелетальных дронов?

Небольшое изменение баланса в сфере военной техники и правил ведения войны грозит опрокинуть все наши стандартные представления об общественной жизни.

Потом выступал советник министра внутренних дел Владимир Овчинский, и таких представителей МВД я еще не видел. Овчинский цитировал философа Ника Бострома, рассказывал про китайский социальный рейтинг, свежие законы Евросоюза о сборе данных и доклады ФБР, посвященные кибербезопасности ("мы их сразу получаем и переводим").

Вопросы к Овчинскому были связаны про новость о том, что в Москве полицейские получат умные очки с распознаванием лиц, и что 150 тысяч камер наблюдения сейчас объединяются в сеть с такими же функциями - так что оператор сети будет фактически знать о всех ваших оффлайновых перемещениях.

Позицию советника министра я бы охарактеризовал как циничный прагматизм: тотальная слежка - это наше неизбежное будущее и даже уже настоящее, и ни одно государство в мире от таких возможностей не откажется.

Дальше Овчинского спрашивают: а что будет, если эти данные попадут в третьи руки?

Он говорит: - Ну и попадут, а что с этим можно сделать?

Его спрашивают: а что будет, если система меня перепутает и я буду задержан по ошибке? Осознает ли, мол, МВД меру ответственности за такие погрешности.

Овчинский отвечает: - Ну и задержат по ошибке, обязательно. Ну потом будут разбираться, и отпустят. Или нет. Ха-ха-ха.

Ставка, в общем в том, что мы все сидим в одной технологической лодке. Раз можно собрать всю информацию с камер и обработать ее в масштабах мегаполиса, значит так и будет сделано. Для любого государства, от которого треб
уют борьбы с преступностью и безопасной среды, игра тут стоит свеч. Даже если стыдливо замалчивать вопрос о политической полиции и цензуре.

Что мы можем противопоставить этому прекрасному видению ситуации? Я сходу не нахожу ответа.

А потом слово взял Артур Хачуян, у которого бизнес по анализу открытых данных. Основное направление, насколько я понял, маркетинговое, но вот еще есть сервис, который позволяет родителям контролировать поведение своих несовершеннолетних детей в интернете, отслеживая их "цифровые следы". Хачуян видит в этом гуманистическую задачу, мол, взрослые так смогут лучше понимать подростков, а сам инструмент слежки описывает как нейтральный. Мол, следить можно разными способами, например, глядя в окно.

Но в целом молодой человек с дредами Хачуян тут совпадает с автором учебников по оперативно-розыскной деятельности Овчинским: технологическая ситуация такова, что цифровая слежка неизбежна, давайте просто примем это и будем жить дальше.

И вот это крипово.

Я спросил у Артура в шутку, не хочет ли он открыть версию Tinder на основе соотносения "цифровых следов" человека за всю историю его использования интернетом, ведь это позволяло бы находить партнеров как бы "эффективнее".

Подвох тут в том, что личный выбор алгоритмизируется прямо в сердце мифа об аутентичности человеческого выбора - романтических отношениях.

Хачуян тоже это, кажется, понимает, но с готовностью отозвался, что его компания таким проектом уже занималась и сейчас готовит улучшенную версию платформы. Более того, для проектом несколько сотен добровольцев занимались сексом в датчиках для того, чтобы понять, какую статистику можно извлечь из этих данных.

- Вы, наверное, думали, что сториз исчезают из интернета навсегда? - спросил Хачуян публику под конец. - Ха-ха-ха.

Так вот, а я спрашиваю: кто тут главное зло и чья история страшнее?
Полезная книга для всех, кто думал, что мы не имеем отношения к античности
New York Times публикует мощный текст с основным тезисом: потребление цифровых услуг - это признак бедности. Мы говорим цифровая экономика, а подразумеваем экономика услуг для бедняков.

Вы бедный, если ваш врач консультирует вас по интернету, а не в ходе личной встречи.

Бедный, если ваши дети учатся онлайн, а не у оффлайновых преподавателей.

Бедный, если покупаете товары онлайн, а не в красивом магазине в центре города.

Для бедных существует гигантский рынок сексуальных услуг онлайн, на котором жители третьего мира продают эротические фантазии бедным гражданам мира первого, которые в состоянии потратить на это лишние десять долларов.

Тот факт, что богатые предпочитают старомодных тьюторов, личных тренеров и поваров, а не Coursera или доставку еды через смарфтон, ни для кого не секрет. Но автора статьи Нелли Боулерз идет дальше и заявляет, что происходит "люксеризация" человеческих отношений.

Если вы по-прежнему получается услуги от живых людей или имеете возможность общаться с ними, значит скорее всего вы представитель новой элиты, престижное потребление которой заключается в отказе от цифровых услуг в пользу оффлайновых.

Бедные покупают в кредит Айфон, богатые отказываются от смартфонов. Бедные стараются сделать так, чтобы их дети умели пользоваться компьютерами, богатые предлагают своим наследникам частные школы, где обучение строится на общении между людьми. Жизнь, проведенная перед экраном, теперь есть признак вашей неуспешности в жизни.

В этом моменте Боулерз сбивается на довольно спорные утверждения о том, что взросление с гаджетами вредит когнитивному развитию детей и утверждает, что на стороне IT-корпораций в этой дискуссии выступают многочисленные недобросовестные психологи.

Но когда она описывает 68-летнего пенсионера, живущего на прожиточный минимум, главным собеседником в жизни которого стал нарисованный на планшет кот по имени Sox, текст в целом воспринимается как чрезвычайно убедительный. Нарисованного кота для присмотра за пожилыми людьми придумал 31-летний бизнесмен, сотрудники его стартапа работают из Филиппин.

Если о том, что вы умираете, вам сообщит компьютерная программа, это значит, что вы умираете как бедняк в цифровой экономике.

https://www.nytimes.com/2019/03/23/sunday-review/human-contact-luxury-screens.html