Изменилась ли за последние 8 месяцев средняя длина наших постов?
Anonymous Poll
39%
Значительно не изменилась
4%
Посты стали короче
57%
Посты стали длиннее
✍4
❤13🤔1
Откуда - не скажу, а куда - не знаю сам
Мы очень любим исследования и в честь нашего любимого канала и подписчиков решили сделать мини-рисеч! Но со следующей недели уже вернемся к нашему привычному формату
Мы давно задавались вопросом, какие по размеру посты лучше писать -- более короткие или лонгриды (даже советовались с друзьями)
А сейчас у нас накопились данные, чтобы проверить, стоит ли писать "многабукав":
Тут мы можем столкнуться с так называемыми ложными корреляциями (spurious correlations) -- ложными или случайными взаимосвязями между двумя переменными, которые не обусловлены причинно-следственной связью, а возникает из-за третьего фактора (общей причины), совпадения или ошибки в данных. Есть много смешных примеров ложных корреляций -- подзалипнуть можно на сайте Tyler Vigen
Если мы представим, что длина поста - это тритмент, и нарисуем исследуемую ситуацию как направленный ациклический граф (directed acyclical graph - DAG), то между переменной интереса и ауткамом будут следующие пути (рисунок
Тогда согласно backdoor criterion / adjustment citerion, для идентификации необходимо проконтролировать на время (возраст поста) и/или число подписчиков. На рисунке регрессия с контролем на время (возраст поста). Позже мы еще вернемся к теме идентификации эффектов, а пока рекомендуем посмотреть посты -- 1, 2, 3
Это рабочая версия: предложить свой DAG вы можете в комментариях
Главная мораль, которую мы хотели подсветить -- при контроле на альтернативный канал влияния через время / число подписчиков (они очень коррелированы), связь числа реакций и длины текста становится менее явная. Мы не будем интерпретировать полученную регрессию как эффект воздействия, потому что у такой оценки есть множество уязвимостей. А еще наша переменная интереса не бинарная -- как строить оценки в случае непрерывных переменных воздействия мы расскажем в ближайших постах. Но при этом нам хочется верить, что наблюдаемая связь может быть результатом того, что мы стали лучше писать (очень надеемся) или что вам и правда нравятся более длинные посты
Второй вопрос, который нас волновал - это рубрики. 8 месяцев назад мы придумали 6 рубрик, сейчас их уже 11!
Мы построили красивый bump chart (рисунок
Если вы бы хотели увидеть какие-то новые рубрики в канале или опеределенный контент -- переходите в комментарии и оставайтесь на связи!
#канал_влияет
#канал_разгоняет
@causal_channel
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤27 6🔥4 2
Метод разности разностей (Difference-in-Differences, DiD) давно стал классикой причинного анализа. Он позволяет оценить воздействие политики или реформы, сравнивая изменения в группе, подвергшейся воздействию, и в контрольной группе — до и после. Но DiD опирается на жёсткое допущение: если воздействия нет, то тренды у групп должны быть параллельны
А в реальности тренды часто различаются — между регионами, группами, слоями населения. Что делать, если параллельные тренды — слишком сильное или неправдоподобное предположение? Здесь на помощь приходит дизайн тройных разностей (Triple Differences, DDD)
DDD применяется, когда воздействие наступает только при одновременном выполнении двух условий:
Остальные — не имеющие права на воздействие (ineligible)
DDD — это буквально разность разностей разности:
Марсело Ортис-Вильявисенсио и Педро Сант’Анна (Ortiz-Villavicencio, Sant’Anna, 2025) показывают, что представление DDD как разности двух DiD и использование регрессий с тройными фиксированными эффектами (3WFE) могут давать сильно смещённые оценки, особенно если:
Причина: эти методы некорректно строят контрольную группу и не учитывают ковариатное распределение среди реально подвергшихся воздействию наблюдений
Они разрабатывают строго обоснованные и устойчивые оценки:
Симуляции показывают, что стандартные подходы дают систематическое смещение, а новые методы — точные и эффективные, даже в сложных сценариях
Пока нет библиотеки, которая реплицировала бы подход (Ortiz-Villavicencio, Sant’Anna, 2025), но авторы обещают нас вскоре ей порадовать — будем ждать!
#канал_обозревает
#канал_рекомендует
@causal_channel
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14❤10🤯5🔥3 3🙈2🤡1
Машинное обучение постепенно входит в эмпирическую практику экономистов — от отбора переменных до оценки индивидуальных эффектов воздействия. В академической экономике это движение встречает заметное сопротивление. По мнению Беатрис Гитнер (University College Dublin), источники этого недоверия кроются в фундаментальных интеллектуальных барьерах:
В этом посте, основанном на публикации в блоге Беатрис Гитнер, мы разберём наиболее популярные мифы об ML в экономике, предложим контраргументы и в финале расскажем о свежей важной обзорной работе в сфере ML и causal inference
Современный причинный вывод активно использует ML как инструмент оценки вспомогательных (nuisance) функций (условных ожиданий, вероятностей назначения, и т.п.) в рамках строго идентифицированных моделей
Эти подходы позволяют совмещать гибкость ML с требованиями строгой причинной идентификации
Многие считают, что ML-модели сложно интерпретировать, а значит они бесполезны для научного исследования. Но интерпретируемость ≠ линейность. Современные инструменты позволяют:
Интерпретируемость в ML — это вопрос правильно выбранного инструмента и научной задачи
Ранние версии ML действительно не обеспечивали достоверного статистического вывода (inference): стандартные ошибки, доверительные интервалы, p-значения были недоступны. Но в последние годы это изменилось. ML в каузальном анализе сопровождается:
Результат — ML-подходы, совместимые с классической инференцией и теорией оценивания
ML предоставляет именно те инструменты, которых не хватает классической эконометрике, например:
То есть ML не мешает, а расширяет возможности вывода для политики
Если вы хотите разобраться, как применять ML в причинной эконометрике, начните со свежего июньского обзора (Ahrens et al., 2025), среди авторов которого Виктор Черножуков и Кристиан Хансен
Если же вы хотите не только понять, но и научиться применять эти методы на практике, начните с сайта авторов обзора dmlguide.github.io, проектов Causal ML Book от Виктора Черножукова с соавторами и Dive into Causal Machine Learning от команды, которая перерабатывает учебные материалы ведущих ученых на разные языки программирования, а также учебных материалов Мадины Курмангалиевой
#канал_обозревает
#канал_рекомендует
@causal_channel
Please open Telegram to view this post
VIEW IN TELEGRAM
❤15👍9🔥7 3⚡1
Также наше внимание привлекла отличная рекомендация доказательного ⎵ пробела
Обратите внимание, если вы давно хотели начать свое приключение в анализ данных с использованием ИИ⤵️
Обратите внимание, если вы давно хотели начать свое приключение в анализ данных с использованием ИИ
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7
Forwarded from доказательный ⎵ пробел
Профессор ЦЕУ Габор Бекеш продолжает радовать нас открытыми курсами в области анализа данных (об одном из них мы писали ранее). Совсем недавно в свет вышел Курс «Анализ данных с использованием ИИ» (Doing Data Analysis with AI) , который предназначен для студентов с базовыми знаниями в области анализа данных, эконометрики и количественных методов. Курс учит применять ИИ для повышения продуктивности в анализе данных. Основное внимание уделяется использованию крупных языковых моделей (LLMs), таких как ChatGPT, Claude.ai и других. Есть много практических кейсов: например, здесь Бекеш подробно описывает как генерировать графики распределения доходов в привязке к уровню образования и гендеру, приводя примеры промтов и результатов выдачи ChatGPT и Claude.ai. Если еще не используете ИИ в дата-анализе и исследованиях, курс - хорош для погружения 🧠
@evidencespace
@evidencespace
Please open Telegram to view this post
VIEW IN TELEGRAM
❤17👍4⚡1
Многие из вас в курсе, что в русском языке есть отдельные слова для обозначения синего и голубого цветов, а вот, например, в английском преимущественно используется blue (со всеми оговорками о возможности описать цвет как «светло-синий» и др.). Но как так произошло? А еще почему красный, жёлтый или зелёный появляются в разных языках в определённой последовательности? Эти вопросы давно интересуют лингвистов, антропологов и когнитивных учёных. Давайте разберемся!
Хотя есть разные теории эволюции языков, давайте обратимся к интересной теории, которую предложила Нога Заславски с коллегами (2022). Нам, как экономистам, эта теория близка, потому что в ней напрямую используется определение эффективности
Представьте, что язык – это канал передачи информации между людьми. Он должен передавать достаточно точную информацию, но при этом быть достаточно простым, чтобы мозг и память человека справлялись с его обработкой
Эффективность языка – это компромисс между точностью и сложностью. То есть реализуется принцип информационного бутылочного горлышка: язык должен передать максимум полезной информации о смысле (например, о цвете), используя минимум "ресурсов" - то есть ограниченное количество слов
В результате сравнения множества реальных языков оказалось, что они находятся близко к теоретически оптимальной границе – значит, они эффективны
Проиллюстрировать теорию авторам помог редкий случай – изменения в системе наименования цветов в языке Нафаанра, распространённого среди небольшого народа в Гане и Кот-д’Ивуаре. В отличие от большинства лингвистических данных, которые представляют собой «моментальные снимки», здесь исследователи смогли сравнить две временные точки с разницей в 41 год: данные, собранные в 1978 году, с новыми полевыми материалами 2019 года
За 40 лет в языке Нафаанра произошли значимые изменения: появились новые слова и категории для цветов (см. вторую картинку). Но вот что поразительно: несмотря на эти изменения, система осталась эффективной с точки зрения информационной теории, предложенной (Zaslavsky et al., 2022). Другими словами, язык «перестроился», но не потерял эффективности. Это можно сравнить с тем, как компания меняет свою структуру или линейку продуктов, не теряя в прибыльности. Так и язык Нафаанра адаптировался к новым условиям, сохранив способность точно и просто описывать цвета
Помимо работы с цветообозначениями, есть и другие исследования, показывающие роль эффективности в языковых системах:
На прошлой неделе мы обсуждали ИИ, так вот современные языковые модели, включая ИИ-агентов, всё чаще обучаются с учётом информационных ограничений, схожих с теми, что действуют на естественные языки: нужно передавать как можно больше смысла, используя ограниченные ресурсы – будь то количество токенов, параметры сети или время пользователя. Даже простые искусственные агенты, решающие задачу различения цветов, развивают сигнальные системы, близкие по структуре к человеческому языку (Chaabouni et al., 2021)
Это не кажется случайностью: и природа, и техника приходят к похожим компромиссам между сложностью и точностью
#канал_обозревает
@causal_channel
Please open Telegram to view this post
VIEW IN TELEGRAM
❤19👍6🔥6⚡1
Недавно мы обещали рассказать вам, как оценивать эффекты, если воздействие непрерывное -- пришло время этой темы!
Обычно для оценки влияния политик или другого воздействия используется метод разность разностей (Difference-in-Differences, DiD), но он работает хорошо, когда можно разделить наблюдаемые единицы на две группы: тех, кто подвергся воздействию, и тех, кто нет
В реальности же воздействие часто имеет не бинарную, а непрерывную природу — то есть разную интенсивность (dose):
Во всех этих случаях вопрос звучит не "было ли воздействие?", а "насколько интенсивным оно было?"
Авторы переосмысливают классический DiD и показывают, что при непрерывном воздействии привычные методы могут давать некорректные оценки
Во многих прикладных работах исследователи используют стандартную модель с фиксированными эффектами (TWFE) и включают переменную интенсивности воздействия, умноженную на бинарную переменную пост-периода. Но такая оценка:
Авторы показывают, что даже в простой ситуации 2×2 DiD (две группы, два периода), коэффициент TWFE не имеет корректной причинной интерпретации, если интенсивность воздействия варьируется
Авторы вводят два типа причинных эффектов:
→ Позволяет идентифицировать уровневый эффект при заданной интенсивности
→ Необходимо для корректной оценки причинного отклика
Авторы статьи разработали R-пакет
contdid
. Это пока альфа-версия, но она уже поддерживает непрерывное воздействие, ступенчатое воздействие (staggered adoption), агрегации по интенсивности и времени 🔗 Документация пакета: Github и RD Packages
Заинтересованным в теме предлагаем также заглянуть в препринт (Zhang, 2025), где автор пытается решить похожую задачу с помощью double/debiased machine learning
#канал_обозревает
#канал_рекомендует
@causal_channel
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥21💘6 6👍3❤2🤔2 2⚡1😁1
Обычно мы пишем посты вдвоем, но сегодня дебют нашей новой рубрики #канал_объединяет. Праздничный пост в ней нам помог подготовить наш замечательный коллега — обладатель множества регалий и ученый, который исследует нас, экономистов (социолог экономической науки), Александр Мальцев, д.э.н., доцент, заведующий кафедрой, заметитель декана ЭФ МГУ и просто отличный человек
А повод для поста праздничный и гордый — на экономическом факультете МГУ начинается серия вручений дипломов бакалаврам. Позади бессонные ночи, экзамены, дипломы, а впереди самый важный вопрос: а кем мы стали?
Ответ не так очевиден, как может показаться. В XX веке экономистов сравнивали с дантистами (по версии Джона Кейнса — те, кто делает полезную, но рутинную работу, не мнящих себя надмирными гениями), с инженерами (Элвин Рот), с философами, занимающимися прикладными вопросами (Грегори Мэнкью), с хирургами (Пол Ромер), и даже с сантехниками (водопроводчиками?) — так назвала экономистов Эстер Дюфло в своей знаменитой лекции (Duflo, 2017)
По мнению Дюфло, хороший экономист — это не cтолько теоретик, сколько практик, который «чинит» конкретные проблемы: разрабатывает налоговые реформы, проектирует образовательные программы, «ремонтирует» институциональные механизмы
Но с этим не согласна Дейдра Маклоски. Она считает, что экономика — это не про трубы и сантехнику, а про идеи, культуру и смыслы. Настоящий экономист, по её мнению, — это рассказчик о свободе и развитии, который соединяет факты с риторикой и моральной философией (McCloskey, 2021)
Если ориентироваться на Аджемоглу и Робинсона — возможно, мы выпустили архитекторов институтов, которые умеют соединять политическую теорию, экономику, историю и культуру, а также думать в парадигме разных методов. Их работа — это не только анализ, но и построение моделей, способных объяснить, почему одни общества становятся богатыми и процветающими, а другие — пока нет (Acemoglu, Robinson, 2024)
Мы — те, кто умеет читать данные, строить модели, понимать культуру и задавать правильные вопросы. Мы — экономисты нового времени.
А значит — и сантехники, и философы, и инженеры. И даже немного поэты!
С выпуском вас, бакалавры! Добро пожаловать в экономику — самую гуманитарную из точных и самую точную из гуманитарных наук
#канал_объединяет
#канал_обозревает
@causal_channel
Please open Telegram to view this post
VIEW IN TELEGRAM
❤34❤🔥12🔥7👍6🥰2🤩2⚡1👏1
В новой статье Сьюзан Эйти (Stanford University), Радж Четти (Harvard University) и Хидо Имбенс (Stanford University, лауреат Нобелевской премии по экономике 2021 года) предлагают новый метод — Experimental Selection Correction (ESC), или экспериментальная коррекция селекции (Athey et al., 2025)
Представьте, что вы хотите понять, влияет ли обучение в меньшем классе в начальной школе на вероятность того, что ученик в будущем закончит школу:🟤 У вас есть экспериментальные данные из проекта STAR в Теннесси: там детей случайным образом распределяли по классам разного размера, и вы наблюдаете их тесты в младших классах (Krueger, 1999). Но выпуск из школы (главный исход) в этих данных не фиксировался, потому что за детьми не следили до старших классов🟤 Также у вас есть административные данные (наблюдаемые) по школам Нью-Йорка, где видно, в каком классе учился ученик, какие у него были тесты и закончил ли он школу. Но здесь размер класса не случайный: он может зависеть от академических проблем, языка, инвалидности, решений школы🟤 В результате в одних данных есть случайность, но нет нужного исхода; в других — есть всё, но нет надёжной причинной идентификации
Когда главный результат (например, выпуск) недоступен, исследователи часто использовали суррогаты (surrogate index method) — промежуточные переменные, реагирующие на воздействие и предсказывающие интересующий исход (Athey et al., 2019)
Использование суррогатов предполагает, что:
Метод ESC состоит из нескольких этапов:
Обычно эксперименты — штука долгая, дорогая и ресурсоемкая, а использование наблюдаемых данных вместе с такими корректирующими методами, как ESC, позволяет делать надежные каузальные выводы без увеличения издержек
#канал_обозревает
@causal_channel
Please open Telegram to view this post
VIEW IN TELEGRAM
❤18 8🤔4 3⚡1🤯1
📈 Как мощны мои лапищи! Или не мощны?
Сегодня мы хотим начать большой разговор про эффективность и производительность, о которых много думают экономисты. Чаще всего в качестве меры эффективности используется совокупная факторная производительность
↔️ Как эволюционировали подходы к измерению TFP?
1️⃣ Остаточный подход (Residual-based Accounting) [1950–1970-е] (Solow, 1957; Abramovitz, 1956)
🟤 TFP трактуется как остаток в уравнении роста после вычитания вклада капитала и труда
🟤 Подход основан на агрегированной производственной функции, обычно типа Кобба–Дугласа, с предпосылками постоянной отдачи от масштаба, совершенной конкуренции и нейтрального технологического прогресса
🟤 TFP отражает необъяснённый рост и рассматривается как мера всего неизвестного
2️⃣ Уточнённое ростовое счётоводство (Refined Growth Accounting) [1970–1990-е] (Jorgenson, Griliches, 1967; Hulten, Wykoff, 1981; Hulten, 2001)
🟤 Начиная с 1970х исследователи начинают корректировать измерения труда и капитала: учитываются качество рабочей силы, возраст капитала, различия по отраслям и видам активов
🟤 TFP становится более точной метрикой, но всё ещё не объясняет механизмы производительности
3️⃣ Микроэкономическая оценка производственных функций (Micro-level Production Estimation) [1990-х – 2000-е] (Olley, Pakes, 1996; Levinsohn, Petrin, 2003)
🟤 Подход переходит от стран к фирмам
🟤 Используются панели фирм и методы, устраняющие смещения от эндогенного выбора входов (например, объёма труда и капитала)
🟤 TFP начинает рассматриваться как характеристика конкретной фирмы, а не макроагрегат
🟤 Этот этап формируется в рамках empirical IO
4️⃣ Подход неправильного распределения (Misallocation Approach) [2000–2010-е] (Hsieh, Klenow, 2009; Bartelsman et al. 2013)
🟤 Производительность стран объясняется не столько технологиями, сколько неэффективным распределением ресурсов между фирмами
🟤 Различия в TFP интерпретируются как следствие институциональных и рыночных искажений, но без явного учёта специфики институтов
🟤 Эталон эффективности считается универсальным
↔️ Какие ограничения есть в TFP?
Несмотря на прогресс, подход к TFP всё ещё страдает от трёх фундаментальных проблем:
1️⃣ TFP остаётся "чёрным ящиком". Мы знаем, что производительность разная, но не знаем почему. Всё списывается на "технологии", без конкретики и механизмов. Но, например, цифровая инфраструктура, качество менеджмента, инвестиции в R&D и квалификация персонала, напрямую связаны с уровнем TFP (Tian, Liu, 2021)
2️⃣ Предполагается институциональное равенство и совпадение человеческого капитала. Сравниваются страны, будто у них одинаковая система права, налогов, образования, что в реальности не так (Rodrik, 1995; Acemoglu, Robinson, 2012). TFP по умолчанию считает, что единица труда одинакова вне зависимости от навыков и образования. Это серьёзно искажает расчёты (Maudos et al., 1999). Поэтому её еще называют "мерой невежества" (Abramovitz, 1956)
3️⃣ Игнорируется специфика сектора услуг, который уже давно стал основным в развитых экономиках. Традиционные методы плохо справляются с измерением продуктивности в здравоохранении, образовании или госуправлении (Baumol, 1967; Duernecker et al., 2017). Кроме того, игнорирование экологических факторов приводит к систематическому завышению продуктивности: в исследовании по Китаю с 1978 по 2016 годы рост TFP оказался куда скромнее, чем в расчетах с учетом экологического факторв (Li et al., 2019)
Это еще не конец разговора про производительность - в следующем посте мы расскажем про новую парадигму TFP. Заинтриговали? Пристегивайтесь, мы продолжаем наше путешествие по эффективности
#канал_обозревает
@causal_channel
Сегодня мы хотим начать большой разговор про эффективность и производительность, о которых много думают экономисты. Чаще всего в качестве меры эффективности используется совокупная факторная производительность
Совокупная факторная производительность (TFP, Total Factor Productivity) — ключевой индикатор, показывающий, насколько экономика эффективно превращает ресурсы (чаще всего труд и капитал) в выпуск. В классической модели Солоу (Solow, 1957) она считается как остаток: если рост ВВП нельзя объяснить ростом труда и капитала, то всё остальное приписывают TFP
Несмотря на прогресс, подход к TFP всё ещё страдает от трёх фундаментальных проблем:
Это еще не конец разговора про производительность - в следующем посте мы расскажем про новую парадигму TFP. Заинтриговали? Пристегивайтесь, мы продолжаем наше путешествие по эффективности
#канал_обозревает
@causal_channel
Please open Telegram to view this post
VIEW IN TELEGRAM
❤14👍7🔥3 2 2⚡1❤🔥1
Мы хотели бы обратить ваше внимание на две секции, связанные с анализом данных и причинностью (24 июля - save the date) 📅
Раскрывает современные методы медиаторного анализа: как оценивать, через какие механизмы интервенции влияют на исход. Ключевой акцент — на идентификационные допущения и анализ чувствительности
Показывает, как использовать суррогатные переменные и агрегирующие медиаторы для оценки эффектов, когда главные исходы пока не наблюдаемы
Трансляции и записи лекций можно будет посмотреть на YouTube
Методы эмпирического тестирования механизмов эффектов воздействия: как убедиться, что интервенция действует именно через заявленный канал
Дискутант: Ismael Mourifié, Washington University in St. Louis and NBER
Использование спутниковых данных и данных мобильных операторов в качестве исходов для оценки программ в труднодоступных регионах (экология, агросектор и др.)
Дискутант: Seema Jayachandran, Princeton and NBER
Методы оценки причинного эффекта на текстовые переменные, извлечённые с помощью NLP (например, отзывы, протоколы заседаний и др.)
Дискутант: Jesse M. Shapiro, Harvard and NBER
Предлагается метод для объединения краткосрочных экспериментальных и долгосрочных наблюдаемых данных для оценки эффекта во времени
Дискутант: Susan Athey, Stanford and NBER
Новый способ оценки качества инструментов через мета-регрессии, обобщающий информацию из разных исследований
Дискутант: Isaiah Andrews, MIT and NBER
Разработка рецентрированных инструментов для оценки спроса в моделях с дифференцированными продуктами — актуально для IO и маркетинговых исследований
Дискутант: Steven T. Berry, Yale and NBER
#канал_зовёт
@causal_channel
Please open Telegram to view this post
VIEW IN TELEGRAM
❤15🔥6 5⚡1
📦 TFP - больше не черный ящик!
⚙️ В сегодняшнем посте мы продолжаем разговор о том, как эмпирически оценить эффективность производства [1-я часть -- тут]
Долгие годы совокупная факторная производительность (Total Factor Productivity, TFP) считалась почти мистическим источником экономического роста -- «остатком» после учёта труда и капитала, тем, что объясняет всё, что не объяснено. Но что, если этот остаток -- не шум, а сигнал? Что если TFP -- это зеркало институтов, культуры, структуры экономики?
В новой работе Мисаэль Линарес (University of Georgia–Athens) предлагает именно такую радикальную переоценку: рассматривать TFP как не универсальную, а контекстно-зависимую величину, форму отражения качества институтов в конкретной стране, с учётом их неоднородного влияния (Linarez, 2025)
↔️ Почему традиционный подход устарел?
🟤 Ранее мы писали, почему TFP -- не просто остаток, а условный результат: классические модели предполагают, что все страны схожи по институциональным и структурным характеристикам, но даже при похожем старте траектории развития могут быть диаметрально противоположными
🟤 Межстрановые сравнения по TFP сталкиваются дополнительно с проблемой «универсального эталона»: оценка «неэффективности» или «неправильного» распределения ресурсов часто игнорирует исторические, культурные и структурные особенности
↔️ Что новенького?
Мисаэль Линарес предлагает новую методологию анализа TFP как функцию институтов, структуры и культуры. Для этого он использует инструменты причинного машинного обучения (causal machine learning):
🟤 Causal Forest (Wager, Athey, 2018) позволяет измерить, как эффект институтов на производительность различается между странами
🟤 Double Machine Learning (Chernozhukov et al., 2018) позволяет аккуратно оценивать причинные эффекты в ситуациях с большим числом переменных, минимизируя смещения
🟤 LASSO-регрессия -- отбирает наиболее релевантные объясняющие факторы среди множества
↔️ Что показал анализ?
🟤 Улучшения в институциональном качестве действительно связаны с ростом производительности, но эффект зависит от уровня дохода и начального институционального состояния
🟤 В бедных странах институциональные реформы дают максимальный эффект с минимальными издержками
🟤 В странах со средним уровнем институтов реформы могут приводить к краткосрочным потерям
🟤 В развитых странах эффект проявляется медленно и неоднозначно -- важны политические издержки и постепенность
Иначе говоря, реформы -- не универсальный рецепт. Их результат зависит от контекста и институциональной среды
↔️ Почему это важно для политики?
Подход (Linarez, 2025) разрушает миф о существовании универсальных "лучших практик". Он подтверждает старую, но часто игнорируемую истину: реформы работают по-разному в разных контекстах (Rodrik, 2008)
🟤 В бедных странах нужны базовые и недорогие институциональные улучшения
🟤 В развивающихся -- комбинированная стратегия: и институции, и структурная трансформация
🟤 В развитых -- постепенность, стратегическая последовательность, и понимание политических издержек
#канал_обозревает
@causal_channel
Долгие годы совокупная факторная производительность (Total Factor Productivity, TFP) считалась почти мистическим источником экономического роста -- «остатком» после учёта труда и капитала, тем, что объясняет всё, что не объяснено. Но что, если этот остаток -- не шум, а сигнал? Что если TFP -- это зеркало институтов, культуры, структуры экономики?
В новой работе Мисаэль Линарес (University of Georgia–Athens) предлагает именно такую радикальную переоценку: рассматривать TFP как не универсальную, а контекстно-зависимую величину, форму отражения качества институтов в конкретной стране, с учётом их неоднородного влияния (Linarez, 2025)
Мисаэль Линарес предлагает новую методологию анализа TFP как функцию институтов, структуры и культуры. Для этого он использует инструменты причинного машинного обучения (causal machine learning):
Иначе говоря, реформы -- не универсальный рецепт. Их результат зависит от контекста и институциональной среды
Подход (Linarez, 2025) разрушает миф о существовании универсальных "лучших практик". Он подтверждает старую, но часто игнорируемую истину: реформы работают по-разному в разных контекстах (Rodrik, 2008)
#канал_обозревает
@causal_channel
Please open Telegram to view this post
VIEW IN TELEGRAM
❤18🔥6 4
Мы продолжаем разговаривать про эффективность и сегодня решили поднять вопрос о том, где она рождается
В последние годы внимание к региональной специализации и пространственной концентрации резко выросло и не случайно. В условиях ограниченного роста производительности на макроуровне и растущей дифференциации между регионами, политикам и исследователям всё важнее понимать:
Может ли правильно организованная экономика на местах стать драйвером экономического роста?
После 2010-х годов в России и других странах замедлился рост производительности, особенно вне крупнейших агломераций.
При этом разрыв между регионами по уровню инвестиций, доходов и эффективности предприятий только увеличивался.
Классическая горизонтальная промышленная политика «одинаковых условий для всех» перестала работать. В ответ усилился интерес к идее: а что если разные территории должны делать разные вещи — и делать их лучше всех?
Так в повестке и появилась тема региональной специализации: когда регионы развивают те отрасли, где у них есть преимущества — исторические, ресурсные, кадровые
Одно из ключевых российских исследований по эффективности компаний - работа Каукина и Сафронова (2021). Авторы показали: чем выше плотность предприятий в регионе и отрасли, тем выше TFP компаний. Особенно это проявляется в обрабатывающей промышленности и регионах с научным потенциалом (Kaukin & Safronov, 2021)
Объединение компаний в кластеры, как правило, положительно связано с их эффективностью. В энергетических кластерах Испании компании показывают выше инновационную активность, особенно при наличии сильных сетей и «социального капитала» — доверия и сотрудничества между организациями (Sánchez-García, 2023). А взаимодействие между компаниями усиливает инновации (Sánchez-García, 2023).
При этом, чем больше в регионе R&D-кластеров, тем выше рост производительности (Kosfeld & Mitze, 2023)
Однако это не всегда так: например, в Турции кластер в аэрокосмической отрасли пока не создаёт сравнительных преимуществ, что может быть связано со слабой специализацией (Demirdaş , Marşap, 2023)
А вдруг компании с высоким потенциалом могут сами выбирать развитые кластеры. Это создаёт проблему двусторонней причинно-следственной связи: мы видим рост в плотных регионах с кластерами, но не знаем — кластер вызывает рост или рост вызывает кластеризацию?
В масштабном российском исследовании наши коллеги Белёв, Ветеринаров и Сучкова (2021) использовали propensity score matching, чтобы измерить влияние территорий опережающего развития (ТОР) на общую факторную производительность моногородов. Оказалось, что ТОРы положительно влияют на производительность фирм, что происходит не за счёт появления новых компаний, а за счёт повышения эффективности уже существующих предприятий
В Индии для оценки влияния кластеров на TFP малых предприятий использовали метод double LASSO, который позволил устранить влияние скрытых переменных и самоотбора. Эффект кластеров проявился только после корректировки на самоотбор (Gupta, 2023)
На данных по Великобритании (Gutierrez-Posada et al., 2022) показали, что каждое новое креативное рабочее место генерирует ~1,9 дополнительных рабочих мест. Для оценки причинно-следственных эффектов использовались исторические инструментальные переменные (например, плотность типографий в 1911 году)
🧠 Эффективность компаний - это не только результат внутренних усилий, но и функция плотности, связей и специализации региона. Но для выявления влияния нужно использовать строгие методы
#канал_обозревает
@causal_channel
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🔥4❤3🤔3
Оценка эффектов часто осложняется эндогенностью: объясняющая переменная может зависеть от тех же ненаблюдаемых факторов, что и исход. В результате обычные методы дают смещённые оценки. Инструментальные переменные помогают, но плохо работают при нелинейных моделях, гетерогенных эффектах, структурных ограничениях или сомнительной валидности инструментов
⚙️ В этих случаях помогает метод контрольной функции (Control Function Approach, CFA) — обобщенный подход, устраняющий эндогенность путём явного включения компоненты, вызывающей смещение, в модель исхода (Wooldridge, 2015; Petrin, Train, 2010; Florens et al., 2008)
Метод контрольной функции состоит из двух шагов:
Идея: после включения контрольной функции, зависимость между переменной интереса (D) и ненаблюдаемыми ошибками (ε) устраняется, обеспечивая условную независимость (conditional independence) и состоятельную оценку эффекта D на Y (Blundell, Powell, 2004; Florens et al., 2008)
CFA напоминает модель Хекмана (Heckman selection model) для устранения смещения отбора (Heckman, 1979), однако CFA обобщает эту идею и применим к более широкому классу источников эндогенности
Когда модель исхода линейна, CFA даёт те же оценки, что и двухшаговый метод наименьших квадратов (two-stage least squares, 2SLS). Но CFA обладает рядом преимуществ:
Хотя CFA — мощный инструмент, у него есть ряд ограничений:
ivtools
#канал_обозревает
#канал_рекомендует
@causal_channel
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10❤6🔥4👏1🤩1
Представьте: 1982 год, самая могущественная телекоммуникационная корпорация Америки AT&T контролирует 83% всех телефонов в США, 98% междугородных линий и 90% оборудования. В результате антимонопольного разбирательства компанию разделяют на семь региональных компаний и отдел междугородней связи
💁♂️ Как разделение повлияло на компании?
Этот прецедент породил живой спор: привел ли рост конкуренции на рынках после разделения компании к повышению производительности фирм?
Классические линейные модели в этом случае не помогут:
В результате оказалось, что новые фирмы после разделения AT&T стартовали с более низкой производительности, но благодаря конкуренции и технологическим инновациям достигали более высоких темпов роста (Olley, Pakes, 1996)
Используя данные 39 металлургических заводов (Малеин, Пономарёв, 2019) оценивают эффекты перехода от мартеновских печей к электродуговым и кислородно-конвертерным технологиям. Оказалось, что новые технологии привели к росту совокупной факторной производительности на 24–28%
(De Loecker, 2011) оценил влияние снятия торговых барьеров в бельгийской текстильной промышленности. Использование стандартных методов с инструментальными переменными показывало эффект либерализации в 8%, тогда как переход к контрольным функциями за счет снижения роли смещений скорректировал его до 4%
Позже обнаружилось, что если в данных много компаний с нулевыми инвестициями, метод Olley-Pakes теряет силу. Тогда (Levinsohn, Petrin, 2003) предложили использовать как прокси не инвестиции, а материалы для производства. Это позволило корректно оценивать производственные функции даже на коротких и «шумных» панелях
#канал_обозревает
#канал_рекомендует
@causal_channel
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥15❤7 4