Нам было дано редкое, интерпретируемое для человека окно (CoT) в разум наших самых продвинутых творений, но нет гарантии, что это окно останется открытым.
https://t.iss.one/gonzo_ML_podcasts/524
https://t.iss.one/gonzo_ML_podcasts/524
Telegram
gonzo_ML_podcasts
Chain of Thought Monitorability: A New and Fragile Opportunity for Al Safety
Authors: Tomek Korbak, Mikita Balesni, Elizabeth Barnes, Joe Benton, Mark Chen, Allan Dafoe, Scott Emmons, David Farhi, Dan Hendrycks, Evan Hubinger, Erik Jenner, Victoria Krakovna…
Authors: Tomek Korbak, Mikita Balesni, Elizabeth Barnes, Joe Benton, Mark Chen, Allan Dafoe, Scott Emmons, David Farhi, Dan Hendrycks, Evan Hubinger, Erik Jenner, Victoria Krakovna…
👍16❤3
Одна из статей, получивших Outstanding Paper Award на недавнем ICML 2025.
Адаптивный инференс для маскированных диффузионных моделей (MDM) сильно повышает качество решения задач планирования (например, судоку), обходя более тяжёлые авторегрессионные варианты:
https://t.iss.one/gonzo_ML_podcasts/528
Есть надежда, что мы увидим больше хороших текстовых диффузионок в ближайшее время!
Адаптивный инференс для маскированных диффузионных моделей (MDM) сильно повышает качество решения задач планирования (например, судоку), обходя более тяжёлые авторегрессионные варианты:
https://t.iss.one/gonzo_ML_podcasts/528
Есть надежда, что мы увидим больше хороших текстовых диффузионок в ближайшее время!
Telegram
gonzo_ML_podcasts
Train for the Worst, Plan for the Best: Understanding Token Ordering in Masked Diffusions
Jaeyeon Kim, Kulin Shah, Vasilis Kontonis, Sham Kakade, Sitan Chen
Статья: https://arxiv.org/abs/2502.06768
Англ пост: https://arxiviq.substack.com/p/icml-2025-outstanding…
Jaeyeon Kim, Kulin Shah, Vasilis Kontonis, Sham Kakade, Sitan Chen
Статья: https://arxiv.org/abs/2502.06768
Англ пост: https://arxiviq.substack.com/p/icml-2025-outstanding…
🔥25👍1
И ещё золотая медаль на IMO, теперь от Gemini и вроде как официально. Тоже 35 очков.
https://deepmind.google/discover/blog/advanced-version-of-gemini-with-deep-think-officially-achieves-gold-medal-standard-at-the-international-mathematical-olympiad/
https://deepmind.google/discover/blog/advanced-version-of-gemini-with-deep-think-officially-achieves-gold-medal-standard-at-the-international-mathematical-olympiad/
Google DeepMind
Advanced version of Gemini with Deep Think officially achieves gold-medal standard at the International Mathematical Olympiad
Our advanced model officially achieved a gold-medal level performance on problems from the International Mathematical Olympiad (IMO), the world’s most prestigious competition for young...
😁26👍9🤡5
Ещё одна статья с Outstanding Paper Award на ICML 2025. Критика next-token prediction, продвижение мульти-токенных методов и диффузии, а также неожиданно эффективный метод создания разнообразия на выходе модели, seed-conditioning, добавляющий рандомный бессмысленный текстовый шум на вход (seed-строка) и превосходящий температурный сэмплинг.
https://t.iss.one/gonzo_ML_podcasts/539
https://t.iss.one/gonzo_ML_podcasts/539
Telegram
gonzo_ML_podcasts
Roll the dice & look before you leap: Going beyond the creative limits of next-token prediction
Authors: Vaishnavh Nagarajan, Chen Henry Wu, Charles Ding, Aditi Raghunathan
Paper: https://openreview.net/forum?id=Hi0SyHMmkd
Code: https://github.com/chenwu98/algorithmic…
Authors: Vaishnavh Nagarajan, Chen Henry Wu, Charles Ding, Aditi Raghunathan
Paper: https://openreview.net/forum?id=Hi0SyHMmkd
Code: https://github.com/chenwu98/algorithmic…
1🔥13🤯2🗿1
Продолжаем публикацию обзоров статей, взявших Outstanding Paper Award на ICML 2025.
Работа "The Value of Prediction in Identifying the Worst-Off" предлагает важный контр-аргумент подходу «точность превыше всего», который преобладает в прикладном машинном обучении. Она показывает, что во многих реальных сценариях с ограниченными ресурсами инвестиции в операционные возможности для реализации прогнозов приносят больше общественной пользы, чем незначительные улучшения в точности моделей. Коэффициент PAR даёт политикам принципиальный и основанный на данных инструмент, позволяющий выйти за рамки изолированных технических метрик и принимать целостные, учитывающие затраты решения о построении систем. Исследование знаменует собой взросление направления «ИИ для общественного блага», смещая фокус с вопроса «насколько точна модель?» на вопрос «каков самый эффективный способ повысить благосостояние и какое место в этом занимают прогнозы?».
https://t.iss.one/gonzo_ML_podcasts/551
Работа "The Value of Prediction in Identifying the Worst-Off" предлагает важный контр-аргумент подходу «точность превыше всего», который преобладает в прикладном машинном обучении. Она показывает, что во многих реальных сценариях с ограниченными ресурсами инвестиции в операционные возможности для реализации прогнозов приносят больше общественной пользы, чем незначительные улучшения в точности моделей. Коэффициент PAR даёт политикам принципиальный и основанный на данных инструмент, позволяющий выйти за рамки изолированных технических метрик и принимать целостные, учитывающие затраты решения о построении систем. Исследование знаменует собой взросление направления «ИИ для общественного блага», смещая фокус с вопроса «насколько точна модель?» на вопрос «каков самый эффективный способ повысить благосостояние и какое место в этом занимают прогнозы?».
https://t.iss.one/gonzo_ML_podcasts/551
Telegram
gonzo_ML_podcasts
The Value of Prediction in Identifying the Worst-Off
Authors: Unai Fischer-Abaigar, Christoph Kern, Juan Carlos Perdomo
Paper: https://openreview.net/forum?id=26JsumCG0z
Code: В работе используется open-source библиотека CatBoost (https://catboost.ai).
Data:…
Authors: Unai Fischer-Abaigar, Christoph Kern, Juan Carlos Perdomo
Paper: https://openreview.net/forum?id=26JsumCG0z
Code: В работе используется open-source библиотека CatBoost (https://catboost.ai).
Data:…
👍15😐6👏1
Ещё статья с Outstanding Paper Award на ICML 2025.
CollabLLM обучается на многоходовых роллаутах диалогов на базе симуляции пользователя и в итоге улучшает пользовательский опыт:
https://t.iss.one/gonzo_ML_podcasts/555
CollabLLM обучается на многоходовых роллаутах диалогов на базе симуляции пользователя и в итоге улучшает пользовательский опыт:
https://t.iss.one/gonzo_ML_podcasts/555
Telegram
gonzo_ML_podcasts
CollabLLM: From Passive Responders to Active Collaborators
Authors: Shirley Wu, Michel Galley, Baolin Peng, Hao Cheng, Gavin Li, Yao Dou, Weixin Cai, James Zou, Jure Leskovec, Jianfeng Gao
Paper: https://arxiv.org/abs/2502.00640
Code: https://aka.ms/CollabLLM…
Authors: Shirley Wu, Michel Galley, Baolin Peng, Hao Cheng, Gavin Li, Yao Dou, Weixin Cai, James Zou, Jure Leskovec, Jianfeng Gao
Paper: https://arxiv.org/abs/2502.00640
Code: https://aka.ms/CollabLLM…
👍8❤1
Любителям Байесовских методов и количественной оценки неопределённости, очередная Outstanding Paper Award на ICML 2025:
https://t.iss.one/gonzo_ML_podcasts/568
https://t.iss.one/gonzo_ML_podcasts/568
Telegram
gonzo_ML_podcasts
Conformal Prediction as Bayesian Quadrature
Jake C. Snell, Thomas L. Griffiths
Статья: https://arxiv.org/abs/2502.13228, https://openreview.net/forum?id=PNmkjIzHB7
Код: https://github.com/jakesnell/conformal-as-bayes-quad
Англ.обзор: https://arxiviq.substack.com/p/icml…
Jake C. Snell, Thomas L. Griffiths
Статья: https://arxiv.org/abs/2502.13228, https://openreview.net/forum?id=PNmkjIzHB7
Код: https://github.com/jakesnell/conformal-as-bayes-quad
Англ.обзор: https://arxiviq.substack.com/p/icml…
❤7👍3🔥3
И последняя из ICML 2025 Outstanding Paper Award (там ещё есть Outstanding Position Paper и Test of time).
Здесь про адаптацию Score Matching на пропущенные данные (среди прочего показывают, что заполнение нулём вообще не торт)
https://t.iss.one/gonzo_ML_podcasts/577
В теме Score Matching я не разбираюсь, так что если есть эксперты, интересно послушать ваше мнение.
Здесь про адаптацию Score Matching на пропущенные данные (среди прочего показывают, что заполнение нулём вообще не торт)
https://t.iss.one/gonzo_ML_podcasts/577
В теме Score Matching я не разбираюсь, так что если есть эксперты, интересно послушать ваше мнение.
Telegram
gonzo_ML_podcasts
Score Matching with Missing Data
Josh Givens, Song Liu, Henry W J Reeve
Статья: https://arxiv.org/abs/2506.00557, https://openreview.net/forum?id=mBstuGUaXo
Код: https://github.com/joshgivens/ScoreMatchingwithMissingData
Англ обзор: https://arxiviq.substack.com/p/score…
Josh Givens, Song Liu, Henry W J Reeve
Статья: https://arxiv.org/abs/2506.00557, https://openreview.net/forum?id=mBstuGUaXo
Код: https://github.com/joshgivens/ScoreMatchingwithMissingData
Англ обзор: https://arxiviq.substack.com/p/score…
🔥6👍2
Почитать на выходные (но вероятно paywall).
Тема очередного номера The Economist — The economics of superintelligence
1. https://www.economist.com/leaders/2025/07/24/the-economics-of-superintelligence [краткий бриф следующих двух статей]
2. https://www.economist.com/briefing/2025/07/24/ai-labs-all-or-nothing-race-leaves-no-time-to-fuss-about-safety [про AI safety]
3. https://www.economist.com/briefing/2025/07/24/what-if-ai-made-the-worlds-economic-growth-explode [про влияние на экономику]
4. https://www.economist.com/business/2025/07/23/the-dark-horse-of-ai-labs [про Anthropic]
Тема очередного номера The Economist — The economics of superintelligence
1. https://www.economist.com/leaders/2025/07/24/the-economics-of-superintelligence [краткий бриф следующих двух статей]
2. https://www.economist.com/briefing/2025/07/24/ai-labs-all-or-nothing-race-leaves-no-time-to-fuss-about-safety [про AI safety]
3. https://www.economist.com/briefing/2025/07/24/what-if-ai-made-the-worlds-economic-growth-explode [про влияние на экономику]
4. https://www.economist.com/business/2025/07/23/the-dark-horse-of-ai-labs [про Anthropic]
The Economist
The economics of superintelligence
If Silicon Valley’s predictions are even close to being accurate, expect unprecedented upheaval
🦄10🤡1🤨1
Вдогонку к экономике сверхинтеллекта из предыдущего поста (кстати, я его чуть дополнил), статья с Outstanding Position Paper Award ICML 2025.
Между прочим, один из авторов — Бодхисаттва!
Между прочим, один из авторов — Бодхисаттва!
Telegram
gonzo-обзоры ML статей
Почитать на выходные (но вероятно paywall).
Тема очередного номера The Economist — The economics of superintelligence
1. https://www.economist.com/leaders/2025/07/24/the-economics-of-superintelligence [краткий бриф следующих двух статей]
2. https://ww…
Тема очередного номера The Economist — The economics of superintelligence
1. https://www.economist.com/leaders/2025/07/24/the-economics-of-superintelligence [краткий бриф следующих двух статей]
2. https://ww…
🙏4❤2🔥2
Forwarded from gonzo_ML_podcasts
Position: AI Safety Should Prioritize the Future of Work
Sanchaita Hazra, Bodhisattwa Prasad Majumder, Tuhin Chakrabarty
Статья: https://arxiv.org/abs/2504.13959, https://openreview.net/forum?id=CA9NxmmUG5
Англ обзор: https://arxiviq.substack.com/p/icml-2025-position-ai-safety-should
# TL;DR
О чём работа?
Авторы утверждают, что текущая парадигма безопасности ИИ опасно узка: она фокусируется на технических и долгосрочных экзистенциальных рисках, упуская из виду немедленные системные проблемы, которые ИИ создаёт для будущего рынка труда. В этой статье-позиции они используют устоявшиеся экономические теории — такие как рентоориентированное поведение (когда фирмы стремятся к богатству через манипулирование политикой, а не созданием ценности), межвременное потребление и институциональная экономика — чтобы описать общественные риски неконтролируемого внедрения ИИ. Среди этих рисков: дестабилизация экономики из-за нестабильности на рынке труда, усугубление неравенства в пользу капитала, а не труда, создание «алгоритмической монокультуры», мешающей обучению, и обесценивание творческого труда из-за массового нарушения авторских прав.
Почему это важно?
Самый важный вклад работы — в переосмыслении самого определения экзистенциального риска. Авторы приводят веские доводы в пользу того, что нам следует беспокоиться о «накопительных x-рисках» — своего рода «смерти от тысячи порезов» в результате системной потери рабочих мест, упадка институтов и колониализма данных — не меньше, чем о единичном «решающем» событии, вроде появления неконтролируемого сверхинтеллекта. Это смещает фокус «безопасности» с гипотетического будущего на насущные проблемы настоящего. Предлагая систему управления, ориентированную на работников, статья строит важнейший мост между техническими исследованиями ИИ и осязаемой, ориентированной на человека политикой, необходимой для направления развития ИИ в сторону всеобщего процветания, а не системных потрясений.
# Мясо 🍖
Область безопасности ИИ в основном была сосредоточена на опасениях, связанных с решающими, долгосрочными экзистенциальными рисками — сценариями с участием неконтролируемого сверхинтеллекта, биотерроризма или крупномасштабных манипуляций. Хотя эти опасения обоснованы, недавняя статья-позиция утверждает, что такой узкий фокус заставляет нас не видеть леса за деревьями. Авторы приводят веские аргументы в пользу того, что самый непосредственный и серьёзный риск исходит от системного подрыва человеческой субъектности и экономического достоинства работников, и что безопасность ИИ как дисциплина должна сделать своим приоритетом будущее рынка труда.
💡 Новый фреймворк для рисков, вызванных ИИ
Вместо нового алгоритма, эта статья предлагает новую оптику для взгляда на вред от ИИ. Методология авторов заключается в применении устоявшихся экономических и социальных теорий к текущему ландшафту ИИ для выявления ряда системных рисков, которые часто рассматриваются как вторичные внешние эффекты, а не как ключевые проблемы безопасности.
Sanchaita Hazra, Bodhisattwa Prasad Majumder, Tuhin Chakrabarty
Статья: https://arxiv.org/abs/2504.13959, https://openreview.net/forum?id=CA9NxmmUG5
Англ обзор: https://arxiviq.substack.com/p/icml-2025-position-ai-safety-should
# TL;DR
О чём работа?
Авторы утверждают, что текущая парадигма безопасности ИИ опасно узка: она фокусируется на технических и долгосрочных экзистенциальных рисках, упуская из виду немедленные системные проблемы, которые ИИ создаёт для будущего рынка труда. В этой статье-позиции они используют устоявшиеся экономические теории — такие как рентоориентированное поведение (когда фирмы стремятся к богатству через манипулирование политикой, а не созданием ценности), межвременное потребление и институциональная экономика — чтобы описать общественные риски неконтролируемого внедрения ИИ. Среди этих рисков: дестабилизация экономики из-за нестабильности на рынке труда, усугубление неравенства в пользу капитала, а не труда, создание «алгоритмической монокультуры», мешающей обучению, и обесценивание творческого труда из-за массового нарушения авторских прав.
Почему это важно?
Самый важный вклад работы — в переосмыслении самого определения экзистенциального риска. Авторы приводят веские доводы в пользу того, что нам следует беспокоиться о «накопительных x-рисках» — своего рода «смерти от тысячи порезов» в результате системной потери рабочих мест, упадка институтов и колониализма данных — не меньше, чем о единичном «решающем» событии, вроде появления неконтролируемого сверхинтеллекта. Это смещает фокус «безопасности» с гипотетического будущего на насущные проблемы настоящего. Предлагая систему управления, ориентированную на работников, статья строит важнейший мост между техническими исследованиями ИИ и осязаемой, ориентированной на человека политикой, необходимой для направления развития ИИ в сторону всеобщего процветания, а не системных потрясений.
# Мясо 🍖
Область безопасности ИИ в основном была сосредоточена на опасениях, связанных с решающими, долгосрочными экзистенциальными рисками — сценариями с участием неконтролируемого сверхинтеллекта, биотерроризма или крупномасштабных манипуляций. Хотя эти опасения обоснованы, недавняя статья-позиция утверждает, что такой узкий фокус заставляет нас не видеть леса за деревьями. Авторы приводят веские аргументы в пользу того, что самый непосредственный и серьёзный риск исходит от системного подрыва человеческой субъектности и экономического достоинства работников, и что безопасность ИИ как дисциплина должна сделать своим приоритетом будущее рынка труда.
💡 Новый фреймворк для рисков, вызванных ИИ
Вместо нового алгоритма, эта статья предлагает новую оптику для взгляда на вред от ИИ. Методология авторов заключается в применении устоявшихся экономических и социальных теорий к текущему ландшафту ИИ для выявления ряда системных рисков, которые часто рассматриваются как вторичные внешние эффекты, а не как ключевые проблемы безопасности.
❤7👍4🔥2🤮1
Forwarded from gonzo_ML_podcasts
В статье изложены шесть центральных утверждений (P1-P6), которые рисуют тревожную картину текущей траектории развития ИИ:
1. Экономическая дестабилизация (P1): Конкурентная «гонка вооружений» среди разработчиков ИИ приводит к поспешным внедрениям, накоплению «технического долга» и созданию массовой нестабильности занятости, что нарушает традиционные модели экономической стабильности.
2. Ускорение разрыва в навыках (P2): Автоматизация на основе ИИ непропорционально выгодна высококвалифицированным работникам и владельцам капитала, вытесняя низкоквалифицированный труд и увеличивая экономический разрыв без адекватной адаптации рабочей силы.
3. Экстрактивная экономика (P3): Доминирующие ИИ-компании рассматриваются как «экстрактивные (извлекающие) институты» — системы, предназначенные для перераспределения ресурсов от большинства к влиятельному меньшинству. Они концентрируют богатство и власть, ослабляя переговорную силу работников и препятствуя всеобщему процветанию, которое лежит в основе стабильных обществ.
4. Неравномерная глобальная демократизация (P4): Преимущества и контроль над ИИ сконцентрированы в странах с высоким доходом, что способствует форме «колониализма данных», при которой страны с низким доходом становятся зависимыми потребителями, а не со-создателями технологий.
5. Ухудшение обучения и креативности (P5): Чрезмерная зависимость от генеративного ИИ в образовании и исследованиях рискует создать «алгоритмическую монокультуру», подрывая навыки критического мышления и гомогенизируя человеческое самовыражение.
6. Обесценивание творческого труда (P6): Практика обучения моделей на огромных массивах данных, защищённых авторским правом, без справедливой компенсации определяется как прямая угроза средствам к существованию художников, писателей и других творческих работников.
Этот фреймворк особенно силён тем, что он переводит дискуссию с абстрактных, гипотетических сценариев будущего на конкретные, уже существующие проблемы, основанные на хорошо изученных экономических принципах, таких как рентоориентированное поведение и проблемы коллективного действия.
👷 Путь вперёд: ориентация на работников
После диагностики проблем авторы предлагают комплексную, ориентированную на работников систему управления ИИ, основанную на шести ключевых рекомендациях (R1-R6):
* Поддержка работников и политика: Правительства должны создать надёжные системы социальной защиты и программы переподготовки для поддержки работников, вытесненных ИИ (R1).
* Содействие открытости и конкуренции: Доминированию бигтеха следует противодействовать, продвигая ИИ с открытым исходным кодом, включая открытые данные и открытые веса, чтобы способствовать созданию более конкурентной и справедливой экосистемы (R2).
* Ответственность через технические средства защиты: Обязательное использование водяных знаков для всего контента, созданного генеративным ИИ, и финансирование исследований надёжных инструментов для его обнаружения имеют решающее значение для обеспечения подотчётности и борьбы с дезинформацией (R3, R4).
* Справедливая компенсация за данные: Авторы решительно выступают за политику, требующую раскрытия данных для обучения и внедрения систем компенсации на основе роялти, чтобы создатели контента получали справедливую плату за свою работу (R5).
* Инклюзивное управление: Чтобы избежать «захвата регулятора» (ситуации, когда регулирующий орган начинает действовать в интересах отрасли, а не общества), в процесс выработки политики необходимо вовлекать широкий круг заинтересованных сторон, включая профсоюзы и правозащитные группы. Это нужно, чтобы корпоративное лоббирование не перевешивало общественные интересы и интересы работников (R6).
1. Экономическая дестабилизация (P1): Конкурентная «гонка вооружений» среди разработчиков ИИ приводит к поспешным внедрениям, накоплению «технического долга» и созданию массовой нестабильности занятости, что нарушает традиционные модели экономической стабильности.
2. Ускорение разрыва в навыках (P2): Автоматизация на основе ИИ непропорционально выгодна высококвалифицированным работникам и владельцам капитала, вытесняя низкоквалифицированный труд и увеличивая экономический разрыв без адекватной адаптации рабочей силы.
3. Экстрактивная экономика (P3): Доминирующие ИИ-компании рассматриваются как «экстрактивные (извлекающие) институты» — системы, предназначенные для перераспределения ресурсов от большинства к влиятельному меньшинству. Они концентрируют богатство и власть, ослабляя переговорную силу работников и препятствуя всеобщему процветанию, которое лежит в основе стабильных обществ.
4. Неравномерная глобальная демократизация (P4): Преимущества и контроль над ИИ сконцентрированы в странах с высоким доходом, что способствует форме «колониализма данных», при которой страны с низким доходом становятся зависимыми потребителями, а не со-создателями технологий.
5. Ухудшение обучения и креативности (P5): Чрезмерная зависимость от генеративного ИИ в образовании и исследованиях рискует создать «алгоритмическую монокультуру», подрывая навыки критического мышления и гомогенизируя человеческое самовыражение.
6. Обесценивание творческого труда (P6): Практика обучения моделей на огромных массивах данных, защищённых авторским правом, без справедливой компенсации определяется как прямая угроза средствам к существованию художников, писателей и других творческих работников.
Этот фреймворк особенно силён тем, что он переводит дискуссию с абстрактных, гипотетических сценариев будущего на конкретные, уже существующие проблемы, основанные на хорошо изученных экономических принципах, таких как рентоориентированное поведение и проблемы коллективного действия.
👷 Путь вперёд: ориентация на работников
После диагностики проблем авторы предлагают комплексную, ориентированную на работников систему управления ИИ, основанную на шести ключевых рекомендациях (R1-R6):
* Поддержка работников и политика: Правительства должны создать надёжные системы социальной защиты и программы переподготовки для поддержки работников, вытесненных ИИ (R1).
* Содействие открытости и конкуренции: Доминированию бигтеха следует противодействовать, продвигая ИИ с открытым исходным кодом, включая открытые данные и открытые веса, чтобы способствовать созданию более конкурентной и справедливой экосистемы (R2).
* Ответственность через технические средства защиты: Обязательное использование водяных знаков для всего контента, созданного генеративным ИИ, и финансирование исследований надёжных инструментов для его обнаружения имеют решающее значение для обеспечения подотчётности и борьбы с дезинформацией (R3, R4).
* Справедливая компенсация за данные: Авторы решительно выступают за политику, требующую раскрытия данных для обучения и внедрения систем компенсации на основе роялти, чтобы создатели контента получали справедливую плату за свою работу (R5).
* Инклюзивное управление: Чтобы избежать «захвата регулятора» (ситуации, когда регулирующий орган начинает действовать в интересах отрасли, а не общества), в процесс выработки политики необходимо вовлекать широкий круг заинтересованных сторон, включая профсоюзы и правозащитные группы. Это нужно, чтобы корпоративное лоббирование не перевешивало общественные интересы и интересы работников (R6).
👍8🤔2❤1❤🔥1👎1🔥1
Forwarded from gonzo_ML_podcasts
🔍 Необходимое расширение повестки дня в области безопасности ИИ
Главная сила этой статьи — в её своевременном и веском доводе в пользу расширения парадигмы безопасности ИИ. Опираясь на богатый пласт экономической теории и реальные примеры — от судебных исков против ИИ-лабораторий за использование пиратских книг до измеримого сокращения числа фриланс-заказов для творческих профессий — авторы делают проблему экономического воздействия острой и осязаемой.
Интересное противоречие в рекомендациях авторов, заслуживающее дальнейшего обсуждения, — это потенциальный конфликт между открытостью и безопасностью. Например, хотя продвижение open-source ИИ (R2) является мощным инструментом для противодействия доминированию крупных корпораций, оно может непреднамеренно ускорить распространение дообученных, трудно обнаруживаемых моделей. Это усложняет усилия по внедрению водяных знаков (R4) и предотвращению «ухудшения обучения» (P5), о котором авторы справедливо предупреждают. По-настоящему надёжная система должна не только предлагать отдельные решения, но и учитывать внутренние компромиссы между ними.
Хотя это и статья-позиция, не содержащая оригинальных эмпирических данных, представленный в ней синтез существующих доказательств выглядит весьма весомо. Основная сложность, которую признают и сами авторы, заключается в реализации их рекомендаций. Достижение глобального консенсуса по авторскому праву, предотвращение регуляторного арбитража и финансирование масштабных программ переквалификации работников — это монументальные задачи. Однако, чётко сформулировав риски бездействия, статья даёт мощный импульс к тому, чтобы начать решать эти проблемы.
🏁 Заключение
Статья «Position: AI Safety Should Prioritize the Future of Work» — это значимый и своевременный вклад в дискуссию об ИИ. Она служит мощным призывом к действию для исследователей, политиков и разработчиков — призывом взглянуть за пределы долгосрочных, спекулятивных рисков и заняться немедленным, системным ущербом, который неконтролируемое развитие ИИ наносит нашим экономическим структурам и социальной ткани. Это обязательное чтиво для всех, кто считает, что цель создания полезного ИИ должна включать защиту ценности и будущего человеческого труда.
Главная сила этой статьи — в её своевременном и веском доводе в пользу расширения парадигмы безопасности ИИ. Опираясь на богатый пласт экономической теории и реальные примеры — от судебных исков против ИИ-лабораторий за использование пиратских книг до измеримого сокращения числа фриланс-заказов для творческих профессий — авторы делают проблему экономического воздействия острой и осязаемой.
Интересное противоречие в рекомендациях авторов, заслуживающее дальнейшего обсуждения, — это потенциальный конфликт между открытостью и безопасностью. Например, хотя продвижение open-source ИИ (R2) является мощным инструментом для противодействия доминированию крупных корпораций, оно может непреднамеренно ускорить распространение дообученных, трудно обнаруживаемых моделей. Это усложняет усилия по внедрению водяных знаков (R4) и предотвращению «ухудшения обучения» (P5), о котором авторы справедливо предупреждают. По-настоящему надёжная система должна не только предлагать отдельные решения, но и учитывать внутренние компромиссы между ними.
Хотя это и статья-позиция, не содержащая оригинальных эмпирических данных, представленный в ней синтез существующих доказательств выглядит весьма весомо. Основная сложность, которую признают и сами авторы, заключается в реализации их рекомендаций. Достижение глобального консенсуса по авторскому праву, предотвращение регуляторного арбитража и финансирование масштабных программ переквалификации работников — это монументальные задачи. Однако, чётко сформулировав риски бездействия, статья даёт мощный импульс к тому, чтобы начать решать эти проблемы.
🏁 Заключение
Статья «Position: AI Safety Should Prioritize the Future of Work» — это значимый и своевременный вклад в дискуссию об ИИ. Она служит мощным призывом к действию для исследователей, политиков и разработчиков — призывом взглянуть за пределы долгосрочных, спекулятивных рисков и заняться немедленным, системным ущербом, который неконтролируемое развитие ИИ наносит нашим экономическим структурам и социальной ткани. Это обязательное чтиво для всех, кто считает, что цель создания полезного ИИ должна включать защиту ценности и будущего человеческого труда.
arXiv.org
AI Safety Should Prioritize the Future of Work
Current efforts in AI safety prioritize filtering harmful content, preventing manipulation of human behavior, and eliminating existential risks in cybersecurity or biosecurity. While pressing,...
👍8
Любопытный пост в https://t.iss.one/fastsalttimes. Тоже про будущее настоящее работы.
Песни грядущего
Сатья Наделла на этой неделе разродился написанным ужасным корпоративным языком посланием сотрудникам Microsoft. Но за расплывчатыми лукавыми формулировками можно разглядеть суть.
Для начала уточним, что за последние три финансовых квартала компания заработала 75 миллиардов долларов прибыли и планирует потратить 80 миллиардов долларов на инфраструктуру искусственного интеллекта в 2025 году. Ранее в этом месяце акции также достигли рекордного уровня — цена закрытия акции впервые превысила 500 долларов 9 июля.
В компании работают около 220 тысяч человек, но в 2025 году уже уволили 15 тысяч. 6 000 в мае и еще около 300 в июне, и в июле 9 000.
И вот на фоне финансовых успехов и увольнений Наделла выдал свой меморандум аж на 1150 слов. Председатель и CEO Microsoft в этом тексте пытается рационализировать увольнение 9000 сотрудников. В компании письмо Наделлы восприняли нервно.
Письмо Наделлы — не только о Microsoft. В каком-то смысле, это прогноз для всей IT-отрасли, которую накрывает шторм под названием «искусственный интеллект». Автоматизация в свое время перекроила промышленную экономику, ИИ уже готов перестроить цифровую. И в центре этого шторма окажется именно софтверный бизнес.
Наделла пишет:
«По всем объективным показателям Microsoft процветает: наши рыночные результаты, стратегическое положение и рост — все идет вверх и вправо. Мы инвестируем в CapEx (капитальные расходы) больше, чем когда-либо... Это и есть парадокс успеха в индустрии, у которой нет «франшизной» стоимости. Прогресс нелинеен. Он динамичен, порой диссонантен (противоречив), но всегда требует усилий. Зато это новая возможность для нас — формировать будущее, вести за собой и влиять больше, чем когда-либо».
Перевод на человеческий язык: мы зарабатываем бешеные деньги, но все равно увольняем людей, потому что «новая парадигма», потому что нет моральных обязательств ни перед кем, кроме графика роста. Сегодня ты «талант», завтра — строчка в списке на выход. Наделла строит удобную психологическую конструкцию, чтобы смертоносную правду о будущем превратить в мягкое, почти вдохновляющее сообщение. По сути: «Да, нас ждет волна сокращений, но это же ради светлого будущего!».
Мол, рынок такой, ничего не поделаешь. А сравнение с революцией 90-х, когда ПК захватили мир, рассчитано на то, чтобы включить у аудитории FOMO — страх упустить будущее, не вписаться в прогресс, даже если этот прогресс шагает по головам.
Наделла подает увольнения как «трансформацию, полную вызовов, но захватывающую» — будто увольнение тысяч и тысяч коллег это не катастрофа, а возможность для оставшихся почувствовать себя частью исторического момента. Вся эта риторика уходит от главного — того, что боль здесь и сейчас реальна, и она только начинается.
Кого уволили? Судя по тексту, уволили людей вовсе не потому что денег не хватает. Просто эти сотрудники не вписались в новую ИИ-стратегию компании. Постоянные упоминания об «обучении» и «разучивании» — это обтекаемый способ сказать: ваши навыки устарели. Microsoft решила не переобучать старых сотрудников, а нанимать новых — уже «под ИИ». Слово «обучение», в данном случае, звучит не как вдохновение, а как угроза: «Подстраивайся под нас — или вылетишь». По факту — потому что ты нам больше не нужен, дружок, у нас теперь есть нейросети. Увольнения теперь модно делать на пике прибыли. Это называется «стратегическое позиционирование».
ИИ позволяет компаниям быть прибыльнее… при меньшем количестве сотрудников. Хорошо для акционеров. Плохо для всех, кто работает в Microsoft или в похожих компаниях. А для уволенных? Ну, им просто «не повезло оказаться не в том скиллсете». Не под ту эпоху родились, сорян. Но прямо такое не скажешь, поэтому приходится прятать месседж за ворохом туманных формулировок.
Меморандум от Microsoft — это манифест новой реальности. Раньше техсектор был щедр: плюшки, опционные бонусы, уважение к «разработчикам». А теперь пришел ИИ и перевернул стол игры и маски слетели мгновенно. Новая логика:
Песни грядущего
Сатья Наделла на этой неделе разродился написанным ужасным корпоративным языком посланием сотрудникам Microsoft. Но за расплывчатыми лукавыми формулировками можно разглядеть суть.
Для начала уточним, что за последние три финансовых квартала компания заработала 75 миллиардов долларов прибыли и планирует потратить 80 миллиардов долларов на инфраструктуру искусственного интеллекта в 2025 году. Ранее в этом месяце акции также достигли рекордного уровня — цена закрытия акции впервые превысила 500 долларов 9 июля.
В компании работают около 220 тысяч человек, но в 2025 году уже уволили 15 тысяч. 6 000 в мае и еще около 300 в июне, и в июле 9 000.
И вот на фоне финансовых успехов и увольнений Наделла выдал свой меморандум аж на 1150 слов. Председатель и CEO Microsoft в этом тексте пытается рационализировать увольнение 9000 сотрудников. В компании письмо Наделлы восприняли нервно.
Письмо Наделлы — не только о Microsoft. В каком-то смысле, это прогноз для всей IT-отрасли, которую накрывает шторм под названием «искусственный интеллект». Автоматизация в свое время перекроила промышленную экономику, ИИ уже готов перестроить цифровую. И в центре этого шторма окажется именно софтверный бизнес.
Наделла пишет:
«По всем объективным показателям Microsoft процветает: наши рыночные результаты, стратегическое положение и рост — все идет вверх и вправо. Мы инвестируем в CapEx (капитальные расходы) больше, чем когда-либо... Это и есть парадокс успеха в индустрии, у которой нет «франшизной» стоимости. Прогресс нелинеен. Он динамичен, порой диссонантен (противоречив), но всегда требует усилий. Зато это новая возможность для нас — формировать будущее, вести за собой и влиять больше, чем когда-либо».
Перевод на человеческий язык: мы зарабатываем бешеные деньги, но все равно увольняем людей, потому что «новая парадигма», потому что нет моральных обязательств ни перед кем, кроме графика роста. Сегодня ты «талант», завтра — строчка в списке на выход. Наделла строит удобную психологическую конструкцию, чтобы смертоносную правду о будущем превратить в мягкое, почти вдохновляющее сообщение. По сути: «Да, нас ждет волна сокращений, но это же ради светлого будущего!».
Мол, рынок такой, ничего не поделаешь. А сравнение с революцией 90-х, когда ПК захватили мир, рассчитано на то, чтобы включить у аудитории FOMO — страх упустить будущее, не вписаться в прогресс, даже если этот прогресс шагает по головам.
Наделла подает увольнения как «трансформацию, полную вызовов, но захватывающую» — будто увольнение тысяч и тысяч коллег это не катастрофа, а возможность для оставшихся почувствовать себя частью исторического момента. Вся эта риторика уходит от главного — того, что боль здесь и сейчас реальна, и она только начинается.
Кого уволили? Судя по тексту, уволили людей вовсе не потому что денег не хватает. Просто эти сотрудники не вписались в новую ИИ-стратегию компании. Постоянные упоминания об «обучении» и «разучивании» — это обтекаемый способ сказать: ваши навыки устарели. Microsoft решила не переобучать старых сотрудников, а нанимать новых — уже «под ИИ». Слово «обучение», в данном случае, звучит не как вдохновение, а как угроза: «Подстраивайся под нас — или вылетишь». По факту — потому что ты нам больше не нужен, дружок, у нас теперь есть нейросети. Увольнения теперь модно делать на пике прибыли. Это называется «стратегическое позиционирование».
ИИ позволяет компаниям быть прибыльнее… при меньшем количестве сотрудников. Хорошо для акционеров. Плохо для всех, кто работает в Microsoft или в похожих компаниях. А для уволенных? Ну, им просто «не повезло оказаться не в том скиллсете». Не под ту эпоху родились, сорян. Но прямо такое не скажешь, поэтому приходится прятать месседж за ворохом туманных формулировок.
Меморандум от Microsoft — это манифест новой реальности. Раньше техсектор был щедр: плюшки, опционные бонусы, уважение к «разработчикам». А теперь пришел ИИ и перевернул стол игры и маски слетели мгновенно. Новая логика:
Telegram
FastSaltTimes.com
Про будущее, технологии, экономику, инвестиции, бизнес, общество и личное развитие. Канал проекта Fast Salt Times - https://fastsalttimes.com/.
Почта для связи по любым вопросам - [email protected]
Почта для связи по любым вопросам - [email protected]
❤6👍6🥱3🤔1
— Лояльность — в одну сторону: от работника к компании. А компания предлагает «возможности» — по настроению.
— Увольнения — теперь не из-за кризиса, а как стратегический маневр.
— Прибыль — это не повод сохранять рабочие места или переучивать сотрудников, а возможность «трансформироваться», сокращая штат.
Винить Наделлу было бы глупо. Бизнес и ничего личного. Компания меняется. Мир меняется. Письмо подает сигнал Wall Street, что несмотря на увольнения все под контролем. И это не только о Microsoft. Это предупреждение для всех в ИТ-индустрии: вы ценны только тогда, когда компания видит в вас ценность в контексте ИИ. Будет больше боли.
https://blogs.microsoft.com/blog/2025/07/24/recommitting-to-our-why-what-and-how/
**
https://fastsalttimes.com/nadella-memo/
— Увольнения — теперь не из-за кризиса, а как стратегический маневр.
— Прибыль — это не повод сохранять рабочие места или переучивать сотрудников, а возможность «трансформироваться», сокращая штат.
Винить Наделлу было бы глупо. Бизнес и ничего личного. Компания меняется. Мир меняется. Письмо подает сигнал Wall Street, что несмотря на увольнения все под контролем. И это не только о Microsoft. Это предупреждение для всех в ИТ-индустрии: вы ценны только тогда, когда компания видит в вас ценность в контексте ИИ. Будет больше боли.
https://blogs.microsoft.com/blog/2025/07/24/recommitting-to-our-why-what-and-how/
**
https://fastsalttimes.com/nadella-memo/
The Official Microsoft Blog
Recommitting to our why, what, and how
Satya Nadella, Chairman and CEO, shared the below communication with Microsoft employees this morning. As we begin a new fiscal year, I’ve been reflecting on the road we’ve traveled together and the path ahead. Before anything else, I want to speak to what’s…
1🫡10👍4🥱3❤2🔥2🤔1
Ещё из любопытных новостей, JetBrains разрабатывает английский для программирования
In a July 23 interview with InfoWorld, JetBrains CEO Kirill Skrygan elaborated on company plans for an as-yet-unnamed language that would describe a program at a higher level of abstraction. He reflected on how computer code originally was written in Assembler and moved to higher levels of abstraction with C and C++, then on to yet higher levels with Java and C#. “And now it’s time to move even higher,” Skrygan said. “So when we write the code, we’ll basically lay out the ontology, the object-oriented architecture, what we have in mind, or have somewhere written in design docs.” This “whole architecture program” will make AI code generation more controllable, transparent, and useful, he said.
JetBrains is exploring how to make this new language a derivative from Kotlin, but Skrygan believes the derivative should be English. “So basically, you write the design doc in English, maybe with some semantics, with some abstract paragraph, some other things which might help.” He provided the example of creating a cross-platform application that works on iPhone, Android, the web, or other platforms. “So instead of writing three applications, you write it in a special programming language, which is basically English, which describes how you want to see this application in a very specified way, and then AI agents, together with JetBrains tooling, will generate the code of all of these platforms,” Skrygan said.
https://www.infoworld.com/article/4029053/jetbrains-working-on-higher-abstraction-programming-language.html
In a July 23 interview with InfoWorld, JetBrains CEO Kirill Skrygan elaborated on company plans for an as-yet-unnamed language that would describe a program at a higher level of abstraction. He reflected on how computer code originally was written in Assembler and moved to higher levels of abstraction with C and C++, then on to yet higher levels with Java and C#. “And now it’s time to move even higher,” Skrygan said. “So when we write the code, we’ll basically lay out the ontology, the object-oriented architecture, what we have in mind, or have somewhere written in design docs.” This “whole architecture program” will make AI code generation more controllable, transparent, and useful, he said.
JetBrains is exploring how to make this new language a derivative from Kotlin, but Skrygan believes the derivative should be English. “So basically, you write the design doc in English, maybe with some semantics, with some abstract paragraph, some other things which might help.” He provided the example of creating a cross-platform application that works on iPhone, Android, the web, or other platforms. “So instead of writing three applications, you write it in a special programming language, which is basically English, which describes how you want to see this application in a very specified way, and then AI agents, together with JetBrains tooling, will generate the code of all of these platforms,” Skrygan said.
https://www.infoworld.com/article/4029053/jetbrains-working-on-higher-abstraction-programming-language.html
InfoWorld
JetBrains working on higher-abstraction programming language
The as-yet-unnamed language in development would produce cross-platform applications and make AI code generation more controllable, transparent, and useful.
🔥8🥱5💩1👀1