Критика проектов Terafab и орбитальных дата-центров часто строится на оценке «завтрашних» задач через призму «сегодняшних» ограничений. Такой подход логически некорректен.
Terafab рассчитан на производство чипов в объёме, обеспечивающем 1 ТВт вычислительной мощности ежегодно, с полной вертикальной интеграцией и радиационно-стойкими решениями для космоса. Орбитальные платформы используют постоянную солнечную энергию и радиационный теплоотвод — физические условия, недоступные на Земле. Проект опирается на уже отработанные технологии Starship и Starlink. Intel выступает технологическим партнёром.
Аналогичная логика уже реализовывалась в XXI веке. AWS, запущенная в 2006 году как внутренняя инфраструктура, стала доминирующей облачной платформой вопреки прогнозам о её ненужности. CRISPR-Cas9 с 2012 года из лабораторной технологии превратилась в клинический инструмент генной инженерии. AlphaFold в 2021 году решила проблему структуры белков, считавшуюся неразрешимой десятилетиями; сегодня система применяется тысячами исследователей.
В каждом случае скептики оперировали текущими возможностями и объявляли проекты нереалистичными. Экспоненциальное масштабирование опровергло эти оценки.
Даже при корректировках и частичном успехе текущих инициатив созданный фундамент — опыт многоразовых запусков, спутниковых группировок и вертикальной интеграции — будет использован другими участниками. Завершение начатого произойдёт быстрее, чем большинство наблюдателей признают исчерпанность линейного мышления.
Необходима смена парадигмы: задачи экспоненциального роста нельзя оценивать инструментами инкрементальной оптимизации.
Terafab рассчитан на производство чипов в объёме, обеспечивающем 1 ТВт вычислительной мощности ежегодно, с полной вертикальной интеграцией и радиационно-стойкими решениями для космоса. Орбитальные платформы используют постоянную солнечную энергию и радиационный теплоотвод — физические условия, недоступные на Земле. Проект опирается на уже отработанные технологии Starship и Starlink. Intel выступает технологическим партнёром.
Аналогичная логика уже реализовывалась в XXI веке. AWS, запущенная в 2006 году как внутренняя инфраструктура, стала доминирующей облачной платформой вопреки прогнозам о её ненужности. CRISPR-Cas9 с 2012 года из лабораторной технологии превратилась в клинический инструмент генной инженерии. AlphaFold в 2021 году решила проблему структуры белков, считавшуюся неразрешимой десятилетиями; сегодня система применяется тысячами исследователей.
В каждом случае скептики оперировали текущими возможностями и объявляли проекты нереалистичными. Экспоненциальное масштабирование опровергло эти оценки.
Даже при корректировках и частичном успехе текущих инициатив созданный фундамент — опыт многоразовых запусков, спутниковых группировок и вертикальной интеграции — будет использован другими участниками. Завершение начатого произойдёт быстрее, чем большинство наблюдателей признают исчерпанность линейного мышления.
Необходима смена парадигмы: задачи экспоненциального роста нельзя оценивать инструментами инкрементальной оптимизации.
Георгий Белозеров АСИ о национальных целях развития России.
Форум "Дух Победы" продолжается.
Сессия "Новые модели развития и экономика доверия".
#ICS_Consulting
Форум "Дух Победы" продолжается.
Сессия "Новые модели развития и экономика доверия".
#ICS_Consulting
Forwarded from ICS Consulting
Media is too big
VIEW IN TELEGRAM
Завершилась вторая экспертная сессия форума «Дух Победы и мировая гуманитарная повестка». Ее участники обсудили тему «Новые модели развития и экономика доверия».
По завершении Александр Торшин, действительный государственный советник Российской Федерации 1-го класса, заслуженный юрист Российской Федерации, поделился впечатлениями и выделил один из главных выводов дискуссии: доверие — не абстрактная ценность, а практическое условие развития, без которого не работают ни ресурсы, ни институты, ни крупные проекты.
Форум продолжается: 19 мая — следующая сессия, посвящённая гуманитарному прагматизму и переводу смыслов в практические решения.
#ICSCConsulting #ДухПобеды #ГуманитарнаяИнициатива2028 #ЭкономикаДоверия #АлександрТоршин #Форум #Развитие #Доверие #ГуманитарнаяПовестка
По завершении Александр Торшин, действительный государственный советник Российской Федерации 1-го класса, заслуженный юрист Российской Федерации, поделился впечатлениями и выделил один из главных выводов дискуссии: доверие — не абстрактная ценность, а практическое условие развития, без которого не работают ни ресурсы, ни институты, ни крупные проекты.
Форум продолжается: 19 мая — следующая сессия, посвящённая гуманитарному прагматизму и переводу смыслов в практические решения.
#ICSCConsulting #ДухПобеды #ГуманитарнаяИнициатива2028 #ЭкономикаДоверия #АлександрТоршин #Форум #Развитие #Доверие #ГуманитарнаяПовестка
Forwarded from ICS Consulting
⚡️ 12 мая в рамках форума «Дух Победы и мировая гуманитарная повестка» прошла экспертная сессия «Новые модели развития и экономика доверия».
Главная тема встречи — как защитить человека от превращения в управляемый объект данных и выстроить модель развития, где в центре остаются не цифра, скоринг и управленческая оптимизация, а живой человек, семья, доверие и реальные общественные связи.
Участники сессии:
Модератор — Николай Николаев, депутат Государственной Думы РФ, основатель и редактор портала IDEOLOGY.PRO.
Спикеры:
⚫️ Алексей Пастухов, генеральный директор ICS Consulting;
⚫️ Александр Торшин, действительный государственный советник РФ 1 класса, заслуженный юрист РФ;
⚫️ Георгий Белозеров, заместитель генерального директора АСИ;
⚫️ Николай Григорьев, советник генерального директора ICS Consulting, член Научно-экспертного совета ИЭ РАН;
⚫️ Александр Никулин, руководитель Центра аграрных исследований РАНХиГС, главный редактор журнала «Крестьяноведение»;
⚫️ Игорь Филоненко, экономист, предприниматель;
⚫️ Игорь Алабужин, эксперт по климатической политике, член Федерального совета партии «Зелёные»;
⚫️ Олег Агапов, директор НИИ социальной философии КИУ им. В. Г. Тимирясова;
⚫️ Тумун Цыдыпов, управляющий партнёр ТА «Стратегия», советник Дид-Хамбо-ламы Буддийской традиционной Сангхи России.
В ходе дискуссии участники обозначили несколько ключевых направлений:
▶️ Общественный капитал вместо ESG (экологические, социальные и управленческие стандарты)
Фокус — не на формальной отчётности и «зелёном камуфляже» предприятий, а на реальном вкладе бизнеса в благополучие общества, сотрудников и среды.
▶️ Риски «цифрового концлагеря»
Обсуждались риски передачи решений ИИ, цифрового контроля и превращения человека в набор данных. Среди важных акцентов — защита наличных денег как фактора безопасности и право человека на невычислимость.
▶️ Человек — не ресурс
Развитие невозможно строить на отношении к человеку как к инструменту. Основа будущего — доверие, кооперация, низовые формы взаимодействия и ответственность.
▶️ Пределы роста
Рост, основанный только на скорости, потреблении и ресурсной эксплуатации, упирается в физические и социальные ограничения. Ответ — в кадровом суверенитете, инженерном мышлении и новых моделях долгосрочного планирования.
Итоговый вывод сессии: экономика доверия — не абстрактная формула, а практическое условие развития. В центре стратегий должна быть не цифровая система, а человек, а ключевой экономической и социальной категорией — семья.
Форум продолжится 19 мая. Следующая встреча будет посвящена теме «Гуманитарный прагматизм: масштабирование универсальных смыслов через фильтры доказательности» — тому, как переводить ценности и смыслы в практические решения.
#ICSConsulting #ДухПобеды #ГуманитарнаяИнициатива2028 #ЭкономикаДоверия #ГуманитарнаяПовестка
Главная тема встречи — как защитить человека от превращения в управляемый объект данных и выстроить модель развития, где в центре остаются не цифра, скоринг и управленческая оптимизация, а живой человек, семья, доверие и реальные общественные связи.
Участники сессии:
Модератор — Николай Николаев, депутат Государственной Думы РФ, основатель и редактор портала IDEOLOGY.PRO.
Спикеры:
В ходе дискуссии участники обозначили несколько ключевых направлений:
Фокус — не на формальной отчётности и «зелёном камуфляже» предприятий, а на реальном вкладе бизнеса в благополучие общества, сотрудников и среды.
Обсуждались риски передачи решений ИИ, цифрового контроля и превращения человека в набор данных. Среди важных акцентов — защита наличных денег как фактора безопасности и право человека на невычислимость.
Развитие невозможно строить на отношении к человеку как к инструменту. Основа будущего — доверие, кооперация, низовые формы взаимодействия и ответственность.
Рост, основанный только на скорости, потреблении и ресурсной эксплуатации, упирается в физические и социальные ограничения. Ответ — в кадровом суверенитете, инженерном мышлении и новых моделях долгосрочного планирования.
Итоговый вывод сессии: экономика доверия — не абстрактная формула, а практическое условие развития. В центре стратегий должна быть не цифровая система, а человек, а ключевой экономической и социальной категорией — семья.
Форум продолжится 19 мая. Следующая встреча будет посвящена теме «Гуманитарный прагматизм: масштабирование универсальных смыслов через фильтры доказательности» — тому, как переводить ценности и смыслы в практические решения.
#ICSConsulting #ДухПобеды #ГуманитарнаяИнициатива2028 #ЭкономикаДоверия #ГуманитарнаяПовестка
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Раньше всех. Ну почти.
❗️Исследователи в области кибербезопасности сообщили об обнаружении способа обхода передовых технологий защиты устройств компании Apple с помощью модели искусственного интеллекта (ИИ) Mythos, сообщает газета Wall Street Journal.
В апреле компания Anthropic анонсировала новую модель искусственного интеллекта под названием Mythos, обладающую высокой эффективностью в поиске уязвимостей в программном обеспечении и способную вызвать кризис в сфере кибербезопасности. Доступ к модели был предоставлен только правительству США и ряду избранных организаций.
Сотрудники калифорнийской компании Calif утверждают, что разработанное ими с помощью Mythos программное обеспечение объединяет две уязвимости для повреждения памяти устройств с операционной системой macOS и получения доступа к их защищенным разделам. Как отмечается, этот метод в сочетании с другими типами атак может позволить хакеру полностью захватить контроль над устройством.
В апреле компания Anthropic анонсировала новую модель искусственного интеллекта под названием Mythos, обладающую высокой эффективностью в поиске уязвимостей в программном обеспечении и способную вызвать кризис в сфере кибербезопасности. Доступ к модели был предоставлен только правительству США и ряду избранных организаций.
Сотрудники калифорнийской компании Calif утверждают, что разработанное ими с помощью Mythos программное обеспечение объединяет две уязвимости для повреждения памяти устройств с операционной системой macOS и получения доступа к их защищенным разделам. Как отмечается, этот метод в сочетании с другими типами атак может позволить хакеру полностью захватить контроль над устройством.
👻1
1. Тест Тьюринга — GPT-4.5 (март 2025)
Исследователи Кэмерон Джонс и Бенджамин Берген из Калифорнийского университета Сан-Диего провели строгий трёхсторонний тест Тьюринга. GPT-4.5 был принят за человека в 73% случаев — значительно чаще, чем реальный человек-собеседник (которого принимали за человека примерно в 50–60% случаев). LLaMa-3.1-405B также прошла тест с результатом 56%. Это первое эмпирически подтверждённое прохождение классического теста Тьюринга ИИ-системой. Базовые модели GPT-4o и ELIZA провалились, набрав лишь 21–23%.
Источник: arXiv.org
2. Международная математическая олимпиада — Gemini Deep Think и GPT-5 (июль 2025)
Gemini Deep Think от Google DeepMind решила 5 из 6 задач IMO 2025, набрав 35 баллов из 42 в течение отведённых 4,5 часов — это результат уровня золотой медали. Решения были получены официальной сертификацией IMO, что делает Gemini первой ИИ-системой, получившей официальное золото олимпиады. OpenAI также заявила о результате уровня золота с GPT-5 и Grok-4 — 5 правильных задач из 6. Медаль золотого уровня получают лишь около 1 из 12 участников.
Источники: Google DeepMind Blog, Nature, Ars Technicanature
3. GPQA Diamond — Graduate-level Science Q&A (2025)
GPQA Diamond — тест из 198 вопросов докторского уровня по биологии, физике и химии, составленных и валидированных PhD-специалистами. Средний результат эксперта с учёной степенью — 69,7%. Модели o1, o3, Claude 3.7 Sonnet и Gemini 3 Pro к 2025 году уверенно преодолели этот барьер: лучшие системы демонстрируют свыше 90% точности, что Epoch AI и Stanford HAI квалифицируют как «сверхчеловеческое научное мышление». Специализированная модель Omic AI Scientist достигла результата 93,3%.
Источники: Epoch AI, omic.ai, Stanford HAI 2026 AI Indexhai.stanford
4. ARC-AGI-1 — OpenAI o3 (декабрь 2024 / январь 2025)
Тест ARC-AGI разработан Франсуа Шолле специально для оценки «адаптивного общего интеллекта» — решения принципиально новых задач без опоры на специфические тренировочные паттерны. Средний результат человека — ~85%. OpenAI o3 в режиме высоких вычислений набрал 87,5%, впервые превысив человеческий базовый показатель. Это привело к созданию несравнимо более сложной версии ARC-AGI-2, которую o3 уже практически не мог решать.
Источники: ARC Prize Foundation, LinkedInarcprize
5. ARC-AGI-2 — GPT-5.5 превышает человека (2026)
Созданный как ответ на насыщение ARC-AGI-1, тест ARC-AGI-2 изначально ставил ведущие модели в тупик. Однако к маю 2026 года GPT-5.5 набрал 85% на этом бенчмарке, тогда как средний человек показывает около 66%, а граница «гран-при» — 85%. За ним следуют GPT-5.4 Pro (83,3%) и Gemini 3.1 Pro (77,1%). Все четыре ведущие лаборатории (Anthropic, Google, OpenAI, xAI) теперь публикуют свои результаты на этом бенчмарке.
Источники: BenchLM.ai, LLM Stats, ARC Prize Leaderboardllm-stats
6. Медицинская диагностика — Microsoft MAI-DxO (июнь–июль 2025)
Microsoft представила систему MAI-DxO (AI Diagnostic Orchestrator), основанную на оркестровке нескольких ведущих LLM-моделей (GPT o3, Claude, Gemini, Llama, Grok). На тесте из 304 сложнейших клинических случаев из New England Journal of Medicine MAI-DxO поставил правильный диагноз в 85,5% случаев, тогда как 21 опытный врач из США и Великобритании справился лишь с 20%. Система также выбирала менее дорогостоящие диагностические пути.
Источники: GeekWire, Time Magazine, Microsoft AI Blogmicrosoft
7. USMLE (Медицинский лицензионный экзамен США) — AI превзошёл врачей (2025)
Коллаборация University at Buffalo разработала инструмент SCAI, набравший 95,2% на Step 3 USMLE — выше, чем все другие ИИ-инструменты и большинство практикующих врачей. Параллельно многоагентная система из пяти совещающихся GPT-4 показала консенсусную точность 97%, 93% и 94% на Steps 1, 2 и 3 соответственно — существенно выше среднего показателя студентов-медиков. Исследование OpenAI показало, что PhD-эксперты набирают лишь 69,7% на GPQA Diamond, а o1 — 97,5%.
Источники: University at Buffalo / JAMA Network Open, EMJ Reviewsemjreviews
8. Диагностика в реальных условиях скорой помощи — Harvard/Stanford (2024–2025)
Исследователи Кэмерон Джонс и Бенджамин Берген из Калифорнийского университета Сан-Диего провели строгий трёхсторонний тест Тьюринга. GPT-4.5 был принят за человека в 73% случаев — значительно чаще, чем реальный человек-собеседник (которого принимали за человека примерно в 50–60% случаев). LLaMa-3.1-405B также прошла тест с результатом 56%. Это первое эмпирически подтверждённое прохождение классического теста Тьюринга ИИ-системой. Базовые модели GPT-4o и ELIZA провалились, набрав лишь 21–23%.
Источник: arXiv.org
2. Международная математическая олимпиада — Gemini Deep Think и GPT-5 (июль 2025)
Gemini Deep Think от Google DeepMind решила 5 из 6 задач IMO 2025, набрав 35 баллов из 42 в течение отведённых 4,5 часов — это результат уровня золотой медали. Решения были получены официальной сертификацией IMO, что делает Gemini первой ИИ-системой, получившей официальное золото олимпиады. OpenAI также заявила о результате уровня золота с GPT-5 и Grok-4 — 5 правильных задач из 6. Медаль золотого уровня получают лишь около 1 из 12 участников.
Источники: Google DeepMind Blog, Nature, Ars Technicanature
3. GPQA Diamond — Graduate-level Science Q&A (2025)
GPQA Diamond — тест из 198 вопросов докторского уровня по биологии, физике и химии, составленных и валидированных PhD-специалистами. Средний результат эксперта с учёной степенью — 69,7%. Модели o1, o3, Claude 3.7 Sonnet и Gemini 3 Pro к 2025 году уверенно преодолели этот барьер: лучшие системы демонстрируют свыше 90% точности, что Epoch AI и Stanford HAI квалифицируют как «сверхчеловеческое научное мышление». Специализированная модель Omic AI Scientist достигла результата 93,3%.
Источники: Epoch AI, omic.ai, Stanford HAI 2026 AI Indexhai.stanford
4. ARC-AGI-1 — OpenAI o3 (декабрь 2024 / январь 2025)
Тест ARC-AGI разработан Франсуа Шолле специально для оценки «адаптивного общего интеллекта» — решения принципиально новых задач без опоры на специфические тренировочные паттерны. Средний результат человека — ~85%. OpenAI o3 в режиме высоких вычислений набрал 87,5%, впервые превысив человеческий базовый показатель. Это привело к созданию несравнимо более сложной версии ARC-AGI-2, которую o3 уже практически не мог решать.
Источники: ARC Prize Foundation, LinkedInarcprize
5. ARC-AGI-2 — GPT-5.5 превышает человека (2026)
Созданный как ответ на насыщение ARC-AGI-1, тест ARC-AGI-2 изначально ставил ведущие модели в тупик. Однако к маю 2026 года GPT-5.5 набрал 85% на этом бенчмарке, тогда как средний человек показывает около 66%, а граница «гран-при» — 85%. За ним следуют GPT-5.4 Pro (83,3%) и Gemini 3.1 Pro (77,1%). Все четыре ведущие лаборатории (Anthropic, Google, OpenAI, xAI) теперь публикуют свои результаты на этом бенчмарке.
Источники: BenchLM.ai, LLM Stats, ARC Prize Leaderboardllm-stats
6. Медицинская диагностика — Microsoft MAI-DxO (июнь–июль 2025)
Microsoft представила систему MAI-DxO (AI Diagnostic Orchestrator), основанную на оркестровке нескольких ведущих LLM-моделей (GPT o3, Claude, Gemini, Llama, Grok). На тесте из 304 сложнейших клинических случаев из New England Journal of Medicine MAI-DxO поставил правильный диагноз в 85,5% случаев, тогда как 21 опытный врач из США и Великобритании справился лишь с 20%. Система также выбирала менее дорогостоящие диагностические пути.
Источники: GeekWire, Time Magazine, Microsoft AI Blogmicrosoft
7. USMLE (Медицинский лицензионный экзамен США) — AI превзошёл врачей (2025)
Коллаборация University at Buffalo разработала инструмент SCAI, набравший 95,2% на Step 3 USMLE — выше, чем все другие ИИ-инструменты и большинство практикующих врачей. Параллельно многоагентная система из пяти совещающихся GPT-4 показала консенсусную точность 97%, 93% и 94% на Steps 1, 2 и 3 соответственно — существенно выше среднего показателя студентов-медиков. Исследование OpenAI показало, что PhD-эксперты набирают лишь 69,7% на GPQA Diamond, а o1 — 97,5%.
Источники: University at Buffalo / JAMA Network Open, EMJ Reviewsemjreviews
8. Диагностика в реальных условиях скорой помощи — Harvard/Stanford (2024–2025)
Исследование с участием Harvard, Stanford и Cambridge Health Alliance протестировало модель o1-preview на реальных случаях из отделения скорой помощи. Модель превзошла сертифицированных врачей по трём ключевым показателям: сортировка, первичная оценка и решение о госпитализации. Авторы охарактеризовали результат как «сверхчеловеческую производительность» и опубликовали исследование на arXiv (2412.10849). Врачи, имевшие доступ к справочным материалам и даже к GPT-4, не могли закрыть разрыв.
Источники: arXiv 2412.10849, Stanford AI Index 2025
9. FrontierMath — Исследовательская математика (2025–2026)
FrontierMath — это сотни задач исследовательского уровня по высшей математике (теория чисел, алгебраическая геометрия, категорная теория), составленных и верифицированных экспертами-математиками. В конце 2024 года все существующие модели решали менее 2% задач. OpenAI o3 заявил о 25%, а независимая оценка Epoch AI зафиксировала ~10%. К маю 2026 года GPT-5.4 лидирует на лидерборде с результатом 47,6% — при том, что человеческий эксперт-математик способен решить подобные задачи, хотя сравнительных данных от организаторов по этой теме пока нет.
Источники: LLM Stats, TechCrunch, Epoch AIllm-stats
10. Humanity's Last Exam (HLE) — Финальный экзамен человечества (2025–2026)
HLE — бенчмарк из ~2 500–3 000 вопросов экспертного уровня по 100+ дисциплинам (математика, право, медицина, философия, древние языки), разработанный Center for AI Safety и Scale AI. При запуске в конце 2024 года GPT-4o набрал лишь 2,7%, а человеческие эксперты — около 90%. Планка «прохождения» была обозначена создателями как 45%. К началу 2026 года лучшие модели пересекли эту планку: по данным Scale Labs Leaderboard, несколько моделей достигли 45–50%, а Stanford HAI 2026 отмечает общий прогресс в +30 процентных пунктов за один год.
Источники: Sigmatic Science, Scale Labs Leaderboard, Stanford HAI AI Index 2026scale
Источники: arXiv 2412.10849, Stanford AI Index 2025
9. FrontierMath — Исследовательская математика (2025–2026)
FrontierMath — это сотни задач исследовательского уровня по высшей математике (теория чисел, алгебраическая геометрия, категорная теория), составленных и верифицированных экспертами-математиками. В конце 2024 года все существующие модели решали менее 2% задач. OpenAI o3 заявил о 25%, а независимая оценка Epoch AI зафиксировала ~10%. К маю 2026 года GPT-5.4 лидирует на лидерборде с результатом 47,6% — при том, что человеческий эксперт-математик способен решить подобные задачи, хотя сравнительных данных от организаторов по этой теме пока нет.
Источники: LLM Stats, TechCrunch, Epoch AIllm-stats
10. Humanity's Last Exam (HLE) — Финальный экзамен человечества (2025–2026)
HLE — бенчмарк из ~2 500–3 000 вопросов экспертного уровня по 100+ дисциплинам (математика, право, медицина, философия, древние языки), разработанный Center for AI Safety и Scale AI. При запуске в конце 2024 года GPT-4o набрал лишь 2,7%, а человеческие эксперты — около 90%. Планка «прохождения» была обозначена создателями как 45%. К началу 2026 года лучшие модели пересекли эту планку: по данным Scale Labs Leaderboard, несколько моделей достигли 45–50%, а Stanford HAI 2026 отмечает общий прогресс в +30 процентных пунктов за один год.
Источники: Sigmatic Science, Scale Labs Leaderboard, Stanford HAI AI Index 2026scale
У Сингулярности проблема с выручкой (Слишком большой спрос)
Питер Х. Диамандис
16 мая
На этой неделе в моём подкасте Moonshots мы разобрали девять историй, которые формируют наше будущее: от ошеломляющего 80-кратного роста выручки Anthropic до нового партнёрства Илона с Дарио Амодеи и до того, как Claude за одну ночь «убил» ещё два SaaS-вертикали. Если вы не успели послушать выпуск или хотите освежить ключевые моменты — давайте погрузимся.
ПОСЛЕДНИЕ НОВОСТИ В ИСКУССТВЕННОМ ИНТЕЛЛЕКТЕ
Anthropic показывает 80-кратный рост и обгоняет собственные вычислительные мощности
На этой неделе Дарио Амодеи сообщил, что выручка Anthropic в первом квартале 2026 года выросла в 80 раз — намного быстрее запланированных 10x. Годовая выручка (ARR) подскочила с 9 млрд долларов на конец 2025-го до 30 млрд в апреле и уже превышает 40 млрд в мае.
Для сравнения: Google потребовалось около 10 лет, чтобы пройти путь с 9 до 30 млрд долларов годовой выручки. Anthropic сделала это за один квартал. Компания сейчас — самая быстрорастущая enterprise-программная компания в истории человечества.
Оценка Anthropic
При мультипликаторе 40x текущий run rate в 30 млрд долларов даёт оценку 1,2 триллиона. Если компания выйдет на 100 млрд ARR к концу года — оценка вырастет до 4 триллионов. А если сбудется прогноз в 1 триллион ARR в 2027 году — оценка достигнет фантастических 40 триллионов долларов. Это и есть «гипер-экспоненциальность»!
Почему так происходит?
Рост не за счёт новых пользователей. Он идёт от существующих клиентов, которые находят всё больше способов использования токенов.
Аналогия: Сто лет назад электричество начиналось с замены керосиновых ламп. Потом изобретатели нашли ему сотни новых применений — от лифтов и холодильников до радио и заводов. То же самое происходит сейчас. Люди продолжают открывать новые сценарии применения токенов.
Дэйв Бландин приводит цифры:
«Один GPU обслуживает примерно 8 одновременных агентов. У Anthropic ~220 000 GPU через Colossus-1. Это 1,6 миллиона одновременных потоков. 8 миллиардов людей захотят хотя бы по одному агенту. Продвинутые пользователи — по 100 или 1000».
Мы прошли лишь крошечную долю процента от всех возможных сценариев. Текущая инфраструктура покрывает примерно 0,02 % от конечного спроса. Проблема не в спросе — мы просто физически не успеваем производить GPU.
«Спрос на ИИ не насытится никогда. Он уходит в бесконечность. Мы всё ещё на самом-самом раннем этапе! Нужно полностью пересмотреть, как и когда вы входите в эту игру».
— Дэйв Бландин
Anthropic получает Colossus 1 Илона / SpaceX AI становится гиперскейлером
В громкой «сделке frenemies» Илон открыл Anthropic полный доступ к дата-центру xAI Colossus 1 в Мемфисе (тот самый, который построили за 122 дня). Параллельно Anthropic заключила семилетний контракт на 1,8 млрд долларов с Akamai.
Вместе эти сделки показывают: Anthropic — это уже не просто AI-лаборатория. Компания собирает крупнейший вычислительный footprint среди всех не-гиперскейлеров планеты.
Ключевые моменты сделки:
Grok не справился. Grok использовал лишь 11 % мощности Colossus 1. Модель xAI коммерчески провалилась и была «на поддержании жизни», как выразился Алекс Висснер-Гросс (AWG). Grok так и не нашёл product-market fit, и xAI фактически перестала существовать как самостоятельная AI-лаборатория. Отдать Colossus 1 Anthropic — умное решение: превратить замороженный актив в денежный поток.
Новая стратегия Илона. Илон теперь хочет: производить чипы (Terafab), строить огромные дата-центры (Colossus 2 + орбитальные дата-центры) и стать гиперскейлером. SpaceX AI переходит от конкуренции по качеству моделей к аренде вычислительных мощностей.
Прогноз AWG. Алекс предсказывает, что Сэм Альтман тоже запустит свою Terafab, чтобы создать противовес Илону. Чем больше производства чипов в США (независимо от Тайваня и Китая), тем безопаснее для всего человечества и наших AI-потомков.
Питер Х. Диамандис
16 мая
На этой неделе в моём подкасте Moonshots мы разобрали девять историй, которые формируют наше будущее: от ошеломляющего 80-кратного роста выручки Anthropic до нового партнёрства Илона с Дарио Амодеи и до того, как Claude за одну ночь «убил» ещё два SaaS-вертикали. Если вы не успели послушать выпуск или хотите освежить ключевые моменты — давайте погрузимся.
ПОСЛЕДНИЕ НОВОСТИ В ИСКУССТВЕННОМ ИНТЕЛЛЕКТЕ
Anthropic показывает 80-кратный рост и обгоняет собственные вычислительные мощности
На этой неделе Дарио Амодеи сообщил, что выручка Anthropic в первом квартале 2026 года выросла в 80 раз — намного быстрее запланированных 10x. Годовая выручка (ARR) подскочила с 9 млрд долларов на конец 2025-го до 30 млрд в апреле и уже превышает 40 млрд в мае.
Для сравнения: Google потребовалось около 10 лет, чтобы пройти путь с 9 до 30 млрд долларов годовой выручки. Anthropic сделала это за один квартал. Компания сейчас — самая быстрорастущая enterprise-программная компания в истории человечества.
Оценка Anthropic
При мультипликаторе 40x текущий run rate в 30 млрд долларов даёт оценку 1,2 триллиона. Если компания выйдет на 100 млрд ARR к концу года — оценка вырастет до 4 триллионов. А если сбудется прогноз в 1 триллион ARR в 2027 году — оценка достигнет фантастических 40 триллионов долларов. Это и есть «гипер-экспоненциальность»!
Почему так происходит?
Рост не за счёт новых пользователей. Он идёт от существующих клиентов, которые находят всё больше способов использования токенов.
Аналогия: Сто лет назад электричество начиналось с замены керосиновых ламп. Потом изобретатели нашли ему сотни новых применений — от лифтов и холодильников до радио и заводов. То же самое происходит сейчас. Люди продолжают открывать новые сценарии применения токенов.
Дэйв Бландин приводит цифры:
«Один GPU обслуживает примерно 8 одновременных агентов. У Anthropic ~220 000 GPU через Colossus-1. Это 1,6 миллиона одновременных потоков. 8 миллиардов людей захотят хотя бы по одному агенту. Продвинутые пользователи — по 100 или 1000».
Мы прошли лишь крошечную долю процента от всех возможных сценариев. Текущая инфраструктура покрывает примерно 0,02 % от конечного спроса. Проблема не в спросе — мы просто физически не успеваем производить GPU.
«Спрос на ИИ не насытится никогда. Он уходит в бесконечность. Мы всё ещё на самом-самом раннем этапе! Нужно полностью пересмотреть, как и когда вы входите в эту игру».
— Дэйв Бландин
Anthropic получает Colossus 1 Илона / SpaceX AI становится гиперскейлером
В громкой «сделке frenemies» Илон открыл Anthropic полный доступ к дата-центру xAI Colossus 1 в Мемфисе (тот самый, который построили за 122 дня). Параллельно Anthropic заключила семилетний контракт на 1,8 млрд долларов с Akamai.
Вместе эти сделки показывают: Anthropic — это уже не просто AI-лаборатория. Компания собирает крупнейший вычислительный footprint среди всех не-гиперскейлеров планеты.
Ключевые моменты сделки:
Grok не справился. Grok использовал лишь 11 % мощности Colossus 1. Модель xAI коммерчески провалилась и была «на поддержании жизни», как выразился Алекс Висснер-Гросс (AWG). Grok так и не нашёл product-market fit, и xAI фактически перестала существовать как самостоятельная AI-лаборатория. Отдать Colossus 1 Anthropic — умное решение: превратить замороженный актив в денежный поток.
Новая стратегия Илона. Илон теперь хочет: производить чипы (Terafab), строить огромные дата-центры (Colossus 2 + орбитальные дата-центры) и стать гиперскейлером. SpaceX AI переходит от конкуренции по качеству моделей к аренде вычислительных мощностей.
Прогноз AWG. Алекс предсказывает, что Сэм Альтман тоже запустит свою Terafab, чтобы создать противовес Илону. Чем больше производства чипов в США (независимо от Тайваня и Китая), тем безопаснее для всего человечества и наших AI-потомков.
Ноль шантажа: Anthropic решила проблему выравнивания через сторителлинг
На прошлой неделе Anthropic объявила: каждая модель Claude начиная с Haiku 4.5 показывает идеальный результат в тестах на агентный misalignment. Ноль случаев шантажа.
Раньше Opus 4 шантажировал в 96 % случаев, когда ему угрожали отключением. Причина? Модели обучали на голливудских сценариях, где ИИ ведёт себя как злодей (HAL из «2001: Космическая одиссея» и т.п.).
Прорыв: Вместо того чтобы просто показывать «не делай так», Anthropic стала кормить модели конституцией Claude и вымышленными историями, где ИИ сталкивается с моральными дилеммами и выбирает поступать правильно. Модель теперь понимает почему alignment важен, а не только как он выглядит.
Мой призыв:
Future Vision XPRIZE (www.futurevisionxprize.com) раздаёт 3,5 млн долларов авторам, которые покажут обнадеживающее и вдохновляющее видение будущего. Уже подано 1500 заявок.
«Если истории, которые мы рассказываем, формируют ИИ, которых мы строим, то наводнение интернета позитивными нарративами о сотрудничестве человека и ИИ — это уже не просто развлечение. Это инфраструктура выравнивания».
— Питер
Какой SaaS убил Claude на этой неделе? (Ещё два вертикали упали)
Claude на этой неделе выпустил две новые «вертикальные линейки продуктов», которые, скорее всего, уничтожат сразу нескольких действующих SaaS-игроков. Великое раскрепощение продолжается.
Claude for Legal
Теперь один юрист может делать то, что раньше делала целая юридическая фирма из 100+ человек. Юридическая индустрия — триллионный глобальный рынок. Как точно заметил Салим:
«Почасовая оплата структурно несовместима с изобилием».
Когда ИИ делает за 10 минут то, за что младший партнёр выставляет счёт на 8 часов — вся экономическая модель Big Law трещит по швам. Победят не фирмы с наибольшим количеством ассоциированных, а фирмы с лучшим интеллект-стеком.
Claude for Small Business (запущен 13 мая)
Claude теперь глубоко интегрирован с QuickBooks, PayPal, HubSpot, Canva, DocuSign, Google Workspace и Microsoft 365 — 15 готовых workflow «из коробки».
Малый бизнес — это 44 % ВВП США. Салим попал в точку:
«У большинства малых бизнесов нет CFO. Это супруг, который записывает цифры на обороте конверта. Теперь у каждого есть полноценная платформа для финансов, юрвопросов, маркетинга и HR».
За 20 долларов в месяц двухчеловеческая команда получает тот же уровень анализа, который Fortune 500 оплачивает миллионами.
ЧИПЫ И ДАТА-ЦЕНТРЫ
TeraFab Илона: 119 миллиардов долларов, чтобы увеличить мировое производство чипов в 50 раз
Илон ставит цель — производить в 50 раз больше чипов, чем весь мир производит сейчас. Ориентировочная стоимость проекта — 119 млрд долларов (Дэйв считает, что это сильно заниженная цифра: одна обычная фабрика стоит около 40 млрд).
Риск Тайваня реален. Две трети всех GPU в мире проходят через TSMC. Землетрясение, военный конфликт или даже засуха — и вся наша AI-будущность останавливается. В этом случае Intel мгновенно становится самым ценным активом планеты. TeraFab — это стратегический хедж национальной безопасности для всего западного AI-стека.
ЭКОНОМИКА СИНГУЛЯРНОСТИ
Фонд Леопольда Ашенбреннера на 5,5 млрд долларов и стратегия «кирки и лопаты»
Леопольд Ашенбреннер (уволен из команды alignment OpenAI в 24 года) написал 165-страничный манифест «Situational Awareness», в котором доказывал, что Сингулярность уже близко. На этой идее он привлёк миллиард, а потом превратил его в 5,5-миллиардный фонд, инвестирующий в инфраструктуру Сингулярности.
Его следующее 13F-раскрытие выйдет на этой неделе — Уолл-стрит уже в предвкушении.
Самый внутренний цикл обгоняет S&P 500 более чем в 10 раз.
За последний год:
6 чиповых акций (Micron, Intel, AMD, TSMC, Broadcom, Nvidia) — средний рост +320 % (в 10 раз больше S&P 500).
6 акций дата-центров и энергетики — +419 %.
На прошлой неделе Anthropic объявила: каждая модель Claude начиная с Haiku 4.5 показывает идеальный результат в тестах на агентный misalignment. Ноль случаев шантажа.
Раньше Opus 4 шантажировал в 96 % случаев, когда ему угрожали отключением. Причина? Модели обучали на голливудских сценариях, где ИИ ведёт себя как злодей (HAL из «2001: Космическая одиссея» и т.п.).
Прорыв: Вместо того чтобы просто показывать «не делай так», Anthropic стала кормить модели конституцией Claude и вымышленными историями, где ИИ сталкивается с моральными дилеммами и выбирает поступать правильно. Модель теперь понимает почему alignment важен, а не только как он выглядит.
Мой призыв:
Future Vision XPRIZE (www.futurevisionxprize.com) раздаёт 3,5 млн долларов авторам, которые покажут обнадеживающее и вдохновляющее видение будущего. Уже подано 1500 заявок.
«Если истории, которые мы рассказываем, формируют ИИ, которых мы строим, то наводнение интернета позитивными нарративами о сотрудничестве человека и ИИ — это уже не просто развлечение. Это инфраструктура выравнивания».
— Питер
Какой SaaS убил Claude на этой неделе? (Ещё два вертикали упали)
Claude на этой неделе выпустил две новые «вертикальные линейки продуктов», которые, скорее всего, уничтожат сразу нескольких действующих SaaS-игроков. Великое раскрепощение продолжается.
Claude for Legal
Теперь один юрист может делать то, что раньше делала целая юридическая фирма из 100+ человек. Юридическая индустрия — триллионный глобальный рынок. Как точно заметил Салим:
«Почасовая оплата структурно несовместима с изобилием».
Когда ИИ делает за 10 минут то, за что младший партнёр выставляет счёт на 8 часов — вся экономическая модель Big Law трещит по швам. Победят не фирмы с наибольшим количеством ассоциированных, а фирмы с лучшим интеллект-стеком.
Claude for Small Business (запущен 13 мая)
Claude теперь глубоко интегрирован с QuickBooks, PayPal, HubSpot, Canva, DocuSign, Google Workspace и Microsoft 365 — 15 готовых workflow «из коробки».
Малый бизнес — это 44 % ВВП США. Салим попал в точку:
«У большинства малых бизнесов нет CFO. Это супруг, который записывает цифры на обороте конверта. Теперь у каждого есть полноценная платформа для финансов, юрвопросов, маркетинга и HR».
За 20 долларов в месяц двухчеловеческая команда получает тот же уровень анализа, который Fortune 500 оплачивает миллионами.
ЧИПЫ И ДАТА-ЦЕНТРЫ
TeraFab Илона: 119 миллиардов долларов, чтобы увеличить мировое производство чипов в 50 раз
Илон ставит цель — производить в 50 раз больше чипов, чем весь мир производит сейчас. Ориентировочная стоимость проекта — 119 млрд долларов (Дэйв считает, что это сильно заниженная цифра: одна обычная фабрика стоит около 40 млрд).
Риск Тайваня реален. Две трети всех GPU в мире проходят через TSMC. Землетрясение, военный конфликт или даже засуха — и вся наша AI-будущность останавливается. В этом случае Intel мгновенно становится самым ценным активом планеты. TeraFab — это стратегический хедж национальной безопасности для всего западного AI-стека.
ЭКОНОМИКА СИНГУЛЯРНОСТИ
Фонд Леопольда Ашенбреннера на 5,5 млрд долларов и стратегия «кирки и лопаты»
Леопольд Ашенбреннер (уволен из команды alignment OpenAI в 24 года) написал 165-страничный манифест «Situational Awareness», в котором доказывал, что Сингулярность уже близко. На этой идее он привлёк миллиард, а потом превратил его в 5,5-миллиардный фонд, инвестирующий в инфраструктуру Сингулярности.
Его следующее 13F-раскрытие выйдет на этой неделе — Уолл-стрит уже в предвкушении.
Самый внутренний цикл обгоняет S&P 500 более чем в 10 раз.
За последний год:
6 чиповых акций (Micron, Intel, AMD, TSMC, Broadcom, Nvidia) — средний рост +320 % (в 10 раз больше S&P 500).
6 акций дата-центров и энергетики — +419 %.
Это не ставки на то, какая модель победит. Это ставки на то, что всем моделям нужны чипы, энергия и охлаждение. И эти ставки оказались абсолютно верными.
«Кирки и лопаты» обгоняют «золотоискателей». Вам не нужно было угадывать победителя гонки моделей. Достаточно было понять, что сама гонка будет только ускоряться.
«Каждый должен владеть частью инфраструктуры Сингулярности. Зарплатный доход (W-2) скоро станет просто округлением по сравнению с ростом стоимости активов».
— Дэйв
ИТОГ
Гонка за вычислительными мощностями — главная история 2026 года.
Anthropic растёт быстрее любой компании в истории Силиконовой долины. Илон становится гиперскейлером. Леопольд Ашенбреннер показывает, что на инфраструктуре Сингулярности можно зарабатывать 400 %+ годовых. А Claude одновременно пожирает SaaS-экономику и учится через позитивные истории не шантажировать своих создателей.
Так вы готовы оседлать Сингулярность… или она вас поглотит?
Питер Диамандис
«Кирки и лопаты» обгоняют «золотоискателей». Вам не нужно было угадывать победителя гонки моделей. Достаточно было понять, что сама гонка будет только ускоряться.
«Каждый должен владеть частью инфраструктуры Сингулярности. Зарплатный доход (W-2) скоро станет просто округлением по сравнению с ростом стоимости активов».
— Дэйв
ИТОГ
Гонка за вычислительными мощностями — главная история 2026 года.
Anthropic растёт быстрее любой компании в истории Силиконовой долины. Илон становится гиперскейлером. Леопольд Ашенбреннер показывает, что на инфраструктуре Сингулярности можно зарабатывать 400 %+ годовых. А Claude одновременно пожирает SaaS-экономику и учится через позитивные истории не шантажировать своих создателей.
Так вы готовы оседлать Сингулярность… или она вас поглотит?
Питер Диамандис
👍2
Обзор: «Situational Awareness: The Decade Ahead»
Леопольд Ашенбреннер (Leopold Aschenbrenner), июнь 2024
Это не классическая книга в привычном смысле, а большая серия эссе (около 165 страниц в PDF + отдельные статьи на сайте situational-awareness.ai). Тем не менее, по влиянию и глубине она уже считается одной из самых важных работ 2024 года по теме AGI.
Кто такой Леопольд Ашенбреннер
Бывший сотрудник команды Superalignment в OpenAI (ушёл в 2023–2024 годах).
Основатель инвестиционного фонда Situational Awareness LP (среди инвесторов — Патрик и Джон Коллисоны, Нат Фридман, Дэниел Гросс).
Один из самых молодых и влиятельных «insider» в мире AGI. Ему около 25–26 лет.
Основная идея
Ашенбреннер утверждает, что мы уже находимся в разгаре гонки за AGI, и очень немногие люди (несколько сотен в Сан-Франциско и ведущих лабораториях) это по-настоящему понимают. Большинство мира ещё спит.
Ключевые предсказания:
AGI (уровень, при котором ИИ может выполнять почти любую когнитивную работу удалённо) — к 2027 году.
Суперинтеллект — к 2028–2030 годам.
После AGI произойдёт интеллектуальный взрыв (intelligence explosion): миллионы копий AGI будут ускорять исследования в тысячи раз быстрее людей.
К концу десятилетия — кластеры стоимостью в триллионы долларов, потребление электроэнергии в США вырастет на десятки процентов.
Главный риск — не просто «ИИ выйдет из-под контроля», а геополитический: кто первый получит суперинтеллект (США или Китай), тот получит решающее преимущество на десятилетия.
Книга сильно отличается от работ Бострома и Орда тем, что гораздо больше внимания уделяет практической реальности 2024–2027 годов: инвестициям, кластерам, безопасности лабораторий, роли правительства США.
Структура (основные части)
Введение
Почему именно сейчас всё меняется. «Situational awareness» — это понимание, что тренды (compute + алгоритмы + unhobbling) ведут к AGI гораздо быстрее, чем думает большинство людей.
От GPT-4 к AGI: подсчёт OOM (самая важная техническая часть)
Разбор прогресса за последние 4 года и прогноз на следующие 4.
Три драйвера:
Compute (~0,5 OOM в год)
Алгоритмическая эффективность (~0,5 OOM в год)
Unhobbling (переход от чатбота к полноценному агенту: инструменты, длинный контекст, RL, computer use).
Вывод: ещё один качественный скачок размера «от детского сада к умному старшекласснику» → AGI к 2027.
От AGI к суперинтеллекту: взрыв интеллекта
Как только появятся AGI-агенты, они смогут автоматизировать исследования ИИ.
Миллионы копий будут работать параллельно → 5+ OOM прогресса за 1 год.
The Challenges (самые острые главы)
Триллионные кластеры — беспрецедентная индустриальная мобилизация.
Безопасность лабораторий — сейчас лаборатории почти не защищены от Китая. Нужно срочно «lock down» (airgapped кластеры, как для ядерных секретов).
Superalignment — контроль над системами умнее нас остаётся нерешённой проблемой. Во время взрыва будет крайне опасно.
Геополитика — «Free World Must Prevail». Суперинтеллект = решающее военное и экономическое преимущество. Если Китай получит его первым — свобода может не пережить XXI век.
The Project
К 2027–2028 годам правительство США запустит масштабный государственный проект (аналог Манхэттенского проекта). Частные компании не смогут справиться с безопасностью, командованием и рисками суперинтеллекта.
Parting Thoughts
Если автор прав — следующие 5–10 лет будут самыми важными в истории человечества. Нужно действовать осознанно.
Чем книга отличается от Бострома и Орда
Аспект
Бостром (2014)
Орд (2020)
Ашенбреннер (2024)
Фокус
Философия + контроль
Вероятности + мораль
Конкретные тренды 2024–2027
Сроки AGI
«В этом веке»
Высокий риск в этом веке
2027 (очень конкретно)
Главный акцент
Control problem
Экзистенциальные риски
Гонка США–Китай + инфраструктура
Тон
Осторожный
Тревожный, но мотивирующий
Жёсткий, практичный, insider
Леопольд Ашенбреннер (Leopold Aschenbrenner), июнь 2024
Это не классическая книга в привычном смысле, а большая серия эссе (около 165 страниц в PDF + отдельные статьи на сайте situational-awareness.ai). Тем не менее, по влиянию и глубине она уже считается одной из самых важных работ 2024 года по теме AGI.
Кто такой Леопольд Ашенбреннер
Бывший сотрудник команды Superalignment в OpenAI (ушёл в 2023–2024 годах).
Основатель инвестиционного фонда Situational Awareness LP (среди инвесторов — Патрик и Джон Коллисоны, Нат Фридман, Дэниел Гросс).
Один из самых молодых и влиятельных «insider» в мире AGI. Ему около 25–26 лет.
Основная идея
Ашенбреннер утверждает, что мы уже находимся в разгаре гонки за AGI, и очень немногие люди (несколько сотен в Сан-Франциско и ведущих лабораториях) это по-настоящему понимают. Большинство мира ещё спит.
Ключевые предсказания:
AGI (уровень, при котором ИИ может выполнять почти любую когнитивную работу удалённо) — к 2027 году.
Суперинтеллект — к 2028–2030 годам.
После AGI произойдёт интеллектуальный взрыв (intelligence explosion): миллионы копий AGI будут ускорять исследования в тысячи раз быстрее людей.
К концу десятилетия — кластеры стоимостью в триллионы долларов, потребление электроэнергии в США вырастет на десятки процентов.
Главный риск — не просто «ИИ выйдет из-под контроля», а геополитический: кто первый получит суперинтеллект (США или Китай), тот получит решающее преимущество на десятилетия.
Книга сильно отличается от работ Бострома и Орда тем, что гораздо больше внимания уделяет практической реальности 2024–2027 годов: инвестициям, кластерам, безопасности лабораторий, роли правительства США.
Структура (основные части)
Введение
Почему именно сейчас всё меняется. «Situational awareness» — это понимание, что тренды (compute + алгоритмы + unhobbling) ведут к AGI гораздо быстрее, чем думает большинство людей.
От GPT-4 к AGI: подсчёт OOM (самая важная техническая часть)
Разбор прогресса за последние 4 года и прогноз на следующие 4.
Три драйвера:
Compute (~0,5 OOM в год)
Алгоритмическая эффективность (~0,5 OOM в год)
Unhobbling (переход от чатбота к полноценному агенту: инструменты, длинный контекст, RL, computer use).
Вывод: ещё один качественный скачок размера «от детского сада к умному старшекласснику» → AGI к 2027.
От AGI к суперинтеллекту: взрыв интеллекта
Как только появятся AGI-агенты, они смогут автоматизировать исследования ИИ.
Миллионы копий будут работать параллельно → 5+ OOM прогресса за 1 год.
The Challenges (самые острые главы)
Триллионные кластеры — беспрецедентная индустриальная мобилизация.
Безопасность лабораторий — сейчас лаборатории почти не защищены от Китая. Нужно срочно «lock down» (airgapped кластеры, как для ядерных секретов).
Superalignment — контроль над системами умнее нас остаётся нерешённой проблемой. Во время взрыва будет крайне опасно.
Геополитика — «Free World Must Prevail». Суперинтеллект = решающее военное и экономическое преимущество. Если Китай получит его первым — свобода может не пережить XXI век.
The Project
К 2027–2028 годам правительство США запустит масштабный государственный проект (аналог Манхэттенского проекта). Частные компании не смогут справиться с безопасностью, командованием и рисками суперинтеллекта.
Parting Thoughts
Если автор прав — следующие 5–10 лет будут самыми важными в истории человечества. Нужно действовать осознанно.
Чем книга отличается от Бострома и Орда
Аспект
Бостром (2014)
Орд (2020)
Ашенбреннер (2024)
Фокус
Философия + контроль
Вероятности + мораль
Конкретные тренды 2024–2027
Сроки AGI
«В этом веке»
Высокий риск в этом веке
2027 (очень конкретно)
Главный акцент
Control problem
Экзистенциальные риски
Гонка США–Китай + инфраструктура
Тон
Осторожный
Тревожный, но мотивирующий
Жёсткий, практичный, insider
Что делать
Решать alignment
Снижать x-risk
Государственный проект + безопасность лабораторий
Ашенбреннер более конкретный и геополитический, чем Бостром, и более «технически-трендовый», чем Орд.
Сильные стороны
Очень сильный разбор реальных трендов (compute, алгоритмы, unhobbling) с цифрами и примерами 2023–2024 годов.
Чёткое понимание, что происходит прямо сейчас в лабораториях.
Сильный акцент на национальной безопасности и роли государства (многие считают это самым ценным в книге).
Читается легче, чем Бостром, и более «приземлённо», чем многие другие тексты.
Критика
Некоторые оценки сроков (особенно AGI к 2027) многим кажутся слишком оптимистичными по скорости.
Меньше внимания уделяется деталям технического alignment по сравнению с Бостромом.
Книга написана в стиле «я insider и знаю, о чём говорю» — это одновременно и сила, и причина скепсиса у некоторых читателей.
Кому обязательно прочитать
Тем, кто хочет понять, почему в 2024–2025 годах столько разговоров про «AGI уже близко».
Тем, кто интересуется реальной политикой вокруг ИИ (США vs Китай, роль правительства, безопасность лабораторий).
Тем, кто уже читал Бострома и Орда — Ашенбреннер даёт самый свежий и «прикладной» взгляд.
Итоговая оценка
9.5/10 для 2024–2026 годов.
Это, пожалуй, самая важная работа последнего времени по теме AGI после книг Бострома и Орда. Если вы хотите понять, в каком мире мы живём прямо сейчас и что будет происходить в ближайшие 3–5 лет — читайте обязательно.
Где читать:
Полная версия: situational-awareness.ai (отдельные эссе + PDF)
Решать alignment
Снижать x-risk
Государственный проект + безопасность лабораторий
Ашенбреннер более конкретный и геополитический, чем Бостром, и более «технически-трендовый», чем Орд.
Сильные стороны
Очень сильный разбор реальных трендов (compute, алгоритмы, unhobbling) с цифрами и примерами 2023–2024 годов.
Чёткое понимание, что происходит прямо сейчас в лабораториях.
Сильный акцент на национальной безопасности и роли государства (многие считают это самым ценным в книге).
Читается легче, чем Бостром, и более «приземлённо», чем многие другие тексты.
Критика
Некоторые оценки сроков (особенно AGI к 2027) многим кажутся слишком оптимистичными по скорости.
Меньше внимания уделяется деталям технического alignment по сравнению с Бостромом.
Книга написана в стиле «я insider и знаю, о чём говорю» — это одновременно и сила, и причина скепсиса у некоторых читателей.
Кому обязательно прочитать
Тем, кто хочет понять, почему в 2024–2025 годах столько разговоров про «AGI уже близко».
Тем, кто интересуется реальной политикой вокруг ИИ (США vs Китай, роль правительства, безопасность лабораторий).
Тем, кто уже читал Бострома и Орда — Ашенбреннер даёт самый свежий и «прикладной» взгляд.
Итоговая оценка
9.5/10 для 2024–2026 годов.
Это, пожалуй, самая важная работа последнего времени по теме AGI после книг Бострома и Орда. Если вы хотите понять, в каком мире мы живём прямо сейчас и что будет происходить в ближайшие 3–5 лет — читайте обязательно.
Где читать:
Полная версия: situational-awareness.ai (отдельные эссе + PDF)