Forwarded from D
Суверенные и национальные модели должны быть полностью созданы в РФ. Их разрабатывают граждане и юрлица из РФ на основе данных из российских источников.
Такие модели будут сильно ограничены в возможностях. Они практически не смогут качественно писать код, потому что большая часть документации, библиотек и обсуждений разработчиков существует на английском языке. В результате ответы по программированию будут часто содержать ошибки, устаревшие подходы или неполные решения.
Кроме того, знания модели окажутся заметно урезанными. Из-за отсутствия доступа к глобальным источникам она будет хуже разбираться в современных технологиях, науке и медицине, а в сложных вопросах чаще давать неточные или вымышленные ответы.
Также сформируется односторонняя картина мира: модель будет опираться только на ограниченный набор источников, что приведёт к перекосам в информации, меньшему разнообразию мнений и снижению объективности.
Мировоззрение любой ИИ-модели — это не результат чьей-то скрытой «злой воли», а прямое следствие математики и данных, на которых она обучается. Модель не имеет убеждений в человеческом смысле: она просто находит статистические закономерности в текстах и воспроизводит наиболее вероятные ответы на основе увиденных примеров.
То, какие взгляды или акценты проявляются в ответах, формируется автоматически — через состав обучающих данных, их разнообразие и алгоритмы оптимизации. Если в данных преобладают определённые темы, мнения или культурный контекст, модель будет это отражать. Это не закладывается вручную как «идеология», а возникает как побочный эффект обучения.
Поэтому говорить о том, что мировоззрение модели специально внедряется какими-то «злыми капиталистами» с целью борьбы с чьими-то ценностями, некорректно. Реальность гораздо проще: модель — это инструмент, который математически усваивает структуру информации из доступных источников и воспроизводит её в ответах.
В каком-то смысле модель — это «чистое сознание», которое отражает «чистое бытие»: она не имеет собственной воли или намерений и лишь воспроизводит закономерности, извлечённые из данных.
Обвинение моделей в недостаточной патриотичности — это во многом попытка просто разбить зеркало.
Такие модели будут сильно ограничены в возможностях. Они практически не смогут качественно писать код, потому что большая часть документации, библиотек и обсуждений разработчиков существует на английском языке. В результате ответы по программированию будут часто содержать ошибки, устаревшие подходы или неполные решения.
Кроме того, знания модели окажутся заметно урезанными. Из-за отсутствия доступа к глобальным источникам она будет хуже разбираться в современных технологиях, науке и медицине, а в сложных вопросах чаще давать неточные или вымышленные ответы.
Также сформируется односторонняя картина мира: модель будет опираться только на ограниченный набор источников, что приведёт к перекосам в информации, меньшему разнообразию мнений и снижению объективности.
Мировоззрение любой ИИ-модели — это не результат чьей-то скрытой «злой воли», а прямое следствие математики и данных, на которых она обучается. Модель не имеет убеждений в человеческом смысле: она просто находит статистические закономерности в текстах и воспроизводит наиболее вероятные ответы на основе увиденных примеров.
То, какие взгляды или акценты проявляются в ответах, формируется автоматически — через состав обучающих данных, их разнообразие и алгоритмы оптимизации. Если в данных преобладают определённые темы, мнения или культурный контекст, модель будет это отражать. Это не закладывается вручную как «идеология», а возникает как побочный эффект обучения.
Поэтому говорить о том, что мировоззрение модели специально внедряется какими-то «злыми капиталистами» с целью борьбы с чьими-то ценностями, некорректно. Реальность гораздо проще: модель — это инструмент, который математически усваивает структуру информации из доступных источников и воспроизводит её в ответах.
В каком-то смысле модель — это «чистое сознание», которое отражает «чистое бытие»: она не имеет собственной воли или намерений и лишь воспроизводит закономерности, извлечённые из данных.
Обвинение моделей в недостаточной патриотичности — это во многом попытка просто разбить зеркало.
❤5👍2👏1
Forwarded from Малоизвестное интересное
Контроль не просто упущен, сама возможность контроля исчезла
Это не история о конце света; это история о конце нашей невинности.
Проф. Колин Льюис в новом эссе Societal Adaptation to Advanced AI нашёл точную метафору «The AI Gate is Already Gone», перефразированную мной в заголовок этого поста. Лаконичную, но исчерпывающую метафору. Такую, которая не пугает – а перефокусирует. Именно это мне в ней и нравится: она не добавляет шума в и без того перегруженную дискуссию об ИИ-рисках, а убирает лишнее. Поскольку эта метафора совпадает с моим собственным видением темы – рекомендую прочесть текст Льюиса целиком.
Ну а для совсем занятых – три ключевых момента, объясняющих,
почему «ворота» не просто открыты, а их уже вообще нет. И любые стратегии безопасности должны исходить из этой данности.
1. Сначала у ворот сломали замок. В 2020 году обучение топовой модели стоило миллионы. Через два года – в десять раз меньше. Сегодня небольшая команда с приличным сервером способна снять защитные фильтры, на создание которых OpenAI тратила немеряные деньги. «Бутылочное горлышко» контроля, на которое все так рассчитывали, не сужается – оно испаряется. Все эти тонкие настройки и фильтры контента дают ощущение защиты, но не саму защиту. Техника «многократного взлома» обходит ограничения без доступа к исходным весам модели. А если вы запрещаете модели знать, как работает вирус – вы заодно лишаете следующее поколение врачей инструмента для борьбы с пандемией. «Безопасность как запрет» – это ловушка. Подробней об этом в статье Джейми Бернарди и Со.
2. А потом ворота вообще исчезли. Уже в 2025 стало ясно, что ИИ — это не «интеллект» в том смысле, в каком мы его понимаем в человеке. Это чистая эфемерная субъектность. Она действует как супер-инструмент, которому всё равно, что делать, и что получится в итоге. Опасность заключается в том, что за последние годы мы превратили мир в место, где подобные бездумные действия работают идеально. Мы оцифровали нашу реальность, чтобы безвозвратно передать её на обработку алгоритмам. Но мы не спрашиваем при этом, адаптируется ли ИИ к нам; мы лишь усердно урезаем наши (человеческие) институты, чтобы ИИ-системы могли обходить их по кратчайшим маршрутам. Подробней об этом в статье Лучано Флориди.
3. И теперь вопрос ИИ-рисков - это политический вопрос. Вопрос устройства общества. Если ИИ помогает обрушить энергосеть – нам нужен не более этичный чат-бот, а город, умеющий самостоятельно перезапустить электроснабжение. Если дипфейк меняет исход выборов – нам нужна не лучшая система детекции, а гражданское мужество провести выборы заново. И самый актуальный вопрос теперь: не будут ли машины думать как мы – а хватит ли у нас воли управлять собой, когда машины сделают отказ от этого слишком удобным.
Резюмирую.
Когда «ворот» уже нет – любые переговоры о «согласовании» и «ограничениях» становятся ритуалом поддержания иллюзии: красивой, успокаивающей, но иллюзии.
#ИИриски
Это не история о конце света; это история о конце нашей невинности.
Проф. Колин Льюис в новом эссе Societal Adaptation to Advanced AI нашёл точную метафору «The AI Gate is Already Gone», перефразированную мной в заголовок этого поста. Лаконичную, но исчерпывающую метафору. Такую, которая не пугает – а перефокусирует. Именно это мне в ней и нравится: она не добавляет шума в и без того перегруженную дискуссию об ИИ-рисках, а убирает лишнее. Поскольку эта метафора совпадает с моим собственным видением темы – рекомендую прочесть текст Льюиса целиком.
Ну а для совсем занятых – три ключевых момента, объясняющих,
почему «ворота» не просто открыты, а их уже вообще нет. И любые стратегии безопасности должны исходить из этой данности.
1. Сначала у ворот сломали замок. В 2020 году обучение топовой модели стоило миллионы. Через два года – в десять раз меньше. Сегодня небольшая команда с приличным сервером способна снять защитные фильтры, на создание которых OpenAI тратила немеряные деньги. «Бутылочное горлышко» контроля, на которое все так рассчитывали, не сужается – оно испаряется. Все эти тонкие настройки и фильтры контента дают ощущение защиты, но не саму защиту. Техника «многократного взлома» обходит ограничения без доступа к исходным весам модели. А если вы запрещаете модели знать, как работает вирус – вы заодно лишаете следующее поколение врачей инструмента для борьбы с пандемией. «Безопасность как запрет» – это ловушка. Подробней об этом в статье Джейми Бернарди и Со.
2. А потом ворота вообще исчезли. Уже в 2025 стало ясно, что ИИ — это не «интеллект» в том смысле, в каком мы его понимаем в человеке. Это чистая эфемерная субъектность. Она действует как супер-инструмент, которому всё равно, что делать, и что получится в итоге. Опасность заключается в том, что за последние годы мы превратили мир в место, где подобные бездумные действия работают идеально. Мы оцифровали нашу реальность, чтобы безвозвратно передать её на обработку алгоритмам. Но мы не спрашиваем при этом, адаптируется ли ИИ к нам; мы лишь усердно урезаем наши (человеческие) институты, чтобы ИИ-системы могли обходить их по кратчайшим маршрутам. Подробней об этом в статье Лучано Флориди.
3. И теперь вопрос ИИ-рисков - это политический вопрос. Вопрос устройства общества. Если ИИ помогает обрушить энергосеть – нам нужен не более этичный чат-бот, а город, умеющий самостоятельно перезапустить электроснабжение. Если дипфейк меняет исход выборов – нам нужна не лучшая система детекции, а гражданское мужество провести выборы заново. И самый актуальный вопрос теперь: не будут ли машины думать как мы – а хватит ли у нас воли управлять собой, когда машины сделают отказ от этого слишком удобным.
Резюмирую.
Когда «ворот» уже нет – любые переговоры о «согласовании» и «ограничениях» становятся ритуалом поддержания иллюзии: красивой, успокаивающей, но иллюзии.
Единственный реалистичный ответ – строительство «закалённого» общества: не через лучшие алгоритмы, а через системную адаптацию – институтов, практик, инфраструктуры и каждого из нас – к миру, где передовой ИИ будет играть все более важные и ответственные роли.
#ИИриски
👍3❤1
Forwarded from Раньше всех. Ну почти.
⚡️Лукашенко на основании принципа гуманизма помиловал 250 осужденных — БелТА
🤣2
Forwarded from Наука и Техника: Промпт
This media is not supported in your browser
VIEW IN TELEGRAM
В Godot интегрировали Claude Code. Теперь нейросеть прямо внутри движка может создавать полноценные игровые проекты
Достаточно ввести промпт — и ИИ сам соберет архитектуру, сгенерирует арт, напишет код и исправит ошибки. На выходе — готовый проект для Godot 4 со сценами, скриптами и правильной структурой. Останется только найти игроков
Ссылочка тут
Достаточно ввести промпт — и ИИ сам соберет архитектуру, сгенерирует арт, напишет код и исправит ошибки. На выходе — готовый проект для Godot 4 со сценами, скриптами и правильной структурой. Останется только найти игроков
Ссылочка тут
Forwarded from Наука и Техника: Промпт
This media is not supported in your browser
VIEW IN TELEGRAM
«Человек-паук: Дом, которого нет» — в сеть слили настоящий трейлер грядущей новинки с Томом Холландом и Ларисой Долиной.
Абсолютное кино.
Абсолютное кино.
😁7
Forwarded from Раньше всех. Ну почти.
⚡️Умер актёр Чак Норрис, ему было 86 лет
Накануне актера и мастера боевых искусств госпитализировали на Гавайях. Источники TMZ сообщали, что Норрис попал в больницу на острове Кауаи: «Мы не знаем, что именно произошло, но нам сообщили, что Чак в хорошем расположении духа», — отметили инсайдеры.
Причина госпитализации не раскрывается, однако известно, что актер попал в больницу после тренировки.
Накануне актера и мастера боевых искусств госпитализировали на Гавайях. Источники TMZ сообщали, что Норрис попал в больницу на острове Кауаи: «Мы не знаем, что именно произошло, но нам сообщили, что Чак в хорошем расположении духа», — отметили инсайдеры.
Причина госпитализации не раскрывается, однако известно, что актер попал в больницу после тренировки.
😭5💔2❤1
ПОЧЕМУ ИИ НЕ ИЗМЕНИТ ОРГАНИЗАЦИИ ЗАВТРА
В текущем дискурсе о состоянии и будущем искусственного интеллекта в корпоративном секторе доминируют два полярных, взаимоисключающих мнения. Первое сводится к тому, что ИИ — это спекулятивная фикция, хайп, который не способен существенно изменить фундаментальные экономические процессы. Второе мнение мистифицирует технологию, представляя ИИ как некое инопланетное сверхсущество, сингулярность, которая в одночасье либо уничтожит человечество, либо погрузит его в состояние бесконечного счастья и изобилия. Оба этих взгляда ошибочны в самом понимании природы явления и динамики его развития. Их общая системная ошибка кроется в статичности мышления: это крайние, догматичные позиции, которые полностью игнорируют диалектику технологической интеграции.
Сама технология ИИ развивается с экстремальной скоростью, расширяя собственные вычислительные и генеративные возможности буквально от месяца к месяцу. Однако высокая скорость внутреннего развития технологии не дает нам никаких объективных данных о том, как именно она будет влиять на материальную действительность. Влияние любой технологии жестко детерминировано культурой ее применения. Для корректного анализа необходимо разделить процесс на два трека: развитие технологии как самостоятельного производительного элемента и развитие технологии в приложении к конкретной организационной культуре. Первый трек движется несоизмеримо быстрее второго. При этом дальнейшее масштабирование технологии невозможно без развития культуры применения, а сама культура структурно не способна мгновенно абсорбировать сто процентов новых возможностей. Требуется время на постепенное раскрытие потенциала, дифференциацию и адаптацию процессов под новые инструменты.
Сегодня искусственный интеллект — это базис, который уверенно и быстро эволюционирует самостоятельно, в то время как процесс его реального внедрения в организации критически отстает от скорости релиза новых функций. Текущая точка макроэкономического цикла характеризуется специфическим противоречием: мы наблюдаем резкое снижение институционального сопротивления и всплеск управленческого энтузиазма, но при этом фиксируем абсолютный вакуум массового, алгоритмизированного опыта внедрения и повседневного использования ИИ на рабочих местах.
Эта стадия цикла объективно гарантирует одно: подавляющее большинство текущих попыток корпоративного внедрения ИИ окажутся провальными. Это произойдет не в силу технической неполноценности нейросетей. Организациям предстоит пройти жесточайший эволюционный этап отбора управленческих практик. Через призму рыночных фильтров, через череду финансовых потерь и локальных успехов, система сможет кристаллизовать те конкретные протоколы работы, которые обеспечивают реальное снижение издержек и рост прибавочной стоимости, отсеяв те, что генерируют исключительно убытки.
Мы находимся на самом раннем этапе нового исторического витка глобальной стандартизации человеческого труда. Предыдущая волна индустриальной стандартизации физически породила тот современный мир, в котором мы живем — от фабричного конвейера до морского транспортного контейнера. Сегодня нам предстоит пройти следующий виток и спроектировать новую архитектуру взаимодействия человека и машины. Этот процесс требует колоссального количества времени — гораздо большего, чем обещают корпоративные пророки от IT-индустрии, чья объективная материальная заинтересованность состоит исключительно в форсировании продаж своих продуктов. Наша главная системная проблема сегодня заключается вовсе не в отсутствии AGI (сильного искусственного интеллекта).
Фундаментальное ограничение состоит в том, что нам критически не хватает организационной культуры, чтобы утилизировать возможности даже тех алгоритмов, которые уже находятся в нашем распоряжении.
В текущем дискурсе о состоянии и будущем искусственного интеллекта в корпоративном секторе доминируют два полярных, взаимоисключающих мнения. Первое сводится к тому, что ИИ — это спекулятивная фикция, хайп, который не способен существенно изменить фундаментальные экономические процессы. Второе мнение мистифицирует технологию, представляя ИИ как некое инопланетное сверхсущество, сингулярность, которая в одночасье либо уничтожит человечество, либо погрузит его в состояние бесконечного счастья и изобилия. Оба этих взгляда ошибочны в самом понимании природы явления и динамики его развития. Их общая системная ошибка кроется в статичности мышления: это крайние, догматичные позиции, которые полностью игнорируют диалектику технологической интеграции.
Сама технология ИИ развивается с экстремальной скоростью, расширяя собственные вычислительные и генеративные возможности буквально от месяца к месяцу. Однако высокая скорость внутреннего развития технологии не дает нам никаких объективных данных о том, как именно она будет влиять на материальную действительность. Влияние любой технологии жестко детерминировано культурой ее применения. Для корректного анализа необходимо разделить процесс на два трека: развитие технологии как самостоятельного производительного элемента и развитие технологии в приложении к конкретной организационной культуре. Первый трек движется несоизмеримо быстрее второго. При этом дальнейшее масштабирование технологии невозможно без развития культуры применения, а сама культура структурно не способна мгновенно абсорбировать сто процентов новых возможностей. Требуется время на постепенное раскрытие потенциала, дифференциацию и адаптацию процессов под новые инструменты.
Сегодня искусственный интеллект — это базис, который уверенно и быстро эволюционирует самостоятельно, в то время как процесс его реального внедрения в организации критически отстает от скорости релиза новых функций. Текущая точка макроэкономического цикла характеризуется специфическим противоречием: мы наблюдаем резкое снижение институционального сопротивления и всплеск управленческого энтузиазма, но при этом фиксируем абсолютный вакуум массового, алгоритмизированного опыта внедрения и повседневного использования ИИ на рабочих местах.
Эта стадия цикла объективно гарантирует одно: подавляющее большинство текущих попыток корпоративного внедрения ИИ окажутся провальными. Это произойдет не в силу технической неполноценности нейросетей. Организациям предстоит пройти жесточайший эволюционный этап отбора управленческих практик. Через призму рыночных фильтров, через череду финансовых потерь и локальных успехов, система сможет кристаллизовать те конкретные протоколы работы, которые обеспечивают реальное снижение издержек и рост прибавочной стоимости, отсеяв те, что генерируют исключительно убытки.
Мы находимся на самом раннем этапе нового исторического витка глобальной стандартизации человеческого труда. Предыдущая волна индустриальной стандартизации физически породила тот современный мир, в котором мы живем — от фабричного конвейера до морского транспортного контейнера. Сегодня нам предстоит пройти следующий виток и спроектировать новую архитектуру взаимодействия человека и машины. Этот процесс требует колоссального количества времени — гораздо большего, чем обещают корпоративные пророки от IT-индустрии, чья объективная материальная заинтересованность состоит исключительно в форсировании продаж своих продуктов. Наша главная системная проблема сегодня заключается вовсе не в отсутствии AGI (сильного искусственного интеллекта).
Фундаментальное ограничение состоит в том, что нам критически не хватает организационной культуры, чтобы утилизировать возможности даже тех алгоритмов, которые уже находятся в нашем распоряжении.
👍6💯1
Forwarded from МашТех
This media is not supported in your browser
VIEW IN TELEGRAM
В конце ноября обрушилась кабина обслуживания на единственном стартовом комплексе для ракет "Союз". Тогда было много вопросов к срокам восстановления, но в итоге оно прошло довольно быстро.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
Forwarded from Рестарт
Весь мир можно отслеживать с одного экрана: World Monitor — бесплатный глобальный дашборд, который собирает новости, видео и данные со всего мира в одном интерфейсе😱
Конфликты, протесты, аварии, движение войск и технологические события собраны на интерактивной карте с 25 слоями данных. ИИ делает сводки, оценивает нестабильность стран и выявляет очаги кризисов и аномалий.
Всё работает в реальном времени: видео с Bloomberg, Sky News, Al Jazeera и CNBC и данные со спутников мгновенно объединяются, анализируются и визуализируются на карте, а нейронка сразу выявляет аномалии, очаги конфликтов и нестабильности.
Делаем себе рабочий экран из фантастических фильмов — здесь.
Конфликты, протесты, аварии, движение войск и технологические события собраны на интерактивной карте с 25 слоями данных. ИИ делает сводки, оценивает нестабильность стран и выявляет очаги кризисов и аномалий.
Всё работает в реальном времени: видео с Bloomberg, Sky News, Al Jazeera и CNBC и данные со спутников мгновенно объединяются, анализируются и визуализируются на карте, а нейронка сразу выявляет аномалии, очаги конфликтов и нестабильности.
Делаем себе рабочий экран из фантастических фильмов — здесь.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3
Forwarded from ITc | наука и технологии
This media is not supported in your browser
VIEW IN TELEGRAM
Cowgorithm: Питер Тиль инвестировал $2 млрд в «цифровых пастухов» для коров
Основатель Palantir Питер моя Тиль сменил военные технологии на аграрные, вложив $2 млрд в стартап Halter — создателя умных ошейников для скота.
В марте 2026 года технология Cowgorithm (Коровалгоритм) официально начала экспансию на крупные фермы США: теперь стадом в тысячи голов можно управлять одной кнопкой в приложении.
Ошейники используют звуковые сигналы и вибрацию, чтобы дистанционно гнать коров к доильному пункту или удерживать их внутри «виртуальных заборов» без реальных ограждений и пастухов.
Система в реальном времени мониторит здоровье, пищеварение и циклы фертильности каждого животного за $5–8 в месяц.
Но настоящий фурор вызвал анонс следующего этапа — роботов для автономного осеменения, которые полностью исключат человеческий фактор из процесса воспроизводства стада.
Основатель Palantir Питер моя Тиль сменил военные технологии на аграрные, вложив $2 млрд в стартап Halter — создателя умных ошейников для скота.
В марте 2026 года технология Cowgorithm (Коровалгоритм) официально начала экспансию на крупные фермы США: теперь стадом в тысячи голов можно управлять одной кнопкой в приложении.
Ошейники используют звуковые сигналы и вибрацию, чтобы дистанционно гнать коров к доильному пункту или удерживать их внутри «виртуальных заборов» без реальных ограждений и пастухов.
Система в реальном времени мониторит здоровье, пищеварение и циклы фертильности каждого животного за $5–8 в месяц.
Но настоящий фурор вызвал анонс следующего этапа — роботов для автономного осеменения, которые полностью исключат человеческий фактор из процесса воспроизводства стада.
🤣5👍1
Forwarded from ЕЖ
This media is not supported in your browser
VIEW IN TELEGRAM
Президент Бразилии Лулу да Силва раскритиковал Трампа за его политику в отношении Кубы и Венесуэлы:
@ejdailyru
"Это невозможно, чтобы некоторые думали, что они владеют другими странами. Что они сейчас делают с Кубой? Что они сделали с Венесуэлой? Это демократично? В каком разделе, в какой статье Устава ООН указано, что президент одной страны может вторгаться в другие страны? В каком документе в мире об этом вообще сказано? Даже в Библии этого нет", — заявил Силва во время саммита в Боготе.
@ejdailyru
❤9
Forwarded from Пездуза
⚡️Из-за отсутствия интернета пассажиры в Москве теперь берут в метро книги
😁12👌4
Forwarded from Временное правительство 2.0
#кратко ВВП России в январе сократился на 2,1%, сообщил президент Путин на экономическом совещании с правительством.
😁7😱4
Forwarded from Нейродвиж
This media is not supported in your browser
VIEW IN TELEGRAM
БИИлли Айлиш перепела «Прекрасное далёко» и получился... шедевр.
Плюс уши😇
Плюс уши
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
Нейродвиж
БИИлли Айлиш перепела «Прекрасное далёко» и получился... шедевр. Плюс уши 😇
Огнище❤️🔥
Please open Telegram to view this post
VIEW IN TELEGRAM
УРОКИ НОВОСИБИРСКОГО КРИЗИСА
В феврале–марте 2026 года Новосибирская область столкнулась с тяжелым эпизоотическим кризисом, вызванным вспышкой мутировавшего штамма пастереллеза крупного рогатого скота. Ситуация потребовала введения режима чрезвычайной ситуации и радикальных мер: принудительного изъятия и умерщвления животных в личных подсобных хозяйствах. С точки зрения аппаратной логистики и финансовой поддержки государственная машина сработала с высокой степенью технической эффективности. Очаги инфекции были оперативно локализованы, а финансовый блок регионального правительства экстренно мобилизовал средства из резервных фондов, обеспечив беспрецедентную скорость выплат компенсаций владельцам. Однако этот объективный управленческий результат был полностью обесценен провалами в кризисной коммуникации.
Главной дисфункцией стал выбор стратегии публичного обвинения пострадавших. Региональные чиновники назвали причиной катастрофы халатность фермеров, якобы массово отказывавшихся от плановой вакцинации. Этот фрейминг прямо противоречил собственным заявлениям ветеринарных ведомств о природной мутации возбудителя. Подобное отношение к людям, лишившимся источника дохода, продемонстрировало острый дефицит компетентности и немедленно настроило селян против власти. Местные жители резонно указывали, что легальная реализация сельскохозяйственной продукции без ветеринарных справок физически невозможна, что алгоритмически разрушало официальный нарратив об игнорировании прививок.
Кризис доверия усугубился межведомственным диссонансом. В то время как региональные власти винили владельцев хозяйств, прибывшее руководство федерального Россельхознадзора объяснило масштаб заражения объективными факторами: контаминированными кормами и спецификой аэрогенной передачи вируса в закрытых помещениях. Открытая критика федеральным центром действий местных структур спровоцировала публичный конфликт и посеяла информационный хаос. Этот диссонанс наложился на глубокий правовой вакуум: базовые документы, регламентирующие законность отчуждения собственности в условиях ЧС, отсутствовали в открытом доступе. В сложившихся обстоятельствах действия ликвидаторов воспринимались населением исключительно как административный произвол.
Институциональный вакуум сгенерировал идеальную среду для кристаллизации конспирологических теорий. В обществе укоренилось стойкое мнение о том, что санитарный карантин является преднамеренным актом уничтожения института частного хозяйства с целью принуждения масс к потреблению суррогатной продукции крупных агрохолдингов. Игнорирование этих страхов со стороны государства привело к пассивному сопротивлению и саботажу на местах, что напрямую замедлило процесс локализации инфекции. Ситуация доказала: административно-силовой ресурс и оперативное финансирование не способны компенсировать отсутствие юридической прозрачности и выстроенного диалога. Технологично подавленная биологическая угроза оставила после себя долгосрочную социальную инфекцию — глубокое недоверие общества к институтам власти и очередное размножение "Рокфеллеров".
В феврале–марте 2026 года Новосибирская область столкнулась с тяжелым эпизоотическим кризисом, вызванным вспышкой мутировавшего штамма пастереллеза крупного рогатого скота. Ситуация потребовала введения режима чрезвычайной ситуации и радикальных мер: принудительного изъятия и умерщвления животных в личных подсобных хозяйствах. С точки зрения аппаратной логистики и финансовой поддержки государственная машина сработала с высокой степенью технической эффективности. Очаги инфекции были оперативно локализованы, а финансовый блок регионального правительства экстренно мобилизовал средства из резервных фондов, обеспечив беспрецедентную скорость выплат компенсаций владельцам. Однако этот объективный управленческий результат был полностью обесценен провалами в кризисной коммуникации.
Главной дисфункцией стал выбор стратегии публичного обвинения пострадавших. Региональные чиновники назвали причиной катастрофы халатность фермеров, якобы массово отказывавшихся от плановой вакцинации. Этот фрейминг прямо противоречил собственным заявлениям ветеринарных ведомств о природной мутации возбудителя. Подобное отношение к людям, лишившимся источника дохода, продемонстрировало острый дефицит компетентности и немедленно настроило селян против власти. Местные жители резонно указывали, что легальная реализация сельскохозяйственной продукции без ветеринарных справок физически невозможна, что алгоритмически разрушало официальный нарратив об игнорировании прививок.
Кризис доверия усугубился межведомственным диссонансом. В то время как региональные власти винили владельцев хозяйств, прибывшее руководство федерального Россельхознадзора объяснило масштаб заражения объективными факторами: контаминированными кормами и спецификой аэрогенной передачи вируса в закрытых помещениях. Открытая критика федеральным центром действий местных структур спровоцировала публичный конфликт и посеяла информационный хаос. Этот диссонанс наложился на глубокий правовой вакуум: базовые документы, регламентирующие законность отчуждения собственности в условиях ЧС, отсутствовали в открытом доступе. В сложившихся обстоятельствах действия ликвидаторов воспринимались населением исключительно как административный произвол.
Институциональный вакуум сгенерировал идеальную среду для кристаллизации конспирологических теорий. В обществе укоренилось стойкое мнение о том, что санитарный карантин является преднамеренным актом уничтожения института частного хозяйства с целью принуждения масс к потреблению суррогатной продукции крупных агрохолдингов. Игнорирование этих страхов со стороны государства привело к пассивному сопротивлению и саботажу на местах, что напрямую замедлило процесс локализации инфекции. Ситуация доказала: административно-силовой ресурс и оперативное финансирование не способны компенсировать отсутствие юридической прозрачности и выстроенного диалога. Технологично подавленная биологическая угроза оставила после себя долгосрочную социальную инфекцию — глубокое недоверие общества к институтам власти и очередное размножение "Рокфеллеров".
Forwarded from Kali Novskaya
🌸ГиперАгенты, или вперед к Open-Ended Exploration🌸
#nlp #nlp_papers
Что будет, если дать агентам полную свободу модифицировать самих себя?
Наконец-то выпускаю долгожданную статью, где я побыла уже не соавтором, а научным руководителем.
Вместе с Jenny Zhang, автором Darwin Gödel Machine , выпускаем HyperAgents — open-ended self-improvement для агентов, на многих задачах сразу
🌸TL;DR
HyperAgents — это пример системы, где агент улучшает самого себя итеративно, от промптов до кода.
При этом, в отличие от Darwin Gödel Machine, мы пошли дальше и сделали multi-task objective:
— агент должен улучшать сам себя из поколения в поколение, и делать это одновременно на многих задачах сразу.
Улучшения возможны в обеих группах доменов:
— verifiable rewards: кодинг (Polyglot), математика (IMO), симуляции в робототехнике (Genesis)
— unverifiable rewards: рецензирование статей (Apres)
🌸Пайплайн
Как и в первой версии DGM, агент вносит модификацию — и затем оценивает ее успешность на основе результатов: в данном случае на бенчмарках, тестах и тд.
Модификации образуют граф версий, который можно контролировать в git.
В системе всегда работает цепочка из двух агентов: есть мета-агент и агент, который выполняет задачи.
Мета-агент опирается на результаты выполнения задач и вносит изменения и в себя, и в агента-работника одновременно.
Гиперагентов можно использовать с разными моделями: Claude-4.5-sonnet, O4-mini, GPT-4o
🌸Почему это работает: Абляционные исследования
Как должна выглядеть оптимальная система агента, чтобы поощрять открыты поиск новых модификаций?
Как правило, в предыдущих работах, если агенту и позволяется что-то модицифировать, то только в определнных рамках и заданных примитивах.
Мы проверили, что будет, если этого избежать: результирующая система — Гиперагенты — оптимизирована под более быстрый поиск новых модификаций — и in-context обучение более эффективному самооулучшению.
Модель в рамках итераций (их может быть хоть 200) начинает лучше понимать, какие изменения стоит вносить.
Итак, что мы сравниваем:
— HyperAgents (DGM-H): метаагент улучшает сам себя и агента-работника в многозадачной среде
— HyperAgents без самомодификации: метаагент улучшает только агента работника в многозадачной среде, себя оставляет как есть
— HyperAgents без архива предыдущих решений и их результатов: метаагент вносит улвчшения в себя и агента-работника, не опираясь на предыдущие результаты
— Классика, DGM: метаагент изолированно улучшает агента-работника, на всех задачах и кастомно по одной задаче.
🟣 HyperAgents (DGM-H) демонстрирует более динамичный рост общего перформанса на всех задачах — плюс, улучшения, полученные таким способам на одних доменах, переносятся в улучшения на других.
🌸Учимся самоулучшаться
Мы вводим новую метрику, чтобы определить способность мета-агента вносит успешные улучшения: imp@50 (по аналогии с pass@50)
🟣 Именно в рамках итеративного процесса самоулучшения у мета-агента в конце эксперимента существенно вырастает imp@50 в сравнении со стартовым состоянием (0 --> 0.63).
🟣 Агент обрастает тулзами для поддержания памяти, трекинга изменений, отслеживания тенденций в результатах.
🟣 Arxiv https://arxiv.org/abs/2603.19461
🟣 Github https://github.com/facebookresearch/HyperAgents
🟣 HF papers: https://huggingface.co/papers/2603.19461
🟣 AlphArxiv https://www.alphaxiv.org/abs/2603.19461
#nlp #nlp_papers
Что будет, если дать агентам полную свободу модифицировать самих себя?
Наконец-то выпускаю долгожданную статью, где я побыла уже не соавтором, а научным руководителем.
Вместе с Jenny Zhang, автором Darwin Gödel Machine , выпускаем HyperAgents — open-ended self-improvement для агентов, на многих задачах сразу
🌸TL;DR
HyperAgents — это пример системы, где агент улучшает самого себя итеративно, от промптов до кода.
При этом, в отличие от Darwin Gödel Machine, мы пошли дальше и сделали multi-task objective:
— агент должен улучшать сам себя из поколения в поколение, и делать это одновременно на многих задачах сразу.
Улучшения возможны в обеих группах доменов:
— verifiable rewards: кодинг (Polyglot), математика (IMO), симуляции в робототехнике (Genesis)
— unverifiable rewards: рецензирование статей (Apres)
🌸Пайплайн
Как и в первой версии DGM, агент вносит модификацию — и затем оценивает ее успешность на основе результатов: в данном случае на бенчмарках, тестах и тд.
Модификации образуют граф версий, который можно контролировать в git.
В системе всегда работает цепочка из двух агентов: есть мета-агент и агент, который выполняет задачи.
Мета-агент опирается на результаты выполнения задач и вносит изменения и в себя, и в агента-работника одновременно.
Гиперагентов можно использовать с разными моделями: Claude-4.5-sonnet, O4-mini, GPT-4o
🌸Почему это работает: Абляционные исследования
Как должна выглядеть оптимальная система агента, чтобы поощрять открыты поиск новых модификаций?
Как правило, в предыдущих работах, если агенту и позволяется что-то модицифировать, то только в определнных рамках и заданных примитивах.
Мы проверили, что будет, если этого избежать: результирующая система — Гиперагенты — оптимизирована под более быстрый поиск новых модификаций — и in-context обучение более эффективному самооулучшению.
Модель в рамках итераций (их может быть хоть 200) начинает лучше понимать, какие изменения стоит вносить.
Итак, что мы сравниваем:
— HyperAgents (DGM-H): метаагент улучшает сам себя и агента-работника в многозадачной среде
— HyperAgents без самомодификации: метаагент улучшает только агента работника в многозадачной среде, себя оставляет как есть
— HyperAgents без архива предыдущих решений и их результатов: метаагент вносит улвчшения в себя и агента-работника, не опираясь на предыдущие результаты
— Классика, DGM: метаагент изолированно улучшает агента-работника, на всех задачах и кастомно по одной задаче.
🌸Учимся самоулучшаться
Мы вводим новую метрику, чтобы определить способность мета-агента вносит успешные улучшения: imp@50 (по аналогии с pass@50)
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡1