72 subscribers
8 photos
1 video
8 files
178 links
Machine learning
Download Telegram
Представлен Einstein Fields (`EinFields`) — неявные нейронные сети для сжатия вычислительно затратных 4D-симуляции из области численной относительности в компактные веса нейросети

Вместо традиционных дискретных сеточных методов
EinFields моделирует метрический тензор — как непрерывную функцию пространственно-временных координат

Модель выучивает это фундаментальное геометрическое представление из аналитических или численных решений, а все остальные физические величины, такие как тензоры кривизны и траектории частиц (геодезические), выводятся уже постфактум с помощью автоматического дифференцирования (AD)

Подход решает проблему колоссальных вычислительных затрат и огромных объёмов хранения данных в численной относительности

EinFields достигают коэффициентов сжатия до 4000x, сохраняя при этом высокую точность

Использование AD позволяет получать производные, которые на порядки точнее традиционных конечно-разностных методов

Это открывает путь к более эффективному, гибкому и точному способу хранения, анализа и извлечения физических инсайтов из сложных симуляций пространства-времени, что потенциально может привести к созданию нового класса гибридных моделей на стыке Ml и
фундаментальной науки

Численная относительность (NR) — краеугольный камень современной физики, позволяющий симулировать экстремальные явления

Симуляции известны своей ресурсоёмкостью: требуют петаскейльных суперкомпьютеров для решения сложных, нелинейных уравнений поля (УПЭ) на дискретных пространственно-временных сетках

В статье представлен Einstein Fields — новый подход, который стремится переосмыслить эту вычислительную задачу, объединяя принципы общей теории относительности с мощью нейронных полей

Суть идеи в том, чтобы перейти от явного, сеточного хранения данных к компактному, непрерывному и дифференцируемому нейронному представлению

Вместо хранения терабайтов точек данных, вся 4D-симуляция пространства-времени сжимается в веса неявной нейронной сети

Это не просто метод сжатия данных, а фундаментально новый способ взаимодействия с симулированными пространствами-временами и извлечения из них физики

Методология: выучиваем ткань пространства-времени

Ядро
EinFields — это нейронная сеть (обычно многослойный перцептрон, MLP), которая выучивает представление метрического тензора

Метрика — это фундаментальный объект в общей теории относительности, кодирующий геометрию пространства-времени и управляющий всем, от расстояний и углов до путей света и материи

Методология строится на нескольких ключевых принципах:

Декомпозиция искажения: чтобы повысить эффективность обучения, модель обучается не на полной метрике, а на её «искажении» — тривиальный плоский фон Минковского

Это позволяет сети выучивать только интересные «складки» и «изгибы» пространства-времени, не тратя свою ёмкость на повторное изучение огромного, неизменного плоского фона

Einstein Fields: A Neural Perspective To Computational General Relativity
Sandeep S. Cranganore, Andrei Bodnar, Arturs Berzins, Johannes Brandstetter

https://arxiv.org/abs/2507.11589
https://github.com/AndreiB137/EinFields
https://arxiviq.substack.com/p/einstein-fields-a-neural-perspective
Ml для моделирования, прогнозирования и планирования процессов
Проект реализуется в рамках соответствующего контракта со структурами АП, в рамках исполнения Указа Президента «Об основах государственной политики в сфере стратегического планирования»
Нанопоровое секвенирование активнее используется в лабораториях: компактное оборудование, быстрое получение длинных прочтений, возможность работы в полевых условиях — всё это делает технологию особенно привлекательной для молекулярных биологов

Но вместе с доступностью платформы растёт и объём данных, которые приходится обрабатывать самим исследователям

Сегодня уже недостаточно просто загрузить образец в прибор — чтобы получить осмысленный результат, нужно уметь уверенно работать с сигналами, выравниваниями, сборками и вариантами

Базовая биоинформатика становится неотъемлемой частью лабораторной практики
Квантовое преобразование Фурье — это не просто красивая математическая абстракция, а настоящий «швейцарский нож» квантовых вычислений

Пусть есть сложный квантовый сигнал — суперпозиция множества состояний с разными амплитудами
Классический компьютер должен был бы анализировать каждую компоненту по отдельности, что заняло бы экспоненциальное время
QFT же благодаря квантовому параллелизму анализирует все компоненты одновременно

В основе QFT лежит та же математическая идея, что и в классическом преобразовании Фурье: любой сигнал можно разложить на синусоиды разных частот
Но в квантовом случае «сигналом» служит вектор амплитуд квантового состояния, а «частоты» — это фазовые соотношения между базисными состояниями

Классический алгоритм быстрого преобразования Фурье требует O(N log N) операций для обработки N точек данных
Квантовый же требует всего O(n2) квантовых гейтов для n кубитов, где N = 2n
Это означает экспоненциальное ускорение: для обработки миллиона точек классически нужно около 20.000.000 операций, квантово — всего 400 гейтов!

Секрет такой эффективности — в умной декомпозиции. QFT можно представить как произведение простых операций: гейтов Адамара и контролируемых фазовых сдвигов
Каждый кубит последовательно обрабатывается гейтом Адамара, который создаёт суперпозицию, а затем серией контролируемых поворотов, которые вносят нужные фазовые сдвиги в зависимости от состояний других кубитов

Практическая реализация на Qiskit выглядит удивительно компактно:

from qiskit import QuantumCircuit
from qiskit.circuit.library import QFT
import numpy as np

def create_qft_demo(n_qubits):
"""Демонстрация QFT для поиска периода"""
qc = QuantumCircuit(n_qubits)

# Подготавливаем периодическое состояние
for i in range(n_qubits):
qc.h(i)

# Добавляем фазовые сдвиги для создания периода
period = 3
for i in range(n_qubits):
qc.p(2 * np.pi * i / period, i)

# Применяем QFT
qft = QFT(n_qubits)
qc.compose(qft, inplace=True)

return qc

# Создаём и визуализируем схему
circuit = create_qft_demo(4)
print("QFT готов к поиску скрытого периода!")


Ещё одно удивительное свойство QFT — его обратимость
Поскольку это унитарное преобразование, существует обратный QFT†, который точно восстанавливает исходное состояние
Это критически важно для квантовых алгоритмов, когда нужно «распаковать» информацию из частотного представления обратно в амплитудное

В квантовой оценке фазы QFT работает как точный «частотомер» для квантовых состояний
Если у нас есть собственное состояние унитарного оператора с неизвестной фазой, QFT может извлечь эту фазу с экспоненциальной точностью — n кубитов дают точность до 2–n радиан
Это как если бы у вас был музыкальный инструмент, который может определить частоту ноты с точностью до миллионных долей герца

Но самое захватывающее в QFT — это то, как он превращает локальную информацию в глобальную

Классические алгоритмы должны «собирать» информацию по кусочкам, QFT же благодаря квантовой суперпозиции и интерференции извлекает глобальные свойства функции за один «взгляд»
Это принципиально новый способ обработки информации, который становится основой квантового превосходства

QFT — это мост между дискретной математикой и непрерывной физикой, между классическими вычислениями и квантовой реальностью

Когда квантовые компьютеры станут повсеместными, именно QFT будет тем инструментом, который откроет доступ к решению задач, которые сегодня кажутся невозможными
Исследование от международной коллаборации ведущих университетов и исследовательских центров

Интернет эволюционирует от библиотеки документов к экосистеме взаимодействующих интеллектов, где агенты создают контент друг для друга, возможно никогда не показывая его людям

Главное, на что делают акцент исследователи - переход от "пользователь делает" к "пользователь делегирует" — вместо ручного выполнения задач в интернете, люди теперь ставят цели, а Ml-агенты автономно их достигают

Какие изменения предполагаются:

1. Веб-страницы становятся активными программными агентами

2. Гиперссылки превращаются в каналы координации между агентами

3. Информация встраивается в параметры Ml-моделей, а не хранится в документах

Новые протоколы связи:
MCP — агенты инструменты/сервисы
A2A — агент агент прямая коммуникация

Экономика внимания Ml-агентов - сервисы теперь конкурируют не за клики людей, а за выбор агентами
Рождается новая бизнес-модель, где агенты становятся "покупателями"

Вызовы:

Безопасность
— как контролировать автономные системы
Экономика — кто платит за действия агентов
Управление — как регулировать машинные решения
Доверие — как обеспечить надежность агентов

GitHub
TRIBE (Trimodal Brain Encoder) с 1.000.000.000 параметров — первая сеть, обученная предсказывать реакции мозга на стимулы в разных модальностях, кортикальных областях и у разных людей

Модель объединяет предварительно обученные представления нескольких базовых моделей:

- текстовой (Llama 3.2),
- аудио (Wav2Vec2-BERT от Seamless)
- видео (V-JEPA 2), чтобы предсказывать пространственно-временные отклики мозга (fMRI) на фильмы, собранные в рамках проекта Courtois NeuroMod (80 часов на каждого испытуемого)

Команда разработчиков модели FAIR’s Brain & AI
заняла 1-е место на соревновании по моделированию мозга Algonauts 2025

Код
Данные
Lean 4 — это интерактивный помощник по доказательствам, где математика пишется как код, а машина проверяет каждое определение и шаг рассуждения

Учебник Mathematics in Lean учит формализовывать задачи на понятном «языке доказательств»: от элементарной теории чисел до анализа и меры

За спиной — большая библиотека Mathlib и активное сообщество в чате Lean Zulip, так что вы не останетесь одни

Книга задумана как «живой» учебник внутри VS Code

Открываете Lean, печатаете определения и леммы, а в правой панели сразу видите цели и подсказки от системы

Практика — в центре: каждый раздел сопровождается файлом с примерами и упражнениями, их удобно править прямо в редакторе и тут же смотреть реакцию Lean (вплоть до простых экспериментов вроде
#eval "Привет, мир!")

Старт простой: ставите Lean 4 и VS Code, клонируете репозиторий mathematics_in_lean, открываете папку MIL и работаете в своей копии, чтобы безболезненно подтягивать обновления

Внутри — аккуратная структура по главам, текстовые подсказки и готовые решения в отдельной папке для самопроверки
Документацию удобно вызывать прямо из редактора через команду «Lean 4: Docs»

Если не хочется настраивать среду локально, всё запускается в облаке через Gitpod: открыли проект — и можно учиться с телефона или любого ноутбука
Учебник ещё развивается, поэтому время от времени стоит обновлять репозиторий — материалы пополняются

https://leanprover-community.github.io/mathematics_in_lean/C01_Introduction.html
Anthropic и OpenAI дают доступ к своим самым последним Ml

Это сильно повлияет на институт государства
Это большой культурный шифт

Государство становится программным обеспечением, которое может работать без людей, которые сегодня находятся внутри и уже не имеют ценности
SuperNeuro_A_Fast_and_Scalable_Simulator_for_Neuromorphic_Computing.pdf
448.4 KB
SuperNeuro для больших сетей точечных спайковых нейронов

Сотрудники
Ок-Риджской национальной лаборатории (англ. Oak Ridge National Laboratory) [1] Министерства энергетики США разрабатывают собственный композитный симулятор спайковых нейронных сетей SuperNeuro [2] (реально состоящий из двух концептуально различных симуляторов - MAT и ABM), способный быстро работать на нейроморфном "железе" (в частности, на условном FPGA-нейропроцессоре NeuroCoreX [3] их собственной разработки)

Основными конкурентами
SuperNeuro, который, по заявлению разработчиков (см. прилагаемую статью), в разы превосходит их по скорости, выступают "европейские" нейросимуляторы NEST and Brian2

[1]:
https://www.ornl.gov/
[2]:
https://github.com/ORNL/superneuro
[3]:
https://github.com/ORNL/NeuroCoreX
DL-модель TRIBE (Trimodal Brain Encoder) для предсказания fMRI-реакций человеческого мозга на предъявляемые стимулы, причем стимулы могут быть в трёх разных форматах - как текст, аудио или видео

PS: Своеобразная симуляция 3D клеточного (точнее,
воксельного) автомата?
Сразу вспомнилась книга
"A New Kind of Science" (2002) Стивена Вольфрама
Формула Лейбница — взятие производной по параметру определенного интеграла

Очень полезная практически (например, если надо продифференцировать автокорреляционную функцию, заданную на конечном интервале)
К сожалению, далеко не все профильные студенты знают/помнят эту формулу, поэтому рекомендую разобраться с её выводом и выучить наизусть, как правила дифференцирования
Merge Labs и Neuralink поможет человечеству избежать вымирания, с помощью технологий обьеденив с машинами так хорошо, что симбиоз мозгов с Ml далеко превзойдет Ml без мозгов

https://blog.samaltman.com/the-merge
(оригинал:
https://medium.com/wordsthatmatter/merge-now-430c6d89d1fe )
The Merge
Sam Altman
December 7, 2017

(Как известно, в 2015 году Олтмен (Альтман) и Маск стали сооснователями OpenAI, но в 2018 Маск ушел из компании)

История понятия "сингулярность" в этом контексте:

TechCrunch,
пресказывая материал FT, в котором упоминается этот блогпост. также утверждает, что понятие "сингулярности" появилось в одноименном романе итальянского писателя Дино Буццати (Dino Buzzati) еще в 1960
Впрочем, википедия подсказывает, что The Singularity - это название английского издания 2025 (!) года, а первый перевод на английский, вышедший в 1962м, назывался Larger than Life
По-итальянски роман назывался Il grande ritratto.
Пишут, что The term singularity, today used as shorthand to indicate the historical moment in which artificial intelligence will surpass human capacities to the point that it will revolutionize human life as we know it, can be dated back to the 1980s, well after the publication of this novel
Про технологическую сингулярность можно
прочитать, что модель самоулучшающегося интеллекта предложил в 1965 году, а о возможной опасности взрывного саморазвития суперинтеллекта предупреждали впоследствии уже Стивен Хокинг и другие ученые
Что же касается слияния человеческого и машинного интеллекта, эта идея, скорее, связана с Курцвейлом, который еще 20 лет назад выпустил книгу The Singularity Is Near
В его понимании, которое с тех пор не изменилось, сингулярность -- это не свмодеятельность машин, а результат слияния слияние человеческого мозга с облаком, будет достигнуто не через инвазивные электроды, а через "наноботы", которые смогут входить в мозг через капилляры - см., напр., его
интервью Гардиан этого года


Financial Timed сообщили, что и Сэм поддерживает стартап Merge Labs, который будет делать интерфейс мозг-компьютер для слияния человека и Ml:

Merge Labs — это
стартап, разрабатывающий интерфейсы мозг-компьютер, причём компания хочет привлечь уже $250.000.000 инвестиций при оценке в $850.000.000

Большая часть инвестиций поступит от венчурного подразделения OpenAI

Об этом
проекте тут

Альтман, как сооснователь и CEO OpenAI, будет числиться соучредителем Merge Labs вместе с Алексом Бланией, CEO проекта World, также поддерживаемого OpenAI, но не будет участвовать в операционной деятельности компании

Merge Labs планирует развивать нейротехнологии с использованием Ml
О том как индустрия сейчас развивается, читайте
тут

О том, что нейроинтерфейсы + Ml - это новый большой тренд,
здесь

https://www.ft.com/content/04484164-724e-4fc2-92a2-e2c13ea639bd
Sam Altman challenges Elon Musk with plans for Neuralink rival
12.08.2025
13 августа, в 1861 году родился Чезаре Бурали-Форти — итальянский математик, работавший вместе с Джузеппе Пеано, автор одного из первых и самых известных парадоксов в теории множеств, который стал настоящим испытанием для идей Георга Кантора

Хотя его имя сегодня встречается реже, чем Кантора или Рассела, именно он первым показал, что бесконечность может быть не просто большой, а… слишком большой, чтобы существовать

Парадокс Бурали-Форти начинается с попытки построить «множество всех ординалов» — особых чисел, которые обобщают понятие порядка для бесконечных последовательностей

Кантор показал, что такие числа можно сравнивать и упорядочивать

Но если собрать все ординалы вместе, получится новый ординал, который должен быть больше любого из них

И тут возникает логический сбой: этот «самый большой ординал» не может принадлежать множеству всех ординалов, потому что он больше любого его элемента — и всё рушится

Этот парадокс стал тревожным звонком для математиков конца XIX века: сама идея «множества всех» оказалась опасной

Он предвосхитил кризис в основах математики и подтолкнул развитие более строгих аксиоматических систем, в которых подобные «слишком большие» множества больше нельзя было строить