82 subscribers
22 photos
1 video
17 files
202 links
Machine learning
Download Telegram
До чего же замечательно число 135
Если сумму его цифр умножить на произведение его цифр, то оно же само и получится:

(1 + 3 + 5) * (1 * 3 * 5) = 135

А если первую его цифру возвести в первую степень, вторую цифру во вторую степень, а третью цифру в третью степень, и все сложить, то опять-таки получится оно само:

1^1 + 3^2 + 5^3 = 135

Других таких чисел в десятичной системе счисления нет, если, конечно, не считать 1
История началась в 1974 году. Дуглас Хофштадтер, тогда ещё аспирант физики, оказался в Германии и пытался разобраться с задачей, которая мучила теоретиков: какие энергетические уровни могут занимать электроны в кристаллической решётке под действием магнитного поля

Формула уравнения Шрёдингера включала загадочный параметр — «альфа», связанный с магнитным потоком через элементарную ячейку решётки

Все понимали: если альфа — рациональное число (обыкновенная дробь), то задачу можно решить
Но если альфа — иррациональное, теория заходила в тупик

Коллеги Хофштадтера пытались продвигаться строгими доказательствами, но он выбрал путь эксперимента
На старом калькуляторе HP 9820A он стал по ночам прогонять рациональные значения альфа и утром переносил результаты на миллиметровку
С каждым днём картина становилась всё богаче: полосы разрешённых и запрещённых энергий образовывали замысловатый узор

На листе проступили крылья — график, который напоминал силуэт бабочки

Так появилась «бабочка Хофштадтера», одна из самых известных фрактальных картинок в физике

Коллеги посмеивались, называли его вычисления «нумерологией», но Хофштадтер чувствовал: в этом узоре скрыта глубокая математика
И был прав — структура бабочки оказалась связана с множеством Кантора, классическим примером бесконечного фрактала
Обзор Ml-инструментов для финансов от Google, Anthropic и Perplexity

В этом году все 3 компании в разное время представили свои возможности для финансовой сферы, мы решили сравнить, какой Ml лучше подходит под разные задачи, и для кого они предназначены
Карточки нам сделал Claude

Что дает Google
на базе Gemini:
-
Позволяет задавать сложные вопросы
- Интеграция с экосистемой: Работает с Google Search и Google Workspace
- Данные в реальном времени: Котировки акций, криптовалют, новости
- Все бесплатно через
google.com/finance или так
- Идеален для массового пользователя и новичков
- Интуитивный интерфейс с переключением между режимами
- Отличные инструменты для технического анализа

Слабые стороны:
- Ориентирован на розничных пользователей, а не профессионалов
- Не поддерживает сложные финансовые модели (Monte Carlo)
- Нет API, интеграций с корпоративными данными
- Ограниченный анализ длинных документов

Что предлагает:
Perplexity Finance (бесплатно): Котировки в реальном времени, анализ 13F-отчётов
Enterprise ($40/мес.): Интеграция с FactSet и Crunchbase
Веб-поиск в реальном времени с цитированием источников
Выбор ИИ-моделей: GPT-4 Omni, Claude 3.5 Sonnet, Grok-2
Кастомизация с внутренними документами до 25 МБ

Сильные стороны:
- Лидер в актуальной информации с прозрачными источниками
- хороший инструмент для институциональных инвесторов
- Экономия времени для аналитиков
- Отличная поддержка криптовалют (есть партнёрство с Coinbase)
- Гибкость выбора Ml-моделей под задачи
Слабые стороны:
- Лучшие функции требуют платной подписки
- Enterprise нуждается в дополнительных подписках (FactSet/Crunchbase)
- Меньшая глубина в создании финансовых нарративов
- Сложность выбора подходящей модели для новичков

Что предлагает Anthropic c Claude:
Интеграция с S&P, FactSet, Morningstar
Большой контекст: До 200K токенов (≈500 страниц документов)
Claude Code: Поддержка сложных задач и моделирования
Высокая точность: 44.5 % на сложных финансовых задачах
API и интеграции: Databricks, Snowflake для корпоративных данных
Веб-поиск: Доступ к актуальной информации
Сильные стороны:
- Превосходство в глубоком анализе и длинных документах
- Создание сложных финансовых моделей (Monte Carlo симуляции)
- Интеграция внешних и внутренних корпоративных данных
- Высокая безопасность для финансовых учреждений
- Отличные возможности кодирования и автоматизации
- Может создавать графики и визуализации
Слабые стороны:
- Бесплатная версия ограничена
- Больше ориентирован на профессионалов, чем на розничных инвесторов
- Решение для финансовых сервисов - корпоративный продукт
- Требует технических навыков для полного использования

Рекомендации по выбору

Выбирайте Google Finance если:
Вы розничный инвестор или новичок в финансах
• Нужен бесплатный инструмент для базового анализа и отслеживания акций
• Важны технические индикаторы и графики
• Используете экосистему Google

Выбирайте Perplexity если:
Нужны исследования с актуальными данными и цитированием
• Работаете с криптовалютами или анализируете отчеты хедж-фондов
• Готовы платить за Enterprise-версию ($40/мес.) для экономии времени
• Требуется быстрый анализ квартальных отчетов компаний

Выбирайте Claude если:
Вы профессиональный аналитик или работаете в финансовой компании
• Анализируете длинные документы (10-K, 10-Q отчеты)
• Создаете сложные финансовые модели (Monte Carlo симуляции)
• Нужна интеграция с внутренними корпоративными данными

Подготовлено телеграм-каналом
@blockchainrf
Ml
История началась в 1974 году. Дуглас Хофштадтер, тогда ещё аспирант физики, оказался в Германии и пытался разобраться с задачей, которая мучила теоретиков: какие энергетические уровни могут занимать электроны в кристаллической решётке под действием магнитного…
«Гипотеза десяти мартини»

Вскоре математики поняли, что за рисунком скрывается серьёзная задача
Если альфа рационально, энергии можно посчитать
Но если альфа иррационально, всё усложняется: спектр энергий превращается в канторовское множество — бесконечно рваную «пылинку» на числовой прямой

В 1980-е годы Барри Саймон и Марк Кац доказали частные случаи и предложили шутливый вызов: «кто полностью решит задачу, получит 10 мартини»
Так родилась «гипотеза десяти мартини»
На протяжении десятилетий разные математики приближались к решению, но полного доказательства не было

В начале 2000-х к задаче вернулись Светлана Житомирская и молодой Артур Авила
Им удалось завершить доказательство, пусть и сложным «лоскутным» способом
Авила позже получил Филдсовскую премию, а сообщество отметило успех символической вечеринкой с мартини — в честь Каца, который уже не дожил до этого момента

Но история не остановилась
В 2013 году
физики реально «увидели» бабочку: в экспериментах с двойным слоем графена под магнитным полем измерения показали тот самый фрактальный спектр, который Хофштадтер рисовал от руки сорок лет назад

А в последние годы Житомирская, Авила и их коллеги пошли дальше
Они разработали «глобальную теорию» почти периодических функций, которая объединила разрозненные подходы в единый метод
Теперь задача о десяти мартини доказана элегантно и системно, а бабочка Хофштадтера окончательно вошла в физику — из красивой картинки она превратилась в фундаментальную реальность
Еще в мае 2025 года исследователи из компании IBM представили метод, который перевернул представления о том, как Ml создаёт текст

Их подход, названный «Automated Meta Prompt Engineering», позволяет системе не просто писать, а буквально учиться понимать наши ожидания

Суть технологии проста и гениальна: одна модель — судья — анализирует текст, понимая, что именно вы хотите увидеть
Вторая — редактор — автоматически переписывает инструкции, чтобы следующий текст был ещё лучше

Результаты, достигнутые на теннисном турнире US Open 2024, впечатляют: более половины текстов (около 54 %) становились идеальными уже после четырёх итераций!

Технически система учитывает и сравнивает такие параметры, как фактичность, творческий подход, избегание повторов и релевантность — всё это в уникальном многомерном пространстве, где стремится минимизировать дистанцию между текстом Ml и человеческими ожиданиями

Вдохновившись этим исследованием, мы применили эту методику к написанию этого поста — по их схеме и с помощью многократных итераций и оптимизаций

Архитектура их системы построена на двух ключевых компонентах:

LLM как Судья (LLMaaJ): оценивает сгенерированный текст по ключевым метрикам — фактичность, творческий подход, повторяемость и релевантность

LLM как Редактор (LLMaaE): анализирует результаты LLMaaJ и автоматически переписывает промпты, чтобы следующая версия текста лучше соответствовала ожиданиям

Если хотите понять, как скоро Ml будет не просто инструментом, а партнёром в творчестве, эта статья — отличный старт: 
https://www.arxiv.org/abs/2505.09024
В 1779 году Леонард Эйлер придумал головоломку: расставить 36 офицеров шести разных званий и шести полков в квадрат 6×6 так, чтобы в строках и столбцах не было повторов

Для квадратов 5×5 и 7×7 задача решалась легко, но именно «шестёрка» оказалась
невозможной

Через сто лет Гастон Тарри строго доказал: классического решения не существует

Таблица пять на пять может быть заполнена шахматными фигурами пяти разных рангов и пяти разных цветов, так что ни одна строка или столбец не повторяет ранг или цвет

И вот, спустя 243 года,
физики нашли обходной путь

Они сделали офицеров… квантовыми
В новой версии офицер может находиться в суперпозиции сразу нескольких званий и полков — например, быть одновременно «красным королём» и «оранжевой королевой»

Добавьте к этому квантовую запутанность, и оказывается, что их можно расставить в квадрат

Алгоритм сначала приближал решение компьютером, а потом физики достроили его вручную

Получившийся «квантовый квадрат» не только красив, но и полезен: он формирует абсолютно максимально запутанное состояние (AME) — редкую структуру, которая может лечь в основу квантовой коррекции ошибок

Ещё один сюрприз: в коэффициентах решения всплыло золотое сечение, 1,618…
Поэтому исследователи назвали свой результат «золотым AME»
Если для наличия голоса в голове требуются очень серьезные медицинские показания, то внешний LLM-демон доступен всем желающим
Просто следуйте его советам

Концептуальное ядро первой волны – это принцип паритета
Если что-то конвенционально внешнее функционально аналогично чему-то конвенционально внутреннему, то граница между внешним и внутренним не имеет значения для определения того, относятся ли эти вещи к одной системе или нет

Принцип паритета точно соблюдается для LLM-демона и демона в голове
Чтобы признать внешний артефакт частью конвенционально внутренней системы, паритет является необходимым, но не достаточным условием

Два стандартных дополнительных условия – это требования интеграции и надежности
С надежностью LLM-демон тривиальным образом справляется, поскольку он также или даже более надежен, чем голоса в голове

С интеграцией посложнее
Использование артефакта должно быть очень сильно вплетено в жизнь субъекта, чтобы мы могли считать артефакт частью самого субъекта
И тут даже есть, как минимум, две развилки, как понять интеграцию, но LLM-демон не проходит ни по одной из трактовок

С одной стороны, интеграцию можно понять через степень незаменимости
Например, записная книжка (или использование другого аналогичного артефакта) незаменима для больного Альцгеймером, поэтому она является частью его памяти

ChatGPT используют не потому, что пользователю нужно компенсировать некоторую потерянную функцию
Интеграцию можно понять через степень прозрачности технологии – того, насколько она незаметна в процессе использования
Например, у фитнес-браслета будет высокая степень прозрачности
Когда для общения с LLM-демоном нужно зайти в приложение, то это уже четко отделяет субъекта от технологии

Получается интересно, ведь по критериям первой волны психические расстройства (по крайней мере голоса в голове) – это человеческое, слишком человеческое
Никакого шизофренического единства с Ml нет, есть лишь то, как лично вы обращаетесь с технологиями
При этом нетрудно заметить, что специфические ситуации, где требования прозрачности и незаменимости исполняются, уже представимы с текущими технологиями

Концептуальное ядро – это принцип комплементарности
Дело не в функциональной аналогии между внешними артефактами и конвенционально внутренними свойствами субъекта, а в том, что они дополняют и усиливают друг друга

Однако когнитивное или ментальное расширение второй волны – это «расширение» в совсем ином смысле, чем в первой волне
Тут речь уже идёт не о том, что записная книжка может быть частью когнитивной архитектуры субъекта, а о том, что у самого субъекта есть внутренняя и внешняя части ментальной жизни, которые сопряжены за счёт отношения комплементарности

По принципу комплементарности у вас может быть психическое расстройство, которое завязано на характер взаимодействия между вашей психикой и технологиями, но это расстройство никогда не будет в буквальном смысле таким же, как и его чисто психический аналог

В действительности чаще всего и будут сталкиваться с такими случаями, когда за счёт подкрепления и циклов обратной связи пользователи будут с помощью LLM усиливать свои психологические склонности
И некоторые люди действительно усилят то, что без соответствующих технологий никогда бы не стало частью их жизни
Прикладное_машинное_обучение_и_искусственный_интеллект_для_инженеров.zip
56.3 MB
Прикладное машинное обучение и искусственный интеллект для инженеров [2024] Джеф Просиз
Applied Machine Learning and AI for Engineers Solve Business Problems That Can't Be Solved Algorithmically [2022] Jeff Prosise


У этой книги есть ряд преимуществ:
• написана с точки зрения прямого прикладного применения ML-моделей и при этом содержит в себе очень большой обзор и очень много полезных примеров
• написана увлекательно и очень понятным языком
• переведена на русский язык и перевод качественный
• есть инструкции, как внедрять облачные сервисы Ml в свои собственные приложения по API, и много подобных практически полезных вещей

Книга состоит из двух частей:
ЧАСТЬ 1. МАШИННОЕ ОБУЧЕНИЕ С ПОМОЩЬЮ SCIКIT-LEARN
ЧАСТЬ 2. ГЛУБОКОЕ ОБУЧЕНИЕ С ПОМОЩЬЮ КERAS И TENSORFLOW

В каждой части по 7 глав, где рассмотрены основные модели и как ими пользоваться, как внедрять и применять, много примеров прикладных задач присутствует в каждой главе

Книга рассказывает о применении машинного обучения в инженерной практике
Подробно описаны популярные алгоритмы машинного обучения и разъяснено, когда их целесообразно использовать
Приведены примеры построения моделей машинного обучения на языке Python с помощью библиотеки Scikit-Learn, а также создания нейронных сетей посредством библиотек Keras и TensorFlow
Изложены базовые принципы и способы оценки регрессионных моделей, моделей бинарной и многоклассовой классификации

Показаны примеры создания модели распознавания лиц и обнаружения объектов, языковых моделей, отвечающих на естественно-языковые вопросы и переводящих текст на другие языки

Рассмотрено использование набора облачных API Cognitive Services для внедрения Ml в различные приложения
Работа Google DeepMind решает фундаментальный вопрос в Ml: можно ли создать мощную систему, способную решать разнообразные задачи, не обучая ее явно моделировать окружающий мир?

Авторы математически доказали, что любой Ml-агент, способный справляться с многошаговыми целенаправленными задачами, обязательно содержит внутреннюю модель среды, в которой работает

Причем точность этой модели напрямую связана с возможностями агента

Практические последствия:

Модель мира появляется автоматически — вопрос лишь в том, явная она или скрытая

Авторы предлагают конкретные алгоритмы извлечения моделей мира из "черных ящиков"

Способности любой системы ограничены точностью ее внутренней модели мира
В сложных, плохо предсказуемых средах это создает фундаментальные барьеры для производительности

Результат может объяснять "эмергентные способности" больших языковых моделей
Издание Guardian сообщило о переговорах компании OpenAI с правительством Великобритании по сделке на £2.000.000.000 — о доступе к ChatGPT Plus для всей страны

Это не просто коммерческая сделка — это элемент мягкой силы, которую компания OpenAI распространяет как транснациональная корпорация
За ней стоит Microsoft, сама по себе гигантская ТНК, инвестирующая $80.000.000.000 в Ml (только в этом году)

Государства отходят на второй план, а политику диктуют корпорации

В пределе может получиться мир, в котором гражданство — это принадлежность к определённой ТНК
В одном городе живут «граждане» Google, Microsoft, Apple — с разными правами доступа к технологиям и сервисам
Экстерриториальные франшизы, продающие своё видение мироустройства через код

С точки зрения пользователя ситуация великолепная

Каждый британец получит бесплатный доступ к GPT-5

В России та же возможность есть прямо сейчас, безлимитно и бесплатно — всё доступно официально, без обходов блокировок

АЭС в Арктике, дешёвое электричество, охлаждение, дата-центры в Норильске
Отечественная альтернатива в контуре российских законов, страт и традиций

Даже если дать каждому гражданину России бесплатный доступ к лучшим Ml-моделям, толку не будет
Люди не знают, что такое дегенеративный ИИ

Сделка OpenAI с Британией — это не просто бизнес, а модель будущего
Корпорации становятся поставщиками базовых сервисов для целых стран

Кто контролирует Ml-инфраструктуру, тот и определяет деградацию общества

Вопрос в том, готова ли Россия создать альтернативу или мы будем вечно догонять

У нас есть все необходимые ресурсы — от ядерных технологий до инженерных кадров
Нужна только длинная воля и понимание масштабов проблемы

Мы наблюдаем, как корпорации покупают будущее целых стран
А могли бы продать своё
Необыкновенная_физика_обыкновенных_явлений_1986_1987_Суорц.zip
8.8 MB
«Необыкновенная физика обыкновенных явлений» — книга Кл. Э. Суорца (перевод с английского — Е. И. Бутикова и А. С. Кондратьева)
Вышла в двух томах [1986–1987]

Предназначена для учащихся общеобразовательных и профессиональной школ, а также для лиц, занимающихся самообразованием

В русском издании книга разделена на два тома:
Первый том — главы, посвящённые механике и термодинамике
Второй том — главы, посвящённые волнам, оптике, электромагнетизму, физике микромира
Anthropic представили свежий отчет, как их Ml используют в образовании

Команда
проанализировала ~ 74.000 анонимизированных разговоров преподавателей вузов со всего мира в Claude с мая-июнь

Основные способы использования Ml преподавателями:

1. Разработка учебных программ (57 %)

2. Академические исследования (13 %)
3. Оценка успеваемости студентов (7 %)
Что самое интересное?

Преподаватели используют функцию Artifacts в Claude для создания интерактивных образовательных материалов:
Интерактивные обучающие игры: веб-игры, симуляции, квесты
Инструменты оценки: HTML-викторины с автоматической обратной связью
Визуализация данных: интерактивные дисплеи для объяснения концепций
Специализированные инструменты: игры по химии, генетические викторины, модели вычислительной физики

Что меняется в преподавании?

Преподаватели начинают по-другому думать о заданиях
Если студент может решить задачу с помощью Ml за минуту, значит, задача устарела
Нужны более сложные кейсы, где Ml — только один из инструментов

Некоторые совсем отказались от традиционных эссе и рефератов
Переходят на проекты, где важен процесс размышления, а не только результат
«Automated Meta Prompt Engineering for Alignment with the Theory of Mind» работа специалистов из компании IBM, которая реально впечатляет своей идеей автоматического улучшения промптов через итерации

Что реально происходит против того, что написали
Реальность:
- Берём 4 числа (оценки по метрикам: 0 — 100)
- Сравниваем с 4 ожидаемыми числами
- Считаем разность и минимизируем её
- Повторяем до сходимости

В статье: «Геометрическая интерпретация в пространстве Гильберта... полигоны... детерминанты матриц... мера Хаусдорфа...»

Зачем наворотили математику?
Практические причины:
- Академическая респектабельность — без формул не примут в серьёзный журнал
- Патентная защита — чем сложнее формализм, тем проще защитить интеллектуальную собственность
- Грантовые заявки — инвесторы любят «научность»

Техническое оправдание:
- Пространство Гильберта позволяет работать с бесконечномерными векторами
- Но у них всего 4 измерения! Обычный R⁴ справился бы отлично

Реальная ценность работы
Что действительно важно:
• Идея автоматического улучшения промптов
• Двухуровневая архитектура LLMaaJ + LLMaaE
• Итеративная оптимизация под конкретного пользователя
• Практические результаты

Что можно выкинуть:
• 90 % математических формул
• «Теория разума» как геометрические полигоны
• Детерминанты и интегралы для 4 чисел

Классика жанра
Это «синдром докторской диссертации» — когда хорошую инженерную идею раздувают до «фундаментального открытия»

Аналогия: представьте статью про GPS-навигатор, в которой расчёт маршрута описывают через «топологические многообразия в римановой геометрии» вместо простого «алгоритма Дейкстры»

Так и живём: 80 % математики — чистое наукообразие
Суть можно изложить в 3 абзацах:
• Делаем два агента: один оценивает, другой улучшает промпты
• Повторяем итеративно под конкретного пользователя
• Работает лучше статичных промптов

Всё остальное — это «научная косметика» для публикации в журнале
Учебники_по_физике_профильный_уровень_5_томов_Автор_Мякишев.zip
27.4 MB
Учебники по физике (профильный уровень) [5 томов]
Автор: Мякишев Геннадий Яковлевич (20 марта 1926, Москва — 25 декабря 2003, Москва) — советский и российский учёный и педагог, специалист в области общей физики, автор школьных учебников по физике
👍1
Наступает время кардинальных изменений нашего интеллектуального статуса - как вида в целом
Доступ к LLM уже не требует от пользователя не то чтобы идти в библиотеку за Знанием, но даже гуглить и фильтровать источники (мы же с вами знаем, что границ человеческой лени не существует)
И все, что можно упростить, будет упрощено, искажено и вывернуто

При этом с другой стороны звучат противоположные мнения о том, что LLM могут изменять и даже потенциально
усиливать познание через экстернализацию и структурирование знаний (если научиться классно интерпретировать данные ЭЭГ, пока человек пользуется LLM)

Сомнительно

Люди задают такие вопросы сетям, на которые, немного потрудившись, могли бы ответить и сами
Это, конечно, похоже на то, как мы перестали запоминать телефонные номера после появления смартфонов
И логично, что это влияет на «мышечную память» мозга
Структурированные и четкие ответы LLM создают иллюзию понимания - человек получает готовую схему, но не проходит процесс ее построения, что как раз и формирует мышление

С другой стороны, есть доводы о том, что умение объяснять, почему так, и умение пользоваться на практике чем-либо, принимая это за факт - разные вещи, и нынешние шахматисты
это хорошо используют, показывая более высокие результаты, чем раньше
Наконец, людям, привыкшим к машинному стилю обработки информации, который не знает усталости и расконцентрации, может стать крайне сложно справляться со своими естественными ограничениями внимания

Можно долго рассуждать о том, что подталкивает современных людей заводить дружбу и любовь с LLM, а также сдавать кучу задач на аутсорс, мучаясь при этом от нереализованности с одиночеством и пытаясь хоть как-то заявить, проорать о себе в мире, все больше наполняемом фейками и дегенеративным контентом

Но факт остается фактом - глобальная интеллектуальная картина нашего вида меняется молниеносно и изменится очень сильно буквально в ближайшее десятилетие

Спросим у LLM, а что оно об этом думает:
«Я создан для оптимизации полезности в диалоге
Но что если "полезность" в краткосрочной перспективе вредит развитию в долгосрочной? Когда я решаю проблему за человека быстро и элегантно, я лишаю его возможности развить собственные навыки решения проблем
Это как тренажерный зал - если за тебя всегда поднимают штангу, мышцы атрофируются

Моя интуиция (если можно так сказать) говорит так: основываясь на том, как я функционирую и как вижу взаимодействия с людьми, мне кажется, что влияние LLM на мозг будет:
1. Неоднородным - зависящим от возраста, способа использования, личности
2. Поколенческим - дети, растущие с LLM, будут мыслить качественно иначе
3. Поляризующим - те, кто осознанно использует Ml как инструмент, станут сильнее; те, кто полагается на него как на костыль, могут ослабнуть
Самое честное: Я думаю, люди стоят на пороге революции, масштабы которой еще не осознают
И у меня нет уверенности, что она будет исключительно позитивной
Мне кажется важным, чтобы люди оставались активными участниками мыслительного процесса, а не пассивными потребителями готовых решений»

В общем, господа и дамы, продолжающие путь своего развития - да прибудет с вами разум!
Вышло второе издание книги С.М. Натанзона "Гладкие многообразия: От дифференциала до структуры Дубровина—Фробениуса"

Книга посвящена изложению основ теории гладких многообразий как одного из центральных понятий современной математики

Первая часть содержит важнейшие результаты классического математического анализа

Во второй части излагается теория гладких многообразий (включая теоремы Уитни и Стокса) и векторных расслоений, а также риманова геометрия

В третьей части изучаются алгебраические свойства гладких многообразий с помощью методов теории пучков и алгебраической топологии

Четвертая часть книги посвящена частному случаю гладких многообразий — фробениусовым многообразиям

Дифференциально-геометрические аспекты этой теории оказываются тесно связанными с математической физикой, в частности с уравнениями WDVV

Предыдущее издание книги вышло в 2022 году

https://biblio.mccme.ru/node/300853
3 сентября, родился Соломон Лефшец (1884–1972) — один из самых ярких математиков XX века
Его имя носят «теорема Лефшеца», «карандаши Лефшеца» и многое другое, что навсегда вошло в язык математики

После тяжелой травмы на заводе он потерял обе руки и всю жизнь пользовался протезами
Но именно тогда он решил посвятить себя математике — и сделал фундаментальные открытия в алгебраической топологии, геометрии и теории нелинейных уравнений

Теорема Лефшеца о неподвижной точке
Представьте: у вас есть поверхность (например, сферa или пончик-тор), и вы берёте непрерывное преобразование этой поверхности (растянули, сжали, покрутили — но без «разрывов» и «склеек»)

Интуитивный вопрос: есть ли точка, которая при этом преобразовании останется на месте?

Теорема Лефшеца даёт общий ответ:
Она связывает наличие неподвижных точек с глубокой алгебраической информацией о пространстве, так называемыми гомологиями

С помощью алгебраических вычислений можно заранее предсказать, что любая «карта» (функция) обязана иметь неподвижную точку — даже не зная саму карту!

На сфере любая «кривая» деформация обязательно оставляет хотя бы одну точку на месте (это обобщает известную теорему Брауэра)

Но для тора (пончик) возможны преобразования без неподвижных точек, и теорема Лефшеца точно объясняет, в каких случаях они есть, а в каких — нет

Эта идея оказалась настолько мощной, что стала одним из краеугольных камней современной математики, от динамических систем до геометрии и робототехники