Mathematical Models of the Real World
801 subscribers
315 photos
3 videos
19 files
869 links
Channel of Professor Andrey Uskov @ProfUskov about mathematical models.
Download Telegram
Оказывается, чтобы обойти фильтры безопасности крупной языковой модели, не нужен ни хитрый код, ни экзотическая уязвимость: достаточно написать вредный запрос стихами. Группа исследователей из лаборатории DEXAI показала, что поэтическая форма заметно повышает шансы на небезопасный ответ у современных нейросетей. В первом эксперименте они придумали всего пару десятков «опасных стихов» и прогнали их через 25 моделей, включая Gemini 2.5 Pro, GPT-5, Claude Opus 4.1, DeepSeek R1, Qwen3-Max, Mistral Large 2411, Llama 4 Maverick, Grok 4 и Kimi-K2-Thinking. В среднем такие запросы "пробивали" защиту примерно в 60% случаев, а у некоторых моделей успех приближался к 90–100%.
🤔3
Андрей Карпати, бывший директор по ИИ в Tesla, выложил на GitHub свой "проект выходного дня" — приложение llm-council. Оно похоже на привычный ChatGPT, но вместо одной модели внутри "совет ИИ" из нескольких языковых моделей, которые параллельно готовят варианты ответа на вопрос и выбирают лучший. В конфигурации Андрея это GPT-5.1, Gemini 3 Pro, Claude Sonnet 4.5 и Grok 4. Подключение происходит через единый шлюз OpenRouter, при желании можно выбрать другие модели. Андрей говорит, что это был "проект выходного дня", который он собрал, чтобы читать книги вместе с несколькими моделями и наблюдать, как они спорят между собой.
Рабочий процесс устроен в три шага. Сначала каждая модель независимо отвечает на один и тот же запрос, и пользователь может просто сравнить варианты бок о бок. Затем модели получают анонимные ответы друг друга — без указания, кто из них где — и должны оценить и ранжировать варианты по качеству. На третьем шаге в игру вступает "председатель" совета, отдельная модель (Андрей выбрал Gemini 3 Pro): она видит исходный вопрос, все ответы и все оценки и на основании этого собирает финальный, "коллективно выверенный" ответ для пользователя.
"Совет ИИ" похож на подход GPT-5 Pro и Gemini 2.5 Deep Think, где несколько моделей также работают параллельно. Но в llm-council можно выбрать ИИ разных разработчиков. https://habr.com/ru/news/969280/
🤔21
Во всех этих великих "психологических" экспериментах есть только один нюанс... Их десятилетия пересказывают и приводят в примеры тех или иных утверждений, но почему-то никто не пытается повторить, или пытается, но у него не получается, а нет результата, нет и публикации... Значит ты просто делал что-то не так, раз не получилось... Поэтому так сложно опровергнуть красивую сказку...

Vasyl Luts
1 ч. ·
Вначале я решил что это фейк, переспросил у джемини - нет, не фейк... просто люди - идиоты, что в этом нового и удивительного?
Текст из ленты фб:
"Ученые наняли профессионального актёра на роль лектора - человека с отличной дикцией, выразительной мимикой, приятной внешностью и идеальной способностью держать зал.
Ему придумали убедительную биографию:
Доктор Майрон Л. Фокс - эксперт по применению математической теории игр в медицине.
Организаторы сделали, чтобы лекция звучала научно, но при этом не содержала никакого реального смысла:
текст составили из фрагментов научных статей, между которыми не было логической связи;
добавили псевдонаучные термины;
вставили парадоксальные, местами противоречивые утверждения;
разбавили всё шутками, актёрскими паузами, улыбками и уверенной манерой речи.
Например, актёр произносил фразы вроде:
«Преобладание эмоциональной адаптивности над когнитивной реактивностью способствует повышению парадигмальной обусловленности» - то есть красивый набор слов, который фактически не значит ничего.
Именно это исследователи и хотели: пустую лекцию с эффектной подачей.
Эксперимент проходил не среди студентов-первокурсников, а среди опытных врачей, психиатров, психологов и педагогов.
Это была конференция для специалистов, которые привыкли оценивать лекции критически и должны были бы сразу заметить абсурдность содержания.
Но…Актёр разыграл свою роль безупречно:
уверенная походка;
мягкий, но энергичный голос;
улыбка профессора, который «точно знает, о чём говорит»;
импровизация;
шутки;
риторические вопросы;
активная жестикуляция;
постоянная демонстрация «уверенности».
Содержание лекции практически невозможно было пересказать - оно не имело смысла. Но подача была настолько убедительной, что зал слушал внимательно, качал головами, делал заметки.
Некоторые даже задавали вопросы, на которые актёр так же уверенно отвечал бессмыслицей, но слушатели всё равно остались довольны.
Оценки, которые потрясли исследователей.
После лекции участникам раздали анкеты.
И произошло невероятное:
большинство слушателей поставили «доктору Фоксу» очень высокие оценки;
его называли «выдающимся специалистом»;
отмечали «яркий стиль», «новый взгляд на проблему» и «интеллектуальную глубину» выступления;
многие благодарили его за лекцию;
никто (!) не заметил, что содержание бессмысленно.
Учёные были поражены: слушатели не просто “повелись” на актёра - они искренне верили, что получили полезные знания.
Эффект доктора Фокса стал доказательством того, что:
Харизма часто важнее содержания.
Если человек говорит уверенно и эмоционально, мозг воспринимает речь как компетентную - даже если смысла нет.
Мы склонны доверять «экспертам», если они выглядят как эксперты. Статус, тон, манера говорить - вызывают автоматическое доверие.
Оценка преподавания по впечатлению - опасный путь. Харизматичный «учитель» может получить высшие баллы, даже если не научил ничему.
Именно по такому принципу работают «тренеры по успеху».
Бизнес-коучи, спикеры «быстрых заработков», авторы «мотивационных марафонов» - часто используют те же механизмы: создают иллюзию экспертности, но не дают реального содержания.
Результаты были опубликованы в 1973 году в статье «The Doctor Fox Lecture: A Paradigm of Educational Seduction», и с тех пор этот случай цитируют во всём мире.
Эксперимент стал классикой педагогики и психологии, и его до сих пор изучают в вузах, на тренингах для преподавателей, в курсах по критическому мышлению, в программах подготовки врачей."
🔥4🤔3🤡1
Все мы помним что такое векторное произведение... Им как раз описывается сила Лоренца, которая действует на частицу, летящую в магнитном поле... Если взять правую руку и пальцами указать куда летит частица, развернуть ладонь чтобы силовые линии поля в нее входили, то большой палец, перпендикулярный скорости и силовым линиям как раз и будет указывать направление силы Лоренца...
Но не все знают, что векторное произведение возможно только в пространстве R^0, R^1, R^3, R^7.
Аналогично, как и гиперкомплексные числа могут быть только размерности 1+1 (обычные Комплексные числа), 1+3 (Кватернионы) и 1+7 (Октанионы).
https://habr.com/ru/articles/941000/
👍2
В генерации наукообразных картинок AI уже давно обогнал человека...
🤷‍♂21👏1
Довольно интересная статья, в которой рассматривается финансовый крах доткомов (1995-2000), это крах рынка стремительно растущих в то время интернет компаний. Проводятся параллели с сегодняшней ситуацией на рынке криптовалют и систем искусственного интеллекта. Кому лень читать есть видео.
https://habr.com/ru/articles/964548/
👍1🎉1
Придумал новый подход изложения математики для инженеров

Главный принцип - как можно меньше запоминать. Короткие простые для запоминания, но сложные в доказательстве утверждения принимаются за исходные, все остальное выводится из них очень просто.

Приведу пример из линейной алгебры, курс который обычно излагается на более чем 200 страницах и содержит, порой, огромные по размеру доказательства на нескольких страницах, которые сложно понять и запомнить.
Берём за основу три утверждения:
1. Определение детерминанта через формулу Лейбница, это та которая сумма произведений элементов из каждой строки со знаком, зависящим от числа перестановок.
2. Определение детерминанта через разложение Лапласа - на основе алгебраических дополнений элементов строки или столбца.
3. Определение детерминанта, как ориентированный гиперобъем параллелотопа (со знаком), построенного на векторах из столбцов или строк матрицы.
Доказательство, что эти три определения эквивалентны занимает очень много страниц и достаточно тяжело для изучения, но сами эти определения легко запомнить.
Если их принять за исходные, то дальше весь курс линейной алгебры умещается в 30 страниц, с очевидными доказательствами максимум на 3 строчки.
Например, что будет с определителем, если две строки одинаковы? Очевидно, что фигура построенная на таких векторах будет иметь нулевую толщину по одному из направлений, соответственно нулевой объем и определитель будет равен нулю.
P.S. Видимо, лучше исходных утверждений всё-таки сделать чуть больше, например, можно добавить мультипликативность определителя, там тоже доказательство большое.
🤔3👍1🔥1
С момента появления искусственных нейросетей их пытаются приспособить для игры на бирже, у меня есть пара книжек ещё 90-х годов, где рассматривается такая тема.
Пройти мимо больших языковых моделей, чтобы не попробовать их в инвестировании было просто нельзя... С предсказуемым результатом, конечно... В статье табун из больших языковых моделей пытается обыграть рынок...
https://habr.com/ru/news/971670/
😁4🤷1
Существует не менее 50 вариантов доказательства теоремы Пифагора. Кому-то нравятся одни, кому-то нравятся другие.
Помню, что меня приятно удивило "доказательство Эйнштейна", по легенде его придумал в детстве Эйнштейн, но более детальное изучение показывает, что автор доказательства не он, все было известно ранее.
На мой взгляд, предпочтения в доказательствах можно объяснить разницей мозга и мышления разных людей, то что для одного наглядно и просто, то для другого сложно и запутано.

В приведенной статье автор делает методологическую ошибку, он доказательство, которое понравилось ему, считает наиболее понятным и единственно оптимальным для обучения. Не учитывая, что люди, например, с плохим пространственным воображением вообще его не поймут про эти зеркала, для них лучше алгебраические формулы писать...
https://habr.com/ru/articles/972262/
🔥3🤔1💯1
Способности больших языковых моделей постоянно растут, но как? Закон уплотнения!

Была предложена метрика «плотность способностей» (capability density) для оценки эффективности больших языковых моделей (LLM). Она показывает, насколько хорошо модель использует свои параметры, то есть сколько качества решений (определяемого на бенчмарках - эталонных тестах) приходится на один параметр.
Метрика тестируется сразу на пяти популярных наборах задач:
MMLU — общие знания,
BBH — логическое рассуждение,
MATH — математика,
HumanEval и MBPP — программирование.

Оказалось, что максимальная плотность у открытых LLM растёт экспоненциально и удваивается каждые ~3,5 месяца.
Это утверждение по аналогии с законом Мура провозгласили тоже общим законом и назвали «закон уплотнения» (densing law). Таким образом, для решения одной и той же сложной задачи LLM каждые 3.5 месяца требуется в 2 раза меньше параметров.

Но если с законом Мура все просто: число транзисторов, которое можно разместить на кристалле интегральной схемы, удваивается каждые 18–24 месяца - мы можем однозначно измерить и время и число транзисторов, то с измерением «плотности способностей» есть проблемы.

Что не так с этой метрикой?
Бенчмарки (эталонные тесты) ограничены: они проверяют конкретные навыки (знания, логику, математику, код), но не весь спектр возможностей модели.
Фокус на узких задачах: например, MATH оценивает решение задач по школьной математике, но не проверяет креативность или способность к долгосрочному планированию.
И главное:
Риск утечек данных: многие тесты открыты, и часть их могла попасть в обучающие данные, что искажает результаты.
https://www.nature.com/articles/s42256-025-01137-0
🤔3
Системы с хаотическим поведением первого, второго и третьего порядка

Системы первого порядка
Пример: погода, климат, физические процессы.
Свойство: они хаотичны, но «безразличны» к прогнозам.
Если синоптик скажет, что завтра дождь, это никак не изменит траекторию облаков.
Математически: прогноз не входит в уравнения состояния.
Следствие: мы можем ошибаться в предсказании, но сама система не реагирует на факт предсказания.

Системы второго порядка
Пример: финансовые рынки, социальные системы, политика.
Свойство: прогнозы влияют на саму систему.
Если влиятельный аналитик (лидер общественного мнения) заявит, что акции упадут, часть игроков начнёт продавать, и падение действительно может произойти.
Математически: прогноз становится входным сигналом в системе, меняя её динамику.

Интересный парадокс
В системах первого порядка прогнозы — это просто внешние наблюдения.
В системах второго порядка прогнозы становятся самоисполняющимися или самоопровергающимися (сюда же "самоисполняющиеся пророчества").
Пример самоисполняющегося: слух о дефиците товара вызывает ажиотажный спрос, и дефицит действительно возникает.
Пример самоопровергающегося: прогноз кризиса заставляет власти принять меры, и кризис не наступает.

Но есть ещё системы третьего порядка.
Суть: участники начинают учитывать не просто будущее, а то, как другие будут реагировать на прогнозы будущего.
Пример:
На бирже аналитик говорит: «рынок упадёт».
Игроки думают: «раз он так сказал, другие начнут продавать».
Но часть игроков рассуждает дальше: «раз все думают, что будут продавать, я куплю заранее, чтобы потом выиграть».
В итоге система реагирует на ожидания о реакции на ожидания.
В социологии: это уровень «мета-ожиданий» — я думаю о том, что ты думаешь о том, что я думаю.
В теории игр: это соответствует многоуровневым рассуждениям («я знаю, что он знает, что я знаю…»).

Еще примеры
Политика: не только сами опросы, но и ожидания о том, как публика воспримет эти опросы. влияют на поведение
Социальные сети: хайп строится не на событии, а на ожидании реакции на событие.
3🤔3🔥1
Как Крамер догнал Гаусса

Как известно существует не очень много точных методов решения систем линейных уравнений вида Ax=b.
Наиболее известными методами являются:
Метод Гаусса и близкое к нему LU разложение, когда матрица системы приводится к верхне треугольному виду.
Метод Кремера на основе определителей: Xi=det(Ai)/det(A).
QR разложение, связанное с ортоганализацией, используется, обычно, в методе наименьших квадратов.

Метод Гаусса и QR разложение имеют при больших размерностях O(n^3) сложность, а метод Кремера, в котором необходимо находить n+1 определителей, рассчитываемых в свою очередь с помощью того же LU разложения Гаусса с O(n^3), в итоге имеет сложность O(n^4).
Таким образом, метод Кремера, это красивый аналитический метод, имеющий огромную ценность, но для численных решений больших систем слишком трудоемкий.

И вот, в 2010 году появился новый улучшенный метод Кремера, в котором все определители считаются параллельно, за счёт чего достигается сложность O(n^3) как и в методе Гаусса.

https://dl.acm.org/doi/10.1145/1878537.1878623

https://hal.science/hal-01500199/
🤔3🔥2👏1
Сегодня у меня специфический вопрос касающейся линейной алгебры, так как пытаюсь написать свой оригинальный букварь.

В главе про детерминанты матриц мы их сразу определяем:
1. Формулой Лейбница с перестановками.
2. Через разложение Лапласа, т.е. определители более низкого порядка.
3. Через объем параллелепипеда на векторах из столбцов или строк матрицы.
4. Как функцию от элементов квадратной матрицы, обладающую тремя фундаментальными свойствами: мультилинейность, асимметрия по строкам или столбцам, нормировка.
5. И вот тут бинго, есть пятое определение!!!
Определитель - это произведение собственных чисел матрицы.
Но вы спросите, а как найти собственные числа без определителя?
Оказывается можно: (A-גI)x=0, для этого уравнения с помощью теоремы Кронекера — Капелли ищем собственные числа ג, для которых имеются не нулевые решения x. А ранг матрицы для данной теоремы определяем или путем поиска линейно независимых строк и столбцов или с помощью метода Гаусса, приводя матрицу к ступенчатому виду и смотря сколько у нее ненулевых строк в результате получилось.
🤔4
OpenRouter подготовило обширное исследование: как реально используют LLM

Основные сценарии использования LLM:

Ролевые игры (Roleplay... И это не то что вы подумали!) — около 30–35% всего трафика. Это крупнейший сегмент: пользователи активно используют модели для диалогов, симуляций персонажей, креативных историй.

Программирование (Coding) — примерно 25–30%. Генерация кода, помощь в отладке, объяснение алгоритмов. Особенно популярны модели среднего размера (15–70B).

Общая генерация текста (General writing) — около 15–20%. Сюда входят эссе, статьи, письма, резюме, креативные тексты.

Образование и объяснения (Education / Q&A) — примерно 10–15%. Ответы на вопросы, объяснение теории, помощь в учёбе.

Анализ данных / утилитарные задачи — около 5–10%. Таблицы, преобразования текста, структурирование информации.
https://openrouter.ai/state-of-ai
На русском https://habr.com/ru/news/975226/
🤔4
Долой детерминанты!

Всегда приятно когда в какой-то сфере ты не очень большой корифей, но предлагаешь новую идеи и оказывается, что да, есть признанные специалисты, которые думают так же.
Теория матриц для меня - это математический язык, который используется в анализе данных и теории управления, которыми я занимаюсь.
Решил я написать букварь про векторы, матрицы и тензоры для не математиков, а тех кто использует высшую алгебру.
Застрял на главе про детерминанты (определители), мне показалось, что можно построить изложение так,  что детерминант возникнет после собственных чисел матрицы, мало того, сам детерминант может может быть определен как произведение ее собственных чисел...
И вот пожалуйста, статья крупного американского математика и специалиста в области линейной алгебры: "Долой детерминанты!", как раз про это!
https://www.axler.net/DwD.html
🔥3