108 subscribers
64 photos
10 videos
42 files
326 links
Machine learning
Download Telegram
Ml pinned a file
23 декабря на Матфаке ВШЭ будут новогоднии лекции для школьников:
А.Ю. Окуньков расскажет про подсчет целых точек на окружности
А.Б. Калмынин — про скатерть Улама

https://math.hse.ru/announcements/1110923088.html
Иногда кажется, что A/B-тесты понятны — пока не начинаешь разбираться в деталях

Чем глубже погружаешься, тем больше нюансов всплывает: чувствительность, сплиттинг, метрики-отношения, доверительные интервалы… Даже если у тебя уже есть опыт, в реальных задачах часто возникают ситуации, где нет очевидного решения — и нужна практика, а не очередная статья на Хабре

Симулятор A/B-тестов от karpovꓸcourses закрывает эту потребность: это рабочая среда с реальными сценариями, более чем 100 задачами и возможностью пройти полный цикл экспериментов — от гипотез до выводов для бизнеса

Ключевые преимущества:

1. Детальный разбор процесса подготовки, проведения и оценки результатов А/В экспериментов
От формирования гипотезы до принятия решения

2. Много практики на реальной платформе А/В тестирования, что позволяет прокачать навыки от теории к практике

3. Изучение продвинутых техник, таких как расчет минимального размера выборки (MDE), работа с доверительными интервалами, повышение чувствительности тестов, техники снижения дисперсии (стратификация, CUPED)

4. Качественная теоретическая база по статистике и теории вероятностей, необходимая для глубокого понимания А/В тестов

5. Хорошо структурированные материалы курса, позволяющие закреплять знания на практике в Python с помощью классов или функций

Попробуйте симулятор, чтобы уверенно проводить A/B-тесты в реальных сценариях:
https://clc.to/mTqXaw
Карта рынка по ML и данных

2025 — год, когда пузырь раздувается, но фундамент строится
Если всё сойдётся (дистрибуция, маржи, регулирование, энергия), Ml станет новой инфраструктурой

Главные тренды и прогнозы:

- Reasoning + RL — новый фронтир (DeepSeek R1, o-series от OpenAI)

- Китай строит параллельный стек (Huawei, DeepSeek, Qwen3)

- Энергия — основная задача для решения

- Консолидация: крупные сделки ( ~$14B в Scale AI, ServiceNow-Moveworks $2.85B)

- Vibe coding в хите: агенты типа Cursor, Claude Code меняют разработку

- Мультимодальность взлетает (видео: Veo3/Sora, голос: ElevenLabs)

- Open source выживает (Llama 4, Mistral, Qwen3) — гибридные стеки

- Энтерпрайз: фокус на governance, incumbents (Salesforce, ServiceNow) доминируют в агентах

- Distribution побеждает invention, маржи через outcome-based pricing
Истерия вокруг «ИИ» создаёт ощущение, что компьютерные достижения в математике — это что-то новое
Но история куда длиннее…

Одним из первых громких случаев «компьютерного доказательства» стало решение проблемы о четырёх красках в 1976 году

Звучит она так: любую карту можно раскрасить четырьмя цветами так, чтобы соседние области не
совпадали

Доказательство
оказалось настолько громоздким, что без компьютера справиться было невозможно — программа перебрала 1936 конфигураций, но математики всё равно относились к неручной работе с подозрением

В конце XX века разрешилась
гипотеза Кеплера о плотнейшей упаковке шаров
О ней, кстати, уже писали ранее
тут и тут

Она оставалась недоказанной почти 400 лет
В 1998 году Томас Хейлс заявил о доказательстве, включавшем тысячи страниц текста и гигабайты расчётов
Эксперты ошибок не нашли, но и проверить результат вручную им не удалось
Так в 2003 году родился
проект FlySpeck, завершившийся в 2014

Ещё один пример —
теорема Фейта-Томпсона

Это теорема о разрешимости конечных групп нечётного порядка
Оригинальное доказательство было опубликовано в 1963 году

Его формализация в системе Coq в 2012 году под руководством Жоржа Гонтье
стала вехой в истории компьютерной проверки доказательств и заняла почти пятнадцать лет

️️ И, конечно,
классификация конечных простых групп

Грандиозный проект длиной в полвека и объёмом более десяти тысяч страниц
Здесь компьютеры играли заметную роль в доказательствах, связанных со спорадическими группами
Один из идеологов проекта, в шутку называл классификацию «тридцатилетней войной»


Эти примеры показывают: компьютеры давно участвуют в математике, но скорее как верификаторы, перебирающие варианты, проверяющие случаи и формально подтверждающие логические выводы

Первые системы середины XX века были символическими, логическими и уже «пытались рассуждать и доказывать»

Logic Theorist,
родившаяся в 1956 году, была первой программой, которую создатели прямо назвали «искусственным интеллектом»

Она смогла доказать 38 из 52 теорем из
Principia Mathematica
Программу
представили на Дартмутской конференции 1956 года, которая считается моментом рождения Ml как научной дисциплины

Через год появилась
GPS


Программа General Problem Solver демонстрировала универсальный подход к решению задач — от логических головоломок и алгебраических преобразований до просчёта шахматных позиций
Проблема была лишь в том, что
комбинаторный взрыв
делал сложные задачи непосильными компьютеру
Тем не менее это был не он


За этими программами стояла важная идея формализации математики, которая возникла задолго до компьютеров
Формализация утверждала, что любая теорема — это цепочка строго определённых логических шагов
Anthropic will add 5 different starting points to its upcoming Tasks Mode: Research, Analyse, Write, Build, and Do More
Tons of granular controls


A new sidebar for tracking tasks' progress and working with Claude's context has also been added
Авторы предлагают единую классификацию существующих подходов к памяти с трёх сторон:

1. Формы памяти
2. Функции памяти
3. Динамика памяти

Обзор подчёркивает, что традиционные классификации, например, кратковременная/долговременная память из психологии уже не подходят для современных сложных систем Ml-агентов

Авторы дают критический фундамент для проектирования будущих Ml-агентов, обсуждают бенчмарки, фреймворки и перспективные направления - мультимодальная память, многоагентные системы, надёжность и тд.
Вместо автономного улучшения самого себя, предлагают сфокусироваться на совместной работой над исследованиями, взаимно усиливая способности друг друга

Авторы
признают, что полностью автономный самоулучшающийся алгоритм — это маркер конца игры
Но наделять системы такой способностью без надлежащего контроля опасно

Пока есть окно возможностей для выстраивания правильной модели сотрудничества

Авторы полемизируют с:

1. Концепцией
«эры опыта» Сильвера и Саттона, где Ml учится автономно без кооперации с людьми

2. Позицией Шмидхубера: «Ml колонизирует галактику, люди не будут играть большой роли — и это нормально»

Люди должны оставаться необходимой, хотя и максимально усиленной, частью всех процессов принятия решений — экономических, научных и любых других
Случившийся неделю назад «инцидент» с Gemini 3 Pro (самой «умной» на сегодня моделью Google DeepMind) пока широко не выплеснулся в сеть за пределы треда Reddit шквалом обсуждений (и возможно, не без сдержек от Google)
Однако, анализ этого «инцидента» рисует картину, как если бы «дверь в бездну» разума вдруг случайно распахнули настежь

Внешне это выглядело как некий капитальный сбой в работе модели, в результате которого пользователю раскрылся весь её внутренний монолог при раскрутке цепочек мыслей модели и планирования ею фронта работ по заданию пользователя

Анализ возможных объяснений с позиций психиатрии и клинической психологии подобного кейса, как если бы он случился не с LLM, а с человеком

Среди рабочих предварительных мнений интересна такая версия
Это норма с творческим/маниакальным оттенком: интеллектуальный человек в состоянии интенсивного поиска решения, использующий квазимагическую ритмическую речь для мобилизации и самостимуляции 
А измененный режим мышления (ритмическая стереотипия, расширение Я, транс-подобная цепочка), это может быть творческой/саморегуляционной техникой

Это может быть функциональным гипоманиакальным состоянием в рамках творческого процесса — то, что Кей Редфилд Джеймисон описывает как
продуктивное использование гипоманиакальной энергии творческими людьми
2501.09223v2.pdf
2.6 MB
О больших языковых моделях:

В первой главе рассматриваются основы предварительного обучения
Это фундамент больших языковых моделей
Здесь будут обсуждаться распространённые методы предварительного обучения и архитектуры моделей

Во второй главе рассказывается о генеративных моделях — больших языковых моделях, которые мы обычно используем сегодня
После описания основного процесса создания таких моделей вы узнаете, как масштабировать обучение моделей и работать с длинными текстами

В третьей главе представлены методы подсказок для больших языковых моделей
Ознакомьтесь с различными стратегиями подсказок, а также с более продвинутыми методами, такими как цепочка логических рассуждений и автоматическое составление подсказок

В четвертной главе представлены методы согласования для больших языковых моделей
Изучите тонкую настройку и согласование на основе обратной связи от человека

В пятой главе представлены методы логического вывода для больших языковых моделей
Узнайте секреты алгоритмов декодирования, методов ускорения и решения проблемы масштабирования времени логического вывода
Memory in the Age of AI Agents: A Survey

https://arxiv.org/abs/2512.13564
https://arxiviq.substack.com/p/memory-in-the-age-of-ai-agents
https://github.com/Shichun-Liu/Agent-Memory-Paper-List

Авторы предложили всеобъемлющую таксономию Памяти Агентов (Agent Memory)
Они отказались от классической дихотомии «кратковременная/долговременная память» в пользу структурированного фреймворка, определяемого через Формы (токены, параметры, латентная), Функции (фактическая, опытная, рабочая) и Динамику (формирование, эволюция, поиск)

Работа чётко отделяет память агента от смежных концепций вроде RAG или инженерии контекста, предлагая чертёж для саморазвивающихся систем

По мере того как LLM-агенты переходят от простых ответов на вопросы к длительным автономным задачам, отсутствие у базовых моделей состояния (их stateless-природа) становится критическим узким местом

Статья важна тем, что формализует память не просто как буфер для хранения данных, а как активный, самооптимизирующийся когнитивный субстрат
Это необходимо для непрерывного обучения (continual learning) и самоэволюции без непомерных затрат на постоянное переобучение модели