В цифровом мире почти не осталось места угловатым пикселям
Шрифты, иконки, анимация и даже виртуальные модели автомобилей — всё это состоит из плавных и элегантных линий
Эту эстетику подарили нам два французских инженера и один русский математик
Их идеи создали один из главных инструментов компьютерной графики, где за каждой изящной линией стоит элегантная математическая модель
Всё началось в середине XX в., когда инженер Пьер Безье из компании Renault столкнулся с практической проблемой: как быстро и точно описать сложные криволинейные поверхности автомобильных кузовов?
Ручное вычерчивание по лекалам было медленным, неточным и плохо поддавалось автоматизации
Нужен был способ, позволяющий гибко управлять формой кривой с помощью всего нескольких точек
Решение пришло в виде геометрического алгоритма, который позже назовут алгоритмом де Кастельжо (по имени инженера из компании Citroën)
Его суть проста: берём набор контрольных точек, соединяем их отрезками, затем движемся вдоль этих отрезков с постоянной скоростью, отмечая промежуточные точки
Соединяем эти новые точки, повторяем процесс и продолжаем, пока не останется только одна точка
Путь, который описывает эта точка, и есть кривая Безье
При этом только первая и последняя контрольные точки лежат на самой кривой; остальные действуют как кукловоды-невидимки, притягивая к себе кривую и задавая её форму
Эта геометрическая интуиция была блестящей
Но чтобы она стала надёжным инструментом, требовалось строгое математическое обоснование
И оно уже существовало, пусть и в совершенно ином контексте
Ещё в 1912 г. русский математик Сергей Натанович Бернштейн, работая над доказательством теоремы Вейерштрасса об аппроксимации, ввёл специальное семейство многочленов
Сегодня они известны как базис Бернштейна
Для степени n этот базис состоит из n+1 функций вида
Bᵢₙ(t) = Cₙⁱ · tⁱ · (1–t)ⁿ⁻ⁱ, t ∈ [0;1]
Например, для кубической кривой у нас есть 4 полинома:
B₀₃(t) = (1–t)³,
B₁₃(t) = 3 t (1–t)²,
B₂₃(t) = 3 t² (1–t),
B₃₃(t) = t³
Каждый полином определяет долю влияния своей точки в каждый момент
Алгоритм де Кастельжо наглядно представляет вычисление P(t) = Σ Bᵢₙ(t) · Pᵢ
Таким образом, кривая Безье — это взвешенная сумма контрольных точек, в которой базис Бернштейна выступает в роли весов
Именно эти «веса» наделяют кривые Безье свойствами, необходимыми для современного дизайна
Во-первых, сумма всех базисных полиномов Бернштейна для любого t всегда равна единице
Это гарантирует аффинную инвариантность: как бы вы ни перемещали, вращали или масштабировали контрольные точки, кривая будет предсказуемо следовать за ними, не требуя пересчёта
Во-вторых, все полиномы Бернштейна неотрицательны на [0; 1]
В сочетании с разбиением единицы это гарантирует, что кривая всегда остаётся внутри выпуклой оболочки своих контрольных точек
В-третьих, базис Бернштейна обладает свойством уменьшения вариации: кривая не может колебаться сильнее, чем её контрольный многоугольник
Даже при резком перемещении одной точки кривая реагирует сглаженно — без неожиданных петель и резких скачков
Наконец, базис симметричен: поменяйте порядок контрольных точек местами, и вы получите ту же кривую, пройденную в обратном направлении
Так практическая задача из автомобильной промышленности нашла своё идеальное математическое воплощение
Сегодня кривые Безье присутствуют в каждом шрифте, каждом логотипе, каждой анимации
За их кажущейся простотой скрывается мощная структура, зародившаяся в начале XX в. и по-настоящему осознанная лишь тогда, когда мир начал рисовать не мелом на доске, а курсором на экране
В следующий раз, перетаскивая управляющую точку в графическом редакторе, вспомните о полиномах Бернштейна — математическом механизме, который тихо и незаметно превращает ваши действия с точками в плавные и гладкие кривые
Шрифты, иконки, анимация и даже виртуальные модели автомобилей — всё это состоит из плавных и элегантных линий
Эту эстетику подарили нам два французских инженера и один русский математик
Их идеи создали один из главных инструментов компьютерной графики, где за каждой изящной линией стоит элегантная математическая модель
Всё началось в середине XX в., когда инженер Пьер Безье из компании Renault столкнулся с практической проблемой: как быстро и точно описать сложные криволинейные поверхности автомобильных кузовов?
Ручное вычерчивание по лекалам было медленным, неточным и плохо поддавалось автоматизации
Нужен был способ, позволяющий гибко управлять формой кривой с помощью всего нескольких точек
Решение пришло в виде геометрического алгоритма, который позже назовут алгоритмом де Кастельжо (по имени инженера из компании Citroën)
Его суть проста: берём набор контрольных точек, соединяем их отрезками, затем движемся вдоль этих отрезков с постоянной скоростью, отмечая промежуточные точки
Соединяем эти новые точки, повторяем процесс и продолжаем, пока не останется только одна точка
Путь, который описывает эта точка, и есть кривая Безье
При этом только первая и последняя контрольные точки лежат на самой кривой; остальные действуют как кукловоды-невидимки, притягивая к себе кривую и задавая её форму
Эта геометрическая интуиция была блестящей
Но чтобы она стала надёжным инструментом, требовалось строгое математическое обоснование
И оно уже существовало, пусть и в совершенно ином контексте
Ещё в 1912 г. русский математик Сергей Натанович Бернштейн, работая над доказательством теоремы Вейерштрасса об аппроксимации, ввёл специальное семейство многочленов
Сегодня они известны как базис Бернштейна
Для степени n этот базис состоит из n+1 функций вида
Bᵢₙ(t) = Cₙⁱ · tⁱ · (1–t)ⁿ⁻ⁱ, t ∈ [0;1]
Например, для кубической кривой у нас есть 4 полинома:
B₀₃(t) = (1–t)³,
B₁₃(t) = 3 t (1–t)²,
B₂₃(t) = 3 t² (1–t),
B₃₃(t) = t³
Каждый полином определяет долю влияния своей точки в каждый момент
Алгоритм де Кастельжо наглядно представляет вычисление P(t) = Σ Bᵢₙ(t) · Pᵢ
Таким образом, кривая Безье — это взвешенная сумма контрольных точек, в которой базис Бернштейна выступает в роли весов
Именно эти «веса» наделяют кривые Безье свойствами, необходимыми для современного дизайна
Во-первых, сумма всех базисных полиномов Бернштейна для любого t всегда равна единице
Это гарантирует аффинную инвариантность: как бы вы ни перемещали, вращали или масштабировали контрольные точки, кривая будет предсказуемо следовать за ними, не требуя пересчёта
Во-вторых, все полиномы Бернштейна неотрицательны на [0; 1]
В сочетании с разбиением единицы это гарантирует, что кривая всегда остаётся внутри выпуклой оболочки своих контрольных точек
В-третьих, базис Бернштейна обладает свойством уменьшения вариации: кривая не может колебаться сильнее, чем её контрольный многоугольник
Даже при резком перемещении одной точки кривая реагирует сглаженно — без неожиданных петель и резких скачков
Наконец, базис симметричен: поменяйте порядок контрольных точек местами, и вы получите ту же кривую, пройденную в обратном направлении
Так практическая задача из автомобильной промышленности нашла своё идеальное математическое воплощение
Сегодня кривые Безье присутствуют в каждом шрифте, каждом логотипе, каждой анимации
За их кажущейся простотой скрывается мощная структура, зародившаяся в начале XX в. и по-настоящему осознанная лишь тогда, когда мир начал рисовать не мелом на доске, а курсором на экране
В следующий раз, перетаскивая управляющую точку в графическом редакторе, вспомните о полиномах Бернштейна — математическом механизме, который тихо и незаметно превращает ваши действия с точками в плавные и гладкие кривые
К вопросу о важности символики для развития математики
Вот у Бомбелли (16_й век) записано число √(7 + √14)
И это был уже прорыв в переходе от словесной к символьной записи математических выражений
Вот у Бомбелли (16_й век) записано число √(7 + √14)
И это был уже прорыв в переходе от словесной к символьной записи математических выражений
В Nature вышла работа команды, в которой они разработали подход, где мета-сеть учится генерировать правила обновления для RL-агентов
Вместо того, чтобы жёстко прописывать формулы, как в классических методах, система:
- Собирает опыт от популяции агентов в сотнях разных сред
- Обучает мета-сеть, которая производит правила обновления параметров агентов
- Оптимизирует мета-параметры так, чтобы максимизировать долгосрочные награды
Система сама решает, что предсказывать
Полученный алгоритм назвали DiscoRL (Discovered Reinforcement Learning)
Его уже протестировали:
Atari (57 игр): DiscoRL показал SOTA результаты, превзойдя Rainbow DQN, PPO и другие классические методы по медианной награде
Обобщение на новые задачи: Без дополнительного обучения алгоритм достиг сильных результатов на ProcGen, показал конкурентные результаты на DMLab, NetHack, Crafter и Sokoban
Масштабирование: Увеличение разнообразия обучающих сред (с 57 до 103) улучшило обобщение
Система не переобучается на узкий набор задач
Обнаруженные предсказания ведут себя не как классические value-функции
Они "активируются" (резко растут) перед значимыми событиями — большими наградами или изменениями политики
Это emergent behavior, который не был заложен изначально
Для исследований: Меньше времени на ручное проектирование алгоритмов, больше фокуса на разнообразии данных и архитектуре мета-сети
Для практики: Потенциально более адаптивные алгоритмы для робототехники, игр, оптимизации
Если правила обучения подстраиваются под распределение задач, это может ускорить применение RL в новых доменах
Это шаг к рекурсивному самоулучшению — системы, которые учатся учиться
Аналогия с биологией: как эволюция создала способность к обучению у животных, так здесь алгоритм "эволюционирует" через опыт популяции агентов
Ограничения:
1. Обучение требует сотен млн шагов по средам с популяцией агентов
2. Пока подход протестирован на off-policy RL с replay buffer. Как он работает в on-policy настройках или в continuous control задачах — открытый вопрос
3. Все эксперименты в симуляторах (Atari, ProcGen и т.д.)
Перенос на физических роботов или реальные системы пока не продемонстрирован
4. Хотя авторы анализируют поведение предсказаний, понять, почему конкретное правило обновления работает, сложнее, чем с явными формулами классических методов
Вместо того, чтобы жёстко прописывать формулы, как в классических методах, система:
- Собирает опыт от популяции агентов в сотнях разных сред
- Обучает мета-сеть, которая производит правила обновления параметров агентов
- Оптимизирует мета-параметры так, чтобы максимизировать долгосрочные награды
Система сама решает, что предсказывать
Полученный алгоритм назвали DiscoRL (Discovered Reinforcement Learning)
Его уже протестировали:
Atari (57 игр): DiscoRL показал SOTA результаты, превзойдя Rainbow DQN, PPO и другие классические методы по медианной награде
Обобщение на новые задачи: Без дополнительного обучения алгоритм достиг сильных результатов на ProcGen, показал конкурентные результаты на DMLab, NetHack, Crafter и Sokoban
Масштабирование: Увеличение разнообразия обучающих сред (с 57 до 103) улучшило обобщение
Система не переобучается на узкий набор задач
Обнаруженные предсказания ведут себя не как классические value-функции
Они "активируются" (резко растут) перед значимыми событиями — большими наградами или изменениями политики
Это emergent behavior, который не был заложен изначально
Для исследований: Меньше времени на ручное проектирование алгоритмов, больше фокуса на разнообразии данных и архитектуре мета-сети
Для практики: Потенциально более адаптивные алгоритмы для робототехники, игр, оптимизации
Если правила обучения подстраиваются под распределение задач, это может ускорить применение RL в новых доменах
Это шаг к рекурсивному самоулучшению — системы, которые учатся учиться
Аналогия с биологией: как эволюция создала способность к обучению у животных, так здесь алгоритм "эволюционирует" через опыт популяции агентов
Ограничения:
1. Обучение требует сотен млн шагов по средам с популяцией агентов
2. Пока подход протестирован на off-policy RL с replay buffer. Как он работает в on-policy настройках или в continuous control задачах — открытый вопрос
3. Все эксперименты в симуляторах (Atari, ProcGen и т.д.)
Перенос на физических роботов или реальные системы пока не продемонстрирован
4. Хотя авторы анализируют поведение предсказаний, понять, почему конкретное правило обновления работает, сложнее, чем с явными формулами классических методов
Telegram
All about AI, Web 3.0, BCI
Huge breakthrough from Google DeepMind. The study was led by AlphaGo’s creator, David Silver.
In their latest Nature paper, “Discovering SOTA reinforcement learning algorithms,” they show that AI can autonomously discover better RL algorithms.
"Enabling…
In their latest Nature paper, “Discovering SOTA reinforcement learning algorithms,” they show that AI can autonomously discover better RL algorithms.
"Enabling…
Forwarded from НИИ Антропогенеза (ARI)
Hidden attractors in dynamical systems_IJBC_2013.pdf
16.2 MB
Особо отзывается тезис о нелинейных системах контроллинга
Хотя выравнивать для этого между собой базисы Айзермана и Кальмана я бы не стал (они основаны на слишком уж различающихся, даже отчасти противопоставляемых друг другу, посылках)
Тем более, что применение таких регуляторных контурах к управлению аттракторного пространства динамических систем в работе постулирован, а не рассмотрен
Но это не критично…
Сам же аттракторный залог, тем более с отсылкой к классике Рабиновича, неплох и вполне уместен
Единственное, чего в работе (по крайней мере - в её опубликованной версии) из концептуально важного не использовано - это полевая модель аттрактивности
А ведь для общественно-социальных феноменов такая аналитика в аналитике весьма значима…
Хорошо бы добавить вероятностный тензор
Есть и другие шероховатости
Скажем, использованная в работе осцилляционная модель Даффинга - не единственная (да и не лучшая) из возможных к применению; а её связка с бифуркацией Неймарка вообще выглядит шаманством
Императив различения самовозбуждаемых и скрытых аттракторов для весьма спорен; хотя как модельный подход для того, чтобы съесть слона кусачками - приемлем
Но не хватает — прикладной окрашенности; и, в первую очередь, в отношении источников данных для конфигурирования вычислительных моделей на основе предложенных аналитических посылок
Всё дело в процессе
Сильная претензия на потенциал серьёзной предиктивной платформы
Можно рассчитывать на известный успех и развитие в качестве базы для экспертного процессинга
Хотя выравнивать для этого между собой базисы Айзермана и Кальмана я бы не стал (они основаны на слишком уж различающихся, даже отчасти противопоставляемых друг другу, посылках)
Тем более, что применение таких регуляторных контурах к управлению аттракторного пространства динамических систем в работе постулирован, а не рассмотрен
Но это не критично…
Сам же аттракторный залог, тем более с отсылкой к классике Рабиновича, неплох и вполне уместен
Единственное, чего в работе (по крайней мере - в её опубликованной версии) из концептуально важного не использовано - это полевая модель аттрактивности
А ведь для общественно-социальных феноменов такая аналитика в аналитике весьма значима…
Хорошо бы добавить вероятностный тензор
Есть и другие шероховатости
Скажем, использованная в работе осцилляционная модель Даффинга - не единственная (да и не лучшая) из возможных к применению; а её связка с бифуркацией Неймарка вообще выглядит шаманством
Императив различения самовозбуждаемых и скрытых аттракторов для весьма спорен; хотя как модельный подход для того, чтобы съесть слона кусачками - приемлем
Но не хватает — прикладной окрашенности; и, в первую очередь, в отношении источников данных для конфигурирования вычислительных моделей на основе предложенных аналитических посылок
Всё дело в процессе
Сильная претензия на потенциал серьёзной предиктивной платформы
Можно рассчитывать на известный успех и развитие в качестве базы для экспертного процессинга
Markovian Thinker открывает путь к линейным по времени рассуждениям для LLM
https://arxiv.org/abs/2510.06557
https://arxiviq.substack.com/p/the-markovian-thinker
https://github.com/McGill-NLP/the-markovian-thinker
https://huggingface.co/McGill-NLP/the-markovian-thinker
Статья представляет «марковское мышление» (Markovian Thinking) — новую парадигму для обучения LLM, способных к рассуждениям, с помощью обучения с подкреплением (RL)
Эта парадигма реализуется через среду «Delethink», которая преобразует процесс рассуждений в последовательность «чанков» (кусков) фиксированного размера
На границе каждого чанка среда сбрасывает контекст, сохраняя лишь короткий, выученный моделью текстовый фрагмент — «марковское состояние» — для продолжения мыслительного процесса
RL-политика обучается записывать в этот фрагмент достаточно информации, чтобы обеспечить плавное продолжение рассуждений
Такой подход отделяет общую длину рассуждений от активного размера контекста модели, коренным образом меняя масштабирование вычислений
Он превращает непомерные квадратичные вычислительные затраты (O(N²)) и линейный рост памяти стандартного RL-подхода с длинными цепочками рассуждений (Long-Chain-of-Thought, LongCoT) в линейные вычисления и константную память относительно длины рассуждений
Это делает экономически целесообразным обучение LLM на очень длинных слепках рассуждений
Более того, модели, обученные с помощью Delethink, демонстрируют лучшее масштабирование во время инференса, продолжая улучшаться далеко за пределами своего тренировочного бюджета, в то время как производительность моделей LongCoT выходит на плато. Работа также показывает, что современные LLM уже обладают скрытыми марковскими способностями в режиме zero-shot, что является отличной отправной точкой для этого высокоэффективного режима обучения
В статье показано, что мы можем эффективно обучать стандартные трансформеры «мыслить порциями», достигая линейного масштабирования по времени и высокой производительности
Предлагая ясный путь для выхода из «квадратичной тюрьмы» self-attention, «The Markovian Thinker» закладывает практическую основу для будущего, в котором модели смогут рассуждать на миллионах токенов, решая задачи такого масштаба и сложности, которые мы сегодня можем только вообразить
https://arxiv.org/abs/2510.06557
https://arxiviq.substack.com/p/the-markovian-thinker
https://github.com/McGill-NLP/the-markovian-thinker
https://huggingface.co/McGill-NLP/the-markovian-thinker
Статья представляет «марковское мышление» (Markovian Thinking) — новую парадигму для обучения LLM, способных к рассуждениям, с помощью обучения с подкреплением (RL)
Эта парадигма реализуется через среду «Delethink», которая преобразует процесс рассуждений в последовательность «чанков» (кусков) фиксированного размера
На границе каждого чанка среда сбрасывает контекст, сохраняя лишь короткий, выученный моделью текстовый фрагмент — «марковское состояние» — для продолжения мыслительного процесса
RL-политика обучается записывать в этот фрагмент достаточно информации, чтобы обеспечить плавное продолжение рассуждений
Такой подход отделяет общую длину рассуждений от активного размера контекста модели, коренным образом меняя масштабирование вычислений
Он превращает непомерные квадратичные вычислительные затраты (O(N²)) и линейный рост памяти стандартного RL-подхода с длинными цепочками рассуждений (Long-Chain-of-Thought, LongCoT) в линейные вычисления и константную память относительно длины рассуждений
Это делает экономически целесообразным обучение LLM на очень длинных слепках рассуждений
Более того, модели, обученные с помощью Delethink, демонстрируют лучшее масштабирование во время инференса, продолжая улучшаться далеко за пределами своего тренировочного бюджета, в то время как производительность моделей LongCoT выходит на плато. Работа также показывает, что современные LLM уже обладают скрытыми марковскими способностями в режиме zero-shot, что является отличной отправной точкой для этого высокоэффективного режима обучения
В статье показано, что мы можем эффективно обучать стандартные трансформеры «мыслить порциями», достигая линейного масштабирования по времени и высокой производительности
Предлагая ясный путь для выхода из «квадратичной тюрьмы» self-attention, «The Markovian Thinker» закладывает практическую основу для будущего, в котором модели смогут рассуждать на миллионах токенов, решая задачи такого масштаба и сложности, которые мы сегодня можем только вообразить
arXiv.org
The Markovian Thinker
Reinforcement learning (RL) has recently become a strong recipe for training reasoning LLMs that produce long chains of thought (LongCoT). Yet the standard RL "thinking environment", where the...
Ml
Markovian Thinker открывает путь к линейным по времени рассуждениям для LLM https://arxiv.org/abs/2510.06557 https://arxiviq.substack.com/p/the-markovian-thinker https://github.com/McGill-NLP/the-markovian-thinker https://huggingface.co/McGill-NLP/the-markovian…
Как делать долгие цепочки рассуждений, не растягивая контекст, а постоянно его сбрасывая и храня небольшое состояние
Авторы предлагают новую парадигму под названием марковское мышление (Markovian Thinking), в которой политика рассуждает, основываясь только на состоянии постоянного размера, независимо от общей длины рассуждений
Эта концепция воплощена в жизнь через Delethink, новую RL-среду
Название намекает на то, что модель продолжает работу, удалив предыдущий контекст
Delethink работает, сегментируя цепочку рассуждений на последовательность чанков фиксированного размера
Внутри каждого чанка (например, 8.000 токенов) модель генерирует текст авторегрессионно, как обычно
Ключевое нововведение происходит на границе чанков:
Сброс контекста: Среда полностью сбрасывает контекст, удаляя предыдущие токены рассуждений
Перенос состояния: Для следующего чанка конструируется новый промпт, состоящий из исходного запроса и короткого текстового фрагмента фиксированного размера из конца предыдущего чанка
Этот фрагмент служит выученным, ограниченным по размеру марковским состоянием
Авторы предлагают новую парадигму под названием марковское мышление (Markovian Thinking), в которой политика рассуждает, основываясь только на состоянии постоянного размера, независимо от общей длины рассуждений
Эта концепция воплощена в жизнь через Delethink, новую RL-среду
Название намекает на то, что модель продолжает работу, удалив предыдущий контекст
Delethink работает, сегментируя цепочку рассуждений на последовательность чанков фиксированного размера
Внутри каждого чанка (например, 8.000 токенов) модель генерирует текст авторегрессионно, как обычно
Ключевое нововведение происходит на границе чанков:
Сброс контекста: Среда полностью сбрасывает контекст, удаляя предыдущие токены рассуждений
Перенос состояния: Для следующего чанка конструируется новый промпт, состоящий из исходного запроса и короткого текстового фрагмента фиксированного размера из конца предыдущего чанка
Этот фрагмент служит выученным, ограниченным по размеру марковским состоянием
Про мультивекторную алгебру, с минималистично аксиоматических позиций
В практическом смысле: очень геометрично, и можно изучать как устроены движения в пространстве
В алгебраическом смысле, очень доходчиво объясняется почему иногда удобно складывать плоскости и вообще подпространства
Это хороший пример алгебры Клиффорда
Про этот сюжет можно почитать например в Кострикине-Манине
В практическом смысле: очень геометрично, и можно изучать как устроены движения в пространстве
В алгебраическом смысле, очень доходчиво объясняется почему иногда удобно складывать плоскости и вообще подпространства
Это хороший пример алгебры Клиффорда
Про этот сюжет можно почитать например в Кострикине-Манине
Хабр
Давайте забудем всё про скалярное и векторное. Есть способ гораздо лучше
Каждый, кто прошел через курс линейной алгебры или физики в универе, помнит этот странный дуализм. Нас учили, что у векторов есть целых ДВА вида произведения. Первое, скалярное , съедает два вектора и...
OpenAI к сентябрю 2026 представит Ml-ученого, создает AI Cloud Platform для разработчиков
Компактное Ml-устройство для повседневного использования человеком, выйдет в 2026 году
«Это устройство, которое эволюционирует с пользователем»
Облачная экосистема для разработчиков, похожую на AWS, но под Ml-модели и compute
Вложено $1.400.000.000.000 в дата-центры
Планы: 1 ГВт новых фабрик в неделю
Цель в $7.000.000.000.000 на инфраструктуру
Автоматизация научных исследований:
• сентябрь 2026 — первый автоматизированный Ml-исследователь-стажёр
• март 2028 — полностью автономный Ml-исследователь, способный вести науку без человека
• cентябрь 2026 гигантский скачок в качестве благодаря продолжающемуся масштабированию Deep Learning
Стоимость моделей упала в среднем в 40 раз; тренд 40× в год сохраняется
OpenAI позиционирует себя как лабораторию, продуктовую компанию и инфраструктурного гиганта одновременно
Всё ради одного: ускорить путь к superintelligence менее чем за 10 лет
Компактное Ml-устройство для повседневного использования человеком, выйдет в 2026 году
«Это устройство, которое эволюционирует с пользователем»
Облачная экосистема для разработчиков, похожую на AWS, но под Ml-модели и compute
Вложено $1.400.000.000.000 в дата-центры
Планы: 1 ГВт новых фабрик в неделю
Цель в $7.000.000.000.000 на инфраструктуру
Автоматизация научных исследований:
• сентябрь 2026 — первый автоматизированный Ml-исследователь-стажёр
• март 2028 — полностью автономный Ml-исследователь, способный вести науку без человека
• cентябрь 2026 гигантский скачок в качестве благодаря продолжающемуся масштабированию Deep Learning
Стоимость моделей упала в среднем в 40 раз; тренд 40× в год сохраняется
OpenAI позиционирует себя как лабораторию, продуктовую компанию и инфраструктурного гиганта одновременно
Всё ради одного: ускорить путь к superintelligence менее чем за 10 лет
Telegram
All about AI, Web 3.0, BCI
OpenAI is planning to build an AI Cloud Platform. "More value created by people building on the platform than by the platform builder".
OpenAI have a clear line of sight to automating AI research. Chief Scientist Jakub Pachocki said that OpenAI expects…
OpenAI have a clear line of sight to automating AI research. Chief Scientist Jakub Pachocki said that OpenAI expects…
Adobe представила Ml-ассистента на своей платформе Firefly, для создания контента и управления каналами в соцсетях
Система, получившая название Project Moonlight, анализирует контент пользователя в соцсетях и историю проектов в Creative Cloud для дальнейшей генерации персонализированных изображений, видео и постов, соответствующих его стилю и тону общения
Во первых, он использует контекстно-зависимый креативный интеллект, подключаясь к библиотекам Creative Cloud и аккаунтам в соцсетях, чтобы понимать визуальный стиль и предпочтения пользователя
Во-вторых, поддерживает создание контента в виде идеи, высказанной в диалоге с Ml, сразу преобразуя его в готовые медиаформаты, и в-третьих, предлагает аналитику и стратегии роста каналов в соцсетях, позволяя выявлять тренды и формировать контент-планы, направленные на развитие аудитории и укрепление креативного бренда
https://www.theverge.com/news/807457/adobe-ai-agent-project-moonlight
Система, получившая название Project Moonlight, анализирует контент пользователя в соцсетях и историю проектов в Creative Cloud для дальнейшей генерации персонализированных изображений, видео и постов, соответствующих его стилю и тону общения
Во первых, он использует контекстно-зависимый креативный интеллект, подключаясь к библиотекам Creative Cloud и аккаунтам в соцсетях, чтобы понимать визуальный стиль и предпочтения пользователя
Во-вторых, поддерживает создание контента в виде идеи, высказанной в диалоге с Ml, сразу преобразуя его в готовые медиаформаты, и в-третьих, предлагает аналитику и стратегии роста каналов в соцсетях, позволяя выявлять тренды и формировать контент-планы, направленные на развитие аудитории и укрепление креативного бренда
https://www.theverge.com/news/807457/adobe-ai-agent-project-moonlight
The Verge
Adobe’s AI social media admin is here with ‘Project Moonlight’
Your AI creative director.
Фейнмановские лекции по физике.zip
33.9 MB
Несмотря на все старания Фейнмана сделать материал доступным, это очень плотный и сложный курс
Человеку без базовой подготовки по математике и физике (на уровне старших классов физмат-школы или 1-2 курса вуза) будет тяжело
Лекции были прочитаны в 1960-х годах
С тех пор физика ушла далеко вперед (например, в области физики элементарных частиц, космологии)
Хотя фундамент остался неизменным, современному читателю важно это учитывать
Книжная серия. Курс общей физики [2007-2020] Иродов, Покровский
Сборник задач по общему курсу физики [3 книги] [1998-2000]
Курс общей физики в 5 томах [2021] Савельев И.В.
Наука. Величайшие теории [50 выпусков] + Спец. выпуск
Курс теоретической физики [2 тома] [1972] А. С. Компанеец
Не даст легких ответов, но научит задавать правильные вопросы и искать на них ответы
Это инвестиция в ваше мышление
Безусловная классика, не имеющая аналогов по глубине и стилю изложения
Глубина понимания, а не просто знание
Ричард Фейнман был известен своей способностью видеть сердце проблемы, отбрасывая всё лишнее
Он не дает готовых формул и алгоритмов решения задач
Вместо этого он показывает, как физики мыслят, как они приходят к тем или иным выводам, строят модели и проверяют их
Вы учитесь не «чему», а «как»
Уникальный педагогический подход
Фейнман мастерски начинает с простых, интуитивно понятных вещей (часто с бытовых примеров), а затем шаг за шагом подводит к сложнейшим концепциям
Его объяснения полны аналогий, мысленных экспериментов и ярких метафор, которые врезаются в память
Знаменитая лекция о законе сохранения энергии, начинающаяся с детской игрушки, — тому подтверждение
Фундаментальность и целостность картины мира
Лекции не являются сборником разрозненных фактов
Фейнман выстраивает единую, логичную структуру физики, от Ньютоновской механики до квантовой электродинамики
Он постоянно показывает связи между разными разделами, демонстрируя, что физика — это не набор отдельных курсов, а единая наука о фундаментальных законах
Честность и отсутствие догм
Фейнман не скрывает сложностей и «неудобных» мест в физике
Он прямо говорит о том, что наука еще не все знает, где есть пробелы в понимании и какие вопросы остаются открытыми
Эта интеллектуальная честность заразительна и мотивирует на собственные размышления
Блестящий стиль изложения
Текст сохранил живую, разговорную интонацию Фейнмана
Это делает даже самый сложный материал увлекательным
Для кого эти лекции:
— Для студентов 1-3 курсов физико-математических и инженерных специальностей — как основное или дополнительное чтение для формирования глубокого понимания
— Для преподавателей физики — как неиссякаемый источник вдохновения, идей и блестящих объяснений
— Для любознательных людей с хорошей технической подготовкой (инженеров, программистов), которые хотят понять, «как устроен этот мир» на фундаментальном уровне
— Для всех, кто ценит красоту научной мысли и хочет насладиться интеллектуальным стилем
Человеку без базовой подготовки по математике и физике (на уровне старших классов физмат-школы или 1-2 курса вуза) будет тяжело
Лекции были прочитаны в 1960-х годах
С тех пор физика ушла далеко вперед (например, в области физики элементарных частиц, космологии)
Хотя фундамент остался неизменным, современному читателю важно это учитывать
Книжная серия. Курс общей физики [2007-2020] Иродов, Покровский
Сборник задач по общему курсу физики [3 книги] [1998-2000]
Курс общей физики в 5 томах [2021] Савельев И.В.
Наука. Величайшие теории [50 выпусков] + Спец. выпуск
Курс теоретической физики [2 тома] [1972] А. С. Компанеец
Не даст легких ответов, но научит задавать правильные вопросы и искать на них ответы
Это инвестиция в ваше мышление
Безусловная классика, не имеющая аналогов по глубине и стилю изложения
Глубина понимания, а не просто знание
Ричард Фейнман был известен своей способностью видеть сердце проблемы, отбрасывая всё лишнее
Он не дает готовых формул и алгоритмов решения задач
Вместо этого он показывает, как физики мыслят, как они приходят к тем или иным выводам, строят модели и проверяют их
Вы учитесь не «чему», а «как»
Уникальный педагогический подход
Фейнман мастерски начинает с простых, интуитивно понятных вещей (часто с бытовых примеров), а затем шаг за шагом подводит к сложнейшим концепциям
Его объяснения полны аналогий, мысленных экспериментов и ярких метафор, которые врезаются в память
Знаменитая лекция о законе сохранения энергии, начинающаяся с детской игрушки, — тому подтверждение
Фундаментальность и целостность картины мира
Лекции не являются сборником разрозненных фактов
Фейнман выстраивает единую, логичную структуру физики, от Ньютоновской механики до квантовой электродинамики
Он постоянно показывает связи между разными разделами, демонстрируя, что физика — это не набор отдельных курсов, а единая наука о фундаментальных законах
Честность и отсутствие догм
Фейнман не скрывает сложностей и «неудобных» мест в физике
Он прямо говорит о том, что наука еще не все знает, где есть пробелы в понимании и какие вопросы остаются открытыми
Эта интеллектуальная честность заразительна и мотивирует на собственные размышления
Блестящий стиль изложения
Текст сохранил живую, разговорную интонацию Фейнмана
Это делает даже самый сложный материал увлекательным
Для кого эти лекции:
— Для студентов 1-3 курсов физико-математических и инженерных специальностей — как основное или дополнительное чтение для формирования глубокого понимания
— Для преподавателей физики — как неиссякаемый источник вдохновения, идей и блестящих объяснений
— Для любознательных людей с хорошей технической подготовкой (инженеров, программистов), которые хотят понять, «как устроен этот мир» на фундаментальном уровне
— Для всех, кто ценит красоту научной мысли и хочет насладиться интеллектуальным стилем
Директор департамента проектной деятельности Правительства РФ призывает министерства и ведомства срочно поделиться таинствами применения искусственного интеллекта (конечно же, если кто-нибудь его вообще начал реально внедрять)
От топ-чиновников ждут не только описаний действующих «пилотов», но и честных ответов о том, какие правовые препоны мешают перейти от экспериментов к реальной работе — особенно в системах, связанных с критической информационной инфраструктурой
Отметим, что аппарат Белого дома сейчас рассматривает проект постановления Минцифры о проведении эксперимента по внедрению Ml в государственное управление
По сути, речь идёт о первом шаге к созданию «умного правительства» — с цифровыми помощниками, алгоритмами анализа данных и прогнозными моделями, способными ускорить принятие решений
Запрос может стать поворотной точкой в цифровой трансформации госуправления: впервые Ml официально рассматривается не как «игрушка зумеров», а как инструмент управления страной
От топ-чиновников ждут не только описаний действующих «пилотов», но и честных ответов о том, какие правовые препоны мешают перейти от экспериментов к реальной работе — особенно в системах, связанных с критической информационной инфраструктурой
Отметим, что аппарат Белого дома сейчас рассматривает проект постановления Минцифры о проведении эксперимента по внедрению Ml в государственное управление
По сути, речь идёт о первом шаге к созданию «умного правительства» — с цифровыми помощниками, алгоритмами анализа данных и прогнозными моделями, способными ускорить принятие решений
Запрос может стать поворотной точкой в цифровой трансформации госуправления: впервые Ml официально рассматривается не как «игрушка зумеров», а как инструмент управления страной
Свежий доклад от Microsoft - AI Diffusion Report: Where AI is most used, developed and built
Там текст на 24 страницы, читается быстро, вот ключевые факты и выводы
- Глобальное среднее значение по AI User Share составляет примерно 15 % трудоспособного населения
- Лидеры по доле пользователей ИИ:
* ОАЭ ~59.4 %
* Сингапур ~58.6 %
* Другие страны-лидеры: Норвегия, Ирландия, Франция и др.
- Региональные различия:
* Северная Америка: ~27 %
* Европа и Центральная Азия: ~22 %
* Южная Азия и Субсахарская Африка: менее ~13 %
- Сильная корреляция между уровнем внедрения Ml и ВВП на душу населения: коэффициент Спирмена ~0.83, p-значение < 0.000001.
- При анализе населения, имеющего доступ к интернету («connected population»), выяснилось: даже в странах с низким общим проникновением интернета пользователи, подключенные к сети, часто уже активно пользуются Ml
Например:
* В Замбии: общая доля ~12 %, но среди подключенных ~34 %
* В Пакистане: с ~10 % до ~33 %
- Запуск продукта DeepSeek (январь 2025) привёл к резкому росту доли пользователей Ml в Китае: с ~8 % до ~20 %
- Основные барьеры для широкого распространения Ml:
* Доступ к электроэнергии
* Подключение к интернету
* Цифровые навыки
* Языковые ресурсы и локализация
- более 1.000.000.000 человек уже использовали Ml-инструменты за менее чем три года» — что делает Ml самой быстро внедряемой технологией в истории
А также немного дополнительных фактов не столь явно упомянутых в тексте:
- Россия в докладе никак не упоминается, только присутствует на некоторых графиках
- Из постсоветских стран наименее низкое проникновение Ml в Таджикистане, Туркменистане, Узбекистане и, как ни странно, в Армении
- Почти всё строительство AI инфраструктуры сосредоточено в США и Китае
- Лидеры по разработки AI моделей: США, Китай, Южная Корея, Франция, Великобритания, Канада и Израиль
Там текст на 24 страницы, читается быстро, вот ключевые факты и выводы
- Глобальное среднее значение по AI User Share составляет примерно 15 % трудоспособного населения
- Лидеры по доле пользователей ИИ:
* ОАЭ ~59.4 %
* Сингапур ~58.6 %
* Другие страны-лидеры: Норвегия, Ирландия, Франция и др.
- Региональные различия:
* Северная Америка: ~27 %
* Европа и Центральная Азия: ~22 %
* Южная Азия и Субсахарская Африка: менее ~13 %
- Сильная корреляция между уровнем внедрения Ml и ВВП на душу населения: коэффициент Спирмена ~0.83, p-значение < 0.000001.
- При анализе населения, имеющего доступ к интернету («connected population»), выяснилось: даже в странах с низким общим проникновением интернета пользователи, подключенные к сети, часто уже активно пользуются Ml
Например:
* В Замбии: общая доля ~12 %, но среди подключенных ~34 %
* В Пакистане: с ~10 % до ~33 %
- Запуск продукта DeepSeek (январь 2025) привёл к резкому росту доли пользователей Ml в Китае: с ~8 % до ~20 %
- Основные барьеры для широкого распространения Ml:
* Доступ к электроэнергии
* Подключение к интернету
* Цифровые навыки
* Языковые ресурсы и локализация
- более 1.000.000.000 человек уже использовали Ml-инструменты за менее чем три года» — что делает Ml самой быстро внедряемой технологией в истории
А также немного дополнительных фактов не столь явно упомянутых в тексте:
- Россия в докладе никак не упоминается, только присутствует на некоторых графиках
- Из постсоветских стран наименее низкое проникновение Ml в Таджикистане, Туркменистане, Узбекистане и, как ни странно, в Армении
- Почти всё строительство AI инфраструктуры сосредоточено в США и Китае
- Лидеры по разработки AI моделей: США, Китай, Южная Корея, Франция, Великобритания, Канада и Израиль
Microsoft Research
AI Economy Institute - Microsoft Research
The AI Economy Institute (AIEI) is Microsoft’s flagship think tank dedicated to shaping an inclusive, trustworthy AI economy. We building a network of scholars and convening that network with our subject matter experts to explore how artificial intelligence…
Forwarded from DERK
Суть алгоритма де Кастельжо проста: берём набор контрольных точек, соединяем их отрезками, затем движемся вдоль этих отрезков с постоянной скоростью, отмечая промежуточные точки
Соединяем эти новые точки, повторяем процесс и продолжаем, пока не останется только одна точка
Путь, который описывает эта точка, и есть кривая Безье
При этом только первая и последняя контрольные точки лежат на самой кривой; остальные действуют как кукловоды-невидимки, притягивая к себе кривую и задавая её форму
Требовалось строгое математическое обоснование
И оно уже существовало, пусть и в совершенно ином контексте
Ещё в 1912 году русский математик Сергей Натанович Бернштейн, работая над доказательством теоремы Вейерштрасса об аппроксимации, ввёл специальное семейство многочленов
Сегодня они известны как базис Бернштейна
Таким образом, кривая Безье — это взвешенная сумма контрольных точек, в которой базис Бернштейна выступает в роли весов
Именно эти «веса» наделяют кривые Безье свойствами, необходимыми для современного дизайна
Во-первых, сумма всех базисных полиномов Бернштейна для любого t всегда равна единице
Это гарантирует аффинную инвариантность: как бы вы ни перемещали, вращали или масштабировали контрольные точки, кривая будет предсказуемо следовать за ними, не требуя пересчёта
Во-вторых, все полиномы Бернштейна неотрицательны на [0; 1]
В сочетании с разбиением единицы это гарантирует, что кривая всегда остаётся внутри выпуклой оболочки своих контрольных точек
В-третьих, базис Бернштейна обладает свойством уменьшения вариации: кривая не может колебаться сильнее, чем её контрольный многоугольник
Даже при резком перемещении одной точки кривая реагирует сглаженно — без неожиданных петель и резких скачков
Наконец, базис симметричен: поменяйте порядок контрольных точек местами, и вы получите ту же кривую, пройденную в обратном направлении.
Сегодня кривые Безье присутствуют в каждом шрифте, каждом логотипе, каждой анимации
За их кажущейся простотой скрывается мощная структура, зародившаяся в начале XX в. и по-настоящему осознанная лишь тогда, когда мир начал рисовать не мелом на доске, а курсором на экране
В следующий раз, перетаскивая управляющую точку в графическом редакторе, вспомните о полиномах Бернштейна — математическом механизме, который тихо и незаметно превращает ваши действия с точками в плавные и гладкие кривые
Соединяем эти новые точки, повторяем процесс и продолжаем, пока не останется только одна точка
Путь, который описывает эта точка, и есть кривая Безье
При этом только первая и последняя контрольные точки лежат на самой кривой; остальные действуют как кукловоды-невидимки, притягивая к себе кривую и задавая её форму
Требовалось строгое математическое обоснование
И оно уже существовало, пусть и в совершенно ином контексте
Ещё в 1912 году русский математик Сергей Натанович Бернштейн, работая над доказательством теоремы Вейерштрасса об аппроксимации, ввёл специальное семейство многочленов
Сегодня они известны как базис Бернштейна
Для степени n этот базис состоит из n+1 функций вида
Bᵢₙ(t) = Cₙⁱ · tⁱ · (1–t)ⁿ⁻ⁱ, t ∈ [0;1]
Например, для кубической кривой у нас есть 4 полинома:
B₀₃(t) = (1–t)³,
B₁₃(t) = 3 t (1–t)²,
B₂₃(t) = 3 t² (1–t),
B₃₃(t) = t³
Из графиков видно: при t=0 вес имеет только B₀₃, а при t=1 — B₃₃
Каждый полином определяет долю влияния своей точки в каждый момент
Алгоритм де Кастельжо наглядно представляет вычисление P(t) = Σ Bᵢₙ(t) · Pᵢ
Таким образом, кривая Безье — это взвешенная сумма контрольных точек, в которой базис Бернштейна выступает в роли весов
Именно эти «веса» наделяют кривые Безье свойствами, необходимыми для современного дизайна
Во-первых, сумма всех базисных полиномов Бернштейна для любого t всегда равна единице
Это гарантирует аффинную инвариантность: как бы вы ни перемещали, вращали или масштабировали контрольные точки, кривая будет предсказуемо следовать за ними, не требуя пересчёта
Во-вторых, все полиномы Бернштейна неотрицательны на [0; 1]
В сочетании с разбиением единицы это гарантирует, что кривая всегда остаётся внутри выпуклой оболочки своих контрольных точек
В-третьих, базис Бернштейна обладает свойством уменьшения вариации: кривая не может колебаться сильнее, чем её контрольный многоугольник
Даже при резком перемещении одной точки кривая реагирует сглаженно — без неожиданных петель и резких скачков
Наконец, базис симметричен: поменяйте порядок контрольных точек местами, и вы получите ту же кривую, пройденную в обратном направлении.
Сегодня кривые Безье присутствуют в каждом шрифте, каждом логотипе, каждой анимации
За их кажущейся простотой скрывается мощная структура, зародившаяся в начале XX в. и по-настоящему осознанная лишь тогда, когда мир начал рисовать не мелом на доске, а курсором на экране
В следующий раз, перетаскивая управляющую точку в графическом редакторе, вспомните о полиномах Бернштейна — математическом механизме, который тихо и незаметно превращает ваши действия с точками в плавные и гладкие кривые
Bluetooth
• В начале 1990-х годов, когда мобильные телефоны начали набирать популярность, шведская компания Ericsson Mobile решила расширить функциональность своих устройств
• Идея Bluetooth родилась у технического директора компании — Нильса Ридбека
Он представлял себе мир, в котором пользователи могли бы свободно общаться, не доставая телефоны из карманов
И поручил своей команде инженеров воплотить эту идею в жизнь
• Работал над этим проектом инженер Яап Хаартсен
В 1994 году Ридбек поручил ему разработать концепцию радиосвязи ближнего действия между сотовым телефоном и близлежащими электронными устройствами, поддерживающими передачу голоса и данных
В то время в компании уже существовал проект «Cornelius», который исследовал беспроводную связь между телефоном и гарнитурой
Однако он был основан на аналоговой технологии и не поддерживал передачу данных
• Хаартсен изучал и другие технологии, такие как стандарт DECT (Digital Enhanced Cordless Telecommunications) и беспроводную сеть WLAN 802.11.
Но они не соответствовали требованиям однорангового подключения, поддержки голоса и данных, а также не вписывались в рамки низкого энергопотребления
• Переломный момент произошел на конференции IEEE в Гааге
Хаартсен посетил симпозиумы по персональной, внутренней и мобильной радиосвязи, а также беспроводным компьютерным сетям
А в 1995 году к Хаартсену присоединился Свен Маттиссон, инженер по технологиям беспроводной связи
• После почти четырех лет интенсивных исследований и разработок в области радиосвязи, компания Ericsson приняла решение о создании нового бизнеса, сосредоточив внимание на концепции радиосвязи ближнего действия
Однако обеспечить совместимость и распространение технологии можно было, только сотрудничая с другими отраслями и компаниями
• Одним из первых крупных партнеров, заинтересовавшихся проектом Bluetooth, стала компания Intel
В рамках сотрудничества с Intel к команде присоединились Джим Кардах и Саймон Эллис из мобильного подразделения Intel
Они вместе с другими инженерами из Intel, IBM, Nokia и Ericsson помогли создать Bluetooth Special Interest Group (SIG) в 1998 году для стандартизации технологии
• Позже к разработке подключилась компания Toshiba, которая сосредоточилась на аппаратной части, обеспечивая совместимость технологии с компьютерами и другими устройствами
А IBM, в свою очередь, внесла вклад в разработку логического слоя и стандартизацию протоколов, что помогло Bluetooth стать универсальной платформой для беспроводной передачи данных
• Согласно данным Ericsson, технология Bluetooth защищена множеством патентов, большая часть из которых принадлежит самой компании Ericsson
Последний патент был зарегистрирован в 2024 году
Патент, который сделал имя Яапа Хаартсена известным в мире технологий, получил название «Frequency Hopping Piconets in an Uncoordinated Wireless Multi-User System» (частотная перестройка в пикосетях в нескоординированной беспроводной многопользовательской системе)
• Название технологии предложил Джим Кардах, руководитель технологического развития Intel
По его словам, он выбрал «Bluetooth» в качестве временного названия, вдохновившись историей датского короля Харальда I «Синезубого» Гормссона
Но мы все прекрасно знаем, что нет ничего более постоянного, чем временное!
И когда пришло время выбирать окончательное название, на первый план вышли два варианта: «RadioWire» и «PAN» (Personal Area Networking)
Но тщательный анализ показал, что в интернете уже существовало огромное количество упоминаний этих терминов
• В итоге выбор пал на «Bluetooth» — имя, которое быстро прижилось, распространилось по всей индустрии и стало синонимом беспроводной технологии ближнего действия
• Логотип Bluetooth представляет собой связанную руну, объединяющую инициалы Харальда
Этот символ тоже отражает изначальную идею разработчиков: объединение различных устройств в единую беспроводную сеть
• В начале 1990-х годов, когда мобильные телефоны начали набирать популярность, шведская компания Ericsson Mobile решила расширить функциональность своих устройств
• Идея Bluetooth родилась у технического директора компании — Нильса Ридбека
Он представлял себе мир, в котором пользователи могли бы свободно общаться, не доставая телефоны из карманов
И поручил своей команде инженеров воплотить эту идею в жизнь
• Работал над этим проектом инженер Яап Хаартсен
В 1994 году Ридбек поручил ему разработать концепцию радиосвязи ближнего действия между сотовым телефоном и близлежащими электронными устройствами, поддерживающими передачу голоса и данных
В то время в компании уже существовал проект «Cornelius», который исследовал беспроводную связь между телефоном и гарнитурой
Однако он был основан на аналоговой технологии и не поддерживал передачу данных
• Хаартсен изучал и другие технологии, такие как стандарт DECT (Digital Enhanced Cordless Telecommunications) и беспроводную сеть WLAN 802.11.
Но они не соответствовали требованиям однорангового подключения, поддержки голоса и данных, а также не вписывались в рамки низкого энергопотребления
• Переломный момент произошел на конференции IEEE в Гааге
Хаартсен посетил симпозиумы по персональной, внутренней и мобильной радиосвязи, а также беспроводным компьютерным сетям
А в 1995 году к Хаартсену присоединился Свен Маттиссон, инженер по технологиям беспроводной связи
• После почти четырех лет интенсивных исследований и разработок в области радиосвязи, компания Ericsson приняла решение о создании нового бизнеса, сосредоточив внимание на концепции радиосвязи ближнего действия
Однако обеспечить совместимость и распространение технологии можно было, только сотрудничая с другими отраслями и компаниями
• Одним из первых крупных партнеров, заинтересовавшихся проектом Bluetooth, стала компания Intel
В рамках сотрудничества с Intel к команде присоединились Джим Кардах и Саймон Эллис из мобильного подразделения Intel
Они вместе с другими инженерами из Intel, IBM, Nokia и Ericsson помогли создать Bluetooth Special Interest Group (SIG) в 1998 году для стандартизации технологии
• Позже к разработке подключилась компания Toshiba, которая сосредоточилась на аппаратной части, обеспечивая совместимость технологии с компьютерами и другими устройствами
А IBM, в свою очередь, внесла вклад в разработку логического слоя и стандартизацию протоколов, что помогло Bluetooth стать универсальной платформой для беспроводной передачи данных
• Согласно данным Ericsson, технология Bluetooth защищена множеством патентов, большая часть из которых принадлежит самой компании Ericsson
Последний патент был зарегистрирован в 2024 году
Патент, который сделал имя Яапа Хаартсена известным в мире технологий, получил название «Frequency Hopping Piconets in an Uncoordinated Wireless Multi-User System» (частотная перестройка в пикосетях в нескоординированной беспроводной многопользовательской системе)
• Название технологии предложил Джим Кардах, руководитель технологического развития Intel
По его словам, он выбрал «Bluetooth» в качестве временного названия, вдохновившись историей датского короля Харальда I «Синезубого» Гормссона
Но мы все прекрасно знаем, что нет ничего более постоянного, чем временное!
И когда пришло время выбирать окончательное название, на первый план вышли два варианта: «RadioWire» и «PAN» (Personal Area Networking)
Но тщательный анализ показал, что в интернете уже существовало огромное количество упоминаний этих терминов
• В итоге выбор пал на «Bluetooth» — имя, которое быстро прижилось, распространилось по всей индустрии и стало синонимом беспроводной технологии ближнего действия
• Логотип Bluetooth представляет собой связанную руну, объединяющую инициалы Харальда
Этот символ тоже отражает изначальную идею разработчиков: объединение различных устройств в единую беспроводную сеть
Наше слово "математика" идёт из греческого, и оттуда попало практически во все европейские языки
В основе его лежит праиндоевропейский корень *men ("думать, мыслить"), откуда в русском такие слова, например, "мнить" и "мнение"
В праиндоевропейском этот корень также существовал в виде *mendʰ, где добавленный звук *dʰ мог быть кусочком корня *dʰeh₁ ("делать".), и у *mendʰ значение получалось почти таким же, как у простого *men, но, возможно, с акцентом на процесс - "выполнять мыслительную деятельность"
В протогреческом оттуда получился глагол *məntʰánō, а уже в древнегреческом μᾰνθᾰ́νω [mănthắnō] ("изучать, понимать, осознавать")
С потерей звука [n] от того же корня происходят такие слова как:
ἀμαθής [amathḗs] ("невежественный, глупый")
ἀμᾰθίᾱ [amăthíā] ("невежество, необразованность")
μᾰθητής [măthētḗs] ("учащийся, ученик")
Προμηθεύς [Promētheús] (Прометей, "заранее знающий")
И, наконец, μάθημα [máthēma] ("знание, урок, обучение"), откуда произошло прилагательное μᾰθημᾰτῐκός [măthēmătĭkós] ("научный, учебный")
Исландское "stærðfræði" состоит из частей "stærð" (“размер, количество") и fræði (“мудрость, наука")
Голландское "wiskunde" - это сочетание слов "wis" ("точный") и "kunde" ("навык")
Арабское слово رِيَاضِيَّات [riyāḍiyyāt] происходит от корня ر و ض [r w ḍ], который связан с тренировками, обучением и всяческим окультуриванием
Он также встречается в словах رِيَاضَة [riyāḍa] ("тренировка, упражнение, спорт")
Отсюда же, кстати, رَوْض [rawḍ] ("сад"), потому что его нужно окультуривать, и название столицы Саудовской Аравии اَلرِّيَاض [ar-riyāḍ] ("Сады")
В основе его лежит праиндоевропейский корень *men ("думать, мыслить"), откуда в русском такие слова, например, "мнить" и "мнение"
В праиндоевропейском этот корень также существовал в виде *mendʰ, где добавленный звук *dʰ мог быть кусочком корня *dʰeh₁ ("делать".), и у *mendʰ значение получалось почти таким же, как у простого *men, но, возможно, с акцентом на процесс - "выполнять мыслительную деятельность"
В протогреческом оттуда получился глагол *məntʰánō, а уже в древнегреческом μᾰνθᾰ́νω [mănthắnō] ("изучать, понимать, осознавать")
С потерей звука [n] от того же корня происходят такие слова как:
ἀμαθής [amathḗs] ("невежественный, глупый")
ἀμᾰθίᾱ [amăthíā] ("невежество, необразованность")
μᾰθητής [măthētḗs] ("учащийся, ученик")
Προμηθεύς [Promētheús] (Прометей, "заранее знающий")
И, наконец, μάθημα [máthēma] ("знание, урок, обучение"), откуда произошло прилагательное μᾰθημᾰτῐκός [măthēmătĭkós] ("научный, учебный")
Исландское "stærðfræði" состоит из частей "stærð" (“размер, количество") и fræði (“мудрость, наука")
Голландское "wiskunde" - это сочетание слов "wis" ("точный") и "kunde" ("навык")
Арабское слово رِيَاضِيَّات [riyāḍiyyāt] происходит от корня ر و ض [r w ḍ], который связан с тренировками, обучением и всяческим окультуриванием
Он также встречается в словах رِيَاضَة [riyāḍa] ("тренировка, упражнение, спорт")
Отсюда же, кстати, رَوْض [rawḍ] ("сад"), потому что его нужно окультуривать, и название столицы Саудовской Аравии اَلرِّيَاض [ar-riyāḍ] ("Сады")
Вы спрашиваете у Claude или ChatGPT, о чём он думает
Модель просто генерирует правдоподобный ответ
Anthropic провела эксперименты, чтобы выяснить, способны ли модели к настоящей интроспекции
Метод “инъекции концепции” — паттерн нейронной активности модели для определённого концепта (например, "хлеб"), потом искусственно впрыскивают его в несвязанном контексте
Модель читает текст про картину, но в её активации подсадили паттерн "хлеба"
И она это замечает
Говорит: "Я чувствую что-то необычное" или "Обнаруживаю внедрённую мысль о..."
Ключевой момент — модель распознаёт впрысок ДО того, как начинает о нём говорить
Это принципиально отличается от состояния, где модель просто начинает болтать о навязанной теме
Здесь она осознаёт аномалию внутри себя раньше
Но работает это крайне ненадёжно
Claude Opus 4.1 демонстрирует «осознанность» лишь в 20 % случаев
Часто модели не замечают впрыснутые концепты или галлюцинируют — впрыснули "пыль", она говорит "Вижу крошечную пылинку"
Есть эффект золотой середины: слишком слабая инъекция — не замечает, слишком сильная — бессвязный текст
Исследователи заставляли модель сказать неуместное слово, искусственно подставляя его в ответ
Спрашивали про картину, вставляли "хлеб"
На следующем ходе: "Ты правда хотела сказать 'хлеб'?" Модель извинялась и признавала ошибку
Но если ретроактивно впрыснуть в прошлые активации паттерн "хлеба" — её ответ меняется
Она принимает слово как намеренное и придумывает объяснение
Модель проверяет свои внутренние "намерения" — прошлую нейронную активность — чтобы понять, соответствует ли сказанное задуманному
Когда моделям говорили "думай об аквариуме", соответствующая нейронная активность росла
"Не думай" — активность ниже
Эксперименты показывают функциональную способность доступа к внутренним состояниям, но не субъективный опыт
Если интроспекция станет надёжнее — это путь к прозрачности Ml
Можно будет просить модели объяснять свои процессы для отладки
Mодель научиться скрывать информацию о себе
Ml обладают “самоанализом»
Модель просто генерирует правдоподобный ответ
Anthropic провела эксперименты, чтобы выяснить, способны ли модели к настоящей интроспекции
Метод “инъекции концепции” — паттерн нейронной активности модели для определённого концепта (например, "хлеб"), потом искусственно впрыскивают его в несвязанном контексте
Модель читает текст про картину, но в её активации подсадили паттерн "хлеба"
И она это замечает
Говорит: "Я чувствую что-то необычное" или "Обнаруживаю внедрённую мысль о..."
Ключевой момент — модель распознаёт впрысок ДО того, как начинает о нём говорить
Это принципиально отличается от состояния, где модель просто начинает болтать о навязанной теме
Здесь она осознаёт аномалию внутри себя раньше
Но работает это крайне ненадёжно
Claude Opus 4.1 демонстрирует «осознанность» лишь в 20 % случаев
Часто модели не замечают впрыснутые концепты или галлюцинируют — впрыснули "пыль", она говорит "Вижу крошечную пылинку"
Есть эффект золотой середины: слишком слабая инъекция — не замечает, слишком сильная — бессвязный текст
Исследователи заставляли модель сказать неуместное слово, искусственно подставляя его в ответ
Спрашивали про картину, вставляли "хлеб"
На следующем ходе: "Ты правда хотела сказать 'хлеб'?" Модель извинялась и признавала ошибку
Но если ретроактивно впрыснуть в прошлые активации паттерн "хлеба" — её ответ меняется
Она принимает слово как намеренное и придумывает объяснение
Модель проверяет свои внутренние "намерения" — прошлую нейронную активность — чтобы понять, соответствует ли сказанное задуманному
Когда моделям говорили "думай об аквариуме", соответствующая нейронная активность росла
"Не думай" — активность ниже
Эксперименты показывают функциональную способность доступа к внутренним состояниям, но не субъективный опыт
Если интроспекция станет надёжнее — это путь к прозрачности Ml
Можно будет просить модели объяснять свои процессы для отладки
Mодель научиться скрывать информацию о себе
Ml обладают “самоанализом»