#physics #topology #gravity
https://3dnews.ru/1106395/na-rol-tyomnoy-materii-predlogeni-sfericheskie-analogi-kosmicheskih-strun-topologicheskih-defektov-prostranstvavremeni
https://3dnews.ru/1106395/na-rol-tyomnoy-materii-predlogeni-sfericheskie-analogi-kosmicheskih-strun-topologicheskih-defektov-prostranstvavremeni
3DNews - Daily Digital Digest
На роль тёмной материи предложены сферические аналоги космических струн — топологических дефектов пространства-времени
Тёмная материя — гипотетическая частица, обладающая только гравитационным взаимодействием, — призвана заполнить пробелы в наблюдениях Вселенной, когда звёзды и материя в целом ведут себя неправильно с позиций измеряемых масс: ускоряются на периферии галактик…
#physics
"Принцип работы атомных часов основан на подсчёте колебаний атомов — это крайне предсказуемые события. Например, атомы цезия-133 совершают 9 192 631 770 колебаний в секунду, и с 1967 года это используется для официального определения секунды. Атомные часы на основе этого элемента сбиваются на одну секунду за 300 млн лет.
Учёные JILA построили атомные часы, которые намного точнее. Проект основан на нескольких разработках, которые исследователи создали за последние годы. В приборе используются атомы не цезия, а стронция, которые колеблются 429 трлн раз в секунду; а измерения производятся при помощи не микроволн, а видимого света, волна которого имеет более высокую частоту.
Десятки тысяч атомов стронция заключаются в мягкую «световую решётку», которая помогает значительно повысить точность атомных часов, потому что отсутствуют два источника ошибок: влияние лазерного излучения и столкновения атомов друг с другом. В результате точность прибора составляет 8,1 единицы к 10 квинтиллионам. Другими словами, такие часы дадут сбой на одну секунду, проработав 30 миллиардов лет — это более чем вдвое превосходит текущий возраст Вселенной.
Такая высокая точность поможет, например, улучшить работу систем связи и спутниковой навигации. Она окажется полезной и в физических исследованиях: гравитация способна искажать скорость течения времени, и данный прибор способен отметить эту разницу на расстоянии толщиной с один волос."
https://3dnews.ru/1107518/postroeni-samie-tochnie-atomnie-chasi-oni-sbivayutsya-na-1-sekundu-za-30-milliardov-let
"Принцип работы атомных часов основан на подсчёте колебаний атомов — это крайне предсказуемые события. Например, атомы цезия-133 совершают 9 192 631 770 колебаний в секунду, и с 1967 года это используется для официального определения секунды. Атомные часы на основе этого элемента сбиваются на одну секунду за 300 млн лет.
Учёные JILA построили атомные часы, которые намного точнее. Проект основан на нескольких разработках, которые исследователи создали за последние годы. В приборе используются атомы не цезия, а стронция, которые колеблются 429 трлн раз в секунду; а измерения производятся при помощи не микроволн, а видимого света, волна которого имеет более высокую частоту.
Десятки тысяч атомов стронция заключаются в мягкую «световую решётку», которая помогает значительно повысить точность атомных часов, потому что отсутствуют два источника ошибок: влияние лазерного излучения и столкновения атомов друг с другом. В результате точность прибора составляет 8,1 единицы к 10 квинтиллионам. Другими словами, такие часы дадут сбой на одну секунду, проработав 30 миллиардов лет — это более чем вдвое превосходит текущий возраст Вселенной.
Такая высокая точность поможет, например, улучшить работу систем связи и спутниковой навигации. Она окажется полезной и в физических исследованиях: гравитация способна искажать скорость течения времени, и данный прибор способен отметить эту разницу на расстоянии толщиной с один волос."
https://3dnews.ru/1107518/postroeni-samie-tochnie-atomnie-chasi-oni-sbivayutsya-na-1-sekundu-za-30-milliardov-let
3DNews - Daily Digital Digest
Построены самые точные атомные часы — они сбиваются на 1 секунду за 30 миллиардов лет
Учёные Объединённого института лабораторной астрофизики (JILA, США) построили самые точные на сегодняшний день атомные часы — если запустить их на время, вдвое превышающее текущий возраст Вселенной, они собьются лишь на одну секунду.
#gpt #physics
Так и модель 4о не так плоха в решении задач, оказывается.
https://www.youtube.com/watch?v=m6nZ9h7S7nw
Так и модель 4о не так плоха в решении задач, оказывается.
https://www.youtube.com/watch?v=m6nZ9h7S7nw
#physics #dune #neutrino
Вот за подобные экспериментальные работы нужно давать нобелевки по физике, а не за абстрактный матаппарат нейросетей, при всём уважении.
"Чуть больше месяца назад завершились масштабные земляные работы, в ходе которых было извлечено 800 тыс. тонн породы. На очереди подготовка помещений к развёртыванию оборудования, на что уйдут годы.
Эксперимент Deep Underground Neutrino Experiment (DUNE) будет включать два детектора нейтрино: ближний и дальний. База между источником мюонных нейтрино в Фермилаб и дальним детектором составит 1300 км. Ближний детектор будет размещён недалеко от источника, а дальний — в Южной Дакоте под Сэнфордской лабораторией. В августе рабочие закончили извлекать грунт под Сэнфордской лабораторией, создав, в том числе под землёй пространство для детектора высотой с 7-этажный дом.
Впечатляющий объём грунта между лабораторным источником нейтрино и дальним детектором, а также специальные камеры для них, содержащие по 17 тыс. т жидкого аргона, нужны для отсеивания нейтрино из других источников (космические и, особенно, солнечные), а также для фильтрации иных элементарных частиц. Нейтрино очень слабо взаимодействуют с веществом. Им нужны хорошие фильтры и особые детекторы. Например, чтобы повысить вероятность столкновения нейтрино с веществом до 50 % необходимо направить его сквозь сплошную стену свинца толщиной в один световой год. "
https://3dnews.ru/1112261/v-ssha-otrili-gigantskie-podzemnie-tonneli-dlya-novogo-pokoleniya-eksperimentov-s-neytrino
Вот за подобные экспериментальные работы нужно давать нобелевки по физике, а не за абстрактный матаппарат нейросетей, при всём уважении.
"Чуть больше месяца назад завершились масштабные земляные работы, в ходе которых было извлечено 800 тыс. тонн породы. На очереди подготовка помещений к развёртыванию оборудования, на что уйдут годы.
Эксперимент Deep Underground Neutrino Experiment (DUNE) будет включать два детектора нейтрино: ближний и дальний. База между источником мюонных нейтрино в Фермилаб и дальним детектором составит 1300 км. Ближний детектор будет размещён недалеко от источника, а дальний — в Южной Дакоте под Сэнфордской лабораторией. В августе рабочие закончили извлекать грунт под Сэнфордской лабораторией, создав, в том числе под землёй пространство для детектора высотой с 7-этажный дом.
Впечатляющий объём грунта между лабораторным источником нейтрино и дальним детектором, а также специальные камеры для них, содержащие по 17 тыс. т жидкого аргона, нужны для отсеивания нейтрино из других источников (космические и, особенно, солнечные), а также для фильтрации иных элементарных частиц. Нейтрино очень слабо взаимодействуют с веществом. Им нужны хорошие фильтры и особые детекторы. Например, чтобы повысить вероятность столкновения нейтрино с веществом до 50 % необходимо направить его сквозь сплошную стену свинца толщиной в один световой год. "
https://3dnews.ru/1112261/v-ssha-otrili-gigantskie-podzemnie-tonneli-dlya-novogo-pokoleniya-eksperimentov-s-neytrino
3DNews - Daily Digital Digest
В США вырыли гигантские подземные тоннели для новых экспериментов с нейтрино
Нейтрино были теоретически предсказанные ещё в 1934 году.
🔥2
#physics #astronomy #universeorigin #religion
Чирцов - невероятно крутой физик и математик, всем советую его лекции по механике, оптике, квантовой механике. Но я был очень удивлён, что он, кажется, совершенно ничего не читал по космологии ) Хотя, может, это он так троллить пытался.
С другой стороны, Штерн всегда выступает уверенно, как танк, как будто мы и правда ну вот прям всё в точности всё знаем до 10^-37 секунды от Большого Взрыва. А тут физик плазмы говорит - минуточку, какие там доли секунды за миллиарды лет, мы до сих пор заряд между электродами точно посчитать не можем 😂
Егоров на удивление молодцом выступил, даром что самый молодой и наименее титулованный )
https://www.youtube.com/watch?v=Bv6jG82k8Qc&
Чирцов - невероятно крутой физик и математик, всем советую его лекции по механике, оптике, квантовой механике. Но я был очень удивлён, что он, кажется, совершенно ничего не читал по космологии ) Хотя, может, это он так троллить пытался.
С другой стороны, Штерн всегда выступает уверенно, как танк, как будто мы и правда ну вот прям всё в точности всё знаем до 10^-37 секунды от Большого Взрыва. А тут физик плазмы говорит - минуточку, какие там доли секунды за миллиарды лет, мы до сих пор заряд между электродами точно посчитать не можем 😂
Егоров на удивление молодцом выступил, даром что самый молодой и наименее титулованный )
https://www.youtube.com/watch?v=Bv6jG82k8Qc&
YouTube
Научная беседа "Возникновение вселенной: Замысел или случайность?" (перезалив) Milmax Science 2019
Научная беседа, которая прошла в рамках фестиваля популяризации науки Milmax Science Kazan в 2019г. в Технологическом Университете Казани (КНИТУ-КХТИ).
Конечно же, ответа на вопрос о причинах Возникновения вселенной в научном мире остается открытым и нам…
Конечно же, ответа на вопрос о причинах Возникновения вселенной в научном мире остается открытым и нам…
#emh #finance #physics #nflt #ccc
Ну ладно, раз уж практически всё отгадали, публикую ответ. Конечно же, это ML-теорема об отсутствии бесплатных завтраков (No Free Lunch theorem) и Принцип космической цензуры (Cosmic Censorship Conjecture) Пенроуза.
Вы только подумайте, просматривается связь физики, машинного обучения и поведенческих финансов. Возможно, физику я несколько притягиваю за уши, судите сами. Я попросил сами знаете кого обозначить параллели.
"The Cosmic Censorship Conjecture (CCC) in physics, which suggests that singularities (places where gravity becomes infinite) are hidden behind event horizons, has intriguing parallels with the Efficient Market Hypothesis (EMH) and the No Free Lunch Theorem (NFLT) in machine learning. All three concepts imply that exploitable extremes or shortcuts are fundamentally "censored" by the natural order of the system, and they share some core ideas:
1. Hidden Extremes and Limited Access
Cosmic Censorship Conjecture: Singularities (places with potentially infinite gravitational forces) are hidden behind an event horizon, so they can’t affect or be exploited by an external observer. This keeps the universe predictable and prevents runaway effects from unbounded gravitational fields.
Efficient Market Hypothesis: Similarly, in EMH, any “infinite gain” opportunity is concealed by the rapid incorporation of information into asset prices. Just as a singularity is hidden from view, a perfect arbitrage opportunity (extreme profit) is obscured by market efficiency, making it virtually unreachable.
No Free Lunch Theorem: In machine learning, NFLT states that no model is universally better across all datasets, implying that there are no "shortcuts" that work everywhere. Every dataset poses new challenges, and there’s no access to a "singularity" of knowledge or performance that guarantees success universally.
2. Equilibrium and Stability
Cosmic Censorship Conjecture: By hiding singularities, CCC maintains stability in spacetime and keeps the equations of general relativity well-behaved, creating a predictable universe.
Efficient Market Hypothesis: EMH maintains market stability by ensuring that all known information is reflected in prices, which keeps the market in a kind of equilibrium. When information is immediately priced in, it prevents drastic, destabilizing price swings due to secret information exploitation.
No Free Lunch Theorem: NFLT implies an equilibrium of algorithmic performance: without tailoring models to specific problems, performance can’t exceed random guessing across all tasks. This prevents the dominance of any one algorithm and promotes stability in ML development.
3. Limits on Observability and Exploitability
Cosmic Censorship Conjecture: In CCC, the "naked" singularities (unshielded by an event horizon) are prohibited, meaning that singularities can't be directly observed or interacted with. This places fundamental limits on what can be known about the interior of black holes and ensures that any infinite values are hidden from observers.
Efficient Market Hypothesis: In EMH, since all information is reflected in prices, potential inefficiencies that traders might exploit are hidden or fleeting. This places a limit on how much information a trader can “observe” to gain a consistent edge.
No Free Lunch Theorem: NFLT in ML implies that there's no one-size-fits-all model, so knowledge about one dataset does not translate to others. The unpredictability of the optimal approach for new data is a kind of “observability limit,” preventing universal exploitability of one algorithm.
Ну ладно, раз уж практически всё отгадали, публикую ответ. Конечно же, это ML-теорема об отсутствии бесплатных завтраков (No Free Lunch theorem) и Принцип космической цензуры (Cosmic Censorship Conjecture) Пенроуза.
Вы только подумайте, просматривается связь физики, машинного обучения и поведенческих финансов. Возможно, физику я несколько притягиваю за уши, судите сами. Я попросил сами знаете кого обозначить параллели.
"The Cosmic Censorship Conjecture (CCC) in physics, which suggests that singularities (places where gravity becomes infinite) are hidden behind event horizons, has intriguing parallels with the Efficient Market Hypothesis (EMH) and the No Free Lunch Theorem (NFLT) in machine learning. All three concepts imply that exploitable extremes or shortcuts are fundamentally "censored" by the natural order of the system, and they share some core ideas:
1. Hidden Extremes and Limited Access
Cosmic Censorship Conjecture: Singularities (places with potentially infinite gravitational forces) are hidden behind an event horizon, so they can’t affect or be exploited by an external observer. This keeps the universe predictable and prevents runaway effects from unbounded gravitational fields.
Efficient Market Hypothesis: Similarly, in EMH, any “infinite gain” opportunity is concealed by the rapid incorporation of information into asset prices. Just as a singularity is hidden from view, a perfect arbitrage opportunity (extreme profit) is obscured by market efficiency, making it virtually unreachable.
No Free Lunch Theorem: In machine learning, NFLT states that no model is universally better across all datasets, implying that there are no "shortcuts" that work everywhere. Every dataset poses new challenges, and there’s no access to a "singularity" of knowledge or performance that guarantees success universally.
2. Equilibrium and Stability
Cosmic Censorship Conjecture: By hiding singularities, CCC maintains stability in spacetime and keeps the equations of general relativity well-behaved, creating a predictable universe.
Efficient Market Hypothesis: EMH maintains market stability by ensuring that all known information is reflected in prices, which keeps the market in a kind of equilibrium. When information is immediately priced in, it prevents drastic, destabilizing price swings due to secret information exploitation.
No Free Lunch Theorem: NFLT implies an equilibrium of algorithmic performance: without tailoring models to specific problems, performance can’t exceed random guessing across all tasks. This prevents the dominance of any one algorithm and promotes stability in ML development.
3. Limits on Observability and Exploitability
Cosmic Censorship Conjecture: In CCC, the "naked" singularities (unshielded by an event horizon) are prohibited, meaning that singularities can't be directly observed or interacted with. This places fundamental limits on what can be known about the interior of black holes and ensures that any infinite values are hidden from observers.
Efficient Market Hypothesis: In EMH, since all information is reflected in prices, potential inefficiencies that traders might exploit are hidden or fleeting. This places a limit on how much information a trader can “observe” to gain a consistent edge.
No Free Lunch Theorem: NFLT in ML implies that there's no one-size-fits-all model, so knowledge about one dataset does not translate to others. The unpredictability of the optimal approach for new data is a kind of “observability limit,” preventing universal exploitability of one algorithm.