3/3. предыдущая часть тут 👆
🧠 Подробно и по шагам:
1. Что показывает Уильямс?
Он доказывает, что любую t(n)-временную многоленточную машину можно симулировать с памятью
O(√(t log t)).
То есть: если алгоритм работает за время t(n), то можно смоделировать его в меньшем объёме памяти, чем раньше считалось возможным.
2. Как это используется для разделения P и PSPACE?
Возьмём задачу, решаемую в линейной памяти (s(n) = O(n)) — то есть она точно лежит в PSPACE.
По теореме Уильямса, если бы она решалась за время t(n),
то должно быть:
√(t(n) log t(n)) ≥ n
⇒ t(n) ≥ n² / log n
⇒ t(n) — как минимум квадратичное.
То есть: существуют линейно-памятные задачи, которые не могут быть решены быстрее, чем примерно n².
3. Почему это приближает нас к P ≠ PSPACE?
Класс P включает задачи, решаемые за время O(n^k) для некоторого фиксированного k.
То есть, если бы все задачи из PSPACE решались за полиномиальное время, то было бы P = PSPACE.
Но результат Уильямса показывает, что существуют задачи, которые:
- находятся в PSPACE (решаются в линейной памяти),
- но не решаются быстрее, чем n².
⚠️ Это ещё не доказательство, что они не решаются за любое полиномиальное время (например, n^10),
но это сдвиг границы — от "возможно, они все почти линейные" → "некоторые требуют уже n² или больше".
📌 Вывод:
- Да, n² — это всё ещё полиномиальное время, но важно, что впервые показано, что задачи в линейной памяти не решаются за линейное время. До этого момента в теории сложности удавалось показать лишь слабые верхние и нижние
оценки времени (O(t(n)/log t(n)), Ω(t(n)log t(n)) для задач, решаемых в в линейной памяти, которые всё ещё почти линейные. Но это недостаточно, чтобы показать разделение классов P и PSPACE.
- Это сужает возможное пересечение P и PSPACE.
- Если бы удалось доказать, что задача требует время больше, чем любое полиномиальное, это дало бы P ≠ PSPACE.
@easy_about_complex
#Complexity #P #PSPACE #PvsPSPACE
🧠 Подробно и по шагам:
1. Что показывает Уильямс?
Он доказывает, что любую t(n)-временную многоленточную машину можно симулировать с памятью
O(√(t log t)).
То есть: если алгоритм работает за время t(n), то можно смоделировать его в меньшем объёме памяти, чем раньше считалось возможным.
2. Как это используется для разделения P и PSPACE?
Возьмём задачу, решаемую в линейной памяти (s(n) = O(n)) — то есть она точно лежит в PSPACE.
По теореме Уильямса, если бы она решалась за время t(n),
то должно быть:
√(t(n) log t(n)) ≥ n
⇒ t(n) ≥ n² / log n
⇒ t(n) — как минимум квадратичное.
То есть: существуют линейно-памятные задачи, которые не могут быть решены быстрее, чем примерно n².
3. Почему это приближает нас к P ≠ PSPACE?
Класс P включает задачи, решаемые за время O(n^k) для некоторого фиксированного k.
То есть, если бы все задачи из PSPACE решались за полиномиальное время, то было бы P = PSPACE.
Но результат Уильямса показывает, что существуют задачи, которые:
- находятся в PSPACE (решаются в линейной памяти),
- но не решаются быстрее, чем n².
⚠️ Это ещё не доказательство, что они не решаются за любое полиномиальное время (например, n^10),
но это сдвиг границы — от "возможно, они все почти линейные" → "некоторые требуют уже n² или больше".
📌 Вывод:
- Да, n² — это всё ещё полиномиальное время, но важно, что впервые показано, что задачи в линейной памяти не решаются за линейное время. До этого момента в теории сложности удавалось показать лишь слабые верхние и нижние
оценки времени (O(t(n)/log t(n)), Ω(t(n)log t(n)) для задач, решаемых в в линейной памяти, которые всё ещё почти линейные. Но это недостаточно, чтобы показать разделение классов P и PSPACE.
- Это сужает возможное пересечение P и PSPACE.
- Если бы удалось доказать, что задача требует время больше, чем любое полиномиальное, это дало бы P ≠ PSPACE.
@easy_about_complex
#Complexity #P #PSPACE #PvsPSPACE
Telegram
Истории (не)успеха (ИИ)ЕИ
2/3. начало тут 👆
🧠 Что нового в работе Уильямса?
Уильямс показал, что любую многоленточную машину Тьюринга, работающую за время t(n), можно симулировать, используя всего O(√(t log t)) памяти. Это значительное улучшение по сравнению с предыдущим результатом…
🧠 Что нового в работе Уильямса?
Уильямс показал, что любую многоленточную машину Тьюринга, работающую за время t(n), можно симулировать, используя всего O(√(t log t)) памяти. Это значительное улучшение по сравнению с предыдущим результатом…
👍2
В рамках рубрики #НастроениеПятницы девушка, которая подписана на наш канал и моя очень давний и хороший друг прислала такую картинку 👇👇👇
#НастроениеПятницы #черныйЮмор #Entertainment
#НастроениеПятницы #черныйЮмор #Entertainment
Был сегодня на поэтическом вечере Анны — 1,5 часа пролетели как 15 минут. Очень классный перформанс, Анна здорово держит сцену и вовлекает. Атмосфера уютная, публика приятная — прямо хорошее время! В завершении была песня, где Анна поёт совместно с ИИ, да-да — необычно и по-своему трогательно.
Весь поэтический вечер реально цепляет и вызывает эмоции. Абсолютно не жалею, что сходил — и с удовольствием сходил бы ещё раз.
Анна сейчас ездит с выступлениями по городам Германии, а скоро будет в Екатеринбурге (привет нашим подписчикам из России). Если снова заглянет в Мюнхен — пойду ещё раз без раздумий.
Рекомендую, особенно если вам важна не только поэзия, но и то, как она подаётся.
#Culture #Poetry #Munich
@frauliebert
https://www.instagram.com/frauliebert/
P.S. Пару видео сейчас добавлю в комментарии
Весь поэтический вечер реально цепляет и вызывает эмоции. Абсолютно не жалею, что сходил — и с удовольствием сходил бы ещё раз.
Анна сейчас ездит с выступлениями по городам Германии, а скоро будет в Екатеринбурге (привет нашим подписчикам из России). Если снова заглянет в Мюнхен — пойду ещё раз без раздумий.
Рекомендую, особенно если вам важна не только поэзия, но и то, как она подаётся.
#Culture #Poetry #Munich
@frauliebert
https://www.instagram.com/frauliebert/
P.S. Пару видео сейчас добавлю в комментарии
Telegram
Истории (не)успеха (ИИ)ЕИ
Кто из Мюнхена: напоминаю, что уже в эту субботу 24-го мая у нас в городе поэтический вечер/концерт Анны Либерт @frauliebert
Я лично пойду.
#Culture #Poetry #Munich
Я лично пойду.
#Culture #Poetry #Munich
❤2🔥1
Напоминаю про лекцию Хинтона в пятницу, онлайн👇👇👇
А наш стрим в телеге уже в это воскресенье, 1.06, днем или вечером! Будет много AI, AGI и их математических основ. Окончательный анонс следует.
#LiveStream
А наш стрим в телеге уже в это воскресенье, 1.06, днем или вечером! Будет много AI, AGI и их математических основ. Окончательный анонс следует.
#LiveStream
Forwarded from Истории (не)успеха (ИИ)ЕИ (Dmytro)
🔬 Нобелевский лауреат Джефри Хинтон (тот самый крёстный отец ИИ) видимо, посмотрел наш прошлый лайв-стрим и решил не отставать — читает лекцию на ту же тему, что мы разбирали на прошлом стриме: "Биологические и цифровые нейросети".
🎓 Лекцию можно будет посмотреть онлайн 30.05: 👉 https://www.rigb.org/whats-on/discourse-digital-intelligence-vs-biological-intelligence
Не благодарите 😄
#AI #Hinton #Brain #DeepLearning #LiveStream
🎓 Лекцию можно будет посмотреть онлайн 30.05: 👉 https://www.rigb.org/whats-on/discourse-digital-intelligence-vs-biological-intelligence
Не благодарите 😄
#AI #Hinton #Brain #DeepLearning #LiveStream
Royal Institution
SOLD OUT IN PERSON Discourse: Digital intelligence vs biological intelligence | Royal Institution
2024 Nobel winner Geoffrey Hinton explains what AI has learned, and is still learning, from biological intelligence.
👍1
🎙 В это воскресенье, 1 июня, состоится наш очередной стрим!
⠀
В последние недели особо не было времени на подготовку, поэтому математики будет совсем немного (но она всё же будет!).
⠀
Зато мы позволим себе немного уйти в философию и попытаемся закрыть некоторые психологические гештальты: что такое мышление и сознание в самом общем виде — без эзотерики, но с интересом и размышлениями.
⠀
#LiveStream
⠀
В последние недели особо не было времени на подготовку, поэтому математики будет совсем немного (но она всё же будет!).
⠀
Зато мы позволим себе немного уйти в философию и попытаемся закрыть некоторые психологические гештальты: что такое мышление и сознание в самом общем виде — без эзотерики, но с интересом и размышлениями.
⠀
#LiveStream
❤3
Кстати, все больше и больше запросов поступает чтобы стримы были действительно международными - кто готов переходить на английский? )
🧠 Напоминаю: сегодня стрим!
🕔 17:00 (Центральноевропейское время)
🕕 18:00 (Киев / Москва)
На этот раз — меньше математики, больше философии.
Поговорим об искусственном и естественном интеллекте:
что они могут, чем отличаются и куда всё это идёт.
Подключайтесь! 💬✨
🕔 17:00 (Центральноевропейское время)
🕕 18:00 (Киев / Москва)
На этот раз — меньше математики, больше философии.
Поговорим об искусственном и естественном интеллекте:
что они могут, чем отличаются и куда всё это идёт.
Подключайтесь! 💬✨
стрим начался. я отойду на пару минут, всё равно минут 5-10 по опыту надо подождать пока все соберутся.
Стрим был очень продуктивным! Кто не пришёл - кусайте локти ) Потому что моя часть стрима не записалась, но Никита дал очень крутую вторую часть и она будет выложена в записи по кусочкам! )
П.С. Да, рано либо поздно, мы научимся записывать стримы
П.П.С Этот телеграм канал был задуман изначально так, что все участники модераторы и могут публиковать главные новости. К сожалению я не уследил в последнее время и добавились много человек, которы сейчас будут модераторами.
П.С. Да, рано либо поздно, мы научимся записывать стримы
П.П.С Этот телеграм канал был задуман изначально так, что все участники модераторы и могут публиковать главные новости. К сожалению я не уследил в последнее время и добавились много человек, которы сейчас будут модераторами.
❤3👍3
кого не добавил в модераторы канала и кто хочет? ) без проблем )
Наш канал порадует уже вас скоро как научным, так и спортивным контентом! Не сдуваемся, держим марку! )
1/2
🧠 И снова про интерпретируемость / объяснимость нейрональных вычислений
Разбираем простой пример + цитируем инструмент, чтобы попробовать самому
И в мозге, и в современных больших нейросетях вычисления размазаны по миллиардам нейронов и синапсов. Никакой один нейрон не отвечает за какой-то конкретный процесс в этих вычислениях, а задача разбивается на множество маленьких частей, которые вместе создают итоговый результат.
Это даёт гибкость и мощь, но создаёт серьёзную проблему:
🔬 Anthropic и атрибутационные графы
Команда Anthropic разработала инструмент:
📈 Атрибутационные графы (attribution graphs).
С его помощью можно визуализировать, как модель обрабатывает вход и как приходит к конкретному ответу. Это своего рода «нейровизуализация» для искусственного интеллекта.
🧩 Как это работает?
Внутри модели активируются features (фичи) — внутренние понятия.
Продолжение👇
🧠 И снова про интерпретируемость / объяснимость нейрональных вычислений
Разбираем простой пример + цитируем инструмент, чтобы попробовать самому
И в мозге, и в современных больших нейросетях вычисления размазаны по миллиардам нейронов и синапсов. Никакой один нейрон не отвечает за какой-то конкретный процесс в этих вычислениях, а задача разбивается на множество маленьких частей, которые вместе создают итоговый результат.
Это даёт гибкость и мощь, но создаёт серьёзную проблему:
Как понять, что именно происходит внутри? Почему модель или мозг приняли именно такое решение?
🔬 Anthropic и атрибутационные графы
Команда Anthropic разработала инструмент:
📈 Атрибутационные графы (attribution graphs).
С его помощью можно визуализировать, как модель обрабатывает вход и как приходит к конкретному ответу. Это своего рода «нейровизуализация» для искусственного интеллекта.
🧩 Как это работает?
Внутри модели активируются features (фичи) — внутренние понятия.
Продолжение👇