Доклад на AGI-25
В контексте свежих речей Самы про то, что AGI уже плохой концепт
Some people who have been promising the Moon are now saying that the Moon is maybe not the best concept ever
https://www.youtube.com/live/eCUtGU4qKVY?si=rI1Pi51riiuLAP7v&t=25917
(начало тут)
В контексте свежих речей Самы про то, что AGI уже плохой концепт
Some people who have been promising the Moon are now saying that the Moon is maybe not the best concept ever
https://www.youtube.com/live/eCUtGU4qKVY?si=rI1Pi51riiuLAP7v&t=25917
(начало тут)
YouTube
AGI-25 Conference | Day 2 | Keynotes and Paper Presentations
Welcome to Day 2 of the 18th Annual AGI Conference taking place at Reykjavík University, Iceland.
Experience keynotes from leading academics, researchers, and practitioners, and explore pioneering research on the path to AGI, covering AGI frameworks, design…
Experience keynotes from leading academics, researchers, and practitioners, and explore pioneering research on the path to AGI, covering AGI frameworks, design…
Формула Лейбница — взятие производной по параметру определенного интеграла
Очень полезная практически (например, если надо продифференцировать автокорреляционную функцию, заданную на конечном интервале)
К сожалению, далеко не все профильные студенты знают/помнят эту формулу, поэтому рекомендую разобраться с её выводом и выучить наизусть, как правила дифференцирования
Очень полезная практически (например, если надо продифференцировать автокорреляционную функцию, заданную на конечном интервале)
К сожалению, далеко не все профильные студенты знают/помнят эту формулу, поэтому рекомендую разобраться с её выводом и выучить наизусть, как правила дифференцирования
Wikipedia
Формула Лейбница (производной интеграла с параметром)
правило дифференцирования под знаком интеграла
Forwarded from НИИ Антропогенеза (ARI)
Merge Labs и Neuralink поможет человечеству избежать вымирания, с помощью технологий обьеденив с машинами так хорошо, что симбиоз мозгов с Ml далеко превзойдет Ml без мозгов
https://blog.samaltman.com/the-merge
(оригинал: https://medium.com/wordsthatmatter/merge-now-430c6d89d1fe )
The Merge
Sam Altman
December 7, 2017
(Как известно, в 2015 году Олтмен (Альтман) и Маск стали сооснователями OpenAI, но в 2018 Маск ушел из компании)
Financial Timed сообщили, что и Сэм поддерживает стартап Merge Labs, который будет делать интерфейс мозг-компьютер для слияния человека и Ml:
Merge Labs — это стартап, разрабатывающий интерфейсы мозг-компьютер, причём компания хочет привлечь уже $250.000.000 инвестиций при оценке в $850.000.000
Большая часть инвестиций поступит от венчурного подразделения OpenAI
Об этом проекте тут
Альтман, как сооснователь и CEO OpenAI, будет числиться соучредителем Merge Labs вместе с Алексом Бланией, CEO проекта World, также поддерживаемого OpenAI, но не будет участвовать в операционной деятельности компании
Merge Labs планирует развивать нейротехнологии с использованием Ml
О том как индустрия сейчас развивается, читайте тут
О том, что нейроинтерфейсы + Ml - это новый большой тренд, здесь
https://www.ft.com/content/04484164-724e-4fc2-92a2-e2c13ea639bd
Sam Altman challenges Elon Musk with plans for Neuralink rival
12.08.2025
https://blog.samaltman.com/the-merge
(оригинал: https://medium.com/wordsthatmatter/merge-now-430c6d89d1fe )
The Merge
Sam Altman
December 7, 2017
(Как известно, в 2015 году Олтмен (Альтман) и Маск стали сооснователями OpenAI, но в 2018 Маск ушел из компании)
История понятия "сингулярность" в этом контексте:
TechCrunch, пресказывая материал FT, в котором упоминается этот блогпост. также утверждает, что понятие "сингулярности" появилось в одноименном романе итальянского писателя Дино Буццати (Dino Buzzati) еще в 1960
Впрочем, википедия подсказывает, что The Singularity - это название английского издания 2025 (!) года, а первый перевод на английский, вышедший в 1962м, назывался Larger than Life
По-итальянски роман назывался Il grande ritratto. Пишут, что The term singularity, today used as shorthand to indicate the historical moment in which artificial intelligence will surpass human capacities to the point that it will revolutionize human life as we know it, can be dated back to the 1980s, well after the publication of this novel
Про технологическую сингулярность можно прочитать, что модель самоулучшающегося интеллекта предложил в 1965 году, а о возможной опасности взрывного саморазвития суперинтеллекта предупреждали впоследствии уже Стивен Хокинг и другие ученые
Что же касается слияния человеческого и машинного интеллекта, эта идея, скорее, связана с Курцвейлом, который еще 20 лет назад выпустил книгу The Singularity Is Near
В его понимании, которое с тех пор не изменилось, сингулярность -- это не свмодеятельность машин, а результат слияния слияние человеческого мозга с облаком, будет достигнуто не через инвазивные электроды, а через "наноботы", которые смогут входить в мозг через капилляры - см., напр., его интервью Гардиан этого года
Financial Timed сообщили, что и Сэм поддерживает стартап Merge Labs, который будет делать интерфейс мозг-компьютер для слияния человека и Ml:
Merge Labs — это стартап, разрабатывающий интерфейсы мозг-компьютер, причём компания хочет привлечь уже $250.000.000 инвестиций при оценке в $850.000.000
Большая часть инвестиций поступит от венчурного подразделения OpenAI
Об этом проекте тут
Альтман, как сооснователь и CEO OpenAI, будет числиться соучредителем Merge Labs вместе с Алексом Бланией, CEO проекта World, также поддерживаемого OpenAI, но не будет участвовать в операционной деятельности компании
Merge Labs планирует развивать нейротехнологии с использованием Ml
О том как индустрия сейчас развивается, читайте тут
О том, что нейроинтерфейсы + Ml - это новый большой тренд, здесь
https://www.ft.com/content/04484164-724e-4fc2-92a2-e2c13ea639bd
Sam Altman challenges Elon Musk with plans for Neuralink rival
12.08.2025
Sam Altman
The Merge
A popular topic in Silicon Valley is talking about what year humans and machines will merge (or, if not, what year humans will get surpassed by rapidly improving AI or a genetically enhanced...
13 августа, в 1861 году родился Чезаре Бурали-Форти — итальянский математик, работавший вместе с Джузеппе Пеано, автор одного из первых и самых известных парадоксов в теории множеств, который стал настоящим испытанием для идей Георга Кантора
Хотя его имя сегодня встречается реже, чем Кантора или Рассела, именно он первым показал, что бесконечность может быть не просто большой, а… слишком большой, чтобы существовать
Парадокс Бурали-Форти начинается с попытки построить «множество всех ординалов» — особых чисел, которые обобщают понятие порядка для бесконечных последовательностей
Кантор показал, что такие числа можно сравнивать и упорядочивать
Но если собрать все ординалы вместе, получится новый ординал, который должен быть больше любого из них
И тут возникает логический сбой: этот «самый большой ординал» не может принадлежать множеству всех ординалов, потому что он больше любого его элемента — и всё рушится
Этот парадокс стал тревожным звонком для математиков конца XIX века: сама идея «множества всех» оказалась опасной
Он предвосхитил кризис в основах математики и подтолкнул развитие более строгих аксиоматических систем, в которых подобные «слишком большие» множества больше нельзя было строить
Хотя его имя сегодня встречается реже, чем Кантора или Рассела, именно он первым показал, что бесконечность может быть не просто большой, а… слишком большой, чтобы существовать
Парадокс Бурали-Форти начинается с попытки построить «множество всех ординалов» — особых чисел, которые обобщают понятие порядка для бесконечных последовательностей
Кантор показал, что такие числа можно сравнивать и упорядочивать
Но если собрать все ординалы вместе, получится новый ординал, который должен быть больше любого из них
И тут возникает логический сбой: этот «самый большой ординал» не может принадлежать множеству всех ординалов, потому что он больше любого его элемента — и всё рушится
Этот парадокс стал тревожным звонком для математиков конца XIX века: сама идея «множества всех» оказалась опасной
Он предвосхитил кризис в основах математики и подтолкнул развитие более строгих аксиоматических систем, в которых подобные «слишком большие» множества больше нельзя было строить
В руководстве по оценке сознания у искусственного интеллекта, использовалось 3 подхода:
Нельзя подойти к нейросетке и спросить:
— Сознание есть? А если найду?!
Но можно взять научные теории о том, как сознание работает в человеческом мозге, и посмотреть, есть ли что-то похожее в архитектуре современных Ml
Cразу вывод: нет, ни одна из существующих систем (включая большие языковые модели вроде ChatGPT) не является сознательной
При этом с технологической точки зрения, нет никаких непреодолимых препятствий для создания “сознательного Ml”
Теория глобального рабочего пространства — в мозге есть много бессознательных специализированных модулей, которые работают параллельно и автономно
Например, один модуль распознаёт цвета, другой — формы, третий отвечает за слух
Сознание возникает, когда какая-то важная информация выигрывает конкуренцию за внимание и попадает в глобальное рабочее пространство
Как только информация оказалась на этой сцене, она становится доступна всем остальным модулям
Они могут её использовать для планирования, запоминания, речи и т.д.
Этот процесс трансляции на всех и есть сознательный опыт (пишу не для нейрофизиологов)
Теория рекуррентной обработки — прошлая теория неправа, и для сознания не нужны сложные когнитивные функции
Сознание возникает в сенсорных областях мозга
Когда вы видите яблоко, сигнал сначала идет "вперед" по иерархии зрительной коры (от простых черт к сложным)
Это бессознательный процесс
Сознание включается, когда сигнал начинает идти обратно — от высших областей к низшим
Эта циклическая обработка позволяет связать все признаки (цвет, форму, текстуру) в единый образ
Теории высшего порядка утверждают, что для того, чтобы переживание стало сознательным, недостаточно просто иметь это переживание
Система должна также иметь представление о том, что у неё есть это переживание
"Да, это реальное восприятие, а не шум или воображение"
Чтобы системе вообще понадобилось отличать реальность от шума, у неё должны быть разные источники активации (например, реальные сенсорные данные, воображение, внутренний шум)
Потом должен быть механизм, который отслеживает и различает надежные перцептивные представления от ненадежных
Плюс теория схемы внимания, предиктивное кодирование (мозг — это машина предсказаний), агентность и воплощение
В итоге собираем все критерии и смотрим, что получилось для трансформеров и более продвинутых архитектур:
Надо всё проверять на такие критерии, а то вдруг создадим сознательное существо, способное страдать, но не признаем этого
Ну или мы начнем приписывать сознание системам, у которых его нет
Найдутся зелёные, которые будут тратить огромные ресурсы на защиту "прав" не-сознательных ботов, хотя вот же есть коровы и куры
1) Тест Тьюринга (его проходили даже тупые до-LLM и не проходили некоторые люди)
2) "По ощущениям, надо оценивать так"
3) "Всё равно ты так не сможешь, псина... Ой, смог, ну сейчас посложнее придумаем!"
Нельзя подойти к нейросетке и спросить:
— Сознание есть? А если найду?!
Но можно взять научные теории о том, как сознание работает в человеческом мозге, и посмотреть, есть ли что-то похожее в архитектуре современных Ml
Cразу вывод: нет, ни одна из существующих систем (включая большие языковые модели вроде ChatGPT) не является сознательной
При этом с технологической точки зрения, нет никаких непреодолимых препятствий для создания “сознательного Ml”
Критерии:
1) Вычислительный функционализм
Неважно, из чего сделан мозг, хоть из мяса. Важно, какие вычисления он производит
Никакой магии, просто покажите те же результаты, что при сознательном опыте
2) Но при этом важно, не что оно делает, а как
Современные LLM — имитаторы
3) Поскольку это два взаимоисключающих пункта, давайте вместо того чтобы изобретать новые критерии, берём уже существующие модели, проверенные на людях, и пытаемся найти (создать) у моделей
Теория глобального рабочего пространства — в мозге есть много бессознательных специализированных модулей, которые работают параллельно и автономно
Например, один модуль распознаёт цвета, другой — формы, третий отвечает за слух
Сознание возникает, когда какая-то важная информация выигрывает конкуренцию за внимание и попадает в глобальное рабочее пространство
Как только информация оказалась на этой сцене, она становится доступна всем остальным модулям
Они могут её использовать для планирования, запоминания, речи и т.д.
Этот процесс трансляции на всех и есть сознательный опыт (пишу не для нейрофизиологов)
Теория рекуррентной обработки — прошлая теория неправа, и для сознания не нужны сложные когнитивные функции
Сознание возникает в сенсорных областях мозга
Когда вы видите яблоко, сигнал сначала идет "вперед" по иерархии зрительной коры (от простых черт к сложным)
Это бессознательный процесс
Сознание включается, когда сигнал начинает идти обратно — от высших областей к низшим
Эта циклическая обработка позволяет связать все признаки (цвет, форму, текстуру) в единый образ
Теории высшего порядка утверждают, что для того, чтобы переживание стало сознательным, недостаточно просто иметь это переживание
Система должна также иметь представление о том, что у неё есть это переживание
"Да, это реальное восприятие, а не шум или воображение"
Чтобы системе вообще понадобилось отличать реальность от шума, у неё должны быть разные источники активации (например, реальные сенсорные данные, воображение, внутренний шум)
Потом должен быть механизм, который отслеживает и различает надежные перцептивные представления от ненадежных
Плюс теория схемы внимания, предиктивное кодирование (мозг — это машина предсказаний), агентность и воплощение
В итоге собираем все критерии и смотрим, что получилось для трансформеров и более продвинутых архитектур:
— LLM-трансформеры — сразу идут лесом
— Perceiver (свёртки трансформеров + обрабатывающий штаб) — ближе к сознанию
— PaLM-E, "виртуальная крыса" — учатся на обратной связи и могут строить модели своего тела, но всё равно примитивны
Надо всё проверять на такие критерии, а то вдруг создадим сознательное существо, способное страдать, но не признаем этого
Ну или мы начнем приписывать сознание системам, у которых его нет
Найдутся зелёные, которые будут тратить огромные ресурсы на защиту "прав" не-сознательных ботов, хотя вот же есть коровы и куры
OpenAI и Anthropic - это публично известные цифры + публичные компании Ml-инфраструктуры уже превзошли весь доход от публичных SaaS-компаний в 2024 году
Об этом ранее говорили и a16Z
Большую часть этого роста обеспечивает доход Nvidia от дата-центров - продажа чипов для Ml
По новым доходам Ml-сектор почти удваивает показатели публичных SaaS-компаний в этом году
Более 100 публичных SaaS-компаний пока не видят роста доходов от своих Ml-предложений
Спрос на Ml происходит там, где их нет
Происходит массовый переход от традиционного программного обеспечения как услуги (SaaS) к специализированным Ml-решениям
Деньги идут не к существующим софтверным гигантам, а к новым Ml-компаниям и производителям чипов.-лабораторий: OpenAI и Anthropic - это публично известные цифры + публичные компании Ml-инфраструктуры уже превзошли весь доход от публичных SaaS-компаний в 2024 году
Об этом ранее говорили и a16Z
Большую часть этого роста обеспечивает доход Nvidia от дата-центров - продажа чипов для Ml
По новым доходам Ml-сектор почти удваивает показатели публичных SaaS-компаний в этом году
Более 100 публичных SaaS-компаний пока не видят роста доходов от своих Ml-предложений
Спрос на Ml происходит там, где их нет
Происходит массовый переход от традиционного программного обеспечения как услуги (SaaS) к специализированным Ml-решениям
Деньги идут не к существующим софтверным гигантам, а к новым Ml-компаниям и производителям чипов
Об этом ранее говорили и a16Z
Большую часть этого роста обеспечивает доход Nvidia от дата-центров - продажа чипов для Ml
По новым доходам Ml-сектор почти удваивает показатели публичных SaaS-компаний в этом году
Более 100 публичных SaaS-компаний пока не видят роста доходов от своих Ml-предложений
Спрос на Ml происходит там, где их нет
Происходит массовый переход от традиционного программного обеспечения как услуги (SaaS) к специализированным Ml-решениям
Деньги идут не к существующим софтверным гигантам, а к новым Ml-компаниям и производителям чипов.-лабораторий: OpenAI и Anthropic - это публично известные цифры + публичные компании Ml-инфраструктуры уже превзошли весь доход от публичных SaaS-компаний в 2024 году
Об этом ранее говорили и a16Z
Большую часть этого роста обеспечивает доход Nvidia от дата-центров - продажа чипов для Ml
По новым доходам Ml-сектор почти удваивает показатели публичных SaaS-компаний в этом году
Более 100 публичных SaaS-компаний пока не видят роста доходов от своих Ml-предложений
Спрос на Ml происходит там, где их нет
Происходит массовый переход от традиционного программного обеспечения как услуги (SaaS) к специализированным Ml-решениям
Деньги идут не к существующим софтверным гигантам, а к новым Ml-компаниям и производителям чипов
Telegram
All about AI, Web 3.0, BCI
The revenue from just the AI Labs (publicly reported figures from OpenAI and Anthropic), along with the public AI infrastructure companies, has already eclipsed all public SaaS revenue in 2024 (Nvidia's datacenter revenue drives most of the growth).
It…
It…