Как, лазая по чатам перед сном, познать Бога? 😅
Лазил перед сном по чатам и наткнулся на простое и, на мой взгляд, гениальнейшее определение Бога у @mathinggoesinsane:
👉 Бог – это всё, что мы (пока) не можем объяснить.
А ведь с этим определением не поспорят ни верующие, ни атеисты, ни агностики, верно? 🤔
Да, Егор, я немного подредактировал твою цитату – убрал восклицательный знак после "пока". Иными словами, убрал намёки на непроверенные факты. Ведь неочевидно, сможем ли мы когда-либо объяснить абсолютно всё, так что лучше оставить пространство для размышлений.
Вообще, это напомнило мне один совет, который я когда-то услышал от крутого математика: всё, что не можешь доказать – выноси в определения. Доказать мы, ясное дело, можем далеко не всё (см. теорему Гёделя о неполноте формальных систем 📚), но двигаться дальше в понимании мира как-то надо.
Так что всё, что не можем доказать – объявляем определением! 🤷♂️ И вот, кажется, определение Бога найдено, которое устроит всех. Ну или почти всех. 😆
P.S. Кстати, рекомендую каналы Егора – мне они кажутся почти гениальными. моё личное мнение, мне по крайней мере нравятся очень!
📌 @sickandtiredofexistance
📌 @D-dmTHxCiRE1MTQx
Лазил перед сном по чатам и наткнулся на простое и, на мой взгляд, гениальнейшее определение Бога у @mathinggoesinsane:
👉 Бог – это всё, что мы (пока) не можем объяснить.
А ведь с этим определением не поспорят ни верующие, ни атеисты, ни агностики, верно? 🤔
Да, Егор, я немного подредактировал твою цитату – убрал восклицательный знак после "пока". Иными словами, убрал намёки на непроверенные факты. Ведь неочевидно, сможем ли мы когда-либо объяснить абсолютно всё, так что лучше оставить пространство для размышлений.
Вообще, это напомнило мне один совет, который я когда-то услышал от крутого математика: всё, что не можешь доказать – выноси в определения. Доказать мы, ясное дело, можем далеко не всё (см. теорему Гёделя о неполноте формальных систем 📚), но двигаться дальше в понимании мира как-то надо.
Так что всё, что не можем доказать – объявляем определением! 🤷♂️ И вот, кажется, определение Бога найдено, которое устроит всех. Ну или почти всех. 😆
P.S. Кстати, рекомендую каналы Егора – мне они кажутся почти гениальными. моё личное мнение, мне по крайней мере нравятся очень!
📌 @sickandtiredofexistance
📌 @D-dmTHxCiRE1MTQx
Telegram
экстравагантные эссе с филигранной тонкостью мысли
маяк безыдейности (тут много буковок)
❤1
Forwarded from for all x, y, z
В Японии есть сайт, посвящённый числу Пи, доменное имя которого состоит из первых 65 цифр числа Пи:
3.141592653589793238462643383279502884197169399375105820974944592.jp
Говорят, если дождаться окончания загрузки страницы, то покажут аниме.
#математика #юмор #число_Пи
3.141592653589793238462643383279502884197169399375105820974944592.jp
Говорят, если дождаться окончания загрузки страницы, то покажут аниме.
#математика #юмор #число_Пи
🔥 14 марта — день, когда вселенная решила пошутить!
Пишу с опозданием, но мимо пройти не могу.
14 марта я уже писал про День числа Пи — бесконечное число, которое путает умы.
Но, как оказалось, этот день намного богаче на события!
В этот день родились сразу три вселенских явления:
🧠 Альберт Эйнштейн — человек, который приручил пространство и время.
🥧 Число Пи — бесконечная головоломка для всех математиков.
😏 Саша Грей — девушка, которая оставила свой след в культуре. И тоже, кстати, внесла свой вклад в исследование человеческих границ... в своих сферах.
В общем, 14.03 — день, когда рождаются либо гении, либо бесконечные числа, либо те, кто знает, что делать с бесконечным вниманием.
👇👇👇
Пишу с опозданием, но мимо пройти не могу.
14 марта я уже писал про День числа Пи — бесконечное число, которое путает умы.
Но, как оказалось, этот день намного богаче на события!
В этот день родились сразу три вселенских явления:
🧠 Альберт Эйнштейн — человек, который приручил пространство и время.
🥧 Число Пи — бесконечная головоломка для всех математиков.
😏 Саша Грей — девушка, которая оставила свой след в культуре. И тоже, кстати, внесла свой вклад в исследование человеческих границ... в своих сферах.
В общем, 14.03 — день, когда рождаются либо гении, либо бесконечные числа, либо те, кто знает, что делать с бесконечным вниманием.
👇👇👇
Сегодня вечером после работы сел запустить обучение языковой модели с нуля на текстах из Википедии.
Пока обучение идёт не слишком успешно — модель, кажется, быстро переобучается. Данных много, обучение занимает много-много часов (или даже суток), но уже видно: модель отлично запоминает обучающие данные (train loss стремительно падает), а вот eval loss — то есть способность модели обобщать знания и работать с новыми, ранее невиданными текстами — снижается гораздо медленнее.
Что это значит? Когда train loss падает быстро, а eval loss (validation loss) почти не двигается, это явный сигнал: модель начинает запоминать тренировочные примеры, но не учится извлекать из них универсальные закономерности. То есть модель плохо генерализирует.
Причины могут быть разные: архитектура слишком мощная для объёма данных, learning rate неудачно подобран, нужно больше регуляризации или больше эпох обучения
#LLM #Transformers #AI
Пока обучение идёт не слишком успешно — модель, кажется, быстро переобучается. Данных много, обучение занимает много-много часов (или даже суток), но уже видно: модель отлично запоминает обучающие данные (train loss стремительно падает), а вот eval loss — то есть способность модели обобщать знания и работать с новыми, ранее невиданными текстами — снижается гораздо медленнее.
Что это значит? Когда train loss падает быстро, а eval loss (validation loss) почти не двигается, это явный сигнал: модель начинает запоминать тренировочные примеры, но не учится извлекать из них универсальные закономерности. То есть модель плохо генерализирует.
Причины могут быть разные: архитектура слишком мощная для объёма данных, learning rate неудачно подобран, нужно больше регуляризации или больше эпох обучения
#LLM #Transformers #AI
Для тех, кто не в теме, чем я тут занимаюсь: немного играюсь с языковыми моделями на основе нейросетей.
Принцип работы у них, на самом деле, довольно простой (и забавный): берём кучу текстов, закрываем кусочек предложения и заставляем модель угадать, что там должно быть. Потом открываем — ага, тут угадала, тут промахнулась. Модель подстраивает свои нейронные связи, чтобы в следующий раз ошибаться меньше. И так, круг за кругом, тысячу раз, миллион, миллиард... В итоге — начинает получаться всё лучше.
Что удивительно: я уже видел, как модель с 1.3 миллиарда параметров делает качественный скачок — переходит от банального угадывания морфологии и синтаксиса к пониманию смысла слов в зависимости от контекста. По сути, учится, как ребёнок, только на большом количестве текстов.
И это, на самом деле, каждый раз довольно нетривиально и немного магически выглядит.
Принцип работы у них, на самом деле, довольно простой (и забавный): берём кучу текстов, закрываем кусочек предложения и заставляем модель угадать, что там должно быть. Потом открываем — ага, тут угадала, тут промахнулась. Модель подстраивает свои нейронные связи, чтобы в следующий раз ошибаться меньше. И так, круг за кругом, тысячу раз, миллион, миллиард... В итоге — начинает получаться всё лучше.
Что удивительно: я уже видел, как модель с 1.3 миллиарда параметров делает качественный скачок — переходит от банального угадывания морфологии и синтаксиса к пониманию смысла слов в зависимости от контекста. По сути, учится, как ребёнок, только на большом количестве текстов.
И это, на самом деле, каждый раз довольно нетривиально и немного магически выглядит.
Напоминаю, train-loss - показывает способность искуственной нейросети снижать ошибки в запоминаниеи тренировочных данных а eval-loss - способность снижать ошибки в обобщении на ранее невиданные тексты! Если две кривые ползут одинаково круто вниз, то это - круто! )
Что ещё можно увидеть в больших языковых моделях и миллиардах нейронных связей я вам расскажу на днях )