Forwarded from человек наук
Сегодня – день числа Пи! 14 марта записывается как 3.14 и поэтому считается праздником самой знаменитой математической константы. А ещё на английском Пи произносится как «пай», что созвучно со словом «pie» – пирог. Поэтому в этот день принято печь Пироги. Никаких правил нет, рецепт может быть любым. Но на верх обычно помещают греческую букву Пи
#математика@chelovek_nauk
#математика@chelovek_nauk
👍2
Друзья, вот и в этом чате появилась реклама… 😅
Но не спешите листать дальше – я за неё ничего не получаю (что, конечно, возмутительно! 😂), просто хочу помочь хорошему человеку.
Мой товарищ занимается не просто печатью логотипов, а производством стильной и качественной корпоративной одежды на заказ – от дизайна до пошива. Это Sonderanfertigung с кастомным дизайном 🧵✂️, а не просто стандартные футболки с принтом.
Если в вашей компании нужны футболки, пуловеры, кепки или другая одежда с логотипом вашей компании и уникальным дизайном 👕🎨 – дайте знать! Он работает только с оптовыми заказами для бизнеса.
👉 Спросите пожалуйста на работе, может вашей компании это интересно?
Сам ношу его одежду – качество топ, очень доволен! 💯🔥
📸 На фото 👇👇👇– примеры его работы для известного турнира по теннису ATP Tour. Так что если вашей компании тоже нужна крутая брендированная одежда, пишите, свяжу вас! 📩
Но не спешите листать дальше – я за неё ничего не получаю (что, конечно, возмутительно! 😂), просто хочу помочь хорошему человеку.
Мой товарищ занимается не просто печатью логотипов, а производством стильной и качественной корпоративной одежды на заказ – от дизайна до пошива. Это Sonderanfertigung с кастомным дизайном 🧵✂️, а не просто стандартные футболки с принтом.
Если в вашей компании нужны футболки, пуловеры, кепки или другая одежда с логотипом вашей компании и уникальным дизайном 👕🎨 – дайте знать! Он работает только с оптовыми заказами для бизнеса.
👉 Спросите пожалуйста на работе, может вашей компании это интересно?
Сам ношу его одежду – качество топ, очень доволен! 💯🔥
📸 На фото 👇👇👇– примеры его работы для известного турнира по теннису ATP Tour. Так что если вашей компании тоже нужна крутая брендированная одежда, пишите, свяжу вас! 📩
Как, лазая по чатам перед сном, познать Бога? 😅
Лазил перед сном по чатам и наткнулся на простое и, на мой взгляд, гениальнейшее определение Бога у @mathinggoesinsane:
👉 Бог – это всё, что мы (пока) не можем объяснить.
А ведь с этим определением не поспорят ни верующие, ни атеисты, ни агностики, верно? 🤔
Да, Егор, я немного подредактировал твою цитату – убрал восклицательный знак после "пока". Иными словами, убрал намёки на непроверенные факты. Ведь неочевидно, сможем ли мы когда-либо объяснить абсолютно всё, так что лучше оставить пространство для размышлений.
Вообще, это напомнило мне один совет, который я когда-то услышал от крутого математика: всё, что не можешь доказать – выноси в определения. Доказать мы, ясное дело, можем далеко не всё (см. теорему Гёделя о неполноте формальных систем 📚), но двигаться дальше в понимании мира как-то надо.
Так что всё, что не можем доказать – объявляем определением! 🤷♂️ И вот, кажется, определение Бога найдено, которое устроит всех. Ну или почти всех. 😆
P.S. Кстати, рекомендую каналы Егора – мне они кажутся почти гениальными. моё личное мнение, мне по крайней мере нравятся очень!
📌 @sickandtiredofexistance
📌 @D-dmTHxCiRE1MTQx
Лазил перед сном по чатам и наткнулся на простое и, на мой взгляд, гениальнейшее определение Бога у @mathinggoesinsane:
👉 Бог – это всё, что мы (пока) не можем объяснить.
А ведь с этим определением не поспорят ни верующие, ни атеисты, ни агностики, верно? 🤔
Да, Егор, я немного подредактировал твою цитату – убрал восклицательный знак после "пока". Иными словами, убрал намёки на непроверенные факты. Ведь неочевидно, сможем ли мы когда-либо объяснить абсолютно всё, так что лучше оставить пространство для размышлений.
Вообще, это напомнило мне один совет, который я когда-то услышал от крутого математика: всё, что не можешь доказать – выноси в определения. Доказать мы, ясное дело, можем далеко не всё (см. теорему Гёделя о неполноте формальных систем 📚), но двигаться дальше в понимании мира как-то надо.
Так что всё, что не можем доказать – объявляем определением! 🤷♂️ И вот, кажется, определение Бога найдено, которое устроит всех. Ну или почти всех. 😆
P.S. Кстати, рекомендую каналы Егора – мне они кажутся почти гениальными. моё личное мнение, мне по крайней мере нравятся очень!
📌 @sickandtiredofexistance
📌 @D-dmTHxCiRE1MTQx
Telegram
экстравагантные эссе с филигранной тонкостью мысли
маяк безыдейности (тут много буковок)
❤1
Forwarded from for all x, y, z
В Японии есть сайт, посвящённый числу Пи, доменное имя которого состоит из первых 65 цифр числа Пи:
3.141592653589793238462643383279502884197169399375105820974944592.jp
Говорят, если дождаться окончания загрузки страницы, то покажут аниме.
#математика #юмор #число_Пи
3.141592653589793238462643383279502884197169399375105820974944592.jp
Говорят, если дождаться окончания загрузки страницы, то покажут аниме.
#математика #юмор #число_Пи
🔥 14 марта — день, когда вселенная решила пошутить!
Пишу с опозданием, но мимо пройти не могу.
14 марта я уже писал про День числа Пи — бесконечное число, которое путает умы.
Но, как оказалось, этот день намного богаче на события!
В этот день родились сразу три вселенских явления:
🧠 Альберт Эйнштейн — человек, который приручил пространство и время.
🥧 Число Пи — бесконечная головоломка для всех математиков.
😏 Саша Грей — девушка, которая оставила свой след в культуре. И тоже, кстати, внесла свой вклад в исследование человеческих границ... в своих сферах.
В общем, 14.03 — день, когда рождаются либо гении, либо бесконечные числа, либо те, кто знает, что делать с бесконечным вниманием.
👇👇👇
Пишу с опозданием, но мимо пройти не могу.
14 марта я уже писал про День числа Пи — бесконечное число, которое путает умы.
Но, как оказалось, этот день намного богаче на события!
В этот день родились сразу три вселенских явления:
🧠 Альберт Эйнштейн — человек, который приручил пространство и время.
🥧 Число Пи — бесконечная головоломка для всех математиков.
😏 Саша Грей — девушка, которая оставила свой след в культуре. И тоже, кстати, внесла свой вклад в исследование человеческих границ... в своих сферах.
В общем, 14.03 — день, когда рождаются либо гении, либо бесконечные числа, либо те, кто знает, что делать с бесконечным вниманием.
👇👇👇
Сегодня вечером после работы сел запустить обучение языковой модели с нуля на текстах из Википедии.
Пока обучение идёт не слишком успешно — модель, кажется, быстро переобучается. Данных много, обучение занимает много-много часов (или даже суток), но уже видно: модель отлично запоминает обучающие данные (train loss стремительно падает), а вот eval loss — то есть способность модели обобщать знания и работать с новыми, ранее невиданными текстами — снижается гораздо медленнее.
Что это значит? Когда train loss падает быстро, а eval loss (validation loss) почти не двигается, это явный сигнал: модель начинает запоминать тренировочные примеры, но не учится извлекать из них универсальные закономерности. То есть модель плохо генерализирует.
Причины могут быть разные: архитектура слишком мощная для объёма данных, learning rate неудачно подобран, нужно больше регуляризации или больше эпох обучения
#LLM #Transformers #AI
Пока обучение идёт не слишком успешно — модель, кажется, быстро переобучается. Данных много, обучение занимает много-много часов (или даже суток), но уже видно: модель отлично запоминает обучающие данные (train loss стремительно падает), а вот eval loss — то есть способность модели обобщать знания и работать с новыми, ранее невиданными текстами — снижается гораздо медленнее.
Что это значит? Когда train loss падает быстро, а eval loss (validation loss) почти не двигается, это явный сигнал: модель начинает запоминать тренировочные примеры, но не учится извлекать из них универсальные закономерности. То есть модель плохо генерализирует.
Причины могут быть разные: архитектура слишком мощная для объёма данных, learning rate неудачно подобран, нужно больше регуляризации или больше эпох обучения
#LLM #Transformers #AI
Для тех, кто не в теме, чем я тут занимаюсь: немного играюсь с языковыми моделями на основе нейросетей.
Принцип работы у них, на самом деле, довольно простой (и забавный): берём кучу текстов, закрываем кусочек предложения и заставляем модель угадать, что там должно быть. Потом открываем — ага, тут угадала, тут промахнулась. Модель подстраивает свои нейронные связи, чтобы в следующий раз ошибаться меньше. И так, круг за кругом, тысячу раз, миллион, миллиард... В итоге — начинает получаться всё лучше.
Что удивительно: я уже видел, как модель с 1.3 миллиарда параметров делает качественный скачок — переходит от банального угадывания морфологии и синтаксиса к пониманию смысла слов в зависимости от контекста. По сути, учится, как ребёнок, только на большом количестве текстов.
И это, на самом деле, каждый раз довольно нетривиально и немного магически выглядит.
Принцип работы у них, на самом деле, довольно простой (и забавный): берём кучу текстов, закрываем кусочек предложения и заставляем модель угадать, что там должно быть. Потом открываем — ага, тут угадала, тут промахнулась. Модель подстраивает свои нейронные связи, чтобы в следующий раз ошибаться меньше. И так, круг за кругом, тысячу раз, миллион, миллиард... В итоге — начинает получаться всё лучше.
Что удивительно: я уже видел, как модель с 1.3 миллиарда параметров делает качественный скачок — переходит от банального угадывания морфологии и синтаксиса к пониманию смысла слов в зависимости от контекста. По сути, учится, как ребёнок, только на большом количестве текстов.
И это, на самом деле, каждый раз довольно нетривиально и немного магически выглядит.
Напоминаю, train-loss - показывает способность искуственной нейросети снижать ошибки в запоминаниеи тренировочных данных а eval-loss - способность снижать ошибки в обобщении на ранее невиданные тексты! Если две кривые ползут одинаково круто вниз, то это - круто! )
Что ещё можно увидеть в больших языковых моделях и миллиардах нейронных связей я вам расскажу на днях )