Истории (не)успеха (ИИ)ЕИ
418 subscribers
158 photos
87 videos
2 files
227 links
Просто о математике, нейросетях, программировании, спорте, политике, культуре. Общение, контакты, международные онлайн дискуссии/лекции в формате лайвстрим, встречи на спорт в Мюнхене.
Download Telegram
Forwarded from человек наук
Сегодня – день числа Пи! 14 марта записывается как 3.14 и поэтому считается праздником самой знаменитой математической константы. А ещё на английском Пи произносится как «пай», что созвучно со словом «pie» – пирог. Поэтому в этот день принято печь Пироги. Никаких правил нет, рецепт может быть любым. Но на верх обычно помещают греческую букву Пи

#математика@chelovek_nauk
👍2
Друзья, вот и в этом чате появилась реклама… 😅

Но не спешите листать дальше – я за неё ничего не получаю (что, конечно, возмутительно! 😂), просто хочу помочь хорошему человеку.

Мой товарищ занимается не просто печатью логотипов, а производством стильной и качественной корпоративной одежды на заказ – от дизайна до пошива. Это Sonderanfertigung с кастомным дизайном 🧵✂️, а не просто стандартные футболки с принтом.

Если в вашей компании нужны футболки, пуловеры, кепки или другая одежда с логотипом вашей компании и уникальным дизайном 👕🎨 – дайте знать! Он работает только с оптовыми заказами для бизнеса.

👉 Спросите пожалуйста на работе, может вашей компании это интересно?

Сам ношу его одежду – качество топ, очень доволен! 💯🔥

📸 На фото 👇👇👇– примеры его работы для известного турнира по теннису ATP Tour. Так что если вашей компании тоже нужна крутая брендированная одежда, пишите, свяжу вас! 📩
👆👆👆
Как, лазая по чатам перед сном, познать Бога? 😅

Лазил перед сном по чатам и наткнулся на простое и, на мой взгляд, гениальнейшее определение Бога у @mathinggoesinsane:

👉 Бог – это всё, что мы (пока) не можем объяснить.

А ведь с этим определением не поспорят ни верующие, ни атеисты, ни агностики, верно? 🤔

Да, Егор, я немного подредактировал твою цитату – убрал восклицательный знак после "пока". Иными словами, убрал намёки на непроверенные факты. Ведь неочевидно, сможем ли мы когда-либо объяснить абсолютно всё, так что лучше оставить пространство для размышлений.

Вообще, это напомнило мне один совет, который я когда-то услышал от крутого математика: всё, что не можешь доказать – выноси в определения. Доказать мы, ясное дело, можем далеко не всё (см. теорему Гёделя о неполноте формальных систем 📚), но двигаться дальше в понимании мира как-то надо.

Так что всё, что не можем доказать – объявляем определением! 🤷‍♂️ И вот, кажется, определение Бога найдено, которое устроит всех. Ну или почти всех. 😆

P.S. Кстати, рекомендую каналы Егора – мне они кажутся почти гениальными. моё личное мнение, мне по крайней мере нравятся очень!

📌 @sickandtiredofexistance
📌 @D-dmTHxCiRE1MTQx
1
Forwarded from for all x, y, z
В Японии есть сайт, посвящённый числу Пи, доменное имя которого состоит из первых 65 цифр числа Пи:

3.141592653589793238462643383279502884197169399375105820974944592.jp

Говорят, если дождаться окончания загрузки страницы, то покажут аниме.

#математика #юмор #число_Пи
🔥 14 марта — день, когда вселенная решила пошутить!

Пишу с опозданием, но мимо пройти не могу.
14 марта я уже писал про День числа Пи — бесконечное число, которое путает умы.
Но, как оказалось, этот день намного богаче на события!

В этот день родились сразу три вселенских явления:

🧠 Альберт Эйнштейн — человек, который приручил пространство и время.

🥧 Число Пи — бесконечная головоломка для всех математиков.

😏 Саша Грей — девушка, которая оставила свой след в культуре. И тоже, кстати, внесла свой вклад в исследование человеческих границ... в своих сферах.

В общем, 14.03 — день, когда рождаются либо гении, либо бесконечные числа, либо те, кто знает, что делать с бесконечным вниманием.

👇👇👇
Сегодня вечером после работы сел запустить обучение языковой модели с нуля на текстах из Википедии.

Пока обучение идёт не слишком успешно — модель, кажется, быстро переобучается. Данных много, обучение занимает много-много часов (или даже суток), но уже видно: модель отлично запоминает обучающие данные (train loss стремительно падает), а вот eval loss — то есть способность модели обобщать знания и работать с новыми, ранее невиданными текстами — снижается гораздо медленнее.

Что это значит? Когда train loss падает быстро, а eval loss (validation loss) почти не двигается, это явный сигнал: модель начинает запоминать тренировочные примеры, но не учится извлекать из них универсальные закономерности. То есть модель плохо генерализирует.

Причины могут быть разные: архитектура слишком мощная для объёма данных, learning rate неудачно подобран, нужно больше регуляризации или больше эпох обучения

#LLM #Transformers #AI
Хотя, после 300 шагов - ещё не показатель, поглядим, что будет дальше...🤔
Для тех, кто не в теме, чем я тут занимаюсь: немного играюсь с языковыми моделями на основе нейросетей.

Принцип работы у них, на самом деле, довольно простой (и забавный): берём кучу текстов, закрываем кусочек предложения и заставляем модель угадать, что там должно быть. Потом открываем — ага, тут угадала, тут промахнулась. Модель подстраивает свои нейронные связи, чтобы в следующий раз ошибаться меньше. И так, круг за кругом, тысячу раз, миллион, миллиард... В итоге — начинает получаться всё лучше.

Что удивительно: я уже видел, как модель с 1.3 миллиарда параметров делает качественный скачок — переходит от банального угадывания морфологии и синтаксиса к пониманию смысла слов в зависимости от контекста. По сути, учится, как ребёнок, только на большом количестве текстов.

И это, на самом деле, каждый раз довольно нетривиально и немного магически выглядит.
Напоминаю, train-loss - показывает способность искуственной нейросети снижать ошибки в запоминаниеи тренировочных данных а eval-loss - способность снижать ошибки в обобщении на ранее невиданные тексты! Если две кривые ползут одинаково круто вниз, то это - круто! )
Что ещё можно увидеть в больших языковых моделях и миллиардах нейронных связей я вам расскажу на днях )