Трэйн-Лос (Train/loss) показывает как модель адаптируется к текстам, на которых её учат. А Валидэйшн-Лос (eval/loss) показывает как она умеет обобщать свои знания на тексты, которые никогда ещё не видела. Я расскажу про это в своём ултимативном крэш-курсе, который выйдет в нескольких частях скоро. Но это вообще не так всё интересно и скорее скучно, но что проделал и понял - расскажу )
Для чего вам нужны деньги? 🤔💸
Видели этот красивый дашборд 👆👆👆, где я визуализирую процесс обучения нейросеточек, слежу за ошибками и радуюсь красивым графикам? Так вот… теперь либо плати, либо досвидос - your free trial has expired.
Вот оказывается, зачем нужны деньги… Чтобы покупать лицензии на софт! 😅
Нужны ли деньги программистам? Программисты же могут сами себе всё написать! 😆
Только вот пока ты напишешь замену, успеешь:
✅ Прочитать 100500 страниц документации
✅ Настроить окружение, которое сломается через неделю
✅ Починить 10 багов, которые сам же и создал
✅ Потратить месяц на то, что можно было купить за $10
Так что да, программистам деньги тоже нужны. Хотя бы на то, чтобы не писать велосипед, а просто взять и работать! 😅
Видели этот красивый дашборд 👆👆👆, где я визуализирую процесс обучения нейросеточек, слежу за ошибками и радуюсь красивым графикам? Так вот… теперь либо плати, либо досвидос - your free trial has expired.
Вот оказывается, зачем нужны деньги… Чтобы покупать лицензии на софт! 😅
Нужны ли деньги программистам? Программисты же могут сами себе всё написать! 😆
Только вот пока ты напишешь замену, успеешь:
✅ Прочитать 100500 страниц документации
✅ Настроить окружение, которое сломается через неделю
✅ Починить 10 багов, которые сам же и создал
✅ Потратить месяц на то, что можно было купить за $10
Так что да, программистам деньги тоже нужны. Хотя бы на то, чтобы не писать велосипед, а просто взять и работать! 😅
🎭 Смотрели ли вы последнюю экранизацию "Мастера и Маргариты"? Как вам? 🎥
Все же знают, что в кино- и театральных кругах роман Булгакова считается заколдованным – слишком уж сложно его экранизировать или поставить на сцене. Многие режиссёры и, не побоюсь этого слова, продюсеры зубы об него сломали.
А как вы думаете, в чём главные трудности постановки "Мастера и Маргариты"? В чем именно этот роман ускользает от камер и кулис?
Спрашиваю не просто так — есть интересные мысли о роли языка и текста в работе мозга. Но сначала давайте разберёмся с экранизациями!
🔗 Вот свежая попытка:
🎬 Смотреть
Жду ваши мысли! 👀
Все же знают, что в кино- и театральных кругах роман Булгакова считается заколдованным – слишком уж сложно его экранизировать или поставить на сцене. Многие режиссёры и, не побоюсь этого слова, продюсеры зубы об него сломали.
А как вы думаете, в чём главные трудности постановки "Мастера и Маргариты"? В чем именно этот роман ускользает от камер и кулис?
Спрашиваю не просто так — есть интересные мысли о роли языка и текста в работе мозга. Но сначала давайте разберёмся с экранизациями!
🔗 Вот свежая попытка:
🎬 Смотреть
Жду ваши мысли! 👀
YouTube
Мастер и Маргарита — Русский трейлер (2024)
Русский трейлер к сериалу «Мастер и Маргарита» (2024)
Премьера: 25 января 2024
Подробнее: https://www.kinoafisha.info/movies/8365280/
Москва, 1930-е годы. Известный писатель на взлёте своей карьеры внезапно оказывается в центре литературного скандала.…
Премьера: 25 января 2024
Подробнее: https://www.kinoafisha.info/movies/8365280/
Москва, 1930-е годы. Известный писатель на взлёте своей карьеры внезапно оказывается в центре литературного скандала.…
Чтобы не отвлекаться от моих любимых боевых видов спорта (кстати, дата моего следующего боя по боксу пока под вопросом) - вот вам такая вот пока новость 👇👇👇
#НастроеньеПятницы
#НастроеньеПятницы
Forwarded from Новости бокса и ММА
This media is not supported in your browser
VIEW IN TELEGRAM
Какой-то трудяга хотел ограбить седьмого номера рейтинга UFC в легчайшем весе Марлона Веру, но внезапно обнаружил, что пришел с ножом на перестрелку.
Истории (не)успеха (ИИ)ЕИ pinned «2023: Как человек победил машину с помощью другой машины В этом году меня очень интересовали новости искусственного интеллекта (ИИ). Однако одна новость утонула в массе других новостей. Хотя сюжет этой новости довольно любопытный, пусть и не новый, по крайней…»
Это мой девиз следующей недели: любой вид знания есть путь к самопознанию :)
https://www.youtube.com/shorts/qUOkxDmIjS4?feature=share
https://www.youtube.com/shorts/qUOkxDmIjS4?feature=share
YouTube
Школа Брюса Ли #брюсли #бойовімистецтва #школа #самопознание #мотивациянауспех #мотиваціядня #рек
Forwarded from FightSpace
This media is not supported in your browser
VIEW IN TELEGRAM
В марте есть такой денек
С цифрой, словно кренделек.
Кто из вас, ребята, знает,
Цифра что обозначает?
Поздравьте ваших барышень с 8 марта, пацаны!
С цифрой, словно кренделек.
Кто из вас, ребята, знает,
Цифра что обозначает?
Поздравьте ваших барышень с 8 марта, пацаны!
Немного про математическое и, я бы сказал, про вообще научное и даже, может быть, про любое творчество 👇
#МетодыМатематики
#МетодыМатематики
Forwarded from воспоминания математиков
В чем, в самом деле, состоит математическое творчество? Оно заключается не в создании новых комбинаций с помощью уже известных математических объектов. Это может сделать мало ли кто; но число комбинаций, которые можно найти этим путем, было бы бесконечно, и даже самое большое их число не представляло бы ровно никакого интереса. Творчество состоит как раз в том, чтобы не создавать бесполезных комбинаций, а строить такие, которые оказываются полезными; а их ничтожное меньшинство. Творить — это отличать, выбирать.
Как следует производить этот выбор, я объяснил в другом месте; в математике фактами, заслуживающими изучения, являются те, которые ввиду их сходства с другими фактами способны привести нас к открытию какого-нибудь математического закона, совершенно подобно тому, как экспериментальные факты приводят к открытию физического закона. Это именно те факты, которые обнаруживают родство между другими фактами, известными с давних пор, но ошибочно считавшимися чуждыми друг другу. Среди комбинаций, на которые падает выбор, часто наиболее плодотворными оказываются те, элементы которых взяты из наиболее удаленных друг от друга областей. Я не хочу сказать, что для нового открытия достаточно сблизить возможно глубже различающиеся предметы; большинство комбинаций, построенных таким образом, оказались бы совершенно бесплодными; но некоторые, правда, очень немногие из них, бывают наиболее плодотворными.
из книги Анри Пуанкаре "Наука и метод"
Как следует производить этот выбор, я объяснил в другом месте; в математике фактами, заслуживающими изучения, являются те, которые ввиду их сходства с другими фактами способны привести нас к открытию какого-нибудь математического закона, совершенно подобно тому, как экспериментальные факты приводят к открытию физического закона. Это именно те факты, которые обнаруживают родство между другими фактами, известными с давних пор, но ошибочно считавшимися чуждыми друг другу. Среди комбинаций, на которые падает выбор, часто наиболее плодотворными оказываются те, элементы которых взяты из наиболее удаленных друг от друга областей. Я не хочу сказать, что для нового открытия достаточно сблизить возможно глубже различающиеся предметы; большинство комбинаций, построенных таким образом, оказались бы совершенно бесплодными; но некоторые, правда, очень немногие из них, бывают наиболее плодотворными.
из книги Анри Пуанкаре "Наука и метод"
🚀 Планы на следующие двое выходных — всё-таки дописать крэш-курс по большим языковым моделям!
Я выше уже описывал, что именно делаю, и, как человек-визуал (даром что математик), подхожу к этому не с позиции абстрактного умничания, а через наглядные примеры и визуализации.
На днях поигрался с эмбеддингами слов в языковых моделях — прослеживал, как слова и контексты проходят через миллиард нейронных связей. И это оказалось очень неожиданным и крутым!
📌 Что я заметил:
При 1 млрд обучаемых параметров модель начинает качественно переходить от морфологии и лексики — к семантике! Да, уже не просто понимает слова, но и смысл заложенный в контексте!
🔹 Эти примеры (некоторые из них я уже выкладывал в этом чате) будут бенчмарками для моего эксперимента:
Я собираюсь обучить с нуля сравнительно небольшую языковую модель (1 млрд параметров, сейчас тестирую).
⚡️ Крэш-курс делится на три части:
1️⃣ Заглядываем под капот больших языковых моделей, тестируем, визуализируем их механику (это уже есть).
2️⃣ Обнуляем знания модели и учим её заново на текстах, например, Википедии. Будет ли она работать так же круто? 🤔
3️⃣ Своя архитектура трансформеров под эти бенчмарки и примеры.
🔥 В планах три статьи на Хабре. Следите за обновлениями! 😎
#LLM #Transformers #AI
Я выше уже описывал, что именно делаю, и, как человек-визуал (даром что математик), подхожу к этому не с позиции абстрактного умничания, а через наглядные примеры и визуализации.
На днях поигрался с эмбеддингами слов в языковых моделях — прослеживал, как слова и контексты проходят через миллиард нейронных связей. И это оказалось очень неожиданным и крутым!
📌 Что я заметил:
При 1 млрд обучаемых параметров модель начинает качественно переходить от морфологии и лексики — к семантике! Да, уже не просто понимает слова, но и смысл заложенный в контексте!
🔹 Эти примеры (некоторые из них я уже выкладывал в этом чате) будут бенчмарками для моего эксперимента:
Я собираюсь обучить с нуля сравнительно небольшую языковую модель (1 млрд параметров, сейчас тестирую).
⚡️ Крэш-курс делится на три части:
1️⃣ Заглядываем под капот больших языковых моделей, тестируем, визуализируем их механику (это уже есть).
2️⃣ Обнуляем знания модели и учим её заново на текстах, например, Википедии. Будет ли она работать так же круто? 🤔
3️⃣ Своя архитектура трансформеров под эти бенчмарки и примеры.
🔥 В планах три статьи на Хабре. Следите за обновлениями! 😎
#LLM #Transformers #AI
На выходных была и русскоязычная вечеринка в Мюнхене посвященная 8-го марта. Ребята-организаторы - молодцы большие. Я не был, так как я вообще не особо склонен к тусам, но кто любит потусить - рекомендую Диму и Диану как организаторов атмосферных вечеринок в нашей деревне Мухино! Они большие молодцы и может быть и я как-нибудь выберусь на тусу )
Их телеграм-канал тут:
https://t.iss.one/+PiHLs1RGZv0xMjhi
Их телеграм-канал тут:
https://t.iss.one/+PiHLs1RGZv0xMjhi
Telegram
Нам там чат Мюнхена 😈👻🎉🥂🍾
https://t.iss.one/+PiHLs1RGZv0xMjhi
Всем добро пожаловать!
Чат для общения, совместных мероприятий в реале, знакомств и интеграции новоприбывших в Мюнхене!
Лёгкий троллинг порой имеет место быть, не пугайтесь! :)
Мы на самом деле ещё хуже, чем о нас говорят!
Всем добро пожаловать!
Чат для общения, совместных мероприятий в реале, знакомств и интеграции новоприбывших в Мюнхене!
Лёгкий троллинг порой имеет место быть, не пугайтесь! :)
Мы на самом деле ещё хуже, чем о нас говорят!
Вот уже давно этого ждал, computational consciousness - это тема! 👇👇👇