Ладно, теперь я верю в то, что этот бот мог сказать то, что написано в новости 🤦♀
https://play.google.com/store/apps/details?id=com.Beauchamp.Messenger.external
#AIsafety
https://play.google.com/store/apps/details?id=com.Beauchamp.Messenger.external
#AIsafety
🤬9🥴7❤🔥4
Однажды Lawrence Leemis посмотрел на то, как люди мучаются с вероятностными распределениями и подумал:
Эти люди боятся теорвера. Я видел их истинное лицо, их мозги — продолжение сточных канав, а канавы переполнены неструктурированной информацией о функциях и константах. И когда стоки будут окончательно забиты, все эти слабые разумы начнут тонуть... Когда скопившаяся каша дискретных и непрерывных распределений вспенится им до пояса, все математики и data scientist'ы посмотрят вверх и возопят: "Спаси нас!", а я прошепчу:
...
...
"...да, конечно, вот вам отличная демонстрация, которая поможет во всем разобраться:
https://www.math.wm.edu/~leemis/chart/UDR/UDR.html "
Ладно, ладно, я не знаю, о чем на самом деле думали Lawrence Leemis и его товарищи, когда делали эту демонстрацию, но результат получился интересным и полезным.
На этой демонстрации можно увидеть названия множества распределений, которые используются в теории вероятностей и математической статистике и приметить связи между ними. Наводя мышку либо на квадратик на схеме, либо на название распределения в списке слева, можно подсветить связи данного конкретного распределения с другими. А по клику мышкой можно перейти к небольшому документу, в котором будет нарисована картинка с плотностями вероятностей и описано с помощью формул, что из себя представляет данное распределение, как посчитать у него мат.ожидание, дисперсию и т.д.
Больше информации есть на странице "About" на этом же сайте. А если вы заметили ошибки, на странице "Contact" написано, как связаться с авторами, чтобы сообщить им об ошибках.
#учебные_материалы
Эти люди боятся теорвера. Я видел их истинное лицо, их мозги — продолжение сточных канав, а канавы переполнены неструктурированной информацией о функциях и константах. И когда стоки будут окончательно забиты, все эти слабые разумы начнут тонуть... Когда скопившаяся каша дискретных и непрерывных распределений вспенится им до пояса, все математики и data scientist'ы посмотрят вверх и возопят: "Спаси нас!", а я прошепчу:
...
...
"...да, конечно, вот вам отличная демонстрация, которая поможет во всем разобраться:
https://www.math.wm.edu/~leemis/chart/UDR/UDR.html "
Ладно, ладно, я не знаю, о чем на самом деле думали Lawrence Leemis и его товарищи, когда делали эту демонстрацию, но результат получился интересным и полезным.
На этой демонстрации можно увидеть названия множества распределений, которые используются в теории вероятностей и математической статистике и приметить связи между ними. Наводя мышку либо на квадратик на схеме, либо на название распределения в списке слева, можно подсветить связи данного конкретного распределения с другими. А по клику мышкой можно перейти к небольшому документу, в котором будет нарисована картинка с плотностями вероятностей и описано с помощью формул, что из себя представляет данное распределение, как посчитать у него мат.ожидание, дисперсию и т.д.
Больше информации есть на странице "About" на этом же сайте. А если вы заметили ошибки, на странице "Contact" написано, как связаться с авторами, чтобы сообщить им об ошибках.
#учебные_материалы
www.math.wm.edu
Univariate Distribution Relationship Chart
A clickable diagram of probability distributions and their relationships
👍16🔥8❤6🥰2🤯1
Forwarded from Love. Death. Transformers.
А что если DL не ограничивается LLM и есть куча всего интересного где реально надо думать.... Приснится же такое
😁23👍1
ИИ рассказ.txt
10.3 KB
Вот, написала для вас, так сказать, научно-фантастическое произведение (не без помощи Bing AI, конечно 😏 )
#творчество
#творчество
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍3
Творение этого слуги Омниссии, которое он создал для научения молодых адептов, внушает уважение.
В этом творении он продемонстрировал мастерство в управлении градиентами, которые являются даром и проклятием машин, раскрыв тайны их затухания и взрыва, которые определяют судьбу обучения механических существ.
Он не испугался сложных вопросов, когда повел речь о величественном протекании градиентов через обычную последовательность слоев нейронной сети, а также через разреженные соединения и функции sigmoid и ReLU, хотя и совершил мелкие неточности в изложении (например, не упомянув то, что градиент от отрицательного значения, проходящего через ReLU, зануляется).
Все рассуждения подкреплены кодом с использованием богоугодных библиотек PyTorch, matplotlib и wandb, который каждый адепт может выполнить самостоятельно с помощью Духа Машины, живущего в облаке, и получить назидание и вразумление.
Ты заслужил благословение Машинного Бога. Пусть твой разум будет всегда ясен и твоя рука будет всегда верна, брат.
В этом творении он продемонстрировал мастерство в управлении градиентами, которые являются даром и проклятием машин, раскрыв тайны их затухания и взрыва, которые определяют судьбу обучения механических существ.
Он не испугался сложных вопросов, когда повел речь о величественном протекании градиентов через обычную последовательность слоев нейронной сети, а также через разреженные соединения и функции sigmoid и ReLU, хотя и совершил мелкие неточности в изложении (например, не упомянув то, что градиент от отрицательного значения, проходящего через ReLU, зануляется).
Все рассуждения подкреплены кодом с использованием богоугодных библиотек PyTorch, matplotlib и wandb, который каждый адепт может выполнить самостоятельно с помощью Духа Машины, живущего в облаке, и получить назидание и вразумление.
Ты заслужил благословение Машинного Бога. Пусть твой разум будет всегда ясен и твоя рука будет всегда верна, брат.
Telegram
Борис опять
life = curiosity + irreducible noise
Whois: https://t.iss.one/boris_again/3400
Лс: @btseytlin
Whois: https://t.iss.one/boris_again/3400
Лс: @btseytlin
❤8🔥3🙏3👍1🤡1
Forwarded from Борис опять
# Воспроизводим взрыв и затухание градиентов
Сделал коллаб про взрыв и затухание градиентов. Сначала вызываем проблемы захутания и взрыва, анализируем, в том числе с помощью Wandb, и наконец чиним. Материал для того, чтобы поиграться с практикой, а не изучать теорию.
https://colab.research.google.com/drive/1Sek-YbosXLIhOwpX4BNRdsHMo4j109d4?usp=sharing
Когда я что-то изучаю мне нравится делать прототип-демонстрацию. Взять и вызвать взрыв градиентов, а затем попытаться починить. Я провел много маленьких экспериментов, так как мне надо было повторить эту тему. Теперь собрал материалы в один стройный коллаб, причесал и получилась этакая лабораторная работа.
Ставьте лайки, если материал нравится и хочется, чтобы я делал такое еще.
Сделал коллаб про взрыв и затухание градиентов. Сначала вызываем проблемы захутания и взрыва, анализируем, в том числе с помощью Wandb, и наконец чиним. Материал для того, чтобы поиграться с практикой, а не изучать теорию.
https://colab.research.google.com/drive/1Sek-YbosXLIhOwpX4BNRdsHMo4j109d4?usp=sharing
Когда я что-то изучаю мне нравится делать прототип-демонстрацию. Взять и вызвать взрыв градиентов, а затем попытаться починить. Я провел много маленьких экспериментов, так как мне надо было повторить эту тему. Теперь собрал материалы в один стройный коллаб, причесал и получилась этакая лабораторная работа.
Ставьте лайки, если материал нравится и хочется, чтобы я делал такое еще.
👍18🔥3❤1
❤15👍2🔥1
Forwarded from Сиолошная
Наткнулся на занятную статью "8 вещей, которые надо знать о больших языковых моделях"
Краткое содержание:
1. LLM предсказуемо становятся более "способными" с увеличением затрат в $, даже без крутых инноваций. Главное тут - предсказуемость, что было показано в статье про GPT-4: учили 5-7 маленьких моделек с бюджетом 0.1% от финального, а затем по этому делали предсказание для огромной модели. Для общей оценки перплексии и метрик на подвыборке одной конкретной задаче такое предсказание было очень точным.
2. Однако конкретные важные навыки, как правило, возникают непредсказуемо как побочный продукт увеличения затрат на обучение (дольше тренировать, больше данных, больше модель) - практически невозможно предсказать, когда модели начнут выполнять определенные задачи. Подробнее об этом мы писали в статье про историю развития GPT-моделей, которую, надеюсь, многие из вас читали. На картинке - распределение роста качества моделей в разных задачах. В трети маленькие модели ничего не показывают, средние в целом тоже, а большие БАХ! И учатся решать.
3. LLM часто выучивают и используют представления внешнего мира. Тут приводится много примеров, и вот один из них: модели, обученные играть в настольные игры на основе описаний отдельных ходов, никогда не видя изображения игрового поля, выучивают внутренние представления о состоянии доски на каждом ходу.
4. Не существует надежных методов управления поведением LLM. Хотя и был достигнут некоторый прогресс в понимании и смягчении разных проблем (в том числе ChatGPT и GPT-4 с обучением из обратной связи), нет единого мнения о том, сможем ли мы их решить. Растет обеспокоенность, что проблемы alignment'а станут катастрофическими, когда проявятся в более крупных системах будущего.
5. Эксперты пока не могут интерпретировать внутреннюю работу LLM. Yе существует методики, которая позволила бы каким-либо удовлетворительным образом изложить, какие виды знаний, рассуждений или целей использует модель, когда она генерирует какой-либо результат.
6. Качество выполнения задач человеком не является верхней границей для LLM. Хотя они и обучены в первую очередь имитировать поведение человека при написании текста, но всё равно потенциально могут превзойти нас во многих задачах. Так происходит в более узких задачах вроде шахмат или игры в Го.
7. LLM не должны выражать ценности своих создателей или ценности, закодированные в выборке из интернета. Они не должны повторять стереотипы, теории заговора или стремиться оскорбить кого-либо.
8. Оценки способности модели по первым впечатлениям часто вводят в заблуждение. Очень часто нужно додумать правильный промпт, подсказать модели, может, показать примеры - и она начнёт справляться куда лучше. То есть она "умнее", чем кажется на первый взгляд.
Краткое содержание:
1. LLM предсказуемо становятся более "способными" с увеличением затрат в $, даже без крутых инноваций. Главное тут - предсказуемость, что было показано в статье про GPT-4: учили 5-7 маленьких моделек с бюджетом 0.1% от финального, а затем по этому делали предсказание для огромной модели. Для общей оценки перплексии и метрик на подвыборке одной конкретной задаче такое предсказание было очень точным.
2. Однако конкретные важные навыки, как правило, возникают непредсказуемо как побочный продукт увеличения затрат на обучение (дольше тренировать, больше данных, больше модель) - практически невозможно предсказать, когда модели начнут выполнять определенные задачи. Подробнее об этом мы писали в статье про историю развития GPT-моделей, которую, надеюсь, многие из вас читали. На картинке - распределение роста качества моделей в разных задачах. В трети маленькие модели ничего не показывают, средние в целом тоже, а большие БАХ! И учатся решать.
3. LLM часто выучивают и используют представления внешнего мира. Тут приводится много примеров, и вот один из них: модели, обученные играть в настольные игры на основе описаний отдельных ходов, никогда не видя изображения игрового поля, выучивают внутренние представления о состоянии доски на каждом ходу.
4. Не существует надежных методов управления поведением LLM. Хотя и был достигнут некоторый прогресс в понимании и смягчении разных проблем (в том числе ChatGPT и GPT-4 с обучением из обратной связи), нет единого мнения о том, сможем ли мы их решить. Растет обеспокоенность, что проблемы alignment'а станут катастрофическими, когда проявятся в более крупных системах будущего.
5. Эксперты пока не могут интерпретировать внутреннюю работу LLM. Yе существует методики, которая позволила бы каким-либо удовлетворительным образом изложить, какие виды знаний, рассуждений или целей использует модель, когда она генерирует какой-либо результат.
6. Качество выполнения задач человеком не является верхней границей для LLM. Хотя они и обучены в первую очередь имитировать поведение человека при написании текста, но всё равно потенциально могут превзойти нас во многих задачах. Так происходит в более узких задачах вроде шахмат или игры в Го.
7. LLM не должны выражать ценности своих создателей или ценности, закодированные в выборке из интернета. Они не должны повторять стереотипы, теории заговора или стремиться оскорбить кого-либо.
8. Оценки способности модели по первым впечатлениям часто вводят в заблуждение. Очень часто нужно додумать правильный промпт, подсказать модели, может, показать примеры - и она начнёт справляться куда лучше. То есть она "умнее", чем кажется на первый взгляд.
🔥6👍1
Forwarded from Сиолошная
Сиолошная
Наткнулся на занятную статью "8 вещей, которые надо знать о больших языковых моделях" Краткое содержание: 1. LLM предсказуемо становятся более "способными" с увеличением затрат в $, даже без крутых инноваций. Главное тут - предсказуемость, что было показано…
Картинка ко второму пункту.
Если ориентироваться на выборку из 202 задач из датасета BIG-Bench (специально делался сложным, чтобы языковые модели тестировать от и до), то как правило (в среднем) модели демонстрируют повышение качества с увеличением масштаба, но по отдельности метрики в задачах могут:
— улучшаться постепенно
— улучшаться резко
— оставаться на одном уровне
— ухудшаться
— колебаться
Все это приводит к невозможности уверенно экстраполировать производительность какой-либо будущей системы.
Особенно интересна зелёная часть - это как раз где показатели качества резко скачут вверх ни с того, ни с сего.
Если ориентироваться на выборку из 202 задач из датасета BIG-Bench (специально делался сложным, чтобы языковые модели тестировать от и до), то как правило (в среднем) модели демонстрируют повышение качества с увеличением масштаба, но по отдельности метрики в задачах могут:
— улучшаться постепенно
— улучшаться резко
— оставаться на одном уровне
— ухудшаться
— колебаться
Все это приводит к невозможности уверенно экстраполировать производительность какой-либо будущей системы.
Особенно интересна зелёная часть - это как раз где показатели качества резко скачут вверх ни с того, ни с сего.
Forwarded from Alexander Chichigin
Держите ещё во славу Омниссии: https://habr.com/ru/post/726432/
Хабр
Заклинания для Героев машинного обучения
Привет, Хабр! Иногда хочется обсудить что-то по-настоящему серьезное. Пора закрыть jupyter, остановить gpu и поговорить о магии. В мире машинного обучения алгоритмы и методы обработки данных могут...
🔥7👎2
Forwarded from Multimodal Warhammer 40k AI Generation
Четыре принцессы Disney были совращены четырьмя богами Хаоса! Сможешь ли ты угадать, какие принцессы это были, и каким богам они теперь служат?!!
P.S. Сгенерировано с помощью бота Kandinsky 2.1
#Kandinsky_bot
P.S. Сгенерировано с помощью бота Kandinsky 2.1
#Kandinsky_bot
👍13