#интересно
Появилась тенденция кроме своего резюме на персональный сайт выкладывать ещё и развёрнутое описание научных интересов. Иногда его оформляют в виде статьи:
https://epsilon-lee.github.io/static/Research_Interests_and_Statement_glli2020.pdf
Появилась тенденция кроме своего резюме на персональный сайт выкладывать ещё и развёрнутое описание научных интересов. Иногда его оформляют в виде статьи:
https://epsilon-lee.github.io/static/Research_Interests_and_Statement_glli2020.pdf
🤔7👍2
#интересно
Выложены зарплаты руководителей и их замов учреждений, которые подчинены Минобрнауки (в принципе, их можно и по налоговым декларациям восстановить - они также в свободном доступе). Я сначала написал развёрнутый комментарий - что тут интересного, но потом подумал, что опять кто-то что-то посчитает некорректным, поэтому ограничусь только маленьким замечанием. Когда видите, что, например, ректор ИТМО получает больше 1 млн. в месяц, помните, что в ИТМО много внешних договоров (вместе с МФТИ они лидеры по привлечению этих средств, я давал ссылку выше). А самое интересное тут дисперсии зарплат в рамках отдельных учреждений;)
https://www.minobrnauki.gov.ru/documents/?ELEMENT_ID=51168
Выложены зарплаты руководителей и их замов учреждений, которые подчинены Минобрнауки (в принципе, их можно и по налоговым декларациям восстановить - они также в свободном доступе). Я сначала написал развёрнутый комментарий - что тут интересного, но потом подумал, что опять кто-то что-то посчитает некорректным, поэтому ограничусь только маленьким замечанием. Когда видите, что, например, ректор ИТМО получает больше 1 млн. в месяц, помните, что в ИТМО много внешних договоров (вместе с МФТИ они лидеры по привлечению этих средств, я давал ссылку выше). А самое интересное тут дисперсии зарплат в рамках отдельных учреждений;)
https://www.minobrnauki.gov.ru/documents/?ELEMENT_ID=51168
Министерство науки и высшего образования Российской Федерации
Документы
Министерство науки и высшего образования Российской Федерации осуществляет функции по выработке и реализации государственной политики и нормативно-правовому регулированию в сфере высшего образования, а также функции по нормативно-правовому регулированию и…
👍22
#интересно
Ещё из чудес генеративных моделей, о которых пока не писали в других телеграм-каналах. Вот музыка, сгенерированная с помощью Permutation Invariant Language: https://youtu.be/ikmgqp3V7k8
Интересно, что результат подвергли критике из-за сходства с этой композицией: https://youtu.be/9kSf8w28Fs4
Возможно, просто использовался prompt из последней. Кроме того, отмечают, что на музыку это никак не похоже (хотя как фоновая в фильме слышится вполне неплохо).
Статью можно найти здесь: https://arxiv.org/abs/2205.05448
А код здесь: https://github.com/symphonynet/SymphonyNet
Ещё из чудес генеративных моделей, о которых пока не писали в других телеграм-каналах. Вот музыка, сгенерированная с помощью Permutation Invariant Language: https://youtu.be/ikmgqp3V7k8
Интересно, что результат подвергли критике из-за сходства с этой композицией: https://youtu.be/9kSf8w28Fs4
Возможно, просто использовался prompt из последней. Кроме того, отмечают, что на музыку это никак не похоже (хотя как фоновая в фильме слышится вполне неплохо).
Статью можно найти здесь: https://arxiv.org/abs/2205.05448
А код здесь: https://github.com/symphonynet/SymphonyNet
YouTube
SymphonyNet Video Demonstration
Symphony Generation with Permutation Invariant Language Model
👍6
#интересно
Нашёл сегодня такой скатер-плот. Интересно, что тут есть противоречия с моим опытом и интуицией, но не с потолка же его взяли...
Нашёл сегодня такой скатер-плот. Интересно, что тут есть противоречия с моим опытом и интуицией, но не с потолка же его взяли...
🤔24👍5
#интересно
ОзонМастерса больше нет, но о некоторых недоделанных проектах можно написать... мало, кто знает, что у ОМ и Юрия Дорна не так давно появился подкаст "Рандомные дрова", и хотя успел выйти всего один выпуск "DS изнутри. Рассказываем как начать, куда расти и чего ожидать на карьерном пути датасаентиста", но он довольно интересный и гости хорошие;)
https://music.yandex.ru/album/22354556?dir=desc&activeTab=about
ОзонМастерса больше нет, но о некоторых недоделанных проектах можно написать... мало, кто знает, что у ОМ и Юрия Дорна не так давно появился подкаст "Рандомные дрова", и хотя успел выйти всего один выпуск "DS изнутри. Рассказываем как начать, куда расти и чего ожидать на карьерном пути датасаентиста", но он довольно интересный и гости хорошие;)
https://music.yandex.ru/album/22354556?dir=desc&activeTab=about
Яндекс Музыка
Рандомные дрова
Рандомные дрова – это подкаст о Data Science и Data аналитике.
Ведущие Ван Хачатрян (Head of ML... • Подкаст • 686 подписчиков
Ведущие Ван Хачатрян (Head of ML... • Подкаст • 686 подписчиков
👍57🔥14🥰2🤮1
#интересно
Нашёл тут перевод hinge loss как петлевой. И в данном случае такой дословный перевод, на мой взгляд, не совсем удачен. В английском языке слово hinge имеет значение петля в смысле "крепление дверей и окон", в разрезе это приспособление напоминает соответствующую функцию. У нас слово "петля" ассоциируется в первую очередь с "петлёй для висельника", во вторую - с "мёртвой петлёй" (можете провести эксперимент, опросив знакомых). Если вбить в гугл-картинки "петлевой", то в первой сотне не будет чего-то похожего на соответствующую функцию.
Нашёл тут перевод hinge loss как петлевой. И в данном случае такой дословный перевод, на мой взгляд, не совсем удачен. В английском языке слово hinge имеет значение петля в смысле "крепление дверей и окон", в разрезе это приспособление напоминает соответствующую функцию. У нас слово "петля" ассоциируется в первую очередь с "петлёй для висельника", во вторую - с "мёртвой петлёй" (можете провести эксперимент, опросив знакомых). Если вбить в гугл-картинки "петлевой", то в первой сотне не будет чего-то похожего на соответствующую функцию.
👍28🤔3
#интересно
Кстати про мемы (вообще говоря, не связанные с ML), нашёл мало кому известный канал, в котором описывается, что взято за основу мема (большей частью про картины). Наверняка, есть другие специализированные ресурсы, объясняющие мемы (можно написать в комментариях).
Кстати про мемы (вообще говоря, не связанные с ML), нашёл мало кому известный канал, в котором описывается, что взято за основу мема (большей частью про картины). Наверняка, есть другие специализированные ресурсы, объясняющие мемы (можно написать в комментариях).
🔥18👍9💩4
#интересно
Вот какой MNIST "сложный" датасет! Столько лет понадобилось, чтобы превзойти точность человека. График - доработка графика из этой статьи.
Вот какой MNIST "сложный" датасет! Столько лет понадобилось, чтобы превзойти точность человека. График - доработка графика из этой статьи.
💩15😁9👍1🤔1
#интересно
Любопытный факт: как появились лотереи. Из книги (кстати, очень хорошей) Джордана Элленберга «Как не ошибаться. Сила математического мышления»
Любопытный факт: как появились лотереи. Из книги (кстати, очень хорошей) Джордана Элленберга «Как не ошибаться. Сила математического мышления»
🔥62👍16🤔4
#интересно
В прошлом месяце фейсбук выпустил новую "болталку" - BlenderBot 3 (доступна в США). Об этом уже многие писали, но пропустили одну фишку, которая мне понравилась. Бот состоит из модулей, каждый из которых решает определённую задачу. Например, есть модуль определения, нужно ли гуглить в интернете, чтобы ответить на вопрос пользователя. Есть модуль, который составляет запрос и гуглит. Такой же механизм применяется для определения: нужно ли что-то сохранять в память, что сохранять, нужно ли читать из памяти и что читать. А теперь самое интересное: при беседе можно понять, почему был дан такой ответ: какие модули были задействованы и как (пример на рисунке).
В целом, это неплохая идея для интерпретации сложных моделей: разбивать их на понятные блоки и показывать их функциональность по запросу.
В прошлом месяце фейсбук выпустил новую "болталку" - BlenderBot 3 (доступна в США). Об этом уже многие писали, но пропустили одну фишку, которая мне понравилась. Бот состоит из модулей, каждый из которых решает определённую задачу. Например, есть модуль определения, нужно ли гуглить в интернете, чтобы ответить на вопрос пользователя. Есть модуль, который составляет запрос и гуглит. Такой же механизм применяется для определения: нужно ли что-то сохранять в память, что сохранять, нужно ли читать из памяти и что читать. А теперь самое интересное: при беседе можно понять, почему был дан такой ответ: какие модули были задействованы и как (пример на рисунке).
В целом, это неплохая идея для интерпретации сложных моделей: разбивать их на понятные блоки и показывать их функциональность по запросу.
🔥35👍12❤1🤔1
#интересно
По поводу последней задачи (раз уж она вызвала столько комментариев). Я тут подумал и решил, что всё портит этот самый линейный порядок. Если изменить условие: когда капитан отправляется за борт, новый капитан назначается случайно, то задача становится чуть интереснее, а ответ естественнее (в жизни так и делают).
По поводу последней задачи (раз уж она вызвала столько комментариев). Я тут подумал и решил, что всё портит этот самый линейный порядок. Если изменить условие: когда капитан отправляется за борт, новый капитан назначается случайно, то задача становится чуть интереснее, а ответ естественнее (в жизни так и делают).
👍8
#интересно
В дискретной оптимизации модно брать какие-то идеи из природы и создавать очередную версию стохастической оптимизации с экзотическим названием. Так когда-то появились генетические и муравьиные алгоритмы. Есть такая команда: Дхиман, Куман и сотоварищи, которые особенно преуспели в этом. У них более 20 разных "природных алгоритмов", например
- Оптимизатор пятнистой гиены
- Оптимизатор чайки
- Оптимизатор императорского пингвина
- [свежее] Крысиный оптимизатор
В дискретной оптимизации модно брать какие-то идеи из природы и создавать очередную версию стохастической оптимизации с экзотическим названием. Так когда-то появились генетические и муравьиные алгоритмы. Есть такая команда: Дхиман, Куман и сотоварищи, которые особенно преуспели в этом. У них более 20 разных "природных алгоритмов", например
- Оптимизатор пятнистой гиены
- Оптимизатор чайки
- Оптимизатор императорского пингвина
- [свежее] Крысиный оптимизатор
😁75👍14🔥11👏4❤1
#интересно
Ещё из коллекции довольно известных ресурсов, но которые здесь пока не упоминались. Очень няшное объяснение теории игр (не всей, конечно, а только одной задачи). Красиво и интерактивно сделано, будет понятно всем, даже если Вы не любите математику, но любите играть и спорить;)
https://notdotteam.github.io/trust/
Ещё из коллекции довольно известных ресурсов, но которые здесь пока не упоминались. Очень няшное объяснение теории игр (не всей, конечно, а только одной задачи). Красиво и интерактивно сделано, будет понятно всем, даже если Вы не любите математику, но любите играть и спорить;)
https://notdotteam.github.io/trust/
notdotteam.github.io
Эволюция доверия
интерактивное руководство теории игр о том, зачем и как мы доверяем друг другу
👍55🔥14🥰5🤩2
#интересно
Шмидхубер написал очередную версию истории искусственного интеллекта.
https://people.idsia.ch/~juergen/deep-learning-history.html
Шмидхубер написал очередную версию истории искусственного интеллекта.
https://people.idsia.ch/~juergen/deep-learning-history.html
😁22👍8
#интересно
Многие знают про игру "Жизнь", в которой наблюдают за поведением клеточного автомата. Есть много обобщений, например "непрерывная жизнь". В ней получаются очень красивые визуализации, можно посмотреть, например, здесь.
Многие знают про игру "Жизнь", в которой наблюдают за поведением клеточного автомата. Есть много обобщений, например "непрерывная жизнь". В ней получаются очень красивые визуализации, можно посмотреть, например, здесь.
❤27👍6🔥5
#интересно
На ArXiv-е есть раздел статистики:
https://info.arxiv.org/help/stats/
Больше всего на него заливают препринтов в области Computer Science (в среднем сейчас более 200 в день), на втором месте - Math (более 100). И есть ещё раздел с отчётами:
https://info.arxiv.org/about/reports/index.html
Скачивают с ArXiv-а в день в среднем 1.5 млн статей (это по всем областям)!
На ArXiv-е есть раздел статистики:
https://info.arxiv.org/help/stats/
Больше всего на него заливают препринтов в области Computer Science (в среднем сейчас более 200 в день), на втором месте - Math (более 100). И есть ещё раздел с отчётами:
https://info.arxiv.org/about/reports/index.html
Скачивают с ArXiv-а в день в среднем 1.5 млн статей (это по всем областям)!
👍31🌚4❤2
#интересно
Есть такой Adon Joseph - бывший аэрокосмический инженер, создававший системы навигации космических кораблей в 90-е и руководивший большими проектами в оборонке. На пенсии он как-то обнаружил, что «преддверие» - часть внутреннего уха - устроено также как военные системы навигации. После этого он 6 лет изучал нейробиологию и построил свои карты головного мозга. В результате пришёл к выводу, что мозг это реально сложная инженерная система, кем-то специально спроектированная, ударился в религию и создал свой любопытный сайт.
Есть такой Adon Joseph - бывший аэрокосмический инженер, создававший системы навигации космических кораблей в 90-е и руководивший большими проектами в оборонке. На пенсии он как-то обнаружил, что «преддверие» - часть внутреннего уха - устроено также как военные системы навигации. После этого он 6 лет изучал нейробиологию и построил свои карты головного мозга. В результате пришёл к выводу, что мозг это реально сложная инженерная система, кем-то специально спроектированная, ударился в религию и создал свой любопытный сайт.
👍47🔥30💊19😁8
#интересно
Многие неправильно думают, почему гребневая регрессия (Ridge Regression) так называется. В основном считают, что из-за того, что в явной формуле для весов возникает диагональная матрица - как будто "матрица с гребнем" (так даже ChatGPT объясняет). Но до появления гребневой регрессии возник гребневый анализ (Ridge Analysis) и в нём отсылка была к форме поверхности функций, с которыми работали. Не так давно вышла статья, в которой один из потомков изобретателей "всего гребневого" рассказывает о первых работах.
Hoerl R. W. Ridge regression: a historical context //Technometrics. – 2020. – Т. 62. – №. 4. – С. 420-425.
Многие неправильно думают, почему гребневая регрессия (Ridge Regression) так называется. В основном считают, что из-за того, что в явной формуле для весов возникает диагональная матрица - как будто "матрица с гребнем" (так даже ChatGPT объясняет). Но до появления гребневой регрессии возник гребневый анализ (Ridge Analysis) и в нём отсылка была к форме поверхности функций, с которыми работали. Не так давно вышла статья, в которой один из потомков изобретателей "всего гребневого" рассказывает о первых работах.
Hoerl R. W. Ridge regression: a historical context //Technometrics. – 2020. – Т. 62. – №. 4. – С. 420-425.
❤46🔥22👍16
#интересно
Для тех, кто любит глянцевые журналы. Вот тут до сих пор регулярно выпускают журнал по Computer Vision. Электронные версии выложены в открытом доступе, там даже странички перелистываются со звуком шуршания журнальных;) В одном из последних номеров интервью с Яном Лекуном.
https://www.rsipvision.com/computer-vision-news/
Для тех, кто любит глянцевые журналы. Вот тут до сих пор регулярно выпускают журнал по Computer Vision. Электронные версии выложены в открытом доступе, там даже странички перелистываются со звуком шуршания журнальных;) В одном из последних номеров интервью с Яном Лекуном.
https://www.rsipvision.com/computer-vision-news/
🔥37❤5👍1😁1
#интересно
Исследовательский проект по машинному обучению.
https://knowingmachines.org/
В основном, много информации по правилам "работы с данными". В частности, авторами подготовлен "критический гайд по работе с датасетами"
https://knowingmachines.org/critical-field-guide
Очень специфически оформленный, правда. Но там могут попадаться полезные ссылки.
Исследовательский проект по машинному обучению.
https://knowingmachines.org/
В основном, много информации по правилам "работы с данными". В частности, авторами подготовлен "критический гайд по работе с датасетами"
https://knowingmachines.org/critical-field-guide
Очень специфически оформленный, правда. Но там могут попадаться полезные ссылки.
🔥32👍15❤3