Forwarded from Записки Ппилифа (Ppilif [GMT+4])
Возобновляем портал в ад, мне в личку накидали новую порцию всратой рекламы DS-курсов. Вы готовы стать НЕЙРОХИЩНИКАМИ?
😁27😱7👍1
Вдумайтесь: Техножрица репостит сообщение Дата-шрушера про нейрохищника...
What a time to be alive!
What a time to be alive!
🔥21😁6🐳3🌚3
Учебный материал 2.pdf
861.3 KB
Кое-как доделала вторую часть презентации с планом обучения Machine Learning с нуля, за ноль рублей.
Первую часть, где рассказано про то, где можно получить базу в плане математики и программирования, можно увидеть здесь. Ну, а в только что дописанной второй части (см. вложение) раскрывается следующая часть учебного плана: а именно, какие бесплатные курсы, лекции и дополнительные материалы использовать, чтобы изучить классические алгоритмы машинного обучения (Classic ML) и глубокое обучение (DL).
#учебные_материалы
Первую часть, где рассказано про то, где можно получить базу в плане математики и программирования, можно увидеть здесь. Ну, а в только что дописанной второй части (см. вложение) раскрывается следующая часть учебного плана: а именно, какие бесплатные курсы, лекции и дополнительные материалы использовать, чтобы изучить классические алгоритмы машинного обучения (Classic ML) и глубокое обучение (DL).
#учебные_материалы
❤🔥91👍19❤5🥰3🔥2🤩2👎1🦄1
Ладно, напишу пару слов о том, почему у меня так бомбит с реакции людей на Перельмана.
Дело в том, что меня саму другие люди тоже много раз осуждали за отказ от того, что считается безусловным благом (хотя, разумеется, и в намного меньшем масштабе - миллион мне никто не предлагал). В результате, в конце концов мне это так надоело, что меня начал триггерить сам факт такого осуждения, даже если оно со мной лично уже не связано.
Например, в промежутке между 2020-2022 мне 3-4 раза писали HR из Google с новыми предложениями full-time вакансий разработчика; в других временных промежутках приходили аналогичные приглашения от HR Amazon, Apple, NVidia и т.п. Я читала описания вакансий, которые мне предлагались; они либо не соответствовали моим текущим научным интересам, либо мне не нравилась сама компания; в результате я решала, что не буду тратить время и усилия на подготовку к собеседованиям на вакансии, которые мне не нужны и писала отказ. По мне так, все логично.
Но нет, у многих из тех людей, которым я рассказывала про эти ситуации, возникало возмущение. У них не укладывалось в голове, как можно игнорировать призывы FAANG'а. Они начинали спорить, убеждать меня в том, что я идиотка, если не прихожу на эти собеседования, обвинять в снобизме и гордыне, спрашивать с издевкой "Тебе что, вообще деньги не нужны? Считаешь себя выше этого, да?".
Иногда вызывал возмущение даже мой рассказ про собеседование в Huawei. Дело в том, что я также несколько раз игнорировала их HR, прежде чем все-таки ответить, а потом, придя на собеседование, сказала, что, честно говоря, даже не знаю, хочу ли у них работать и хочу ли вообще работать в области машинного обучения... (у меня тогда был депрессивный эпизод). Тем не менее после непосредственного общения с будущими коллегами мне начала нравиться идея у них работать, и теперь я работаю у них уже три года. Кто-то из знакомых в ответ на этот рассказ просто смеялись вместе со мной над этой историей. А кто-то злился: "Так им еще и уговаривать тебя пришлось?!!".
Еще одна ситуация, которая вызывала зависть и злость, заключалась в следующем. В Лондоне я познакомилась с итальянцем, который приехал туда учиться, и у нас завязались какие-то отношения. После того, как я вернулась в Москву, он начал мне написывать и звать съездить в Италию за его счет. Я оформила Шенгенскую визу, чтобы поехать, но потом в итоге все-таки не поехала, потому что мне не удалось достичь с ним взаимопонимания по важным для меня вопросам, и общение с ним начало меня утомлять. Знакомые, с которыми я пыталась поделиться данной ситуацией, не понимали этого решения - они начинали спрашивать "Он что, для тебя недостаточно красивый? Или недостаточно умный?", на что я отвечала - мол, нет, он достаточно умный и красивый, просто мне перестало быть с ним интересно. И каждый раз начиналось одно и то же... собеседник смотрел на меня, как на сумасшедшую и спрашивал в разных формулировках: "Так если он умный и красивый, почему бы тебе не дать ему второй шанс? Тем более, что можно бесплатно в Италию слетать!", на что мне не оставалось ответить ничего, кроме как "Не хочу". Просто не хочу и, по-большому-то счету, не обязана никак это объяснять.
Самое неприятное для меня в этих ситуациях было не то, что люди озвучивали свое мнение, отличное от моего; это-то я как раз считаю абсолютно нормальным. Нет, мне было неприятно то, что они вели себя так, как будто я не имела морального права поступать так, как поступала и заслуживаю всяческого осуждения и порицания. Хотя как справедливо отметил один комментатор к ролику про Преображенского:
"Мне кажется Булгаков хотел показать, что в свободном обществе человек что-то делает или не делает из своего желания или нежелания, а не из-за призывов, агитаций и т.д. Эта женщина шокирована. Профессор говорит, что ему не жалко денег, но просто не хочет покупать. Её забитая лозунгами, песнями, призывами к свершениям голова не может понять такого простого аргумента, как "не хочу"."
#о_себе
Дело в том, что меня саму другие люди тоже много раз осуждали за отказ от того, что считается безусловным благом (хотя, разумеется, и в намного меньшем масштабе - миллион мне никто не предлагал). В результате, в конце концов мне это так надоело, что меня начал триггерить сам факт такого осуждения, даже если оно со мной лично уже не связано.
Например, в промежутке между 2020-2022 мне 3-4 раза писали HR из Google с новыми предложениями full-time вакансий разработчика; в других временных промежутках приходили аналогичные приглашения от HR Amazon, Apple, NVidia и т.п. Я читала описания вакансий, которые мне предлагались; они либо не соответствовали моим текущим научным интересам, либо мне не нравилась сама компания; в результате я решала, что не буду тратить время и усилия на подготовку к собеседованиям на вакансии, которые мне не нужны и писала отказ. По мне так, все логично.
Но нет, у многих из тех людей, которым я рассказывала про эти ситуации, возникало возмущение. У них не укладывалось в голове, как можно игнорировать призывы FAANG'а. Они начинали спорить, убеждать меня в том, что я идиотка, если не прихожу на эти собеседования, обвинять в снобизме и гордыне, спрашивать с издевкой "Тебе что, вообще деньги не нужны? Считаешь себя выше этого, да?".
Иногда вызывал возмущение даже мой рассказ про собеседование в Huawei. Дело в том, что я также несколько раз игнорировала их HR, прежде чем все-таки ответить, а потом, придя на собеседование, сказала, что, честно говоря, даже не знаю, хочу ли у них работать и хочу ли вообще работать в области машинного обучения... (у меня тогда был депрессивный эпизод). Тем не менее после непосредственного общения с будущими коллегами мне начала нравиться идея у них работать, и теперь я работаю у них уже три года. Кто-то из знакомых в ответ на этот рассказ просто смеялись вместе со мной над этой историей. А кто-то злился: "Так им еще и уговаривать тебя пришлось?!!".
Еще одна ситуация, которая вызывала зависть и злость, заключалась в следующем. В Лондоне я познакомилась с итальянцем, который приехал туда учиться, и у нас завязались какие-то отношения. После того, как я вернулась в Москву, он начал мне написывать и звать съездить в Италию за его счет. Я оформила Шенгенскую визу, чтобы поехать, но потом в итоге все-таки не поехала, потому что мне не удалось достичь с ним взаимопонимания по важным для меня вопросам, и общение с ним начало меня утомлять. Знакомые, с которыми я пыталась поделиться данной ситуацией, не понимали этого решения - они начинали спрашивать "Он что, для тебя недостаточно красивый? Или недостаточно умный?", на что я отвечала - мол, нет, он достаточно умный и красивый, просто мне перестало быть с ним интересно. И каждый раз начиналось одно и то же... собеседник смотрел на меня, как на сумасшедшую и спрашивал в разных формулировках: "Так если он умный и красивый, почему бы тебе не дать ему второй шанс? Тем более, что можно бесплатно в Италию слетать!", на что мне не оставалось ответить ничего, кроме как "Не хочу". Просто не хочу и, по-большому-то счету, не обязана никак это объяснять.
Самое неприятное для меня в этих ситуациях было не то, что люди озвучивали свое мнение, отличное от моего; это-то я как раз считаю абсолютно нормальным. Нет, мне было неприятно то, что они вели себя так, как будто я не имела морального права поступать так, как поступала и заслуживаю всяческого осуждения и порицания. Хотя как справедливо отметил один комментатор к ролику про Преображенского:
"Мне кажется Булгаков хотел показать, что в свободном обществе человек что-то делает или не делает из своего желания или нежелания, а не из-за призывов, агитаций и т.д. Эта женщина шокирована. Профессор говорит, что ему не жалко денег, но просто не хочет покупать. Её забитая лозунгами, песнями, призывами к свершениям голова не может понять такого простого аргумента, как "не хочу"."
#о_себе
YouTube
Собачье сердце - в пользу детей Германии
Вяземская: ...предлагаю вам взять несколько журналов - в пользу детей Германии. По полтиннику штука!
Преображенский: Нет, не возьму.
Вяземская: Но почему вы отказываетесь?
Преображенский: Не хочу.
Вяземская: Вы не сочувствуете детям Германии?
Преображенский:…
Преображенский: Нет, не возьму.
Вяземская: Но почему вы отказываетесь?
Преображенский: Не хочу.
Вяземская: Вы не сочувствуете детям Германии?
Преображенский:…
❤63👍28🔥7😁2💯2💔2❤🔥1🤡1🤝1
В честь 3000 подписчиков расскажу про наш новый препринт, в котором тексты, сгенерированные ChatGPT, детектируются с помощью анализа их внутренней размерности:
https://arxiv.org/abs/2306.04723
Итак, здесь мои коллеги и я продолжили заниматься полюбившейся с 2021 года темой - детекцией сгенерированного контента. Особое внимание, конечно, уделили детекции текста, сгенерированного моделями семейства GPT-3.5 (davinci, chatgpt). А делали мы это с помощью такой интересной штуки, как дробная размерность. Первое знакомство с ней можно осуществить, посмотрев видео 3blue1brown: https://www.youtube.com/watch?v=gB9n2gHsHN4 (рассказ про размерность начинается со второй половины видео).
Хоть введенная в видео размерность и называется "фрактальной", на деле можно получать приближенные оценки такой размерности не только для фракталов, но и просто для облаков точек, если формы облаков достаточно сложные. И вот возник вопрос: а почему бы не построить облако точек по тексту на естественном языке и не посмотреть, какой будет его размерность?
Далее последовательность действий была такая:
1) Брался достаточно длинный текст (написанный человеком либо сгенерированный ChatGPT/другой моделью) с большим количеством токенов;
2) Текст подавался на вход модели RoBERTa;
3) С последнего слоя RoBERTы извлекались эмбеддинги каждого токена текста;
4) Эти эмбеддинги рассматривались как точки в многомерном пространстве - получалось облако точек;
5) С помощью нескольких довольно технически сложных процедур ( вдохновленных https://arxiv.org/abs/1808.01079 ) оценивалась дробная размерность этого облака точек.
Таким образом, каждому тексту сопоставлялось число - эта самая размерность. И - о чудо! - оказывалось, что средняя размерность текстов, сгенерированных с помощью GPT-3.5 (ChatGPT или davinci), была в среднем существенно меньше, чем размерность текстов, написанных человеком. Эта средняя размерность практически не менялась при смене домена и при замене GPT-3.5 на large GPT-2 или OPT (со стандартными параметрами генерации); даже при применении парафразера DIPPER, специально созданного для избегания детекции, размерность менялась не сильно - в среднем примерно на 3%. Благодаря этому нам удалось сделать пороговый детектор по этой размерности, неожиданно устойчивый к атакам.
Теперь любители генерировать тексты могут менять промпты, тематику или даже модель, но наш детектор не проведешь! 😈
При смене домена и модели точность детекции (true positive) по один раз зафиксированному порогу не опускалась ниже 75% при условии, что false positive rate (FPR) оставался не более 1%. При применении DIPPER к генерации GPT-3.5 точность падала до 40%, снова при FPR 1%. Но даже этот результат оказался лучше всех остальных существующих детекторов - в том числе, и от самих OpenAI. 🫡
(Пояснение: мы зафиксировали низкий FPR потому что хотели как можно меньше дискриминировать настоящих людей при детекции).
Кроме прочего, при использовании мультиязычной RoBERTы можно было получать аналогичный детектор не только для английского, но и для других языков. Средняя внутренняя размерность эмбеддингов, соответствующих текстам на других языках, менялась от языка к языку, но размерность искусственных текстов все равно оставалась в среднем ниже, чем человеческих, для каждого конкретного языка по отдельности.
Главной же слабостью нашего детектора является неустойчивость к большим температурам генерации и к примитивным генераторным моделям. У генераторов с высокой температурой (так сказать, бредящих) внутренняя размерность текстов может быть и выше человеческой, поэтому на них этот детектор сломается. С другой стороны, такие генераторы и так детектятся другими методами. Также остается открытым вопрос, является ли RoBERTa оптимальным средством для извлечения эмбеддингов текстов, ведь их можно получать и с помощью других моделей тоже.
#объяснения_статей #детекция_искусственных_текстов
https://arxiv.org/abs/2306.04723
Итак, здесь мои коллеги и я продолжили заниматься полюбившейся с 2021 года темой - детекцией сгенерированного контента. Особое внимание, конечно, уделили детекции текста, сгенерированного моделями семейства GPT-3.5 (davinci, chatgpt). А делали мы это с помощью такой интересной штуки, как дробная размерность. Первое знакомство с ней можно осуществить, посмотрев видео 3blue1brown: https://www.youtube.com/watch?v=gB9n2gHsHN4 (рассказ про размерность начинается со второй половины видео).
Хоть введенная в видео размерность и называется "фрактальной", на деле можно получать приближенные оценки такой размерности не только для фракталов, но и просто для облаков точек, если формы облаков достаточно сложные. И вот возник вопрос: а почему бы не построить облако точек по тексту на естественном языке и не посмотреть, какой будет его размерность?
Далее последовательность действий была такая:
1) Брался достаточно длинный текст (написанный человеком либо сгенерированный ChatGPT/другой моделью) с большим количеством токенов;
2) Текст подавался на вход модели RoBERTa;
3) С последнего слоя RoBERTы извлекались эмбеддинги каждого токена текста;
4) Эти эмбеддинги рассматривались как точки в многомерном пространстве - получалось облако точек;
5) С помощью нескольких довольно технически сложных процедур ( вдохновленных https://arxiv.org/abs/1808.01079 ) оценивалась дробная размерность этого облака точек.
Таким образом, каждому тексту сопоставлялось число - эта самая размерность. И - о чудо! - оказывалось, что средняя размерность текстов, сгенерированных с помощью GPT-3.5 (ChatGPT или davinci), была в среднем существенно меньше, чем размерность текстов, написанных человеком. Эта средняя размерность практически не менялась при смене домена и при замене GPT-3.5 на large GPT-2 или OPT (со стандартными параметрами генерации); даже при применении парафразера DIPPER, специально созданного для избегания детекции, размерность менялась не сильно - в среднем примерно на 3%. Благодаря этому нам удалось сделать пороговый детектор по этой размерности, неожиданно устойчивый к атакам.
Теперь любители генерировать тексты могут менять промпты, тематику или даже модель, но наш детектор не проведешь! 😈
При смене домена и модели точность детекции (true positive) по один раз зафиксированному порогу не опускалась ниже 75% при условии, что false positive rate (FPR) оставался не более 1%. При применении DIPPER к генерации GPT-3.5 точность падала до 40%, снова при FPR 1%. Но даже этот результат оказался лучше всех остальных существующих детекторов - в том числе, и от самих OpenAI. 🫡
(Пояснение: мы зафиксировали низкий FPR потому что хотели как можно меньше дискриминировать настоящих людей при детекции).
Кроме прочего, при использовании мультиязычной RoBERTы можно было получать аналогичный детектор не только для английского, но и для других языков. Средняя внутренняя размерность эмбеддингов, соответствующих текстам на других языках, менялась от языка к языку, но размерность искусственных текстов все равно оставалась в среднем ниже, чем человеческих, для каждого конкретного языка по отдельности.
Главной же слабостью нашего детектора является неустойчивость к большим температурам генерации и к примитивным генераторным моделям. У генераторов с высокой температурой (так сказать, бредящих) внутренняя размерность текстов может быть и выше человеческой, поэтому на них этот детектор сломается. С другой стороны, такие генераторы и так детектятся другими методами. Также остается открытым вопрос, является ли RoBERTa оптимальным средством для извлечения эмбеддингов текстов, ведь их можно получать и с помощью других моделей тоже.
#объяснения_статей #детекция_искусственных_текстов
arXiv.org
Intrinsic Dimension Estimation for Robust Detection of AI-Generated Texts
Rapidly increasing quality of AI-generated content makes it difficult to distinguish between human and AI-generated texts, which may lead to undesirable consequences for society. Therefore, it...
🔥82👍6🎉5❤4🤔2🤯2😭2❤🔥1
Forwarded from Dark Geometry
Хом, экстовый, торушка, тензорушка, представушка, монадушка, предельчок, копредельчок, топос на воротничок, квазикогерентный пучок.
#предложка
#предложка
💯26🥰6😁4🥱1
Судя по географическому положению мой съемной квартиры, у меня скоро могут быть проблемы с интернетом 😎
Постарайтесь хорошо себя вести в комментариях и не баловаться, пока меня не будет 🫡
Постарайтесь хорошо себя вести в комментариях и не баловаться, пока меня не будет 🫡
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🫡76❤10🤯4🤡3😁2👍1
Forwarded from Интересные факты
Малкадор Сигиллит провел переговоры с примархом Сынов Вагнера Иосифом Луперкалем.
Выработан выгодный и приемлемый вариант развязки ситуации, с гарантиями безопасности для бывших Лунных Волков. Переговоры Малкадора и Хоруса длились в течение всей осады Терры.
Астропаты Империума передают, что Хорус принял предложение Малкадора об остановке движения легионов предателей и о шагах по деэскалации.
«Мы разворачиваем астартес и уходим в обратном направлении в Око Ужаса», — сообщил первый капитан Сынов Вагнера Абаддон Разоритель.
Выработан выгодный и приемлемый вариант развязки ситуации, с гарантиями безопасности для бывших Лунных Волков. Переговоры Малкадора и Хоруса длились в течение всей осады Терры.
Астропаты Империума передают, что Хорус принял предложение Малкадора об остановке движения легионов предателей и о шагах по деэскалации.
«Мы разворачиваем астартес и уходим в обратном направлении в Око Ужаса», — сообщил первый капитан Сынов Вагнера Абаддон Разоритель.
🔥50😁9🫡7❤5👍4🤡4❤🔥2👎2🤩1🤪1💊1
Forwarded from epsilon correct
Про grid search и тюнинг алгоритмов
При создании новых алгоритов почти всегда приходится искать, какие параметры дадут лучшее качество на разных задачах. Почему-то многие коллеги для этого используют grid search (поиска по заданной сетке). Коллег я потихоньку разубеждаю спорами на бонус (~100$), а вам придётся просто поверить на слово и прочитать пост.⌨️
Поиск по сетке – особенно плохая идея для новых алгоритмов, потому что интуиции для выбора корректной сетки на них почти нет. Картинка из старой статьи Бенджио, на мой взгляд, отлично иллюстрирует проблему поиска по сетке: мы тратим
У меня в практике было несколько случаев, когда случайный поиск находил неожиданные значения для гиперпараметров, которые никто бы не попробовал добавлять в сетку. Так, в статье про кластеризацию графов именно случайный поиск позволил мне понять, что в методе конкурентов всю работу делает регуляризатор вместо собственно целевой функции. А наша статья про бенчмаркинг графовых нейросетей GraphWorld – это вообще ода случайному поиску – там мы его используем буквально для всего.🤴
Надо заметить, что для более ресурсозатратных поисков стоит смотреть в сторону околоэволюционных алгоритмов – Vizier от гугла или Nevergrad от меты. Последний я успешно использовал для генерации цветовых палитр с учётом особенностей цветового восприятия и дальтонизма.
Всем успешного поиска!😏
При создании новых алгоритов почти всегда приходится искать, какие параметры дадут лучшее качество на разных задачах. Почему-то многие коллеги для этого используют grid search (поиска по заданной сетке). Коллег я потихоньку разубеждаю спорами на бонус (~100$), а вам придётся просто поверить на слово и прочитать пост.
Поиск по сетке – особенно плохая идея для новых алгоритмов, потому что интуиции для выбора корректной сетки на них почти нет. Картинка из старой статьи Бенджио, на мой взгляд, отлично иллюстрирует проблему поиска по сетке: мы тратим
d^k чтобы посмотреть на d значений для каждого из k параметров. При случайном поиске же для d^k поисков мы отсмотрим d^k значений для каждого из k параметров. У меня в практике было несколько случаев, когда случайный поиск находил неожиданные значения для гиперпараметров, которые никто бы не попробовал добавлять в сетку. Так, в статье про кластеризацию графов именно случайный поиск позволил мне понять, что в методе конкурентов всю работу делает регуляризатор вместо собственно целевой функции. А наша статья про бенчмаркинг графовых нейросетей GraphWorld – это вообще ода случайному поиску – там мы его используем буквально для всего.
Надо заметить, что для более ресурсозатратных поисков стоит смотреть в сторону околоэволюционных алгоритмов – Vizier от гугла или Nevergrad от меты. Последний я успешно использовал для генерации цветовых палитр с учётом особенностей цветового восприятия и дальтонизма.
Всем успешного поиска!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍29❤8
Мои любимые YouTube каналы по темам.
Часть I, образовательные:
1. Математика (каналы перечислены в порядке от простого к сложному):
a) https://www.youtube.com/@3blue1brown (англ.) - 3blue1brown - максимально качественный канал. Есть объяснения отдельных концепций, разборы задач, плейлисты с теорией по мат.анализу, лин.алгебре и др. Подавляющее большинство видео требуют для понимания лишь знаний школьной математики, но есть и посложнее, рассчитанные больше на студентов.
b) https://www.youtube.com/@numberphile (англ.) - канал с огромным количеством очень разнородных видео по математике. Большинство видео являют собой объяснения различных концепций; некоторые больше похожи на интервью. Уровень сложности видео также разнороден, для понимания некоторых видео достаточно школьной математики, некоторые рассчитаны на студентов.
c) https://www.youtube.com/@MichaelPennMath (англ.) - канал преподавателя математики, в котором изначально разбирались решения сложных задач по математическому анализу для студентов колледжа, а затем появился более широкий спектр тем. Большинство видео по-прежнему рассчитано на студентов.
d) https://www.youtube.com/@RichardSouthwell (англ.) - у этого автора я смотрю в основном видео про теорию категорий. Можно сказать, что видео рассчитаны на студентов, но могут быть довольно сложны для них.
e) https://www.youtube.com/@aatrn1 (англ.) - канал с докладами и объяснениями по различным темам и задачам из прикладной (вычислительной) алгебраической топологии и геометрии. Часть видео будет понятна студентам, часть - только специалистам.
2. Машинное обучение (также от простого к сложному):
a) https://www.youtube.com/@TwoMinutePapers (англ.) - канал с демонстрациями к различным статьям по глубокому обучению. Объяснения самих алгоритмов даются простыми словами, без особых технических деталей, поэтому будут понятны широкому кругу зрителей.
b) https://www.youtube.com/@YannicKilcher (англ.) - канал с более подробными разъяснениями научных статей. Для понимания многих таких разъяснений требуются знания основ Deep Learning и большая внимательность, так как статьи часто бывают сложные. Есть и просто новостные видеоролики, рассчитанные на широкий круг зрителей.
c) https://www.youtube.com/@mohitiyyer9667 (англ.) - на этом канале я смотрела цикл лекций по Advanced Natural Language Processing. Для понимания этих лекций требуется знание основ Deep Learning.
d) https://www.youtube.com/@user-th3jq9rw7b (рус.) - канал Школы Анализа Данных. На нем я в основном смотрела лекции Воронцова, но канал содержит и множество других лекций и роликов. Рассчитаны лекции в основном на сильных студентов, не боящихся математики.
#рекомендации
Часть I, образовательные:
1. Математика (каналы перечислены в порядке от простого к сложному):
a) https://www.youtube.com/@3blue1brown (англ.) - 3blue1brown - максимально качественный канал. Есть объяснения отдельных концепций, разборы задач, плейлисты с теорией по мат.анализу, лин.алгебре и др. Подавляющее большинство видео требуют для понимания лишь знаний школьной математики, но есть и посложнее, рассчитанные больше на студентов.
b) https://www.youtube.com/@numberphile (англ.) - канал с огромным количеством очень разнородных видео по математике. Большинство видео являют собой объяснения различных концепций; некоторые больше похожи на интервью. Уровень сложности видео также разнороден, для понимания некоторых видео достаточно школьной математики, некоторые рассчитаны на студентов.
c) https://www.youtube.com/@MichaelPennMath (англ.) - канал преподавателя математики, в котором изначально разбирались решения сложных задач по математическому анализу для студентов колледжа, а затем появился более широкий спектр тем. Большинство видео по-прежнему рассчитано на студентов.
d) https://www.youtube.com/@RichardSouthwell (англ.) - у этого автора я смотрю в основном видео про теорию категорий. Можно сказать, что видео рассчитаны на студентов, но могут быть довольно сложны для них.
e) https://www.youtube.com/@aatrn1 (англ.) - канал с докладами и объяснениями по различным темам и задачам из прикладной (вычислительной) алгебраической топологии и геометрии. Часть видео будет понятна студентам, часть - только специалистам.
2. Машинное обучение (также от простого к сложному):
a) https://www.youtube.com/@TwoMinutePapers (англ.) - канал с демонстрациями к различным статьям по глубокому обучению. Объяснения самих алгоритмов даются простыми словами, без особых технических деталей, поэтому будут понятны широкому кругу зрителей.
b) https://www.youtube.com/@YannicKilcher (англ.) - канал с более подробными разъяснениями научных статей. Для понимания многих таких разъяснений требуются знания основ Deep Learning и большая внимательность, так как статьи часто бывают сложные. Есть и просто новостные видеоролики, рассчитанные на широкий круг зрителей.
c) https://www.youtube.com/@mohitiyyer9667 (англ.) - на этом канале я смотрела цикл лекций по Advanced Natural Language Processing. Для понимания этих лекций требуется знание основ Deep Learning.
d) https://www.youtube.com/@user-th3jq9rw7b (рус.) - канал Школы Анализа Данных. На нем я в основном смотрела лекции Воронцова, но канал содержит и множество других лекций и роликов. Рассчитаны лекции в основном на сильных студентов, не боящихся математики.
#рекомендации
🔥51❤10👍4🤡3🤯1
Часть II, развлекательные:
3. Несложные научно-популярные:
a) https://www.youtube.com/@MIHAILLIDIN (рус.) - видео с критическими разборами деятельности различных сект, оккультных течений и около-оккультных инфобизов. Иногда встречаются чуть более серьезные ролики - например, касающиеся темы религиоведения.
b) https://www.youtube.com/@poetische (рус.) - канал филолога с разбором различных тем, касающихся художественной литературы, жизни классиков, иногда затрагиваются темы из лингвистики. Разбираются различные связанные с этим фейки.
4. Про компьютерные игры и пародии на них:
а) https://www.youtube.com/@buldjat (рус.) - разнообразные видео с рассказами и обзорами на игры - при чем не только новые, но и старые; также ролики с объяснениями разных терминов и явлений, связанных с миром гейминга. Например, отсюда я узнала, что такое чизинг в играх.
b) https://www.youtube.com/@strannoemestechko (рус.) - зарисовки, в которых актеры отыгрывают нелепые ситуации, возникающие в играх наподобие ведьмака и скайрима, баги, пародируют поведение NPC и т.д. Видео являют собой перевод с англоязычного канала https://www.youtube.com/@VivaLaDirtLeague
c) https://youtube.com/@KommanderKarl (англ.) - то же, что и в предыдущем случае, но актер один и больше сосредоточен на изображении отдельных аспектов: его любимые темы - жизнь NPC и анимации перезарядки.
5. Мультипликации:
a) https://youtube.com/@ToBinge (англ.) - отсюда мне больше всего нравятся сюжеты про фонд SCP на минималках под названием Pandora's cubicle. Часть мультиков также посвящена персонажам из игры overwatch, но их я не понимаю.
b) https://youtube.com/@oopsoopsism (рус.) - ШКЯ - соединение "жизненных" сюжетов из повседневной жизни на постсоветском пространстве и юмора абсурда. И все это с абсолютно уникальным визуальным стилем. Эти мультфильмы, кстати, делает автор старого мемного видео про Скайп (и на канале оно тоже есть).
c) https://youtube.com/@LavaLamp (рус.) - то же самое, но ещё более укуренное и безумное. Ряд мультфильмов связаны общим сюжетом - так сказать, мультсериал.
6. Про книги и инфобизов:
a) https://youtube.com/@UncleShurik (рус.) - очень много роликов про хорошие и про плохие книги, а также про приключения незадачливых инфобизов, попадающих в разные переделки или просто делающих смешные и нелепые вещи. Каждый раз проигрываю с этих роликов.
b) https://youtube.com/@denis_chuzhoy (рус.) - с этого канала мне тоже наиболее интересны обзоры плохих книг, поэтому поместила в эту категорию. На самом деле большую часть канала занимают стендапы автора, но их я смотрю редко, так как не являюсь поклонницей жанра.
Делитесь своими любимыми каналами в комментариях.
#рекомендации
3. Несложные научно-популярные:
a) https://www.youtube.com/@MIHAILLIDIN (рус.) - видео с критическими разборами деятельности различных сект, оккультных течений и около-оккультных инфобизов. Иногда встречаются чуть более серьезные ролики - например, касающиеся темы религиоведения.
b) https://www.youtube.com/@poetische (рус.) - канал филолога с разбором различных тем, касающихся художественной литературы, жизни классиков, иногда затрагиваются темы из лингвистики. Разбираются различные связанные с этим фейки.
4. Про компьютерные игры и пародии на них:
а) https://www.youtube.com/@buldjat (рус.) - разнообразные видео с рассказами и обзорами на игры - при чем не только новые, но и старые; также ролики с объяснениями разных терминов и явлений, связанных с миром гейминга. Например, отсюда я узнала, что такое чизинг в играх.
b) https://www.youtube.com/@strannoemestechko (рус.) - зарисовки, в которых актеры отыгрывают нелепые ситуации, возникающие в играх наподобие ведьмака и скайрима, баги, пародируют поведение NPC и т.д. Видео являют собой перевод с англоязычного канала https://www.youtube.com/@VivaLaDirtLeague
c) https://youtube.com/@KommanderKarl (англ.) - то же, что и в предыдущем случае, но актер один и больше сосредоточен на изображении отдельных аспектов: его любимые темы - жизнь NPC и анимации перезарядки.
5. Мультипликации:
a) https://youtube.com/@ToBinge (англ.) - отсюда мне больше всего нравятся сюжеты про фонд SCP на минималках под названием Pandora's cubicle. Часть мультиков также посвящена персонажам из игры overwatch, но их я не понимаю.
b) https://youtube.com/@oopsoopsism (рус.) - ШКЯ - соединение "жизненных" сюжетов из повседневной жизни на постсоветском пространстве и юмора абсурда. И все это с абсолютно уникальным визуальным стилем. Эти мультфильмы, кстати, делает автор старого мемного видео про Скайп (и на канале оно тоже есть).
c) https://youtube.com/@LavaLamp (рус.) - то же самое, но ещё более укуренное и безумное. Ряд мультфильмов связаны общим сюжетом - так сказать, мультсериал.
6. Про книги и инфобизов:
a) https://youtube.com/@UncleShurik (рус.) - очень много роликов про хорошие и про плохие книги, а также про приключения незадачливых инфобизов, попадающих в разные переделки или просто делающих смешные и нелепые вещи. Каждый раз проигрываю с этих роликов.
b) https://youtube.com/@denis_chuzhoy (рус.) - с этого канала мне тоже наиболее интересны обзоры плохих книг, поэтому поместила в эту категорию. На самом деле большую часть канала занимают стендапы автора, но их я смотрю редко, так как не являюсь поклонницей жанра.
Делитесь своими любимыми каналами в комментариях.
#рекомендации
👍28🔥5❤2🤡1
Курьеры регулярно кладут мне в почтовый ящик идиотскую газету "Про здоровье". В итоге я не выдержала и сделала по мотивам этой газеты такие же идиотские мемы.
🔥61😁42👍5👏3🥴3❤🔥2🤡2🥰1🤔1