🧠 Бесплатные курсы по ИИ от NVIDIA
▪️Generative AI Explained
Это вводный курс длительностью 2 часа, который объясняет, как работают генеративные модели.
▪️Building A Brain in 10 Minutes
Совсем короткий урок, рассказывающий о том, как устройство биологического мозга вдохновило исследователей на создание нейросетей.
▪️Augment your LLM Using Retrieval Augmented Generation
Объясняет, что такое Retrieval Augmented Generation (RAG).
▪️Accelerate Data Science Workflows with Zero Code Changes
Курс продолжительностью один час рассказывает о том, как ускорить обработку данных и ML-workflows с помощью GPU.
▪️Building RAG Agents with LLMs
Самый долгий курс из списка — рассчитан на 8 часов. Расскажет про LLM-агентов, векторные базы данных и LangChain.
▪️Generative AI Explained
Это вводный курс длительностью 2 часа, который объясняет, как работают генеративные модели.
▪️Building A Brain in 10 Minutes
Совсем короткий урок, рассказывающий о том, как устройство биологического мозга вдохновило исследователей на создание нейросетей.
▪️Augment your LLM Using Retrieval Augmented Generation
Объясняет, что такое Retrieval Augmented Generation (RAG).
▪️Accelerate Data Science Workflows with Zero Code Changes
Курс продолжительностью один час рассказывает о том, как ускорить обработку данных и ML-workflows с помощью GPU.
▪️Building RAG Agents with LLMs
Самый долгий курс из списка — рассчитан на 8 часов. Расскажет про LLM-агентов, векторные базы данных и LangChain.
🔥10👍5
Какие допущения есть у линейной регрессии?
Линейная регрессия — это, в сущности, статистический метод, который позволяет описать связь между переменными. Этот метод валиден, если выполняются четыре предположения:
1️⃣ Между независимой переменной x и зависимой переменной y существует линейная зависимость.
2️⃣ Между последовательными остатками (или разницей между фактическими и предсказанными значениями) нет корреляции. Это чаще всего случается в данных временных рядов.
3️⃣ Должна соблюдаться гомоскедастичность. То есть дисперсия остатков обязана быть одинаковой. Иными словами, разность между реальным и предсказанным значениями, должна оставаться в определённом известном диапазоне.
4️⃣ Остатки должны быть нормально распределены.
#вопросы_с_собеседований
Линейная регрессия — это, в сущности, статистический метод, который позволяет описать связь между переменными. Этот метод валиден, если выполняются четыре предположения:
1️⃣ Между независимой переменной x и зависимой переменной y существует линейная зависимость.
2️⃣ Между последовательными остатками (или разницей между фактическими и предсказанными значениями) нет корреляции. Это чаще всего случается в данных временных рядов.
3️⃣ Должна соблюдаться гомоскедастичность. То есть дисперсия остатков обязана быть одинаковой. Иными словами, разность между реальным и предсказанным значениями, должна оставаться в определённом известном диапазоне.
4️⃣ Остатки должны быть нормально распределены.
#вопросы_с_собеседований
⚡12👍2😁1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Сайт с отличной визуализацией работы нейросетей
Разработчик Jared Wilber сделал страничку по нейронным сетям, на которой объяснил, как устроен их механизм работы. Все объяснения он сопроводил хорошими иллюстрациями. В частности, автор разбирает:
▪️линейную и логистическую регрессии;
▪️архитектуры нейросетей и разные функции активации;
▪️механизм обратного распространения ошибки.
Также на сайте есть виджет, в котором можно самостоятельно настраивать сеть и смотреть, что получается.
🔗 Ссылка на сайт
Разработчик Jared Wilber сделал страничку по нейронным сетям, на которой объяснил, как устроен их механизм работы. Все объяснения он сопроводил хорошими иллюстрациями. В частности, автор разбирает:
▪️линейную и логистическую регрессии;
▪️архитектуры нейросетей и разные функции активации;
▪️механизм обратного распространения ошибки.
Также на сайте есть виджет, в котором можно самостоятельно настраивать сеть и смотреть, что получается.
🔗 Ссылка на сайт
❤12⚡3👍3
Forwarded from Библиотека питониста | Python, Django, Flask
🧑💻 Путь разработчика: один язык на всю жизнь или постоянное переобучение?
Мир IT постоянно развивается, и то, что было актуально вчера, сегодня может оказаться устаревшим. Мы хотим узнать, как часто разработчики меняют сферу деятельности и направление разработки в погоне за новыми знаниями и возможностями.
👉 Поделитесь своим мнением и опытом. Ваши ответы помогут нам лучше понять тенденции и предпочтения в сообществе разработчиков
Опрос займёт у вас примерно 4 минуты.
Мир IT постоянно развивается, и то, что было актуально вчера, сегодня может оказаться устаревшим. Мы хотим узнать, как часто разработчики меняют сферу деятельности и направление разработки в погоне за новыми знаниями и возможностями.
👉 Поделитесь своим мнением и опытом. Ваши ответы помогут нам лучше понять тенденции и предпочтения в сообществе разработчиков
Опрос займёт у вас примерно 4 минуты.
⚡2
🧠 Шпаргалка по статистике от Стэнфорда
Это материалы к курсу Introduction to Probability and Statistics for Engineers.
Охватывают темы:
▪️оценивание параметров;
▪️доверительные интервалы;
▪️тестирование гипотез;
▪️регрессионный анализ;
▪️корреляционный анализ.
🔗 Ссылка на шпаргалку
Это материалы к курсу Introduction to Probability and Statistics for Engineers.
Охватывают темы:
▪️оценивание параметров;
▪️доверительные интервалы;
▪️тестирование гипотез;
▪️регрессионный анализ;
▪️корреляционный анализ.
🔗 Ссылка на шпаргалку
👍11
Forwarded from Библиотека программиста | программирование, кодинг, разработка
🔬 20 лет в блогосфере: взгляд физика на эволюцию фундаментальной науки
Двадцать лет назад автор блога Not Even Wrong сделал свою первую запись. С тех пор многое изменилось в мире фундаментальной физики и в способах научной коммуникации. Какие уроки можно извлечь из этого опыта и чего ждать от будущего?
👉 Читать статью
👉 Зеркало
Двадцать лет назад автор блога Not Even Wrong сделал свою первую запись. С тех пор многое изменилось в мире фундаментальной физики и в способах научной коммуникации. Какие уроки можно извлечь из этого опыта и чего ждать от будущего?
👉 Читать статью
👉 Зеркало
😁4❤3⚡1
Какими площадками/соцсетями вы активно пользуетесь кроме Telegram?
Anonymous Poll
28%
Instagram*
4%
Facebook*
32%
VK
18%
LinkedIn
7%
X (Twitter)
6%
38%
Хабр
10%
Reddit
79%
YouTube
8%
TikTok
⚡5
🧑💻 Статьи для IT: как объяснять и распространять значимые идеи
Напоминаем, что у нас есть бесплатный курс для всех, кто хочет научиться интересно писать — о программировании и в целом.
Что: семь модулей, посвященных написанию, редактированию, иллюстрированию и распространению публикаций.
Для кого: для авторов, копирайтеров и просто программистов, которые хотят научиться интересно рассказывать о своих проектах.
👉Материалы регулярно дополняются, обновляются и корректируются. А еще мы отвечаем на все учебные вопросы в комментариях курса.
Напоминаем, что у нас есть бесплатный курс для всех, кто хочет научиться интересно писать — о программировании и в целом.
Что: семь модулей, посвященных написанию, редактированию, иллюстрированию и распространению публикаций.
Для кого: для авторов, копирайтеров и просто программистов, которые хотят научиться интересно рассказывать о своих проектах.
👉Материалы регулярно дополняются, обновляются и корректируются. А еще мы отвечаем на все учебные вопросы в комментариях курса.
У нас вышла новая статья на
Ниже — небольшая выдержка из статьи, а целиком читайте здесь 👈
▫️NVIDIA продемонстрировала впечатляющие достижения в робототехнике на конференции GDC 2024. Посмотрите на гуманоидных роботов здесь.
▫️Компания DeepMind совместно с клубом Liverpool представила TacticAI — систему, которая может давать тактические советы футбольным тренерам.
▫️Stability AI выпустила модель Stable Video 3D, способную превращать изображения в 3D-видео.
🛠 Инструменты
▫️Arcads — генерирует маркетинговые видео с ИИ-актерами.
▫️Instanice — преобразует фото в любой нужный стиль, сохраняя внешность.
▫️PNGMaker — генерирует любые изображения на прозрачном фоне.
▫️Devika — опенсорсная альтернатива нашумевшему автономному агенту Devin от Cognition AI. Это ИИ-помощник, способный создавать сложные программные проекты с минимальным участием разработчика.
▫️GPT Prompt Engineer — агент для создания эффективных промптов. Поддерживает все модели OpenAI и Claude 3.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍2
35% на самый хардкорный курс по вышмату!
🌟 «Математика для Data Science» 🌟
19 490 рублей29 990 рублей до 1 апреля
Полугодовая программа от преподавателей МГУ, которая включает в себя все необходимые знания по математике для работы в Data Science.
Вас ждет развернутая обратная связь по всем домашним заданиям, а также ссылки на полезные дополнительные материалы.
У вас не будет шансов не усвоить какие-то темы курса👌
🔥 Переходите и активируйте вводные занятия курса — https://proglib.io/w/4b21349b
🌟 «Математика для Data Science» 🌟
19 490 рублей
Полугодовая программа от преподавателей МГУ, которая включает в себя все необходимые знания по математике для работы в Data Science.
Вас ждет развернутая обратная связь по всем домашним заданиям, а также ссылки на полезные дополнительные материалы.
У вас не будет шансов не усвоить какие-то темы курса👌
🔥 Переходите и активируйте вводные занятия курса — https://proglib.io/w/4b21349b
👍3
🔮Что такое проклятие размерности?
Проклятие размерности — это набор проблем, возникающих при работе с данными высокой размерности. Трудности появляются, когда мы имеем дело с пространством признаков с сотнями или даже тысячами измерений.
Основная проблема здесь заключается в том, что в высокоразмерных пространствах данные становятся очень разреженными. Вот пример:
👀 Допустим, мы используем метод ближайших соседей для задачи классификации. Чтобы алгоритм хорошо работал, объекты должны быть расположены достаточно плотно в пространстве признаков. Так, в единичном интервале [0,1] ста равномерно разбросанных точек будет достаточно, чтобы покрыть этот интервал с частотой не менее 0.01. Однако если мы возьмём 10-мерный куб, то для той же степени покрытия потребуется уже 10^20 точек.
То есть проклятие размерности связано с:
▫️ухудшением производительности алгоритмов, полагающихся на метрики расстояния;
▫️ростом вычислительной сложности;
▫️риском переобучения;
▫️трудностями визуализации.
❓Как с этим бороться?
— провести отбор признаков;
— снизить размерность данных с помощью метода главных компонент (PCA).
Проклятие размерности — это набор проблем, возникающих при работе с данными высокой размерности. Трудности появляются, когда мы имеем дело с пространством признаков с сотнями или даже тысячами измерений.
Основная проблема здесь заключается в том, что в высокоразмерных пространствах данные становятся очень разреженными. Вот пример:
👀 Допустим, мы используем метод ближайших соседей для задачи классификации. Чтобы алгоритм хорошо работал, объекты должны быть расположены достаточно плотно в пространстве признаков. Так, в единичном интервале [0,1] ста равномерно разбросанных точек будет достаточно, чтобы покрыть этот интервал с частотой не менее 0.01. Однако если мы возьмём 10-мерный куб, то для той же степени покрытия потребуется уже 10^20 точек.
То есть проклятие размерности связано с:
▫️ухудшением производительности алгоритмов, полагающихся на метрики расстояния;
▫️ростом вычислительной сложности;
▫️риском переобучения;
▫️трудностями визуализации.
❓Как с этим бороться?
— провести отбор признаков;
— снизить размерность данных с помощью метода главных компонент (PCA).
👍8❤5
🔥 Сайт с построчным объяснением кода различных DL-моделей
А точнее, авторы делают аннотации к реализациям моделей и архитектур из известных и интересных статей, в том числе про Transformers, StyleGAN, Stable Diffusion и др.
👍 Все аннотации представлены в удобном виде: слева написаны объяснения с формулами, а справа — сам код на PyTorch.
Также на сайте есть реализации оптимизиаторов и различных техник, используемых в глубоком обучении.В общем, залипнуть можно надолго.
🔗 Ссылка на сайт
А точнее, авторы делают аннотации к реализациям моделей и архитектур из известных и интересных статей, в том числе про Transformers, StyleGAN, Stable Diffusion и др.
👍 Все аннотации представлены в удобном виде: слева написаны объяснения с формулами, а справа — сам код на PyTorch.
Также на сайте есть реализации оптимизиаторов и различных техник, используемых в глубоком обучении.
🔗 Ссылка на сайт
👍16🔥8👏3❤1
🤖 Яндекс представил третье поколение больших языковых моделей YandexGPT
Это новая линейка YandexGPT 3.
▪️Первая модель из серии — YandexGPT 3 Pro — уже доступна по API на сайте Yandex Cloud, а также в бесплатном демо-режиме(доступно 30 запросов в час).
▫️Можно самостоятельно дообучить YandexGPT 3 Pro в сервисе Yandex DataSphere. Чтобы запустить процесс дообучения, нужно загрузить в DataSphere файл с примерами запросов и эталонными ответами на них.
🔗 Читать релиз Яндекса с подробностями
Это новая линейка YandexGPT 3.
▪️Первая модель из серии — YandexGPT 3 Pro — уже доступна по API на сайте Yandex Cloud, а также в бесплатном демо-режиме
▫️Можно самостоятельно дообучить YandexGPT 3 Pro в сервисе Yandex DataSphere. Чтобы запустить процесс дообучения, нужно загрузить в DataSphere файл с примерами запросов и эталонными ответами на них.
🔗 Читать релиз Яндекса с подробностями
👏4🥱2
Forwarded from Книги для дата сайентистов | Data Science
This media is not supported in the widget
VIEW IN TELEGRAM
🤩4
Forwarded from Библиотека задач по Data Science | тесты, код, задания
О чём говорит Центральная предельная теорема (ЦПТ)?
Anonymous Quiz
48%
При росте размера выборки её среднее приближается к среднему генеральной совокупности.
45%
Распределение суммы независимых случайных величин приближается к нормальному, если выборка велика
3%
Дисперсия случайной выборки увеличивается пропорционально размеру выборки
4%
Вероятность появления редкого события стремится к нулю при увеличении числа испытаний
👍4❤2
CausalML_book.pdf
15.3 MB
📚 Новая бесплатная книга по причинно-следственному выводу с помощью ML
Причинно-следственный вывод помогает понять, как изменение одной переменной может привести к изменению другой переменной.
Книга Causal ML Book представляет собой подробное руководство по использованию методов машинного обучения для анализа причинно-следственных связей. Например, в ней рассматриваются основы предсказательного вывода с использованием линейной регрессии, направленных ациклических графов и др.
🔥 Круче всего то, что к каждому разделу прилагаются примеры кода как на Python, так и на R.
🔗 Ссылка на книгу и дополнительные материалы к ней
Книга Causal ML Book представляет собой подробное руководство по использованию методов машинного обучения для анализа причинно-следственных связей. Например, в ней рассматриваются основы предсказательного вывода с использованием линейной регрессии, направленных ациклических графов и др.
🔥 Круче всего то, что к каждому разделу прилагаются примеры кода как на Python, так и на R.
🔗 Ссылка на книгу и дополнительные материалы к ней
🔥11
Forwarded from Библиотека нейросетей | ChatGPT, Midjourney, DeepSeek, Sora
Умение быстро находить решения сложных задач — один из самых важных навыков разработчика. Но найти по-настоящему полезную информацию в лавинообразном потоке SEO-оптимизированного контента бывает нелегко. На помощь придут ИИ-поисковики: они могут отыскать ответ на самый размытый запрос, а при необходимости — сгенерируют собственное решение.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4❤1