SenatorovAI | Школа Data Science Руслана Сенаторова
405 subscribers
125 photos
60 videos
141 links
Написать в личные сообщения @SenatorovLive

Школа DATA SCIENCE для любого уровня https://senatorovai.com

Курсы t.iss.one/RuslanSenatorov/2463

DS проекты @SenatorovFreelance

Основной канал @RuslanSenatorov

Ютуб youtube.com/SENATOROV
Download Telegram
Градиент функции f(x,y) = 2x² + 4y²  равен...
Anonymous Quiz
11%
(4;8)
76%
(4х;8у)
5%
(2х;2у)
7%
(2х²;4у²)
3
#group_1_scrum

Сегодня состоится созвон 1 группы в 18:00 по МСК
Ссылка: https://9dsqs1ue.ktalk.ru/brtrtbqod7o1

Обсудим проблемы и дальнейшие планы в школе

Ютуб | Школа SenatorovAI | Live
🔥2
🤖 Machine Learning — простыми словами

Machine Learning (ML) — это когда компьютер учится на данных, а не по жёстким правилам.
Мы не говорим программе «делай так», мы говорим «вот данные — найди закономерность».

Простой пример

Есть данные:
x — часы учёбы
y — результат экзамена

ML-модель:
смотрит на прошлые примеры
находит зависимость
предсказывает результат для новых данных

Ютуб | Школа SenatorovAI | Live
5
🧠 Основные типы ML
1.Supervised Learning (обучение с ответами)

Есть вход + правильный ответ
линейная регрессия
логистическая регрессия
деревья решений

Примеры:
прогноз цены
спам / не спам
оценка риска

2.Unsupervised Learning (без ответов)

Ответов нет, модель ищет структуру сама
кластеризация (KMeans)
понижение размерности

Примеры:
сегментация клиентов
поиск аномалий

3.Reinforcement Learning

Обучение через награду и штраф
агент
среда
стратегия

Примеры:
игры
роботы
автопилоты

📉 Ключевая идея ML

Модель минимизирует ошибку

Ошибка = разница между:
реальным значением
предсказанием

Для этого используют:
функцию потерь
градиент
оптимизацию

❗️ Глубокую математику можно учить по ходу, а не в начале.

Ютуб | Школа SenatorovAI | Live
🔥5💊3
🤖 Как ML-модель учится на данных

Machine Learning — это подбор параметров модели так, чтобы ошибка была минимальной.

📐 Модель = формула

Пример простой модели:

y = kx + b
x - вход
y - предсказание
k, b - параметры, которые ищет модель

ML не «думает», он подбирает k и b.

Ошибка и функция потерь

Ошибка - разница между:
реальным y
предсказанным y

Чтобы ошибки не компенсировали друг друга, берут квадрат ошибки.
Сумма этих квадратов = функция потерь (loss).

loss → минимум

Градиентный спуск
Алгоритм, который:
смотрит, куда ошибка уменьшается
делает маленькие шаги
повторяет много раз

Так модель учится.

🧠 Главное
ML — это не магия.
Это:
формула + ошибка + оптимизация.

Если это понятно - база ML у тебя уже есть

Ютуб | Школа SenatorovAI | Live
3🔥2
📊 Классический Machine Learning — база ML

Классический ML — это алгоритмы, которые работают с табличными данными, быстро обучаются и легко объясняются.
Это фундамент всего Machine Learning.

🧠 Что делает ML

Модель подбирает параметры так, чтобы ошибка была минимальной.
Пример простой модели:

y = kx + b

ML не думает — он оптимизирует.

🔑 Основные алгоритмы
Линейная регрессия — предсказание чисел (цена, зарплата)
Логистическая регрессия — классификация (0 / 1, да / нет)
KNN — решение по ближайшим соседям
Деревья решений — логика «вопрос → ответ»
Naive Bayes — вероятностный метод, часто для текста

📉 Ошибка и обучение

Ошибка = разница между реальным и предсказанным значением.
Используется функция потерь, которую модель минимизирует с помощью градиентного спуска.

🚀 Почему классический ML важен
проще нейросетей
быстрее и дешевле
часто достаточно для реальных задач
отличная база для DL и AI

Классический ML — это фундамент, без которого дальше идти сложно 🧱🔥

Ютуб | Школа SenatorovAI | Live
2💊2
Разработчик работает над багом в коде, и у него почти все готово для коммита.  Но в этот момент босс даёт ему срочную задачу. Как разработчику не потерять свои исправления?  Выберите оптимальное решение.
Anonymous Quiz
30%
Создать новую ветку и закоммитить в неё.
6%
Скопировать все изменения в новый файл с названием "Доделать"
62%
Использовать команду git stash
2%
Доделать первую задачу, босс подождёт.
Найдите производную сигмоиды -

функции у=1/(1+exp(-x))
Anonymous Quiz
16%
1/(1+exp(-x))²
16%
exp(x)/(1+exp(-x))²
57%
exp(-x)/(1+exp(-x))²
11%
1/exp(-x)
#group_2_scrum
Созвон 2 группы - 11.02.2026 Среда в 20-00

2 группа: https://cr2nsocc.ktalk.ru/sw1tpl3toeyl

Ютуб | Школа SenatorovAI | Live
#group_3_scrum
Созвон 3 группы - 13.02.2026 Пятница в 18-00
3 группа: https://g2rnrwqk.ktalk.ru/e2combx4mhhy

Ютуб | Школа SenatorovAI | Live
#group_1_scrum
Созвон 1 группы - 13.02.2026, пятница в 18 00.
1 группа: https://9dsqs1ue.ktalk.ru/brtrtbqod7o1

Ютуб | Школа SenatorovAI | Live