Media is too big
VIEW IN TELEGRAM
#group_3_scrum
05.02.2026
SENATOROV 👉 27:50 Урок по методам оптимизации
Студенты:
@lessWronger
https://github.com/lessWronger
@Gar_98
https://github.com/Gar-98
@Umarov2050
https://github.com/Otabek1121
@Jazzyflavor
https://github.com/J4zzyflavor
@oh_ddy
https://github.com/oh-ddy
@Viktor_Vin1
https://github.com/ViktorVinogradov89
@M4x4T
https://github.com/M4x4T
Ютуб | Школа SenatorovAI | Live
05.02.2026
SENATOROV 👉 27:50 Урок по методам оптимизации
Студенты:
@lessWronger
https://github.com/lessWronger
@Gar_98
https://github.com/Gar-98
@Umarov2050
https://github.com/Otabek1121
@Jazzyflavor
https://github.com/J4zzyflavor
@oh_ddy
https://github.com/oh-ddy
@Viktor_Vin1
https://github.com/ViktorVinogradov89
@M4x4T
https://github.com/M4x4T
Ютуб | Школа SenatorovAI | Live
🔥4
Градиент функции f(x,y) = 2x² + 4y² равен...
Anonymous Quiz
11%
(4;8)
76%
(4х;8у)
5%
(2х;2у)
7%
(2х²;4у²)
❤3
#group_1_scrum
Сегодня состоится созвон 1 группы в 18:00 по МСК
Ссылка: https://9dsqs1ue.ktalk.ru/brtrtbqod7o1
Обсудим проблемы и дальнейшие планы в школе
Ютуб | Школа SenatorovAI | Live
Сегодня состоится созвон 1 группы в 18:00 по МСК
Ссылка: https://9dsqs1ue.ktalk.ru/brtrtbqod7o1
Обсудим проблемы и дальнейшие планы в школе
Ютуб | Школа SenatorovAI | Live
9dsqs1ue.ktalk.ru
Group 1
Подключиться к видеоконференции
🔥2
🤖 Machine Learning — простыми словами
Machine Learning (ML) — это когда компьютер учится на данных, а не по жёстким правилам.
Мы не говорим программе «делай так», мы говорим «вот данные — найди закономерность».
Простой пример
Есть данные:
x — часы учёбы
y — результат экзамена
ML-модель:
смотрит на прошлые примеры
находит зависимость
предсказывает результат для новых данных
Ютуб | Школа SenatorovAI | Live
Machine Learning (ML) — это когда компьютер учится на данных, а не по жёстким правилам.
Мы не говорим программе «делай так», мы говорим «вот данные — найди закономерность».
Простой пример
Есть данные:
x — часы учёбы
y — результат экзамена
ML-модель:
смотрит на прошлые примеры
находит зависимость
предсказывает результат для новых данных
Ютуб | Школа SenatorovAI | Live
❤5
🧠 Основные типы ML
1.Supervised Learning (обучение с ответами)
Есть вход + правильный ответ
линейная регрессия
логистическая регрессия
деревья решений
Примеры:
прогноз цены
спам / не спам
оценка риска
2.Unsupervised Learning (без ответов)
Ответов нет, модель ищет структуру сама
кластеризация (KMeans)
понижение размерности
Примеры:
сегментация клиентов
поиск аномалий
3.Reinforcement Learning
Обучение через награду и штраф
агент
среда
стратегия
Примеры:
игры
роботы
автопилоты
📉 Ключевая идея ML
Модель минимизирует ошибку
Ошибка = разница между:
реальным значением
предсказанием
Для этого используют:
функцию потерь
градиент
оптимизацию
❗️ Глубокую математику можно учить по ходу, а не в начале.
Ютуб | Школа SenatorovAI | Live
1.Supervised Learning (обучение с ответами)
Есть вход + правильный ответ
линейная регрессия
логистическая регрессия
деревья решений
Примеры:
прогноз цены
спам / не спам
оценка риска
2.Unsupervised Learning (без ответов)
Ответов нет, модель ищет структуру сама
кластеризация (KMeans)
понижение размерности
Примеры:
сегментация клиентов
поиск аномалий
3.Reinforcement Learning
Обучение через награду и штраф
агент
среда
стратегия
Примеры:
игры
роботы
автопилоты
📉 Ключевая идея ML
Модель минимизирует ошибку
Ошибка = разница между:
реальным значением
предсказанием
Для этого используют:
функцию потерь
градиент
оптимизацию
❗️ Глубокую математику можно учить по ходу, а не в начале.
Ютуб | Школа SenatorovAI | Live
🔥5💊3
Media is too big
VIEW IN TELEGRAM
#group_1_scrum
06.02.2026
13:11 Senatorov
Запись созвона 1 группы
Студенты:
@escape0x0d
https://github.com/SERG-1613
@hasan
https://github.com/hasan613
@shn4ydar
https://github.com/Shn4yder/
@svet_lana1588
https://github.com/svetlana-s88
Ютуб | Школа SenatorovAI | Live
06.02.2026
13:11 Senatorov
Запись созвона 1 группы
Студенты:
@escape0x0d
https://github.com/SERG-1613
@hasan
https://github.com/hasan613
@shn4ydar
https://github.com/Shn4yder/
@svet_lana1588
https://github.com/svetlana-s88
Ютуб | Школа SenatorovAI | Live
🤖 Как ML-модель учится на данных
Machine Learning — это подбор параметров модели так, чтобы ошибка была минимальной.
📐 Модель = формула
Пример простой модели:
y = kx + b
x - вход
y - предсказание
k, b - параметры, которые ищет модель
ML не «думает», он подбирает k и b.
Ошибка и функция потерь
Ошибка - разница между:
реальным y
предсказанным y
Чтобы ошибки не компенсировали друг друга, берут квадрат ошибки.
Сумма этих квадратов = функция потерь (loss).
loss → минимум
⛰ Градиентный спуск
Алгоритм, который:
смотрит, куда ошибка уменьшается
делает маленькие шаги
повторяет много раз
Так модель учится.
🧠 Главное
ML — это не магия.
Это:
формула + ошибка + оптимизация.
Если это понятно - база ML у тебя уже есть
Ютуб | Школа SenatorovAI | Live
Machine Learning — это подбор параметров модели так, чтобы ошибка была минимальной.
📐 Модель = формула
Пример простой модели:
y = kx + b
x - вход
y - предсказание
k, b - параметры, которые ищет модель
ML не «думает», он подбирает k и b.
Ошибка и функция потерь
Ошибка - разница между:
реальным y
предсказанным y
Чтобы ошибки не компенсировали друг друга, берут квадрат ошибки.
Сумма этих квадратов = функция потерь (loss).
loss → минимум
⛰ Градиентный спуск
Алгоритм, который:
смотрит, куда ошибка уменьшается
делает маленькие шаги
повторяет много раз
Так модель учится.
🧠 Главное
ML — это не магия.
Это:
формула + ошибка + оптимизация.
Если это понятно - база ML у тебя уже есть
Ютуб | Школа SenatorovAI | Live
❤3🔥2
📊 Классический Machine Learning — база ML
Классический ML — это алгоритмы, которые работают с табличными данными, быстро обучаются и легко объясняются.
Это фундамент всего Machine Learning.
🧠 Что делает ML
Модель подбирает параметры так, чтобы ошибка была минимальной.
Пример простой модели:
ML не думает — он оптимизирует.
🔑 Основные алгоритмы
Линейная регрессия — предсказание чисел (цена, зарплата)
Логистическая регрессия — классификация (0 / 1, да / нет)
KNN — решение по ближайшим соседям
Деревья решений — логика «вопрос → ответ»
Naive Bayes — вероятностный метод, часто для текста
📉 Ошибка и обучение
Ошибка = разница между реальным и предсказанным значением.
Используется функция потерь, которую модель минимизирует с помощью градиентного спуска.
🚀 Почему классический ML важен
проще нейросетей
быстрее и дешевле
часто достаточно для реальных задач
отличная база для DL и AI
Классический ML — это фундамент, без которого дальше идти сложно 🧱🔥
Ютуб | Школа SenatorovAI | Live
Классический ML — это алгоритмы, которые работают с табличными данными, быстро обучаются и легко объясняются.
Это фундамент всего Machine Learning.
🧠 Что делает ML
Модель подбирает параметры так, чтобы ошибка была минимальной.
Пример простой модели:
y = kx + bML не думает — он оптимизирует.
🔑 Основные алгоритмы
Линейная регрессия — предсказание чисел (цена, зарплата)
Логистическая регрессия — классификация (0 / 1, да / нет)
KNN — решение по ближайшим соседям
Деревья решений — логика «вопрос → ответ»
Naive Bayes — вероятностный метод, часто для текста
📉 Ошибка и обучение
Ошибка = разница между реальным и предсказанным значением.
Используется функция потерь, которую модель минимизирует с помощью градиентного спуска.
🚀 Почему классический ML важен
проще нейросетей
быстрее и дешевле
часто достаточно для реальных задач
отличная база для DL и AI
Классический ML — это фундамент, без которого дальше идти сложно 🧱🔥
Ютуб | Школа SenatorovAI | Live
❤2💊2
Разработчик работает над багом в коде, и у него почти все готово для коммита. Но в этот момент босс даёт ему срочную задачу. Как разработчику не потерять свои исправления? Выберите оптимальное решение.
Anonymous Quiz
30%
Создать новую ветку и закоммитить в неё.
6%
Скопировать все изменения в новый файл с названием "Доделать"
62%
Использовать команду git stash
2%
Доделать первую задачу, босс подождёт.
Вы нашли интересный репозиторий на GitHub и решили внести свой вклад в его развитие. Ваше первое действие?
Anonymous Quiz
32%
Создать issue в этом репозитории с описанием своих намерений.
50%
Сделать fork репозитория.
10%
Попросить владельца репозитория о предоставлении прав на редактирование.
8%
Чужой репозиторий изменять нельзя.
Найдите производную сигмоиды -
функции у=1/(1+exp(-x))
функции у=1/(1+exp(-x))
Anonymous Quiz
16%
1/(1+exp(-x))²
16%
exp(x)/(1+exp(-x))²
57%
exp(-x)/(1+exp(-x))²
11%
1/exp(-x)
#group_2_scrum
Созвон 2 группы - 11.02.2026 Среда в 20-00
2 группа: https://cr2nsocc.ktalk.ru/sw1tpl3toeyl
Ютуб | Школа SenatorovAI | Live
Созвон 2 группы - 11.02.2026 Среда в 20-00
2 группа: https://cr2nsocc.ktalk.ru/sw1tpl3toeyl
Ютуб | Школа SenatorovAI | Live
#group_3_scrum
Созвон 3 группы - 13.02.2026 Пятница в 18-00
3 группа: https://g2rnrwqk.ktalk.ru/e2combx4mhhy
Ютуб | Школа SenatorovAI | Live
Созвон 3 группы - 13.02.2026 Пятница в 18-00
3 группа: https://g2rnrwqk.ktalk.ru/e2combx4mhhy
Ютуб | Школа SenatorovAI | Live
#group_1_scrum
Созвон 1 группы - 13.02.2026, пятница в 18 00.
1 группа: https://9dsqs1ue.ktalk.ru/brtrtbqod7o1
Ютуб | Школа SenatorovAI | Live
Созвон 1 группы - 13.02.2026, пятница в 18 00.
1 группа: https://9dsqs1ue.ktalk.ru/brtrtbqod7o1
Ютуб | Школа SenatorovAI | Live