Kantor.AI
11.6K subscribers
144 photos
12 videos
5 files
188 links
Канал Виктора Кантора про Data Science, образование и карьеру в сфере анализа данных. По вопросам сотрудничества: @mariekap

РКН: 5140322136
Download Telegram
#математика

↗️ Идея вот в чем. Если посчитать производную L по a1, а остальные переменные считать константами, получится так называемая частная производная L по a1. А вектор, координатами которого будут частные производные L по a1, a2, ... и ad - называется градиентом. Так вот оказывается, что градиент соответствует направлению наискорейшего роста функции. Т.е. если вам скажут чуть-чуть изменить коэффициенты a1, a2, ..., ad так, чтобы L выросла как можно сильнее - то надо менять их в направлении градиента.

💡 Какое это имеет отношение к нашей задачи поиска минимума? Самое прямое. Если вы хотите как можно быстрее уменьшить L, надо менять параметры в направлении антиградиента (градиент, умноженный на минус 1). Это породило простую идею: начинаем с некоторых случайных весов a1, a2, ..., ad, а дальше считаем антиградиент и меняем веса в его направлении, затем пересчитываем антиградиент уже с новыми весами, а потом снова меняем веса в направлении антиградиента и так до посинения. Ну ладно, не до посинения, а до момента, когда L уже существенно не уменьшается. Найденные значения коэффициентов и будут тем, что мы искали.

Таким образом, найти коэффициенты модели, при которых мы будем как можно точнее работать на обучающей выборке (и понадеемся, что на новых примерах прогнозы будут тоже адекватными) можно с помощью численной оптимизации, например с помощью описанного выше градиентного спуска.

Что из математики при этом нужно знать вам? Если вы применяете ML алгоритмы как черные ящики, то почти ничего. А если вы претендуете на понимание их работы и умение все вывести и расписать - ну тогда достаточно уметь брать производные и знать, как перемежаются матрицы. В нейросетях еще потребуется не пугаться правила дифференцирования сложной функции (chain rule) и его версии для функции многих переменных (гуглим, что такое граф вычислений и как он связан с производной сложной функции) 🙂

А в следующий раз мы поговорим о том, что же нужно знать из теории вероятностей и математической статистики (и зачем).

P.S.: Если вы будете заниматься всякими теоретическими оценками в машинном обучении (если у вас нет математического образования - скорее всего не будете), например оценками обобщающей способности или доказательством того, что при определенных условиях все локальные минимумы ошибки нейросети являются глобальными, вам потребуются гораздо более глубокие вещи. Там найдется место и множествам меры нуль по Лебегу, и устойчивости по Ляпунову, но все это другая история, которой мы коснемся когда-нибудь в другой раз 🙂
🔥45👍2813💯9👏3🥰1
#образование
Моя история запуска школы ML🖋️
(часть 1)


Итак, с чего начинается запуск школы ML? С людей, которые ее запустят.

↪️В сентябре прошлого года, как раз когда я уже твердо определился с планом запускать коммерческий образовательный проект, мне написал Савелий - человек, с которым много лет назад меня познакомил мой однокурсник. Савелий закончил ВШЭ и ни дня не работал в больших компаниях - только предпринимательствовал.

🗣️Савелий предложил делать вместе онлайн-школу ML. Т.к. отношения к ML он не имел, я сразу рубанул ему в личку суть и спросил (дословно): "А ты в ней зачем?". Савелий не растерялся, рассказал о своем опыте в построении процессов, наборе команды и маркетинге, короче, проверку на пацана прошел на ура. Поэтому мы договорились встретиться.

На встрече выяснилось нечто очень классное: Савелий тоже, как и я, не хочет заниматься инфоцыганством, и наше с ним видение очень быстро сошлось к концепции "Стэнфорд в области ML и в онлайне". Слово Стэнфорд здесь не означает копирование конкретного университета, а скорее синоним приличного заведения с серьезным уровнем подготовки.

🧑‍💻На серьезное заведение нужны серьезные преподаватели. Поэтому я взял в оборот двух друзей, с каждым из которых мы вместе съели пуд соли. И этой историей я подробнее поделился в канале MLinside
🔥29👍2013🤔4👌2👏1
Forwarded from MLinside - школа ML
Первое видео на YouTube в рамках школы MLinside 🚩

Рад сообщить, что мы с командой дали старт проекту MLinside в том числе и на youtube-канале. В вводном видео я рассказал о том, как бы я учил машинное обучение в 2024, если бы начинал с нуля.

Буду рад вашей поддержке в виде подписки, лайка и комментария

Приятного просмотра⬇️
https://www.youtube.com/watch?v=ylMFNJID3Ks&ab_channel=MLinside
49🔥32👍17😈7🥰3👏2
#classic_ML

Линейные модели (часть 1)

Когда люди, знакомые со статистикой, слышат, что линейная регрессия или логистическая регрессия - это тоже машинное обучение, они иногда смеются, что все понятно, раньше это называлось статистикой. Но ML и правда надстройка над прикладной статистикой, поэтому не удивительно, что какие-то ее методы легли в основу машинного обучения.

В общем случае линейная модель в машинном обучении выглядит следующим образом. В задаче регрессии:

f(x[1], x[2], ..., x[d]) = w1 * x[1] + w2 * x[2] + ... + wd * x[d]

Где x[1], x[2], ..., x[d] - признаки объекта x,
w[1], w[2], ..., w[d] - веса этих признаков в нашей модели, о подборе которых мы еще поговорим далее.

В задаче классификации на два класса:

То же самое выражение для f, но выбор класса осуществляется по знаку f (>0 - отвечаем класс 1, <0 - отвечаем класс 0).

В задаче классификации на много классов:

Строим свою f для каждого класса (считаем его 1, а все остальные 0), а дальше выбор класса при прогнозе делаем по принципу «какая f больше, тем классом и отвечаем». Такой подход называется One-vs-all («один против всех» в русской локализации).

Остается сделать буквально пару ремарок:

1) Разумеется, случай f = 0 тоже возможен, но если признаки это просто вещественные числа, математически маловероятен. Поэтому хоть в случае f = 0 и было бы правильно отказываться от классификации, можно приписать его куда угодно - хоть в класс 0, хоть в класс 1, различия в теоретической части будут не очень большими.

2) Вы могли заметить, что все веса в формуле для регрессии умножаются на признаки. Но наверно было бы неплохо предусмотреть некий свободный коэффициент w0 (в английской литературе intercept), просто добавляемый к формуле выше, чтобы при нулевых значениях признаков прогноз не был обязан быть нулем (ну например, прогнозируете вы температуру воздуха где-нибудь в ОАЭ, ясно, что почти при любых значениях признаков нуля по Цельсию вам ожидать не стоит). Однако оказывается, что пока мы пишем формулы, а не реализуем алгоритм в программном коде, предусматривать ничего и не надо. Представьте, что в нашем объекте был добавлен искусственно еще один признак х0, который всегда равен 1. Тогда коэффициент перед ним и будет нашим w0. Значит можем писать формулы как писали раньше, только не забываем, что спрятали там вот такой костыль 🙂

Окей, остается вопрос, как подобрать коэффициенты w. Ответ предельно прост: градиентным спуском (о нем я уже писал ранее). Например, если в задаче регрессии вы заходите минимизировать средний квадрат ошибки, то w находится градиентным спуском как минимум L(w), где L:

L(w1, ... ,wd) = ((y1 - f(x1))^2 + (y2 - f(x2))^2 + ... + (yN - f(xN))^2) / N

(Кто хочет спросить, где же в формуле веса w, напомню, что они сидят в формуле для f)

Начав со случайных значений весов, шаг за шагом вы будете приближаться к оптимальным весам, пересчитывая антиградиент L по w и добавляя его к весам. Когда ошибка перестанет существенно меняться, вы можете считать что с какой-то точностью нашли минимум L, и уж по крайней мере полученные веса достаточно неплохие для вашей задачи.
34👍26🙏9❤‍🔥5🔥3
Однако внимательный читатель может заметить, что в формуле для L целых N слагаемых. Если в нашей обучающей выборке, например, миллион объектов, то значит ли это, что нам постоянно на каждом шаге нужно считать сумму из миллиона слагаемых? Конечно нет. Вы можете взять не всю выборку, а ее маленькую часть, например, 100 объектов или 10, и усреднить ошибку по ним. И градиент считать тоже по такой ошибке. Конечно это будет не такой точной оценкой средней ошибки, но тоже сойдет, а если на каждом шаге вы усредняете по новым случайно выбранным объектам - то этот случайный выбор нивелирует неточность оценки средней ошибки на каждом шаге. Такой подход называется стохастическим градиентным спуском (SGD, Stochastic Gradient Descent), а тот набор объектов, по которому вы усредняете ошибку на текущем шаге, называется пакетом или батчем (mini-batch). В предельном случае батч может состоять из одного объекта - т.е. вы просто каждый раз смотрите на ошибку на случайном объекте. И такой алгоритм будет работать на практике.

Идея SGD идет гораздо дальше линейных классификаторов - работая с оптимизацией любой большой суммы довольно однотипных слагаемых, вы можете также ограничиться случайным слагаемым или слагаемыми, просто менять их выбор на каждом шаге оптимизации. Тот же SGD применяется и в матричных разложениях, и в нейросетях и в разных уже древних методах обучения эмбеддингов типа word2vec. Поэтому принцип работы SGD очень важно понимать, если вы сколько-нибудь серьезно занимаетесь машинным обучением.

А в следующий раз мы поговорим о переобучении в линейных моделях, и чем случай классификации отличается от регрессии.
61👍38🥰27🔥13💩10👏1
#образование
Моя история запуска школы ML
(3 часть) - об организационных этапах открытия бизнеса📑

👉Итак, я нашел первых преподавателей, Савелий познакомил меня с Марией - менеджером нашего проекта, ядро команды было в сборе. Начались регулярные созвоны. Но до того, как мы погрузимся в тонкости разработки курсов (в следующих частях) - небольшое лирическое отступление про организационные моменты.

Первый вопрос, который возникает при регистрации бизнеса - а что именно регистрируем?

Соучредителем ООО я уже однажды был, когда мы с однокурсниками и зав. кафедрой делали свой стартап. Тогда вопросами регистрации занимался не я. В дальнейшем у меня было только ИП, поэтому я, мягко говоря, не эксперт в юридических вопросах, но если кратко - различия следующие:

1️⃣ В ИП ты - единственный «владелец», отвечаешь всем своим имуществом. Вывод денег со счета ИП себе максимально прост - просто спокойно переводи себе на счет физ.лица, не забывая платить налоги, разумеется (а с современными банками для ИП типа Модульбанка и Точки делать это вообще мега удобно);

2️⃣ В ООО ты можешь быть одним из учредителей, у вас есть так называемый уставной капитал (от 10 тыс. рублей), и им вы и отвечаете. Деньги ты не можешь просто так перекинуть себе на счет физ.лица, нужно платить их себе через зарплату или дивиденды.

Мы с Савелием оба хотели сразу зафиксировать юридически наши партнерские договоренности по долям, поэтому нужно было регистрировать ООО. Но т.к. я еще был на тот момент топ-менеджером МТС, а тянуть с регистрацией совсем не хотелось, я отправился в комплаенс МТС согласовывать регистрацию ООО (комплаенс отвечает за разного рода конфликты интересов и мониторинг связанных с ними рисков, за соблюдение деловой этики и стандартов работы в приличных компаниях).

Получив «ок» от комплаенс и президента компании (как от непосредственного руководителя), я зарегистрировал с Савелием ООО и прислал данные по юр.лицу своему работодателю. И этот квест тоже был с некоторыми сабквестами🔽

🔹Во-первых, когда мы подавали документы первый раз, нотариус отказался их принимать (не хватало чего-то из разряда «где-то ИНН не указан» или чего-то подобного). Взяв полчаса на исправление, мы внесли правки и переслали обновленный документ по e-mail. В ответ получили мини-лекцию о том, что нотариус - это не копировальный центр, чтобы тут что-то печатать😅 В итоге, нам все распечатали, дали подписать и приняли

🔹Во-вторых, для окончания регистрации нужно было с компа подписать что-то с помощью ЭЦП (уж простите, не помню деталей - давно было, плюс процесс регистрации вел почти целиком Савелий, за что ему огромное спасибо). Я, как всегда, дотянул до момента, когда нужно было срочно получить ЭЦП. Оформил заявку, выбрал офис для получения, а потом мне перезвонили и сказали, что в этом офисе не выдают ЭЦП (почему он есть на сайте - знать не знают). Пришлось ехать на другой конец Москвы. Ну, час в одну сторону, час в другую, и я с ЭЦП. Вечером того же дня все, что нужно, было подписано.

Вообще я, конечно, до жути счастлив, что у меня сейчас есть партнер, который может брать на себя все, что касается оформления компании, разработки лендинга, маркетинга и прочих вещей, которые мне ну совсем не интересны. А я наслаждаюсь тем, что нужно просто вовремя (или не сильно продолбав сроки) куда-то приехать или что-то прислать, а все остальное время можно заниматься моим любимым делом - работать с командой преподов, готовить материалы и придумывать курсы📚

🗂️Из веселых бюрократических приключений у нас еще впереди получение образовательной лицензии. Там раньше (сейчас не знаю, последний раз изучал лет 7 назад) было относительно гибко: можно было заниматься консультированием, а не обучением, если ты не по какой-то официально существующей специальности учишь и не выдаешь дипломы. Но мы с Савелием опять же сразу сошлись на том, что хотим сразу делать со всей солидностью. Про этот квест я вам расскажу тогда, когда мы его допройдем.

Ну а в следующий раз я расскажу о том, с чего начинается работа над курсом. Кстати, а вы как думаете, с чего? 🙂
👍10836🔥32👏12
#подкаст

Пока мы продолжаем монтировать 2 сезон подкаста ТехТок, продолжаю напоминать, что в первом сезоне мы общались с гостями из IT про их опыт. Второй выпуск был с Александром Гостевым - антивирусным экспертом «Лаборатории Касперского».

https://music.yandex.ru/album/23021001/track/106428451?

Тут и про карьеру самоучки, и про зарождение вирусов и антивирусов, и про работу с Интерполом, и про то, как вирусы бегали по мобильным зрителей на стадионе, пока игроки бегали по полю 🔥🔥🔥

P.S.: Огромное спасибо моему тогдашнему пиарщику Кате Трифоновой, которая этих прекрасных людей собрала к нам в подкаст :) Эти беседы с гостями были просто отдушиной в обычной менеджерской рабочей неделе.
🔥159👍10387👏74🎅21🎉15🥰14💯14
🎙️Мы с командой MLinside выпустили интервью с Chief Data Officer’ом Яндекс.Еды и преподавателем нашей школы ML, Ильей Ирхиным.

🚀 Илья поделился своим опытом работы в машинном обучении в течение 8 лет, за которые он успел стать топ-менеджером одного из ключевых сервисов компании, попреподавать, решить кучу интересных алгоритмических задач и прокачаться в people management. Обязательно смотреть всем, кто хочет послушать интервью с позитивным и умным гостем, а также узнать, какие задачи решают аналитики и дата саентисты Яндекс.Еды, как попасть в Яндекс и построить там успешную карьеру и как обуздать свой синдром самозванца навсегда 😎

А чтобы не пропустить такой контент в будущем, подписывайтесь на тг-канал школы MLinside ☝️
👍70🔥2924🎉2😁1
#личное
Чему и как я учусь у своих студентов и сотрудников

👨‍🏫 Чему я учусь у своих сотрудников и студентов? Это две немного разные истории. У студентов я учусь новым знаниям в своей сфере, потому что они действительно быстрее узнают новое и вообще интересуются всем. Когда я вижу, что студент начинает разбираться в чём-то, что я пока что не понимаю (применительно к Data Science), я, конечно, сразу с интересом «принимаю вызов», начинаю читать и копать.

🏃 Понятное дело, что я всё равно «проигрываю» и «не успеваю». Наша сфера развивается с такой скоростью, что постоянно «выигрывать» не получится. Но мне проще, потому что можно выезжать на кругозоре и на том, что я уже до этого видел. Есть много аналогий между какими-то новыми вещами в Data Science и тем, что уже было. Поэтому, так или иначе, студенты меня вдохновляют на то, чтобы продолжать сохранять какую-то актуальность в своей области. И я учусь у них находить источники для новых тем.

🤺 Если же мы говорим про сотрудников, то у них я учусь тому, как вести себя в непростых ситуациях на работе. Все мы сталкиваемся с тем, что иногда ограничены ресурсы или, например, постановка задачи недостаточно ясная и нет возможности её уточнить. В этих обстоятельствах разные люди ведут себя по-разному.

🐀 Классическая проблема корпоративного управления — принятие решений на основе отзывов сотрудников друг о друге. Как правило, весьма нелестных. Здесь у меня был очень поучительный случай с моей сотрудницей. Она применительно к моему разговору с ней по мотивам жалоб от коллег выдала мне следующий тезис:

Жалобы могут быть какие угодно, но не надо принимать по ним никаких решений без её участия. Надо сказать, что к тому моменту я уже пару лет работал в топ-менеджменте и был в шоке, что «так можно было». Я пошёл к своему руководителю, сказал ему то же самое, и ВНЕЗАПНО его ТОЖЕ устроила такая постановка вопроса.

🤝 То есть — кто на что договорился. Если вы не проговариваете правила игры со своим менеджером, то откуда ему знать, чего вы хотите. Поэтому просто прямо общайтесь, договариваясь, что приемлемо, а что нет. А я для себя после этого взял за правило, что если ко мне приходят два сотрудника и жалуются друг на друга, то мы разбираемся в ситуации втроём. А попытки решить вопрос только через меня без оппонента я жестко отсекаю.

🤘 Я ни капельки не стесняюсь, что научился этому у своей сотрудницы. Хотя, казалось бы, такая очевидная вещь и надо было самому догадаться миллион лет назад. Мы часто в каких-то простых ситуациях можем быть очень глупыми. И главный способ бороться с этим — смотреть на мир вокруг, видеть других людей, наблюдать, как они справляются с проблемами, и учиться у них. Так что учитесь у тех, кто вас окружает, и вы всегда сможете выйти из сложной ситуации.
59👍21🔥3💩3🥰2
#квиз
Мой спортивный интерес — дадите ли вы правильный ответ на вопрос, в котором есть слово «спорт». Только не ищите ответ в гугле — это будет как-то не спортивно 😁
🔥9👍4😁3💯2
#образование
Моя история запуска школы ML
(часть 4) - с чего начинается разработка курса


В прошлый раз мы закончили на важном вопросе - с чего начинается разработка курса?📚

↪️Не буду томить: конечно же, с анализа потребностей аудитории. Для этого мы и проводили опросы перед стартом. Опрос проводился в этом канале как в основном канале привлечения слушателей на начальном этапе (дальше у нас тоже есть план, но всему свое время).

💭Честно говоря, когда я заводил телеграм-канал несколько лет назад, целью было ровно это - аккумулировать аудиторию до тех пор, пока я все-таки не решу, что именно сделать делом моей жизни дальше. Сейчас я определился со своей целью: построение экосистемы из компаний, занимающихся образованием, карьерным развитием, консалтингом, аутсорсом AI проектов и акселерацией AI-стартапов, с глобальной миссией замашинлернить весь бизнес в России и ряде соседних стран. И первый шаг к этому - школа машинного обучения MLinside.

🚀Но вернемся с небес на землю - к запуску первого курса. Мы с командой выбрали наиболее эффективный канал привлечения на старте (этот канал в tg) и начали с опроса. Он показал, что в основном у людей есть запрос на погружение в применение ML в бизнесе, в активно развивающийся сейчас Deep Learning и в конкретные узкие темы. При этом запрос на базовый ML тоже был большой. Дальше мы пересекли это с темами, по которым у нас наработано больше всего материалов сейчас (или по которым я знаю крутых преподавателей и команды, которые могут запустить классный курс). Мы учли уникальность курсов (чтобы на горизонте полугода у нас появился как минимум один флагманский курс, который пока еще не смог запустить никто, и который будет явным прорывом в обучении ML) и возникла примерная очередность запусков.

☝️Первым курсом стал базовый ML, потому что запрос на него хоть и не максимальный, но очень большой. И к нему есть очень много материалов (14+ лет только моего непрерывного преподавания студентам, сотрудникам компаний и даже школьникам, а есть еще другие преподаватели). Кроме того, более экспертные курсы точно будут создавать поток лидов и на узкие курсы, и на базовый ML. Поэтому хочется при запуске и продвижении экспертных курсов сразу иметь базовый, чтобы не терять лиды. Это мой довод за то, чтобы начинать все с начала, а не с того, что сейчас на хайпе.

Разумеется, можно сказать, что сначала нужно наоборот сделать супер-экспертные курсы, чтобы создать школе репутацию, а потом уже идти вниз по сложности и забирать рынок. Честное слово, обосновать можно все что угодно. Так что давайте остановимся на том, что первым делом мне хотелось взяться за то, что я точно могу сделать лучше всех. И опросы показали, что это не бессмысленное занятие. Даже в 2024 году, когда курсов по ML просто тьма.

📖Определившись с первым курсом, мы распараллелили процесс: набросали примерную программу с нашей экспертной точки зрения, чтобы уже собирать и дорабатывать материалы, а также продолжили заниматься кастдевом и узнавать больше о болях, потребностях и опыте наших будущих слушателей. О том, чем это закончилось, я буквально вчера рассказал в канале MLinside.

В итоге мы столкнулись с необходимостью перейти к более гибкому формату, который позволит пройти курс хоть за 2 месяца (как мы хотели изначально), хоть за 6. И опыт такого формата у меня уже был - это наша специализация «Машинное обучение и анализ данных», запущенная на Coursera Яндексом и МФТИ. Там действительно можно было все 6 курсов специализации при желании пройти хоть за неделю. Главное - успевать изучать контент и делать задания.

👥Чтобы лучше осознать и проанализировать тот опыт (очень успешный, 200+ тысяч слушателей тому подтверждение), мне теперь очень нужно опросить выпускников нашей специализации⬇️

Те, кто учился у нас на Coursera - пожалуйста, откликнитесь в комментариях к этому посту и напишите свой отзыв об этом обучении👇
Вы очень поможете появиться новому классному курсу своим фидбеком 🙂

Ну а в следующий раз я поделюсь с вами инсайтами из отзывов выпускников и тем, как они наложились на мой опыт преподавания. Поверьте, там было очень интересно!
18🔥7👍4
#квиз
Ответ на «спортивный» квиз: https://ru.m.wikipedia.org/wiki/Hawk-Eye
💩15👍9😁3🏆1
#карьера
Как вы помните, недавно мы с командой выложили на youtube-канал MLinside интервью с одним из преподавателей нашей школы ML и CDO Яндекс.Еды, Ильей Ирхиным.

В комментариях слушателей неизбежно беспокоило, что в ролике мы не озвучиваем зарплаты и вообще мало говорим про деньги💰

Чтобы удовлетворить этот интерес, показываю восстановленное по опросу в этом канале распределение зарплат джунов, миддлов и синьоров в Data Science👇

Надеюсь, что эти распределения будут вам полезны и помогут понять, чего ожидать на каждом этапе :)

Disclaimer: помните, что когда вы только переходите на какой-то грейд, скорее всего вы будете в нижней части распределения по зарплате, и это нормально. Но по мере набора опыта и повышений зарплаты ваше положение в общей статистике будет ожидаемо улучшаться.
18👍9🙏4
#подкаст

Итак, первый выпуск 2 сезона ТехТока смонтирован, скоро будем выкладывать. Первой темой будет машинное обучение в целом, а в следующих выпусках пойдем по отдельным приложениям. Попробуйте угадать в комментариях, кто гость интервью :)
🤔12🔥6🎉3
#подкаст

А пока подсвечу еще один классный выпуск из первого сезона - с СТО Ozon Антоном Степаненко

Два наиболее важных для меня тезиса из интервью:

🏋️ Главное качество руководителя - воля

🥮 Интеллектуальный труд
у людей гораздо лучше получается в blameless культуре
18👍4🔥1👌1
#квиз
Сегодня у нас совершенно издевательский вопрос в квизе. Вопросы «выбери лишнее» в принципе должны быть уголовно наказуемы, но пока законом не запрещено, так что отгадываем :)
15💩5🤯2😈1
#квиз
Ответ на квиз. Слышали про «белый шум»? Так вот все цвета, кроме желтого, это существующие названия «цвета» шума.
🔥38🫡21💩6👍2🤔1
А поделитесь в комментах историями, кто смог устроиться в Data Science, не имея высшего физмат образования. Знаю геолога, химика, экономиста и филолога, интересно, кто еще бывает :)
7💩6
#образование #игры

Обучающие игры (часть 1)

Год или два назад мы уже поднимали тут тему обучения в играх, давайте снова к ней вернемся.

⚠️ Накидайте в комменты образовательно полезные игры, которые лично вам нравятся (можно инди, можно и созданные игровыми студиями :)

Мой пример - Timeflow, которая есть и на мобильных устройствах, и в Steam, и на мой взгляд оказалась очень поучительной, т.к. позволяет пройти через много довольно жизненных ситуаций. Не является рекламой, я искренне залип в нее наверно больше, чем на 100 часов.

Широко известные монополия и сashflow Роберта Кийосаки не учитывают один важный момент: ограниченность времени игрока на заработки. Несложно становиться магнатом, когда у тебя бесконечное количество часов в сутках. В качестве ответа некие российские разработчики (я думаю даже разработчиК, потому что на вид игра та еще индюшатина, но это этого ничуть не хуже) выпустили Timeflow. По сути это такая настолка в компьютерном исполнении, которая помимо денег добавляет в cashflow-подобную игру несколько аспектов: время, настроение и стресс.

В начале игры вы выбираете персонажа. Кто хочет получше его прокачать, может выбрать 18-летнего студента, у которого все впереди. А кто хочет хардкор, может вывести на финансовую независимость медработника или работягу с завода, которым на старте денег едва хватает. Также вы выбираете «финансовую мечту» (обеспеченные дети, полет в космос, квартира в столице, остров - на что хватит наглости)). Цель игры - до пенсии (65 лет) достричь определенного уровня активов и соотношения денежного потока и расходов, оставив себе кучу свободного времени и успев исполнить «мечту».

В игре есть 5 уровней сложности, они зависят от персонажа, плюс если вы выиграли, но нажимаете «продолжить» - сложность повышается. На пятой сложности («хардкор») в игровом мире вообще не происходит позитивных событий, но выиграть все равно можно.

Другая такая образовательно полезная игрушка, недавно занявшая место в моем сердце, это Crusader Kings, но о ней в другой раз :)
🔥325👍3💩3