Sinекура
3.34K subscribers
928 photos
15 videos
264 links
Канал Сергея Николенко обо всём, но в основном об AI.

Сайт с выступлениями, лекциями и публикациями: https://sergeynikolenko.ru/
Download Telegram
А вот и следующий пост про мою новую книжку. Пока авторских экземпляров у меня нет, но посмотрите, какое чудо мне вчера подарили! ❤️❤️❤️

Я весь растаял уже, очень-очень приятно.)

Напоминаю, что это про обложку книги "Машинное обучение: основы", которая уже доступна для заказа в издательстве "Питер"

https://www.piter.com/collection/biblioteka-programmista/product/mashinnoe-obuchenie-osnovy

Кто-то даже уже её физически получил - но пока не я.)
63❤‍🔥8👏8
Вчерашние мои лекции были о приложениях и расширениях EM-алгоритма: обобщения EM, модели Брэдли-Терри, presence-only data на примере сусликов, которых не видно, а они есть...

В частности, каждый год вспоминаю историю о рейтинге спортивного "Что? Где? Когда?", к которому я когда-то очень давно сделал два подхода. Сначала мы с Александром Сироткиным @avsirotkin сделали обобщение системы TrueSkill; о нём поговорим в лекции про метод Expectation Propagation, если на него хватит времени. Это, конечно, самая ностальгическая часть истории, потому что это была наша первая серьёзная статья по машинному обучению, и сразу на ICML (Nikolenko, Sirotkin, 2011). С неё у меня всё это направление по сути и началось.

Через несколько лет я сделал ещё один подход: в таблицах рейтинга ЧГК появились плюсики команд по отдельным вопросам (раньше были только суммарные результаты). Это позволило сделать рейтинг гораздо проще и точнее — что тоже даёт важную общую мораль: когда структура данных меняется, пусть даже не очень сильно, есть смысл пересмотреть всю модель с самого начала.

Собственно, в итоге рейтинг превратился в нестандартное, но довольно простое применение EM: команда взяла вопрос, но рейтинг должен быть индивидуальным (в ЧГК составы команд всё время меняются, в том числе очень существенно), значит, давайте сделаем скрытые переменные вида "игрок ответил на вопрос", сделаем про них простые предположения и оформим EM-схему. На этот раз уже об ICML речи не шло, написал статью на AIST да и всё.

Сама идея такого байесовского рейтинга, правда, так никому и не пригодилась, да и бог с ним. Но всё равно получается, что в каком-то смысле всей моей AI-карьере один из первых серьёзных толчков дало именно спортивное ЧГК (не самый первый, но о первом я вам чуть позже расскажу). Жизнь — интересная штука.)

https://www.youtube.com/watch?v=7oOdBvhjxFE
👍22❤‍🔥10🔥6🤔1
Традиционный пятничный пост — две игры для меня новые, третья из архивов; и первая прямо великолепна!

1000xRESIST

По совету подписчика (спасибо @elteammate!) попробовал и остался в восхищении. Игра длится всего 6-7 часов, но умудряется впихнуть в них больше, чем многие другие умещают в 20-30. Здесь переплетаются темы несовершенной памяти и расставания с прошлым — главное, выбора того, что сохранить, а от чего отказаться при этом, — политического сопротивления авторитарному режиму, иммиграции, отчуждения, отношений родителей и детей, множественных точек зрения на одни и те же события, насилия и буллинга... Но всё это, во-первых, сочетается с отличным научно-фантастическим сюжетом, который как-то умудряется и историю двигать, и одновременно выделять те самые проблемы. А во-вторых, в этом слышится не совсем характерный для игр взгляд, более жёсткий и, видимо, более китайский; игра вообще о китайских иммигрантах, которым пришлось уезжать из Гонконга после того, как они там сопротивлялись большому Китаю.

Лишних глав в игре нет, каждая была хороша, но были два момента, которые мне особенно понравились (постараюсь без спойлеров): во-первых, когда игра внезапно начала показывать воспоминания из жизни Айрис, и во-вторых, финальная сцена, где ты делаешь свой последний выбор. Концовка особенно хороша тем, что это не бинарный или тернарный выбор aka "светофор", а целый ряд решений, и вопреки тому, как работает большинство игр и медиа, даже в финале есть варианты, которые выглядят добрыми и позитивными, но оказываются просто неверными.

Хотя это в основном чистая сюжетная игра, где проиграть нельзя, в ней есть и настоящий геймплей, который вполне вовлекает и разнообразит процесс между катсценами. Визуальный стиль работает хорошо, хотя и выглядит (и, вероятно, является) довольно бюджетным и простым. Пожалуй, единственное, что мне не понравилось, — это level design; станция, где в основном происходит действие, большая, и её структура очень сложная; мне никогда не было очевидно, как добраться из точки A в точку B, в голове возможные пути укладывались небыстро и тем более пропадали между запусками игры. Возможно, это был осознанный выбор, но тогда будем считать, что я его не понял.

Но в целом это пока один из лучших игровых опытов 2025 года для меня! Поздравляю авторов и разработчиков, и буду ждать их следующих шагов. Hekki Allmo!

Copycat

Короткая (на 2-3 часа) и очаровательная игра про не менее очаровательного котика, который пытается выжить в жестоком мире (ладно, не очень-то жестоком, но всё же). Мне понравился визуальный стиль, в том числе и хорошо визуально выделенные сны (да, сны кота!), лёгкий юмор и, конечно же, плюс балл за котиков! Сюжет, правда, откровенно банальный и пытается выдавить слезу, но мне понравилось, как авторы с этим играют. С таким сюжетом можно было бы сделать грустную серьёзную игру, и это скорее всего получилось бы плохо; а тут, несмотря на кое-какие эмоциональные моменты, в среднем всё иронично и весело. Геймплей состоит из нескольких мини-игр, которые, честно говоря, выглядят довольно дешёво и просто, но на фоне общей милоты это не напрягает.

Конечно, лучшей игрой про котиков всё ещё остаётся Stray, но провести приятный вечер за Copycat вполне рекомендую. Кстати, игра получила одобрение от Майлза: он сидел и смотрел внимательно и напряжённо, и даже после этого пришёл в несколько ажитированное состояние, что для него, мягко говоря, нехарактерно.

Abzu

А эта игра не зашла мне совсем. Океан красивый, рыбки и киты классные и, наверное, даже реалистичные. И... всё. Ни тебе нормального сюжета, ни адекватного геймплея – одна сплошная претенциозность и пустота. Если хочется посмотреть на подводный мир, лучше включить National Geographic. Пожалуй, единственный плюс игры – длится она всего около часа, так что страдания быстро закончатся. Не рекомендую, если только вы не фанат "симуляторов медитации" без особого смысла.
❤‍🔥12🔥9💘1
Во-первых, поздравляю с праздником весны и эмансипации всех, кто считает его своим! ❤️ Желаю всем, чтобы первоначального смысла в этом празднике не осталось вовсе — хотя, кажется, до этого миру всё-таки ещё далеко...

А я вам давеча обещал рассказать о том, как начался мой путь в ML, и вот теперь есть повод. Дело было в 2007 или 2008 году, когда в ПОМИ РАН начинал свой путь Computer Science Club под руководством Александра Куликова. Первый спонсор клуба Антон Лиходедов пришёл тогда к нам — аспирантам лаборатории матлогики ПОМИ, которые вели там большую часть курсов, — и сказал, что machine learning is hot, и неплохо бы нам в клубе прочитать курс по машинному обучению.

Никто из нас тогда про машинное обучение никакого понятия не имел, так что все как-то замялись, а я вызвался.) Первая итерация моего курса была, конечно, очень смешная. Но прочитать курс — это действительно хороший способ разобраться в предмете, и с тех пор так потихоньку я и начал интересоваться ML. Сначала только разбираться и преподавать, а потом и наука подтянулась. Ностальгические фоточки снимал когда-то Саша Смаль в CS Club, но явно не в 2008 году, те вряд ли уже найдутся.

С тех пор утекло много воды, оба Саши уехали из России, и в последние годы CS Club фактически не существовал. Но вот он возрождается из пепла с новым названием CS Space, с новыми организаторами — и я очень рад объявить, что возрождается в том числе и моими лекциями!

Через неделю, в воскресенье 16 марта, буду в ПОМИ рассказывать о том, что в AI новенького, а ещё через неделю — о том, как нам всем этот AI пережить (если получится). Анонс прилагается.
🎉24🔥14❤‍🔥611👍1🙈1💘1
Forwarded from CS Space
С гордостью представляем наше первое мероприятие: открытую лекцию Сергея Николенко!

💡 State of AI: Откуда мы пришли, кто мы и куда мы идём?

Страница мероприятия
– 16 марта, 14:00 – 17:30
– ПОМИ РАН, наб. реки Фонтанки, 27, Санкт-Петербург
– Пожалуйста, не забудьте зарегистрироваться — это необходимое условие посещения ПОМИ РАН.

💡 О лекторе
Сергей Николенко — учёный, преподаватель и практик в области машинного обучения и информатики в целом. Доктор физико-математических наук, сотрудник ПОМИ РАН, преподаватель в СПбГУ, Harbour Space University, ИТМО и НИУ ВШЭ, Head of AI в компании Synthesis AI, автор более 200 научных публикаций и нескольких книг, в том числе бестселлера «Глубокое обучение» (Питер, 2018), монографии «Synthetic Data for Deep Learning» (Springer, 2021) и прямо сейчас появляющейся в продаже книги «Машинное обучение: Основы» (Питер, 2025). Сергей ведёт исследования в разных областях, от улучшения больших языковых моделей до анализа алгоритмов и теоретической информатики, применяет машинное обучение в реальных проектах, пишет посты и книги, ведет телеграм-канал «Sinекура» (@sinecor), а также стал двукратным чемпионом мира по «Что? Где? Когда?».


📢 Анонс
Уже два года мы живём в эпоху больших языковых моделей (large language models, LLM). За пределы академического сообщества эти новости вышли после появления ChatGPT от OpenAI, а затем появилось много разных моделей, либо созданных на основе ChatGPT, либо продолжающих и развивающих её идеи. Например, главные новости последних месяцев — это большие рассуждающие модели (large reasoning models, LRM), сначала появившиеся у OpenAI в виде семейства o1, а затем внедрённые практически во все ведущие LLM, в том числе [полу]открытые. Начиная с весны 2023 года, буквально каждую неделю появляются новости, которые раньше считались бы революционными, и скорость прогресса никак не хочет уменьшаться.

В первой части я постараюсь рассказать о том, как искусственный интеллект дошёл до такой жизни. Мы поговорим о том, что такое нейросети в целом, как произошла сначала революция глубокого обучения, потом внутри неё революция трансформеров, а потом, внутри неё, — революция больших языковых моделей. Обсудим самые последние новости и сформулируем несколько направлений, которые прямо сейчас являются предметом активных исследований. DeepSeek-R1 тоже обсудим, разумеется. Кое-какие технические детали, возможно, рассказать будет уместно, но я постараюсь сделать рассказ максимально доступным для непрофессионалов.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥26👏8❤‍🔥71
Извините, опять хвастаться буду — долго ли, коротко ли, но пришёл финальный student feedback про мой январский курс в Harbour Space в Бангкоке. Я волновался, что с практикой у меня плохо получится, но в итоге студентам понравилось. и такие отзывы получать всегда очень приятно. Переспросил, говорят, выложить можно, тем более что это получается немного реклама самого Harbour Space.

Кстати, это теоретически может быть интересно кому-то из подписчиков — университет интересный! Их главная дебютная идея — курсы погружением, когда за три недели ежедневных занятий получается пройти материал почти семестрового курса. С одной стороны, это наверняка менее эффективно, чем настоящий полугодовой курс. Но с другой стороны, такое расписание позволяет Harbour Space приглашать много крутых преподавателей, для которых это welcome distraction, а не отдельный долгосрочный commitment. Да что там крутых — даже я на полгода, конечно, никуда бы не поехал, а на три недели вполне согласен.

Я не знаю, как там сейчас происходят admissions и что для этого нужно, но постоянно встречаю там русскоязычных студентов и в Барселоне, и в Бангкоке, так что это точно возможно.

How was your Teacher?

He's amazing in terms of knowledge and teaching skill

I have had an excellent learning experience with Mr.Sergey. His presentation skills are outstanding. he explains complex concepts clearly and engagingly, making the lessons accessible and interesting. He shows genuine interest in his students, encouraging us to ask questions and explore our curiosities. Moreover, his expertise in the subject matter is evident. He combines deep knowledge with practical examples, which not only enhances our understanding but also inspires us to learn more. Overall, his dedication and passion for teaching make a significant impact on our academic journey.

What did you like the most?

How the instructor construct the lesson. The slide and mathematical proof were really smooth and easy to follow.

Harbour Space definitely should hire more professors like this

format of exams helped improve ability to read complex research papers

I appreciate that the class covered not only the history and fundamentals of artificial intelligence but also recent advancements in the field. The instructor introduced alternative perspectives and interpretations of key machine learning concepts, which was highly valuable. Additionally, the discussion on the philosophical aspects of AI added depth to the learning experience.

I appreciated how he explained complex concepts clearly and engagingly. His ability to break down difficult topics into understandable segments not only makes the material more accessible but also sparks my interest and curiosity.

What would you change about the class?

Actually, I like everything in this course. I guess adding some dynamic illustration might help this class more active.

Harbour Space definitely should hire more professors like this

no complaints one of the better structured course

I would love to have a computer vision project at the end of the course to include in my portfolio. Perhaps the midterm could focus on a paper presentation, while the final could be a hands-on project. Although there was an option for a project, there wasn’t enough time to implement it. That said, the class was truly excellent overall. Looking forward for the teacher to teach other subjects like reinforcement learning, which is an important area in artificial intelligence but it is lacking in the set of modules in Harbour Space.

I wouldn't change anything about the class. Everything is well-organized.

How likely are you to recommend this class to other students?

Definitely crucial

Absolutely! I would highly recommend this class to other students. I believe having him teach an introductory or basic class would be fantastic, as his ability to explain complex concepts clearly and engagingly is perfect for beginners. That said, his expertise is equally valuable in advanced classes, making him an excellent choice for any level of instruction.
30👍6🔥4❤‍🔥2
В языковых моделях новый мем — "finish the following greentext" (Claude, Tyler Cowen etc.). Попробовал на себе, и должен сказать, что хотя в целом не смешно, вторая/четвёртая строчка очень хороша. Прямо хочется куда-нибудь в эпиграф вынести.

https://chatgpt.com/share/67cf5252-1484-8004-8a55-4043731c322b
😁28🤣9❤‍🔥31👍1
Большая часть последних лекций была посвящена скрытым марковским моделям (hidden Markov models, HMM). Когда-то это был очень важный класс моделей, на них работало всё распознавание речи, например. Даже когда пришла революция deep learning — а она в первую очередь пришла как раз в распознавание речи — глубокие сети использовались для извлечения признаков (т.е. вместо классических алгоритмов вроде MFCC), а признаки потом всё равно подавались в HMM (Hinton et al., 2012). Лет 10-15 назад я работал в Центре речевых технологий и всё это помню из первых рук.

В распознавании речи, конечно, люди давно перешли на трансформеры. Вы, наверное, слышали про Whisper от OpenAI, который по сути является обычным трансформером, преобразующим звук в текст напрямую sequence-to-sequence, как машинный перевод. А последние новости здесь добавляют к этому трансформеру зрительную модальность, то бишь улучшает распознавание, если видно лицо говорящего: например, Whisper-Flamingo добавляет ещё один Transformer encoder из модели Flamingo, и результаты улучшаются.

Но хотя сфер использования у HMM стало меньше, они, как и всякая хорошая идея, умирать не собираются. Просто в наше время HMM сами по себе — это слишком простая модель, со слишком сильными предположениями, чтобы хорошо работать со сложными данными вроде звука, где важны разные долгосрочные зависимости. Но простые модели отлично работают, когда сами данные тоже попроще! Например, в биоинформатике HMM моделируют геномные последовательности: profile HMM компактно выражает идею того, что участок ДНК — это не фиксированная строчка, а распределение на строчках с вариациями. В результате вы храните в базе не строки из ACGT, а параметры таких HMM, и поиск новой последовательности можно запускать прямо на них. Это очень старая идея (Eddy, 1998), но до сих пор вполне актуальная (Yu et al., 2024).

Здесь надо ещё отличать HMM от CRF (conditional random fields, условные случайные поля), которые представляют собой дискриминирующий вариант порождающей модели HMM и потому могут быть более выразительными, но это уже другая история, до которой, надеюсь, мы в курсе тоже дойдём.

А во второй половине лекции мы начали обсуждать графические модели, но об этом я уж в следующий раз.

https://www.youtube.com/watch?v=MACsuKkZBhE
🔥16❤‍🔥7👍73
Я не хочу превращать этот канал в новостной, про AI-новости и так много каналов с кучей подписчиков. Но сейчас пришла новость, которую хочется прокомментировать.

В своих обзорных докладах (например, здесь) я с прошлой осени неизменно упоминал систему AI Scientist от стартапа Sakana AI, появившуюся 12 августа 2024 года. Это система (open source, можете сами установить), которая ходит к нескольким API (разным LLM и Semantic Scholar в основном), умеет использовать информацию и ресурсы компьютера (сохранять веса моделей) и самостоятельно писать и запускать код экспериментов. На выходе получается полностью автоматически порождённая статья. Статьи в августе 2024-го были, конечно, очень средненькие, на топ-конференцию их бы точно не приняли. Но если бы мне, например, прислали на рецензию такой магистерский диплом, я бы совершенно не удивился и не увидел бы причин ставить низкую оценку — работы вполне компетентные, просто очень инкрементальные и неинтересные.

И вот сегодня (12 марта, буквально пару часов назад) появилась новость о второй версии, The AI Scientist-v2. Новость такая: статью под названием "Compositional Regularization: Unexpected Obstacles in Enhancing Neural Network Generalization" приняли на ICLR 2025 workshop "I Can't Believe It's Not Better: Challenges in Applied Deep Learning", посвящённый анализу того, почему теория с практикой в DL не всегда сходятся.

Статья об AI Scientist-v2 ещё не опубликована, но эксперимент был такой:
— исследователи породили несколько (не знаю сколько, вероятно около десяти) новых статей end-to-end, без человеческого участия;
— выбрали из них три лучших (с человеческим участием);
— подали их на workshop как обычные статьи;
— с организаторами эксперимент был согласован, но рецензенты не знали, какие статьи написаны автоматически, и рецензировали обычным порядком.

В результате из трёх статей одна получила оценки 6, 7, 6 и была бы наверняка принята (но, естественно, её сняли "авторы" после рецензирования). Видимо, это первая по-настоящему полностью автоматически порождённая статья, прошедшая серьёзный peer review (про несерьёзный review и Герберта Шлангеманна я рассказывал раньше) и принятая в хорошее место.

Я хочу, пока новость очень свежа, register a prediction: AI-скептики совершенно никак свои мнения под влиянием этих результатов не обновят.

Мы услышим как минимум следующие аргументы:
— это очень инкрементальный прогресс, ничего гениального или особенно интересного в статье нет;
— это всего лишь workshop, а не сама конференция ICLR, планка значительно ниже;
— процесс рецензирования вообще очень стохастический, вон от Шлангеманна тоже статьи принимали.

Все эти замечания, на мой взгляд, абсолютно справедливы, я сам не раз утешал молодых учёных третьим аргументом. :) Но если вы исследователь (не обязательно в области AI), представьте себе, что в начале 2020-го года вы услышали предсказание о том, что через пять лет AI-модели будут писать статьи с настоящими новыми (пусть инкрементальными) результатами, которые будут принимать на настоящие workshop'ы при ведущих конференциях с настоящим рецензированием. Что бы вы подумали о таком предсказании? А если бы в начале 2015-го вам предсказали, что так будет через десять лет?..

Мы забываем, насколько стремительно ускоряется прогресс. Кажется, что всегда так было — новые удивительные возможности AI-моделей всегда появлялись каждую неделю. Но нет, ещё совсем недавно было совершенно не так. Как говорится, you are here (источник картинки).

Об этой новости, как и о многом другом, мы обязательно поговорим в воскресенье — приходите! (регистрацию приоткрыли, места ещё есть)
👍27❤‍🔥11🤯95
На этой неделе было совсем не до игр, всю неделю не поднимая головы что-то пишу, готовлю слайды, где-то выступаю и готовлюсь выступать ещё. Но пятничный пост от этого только лучше выйдет.

Оказывается, сегодня юбилей: ровно десять лет назад, 14 марта 2015 года, Элиезер Юдковский выложил последнюю часть "Harry Potter and the Methods of Rationality" (HPMoR). Рационалисты всего мира организуют митапы в честь этого события, в списке даже Москва есть. Я, конечно, на митапы не собираюсь, но для меня это тоже важная книга.

Думаю, мои читатели знают, что такое HPMoR, но если вдруг нет, очень рекомендую прочитать (есть и русский перевод, хотя за его качество не ручаюсь, не читал). По форме это фанфик, в котором вселенная Гарри Поттера пересмотрена с позиций науки, логики и критического мышления. А по сути — введение в научный метод, прикладную рациональность, байесовскую статистику, когнитивные искажения и прочие смежные области, изложенное в очень увлекательной форме. Фанфик получил огромную популярность, см. хотя бы раздел "Critical response" в википедии; о продажах говорить не приходится, потому что это фанфик по чужой интеллектуальной собственности, но в списках самых читаемых фанфиков HPMoR стабильно в топе.

Конечно, такие книги лучше читать в юном возрасте, потому что они, как пишет один критик, не просто "challenging", но ещё и "mind altering". Но я впервые читал как раз примерно десять лет назад, уже далеко не подростком, и всё равно это было очень неожиданно и круто. Даже перечитывал ещё раз несколько лет спустя.

Могу попробовать сформулировать, в чём главный эффект: многие люди (и я в том числе) изучают разные науки, в том числе математику с теорвером, и вполне понимают происходящее, но у них в голове наука и "реальная жизнь" — это separate magisteria, разные сферы жизни, которые никак не пересекаются. HPMoR учит тебя (на примере магии в Хогвартсе, ага), что научный метод, оценки вероятностей и т.д. — это важный скилл, который можно и нужно применять к своей собственной жизни. Эта идея может огорошить человека, к ней не подготовленного.

После HPMoR рекомендую и "Rationality: from AI to Zombies" Юдковского прочитать, это большой сборник non-fiction эссе на примерно те же темы, уже без сюжета и без Гарри Поттера, но тоже очень интересно. Элиэзер Юдковский — один из отцов-основателей AI safety, очень важной области, о которой я вам ещё не раз расскажу в ближайшем будущем.

И вот так сложилось, что в 2025 году я снова вспомнил про величайший фанфик всех времён. На Новый год прекрасная Ира @fuesis сделала мне воистину царский подарок: настоящее физическое издание книг HPMoR; спасибо!!! Перечитал их с большим удовольствием, вспомнил молодость, а тут и юбилей книги подоспел. Так что вот, рассказываю вам.
🔥24❤‍🔥95👍1🤮1💩1