Data Blog
1.36K subscribers
98 photos
3 videos
4 files
164 links
Канал про интерпретируемость моделей и путь до phD, если автор не уйдет пасти овец.
Download Telegram
Однако, вопреки тому что LLM (хорошо) работают, они не существуют без проблем. И на мой субъективный взгляд — проблемы чуть ли не интереснее самих LLM!

Например, даже если модель дает верный текстовый ответ (GPT вот недавно поставил моей подруге те же диагнозы, что и врач!), очень важно проследить причинно-следственную связь её инференса. (Здесь я должна машу бумажкой с темой моих научных интересов — explainable AI)

Проблемы породили новые исследования — касаемые управления LLM.

В докладе были приведены два:

- Chain of thought reasoning (статья). Обучение моделей генерировать не только ответ, но и рассуждение.

- Reinforcement learning for human feedback (RLHF). Метод от которого растут ноги улучшения качества ответов GPT во времени. Дообучение в этом подходе происходит как сбор данных с диалогом по решению задачи, которую мы хотели бы решить.

Как это:

1. Данные — X = формулировка задачи, Y — человеческий ответ;
2. Сбор всех возможных решений similar задач;
3. Ранжирование ответов человеком — от самого релевантного к менее релевантному;
4. Определение функции наград как максимизирующую предпочтения человека;
5. Дообучение и profit.

Ещё галопом прошлись по докладам, связанным с применением LLM вместе с роботами.

Доклад 1: Использование языковых моделей с моделью контекста, в котором находится работ. Как это работает — получаем решение задачи как выход языковых моделей, Ранжируем и выбираем решение моделью контекста. SayCan (статья).

Доклад 2 (понравился мне невероятно)!: Socratic models (статья). Языковая модель, аудио-языковая модель и видео-языковая модель. Как это работает — одна модель спрашивает — что имеет ввиду человек. Языковая отвечает “это пульт”. Визуальная ищет мульт в записанном видеопотоке. Ещё одна модель спрашивает — где этот пульт (и тд)).

Плюс туда подкручено использование внешних источников. Например, если пользователь что-то готовит и не понимает текстуру, то он может спросить “а какое должно быть безе и модель,обращаясь к внешнему источнику, выдает видео-картинку с нужной текстурой.

Оба доклада, отмечу, тоже имеют небольшой задел на контроль модели и попытку сделать решение не только корректным, но и прозрачным!

Вот так, друзья,
она долго писала и дописала. Сейчас уже 23й, новые исследования, и новые публикации, но чувствую (это предикт) нас ждёт мощная волна на мультимодальность, мультизадачность и попытку, но только попытку, решения проблем.

Про выступление в Питере напишу быстро-кратко на неделе) Надеюсь. Про RL, думаю, выпускать уже не буду — не успеваю вообще 🙈

И! С праздником вас!🙏🏻
Ваша дата-автор.
6
О конференции СПбГУ.

Привет, друзья! И у меня руки дошли, и даже через не совсем долгое время.

Что можно сказать о конференции в не родных стенах:

Другие уровень и формат.

Насчет уровня — впервые публикуюсь в сборнике с историей в 20+ лет. Соответственно требования к формату работы (шрифты, переносы, стиль, запятые) мне выдвигаются тоже впервые.

Вычитывать было не так сложно, как ощущать свою работу пороховой бочкой, где ещё одна запятая может сдвинуть страницу на миллиметр, который не будет вписываться в формат страницы. Впрочем, такие ощущения только от первого раза. Ну и ещё я начала чуть-чуть любить Латех.

Касаемо формата - конференция нашего ВУЗа, хоть тоже и аккумулирует в основном магистров и аспирантов, отличается по правилам и структуре. У нас, например, есть места и всё всё равно немного по «домашнему». Здесь же выше и серьезнее ощущался градус какой-то ответственности.

Дальше.

Из неприятного:

1. Давление — у нас выступал приглашенный спикер с богатым опытом работ (и набором публикаций). Он давил каждого выступавшего, не досталась только одному человеку (из 23). В первый день я невероятно «сдала», особенно после фразы «а вы уверенны в своей литературе?». К сожалению, отстаивать свой труд даже перед людьми «старше по степени» — это навык, который мне надо развивать.

2. Мизогиния (это называется так?😅). После фразы «для девушек есть мастер-классы проще» — мы с ещё двумя дамами в аудитории улыбнулись от души. (Ну пожалуйста, ну не надо так!)

3. Волнение. От него не сказала много содержательного.

Из приятного:

1. Прочувствовала навык важности качественной вычитки и единого формата.

Когда запятая к запятой и буква к букве — чувствуется, будто наряжаешь свою работу в лучший костюм)

2. Познакомилась с новым типом людей и получила плюс в интеллектуальную самооценку.

Тот самый «человек с большим опытом», который задавил меня в первый день, подошел во второй и попросил «писать дальше всё, что вижу».

Вот так вот, и я продолжаю работать)

Область explainable AI, увлекла меня очень сильно, так что внимаю и смотрю, что я ещё могу исследовать и сделать.

А на второй, своей родной конференции выступила сильно увереннее и взяла диплом 2 степени. Учла ошибки из Питера.

Главный вывод:

Вычитка, спокойствие и уверенность — эти три вещи перед докладами лучше не опускать)

Такой лонгрид.

Отличного дня!
Ваш Дата-автор :)
👍74🔥2
Новые конференции и продуктивный дата-автор.

Привет, друзья!


Вас стало больше, рада видеть! У меня сессия на носу, поэтому я уже готовлюсь.

Но пишу с новостью!)

3-4 июня
буду выступать на DataFest2023, как спикер секции Reliable ML.

Точное время сообщу, как утрясется расписание.

Счастья полные штаны.

Кажется, постепенно я потерялась с контентом, который сюда вымещать. Поэтому, с целью максимизации полезности вашего тут пребывания, прошу тыкнуть в опросе:
🔥5
Data Blog pinned «Новые конференции и продуктивный дата-автор. Привет, друзья! Вас стало больше, рада видеть! У меня сессия на носу, поэтому я уже готовлюсь. Но пишу с новостью!) 3-4 июня буду выступать на DataFest2023, как спикер секции Reliable ML. Точное время…»
Разбиение на подзадачи как подход к обеспечению прозрачности/интерпретируемости модели.

Задумала провести небольшой ресёрч, посвященный методам интерпретации transformer-based моделей. Почему именно трансформеры — это архитектура, которая начала примерно 6 лет назад от задачи машинного перевода, а сейчас плавно перекочевала на множество других задач (не только из NLP, но и из CV — касалась этого в обзорах главного за 2022 год).

Так вот — пока «рылась» (и роюсь ещё), наткнулась на серию статей [1], [2], [3], посвященных построению интерпретируемой системы детекции сексизма.

Вопреки ожидаемому — рассмотрению механизмов внимания модели, визуализации голов или слоёв, обнаружила иной подход к интерпретируемости — детализация основной задачи на subtasks, с целью повысить контроль над предсказанием.

Что делают:

Берут основную задачу (детекция сексизма) и детализируют её на

1. Бинарную задачу — сексистский пост или нет;
2. Задачу категоризации сексизма на на 1 из 4 классов— угроза, унижение, враждебность или предвзятое убеждение;
3. Задачу выделения подкатегории для одного из 4х классов.

Хотя такой подход не заглядывает напрямую внутрь black box модели, он кажется мне простым и легко широко применимым на практике. Так что, как идея обеспечения контроля над моделью, детализация задачи — то, что можно «мотнуть на ус».

Ещё в ходе написания конспект лекции Игоря Котенкова про трансформеры и постараюсь в ближнем времени собрать библиотеки для интерпретации трансформеров в одну кучу.

Блог живет и будет жить,
Ваш дата-автор =)
8🔥2
Привет, друзья!

В это воскресенье выступаю на секции Reliable (надежный) ML с докладом на тему "Explainable AI: что, как и зачем?" в рамках DataFest2023

В докладе:

- Почему XAI востребован сейчас и будет востребован еще долгое время
- Как исследователи классифицируют XAI
- С помощью каких инструментов можно внедрить XAI в работу
- Какие существуют подходы к построению метрик для оценки качества интерпретаций

и в конце также приведу анализ применимости оценки активаций сети в задаче мультиклассовой классификации 🐥

Начало работы секции: 11:00
Мой доклад: 11:45

Как стать слушателем: https://t.iss.one/reliable_ml

Присоединяйтесь!

Будет и запись!)
8🔥2
Интерпретируемый ИИ. ЧЗК-2.pdf
3.7 MB
Всем как всегда доброго!

Мысли дошли наконец-то закинуть pdf презентации.

Кажется, в воскресенье снова стала самым счатливым пирожком, успев не только выступить, но и комадно поучаствовать в Хакатоне по составлению ML-system design doc.

В остальном же я временно отъехала в получение зачетов и мирские будни =) Но не совсем — трансформерский конспект лекции постепенно оформляю.

Да. Всем наличия work-life balance в этой жизни!

Ваши Дата-автор и презентация во вложении.
🔥101
Привет, друзья-товарищи!)

За моей спиной 40 билетов по геометрии, и я обещала — я сделала — конспект лекции Игоря Котенкова: Transformer, explained in detail.

Для вас, если:

1. Вам интересна архитектура трансформера и хочется понять, как он работает
2. Вы хотите освежить знания по архитектуре в быстром темпе
3. Вы просто любите читать конспекты

Ждёт здесь: старательно написан =)

Важно: если встретите опечатки — всегда пишите! К сожалению, я человек и могла их допустить и не увидеть от замылившегося взгляда.

Как всегда ваш,
Дата-автор 🐥
9🔥3
Привет, друзья!

Убираюсь тут на своем гугл диске (и это хуже, чем убираться в шкафу) и делюсь интересной заметкой:

Книга Interpretable Machine Learning — A Guide for Making Black Box Models Explainable
Christoph Molnar
.

Очень рекомендую тем, кто хочет ответить для себя на вопрос "Что такое интерпретируемый ИИ?", а также тем, кто хочет в начальном приближении разобрать имеющиеся типы методов интерпретаций.

Надеюсь, ваше лето началось отлично (даже несмотря на рабочее время — лето — это всегда круто!😉)

Ваш всё-ещё-на-сессии,
Дата-автор
🔥6😁2👍1
Спонтанное включение.

Не могу не поделиться — тут Гемотест удивляет интересными креативами с утра пораньше. 👀

И интересно, что по их словам и их вопросам ChatGPT валит «экзамен».

К слову, о других limitations GPT мне ещё эта статья понравилась.
🔥3🤔1
Привет, друзья! Сегодня включение ещё более спонтанное:

я взяла грант на проекте "УМНИК"!

Предыстория:

зимой мой научный руководитель предложил мне разработать идею и выступить с ней, ради практики выступлений. Как видите, вышло аж вот так)
Мы ждали результатов полгода, долгое время ходили слухи, и вот дождались!

Впервые получаю грант на свой проект (конечно же ИИ-шный). По предупреждению научника в этой истории стоит заранее запастись любовью к бумажкам, отчетам, печатям, документам и подписям.

Так вот к чему делюсь — леплю опрос ниже!

Сегодня в шоке,
Ваш дата-автор!
🔥14
Нужно ли рассказывать о том, что там за отрезок жизни начинается после гранта?
Anonymous Poll
86%
Да, интересно
3%
Не актуально
11%
Энивей прочитаю
Привет, друзья!

Прости господи моим нервным клеткам эту сессию в 5 экзаменов и беготню с получением гранта. Официально чувствую себя чемпионом по разрешению входящих задач в потоке, устала и хочу в отпуск.

Но какой отпуск без хорошей и интересной работы? Я серьезно — без неё было бы скучно! =)

На DataFest был отмечен важный нюанс — интерпретируемость (interpretability) не равно объяснимость (explainability). И я решила, что разница должна быть зафиксирована текстом.

Ну, и чтобы не хранить это в ящике, выложила статью на Хабр!

Она ждёт вас там.
Ушла повторять диффуры,

Ваш дата-автор =)
10
Привет, друзья! Закончился 20-ти дневный период на подготовку договора с Фондом…
и я — выжатый лимон
!)

Обещала делиться, поэтому пишу. Пусть тут будет ветка #УМНИК #Грант

Напомню, «УМНИК» — программа, позволяющая людям от 18 до 30 лет получить грант в размере 500 000 на год для реализации научной разработки. До момента получения денег проходятся этапы подачи заявки, очной её защиты и отбора жюри.

🍋 Сегодня о том, что происходит в случае выигрыша.

Происходит весёлое — заполнение договора с Фандом. Это чудо света заполняется максимально строго и формально:

— Да бюрократической тавтологии.
— Нет сленговыми названиям.

Никакого бэкэнда и пайплайна машинного обучения — только «разработка серверной компоненты продукта», и «обучение, тестирование и анализ экспертного алгоритма ... продукта».

Договор, и вся программа в целом нюансированы
тем, что с одной стороны, фонд требует проводить научную работу, с другой — настаивает на её коммерциализации (обязательно).

По договору за 12 месяцев пирожки-грантополучатели обязаны:

1. Реализовать все работы в договоре (и защитить по ним отчетность дважды — на середине и в конце).
2. Подать заявку на регистрацию прав (заявку на патент) на результаты интеллектуальной деятельности.
3. Разработать бизнес-план проекта в соответствии с требованиями или подать заявку на участие в программе Фонда «Студенческий стартап».
4. Пройти преакселерационную программу, с целью проработки перспектив коммерческого использования результатов НИР;
5. Разработать дорожную карту развития проекта.

Иначе говоря, по договору вы должны работать, учиться бизнесу и патентовать. Звучит как лагерь, причем с хорошими условиями)

Что касается меня:

На договоре я сильно выжалась, потому что подала сырой проект и вообще не планировала получать на него деньги. У меня не было понимания что я хочу материально сделать, и следовательно видения как я буду это делать — отсюда нервы, стресс и большая благодарность людям вокруг — организатор на нашей площадке с нами 24 часа в сутки 7 дней в неделю, мой друг, компетентный в разработке, вуалировал со мной этапы и его ответы помогли мне понять, как копать, когда ты в разработке, как кола — zero.

Если вы приходите на "УМНИК" с четким видением материального продукта и пониманием шагов к его созданию, то пока программа выглядит хорошим способом получить инвестиции в pet-project.

На этом на сегодня всё.
У меня есть некоторые задумки на летний контент канала. Ниже по ним опрос. И это пилотный пост!) Мне будет легче описывать опыт гранта, если вы зададите точечные вопросы!)

Такие сегодня вести.

Ещё не сок, но уже как фрэш,
Ваш Дата-автор.
👍4🥰2
Привет, друзья!

Линейная алгебра набрала большой отклик, а я люблю её, как своих котов, так что начнем с неё!

Здесь разобраны 3 типы задач и некоторые трюки при их решении:

1. Нахождение решения системы линейных уравнений
2. Нахождение многочлена по его значениям
3. Исследование векторов на линейную независимость.

Где встречаются линейные уравнения в Data sceince:

1. Порождение линейно зависимых фичей
— просто взяли признак и умножили его на число. Это усложняет алгоритм и не добавляет информативности. О косвенной линейной зависимости может говорить также высокая корреляция Пирсона.

2.Обучение линейной регрессии — в идеале мы хотим решить матричное уравнение максимально точно.

Ваши примеры?

На этом всё. Дайте знать, в какую сторону улучшать разборы (но только не почерк).
Пару задач на попрактиковаться оставила в комментариях.

Отличного понедельника!
Ваш Дата-автор) 🐥
🔥9👍5
Привет, друзья! 🐥

Вы просили — мы (я и мои голова и пальцы, получается) сделали — сегодня про один из методов интерпретации моделей — Permutation importance.

В статье разобраны 3 пункта:

- Что это за метод интепретации?
- Как корректно интерпретировать результаты метода?
- Где можно найти реализацию метода для применения в своих задачах?

Приятного прочтения!

С огромной любовью к тому, что вы тут (вас аж более 300, боже!),

ваш, пакующий рюкзак на отдых, Дата-автор 💛
🔥53👍1
scikit-explain — библиотека для объяснения sklearn моделей.

Привет, друзья! Я тут жарюсь в Армении, и пока подтягивала кривыми ещё в терминале руками sklearn в окружение, случайно обнаружила библиотеку scikit-explain. 🐤

В ней реализованы «джентльменский набор» и «дамская сумочка» методик интерпретации
— «джентльменский» — потому что методы из библиотеки действительно являются базовыми и достаточными для интерпретации ML алгоритмов, «дамская» — потому что кроме основных есть и другие, расширяющие.

В общем, если вы в основном работаете со sklearn моделями, библиотека scikit-explain может стать удобным инструментом для использования!

Для удобства прилагаю список реализованных методов:

Feature importance:
Permutation Importance, Grouped Permutation Importance
SHAP
First-order PD/ALE Variance (Greenwell et al. 2018 )
Grouped Permutation Importance (Au et al. 2021)

Feature Effects/Attributions:
Partial Dependence (PD),
Accumulated local effects (ALE),
Random forest-based feature contributions (treeinterpreter)
Main Effect Complexity (MEC; Molnar et al. 2019)

Feature Interactions:
Second-order PD/ALE
Interaction Strength and Main Effect Complexity (IAS; Molnar et al. 2019)
Second-order PD/ALE Variance (Greenwell et al. 2018)
Second-order Permutation Importance (Oh et al. 2019)
Friedman H-statistic (Friedman and Popescu 2008)


Библиотека живая: последнее обновление 2 недели назад (на 27.07.23)

Всем отличных и спокойных вечеров!
Ваш дата-автор:)
🔥6👍1👀1
Спонтанный привет, друзья!

Ну точно лопну, если не поделюсь — кажется нашла ферму, где трудятся — растят всякие «искусственные интеллекты» — маленькие дата-сатанисты — ML Mining😈😄

В реальности, конечно, ML Mining — крупная многофункциональная строительная компания в Ереване. Строят, сносят, материалы производят.

А жаль.

Всем много мемов в жизни!

Ваш, чуть выдохнувший в отпуске, Дата-автор :)
😁61👏1
Привет, друзья!

🐥 Стала плотнее работать с библиотеками, предлагающими методы интерпретации. По пути стали встречаться ошибки и баги, так что я решила начать собирать возможные проблемы и решения в одном месте.

Красивое readme я добавлю позже, а пока приглашаю вас присоединяться к наполнению и использованию такой небольшой базы данных.

Ссылка на репозиторий: XAI_libraries_problems

Устала отдыхать, а у меня и не получается,

🌤 Ваш дата-автор!)
👍5🔥2