Ну и не могу не прикрепить прекрасный мем с презентации IG.
*Все мемы бережно сохраняю в отдельную папочку, чтобы потом было что вставлять в презентации.*
Если у вас есть избранные мемы — прошу делиться 😁
*Все мемы бережно сохраняю в отдельную папочку, чтобы потом было что вставлять в презентации.*
Если у вас есть избранные мемы — прошу делиться 😁
😁2
Привет, друзья!
Что если автоматизировать задачу выбора оптимального метода интерпретации? 🥸
Примерно это я пыталась решить, проектируя эту веб-страницу, но ребята из Гамбурга в коалиции сделали это куда хитрее и круче.
📑 Так у них родился фреймворк CompareXAI — динамический тест, результаты которого позволяют оценить метриками возможные методы XAI, подходящие под вашу задачу.
Преимущества:
- Система оценивания не включает параметры, оцениваемые человеком
Ограничения:
- Не подходит для оценки GANов, RL и алгоритмов, отученных без учителя
- Не описывает градиентные методы и в целом особенности интерпретации для DL
Может, по мере развития фреймворка, ребята сделают из него мощный инструмент.
Будем наблюдать!
Если хотите подробнее узнать о методах оценки во фреймворке, то вот: [cтатья]
Такие дела!
Копающийся в интернетах,
Где-то между Петрозаводском и Питером,
Ваш Дата-автор! 🐤
Что если автоматизировать задачу выбора оптимального метода интерпретации? 🥸
Примерно это я пыталась решить, проектируя эту веб-страницу, но ребята из Гамбурга в коалиции сделали это куда хитрее и круче.
📑 Так у них родился фреймворк CompareXAI — динамический тест, результаты которого позволяют оценить метриками возможные методы XAI, подходящие под вашу задачу.
Преимущества:
- Система оценивания не включает параметры, оцениваемые человеком
Ограничения:
- Не подходит для оценки GANов, RL и алгоритмов, отученных без учителя
- Не описывает градиентные методы и в целом особенности интерпретации для DL
Может, по мере развития фреймворка, ребята сделают из него мощный инструмент.
Будем наблюдать!
Если хотите подробнее узнать о методах оценки во фреймворке, то вот: [cтатья]
Такие дела!
Копающийся в интернетах,
Где-то между Петрозаводском и Питером,
Ваш Дата-автор! 🐤
👍5❤3
Привет, друзья!
Выкидываем SHAP?
Сегодня мне прислали интересную статью: The Inadequacy of Shapley Values for Explainability (Неадекватность значений Шепли для объяснимости)
На статью стоит обратить внимание тем, кто вообще хочет адекватно осуществлять процесс интерпретации моделей. И не только значениями Шепли.
Что у нас есть:
✔️ Значения Шепли многофункциональны — им можно скормить задачи вычисления важности признаков и для ML, и для DL моделей.
✔️ Значения Шепли популярны — красивые графики выглядят серьезно.
✔️ Значения Шепли вроде бы стоят на математике, поскольку вводятся через теорию игр.
Что утверждает статья и на что НУЖНО обратить внимание:
🔘 Тезис 1.
Заявление в статье"Explainability is NOT SHAP’s game" — это верно. Но важно знать и понимать, что все методы та или иная аппроксимация.
🔘 Тезис 2.
Наличие в статье гипотезы, что значения Шепли должны придавать признакам ненулевую важность, если они были важны в каком-то прогнозе.
Например в XAI есть аксиома чувствительности — метод атрибуции (объяснения) удовлетворяет аксиоме чувствительности, если для двух входных объектов x, x', отличных только по одному признаку A_i, но имеющим разные прогнозы, метод присваивает признаку A_i ненулевую важность. И значения Шепли могут не удовлетворять этой аксиоме в некоторых случаях.
Почему это так:
Значения Шепли не проверялись на соответствие аксимомам, и да в XAI действительно существуют методы, которые, например, не удовлетворяют аксиоме чувствительности'. Так что они никому ничего не должны)
🔘 Тезис 3.
Проверка неэффективности значений Шепли осуществляется для логических функций в статье — на самом деле аналогично можно показать, что Permutation importance ломается об логические функции, но делает ли это метод неприменимым?
⬇️ Общий вывод:
Лучший подход — пока не цепляться за такие заявления и иметь в своем арсенале несколько методов интерпретации. Чтобы смотреть в результате множество признаков, которые образовываются из пересечения использованных методов.
И, кроме того, важно понимать, что любая (не)эффективность метода — это мнение, основанное на экспериментах и работе с разными методами. А мнение может быть разным и это — нормально)
Я уверена, что эффективность тех или иных методов очень чувствительна к набору данных и может случиться так, что верное на одном датасете опровергнется на другом.
Будьте осторожны и любите критическое мышление!
Со всем самым теплым, как восточные страны летом,
Ваш Дата-автор! 🐥
Выкидываем SHAP?
Сегодня мне прислали интересную статью: The Inadequacy of Shapley Values for Explainability (Неадекватность значений Шепли для объяснимости)
На статью стоит обратить внимание тем, кто вообще хочет адекватно осуществлять процесс интерпретации моделей. И не только значениями Шепли.
Что у нас есть:
✔️ Значения Шепли многофункциональны — им можно скормить задачи вычисления важности признаков и для ML, и для DL моделей.
✔️ Значения Шепли популярны — красивые графики выглядят серьезно.
✔️ Значения Шепли вроде бы стоят на математике, поскольку вводятся через теорию игр.
Что утверждает статья и на что НУЖНО обратить внимание:
🔘 Тезис 1.
Заявление в статье"Explainability is NOT SHAP’s game" — это верно. Но важно знать и понимать, что все методы та или иная аппроксимация.
🔘 Тезис 2.
Наличие в статье гипотезы, что значения Шепли должны придавать признакам ненулевую важность, если они были важны в каком-то прогнозе.
Например в XAI есть аксиома чувствительности — метод атрибуции (объяснения) удовлетворяет аксиоме чувствительности, если для двух входных объектов x, x', отличных только по одному признаку A_i, но имеющим разные прогнозы, метод присваивает признаку A_i ненулевую важность. И значения Шепли могут не удовлетворять этой аксиоме в некоторых случаях.
Почему это так:
Значения Шепли не проверялись на соответствие аксимомам, и да в XAI действительно существуют методы, которые, например, не удовлетворяют аксиоме чувствительности'. Так что они никому ничего не должны)
🔘 Тезис 3.
Проверка неэффективности значений Шепли осуществляется для логических функций в статье — на самом деле аналогично можно показать, что Permutation importance ломается об логические функции, но делает ли это метод неприменимым?
⬇️ Общий вывод:
Лучший подход — пока не цепляться за такие заявления и иметь в своем арсенале несколько методов интерпретации. Чтобы смотреть в результате множество признаков, которые образовываются из пересечения использованных методов.
И, кроме того, важно понимать, что любая (не)эффективность метода — это мнение, основанное на экспериментах и работе с разными методами. А мнение может быть разным и это — нормально)
Я уверена, что эффективность тех или иных методов очень чувствительна к набору данных и может случиться так, что верное на одном датасете опровергнется на другом.
Будьте осторожны и любите критическое мышление!
Со всем самым теплым, как восточные страны летом,
Ваш Дата-автор! 🐥
👍5❤🔥2🤔1
Привет, друзья!
🥊 Отличная новость: один из фреймворков saliency для объяснения глубинных моделей выкатил framework-agnostic update!
#Library
Поддерживаемые методы
В основном градиентные:
- Integrated Gradients (paper), Guided Integrated Gradients (paper), Blur IG (paper)
- SmoothGrad (paper),
- Vanilla Gradients (paper1, paper2)
- Guided Backpropogation (paper),
- Grad-CAM (paper),
И один concept (region)-based метод:
- XRAI (paper)
Вооружайтесь Tensorflow, pyTorch и Keras этим летом =)
И ни в чем себе не отказывайте
Всем солнца! 🫶🏻☀️
Ваш дата-автор!
🥊 Отличная новость: один из фреймворков saliency для объяснения глубинных моделей выкатил framework-agnostic update!
#Library
Поддерживаемые методы
В основном градиентные:
- Integrated Gradients (paper), Guided Integrated Gradients (paper), Blur IG (paper)
- SmoothGrad (paper),
- Vanilla Gradients (paper1, paper2)
- Guided Backpropogation (paper),
- Grad-CAM (paper),
И один concept (region)-based метод:
- XRAI (paper)
Вооружайтесь Tensorflow, pyTorch и Keras этим летом =)
И ни в чем себе не отказывайте
Всем солнца! 🫶🏻☀️
Ваш дата-автор!
GitHub
GitHub - PAIR-code/saliency: Framework-agnostic implementation for state-of-the-art saliency methods (XRAI, BlurIG, SmoothGrad…
Framework-agnostic implementation for state-of-the-art saliency methods (XRAI, BlurIG, SmoothGrad, and more). - PAIR-code/saliency
🔥5👍1
Друзья, доброго вам начала дня!
и любого другого отрезка времени :)
Пишу позвать вас на вебинар "Объяснение ML моделей и feature importance"!
На нём обсудим:
* Что такое интерпретируемая модель и чем она отличается от объяснимой?
* Какие задачи бизнеса и исследований решает объяснение моделей?
* Почему важно знать несколько методов объяснения?
И подробно изучим самый популярный метод объяснения ансамблевых моделей — Feature importnace!
(С практикой 🔥)
Когда — в 18:00 (по МСК)
Где — пришлю zoom-ссылку!
Буду рада видеть каждого!
Как всегда Ваш
Дата-автор :)
и любого другого отрезка времени :)
Пишу позвать вас на вебинар "Объяснение ML моделей и feature importance"!
На нём обсудим:
* Что такое интерпретируемая модель и чем она отличается от объяснимой?
* Какие задачи бизнеса и исследований решает объяснение моделей?
* Почему важно знать несколько методов объяснения?
И подробно изучим самый популярный метод объяснения ансамблевых моделей — Feature importnace!
(С практикой 🔥)
Когда — в 18:00 (по МСК)
Где — пришлю zoom-ссылку!
Буду рада видеть каждого!
Как всегда Ваш
Дата-автор :)
❤15❤🔥2
Привет, друзья! 🐥
По следам вебинара UPDATE и запросам делюсь:
1. Презентацией
2. Ноутбуком с практикой вебинара
3. Записью на YouTube
и, конечно, промокодом на курc Explainable AITREE до 1 августа!
Спасибо, что были онлайн! 28 человек в моменте — я безумно рада, что вы нашли время прийти, задавать много интересных вопросов и ставить плюсы! 🫶🏻
P.S. В ходе вебинара немного запинаюсь. Прошу прощения — первые вебы — они такие 😄
До новых встреч!
Ваш Дата-автор!
По следам вебинара UPDATE и запросам делюсь:
1. Презентацией
2. Ноутбуком с практикой вебинара
3. Записью на YouTube
и, конечно, промокодом на курc Explainable AI
Спасибо, что были онлайн! 28 человек в моменте — я безумно рада, что вы нашли время прийти, задавать много интересных вопросов и ставить плюсы! 🫶🏻
P.S. В ходе вебинара немного запинаюсь. Прошу прощения — первые вебы — они такие 😄
До новых встреч!
Ваш Дата-автор!
Google
Google Colab Notebook
Run, share, and edit Python notebooks
❤10🤝4🔥3🙏1
Привет, друзья! 🐥
Подготовила небольшой пост о Concept-based eXplainable AI — ещё одном взгляде на построение интерпретируемых моделей.
Зачем:
Помимо того что методы атрибуции могут быть спорными, они также зависят от личной интерпретации видимого исследователем.
🧑🏻🌾 Убрать личностный фактор помогает следующий подход: потребуем от метода объяснения, чтобы он указывал на понятные человеку детали, которые были или не были важными.
Детали эти назовём концептами. А в общем случае определим концепт как понятную человеку сущность, выраженную естественным языком, логическим правилом или сэмплом данных.
И по такой нехитрой конструкции определим Concept-based eXplainable AI.
Базовые штуки на исследовать:
T-CAV — testing with concept activation vectors [framework (tf)], [paper]
CBM — Concept Bottleneck Models [github][paper]
CEM — Concept Embedding Models [github][paper]
Всем солнечных фруктов! 🍉
Ваш Дата-автор! :)
Подготовила небольшой пост о Concept-based eXplainable AI — ещё одном взгляде на построение интерпретируемых моделей.
Зачем:
Помимо того что методы атрибуции могут быть спорными, они также зависят от личной интерпретации видимого исследователем.
🧑🏻🌾 Убрать личностный фактор помогает следующий подход: потребуем от метода объяснения, чтобы он указывал на понятные человеку детали, которые были или не были важными.
Детали эти назовём концептами. А в общем случае определим концепт как понятную человеку сущность, выраженную естественным языком, логическим правилом или сэмплом данных.
И по такой нехитрой конструкции определим Concept-based eXplainable AI.
Базовые штуки на исследовать:
T-CAV — testing with concept activation vectors [framework (tf)], [paper]
CBM — Concept Bottleneck Models [github][paper]
CEM — Concept Embedding Models [github][paper]
Всем солнечных фруктов! 🍉
Ваш Дата-автор! :)
👍3❤1
Is attention an explanation?
Привет, Друзья!
Последнюю неделю занимаюсь ресерчем для подготовки модуля по Attention в курсе. Решила поделиться! 🐗
Входные данные:
- по определению без формул, attention — механизм который позволяет модели фокусироваться на более важных релевантных частях входных данных и игнорировать части менее важные;
- следствие — визуализация весов внимания позволяет понять, какие части модели были эффективны для прогноза;
Постановка вопроса:
Может ли механизм внимания в модели считаться объяснением прогноза?
Не могу сказать, что в качестве ответа на вопрос существует много материала и, кроме того, могу также дополнить, что однозначного ответа нет.
🥊 С одной стороны:
- существуют эксперименты, показывающее, что «важности» attentions не коррелируют с градиентными методами объяснений
- отдельные исследователи показывают, что удаление признаков, считающихся важными для внимания, реже приводит к изменению прогноза, чем удаление признаков, которые считаются важными с помощью методов, основанных на градиенте
- если добавить случайные токены (пусть A, B и C) ко всем документам в корпусе, можно обнаружить, что некоторые из этих токенов считаются важными для положительного (или отрицательного) класса
🌱С другой стороны:
- для одинаковой степени достоверности могут сосуществовать несколько правдоподобных объяснений;
- существуют эксперименты, показывающие, что альтернативные распределения внимания, обнаруженные с помощью состязательных методов обучения, работают хуже по сравнению с традиционными механизмами внимания при использовании в MLP (многослойный персептрон)
- дизайны исследований и методы оценки достоверности объяснения различны (могут смотреть на разные головы по уровню, если говорить о трансформерах, например) ;
Саммаризация и личное мнение: 🐗
Механизмы внимания действительно позволяют взглянуть на внутреннюю работу модели. Кроме того, они дают легко понятную оценку скрытых состояний, так что отбрасывать при объяснении модели визуализацию вниманий не стоит.
Однако, это не единственный метод, который стоит рассмотреть и хороший тон — рассматривать attention наряду с градиентными и другими методами.
Плюс, explainable — сам по себе плавающий термин. Объяснение для эксперта в DL может быть полной чепухой для не эксперта DL, а результаты, полученные на, например, картинках не эквивалетны результатам на текстам.
Поэтому получается пока просто аккуратно наблюдаем за областью, друзья!
Надеюсь, у вас отпуск,
Или любимая работа ❤️
С теплейшими пожеланиями,
Ваш Дата автор!
Привет, Друзья!
Последнюю неделю занимаюсь ресерчем для подготовки модуля по Attention в курсе. Решила поделиться! 🐗
Входные данные:
- по определению без формул, attention — механизм который позволяет модели фокусироваться на более важных релевантных частях входных данных и игнорировать части менее важные;
- следствие — визуализация весов внимания позволяет понять, какие части модели были эффективны для прогноза;
Постановка вопроса:
Может ли механизм внимания в модели считаться объяснением прогноза?
Не могу сказать, что в качестве ответа на вопрос существует много материала и, кроме того, могу также дополнить, что однозначного ответа нет.
🥊 С одной стороны:
- существуют эксперименты, показывающее, что «важности» attentions не коррелируют с градиентными методами объяснений
- отдельные исследователи показывают, что удаление признаков, считающихся важными для внимания, реже приводит к изменению прогноза, чем удаление признаков, которые считаются важными с помощью методов, основанных на градиенте
- если добавить случайные токены (пусть A, B и C) ко всем документам в корпусе, можно обнаружить, что некоторые из этих токенов считаются важными для положительного (или отрицательного) класса
🌱С другой стороны:
- для одинаковой степени достоверности могут сосуществовать несколько правдоподобных объяснений;
- существуют эксперименты, показывающие, что альтернативные распределения внимания, обнаруженные с помощью состязательных методов обучения, работают хуже по сравнению с традиционными механизмами внимания при использовании в MLP (многослойный персептрон)
- дизайны исследований и методы оценки достоверности объяснения различны (могут смотреть на разные головы по уровню, если говорить о трансформерах, например) ;
Саммаризация и личное мнение: 🐗
Механизмы внимания действительно позволяют взглянуть на внутреннюю работу модели. Кроме того, они дают легко понятную оценку скрытых состояний, так что отбрасывать при объяснении модели визуализацию вниманий не стоит.
Однако, это не единственный метод, который стоит рассмотреть и хороший тон — рассматривать attention наряду с градиентными и другими методами.
Плюс, explainable — сам по себе плавающий термин. Объяснение для эксперта в DL может быть полной чепухой для не эксперта DL, а результаты, полученные на, например, картинках не эквивалетны результатам на текстам.
Поэтому получается пока просто аккуратно наблюдаем за областью, друзья!
Надеюсь, у вас отпуск,
Или любимая работа ❤️
С теплейшими пожеланиями,
Ваш Дата автор!
👍4❤🔥1
Привет, друзья!
Продолжая тему LLM и attention — хочу поделиться штукой, от красоты который у меня, как говорят, отвисла челюсть!
Визуализация некоторых LLM моделей. Можно интерактивно запустить attention и посмотреть воочию, как эти товарищи вообще нам прогнозы готовят.
Для обучения штука также огонь!
Надеюсь, она доставит вам столько же восторга,
Ваш Дата-автор!
P.S. Сейчас (буквально прямо сейчас) села делать ресерч по XAI для генеративок. Просто спонтанно задали вопрос, так что может быть что-то интересное на эту тему тоже появится. 👀
Продолжая тему LLM и attention — хочу поделиться штукой, от красоты который у меня, как говорят, отвисла челюсть!
Визуализация некоторых LLM моделей. Можно интерактивно запустить attention и посмотреть воочию, как эти товарищи вообще нам прогнозы готовят.
Для обучения штука также огонь!
Надеюсь, она доставит вам столько же восторга,
Ваш Дата-автор!
P.S. Сейчас (буквально прямо сейчас) села делать ресерч по XAI для генеративок. Просто спонтанно задали вопрос, так что может быть что-то интересное на эту тему тоже появится. 👀
🔥13❤🔥1
Probing: что еще можно делать с моделями, чтобы их объяснить 🩺
Привет, друзья! Недавно столкнулась с новой для себя идеей в exaplinable AI: model probing.
Происхождение термина: Термин probing classifier можно встретить в контексте генеративных моделей и, нередко, лингвистических.
Решаемая проблема: Допустим, у нас обучена большая широкая модель. Как понять, на каком уровне модели хранится информация о, например, частях речи?
Идея «зондирования» не является новой, она в чём-то похожа на идею суррогатных моделей, повернутую на 180 градусов. Модель g называется зондирующей, если она обучена (с учителем) решению какой-либо задачи на скрытых представлениях модели. Обращаясь к поставленной проблеме, мы бы могли обучить g прогнозировать части речи на основе выходов модели.
Чуть подробнее: Представим, что у нас есть модель Net, обученная решать задачу перевода. Предположим дополнительно, что модель состоит из двух частей — кодирующей (encoder) и декордирующей (decoder). Построим зондирующие модели g1, g2 на частях кодера и декодера. Чтобы понять, где в модели информация о частях речи, сравним точности g1 и g2 на тестовых данных.
Полученный результат обработаем и получим какой-то вывод!
Преимущества метода:
1. Легкость применения
2. Возможность сравнивать модели различных архитектур, при условии, что они обучены на одном и тоже датасете
Недостатки:
1. Чувствительность к обработке данных и гиперпараметрам зондирующей и исходной моделей
2. Отсутствие обобщения — пробинг для одной задачи и для одной модели не гарантирует, что модель и модели этого семейства хорошо понимают эту информацию в общем контексте или в других задачах
Мнение:
В целом, идея интересная. Многие нюансы, такие как насколько можно доверять "зондам", исследуют, разрабатывая механизмы тестирования.
Как всегда небольшое пожелание — интересных вам идей, друзья!
Ваш Дата автор! 😌
Привет, друзья! Недавно столкнулась с новой для себя идеей в exaplinable AI: model probing.
Происхождение термина: Термин probing classifier можно встретить в контексте генеративных моделей и, нередко, лингвистических.
Решаемая проблема: Допустим, у нас обучена большая широкая модель. Как понять, на каком уровне модели хранится информация о, например, частях речи?
Идея «зондирования» не является новой, она в чём-то похожа на идею суррогатных моделей, повернутую на 180 градусов. Модель g называется зондирующей, если она обучена (с учителем) решению какой-либо задачи на скрытых представлениях модели. Обращаясь к поставленной проблеме, мы бы могли обучить g прогнозировать части речи на основе выходов модели.
Чуть подробнее: Представим, что у нас есть модель Net, обученная решать задачу перевода. Предположим дополнительно, что модель состоит из двух частей — кодирующей (encoder) и декордирующей (decoder). Построим зондирующие модели g1, g2 на частях кодера и декодера. Чтобы понять, где в модели информация о частях речи, сравним точности g1 и g2 на тестовых данных.
Полученный результат обработаем и получим какой-то вывод!
Преимущества метода:
1. Легкость применения
2. Возможность сравнивать модели различных архитектур, при условии, что они обучены на одном и тоже датасете
Недостатки:
1. Чувствительность к обработке данных и гиперпараметрам зондирующей и исходной моделей
2. Отсутствие обобщения — пробинг для одной задачи и для одной модели не гарантирует, что модель и модели этого семейства хорошо понимают эту информацию в общем контексте или в других задачах
Мнение:
В целом, идея интересная. Многие нюансы, такие как насколько можно доверять "зондам", исследуют, разрабатывая механизмы тестирования.
Как всегда небольшое пожелание — интересных вам идей, друзья!
Ваш Дата автор! 😌
🔥6❤2
Привет, друзья!
Если Дата-автор долго молчит, значит дата-автор снова что-то делает! И в этот раз руки дошли до YouTube!
Первое видео: Explainable AI: Линейная регрессия в задаче интерпретации признаков!
Видео посвящено базовому алгоритму машинного обучения — линейной регресии. В нём рассмотрено, как корректно строить и использовать регрессию в задаче интерпретации признаков. 🐥
📌 В видео:
- Повторение линейной регрессии: основные концепции
- Решение задачи прогноза цены домов
- Интерпретация коэффициентов модели: как понять важность и влияние каждого признака.
- Техники для повышения интерпретируемости модели
- Общий вывод
Буду очень рада, если вы посмотрите и подпишитесь на канал! Регрессия — первая, дальше — больше, деревья, ансамбли и, конечно, Deep Learning!
А если у вас есть вопросы/темы, которые вы хотели бы услышать от меня, оставляйте их в комментариях ниже!
🔗 Полезные ссылки:
- Ноутбук из видео.
- Курс по Объяснимому машинному и глубинному обучению
Страшно волнительно выпускать первый видео-контент! Поэтому буду рада вашей поддержке ☺️
Ваш Дата-автор!
Если Дата-автор долго молчит, значит дата-автор снова что-то делает! И в этот раз руки дошли до YouTube!
Первое видео: Explainable AI: Линейная регрессия в задаче интерпретации признаков!
Видео посвящено базовому алгоритму машинного обучения — линейной регресии. В нём рассмотрено, как корректно строить и использовать регрессию в задаче интерпретации признаков. 🐥
📌 В видео:
- Повторение линейной регрессии: основные концепции
- Решение задачи прогноза цены домов
- Интерпретация коэффициентов модели: как понять важность и влияние каждого признака.
- Техники для повышения интерпретируемости модели
- Общий вывод
Буду очень рада, если вы посмотрите и подпишитесь на канал! Регрессия — первая, дальше — больше, деревья, ансамбли и, конечно, Deep Learning!
А если у вас есть вопросы/темы, которые вы хотели бы услышать от меня, оставляйте их в комментариях ниже!
🔗 Полезные ссылки:
- Ноутбук из видео.
- Курс по Объяснимому машинному и глубинному обучению
Страшно волнительно выпускать первый видео-контент! Поэтому буду рада вашей поддержке ☺️
Ваш Дата-автор!
Google
Линрег_yt.ipynb
Colab notebook
🔥18❤3
Привет, друзья! 🍉
Обещала сделать обзор про Generative AI + XAI.
Генеративные модели делают переход от «распознавания верного решения задачи» к «генерации решения».
Требует ли такой манёвр радикальных изменений в техниках объяснения модели? 🧐
Нырок по статьям на эту тему показывает, что и да, и нет.
В этом посте выделила несколько тривиальных, но интересных штук по XAI для генеративных моделей:
1. Совместимость с классикой: с одной стороны, классические методы, такие как SHAP, LIME, Counterfactual explanations применимы как к моделям, решающим задачи в классической постановке, так и к генеративным моделям. С другой — сама идея генерации открывает новые возможности (а некоторые наоборот — частично закрывает), что, конечно, влияет и на объяснения.
2. Проблема доступа: широкое использование генеративок существует не только из-за эффективности моделей, но ещё и из-за их доступности — например, chatGPT привлекает более 100 миллионов посетителей каждый месяц.
Однако пользователи, заинтересованные в понимании процесса генерации, не могут получить доступ к внутренним компонентам моделей, что исключает подходы XAI, основанные на данных и на анализе внутренних слоев.
3. Самообъяснения и их неоднозначность: генеративные языковые модели можно попросить генерировать так называемую Chain-of-though, однако такой подход завязан на ряде недостатков. Например, цепочка рассуждений, которые модель может отдавать очень чувствительна к данным обучения — например, если слова вроде «потому что» удалить из данных обучения, то они никогда не будут сгенерированы.
🍉 А больше и ничего интересного мне не нашлось. Конечно, еще оптимизируют архитектуры для отдельных модальностей данных (натыкалась на статьи про Generative XAI for music и for art), но челленджей тут много.
Обещала сделать обзор про Generative AI + XAI.
Генеративные модели делают переход от «распознавания верного решения задачи» к «генерации решения».
Требует ли такой манёвр радикальных изменений в техниках объяснения модели? 🧐
Нырок по статьям на эту тему показывает, что и да, и нет.
В этом посте выделила несколько тривиальных, но интересных штук по XAI для генеративных моделей:
1. Совместимость с классикой: с одной стороны, классические методы, такие как SHAP, LIME, Counterfactual explanations применимы как к моделям, решающим задачи в классической постановке, так и к генеративным моделям. С другой — сама идея генерации открывает новые возможности (а некоторые наоборот — частично закрывает), что, конечно, влияет и на объяснения.
2. Проблема доступа: широкое использование генеративок существует не только из-за эффективности моделей, но ещё и из-за их доступности — например, chatGPT привлекает более 100 миллионов посетителей каждый месяц.
Однако пользователи, заинтересованные в понимании процесса генерации, не могут получить доступ к внутренним компонентам моделей, что исключает подходы XAI, основанные на данных и на анализе внутренних слоев.
3. Самообъяснения и их неоднозначность: генеративные языковые модели можно попросить генерировать так называемую Chain-of-though, однако такой подход завязан на ряде недостатков. Например, цепочка рассуждений, которые модель может отдавать очень чувствительна к данным обучения — например, если слова вроде «потому что» удалить из данных обучения, то они никогда не будут сгенерированы.
🍉 А больше и ничего интересного мне не нашлось. Конечно, еще оптимизируют архитектуры для отдельных модальностей данных (натыкалась на статьи про Generative XAI for music и for art), но челленджей тут много.
🔥7
Друзья, еще очень хочу сказать вам огромное спасибо за поддержку на Ютуб! 🥹
Для меня это какой-то новый опыт, и я очень настроена продолжать :)
Уже потихоньку планирую следующее видео!
Желаю вам чудного вечера,
Как всегда ваш,
Дата-автор!
Для меня это какой-то новый опыт, и я очень настроена продолжать :)
Уже потихоньку планирую следующее видео!
Желаю вам чудного вечера,
Как всегда ваш,
Дата-автор!
❤8🔥5👍2
Привет, друзья!
Основное время сейчас занимаюсь практическим контентом для курса — реализовываю методы fom scratch на торче, сравниваю их с библиотечными имплементациями и создаю задания.
🍉 Хочу поделиться наблюдением:
1. Если вы не знакомы с методами объяснения и хотите "пощупать что есть", то очень рекомендую библиотеку captum. Она собрала в себе абсолютное большинство методов, и именно её стоит использовать, чтобы потыкать, что подойдет лучше всего для вашей модели. НО!
2. Если вы уже знакомы с методами объяснения или у вас есть данные о том, что метод X сработал лучше всего, то ищите пользовательские реализации! Зачастую они дают много бонусов, таких как интерактивность, реализация модификаций метода и пр.
Например, рассмотрим метод LRP (Layer-wise Relevance Propagation).
Реализация в captum
VS
Пользовательская реализация с интерактивностью
пользовательская реализация с модификациями
В общем, так как область только развивается, смело ищите энтузиастов, которые адаптируют методы. Они есть!
Всем чудного и продуктивного дня,
Ваш Дата-автор! 🐥
Основное время сейчас занимаюсь практическим контентом для курса — реализовываю методы fom scratch на торче, сравниваю их с библиотечными имплементациями и создаю задания.
🍉 Хочу поделиться наблюдением:
1. Если вы не знакомы с методами объяснения и хотите "пощупать что есть", то очень рекомендую библиотеку captum. Она собрала в себе абсолютное большинство методов, и именно её стоит использовать, чтобы потыкать, что подойдет лучше всего для вашей модели. НО!
2. Если вы уже знакомы с методами объяснения или у вас есть данные о том, что метод X сработал лучше всего, то ищите пользовательские реализации! Зачастую они дают много бонусов, таких как интерактивность, реализация модификаций метода и пр.
Например, рассмотрим метод LRP (Layer-wise Relevance Propagation).
Реализация в captum
VS
Пользовательская реализация с интерактивностью
пользовательская реализация с модификациями
В общем, так как область только развивается, смело ищите энтузиастов, которые адаптируют методы. Они есть!
Всем чудного и продуктивного дня,
Ваш Дата-автор! 🐥
captum.ai
Captum · Model Interpretability for PyTorch
❤🔥8
Какой контент вы хотите видеть?
Anonymous Poll
53%
Разбор методов объяснения для DL
37%
Разбор методов объяснения для ML
64%
Юпитер-тетрадки с туториалами
3%
Свой вариант (напишу в комментах/в личку)
Также, друзья, прошу вашей помощи! Тыкните в опросе выше — это позволит мне сделать канал лучше и информативнее для вас! 😌
🤝3
🐔❗️Важное UPD:
Если вы пользовались приложением-табличкой для навигации по XAI библиотекам, ссылка обновилась (потому что я переименовала ветку на main ) :
Обновленная навигация
Буду благодарна, если пошарите её друзьям, и буду рада, если она окажется для вас полезной 😌
А табличный вариант по прежнему лежит на диске!
- Библиотека + фреймворк обучения
- Библиотека + метод
- Библиотека + тип данных
Спасибо!
Ваш Дата-автор!
Если вы пользовались приложением-табличкой для навигации по XAI библиотекам, ссылка обновилась (
Обновленная навигация
Буду благодарна, если пошарите её друзьям, и буду рада, если она окажется для вас полезной 😌
А табличный вариант по прежнему лежит на диске!
- Библиотека + фреймворк обучения
- Библиотека + метод
- Библиотека + тип данных
Спасибо!
Ваш Дата-автор!
Streamlit
main page
Here you can find a library offering model interpretation methods tailored to your needs. The cla...
❤3