Привет, друзья! 🪁
На днях потестировала новую для себя библиотеку moDel Agnostic Language for Exploration and eXplanation (DALEX)
Небольшой обзор, чтобы не теряться в уже весьма большом количестве либ и фильтровать, что must have, а что — нет.
Плюсы из коробки:
1. Предоставляет красивые визуализации для:
Графиков частичной зависимости (PDP plots);
Измерения важностей признаков на основе перестановки;
Графиков Break down — изменений прогноза при добавлении признака в модель.
2. Позволяет проанализировать взаимодействие
Из известных мне, первая питоновская библиотека, где коэффициенты влияния Feature Interaction можно просто достать из коробки, не задействуя применения статистического анализа.
3. Включает в себя SHAP, LIME (как самые популярные методы) и необходимый минимум классических методов
4. Безумно красиво описана математическая теория всех методов в библиотеке!
Приводят книгу, с которой можно пропасть, анализируя математическую основу методов (я просто немного пропала в ней! ☺️)
Минусы:
1. Частично повторяет существующие библиотеки или является добавлением красоты для классики, которую можно реализовать условно используя sklearn и matplotlib
2. Не дружит с catboost, lightgbm — тоже популярными в проде моделями
3.Не дружит с pyTorch
Совместимость:
Саммари:
В общем и целом отлично подходит для красивых отчетов и беглой оценки анализа попарного взаимодействия, если нет времени провести статические тесты.
Как мнение — знать хорошо, использовать повседневно — зависит от сценариев.
Всё ещё ваш,
Дата-автор!
На днях потестировала новую для себя библиотеку moDel Agnostic Language for Exploration and eXplanation (DALEX)
Небольшой обзор, чтобы не теряться в уже весьма большом количестве либ и фильтровать, что must have, а что — нет.
Плюсы из коробки:
1. Предоставляет красивые визуализации для:
Графиков частичной зависимости (PDP plots);
Измерения важностей признаков на основе перестановки;
Графиков Break down — изменений прогноза при добавлении признака в модель.
2. Позволяет проанализировать взаимодействие
Из известных мне, первая питоновская библиотека, где коэффициенты влияния Feature Interaction можно просто достать из коробки, не задействуя применения статистического анализа.
3. Включает в себя SHAP, LIME (как самые популярные методы) и необходимый минимум классических методов
4. Безумно красиво описана математическая теория всех методов в библиотеке!
Приводят книгу, с которой можно пропасть, анализируя математическую основу методов (я просто немного пропала в ней! ☺️)
Минусы:
1. Частично повторяет существующие библиотеки или является добавлением красоты для классики, которую можно реализовать условно используя sklearn и matplotlib
2. Не дружит с catboost, lightgbm — тоже популярными в проде моделями
3.Не дружит с pyTorch
Совместимость:
scikit-learn, keras, H2O, xgboost, mlr (python)
mlr3, tidymodels (R)
Саммари:
В общем и целом отлично подходит для красивых отчетов и беглой оценки анализа попарного взаимодействия, если нет времени провести статические тесты.
Как мнение — знать хорошо, использовать повседневно — зависит от сценариев.
Всё ещё ваш,
Дата-автор!
GitHub
GitHub - ModelOriented/DALEX: moDel Agnostic Language for Exploration and eXplanation
moDel Agnostic Language for Exploration and eXplanation - ModelOriented/DALEX
❤🔥6🔥5
Привет, друзья!
Бывают такие конференции, на которых важно выступить для университета. И хорошо, когда есть, с чем!
Прошедшим летом я много времени вложила в курс по Explainable AI. И так получилось, что курс, который благодаря AI Education появился на степик — первый на русском языке!
Поскольку я буду презентовать его — решила вообще проанализировать — насколько термин «объяснимый ИИ» популярен.
На Яндекс Вордстат перекати-поле, в Google Trends ситуация не лучше =(
(прилагаю картинки)
Бывают такие конференции, на которых важно выступить для университета. И хорошо, когда есть, с чем!
Прошедшим летом я много времени вложила в курс по Explainable AI. И так получилось, что курс, который благодаря AI Education появился на степик — первый на русском языке!
Поскольку я буду презентовать его — решила вообще проанализировать — насколько термин «объяснимый ИИ» популярен.
На Яндекс Вордстат перекати-поле, в Google Trends ситуация не лучше =(
(прилагаю картинки)
👍7❤4👀3
Отсюда вопрос!
Слышали ли вы про область Explainable AI (XAI, объяснимый ИИ) до чтения канала?
Слышали ли вы про область Explainable AI (XAI, объяснимый ИИ) до чтения канала?
Anonymous Poll
58%
Да
34%
Нет
2%
Я и в канале её слышал/а
6%
Кнопка для кнопки 🥮
Привет, друзья!
Помните значения Шепли и их красивую идею — смотреть на признаки как на группы лиц, играющих в игру? Это даёт им ряд преимуществ, а математика показывает, что метод объективно обладает рядом хороших свойств. Теперь он не один!
Что если рассматривать признаки как членов парламента?
Про метод, основанный на идее выборов в парламент (который реально используется в ряде стран), а также про то, как сделать такой красивый график — читайте в статье! :)
P.S
Сейчас очень много исследую и работаю, так что декабрь обещает быть насыщенным.
Всем яркой зимы,
Ваш Дата-автор!
Помните значения Шепли и их красивую идею — смотреть на признаки как на группы лиц, играющих в игру? Это даёт им ряд преимуществ, а математика показывает, что метод объективно обладает рядом хороших свойств. Теперь он не один!
Что если рассматривать признаки как членов парламента?
Про метод, основанный на идее выборов в парламент (который реально используется в ряде стран), а также про то, как сделать такой красивый график — читайте в статье! :)
P.S
Сейчас очень много исследую и работаю, так что декабрь обещает быть насыщенным.
Всем яркой зимы,
Ваш Дата-автор!
❤🔥10🔥4
Привет, друзья!
Интерпретация влияний признаков на прогнозы в модели линейной регресии — база, фундамент и первый кирпич в построении объяснений.
По определению, мы можем смотреть на веса модели и считывать важность с них. Но всегда ли этого достаточно и точно ли это всё, что мы можем извлечь из модели?
📉 На практике — нет!
Подготовила для вас ноутбучек с 5ю методами для представления информации, которая заложена в весах модели и модели в целом:
1) Прямое рассмотрение коэффициентов в виде барплота.
2) Представление коэффициентов виде круговой диаграммы.
3) Рассмотрение относительного вклада коэффициентов.
4) Анализ остатков модели.
5) Построение регионов уверенности.
Приятной практики!
Ваш, Дата автор!
Постепенно готовлю обновления в курсе по XAI и пару открытых занятий, но сначала сессия. 🐈
Интерпретация влияний признаков на прогнозы в модели линейной регресии — база, фундамент и первый кирпич в построении объяснений.
По определению, мы можем смотреть на веса модели и считывать важность с них. Но всегда ли этого достаточно и точно ли это всё, что мы можем извлечь из модели?
📉 На практике — нет!
Подготовила для вас ноутбучек с 5ю методами для представления информации, которая заложена в весах модели и модели в целом:
1) Прямое рассмотрение коэффициентов в виде барплота.
2) Представление коэффициентов виде круговой диаграммы.
3) Рассмотрение относительного вклада коэффициентов.
4) Анализ остатков модели.
5) Построение регионов уверенности.
Приятной практики!
Ваш, Дата автор!
Google
Подходы к интерпретации и визуальному представлению полученных интерпретаций для алгоритма линейной регрессии.ipynb
Colab notebook
❤14🔥7
Привет, друзья!
Мне хотелось дать вам что-то красивое в силу моего дня рождения. Так что здесь должен был быть красивый пост про оценку взаимодействия признаков с использованием H-статистики, но я всё ещё студент на сессии)
Так что хочу поделиться с вами скидкой на курс по XAI! Я делала и делаю его, основываясь на опыте, знаниях, лекциях, проводимых студентам в ПетрГУ и ВШЭ и их вопросов ☺️
Надеюсь, со временем курс будет становиться только больше и лучше.
Планы на будущий год — наполеоновские:
1. Продолжать развиваться как автор, преподаватель и ученый
2. Устроиться на стажировку по направлению XAI/механистической интерпретируемости — последнее — что-то удивительное и безумно красивое!
3. Закончить ВУЗ, стать математиком и поступить снова! :)
Очень рада, что вы у меня есть! Обожаю вас! ❤️
Скоро вернусь с постами, со всем самым добрым,
Ваш Дата-автор!
Мне хотелось дать вам что-то красивое в силу моего дня рождения. Так что здесь должен был быть красивый пост про оценку взаимодействия признаков с использованием H-статистики, но я всё ещё студент на сессии)
Так что хочу поделиться с вами скидкой на курс по XAI! Я делала и делаю его, основываясь на опыте, знаниях, лекциях, проводимых студентам в ПетрГУ и ВШЭ и их вопросов ☺️
Надеюсь, со временем курс будет становиться только больше и лучше.
Планы на будущий год — наполеоновские:
1. Продолжать развиваться как автор, преподаватель и ученый
2. Устроиться на стажировку по направлению XAI/механистической интерпретируемости — последнее — что-то удивительное и безумно красивое!
3. Закончить ВУЗ, стать математиком и поступить снова! :)
Очень рада, что вы у меня есть! Обожаю вас! ❤️
Скоро вернусь с постами, со всем самым добрым,
Ваш Дата-автор!
Stepik: online education
Explainable AI (Объяснимое машинное обучение)
В курсе изучаются классические и продвинутые методы интерпретации машинного и глубинного обучения. Подробно разбираются математические обоснования изучаемых методов.
❤19👍3
🎄Друзья, привет-привет!
Поговорим в субботу?)
Рома — разносторонний человек. С одной стороны, он AI-продакт в FinTech стартапе, с другой — в процессе написания диссертации по теме Reasoning и Long-term memory в наших удивительных ИИ моделях.
🎉И вот мы встречаем в ситуацию — что будет, если один компетентный в области человек начнет опрашивать другого про его области научных интересов?
Приглашаем послушать! 👇🏻
Поговорим в субботу?)
Рома — разносторонний человек. С одной стороны, он AI-продакт в FinTech стартапе, с другой — в процессе написания диссертации по теме Reasoning и Long-term memory в наших удивительных ИИ моделях.
🎉И вот мы встречаем в ситуацию — что будет, если один компетентный в области человек начнет опрашивать другого про его области научных интересов?
Приглашаем послушать! 👇🏻
❤🔥3❤2
Forwarded from Идеальный стартап
XAI: Как понять, о чем думает ИИ?
Скорость развития современных LLM просто поражает: недавно вышла o3 модель, которая уничтожает все бенчмарки. Но как они решают задачи и что из этого можно понять?
Поговорим про объяснимость ИИ и LLM с Сабриной. Она помогает вести курсы в ВШЭ, на Степике и у нее есть свой телеграм канал, посвященный ИИ @jdata_blog.
В эту субботу - 28.12 в 13:00 проведем телеграм эфир и посмотрим, как можно понять и интерпретировать ИИ.
Ставьте напоминание и до встречи!
Скорость развития современных LLM просто поражает: недавно вышла o3 модель, которая уничтожает все бенчмарки. Но как они решают задачи и что из этого можно понять?
Поговорим про объяснимость ИИ и LLM с Сабриной. Она помогает вести курсы в ВШЭ, на Степике и у нее есть свой телеграм канал, посвященный ИИ @jdata_blog.
В эту субботу - 28.12 в 13:00 проведем телеграм эфир и посмотрим, как можно понять и интерпретировать ИИ.
Ставьте напоминание и до встречи!
❤8👍3🔥3
👀 Можно ли доверять интерпретации?
❓Как интерпретировать модели лучше всего?
🫀И где в интерпретации мы спотыкаемся о свойства биологических систем?
…это, и не только обсудили сегодня с Ромой! Диалог вышел продуктивный и интересный, приглашаю послушать! 👇🏻
❓Как интерпретировать модели лучше всего?
🫀И где в интерпретации мы спотыкаемся о свойства биологических систем?
…это, и не только обсудили сегодня с Ромой! Диалог вышел продуктивный и интересный, приглашаю послушать! 👇🏻
🔥3❤1🤩1
Forwarded from Идеальный стартап
Media is too big
VIEW IN TELEGRAM
Запись нашего с Сабриной @jdata_blog стрима. Вышло супер круто, смотрите, если пропустили!
🔥9❤2👍1🤩1
🎄 Привет, друзья!
Ну что, последний пост в году. Я очень благодарна каждому, кто был и остаётся здесь, ставит все эти чудесные и забавные реакции, пишет вдумчивые вопросы, репостит и зовёт в какие-то движухи.
Вы — лучшие!
Какие планы:
В Новом году всё также будут выходит посты, и я уже заполнила список дел всякими интересными штуками. Надеюсь, будет также весело!
🎁 Чего хочу пожелать:
Здоровья. Не будет его — не будет вас, проектов и сил на вот всё красивое (и иногда ужасное, ладно)
Окружения — люди — золото. Вы, например, моё.
Никогда не останавливайтесь на пути к целям. Двигайтесь, шевелитесь, ищите, встречайте отказы — и всё получится.
Банального счастья. Вы есть, вы (я надеюсь) проживаете эту жизнь не пуская её на самотек. И это круто.
Сил и стойкости. Лишним не будет =)
С наступающим! ❤️
Ваш Дата-автор!
Ну что, последний пост в году. Я очень благодарна каждому, кто был и остаётся здесь, ставит все эти чудесные и забавные реакции, пишет вдумчивые вопросы, репостит и зовёт в какие-то движухи.
Вы — лучшие!
Какие планы:
В Новом году всё также будут выходит посты, и я уже заполнила список дел всякими интересными штуками. Надеюсь, будет также весело!
🎁 Чего хочу пожелать:
Здоровья. Не будет его — не будет вас, проектов и сил на вот всё красивое (и иногда ужасное, ладно)
Окружения — люди — золото. Вы, например, моё.
Никогда не останавливайтесь на пути к целям. Двигайтесь, шевелитесь, ищите, встречайте отказы — и всё получится.
Банального счастья. Вы есть, вы (я надеюсь) проживаете эту жизнь не пуская её на самотек. И это круто.
Сил и стойкости. Лишним не будет =)
С наступающим! ❤️
Ваш Дата-автор!
🔥12❤🔥4
💥 Список библиотек для XAI
Хочу зафиналить год useful постом, который лежит у меня дольше, чем ..... ладно, просто долго!
💫Основные библиотеки для моделей ML (и DL)
— LIME https://github.com/marcotcr/lime
— ELI5 https://eli5.readthedocs.io/en/latest/
— SHAP https://github.com/slundberg/shap
— DICE ML https://interpret.ml/DiCE/dice_ml.html#
— Pdpbox https://pdpbox.readthedocs.io/en/latest/
☄️Для моделей Deep Learning и LLM
* Captum (pytorch) https://github.com/pytorch/captum
* Anchors https://github.com/marcotcr/anchor
* DALEX https://github.com/ModelOriented/DALEX
* AIX360 https://github.com/IBM/AIX360
* ALIBI https://github.com/SeldonIO/alibi
* Quantus https://github.com/understandable-machine-intelligence-lab/Quantus
* OmniXAI https://github.com/salesforce/OmniXAI
* pytorch_explain https://github.com/pietrobarbiero/pytorch_explain
* DeepExplain https://github.com/marcoancona/DeepExplain
* Grad-CAM https://github.com/ramprs/grad-cam
* Integrated Gradients https://github.com/ankurtaly/Integrated-Gradients
* DeepLIFT https://github.com/kundajelab/deeplift
* interpret-text https://github.com/interpretml/interpret-text?ysclid=ldebiwr4jr824513795
* ExBERT https://github.com/bhoov/exbert
* ExplainaBoard (NLP) https://github.com/neulab/ExplainaBoard
* CARLA https://github.com/carla-recourse/CARLA
Никому не верьте, и всегда сомневайтесь в моделях!
Хочу зафиналить год useful постом, который лежит у меня дольше, чем ..... ладно, просто долго!
💫Основные библиотеки для моделей ML (и DL)
— LIME https://github.com/marcotcr/lime
— ELI5 https://eli5.readthedocs.io/en/latest/
— SHAP https://github.com/slundberg/shap
— DICE ML https://interpret.ml/DiCE/dice_ml.html#
— Pdpbox https://pdpbox.readthedocs.io/en/latest/
☄️Для моделей Deep Learning и LLM
* Captum (pytorch) https://github.com/pytorch/captum
* Anchors https://github.com/marcotcr/anchor
* DALEX https://github.com/ModelOriented/DALEX
* AIX360 https://github.com/IBM/AIX360
* ALIBI https://github.com/SeldonIO/alibi
* Quantus https://github.com/understandable-machine-intelligence-lab/Quantus
* OmniXAI https://github.com/salesforce/OmniXAI
* pytorch_explain https://github.com/pietrobarbiero/pytorch_explain
* DeepExplain https://github.com/marcoancona/DeepExplain
* Grad-CAM https://github.com/ramprs/grad-cam
* Integrated Gradients https://github.com/ankurtaly/Integrated-Gradients
* DeepLIFT https://github.com/kundajelab/deeplift
* interpret-text https://github.com/interpretml/interpret-text?ysclid=ldebiwr4jr824513795
* ExBERT https://github.com/bhoov/exbert
* ExplainaBoard (NLP) https://github.com/neulab/ExplainaBoard
* CARLA https://github.com/carla-recourse/CARLA
Никому не верьте, и всегда сомневайтесь в моделях!
GitHub
GitHub - marcotcr/lime: Lime: Explaining the predictions of any machine learning classifier
Lime: Explaining the predictions of any machine learning classifier - marcotcr/lime
❤5🔥3
📈 Привет, друзья!
Сейчас работаю над обзором по explainable AI для мультимодальных моделей (задачка со звездочкой, не скажу, что закончу скоро, но стараюсь!)
Наткнулась на любопытную статью: Mapping the Mind of an Instruction-based Image Editing using SMILE.
Суть: товарищи представляют интерпретируемость на основе локальной модели — метод LIME на максималках — для построения тепловой карты влияния текстовых элементов на созданное изображение.
Что делают:
* Разбивают текстовую команду на ключевые слова.
* Генерируют изображения, изменяя команды, чтобы выявить влияние каждого слова.
* Создают визуальные тепловые карты (heatmaps), отображающие вес каждого слова в процессе редактирования изображения.
Фишка SMILE: вместо простого расстояния (например, косинусного, как у классического LIME) используют расстояние Васерштейна (и дотягивают к нему модель, обученную на извлечение признаков).
Что примечательно: LIME, в контексте XAI — пионер, он был предложен 2016 году, в статье ""Why Should I Trust You?" Explaining the Predictions of Any Classifier". Уникальность LIME — в качестве результата не коэффициенты влияния или графики, а суррогатная модель, объясняющая, как работает чёрный ящик.
С того времени LIME активно адаптировали: есть версии для временных рядов, графов, звука — карточки из статьи прикрепляю к посту. И вот мы дошли до генерации. Ну, красота.
На что хочу обратить внимание? Классические методы вроде LIME всё ещё мощный инструмент. Их потенциал огромный, особенно если адаптировать под задачи! Прямо рекомендую добавить их в свой XAI-инструментарий.
Меня это прям восхищает.
Не запланировано овладела большим количеством свободного времени и сейчас делаю ещё два материала. Первый — открытый (бесплатный) курс на степике по интерпретируемым моделям. Большой курс у меня уже есть (и он тоже растет), решила сделать поменьше)
Второй — обзорный курс на механистическую интерпретируемость. Тоже будет открытым.
Как только доделаю, будут ссылки! 😌
До встречи!
Ваш, Дата-автор!
Сейчас работаю над обзором по explainable AI для мультимодальных моделей (задачка со звездочкой, не скажу, что закончу скоро, но стараюсь!)
Наткнулась на любопытную статью: Mapping the Mind of an Instruction-based Image Editing using SMILE.
Суть: товарищи представляют интерпретируемость на основе локальной модели — метод LIME на максималках — для построения тепловой карты влияния текстовых элементов на созданное изображение.
Что делают:
* Разбивают текстовую команду на ключевые слова.
* Генерируют изображения, изменяя команды, чтобы выявить влияние каждого слова.
* Создают визуальные тепловые карты (heatmaps), отображающие вес каждого слова в процессе редактирования изображения.
Фишка SMILE: вместо простого расстояния (например, косинусного, как у классического LIME) используют расстояние Васерштейна (и дотягивают к нему модель, обученную на извлечение признаков).
Что примечательно: LIME, в контексте XAI — пионер, он был предложен 2016 году, в статье ""Why Should I Trust You?" Explaining the Predictions of Any Classifier". Уникальность LIME — в качестве результата не коэффициенты влияния или графики, а суррогатная модель, объясняющая, как работает чёрный ящик.
С того времени LIME активно адаптировали: есть версии для временных рядов, графов, звука — карточки из статьи прикрепляю к посту. И вот мы дошли до генерации. Ну, красота.
На что хочу обратить внимание? Классические методы вроде LIME всё ещё мощный инструмент. Их потенциал огромный, особенно если адаптировать под задачи! Прямо рекомендую добавить их в свой XAI-инструментарий.
Меня это прям восхищает.
Не запланировано овладела большим количеством свободного времени и сейчас делаю ещё два материала. Первый — открытый (бесплатный) курс на степике по интерпретируемым моделям. Большой курс у меня уже есть (и он тоже растет), решила сделать поменьше)
Второй — обзорный курс на механистическую интерпретируемость. Тоже будет открытым.
Как только доделаю, будут ссылки! 😌
До встречи!
Ваш, Дата-автор!
❤🔥5🔥3
🐥 Как разобраться, что такое XAI? Какие модели можно назвать интерпретируемыми и почему? Как научиться считать SHAP и строить LIME, поняв, что там математически?
Привет, друзья!
А вот и первые ссылки! Я дописала бесплатную часть курса по explainable AI: Интерпретируемые модели!
Что в курсе:
— Полное описание области: зачем она, какие решает задачи и какие использует термины;
— Описания всех интерпретируемых ML моделей, а также то, как корректно их интерпретировать;
— Интерпретация ансамблей: Random Forest, XGBoost, LGBM и CatBoost — какие есть возможности и что с ней может быть не так;
— Код на Python для практики — открытые домашки;
— SHAP и LIME — самые популярные методы области — разобранные теоретически и практически.
Курс будет полезен:
Тем, кто только начинает изучать ML модели и имеет опыт работы с ними 1-2 года (или меньше);
Тем, кто хочет освежить знания классики и углубить работу с вкладами признаков;
Тем, кто читал 1000 статей по SHAP и LIME, но так ничего и не понял (бывает!).
Что внутри: Теория, практика, 101 тестовая задачка, 5 домашек с кодом и красивые картинки. В общем — я старалась и приглашаю присоединиться!
Новых вам знаний!
Ваш Дата-автор! ❤️
Привет, друзья!
А вот и первые ссылки! Я дописала бесплатную часть курса по explainable AI: Интерпретируемые модели!
Что в курсе:
— Полное описание области: зачем она, какие решает задачи и какие использует термины;
— Описания всех интерпретируемых ML моделей, а также то, как корректно их интерпретировать;
— Интерпретация ансамблей: Random Forest, XGBoost, LGBM и CatBoost — какие есть возможности и что с ней может быть не так;
— Код на Python для практики — открытые домашки;
— SHAP и LIME — самые популярные методы области — разобранные теоретически и практически.
Курс будет полезен:
Тем, кто только начинает изучать ML модели и имеет опыт работы с ними 1-2 года (или меньше);
Тем, кто хочет освежить знания классики и углубить работу с вкладами признаков;
Тем, кто читал 1000 статей по SHAP и LIME, но так ничего и не понял (бывает!).
Что внутри: Теория, практика, 101 тестовая задачка, 5 домашек с кодом и красивые картинки. В общем — я старалась и приглашаю присоединиться!
Новых вам знаний!
Ваш Дата-автор! ❤️
Stepik: online education
Интерпретируемые модели AI
В курсе изучаются концепции и определения области XAI. Приводится практическая ценность и мотивации данной области. За время прохождения, вы погрузитесь в терминологию и научитесь классифицировать методы объяснения, рассмотрите модели ML и научитесь корректно…
🔥8❤7❤🔥1
Привет, друзья! 🐗
Нашла ещё одну библиотеку, для построения объяснений в CV задачах.
Библиотека: easy_explain
Совместимость: pytorch + YOLOv8
Поддерживаемые методы:
1. Occlusion
2. CAM — карты активации классов SmoothGradCAMpp & LayerCAM .
3. Layer-wise Relevance Propagation (LRP) — адаптирован под YOLOv8 для задач детекции
Также обновила всё в табличку.
Чудесного вам вечера!
Ваш Дата-автор! 😌
P.S. Спасибо, что присоединяетесь к курсу! Для меня это очень важно и ценно, рада видеть каждого! ❤️
Нашла ещё одну библиотеку, для построения объяснений в CV задачах.
Библиотека: easy_explain
Совместимость: pytorch + YOLOv8
Поддерживаемые методы:
1. Occlusion
2. CAM — карты активации классов SmoothGradCAMpp & LayerCAM .
3. Layer-wise Relevance Propagation (LRP) — адаптирован под YOLOv8 для задач детекции
Также обновила всё в табличку.
Чудесного вам вечера!
Ваш Дата-автор! 😌
P.S. Спасибо, что присоединяетесь к курсу! Для меня это очень важно и ценно, рада видеть каждого! ❤️
GitHub
GitHub - stavrostheocharis/easy_explain: An XAI library that helps to explain AI models in a really quick & easy way
An XAI library that helps to explain AI models in a really quick & easy way - stavrostheocharis/easy_explain
🔥8❤2
🍀 Привет, друзья!
В последнее время активно изучаю информацию о механистической интерпретируемости. Одна из моих центральных задач — обобщить, что происходит, и связать это с общими событиями и методами в области explainable AI.
🦜Механистическая интерпретируемость (MI) — частный случай просто интерпретируемости, но прикрученный к пониманию глубоких моделей. И хотя о ней в сообществе говорят относительно недавно, само понятие не ново — оно приходит из нейробиологии и когнитивных наук.
MI относится к классу внутренних методов интерпретации, и ключевая особенность, отделяющая MI от всего XAI — сосредоточена на задаче детального восстановления поведения моделей.
Наиболее активно сейчас исследуются 4 направления, выраженные в гипотезах.
В каких, и причем тут попугаи, коты и машины — смотрите в статье!
Там много картинок и ссылок. Конечно, красивых!
В последнее время активно изучаю информацию о механистической интерпретируемости. Одна из моих центральных задач — обобщить, что происходит, и связать это с общими событиями и методами в области explainable AI.
🦜Механистическая интерпретируемость (MI) — частный случай просто интерпретируемости, но прикрученный к пониманию глубоких моделей. И хотя о ней в сообществе говорят относительно недавно, само понятие не ново — оно приходит из нейробиологии и когнитивных наук.
MI относится к классу внутренних методов интерпретации, и ключевая особенность, отделяющая MI от всего XAI — сосредоточена на задаче детального восстановления поведения моделей.
Наиболее активно сейчас исследуются 4 направления, выраженные в гипотезах.
В каких, и причем тут попугаи, коты и машины — смотрите в статье!
Там много картинок и ссылок. Конечно, красивых!
Telegraph
Гипотезы механистической интерпретируемости (MI): как работают нейронные сети внутри?
Исследования в области механистической интерпретируемости (Mechanistic Interpretability, MI) стремятся понять внутренние механизмы работы нейронных сетей. Ниже я привожу четыре ключевые гипотезы, выдвигаемые исследователями, чтобы объяснить, как модели представляют…
🔥5❤🔥3