Объяснимый искусственный интеллект (Explainable artificial intelligence) Скачать в PDF

Синонимы: Интерпретируемый искусственный интеллект, Объяснимое машинное обучение, Explainable AI, XAI, Interpretable AI, Explainable machine learning, XML

Объяснимый искусственный интеллект (XAI) — направление в ИИ, связанное с разработкой и применением технологий, методов и процессов, позволяющих сделать сложные модели машинного обучения и результаты их работы понятными и прозрачными для человека. Модель не только формирует выводы и решения, но и объясняет, почему они были получены.

В рамках XAI стремятся создавать системы и модели ИИ, способные объяснять свои действия и принимать решения понятным для людей образом, чтобы повысить доверие к ним. Объяснимый ИИ используется для описания алгоритмов, а также их ожидаемых последствий и возможных отклонений. Для этого используются методы визуализации, более простые алгоритмы, а также интерактивные интерфейсы с подсказками.

Иными словами, когда человек использует ИИ для принятия решения и получает результат, у него, естественно, возникает вопрос: почему именно такой ответ? При этом сама модель, ее структура и параметры обычно не позволяют объяснить это решение, поэтому для внешнего наблюдателя она выглядит как «черный ящик». Пока ответ на этот вопрос не получен, доверие к результатам модели и принятым на их основе решениям снижается.

Методы XAI позволяют сформировать представление о поведении модели, оценить значимость признаков, обнаружить ее предвзятость и потенциальные проблемные точки. Главной целью при этом является преодоление проблемы «черного ящика», которая заключается в том, что зачастую поведение модели и выдаваемые ею результаты не могут понять и объяснить даже сами ее создатели.

Основными результатами применения технологий XAI являются повышение доверия со стороны пользователей к результатам работы моделей машинного обучения, возможность оценки их корректности и осознанного принятия решений, формирование пользовательского опыта. Кроме этого, объяснимость позволяет подтвердить имеющиеся знания, оспорить их или сформировать новые гипотезы.

Использование XAI также позволяет эффективнее выявлять и устранять ошибки ИИ, особенно в тех областях, где они могут привести к серьезным негативным последствиям, что способствует повышению безопасности и соблюдению этических требований. Необходимость объяснения, почему с помощью ИИ было принято определенное решение, закреплена на законодательном уровне в ряде стран.

Чем выше объяснимость ИИ и доверие к нему, тем активнее он внедряется. Поэтому компании, разрабатывающие ИИ-решения, заинтересованы в их объяснимости, так как это помогает привлекать больше клиентов и увеличивать доходы. Именно этим объясняется рост инвестиций в исследования и разработки в области XAI.

В основе XAI лежат три базовых концепции:

  • прозрачность — возможность понимать и описывать, как из данных извлекаются признаки и как формируются целевые значения при обучении модели;
  • интерпретируемость — возможность объяснить, как модель принимает решения, в понятной для человека форме;
  • объяснимость — возможность понять, какие признаки сильнее всего повлияли на результат работы модели.

В контексте XAI все модели могут быть разделены на две группы:

  • прозрачные (интерпретируемые) — модели, внутренняя структура и логика работы которых по своей природе проста и понятна человеку. К ним относятся линейная и логистическая регрессия, деревья решений и другие модели на основе правил, кластеризация методом k-средних, классификаторы на основе метода k-ближайших соседей. Например, последний легко объясняет, что конкретный объект относится к данному классу, потому что к нему же относится большинство ближайших объектов.
  • непрозрачные — модели, структура и логика работы которых скрыты внутри или слишком сложны для понимания. Типичным примером являются нейронные сети, их веса практически не поддаются интерпретации, а также вероятностные модели кластеризации.

Некоторые подразумевают под XAI генеративный ИИ, который способен формировать контент в максимально понятном и доступном виде. Однако это не совсем так. Задача генеративного ИИ — создавать новый контент, который может и не содержать логики, объясняющей, почему он именно такой. В то же время XAI фокусируется на обеспечении прозрачности внутренних процессов модели с целью дать понимание, почему был получен данный результат.

Методы, используемые XAI, можно разделить на два направления:

  • использование простых и понятных (самообъясняемых) моделей;
  • использование сложных моделей с последующим объяснением их работы с помощью дополнительных методов.

Очевидно, что первое направление является более перспективным, поскольку генерация объясняющей информации требует дополнительных затрат.

В настоящее время разработано достаточно много подходов для реализации XAI. Наиболее популярными являются:

  • локальные интерпретируемые модельно-независимые объяснения (LIME — Local Interpretable Model-agnostic Explanations) — метод, который объясняет работу сложной модели, приближая ее поведение вблизи конкретного примера более простой и понятной моделью.
  • аддитивные объяснения Шэпли (SHAP — Shapley Additive exPlanations) — метод, который показывает, какой вклад каждый признак вносит в конкретное предсказание модели.
  • аддитивная глобальная важность Шэпли (SAGE — Shapley Additive Global Importance) — метод, который оценивает, насколько в целом модель зависит от каждого признака.

Несмотря на достаточно интенсивное развитие технологий XAI, у них есть ряд ограничений. Одной из проблем, с которыми сталкиваются исследования, является отсутствие консенсуса в отношении определений ряда ключевых понятий. В частности, точные определения объяснимого ИИ различаются в разных работах и ​​контекстах.

Некоторые исследователи используют термины «объяснимость» и «интерпретируемость» как взаимозаменяемые для обозначения концепции, позволяющей сделать модели и их результаты более понятными человеку. Другие проводят различия между ними. Например, одни считают, что «объяснимость» относится к априорным объяснениям, а «интерпретируемость» — к апостериорным.

Другой проблемой является отсутствие практических рекомендаций по выбору, внедрению и тестированию объяснений для конкретных случаев. Хотя показано, что объяснения улучшают понимание систем машинного обучения для многих аудиторий, их способность укреплять доверие среди неспециалистов в области ИИ вызывает споры. Наибольшую перспективность показали интерактивные объяснения в форме вопросов и ответов.

Еще одним предметом дискуссий является поиск компромисса между точностью и объяснимостью моделей. Действительно, повышение объяснимости в большинстве случаев связано с упрощением модели, что, как правило, ведет к уменьшению точности. Поэтому модели, к которым применены методы XAI для повышения прозрачности, должны подвергаться усиленной проверке перед развертыванием.

Кроме этого, проблемами являются высокая сложность разработки систем XAI, а также темпы развития ИИ, за которыми разработка новых методов повышения объяснимости просто не успевает.

Новости, материалы по аналитике, кейсы применения, активное сообщество