Подходы к интерпретации моделей машинного обучения при цензурированных данных

Аннотация: 
Методы интерпретации получили широкое распространение для объяснения, почему модель машинного обучения типа «черный ящик» выдает то или иное предсказание. В работе рассматриваются основные методы интерпретации моделей выживаемости, которые оперируют с цензурированными данными и определяют характеристики времени до определенного события. Особенностью таких моделей является то, что их предсказания представляются в виде функции выживаемости или функции риска. Это требует разработки специальных методов интерпретации. Рассмотрены наиболее известные методы SurvLIME, SurvLIME-KS, SurvNAM и SurvBeX, которые основаны на использовании известного метода интерпретации предсказаний LIME, модели Кокса и ее модификации, а также оценки Берана.