Interpretability and Explainability in Machine Learning and their Application to Nonlinear Dimensionality Reduction

Student thesis: Doc typesDocteur en Sciences

Résumé

Les techniques de machine learning (ML) sont de plus en plus fréquemment utilisées
aujourd’hui grâce à leur haute performance dans beaucoup de situations.
Cependant, cette montée en performance a pour résultat une perte de contrôle sur
le modèle qui est appris. En effet, alors que la modélisation était principalement
réalisée par des expert par le passé, l’augmentation de la quantité de données a
rendu possible l’automatisation de la production de modèles. Malheureusement,
cette automatisation peut produire des modèles qui sont incompréhensibles. Ce
concept de compréhension des modèles est appelé interprétabilité dans la littérature.
De plus, lorsque les modèles ne sont pas interprétables, c’est leur capacité à
être expliqués (explicabilité) qui est travaillée.
Cette thèse explore l’interprétabilité et l’explicabilité dans leML. Plusieurs aspects
relatifs à ces concepts sont étudiés. Premièrement, le problème de la définition
de ces concepts et du vocabulaire utilisé dans la littérature est présenté. Deuxièmement,
les exigences de la loi par rapport à ces concepts sont étudiées. En
troisième lieu, le besoin d’utilisateurs dans l’évaluation de nos concepts d’intérêt
est discuté et des lignes de conduite provenant de la communauté de l’interaction
homme-machine sont présentées.
Cette thèse applique également les concepts d’interprétabilité et d’explicabilité
à la réduction de dimensions non linéaire (RDNL). Alors que l’interprétabilité et
l’explicabilité sont deux sujets qui n’ont quasiment pas été abordés dans la littérature
en RDNL, cette thèse fournit une conceptualisation de ces sujets, en plus de
techniques pour travailler ces sujets. En particulier, deux questions sont centrales
dans cette thèse : “de quelle manière l’interprétabilité peut-elle être mesurée dans la
RDNL?” et “de quelle manière peut-on expliquer les mappages non interprétable
provenant de RDNL?”.
Afin de mesurer l’interprétabilité dans la RDNL, nous analysons la manière
dont desmesures existantes provenant de différentes communautés peuvent être
combinées pour prédire la compréhension des utilisateurs d’embeddings provenant
de RDNL. En particulier, les mesures de qualité provenant du ML sont utilisées
pour mesurer la correspondance de l’embedding de basse dimension par rapport
à la haute dimension, et les mesures de qualité provenant de la communauté de
visualisation de l’information sont utilisées pour mesurer la compréhensibilité des
visualisations. Dans le contexte des mappages de RDNL qui sont non interprétables,
IXVC est un pipeline interactif qui a été développé pour expliquer le mappage
entre des groupes dans une visualisation et les données qui ont servis à produire la visualisation. Une autre approche pour expliquer les mappages de RDNL grâce aux
dimensions de l’embedding a été développée dans deux de nos techniques: BIR et
BIOT. Bien que des travaux précédents ont tentés de développer des mappages plus
explicites et paramétriques, à notre connaissance, nos travaux dans cette thèse sont
les premiers à élaborer sur le terme d’interprétabilité dans le domaine de la RDNL.
la date de réponse16 nov. 2020
langue originaleAnglais
L'institution diplômante
  • Universite de Namur
SponsorsUniversité de Namur
SuperviseurBenoît Frénay (Promoteur), Wim Vanhoof (Président), Anthony Cleve (Jury), Bruno Dumas (Jury), John Aldo Lee (Jury) & Luis A. Galarraga (Jury)

mots-clés

  • Machine learning
  • interprétabilité
  • explicabilité
  • réduction de dimensions non linéaire

Contient cette citation

'