Autres contrats

Dauphine Chaire Fintech | PSL

Appel à projet Chaire Fintech – Finance Digitale

Responsable scientifique : Christophe PERIGNON
Responsable scientifique LEO : Christophe HURLIN
Montant total : 10 000 €
Durée : 01/06/2020 au 01/07/2021

Le credit scoring a été historiquement l'un des premiers domaines d'application des techniques d'apprentissage automatique. Aujourd'hui, ces techniques permettent d'exploiter de nouvelles sources de données rendues disponibles par la digitalisation de la relation client et des réseaux sociaux.

La combinaison de l'émergence de nouvelles méthodologies et de nouvelles données a changé structurellement le secteur du crédit et a favorisé l'émergence de nouveaux acteurs, tels que les entreprises Fintech. Ces nouvelles approches peuvent favoriser l'inclusion financière et l'accès au crédit pour les emprunteurs les plus vulnérables. Cependant, elles peuvent également entraîner de graves biais et discriminations. Un risque potentiel lors de l'utilisation d'algorithmes d'apprentissage automatique est de générer des estimations qui traitent systématiquement de manière défavorable un groupe d'utilisateurs partageant un attribut protégé, comme le sexe, la race, la citoyenneté ou la religion. Dans les applications du marché du crédit, un tel biais peut gravement fausser l'accès au crédit et exposer les institutions qui utilisent ces algorithmes à d'importants risques juridiques et de réputation.

L'objectif de ce projet de recherche est double.

Premièrement, nous proposons de développer un cadre unifié pour quantifier l'équité des algorithmes de notation de crédit. En considérant une variété de définitions d'équité, spécifiquement appliquées à la modélisation du risque de crédit, nous exprimerons chaque mesure (i) en termes d'hypothèses d'indépendance, ce qui nous permettra de dériver des tests d'inférence spécifiques et (ii) comme une mesure d'association allant de 0 (équitable) à 1 (injuste), ce qui nous permettra de les comparer et de les combiner.

Deuxièmement, nous fournirons des conseils sur la façon d'atténuer le manque d'équité identifié par notre procédure de diagnostic. À cette fin, nous introduisons un concept innovant d'"interprétabilité (in)équitable". Il s'agit d'adapter les récentes méthodologies utilisées pour interpréter les modèles d'apprentissage automatique de la boîte noire, tels que les Partial Dependent Plots ou les valeurs de Shapley, dans le contexte de l'analyse de l'équité afin de retracer l'origine d'un biais de discrimination. Ainsi, notre approche intégrée aidera les entreprises FinTech à détecter les biais de discrimination potentiels dans leurs algorithmes de notation de crédit, à les atténuer et, en fin de compte, à réduire les risques juridiques et de réputation.