LA BLOGLETTER

HELLO DATA !

 
Hello

Bonne année à toutes et tous !
La troisième édition de la Blogletter Hello Data, aborde l’utilisation responsable des données dans le secteur de la finance, à la fois côté banque et assurance.
Pour en parler, nous avons interrogé Florence Giuliano, EMEA Financial Crimes Analytics Director chez SAS, sur les défis posés par l’IA éthique dans la finance.
Quant à l’interview vidéo, elle donnera la parole à Nicolas Thabault-Parisot, associé et responsable du secteur assurance chez EY, pour évoquer les changements de ce secteur.
En fin de blogletter, vous découvrirez le chiffre du jour et le thème de la prochaine édition. Bonne lecture !

Parlons Data

IA & FINANCE RESPONSABLE

anté, art, médias… les applications de l’IA ne cessent de se diversifier et de s’enrichir. Qu’en est-il pour la finance ?
Les chiffres, les données ont toujours été au cœur des métiers de la finance. Rien d’étonnant à ce que le secteur s’empare donc du Big Data pour gagner en productivité et en personnalisation. D’autant que la digitalisation, le temps réel et l’accélération des transactions ont contribué à une explosion du nombre de données disponibles.
Au-delà de la détection de la fraude, de la lutte contre le blanchiment ou le financement du terrorisme, l’IA peut aider à la prise de décision et à l’analyse des risques : risque de crédit, de contrepartie, de marché, de modèles ou de non-conformité, risque structurel ou opérationnel…
Grâce à l’IA, les banques sont capables d’identifier ces risques, de les surveiller et de les hiérarchiser. Sachant les sommes en jeu, les gains apportés par l’intelligence artificielle peuvent être considérables. Pour autant, l’utilisation de ces outils comporte des risques. D’où la nécessité de prôner une IA responsable. Une IA « plus éthique, plus transparente, ayant un impact positif sur la société », pour Florence Giuliano, EMEA Financial Crimes Analytics Director chez SAS.
Dans la finance, les problématiques éthiques se posent notamment pour les modèles de scoring, qui évaluent la fiabilité d’un client et sa capacité à rembourser un crédit… afin de lui en accorder un. Le problème majeur est le risque de discrimination. Imaginons : le modèle détecte que les hommes ont plus de difficulté à rembourser leur prêt que les femmes. Il va donc accorder moins facilement un prêt aux hommes, ce qui est tout simplement interdit en France : la discrimination sur la base d’un attribut protégé par la loi tel que le genre. Or, il ne suffit pas de supprimer les attributs protégés des données d’apprentissage, le modèle étant capable d’établir des corrélations entre attributs protégés et non protégés – et la discrimination continuant d’exister sous une forme indirecte plus subtile.
L’absence de toute discrimination sur la base des attributs protégés, c’est ce que l’on appelle l’équité algorithmique. Un concept auquel il manque une définition claire, et qui soulève de nombreux problèmes. Par exemple, on décide d’accorder un nombre de crédits égal aux hommes et aux femmes, tout en sachant qu’ils n’ont pas la même capacité à rembourser leurs crédits. Résultat potentiel : l’attribution de crédits à des personnes incapables de les rembourser, alors prises dans une spirale d’endettement.
En somme, il n’existe pas de formule magique pour créer une IA responsable.

Selon Florence Giuliano, l’essentiel est de « comprendre les données, leur origine et bien les maîtriser. On doit s’assurer de la représentativité des data et regarder si des biais existent. Aujourd’hui, les choses sont très automatisées, grâce au no-code/low-code, et on ne maîtrise pas toujours comment l’algorithme est codé. Mais il est important de décortiquer ce code pour évaluer son interprétabilité. »

L’interprétabilité ? C’est notre capacité à expliquer les prédictions d’un modèle – un prérequis pour la transparence et l’identification des biais. Bien souvent, les modèles qui ne respectent pas ces exigences sont écartés : « Seul un tiers des modèles construits par les data scientists – souvent sous forme de pilote – sont mis en production et effectivement utilisés », souligne Florence Giuliano.
Par ailleurs, la conception d’une IA responsable ne se limite pas à l’utilisation d’un algorithme. C’est tout le cycle de vie de la donnée qui est concerné. Et celui-ci comporte 3 étapes :

la collecte, qui doit être faite en respectant le principe de confidentialité lié à l’utilisation des données sensibles,

la préparation, où l’on s’efforce de structurer la donnée tout en prenant garde aux biais que l’on peut détecter,

l’utilisation des données, c’est-à-dire leur finalité, et celle-ci peut être plus ou moins responsable, à l’image d’une IA cherchant à anticiper l’impact environnemental des investissements.

Dans la finance comme ailleurs, l’IA responsable apparait comme un processus dont les jalons attestent la fiabilité. Évaluer les données, former les développeurs, impliquer des experts et tester sont autant d’étapes importantes. Conseiller les entreprises tout au long de ce processus est essentiel.
Une IA responsable, éthique, transparente sera un atout majeur pour le secteur de la finance, tant ses applications sont nombreuses. Reste à établir un cadre suffisamment solide pour éviter les dérives et permettre l’innovation.

Qu'en dit l'expert.e

L’IMPOTANCE DES DONNÉES DANS L’ASSURANCE

Dans l’assurance aussi, la collecte et l’utilisation des données sont d’une importance cruciale, et cela n’est pas nouveau. Alors les perspectives apportées par l’IA semblent infinies. C’est le responsable du secteur assurance en France d’Ernst & Young, Nicolas Thabault-Parisot, qui nous en parle.

Voir la vidéo
La data à retenir
54%

Seuls 54 % de la population fait confiance au secteur bancaire. Pourquoi ? Selon le livre blanc Banking in 2035: three possible futures, c’est notamment le partenariat entre des banques et des entreprises Tech non régulées qui a rebuté des consommateurs préoccupés par l’utilisation et la confidentialité de leurs données personnelles. Il est grand temps de regagner cette confiance, en se montrant irréprochable quant à l’exploitation de ces données et à l’emploi de l’IA. En clair, ne pas se borner à la législation, mais devancer les attentes des clients.

Ne ratez pas la suite

Merci de nous avoir lus !
Si vous êtes arrivés jusqu’ici, c’est que vous avez apprécié le contenu de cette édition. Alors n’hésitez pas à la partager !
Dans le prochain épisode, nous évoquerons les risques qui se posent aux entreprises dans le cadre de l’utilisation responsable des données.
Rendez-vous dans 2 semaines !

Rendez-vous sur le site Hello Data
Rendez-vous sur le site Hello Data

 

 Profil SAS 

 

 Politique de confidentialité

SAS France, Domaine de Grégy, Grégy sur Yerres, 77257 Brie Comte Robert – Cedex.
Copyright © SAS Institute Inc. All rights reserved.