LA BLOGLETTER

HELLO DATA!

Participez à l'édition 2023 d'Hello Data!
 
Hello

Bonjour à toutes et à tous,

L’événement Hello Data! 2023 a lieu dans un peu plus d’un mois ! Nous y accueillerons de nombreux invités tels que le photographe Yann Arthus-Bertrand, Xavier Perret (Directeur de Microsoft Azure France), Emmanuel Néré (Generali), Fahmi Jendoubi (Macif), Philippe Rambach (Schneider Electric), Jean-Baptiste Janvier (Société Générale) et bien d’autres ! Alors n’attendez pas pour réserver vos places en ligne !

En attendant le 4 avril, cette édition de la blogletter Hello Data se concentre sur une question : comment créer une IA vraiment éthique ? Une question posée à Olivier Penel, stratège et conseiller en matière de données chez SAS.

Une question que l’on a également posée à Brigitte Séroussi, en charge de l'éthique du numérique à la Délégation ministérielle du Numérique en santé et à Frédéric Commo, Director Connected Tech chez KPMG France. Découvrez leurs pistes de réflexion dans un format « 3 questions à ». Bonne lecture !

Parlons Data

LUTTER CONTRE LES BIAIS ALGORITHMIQUES

La lutte contre les biais algorithmiques n’est pas nouvelle. Depuis que les algorithmes existent se pose le problème de leurs biais.

C’est l’équivalent informatique de nos biais cognitifs, ces raccourcis que notre cerveau prend afin d’orienter notre jugement. Mais si les biais cognitifs déforment notre réalité, c’est simplement pour gagner en efficacité dans les prises de décision, en se basant sur notre expérience. « Les biais rendent nos cerveaux intelligents », soutient même Olivier Penel, stratège et conseiller en matière de données chez SAS.

Alors, bien sûr, ces biais nous poussent parfois à l’erreur en accordant trop d’importance aux arguments qui confirment nos idées reçues ou bien notre première impression. « À l’échelle individuelle, les conséquences sont souvent limitées, explique Olivier Penel. Le problème c’est que l’IA va amplifier l’impact négatif de ces biais. »

Notre stratège prend exemple sur un autre stratège, Sun Tzu, et son livre L’Art de la guerre. Un moyen de faire l’analogie avec la guerre que l’on mène aux biais. « Si le biais est l’ennemi, nous devons nous attacher à bien le connaître ». Et ce n’est pas chose facile, sachant qu’il existerait au moins 180 biais cognitifs ! Tâche aux acteurs de l’IA de les étudier et de les comprendre. Car « tous n’entrainent pas les mêmes conséquences », dixit Olivier. Tout dépend du contexte et de l’objectif visé : l’impact d’un biais peut être négligeable – quand il s’agit de vous proposer des films selon votre profil par exemple.

Pour évaluer l’importance des biais, les équipes projet doivent s’entourer à la fois de data scientists mais aussi, parfois, d’experts en sociologie, en philosophie, en sciences sociales… « Un dialogue est nécessaire, selon Olivier. Il faut mener une réflexion stratégique afin de fixer des standards éthiques dans la cadre de l’organisation, du territoire, de la population à laquelle l’IA est destinée ».  Enfin, la mise en place d’une tactique est nécessaire pour « implémenter des garde-fous dans la chaîne de production, tout au long du cycle de vie analytique ». En contrôlant le développement de l’algorithme à chaque étape, à commencer par la sélection des données, l’objectif est d’amoindrir les biais qui ont un impact.

Ce que nous montre Olivier Penel, c’est qu’il n’y a pas d’IA éthique parfaite. Toute éthique de l’IA est relative, puisqu’il n’est pas possible d’éliminer tous les biais. D’autant que l’une des façons de limiter un biais est d’en créer un nouveau (un peu à la manière de la discrimination positive).

« Pour tendre vers une éthique de l’IA, cela doit donc passer par un débat collectif, conclut Olivier Penel. En tant que fournisseur de solution d’IA, notre rôle est de promouvoir les bonnes pratiques, de fournir les outils pour une utilisation éthique et responsable. C’est pourquoi nous avons une équipe dédiée à l’éthique des données, qui travaille à la mise en place de standards et des méthodes, et à la prise de conscience. »

Dans ce contexte, la lutte contre les biais algorithmiques apparaît comme un paramètre parmi d’autres, une variable d’ajustement pour adapter l’algorithme et répondre au problème donné, sans courir après un idéal inatteignable.

Qu'en dit l'expert.e

EN QUÊTE D’UNE IA ÉTHIQUE

Brigitte Séroussi est Directrice de projets à la Délégation ministérielle au numérique en santé, qui est rattachée au ministère de la Santé et de la prévention. Elle nous explique le rôle de la DNS dans l’élaboration d’une IA de santé éthique.

Quel est le rôle de la DNS ?

B. Séroussi : « Le numérique permet de fluidifier la coordination entre les professionnels de santé et de développer des innovations thérapeutiques et organisationnelles. La principale mission de la Délégation au numérique en santé (DNS) est d’accélérer son développement en valorisant l’éthique, la sécurité et l’interopérabilité. Cela passe par l’élaboration d’outils pratiques de sensibilisation, d’évaluation et de labellisation éthique à destination des professionnels de santé, des industriels, des usagers du système de santé et des pouvoirs publics. »

Quelles sont les bonnes pratiques à respecter pour les IA de santé ?

B. Séroussi : « Dans un contexte de montée en puissance du recours à l’intelligence artificielle dans le domaine de la santé, il a paru essentiel à la cellule éthique de la DNS de publier un rapport sur l’éthique by design des solutions d’IA en santé. Les recommandations de la DNS s’articulent autour de la collecte des données, de leur prétraitement, de la construction de l’algorithme et de son évaluation, avec un focus sur la qualité des données d’apprentissage (anonymisation, proportionnalité par rapport à la finalité, représentativité de la population d’apprentissage, explicabilité du résultat, etc.). »

Quel est le processus mis en place pour créer des IA de santé éthiques ?

B. Séroussi : « Il est préconisé de commencer par une démarche de cadrage visant à installer d’une part un comité scientifique, technique et éthique et d’autre part à définir les modalités d’implication des parties prenantes. Cette étape doit permettre de définir les finalités de la solution, mais également les principes de gouvernance et les rôles et responsabilités des parties prenantes. Un groupe de travail élabore un référentiel de l’éthique de l’IA, sur la base des recommandations précédemment élaborées. Une fois le référentiel construit, il sera mis en concertation avant d’être validé et publié dans le cadre de l’éthique du numérique en santé (CENS) avec la vocation d’être opposable aux éditeurs. »

Pour en savoir plus, il faut assister à Hello Data 2023 ! Brigitte Séroussi interviendra pour parler de l’éthique de l’IA dans le domaine de la santé.

En attendant, nous poursuivons la discussion avec Frédéric Commo, Director Connected Tech, Lead Data Science, chez KPMG France, qui nous livre sa vision de l’IA éthique et des biais cognitifs.

Comment abordez-vous le sujet de l’IA éthique chez KPMG ?

F. Commo : « Pour l’ensemble de nos clients, la question de l’IA éthique rejoint souvent celle de l’exposition au risque réputationnel. Au-delà de la maitrise de ces solutions du point de vue de leur gouvernance et de leurs développements techniques, la question doit aussi inciter à s’interroger quant à leurs usages et leur finalité : le développement rapide des IA génératives soulève notamment la question de l’éthique. Nous aidons déjà nos clients à mieux maitriser leurs solutions d’IA et ainsi à réduire leur exposition aux risques, et nous intégrons cette dimension éthique grâce à notre collaboration avec des experts en la matière. La prochaine entrée en application de l’AI Act, nous amènera à encore renforcer notre accompagnement sur ces sujets. »

Comment traiter la question des biais cognitifs ?

F. Commo : « Les biais cognitifs sont probablement les plus difficiles à maitriser, car ils s’appuient sur notre vision personnelle des choses, notre subjectivité et nos a priori. Ils peuvent venir entraver l’interprétation des résultats, mais aussi induire des erreurs méthodologiques dans la construction même des solutions d’IA : biais de sélection des données d’entraînement, mauvaise formulation du problème. La limitation de ces biais peut passer par une évaluation indépendante des solutions, de leur développement et de leur usage. »

Est-ce qu’il existe une IA parfaite ?

F. Commo : « Il est peu probable que l’on puisse parler de perfection en la matière : une IA estime le résultat le plus probable au vu des exemples à partir desquels elle a été entraînée. Même si ces exemples sont exhaustifs et "parfaits" – ce qui est rarement le cas – l’IA ne fera jamais que proposer la réponse qui lui parait la plus plausible. En conséquence, s’il est important que ces solutions soient proprement gouvernées, leur maîtrise passe aussi par la responsabilisation de leurs utilisateurs qui doivent pouvoir garder un esprit critique et un vrai pouvoir de décision. »

La data à retenir
04/04

Le 4 avril 2023 se déroulera la nouvelle édition d’Hello Data, sur le thème de l’IA au service de l’innovation responsable. Notre invité d’honneur sera le photographe Yann Arthus-Bertrand, qui nous a appris à regarder le monde différemment en prenant de la hauteur. Prendre de la hauteur, c’est justement ce que feront nos invités pour questionner nos usages de l’IA.

Ne ratez pas la suite

La suite ? C’est l’événement Hello Data 2023, qui se déroulera le 4 avril prochain !

Si vous n’êtes pas encore inscrit, c’est par ici : https://www.sas.com/fr_fr/events/hello-data.html D’ici là, la blogletter Hello Data fait une petite pause pour se préparer à l’événement comme il se doit. Mais on se retrouve vite dans vos boites mail !

À bientôt !

Rendez-vous sur le site Hello Data
Rendez-vous sur le site Hello Data

 

 Profil SAS 

 Politique de confidentialité

SAS France, Domaine de Grégy, Grégy sur Yerres, 77257 Brie Comte Robert – Cedex.
Copyright © SAS Institute Inc. All rights reserved.