LA BLOGLETTER

HELLO DATA !

 
Hello

Hello à toutes et à tous !

Vous êtes-vous déjà demandé quels étaient les risques liés à l’usage irresponsable des données et de l’intelligence artificielle, et surtout comment y faire face ? Sans doute ! Ça tombe bien : c’est le thème de cette 4e blogletter Hello Data.

Grégoire Ferreri, directeur commercial de SAS France, nous explique comment les entreprises peuvent réduire les risques liés à l’utilisation de l’IA, en suivant quelques grands principes.

Sandrine Cullaffroz-Jover, avocate associée au sein d’EY Société d’Avocats (Financial Services), nous donnera ensuite son point de vue juridique sur la question en vidéo.

La data du jour, c’est 22% ! Pour savoir à quoi elle correspond, rendez-vous à l’avant-dernière section. Bonne lecture !

Parlons Data

USAGE DE L’IA : QUELS RISQUES ? COMMENT LES LIMITER ?

L’intelligence artificielle offre un moyen de faire parler une quantité exponentielle de données. Les gains potentiels sont colossaux. Quid des risques ?

Des risques dont les professionnels ont bien conscience : s’ils s’accordent sur la capacité de l’IA à générer de la valeur et à procurer un avantage concurrentiel, plus de la moitié d’entre eux (56%) estiment que leurs projets dans le domaine sont limités en raison des risques émergents, selon une étude Deloitte de 2020.

Grégoire Ferreri, directeur commercial chez SAS, identifie 3 risques principaux pour les entreprises qui n’utiliseraient pas l’IA de manière éthique : « décevoir leurs salariés, perdre des clients et ne pas respecter les régulations. » Voyons cela en détail.

1. Décevoir les salariés

Un risque que rencontrent forcément les entreprises lors de l’implémentation de nouveaux outils. C’est d’autant plus vrai avec l’intelligence artificielle, qui souffre de nombreux fantasmes charriés par la science-fiction. La solution : « construire une relation de confiance avec les utilisateurs en interne, en favorisant l’adhésion aux nouveaux outils qui découlent de l’utilisation de l’IA. Cela passe par la transparence sur leur fonctionnement, sur les modèles utilisés et surtout sur la façon dont ils ont été bâtis », explique Grégoire Ferreri.

2. Perdre des clients

L’IA fait partie de ces technologies de pointe qui peuvent avoir une aura positive pour les marques qui, en l’utilisant, prouvent aussi leur avant-gardisme. À condition de déployer cette technologie de façon éthique. Si des défauts se font jour (biais cognitifs, manque de transparence, problème d’explicabilité), le risque est le backlash sur les réseaux sociaux. Comprendre : un flot de critiques qui détériore l’image de marque… et peut provoquer un départ de la clientèle à grande échelle.

3. Ne pas respecter les différentes régulations

Celles-ci se multiplient pour réglementer les usages (ne ratez pas la prochaine édition de cette blogletter pour en savoir plus). Problème : « les considérations éthiques arrivent après coup, sous la forme de contraintes réglementaires, souligne Grégoire Ferreri. Alors qu’elles devraient être considérées comme un élément clé, voire un avantage compétitif, et être infusées en amont de l’usage de l’IA. »

Justement, pour développer cet avantage compétitif, il faut intégrer de bonnes pratiques :

Mettre l’humain au centre du dispositif, via une équipe de surveillance.

Bien définir les rôles afin de comprendre les responsabilités de chacun.

Identifier les biais et choisir des échantillons représentatifs.

Comprendre quel jeu de données a été utilisé, pour entraîner quel modèle, dans quel but.

Concevoir un modèle capable d’être réentraîné, reconstruit ou remplacé en cas de soucis.

Créer une IA alignée avec les valeurs éthiques de l’entreprise et de la société.

L’enjeu est de transformer ces principes en actions tangibles et de les contextualiser : en fonction du pays, de l’industrie, de l’organisation, du marché à adresser. On pourra utiliser les données relatives au genre pour une application de santé, mais les écarter délibérément pour un tri des CV (et l’AI Act sera bientôt là pour nous le rappeler). Enfin, les dirigeants gagneraient à infuser ces principes dans l’ensemble de leur entreprise.

Et Grégoire Ferreri de conclure : « il ne faut pas attendre que la réglementation entre en vigueur. Ces principes doivent être mis en place progressivement et dès le départ de la conception des modèles. Il sera compliqué et coûteux pour les entreprises de changer leurs mauvaises habitudes ensuite. » À bon entendeur.

Qu'en dit l'expert.e

DU POINT DE VUE JURIDIQUE

Sandrine Cullaffroz-Jover, avocate associée au sein d’EY Société d’Avocats (Financial Services), nous éclaire sur la définition de l’usage responsable de la donnée en droit européen. Elle nous explique en quoi la réglementation peut favoriser l’innovation et évoque les risques d’une mauvaise utilisation des données.

Voir la vidéo
La data à retenir
22%

C’est le pourcentage d’entreprises qui auraient subi un backlash en raison de décisions prises par leur système d’intelligence artificielle. Voici les résultats d’une étude (en anglais) menée par Capgemini en 2020 auprès de 800 organisations et 2 900 consommateurs. On y apprend aussi que 40% des clients préfèreront opter pour une interaction humaine s’ils ont eu une mauvaise expérience avec une IA.
Une preuve supplémentaire de l’importance des bonnes pratiques.

Ne ratez pas la suite

Merci à tous pour votre lecture et votre intérêt.

La prochaine édition abordera la législation sur l’intelligence artificielle et ses implications pour les entreprises et leurs innovations.

Rendez-vous dans 2 semaines !

Rendez-vous sur le site Hello Data
Rendez-vous sur le site Hello Data

 

 Profil SAS 

 

 Politique de confidentialité

SAS France, Domaine de Grégy, Grégy sur Yerres, 77257 Brie Comte Robert – Cedex.
Copyright © SAS Institute Inc. All rights reserved.