LA BLOGLETTER

HELLO DATA !

 
Hello

Bonjour à tous !

L’événement Hello Data 2023 approche à grands pas. Nous avons LA date : le 4 avril ! Bloquez-la dans vos agendas.

Pour vous faire patienter, on parle IA et règlementation. Avec une question – la règlementation est-elle un frein à l’innovation ? – à laquelle répond Kalliopi Spyridaki, Directrice Public Policy & Chief Privacy Strategist chez SAS.
À l’occasion d’une interview vidéo, Thierry Taboy, coordinateur de la Task Force Santé du collectif Impact AI, revient ensuite sur l’AI Act européen en cours d’élaboration, ses principes et ses points d’amélioration.
Et ne manquez pas la data du jour et le thème de la prochaine édition.

Bonne lecture !

Parlons Data

L’AI ACT EUROPEEN, CONTRAINTE OU OPPORTUNITE ?

À l’heure actuelle, il n’existe aucune loi spécifique dédiée à l’intelligence artificielle. Les systèmes d’IA sont donc encadrés par d’autres règlementations, à l’image du règlement général sur la protection des données (RGPD).

Poser un cadre règlementaire propre, c’est la raison d’être de l’AI Act (Artificial Intelligence Act) dévoilé par la Commission européenne en avril 2021 et qui devrait entrer en vigueur d’ici 2025. Une règlementation d’envergure internationale, s’adressant à toutes les entreprises qui opèrent sur le marché de l’UE, pour faire en sorte que l’IA soit utilisée de façon responsable. Pour comprendre le fonctionnement et les points d’amélioration de cette future législation, prenez deux minutes pour regarder la vidéo de Thierry Taboy ci-dessous.

Mais, quand une loi encadre des pratiques existantes, les acteurs du secteur peuvent redouter une remise en cause de leurs projets. Alors, l’AI Act, un frein à l’innovation ? Pas pour Kalliopi Spyridaki, Directrice Public Policy & Chief Privacy Strategist, EMEA & Asia Pacific, chez SAS. En effet, l’objectif de l’AI Act n’est pas de limiter, mais bien d’encadrer les usages de l’intelligence artificielle.

Kalliopi Spyridaki va plus loin : « une règlementation de qualité peut être un accélérateur pour l’innovation ». À condition qu’elle soit « claire, pratique et conçue en collaboration avec les parties prenantes ».

Pour notre directrice des politiques publiques, l’AI Act aura le mérite d’apporter « une clarté juridique, un cadre de confiance. » Loin de désarmer les acteurs de l’IA, il leur fournira des lignes de conduite et une sécurité légale. Protégés par la loi, les entreprises et les particuliers pourront désormais exercer leurs droits face au développement de l’IA.

Aujourd’hui, chaque entreprise pose ses propres principes au regard de cette nouvelle technologie. La règlementation vise à les uniformiser en définissant ce qui est « responsable » et ce qui ne l’est pas. Elle établit, en somme, un langage commun entre tous les acteurs de l’IA et engage un processus de normalisation des règles. C’est un moyen de mettre toutes les entreprises et tous les pays sur un pied d’égalité et de faciliter les échanges entre eux. On peut faire le parallèle avec la standardisation du réseau mobile (GSM), qui a posé les bases d’un marché mondial de la téléphonie.

Mieux, cette règlementation peut ouvrir de nouveaux champs des possibles, de nouveaux marchés – et Kalliopi Spyridaki de prendre l’exemple des lois sur le recyclage des déchets, qui ont fait naître des acteurs du marché du recyclage. Le tout à condition que l’AI Act, toujours en cours de négociation, « réalise son potentiel et ait un effet positif sur le marché grâce à un texte juridique clair, équilibré et bien conçu », insiste notre Directrice Public Policy & Chief Privacy Strategist.

Règlementer le secteur est plus que nécessaire. Ce sera l’occasion de bannir les usages délétères, autrement dit les « intelligences artificielles inacceptables » selon le texte. Des IA qui vont à l’encontre des droits fondamentaux ; il peut s’agir d’algorithmes de notation sociale, d’identification biométrique en temps réel dans les lieux publics ou de système visant à manipuler les comportements de façon inconsciente.

Autant d’applications de l’intelligence artificielle qui desservent cette technologie aux yeux de la population. La règlementation devrait rétablir une confiance mise à mal par ce genre d’excès, en se démarquant de l’usage de l’IA qui peut être fait dans d’autres pays. Justement, l’AI Act doit relancer l’Europe dans la course à l’innovation face à ses concurrents. Et pour cause : le vieux continent ne représente que 7% des investissements mondiaux dans l’intelligence artificielle et la blockchain, contre 80% pour la Chine et les États-Unis réunis.

Une nouvelle règlementation européenne, suffisamment souple, devrait faire de l’UE le pôle de l’IA éthique et par conséquent, de l’innovation.

Qu'en dit l'expert.e

UNE IA ETHIQUE ET RESPONSABLE

Concevoir une intelligence artificielle éthique et responsable, c’est justement l’objectif d’Impact AI. Ce collectif a d’ailleurs organisé en décembre dernier l'AI Act Day, pour « permettre aux entreprises de comprendre, mettre en pratique et anticiper le futur règlement européen de l’IA, mais également d’échanger avec les experts du sujet. » Thierry Taboy est le coordinateur de la Task Force Santé au sein du collectif Impact AI. Il nous explique les caractéristiques et les implications de l’AI Act.

Voir la vidéo
La data à retenir
50%

50 % des start-ups européennes œuvrant dans le domaine de l’IA pensent que l’AI Act devrait ralentir le développement de leurs activités. C’est le résultat d’un sondage co-réalisé par plusieurs agences européennes de l’IA auprès de 113 start-ups. Charge aux instances européennes de les faire changer d’avis !

Ne ratez pas la suite

Dans notre prochaine édition, il sera question des biais cognitifs. Un sujet passionnant qui sera porté par des invités d’exception. Alors ne la manquez pas !

Rendez-vous dans 2 semaines dans vos boîtes mail.

Rendez-vous sur le site Hello Data
Rendez-vous sur le site Hello Data

 

 Profil SAS 

 

 Politique de confidentialité

SAS France, Domaine de Grégy, Grégy sur Yerres, 77257 Brie Comte Robert – Cedex.
Copyright © SAS Institute Inc. All rights reserved.