Intelligence artificielle : politiques et règlementations en vue

29 juin 2020

Intelligence artificielle : politiques et règlementations en vue

Par Olivier Naray, PH.D.

Le débat politique autour de l’application de l’intelligence artificielle (IA) touche à des questions clés telles que les principes éthiques, notamment l’équité, la vie privée et la sécurité. Ce débat soulève des questions sur les limites qui devraient être imposées à l’intelligence artificielle et sur son impact sur les droits humains.

L’intelligence artificielle (IA) ne consiste pas seulement de robots humanoïdes au regard étrange, elle concerne aussi les humains. Il s’agit également des algorithmes qui influencent le comportement électoral ou encore la conception des programmes scolaires. Au-delà des GAFAM, ces questions concernent les entreprises de façon transversale et devraient interpeller toutes parties prenantes touchant à l’intelligence artificielle d’une manière ou d’une autre. En tant qu’entreprise « ordinaire », il est encore temps de s’impliquer, de participer dans ce débat, y compris par rapport aux financements publics de divers projets liés.

En Suisse et dans le monde

Swissinfo écrivait récemment: “En 2018, le gouvernement suisse a défini l’intelligence artificielle comme thème prioritaire de sa stratégie numérique 2018-2020 visant à créer les conditions nécessaires pour accélérer la transformation numérique de la société”. Dans un semblant d’autorégulation pour le moment, le débat politique en Suisse devrait néanmoins s’animer prochainement.  Au niveau de l’OCDE, le partenariat mondial sur l’intelligence artificielle (PMIA) réunira prochainement des experts de l’industrie, du gouvernement, de la société civile et des universités pour mener des recherches et des projets pilotes sur l’IA. Son objectif, tel que défini par ses membres fondateurs, l’Allemagne, l’Australie, le Canada, la Corée, les États-Unis, la France, l’Inde, l’Italie, le Japon, le Mexique, la Nouvelle-Zélande, le Royaume-Uni, Singapour et la Slovénie, est de combler le fossé entre la théorie et la pratique en matière de politique IA.

Union européenne

L’UE propose un ensemble d’exigences contraignantes pour les développeurs et les utilisateurs d’intelligence artificielle « à haut risque » comme  les procédures de recrutement ou l’identification biométrique. Aussi, l’utilisation de l’intelligence artificielle dans certains secteurs tels que les soins de santé et les transports serait soumise à des exigences juridiques supplémentaires importantes. La Présidente de la Commission européenne Ursula Von der Leyen semble donc vouloir que l’UE modifie sa réglementation et que les États membres fassent davantage pour réglementer l’intelligence artificielle. Le livre blanc de l’UE publié au mois de février 2020 propose des modifications ciblées du cadre européen de responsabilité.

Bref historique

Déjà en 2015, le Conseil européen sur l’intelligence artificielle (ECAI) à Bruxelles avait publié une communication sur « l’intelligence artificielle en Europe ».  En juin 2016, les États membres de l’UE avaient signé une déclaration de coopération sur le même sujet, s’engageant à travailler ensemble pour traiter les questions sociales, économiques, juridiques dans le but que l’UE devienne compétitive dans ce domaine. En 2018, Google publiait ses principes d’IA comme cadre potentiel pour la réglementation gouvernementale, et en avril 2019, le groupe sortait un document intitulé « Ethics Guidelines for Trusted AI ».


Pour plus d’information www.onsc.ch

Retrouvez l’ensemble de nos articles Inside ici

 

Recommandé pour vous