Espace de libertés | Février 2020 (n° 486)

Dossier

Parce qu’elles sont donc susceptibles d’améliorer les conditions de vie de millions d’individus, il est nécessaire aujourd’hui de ne pas freiner les recherches et développements liés à l’intelligence artificielle. Mais parce qu’elles peuvent également nous entraîner vers une société toujours moins libre, moins égalitaire et moins solidaire, il est indispensable que des balises soient posées.


Maintenant que des immenses bases de données se construisent et que des superalgorithmes tournant sur de supercalculateurs sont capables de les analyser avec une finesse et une rapidité record, la tentation est grande, pour les États peu regardants sur la protection de la vie privée ou pour les entreprises commerciales flairant les opportunités financières, de basculer dans le pire : atteintes aux libertés fondamentales ou encore médecine et justice à deux vitesses, sans parler des transformations et des nouveaux défis qui vont être posés – et qui se posent déjà pour certains – dans les domaines du travail, de la défense, de l’éducation, etc.

Protéger les données personnelles

Les applications d’intelligence artificielle se basant sur le traitement de données, c’est d’abord à ces deux niveaux qu’il faut agir : protection des données et transparence dans leurs traitements. C’est ce qu’a très bien compris l’Union européenne, par exemple, en imposant le Règlement général sur la protection des données (RGPD) à ses États membres et à toutes tierces parties – États, organismes, institutions, entreprises – qui traitent des données personnelles de citoyens européens. Le RGPD oblige notamment les responsables de traitements de données personnelles à faire preuve de transparence et à obtenir le consentement préalable et explicite des personnes concernées.

En Europe, le respect de la vie privée et la protection des données personnelles sont des droits consacrés par la Charte européenne des droits fondamentaux. Rien de tout cela aux États-Unis, où « les données personnelles sont considérées comme des biens commerciaux comme les autres », comme le souligne le spécialiste grenoblois de la communication numérique et de l’IA Boris Barraud. Ou dans les pays non démocratiques, tels que la Chine, où la protection de la vie privée en est réduite à peau de chagrin.

Assurer une transparence totale ?

Le RGPD exige donc des responsables des traitements de données personnelles une transparence maximale. C’est d’ailleurs ce à quoi s’engage Predictice, la start-up française spécialisée en justice prédictive, dans sa propre Charte de la justice prédictive : « Principe de transparence : toute personne doit pouvoir connaître le nom des technologies employées pour construire le service, en faisant notamment la différence entre les technologies open source réutilisées, et celles qui sont issues de développement propre. De la même façon, toute personne doit pouvoir avoir accès à la composition exacte des fonds documentaires utilisés ou mis à disposition des utilisateurs. »

Et si l’Europe peut être à la traîne en matière de recherche et développement dans les domaines de l’IA et du « big data », elle a donné le ton au niveau réglementaire.

Ce niveau de transparence est possible pour ce que l’on appelle l’intelligence artificielle transparente, c’est-à-dire qui permet de retracer et d’évaluer l’ensemble du cheminement qui a conduit à une prise de décision, et d’identifier toutes les données qui ont été utilisées. Or, à côté existe l’intelligence artificielle opaque, qui ne permet pas d’expliquer un raisonnement, car le processus d’analyse et de décision, calqué sur le fonctionnement du cerveau humain, s’appuie sur une kyrielle de signaux faibles. De par leur opacité ontologique, il va être compliqué d’évaluer, et donc de cadrer, le développement d’applications de ce type. On peut légitimement supposer que les réglementations, restrictions et interdictions éventuelles viendront une fois le « dérapage » constaté (comme ce fut le cas, par exemple, dans l’affaire de Cambridge Analytica1).

Réguler à tous les niveaux

Si certains observateurs ont affirmé que la transparence était l’une des grandes tendances de l’intelligence artificielle pour 2019, les chiffres ne manquent tout de même pas d’interpeller. En effet, si 37 % des entreprises actives dans le domaine de l’IA qui ont été interrogées déclarent que leur priorité est de s’assurer que leurs systèmes soient dignes de confiance, cela veut dire que, pour 63 %, ce n’est pas le cas. De même, si 55 % souhaitent créer des systèmes éthiques, légaux et compréhensibles, 45 % ne le souhaitent pas nécessairement.

Des initiatives privées existent. Le 20 janvier 2019, Facebook a annoncé le lancement d’un centre de recherche consacré à l’éthique de l’intelligence artificielle en partenariat avec l’Université technique de Munich, en Allemagne. De son côté, Microsoft a sa propre charte éthique. Mais l’autorégulation et la bonne volonté des entreprises et institutions ne suffiront pas. Il est indispensable que l’usage de l’IA soit encadré. Au-delà des techniques et protections juridiques des données personnelles et de leurs traitements, des balises doivent également être pensées en matière de finalité et d’objectif poursuivi. Les questions éthiques posées par le développement de l’IA sont des questions à portées universelles. C’est donc à un niveau supranational qu’il faut agir.

Au niveau européen, 2019 a vu quelques avancées. En avril, la Commission a entamé une phase pilote afin de faire en sorte que les lignes directrices en matière éthique pour le développement de l’intelligence artificielle puissent être mises en œuvre dans la pratique. En septembre, le Conseil de l’Europe crée un comité ad hoc sur l’intelligence artificielle. En décembre 2018, le Conseil de l’Europe avait déjà, par ailleurs, adopté une première charte éthique sur l’utilisation de l’intelligence artificielle dans les systèmes judiciaires.

Malheureusement, cette orientation politique basée sur les droits humains, les droits individuels et les libertés fondamentales n’est pas partagée par tous. Songeons aux États-Unis où la loi du marché prévaut ou à la Chine où tout ce qui sert le renforcement du pouvoir de Pékin semble bon à prendre. Or, l’IA et ses implications n’étant pas confinées à une localisation physique, cela rend donc difficile – mais d’autant plus nécessaire – de réglementer cette technologie au niveau mondial.

L’ONU pourrait être ce lieu de dialogue, au sein de l’Unesco notamment. Dans une étude publiée au printemps dernier, l’Organisation des Nations unies pour l’éducation, la science et la culture plaide d’ailleurs en ce sens. Elle affirme avoir « une perspective unique à apporter à ce débat » et pouvoir « apporter une approche pluridisciplinaire, universelle et holistique au développement de l’IA au service du genre humain, du développement durable et de la paix »2. Voilà une belle déclaration d’intention.

Un rapport de force inévitable

Si discussions au niveau intergouvernemental et mondial il y a, que ce soit au sein de l’Unesco ou ailleurs, l’Europe se doit de protéger les principes et valeurs sur lesquels elle s’est construite : droits humains, démocratie, État de droit. Protection sociale, avons-nous envie d’ajouter. Et si l’Europe peut être à la traîne en matière de recherche et développement dans les domaines de l’IA et du big data, elle a en revanche donné le ton au niveau réglementaire, notamment avec le RGPD. En soumettant les organismes extra-européens aux mêmes obligations que les États membres dès que des données personnelles de citoyens européens sont concernées, l’Europe (qui, ne l’oublions pas, en tant que deuxième puissance économique du monde, représente un marché important) a réussi à faire plier les plus grandes multinationales. Même les géants de la tech, ceux que l’on appelle communément les GAFAM (Google, Apple, Facebook, Amazon, Microsoft), ont dû adapter leurs politiques de vie privée pour la rendre conforme au droit européen.

La nouvelle Commission semble rester sur la même ligne, voire la renforcer. La nouvelle présidente de la Commission européenne, Ursula von der Leyen, fait de « l’Europe digitale » une priorité. Lors de sa campagne pour la présidence, elle s’est engagée à proposer, dans les cent premiers jours de son mandat, une approche coordonnée européenne des implications humaines et éthiques de l’intelligence artificielle.

L’Europe doit maintenant continuer à être une force créatrice pour renforcer, le cas échéant, son cadre réglementaire, en y soumettant – comme pour le RGPD – les institutions et organismes extra-européens dès que les libertés et droits fondamentaux de ses citoyens sont en jeu. Il reste à espérer que l’Europe soit aussi transparente dans sa réflexion qu’elle le préconise dans ses lignes directrices et déclarations. Il en va de nos libertés, de l’égalité de toutes et de tous et de la solidarité envers chacun.

 


1 William Audureau, « Ce qu’il faut savoir sur Cambridge Analytica, la société au cœur du scandale Facebook », dans Le Monde, 22 mars 2018.

2 « Étude préliminaire sur les aspects techniques et juridiques liés à l’opportunité d’un instrument normatif sur l’éthique de l’intelligence artificielle », Unesco, 2019.