Quantcast

La Cnil exhorte l’humain à garder la main sur les algorithmes

15 déc. 2017, PAR Soazig Le Nevé
  • 04
    MIN
  • 0

Isabelle Falque-Pierrotin, présidente de la Commission nationale de l’informatique et des libertés (Cnil). - © Witt/SIPA

Dans un rapport sur l’éthique de l’intelligence artificielle, rendu public le 15 décembre, la Commission nationale informatique et libertés (Cnil) engage la puissance publique à créer une plate-forme nationale d’audit des algorithmes et à lancer une “grande cause nationale” pour dynamiser la recherche


Puisque les algorithmes sont partout, ils sont l’affaire de tous. Et s’ils sont l’affaire de tous, il n’est pas question de les laisser régir la vie des hommes. Plus qu’au syllogisme, l’avis de la Commission nationale informatique et libertés (Cnil) sur les enjeux éthiques des algorithmes et de l’intelligence artificielle publié le 15 décembre emprunte davantage au traité politique. Comme si l’heure était à un nouveau contrat social, passé avec des machines cette fois.

Liberté, égalité et volonté générale : à l’heure de l’intelligence artificielle (IA), les principes édictés par Jean-Jacques Rousseau prennent un relief nouveau deux cent cinquante ans plus tard, éclairés par la Cnil à l’issue de près d’un an de débats publics organisés dans toute la France.

Un grand mythe

“L’intelligence artificielle est le grand mythe de notre temps, analyse Isabelle Falque-Pierrotin, présidente de la Cnil. L’un annonce la destruction en masse de nos emplois, un autre l’émergence apocalyptique d’une conscience robotique hostile, un troisième la ruine d’une Europe écrasée par la concurrence.” À l’inverse, “d’autres encore nourrissent plutôt le rêve d’un monde sur mesure, d’un nouvel Âge d’or d’où toute tâche ingrate ou répétitive serait bannie et déléguée à des machines ; un Eden où des outils infaillibles auraient éradiqué la maladie et le crime, voire le conflit politique, en un mot aboli le mal”.

Afin que “la technique” ne s’arroge pas définitivement cette “puissance de projection dans l’avenir qui fait parfois défaut à nos imaginaires politiques”, Isabelle Falque-Pierrotin forme le vœu que ce rapport de 80 pages vienne participer à l’élaboration d’un modèle français de gouvernance éthique de l’intelligence artificielle.

6 recommandations

Le débat public mené par la Commission entre janvier et octobre a permis d’identifier 6 grandes problématiques éthiques touchant à la loyauté, la transparence, l’intelligibilité, la vigilance ou encore la responsabilité, auxquelles la Cnil propose de répondre par 6 recommandations.

En premier lieu, il est indispensable de “former à l’éthique tous les maillons de la chaîne algorithmique”, depuis les concepteurs des algorithmes jusqu’aux utilisateurs citoyens, en passant par les professionnels qui les déploient. Pour ce faire, la Cnil invite à “rendre les systèmes algorithmiques compréhensibles en renforçant les droits existants et en organisant la médiation avec les utilisateurs”.

La Cnil veut ainsi rien moins que mettre “le travail sur le design des systèmes algorithmiques au service de la liberté humaine”, en promouvant leur “jouabilité”, qui repose sur le fait que chacun puisse tester un algorithme avant de l’utiliser. “Toucher et manipuler est la clé d’une compréhension directe, bien davantage sans doute que l’accès à un code source indéchiffrable pour la grande majorité d’entre nous”, explique le rapport.

Plate-forme nationale d’audit

Côté gouvernance, la Commission préconise de constituer “une plate-forme nationale d’audit des algorithmes” car il est “essentiel que la puissance publique se donne autant que possible les moyens d’ouvrir le code source d’algorithmes déterministes”. Or, alerte le rapport, “ces moyens s’avèrent de plus en plus insuffisants face à un besoin croissant [et] la Cnil se trouve ainsi désormais sollicitée par d’autres régulateurs sectoriels dépourvus de toute capacité d’audit”.

Opérationnellement, la mise en œuvre de ces audits pourrait être assurée par “un corps public d’experts des algorithmes qui contrôleraient et testeraient les algorithmes (en vérifiant par exemple qu’ils n’opèrent pas de discrimination)”. Une autre solution pourrait consister, notamment face à l’ampleur du secteur à contrôler, en une homologation par la puissance publique des entreprises d’audit privées sur la base d’un référentiel, propose la Cnil.

Enfin, le rapport plaide pour le lancement d’une “grande cause nationale participative pour dynamiser la recherche en IA”. Alors que la capacité à disposer de très vastes quantités de données constitue l’un des fondements du développement d’une recherche en IA, la Cnil se veut optimiste : “Contrairement à une image trop souvent répandue, les législations française et européenne proposent un cadre suffisamment ouvert pour soutenir une recherche et une politique industrielle ambitieuses en la matière.”

Puissance publique moteur

À cet égard, estime-t-elle, la création par le Règlement européen de protection des données (RGPD) d’un “droit à la portabilité”, qui permet aux personnes de récupérer leurs données conservées par des acteurs privés, “ouvre de grandes opportunités encore largement inconnues”. La Cnil imagine déjà une puissance publique jouant “un rôle moteur” en lançant “un grand projet de recherche fondé sur des données issues de la contribution de citoyens exerçant leur droit à la portabilité auprès des acteurs privés et rebasculant leurs données pour un projet au service d’une cause d’intérêt général”.

Quant aux entreprises déployant “des algorithmes aux impacts significatifs”, au premier rang desquelles les Gafam (les géants américains du Web), elles devraient se doter de “comités d’éthique”, avance la Cnil. Laquelle a conscience du caractère hautement sensible de l’affaire… “La composition et les modalités d’intervention de tels comités constituent un point essentiel. Publicité ou non des comptes rendus, publicité ou non de la composition du comité, degré éventuel d’indépendance : la palette des options possibles est large.”