Le ministère de l’économie s’intéresse aux algorithmes !

2016_05_13_rapport_algorithmes1Maintenant que le traitement de l’information a une valeur économique, le ministère de l’économie se doit d’en proposer une régulation. Un rapport intitulé « Modalités de régulation des algorithmes de traitement des contenus », dont les auteurs sont Jacques SERRIS et Ilarion PAVEL, est paru le 15 décembre (vous le trouverez ici).

Le document d’une cinquantaine de page, plus des annexes, revient sur l’importance croissante des algorithmes dans l’économie et il formule cinq recommandations.

Pour arriver à ce résultat, les auteurs ont rencontré différents acteurs institutionnels comme les directions générales des entreprises, du trésor, de la concurrence, ou encore l’agence du numérique, mais également des représentants des industriels, de Google au groupement français des industries de l’informatique, en passant par des acteurs de la recherche publique comme Inria ou l’ENS. On peut reconnaître que les auteurs ont eu a cœur d’ouvrir le paysage de leur investigation.

Les auteurs ont cherché à rendre compte d’une réflexion générale, en y associant régulièrement des exemples précis. Ainsi on retrouve des encadrés qui font un focus concret qui illustrent bien le propos. Ils proposent plusieurs scénari de développement du monde du numérique et mettent en face des questions pour la régulation. Dans une partie suivante, ils reviennent sur différentes pratiques de la régulation, des actions de la Commission Européenne ou de l’exemple américain.

La partie la plus pertinente est probablement la dernière. Les auteurs s’intéressent à ouvrir des pistes d’action pour la régulation. L’une des propositions est de mettre en place une plateforme, et donc un service (public ?) associé ayant pour mission de tester les algorithmes. Il s’agit d’une part de certification, mais surtout de travailler à construire une relation constructive et apaisée entre citoyens et informatique. Un enjeu que l’on ne peut que souhaiter voir prendre de l’essor.

Cette proposition a l’intérêt d’acter l’importance d’interroger notre relation aux algorithmes. Ainsi, il ne s’agit pas de savoir si nous sommes d’accord avec le résultat d’un algorithme, mais bien de se demander comment s’assurer qu’un algorithme fait ce qu’il prétend faire et pas autre chose. On parle alors de croyance dans les algorithmes.

Mais cela pose une question difficile. Accepte-t-on de déléguer à une autorité étatique la validation de nos croyances ou doit-on espérer une auto-organisation citoyenne capable de faire ce travail ? Nous sommes probablement à un moment où la compétence existe, par exemple dans les EPST (établissements publics scientifiques et techniques), voire dans certaines communautés. Mais il est très peu probable qu’une auto-organisation se produise. Et ne rien faire participe à dégrader notre confiance dans le numérique.

C’est à ce point que le problème de l’économique se pose à nouveau. Si notre modèle est un transfert vers des algorithmes, il est nécessaire que nous (citoyens) ayons une confiance minimale en eux. D’où l’idée de les valider. C’est un enjeu autant pour l’état que pour les entreprises. Il ne s’agit pas d’avancer ici une solution, mais simplement de rappeler que quelque soit l’organisation choisie, il est nécessaire d’en assurer tout autant son indépendance que sa capacité de travail, et cela en investissant sur cette mission.

 

 

On trouvera à la suite la liste des recommandations extraites du rapport.

Recommandation n° 1. Créer une plateforme collaborative scientifique, destinée à favoriser le développement d’outils logiciels et de méthodes de test d’algorithmes, ainsi que de promouvoir l’utilisation de ces outils et méthodes. Cette plateforme permettrait de faire appel à des équipes de recherche, des enseignants, des étudiants ou des experts, publics ou privés.

Recommandation n° 2. Créer une cellule de contrôle spécialisée « bureau des technologies de contrôle de l’économie numérique», pour l’ensemble des pouvoirs publics, implantée au sein de la DGCCRF.

Recommandation n° 3. Communiquer sur le fonctionnement des algorithmes. Quand un algorithme est affiché explicitement, ou perceptible pour l’utilisateur, identifier l’équipe où la personne responsable de son fonctionnement (« chief algorithm officer ») et communiquer au nom de cette équipe, pour rendre visible l’action humaine qui est aux commandes derrière l’algorithme.

Recommandation n° 4. Développer, dans les secteurs de l’emploi, de la santé, de la finance et de l’assurance, les réflexions avec les parties prenantes pour identifier de nouveaux services utilisant des algorithmes de traitement des contenus. Pour ces « services algorithmiques », identifier un pilote chargé de réunir un forum pour établir et promouvoir au niveau international des règles de bonnes pratiques.

Recommandation n° 5. Lancer un programme de formation à l’attention des agents opérant un service public utilisant un algorithme, pour les former au respect des obligations de transparence et de communication inscrites dans la loi République numérique.

Armons notre pensée

À l’heure où nous refermons la première édition de l’atelier ETeRNAL, je veux croire que cette idée, pourtant tout à fait ancienne, que ce que nous étudions et la manière dont nous l’étudions est le plus important.

Nous avons constaté que nous abordions naturellement la question de l’éthique par celle de l’anonymisation, trop souvent considérée comme réglée. Force est de constater que ce n’est pas le cas, et d’autant moins que nous conservons de grandes difficultés à définir le problème. Et il n’est qu’une porte ouverte sur un constat, celui que lorsque les données sont devenues un enjeu économique et politique, les outils transformant intelligemment ces données deviennent de facto des objets économiques et politiques. En cela, notre travail de chercheur, de penseur, se décale de nos habitudes et nous oblige. Il ne nous oblige certainement pas à courir après plus de réussite ou de succès, mais bien à reconsidérer l’importance de notre travail.

Le traitement automatique des langues est divers d’histoires très différentes. À la fois issu de la tradition de la linguistique, sciences fort ancienne, et de l’informatique, science tout à fait moderne.
D’aucuns font le constat de notre éloignement de nos objets de recherche. Est-ce que la langue, pour ce qu’elle dit de notre capacité cognitive, de notre évolution, de notre relation au monde peut seulement se traiter par le biais de modèles purement mathématiques ? Est-ce que nous pouvons nous faire croire raisonnablement que nos outils n’ont pas de finalité en dehors des desseins que nous leur prêtons ? Est-ce que comprendre et transformer les données linguistiques est tout à fait anodin ?
Probablement pas.

Il nous appartient, en tant qu’individu, mais également en tant que communauté scientifique de nous inscrire dans une histoire, au moins celle de la science. Ne tentons pas de nous cacher derrière l’argument de la jeunesse, et de ce qu’elle justifie insouciance. Nous ne sommes plus les contemporains de la naissance de l’informatique. Et aujourd’hui, plus qu’hier, notre travail est devenu économique et politique.

Il ne s’agit pas de reproduire au sein de la communauté les habitus de la société, mais d’être en mesure de parler librement, de penser librement nos objets et les conséquences même de notre pensée. Il ne s’agit certainement pas de revendiquer les uns contre les autres, ou de trouver là le vecteur d’une forme de militantisme. Il s’agit certainement là d’une opportunité de s’enthousiasmer.

Alors, oui, il nous faut un espace pour prendre la parole et porter aux débats, celui de la communauté que nous formons, et celui de la société entière, dans sa diversité, les questions qui nous traversent. Reprenons les exercices difficiles de la réflexion, de la vulgarisation, du positionnement épistémologique de nos travaux.
Nous ne gagnerons pas grand chose pour nos carrières, mais notre pensée n’en sera que plus forte.
Je suis heureux de voir qu’un tel espace est en train d’éclore.
Il nous appartient de le faire naître, de le faire grandir et de s’en servir comme arme de la pensée.