Atelier « Fairness Accountability and Transparency in Machine Learning »

La Conférence internationale sur l’apprentissage automatique (International Conference on Machine Learning ou ICML) est la conférence de référence au niveau mondial sur l’apprentissage automatique, ces algorithmes  qui, à partir d’un ensemble de données, induisent automatiquement des modèles. Ces technologies sont par exemple utilisées en vision par ordinateur ou en reconnaissance de la parole.
Pendant la dernière conférence ICML qui s’est tenue récemment à Lille, un atelier intitulé « Fairness Accountability and Transparency in Machine Learning«  s’est tenu.
Il est intéressant de voir que ces questions font leur chemin aussi dans la communauté de l’apprentissage. Cependant, ne nous emballons pas, il y avait 30 personnes maximum pendant cet atelier alors qu’ICML a rassemblé plus de 1000 personnes.
Voici quelques exemples de communications (en ligne sur le site) :
-Nick Diakopoulo.s Algorithmic Accountability and Transparency in Journalism
-Sara Hajian. Discrimination- and Privacy-Aware Data Mining
-Salvatore Ruggieri.  Privacy Attacks and Anonymization Methods as Tools for Discrimination Discovery and Fairness
-Toshihiro Kamishima and Kazuto Fukuchi. Future Directions of Fairness-Aware Data Mining: Recommendation, Causality, and Theoretical Aspects

Avis du comité d’éthique du CNRS (COMETS) sur les sciences participatives

Jean-Gabriel Ganascia, membre du Comité d’éthique du CNRS (COMETS), nous a envoyé l’avis que vient d’émettre cette instance concernant les sciences participatives (ou citoyennes). Nous en reproduisons ici le résumé, l’avis complet étant disponible sur le site du COMETS.

Nous reviendrons sur cet avis un peu plus tard pour en fournir un éclairage, en attendant, voici de quoi alimenter la réflexion :

Résumé : Les relations de la science avec la société se sont profondément modifiées au cours de l’histoire. A partir des années 70, la notion de progrès est réinterrogée face aux nouveaux défis environnementaux et sanitaires. Ceci met aujourd’hui au premier plan les questions posées par les citoyens aux chercheurs et aux institutions de recherche, ainsi que le besoin des chercheurs de faire comprendre la nature et l’importance de leur démarche à l’ensemble de la société. Le COMETS affirme ici qu’il y a urgence à construire une relation de confiance entre les citoyens et les scientifiques. Deux voies sont abordées : celle des sciences participatives et celle d’un dialogue science-citoyens renouvelé.

La voie des sciences participatives, en grand développement aujourd’hui grâce à internet, associe les citoyens amateurs aux activités scientifiques pour la collecte des données et parfois la co-création ou l’interprétation des résultats. Il en résulte un apport mutuel considérable, d’une part pour l’enrichissement de la production des connaissances, d’autre part pour la formation des citoyens aux méthodes et à l’esprit scientifique. Cette voie encourage les vocations pour les sciences chez les jeunes. Le COMETS formule des recommandations portant sur l’encadrement des pratiques des réseaux amateurs, sur l’importance de la validation des résultats, sur le respect de l’anonymat lorsqu’il s’agit de données privées, enfin sur le statut et la reconnaissance dus aux contributeurs.

Dans un monde secoué de crises successives et traversé par des controverses sur des sujets sensibles, le COMETS est d’avis que les chercheurs et leurs institutions doivent être à l’écoute des questionnements du public sur l’impact de leurs choix. Tout en réaffirmant l’autonomie du champ scientifique, il estime nécessaire d’engager une réflexion sur les formes à donner au débat public autour des questions de recherche. Il souligne fortement l’importance de la diffusion de la culture scientifique et de sa promotion active à tous les niveaux de la société. Il recommande que les expertises exercées par les scientifiques sur des questions ayant un impact sociétal soient menées à l’abri des conflits d’intérêt, dans un cadre interdisciplinaire et si possible international. Il préconise que le CNRS soutienne l’implication d’équipes de recherche dans l’analyse des perceptions des sciences et encourage les initiatives abordant des thèmes sensibles. Il suggère enfin que le CNRS développe une expertise collective mobilisable pour répondre aux sollicitations des décideurs publics et des instances démocratiques.

Armons notre pensée

À l’heure où nous refermons la première édition de l’atelier ETeRNAL, je veux croire que cette idée, pourtant tout à fait ancienne, que ce que nous étudions et la manière dont nous l’étudions est le plus important.

Nous avons constaté que nous abordions naturellement la question de l’éthique par celle de l’anonymisation, trop souvent considérée comme réglée. Force est de constater que ce n’est pas le cas, et d’autant moins que nous conservons de grandes difficultés à définir le problème. Et il n’est qu’une porte ouverte sur un constat, celui que lorsque les données sont devenues un enjeu économique et politique, les outils transformant intelligemment ces données deviennent de facto des objets économiques et politiques. En cela, notre travail de chercheur, de penseur, se décale de nos habitudes et nous oblige. Il ne nous oblige certainement pas à courir après plus de réussite ou de succès, mais bien à reconsidérer l’importance de notre travail.

Le traitement automatique des langues est divers d’histoires très différentes. À la fois issu de la tradition de la linguistique, sciences fort ancienne, et de l’informatique, science tout à fait moderne.
D’aucuns font le constat de notre éloignement de nos objets de recherche. Est-ce que la langue, pour ce qu’elle dit de notre capacité cognitive, de notre évolution, de notre relation au monde peut seulement se traiter par le biais de modèles purement mathématiques ? Est-ce que nous pouvons nous faire croire raisonnablement que nos outils n’ont pas de finalité en dehors des desseins que nous leur prêtons ? Est-ce que comprendre et transformer les données linguistiques est tout à fait anodin ?
Probablement pas.

Il nous appartient, en tant qu’individu, mais également en tant que communauté scientifique de nous inscrire dans une histoire, au moins celle de la science. Ne tentons pas de nous cacher derrière l’argument de la jeunesse, et de ce qu’elle justifie insouciance. Nous ne sommes plus les contemporains de la naissance de l’informatique. Et aujourd’hui, plus qu’hier, notre travail est devenu économique et politique.

Il ne s’agit pas de reproduire au sein de la communauté les habitus de la société, mais d’être en mesure de parler librement, de penser librement nos objets et les conséquences même de notre pensée. Il ne s’agit certainement pas de revendiquer les uns contre les autres, ou de trouver là le vecteur d’une forme de militantisme. Il s’agit certainement là d’une opportunité de s’enthousiasmer.

Alors, oui, il nous faut un espace pour prendre la parole et porter aux débats, celui de la communauté que nous formons, et celui de la société entière, dans sa diversité, les questions qui nous traversent. Reprenons les exercices difficiles de la réflexion, de la vulgarisation, du positionnement épistémologique de nos travaux.
Nous ne gagnerons pas grand chose pour nos carrières, mais notre pensée n’en sera que plus forte.
Je suis heureux de voir qu’un tel espace est en train d’éclore.
Il nous appartient de le faire naître, de le faire grandir et de s’en servir comme arme de la pensée.

Pourquoi un blog Ethique et TAL ?

A la suite de l’atelier ETeRNAL de TALN 2015, il est apparu que la communauté du Traitement Automatique des Langues manquait d’espace pour communiquer au grand public sur la réalité des technologies que nous développons, et à leurs dangers éventuels.

Ce blog se veut une action concrète dans ce sens. Il est ouvert à tout chercheur ou industriel du TAL qui voudrait y contribuer. Pour ce faire, envoyez-nous un mail à ethique-et-tal chez schplaf point org.

Comité de rédaction :

  • Gilles Adda (LIMSI-CNRS / IMMI)
  • Maxime Amblard (LORIA / Université de Lorraine)
  • Jean-Yves Antoine (Université de Tours)
  • Karën Fort (STIH / Université Paris-Sorbonne)
  • Hugues de Mazancourt (Eptica)