Hi! Paris : un webinaire pour débattre sur les biais et la confidentialité des données
Six mois après sa création, le nouveau centre de recherche Hi! Paris a lancé une première série de webinaires avec un débat sans concession sur la partialité des algorithmes d'apprentissage automatique, et sur la question très controversée de la confidentialité des données*. Quatre chercheurs de haut niveau issus d'HEC Paris et d'IP Paris ont partagé leurs dernières recherches autour des biais de l'intelligence artificielle (IA) et de la confidentialité des données. Ils ont pu échanger à cette occasion avec des spécialistes de ces domaines, des experts dont les expériences de terrain ont permis de donner plus de profondeur à cet échange, qui a duré près de trois heures. Le webinaire s'est concentré sur la recherche de solutions et méthodes pour favoriser l'équité et la transparence dans les systèmes d'IA.
Lorsqu'on lui a demandé ce que les étudiants de Hi ! Paris devraient apprendre en priorité sur l'IA et les algorithmes qui la nourrissent, Isabelle Falque-Pierrotin n'a pas hésité un instant : « Développer un esprit critique ! », a-t-elle indiqué dans un sourire, avant de préciser sa pensée : « Les étudiants ne doivent pas prendre ces outils d'IA pour acquis, ils doivent être encouragés à les remettre en question. Ils sont complexes et ne sont pas au-dessus de la critique. Connaître les subtilités de l'apprentissage automatique, de l'IA et de l'éthique est donc essentiel pour les étudiants, car l'impact de ces éléments sur leur vie professionnelle est immense. »
Isabelle Falque-Pierrotin est bien placée pour le savoir : elle a été présidente de la Commission nationale de l'informatique et des libertés (CNIL) de 2011 à 2020, une décennie qui a vu les enjeux liés à l'IA, à ses biais et à la vie privée prendre une place prépondérante dans le débat public. Tenant compte de cette évolution, il était naturel pour le nouveau centre interdisciplinaire Hi! Paris d'axer son tout premier webinaire sur des sujets qui sont au centre de la prise de décision, à tous les niveaux de la société. « Des banques en passant par l'amour ou la liberté, les algorithmes sont utilisés pour conduire des politiques qui changent la vie », observait le premier des quatre orateurs principaux, Christophe Pérignon, professeur à HEC. « Les algorithmes sont considérés comme neutres, éliminant ainsi le sexisme, le racisme, les biais religieux et autres préjugés humains. Mais nos recherches montrent que la réalité peut être tout autre. En fait, l'IA peut traiter de manière systématiquement défavorable un groupe d'individus partageant une caractéristique comme le sexe, l'âge ou la race. » Christophe Pérignon a cité plusieurs incidents, dont le cas bien connu de la carte de crédit Apple qui, en 2019, semblait offrir des lignes de crédit plus réduites aux femmes qu'aux hommes. Avec ses collègues chercheurs Christophe Hurlin et Sébastien Saurin, il vient de publier un important article sur l'équité des modèles de notation en matière de crédit.
Stéphan Clémençon, chercheur à Télécom Paris, s'est ensuite rallié au diagnostic de Christophe Pérignon. Au cours de son intervention d'une quinzaine de minutes, il a déclaré que le succès des algorithmes prédictifs « ne peut être garanti par la seule massivité des informations à disposition. » Il a appelé à un contrôle rigoureux des conditions d'acquisition des données, ainsi que des contraintes d'équité derrière toute règle automatisée. « Mes recherches montrent qu'il n'est pas facile de garantir que les algorithmes, et/ou les données qui les alimentent, n'aient pas de biais. Et la repondération des données dans la reconnaissance faciale, pour corriger un éventuel biais de sélection, peut ne pas suffire à améliorer les performances de certains systèmes à propos de strates spécifiques de la population, par exemple. Des contraintes d'équité doivent être intégrées aux algorithmes dans certaines situations, et il faut alors se demander s'il existe un compromis satisfaisant entre précision et équité. »
La vie privée des consommateurs remise en question
La complexité de la « départialisation » des algorithmes se retrouve également dans la préservation de la vie privée des consommateurs. « Une vision simpliste de la vie privée des consommateurs ne fonctionne pas », a remarqué Ruslan Momot, professeur assistant au département Information Systems & Operations Management d’ HEC Paris. S'exprimant pour ce séminaire depuis la Californie (et donc en pleine nuit), Ruslan Momot mène depuis des années des recherches sur la préservation de la vie privée des consommateurs sur les réseaux sociaux, les plates-formes et les places de marché. Ses travaux mettent en évidence le fait que de plus en plus de stratégies, guidées par des entreprises allant des énormes conglomérats de type GAFA aux petites entreprises de luxe, sont axées sur les données (data-driven). Des entreprises de tous horizons collectent désormais une quantité massive de données auprès des consommateurs : des données qui, pour Ruslan Momot, peuvent faire l'objet de fuites ou d'une utilisation abusive. « Quelles sont les mesures que les entreprises et les régulateurs peuvent prendre pour préserver la vie privée des consommateurs ? » Les abus sont devenus fameux : certains ont fait basculer des élections (le scandale Cambridge Analytica), d'autres ont exposé les consommateurs à la fraude ou au vol d'identité (Equifax and Marriott Hotel). Mais il existe des solutions, a poursuivi Ruslan Momot : « des amendes imposées aux entreprises responsables et des taxes sur la collecte de données ».
Catuscia Palamidessi de l'Ecole Polytechnique/INRIA, a quant à elle tenu à mettre en garde contre les risques de violation de la vie privée, et de décisions injustes. Elle a suggéré une approche hybride qui pourrait atténuer ces menaces, impliquant ce qu'elle a appelé le mécanisme local de protection de la vie privée (Local Privacy Mechanism, LDP). Catuscia Palamidessi a travaillé sur un modèle hybride, intégrant des entreprises cherchant à fournir le meilleur compromis entre vie privée et utilité.
Cette série d’exposés a été suivie d'une intervention de l'ancien coordinateur national pour l'IA, Bertrand Pailhès. Une table-ronde a ensuite permis une discussion stimulante entre Isabelle Falque-Pierrotin, Nesrine Kaanich, professeur adjoint à Télécom SudParis, et Moez Draief, vice-président de Capgemini, chargé de la science des données et de l'ingénierie. Tous ces intervenants se sont accordés pour dire qu'il existe des intérêts convergents qui nécessitent une diversité de profils professionnels. « L'IA n'est pas seulement la chasse gardée des data "scientists" », a remarqué Nesrine Kaanich. « Les entreprises demandent des diplômés ayant des intérêts transversaux et des spécialités. Elles doivent mettre en commun leurs compétences. »
Faire passer la pratique avant la théorie
De son côté, Moez Draief (un ancien chercheur travaillant aujourd'hui pour CapGemini, l'une des entreprises donatrices de Hi! Paris) a exhorté les étudiants à apprendre par la pratique : « C'est une priorité pour travailler dans l'IA, et les universités anglo-saxonnes l'ont compris. En France, il y a une grande attention portée à la théorie académique et à la compréhension rigoureuse des principes. Malheureusement, les étudiants d'ici ne voient pas à quel point cette théorie est applicable avant de commencer à travailler. Les universités françaises évoluent lentement vers les applications pratiques de l'IA, dans lesquelles les étudiants apprennent l'éthique, les biais, etc. Ces facteurs sont dominants, car tant de choses peuvent mal tourner, il est donc utile d'expérimenter en tant qu’étudiant, et non en situation de travail. Dans ce dernier cas, la pression subie devient si forte que vous commettez des erreurs. »
Parallèlement aux webinaires, Hi! Paris continue de recruter activement des doctorants, de créer des bourses d'études, de mener des projets de collaboration sur les méthodes fondamentales de l'IA et d'organiser des événements tels qu'un hackathon qui débutera le 12 mars. Le thème de cet événement de quatre jours : l'IA pour l'efficacité énergétique. Et il y aura bien sûr d'autres webinaires. Le prochain aura lieu en avril et portera sur l'IA dans le domaine de la santé. A suivre !
* Le programme est soutenu par les entreprises partenaires du centre Hi! Paris : L'Oréal, Capgemini, Total, Kering et Rexel.
Lire aussi
HEC Paris et l'Institut Polytechnique de Paris ( IP Paris, qui réunit l'Ecole polytechnique, l'ENSTA Paris, l'ENSAE Paris, Télécom Paris et Télécom SudParis) viennent de lancer un nouveau centre de...