Aller au contenu principal
A propos d'HEC A propos d'HEC
Summer School Summer School
Faculté et Recherche Faculté et Recherche
Bachelor Programs Bachelor Programs
MBA Programs MBA Programs
Programme PhD Programme PhD
Executive Education Executive Education
HEC Online HEC Online
A propos d'HEC
En bref En bref
Qui sommes-nous ? Qui sommes-nous ?
Egalité des chances Egalité des chances
HEC Talents HEC Talents
International International
Sustainability Sustainability
Diversité et inclusion Diversité et inclusion
Fondation HEC Fondation HEC
Vie du campus Vie du campus
Rapport d'activité Rapport d'activité
Summer School
Youth programs Youth programs
Summer programs Summer programs
Online Programs Online Programs
Faculté et Recherche
À propos À propos
Corps professoral Corps professoral
Départements Départements
Centres Centres
Chaires Chaires
Financements Financements
Knowledge@HEC Knowledge@HEC
Grande Ecole
& Masters
Grande Ecole
Master in Management
Grande Ecole
Master in Management
Programmes
Masters
Programmes
Masters
Doubles
Diplômes
Doubles
Diplômes
Programmes
Bachelor
Programmes
Bachelor
Programmes
Summer
Programmes
Summer
Exchange
students
Exchange
students
Vie
Etudiante
Vie
Etudiante
Notre
différence
Notre
différence
Bachelor Programs
Vue d'ensemble Vue d'ensemble
Course content Course content
Admissions Admissions
Fees and Financing Fees and Financing
MBA Programs
MBA MBA
Executive MBA Executive MBA
TRIUM EMBA TRIUM EMBA
Programme PhD
Overview Overview
HEC Difference HEC Difference
Program details Program details
Research areas Research areas
HEC Community HEC Community
Placement Placement
Job Market Job Market
Admissions Admissions
Financing Financing
FAQ FAQ
Executive Education
Accueil Accueil
Qui sommes-nous ? Qui sommes-nous ?
Univers de formation Univers de formation
Programmes Programmes
Offres entreprises Offres entreprises
Événements/Actualités Événements/Actualités
Contacts Contacts
HEC Online
En bref En bref
Programmes Executive Programmes Executive
MOOCs MOOCs
Summer Programs Summer Programs
Youth programs Youth programs
A propos

Hi! Paris : un webinaire pour débattre sur les biais et la confidentialité des données

Six mois après sa création, le nouveau centre de recherche Hi! Paris a lancé une première série de webinaires avec un débat sans concession sur la partialité des algorithmes d'apprentissage automatique, et sur la question très controversée de la confidentialité des données*. Quatre chercheurs de haut niveau issus d'HEC Paris et d'IP Paris ont partagé leurs dernières recherches autour des biais de l'intelligence artificielle (IA) et de la confidentialité des données. Ils ont pu échanger à cette occasion avec des spécialistes de ces domaines, des experts dont les expériences de terrain ont permis de donner plus de profondeur à cet échange, qui a duré près de trois heures. Le webinaire s'est concentré sur la recherche de solutions et méthodes pour favoriser l'équité et la transparence dans les systèmes d'IA.

Webinar Hi! Paris janv. 2021

Lorsqu'on lui a demandé ce que les étudiants de Hi ! Paris devraient apprendre en priorité sur l'IA et les algorithmes qui la nourrissent, Isabelle Falque-Pierrotin n'a pas hésité un instant : « Développer un esprit critique ! », a-t-elle indiqué dans un sourire, avant de préciser sa pensée : « Les étudiants ne doivent pas prendre ces outils d'IA pour acquis, ils doivent être encouragés à les remettre en question. Ils sont complexes et ne sont pas au-dessus de la critique. Connaître les subtilités de l'apprentissage automatique, de l'IA et de l'éthique est donc essentiel pour les étudiants, car l'impact de ces éléments sur leur vie professionnelle est immense. »

 

Webinar Hi! Paris janv. 2021 - Isabelle Falque-Pierrotin
Isabelle Falque-Pierrotin

Isabelle Falque-Pierrotin est bien placée pour le savoir : elle a été présidente de la Commission nationale de l'informatique et des libertés (CNIL) de 2011 à 2020, une décennie qui a vu les enjeux liés à l'IA, à ses biais et à la vie privée prendre une place prépondérante dans le débat public. Tenant compte de cette évolution, il était naturel pour le nouveau centre interdisciplinaire Hi! Paris d'axer son tout premier webinaire sur des sujets qui sont au centre de la prise de décision, à tous les niveaux de la société. « Des banques en passant par l'amour ou la liberté, les algorithmes sont utilisés pour conduire des politiques qui changent la vie », observait le premier des quatre orateurs principaux, Christophe Pérignon, professeur à HEC. « Les algorithmes sont considérés comme neutres, éliminant ainsi le sexisme, le racisme, les biais religieux et autres préjugés humains. Mais nos recherches montrent que la réalité peut être tout autre. En fait, l'IA peut traiter de manière systématiquement défavorable un groupe d'individus partageant une caractéristique comme le sexe, l'âge ou la race. » Christophe Pérignon a cité plusieurs incidents, dont le cas bien connu de la carte de crédit Apple qui, en 2019, semblait offrir des lignes de crédit plus réduites aux femmes qu'aux hommes. Avec ses collègues chercheurs Christophe Hurlin et Sébastien Saurin, il vient de publier un important article sur l'équité des modèles de notation en matière de crédit.

 

Webinar Hi! Paris janv. 2021 - Christophe Pérignon - HEC Paris
Christophe Pérignon

 

Stéphan Clémençon, chercheur à Télécom Paris, s'est ensuite rallié au diagnostic de Christophe Pérignon. Au cours de son intervention d'une quinzaine de minutes, il a déclaré que le succès des algorithmes prédictifs « ne peut être garanti par la seule massivité des informations à disposition. » Il a appelé à un contrôle rigoureux des conditions d'acquisition des données, ainsi que des contraintes d'équité derrière toute règle automatisée. « Mes recherches montrent qu'il n'est pas facile de garantir que les algorithmes, et/ou les données qui les alimentent, n'aient pas de biais. Et la repondération des données dans la reconnaissance faciale, pour corriger un éventuel biais de sélection, peut ne pas suffire à améliorer les performances de certains systèmes à propos de strates spécifiques de la population, par exemple. Des contraintes d'équité doivent être intégrées aux algorithmes dans certaines situations, et il faut alors se demander s'il existe un compromis satisfaisant entre précision et équité. »

La vie privée des consommateurs remise en question

La complexité de la « départialisation » des algorithmes se retrouve également dans la préservation de la vie privée des consommateurs. « Une vision simpliste de la vie privée des consommateurs ne fonctionne pas », a remarqué Ruslan Momot, professeur assistant au département Information Systems & Operations Management d’ HEC Paris. S'exprimant pour ce séminaire depuis la Californie (et donc en pleine nuit), Ruslan Momot mène depuis des années des recherches sur la préservation de la vie privée des consommateurs sur les réseaux sociaux, les plates-formes et les places de marché. Ses travaux mettent en évidence le fait que de plus en plus de stratégies, guidées par des entreprises allant des énormes conglomérats de type GAFA aux petites entreprises de luxe, sont axées sur les données (data-driven). Des entreprises de tous horizons collectent désormais une quantité massive de données auprès des consommateurs : des données  qui, pour Ruslan Momot, peuvent faire l'objet de fuites ou d'une utilisation abusive. « Quelles sont les mesures que les entreprises et les régulateurs peuvent prendre pour préserver la vie privée des consommateurs ? » Les abus sont devenus fameux : certains ont fait basculer des élections (le scandale Cambridge Analytica), d'autres ont exposé les consommateurs à la fraude ou au vol d'identité (Equifax and Marriott Hotel). Mais il existe des solutions, a poursuivi Ruslan Momot : « des amendes imposées aux entreprises responsables et des taxes sur la collecte de données ».

 

Webinar Hi! Paris janv. 2021 - Ruslan Momot, HEC Paris
Ruslan Momot

Catuscia Palamidessi de l'Ecole Polytechnique/INRIA, a quant à elle tenu à mettre en garde contre les risques de violation de la vie privée, et de décisions injustes. Elle a suggéré une approche hybride qui pourrait atténuer ces menaces, impliquant ce qu'elle a appelé le mécanisme local de protection de la vie privée (Local Privacy Mechanism, LDP). Catuscia Palamidessi a travaillé sur un modèle hybride, intégrant des entreprises cherchant à fournir le meilleur compromis entre vie privée et utilité.

 

Webinar Hi! Paris janv. 2021 - Catuscia Palamidessi, Ecole Polytechnique/INRIA
Catuscia Palamidessi

Cette série d’exposés a été suivie d'une intervention de l'ancien coordinateur national pour l'IA, Bertrand Pailhès. Une table-ronde a ensuite permis une discussion stimulante entre Isabelle Falque-Pierrotin, Nesrine Kaanich, professeur adjoint à Télécom SudParis, et Moez Draief, vice-président de Capgemini, chargé de la science des données et de l'ingénierie. Tous ces intervenants se sont accordés pour dire qu'il existe des intérêts convergents qui nécessitent une diversité de profils professionnels. « L'IA n'est pas seulement la chasse gardée des data "scientists" », a remarqué Nesrine Kaanich. « Les entreprises demandent des diplômés ayant des intérêts transversaux et des spécialités. Elles doivent mettre en commun leurs compétences. »

 

Webinar Hi! Paris janv. 2021 - Bertrand Pailhès
Bertrand Pailhès

Faire passer la pratique avant la théorie

De son côté, Moez Draief (un ancien chercheur travaillant aujourd'hui pour CapGemini, l'une des entreprises donatrices de Hi! Paris) a exhorté les étudiants à apprendre par la pratique : « C'est une priorité pour travailler dans l'IA, et les universités anglo-saxonnes l'ont compris. En France, il y a une grande attention portée à la théorie académique et à la compréhension rigoureuse des principes. Malheureusement, les étudiants d'ici ne voient pas à quel point cette théorie est applicable avant de commencer à travailler. Les universités françaises évoluent lentement vers les applications pratiques de l'IA, dans lesquelles les étudiants apprennent l'éthique, les biais, etc. Ces facteurs sont dominants, car tant de choses peuvent mal tourner, il est donc utile d'expérimenter en tant qu’étudiant, et non en situation de travail. Dans ce dernier cas, la pression subie devient si forte que vous commettez des erreurs. »

Webinar Hi! Paris janv. 2021 - Moez Draief, Capgemini
Moez Draief

Parallèlement aux webinaires, Hi! Paris continue de recruter activement des doctorants, de créer des bourses d'études, de mener des projets de collaboration sur les méthodes fondamentales de l'IA et d'organiser des événements tels qu'un hackathon qui débutera le 12 mars. Le thème de cet événement de quatre jours : l'IA pour l'efficacité énergétique. Et il y aura bien sûr d'autres webinaires. Le prochain aura lieu en avril et portera sur l'IA dans le domaine de la santé. A suivre !

 

* Le programme est soutenu par les entreprises partenaires du centre Hi! Paris : L'Oréal, Capgemini, Total, Kering et Rexel.

Modules

Lire aussi

©Jeremy Barande - Hi! Paris - Vignette

HEC Paris et l'Institut Polytechnique de Paris ( IP Paris, qui réunit l'Ecole polytechnique, l'ENSTA Paris, l'ENSAE Paris, Télécom Paris et Télécom SudParis) viennent de lancer un nouveau centre de...