{"id":174,"date":"2017-11-28T10:48:02","date_gmt":"2017-11-28T09:48:02","guid":{"rendered":"http:\/\/lig-membres.imag.fr\/amery\/?page_id=174"},"modified":"2017-11-28T11:20:11","modified_gmt":"2017-11-28T10:20:11","slug":"cnrs-mastodons-elm","status":"publish","type":"page","link":"https:\/\/lig-membres.imag.fr\/amery\/home\/cnrs-mastodons-elm\/","title":{"rendered":"CNRS MASTODONS ELM"},"content":{"rendered":"<h2>ELM: Employees&#8217; Lives Matter : Transparency and Discrimination in Crowdsourcing<\/h2>\n<h2>CrowdFair : Un outil d\u2019aide \u00e0 la non-discrimination dans les plateformes participatives<\/h2>\n<p><a href=\"http:\/\/lig-membres.imag.fr\/amery\/\">Sihem Amer-Yahia<\/a> (LIG\/CNRS)<br \/>\nCollaborateurs : <a href=\"https:\/\/www.grenoble-iae.fr\/menu-principal\/l-iae\/corps-professoral\/aida-bennini--9296.kjsp\">Aida Bennini<\/a> (MDF &#8211; CESICE \/ UGA), <a href=\"https:\/\/www.grenoble-iae.fr\/menu-principal\/l-iae\/corps-professoral\/sabrina-mraouahi--10567.kjsp\">Sabrina Mraouahi<\/a> (MDC UGA), <a href=\"https:\/\/staff.aub.edu.lb\/~se58\/\">Shady ElBassuoni<\/a> (Prof., AUB, Liban), Christine El Atie (\u00e9tudiante en Master, AUB, Liban), Bilel Oualha (\u00e9tudiant ENSTA), <\/p>\n<h2>Le th\u00e8me :<\/h2>\n<p>Nous traitons de la question de la discrimination dans les plateformes participatives avec comme objectif de d\u00e9velopper un mod\u00e8le et des algorithmes pour tester la discrimination dans l&#8217;assignation de t\u00e2ches post\u00e9es par des requesters (fournisseurs de t\u00e2ches) aux participants (workers), i.e., le task assignment (voir Figure ci-contre). La  discrimination algorithmique est un sujet r\u00e9cent qui prend de l\u2019ampleur dans les communaut\u00e9s de l\u2019apprentissage (biais dans la prise de d\u00e9cision) et de la fouille de donn\u00e9es (biais dans les tendances) [1]. L\u2019espace des donn\u00e9es en entr\u00e9e et celui des d\u00e9cisions en sortie sont suppos\u00e9s \u00eatre des espaces m\u00e9triques afin de calculer la discrimination comme des distances.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-9 alignright\" style=\"margin-left: 20px;margin-right: 20px\" alt=\"ELM\" src=\"http:\/\/lig-membres.imag.fr\/amery\/wp-content\/uploads\/sites\/148\/2017\/11\/ELM.png\" width=\"400\" height=\"400\" \/><\/p>\n<p>Bien que plusieurs d\u00e9finitions de la discrimination existent, l\u2019approche la plus utilis\u00e9e aujourd\u2019hui est celle de partitionner les donn\u00e9es en entr\u00e9e de sorte \u00e0 ce qu\u2019un algorithme ne discrimine pas entre les partitions [2][3][4][5][6][7]. Par exemple, une partition sur le lieu d\u2019habitation permettrait de dire si un algorithme de d\u00e9cision (ex., admission \u00e0 l\u2019universit\u00e9) discrimine sur la base de la provenance des individus en calculant la distance entre les donn\u00e9es en entr\u00e9e d\u2019un c\u00f4t\u00e9, et les d\u00e9cisions en sortie de l\u2019autre. On parle alors de distorsion et de tol\u00e9rance de distorsion lorsque diff\u00e9rentes d\u00e9cisions pour diff\u00e9rentes partitions sont compar\u00e9es.<\/p>\n<p>Le projet MASTODONS ELM (Employees Lives Matter) est le premier projet \u00e0 s\u2019int\u00e9resser \u00e0 formaliser et v\u00e9rifier la discrimination dans les plateformes participatives. Nous avons \u00e9tudi\u00e9 la discrimination dans le choix des t\u00e2ches \u00e0 attribuer aux participants. Les travaux sur la discrimination algorithmiques ont jusque l\u00e0 suppos\u00e9 que les donn\u00e9es en entr\u00e9e sont transparentes (afin de constituer des partitions et de calculer des distances) et que le processus de d\u00e9cision ne l\u2019est pas (ce qui refl\u00e8te la r\u00e9alit\u00e9 en g\u00e9n\u00e9ral). Dans ELM, nous avons g\u00e9n\u00e9ralis\u00e9 ces hypoth\u00e8ses et adopt\u00e9 deux approches pour \u00e9valuer la discrimination : une approche bas\u00e9e sur des juges humains et une approche algorithmique. Nous nous sommes d\u2019abord pos\u00e9 la question de la sensibilit\u00e9 des participants \u00e0 rendre leurs donn\u00e9es transparentes et de la capacit\u00e9 des juges \u00e0<br \/>\n\u00e9valuer la discrimination selon que les donn\u00e9es ou les processus soient transparents ou opaques. Nous avons ensuite d\u00e9velopp\u00e9 un simulateur pour \u00e9tudier le pouvoir discriminatoire de fonctions d\u2019assignation de t\u00e2ches pour diff\u00e9rents partitionnement des participants. Nos r\u00e9sultats, aujourd\u2019hui empiriques, sont une preuve de concept qui justifie le d\u00e9veloppement d\u2019un cadre formel et d\u2019algorithmes afin d\u2019aider les requesters \u00e0 choisir les fonctions d\u2019assignation les moins discriminatives possible.<\/p>\n<h2>R\u00e9sultats actuels :<\/h2>\n<p>1. Du point de vue juridique, nous avons r\u00e9alis\u00e9 une recherche documentaire en droit des affaires et droit social sur le crowdsourcing, une typologie du crowdsourcing et une confirmation de l&#8217;\u00e9tat de l&#8217;art en droits interne et europ\u00e9en. Le crowdsourcing est une forme de collaboration entre consommateurs qui peut \u00eatre assimil\u00e9e \u00e0 un contrat de<br \/>\ntravail. N\u00e9anmoins, il n\u2019existe pas de cadre juridique clair (ex., prestation de service?) permettant de r\u00e9gir les liens entre les diff\u00e9rentes parties, i.e., plateforme et participants (workers et requesters). Nous avons fait une revue des conditions g\u00e9n\u00e9rales de la plateforme fran\u00e7aise FouleFactory (https:\/\/www.foulefactory.com\/) et une prise de contact pour d\u00e9finir le p\u00e9rim\u00e8tre juridique. Nous r\u00e9fl\u00e9chissons \u00e0 une \u00e9bauche couvrant la discrimination dans l\u2019assignation de t\u00e2ches. Les conditions g\u00e9n\u00e9rales de la plateforme et l\u2019\u00e9nonc\u00e9 m\u00eame des t\u00e2ches sont une base de contrat entre les participants et la plateforme dans un cas, et les participants et les requesters dans l\u2019autre. Le droit p\u00e9nal sanctionne les comportements discriminatoires. L\u2019article 225-1 du Code p\u00e9nal compte 23 motifs discriminatoires diff\u00e9rents dont l\u2019origine, le sexe, la situation de famille, l\u2019apparence physique, le lieu de r\u00e9sidence, et l\u2019\u00e9tat de sant\u00e9. Ce sont ces 23 motifs que nous avons utilis\u00e9s dans notre \u00e9valuation empirique.<\/p>\n<p>2. Du point de vue informatique, nous avons d\u00e9ploy\u00e9 des t\u00e2ches permettant \u00e0 des juges d\u2019\u00e9valuer la discrimination sous diff\u00e9rentes conditions de transparence. Nous avons trouv\u00e9 que les juges pr\u00e9f\u00e8rent la transparence des donn\u00e9es \u00e0 la transparence du processus d\u2019assignation. En effet, ils consid\u00e8rent pouvoir mieux juger le pouvoir discriminatoire d\u2019une assignation (m\u00eame opaque !) si les donn\u00e9es des participants et les t\u00e2ches qui leur sont assign\u00e9es leur sont fournies. Nous avons \u00e9galement trouv\u00e9 que les participants (workers) ne sont pas sensibles \u00e0 l\u2019exposition de leurs donn\u00e9es personnelles aux requesters et qu\u2019ils pr\u00e9f\u00e8rent que leurs donn\u00e9es soient mises \u00e0 disposition des requesters (consid\u00e9rant que l\u2019assignation de t\u00e2ches leur sera plus juste). Enfin, nous avons confirm\u00e9 une ancienne th\u00e9orie selon laquelle les participants pr\u00e9f\u00e8rent faire partie d\u2019un processus d\u2019assignation transparent plut\u00f4t qu\u2019un processus opaque m\u00eame si ce dernier est dit plus juste \u00e0 leur \u00e9gard ! Nous avons aujourd\u2019hui un cadre dans lequel nous pouvons tester algorithmiquement diff\u00e9rentes distances entre des d\u00e9cisions d\u2019assignation de t\u00e2ches. Nous comptons utiliser ce cadre pour d\u00e9velopper notre prochain outil, CrowdFair.<\/p>\n<p>3. Publication d\u2019une article \u00e0 la conf\u00e9rence EDBT 2017 [2], participation \u00e0 un panel \u00e0 EDBT sur l\u2019\u00e9thique du data management, mention dans l\u2019article \u00abLa justice \u00e0 l&#8217;heure des algorithmes et du Big Data : https:\/\/lejournal.cnrs.fr\/articles\/la-justice-a-lheure-desalgorithmes-et-du-big-data, publication d\u2019un extrait de cet article dans la revue Carnets de science, CNRS Editions : https:\/\/carnetsdescience-larevue.fr\/, participation \u00e0 la conf\u00e9rence de l&#8217;Association Fran\u00e7aise du droit du travail du 19 mai 2017 \u00e0 Paris, participation aux journ\u00e9es sur les Convergences du droit et du num\u00e9rique en septembre 2017 \u00e0 Bordeaux sur les contours du droit du travail face \u00e0 l&#8217;ub\u00e9risation des rapports de travail et r\u00e9daction d\u2019une note sur les enjeux juridiques du crowdsourcing, soumission d\u2019un papier avec Christine et Shady \u00e0 la premi\u00e8re AAAI\/ACM Conference on AI, Ethics, and Society &#8211; AIES 2018 : http:\/\/www.aies-conference.com\/ et pr\u00e9paration d&#8217;un nouveau papier sur  les approches algorithmiques de la d\u00e9tection et r\u00e9paration de la discrimination.<\/p>\n<h2>Justification scientifique :<\/h2>\n<p>L\u2019objectif de notre nouvelle demande de d\u00e9velopper CrowdFair, un outil permettant de r\u00e9pondre \u00e0 des questions comme : pour un ensemble de participants et un ensemble de fonctions d\u2019assignation, trouver le meilleur partitionnement des participants pour chaque fonction, i.e., celui offrant le moins de discrimination. Nous aimerions ensuite \u00e9tudier cette question dans le cas o\u00f9 l\u2019ensemble des participants \u00e9volue. Nous aimerions continuer sur la lanc\u00e9e tr\u00e8s positive du projet pour permettre une soumission ANR l&#8217;ann\u00e9e prochaine.<\/p>\n<h2>Justification logistique :<\/h2>\n<p>ELM est un projet CNRS MASTODONS (financement 2017) dont l&#8217;objectif \u00e9tait de rapprocher des juristes de l&#8217;UGA (Aida Bennini et Sabrina Mraouhi) et des informaticiens (Sihem Amer-Yahia) pour l&#8217;\u00e9tude de la transparence et de la discrimination dans les plateformes participatives. Nous avons re\u00e7u 15000 euros ce qui a permis d\u2019aller en mission, de r\u00e9mun\u00e9rer des travailleurs sur les plateformes de crowdsourcing (Amazon Mechanical Turk, FouleFactory et Prolific Academic), de prendre trois stagiaires (un stagiaire 2\u00e8me ann\u00e9e ing\u00e9nieur de l&#8217;ENSTA, une stagiaire en droit, et une stagiaire en Master \u00e0 l&#8217;Universit\u00e9 Am\u00e9ricaine de Beyrouth). ELM a permis de lancer une collaboration avec Prof. Shady ElBassuoni de l&#8217;Universit\u00e9 Am\u00e9ricaine de Beyrouth. <\/p>\n<h2>R\u00e9sultats escompt\u00e9s :<\/h2>\n<p>L\u2019outil CrowdFair, trois publications scientifiques (une soumission conf\u00e9rence avec Christine et Shady, une soumission de d\u00e9monstration de CrowdFair, et une soumission \u00e0 une revue avec les juristes). Nous aimerions nous rapprocher davantage de la plateforme fran\u00e7aise FouleFactory qui nous a donn\u00e9 un accord de principe pour l\u2019utilisation de leur sandbox pour tester diff\u00e9rentes approches d\u2019assignation de t\u00e2ches.<\/p>\n<h2>R\u00e9f\u00e9rences :<\/h2>\n<p>[1] Friedler, S. A.; Scheidegger, C.; and Venkatasubramanian, S. On the (im)possibility of fairness. CoRR abs\/1609.07236, 2016.<br \/>\n[2] Borromeo, R. M.; Laurent, T.; Toyama, M.; and Amer-Yahia, S. Fairness and transparency in crowdsourcing. In EDBT 2017.<br \/>\n[3] Kirkpatrick, K. Battling algorithmic bias: how do we ensure algorithms treat us fairly? Commun. ACM 59:16\u201317, 2016.<br \/>\n[4] Luca, M., and Fisman, R. Fixing discrimination in online marketplaces. Harvard Business Review 2016.<br \/>\n[5] Sweeney, L.. Discrimination in online ad delivery. CoRR abs\/1301.6822, 2013.<br \/>\n[6] Tramer, F.; Atlidakis, V.; Geambasu, R.; Hsu, D. J.; Hubaux, J.; Humbert, M.; Juels, A.; and Lin, H. Discovering unwarranted associations in data-driven applications with the fairtest testing toolkit. CoRR abs\/1510.02377, 2015.<br \/>\n[7] Zafar, M. B.; Valera, I.; Rodriguez, M. G.; and Gummadi, K. P. 2017a. Fairness beyond disparate treatment &amp; disparate impact. In WWW 2017.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>ELM: Employees&#8217; Lives Matter : Transparency and Discrimination in Crowdsourcing CrowdFair : Un outil d\u2019aide \u00e0 la non-discrimination dans les plateformes participatives Sihem Amer-Yahia (LIG\/CNRS) Collaborateurs : Aida Bennini (MDF &#8211; CESICE \/ UGA), Sabrina Mraouahi (MDC UGA), Shady ElBassuoni &hellip;<\/p>\n<p class=\"read-more\"> <a class=\"more-link\" href=\"https:\/\/lig-membres.imag.fr\/amery\/home\/cnrs-mastodons-elm\/\"> <span class=\"screen-reader-text\">CNRS MASTODONS ELM<\/span> Read More &raquo;<\/a><\/p>\n","protected":false},"author":149,"featured_media":0,"parent":2,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"","meta":{"footnotes":""},"class_list":["post-174","page","type-page","status-publish","hentry"],"_links":{"self":[{"href":"https:\/\/lig-membres.imag.fr\/amery\/wp-json\/wp\/v2\/pages\/174","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/lig-membres.imag.fr\/amery\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/lig-membres.imag.fr\/amery\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/lig-membres.imag.fr\/amery\/wp-json\/wp\/v2\/users\/149"}],"replies":[{"embeddable":true,"href":"https:\/\/lig-membres.imag.fr\/amery\/wp-json\/wp\/v2\/comments?post=174"}],"version-history":[{"count":27,"href":"https:\/\/lig-membres.imag.fr\/amery\/wp-json\/wp\/v2\/pages\/174\/revisions"}],"predecessor-version":[{"id":210,"href":"https:\/\/lig-membres.imag.fr\/amery\/wp-json\/wp\/v2\/pages\/174\/revisions\/210"}],"up":[{"embeddable":true,"href":"https:\/\/lig-membres.imag.fr\/amery\/wp-json\/wp\/v2\/pages\/2"}],"wp:attachment":[{"href":"https:\/\/lig-membres.imag.fr\/amery\/wp-json\/wp\/v2\/media?parent=174"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}