2020-02995 - Doctorant F/H Confiance entre utilisateurs dans les systèmes collaboratifs

Type de contrat : CDD

Niveau de diplôme exigé : Bac + 5 ou équivalent

Fonction : Doctorant

Contexte et atouts du poste

Dans le cadre d’un contrat avec la société Fair&Smart.

Mission confiée

Les systèmes collaboratifs à large échelle, où un grand nombre d'utilisateurs collaborent pour réaliser une tâche partagée, attirent beaucoup l'attention des milieux industriels et académiques. Bien que la confiance soit un facteur primordial pour le succès d'une telle collaboration, il est difficile pour les utilisateurs finaux d'évaluer manuellement le niveau de confiance envers chaque partenaire. Dans l’équipe COAST, nous étudions le problème de l'évaluation de la confiance et cherchons à concevoir un modèle de confiance informatique dédié aux systèmes collaboratifs.

 

Nous avons étudié la théorie de jeux et plus particulièrement le jeu de la confiance [1]. Ce jeu de la confiance, où les utilisateurs échangent des sommes d’argent, est très utilisé dans le domaine de l’économie comportementale pour étudier la confiance et la collaboration entre humains. Dans ce jeu, l’échange de sommes d’argent est uniquement attribué à l’existence de la confiance entre les utilisateurs. Nous avons proposé une métrique de confiance qui calcule une valeur de confiance basée sur les montants précédemment échangés entre les utilisateurs dans le passé. Cette métrique de confiance prend en compte les fluctuations de comportement des utilisateurs [2]. Nous avons également montré (i) que la présentation d'un score de confiance aux utilisateurs encourage la collaboration entre eux de manière significative, et ce, à un niveau similaire à celui de l'affichage du surnom des participants ; (ii) que les utilisateurs se conforment au score de confiance dans leur prise de décision concernant l'échange monétaire [3]. Les résultats suggèrent donc qu'un modèle de confiance peut être déployé dans les systèmes collaboratifs afin d'assister les utilisateurs.

 

Nous souhaitons étudier l'application de ce modèle de confiance dans deux types d'applications : dans un système d'édition collaboratif tel que Wikipédia et dans le cadre de la plateforme de gouvernance des données personnelles de la société Fair&Smart.

 

Nous souhaitons calculer un indice de confiance d'un utilisateur de Wikipédia par rapport à ses contributions passées, cet indice de confiance pouvant prédire la qualité des futures contributions de cet utilisateur. La métrique de confiance proposée dans le cadre du jeu de confiance [2] pour prédire le comportement des utilisateurs par rapport à leur interactions passées et prenant en compte les fluctuations de comportement des utilisateurs pourrait être appliquée en considérant que les interactions entre les utilisateurs sont les contributions des utilisateurs aux révisions des articles de Wikipédia. Le défi principal est de définir la qualité des contributions d'un utilisateur. Pour cela nous étudierons différentes métriques basées sur la longueur des contributions (par exemple la longueur d'une contribution en terme du nombre de caractères ajoutés) et la longévité des contributions (par exemple la durée de persistance d'une contribution dans l'article). Wikipédia fournit un ensemble de données contenant des articles pour lesquels leurs qualités ont été évaluées manuellement par des experts [4][5]. Nous souhaitons donc valider nos algorithmes de mesure de la qualité de contributions des utilisateurs sur ces données.

 

Dans le cadre d'un projet avec la société Fair&Smart financé par l'appel Deeptech de BPI France, nous souhaitons adresser la limitation de leur plateforme de gouvernance des données personnelles concernant la confiance accordée entre les acteurs au sein d’un écosystème numérique. Actuellement, pour que les individus aient confiance dans leurs échanges de données entre eux ou avec des organisations, ils se basent sur un système de recommandation. Ce système assez simple et très générique est cependant rarement fidèle à la réalité des interactions numériques entre les acteurs de la plateforme. En effet, il repose sur une moyenne d’appréciations, ce qui ne prend pas en considération la spécificité de la relation entre différentes catégories d’utilisateurs. Pour améliorer les indicateurs de confiance et instaurer des relations sereines d’échanges entre utilisateurs, nous proposons de définir de nouveaux indicateurs de confiance qui seront calculés par apprentissage automatique (machine learning) du comportement des utilisateurs (y compris des organisations) lors de leurs interactions. Cet indice de confiance sera un indicateur pour prédire le comportement dans le futur d’un utilisateur. Par exemple, il est possible de calculer un indice de confiance par rapport au respect ou au non-respect des consentements collectés. Les consentements sont enregistrés dans le journal du système, donc un mécanisme d'audit pourrait vérifier leur respect ou leur violation. Nous proposons de : (i) de modéliser et concevoir des indicateurs de confiance pertinents, (ii) d'analyser et d'optimiser une méthode d'apprentissage automatique permettant de calculer ces indicateurs en tenant compte du consentement des acteurs sur leurs interactions, (iii) d'opérer de la prédiction sur ces indicateurs pour accroître la confiance entre les acteurs et vis à vis de la plateforme, et (iv) de valider ce processus in silico mais également avec un panel d'utilisateurs de la plateforme. Pour tester la faisabilité du mécanisme de confiance entre les utilisateurs proposé dans ce projet avant son implémentation dans la plateforme par les ingénieurs de Fair&Smart, le jeu basé sur des contrats [6] qui modélise les interactions entre des agents à travers des contrats sera étudié. La mise en œuvre de ce jeu permettra d'organiser des études expérimentales avec des utilisateurs pour s'assurer que l'indice de confiance proposé est en adéquation avec ce que les utilisateurs ressentent.

Références

[1] Joyce Berg, John Dickhaut, and Kevin McCabe. Trust, reciprocity, and social history. Games and economic behavior, 10(1):122--142, 1995.

[2] Quang-Vinh Dang and Claudia-Lavinia Ignat. Computational trust model for repeated trust games. In Proceedings of the IEEE Trustcom/BigDataSE/ISPA, Tianjin, China, pages 34—41, August 2016.

[3] Claudia-Lavinia Ignat, Quang-Vinh Dang, and Valerie L. Shalin. The influence of trust score on cooperative behavior. ACM Transactions on Internet Technology, 19(4), 22 pages, November 2019.

[4] Morten Warncke-Wang, Dan Cosley, and John Riedl. Tell me more: an actionable quality model for Wikipedia. In Proceedings of OpenSym, 10 pages, August 2013.

[5] Morten Warncke-Wang, English Wikipedia Quality Assessment Dataset. Figshare, Dataset.

https://doi.org/10.6084/m9.figshare.1375406.v2

[6] Guido Boella, Leendert W. N. van der Torre. A game theoretic approach to contracts in multiagent systems. IEEE Trans. Systems, Man, and Cybernetics, Part C 36(1): 68-79 (2006)

[7] Urs Fischbacher.  z-Tree: Zurich toolbox for ready-made economic experiments. Exp. economics 10, 2 (2007), 171–178.

Principales activités

  1. Étude de la théorie des jeux et en particulier du jeu de la confiance [1] et étude de la métrique de confiance proposée dans le cadre de ce jeu [2] ;
  2. Étude des travaux sur la qualité des articles Wikipédia ;
  3. Proposition de métriques pour le calcul de la qualité des contributions des utilisateurs pour un article issu de Wikipédia en fonction de la quantité de leurs contributions et la qualité de l’article ;
  4. Adaptation de la métrique de confiance proposée [2] pour Wikipédia en considérant que les interactions des utilisateurs dans le jeu de confiance sont leurs contributions dans les révisions d’un article ;
  5. Réalisation des expérimentations en utilisant le jeu de données fourni par Wikipédia ;
  6. Analyse de l'échange de données basée sur les consentements issus de la plateforme Fair&Smart, étude des types de jeux dans la théorie de jeux et choix du jeu basé sur des contrats le plus approprié ;
  7. Proposition de métriques de confiance en rapport avec les consentements. L'observation du respect ou la violation des contrats acceptés dans le jeu choisi sera faite sur la base de l'audit des échanges de données.
  8. Adaptation de la métrique de confiance proposée à la plateforme Fair&Smart : la métrique proposée sera adaptée pour l'échange de données basé sur les consentements dans Fair&Smart.
  9. Implémentation des jeux proposés et intégration de la métrique proposée dans l'outil Ztree [7] et mise en place de la procédure d'expérimentation de ce jeu avec des utilisateurs.

Avantages

  • Restauration subventionnée
  • Transports publics remboursés partiellement
  • Congés: 7 semaines de congés annuels + 10 jours de RTT (base temps plein) + possibilité d'autorisations d'absence exceptionnelle (ex : enfants malades, déménagement)
  • Possibilité de télétravail (après 6 mois d'ancienneté) et aménagement du temps de travail
  • Équipements professionnels à disposition (visioconférence, prêts de matériels informatiques, etc.)
  • Prestations sociales, culturelles et sportives (Association de gestion des œuvres sociales d'Inria)
  • Accès à la formation professionnelle
  • Sécurité sociale

Rémunération

1982,00€ brut mensuel les deux premières années (1594,00€ net)

2085,00€ brut mensuel la 3ème année (1677,00€ net)