Accueil / Numérique / L’accès aux données personnelles à des fins de recherche. Quelques enjeux éthiques

L’accès aux données personnelles à des fins de recherche. Quelques enjeux éthiques

La CERNA a été créée pour mener une réflexion sur l’éthique des recherches développées en Sciences et Technologies du Numérique et pour sensibiliser les chercheurs à la dimension éthique de leurs travaux. Le 15 juin, elle organise sa première journée sur l’éthique du numérique à l’attention des acteurs de la R&I. Entretien avec Pierre-Antoine Chardel, professeur de philosophie sociale et d’éthique à Télécom École de Management, co-fondateur de la chaire Valeurs et politiques des informations personnelles de l’Institut Mines-Télécom, et membre de la CERNA.

En quoi la question des données personnelles est-elle si sensible pour les chercheurs à l’ère du numérique ?

Photo_PA_Chardel_réduiteLes logiques industrielles qui se répandent en faveur de l’exploitation des données personnelles sont aujourd’hui d’une ampleur considérable. De telles logiques renvoient à une rationalité instrumentale qui repose sur l’ambition de définir les moyens les plus efficaces pour parvenir à une fin donnée. L’objectif étant, dans le cas de l’analyse de données, non seulement de prévoir des comportements, mais aussi d’anticiper des désirs de consommation. Il s’agit, par des solutions techniques et analytiques de plus en plus sophistiquées, de proposer une vue d’ensemble de l’expérience du consommateur.

Le monde de la recherche doit, selon moi, se distinguer nettement d’une telle dynamique d’exploitation. Car ce qui est en jeu dans une telle question, c’est la signification que nous entendons donner à la recherche dans le numérique, à son intégrité. La recherche dans le numérique se doit d’être exemplaire étant donné ce qu’elle permet. Car plus on accentue une possibilité par des moyens technologiques (en l’occurrence la possibilité d’accéder à des données personnelles comme un fond brut pour la recherche), plus nous nous devons de nous interroger sur le fait même de cette possibilité, et sur ce qu’elle implique d’un point de vue éthique.

Que peut signifier l’expérience éthique dans le contexte de l’innovation numérique ?

L’éthique consiste à évaluer la conduite de nos actions relativement aux valeurs qui sont censées les orienter. Elle nous invite ainsi à intégrer le fait que ce qui est technologiquement possible, voire fascinant d’un point de vue scientifique, n’est pas toujours humainement ni socialement souhaitable. On peut à partir de là identifier un certain nombre de valeurs qui sont susceptibles d’encadrer ou d’orienter l’expansion des technologies (idéalement en amont de leur conception). Parmi ces valeurs : l’intégrité de la personne, la liberté, l’autonomie, le respect, la dignité sont de première importance dans nos environnements numériques.

Comment faire coïncider notre agir technologique et le respect de certaines de ces valeurs dans un environnement où les chercheurs peuvent avoir à leur disposition une infinité de données ?

Pour illustrer ce point, je m’appuierai sur le projet de recherche Anamia (projet qui fut financé par l’ANR entre 2010 et 2013) consacré à l’étude de l’impact des modes de sociabilité en ligne sur les troubles du comportement alimentaire (TCA) et réalisé par une équipe pluridisciplinaire de chercheurs, en France et au Royaume-Uni. Dans le cadre de cette étude qui fut coordonnée par mon collègue Antonio Casilli1, une grande partie des résultats que nous avons pu obtenir ont montré que les usages d’Internet permettent de créer des lieux de dialogue inédits que les usagers ne trouvent pas dans la vie dite « réelle ». Les liens intersubjectifs qui se développent en ligne créent des modes de socialisation pour des populations qui se trouvaient le plus souvent marginalisées avant l’essor du numérique. Ces nouveaux modes d’être en réseau permettent à des formes d’intersubjectivité de se constituer, même si dans le cas des troubles du comportement alimentaire (TCA), ces modalités renvoient à des expériences limites.

Pour la réalisation de cette étude, impliquant la récolte et le traitement de données personnelles, une procédure d’autorisation auprès de la Commission Nationale de l’Informatique et des Libertés (CNIL) a été élaborée. Au cours de cette procédure, il fut principalement considéré qu’une information devait être donnée à chaque enquêté conformément à l’article 32 de la loi du 6 janvier 1978 modifiée, puis qu’elle devait être potentiellement accessible aux responsables légaux. Une dérogation à l’obligation d’information du responsable légal des jeunes de 16 et 17 ans a été jugée pertinente eu égard à la finalité du traitement. Enfin, conformément à la loi n° 78-17 du 6 janvier 1978 modifiée, relative à l’Informatique, aux Fichiers et aux Libertés, il fut convenu que les personnes concernées par l’étude devaient disposer d’un droit d’accès, de rectification et de suppression des données personnelles les concernant.

Mais au-delà de ces aspects juridiques relatifs au respect des données personnelles, des questions d’éthique se sont posées de manière tout à fait originale dans le cadre de cette recherche sur les communautés « pro-ana » et « pro-mia ». Dès le lancement du projet, il fut en effet question de souligner sa « visée éthique » ; celle-ci s’illustrant principalement par l’exigence de formuler à l’issue de la recherche des recommandations en termes de santé publique. Sans nous situer dans une perspective proprement thérapeutique ou médicale, l’attention à la finalité du projet censé contribuer à redéfinir certaines politiques de soin a, dès le départ, permis d’affirmer notre positionnement éthique2. Cette orientation s’est par la suite trouvée renforcée par le souhait d’instaurer un mode de compréhension spécifique de pratiques sociales en ligne singulières. Il fut conjointement question de s’interroger sur les conséquences, voire les incidences, que pourraient avoir les entretiens sur les personnes interviewées3, en débordant ainsi la sphère purement juridique.

Comment un tel débordement du droit par l’éthique s’est-il illustré ?

Au-delà des aspects légaux, nous avons par exemple mené avec les principaux chercheurs du projet une réflexion, dès le début de l’étude, concernant l’opportunité (ou non) d’utiliser des médiations technologiques pour recueillir des données sensibles de personnes vulnérables. Cette question des dispositifs techniques s’est posée dans la mesure où il a été nécessaire pour les besoins des enquêtes de déployer une architecture technique assez importante.

Une plateforme web originale pour la collecte des données de réseau, incluant un dispositif innovant de visualisation en temps réel du réseau social des interviewés, a été conçue par les membres de l’équipe Anamia et intégrée dans une structure dédiée de questionnaire en ligne. La plateforme a constitué une méthode d’enquête novatrice dans le domaine de l’analyse empirique des réseaux sociaux en ligne. Le souci principal était de développer des moyens adaptés aux sujets traités en vue d’épouser au mieux les pratiques culturelles des interviewés, et sans vouloir créer des situations intrusives.

À partir d’un tel exemple, on peut aisément prendre la mesure des questions éthiques qui se posent dans le cas où des individus ne seraient pas conscients, ou n’auraient pas connaissance, de l’exploitation scientifique de leurs données.

Quels enseignements plus généraux tirez-vous de cette expérience de recherche ?

La question de la prise en compte du contexte dans lequel nous menons une étude me semble primordiale. Dans ses travaux sur la privacy, Helen Nissenbaum  met justement en évidence le fait que les usagers ont le plus souvent des attentes spécifiques quant à l’utilisation des informations qu’ils transmettent dans des contextes définis4. La question de la sphère privée ne peut donc être appréhendée de manière binaire. Une information n’est pas en tant que telle privée ou publique. C’est la situation qui permet de la définir. Les informations que nous transmettons par exemple à notre banque ne sont pas celles que nous transmettons à notre médecin. La spécificité des contextes intervient donc de manière décisive dans l’évaluation des situations où nous décidons de transmettre telle ou telle information à notre propos5. Chaque contexte social possède son propre système de normes régissant les types d’informations qu’il est approprié ou non de partager avec autrui. Idéalement, les usagers devraient être en ce sens tenus au courant des transactions qui sont entreprises à partir de leurs données.

Toutefois, on sait qu’aujourd’hui un tel degré de transparence relatif à la gestion et à l’exploitation des données demeure très rare, voire quasi inexistant. Un modèle économique est ici à bâtir et qui instaurerait, par exemple, le devoir moral pour une entreprise de révéler la façon dont les données d’un usager sont exploitées, par qui et dans quelles conditions. Même si les questions posées par l’exploitation de données sont évidemment différentes dans le cadre d’une démarche scientifique, une sensibilisation aux contextes de recherche devrait inciter les chercheurs à se poser des questions relatives aux valeurs, aux finalités et aux conséquences qui sont susceptibles d’être en jeu dans leur recherche.

En savoir + sur la CERNA

En savoir + sur la chaire Valeurs et politiques des informations personnelles

________________

[1] Antonio Casilli est sociologue, maître de conférences à Télécom ParisTech et chercheur au Centre Edgar Morin (CNRS/EHESS).
[2] C’est une telle démarche qui nous a récemment conduits à prendre position relativement à l’amendement anti-anorexiques : « Un amendement qui met en danger les malades » – Tribune, avec Antonio A. Casilli, Lise Mounier, Fred Pailler et Paola Tubaro, Libération, 3 avril 2015.
[3] Je renvoie sur ce point à P-A Chardel, « Réseaux numériques et pratiques de soi : le cas des communautés Ana-mia. Réinterroger l’articulation du droit et de l’éthique », Revue Ethique Publique. Revue internationale d’éthique sociétale et gouvernementale, Montréal, 2013 : http://ethiquepublique.revues.org/1295
[4] Helen Nissenbaum, “A Contextual Approach to Privacy Online”, in Daedalus, the Journal of the American Academy of Arts & Sciences, Fall, 2011, pp. 32-48.
[5] ibid.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *