Auteur(s)
Martin Noblecourt
Le concept de localisation est officiellement au sommet de l’agenda humanitaire depuis le Sommet mondial sur l’action humanitaire de 2016. Celui-ci est pourtant de plus en plus questionné par l’idée de « décolonisation de l’aide », qui se base sur une approche différente : « deux conversations différentes [se déroulent] simultanément : une discussion technique sur la manière d’améliorer l’aide, et une conversation morale sur la manière d’aborder les dynamiques de pouvoir géopolitiques plus larges qui ont conduit les pays à avoir besoin d’aide en premier lieu »1.
Malgré l’importance prise par la gestion de données programmes ces dernières années2, leurs enjeux peuvent sembler à première vue assez éloignés de ces questions de gouvernance et de rapports de force au sein de la solidarité internationale. Dans une étude dédiée au sujet (Changer de perspective : pour une approche locale de la donnée, janvier 20243), CartONG a pourtant illustré l’impact essentiel qu’avaient les données à la fois sur la possibilité de réalisation de la localisation, mais aussi plus globalement pour changer les rapports de force au sein de notre secteur.
Des biais et une redevabilité à l’inverse d’une approche de localisation
En effet, notre vision même du secteur est biaisée par la conception du pourquoi et comment nous collectons des données. Par exemple, une étude de cas4 a démontré que si les rapports opérationnels 3W (Who/What/Where) du Bureau de coordination des affaires humanitaires de l’ONU (OCHA) minimisaient l’importance du rôle des acteurs·rices locaux dans l’action humanitaire, ces dernier·es disparaissaient totalement du reporting de référence de l’IATI (International Aid Transparency Initiative) faute d’indicateurs financiers, invisibilisant ainsi de facto leur présence.
De la même façon, l’absence de prise en compte des langues locales – notamment dans la conception et la conduite des enquêtes et évaluations – biaise fondamentalement les données sur lesquelles se base la prise de décision humanitaire. Traducteurs sans frontières / Clear Global a fourni de nombreux exemples de projets humanitaires dont la redevabilité, la pertinence ou simplement la faisabilité sont remises en question par le manque de traduction correcte dans un langage compréhensible pour leurs bénéficiaires5. Par exemple la situation hélas courante de devoir s’appuyer sur des tiers présents (sans aucun contrôle possible sur la qualité de la traduction) pour traduire des questionnaires parfois complexes, voire même de devoir ignorer des personnes en l’absence de traduction possible, biaisent les données produites, et conduisent à la sous-représentation structurelle de certaines populations (femmes, populations moins instruites, minorités…). La même observation pourrait bien entendu être faite sur la prise en compte du genre dans les enquêtes, même si celle-ci progresse.
Ces problématiques de biais s’inscrivent dans un système humanitaire où la redevabilité est essentiellement vue comme ascendante : que ce soit auprès des Organisations de la société civile (73% des OSC interrogées par CartONG6) ou des Instituts nationaux de statistiques (enquête auprès de 140 INS de pays à revenus faibles et intermédiaires7), les bailleurs de fonds et acteurs·rices internationaux sont vus comme destinataires premiers des données collectées, loin devant les acteurs locaux gouvernementaux et la société civile, ou les usagers opérationnels au sein des organisations.
Les organismes internationaux (bailleurs de fonds, ONU, grandes OSC internationales) restent les principaux prescripteurs qui définissent les objectifs de recherche, les indicateurs et souvent les outils encadrant la collecte et la gestion de données. Les acteurs·rices locaux (OSC, bureaux d’études, chercheur·se·s, et en bout de ligne les communautés) sont confinés à un rôle d’exécutant et de simples producteurs de données8. Cette situation impacte l’ensemble des OSC de solidarité internationale, qui se voient imposer sous couvert d’exigences de conformité (compliance) des pratiques contraires aux principes humanitaires. Le meilleur exemple est le criblage (screening) que tentent d’imposer certains bailleurs, à savoir la vérification que les équipes et prestataires, mais aussi les bénéficiaires finaux des OSC, ne figurent pas sur des listes de sanctions internationales. Dans ce dernier cas, le criblage est ainsi contraire aux valeurs humanitaires d’impartialité et de non-discrimination, et génère différents risques et problèmes de fiabilité, sécurité, défiance des populations, etc.9 Il est ainsi notable que le principal bras de fer ayant opposé les OSC françaises à leur gouvernement et à l’Agence Française de Développement (allant jusqu’au boycott de certaines instances de dialogue et un recours au Conseil d’État finalement victorieux) concernait cette problématique, donc en fin de compte un enjeu de gestion responsable des données10 …
Ces biais peuvent avoir des conséquences bien réelles, en ne ciblant pas réellement les populations subissant des oppressions dans le suivi des financements censés les aider11, mais aussi plus globalement en générant un cercle vicieux : difficultés d’accès / collecte de données réduite / manque d’identification des besoins / sous-allocation de fonds.
Un « néo-colonialisme des données » ?
De manière plus générale, le secteur de la solidarité internationale ne peut faire abstraction du système numérique global actuel, marqué par la domination de quelques grandes entreprises (essentiellement américaines). La transformation de notre système économique autour du numérique et de la donnée (cf. les réflexions sur le « capitalisme de surveillance »12 ou le fait que « la donnée serait le nouveau pétrole »13) serait d’une magnitude comparable à ce que fut l’émergence du colonialisme en termes d’accaparement des ressources. L’extraction de données personnelles pour des intérêts privés (et l’invisibilisation / normalisation de ce processus) suivrait la même logique que l’extractivisme colonial14. Des expert·es n’hésitent ainsi pas à parler de « colonisation algorithmique », qui reproduirait les méthodes du colonialisme. Il s’agirait notamment de « la façon dont les technologies importées par l’Occident non seulement codent les valeurs, les objectifs et les intérêts occidentaux, mais font également obstacle aux technologies développées par l’Afrique qui répondraient mieux à ses besoins »15. Cela se reflète à travers un manque d’adaptation des solutions aux contextes locaux, un mépris pour les humains derrière les données, et une confiance aveugle dans la technologie. L’exploitation des travailleurs du clic qui alimentent les plateformes d’Intelligence artificielle (IA) y compris au péril de leur santé mentale16, le « pillage » des données biométriques de personnes vulnérables de pays en crise comme l’Argentine par la start-up californienne WorldCoin17, ou encore la concentration des externalités environnementales du numérique dans les pays du Sud (extraction polluante des minéraux, déchets toxiques, etc.) sont les témoignages les plus percutants de ces nouvelles inégalités.
Derrière les grandes déclarations d’intentions internationales prévoyant un consensus global de la technologie au service du développement (comme le récent Global digital compact), il y a donc bien des intérêts contradictoires entre les grandes entreprises américaines et les États et sociétés civiles (du Sud mais pas uniquement), les premières assumant publiquement de s’opposer aux velléités de souveraineté numérique des seconds18. À noter que l’imposition de normes occidentales peut aussi être questionnée dans ses aspects apparemment les plus consensuels comme la généralisation de normes compatibles avec le RGPD européen, dont la vision essentiellement individuelle des droits ne se retrouve pas dans toutes les cultures19.
L’Intelligence artificielle (IA), actuellement vue par beaucoup comme une révolution pour le secteur humanitaire, ne fait en réalité que mettre un coup de projecteur sur ces enjeux de données. En effet l’IA va naturellement reproduire les biais dans les données, voire les amplifier (phénomène de dérive), et réduire la transparence et la possibilité de corriger les erreurs – et bien sûr va complexifier encore davantage l’implication des communautés dans l’usage de leurs données20. Sans vigilance du secteur, l’IA ne fera que renforcer les dynamiques de pouvoir existantes, et encourager le techno-solutionnisme (p. ex. la tentation d’extrapoler des données sur un pays où la collecte terrain est rendue complexe par des difficultés d’accès à partir des données de ses voisins, avec un manque de rigueur méthodologique).
Ce type de biais de l’IA est par exemple bien documenté en termes d’égalité femmes/hommes : outre le fait que l’essentiel des outils et méthodes est conçu par des professions où les femmes sont structurellement sous-référencées, les données qui alimentent les grands systèmes de modèles d’apprentissage tels que ChatGPT sont construites sur un corpus qui reflète les inégalités des sociétés occidentales, y compris sur le genre21.
Vers une approche véritablement responsable de la donnée
Traiter ces biais et inégalités implique différents changements structurels dans l’organisation de la solidarité internationale : tout d’abord soutenir la montée en capacité des acteurs·rices locaux sur les enjeux de la donnée en partant de leurs besoins (et non d’exigences de redevabilité ascendante), via à la fois des financements et des formations. Différentes organisations recommandent ainsi d’investir prioritairement dans l’infrastructure de données des acteurs de terrain (administrations locales – États civils et recensement, écoles, hôpitaux…) afin de construire une « colonne vertébrale » sur laquelle appuyer l’ensemble du système de données, humanitaire ou non22 ; mais aussi de reconnaître la légitimité des acteurs·rices nationaux à développer un système statistique souverain, sans chercher à construire un système parallèle comme le fait trop souvent le système humanitaire et en renversant la « redevabilité ascendante » déjà évoquée. Le besoin de changement touche également les méthodes mêmes de gestion de projet, avec une vision moins restrictive des indicateurs et davantage d’écoute des communautés et acteurs·rices locaux dans la conception des projets (ce qui implique un changement profond d’approche pour leur financement).
Différents référentiels existent aujourd’hui pour guider ce travail vers l’inclusivité de la chaîne de la donnée, comme les Principes pour le développement numérique23 (qui dépassent mais incluent le sujet de la donnée), la Inclusive Data Charter24, ou le Data Values project25. Tous reposent sur une plus grande implication des communautés dans la conception et l’utilisation des données, plus de transparence, d’ouverture des données et la démocratisation des compétences en matière de données (data literacy). Des exemples existent, de réseaux internationaux décentralisés se sont structurés pour tenter de travailler en écosystèmes égalitaires, comme la plateforme OpenStreetMap ou le réseau des Flying Labs, qui vise à réduire « l’empreinte pouvoir » (sur le modèle de l’empreinte carbone) des acteurs du Nord en son sein26. Cela va de pair avec le soutien à l’expression du potentiel des leaders et expert·es humanitaires de demain, issu·es des pays du Sud.
Comme l’a illustré CartONG dans sa nouvelle étude de synthèse sur les enjeux des données pour la solidarité internationale (Au-delà des chiffres : concilier innovation, éthique et impact, octobre 202427), ces transformations structurelles bénéficieraient d’ailleurs à toutes et tous : en étant plus à l’écoute des communautés locales dans la conception des projets, en améliorant l’inclusivité et donc la qualité des données nourrissant les évaluations de besoins, en intégrant davantage d’approches qualitatives et réflexives, en transformant nos méthodes de collaboration et d’apprentissage, c’est l’impact global du secteur qui en serait amélioré. Ce point est également valable pour les ONG de taille intermédiaire (notamment françaises) qui font face à un risque de décrochage dans un contexte d’évolution rapide des technologies et de complexité croissante des exigences de redevabilité.
Une approche durable de la donnée doit donc prendre en compte à la fois les enjeux d’utilisation responsable (protection des données personnelles), de sécurisation (cybersécurité), de durabilité (sobriété et résilience des systèmes), d’inclusivité (accessibilité, attention au genre, aux langues, à la culture des données) mais aussi de souveraineté numérique. Cette approche est susceptible de rassembler à la fois les acteurs humanitaires souhaitant appliquer l’approche « Ne pas nuire » à leur gestion de données, mais aussi les acteurs nationaux et gouvernementaux des Sud et bon nombre d’acteurs publics des pays du Nord (notamment européens) qui subissent également le système numérique actuel. C’est donc bien une « décolonisation des données », et plus globalement du numérique, qui est nécessaire pour une donnée responsable et durable.
Il est essentiel que ces débats sur le futur des données et de l’usage du numérique dans la solidarité internationale ne soient pas restreints aux spécialistes techniques, et que notre secteur se connecte aux réflexions et efforts globaux vers un numérique responsable28. À défaut, les OSC risqueraient de se trouver en contradiction avec les principes humanitaires, sans parfois même en être conscientes.
Martin Noblecourt, Chargé d’études & recherche de financements, CartONG
- Heba Aly, « Policymakers and racial justice activists came together to discuss decolonising aid. Here’s what happened… », The New Humanitarian, août 2022
- CartONG, « Les données programmes : le nouvel eldorado de la solidarité internationale ? Panorama des pratiques et besoins des OSC francophones », septembre 2020
- CartONG, « Changer de perspective : pour une approche locale de la donnée », janvier 2024
- Development initiatives, « Improving the visibility of local and national actors in humanitarian aid data », juillet 2021.
- Translators Without Borders, « Listen and learn: The link between language and accountability for the future of the Grand Bargain », juin 2021.
- CartONG, « Au-delà des chiffres : concilier innovation, éthique et impact », octobre 2024.
- Mihir Prakash, Tanya Sethi, « Measuring and responding to demand for official statistics », AidData, décembre 2018.
- Mahad Wasuge, Ahmed M. Musa, Tobias Hagmann, « Who owns data in Somalia? Ending the country’s privatised knowledge economy », Somali Public Agenda, Juillet 2021.
- CartONG, « Le criblage et la traçabilité de l’aide », Boite à outils gestion responsable de données, juin 2023.
- Coordination SUD, « Annulation des lignes directrices en matière de criblage par le Conseil d’État », février 2023.
- Mariam Ibrahim, Fionna Smyth, Claudia Wells, Euan Ritchie, « When the data doesn’t tell the full story: improving gender-responsive climate finance », Development Initiatives Blog, novembre 2023.
- Shoshana Zuboff, L’âge du capitalisme de surveillance, Editions Zulma, octobre 2020.
- The Economist, « The world’s most valuable resource is no longer oil, but data », mai 2017.
- Nick Couldry, Ulises A. Mejias, « Making data colonialism liveable: how might data’s social order be regulated? », Internet Policy Review, 8(2), mai 2018.
- Abeba Birhane, « Algorithmic Colonization of Africa », Imagining AI: How the World Sees Intelligent Machines, Oxford Academic, mai 2023.
- Marion Douet, « Au Kenya, des « entraîneurs » de ChatGPT s’élèvent contre leurs conditions de travail », Le Monde, octobre 2023.
- Louise André-Williams, « De l’argent contre des données biométriques : la start-up américaine qui profite de la misère », Médiapart, mars 2024.
- Stephen Chacha, Bill Anderson, « Digital Compacts: Global ideals, regional realities », Development Initiatives, septembre 2024.
- Siddharth Peter de Souza, Hellen Mukiri Smith, Linnet Taylor, « Decolonial Data Law and Governance », Technology and Regulation, 2024, 1-11, 2024.
- CartONG, « Au-delà des chiffres : concilier innovation, éthique et impact », octobre 2024.
- Linda Raftree, « How can we apply feminist frameworks to AI governance? », MERL Tech, septembre 2023.
- Bernard Sabiti, Bill Anderson & Sam Wozniak, « The data side of leaving no one behind », Development Initiatives, septembre 2021.
- « Principles for Digital Development ».
- Global Partnership for Sustainable Development Data, « Inclusive Data Charter », 2018.
- Data Values project, « The #DataValues Manifesto: Demanding a fair data future », 2021.
- WeRobotics, « Here’s How We Expanded Locally-Led Action to Shift the Power », mars 2022.
- CartONG, « Au-delà des chiffres : concilier innovation, éthique et impact », octobre 2024.
- Cf. les recommandations de l’étude : CartONG, « Au-delà des chiffres : concilier innovation, éthique et impact », octobre 2024.
Pagination
P. 52-59