Cadrage

Phase du projet

Identifiez la phase du projet dans laquelle vous vous trouvez actuellement. 

Cadrage

Solutions et technologies numériques utilisées

Identifiez la phase du projet dans laquelle vous vous trouvez actuellement. 

Cadrage

Solutions numériques

Identifiez la phase du projet dans laquelle vous vous trouvez actuellement. 

Cadrage

Activités numériques

Identifiez la phase du projet dans laquelle vous vous trouvez actuellement. 

Activités liées aux données

Responsabilité des données

Cette section concerne les risques pour les droits humains associés à la collecte, au stockage et au traitement des données à caractère personnel.

Activités liées aux données

Manipulation responsable des données

Cette section concerne les risques pour les droits humains associés à la collecte, au stockage et au traitement des données à caractère personnel.

Activités liées aux données

Évaluation des impacts sur la vie privée

Cette section concerne les risques pour les droits humains associés à la collecte, au stockage et au traitement des données à caractère personnel.

Activités liées aux données

Données sensibles

Cette section concerne les risques pour les droits humains associés à la collecte, au stockage et au traitement des données à caractère personnel.

Activités liées aux données

Consentement éclairé

Cette section concerne les risques pour les droits humains associés à la collecte, au stockage et au traitement des données à caractère personnel.

Activités liées aux données

Consentement éclairé au traitement des données

Cette section concerne les risques pour les droits humains associés à la collecte, au stockage et au traitement des données à caractère personnel.

Activités liées aux données

Minimisation des données

Cette section concerne les risques pour les droits humains associés à la collecte, au stockage et au traitement des données à caractère personnel.

Activités liées aux données

Données anonymisées

Cette section concerne les risques pour les droits humains associés à la collecte, au stockage et au traitement des données à caractère personnel.

Activités liées aux données

Cybersécurité

Cette section concerne les risques pour les droits humains associés à la collecte, au stockage et au traitement des données à caractère personnel.

Intelligence artificielle, processus décisionnel automatisé et apprentissage automatique

Application d’intelligence artificielle

The section includes questions around human rights risks related to Artificial Intelligence, automated decision-making and machine learning (AI for short).

Intelligence artificielle, processus décisionnel automatisé et apprentissage automatique

Biais dans les jeux de données

The section includes questions around human rights risks related to Artificial Intelligence, automated decision-making and machine learning (AI for short).

Intelligence artificielle, processus décisionnel automatisé et apprentissage automatique

Résultats biaisés

The section includes questions around human rights risks related to Artificial Intelligence, automated decision-making and machine learning (AI for short).

Intelligence artificielle, processus décisionnel automatisé et apprentissage automatique

Analyse selon le genre

The section includes questions around human rights risks related to Artificial Intelligence, automated decision-making and machine learning (AI for short).

Intelligence artificielle, processus décisionnel automatisé et apprentissage automatique

Tests après le déploiement

The section includes questions around human rights risks related to Artificial Intelligence, automated decision-making and machine learning (AI for short).

Analyse des risques

Profil de risque du projet

Cette section aide à identifier le contexte de risque du projet ou de la solution numérique. 

Thèmes liés au contexte

Législation sur la protection des données dans le pays du projet

Les questions de cette section portent sur l’environnement et sur le contexte général du lieu où le projet ou la solution numérique sera mis en œuvre ou utilisé.

Thèmes liés au contexte

Enseignements tirés de projets similaires

Les questions de cette section portent sur l’environnement et sur le contexte général du lieu où le projet ou la solution numérique sera mis en œuvre ou utilisé.

Thèmes liés au contexte

Impacts sur les droits humains de projets antérieurs

Les questions de cette section portent sur l’environnement et sur le contexte général du lieu où le projet ou la solution numérique sera mis en œuvre ou utilisé.

Thèmes liés au contexte

Impacts sur les droits humains de projets antérieurs

Les questions de cette section portent sur l’environnement et sur le contexte général du lieu où le projet ou la solution numérique sera mis en œuvre ou utilisé.

Conséquences imprévues

Conséquences imprévues

Groupes marginalisés

Groupes marginalisés

Déterminez si le projet ou la solution a des impacts sur les groupes marginalisés, qui sont particulièrement sensibles aux risques pour les droits humains. 

Groupes marginalisés

Détenteur·rice·s de droits potentiellement affecté·e·s

Déterminez si le projet ou la solution a des impacts sur les groupes marginalisés, qui sont particulièrement sensibles aux risques pour les droits humains. 

Accessibilité

Utilisateur·rice·s individuel·le·s

Déterminez si le projet ou la solution est accessible à ses utilisateur·rice·s. 

Accessibilité

Accessibilité

Déterminez si le projet ou la solution est accessible à ses utilisateur·rice·s. 

Accessibilité

Suivi

Déterminez si le projet ou la solution est accessible à ses utilisateur·rice·s. 

Implication des parties prenantes

Concevoir avec les gens

Cette section concerne les échanges avec les parties prenantes au sujet des impacts potentiels du projet ou de la solution et de la résolution ou non de leurs problèmes. 

Implication des parties prenantes

Échange sur les impacts potentiels

Cette section concerne les échanges avec les parties prenantes au sujet des impacts potentiels du projet ou de la solution et de la résolution ou non de leurs problèmes. 

Implication des parties prenantes

Consultation de détenteur·rice·s de droits

Cette section concerne les échanges avec les parties prenantes au sujet des impacts potentiels du projet ou de la solution et de la résolution ou non de leurs problèmes. 

Implication des parties prenantes

Échanges avec des détenteur·rice·s de droits

Cette section concerne les échanges avec les parties prenantes au sujet des impacts potentiels du projet ou de la solution et de la résolution ou non de leurs problèmes. 

Implication des parties prenantes

Échanges avec des détenteur·rice·s de droits

Cette section concerne les échanges avec les parties prenantes au sujet des impacts potentiels du projet ou de la solution et de la résolution ou non de leurs problèmes. 

Transparence et rapports

Établissement de rapports

Transparence et rapports

Établissement de rapports

Accès aux voies de recours

Recours

Progression

0%

Où vous situez-vous dans votre projet ?

Sélectionnez «dépistage et diligence raisonnable » ou « suivi » si vous utilisez cet outil pour mettre l’accent sur une relation avec un·e client·e qui développe ou utilise des solutions numériques. Sélectionnez « utilisation prévue » ou « utilisation actuelle » si vous vous concentrez sur une solution ou un outil numérique utilisé par votre équipe ou par votre institution. Sélectionnez une option pour afficher des commentaires sur la manière dont l’outil peut être utilisé dans ce cas particulier.

Commentaire - Détection et diligence raisonnable

Si vous utilisez cet outil pendant la phase de détection et de diligence raisonnable en lien avec une entreprise qui développe des solutions numériques, vous pouvez vous en servir pour déterminer les risques pour les droits humains auxquels l’entreprise pourrait être exposée. 

Commentaire - Suivi

Si vous vous trouvez actuellement dans la phase de suivi en lien avec une entreprise qui développe des solutions numériques, vous pouvez utiliser l’outil pour identifier les risques associés à ces solutions et les mesures d’atténuation susceptibles d’être utilisées. 

Commentaire - Utilisation prévue d’une solution numérique

Si vous prévoyez d’utiliser une solution numérique au sein de votre équipe ou de votre organisation, l’outil peut servir à éviter les risques pour les droits humains associés à cette solution. 

Commentaire - Utilisation actuelle d’une solution numérique

Si vous utilisez actuellement une solution numérique au sein de votre équipe ou de votre organisation, l’outil peut vous servir à identifier ses impacts potentiels sur les droits humains et à alimenter le processus décisionnel relatif aux mesures à prendre pour faire face à ces impacts. 

Exemple – phase de détection et de diligence raisonnable 

Par exemple, si vous envisagez actuellement d’investir dans une entreprise qui développe des solutions de fintech (technologie financière) ou de lui accorder un prêt. Si la solution cible des individus, il sera important d’envisager dès ce stade précoce les risques potentiels du projet sur les droits humains afin que d’éventuelles mesures préventives puissent être prises. 

Exemple – phase de suivi 

Si vous avez déjà investi dans une entreprise qui développe des solutions de fintech (technologie financière) ou si vous lui avez accordé un prêt. S’il est prévu que la solution de fintech ait des impacts sur des individus, par exemple en raison de l’évaluation automatisée du risque de crédit, il est important d’appliquer une vision large des droits humains au projet afin de prendre des mesures préventives pour éviter les futurs impacts potentiels ou atténuer les éventuels impacts qui se sont déjà produits (tels que des impacts sur le droit à l’égalité et à la non-discrimination ou sur le droit à un niveau de vie suffisant). 

Exemple – « Utilisation prévue d’un outil numérique » ou « Utilisation actuelle d’un outil numérique » 

Bien qu’un projet d’énergie renouvelable en tant que tel ne soit probablement pas considéré comme un projet numérique, il peut néanmoins prévoir l’utilisation de solutions numériques à des fins spécifiques. Il peut, par exemple, être demandé que le·la promoteur·rice du projet utilise une plateforme de réseaux sociaux ou de communication numérique pour dialoguer avec les parties prenantes locales. Dans ce cas, l’option correcte serait de sélectionner « Utilisation prévue d’un outil numérique » ou « Utilisation actuelle d’un outil numérique » et d’utiliser la vérification des droits numériques pour évaluer les éventuels risques pour les droits humains associés à l’utilisation de cet outil. 

Which of the following digital solutions are developed by the client?

Sélectionnez toutes les options applicables. Pour en savoir plus sur les réponses possibles, sélectionnez l’option envisagée et lisez le commentaire.

Commentaire - Application pour Smartphone

Les applications pour Smartphone peuvent être utilisées à de nombreuses fins, notamment pour les programmes d’e-santé, les plateformes de fintech, les programmes de dépistage du COVID-19, les solutions d’e-gouvernance, etc. Selon sa finalité, l’application peut inclure différentes activités de traitement des données, ainsi que des modèles d’intelligence artificielle appliqués aux données. 

Commentaire - Outil de formation en ligne

Bien que ces outils soient rarement à haut risque, la formation en ligne et les autres formes d’apprentissage virtuel et numérique s’accompagnent souvent de collecte de données. Il peut s’agir de la collecte d’informations personnelles en cas de contrôle d’accès à la plateforme ou de la collecte d’autres données liées à des réponses spécifiques, à des temps de réponse, etc. Les données des participant·e·s et des utilisateur·rice·s peuvent également être analysées et traitées de différentes manières. 

Commentaire - Appareil de l’Internet des objets

Les appareils de l’Internet des objets (IdO) facilitent la collecte en temps réel, le partage et l’analyse de données. Lorsque plusieurs appareils de l’Internet des objets sont connectés, l’analyse des données provenant de multiples sources peut s’avérer complexe. Ces appareils peuvent être utilisés pour le suivi à distance, la prédiction des besoins de maintenance, la gestion des ressources et bien plus encore. 

Commentaire - Plateforme de communication ou sociale numérique (y compris les réseaux sociaux)

Les plateformes de communication numérique sont souvent synonymes d’une quantité importante de traitement des données des utilisateur·rice·s. Ces données peuvent être collectées, stockées et partagées et l’utilisation d’une plateforme peut également faciliter l’analyse des données à grande échelle grâce à l’utilisation de modèles d’intelligence artificielle, de méthodes d’apprentissage automatique, etc. Enfin, une plateforme de communication numérique fait également usage de données générées par les utilisateur·rice·s. Des exemples d’utilisation des plateformes de communication numérique comprennent le recours aux réseaux sociaux pour solliciter des acteurs de la société civile, les plateformes de médecine en ligne, etc. 

Commentaire - Services de cloud

L’utilisation de services de cloud est naturellement associée à différentes formes de traitement des données, telles que la collecte et le stockage. Cela signifie qu’une attention particulière doit être portée aux réglementations et aux normes de protection des données dans le contexte concerné. 

Commentaire - Solutions d’intelligence artificielle

Les outils d’intelligence artificielle vont des simples systèmes de priorisation automatisée jusqu’à l’analyse automatisée, complexe et fondée sur les données de services publics (utilisation de l’eau, etc.). Les outils eux-mêmes ont besoin de données qui peuvent ensuite faire l’objet d’un traitement. Ils peuvent donc présenter des problèmes au niveau de la collecte, du partage et du traitement des données, ainsi que des problèmes spécifiques relatifs à l’application de l’intelligence artificielle en elle-même. 

Commentaire - Solutions de fintech

Les solutions de fintech (technologie financière) sont des solutions numériques visant généralement à bousculer le secteur financier au moyen de technologies numériques. Il peut s’agir de transferts d’argent par téléphone portable, d’algorithmes de notation des risques de crédit, de chatbots pour « trier » les client·e·s, etc. Les solutions de fintech collectent ou traitent souvent de grandes quantités de données à caractère personnel et, sachant que l’accès au financement peut être en jeu, il est également important de tenir compte, par exemple, des risques de discrimination. 

Commentaire - Systèmes d’identification numériques

Selon la Commission économique pour l’Afrique des Nations unies, une identité numérique « est un moyen d’identifier ou d’authentifier l’identité d’un individu, à la fois en ligne et hors ligne. L’identité numérique peut être créée à partir d’informations trouvées sur l’identité légale d’un identifiant émis par le gouvernement et peut être utilisée pour reconnaître avec précision un individu afin de lui fournir ses droits / émoluments. Une identité numérique peut également être créée pour fournir à une personne un accès à des services commerciaux numérisés, tels que le commerce électronique, l’administration électronique, la banque numérique, etc. » 

Les identités numériques sont associées à la collecte et à la manipulation de grandes quantités de données sensibles, ce qui implique des risques pour le respect de la vie privée. De nombreux exemples montrent, en outre, que le déploiement de l’identité numérique a laissé de nombreux groupes marginalisés sans accès aux services publics, entraînant toute une série d’impacts sur les droits humains. 

Solutions et technologies numériques utilisées par la GIZ 

La GIZ met en œuvre plusieurs projets dans lesquels les technologies de l’information et de la communication jouent un rôle important. Il s’agit, par exemple, de programmes de formation en ligne au Honduras, en Albanie et au Pakistan, d’une université autochtone en réseau en Bolivie, d’un programme d’appui aux start-ups numériques et aux start-ups de développement d’applications au Nigéria, au Kenya, en Tunisie et au Yémen ou de services financiers numériques au Ghana, en Jordanie et au Mozambique. 

De plus amples informations sont disponibles ici. 

Projet Fair Forward de la GIZ 

L’initiative « FAIR Forward – L’intelligence artificielle pour tous » vise à combler cette lacune et à réduire les inégalités sociales en offrant un accès équitable et ouvert aux données linguistiques. Le projet a déjà enregistré quelques premiers succès au Rwanda. Dans ce pays, des millions de personnes pourront bientôt utiliser un chatbot pour recevoir des conseils sur le coronavirus dans leur langue locale. 

De plus amples informations sont disponibles ici. 

Parmi les solutions numériques suivantes, lesquelles utilisez-vous ou prévoyez-vous d'utiliser ?

Sélectionnez toutes les options applicables. Pour plus d'informations sur les options de réponse, sélectionnez l'option pertinente et consultez le commentaire.

Commentaire - Application pour Smartphone

Les applications pour smartphones peuvent être utilisées à des fins très diverses, notamment pour des programmes de santé en ligne, des plateformes de technologie financière, des programmes de suivi de Covid-19, des solutions de gouvernance en ligne, et bien d’autres encore. En fonction des objectifs de l’application, celle-ci peut inclure des activités importantes de traitement des données ainsi que des modèles d’intelligence artificielle appliqués aux données.

Commentaire - Outil de formation en ligne

Bien que ces outils soient rarement à haut risque, la formation en ligne et les autres formes d’apprentissage virtuel et numérique s’accompagnent souvent de collecte de données. Il peut s’agir de la collecte d’informations personnelles en cas de contrôle d’accès à la plateforme ou de la collecte d’autres données liées à des réponses spécifiques, à des temps de réponse, etc. Les données des participant·e·s et des utilisateur·rice·s peuvent également être analysées et traitées de différentes manières. 

Commentaire - Appareil de l’Internet des objets

Les appareils de l’Internet des objets (IdO) facilitent la collecte en temps réel, le partage et l’analyse de données. Lorsque plusieurs appareils de l’Internet des objets sont connectés, l’analyse des données provenant de multiples sources peut s’avérer complexe. Ces appareils peuvent être utilisés pour le suivi à distance, la prédiction des besoins de maintenance, la gestion des ressources et bien plus encore. 

Commentaire - Plateforme de communication ou sociale numérique (y compris les réseaux sociaux)

Les plateformes de communication numérique sont souvent synonymes d’une quantité importante de traitement des données des utilisateur·rice·s. Ces données peuvent être collectées, stockées et partagées et l’utilisation d’une plateforme peut également faciliter l’analyse des données à grande échelle grâce à l’utilisation de modèles d’intelligence artificielle, de méthodes d’apprentissage automatique, etc. Enfin, une plateforme de communication numérique fait également usage de données générées par les utilisateur·rice·s. Des exemples d’utilisation des plateformes de communication numérique comprennent le recours aux réseaux sociaux pour solliciter des acteurs de la société civile, les plateformes de médecine en ligne, etc. 

Commentaire - Services de cloud

L’utilisation de services de cloud est naturellement associée à différentes formes de traitement des données, telles que la collecte et le stockage. Cela signifie qu’une attention particulière doit être portée aux réglementations et aux normes de protection des données dans le contexte concerné. 

Commentaire - Solutions d’intelligence artificielle

Les outils d’intelligence artificielle vont des simples systèmes de priorisation automatisée jusqu’à l’analyse automatisée, complexe et fondée sur les données de services publics (utilisation de l’eau, etc.). Les outils eux-mêmes ont besoin de données qui peuvent ensuite faire l’objet d’un traitement. Ils peuvent donc présenter des problèmes au niveau de la collecte, du partage et du traitement des données, ainsi que des problèmes spécifiques relatifs à l’application de l’intelligence artificielle en elle-même. 

Commentaire - Solutions de fintech

Les solutions de fintech (technologie financière) sont des solutions numériques visant généralement à bousculer le secteur financier au moyen de technologies numériques. Il peut s’agir de transferts d’argent par téléphone portable, d’algorithmes de notation des risques de crédit, de chatbots pour « trier » les client·e·s, etc. Les solutions de fintech collectent ou traitent souvent de grandes quantités de données à caractère personnel et, sachant que l’accès au financement peut être en jeu, il est également important de tenir compte, par exemple, des risques de discrimination. 

Commentaire - Systèmes d’identification numériques

Selon la Commission économique pour l’Afrique des Nations unies, une identité numérique « est un moyen d’identifier ou d’authentifier l’identité d’un individu, à la fois en ligne et hors ligne. L’identité numérique peut être créée à partir d’informations trouvées sur l’identité légale d’un identifiant émis par le gouvernement et peut être utilisée pour reconnaître avec précision un individu afin de lui fournir ses droits / émoluments. Une identité numérique peut également être créée pour fournir à une personne un accès à des services commerciaux numérisés, tels que le commerce électronique, l’administration électronique, la banque numérique, etc. » 

Les identités numériques sont associées à la collecte et à la manipulation de grandes quantités de données sensibles, ce qui implique des risques pour le respect de la vie privée. De nombreux exemples montrent, en outre, que le déploiement de l’identité numérique a laissé de nombreux groupes marginalisés sans accès aux services publics, entraînant toute une série d’impacts sur les droits humains. 

  • Voir Banque mondiale, “Digital Development“, pour des exemples d’investissements.
  • Voir par exemple la stratégie numérique du ministère fédéral allemand de la coopération économique et du développement.

 

 

Technologies et solutions numériques utilisées par la GIZ

La GIZ met en œuvre plusieurs projets dans lesquels les technologies de l’information et de la communication jouent un rôle important. Ces projets vont des programmes d’apprentissage en ligne au Honduras, en Albanie et au Pakistan à une université autochtone en réseau en Bolivie, en passant par le soutien aux start-up numériques et le développement d’applications au Nigeria, au Kenya, en Tunisie et au Yémen, ou encore les services financiers numériques au Ghana, en Jordanie et au Mozambique.

Pour en savoir plus, cliquez ici.

Projet Fair Forward de la GIZ

L’initiative “FAIR Forward – Artificial Intelligence for All” vise à combler ce fossé et à réduire les inégalités sociales en offrant un accès équitable et ouvert aux données linguistiques. Le projet a déjà connu quelques premiers succès au Rwanda. Des millions de personnes pourront bientôt utiliser un chatbot pour recevoir des conseils sur le coronavirus dans leur langue locale.

Pour en savoir plus, cliquez ici.

 

 

Les activités numériques suivantes sont-elles incluses dans le projet ou dans la solution ?

L’expression « activités numériques » désigne les activités sous-jacentes de la technologie ou de la solution. Pour en savoir plus sur les réponses possibles, sélectionnez l’option envisagée et lisez le commentaire associé.

Commentaire - Collecte de données

Cette option implique que la composante du projet est développée aux fins de collecter numériquement des données. Il peut notamment s’agir de projets axés sur la participation du public, ce qui signifie que les opinions individuelles exprimées sur les pratiques du gouvernement sont reliées aux informations d’identification de la personne. 

La collecte de données peut entraîner toute une série d’impacts, le plus évident portant sur le droit au respect de la vie privée si, par exemple, les personnes concernées n’ont pas donné leur consentement. Toutefois, la « menace » associée à la collecte de données sans consentement peut également avoir d’autres impacts, par exemple, sur la liberté d’expression sachant que les personnes ne voudront pas donner leur avis si elles savent que ces données sont collectées. 

Commentaire - Stockage des données

Cette option implique que la composante du projet est développée aux fins de collecter numériquement des données. Il peut notamment s’agir de projets axés sur la participation du public, ce qui signifie que les opinions individuelles exprimées sur les pratiques du gouvernement sont reliées aux informations d’identification de la personne. 

La collecte de données peut entraîner toute une série d’impacts, le plus évident portant sur le droit au respect de la vie privée si, par exemple, les personnes concernées n’ont pas donné leur consentement. Toutefois, la « menace » associée à la collecte de données sans consentement peut également avoir d’autres impacts, par exemple, sur la liberté d’expression sachant que les personnes ne voudront pas donner leur avis si elles savent que ces données sont collectées. 

Commentaire - Modification, traitement ou utilisation des données

Cette activité concerne la manière dont les données sont utilisées. Même s’il arrive que rien ne soit fait des données en dehors de leur stockage, la collecte de données numériques est souvent associée à une utilisation des données, par exemple pour analyser des tendances ou faire des prévisions. Exemple : analyse de grandes quantités de données pour prévoir les épidémies dans un pays. 

La modification, le traitement et l’utilisation des données peuvent avoir des conséquences majeures sur les droits humains en fonction du contexte. Ces opérations peuvent notamment conduire à utiliser l’analyse de vastes quantités de données pour faire des prédictions qui s’avèrent discriminatoires. Autre exemple : si des centres de santé utilisent des données pour améliorer leur efficacité, quelques erreurs mineures peuvent avoir des impacts importants sur le droit à la santé. 

Commentaire - Partage des données

Le partage de données consiste simplement à transmettre les données collectées à d’autres personnes. Cela se produit souvent dans la recherche, lorsque les données utilisées pour des études sont mises à la disposition d’autres chercheur·euse·s. 

Le principal risque à ce niveau concerne les impacts sur le droit à la vie privée si la personne n’a pas donné son consentement éclairé. En outre, les données partagées peuvent être utilisées à des fins telles que la publicité ciblée, qui peuvent, entre autres, s’avérer discriminatoires. 

Commentaire - Hébergement et/ou partage du contenu généré par l’utilisateur·rice

Cela se produit lorsqu’une plateforme est mise à la disposition de certain·e·s utilisateur·rice·s et que ceux·celles-ci génèrent du contenu. Exemples : les plateformes de formation en ligne sur lesquelles les participant·e·s développent du contenu numérique ou les plateformes de communication numériques destinées à l’e-participation. 

Le simple fait d’héberger ou de partager du contenu peut également avoir des impacts. Si des discours de haine sont hébergés sur une plateforme, cela peut avoir des conséquences négatives sur le droit à la santé mentale. Si des contenus discriminatoires sont partagés, cela peut évidemment avoir des impacts sur la protection contre la discrimination. 

Commentaire - Intelligence artificielle/apprentissage automatique

Bien qu’il n’existe pas de définition commune de l’intelligence artificielle, celle-ci fait généralement référence aux sciences et aux techniques associées à la fabrication de machines intelligentes, particulièrement de programmes informatiques intelligents, tels que la reconnaissance vocale et faciale, les voitures autonomes ou les algorithmes d’apprentissage automatique qui permettent de prévoir les tendances météorologiques, les sécheresses et même l’activité criminelle. 

L’intelligence artificielle est associée à de nombreuses utilisations et peut donc avoir de multiples impacts, par exemple : des impacts sur le droit à un procès équitable lorsque l’intelligence artificielle est utilisée dans les systèmes judiciaires ;des impacts sur le droit à l’égalité et à la liberté si les résultats sont biaisés au détriment de groupes marginalisés ; des impacts sur le droit à la santé si des plateformes d’e-médecine fondées sur l’intelligence artificielle prennent des décisions médiocres ; des impacts sur le droit à un niveau de vie suffisant si l’approbation rapide (fondée sur l’intelligence artificielle) des prestations de chômage limite l’accès de certains groupes à ces prestations ; des impacts sur le droit à la vie privée et sur de nombreux autres droits pour les applications de traçage des cas contacts du COVID-19. 

Commentaire - Je ne sais pas

Il est important que le personnel du projet comprenne la technologie qui sous-tend les composantes numériques afin de pouvoir évaluer leurs impacts. L’outil vous permet néanmoins de procéder, mais sans poser de questions précises sur les activités numériques de votre outil numérique. 

Explications : 

Autres ressources : 

Par exemple, un projet axé sur l’amélioration des processus agricoles dans un pays d’Asie du Sud qui a bénéficié du financement d’une IFD. Le projet aide les petit·e·s agriculteur·rice·s locaux·ales à améliorer leurs rendements tout en utilisant moins d’eau. En raison de la pandémie de COVID 19, certaines interactions avec les leaders communautaires ont eu lieu par l’intermédiaire de plateformes numériques. La plateforme numérique utilisée est ouverte à tous ceux qui souhaitent participer à ces sessions de consultation et de nombreux leaders communautaires l’ont rejoint. L’utilisation de la plateforme numérique implique les activités numériques suivantes : 

  • Collecte de données – les utilisateur·rice·s doivent indiquer leur nom ; les données collectées concernent le moment où un·e utilisateur·rice se connecte, celui où il·elle se déconnecte et ce qu’il·elle écrit sur la plateforme. 
  • Partage de données – les données sont partagées entre tou·e·s les partenaires du projet, ce qui permet de suivre le succès de l’implication. 
  • Stockage des données – les données ci-dessus sont stockées pour suivre la réussite au fil du temps. 
  • Hébergement et partage du contenu généré par les utilisateur·rice·s – les commentaires des participant·e·s sont considérés comme du contenu généré par les utilisateur·rice·s. 

Les activités suivantes ne sont pas concernées : 

  • Modification, traitement ou utilisation des données – les données sont saisies et partagées, mais aucun autre traitement des données n’est réalisé sur la plateforme. 
  • Intelligence artificielle/apprentissage automatique – non pertinent dans ce cas puisqu’aucun traitement automatisé des données n’a lieu. 
Caution - Non

Si votre réponse indique qu’aucune des activités susmentionnées n’a lieu, les conseils s’arrêtent là. Cela peut être le cas, par exemple, si votre projet porte sur les technologies numériques, mais qu’il n’utilise pas lui-même ces technologies (par exemple, l’éducation en face-à-face sur la culture numérique). N’hésitez pas à cocher la case “autre” si vous souhaitez poursuivre les autres étapes de l’outil.

Qui est responsable du traitement des données à caractère personnel au sein de votre projet numérique ?

Les responsabilités relatives au traitement et à la manipulation des données à caractère personnel doivent être définies dès le début de votre projet numérique en raison de leur importance pour la conformité au RGPD, la mise en application des exigences en matière de protection des données et les droits des personnes concernées. Le·la responsable définit les moyens et la finalité du traitement des données à caractère personnel au nom de votre organisation.

Recommandation - Votre organisation

Si votre organisation est responsable du traitement et que les données à caractère personnel sont traitées par votre organisation, par un·e partenaire ou par un·e prestataire externe, veuillez consulter l’unité de votre organisation chargée de gérer la confidentialité des données.

Recommandation - Prestataire externe ou partenaire

Si un·e prestataire externe ou un·e partenaire traite les données à caractère personnel de manière indépendante, il relève de votre responsabilité de garantir la protection des données à caractère personnel au moyen d’arrangements contractuels. Si vous avez besoin d’aide, contactez l’unité de votre organisation chargée de gérer la confidentialité des données.

Recommandation - Je ne sais pas

Si vous ne savez pas qui assume les responsabilités au sein de votre projet ou comment elles devraient être réparties, veuillez consulter l’unité de votre organisation chargée de gérer la confidentialité des données.

La solution numérique a-t-elle été évaluée en mettant l’accent sur une utilisation responsable des données et sur les risques en matière de protection des données ?

De manière générale, c’est le cas si les exigences du règlement général sur la protection des données de l’Union européenne ont été appliquées ou si votre organisation possède des « lignes directrices en matière de responsabilité des données » spécifiques et contextualisées censées traiter ce problème. Si vous n’êtes pas sûr·e de la réponse, consultez ceux de vos collègues ou du personnel des client·e·s qui sont susceptibles d’être impliqué·e·s dans ce processus.

Recommandation - Oui

Relisez et, si nécessaire, mettez à jour l’évaluation initiale, puis continuez en faisant particulièrement attention à l’implication des parties prenantes et aux groupes marginalisés. 

Recommandation - Non

Vérifiez que la solution est évaluée le plus rapidement possible du point de vue de la responsabilité des données. 

Recommandation - Je ne sais pas

Consultez le·la client·e ou les autres personnes impliquées dans le développement ou l’utilisation de la solution numérique et déterminez si une telle évaluation a eu lieu. 

Une évaluation des impacts sur le respect de la vie privée (p. ex. évaluation des impacts sur la protection des données, etc.) a-t-elle été réalisée en lien avec la solution numérique ?

En fonction du projet ou de la solution numérique concerné, vous avez peut-être déjà été dans l’obligation de réaliser certaines évaluations des impacts, telles que des évaluations des impacts sur le respect de la vie privée ou sur la protection des données. Pour en savoir plus, consultez les ressources.

Commentaire - Oui

Relisez les évaluations préalablement réalisées et déterminez si les risques pour les droits humains au sens large sont suffisamment pris en compte. Si nécessaire, actualisez l’évaluation. 

Principes et droits humains potentiellement affectés - Pas encore. En cours.

Droit au respect de la vie privée 

Recommandation - Pas encore. En cours.

Relisez l’évaluation prévue des impacts sur le respect de la vie privée et voyez comment mieux intégrer les droits humains à l’évaluation. 

Principes et droits humains potentiellement affectés - Non

Droit au respect de la vie privée 

Recommandation - Non

Déterminez si vous devez réaliser une évaluation des impacts sur le respect de la vie privée et, si tel est le cas, effectuez l’évaluation le plus rapidement possible. N’oubliez pas de tenir compte des droits humains au sens large lors de l’évaluation. 

Commentaire - Non

Même si le projet ou la composante en question n’ont pas besoin d’une telle évaluation, il peut s’avérer utile d’en utiliser la structure pour guider les évaluations des impacts potentiels sur les droits humains. 

Recommandation - Je ne sais pas

Consultez les partenaires du projet et les autres personnes impliquées dans le projet ou la solution numérique et voyez si une forme d’évaluation des impacts sur le respect de la vie privée a été réalisée. 

Est-ce que la solution numérique nécessite la collecte, le stockage ou le traitement de données à caractère personnel sensibles ?

Les données sensibles comprennent (selon le règlement général sur la protection des données de l’Union européenne) :

- données à caractère personnel qui révèlent l’origine raciale ou ethnique, les opinions politiques, les croyances religieuses philosophiques, l’appartenance à un syndicat
- données génétiques, données biométriques utilisées exclusivement pour identifier une personne
- données relatives à la santé
- données concernant la vie sexuelle ou l’orientation sexuelle d’un individu

Remarque importante : des algorithmes peuvent être utilisés pour générer des données à caractère personnel sensibles à partir de données non sensibles.

Principes et droits humains potentiellement affectés - Oui

Droit au respect de la vie privée 

Recommandation - Oui

Le traitement de données sensibles signifie qu’il est fortement recommandé d’adopter une approche fondée sur les droits humains pour le projet, en prenant comme point de départ les personnes potentiellement affectées. Vérifiez qu’un tel processus est en place et amendez les analyses d’impact existantes. 

Commentaire - Non

Si aucune donnée sensible n’est collectée, stockée ou traitée, le risque d’impact sur les droits humains est limité. 

Commentaire - Je ne sais pas

Consultez les autres ressources et demandez au·à la client·e et aux autres personnes impliquées dans le développement ou l’utilisation de la solution numérique si des données sensibles sont traitées. 

Une entreprise qui développe une plateforme d’e-santé innovante incluant des services de « télésanté » a reçu des financements d’une banque de financement du développement car la plateforme a promis d’offrir l’accès aux services de santé à des populations mal desservies. La plateforme d’e-santé collecte, stocke et partage des données de santé à caractère personnel, c’est-à-dire des données sensibles, ce qui va l’obliger à porter une attention accrue aux risques pour les droits humains, notamment sur le droit à la santé et à la non-discrimination.

Toutes les personnes ont-elles été informées du traitement de leurs données et ont-elles donné leur consentement éclairé à ce traitement ?

Le traitement des données fait référence aux opérations exécutées sur les données à caractère personnel telles que la collecte, le stockage, l’utilisation ou la diffusion (conformément au règlement général sur la protection des données de l’Union européenne).

Les personnes ne comprennent pas toujours comment leurs données sont traitées et ont l’impression de ne pas avoir de contrôle sur ces opérations. Une simple case à cocher numérique pour donner son consentement ne signifie pas que la personne a été informée et qu’elle comprend parfaitement ce à quoi elle consent.

Pour les applications à moyen ou à haut risque des composantes numériques, il est particulièrement important de vérifier que les personnes ont parfaitement compris quelles données sont collectées.

Commentaire - Oui

Même s’il est primordial d’avoir obtenu le consentement, il est également important d’évaluer si ce consentement est libre et éclairé. Dans certains cas, il est possible de douter que le consentement ait été donné librement, particulièrement si la possibilité de refuser son consentement n’était pas une option réaliste en pratique. 

Principes et droits humains potentiellement affectés - Non

Droit à la vie privée, droit à la liberté d’information et droit de participation 

Recommandation - Non

Étudiez les mesures que vous avez mises en œuvre pour informer les personnes de l’utilisation qui est faite de leurs données, ainsi que les procédures en place pour leur permettre de donner leur consentement. Échangez avec les personnes concernées pour voir comment ces mesures peuvent être améliorées. Si le consentement éclairé ne peut pas être garanti, envisagez de cesser tout traitement des données à caractère personnel. 

Recommandation - Je ne sais pas

Échangez avec le·la client·e et avec les autres personnes impliquées dans le développement et l’utilisation de la solution numérique et demandez-leur si et comment (le cas échéant) le consentement éclairé à la collecte des données et aux autres formes de traitement a été obtenu. 

Comme de nombreuses organisations se sont mises à utiliser largement les outils de collaboration numériques pendant la pandémie de COVID-19, le traitement automatisé des données a lui aussi augmenté. Une organisation qui fait un usage croissant des plateformes de formation en ligne doit savoir quelles données sont collectées lorsque les utilisateur·rice·s utilisent la plateforme et doit vérifier qu’elle a bien expliqué aux utilisateur·rice·s les types d’informations qui seront traitées et qu’elle a obtenu leur consentement éclairé. 

Veuillez réfléchir à la façon dont le consentement éclairé a été obtenu.

Déterminez comment le consentement éclairé des personnes a été obtenu et notez-le. Il s’agit d’un exercice important pour bien réfléchir aux détails de la procédure.

  • Pour en savoir plus sur le consentement éclairé, voir le document « What is valid consent? » du Bureau de l’Information Commissioner au Royaume-Uni. 

La solution numérique respecte-t-elle strictement les principes de minimisation des données ?

La minimisation des données signifie que les données collectées, utilisées ou stockées doivent être adéquates, pertinentes et limitées à ce qui est strictement nécessaire à la réalisation des objectifs poursuivis. Lorsque les données ne sont pas minimisées, les risques pour le droit au respect de la vie privée augmentent.

Commentaire - Oui

Les risques relatifs au droit au respect de la vie privée ont été largement réduits. Évaluez régulièrement si la quantité et les types de données collectées et utilisées doivent être modifiés et si certaines données peuvent être supprimées. 

Principes et droits humains potentiellement affectés - Non

Droit au respect de la vie privée 

Recommandation - Non

Étudiez vos pratiques de traitement des données et vérifiez que les données sont minimisées, ce qui permet de réduire de manière significative les risques pour les droits humains. La minimisation des données peut, par exemple, consister à collecter des quantités limitées de données ainsi qu’à élaborer des clauses de caducité pour s’assurer que les données sont conservées pendant une durée limitée avant d’être supprimées. 

Commentaire - Je ne sais pas

Consultez le· client·e et les autres personnes impliquées dans le développement ou l’utilisation de la solution numérique pour évaluer si les données ont été ou doivent être minimisées. 

Considérez les exemples suivants : 

  1. Un service public de l’emploi « intelligent » envoie automatiquement aux demandeur·euse·s d’emploi un questionnaire général contenant des questions précises sur la santé qui ne concernent que certaines professions manuelles. Il serait inutile et excessif d’obtenir de telles informations de la part d’une personne ayant postulé à un travail de bureau. Les données doivent donc être minimisées dès le départ ou supprimées ultérieurement lorsqu’il s’avère qu’elles sont inutiles. 
  2. Une salle de classe en ligne est créée pour assurer l’enseignement à distance pendant la fermeture d’une école en raison du COVID-19. Les parents reçoivent un questionnaire général qui contient des questions de santé destinées à évaluer les problèmes d’accessibilité. Or, il s’avère que seuls certains handicaps sont concernés et qu’il serait excessif d’obtenir d’autres informations de santé. La collecte, l’utilisation et le stockage des données doivent donc être minimisés. 

Estimez-vous qu’il existe un risque que des données à caractère personnel anonymisées redeviennent identifiables ?

Par exemple, l’intelligence artificielle peut être utilisée pour réidentifier des « données individuelles » anonymisées en combinant une variété de sources et de points de données. Les risques sur le droit au respect de la vie privée peuvent ainsi perdurer, même une fois que les données ont été anonymisées.

Principes et droits humains potentiellement affectés - Oui

Droit au respect de la vie privée 

Recommandation - Oui

Commencez par déterminer si les données collectées et utilisées peuvent être encore plus minimisées. Recommencez régulièrement au fur et à mesure de l’évolution du projet car il est parfois possible d’identifier des données inutiles à des stades ultérieurs d’un projet. Ensuite, voyez si les données collectées peuvent être ou sont partagées avec des tiers, car cela accroît le risque de désanonymisation. 

Commentaire - Non

Ce risque existe souvent (voir d’autres références). Il est donc important de l’évaluer continuellement lorsque le partage de données avec des tiers est envisagé. 

Principes et droits humains potentiellement affectés - Je ne sais pas

Droit au respect de la vie privée 

Commentaire - Je ne sais pas

Voir les ressources pour en savoir plus sur la réidentification des données à caractère personnel. 

« Les applications d’intelligence artificielle peuvent être utilisées pour identifier et donc suivre des personnes sur différents appareils, à leur domicile, au travail et dans l’espace public. Par exemple, alors que des données à caractère personnel sont régulièrement (pseudo-)anonymisées au sein de jeux de données, il est possible d’utiliser l’intelligence artificielle pour les désanonymiser. La reconnaissance faciale est un autre moyen utilisé pour suivre et identifier les personnes. Elle a ainsi le potentiel de transformer les attentes d’anonymat dans l’espace public. » 

Avez-vous réfléchi à la sécurité des données qui sont collectées et partagées par l’intermédiaire de la solution numérique ?

La cybersécurité peut être définie comme « la préservation (par les politiques, la technologie et l’éducation) de la disponibilité, de la confidentialité et de l’intégrité des informations et de leur infrastructure sous-jacente afin d’améliorer la sécurité des personnes, en ligne et hors-ligne ».
- Groupe de travail « Un Internet libre et sûr » de la Coalition pour la liberté en ligne (FOC).

Commentaire - Oui

Vous avez pris en compte un aspect important de la protection du droit au respect de la vie privée et d’autres droits humains qui pourraient être menacés si des données à caractère personnel (et potentiellement sensibles) venaient à fuir. 

Recommandation - Non

Réfléchissez à la sécurité des données que vous collectez et que vous partagez au sein de votre projet ou par l’intermédiaire de votre solution. Vérifiez que des protections suffisantes sont en place pour garantir la sécurité des données. 

Commentaire - Je ne sais pas

Consultez le·la client·e et les autres personnes impliquées dans le développement ou l’utilisation de la solution numérique pour évaluer si les données collectées sont stockées en sécurité. 

À lire : 

 

Quel genre d’application d’IA est utilisé dans la solution numérique ?

Sélectionnez une option pour voir une description plus détaillée de l’application. Si votre projet ou votre solution utilise une autre forme d’application d’IA que celles indiquées, choisissez « Autre ».

Commentaire - Reconnaissance d’objet et d’image

Cette option concerne l’analyse de grands jeux de données qui vise à automatiser la reconnaissance, la classification et le contexte associés à une image ou à un objet. Elle comprend la reconnaissance faciale, mais également l’analyse de vastes quantités de photos satellites pour prévoir les schémas de migration. 

La reconnaissance d’objet et d’image risque d’avoir un impact négatif sur le droit au respect de la vie privée. Une attention particulière doit être portée aux jeux de données utilisés, aux méthodes de collecte de données et au fonctionnement de la technologie de reconnaissance. La technologie de reconnaissance faciale peut, par exemple, avoir des conséquences importantes sur le droit au respect de la vie privée, sur la liberté de réunion, sur le droit à un jugement équitable et sur de nombreux autres droits. 

Commentaire - Évaluation des risques

L’évaluation des risques consiste à analyser de vastes jeux de données pour identifier des tendances, recommander des mesures et, dans certains cas, déclencher des actions spécifiques. Parmi les exemples, citons la notation automatisée du risque de crédit par les banques, le risque de récidive dans un système judiciaire ou les risques d’inondation ou de phénomène météorologique extrême. 

Les évaluations des risques fondées sur l’IA font souvent des prévisions de risques basées sur des données historiques. Si les évaluations des risques précédentes ont été biaisées, les prévisions effectuées par l’application d’IA seront également biaisées, sauf si le biais est corrigé. Soyez particulièrement attentif si les évaluations des risques sont censées orienter des décisions susceptibles d’avoir des impacts significatifs sur les détenteur·rice·s de droits, car leurs résultats peuvent avoir des conséquences graves sur les droits humains, notamment si les évaluations des risques sont utilisées dans le système judiciaire ou pour la distribution ou non d’aides publiques. 

Commentaire - Optimisation des processus et automatisation du flux de travail

L’optimisation des processus et l’automatisation des flux de travail consistent à analyser de grands ensembles de données pour identifier des anomalies, regrouper des tendances, prévoir des résultats ou trouver des moyens d’optimiser et d’automatiser certains flux de travail. Les « chatbots intelligents » en sont un exemple puisqu’ils aident à déterminer ceux·celles des utilisateur·rice·s qui ont besoin d’une assistance accrue et ceux·celles qui peuvent être réorienté·e·s vers la FAQ d’un site Internet, et à identifier les patients prioritaires pour certaines opérations. 

Il est rare que l’optimisation des processus et l’automatisation des flux de travail présentent des risques significatifs pour les droits humains s’ils ne concernent que des tâches administratives. Toutefois, le même processus peut également être utilisé pour accélérer des décisions relatives à l’assistance sociale, à l’émission de permis ou à d’autres formes d’octroi de licences, qui peuvent toutes avoir des incidences négatives sur les droits humains. Certains problèmes peuvent également émerger en lien avec le droit d’accès à l’information et d’accès au recours sachant que le modèle d’IA sous-jacent peut être difficile à expliquer et à comprendre, ce qui rend la contestation difficile. 

Commentaire - Analyse du texte et de la parole

L’analyse du texte et de la parole consiste à analyser des jeux de données pour reconnaître, traiter et étiqueter du texte, de la parole ou de la voix et à faire des recommandations basées sur cet étiquetage. Elle comprend notamment les technologies de synthèse vocale qui aident les aveugles à accéder à du contenu écrit. 

Les impacts potentiels sur les droits humains de l’analyse du texte et de la parole concernent, entre autres, les « chatbots » publics qui sont dans l’incapacité d’aider les personnes issues de groupes minoritaires ne parlant pas la langue principale d’un pays. Les assistants linguistiques perçus comme des êtres humains peuvent également être source d’angoisse pour les personnes qui utilisent le service. 

Commentaire - Génération de contenu

La génération de contenu consiste à analyser de grands ensembles de données pour classer, traiter, trier, personnaliser et apporter du contenu spécifique dans certains contextes précis. Il peut notamment s’agir d’articles d’information ou de prévisions météorologiques générés automatiquement sur la base de l’étude par l’IA d’autres sources d’actualité ou d’autres données météorologiques, ainsi que la génération et la diffusion de contenus basés sur des déclarations publiques officielles et sur les réponses de « chatbots intelligents ». 

Les impacts de la génération de contenu dépendent du contenu généré. Des incidences sur les droits humains sont notamment possibles si le contenu généré alimente d’autres systèmes d’IA, ce qui rend l’ensemble du processus extrêmement opaque et difficile à comprendre, avec des décisions que personne ne peut expliquer. 

Pour plus d’informations sur les différentes solutions d’IA et leur impact potentiel sur les droits de l’homme, voir :

Règlements:

Des processus sont-ils en place pour évaluer les biais des jeux de données ?

Le biais est une forme d’injustice à l’encontre d’une personne (ou d’un groupe). Bien qu’il existe différentes sortes de biais dans les applications d’IA, cette question concerne les biais des jeux de données qui font que les données ne sont pas représentatives ou qu’elles reflètent des préjugés (p. ex. un outil de recrutement fondé sur l’IA qui utilise un historique de décisions d’embauche favorisant les hommes par rapport aux femmes). Pour résoudre le problème, il peut s’avérer nécessaire de discuter de la question du biais avec le·la développeur·euse de l’application d’IA. Voir les ressources pour en savoir plus.

Commentaire - Oui

Cela signifie que vous avez réfléchi à un aspect significatif des impacts négatifs potentiels sur les droits humains. Toutefois, la qualité des outils d’IA dépend de la qualité des données sur lesquelles ils s’appuient, ce qui signifie qu’il est important d’évaluer continuellement si les données sont valides, fiables, actualisées, suffisantes, etc. Des données biaisées ou discriminatoires produiront des résultats biaisés ou discriminatoires. 

Principes et droits humains potentiellement affectés - Non

Droit à l’égalité et à la non-discrimination 

Recommandation - Non

Planifiez et réalisez une évaluation des biais potentiels des jeux de données et élaborez un plan pour les atténuer. 

Principes et droits humains potentiellement affectés - Je ne sais pas

Droit à l’égalité et à la non-discrimination 

Recommandation - Je ne sais pas

Consultez le·la client·e et les autres personnes impliquées dans le développement du modèle d’IA. S’ils ne connaissent aucun processus permettant d’évaluer les biais des jeux de données, il est probable que les biais n’ont pas été évalués. 

Droit à la non-discrimination : 

Droit à l’égalité : 

À lire : 

 

  1. Initiative « FAIR Forward – L’intelligence artificielle pour tous »
  • Les algorithmes de traitement du langage naturel servent parfois à générer et à partager des informations de manière ciblée et individuelle. Ils peuvent également être utilisés pour atteindre les personnes qui ne savent pas lire. Pour former de tels systèmes, il faut disposer d’une grande quantité de données de formation. Pour différentes raisons, ces données linguistiques sont très limitées dans les pays africains et asiatiques. L’initiative « FAIR Forward – L’intelligence artificielle pour tous » a été développée pour combler ces lacunes de données linguistiques et pour les mettre à la disposition de tous de manière équitable et ouverte. Grâce à ce travail, à la disponibilité croissante de données linguistiques nationales et aux résultats de l’initiative « Fair Forward », un chatbot développé au Rwanda va aider des millions de personnes à bénéficier de conseils sur le coronavirus dans leur langue locale. 
  • Source : GIZ, « Artificial Intelligence For All » (L’intelligence artificielle pour tous) 
  1. Utilisation de l’IA dans les activités de réponse au coronavirus
  • « L’analyse de données basée sur l’IA joue un rôle prédominant dans le suivi des infections, des décès et des taux de guérison dans le monde entier. Des institutions ont réussi à dégager les tendances d’évolution du COVID-19 dans différents pays et contextes. Les technologies de collecte, de suivi et d’analyse des données sont également nécessaires dans les pays en développement pour surveiller la progression du virus et adapter les interventions et les mesures d’atténuation. 
  • L’intelligence artificielle est utilisée pour détecter le coronavirus grâce à l’analyse informatisée des scanners. Les services d’imagerie des centres de soins sont submergés par la charge de travail accrue créée par le virus. Cette solution accélère le diagnostic basé sur le scanner. Certaines entreprises technologiques se targuent de disposer de systèmes d’analyse basés sur l’IA capables de lire les scanners en quelques secondes avec 96 % de réussite pour le diagnostic du virus. Dans les pays africains, qui manquent de médecins spécialisés et de laboratoires, ces technologies peuvent avoir des répercussions majeures. 
  • Les technologies mobiles et les technologies de traçage intelligentes sont utilisées par les gouvernements du monde entier pour suivre les déplacements des personnes et éviter une propagation accrue du virus. L’Union européenne doit aider les gouvernements africains à utiliser les vastes quantités de données mobiles disponibles tout en respectant le droit à la vie privée lors de l’utilisation des données issues des téléphones portables. Certaines solutions technologiques permettent de suivre les déplacements des personnes tout en tenant compte des risques d’utilisation abusive des données à caractère personnel. » 
  • Source : Toolkit Digitalisierung (Boîte à outils pour la numérisation), « Practice: Big Data and AI » 

Une évaluation des biais dans les résultats et les extrants (inattendus) associés à l’application d’IA a-t-elle été réalisée ?

Cette question concerne les biais présents dans les résultats et les extrants de l’application d’IA et non ceux des données sous-jacentes. Vous devez déterminer si quelqu’un les a spécifiquement évalués.

Commentaire - Oui

Cela signifie que vous avez tenu compte d’un aspect significatif des impacts négatifs potentiels des systèmes de décision automatisés sur les droits humains. 

Principes et droits humains potentiellement affectés - Non

Droit à l’égalité et à la non-discrimination 

Recommandation - Non

Planifiez et réalisez une évaluation des biais présents dans les résultats et les extrants liés à l’IA. 

Principes et droits humains potentiellement affectés - Je ne sais pas

Droit à l’égalité et à la non-discrimination 

Recommandation - Je ne sais pas

Consultez le·la client·e et les autres personnes impliquées dans le développement du modèle d’IA. S’ils ne connaissent aucun processus permettant d’évaluer les biais dans les résultats, il est probable que ces biais n’ont pas été évalués. 

Droit à la non-discrimination : 

Droit à l’égalité : 

Pour en savoir plus sur la détection des biais inconscients, voir le projet du MIT AI Blindspot. 

Un modèle d’IA visant à analyser les expressions faciales et à en déduire ce que ressent la personne peut baser son apprentissage sur des données non biaisées, ce qui signifie que son développement et sa conception ne sont alors pas discriminatoires. Toutefois, sachant que la science qui sous-tend la technologie de reconnaissance des émotions est contestable, les extrants de ce modèle d’IA risquent d’être discriminatoires. Ce problème se pose notamment lorsque le contexte n’est pas pris en compte et que la technologie peut donc avoir des impacts discriminatoires, par exemple, sur les personnes issues de groupes ethniques minoritaires ou sur les handicapés. 

Source : Vox Recode, « Artificial intelligence will help determine if you get your next job », 12 décembre 2019 

Une analyse selon le genre portant sur le développement et l’utilisation de la solution d’IA a-t-elle été réalisée ?

Il peut notamment s’agir d’évaluer si les prédictions faites par le modèle d’IA sont discriminatoires au niveau du genre. Voir les ressources pour en savoir plus.

Commentaire - Oui

Cela signifie que vous avez pris en compte un aspect significatif des impacts négatifs potentiels des systèmes d’IA sur les droits humains. 

Principes et droits humains potentiellement affectés - Non

Droit à l’égalité, droit à la non-discrimination et droit des femmes 

Recommandation - Non

Planifiez et réalisez une analyse selon le genre de la mise en œuvre du projet ou de la solution. 

Principes et droits humains potentiellement affectés - Je ne sais pas

Droit à l’égalité, droit à la non-discrimination et droit des femmes 

Recommandation - Je ne sais pas

Consultez le·la client·e et les autres personnes impliquées dans le développement de l’IA. S’ils n’ont pas connaissance d’une quelconque analyse selon le genre du système, il est probable qu’aucune évaluation de ce genre n’a été réalisée. 

Droit à l’égalité et à la non-discrimination : 

Droits des femmes : 

Sur la fracture numérique liée au genre : 

Sur les préjugés de genre dans l’IA : 

De nombreux assistants personnels virtuels (tels que Siri, Alexa et Cortana) et chatbots portent des noms féminins et sont livrés, par défaut, avec une voix féminine. Une organisation qui développe ou utilise ces assistants virtuels aux « caractéristiques féminines » risque d’accentuer les stéréotypes ainsi que la réalité sociale en vertu de laquelle une majorité d’assistant·e·s personnel·le·s ou de secrétaires sont des femmes, que ce soit dans le secteur public ou dans le secteur privé. Il est donc toujours important d’évaluer tout impact négatif inattendu lié au genre. 

Pour en savoir plus, voir Surya Deva, « Addressing the gender bias in artificial intelligence and automation », OpenGlobalRights, 10 avril 2020 

Le système d’IA a-t-il fait l’objet de tests quant aux risques pour les droits humains après son déploiement ou un plan a-t-il été clairement établi en vue de la réalisation de tels tests ?

Déterminez, par exemple, si un chatbot a été évalué après son déploiement pour savoir si certains groupes précis risquent de subir des discriminations.

Commentaire - Oui

Le suivi, l’évaluation et le réentrainement constants du système sont des pratiques essentielles pour identifier et corriger les biais enregistrés et les résultats disparates. 

Principes et droits humains potentiellement affectés - Non

Droit à l’égalité et à la non-discrimination 

Recommandation - Non

Élaborez un plan et testez la précision du système d’IA et les risques qu’il fait peser sur les droits humains après son déploiement. 

Commentaire - Non

Même les algorithmes les mieux intentionnés peuvent avoir des conséquences imprévues. Le suivi, l’évaluation et le réentrainement constants du système sont des pratiques essentielles pour identifier et corriger les biais enregistrés et les résultats disparates. 

Principes et droits humains potentiellement affectés - Je ne sais pas

Droit à l’égalité et à la non-discrimination 

Recommandation - Je ne sais pas

Consultez le·la client·e et les autres personnes impliquées dans le développement et/ou le déploiement du système d’IA. S’ils ne connaissent aucun de ces processus, il est probable que le système n’a pas été testé après son utilisation et son déploiement pour vérifier l’absence de résultats biaisés ou discriminatoires. 

Certains systèmes de santé s’appuient sur des outils de prédiction des risques fondés sur l’IA pour identifier et sélectionner les patients qui ont besoin de soins à haut risque. S’ils sont sélectionnés pour ces programmes, les patients bénéficient de ressources supplémentaires et d’une attention accrue de la part de prestataires formé·e·s afin que les soins soient parfaitement coordonnés. De nombreux systèmes de santé disposent d’outils d’IA qui sont considérés comme des composantes clés des efforts de gestion de la santé des populations en raison de leur capacité à améliorer efficacement les réalisations et la satisfaction tout en réduisant les coûts, un objectif fréquemment visé pour s’efforcer d’améliorer les soins dans les pays émergents. Ces programmes de soins à haut risque sont très onéreux, ce qui signifie que les systèmes de santé s’appuient souvent sur des outils d’IA pour identifier les patients qui en tireront le plus de bénéfice. 

Pour tenter d’identifier les patients qui profiteront le plus de ces programmes, les outils d’IA doivent faire des déductions basées sur les données disponibles. Un moyen d’identifier les besoins de soins les plus criants consiste à déterminer combien d’argent les patients ont dépensé par le passé pour se soigner. Ceci peut toutefois s’avérer discriminatoire à l’encontre des populations marginalisées qui n’ont pas pu consacrer de ressources importantes aux soins de santé, alors qu’elles en avaient peut-être besoin. 

Dans ce scénario, le problème aurait dû être identifié avant même le déploiement. Toutefois, si ce n’est pas le cas, une analyse réalisée après le déploiement pourrait observer des disparités raciales dans la participation au programme et en identifier la raison. 

Pour en savoir plus, voir : Obermeyer et al., « Dissecting racial bias in an algorithm used to manage the health of populations », Science 366, 447–453 (2019). 

La solution numérique est-elle censée être utilisée dans un secteur à haut risque ou dans une prestation de service public ?

Les secteurs à haut risque sont des secteurs dans lesquels les décisions prises peuvent avoir des conséquences majeures pour les individus. Ils comprennent notamment :

- Surveillance et identification à distance
- Maintien de l’ordre
- Migration, asile et contrôle aux frontières
- Système judiciaire
- Éducation et formation professionnelle
- Services de l’emploi et gestion des travailleur·euse·s
- Infrastructures numériques critiques
- Prestations de service privé essentielles, notamment la banque et l’assurance
- Prestations de service public essentielles, notamment la sécurité sociale et les autres prestations et services publics

Commentaire - Oui

Si le projet ou la solution est axé sur un secteur à haut risque ou sur une prestation de service public essentielle, des précautions supplémentaires doivent être prises en cas d’application ou de développement d’outils ou de services numériques, sachant que les risques potentiels sur les droits humains peuvent être importants.

Commentaire - Non

S’il ne s’agit ni d’un secteur à haut risque ni d’une prestation de service public essentielle, le projet peut en principe être considéré comme à risque faible à moyen, sauf si l’application en question est hautement sensible.

Commentaire - Je ne sais pas

Consultez le personnel de l’entreprise bénéficiaire de l’investissement ou les autres personnes impliquées dans l’utilisation de la solution et déterminez si le secteur en question est à haut risque ou non. En cas de doute, envisagez de répondre oui à la question car cela signifie que les risques peuvent quand même être importants.

Pour en savoir plus sur les secteurs à haut risque, voir : Commission européenne, proposition de législation sur l’intelligence artificielle, annexe III 

Les promesses affichées par les solutions d’e-santé (p. ex. plateformes de santé numériques, systèmes d’IA appuyant le diagnostic du cancer, applications de télémédecine) ont largement attiré l’attention des investisseurs et de la société en général ces dernières années. Même si les promesses sont bien réelles, de nombreuses menaces doivent être prises en compte dans ce secteur à haut risque. Toute erreur dans le développement des systèmes peut avoir des conséquences majeures sur le droit à la santé. 

Il existe, tout d’abord, des risques liés à la collecte des données et de leur traitement, particulièrement lorsque les données collectées dans ce secteur sont susceptibles d’être à la fois personnelles et sensibles. D’autres risques existent ensuite lorsque les systèmes se forment à partir de données principalement collectées dans des pays étrangers qui possèdent de nombreuses données historiques pour appuyer, par exemple, l’identification de profils pathologiques. Toutefois, lorsque ces solutions sont utilisées ou appliquées dans un nouveau contexte, les profils pathologiques locaux risquent de ne pas exister dans les données et certains problèmes peuvent survenir lors du traitement des données si elles sont présentées dans une langue à laquelle le système n’a pas été formé. 

En tant que telles, les solutions numériques utilisées dans le secteur de la santé doivent être considérées comme à haut risque et doivent faire l’objet d’une attention accrue quant à leurs impacts potentiels sur les droits humains. 

La manière dont la solution numérique est utilisée ou appliquée est-elle susceptible d’avoir des impacts significatifs sur les droits humains ?

Des risques significatifs pour les droits humains peuvent, par exemple, exister lorsque les utilisateur·rice·s ou les personnes affectées sont des groupes marginalisés et que la manière dont la solution est utilisée peut avoir des conséquences directes sur ces individus. Voir les exemples fournis dans l’étude de cas.

Commentaire - Oui

Les solutions à haut risque doivent bénéficier de ressources adéquates si l’on veut pouvoir réaliser des évaluations approfondies des risques qu’elles font peser sur les droits humains et des mesures de prévention ou d’atténuation potentielles. Les parties prenantes et les détenteur·rice·s de droits doivent être impliqué·e·s dans l’opération.

Commentaire - Non

Le projet ou la solution peut être considéré comme à risque faible ou moyen, sauf s’il concerne un secteur à haut risque dans un contexte national à haut risque. Dans ce cas, il faut quand même s’entourer de précautions supplémentaires.

Commentaire - Je ne sais pas

Consultez le personnel de l’entreprise bénéficiaire de l’investissement ou les autres personnes impliquées dans l’utilisation de la solution. En cas de doute, envisagez de répondre oui à la question car il est possible qu’il s’agisse d’un scénario à haut risque.

Les services de l’emploi et les prestations de chômage peuvent être considérés comme faisant partie d’un secteur sensible qui mérite une attention particulière. Toutefois, si un projet comprend simplement des modèles d’IA utilisés pour améliorer la programmation des réunions avec les personnes qui ont besoin de prestations de chômage, les risques pour les droits humains sont probablement mineurs. Par contre, si les modèles d’IA sont utilisés pour prévoir la probabilité de réussite des demandeur·euse·s d’emploi et donc pour attribuer des ressources aux « meilleur·e·s candidat·e·s », les risques pour les droits humains sont significatifs. Ils comprennent non seulement des impacts sur le droit à l’égalité et à la non-discrimination, mais aussi des impacts sur le droit au travail et sur le droit à un niveau de vie suffisant si le système discrimine certaines personnes qui auront donc moins de chances de trouver des emplois à l’avenir. 

La solution numérique est-elle utilisée ou appliquée dans un contexte national à haut risque pour les droits humains ?

Un contexte à haut risque est susceptible d’accroître les risques potentiels d’impacts négatifs sur les droits humains. Voyez si une quelconque des affirmations suivantes s’applique au pays concerné :

- pas ou peu de législation sur la protection des données
- érosion de l’état de droit, avec un système judiciaire inefficace
- pays miné par les conflits
- forte persécution des défenseur·e·s des droits humains
- restrictions significatives des droits civils et politiques
- situation sécuritaire instable
- risque élevé ou historique de censure, d’intimidation, de violence, etc. à l’encontre de groupes marginalisés
- prévalence de la cybercriminalité
- beaucoup de harcèlement en ligne

Commentaire - Oui

Il faut porter une attention accrue à tous les types de traitements de données et d’applications d’IA, particulièrement en ce qui concerne les groupes marginalisés dans le contexte. Le cas échéant, relisez et actualisez l’analyse existante du contexte national, en gardant à l’esprit la solution numérique considérée.

Commentaire - Non

Un contexte national à risque faible à moyen signifie souvent que l’état de droit est solide et que de nombreuses protections sont en place au niveau national.

Commentaire - Je ne sais pas

Le cas échéant, consultez l’analyse existante du contexte national et déterminez si le contexte national est à haut risque ou non. En cas de doute, envisagez de répondre oui à la question puisque le pays pourrait être à haut risque.

Ressources sur le contexte national : 

Profil de risque du projet
Recommandation

Based on your answers to the risk questions, the digital component seems to involve low-to-medium risk. While that is positive, there is still need to be vigilant in case the context or application changes. Further sections around stakeholder engagement remain highly relevant even as potential risks are low.

Profil de risque du projet
Recommandation

Based on your answers on the risk questions, there is no high-risk application involved. However, both the country context and sector are high-risk which means that you will need to pay extra attention to the application and use of the digital component. Slight changes to the initial plan may pose significant risks.

Profil de risque du projet
Recommandation

Heightened attention will need to be paid to all kinds of data processing, AI applications etc., particularly with regard to groups that are vulnerable in the specific context. Any country context analysis performed during the project design phase should be updated with the specific digital product or service in mind.

Le pays dans lequel la solution numérique est développée et/ou utilisée possède-t-il une législation adéquate sur la protection des données ?

Déterminez si 1) une législation sur la protection des données existe et 2) si elle semble adéquate sur le plan des droits humains. Pour évaluer l’adéquation de la législation sur la protection des données, vous pouvez consulter la section des ressources et utiliser le règlement général sur la protection des données (RGPD) de l’Union européenne comme référence. En vertu du RGPD, la Commission européenne a également reconnu qu’un certain nombre de pays fournissent une protection adéquate.

Commentaire - Oui

Cela réduit le niveau de risque du traitement des données. Toutefois, en l’absence de suivi et d’application de la législation, cela ne signifie pas grand-chose en pratique et il reste important d’évaluer les impacts des activités liées aux données sur les droits humains. 

Principes et droits humains potentiellement affectés - Non

Droit au respect de la vie privée 

Recommandation - Non

Voyez comment limiter les activités de traitement des données associées à la solution numérique, particulièrement lorsqu’aucune norme ou procédure adéquate de collecte et de traitement des données n’existe. Faites particulièrement attention à la minimisation des données et au consentement à la collecte des données, sachant qu’il n’y aura probablement aucune surveillance externe efficace des activités. 

Principes et droits humains potentiellement affectés - Je ne sais pas

Droit au respect de la vie privée 

Recommandation - Je ne sais pas

Identifiez l’état actuel de la législation sur la protection des données dans le pays concerné par le projet ou la solution. 

La quasi-totalité des projets et des solutions numériques s’appuie sur la possibilité de collecter, stocker, traiter, modifier et partager des données et ils sont même nombreux à démultiplier ces possibilités. Si un projet innovant portant sur l’utilisation d’appareils de l’Internet des objets pour le bien public est mis en œuvre dans un pays qui ne dispose d’aucune protection des données, il ne faut pas s’attendre à grand-chose en termes de recours si les données ne sont pas manipulées correctement. Il est donc important de comprendre le contexte réglementaire dans lequel le projet ou la solution numérique sera mis en œuvre ou appliqué afin d’identifier les risques potentiels. Si une législation sur la protection des données est en place et appliquée efficacement, cela limite les risques pour les activités liées aux données. 

Avez-vous connaissance de solutions numériques similaires ayant déjà été développées ou utilisées au même endroit ?

Il pourrait, par exemple, s’agir de solutions de fintech ou de plateformes d’e-santé similaires ayant déjà été utilisées dans le même pays.

Commentaire - Oui

Étudiez les réalisations des projets précédents et échangez avec les responsables des projets ainsi qu’avec les parties prenantes externes, le cas échéant. Cela vous aidera probablement à évaluer les mesures de prévention et d’atténuation qui doivent être prises pendant la mise en œuvre de votre projet. 

Commentaire - Non, il n’y a pas eu de projets ou de solutions similaires au même endroit auparavant.

Même si cela ne vous aide pas, vous pourrez peut-être aider d’autres personnes à l’avenir. N’oubliez pas d’être aussi transparent que possible, ce qui aidera d’autres personnes à mettre en œuvre des projets similaires ou à utiliser des outils similaires. 

Recommandation - Je ne sais pas s’il y a eu des projets ou des solutions similaires au même endroit auparavant.

Déterminez si des solutions similaires ont déjà été développées ou utilisées. Cela vous aidera à identifier les impacts potentiels sur les droits humains ainsi que les mesures les mieux adaptées pour éviter, prévenir et résoudre les impacts. 

Si un projet visant, par exemple, à développer des bases de données de langues écrites dans le même pays ou la même région a déjà été mis en œuvre et que vous prévoyez de réaliser un projet similaire dans le pays ou la région, il serait probablement très utile d’échanger avec les responsables du projet précédent. Cela vous permettrait d’apprendre à quels problèmes les responsables ont été confrontés, comment ils ont évité les écueils identifiés et comment les risques pour les droits humains ont été gérés. 

Savez-vous si les solutions numériques précédentes ont eu des impacts négatifs sur les droits humains ?

Pour répondre à cette question, vous devrez peut-être lire les rapports publiés par les entreprises ou les projets en question, ainsi que les articles de journaux ou les rapports de la société civile.

Commentaire - Oui, les projets précédents ont eu des impacts négatifs sur les droits humains.

Voyez de quel genre d’impacts il s’agit dans la prochaine question. 

Recommandation - Non, les projets précédents n’ont pas eu d’impacts négatifs sur les droits humains.

Étudiez des solutions et des projets antérieurs similaires pour découvrir quelles protections ont été mises en place pour éviter et prévenir les impacts négatifs sur les droits humains. Voyez si ces protections peuvent être reproduites dans le cadre de votre projet. 

Commentaire - Je ne sais pas si les projets précédents ont eu des impacts négatifs sur les droits humains.

Contactez les personnes qui ont participé au développement ou à l’utilisation de la solution numérique ou qui en ont eu connaissance et voyez si elles peuvent vous communiquer de plus amples informations sur les impacts potentiels (et leur prévention ou atténuation).

Quels impacts négatifs les solutions numériques précédentes ont-elles eus sur les droits humains ?

Si vous disposez de ces informations, répondez en indiquant quels droits humains ont été affectés.

Principes et droits humains potentiellement affectés - Droit au respect de la vie privée

Droit au respect de la vie privée 

Recommandation - Droit au respect de la vie privée
Principes et droits humains potentiellement affectés - Non-discrimination

Non-discrimination 

Principes et droits humains potentiellement affectés - Liberté d’expression

Liberté d’expression 

Recommandation - Liberté d’expression

Prenez des mesures préventives pour faire en sorte que la solution numérique n’ait pas les mêmes impacts négatifs que les projets précédents. Évaluez soigneusement les impacts potentiels sur le droit à la liberté d’expression. 

Recommandation - Je ne sais pas

Contactez les personnes qui ont participé au développement ou à l’utilisation de la solution numérique ou qui en ont eu connaissance et voyez si elles peuvent vous fournir de plus amples informations sur les impacts potentiels (et leur prévention ou atténuation). Prenez des mesures préventives pour faire en sorte que la solution numérique n’ait pas les mêmes impacts négatifs que les projets précédents. 

Recommandation

Prenez des mesures préventives pour faire en sorte que le projet ou la composante numérique n’ait pas les mêmes impacts négatifs que les projets précédents.

Pour ce qui est, par exemple, des projets d’identification numérique, la société civile et les médias d’information ont beaucoup écrit sur leurs impacts potentiels sur les droits humains. Dans le cadre du projet ougandais d’identification numérique, une étude a montré que le projet réalisait une « collecte excessive de données à caractère personnel » lorsque ces dernières étaient recueillies au moment de l’inscription. Selon l’étude, les préoccupations liées aux droits humains étaient encore plus importantes en raison de l’inadéquation des dispositifs de protection des données. Le projet a également été redéfini au moment de sa mise en œuvre et des données semblent avoir été communiquées aux forces de maintien de l’ordre et à des entreprises de télécommunications, accentuant les risques pour le droit au respect de la vie privée et pour d’autres droits humains. Enfin, certaines minorités sociales telles que les personnes âgées, les personnes économiquement désavantagées et les femmes ont été soumises à des pratiques d’exclusion. 

Pour en savoir plus, voir : Research ICT Africa, « Digital Identity in Uganda », 2021 

Les conséquences négatives imprévues de la solution numérique ont-elles été évaluées ?

Il s’agit notamment des conséquences imprévues liées à l’objectif prévu du projet ou à l’utilisation prévue de la solution numérique, mais aussi à l’utilisation imprévue de la solution numérique.

Commentaire - Oui

Discutez des conséquences négatives imprévues potentielles avec des parties prenantes externes, notamment avec des détenteur·rice·s de droits potentiellement affecté·e·s, afin de confirmer l’évaluation et d’identifier des mesures préventives. Envisagez également le risque que ces scénarios se concrétisent. 

Recommandation - Non

Évaluez les conséquences négatives imprévues potentielles avec l’équipe du projet et avec les autres partenaires impliqué·e·s. 

Vous pouvez notamment le faire en organisant un atelier pour discuter de scénarios futurs et de scénarios pessimistes. Discutez de vos constatations avec des parties prenantes externes, notamment avec des détenteur·rice·s de droits potentiellement affecté·e·s, tout en leur laissant la possibilité d’évoquer d’autres préoccupations relatives aux conséquences négatives potentielles du projet. 

Voir un exemple d’évaluation des futurs impacts potentiels dans l’évaluation de la reconnaissance faciale de Google et le concept « Human Rights by Design » de Business for Social Responsibility 

Si un projet inclut le développement d’un système d’inscription électronique pour les travailleur·euse·s migrant·e·s, il est probable que les personnes qui utiliseront le système seront consultées quant à leurs expériences et que les éventuels impacts négatifs sur les droits humains pourront être rapidement résolus. Il existe toutefois également un risque que les travailleur·euse·s migrant·e·s qui décident de ne pas utiliser le système subissent des impacts négatifs. En effet, il·elle·s risquent alors de ne pas trouver d’emploi, ce qui serait considéré comme une conséquence imprévue du projet. 

Est-ce que les utilisateur·rice·s ciblé·e·s et/ou d’autres détenteur·rice·s de droits appartiennent à des groupes marginalisés ?

Une attention particulière doit être portée aux groupes/individus marginalisés qui risquent davantage d’être dans l’incapacité d’anticiper, de gérer, de résister et de se remettre des risques et des impacts négatifs liés au projet. Les individus marginalisés dépendent du contexte, mais peuvent inclure les enfants, les femmes, les minorités religieuses ou ethniques, les personnes souffrant de handicaps et les migrant·e·s. Vous devez toujours réaliser une évaluation individuelle des vulnérabilités en fonction des réalités locales. Par exemple, bien qu’un projet de numérisation destiné à améliorer les processus administratifs purement internes d’une agence publique ne semble pas concerner de groupes marginalisés, cela peut quand même être le cas si certains processus ont des conséquences sur des décisions importantes pour certaines personnes (p. ex. les décisions de versement des prestations de sécurité sociale).

Commentaire - Oui

Au vu des impacts que le projet peut avoir sur les groupes marginalisés, des précautions supplémentaires doivent être prises pour garantir l’absence d’incidences négatives sur ces groupes. Vérifiez que ces groupes et/ou leurs représentants légitimes sont consultés et impliqués afin de pouvoir évaluer les éventuels impacts négatifs qui leur sont spécifiquement associés. 

Commentaire - Non

Dans la plupart des scénarios, cela implique que les risques pour les droits humains sont limités. Vérifiez toutefois l’absence de risques de discrimination sur des groupes marginalisés qui ne font pas partie des utilisateur·rice·s prévu·e·s. Assurez-vous notamment que les personnes qui ont volontairement décidé de ne pas s’impliquer dans le projet n’appartiennent pas à des groupes marginalisés. 

Recommandation - Je ne sais pas

Consultez les ressources supplémentaires pour déterminer si des groupes vulnérables ou marginalisés peuvent être affectés par le projet. Intéressez-vous aux utilisateur·rice·s direct·e·s, mais aussi aux autres personnes qui pourraient être impactées. 

Commentaire - Je ne sais pas

Considérez l’exemple suivant : un pays a lancé un système d’inscription en ligne pour les demandeur·euse·s d’emploi. Or, les travailleur·euse·s migrant·e·s ont tendance à ne pas s’y inscrire. Cela signifie que, bien que n’étant pas utilisateur·rice·s du service, il·elle·s peuvent quand même être affecté·e·s par la transition vers un système d’inscription en ligne. 

Parmi les groupes suivants, lesquels sont susceptibles d’être affectés par la solution ?

Cette question fait suite à la précédente. La liste n’est pas exhaustive et il est possible, en fonction du contexte, que d’autres groupes marginalisés aient été identifiés comme étant susceptibles de subir les impacts du projet. Si tel est le cas, veuillez sélectionner l’option « autre » et indiquer le groupe marginalisé que vous avez identifié.

Recommandation - Enfants et jeunes

Organisez des échanges avec des détenteur·rice·s de droits et tenez plus spécifiquement compte des « enfants et jeunes », notamment en : 

  • menant des consultations avec des enfants en coordination avec des expert·e·s de la participation des enfants et dans le respect de normes éthiques
  • concevant le processus afin qu’il soit accessible, inclusif et intéressant pour les enfants
  • garantissant la participation volontaire dans un environnement axé sur les enfants
  • favorisant ces échanges
  • menant des consultations avec et au sujet des enfants et des jeunes
  • envisageant d’impliquer les parents, les éducateurs, les enseignants, les leaders communautaires, les organisations de jeunes et autres en gardant toujours l’intérêt des enfants à l’esprit
Recommandation - Femmes et filles

Organisez des échanges avec des détenteur·rice·s de droits et tenez plus spécifiquement compte des « femmes et filles », notamment en : 

  • consultant les femmes séparément et de manière sensible au genre ;
  • incluant les collaborateur·rice·s responsables de l’évaluation des impacts sur les droits humains des femmes ;
  • incluant les collaborateur·rice·s responsables de l’évaluation des impacts sur les droits humains qui ont une connaissance spécifique des droits et des expériences des femmes et des filles, particulièrement en lien avec des projets, des produits et des services numériques ;
  • excluant les collaborateurs hommes de certains entretiens ;
  • proposant un espace sûr et confortable pour les entretiens ;
  • incluant des sous-groupes particulièrement marginalisés (défenseur·e·s des droits humains des femmes, jeunes filles, etc.) ;
  • envisageant d’utiliser des approches proactives et innovantes pour lever les obstacles à l’implication des femmes (garderie d’enfants pendant les réunions, etc.).
Recommandation - Populations autochtones

Organisez des échanges avec des détenteur·rice·s de droits et tenez plus spécifiquement compte des « peuples autochtones », notamment en : 

  • incluant les collaborateur·rice·s responsables de l’évaluation des impacts sur les droits humains qui connaissent plus particulièrement les droits et le contexte local des peuples autochtones ;
  • respectant les institutions représentatives des peuples autochtones et en comprenant bien les caractéristiques culturelles et organisationnelles des peuples autochtones et la hiérarchie des autorités afin de consulter les bonnes personnes dans le bon ordre et de la bonne manière ;
  • utilisant un langage approprié au contexte ;
  • vous assurant, dans la mesure du possible, que le développement des projets qui ciblent les peuples autochtones ou qui les affectent est réalisé pour eux et par eux ;
  • tenant compte du risque qui existe d’imposer des processus ou des structures non désirés aux bénéficiaires autochtones.
Recommandation - Travailleur·euse·s et syndicats

Organisez des échanges avec des détenteur·rice·s de droits et tenez plus spécifiquement compte des « travailleur·euse·s et syndicats », notamment en : 

  • faisant en sorte de rencontrer différentes catégories de travailleur·euse·s et de leaders syndicaux (genre, position, syndiqué ou non, etc.) ;
  • incluant des « travailleur·euse·s informel·le·s » dans l’évaluation des impacts sur les droits humains ;
  • fixant un horaire adapté à leurs horaires de travail ;
  • envisageant d’interroger les travailleur·euse·s hors des locaux de l’entreprise et en dehors des heures de travail.
Recommandation - Minorités (nationales, raciales, ethniques, religieuses ou politiques)

Organisez des échanges avec des détenteur·rice·s de droits et tenez plus spécifiquement compte des « minorités (nationales, raciales, ethniques, religieuses ou politiques) », notamment en : 

  • organisant les échanges avec les groupes minoritaires dans une langue qu’ils comprennent et dans laquelle ils se sentent à l’aise pour communiquer, sachant que les minorités risquent de parler une langue différente de la langue nationale ;
  • vous assurant que les échanges sont culturellement appropriés ;
  • incluant dans l’équipe un·e anthropologue spécialisé·e dans les échanges avec le groupe minoritaire en question, étant donné les différences qui existent entre les groupes minoritaires ;
  • vous assurant de la participation d’une large partie de la communauté minoritaire pendant les échanges plutôt que de ne traiter qu’avec certains leaders communautaires qui peuvent ne pas être représentatifs de la communauté dans son ensemble.
Recommandation - Personnes porteuses de handicaps

Organisez des échanges avec des détenteur·rice·s de droits et tenez plus spécifiquement compte des « personnes en situation de handicap », notamment en : 

  • vous assurant, lors des échanges avec des personnes souffrant de handicaps physiques ou psychologiques particuliers, que les lieux de réunion et/ou les méthodes d’échange sont accessibles et que des mesures sont prises pour faciliter les échanges (interprète en langue des signes, informations disponibles en braille, etc.).
Recommandation - Personnes âgées

Organisez des échanges avec des détenteur·rice·s de droits et tenez plus spécifiquement compte des « personnes âgées », notamment en : 

  • vous assurant, lors des échanges avec des personnes âgées, que les lieux de réunion et les méthodes d’échange sont accessibles, en gardant à l’esprit les besoins spécifiques de ces personnes (accessibilité en fauteuil roulant, solutions numériques simples et conviviales, etc.).
Recommandation - Migrant·e·s, réfugié·e·s, apatrides et personnes déplacées

Organisez des échanges avec des détenteur·rice·s de droits et tenez plus spécifiquement compte des « migrant·e·s, réfugié·e·s, apatrides et personnes déplacées », notamment en : 

  • offrant un lieu sûr lors des échanges avec des migrant·e·s, réfugié·e·s, apatrides et personnes déplacées, sachant qu’en raison de leur statut juridique incertain, les personnes qui appartiennent à ce groupe de détenteur·rice·s de droits, particulièrement celles qui n’ont pas de permis de séjour, peuvent hésiter à parler librement, dans la crainte de répercussions ;
  • portant une attention particulière à la confidentialité des membres de ce groupe, même s’il est généralement impératif de garantir la confidentialité des personnes interrogées lors des échanges avec les détenteur·rice·s de droits ;
  • envisageant des échanges à distance ou virtuels basés sur des moyens de communication cryptés pour protéger leur sécurité.
Recommandation - Lesbiennes, gays, bisexuels, transsexuels, queer et intersexuels (LGBTIQ+)

Organisez des échanges avec des détenteur·rice·s de droits et tenez plus spécifiquement compte des « lesbiennes, gays, bisexuels, transsexuels, queer et intersexuels (LGBTIQ+) », notamment en : 

  • vous assurant que les évaluateur·rice·s sont spécifiquement formé·e·s aux problèmes des LGBTIQ+ lorsqu’il·elle·s échangent avec eux·elles ;
  • vous assurant que les personnes LGBTIQ+ se sentent à l’aise à l’idée de fournir des informations en leur garantissant que les données collectées resteront confidentielles ;
  • envisageant la possibilité d’utiliser des moyens d’échange anonymisés ;
  • vous assurant, lors de la conception des plans d’échange, que les communautés concernées sont représentées dans toute leur diversité.

Les utilisateur·rice·s ou les bénéficiaires prévus de la solution numérique sont-il·elle·s des individus ?

La solution numérique peut être destinée à des individus (p. ex. plateforme d’éducation numérique ciblant des utilisateur·rice·s individuel·le·s) ou à des organisations (p. ex. un modèle d’IA censé faciliter les processus administratifs sans interaction avec des personnes externes). Si la solution numérique est destinée à des individus, une attention accrue doit être portée à sa facilité d’accès et d’utilisation.

Commentaire - Oui

Si la solution numérique est destinée à des individus, il est important de s’assurer qu’elle est accessible. 

Commentaire - Non

Dans la plupart des scénarios, cela implique que les risques pour les droits humains sont limités. Vérifiez toutefois l’absence de risques de discrimination potentiels liés à l’accessibilité puisque les institutions sont également composées d’utilisateur·rice·s individuel·le·s. 

Commentaire - Je ne sais pas

Si la solution ou le projet concerne des salles de classe en ligne, des applications de suivi et traçage, des chatbots pour services publics, des plateformes de télémédecine, des plateformes de communication numérique, etc., les utilisateur·rice·s ou les bénéficiaires risquent d’être des individus. 

La solution numérique est-elle accessible, particulièrement pour les groupes marginalisés ?

Voici quelques exemples de facteurs qui limitent l’accessibilité :

- coût : la solution est-elle abordable pour la plupart des gens (en tenant compte du coût du matériel et du prix des données) ?
- barrière de la langue
- compétences numériques des utilisateur·rice·s
- infrastructures numériques : les infrastructures physiques nécessaires (haut débit, connexion Internet stable, etc.) sont-elles en place ?
- discrimination : certains groupes de la société sont-ils confrontés à des obstacles sociaux ou culturels supplémentaires ?
- sensibilisation : chaque membre du groupe d’utilisateur·rice·s prévu a-t-il connaissance du produit ou du service ?

Voir les ressources complémentaires pour en savoir plus.

Commentaire - Oui, et ce critère a été spécifiquement évalué.

Envisagez d’adopter un processus de suivi pour garantir son accessibilité sur la durée. 

Principes et droits humains potentiellement affectés - Non

Droit à l’égalité et à la non-discrimination 

Recommandation - Non

Collaborez avec les groupes marginalisés et/ou leurs représentants pour vérifier que l’outil, le produit ou le service est accessible, en particulier pour les groupes marginalisés. 

Principes et droits humains potentiellement affectés - Je ne sais pas

Droit à l’égalité et à la non-discrimination 

Recommandation - Je ne sais pas

Consultez les groupes potentiellement marginalisés qui estiment peut-être que l’outil, le produit ou le service numérique n’est pas accessible et écoutez leurs points de vue afin de vous faire une meilleure idée du degré d’accessibilité général. 

L’accessibilité de la solution numérique est-elle suivie ou un plan de suivi est-il prévu ?

Il s’agit, par exemple, de disposer d’un processus pour savoir qui sont les utilisateur·rice·s et qui n’utilise pas la solution ainsi que d’une procédure simple permettant aux utilisateur·rice·s de faire des commentaires sur les problèmes d’accessibilité, etc.

Commentaire - Oui

L’accessibilité des solutions numériques doit être assurée tout au long de la durée de vie de la solution. Veillez à ce que les utilisateurs prévus s’engagent à intervalles réguliers pour s’assurer que la solution reste accessible.

Principes et droits humains potentiellement affectés - Non

Droit à l’égalité et à la non-discrimination

Recommandation - Non

Collaborer avec les utilisateurs, en particulier les groupes marginalisés, et/ou leurs représentants pour élaborer un plan de suivi afin de s’assurer que la solution numérique reste accessible et que tout problème d’accessibilité est résolu le plus rapidement possible.

Principes et droits humains potentiellement affectés - Je ne sais pas

Droit à l’égalité et à la non-discrimination

Recommandation - Je ne sais pas

Consulter le client ou d’autres personnes impliquées dans le développement ou l’utilisation de la solution numérique afin de savoir ce qui est prévu pour garantir l’accessibilité tout au long de la durée de vie de la solution.

Les utilisateur·rice·s prévu·e·s et/ou les autres détenteur·rice·s de droits ont-il·elle·s été impliqué·e·s dans la conception de la politique, de la solution ou du système technologique ?

Concevoir avec les gens signifie impliquer ceux qui utiliseront ou seront affecté·e·s par une politique, une solution ou un système technologique dans son processus de conception. Les initiatives numériques réussies s'appuient sur une compréhension approfondie des caractéristiques, des besoins et des défis des utilisateurs. Cela implique d'impliquer de nombreuses parties prenantes, telles que les bénéficiaires et les administrateurs, à la fois dans la conception initiale et dans les itérations ultérieures. Adopter une conception centrée sur l'humain signifie impliquer activement les groupes cibles par le biais de conversations, d'observations et de la co-création.

Recommandation - Oui

Veillez à demander l’avis des détenteur·rice·s de droits également pour les mises à jour, les extensions et les contrôles de qualité. Mettez en place des moyens inclusifs de retour d’information et de recours qui font l’objet d’un suivi régulier.

Principes et droits humains potentiellement affectés - Non

Droit de participation

Recommandation - Non

Impliquez les détenteur·rice·s de droits dans les mises à jour de la politique, de la solution ou du système technologique. Mettez en place des moyens inclusifs de retour d’information et de recours qui font l’objet d’un suivi régulier.

Commentaire - Non

De nombreuses technologies numériques existantes posent des problèmes importants aux groupes marginalisés, entravant leur utilisation et exacerbant les inégalités. Concevoir avec les gens garantit que ces groupes sont activement impliqués dans le processus de développement, en s’assurant que leurs besoins et leurs préférences façonnent le produit final.

Principes et droits humains potentiellement affectés - Je ne sais pas

Droit de participation

Recommandation - Je ne sais pas

Consultez le client et les autres personnes impliquées dans le développement de la composante numérique et vérifiez si la conception avec les gens a été mise en œuvre. Si ce n’est pas le cas, impliquez les détenteur·rice·s de droits dans les mises à jour de la politique, de la solution ou du système technologique. Mettez en place des moyens inclusifs de retour d’information et de recours qui font l’objet d’un suivi régulier.

Commentaire - Je ne sais pas

De nombreuses technologies numériques existantes posent des problèmes importants aux groupes marginalisés, entravant leur utilisation et exacerbant les inégalités. Concevoir avec les gens garantit que ces groupes sont activement impliqués dans le processus de développement, en s’assurant que leurs besoins et leurs préférences façonnent le produit final.

Le programme indien Aadhaar, un système d’identification biométrique à l’échelle nationale, est un exemple de processus d’inscription sensible au genre. Les centres d’inscription suivent avec diligence les directives visant à créer des conditions favorables aux femmes, comme le déploiement d’opérateurs et de volontaires féminins pour aider les femmes inscrites. Des dispositions spéciales, notamment un espace séparé pour les femmes qui préfèrent garder le visage couvert en présence d’hommes en raison des normes sociales et des stations d’inscription adaptées aux femmes souffrant d’un handicap physique, contribuent à l’inclusivité du processus.

Simultanément, le programme a démontré un engagement à concevoir pour les utilisateur·rice·s marginalisé·e·s. Alors que les études initiales ne comportaient pas d’échantillonnage systématique des personnes handicapées, les recommandations ont mis l’accent sur l’intégration de la facilité d’utilisation et de l’ergonomie dans les spécifications du capteur d’iris. Les spécifications actuelles de l’UIDAI donnent la priorité à la facilité d’utilisation, en incorporant des caractéristiques telles que des aides physiques, vidéo et audio, ainsi que des mécanismes de retour d’information. Pour assurer l’inclusivité dans les deux aspects, l’autorité indienne d’identification unique (UIDAI) a collaboré avec un consultant malvoyant plaidant pour l’accès universel. Les mesures pratiques, telles que les camps d’inscription pilotes pour environ 870 personnes handicapées, ont révélé des défis techniques et procéduraux. L’UIDAI a répondu en organisant des ateliers de sensibilisation aux handicaps et en incorporant des questions pertinentes, démontrant ainsi son dévouement à un projet d’identité qui est à la fois inclusif et accessible.

Vous-même ou l’entreprise bénéficiaire de l’investissement avez-vous spécifiquement échangé avec des parties prenantes au sujet des impacts potentiels de la solution numérique ?

Les parties prenantes peuvent être internes (différentes fonctions et différents membres du personnel du projet) ou externes (acteurs publics et partenaires du projet impliqué·e·s dans le développement ou l’utilisation de la solution numérique, organisations de la société civile, universités et groupes de détenteur·rice·s de droits). L’échange peut prendre différentes formes : groupes de discussion, entretiens en personne ou à distance, auditions publiques, etc.

Principes et droits humains potentiellement affectés - Oui, parties prenantes internes

Droit à un recours effectif et droit à une participation effective 

Recommandation - Oui, parties prenantes internes

Échangez avec les parties prenantes externes dès que l’analyse interne initiale des impacts négatifs potentiels sur les droits humains est achevée. Mettez plus spécifiquement l’accent sur les groupes marginalisés préalablement identifiés. 

Commentaire - Oui, parties prenantes internes

Il est important d’échanger avec les parties prenantes internes pour que tout le monde ait la même vision des problèmes, pour valider les analyses internes et pour comprendre les problèmes potentiels qui n’ont pas encore été identifiés. 

Principes et droits humains potentiellement affectés - Non

Droit à un recours effectif et droit à une participation effective 

Recommandation - Non

Échangez avec les parties prenantes internes et externes sur le thème des impacts négatifs potentiels sur les droits humains. Mettez plus spécifiquement l’accent sur les groupes marginalisés préalablement identifiés. 

Commentaire - Non

Il est important d’échanger avec les parties prenantes internes sur le thème des impacts négatifs imprévus potentiels sur les droits humains afin de renforcer les capacités internes et l’appropriation de la gestion des risques. Il est important d’échanger avec les parties prenantes externes pour valider vos constatations et votre analyse avec des personnes qui ont parfois une vision plus approfondie des impacts potentiels, notamment les détenteur·rice·s de droits concerné·e·s. 

Principes et droits humains potentiellement affectés - Je ne sais pas

Droit à un recours effectif et droit à une participation effective 

Recommandation - Je ne sais pas

Consultez le·la client·e et les autres personnes impliquées dans le développement de la solution numérique et voyez si des échanges avec des parties prenantes internes et externes ont eu lieu au sujet des impacts négatifs potentiels sur les droits humains.

Des échanges ont-ils eu lieu avec des détenteur·rice·s de droits, y compris des non-utilisateur·rice·s, et/ou leurs représentant·e·s légitimes ?

Les détenteurs de droits comprennent toute personne dont les droits pourraient être affectés, ce qui inclut à la fois les utilisateurs prévus et les non-utilisateurs.

Commentaire - Oui, utilisateur·rice·s prévu·e·s et autres détenteur·rice·s de droits

Cela signifie que vous avez tenu compte d’un aspect significatif de l’implication des parties prenantes, à savoir obtenir directement les points de vue et les idées de détenteur·rice·s de droits potentiellement affecté·e·s. L’important est de s’assurer que l’échange a été utile. 

Principes et droits humains potentiellement affectés - Oui, utilisateur·rice·s prévu·e·s

Droit à un recours effectif et droit à une participation effective 

Recommandation - Oui, utilisateur·rice·s prévu·e·s

Élaborez un plan pour échanger avec des « non-utilisateur·rice·s » du produit ou du service potentiellement affecté·e·s. 

Commentaire - Oui, utilisateur·rice·s prévu·e·s

Il est important que les “non-utilisateurs” potentiellement concernés soient également impliqués lors de l’engagement des parties prenantes. Dans le cas contraire, vous risquez de ne pas être au courant des impacts liés, par exemple, à ceux qui pourraient être affectés par le fait qu’ils n’utilisent pas la solution numérique (par exemple, ceux qui ne sont pas “enrôlés” dans un projet d’identification numérique).

Principes et droits humains potentiellement affectés - Non

Droit à un recours effectif et droit à une participation effective 

Recommandation - Non

Élaborez un plan pour échanger avec des détenteur·rice·s de droits, notamment des non-utilisateur·rice·s et/ou leurs représentant·e·s légitimes. 

Commentaire - Non

Pendant les échanges avec les parties prenantes, il est important de parler plus spécifiquement avec des détenteur·rice·s de droits (utilisateur·rice·s et autres). Sinon, vous risquez de passer à côté d’impacts significatifs dont d’autres parties prenantes externes (qui ne sont pas des détenteur·rice·s de droits) n’ont pas conscience. 

Principes et droits humains potentiellement affectés - Je ne sais pas

Droit à un recours effectif et droit à une participation effective 

Recommandation - Je ne sais pas

Consultez le·la client·e ou les autres personnes impliquées dans le développement et l’utilisation de la solution numérique et voyez si des échanges avec des détenteur·rice·s de droits ont eu lieu.

Ont-ils fourni des contributions sur les impacts potentiels du projet ?

C’est le cas lorsque l’échange ne se limite pas au partage d’informations, mais vise également à obtenir les contributions de parties prenantes extérieures sur la composante numérique et ses impacts potentiels.

Commentaire - Oui

Il s’agit d’un aspect important pour garantir des échanges utiles avec les parties prenantes au sujet du respect des droits humains. 

Principes et droits humains potentiellement affectés - Non

Droit à un recours effectif et droit à une participation effective 

Recommandation - Non

Élaborez un plan pour échanger avec des détenteur·rice·s de droits, en vous efforçant d’obtenir leurs contributions sur les impacts et les risques pour les droits humains. 

Commentaire - Non

Il est important que l’échange avec les parties prenantes en général et avec les détenteur·rice·s de droits en particulier ne soit pas à sens unique. Les détenteur·rice·s de droits ou leurs représentant·e·s légitimes doivent pouvoir apporter leurs contributions sur l’analyse interne et leurs points de vue sur des sujets qui n’ont peut-être pas été abordés dans cette analyse. 

Principes et droits humains potentiellement affectés - Je ne sais pas

Droit à un recours effectif et droit à une participation effective 

Recommandation - Je ne sais pas

Consultez le·la client·e et les autres personnes impliquées dans le développement et l’utilisation de la solution numérique et voyez si des détenteur·rice·s de droits ont eu la possibilité d’apporter leur contribution.

Les problèmes soulevés par les détenteur·rice·s de droits ont-ils été résolus ?

Réfléchissez aux préoccupations qui ont été évoquées et évaluez si des mesures ont été prises pour prévenir ou atténuer ces impacts.

Commentaire - Yes

That means you have considered a significant aspect of stakeholder engagement, namely to ensure that the engagement is meaningful and that it impacts the development and/or use of the solution, as applicable. It is also important that you report back to the engaged stakeholders on what measures have been taken.

Recommandation - No, but the process of addressing such issues is underway.

Report back to rights holders previously engaged on the progress of addressing identified potential human rights issues, and provide a preliminary timeline.

Commentaire - No, but the process of addressing such issues is underway.

It is important that stakeholders, particularly marginalized rights holders, receive updates on the process so that they are able to assess whether the adequate adjustments have been made. If actions are delayed, you should still report back to stakeholders with preliminary timelines even if you are not able to report back on what exact actions will be taken.

Principes et droits humains potentiellement affectés - No, there are no such plans.

Right to an effective remedy and right to meaningful participation

Recommandation - No, there are no such plans.

Review the consultation feedback and other relevant materials to see whether there are in fact adjustments and accommodations that can be made to ensure that human rights impacts are adequately prevented, mitigated or otherwise addressed.

Commentaire - No, there are no such plans.

In order to ensure that stakeholder engagement, particularly with marginalized groups of rights holders, is meaningful it is essential that potential and actual negative human rights are addressed.

Principes et droits humains potentiellement affectés - I don't know

Right to an effective remedy and right to meaningful participation

Recommandation - I don't know

Consult with the client or others involved in the development and use of the digital solution and see whether issues raised by rights holders have been addressed.

Vous-même ou le·la client·e avez-vous publié des rapports sur les impacts potentiels, les mesures d’atténuation, les échanges avec les parties prenantes et les autres processus liés aux questions de cet outil ?

Il peut s’agir de rapports spécifiques à la composante numérique concernée, mais aussi de rapports plus larges associant des informations sur la composante numérique, sur les impacts potentiels identifiés et sur les autres activités associées. Il est important de fournir des informations pertinentes pour les parties prenantes externes, ce qui explique la nécessité d’aborder tous les thèmes mentionnés.

Commentaire - Oui, sur tous les thèmes.

Il est important de continuer à actualiser la communication publique au fur et à mesure de la mise en œuvre du projet et du déploiement de la composante numérique. Élaborez un plan sur la transparence et sur la poursuite des rapports, en indiquant notamment comment les informations atteindront le public visé, qui doit inclure les détenteur·rice·s de droits potentiellement affecté·e·s. Planifiez les communications avec les détenteur·rice·s de droits de manière à ce que les informations soient accessibles aux différents groupes concernés par le projet ou par la composante. 

Commentaire - Oui, sur certains des thèmes mentionnés.

Il est bon que certains rapports aient été publiés pour améliorer la transparence et donc la responsabilisation en lien avec le projet en général et la composante numérique en particulier. Il est toutefois important que tout soit mentionné dans les rapports, depuis les impacts identifiés jusqu’à l’efficacité des mesures d’atténuation, afin d’améliorer la responsabilisation. 

Principes et droits humains potentiellement affectés - Pas encore. En cours.

Droit à une participation effective et droit d’accès à l’information 

Commentaire - Pas encore. En cours.

Il est important que les parties prenantes, particulièrement les détenteur·rice·s de droits marginalisé·e·s, reçoivent des informations sur la mise en œuvre du projet afin qu’ils puissent déterminer s’ils sont d’accord avec l’analyse d’impact et si des mesures appropriées ont été prises. 

Principes et droits humains potentiellement affectés - Non, aucun plan de ce genre n’est prévu.

Droit à une participation effective et droit d’accès à l’information 

Recommandation - Non, aucun plan de ce genre n’est prévu.

Collaborez avec vos partenaires pour élaborer un plan de transparence et de communication autour des impacts identifiés, des échanges avec les parties prenantes et des mesures de prévention et/ou d’atténuation prévues. 

Commentaire - Non, aucun plan de ce genre n’est prévu.

La transparence est un aspect important de l’approche fondée sur les droits utilisée pour évaluer les impacts sur les droits humains. 

Principes et droits humains potentiellement affectés - Je ne sais pas

Droit à une participation effective et droit d’accès à l’information 

Recommandation - Je ne sais pas

Consultez le·la client·e ou les autres personnes impliquées dans le développement et l’utilisation de la solution numérique et voyez si des rapports ont été publiés.

Les principes des droits humains doivent guider la programmation et la coopération au développement. Cela signifie, entre autres, qu’il est important de tenir compte du principe de participation et d’inclusion dans votre projet ou en lien avec l’utilisation d’une solution numérique. La transparence et les rapports sont essentiels pour satisfaire à ce principe, sachant qu’ils peuvent également renforcer la capacité des détenteur·rice·s de droits à faire valoir leurs droits. Pour en savoir plus sur l’approche fondée sur les droits humains, voir : 

Droit à la liberté d’information : 

Droit de participation: 

Quels thèmes n’ont pas fait l’objet de rapports ?

Parmi les thèmes énumérés, déterminez ceux qui n’ont pas fait l’objet de rapports sous quelque forme que ce soit. Un rapport peut être une simple communication directe avec toutes les personnes affectées, ce qui peut s’avérer relativement simple si le groupe de personnes concernées est limité.

Recommandation - Impacts potentiels

Élaborez un plan visant à accroître les efforts de transparence associés aux impacts potentiels identifiés. 

Recommandation - Implication des parties prenantes

Élaborez un plan visant à accroître les efforts de transparence associés aux échanges avec les parties prenantes. 

Recommandation - Mesures d’atténuation

Élaborez un plan visant à accroître les efforts de transparence associés aux mesures d’atténuation. 

Un mécanisme a-t-il été mis en place pour recueillir les commentaires, les plaintes ou les réclamations d’utilisateur·rice·s et de non-utilisateur·rice·s de la solution numérique ?

Il est important de disposer d’un mécanisme permettant aux individus (utilisateur·rice·s et non-utilisateur·rice·s) de soumettre des plaintes ou des préoccupations au sujet du projet ou de la solution numérique. Ce mécanisme peut se présenter sous la forme d’une hotline téléphonique, d’un simple compte de courriel, d’un service de chat ou d’une boîte aux lettres physique. Les projets doivent, en outre, désigner un.e délégué.e à la protection des données. Ces mécanismes permettent de détecter rapidement les risques et les impacts potentiels sur les droits humains et d’identifier les personnes dont les droits ont été affectés afin qu’une réparation puisse leur être fournie.

Commentaire - Oui, pour les utilisateur·rice·s et les non-utilisateur·rice·s.

La mise en place d’un mécanisme permettant de gérer les réclamations est un aspect essentiel du respect des droits humains. Revoyez le critère d’efficacité des Principes directeurs des Nations unies relatifs aux entreprises et aux droits de l’homme pour voir si le mécanisme de recours existant peut être amélioré (voir les ressources supplémentaires). 

Principes et droits humains potentiellement affectés - Oui, pour les utilisateur·rice·s uniquement.

Droit à un recours effectif et droit à une participation effective 

Recommandation - Oui, pour les utilisateur·rice·s uniquement.

Étudiez le mécanisme de recours et la communication qui l’entoure pour vous assurer que les non-utilisateur·rice·s potentiellement affecté·e·s peuvent également y accéder et obtenir des informations à son sujet. 

Commentaire - Oui, pour les utilisateur·rice·s uniquement.

Il est important que les non-utilisateur·rice·s puissent également soumettre leurs plaintes. Cela peut, par exemple, être le cas lorsque les personnes qui ne se sont pas inscrites à un projet d’inscription en ligne ne sont pas entendues alors que ce sont leurs préoccupations qui présentent le plus d’intérêt pour s’assurer que les impacts potentiels sur les droits humains sont évités ou résolus. 

Principes et droits humains potentiellement affectés - Pas encore. En cours.

Droit à un recours effectif et droit à une participation effective 

Recommandation - Pas encore. En cours.

Élaborez un plan pour le moment où le mécanisme de recours sera en place et vérifiez que tou·te·s les détenteur·rice·s de droits concerné·e·s peuvent accéder au mécanisme et qu’il·elle·s seront informé·e·s de son existence une fois le mécanisme déployé. 

Principes et droits humains potentiellement affectés - Non, aucun plan de ce genre n’est prévu.

Droit à un recours effectif et droit à une participation effective 

Recommandation - Non, aucun plan de ce genre n’est prévu.

Collaborez avec vos partenaires pour élaborer un mécanisme aligné sur le critère d’efficacité des Principes directeurs des Nations unies relatifs aux entreprises et aux droits de l’homme (voir les ressources supplémentaires). 

Commentaire - Non, aucun plan de ce genre n’est prévu.

La mise en place d’un mécanisme permettant de gérer les réclamations est un aspect essentiel du respect des droits humains. 

Principes et droits humains potentiellement affectés - Je ne sais pas

Droit à un recours effectif et droit à une participation effective 

Recommandation - Je ne sais pas

Consultez le·la client·e ou les autres personnes impliquées dans le développement et l’utilisation de la solution numérique et voyez si un mécanisme de recours existe, s’il est utilisé et par qui. 

Merci de votre participation

Voici votre page de résultats.

Vous trouverez, ci-dessous, un aperçu de la solution numérique, basé sur les réponses que vous avez fournies, ainsi qu’une compilation des recommandations qui vous ont été fournies tout au long de l’évaluation. Vous pourrez également télécharger un modèle de plan d’action en faveur des droits humains reprenant les recommandations afin de vous aider à concevoir les prochaines étapes permettant de répondre aux impacts potentiels sur les droits humains.

Comme vous le remarquerez, les recommandations sont destinées à la personne qui développe ou qui utilise une solution numérique. Si vous avez utilisé la vérification des droits numériques pour évaluer les risques d’une solution numérique que vous utilisez ou que vous prévoyez d’utiliser, vous pouvez vous-même prendre immédiatement des mesures sur la base des recommandations.

Si vous avez utilisé la vérification des droits numériques en mettant l’accent sur le développement et/ou l’utilisation d’une solution numérique par un·e client·e, vous pouvez utiliser les recommandations pour décider ou non de lancer le projet et/ou pour faire pression sur le·la client·e afin qu’il prenne des mesures en lien avec les risques identifiés. Si vous vous trouvez en phase de détection et de diligence raisonnable, vous pouvez envisager d’utiliser ces recommandations pour décider de la catégorie de risque du projet, pour définir le champ d’action de votre propre diligence raisonnable, pour compléter les questions standard du questionnaire de diligence raisonnable destiné aux client·e·s et/ou pour prioriser ces problèmes dans le plan d’action social et environnemental. Si vous vous trouvez en phase de suivi, vous pouvez envisager d’utiliser ces recommandations lors de l’évaluation de la qualité de mise en œuvre du plan d’action social et environnemental, lors de la collecte de données auprès du·de la client·e via le questionnaire de suivi et/ou lors des échanges avec le·la client·e pendant les visites sur site.

N’oubliez pas que l’évaluation du profil de risque de votre projet et les recommandations fournies sont basées sur vos réponses et pourraient s’avérer inexactes si certaines caractéristiques spécifiques à votre projet et ayant un impact sur les risques liés aux droits humains n’ont pas été prises en compte lors de l’évaluation. Nous vous encourageons à considérer ces résultats comme des conseils et à continuer d’évaluer les risques potentiels pour les droits humains et les mesures à prendre en tenant compte des caractéristiques spécifiques de votre projet.