Comment l'anonymisation basée sur l'IA aide les forces de l'ordre à respecter les réglementations sur la protection des données

Łukasz Bonczol
16/07/2025

À une époque où les preuves visuelles sont cruciales pour les opérations des forces de l'ordre, concilier transparence et exigences de confidentialité présente des défis majeurs. Les services de police du monde entier partagent de plus en plus des vidéos et des images avec les médias ou sur leurs propres chaînes YouTube - mais sans une anonymisation adéquate, ils risquent de violer des réglementations strictes sur la protection des données comme le RGPD. Les conséquences peuvent être graves : amendes considérables, perte de confiance du public et enquêtes potentiellement compromises.

L'intelligence artificielle est devenue un véritable changement de paradigme dans ce domaine. Les solutions d'anonymisation modernes alimentées par l'IA peuvent automatiquement détecter et flouter les visages, les plaques d'immatriculation et autres identifiants personnels dans les vidéos et images, créant un flux de travail fluide qui protège la vie privée tout en préservant la valeur probante des matériaux visuels. Cette technologie est devenue indispensable pour les forces de l'ordre qui souhaitent partager du contenu publiquement tout en respectant les lois sur la protection de la vie privée.

Explorons comment l'anonymisation basée sur l'IA révolutionne la conformité en matière de protection des données pour les services de police et autres organismes d'application de la loi, en leur fournissant des outils sécurisés et efficaces pour protéger les informations personnelles dans leurs communications visuelles.

Person sitting on the floor surrounded by laptops, wearing a checkered sweater, holding a tablet, and leaning against a sofa. Black and white image.

Quels sont les principaux défis en matière de confidentialité auxquels sont confrontées les forces de l'ordre lors du partage de contenu visuel?

Les forces de l'ordre capturent régulièrement des images contenant des données personnelles sensibles, qu'elles proviennent de caméras-piétons, de systèmes de surveillance ou de caméras embarquées. Lorsque ces images doivent être partagées avec les médias ou publiées sur des canaux officiels, chaque visage visible, plaque d'immatriculation et caractéristique identifiable devient une préoccupation potentielle en matière de confidentialité selon le RGPD et autres réglementations similaires.

Le floutage manuel de ce contenu est extrêmement chronophage et sujet aux erreurs. Un seul visage oublié dans une scène de foule ou une plaque d'immatriculation partiellement visible peut entraîner une non-conformité réglementaire. De plus, le volume considérable de matériel vidéo que les services de police traitent quotidiennement rend l'anonymisation manuelle pratiquement impossible sans solutions technologiques dédiées.

Un autre défi majeur consiste à maintenir le contexte et l'utilité des preuves tout en supprimant les informations identifiantes. Un floutage excessif peut rendre les images inutilisables pour l'objectif visé, tandis qu'une anonymisation insuffisante ne protège pas la vie privée.

Images de surveillance montrant plusieurs personnes montant et descendant un escalier faiblement éclairé, avec des boîtes numériques mettant en évidence chaque personne.

Comment le RGPD impacte-t-il spécifiquement le traitement des vidéos de police?

Selon le RGPD, les forces de l'ordre doivent traiter les données personnelles avec une extrême prudence, même lorsqu'elles les traitent à des fins légitimes de sécurité publique. L'article 4 du RGPD définit les données personnelles comme incluant des caractéristiques identifiables telles que les visages et les plaques d'immatriculation - précisément les éléments couramment capturés dans les vidéos de police.

Lors du partage externe de ces images, les services de police doivent s'assurer que toutes les données personnelles sont soit anonymisées, soit traitées avec des motifs légaux explicites. Le règlement exige que les données personnelles soient traitées de manière licite, équitable et transparente, avec des mesures techniques appropriées pour garantir la conformité.

La non-conformité peut entraîner des sanctions substantielles - jusqu'à 4% du chiffre d'affaires annuel mondial ou 20 millions d'euros, selon le montant le plus élevé. Pour les institutions publiques comme les services de police, ces amendes représentent un risque financier important, sans parler des dommages potentiels à la confiance du public.

Mains tenant divers microphones sur fond blanc uni, prêtes pour une interview ou une conférence de presse. Image en noir et blanc.

L'IA peut-elle automatiser le processus de floutage des visages dans les vidéos de police?

Les algorithmes d'IA avancés ont révolutionné le processus de floutage des visages en automatisant ce qui était autrefois une tâche extrêmement laborieuse. Ces systèmes peuvent détecter les visages avec une précision remarquable sous différents angles, conditions d'éclairage, et même lorsqu'ils sont partiellement masqués. La technologie utilise des modèles d'apprentissage profond entraînés sur des ensembles de données diversifiés pour reconnaître les caractéristiques humaines dans pratiquement n'importe quel environnement vidéo.

Les solutions logicielles modernes sur site peuvent traiter les vidéos en temps réel ou quasi-réel, identifiant et floutant automatiquement les visages tout au long de la séquence. Cette automatisation réduit considérablement le temps de traitement, passant de ce qui aurait pu prendre des jours à seulement quelques minutes ou heures, selon le volume de contenu.

Les systèmes d'IA peuvent également être configurés pour reconnaître des contextes spécifiques - par exemple, flouter les visages des civils tout en laissant visibles ceux des officiers lorsque c'est approprié, créant ainsi une approche plus nuancée de la protection de la vie privée dans les contextes d'application de la loi.

Une personne tend la main, masquée par un code binaire projeté en noir et blanc, créant une atmosphère mystérieuse et numérique.

Pourquoi l'anonymisation des plaques d'immatriculation est-elle particulièrement importante pour les services de police?

Les plaques d'immatriculation contiennent des identifiants uniques directement liés aux individus, ce qui en fait des données personnelles selon le RGPD et autres réglementations similaires sur la protection de la vie privée. Lorsque la police partage des images de contrôles routiers, d'accidents ou d'activités de patrouille, les plaques d'immatriculation visibles pourraient exposer l'identité et les déplacements des citoyens sans leur consentement.

Le défi de l'anonymisation des plaques d'immatriculation réside dans la variété des formats, la visibilité partielle dans les séquences, et la nécessité de les traiter sous différents angles et conditions d'éclairage. Les systèmes alimentés par l'IA excellent ici en reconnaissant les motifs de plaques d'immatriculation même lorsqu'ils sont partiellement visibles ou capturés sous des angles inhabituels.

Pour les forces de l'ordre, l'anonymisation adéquate des plaques d'immatriculation est essentielle non seulement pour la conformité réglementaire, mais aussi pour protéger les enquêtes en cours et prévenir le harcèlement potentiel des personnes dont les véhicules pourraient être identifiés dans les images publiées.

Image en noir et blanc de policiers anti-émeute debout en ligne, tenant des boucliers, portant des équipements de protection et des bottes sur une surface en béton.

Comment les solutions sur site renforcent-elles la sécurité des données dans le traitement des vidéos de police?

Les logiciels d'anonymisation sur site offrent des avantages significatifs pour les forces de l'ordre qui manipulent des preuves visuelles sensibles. Contrairement aux alternatives basées sur le cloud, ces solutions conservent toutes les données au sein de l'infrastructure physique de l'organisation, éliminant les préoccupations liées au transfert d'informations sensibles vers des serveurs externes.

Cette approche assure un contrôle complet sur la chaîne de traitement des données, une considération critique pour les matériaux qui peuvent faire partie d'enquêtes actives. Les systèmes sur site peuvent être intégrés aux protocoles de sécurité existants et fonctionner derrière les pare-feu de l'agence, réduisant considérablement les vecteurs d'attaque potentiels.

De plus, les solutions sur site permettent une personnalisation pour répondre aux besoins spécifiques du département et aux exigences de conformité. Elles peuvent être configurées pour s'aligner sur les lois locales de protection de la vie privée et les protocoles internes sans dépendre des calendriers de mise à jour ou de la disponibilité des services des fournisseurs externes.

Une personne grimpe sur une longue échelle s'étendant dans un ciel rempli de nuages, créant une scène surréaliste et onirique.

Quelles efficacités l'IA apporte-t-elle au flux de travail d'anonymisation vidéo?

L'anonymisation alimentée par l'IA simplifie considérablement l'ensemble du flux de traitement vidéo. Ce qui nécessitait auparavant une édition manuelle image par image peut désormais être accompli grâce à la détection et au floutage automatisés. Ce gain d'efficacité permet au personnel des forces de l'ordre de se concentrer sur leurs responsabilités principales plutôt que sur des tâches d'édition fastidieuses.

Les systèmes modernes peuvent traiter plusieurs vidéos simultanément, gérant des heures de séquences dans le temps qu'il faudrait à un éditeur humain pour anonymiser seulement quelques minutes de contenu. Cette évolutivité est particulièrement précieuse lors d'incidents majeurs où de grands volumes de matériel peuvent nécessiter un traitement dans des délais serrés.

L'automatisation apporte également de la cohérence au processus d'anonymisation. Alors que les éditeurs humains pourraient manquer des identifiants lorsqu'ils sont fatigués ou pressés, les systèmes d'IA maintiennent des taux de détection constants tout au long des vidéos, même les plus longues, assurant une protection de la vie privée plus fiable.

Une figure humanoïde en costume avec une caméra de surveillance en guise de tête, sur fond gris.

Comment les services de police peuvent-ils assurer la conformité lors du partage de vidéos avec les médias?

Lors du partage de matériel vidéo avec les organisations médiatiques, les forces de l'ordre doivent s'assurer que tout le contenu est correctement anonymisé avant le transfert. Cela nécessite l'établissement de protocoles clairs pour la révision du contenu et la mise en œuvre de solutions technologiques capables de traiter rapidement les matériaux sans compromettre les normes de confidentialité.

Une approche complète comprend l'utilisation de logiciels d'anonymisation alimentés par l'IA avec des fonctionnalités de validation permettant aux officiers de vérifier et de confirmer que tous les éléments sensibles ont été correctement floutés. Certains systèmes avancés offrent des métriques de confiance pour les détections, mettant en évidence les zones qui peuvent nécessiter une vérification humaine supplémentaire.

Les départements devraient également tenir des journaux de traitement détaillés documentant quand et comment les vidéos ont été anonymisées avant le partage externe. Ces pistes d'audit peuvent s'avérer inestimables si des questions de conformité surgissent ultérieurement, démontrant l'engagement de l'agence envers les principes de protection des données.

Deux mannequins en chemise et cravate exposés dans un magasin de vêtements, entourés de portants. Image en noir et blanc.

Quelles fonctionnalités les forces de l'ordre devraient-elles rechercher dans un logiciel d'anonymisation?

Lors de l'évaluation des outils d'anonymisation, les forces de l'ordre devraient privilégier les logiciels offrant une haute précision de détection dans diverses conditions - y compris les séquences nocturnes, les sujets partiellement masqués et divers angles de caméra. Le système doit maintenir son efficacité même avec des vidéos de moindre qualité provenant de systèmes de surveillance plus anciens.

La vitesse de traitement est tout aussi cruciale, particulièrement pour les départements gérant de grands volumes de séquences. Recherchez des solutions offrant des capacités de traitement par lots et une utilisation efficace des ressources pour minimiser les exigences matérielles.

D'autres fonctionnalités essentielles comprennent des options de floutage personnalisables (pixellisation, masques solides ou effets de flou), la capacité de suivre des objets à travers les images pour maintenir une anonymisation cohérente, et des interfaces conviviales nécessitant une formation minimale. Enfin, la journalisation complète des audits aide à démontrer les efforts de conformité si des questions surgissent concernant les mesures de protection de la vie privée.

Illustration 3D d'un document avec une icône d'utilisateur et un crayon, entouré de cases de différentes tailles en arrière-plan.

Comment l'anonymisation basée sur l'IA évolue-t-elle pour répondre aux futurs défis de confidentialité?

La prochaine génération de technologie d'anonymisation par IA développe une compréhension contextuelle plus sophistiquée, permettant aux systèmes de prendre des décisions de plus en plus nuancées sur ce qui devrait être anonymisé en fonction des circonstances spécifiques de chaque vidéo. Cela pourrait inclure la reconnaissance des fonctionnaires qui ne nécessitent pas d'anonymisation tout en protégeant l'identité des civils.

Les algorithmes de suivi avancés améliorent la capacité du système à maintenir une anonymisation cohérente même lorsque les sujets entrent et sortent du cadre ou sont temporairement masqués. Cela réduit le besoin d'intervention humaine et augmente la fiabilité globale.

La recherche progresse également sur les techniques d'anonymisation réversible qui permettraient au personnel autorisé de ""désanonymiser"" le contenu lorsque c'est légalement nécessaire tout en maintenant les protections de la vie privée pour la distribution générale. Cette approche équilibrée pourrait fournir à la fois la conformité en matière de confidentialité et la flexibilité d'enquête lorsque nécessaire.

A group of uniformed soldiers with medals, blurred faces, and rifles walk in formation in front of a bus. Black and white photo.

Quelles mesures pratiques les services de police peuvent-ils prendre pour mettre en œuvre une anonymisation vidéo efficace?

Commencez par effectuer une évaluation approfondie des flux de travail de traitement vidéo de votre département pour identifier les vulnérabilités en matière de confidentialité et les lacunes de conformité. Cette révision devrait impliquer à la fois le personnel technique et les conseillers juridiques familiers avec les réglementations applicables en matière de confidentialité.

Ensuite, évaluez les solutions d'anonymisation disponibles en mettant l'accent sur celles conçues spécifiquement pour les besoins des forces de l'ordre. Envisagez d'organiser des démonstrations utilisant vos propres échantillons d'images pour tester les performances dans des scénarios réels pertinents pour vos opérations.

Développez des protocoles clairs sur quand et comment les vidéos doivent être anonymisées avant le partage, et fournissez une formation complète à tout le personnel impliqué dans les relations avec les médias ou la publication de contenu. Enfin, mettez en œuvre des audits réguliers de conformité pour garantir que les processus d'anonymisation restent efficaces à mesure que la technologie et les réglementations évoluent.

Prêt à renforcer la conformité de votre département en matière de confidentialité? Contactez-nous pour découvrir comment Gallio Pro peut automatiser votre flux de travail d'anonymisation vidéo ou téléchargez notre démo pour voir notre technologie alimentée par l'IA en action.

Personne travaillant sur un ordinateur portable avec des croquis de conception et des diagrammes sur une table en bois, vue d'en haut.

Liste de références

  1. Union européenne. Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données). Journal officiel de l'Union européenne L 119, 4 mai 2016. Disponible à l'adresse : https://eur-lex.europa.eu/eli/reg/2016/679/oj Union européenne. Directive (UE) 2016/680 du Parlement européen et du Conseil du 27 avril 2016 relative à la protection des personnes physiques à l'égard du traitement des données à caractère personnel par les autorités compétentes à des fins de prévention et de détection des infractions pénales, d'enquêtes et de poursuites en la matière ou d'exécution de sanctions pénales. Journal officiel de l'Union européenne L 119, 4 mai 2016. Disponible à l'adresse : https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=celex%3A32016L0680 Groupe de travail « Article 29 ». Lignes directrices sur la prise de décision individuelle automatisée et le profilage aux fins du règlement 2016/679. WP251rev.01, adoptées le 3 octobre 2017, révisées en dernier lieu le 6 février 2018. Disponible à l'adresse : https://ec.europa.eu/newsroom/article29/items/612053 Comité européen de la protection des données. Lignes directrices n° 1/2020 sur le traitement des données à caractère personnel dans le contexte des véhicules connectés et des applications liées à la mobilité. Version 2.0, adoptée le 9 mars 2021. Disponible à l'adresse : https://edpb.europa.eu/sites/default/files/file1/edpb_guidelines_202001_connected_vehicles.pdf Comité européen de la protection des données. Lignes directrices 05/2022 sur l'utilisation de la technologie de reconnaissance faciale dans le domaine répressif. Version 2.0, adoptée le 26 avril 2023. Disponible à l'adresse : https://edpb.europa.eu/system/files/2023-04/edpb_guidelines_202205_frtlawenforcement_v2_en.pdf Information Commissioner's Office (ICO). Anonymisation : code de bonnes pratiques pour la gestion des risques liés à la protection des données. Version 1.0, novembre 2012. Disponible à l'adresse : https://ico.org.uk/media/1061/anonymisation-code.pdf Voigt, Paul et Axel von dem Bussche. Règlement général sur la protection des données (RGPD) de l'UE : Guide pratique. 2e éd. Cham : Springer International Publishing, 2022. Kuner, Christopher, Lee A. Bygrave et Christopher Docksey (dir.). Règlement général sur la protection des données (RGPD) de l'UE : Commentaire. Oxford : Oxford University Press, 2020. Gutwirth, Serge, Ronald Leenes et Paul De Hert (dir.). Reloading Data Protection: Multidisciplinary Insights and Contemporary Challenges. Dordrecht : Springer, 2014. Bygrave, Lee A. Data Privacy Law: An International Perspective. Oxford : Oxford University Press, 2014. Goodfellow, Ian, Yoshua Bengio et Aaron Courville. Deep Learning. Cambridge, MA : MIT Press, 2016. Russell, Stuart et Peter Norvig. Artificial Intelligence: A Modern Approach. 4e éd. Harlow : Pearson Education Limited, 2021. Li, Tiancheng et Ninghui Li. « Le compromis entre confidentialité et utilité dans la publication de données ». Actes de la 15e conférence internationale ACM SIGKDD sur la découverte de connaissances et l’exploration de données, 2009 : 517-526. Sweeney, Latanya. « K-anonymat : un modèle de protection de la vie privée ». Revue internationale de l’incertitude, du flou et des systèmes basés sur la connaissance, 10, n° 5 (2002) : 557-570. Ohm, Paul. « Promesses de confidentialité non tenues : réponse à l’échec surprenant de l’anonymisation ». Revue de droit de l’UCLA, 57 (2010) : 1701-1777. Narayanan, Arvind et Vitaly Shmatikov. « Dé-anonymisation robuste de grands ensembles de données éparses ». Symposium IEEE 2008 sur la sécurité et la confidentialité, 2008 : 111-125. El Emam, Khaled. Guide pour la dépersonnalisation des informations de santé personnelles. Boca Raton : CRC Press, 2013. Dwork, Cynthia. « Confidentialité différentielle : une étude des résultats.» Conférence internationale sur la théorie et les applications des modèles de calcul, 2008 : 1-19. Gates, Kelly A. Notre avenir biométrique : Technologie de reconnaissance faciale et culture de la surveillance. New York : NYU Press, 2011. Lyon, David. Études de surveillance : un aperçu. Cambridge : Polity Press, 2007. Introna, Lucas D., et David Wood. « Imaginer la surveillance algorithmique : la politique des systèmes de reconnaissance faciale.» Surveillance & Society 2, n° 2/3 (2004) : 177-198.Union européenne. Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données). Journal officiel de l'Union européenne L 119, 4 mai 2016. Disponible à l'adresse : https://eur-lex.europa.eu/eli/reg/2016/679/oj Union européenne. Directive (UE) 2016/680 du Parlement européen et du Conseil du 27 avril 2016 relative à la protection des personnes physiques à l'égard du traitement des données à caractère personnel par les autorités compétentes à des fins de prévention et de détection des infractions pénales, d'enquêtes et de poursuites en la matière ou d'exécution de sanctions pénales. Journal officiel de l'Union européenne L 119, 4 mai 2016. Disponible à l'adresse : https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=celex%3A32016L0680 Groupe de travail « Article 29 ». Lignes directrices sur la prise de décision individuelle automatisée et le profilage aux fins du règlement 2016/679. WP251rev.01, adoptées le 3 octobre 2017, révisées en dernier lieu le 6 février 2018. Disponible à l'adresse : https://ec.europa.eu/newsroom/article29/items/612053 Comité européen de la protection des données. Lignes directrices n° 1/2020 sur le traitement des données à caractère personnel dans le contexte des véhicules connectés et des applications liées à la mobilité. Version 2.0, adoptée le 9 mars 2021. Disponible à l'adresse : https://edpb.europa.eu/sites/default/files/file1/edpb_guidelines_202001_connected_vehicles.pdf Comité européen de la protection des données. Lignes directrices 05/2022 sur l'utilisation de la technologie de reconnaissance faciale dans le domaine répressif. Version 2.0, adoptée le 26 avril 2023. Disponible à l'adresse : https://edpb.europa.eu/system/files/2023-04/edpb_guidelines_202205_frtlawenforcement_v2_en.pdf Bureau du commissaire à l'information (ICO). Anonymisation : code de bonnes pratiques pour la gestion des risques liés à la protection des données. Version 1.0, novembre 2012. Disponible à l'adresse : https://ico.org.uk/media/1061/anonymisation-code.pdf Voigt, Paul et Axel von dem Bussche. Règlement général sur la protection des données (RGPD) de l'UE : Guide pratique. 2e éd. Cham : Springer International Publishing, 2022. Kuner, Christopher, Lee A. Bygrave et Christopher Docksey (réal.). Règlement général sur la protection des données (RGPD) de l'UE : Commentaire. Oxford : Oxford University Press, 2020. Gutwirth, Serge, Ronald Leenes et Paul De Hert (réal.). Recharger la protection des données : perspectives multidisciplinaires et défis contemporains. Dordrecht : Springer, 2014. Bygrave, Lee A. Loi sur la confidentialité des données : une perspective internationale. Oxford : Oxford University Press, 2014. Goodfellow, Ian, Yoshua Bengio et Aaron Courville. Apprentissage profond. Cambridge, MA : MIT Press, 2016. Russell, Stuart et Peter Norvig. Intelligence artificielle : une approche moderne. 4e éd. Harlow : Pearson Education Limited, 2021. Li, Tiancheng et Ninghui Li. « Le compromis entre confidentialité et utilité dans la publication de données ». Actes de la 15e conférence internationale ACM SIGKDD sur la découverte de connaissances et l'exploration de données, 2009 : 517-526. Sweeney, Latanya. « K-anonymat  : un modèle de protection de la vie privée ». Revue internationale de l'incertitude, du flou et des systèmes utilisés sur la connaissance, 10, n° 5 (2002) : 557-570. Oh, Paul. « Promesses de confidentialité non tenues : réponse à l’échec surprenant de l’anonymisation ». Revue de droit de l'UCLA, 57 (2010) : 1701-1777. Narayanan, Arvind et Vitaly Shmatikov. « Dé-anonymisation robuste de grands ensembles de données éparses ». Symposium IEEE 2008 sur la sécurité et la confidentialité, 2008 : 111-125. El Emam, Khaled. Guide pour la dépersonnalisation des informations de santé personnelles. Boca Raton : CRC Press, 2013. Dwork, Cynthia. « Confidentialité différentielle : une étude des résultats.» Conférence internationale sur la théorie et les applications des modèles de calcul, 2008 : 1-19. Gates, Kelly A. Notre avenir biométrique : Technologie de reconnaissance faciale et culture de la surveillance. New York : NYU Press, 2011. Lyon, David. Études de surveillance : un aperçu. Cambridge : Polity Press, 2007. Introna, Lucas D. et David Wood. « Imaginer la surveillance algorithmique : la politique des systèmes de reconnaissance faciale.» Surveillance & Société 2, n° 2/3 (2004)  : 177-198. Smith, Gavin J.D. « Derrière les écrans : Examen des constructions de déviance et des pratiques informelles parmi les opérateurs de salles de contrôle de vidéosurveillance au Royaume-Uni. » Surveillance & Society 2, n° 2/3 (2004) : 376-395. Agence des droits fondamentaux de l'Union européenne. Technologie de reconnaissance faciale : considérations relatives aux droits fondamentaux dans le contexte de l'application de la loi. Luxembourg : Office des publications de l'Union européenne, 2019. Disponible à l'adresse : https://fra.europa.eu/sites/default/files/fra_uploads/fra-2019-facial-recognition-technology-focus-paper-1_en.pdf Service de recherche du Parlement européen. L'impact du Règlement général sur la protection des données (RGPD) sur l'intelligence artificielle. PE 624.261, juillet 2020. Disponible à l'adresse : https://www.europarl.europa.eu/RegData/etudes/STUD/2020/641530/EPRS_STU(2020)641530_EN.pdf Deloitte. Privacy by Design: Current practices in Estonia, Finland and Germany. 2019. Disponible à l'adresse : https://www2.deloitte.com/content/dam/Deloitte/ee/Documents/risk/privacy-by-design-study.pdf Cour de justice de l'Union européenne. Maximillian Schrems c. Commissaire à la protection des données. Affaire C-362/14, arrêt du 6 octobre 2015 (Schrems I). Cour de justice de l'Union européenne. Commissaire à la protection des données c. Facebook Ireland Limited et Maximillian Schrems. Affaire C-311/18, arrêt du 16 juillet 2020 (Schrems II). Cour européenne des droits de l'homme. Big Brother Watch et autres c. Royaume-Uni. Requêtes n° 58170/13, 62322/14 et 24960/15, arrêt du 25 mai 2021. Commission nationale de l'informatique et des libertés (CNIL). Reconnaissance faciale : pour un débat à la hauteur des enjeux. Novembre 2019. Disponible à l'adresse : https://www.cnil.fr/sites/default/files/atoms/files/facial-recognition.pdf Commissaire fédéral allemand à la protection des données et à la liberté d'information. Intelligence artificielle et protection des données. Rapport d'activité 2019-2020. Disponible à l'adresse : https://www.bfdi.bund.de/SharedDocs/Downloads/EN/TB/TB_2019_2020.pdf Information Commissioner's Office du Royaume-Uni. Rapport actualisé sur les technologies publicitaires et les enchères en temps réel. Juin 2019. Disponible à l'adresse : https://ico.org.uk/media/about-the-ico/documents/2615156/adtech-real-time-bidding-report-201906-dl191220.pdf Organisation internationale de normalisation. ISO/IEC 27001:2013 Technologies de l'information — Techniques de sécurité — Systèmes de management de la sécurité de l'information — Exigences. Genève : ISO, 2013. Institut national des normes et de la technologie. Cadre de confidentialité : un outil pour améliorer la confidentialité grâce à la gestion des risques d'entreprise. Cadre de confidentialité du NIST, version 1.0, janvier 2020. Disponible à l'adresse : https://nvlpubs.nist.gov/nistpubs/CSWP/NIST.CSWP.01162020.pdf Association de normalisation IEEE. IEEE 2857-2021 - Norme IEEE pour l'ingénierie de la confidentialité et la gestion des risques. New York : IEEE, 2021.