Synthèse hebdomadaire - veille thématique

SC0yDSXjQQOnnZv6O5s0cw (edit on hedgedoc)

created: 20230919

updated: 12:27:58 - February 15, 2024

Synthèse hebdomadaire - veille thématique

Surveillance et securité - Privacy

Laila et Nahean

Cerner de la thématique : quel est l’objet de la thématique ? Où s’arrête-t-il ?

L’objet d’analyse est comprendre comment les jeunes utilisateurs des réseaux sociaux et d’Internet en général voient la question de la surveillance et de la sécurité. Plus spécifiquement, la thématique cherche à comprendre quels types d’actions et de précautions les jeunes utilisent et quel niveau de conscience ils ont concernant la protection de leurs données personnelles dans les applications les plus utilisées. Pour obtenir ces données, il serait nécessaire d’utiliser des méthodes mixtes de recherche.

Importance : en quoi la thématique est un enjeu du numérique/web ? Quels sont les enjeux de la thématique ?

La thématique est un enjeu du numérique parce qu’elle est en relation directe avec l’utilisation d’Internet et aborde une question centrale : la collecte excessive des données et la compréhension que les utilisateurs ont de leur vie privée et de leur sécurité. La collecte de données est présente dès le moment où une page web est ouverte, avec l’utilisation de cookies et même la collecte d’informations sur la durée pendant laquelle le curseur de notre souris reste sur une annonce ou vídeo spécifique. Cependant, cette collecte excessive n’est pas nécessaire, et il existe un intérêt évident de la part des “Big Techs” (GAFAM) à obtenir le maximum d’informations possible sur l’utilisateur, et qui les individus reste indifférents à cette question cruciale de la protection des données. Ainsi, la thématique de la veille vise à comprendre quelles actions les jeunes adoptent pour préserver leur vie privée, ainsi que comment sensibiliser toutes les personnes, en commençant par les jeunes, à cette question et les inciter à agir pour lutter contre la surveillance sur Internet.

Problématisation de la thématique

Notre recherche se concentre sur l’analyse de la prise de conscience du public en ce qui concerne la sécurité en ligne et les pratiques croissantes de surveillance employées par les grandes entreprises technologiques communément appelées les “Big Techs”, en particulier le conglomérat GAFAM, comprenant Google, Apple, Facebook, Amazon et Microsoft.

La problématique centrale réside dans l’indifférence prédominante manifestée par la majorité des individus à l’égard de la sécurité de leurs activités en ligne, la considérant moins importante que leur sécurité physique dans le “monde réel”. Le manque de sensibilisation concernant les méthodes étendues de collecte de données utilisées par ces grandes plateformes pose un défi significatif, permettant la poursuite d’une surveillance omniprésente avec des conséquences potentiellement graves.

Depuis les années 90, le monde a vu la croissance exponentielle du World Wide Web et de ses applications associées, évoluant des connexions Internet basiques à composition par numérotation à une connectivité haut débit à portée de main, associée à l’omniprésence des plateformes de médias sociaux dans notre vie quotidienne. Cette transformation rapide a encore compliqué la compréhension du fonctionnement d’Internet par les personnes qui ne travaillent pas dans le domaine, amenant de nombreux individus à le percevoir comme un outil “boîte noire” : quelque chose qu’ils ne comprennent pas comment cela fonctionne, mais qui apporte de grandes opportunités pour leur vie et des choses qu’ils n’ont jamais vues auparavant.

Malgré le passage de nombreuses années, une perception prédomine selon laquelle la compréhension des complexités d’Internet et du fonctionnement de ses plateformes demeure une tâche impossible pour ceux en dehors du domaine technique. Cette mentalité correspond précisément aux objectifs des “Big Techs”, qui préfèrent une base d’utilisateurs qui s’abstiennent d’analyser les dispositifs internes de leurs applications, y compris les types de données collectées et les motivations cachées. Notre enquête est ancrée dans le défi de cette notion et souligne que les discussions entourant les plateformes en ligne et le fonctionnement de leurs algorithmes devraient être inclusives, impliquant des personnes de milieux divers et considérées comme une discussion appartenant à tous ceux qui utilisent ces plateformes.

Principaux facteurs de la problématique

Il est possible de diviser les principaux facteurs autour de cette problématisation en deux grandes catégories : la surveillance massive employée par les plateformes en ligne et l’éloignement de la population vis-à-vis de ce sujet, ajouté à leur manque de conscience de ce que signifie être surveillé.

Surveillance Intensive des Plateformes en Ligne

Tout d’abord, basée sur nos recherches et lectures pendant notre synthèse hebdomadaire, il a été possible d’obtenir une meilleure perspective sur les méthodes de collecte de données employées par les grandes plateformes en ligne. La collecte de données est présente dès l’ouverture d’une page Web, avec l’utilisation de cookies et même la collecte d’informations sur la durée pendant laquelle notre curseur de souris reste sur une publicité ou une vidéo spécifique. Cependant, cette collecte excessive n’est pas nécessaire, et il existe un grand intérêt de la part des “Big Techs” (GAFAM) à obtenir autant d’informations que possible sur l’utilisateur, que ce soit pour les vendre à des tiers (qui peuvent être de tout type, des membres du gouvernement aux entreprises publicitaires) ou pour les utiliser afin d’améliorer leur mécanisme publicitaire. Elles le font en créant un profil pour chaque utilisateur dans leur base de données, auquel elles collectent des informations sur leurs préférences, habitudes d’achat, emplacement et tout ce qui les aide à prédire les besoins et intérêts marketing de l’utilisateur. Il est évident maintenant, après de nombreuses années de recherche et de scandales internationaux, que l’utilisation de ces plateformes n’est pas gratuite, comme on le pensait couramment, mais que les utilisateurs paient avec leurs données personnelles. Cela peut avoir des conséquences graves, telles que l’influence sur le processus électoral du pays le plus puissant, comme on l’a vu avec le scandale de Cambridge Analytica, et permettre la surveillance de masse comme jamais auparavant. Pour ceux qui ne connaissent pas le scandale, nous vous proposons d’aller lire l’article du journal publié en Mars 2018 sur le Site Le Monde qui explique l’affaire. Pour aller plus loin, cliquez-ici

Désintérêt et Manque de Conscience

Ensuite, en lien avec les techniques de surveillance, il y a un autre problème majeur qui permet partiellement aux “Big Techs” de continuer leur modus operandi qui est un mot latine qui veut dire “mode opératoire”, à savoir le manque de conscience de ce que signifie être surveillé. Dans de nombreuses recherches académiques ou même des discussions informelles, il est courant d’entendre beaucoup de personnes dire qu’ils “n’ont rien à cacher” et donc qu’ils ne se soucient pas d’être surveillés ou non. Cette perspective néglige de considérer le droit à la vie privée comme un droit fondamental et comme quelque chose qui garantit la liberté de chaque individu. Avoir des algorithmes capables de suivre chaque mouvement, like, conversation, opinion, idée et relation qu’une personne a est un outil très puissant pour les régimes autoritaires afin de contrôler les populations et d’imposer un mode de vie qui ne peut pas être dévié. Ajouté à cela est la vision courante selon laquelle les problèmes d’internet sont trop compliqués pour être compris par quiconque, et donc le fonctionnement des plateformes en ligne et leurs méthodes excessives de collecte de données ne devrait pas être un sujet de discussion. Le maintien de cette ligne de pensée est très intéressant pour les “Big Techs”, mais très dangereux pour la préservation de la démocratie et des droits de l’homme. Autant les problèmes techniques des algorithmes peuvent être difficiles à comprendre, il est nécessaire que la population de la société civile soit de plus en plus présente et incluse dans ce débat, afin que les intérêts des utilisateurs soient prioritaires, après tout, ce sont eux les directement affectés par les mécanismes de contrôle des plateformes en ligne

Rôles éventuels des algorithmes

Les algorithmes jouent un rôle crucial dans l’automatisation de la collecte de données et, associés au Big Data, rendent possible la collecte et l’analyse d’un volume énorme de données dans les serveurs physiques des plateformes. Cela ne signifie cependant pas que les algorithmes sont “mauvais par nature”, car ce ne sont que des codes créés par des êtres humains pour atteindre un certain objectif. Le problème réside dans l’intention derrière la création d’un algorithme, qui dans le cas des plateformes en ligne, est conçu pour collecter autant d’informations que possible sur l’utilisateur, entre autres choses.

Les algorithmes et l’intelligence artificielle sont capables de réaliser des choses incroyables, comme des avancées médicales et des recherches, et d’améliorer les moteurs de recherche. Ils peuvent également faire partie de la solution lorsqu’ils sont développés dans l’intention de protéger la vie privée de l’utilisateur. Il existe déjà un travail significatif d’institutions notables sur le développement d’algorithmes respectueux de la vie privée, permettant l’analyse des données sans exposer d’informations sensibles. Ces algorithmes permettent des calculs sur des données chiffrées, garantissant que les détails sous-jacents restent privés tout en dérivant des informations significatives. De plus, les algorithmes peuvent être utilisés pour anonymiser les données des utilisateurs, les rendant plus difficiles à identifier, et ils peuvent même être utilisés pour auditer les plateformes en ligne afin de garantir qu’elles respectent les normes de confidentialité. Mais la clé est d’avoir des changements de politique qui interdisent une telle collecte abusive de données personnelles, et le développement d’une réglementation adéquate en partenariat avec différents intervenants pour garantir que les besoins et les intérêts des utilisateurs soient prioritaires. Jusqu’à présent et compte tenu de l’organisation structurelle politique de la plupart des pays, la gouvernance d’Internet et des données semble être le moyen le plus efficace de lutter contre la surveillance de masse, et il est essentiel que les voix des organisations de la société civile, et pas seulement du gouvernement, soient incluses dans ce débat.

Principaux acteurs

Divers acteurs, tels que des agences gouvernementales, des entreprises privées, des institutions de recherche, des groupes de défense des droits et des individus, jouent des rôles dans le paysage complexe de la surveillance en ligne.

Comme mentionné, la surveillance en ligne peut être déployée à la fois par les grandes entreprises technologiques, les “Big Techs”, et par les agences gouvernementales. Des organisations telles que l’Agence nationale de sécurité (NSA) aux États-Unis et des agences similaires dans d’autres pays sont impliquées dans la collecte de renseignements, pouvant inclure la surveillance en ligne à des fins de sécurité nationale, mais qui dépassent leurs frontières. Cela est devenu évident lorsque Edward Snowden, un ancien contractuel de la NSA, a révélé un vaste programme de surveillance mondiale mené par la NSA et ses partenaires du renseignement. Les fuites ont exposé les pratiques de l’agence consistant à collecter et analyser des communications électroniques, y compris des courriels et des appels téléphoniques, à une échelle massive. La surveillance s’étendait à divers pays, dirigeants gouvernementaux et citoyens ordinaires.

De plus, les forces de l’ordre et les agences chargées de l’application des lois, tant au niveau national qu’international, utilisent des outils de surveillance en ligne pour des enquêtes criminelles et un contrôle social plus large. Une tendance préoccupante a émergé, où de nombreuses entités chargées de l’application des lois adoptent à l’échelle mondiale des technologies d’intelligence artificielle (IA) et de reconnaissance faciale pour surveiller les populations. Cependant, l’efficacité de ces outils a été remise en question en raison de leurs biais inhérents et de la perpétuation de stéréotypes.

Cependant, de nombreux acteurs interviennent dans la définition des discussions, des politiques et des technologies liées à la surveillance en ligne. Voici un aperçu des principaux types d’organisations qui œuvrent pour changer le paysage de la surveillance de masse.

Institutions de Recherche

Les chercheurs universitaires en informatique, en science des données et dans des domaines connexes contribuent au développement de solutions respectueuses de la vie privée. Les institutions académiques publient souvent des études sur l’impact de la surveillance et proposent des moyens de répondre aux préoccupations en matière de confidentialité.

Les organismes de recherche à but non lucratif, tels que l’Electronic Frontier Foundation (EFF), Privacy International et le Center for Democracy and Technology (CDT), mènent des recherches, plaident en faveur des droits numériques et œuvrent pour la protection de la vie privée à l’ère numérique en diffusant des informations sur les abus de la surveillance et en participant au développement de politiques publiques pour aborder cette question.

Organisations Internationales

  • Nations Unies (ONU) : L’ONU et ses diverses agences travaillent sur des politiques et des directives internationales liées aux droits numériques, à la surveillance en ligne et à la vie privée. De nombreuses agences de l’ONU dans le monde entier financent constamment des projets de recherche sur les impacts de la collecte de données personnelles, les solutions possibles pour aborder ce problème et la sensibilisation à l’importance de cette thématique.

  • Union européenne (UE) : L’UE joue un rôle significatif dans la définition des réglementations et des politiques de confidentialité pour ses États membres, avec des initiatives telles que le Règlement général sur la protection des données (RGPD) et les agences réglementaires supervisant l’adhésion des plateformes en ligne à ces nouvelles règles. Ces agences jouent un rôle crucial dans l’établissement de l’autorité régionale sur les intérêts des entreprises, et certaines d’entre elles ont déjà infligé des amendes à de grandes sociétés pour non-respect du RGPD, telles que Google.

Groupes de Défense des Droits et Militants

Les groupes de défense de la vie privée, ainsi que les organisations et militants axés sur les droits numériques, travaillent à sensibiliser aux problèmes de surveillance, à contester les pratiques intrusives et à plaider en faveur de protections légales renforcées.

Les lanceurs d’alerte, tels qu’Edward Snowden, qui ont exposé des programmes étendus de surveillance gouvernementale, jouent un rôle crucial en attirant l’attention du public sur les pratiques de surveillance en ligne.

Organismes de Normalisation et de Régulation

  • Internet Engineering Task Force (IETF) : Développe et instaure les normes Internet, y compris celles liées à la sécurité et à la vie privée.

  • Union Internationale des Télécommunications (UIT) : Organisme spécialisé des Nations Unies chargé des questions liées aux technologies de l’information et de la communication, elle joue un rôle important dans le développement de normes et de réglementations mondiales pour assurer l’interopérabilité et l’utilisation efficace des télécommunications et des technologies dans le monde entier.

Développeurs Technologiques et Cryptographes

Les développeurs de technologies respectueuses de la vie privée, qu’il s’agisse d’individus ou de groupes, créent des outils de chiffrement, des plateformes de communication sécurisées et des technologies renforçant la protection des individus contre une surveillance non justifiée.

Les experts en cryptographie travaillent sur le développement de protocoles sécurisés et d’algorithmes de chiffrement pour protéger les communications et les données.

Le grand public

Et enfin,on a les Utilisateurs Individuels, c’est-à-dire le grand public, jouent un rôle important en prenant des mesures pour protéger leur vie privée, comme l’utilisation de réseaux privés virtuels (VPN), d’applications de messagerie chiffrées et en étant attentifs à leurs activités en ligne. De plus, ils contribuent énormément en discutant simplement de cette thématique avec d’autres, constituant une forme organique de sensibilisation et attirant l’attention sur l’importance du droit à la vie privée.

On pourrait dire que le paysage de la surveillance en ligne est dynamique, avec divers acteurs contribuant au développement, à la mise en œuvre, à la régulation et à la critique des pratiques de surveillance. Les interactions entre ces acteurs façonnent le dialogue continu sur la vie privée et la surveillance à l’ère numérique.

Synthèse hebdomadaire

Séance 3 Octobre

Référence n°1: Cookies - CNIL

Cookies : « La CNIL veut redonner aux utilisateurs le contrôle sur l’utilisation de leurs données » [→lien]

  1. Tagging conceptuel : les notions principales ou mises en question dans l’article: [color=Orange]

#Cookies ; #CNIL ; #DonnéesPersonnelles ; #Consentement ; #RGPD ; #ePrivacy ; #GAFA

  1. un chapeau factuel : de quoi parle l’article ? [color=Orange]

L’article parle du projet de recommandation de la CNIL (Commission nationale de l’informatique et des libertés) concernant l’usage des cookies sur les sites internet et applications. Comme nous le savons déjà, les cookies permettent de stocker des informations sur les utilisateurs. Le CNIL vise donc à assurer que le consentement des utilisateurs soit recueilli de manière légale lorsque ces cookies servent à collecter des données personnelles. Le projet du 14 janvier insiste sur le fait que la simple navigation sur un site ne constitue pas un consentement et propose aux utulisateurs de faire un choix entre accepter ou refuser les cookies. Il souligne également l’importance de la transparence sur les destinataires des données collectées à des fins de profilage publicitaire. Les recommandations, une fois finalisées, donneront un délai de six mois aux acteurs publics et privés pour s’adapter. L’article aborde aussi les implications futures avec le règlement ePrivacy et l’impact de la réglementation sur le secteur de la publicité en ligne.

  1. Pourquoi l’article est pertinent pour cette veille ? Quelle·s problématique·s soulève-t-il ? [color=Orange]

L’article est pertinent car il aborde une mise à jour cruciale dans la régulation des données personnelles en ligne, en particulier dans le contexte des discussions continues sur la protection de la vie privée en ligne et la publicité ciblée. Il met en lumière la démarche proactive de la CNIL pour aligner la gestion des cookies avec le Règlement Général sur la Protection des Données (RGPD), ce qui est d’une importance capitale pour les acteurs en ligne en France. Cependant, l’article soulève aussi une problématique quant à l’impact de telles régulations sur le secteur de la publicité en ligne qui peut être négativement affecté. De plus, il évoque une régulation possible à l’échelle des navigateurs, un sujet qui peut remettre en question le pouvoir des géants du web comme les GAFA(Google, Apple, Facebook, Amazon) sur le paramétrage de la confidentialité. Cette initiative de la CNIL pourrait servir de modèle pour d’autres régulateurs en Europe et au-delà, signalant une tendance vers une régulation plus stricte de la gestion des données personnelles en ligne.

Référence n°2: Smart TV Collecting Private Info

How To Stop Your Smart TV From Collecting Private Info About You | TODAY [→lien]

  1. Tagging conceptuel : les notions principales ou mises en question dans l’article: [color=Orange]

#SmartTV ; #ProtectionDesDonnées ; #ViePrivée ; #PublicitéCiblée ; #ACR

  1. un chapeau factuel : de quoi parle l’article ? [color=Orange]

La vidéo de la chaîne YouTube TODAY explore les risques liés à la collecte de données personnelles par les Smart TVs et les dispositifs de streaming associés. Elle met en lumière comment ces appareils collectent des données sur les habitudes de visionnage des utilisateurs à des fins analytiques, marketing et de publicité ciblée, et propose des étapes concrètes pour limiter cette collecte de données sur différents dispositifs comme Samsung TV, Roku et Amazon Fire TV. Elle fait également référence à la technologie de Reconnaissance de Contenu Automatique (ACR) qui permet à ces appareils d’identifier le contenu visionné.

  1. Pourquoi l’article est pertinent pour cette veille ? Quelle·s problématique·s soulève-t-il ? [color=Orange]

L’article qui est sous forme d’une vidéo YouTube est pertinente dans un contexte où la protection de la vie privée et la gestion des données personnelles sont devenues aujourd’hui des préoccupations majeures pour les consommateurs. Elle met en lumière une problématique importante concernant la façon dont les technologies modernes, tel que les Smart TVs, peuvent envahir la vie privée des utilisateurs en collectant et en partageant des données sans consentement explicite. En fournissant des solutions pratiques pour limiter cette collecte de données, la vidéo éduque les consommateurs sur les mesures qu’ils peuvent prendre pour protéger leur vie privée. Cela met également en avant la nécessité pour les fabricants et les régulateurs de travailler vers des solutions qui garantissent la transparence et le consentement des utilisateurs en matière de collecte de données.

Problématique:
- Comment fonctionne la technologie ACR et quels sont ses impacts en termes de protection de la vie privée? Comment cette technologie change-t-elle la dynamique de la collecte de données?

Référence n°3: Smartphone apps collecting data

Amid concerns about smartphone apps collecting data, how can users protect their privacy? [→lien]

  1. Tagging conceptuel : les notions principales ou mises en question dans l’article: [color=Orange]

#Smartphones ; #CollecteDeDonnées ; #ViePrivée ; ProtectionDesDonnées ; #TikTok ; #Sécurité ; #Législation

  1. un chapeau factuel : de quoi parle l’article ? [color=Orange]

La vidéo publiée par CBS News soulève des préoccupations sur la collecte de données par les applications de smartphones, notamment TikTok, et suggère des mesures que les utilisateurs peuvent prendre pour protéger leur vie privée. Le reportage révèle comment TikTok non seulement collecte les données des utilisateurs, mais aussi celles de leurs contacts. Ils discutent également des amendes imposées à l’entreprise créatrice de Fortnite pour avoir collecté des informations sur les enfants sans le consentement des parents. L’invitée Alexandra Seymour évoque l’absence de lois sur la protection des données solides et cohérentes aux États-Unis, illustrant un grand vide dans la sécurisation de la vie privée des individus face à une surveillance omniprésente. La variabilité des protections juridiques d’un État à l’autre aux États-Unis démontre également la nécessité d’une approche harmonisée et fédérale pour aborder les questions de vie privée et de sécurité en matière de données.

  1. Pourquoi l’article est pertinent pour cette veille ? Quelle·s problématique·s soulève-t-il ? [color=Orange]

La vidéo est pertinent pour notre veille car elle met en lumière les nombreuses manières dont la surveillance numérique est exercée sur les individus via des applications sur smartphones dans cette ère numérique. Elle souligne une prise de conscience de la nécessité de la protection des données et de la vie privée, et la responsabilité partagée entre les utilisateurs, les entreprises et les régulateurs pour assurer une utilisation éthique des données. De plus, la question soulevée concernant la manière dont des adversaires étrangers comme la Chine ou la Russie pourraient exploiter ces données recueillies illégalement met en avant les enjeux de sécurité nationale liés à la surveillance numérique. Cela souligne la manière dont la surveillance et la collecte de données peuvent transcender la vie privée individuelle et poser des menaces sérieuses à la sécurité sur un plan plus large.

Problématiques:
- Quelles mesures ils prennent pour protéger leur sécurité numérique
- Quelle est la position des jeunes à ce sujet pour mieux comprendre ce qui les empêche de se soucier davantage de leur sécurité en ligne et comment nous pouvons agir pour que davantage de personnes s’en préoccupent.
- Pourquoi la thématique de la sécurité en ligne n’est pas considérée avec la même attention que la sécurité dans le “monde réel” et que pouvons-nous faire pour changer cela.

  • Comment les entreprises peuvent-elles collecter des données sur les mineurs sans le consentement de leurs parents ?

  • Avec des règles différentes d’un État à l’autre, comment est-il possible d’avoir une protection uniforme des données des utilisateurs aux États-Unis ?

Retour de M.Nicolas:
- 2ème problématique = Bonne problematique

  • La collecte de donnée sur les smartphones, smartTV ou autre objet conneté ne fonctionnent pas de la même façon que les sites web.

Note: la commission EU a arreter de parler des “citoyen” mais plutot les “comsommateurs”.

Séance 10 Octobre

Référence n°4: Net neutrality, zero rating and the Minitelisation of the internet?

Net neutrality, zero rating and the Minitelisation of the internet? [→lien]
Article complet ici

  1. Tagging conceptuel : les notions principales ou mises en question dans l’article: [color=Orange]

#neutralité du réseau, #zero-rating, #Internet décentralisée, #Minitelisation, #approche centrée sur l’utilisateur, #Internet ouvert

  1. un chapeau factuel : de quoi parle l’article ? [color=Orange]

L’article rédigé par Luca Belli et publié sur le site web tandfonline.com, le 27 Octobre 2016 parle d’Internet en tant que réseau pluridisciplinaire basé sur l’ouverture, la décentralisation et l’interopérabilité. Ces caractéristiques ont favorisé l’innovation en réduisant les obstacles à la communication, à la participation et à la coopération, ce qui a permis de donner plus de pouvoir aux utilisateurs finaux. Cet article commence par examiner le débat sur la neutralité du réseau, et l’importance de préserver une architecture Internet ouverte et décentralisée, afin d’autonomiser les utilisateurs finaux et de protéger leurs droits. Ensuite, il soutient que la combinaison de limites de données réduites et de schémas de tarification à zéro (ZR) peut créer une pénurie artificielle, augmenter le coût d’Internet ouvert et compromettre la réalisation de l’objectif de la neutralité du réseau. Le phénomène que l’auteur définit comme “Minitélisation” d’Internet consiste en un passage d’un réseau généraliste centré sur l’utilisateur à un réseau ayant des finalités prédéfinies, créant ainsi des consommateurs passifs de services prédéterminés, plutôt que des utilisateurs actifs d’Internet.

  1. Pourquoi l’article est pertinent pour cette veille ? Quelle·s problématique·s soulève-t-il ? [color=Orange]

Cet article est pertinant parce qu’il trait d’une problematique d’avoir une Internet ouvert qui a comme l’objectif finale potentialiser la creation et interation des utilisateurs et pas les avoir comme consommateurs passifs de services prédéterminés. L’article faire penser sur la possibilité d’avoir une Internet qui possibilite plusieurs acteurs actifs dans le environment digital et on a le vrai pouvour de choix, different de ce qu’est passe aujourd’hui avec le monopole des Big Techs. Ici, l’auteur parle d’un écosystème axé sur l’utilisateur et ne le considérant pas comme produit final, avec ses données personnelles collectées sans consentement et utilisées à des fins commerciales comment on a vu dans les dernieres sources étudies. Cependent, ce n’est pas permanent et il y a deja beaucoup des personnes qui travaillent sur des solutions afin d’obtenir une internet ouvert et democratique pour tous.

Problématiques:
- Quelles sont les conditions nécessaires pour commencer à mettre en place un Internet décentralisé et ouvert ?
- Comment peut-on éviter que les entreprises continuent à utiliser les données des utilisateurs à leur propre avantage ?
- Est-il possible d’entreprendre des actions individuelles pour promouvoir la neutralité du Net ?
- Quelle est l’importance de l’utilisateur devenir un acteur majeur dans l’utilisation d’Internet, et quels sont les obstacles à cela ?
- Existe-t-il une relation entre le “zero-rating” et la surveillance en ligne ?

Référence n°5: Privacy Norms for Smart Home Personal Assistants (SPA)

Privacy Norms for Smart Home Personal Assistants (SPA) [→lien]
Article complet ici

  1. Tagging conceptuel : les notions principales ou mises en question dans l’article: [color=Orange]

#Assistants personnels, #maison intelligente, #SmartHome, #assistants IA, #assistants vocaux, #confidentialité, #normes, #intégrité contextuelle, #Amazon Alexa, #Google Assistant

  1. un chapeau factuel : de quoi parle l’article ? [color=Orange]

C’est un article de recherche publié sur le site web Digital Library, en May 2021 dont les auteurs sont Noura Abdi , Kopo M Ramokapane, Xiao Zhan et Jose Such. Le rapport mentionne les assistants personnels pour la maison intelligente (SPA en anglais) qui ont un écosystème complexe qui leur permet d’accomplir diverses tâches par simple commande vocale. Les SPA sont en constante expansion, avec plus de cent mille compétences tierces disponibles sur Amazon Alexa, couvrant diverses catégories, de la gestion des appareils intelligents à des tâches en dehors du domicile, comme les achats en ligne ou les réservations de course. Cet étude, basée sur l’Intégrité Contextuelle, examine les normes de confidentialité dans les SPA grâce à une enquête menée auprès de 1 738 participants. Les auteurs ont analysé également l’impact des paramètres de l’Intégrité Contextuelle et des facteurs personnels sur ces normes. À la fin, les auteurs identifie des normes de confidentialité générales pouvant être utiles pour définir des paramètres de confidentialité appropriés dans les SPA et formulons des recommandations pour les fournisseurs de SPA et de compétences tierces.

  1. Pourquoi l’article est pertinent pour cette veille ? Quelle·s problématique·s soulève-t-il ? [color=Orange]

Cela offre une perspective sur la possibilité d’avoir des assistants personnels pour la maison intelligente sans compromettre les données et la vie privée de l’utilisateur, ce que nous avons pu observer avec les scandales de partage de données impliquant les assistants d’Amazon et de Google. Cela fournit une vue d’ensemble plus technique sur les types de normes et de protocoles pouvant être mis en place pour garantir l’intégrité et la vie privée de l’utilisateur.

Problématiques:
- Dans un monde où les données sont de plus en plus précieuses, jusqu’où les utilisateurs sont-ils prêts à partager leurs informations en échange de la commodité offerte par les SPAs ? Où trace-t-on la ligne entre commodité et intrusion dans la vie privée ?
- Les lois actuelles sur la vie privée sont-elles suffisamment puissante pour traiter les complexités introduites par les SPAs et leurs écosystèmes ?

Référence n°6: Privacy Research issues in Various Computing Platforms: A Survey and the Road Ahead

Security, Privacy Research issues in Various Computing Platforms: A Survey and the Road Ahead [→lien]

  1. Tagging conceptuel : les notions principales ou mises en question dans l’article: [color=Orange]

#Sécurité, #confidentialité, #confiance, #environnement informatique, #Contrôle D’accès, #Middleware, #CloudComputing, #IoT, #IoE

  1. un chapeau factuel : de quoi parle l’article ? [color=Orange]

L’article est un rapport de “Journal of Information Assurance and Security” publié sur le site web de mirlabs.net (Machine Intelligence Research Labs) et a pour titre “Security, Privacy Research issues in Various Computing Platforms: A Survey and the Road Ahead”. Le rapport parle des enjeux actuels de la sécurité et de la confidentialité dans le domaine du numérique, notamment en ce qui concerne le Cloud Computing et l’Internet des objets (IoT). Il explore les nuances de ces défis, mettant en lumière l’importance de la confiance entre les utilisateurs et les fournisseurs de services et souligne l’importance d’avoir des systèmes vigoureuses pour protéger à la fois la sécurité et la confidentialité des données. L’etude examine également des approches spécifiques, telles que le contrôle d’accès, les mécanismes de protection de la vie privée, et les questions d’authentification.

  1. Pourquoi l’article est pertinent pour cette veille ? Quelle·s problématique·s soulève-t-il ? [color=Orange]

Cette étude est pertinente pour son analyse approfondie des problématiques actuelles de sécurité et de confidentialité, des domaines en pleine mutation avec l’évolution rapide de la technologie tels que le Cloud Computing ou l’IoT par exemple.

Problématiques:
- Avec des dispositifs toujours plus connectés, comment assurer une protection optimale des données, d’autant plus que les interactions entre dispositifs s’intensifient?

Séance 17 Octobre

Référence n°7: Chine : la reconnaissance faciale par intelligence artificielle au cœur d’une expo

Chine : la reconnaissance faciale par intelligence artificielle au cœur d’une expo [→lien]

  1. Tagging conceptuel : les notions principales ou mises en question dans l’article: [color=Orange]

#Reconnaissance faciale, #Intelligence artificielle, #Surveillance, #Sécurité, #Chine, #Privacy, #Éthique

  1. un chapeau factuel : de quoi parle l’article ? [color=Orange]

L’article Le Figaro publié en juin 2023 parle sur l’exposition Security China, un événement en Chine mettant en avant les dernières avancées en matière de surveillance et de sécurité, en mettant particulièrement en avant la technologie d’intelligence artificielle (IA) de reconnaissance faciale. Plusieurs entreprises chinoises présentent des caméras capables de détecter des comportements indésirables, d’identifier des individus de loin, et même de surveiller la circulation routière. L’article souligne que ces technologies sont soutenues par les autorités chinoises malgré les préoccupations éthiques et de sécurité soulevées.

  1. Pourquoi l’article est pertinent pour cette veille ? Quelle·s problématique·s soulève-t-il ? [color=Orange]

Cet article est pertinent pour cette veille car il met en évidence plusieurs problématiques liées à la surveillance, la sécurité et la vie privée, en particulier en Chine, mais avec des implications plus larges :

  • La reconnaissance faciale par l’IA soulève des questions de vie privée, notamment en ce qui concerne la collecte de données biométriques sans consentement.

  • Les technologies de surveillance avancées présentées dans l’article posent des questions sur l’éthique de l’utilisation de ces systèmes, en particulier lorsque des comportements “indésirables” sont détectés et utilisés pour influencer le comportement des individus.

  • L’utilisation de ces technologies pour la surveillance de masse et le contrôle de la population soulève des préoccupations en matière de droits de l’homme et de libertés individuelles.

  • La participation d’entreprises chinoises à l’exposition, malgré les préoccupations internationales concernant leur rôle dans la répression et la surveillance, souligne les enjeux de sécurité et de coopération internationale dans un monde de plus en plus connecté.

Pitch rapide:
J’ai choissis un article publié sur Le Figaro en juin 2023 qui se porte sur la Chine et sa technologie de reconnaissance faciale par intelligence artificielle exposée lors de ‘Security China’. Les entreprises chinoises présentent des caméras capables de détecter des comportements indésirables et d’identifier des individus de loin. Mais ces avancées suscitent des inquiétudes, notamment en ce qui concerne la vie privée et les libertés individuelles. L’article souligne que malgré ces préoccupations, ces technologies sont soutenues par les autorités chinoises. Nous sommes face à des enjeux éthiques et de sécurité de grande ampleur, qui vont au-delà des frontières de la Chine. Cette question soulève des problématiques liées à la vie privée, à l’éthique et aux droits de l’homme.

Référence n°8: La vidéosurveillance biométrique aux JO de Paris, un nouveau pas vers la “société de surveillance” numérique

La vidéosurveillance biométrique aux JO de Paris, un nouveau pas vers la “société de surveillance” numérique [→lien]

  1. Tagging conceptuel : les notions principales ou mises en question dans l’article: [color=Orange]

#Vidéosurveillance, #Biométrie, #Société de surveillance, #Libertés fondamentales, #Technologie, #Surveillance généralisée, #Sécurité, #Loi, #Éthique, #Privacy

  1. un chapeau factuel : de quoi parle l’article ? [color=Orange]

L’article de Le Figaro publié le 31 mars, rapporte que les députés français ont autorisé l’application de la vidéosurveillance “intelligente” (vidéosurveillance biométrique) aux Jeux Olympiques de Paris 2024. Cette décision inquiète l’auteur, un spécialiste des enjeux éthiques du numérique, qui estime que la surveillance généralisée devient progressivement la norme en France. Il explique que cette technologie de vidéosurveillance biométrique constitue une menace pour les libertés fondamentales, car elle permet une surveillance systématique et généralisée de la population. Il met en garde contre le développement d’une “société de surveillance” numérique, évoquant la possibilité d’un “crédit social” à la française.

  1. Pourquoi l’article est pertinent pour cette veille ? Quelle·s problématique·s soulève-t-il ? [color=Orange]

Cet article est pertinent pour cette veille car il soulève des problématiques majeures liées à la vidéosurveillance, à la biométrie, à la sécurité, et à la protection des libertés individuelles :

  • L’utilisation de la vidéosurveillance biométrique pour les Jeux Olympiques de Paris 2024** pose des questions sur l’impact sur la vie privée des citoyens et sur la surveillance généralisée**.

  • Il évoque la notion de “société de surveillance” numérique, où les citoyens sont constamment surveillés, ce qui soulève des préoccupations éthiques et de liberté individuelle.

  • L’article suggère que les lois et réglementations destinées à renforcer la sécurité peuvent parfois empiéter sur les libertés fondamentales, ce qui soulève la question de l’équilibre entre la sécurité et la protection des droits individuels.

  • Enfin, il met en lumière les rôles des institutions telles que l’Assemblée nationale et la CNIL dans la prise de décisions sur la surveillance et la protection des données, ainsi que les implications du futur règlement européen sur l’intelligence artificielle.

Cet article est pertinent pour la veille sur la surveillance et la sécurité en raison de ses implications sur la vie privée, les libertés individuelles et l’éthique de la technologie de vidéosurveillance biométrique.

pitch rapide:
Le sujet que j’ai choissis parler de la vidéosurveillance biométrique aux Jeux Olympiques de Paris 2024. L’article provenant de Le Figaro publié en fin mars 2023 mentionne les députés français qui ont récemment approuvé cette technologie, mais cela soulève d’énormes préoccupations en matière de protection des libertés individuelles et de vie privée. En réalité, cela pourrait nous rapprocher d’une ‘société de surveillance’ numérique, où nos moindres gestes sont surveillés. Cela ressemble à un ‘crédit social’ à la française comme ce qu’il existe déjà en Chine. Nous devons nous demander jusqu’où nous sommes prêts à sacrifier nos libertés pour plus de sécurité. Cet article met en lumière l’équilibre délicat entre sécurité et protection des droits fondamentaux, et l’influence des décisions politiques sur notre vie numérique. C’est un sujet crucial qui mérite notre attention et notre réflexion.

Séance 24 Octobre

Référence n°9: Article sur Loi de régulation de l’espace numérique (SREN)

L’Assemblée adopte largement le projet de loi de régulation de l’espace numérique [→lien]

  1. Tagging conceptuel : les notions principales ou mises en question dans l’article: [color=Orange]

#loiSREN ; #SREN ; #cyberharcèlement #sitesPornographiques ; #ModerationDeContenu ; #GouvernementEuropean

  1. un chapeau factuel : de quoi parle l’article ? [color=Orange]

L’article d’Europe 1 parle de la votation concernant les différents agents gouvernementaux européens en relation à la proposition de loi SREN, qui promet de mieux lutter contre le cyberharcèlement, les arnaques sur internet, et l’accessibilité des sites pornographiques aux mineurs. Le texte de la loi est toujours en cours d’approbation et de possibles modifications au Sénat. L’article présente les différents points de vue sur la loi, parmi lesquels certains politiciens voient le SREN comme une forme de protection pour les citoyens, les enfants et les entreprises dans l’espace numérique. Cependant, d’autres politiciens, comme la députée française Ségolène Amiot, considèrent la loi comme un outil pratique de contrôle social de masse. Comme la loi est toujours en phase de votation, les gens espèrent que les sénateurs renforceront le texte en y incluant également des dispositions relatives à la protection des données numériques stratégiques et sensibles.

  1. Pourquoi l’article est pertinent pour cette veille ? Quelle·s problématique·s soulève-t-il ? [color=Orange]

L’article aborde plusieurs problématiques liées à notre thème de veille. Tout d’abord, il évoque les préoccupations concernant l’impact potentiel sur les libertés individuelles en raison de la régulation de l’espace numérique, avec certains parlementaires exprimant des inquiétudes quant à la protection des libertés civiles. Cela est directement lié à la sécurité en ligne, notamment en ce qui concerne la modération du contenu, un aspect essentiel pour garantir une navigation sécurisée sur les différents réseaux d’Internet. Dans ce contexte, il est essentiel de comprendre que la liberté d’un individu se termine là où commence celle d’un autre. Il est possible et nécessaire d’avoir une réglementation visant à assurer un environnement numérique respectueux, mais cette réglementation doit être bien réfléchie et nécessite une approche multisectorielle avec la participation de diverses organisations civiles pour garantir que la loi protège les intérêts des citoyens plutôt que ceux des acteurs politiques ou commerciaux.

Toujours dans ce sens, l’idée de la loi fornisse des outils pratiques d’un contrôle social de masse doit être analiser de manière prudent. Si l’élaboration de la loi ne se fait pas de manière participative, il est possible qu’elle devienne un instrument de coercition sociale, d’où la nécessité urgente d’impliquer dans ce débat d’autres parties intéressées de la société.

Enfin, la loi parle également de la protection des biens non numériques stratégiques et sensibles, un sujet qui a été abordé dans notre dernière veille thématique. Il sera intéressant de suivre l’évolution de la loi et de voir si elle répondra au besoin de transparence de la part des Big Tech, en ce qui concerne la vente et l’utilisation de données à des fins politiques et commerciales.

En fin de compte, la loi est un bon début pour établir des normes réglementaires garantissant des outils permettant de faire d’Internet un espace plus sûr pour tous, ce qui est directement lié aux notions de confidentialité et de sécurité numérique.

Référence n°10: La BCE avance (doucement) vers la création d’un euro numérique

La BCE avance (doucement) vers la création d’un euro numérique [→lien]

  1. Tagging conceptuel : les notions principales ou mises en question dans l’article: [color=Orange]

#EuroNumérique, #BCE, #Cryptomonnaies, #Confidentialité, #Dématérialisation, #ViePrivée, #SécuritéMonétaire, #MonnaieDigitale, #SouverainetéFinancière

  1. un chapeau factuel : de quoi parle l’article ? [color=Orange]

L’article publié le 18 octobre 2023 sur Lexpress.fr parle de l’annonce de la Banque centrale européenne (BCE) concernant le lancement de la “phase préparatoire” de l’euro numérique. Cette phase vise à explorer les possibilités et les implications de la création d’une monnaie virtuelle pour répondre à l’évolution des paiements numériques et à la concurrence des cryptomonnaies. La BCE considère l’euro numérique comme une alternative aux paiements numériques traditionnels et cherche à préparer la monnaie européenne pour le futur.

  1. Pourquoi l’article est pertinent pour cette veille ? Quelle·s problématique·s soulève-t-il ? [color=Orange]

Cet article est pertinent pour notre veille car il met en lumière plusieurs problématiques liées à la création de l’euro numérique, en particulier en ce qui concerne la vie privée et la sécurité financière :

  • La confidentialité des transactions : L’euro numérique est présenté comme une alternative aux paiements numériques, avec l’objectif de garantir un haut niveau de confidentialité. Le suivi des dépenses au moyen de cette monnaie peut potentiellement tracer la vie des individus, soulevant des questions sur la vie privée et la protection des données des utilisateurs.

  • L’impact sur l’argent liquide : L’article mentionne que la BCE constate la diminution continue des paiements en espèces dans une économie de plus en plus numérique. Cette tendance soulève des préoccupations concernant la vie privée et la liberté financière des individus.

  • Centralisation des données financières : L’article suggère que l’euro numérique concentrerait l’ensemble des données financières à la Banque centrale européenne. Cette centralisation pose des questions sur la sécurité et le contrôle des données des citoyens, car il s’agit d’une différence notable par rapport aux cryptomonnaies décentralisées comme le Bitcoin.

Sommes-nous prêts pour une telle initiative en France ? Une approche similaire à celle de la Chine, où tout est numérisé, ne risquerait-elle pas de porter atteinte à la liberté des individus en France ?

Séance 07 Novembre

Référence n°11: Meta doit cesser d’utiliser les données de ses utilisateurs pour de la publicité ciblée, ordonne le régulateur européen

Meta doit cesser d’utiliser les données de ses utilisateurs pour de la publicité ciblée, ordonne le régulateur européen [→lien]

  1. Tagging conceptuel : les notions principales ou mises en question dans l’article: [color=Orange]

#Meta ; #PublicitéCiblée ; #ProtectionViePrivée ; #RGPD ; #DonnéesUtilisateurs ; #Régulation ; #Consentement

  1. un chapeau factuel : de quoi parle l’article ? [color=Orange]

L’article, publié le 1er novembre 2023 dans Le Monde, évoque la décision du Comité européen de protection des données (EDPB) d’étendre l’interdiction de la “publicité comportementale” imposée à Meta (maison mère de Facebook et Instagram) par la Norvège à l’ensemble des pays de l’Union européenne et de l’Espace économique européen. La publicité comportementale implique l’utilisation de données personnelles des utilisateurs pour afficher des publicités ciblées. Meta ne se conformerait pas aux obligations du règlement européen sur les données (RGPD) en termes de consentement explicite pour la collecte de données.

L’article explique également que Meta avait annoncé récemment son intention de proposer des formules d’abonnement payantes aux utilisateurs européens qui préfèrent ne pas avoir leurs données utilisées. Les utilisateurs souhaitant utiliser les services de Meta gratuitement devront explicitement consentir à la collecte de leurs données pour se conformer au RGPD.

  1. Pourquoi l’article est pertinent pour cette veille ? Quelle·s problématique·s soulève-t-il ? [color=Orange]

Cet article est pertinent pour notre veille car il met en lumière des questions essentielles liées à la protection de la vie privée des utilisateurs d’Internet et à la régulation des entreprises technologiques :

Protection de la Vie Privée : La décision du régulateur européen d’interdire la publicité comportementale montre une préoccupation majeure pour la protection de la vie privée des utilisateurs en ligne. Cela soulève la question de savoir comment les entreprises collectent et utilisent les données des utilisateurs à des fins publicitaires.

Conformité au RGPD : L’article souligne que Meta ne se conformerait pas aux obligations du RGPD en matière de consentement explicite pour la collecte de données. Cela met en lumière l’importance de la régulation et de la conformité aux lois de protection des données.

Modèles d’Affaires en Ligne : L’introduction de formules d’abonnement payantes par Meta pour les utilisateurs souhaitant éviter la collecte de données pose la question de l’équilibre entre les modèles d’affaires gratuits et payants sur Internet et de la manière dont les entreprises adaptent leurs pratiques pour se conformer aux réglementations.

Référence n°12: Inquiétudes autour d’un règlement européen sur la sécurité des navigateurs Web

Inquiétudes autour d’un règlement européen sur la sécurité des navigateurs Web [→lien]

  1. Tagging conceptuel : les notions principales ou mises en question dans l’article: [color=Orange]

#RèglementEuropéen ; #SécuritéNavigateursWeb ; #CertificatsSécurité ; #SurveillanceInternet ; #ViePrivée ; #ContrôleÉtat ; #TechnologieObsolète

  1. un chapeau factuel : de quoi parle l’article ? [color=Orange]

L’article, publié le 2 novembre 2023 dans Le Monde, aborde les inquiétudes entourant un règlement européen relatif à la sécurité des navigateurs Web. Les préoccupations se concentrent sur l’article 45 du règlement, qui exige que les navigateurs Web intègrent des autorités de certification choisies par les États membres de l’Union européenne. Cette mesure pourrait potentiellement permettre la surveillance du trafic Internet des citoyens européens.

  1. Pourquoi l’article est pertinent pour cette veille ? Quelle·s problématique·s soulève-t-il ? [color=Orange]

Cet article est pertinent pour notre veille sur la “Surveillance et Sécurité - Privacy” car il met en lumière des problématiques clés liées à la sécurité en ligne, la vie privée et la surveillance. Les points importante sont à noté :

Surveillance Internet : Le règlement propose d’imposer des autorités de certification aux navigateurs Web, ce qui pourrait permettre à certains États membres d’exercer un contrôle étendu sur le trafic Internet. Cette mesure soulève des inquiétudes majeures concernant la surveillance et la collecte de données.

Vie Privée et Sécurité : Les signataires estiment que le règlement tel qu’il est actuellement rédigé ne respecte pas la vie privée des citoyens européens et ne garantit pas des communications en ligne sécurisées. Les conséquences possibles pour la vie privée et la sécurité des internautes sont au cœur de cette problématique.

Technologie Obsolète : Certains experts estiment que la technologie proposée pour les certificats de sécurité est obsolète et potentiellement dangereuse. Cette question soulève des préoccupations quant à la fiabilité des mesures de sécurité mises en place.

Il est donc essentiel d’examiner comment de telles mesures pourraient affecter la vie privée et la sécurité des utilisateurs et de rechercher des solutions qui équilibrent la sécurité et la protection des droits individuels.

Remarque:
Il semble y avoir une contradiction dans la position de l’Union européenne. D’une part, l’UE cherche à renforcer la protection de la vie privée des individus en limitant la collecte de données personnelles par les entreprises, comme dans le cas de l’article sur Meta mais d’un autre côté, l’Union européenne a également mis en place des réglementations et des mécanismes pour faciliter la collecte de données à des fins de sécurité, de lutte contre la fraude, de régulation financière, etc. Cela peut sembler contradictoire, car d’un côté, l’UE veut protéger la vie privée des individus, tandis que de l’autre, elle reconnaît la nécessité de collecter des données pour certains objectifs légitimes (comme la sécurité nationale).

Cependant, il faut un équilibre entre la protection de la vie privée des individus et la nécessité d’utiliser des données à des fins légitimes. C’est ce que les réglementations européennes comme RGPD cherchent à établir.

Dans l’ensemble, l’objectif est de protéger les droits fondamentaux des individus tout en permettant une utilisation responsable des données. Cela peut parfois donner l’impression de contradictions, mais c’est le résultat d’un équilibre complexe entre des intérêts concurrents. Il est essentiel de tenir compte du contexte et de la finalité de la collecte de données pour évaluer si une utilisation particulière est appropriée ou non.

Séance 21 Novembre

Référence n°13: L’UE invitée à se préparer d’urgence aux cyberattaques quantiques

L’UE invitée à se préparer d’urgence aux cyberattaques quantiques [→lien]

  1. Tagging conceptuel : les notions principales ou mises en question dans l’article: [color=Orange]

#CybersécuritéQuantique , #InformatiqueQuantique , #Cryptographie , #MenacesDeCybersécurité , #UE , #SensibilisationALaCybersécurité

  1. un chapeau factuel : de quoi parle l’article ? [color=Orange]

L’article publié le 18 Juillet 2023, rédigé par Michael Hill, IDG NS (adapté par Jean Elyan), expose les appels de l’European Policy Center à l’Union européenne pour élaborer un programme de cybersécurité quantique et se préparer aux cyberattaques basées sur l’informatique quantique. Il souligne les risques imminents pour la cybersécurité de l’Europe liés à l’obsolescence des systèmes de chiffrement actuels et met en évidence le besoin d’une transition harmonisée vers le chiffrement post-quantique. L’article compare également les efforts des États-Unis avec ceux de l’UE dans la préparation à la cybersécurité post-quantique.

  1. Pourquoi l’article est pertinent pour cette veille ? Quelle·s problématique·s soulève-t-il ? [color=Orange]

L’article souligne les enjeux de sécurité liés à l’évolution de la technologie quantique et propose des recommandations pratiques pour renforcer la préparation de l’UE. Il met en lumière l’importance de la sensibilisation à la cybersécurité quantique, un aspect crucial dans un contexte où la protection des données personnelles devient de plus en plus complexe. Cette perspective peut être reliée à la thématique de la surveillance et de la sécurité numérique, en mettant en avant la nécessité d’une conscience face aux nouvelles menaces technologiques.

Référence n°14: La police nationale utilise illégalement un logiciel israélien de reconnaissance faciale

La police nationale utilise illégalement un logiciel israélien de reconnaissance faciale [→lien]

  1. Tagging conceptuel : les notions principales ou mises en question dans l’article: [color=Orange]

#SurveillanceIllégale ; #ReconnaissanceFaciale ; #VidéosurveillanceAlgorithmique ; #Briefcam ; #LoiVidéosurveillance ; #ViePrivée ;SalonMilipol ; #Police

  1. un chapeau factuel : de quoi parle l’article ? [color=Orange]

L’article publié le 14 novembre 2023 sur le site de Disclose.ngo , révèle que la police nationale française utilise illégalement un logiciel de reconnaissance faciale fourni par la société israélienne Briefcam depuis 2015. Le ministère de l’Intérieur aurait dissimulé l’utilisation de cet outil, appelé “Vidéo Synopsis”, qui permet non seulement la traque de personnes via des caméras, mais aussi l’analyse de visages. La révélation intervient après l’inauguration du salon Milipol, où Briefcam était présent. La loi a été modifiée récemment pour permettre l’expérimentation à grande échelle de la vidéosurveillance algorithmique par la police nationale jusqu’en mars 2025, mais la reconnaissance faciale reste interdite.

  1. Pourquoi l’article est pertinent pour cette veille ? Quelle·s problématique·s soulève-t-il ? [color=Orange]

Cet article souligne une violation potentielle de la vie privée par les forces de l’ordre, mettant en avant l’utilisation clandestine d’une technologie de reconnaissance faciale. Cela renforce la problématique de la surveillance et de la sécurité numérique, en mettant en lumière le besoin de réglementations strictes pour encadrer l’utilisation de telles technologies. La révélation de l’utilisation secrète de Briefcam soulève également des questions sur la transparence gouvernementale et le respect des droits individuels. La situation illustre les risques de la surveillance de masse et la nécessité de débats publics informés sur l’utilisation de technologies de surveillance avancées.

Un cas d’étude

Un exemple récent met en lumière les défis et les risques associés à la surveillance en ligne, notamment l’utilisation illégale d’une technologie de reconnaissance faciale par la police nationale française. Selon un article publié le 14 novembre 2023 sur le site de Disclose.ngo, la police française utilise secrètement un logiciel de reconnaissance faciale fourni par la société israélienne Briefcam depuis 2015.

Le logiciel, appelé “Vidéo Synopsis”, permet non seulement de traquer des individus via des caméras, mais aussi d’analyser des visages. La révélation de cette utilisation clandestine intervient après l’inauguration du salon Milipol, où Briefcam était présent. Bien que la loi ait été modifiée pour permettre l’expérimentation à grande échelle de la vidéosurveillance algorithmique par la police nationale jusqu’en mars 2025, la reconnaissance faciale reste interdite.

Cet exemple soulève plusieurs questions cruciales liées à la surveillance et à la sécurité numérique, renforçant ainsi la nécessité de réglementations strictes pour encadrer l’utilisation de telles technologies. La dissimulation de l’utilisation de Briefcam soulève des préoccupations sur la transparence gouvernementale et le respect des droits individuels.

Selon l’article, les forces de l’ordre utilisent secrètement les systèmes de Briefcam depuis 2015, en dehors du cadre légal prévu par une directive européenne et la loi française Informatique et Libertés. L’utilisation de la reconnaissance faciale, en particulier, est soulignée comme un point de préoccupation, car elle permet de détecter, suivre, extraire, classer et cataloguer des personnes en fonction de leur visage.

La situation expose également des lacunes dans la procédure réglementaire, car le ministère de l’Intérieur aurait dû mener une analyse d’impact relative à la protection des données et la soumettre à une administration indépendante, la Commission nationale de l’informatique et des libertés (CNIL), avant le déploiement. Cependant, cette étape n’a pas été réalisée en mai 2023.

De plus, l’article mentionne que la reconnaissance faciale de Briefcam serait activement utilisée sans contrôle ni réquisition judiciaire, soulevant des préoccupations quant à l’utilisation appropriée de ces technologies.

Ce cas d’étude met en évidence les risques potentiels de la surveillance de masse et souligne la nécessité de débats publics informés sur l’utilisation de technologies de surveillance avancées. Il illustre également le besoin impératif de réglementations claires, de transparence gouvernementale et de mécanismes de contrôle pour garantir que de telles technologies soient utilisées de manière éthique et en conformité avec les droits individuels.

Glossaire

ePrivacy

Privacy by design

Infrastructure

Cyberhygiène

Annexes

Lien Diaporama

Retrouvez notre présentation sur la thématique “Surveillance et Sécurité”

Lien Zotero

Découvrez tous nos articles de recherches