Informassue - Le XXIème siècle : la fin de l'ère du pétrole !

Image du site

« Nous n’avons pas mis fin à la croissance, la nature va s’en charger. »  Dennis Meadows

Article connexe :
Solution : Les logiciels libres.
Protection de la vie privée, "liberté, égalité, fraternité". Solution dans le numérique : les logiciels libres.
Solution : Les logiciels libres.

Rien à cacher (rien à craindre ?)

La police nationale utilise illégalement un logiciel israélien de reconnaissance faciale. (2023)

En 2015, les forces de l’ordre ont acquis, en secret, un logiciel d’analyse d’images de vidéosurveillance de la société israélienne Briefcam. Depuis huit ans, le ministère de l’intérieur dissimule le recours à cet outil qui permet l’emploi de la reconnaissance faciale.

L’option reconnaissance faciale activable en quelques clics

Illustration
Disclose - La police nationale utilise illégalement un logiciel israélien de reconnaissance faciale

La popularité de Briefcam parmi les services de la police pourrait s’expliquer par l’utilisation hors de tout cadre légal d’une de ses fonctionnalités phares : la reconnaissance faciale. Celle-ci permet « de détecter, de suivre, d’extraire, de classer, de cataloguer » une personne en fonction de son visage, explique l’entreprise sur son site Internet. Et pour l’utiliser, rien de plus simple...

Lire la suite de l'article sur Disclose...

Reconnaissance faciale : Gérald Darmanin veut enterrer « l’affaire Briefcam ». (2024) Lien

Nouvel article en avril 2024 : selon un rapport confidentiel que Disclose s’est procuré, [...] La fonction de reconnaissance faciale est activée par défaut sur Briefcam depuis la mise en place de la version 5.2 du logiciel… en 2018.

Reconnaissance faciale : la police désactive le logiciel Briefcam après l’enquête de Disclose. (2024) Lien

Le 30 octobre 2024, le média d'enquête affirme qu'Un rapport du ministère de l’intérieur publié en catimini, lundi 28 octobre, confirme les révélations de Disclose sur l’utilisation illégale par la police et la gendarmerie du logiciel Briefcam, entre 2015 et 2023. Cet outil qui permet la reconnaissance faciale a été désactivé juste après notre enquête. Une décision qui met fin, au moins temporairement, à l’une des plus graves atteintes à la vie privée en France ces dernières années.

Lire la suite de l'article sur Disclose...

La Quadrature du Net - Technopolice. (2024)

Depuis quelques années, La Quadrature du Net, une association de défense et de promotion des droits et libertés sur Internet, fondée en 2008, publie plusieurs articles qui portent sur la technopolice, les technologies de surveillance au service des forces de l'ordre.

Voici un exemple d'article avec les J.O. de 2024 en France :

Illustration
La Quadrature du Net - Technopolice.

Paris 2024 : la France championne olympique de la technopolice

Les JO, un grand accélérateur de sécurité

Dans ce contexte de monomanie sécuritaire — dernier pouvoir d’un État réduit à son squelette régalien, et confiné dans un rôle d’orientation des fonds publics vers l’entreprise privée — les Jeux olympiques sont une aubaine : pouvoir légaliser des pratiques (policières), financer une économie (industrielle) et fabriquer de la sécurité.

Illustration
Paris 2024 : la France championne olympique de la technopolice

Lire la suite de l'article sur La Quadrature du Net...

Voici un autre exemple d'article concernant les J.O. de 2024 en France, avec comme thème la vidéosurveillance algorithmique (VSA) :

VSA et Jeux Olympiques : Coup d’envoi pour les entreprises de surveillance

Un marché juteux

Rappelez-vous : le 17 mai 2023, le Conseil constitutionnel validait le cadre législatif permettant à la police d’utiliser la vidéosurveillance algorithmique (VSA) en temps réel, après plusieurs mois de bataille législative en plein mouvement des retraites. Depuis, que s’est-il passé ?

Illustration
VSA et Jeux Olympiques: Coup d’envoi pour les entreprises de surveillance.

Lire la suite de l'article sur La Quadrature du Net...

Amnesty International - Reconnaissance faciale en France (2024) Lien

Fin mai 2024, Amnesty International lance une pétition et une vidéo choc :

Amnesty International - Reconnaissance faciale en France : agissons avant qu'elle ne devienne une réalité (pétition)

En France, le recours aux technologies de surveillance se multiplie. La prochaine étape, la reconnaissance faciale ? L'inquiétude est réelle.

A l'occasion des Jeux olympiques et paralympiques de Paris, la France a légalisé la vidéosurveillance algorithmique.

Lire la suite de l'article sur Amnesty International...

Illustration
Amnesty International - Reconnaissance faciale en France : agissons avant qu'elle ne devienne une réalité
Thumbnail
btn
Cliquer pour charger la vidéo
Sur youtube (avec traqueurs)
Préférer un lien alternatif ⤵

L'après J.O. est décrit dans la page suivante, notamment avec cette interview de Félix Tréguer de La Quadrature du Net.

Le «rien à cacher» se révèle être un argument de privilégié. (2025)

Le Soir.be - L’imposture de l’innocence : pourquoi « je n’ai rien à cacher » est une capitulation démocratique.

Par Philippe Hensmans, ancien directeur d’Amnesty International Belgique francophone.

Illustration
Le Soir.be - L’imposture de l’innocence

Le mantra « rien à cacher » légitime une surveillance intrusive et biaisée. Nos données, même innocentes, peuvent discriminer, contrôler, manipuler. Défendre la vie privée, c’est préserver liberté, dignité et résistance démocratique face aux dérives technologiques.

[...] En affirmant : « Je n’ai rien à cacher », on accepte implicitement une définition tronquée de la vie privée, réduite à un espace opaque destiné à dissimuler des secrets honteux. Cette vision insulte 77 ans de construction juridique internationale.

[...] Pourquoi avons-nous des rideaux à nos fenêtres ? Pourquoi fermons-nous la porte des toilettes ? Nous exerçons simplement notre droit élémentaire à l’intimité, cette condition sine qua non de la dignité humaine. Perdre le contrôle de nos informations personnelles, c’est perdre le contrôle de qui nous sommes et de qui nous pouvons devenir. Préserver sa vie privée, c’est avant tout un acte de protection collective qui englobe nos proches comme les inconnus rencontrés au détour de notre quotidien.

[...] La reconnaissance faciale n’est pas une science exacte, mais un calcul probabiliste sujet à l’erreur. Les faux positifs – ces moments où un algorithme désigne à tort un innocent comme suspect – sont des défauts de conception inhérents.

Pire encore : ces technologies sont structurellement biaisées. L’étude Gender Shades du MIT a révélé que le taux d’erreur pour identifier le genre des femmes à peau foncée atteignait 34,7 %, contre 0,8 % pour les hommes à peau claire : 43 fois plus d’erreurs. Le National Institute of Standards and Technology américain a confirmé que la plupart des algorithmes présentaient des taux de faux positifs beaucoup plus élevés pour les visages asiatiques et afro-américains.

Illustration
Project Gender Shades - Media MIT
Thumbnail
btn
Cliquer pour charger la vidéo
Sur youtube (avec traqueurs)
Préférer un lien alternatif ⤵

L’argument « rien à cacher » se révèle alors pour ce qu’il est vraiment : un argument de privilégié. Il est prononcé avec assurance par ceux appartenant aux groupes démographiques dominants. Pour les minorités, la technologie de surveillance crée le danger, indépendamment de toute culpabilité réelle.

C’est aussi pour cela qu’il faut s’opposer fermement à l’introduction de la reconnaissance faciale, car demain, qui surveillera ?

Lire la suite de l'article sur le site Le Soir.be...

⬅ 👍 Sites à découvrir et faire connaître ➡