En appuyant sur un bouton

Lors de l’émission « C Politique » diffusée sur la 5 samedi 7 mai, il a été diffusé un reportage sur la gestion de la pandémie par la Chine avec les méthodes techno-policières que l’on connait. Ci dessous, un extrait de 7 minutes :

(cliquez sur le triangle en bas à gauche)

Dans ce bref extrait, on voit les policiers chinois utiliser toute une gamme d’objets technologiques et de procédures qui existent aussi en France, même s’ils ne sont pas généralisés, systématisés et poussés à leur paroxysme comme en Chine : vidéosurveillance généralisée, reconnaissance faciale, géolocalisation, Pass, drones pour surveiller et  invectiver la population ; nous n’avons pas encore ces effrayants cloportes-robots développés sur le modèle de ceux de Boston Dynamics et munis de hauts parleurs.

Pas de ça chez nous

La première réaction est de penser que tout cela ne peut se produire en France, parce que nous sommes une démocratie, même autoritaire et avec de très forts penchants policiers, même très friande d’états d’urgence prolongés et « régimes transitoires ». Mis à part quelques représentants du tout sécuritaire tels qu’Estrosi et autres Rebsamen, on imagine volontiers la réponse de la majorité des élus : pas de ça chez nous !

Le « Crisis data hub »

 Toutefois, on ne peut s’empêcher de penser à quelques-unes des propositions contenues dans le rapport produit en juin 2021 par nos braves et paisibles sénateurs de la « Délégation sénatoriale à la prospective »  [   ICI   ] dont nous avons extrait quelques propositions :

« Quarantaine obligatoire pour les seules personnes positives, strictement contrôlée grâce à des outils numériques (géolocalisation en temps réel avec alerte des autorités » « Dans les cas les plus extrêmes […] toute violation de quarantaine pourrait conduire à une information en temps réel des forces de l’ordre, à une désactivation du titre de transport, ou encore à une amende prélevée automatiquement sur son compte bancaire »

Mais la proposition phare est celle de la création d’un « Crisis data hub » plateforme de collecte, de concentration de données personnelles (comme par exemple les données médicales) croisées avec celles produites par des tiers (opérateurs télécoms (géolocalisation), entreprises dites « technologiques » , transports, banques, etc. Le tout à mettre en œuvre uniquement en « cas de crise sanitaire ou autre ».

En appuyant sur le bouton

Les sénateurs se placent dans l’hypothèse d’une « situation de crise sanitaire ou autre » pour s’autoriser à « croiser, entre autres, des données médicales avec des données de géolocalisation » ; c’est exactement ce que fait actuellement le gouvernement chinois.

Le très vague et inquiétant « ou autre » devrait alerter tous les défenseurs et défenseuses de l’Etat de droit ; c’est la porte ouverte à tous les abus et à toutes les tyrannies. Que se passera-t-il si un jour est déclenchée dans notre pays une grève générale illimitée et qu’elle dure plusieurs semaines ? Qui est en mesure de garantir que ce dispositif ne sera pas détourné pour surveiller ou entraver les mouvements des syndicalistes, des journalistes ou de simples militants ?

L’expérience montre que lorsqu’un dispositif techno est disponible, son utilisation finit toujours par être dévoyée et utilisée à d’autres fins que celles prévues à l’origine, dans un premier temps illégalement, puis ensuite avalisé par la loi, Cf par exemple : la reconnaissance faciale sur les fichiers du TAJ, les valises IMSI Catcher, l’utilisation policière des drones.  

Les sénateurs  font preuve d’une certaine candeur s’ils pensent qu’ils vont pouvoir venir à bout d’une pandémie « ou autre » « en appuyant sur le bouton » ;  leurs propositions sont très inquiétantes, car « en appuyant sur un bouton » il serait alors possible de porter un coup fatal à l’Etat de droit.  

 Texte de la LDH Nice, lu lors de la manifestation contre la loi « Sécurité globale » du samedi 16 janvier 2021


La démocratie n’est jamais acquise, il faut toujours la défendre ! Aujourd’hui, c’est contre cette loi liberticide « Sécurité globale » que nous allons manifester, pour notamment le droit de manifester, d’informer et d’être informé.

Dans son état actuel, l’art. 24 de la proposition de loi empêcherait de filmer les forces de police en action ; les journalistes devront bientôt être agréés pour couvrir les évènements.

Des décrets parus en décembre étendent les possibilités de fichage de trois fichiers de police et de gendarmerie, des seules activités comme c’était le cas auparavant, aux opinions politiques ou syndicales, aux convictions religieuses ou philosophiques, aux données de santé, aux habitudes de vie ou à l’activité sur les réseaux sociaux.Le nouveau schéma national du maintien de l’ordre va dans le sens d’une utilisation massive de la vidéo-surveillance et des drones et tend à organiser un dangereux continuum entre polices nationales et municipales et polices privées.

A Nice, nous sommes particulièrement sensibles à cette problématique Sécurité / Libertés, puisque notre ville est en quelque sorte « l’appartement témoin » des dispositifs de surveillance de haute technologie, dont notre maire est le zélé expérimentateur et démonstrateur. Rappelons-nous les tentatives de la reconnaissance faciale, avortée, au lycée des Eucalyptus, grâce à l’action conjointe de la Quadrature du Net, de la Fcpe 06, de la Cgt 06 et de la Ldh, mais aussi celle réalisée lors du carnaval de 2019, sur une population de soi-disant « volontaires » qui a suscité les commentaires négatifs de la Cnil.

Rappelons-nous le projet d’application pour smartphone « Reporty », proposée par la ville en 2018, heureusement retoquée par la Cnil, qui aurait permis d’intégrer les smartphones de particuliers dans le dispositif de vidéosurveillance municipal.

Tout ceci s’inscrit dans la vision du maire de Nice d’une Safe City, dont des capteurs, reliés au Centre de Supervision Urbain, pourraient permettre une surveillance en direct de tous les instants, sur l’ensemble de l’espace public. La mise en place de cette Safe City, rebaptisée Smart City, pour ne pas effaroucher les citoyens et citoyennes, a fait l’objet d’un marché public d’expérimentation, contracté avec l’entreprise Thalès et une kyrielle de sociétés de haute technologie, la plupart ayant fait leurs premières armes dans le domaine militaire. Pas de doute, Nice est vraiment en pointe de la communication politique sur ces technologies du « sécuritaire », sans qu’une quelconque efficacité n’ait pu être démontré, ce qu’a bien mis en évidence l’attentat du 14 juillet, si cruellement !

Pour terminer, la LDH veut souligner que les efforts pour tenter d’aligner les statuts de la police municipale sur ceux de la police nationale, en acceptant de lui donner les mêmes accès directs à certains fichiers sensibles, contribuent à un mélange des genres qui ne nous paraît pas souhaitable. Il est sain que les missions de police nationale restent du ressort du pouvoir régalien de l’État, gardien de l’indépendance de l’utilisation de la force publique sur l’ensemble du territoire.

Une police municipale, recrutée et gérée par le maire, devient rapidement la police du maire. Donc, oui à une police municipale de proximité et non à une police municipale progressivement alignée sur la politique nationale.

Pour toutes ces raisons et considérations, nous ne pouvons, nous, LDH, mais aussi toutes les organisations qui ont appelé à manifester aujourd’hui, que nous opposer à la loi « Sécurité globale » et nous ne demandons pas seulement au président de la république de revoir tel ou tel article de la loi, mais nous demandons purement et simplement l’abrogation de cette loi liberticide !

Christian Braquet

Président de la section LDH de Nice.

LES ALGORITHMES VONT-ILS PRENDRE LE POUVOIR DANS LES ADMINISTRATIONS ?

LES ALGORITHMES VONT-ILS PRENDRE LE POUVOIR DANS LES ADMINISTRATIONS ?

Les algorithmes sont de plus en plus utilisés dans les administrations, ils permettent de gagner en efficacité, mais ils peuvent aussi produire des effets discriminatoires, c’est pourquoi le législateur devrait créer des obligations de transparence pour que les citoyens puissent garder un œil sur leur fonctionnement.

Aujourd’hui ces algorithmes concourent à optimiser les politiques publiques dans des domaines très variés, mais sont le plus souvent invisibles aux yeux des usagers, voire des agents.

Qu’est-ce qu’un algorithme ? La Cnil (Commission nationale de l’informatique et des libertés) le définit comme « une suite finie et non ambiguë d’instructions permettant un résultat à partir d’éléments fournis en entrée ».

Les domaines d’application des algorithmes sont multiples, c’est pourquoi ils sont le plus souvent présentés comme des assistants aux pouvoirs numériques extraordinaires mais peuvent devenir de véritables « boites noires », dont les décisions sont difficiles à expliquer, ou pire, à comprendre !

Tout d’abord, il s’est agi d’attribuer ou de calculer le montant de prestations sociales ou de l’impôt. Ensuite, les administrations ont employé des algorithmes pour réaliser des appariements entre une « offre » et une « demande » (au sens large des termes). Enfin, l’usage d’algorithmes « apprenants » est beaucoup plus récent et n’est pas encore généralisé dans les administrations publiques.

Dans la plupart des cas, ces outils sont une aide à la décision, ils ne prennent pas la décision eux-mêmes. Quand c’est le cas, depuis le 1er juillet 2020, la mention est obligatoire sous peine de nullité de la décision.

Attributions de subventions, de places en crèche ou de logements, logiciel Parcoursup pour des inscriptions des étudiants dans l’enseignement supérieur, en principe, au plus près de leurs choix, gestion des flux de déplacements, logiciels de police prédictive ou de reconnaissance faciale… la liste des cas d’usages des algorithmes fondant des décisions individuelles est longue et reste à écrire : des décisions au moins en partie automatisées, il y en a partout, mais le sujet est minoré, voire invisibilisé.

En mai 2020, le Défenseur des droits a même tiré la sonnette d’alarme avec la Cnil, en rappelant que « le système algorithmique, neutre en apparence, peut produire des discriminations » et appelant à une « mobilisation collective ». Car, tout numérique qu’il soit, l’algorithme n’est au final, que la retranscription de choix humains.

Cette prise de conscience doit conduire à prendre en compte la dimension éthique dans le choix des outils et ce de la conception à la phase opérationnelle de tout projet, le Défenseur des droits recommandant notamment la réalisation d’études d’impact pour anticiper les effets discriminatoires des algorithmes.

C’est-à-dire, en amont des projets, se poser les bonnes questions : quel problème veut-on résoudre ?

Est-on vraiment sûr qu’un outil algorithmique soit la meilleure solution ? Quelles sont les alternatives, y compris non technologiques ?

(Source : la Gazette des Communes du 24/08/20)

Appli Stop Covid : les Dassault, Cap-Gemini et autres font l’aumône à l’Etat de quelques lignes de code

Le secrétaire d’Etat Cédric O déclare que « l’application n’a rien couté au gouvernement, hormis le salaire des agents publics qui ont participé à son développement, car les entreprises qui ont travaillé sur stop Covid l’ont fait gratuitement » La Voix du Nord 1/06/2020.

Les agents publics qui ont participé au développement apprécieront surement de constater que leurs salaires sont juste un peu plus que « rien ».

Ainsi, après avoir fait les poches de l’Etat en particulier à travers le crédit impôt recherche ou la commande publique militaire, les Dassault, Cap-Gemini et autres Orange font l’aumône à l’Etat de quelques lignes de code. Quelle grandeur d’âme !