Texte de la LDH Nice, lu lors de la manifestation contre la loi « Sécurité globale » du samedi 16 janvier 2021


La démocratie n’est jamais acquise, il faut toujours la défendre ! Aujourd’hui, c’est contre cette loi liberticide « Sécurité globale » que nous allons manifester, pour notamment le droit de manifester, d’informer et d’être informé.

Dans son état actuel, l’art. 24 de la proposition de loi empêcherait de filmer les forces de police en action ; les journalistes devront bientôt être agréés pour couvrir les évènements.

Des décrets parus en décembre étendent les possibilités de fichage de trois fichiers de police et de gendarmerie, des seules activités comme c’était le cas auparavant, aux opinions politiques ou syndicales, aux convictions religieuses ou philosophiques, aux données de santé, aux habitudes de vie ou à l’activité sur les réseaux sociaux.Le nouveau schéma national du maintien de l’ordre va dans le sens d’une utilisation massive de la vidéo-surveillance et des drones et tend à organiser un dangereux continuum entre polices nationales et municipales et polices privées.

A Nice, nous sommes particulièrement sensibles à cette problématique Sécurité / Libertés, puisque notre ville est en quelque sorte « l’appartement témoin » des dispositifs de surveillance de haute technologie, dont notre maire est le zélé expérimentateur et démonstrateur. Rappelons-nous les tentatives de la reconnaissance faciale, avortée, au lycée des Eucalyptus, grâce à l’action conjointe de la Quadrature du Net, de la Fcpe 06, de la Cgt 06 et de la Ldh, mais aussi celle réalisée lors du carnaval de 2019, sur une population de soi-disant « volontaires » qui a suscité les commentaires négatifs de la Cnil.

Rappelons-nous le projet d’application pour smartphone « Reporty », proposée par la ville en 2018, heureusement retoquée par la Cnil, qui aurait permis d’intégrer les smartphones de particuliers dans le dispositif de vidéosurveillance municipal.

Tout ceci s’inscrit dans la vision du maire de Nice d’une Safe City, dont des capteurs, reliés au Centre de Supervision Urbain, pourraient permettre une surveillance en direct de tous les instants, sur l’ensemble de l’espace public. La mise en place de cette Safe City, rebaptisée Smart City, pour ne pas effaroucher les citoyens et citoyennes, a fait l’objet d’un marché public d’expérimentation, contracté avec l’entreprise Thalès et une kyrielle de sociétés de haute technologie, la plupart ayant fait leurs premières armes dans le domaine militaire. Pas de doute, Nice est vraiment en pointe de la communication politique sur ces technologies du « sécuritaire », sans qu’une quelconque efficacité n’ait pu être démontré, ce qu’a bien mis en évidence l’attentat du 14 juillet, si cruellement !

Pour terminer, la LDH veut souligner que les efforts pour tenter d’aligner les statuts de la police municipale sur ceux de la police nationale, en acceptant de lui donner les mêmes accès directs à certains fichiers sensibles, contribuent à un mélange des genres qui ne nous paraît pas souhaitable. Il est sain que les missions de police nationale restent du ressort du pouvoir régalien de l’État, gardien de l’indépendance de l’utilisation de la force publique sur l’ensemble du territoire.

Une police municipale, recrutée et gérée par le maire, devient rapidement la police du maire. Donc, oui à une police municipale de proximité et non à une police municipale progressivement alignée sur la politique nationale.

Pour toutes ces raisons et considérations, nous ne pouvons, nous, LDH, mais aussi toutes les organisations qui ont appelé à manifester aujourd’hui, que nous opposer à la loi « Sécurité globale » et nous ne demandons pas seulement au président de la république de revoir tel ou tel article de la loi, mais nous demandons purement et simplement l’abrogation de cette loi liberticide !

Christian Braquet

Président de la section LDH de Nice.

LES ALGORITHMES VONT-ILS PRENDRE LE POUVOIR DANS LES ADMINISTRATIONS ?

LES ALGORITHMES VONT-ILS PRENDRE LE POUVOIR DANS LES ADMINISTRATIONS ?

Les algorithmes sont de plus en plus utilisés dans les administrations, ils permettent de gagner en efficacité, mais ils peuvent aussi produire des effets discriminatoires, c’est pourquoi le législateur devrait créer des obligations de transparence pour que les citoyens puissent garder un œil sur leur fonctionnement.

Aujourd’hui ces algorithmes concourent à optimiser les politiques publiques dans des domaines très variés, mais sont le plus souvent invisibles aux yeux des usagers, voire des agents.

Qu’est-ce qu’un algorithme ? La Cnil (Commission nationale de l’informatique et des libertés) le définit comme « une suite finie et non ambiguë d’instructions permettant un résultat à partir d’éléments fournis en entrée ».

Les domaines d’application des algorithmes sont multiples, c’est pourquoi ils sont le plus souvent présentés comme des assistants aux pouvoirs numériques extraordinaires mais peuvent devenir de véritables « boites noires », dont les décisions sont difficiles à expliquer, ou pire, à comprendre !

Tout d’abord, il s’est agi d’attribuer ou de calculer le montant de prestations sociales ou de l’impôt. Ensuite, les administrations ont employé des algorithmes pour réaliser des appariements entre une « offre » et une « demande » (au sens large des termes). Enfin, l’usage d’algorithmes « apprenants » est beaucoup plus récent et n’est pas encore généralisé dans les administrations publiques.

Dans la plupart des cas, ces outils sont une aide à la décision, ils ne prennent pas la décision eux-mêmes. Quand c’est le cas, depuis le 1er juillet 2020, la mention est obligatoire sous peine de nullité de la décision.

Attributions de subventions, de places en crèche ou de logements, logiciel Parcoursup pour des inscriptions des étudiants dans l’enseignement supérieur, en principe, au plus près de leurs choix, gestion des flux de déplacements, logiciels de police prédictive ou de reconnaissance faciale… la liste des cas d’usages des algorithmes fondant des décisions individuelles est longue et reste à écrire : des décisions au moins en partie automatisées, il y en a partout, mais le sujet est minoré, voire invisibilisé.

En mai 2020, le Défenseur des droits a même tiré la sonnette d’alarme avec la Cnil, en rappelant que « le système algorithmique, neutre en apparence, peut produire des discriminations » et appelant à une « mobilisation collective ». Car, tout numérique qu’il soit, l’algorithme n’est au final, que la retranscription de choix humains.

Cette prise de conscience doit conduire à prendre en compte la dimension éthique dans le choix des outils et ce de la conception à la phase opérationnelle de tout projet, le Défenseur des droits recommandant notamment la réalisation d’études d’impact pour anticiper les effets discriminatoires des algorithmes.

C’est-à-dire, en amont des projets, se poser les bonnes questions : quel problème veut-on résoudre ?

Est-on vraiment sûr qu’un outil algorithmique soit la meilleure solution ? Quelles sont les alternatives, y compris non technologiques ?

(Source : la Gazette des Communes du 24/08/20)

Appli Stop Covid : les Dassault, Cap-Gemini et autres font l’aumône à l’Etat de quelques lignes de code

Le secrétaire d’Etat Cédric O déclare que « l’application n’a rien couté au gouvernement, hormis le salaire des agents publics qui ont participé à son développement, car les entreprises qui ont travaillé sur stop Covid l’ont fait gratuitement » La Voix du Nord 1/06/2020.

Les agents publics qui ont participé au développement apprécieront surement de constater que leurs salaires sont juste un peu plus que « rien ».

Ainsi, après avoir fait les poches de l’Etat en particulier à travers le crédit impôt recherche ou la commande publique militaire, les Dassault, Cap-Gemini et autres Orange font l’aumône à l’Etat de quelques lignes de code. Quelle grandeur d’âme !