Ce que les Droits de l'Homme ont à redouter des algorithmes

Clément Solym - 26.09.2019

Edition - Bibliothèques - droits homme - algorithmes dématérialisation - numérique internet société


Classer, ordonner, ranger, trier : les algorithmes occupent l’espace numérique à grande vitesse. Ces outils mathématiques en mesure de résoudre des opérations qui se complexifient avec le temps bousculent les habitudes. Dans le privé, comme le public, ils sélectionnent, recommandent, voire choisissent. Mais avec quelles conséquences ?


 

Le Conseil de l’Europe avait sollicité l’avis du public, en juillet dernier : chacun pouvait apporter ses commentaires et recommandations sur la thématique définie. La Fédération internationale des associations et institutions de bibliothèques (IFLA) s’est rapidement emparée du sujet, tant il est au cœur des préoccupations pour les établissements de prêt.
 

Protéger le public des données collectées


Alors, quelle est l’incidence des systèmes algorithmiques sur les Droits de l’Homme ? Originellement le Conseil interrogeait tout un chacun, dans la perspective d’un projet de texte, qui serait adopté par le Comité des ministres, début 2020. Mais farfouiller dans les alogirthmes n’est pas sans risques, tant ces outils tentaculaires peuvent « affecter les droits de l’homme et les libertés fondamentales », rappelle-t-on.

Bien entendu, confier à la machine des tâches que l’humain n’exécuterait que laborieusement, avec un risque d’erreur accru, relève de l’évolution. Les avantages se comptent aisément : amélioration des vitesses de calcul, efficacité accrue des services, et autant d’atouts qui pourraient même remplir les nécessités que fixent les Droits de l’Homme.

Ou comment la collecte et le traitement de données permettraient de prendre des décisions primordiales concernant la planète et le climat, par exemple…

Le projet de recommandations sur lequel planche le Conseil de l’Europe porte sur deux axes : l’un à destination des États, l’autre pour les opérateurs privés. Ces recommandations porteront donc sur des approches législatives, réglementaires, autant que des programmes d’éducation aux algos, des mesures d’impact, de bonnes pratiques, couplées à des approches autour de la recherche et du développement.
 

Des machines en bibliothèques


Le recours aux algorithmes dans une bibliothèque apparaîtrait faussement contradictoire, souligne d’ailleurs l’IFLA. Pour autant, les outils de calculs mettent en péril plusieurs des valeurs défendues âprement par les établissements : liberté intellectuelle, accès à l’information, autonomisation et non-discrimination.

Dans un document de réponse (à consulter et télécharger en fin d’article), l’IFLA développe donc ces différents points avec une idée précise : les algorithmes sont, en premier lieu, des solutions susceptibles d’affecter l’autonomie informationnelle des individus et leur liberté de pensée. À ce titre, de nombreux établissements ont démontré comment faire coexister des services numériques (dont des algos) avec des solutions analogiques.

L’autre point est d’ordre budgétaire : les machines coûtent cher, et l’on ne peut demander aux établissements de soutenir économiquement ces évolutions, sans les aider eux-mêmes. 

Par ailleurs, l’IFLA insiste sur l’impératif d’une formation, pour « que les personnes puissent faire des choix en connaissance de cause et exercer leurs droits fondamentaux dans des contextes algorithmiques ». 

À ce titre, les bibliothèques pourront aisément servir de relais : l’absence de barrière pour entrer dans un établissement et profiter des ressources mises à disposition sera un atout véritable dans la formation des usagers. Et la multiplication des initiatives et initiations au numérique, comme aux médias, proposés dans ces lieux, permet de puiser dans un large bassin d’expérimentations…


 


Commentaires
Mon "bulletin de sortie" du CHU de Besançon indique en plus de mon n° d'affiliation (qui est juste) l'indication suivante "99 SDF / ETRANGER"

Ma carte d'électeur remise cette année 2019 porte comme département de naissance : "93 SEINE SAINT DENIS DEPARTEMENt DZE CONSTANTINE"

Ma question : suis-je victime des "algorithmes" ?- A qui me plaindre ?

et comment réclamer un préjudice ?

Merci de bien vouloir me répondre
Poster un commentaire

 

grin LOL cheese smile wink smirk rolleyes confused surprised big surprise tongue laugh tongue rolleye tongue wink raspberry blank stare long face ohh grrr gulp oh oh downer red face sick shut eye hmmm mad angry zipper kiss shock cool smile cool smirk cool grin cool hmm cool mad cool cheese vampire snake exclaim question

Vous répondez au commentaire de

Cliquez ici pour ne plus répondre à ce commentaire

* Laisser vide pour ne pas reçevoir de notification par email de nouveaux commentaires.