Une intelligence artificielle pour prédire les crimes, même Google en a peur

Nicolas Gary - 25.06.2020

Edition - International - minority report Dick - crimes prédire IA - criminels reconnaissance faciale


Dans la science-fiction, et plus spécifiquement chez Philip K. Dick, la police avait recours à des mutants pour traquer les crimes… avant qu’ils ne soient commis. La nouvelle est aujourd’hui connue à travers le film de Steven Spielberg, Minority Report. Comme souvent, le monde terrifiant de Dick se fait rattraper par la réalité — à croire que cette dernière trouve les univers du romancier enviables…


 

Dans Minority Report, trois mutants servent à prédire les actes de criminalité au sein de l’entreprise Precrime. Ces cognitifs lisent le futur, et anticipent donc les actions illégales : pratique, la police n’a plus qu’à cueillir les coupables avant même qu’ils ne le soient. 
 

Quand on n'a pas de mutants...


Or, dans le monde des GAFA, on n’a pas de mutants, mais on a des intelligences artificielles. Et malgré les usages douteux qui sont faits de ces machines, il semble qu’une conscience se soit développée chez les géants de la high-tech. 
 
On apprend en effet que plus de 2000 experts, universitaires, spécialistes des NTIC, mais également des organisations comme le MIT, Microsoft, ou encore Harvard et même Google, dénoncent une étude qui devrait sortir chez l’éditeur scientifique, Springer. 

Cette dernière, découlant en droite ligne de Minority Report, entend se servir d’intelligence artificielle pour prédire les crimes — mais cette fois à l’aide d’un système de reconnaissance faciale. Un modèle d’algorithme est mis en place et décrit par les chercheurs de l’Université de Harrisburg en Pennsylvanie.

La maison Springer, basée à Berlin doit donc publier le document A Deep Neural Network Model to Predict Criminality Using Image Processing, mais se heurte à une levée de boucliers sidérante. 
 

Analyse faciale automatisée


Leur logiciel automatisé de reconnaissance faciale serait en mesure de prédire si quelqu’un va possiblement devenir un criminel. Et en réponse, toute une coalition se ligue pour dénoncer le procédé, douteux, et surtout, les risques de dérives racistes — l’algorithme codé finirait par reposer sur des préjugés raciaux…

Sur la plateforme Medium, les signataires se déchainent : le projet est rebaptisé #TechToPrisonPipeline — ou tuyaux technologiques vers la prison. Une sorte de “passez par la case reconnaissance faciale, allez directement en prison, parce que vous avez déplu à une machine”. Au moins, chez K. Dick, les mutants sont des humains…

Surtout que le meurtre de George Floyd, survenu ce 25 mai, est encore frais dans les mémoires, et que le recours à « des statistiques judiciaires pénales pour prédire la criminalité » n’aiderait pas à apaiser les tensions. La Coalition for Critical Technology, qui signe la lettre ouverte, fait ainsi preuve d’un fonds d’humanité, cachée sous la silicone. Et demande à l’ensemble des éditeurs scientifiques de veiller à ne pas publier ni maintenant ni à l’avenir des études similaires.

Évidemment, les machines derrière l’IA ne sont pas racistes en soi. Cependant, « elles reproduisent et amplifient des résultats discriminatoires ». D’autant que les outils reposent sur des « prémisses scientifiques, des recherches et des méthodes peu fiables, que de nombreuses autres études couvrant nos disciplines respectives, démystifient au fil des ans », ajoutent les experts.
 

La preuve par trois


Et de pointer trois écueils majeurs : le premier est celui de la criminalité même, qui repose implicitement sur un préjugé racial, à compter du moment où il analyse un visage. « D’innombrables études ont démontré que les personnes de couleur sont traitées plus durement que les blancs, dans des situations similaires, à différents niveaux du système juridique. Ce qui entraîne de graves distorsions dans les données. »

L’autre point est celui de l’apprentissage automatique, et donc de la fiabilité de l’IA. Si les efforts fournissent une apparente rigueur, cette dernière passe à côté de nombreux critères — linguistiques, culturels, comportementaux, voire des éléments implicites. 
 
Enfin, le troisième point est celui d’une forme de prophétie autoréalisatrice. Toute technologie de prévision criminelle « reproduit les injustices et engendre un préjudice réel » aux victimes d’un système judiciaire qui est loin d’être exemplaire. Surtout que les chercheurs soulignent l’importance que leurs algorithmes prendront « comme avantage significatif aux services répressifs et autres agences de renseignements, pour prévenir les délits ». 


L’homme criminel, de Cesare Lombroso
 

Pour les signataires de la Coalition, nous vivons à une époque « où la légitimité de l’État carcéral et les services de police en particulier est contestée ». Et l’on demande plus de respect pour les personnes, afin de rompre avec « la violence historique » et la peur instituée. Prédire des crimes sur la base d’analyses aussi fragiles ne pourra que conforter les craintes d’une injustice grandissante. 

Il est vrai que Balzac faisait des gorges chaudes de la physiognomonie et de la phrénologie, dans les portraits de ses personnages. Le crâne d’un homme dans sa forme en disait alors long sur sa psychè. De même, le criminologue italien, Cesare Lombroso, avait brossé le portrait de criminels types, classés en fonction de régions du Bel Paese. 

Le fantasme d’une prédétermination sociale et d’une inclinaison au crime, de par la morphologie, a la peau dure. Tant que cela restait conscrit au domaine de la littérature, on pouvait souffler…


illustration : Geralt, CC 0


Commentaires
C'est amusant de constater que Google est vent debout contre une méthode qu'il applique lui-même.

Google décortique par des intelligences dîtes artificielles le comportement de tous ses « clients » afin de de les prédire et les orienter vers ses annonceurs (les véritables clients de Google).

Bref, l'arroseur arrosé en quelque sorte.

Vous me direz : quel rapport ? D'un côté, on parle de crime, de l'autre de sociologie de fièvre acheteuse. Mais bien au contraire : Google connaît tout de vous et est capable de faire un véritable profil psy et donc de prédire votre comportement à tout instant (avec plus ou moins de bonheur actuellement) et donc aussi de prévoir vos penchants.

Bref, l'un le fait ouvertement, l'autre par derrière. L'un est dénoncé (pourquoi pas, encore faudrait-il prouver que leur méthode ne donne pas de résultat, ce qui n'est pas le cas de l'article - désolé, cher Nicolas, mais même si votre article bien rédigé, comme tous vos articles, il est avant tout basé sur des on-dits -) et l'autre est un témoin à charge, sorte de caution morale, alors même qu'il est le prototype du parfait hypocrite !
Euh, Google a commencé à le faire dès 2000 et ne s'en est jamais caché. Contrairement par exemple aux 3 plus grosses boites de régies publicitaires dont une française qui faisaient ça bien avant et plus pernicieusement (et qui continue d'ailleurs).



Pour revenir à l'article ce que l'auteur tient à souligner c'est que dans notre droit français et (normalement) international on n'a pas le droit de condamner une personne si cette dernière n'a rien fait. Mais bon la france comme plusieurs pays tests les activités de police prédictive d'ailleurs voir https://hal.archives-ouvertes.fr/hal-02190585/document

Le gros problème bien sur est le biais fournit par l'informatique aux personnes sur le terrain, policiers, juges, etc... Ce qui est deja le cas avec la reconnaissance facial https://www.nextinpact.com/brief/reconnaissance-faciale---un-afro-americain-arrete-a-tort-12874.htm
Alors dans l'article il parle de la possible dérive de l'intelligence artificiel, qui incréminerais plus de noirs que de blancs, mais excusez moi il a été prouvé statistiquement qu'il y-avais plus de criminel noir que de blanc, allez visitez des prisons également, moi je l'ai fait, et la statistique et bien proche de la vérité.

Donc voilà c'est comme ça, et je ne suis pas raciste du tout, mais faut oser dire ce qui est, et sinon l'intelligence artificiel pourrait-être efficace, l'idée me plaît bien.
Vous faites comment pour visiter les prisons vous avez un laissez passer ? Ou beaucoup d'amis criminel ?, à moins d'être flic je ne crois pas que vous ayez la permission de visiter les prisons juste parce que vous en avez envie donc IA peut prédire que vous mentez 😂
Voici les commentaires de jeunes incultes

D'abord oui Google est plus amène d'établir un profil psychologie parce-qu'il analyses de centaines de données sur chaque personne, habitudes, achats, déplacement, conversation et autres

Et donc dire que c'est la même chose que la reconnaissance faciale, vraiment pas besion de bac+30 pour comprendre que c'est stupide

Et de deux statistiquement il y'a plus de noirs que de blancs en prison, çe n'est qu'une conséquence d'un système judiciaire présentant déjà des biais raciaux qui eux seront emplifies pat un model de reconnaissance facial, on a qu'à voir le comportement des apps comme snapchat ou FaceApp vis à vis des origines

Mais bon je suis juste ingénieur en intelligence artificielle, je dis ça je dis rien
Poster un commentaire

 

grin LOL cheese smile wink smirk rolleyes confused surprised big surprise tongue laugh tongue rolleye tongue wink raspberry blank stare long face ohh grrr gulp oh oh downer red face sick shut eye hmmm mad angry zipper kiss shock cool smile cool smirk cool grin cool hmm cool mad cool cheese vampire snake exclaim question

Vous répondez au commentaire de

Cliquez ici pour ne plus répondre à ce commentaire

* Laisser vide pour ne pas reçevoir de notification par email de nouveaux commentaires.