Pour beaucoup, l’utilisation de l’intelligence artificielle pour réduire la criminalité et aider à condamner les criminels ressemble à un film de science-fiction. Cependant, les services de police du Royaume-Uni (y compris Durham, Kent et Galles du Sud) utilisent déjà la reconnaissance faciale ainsi qu’un logiciel comportemental pour prévenir les crimes avant qu’ils ne se produisent. Ces logiciels sont utilisés pour guider les décisions en matière de détention et de détermination de peine. La technologie offre à la fois une belle promesse et la perspective d’une dystopie.

Elle soulève en effet plusieurs questions éthiques. Les services de police prédictifs, par exemple, ont tendance à s’appuyer sur des casiers judiciaires signalés par la communauté ou par des patrouilles de police. Cela peut entraîner des boucles de rétroaction et une application plus ferme des règles dans les communautés déjà fortement contrôlées. Des inquiétudes subsistent étant donné que la technologie de reconnaissance faciale du service de police londonien présente un taux de faux positifs de 98 %. Il faut donc veiller à ce que les ressources de la police soient utilisées pour des menaces réelles plutôt que potentielles.

Tout comme les hommes, la technologie fait des erreurs et présente parfois des préjugés injustes en fonction de la couleur de peau ou du sexe des personnes. Il a été constaté que des algorithmes d’évaluation du risque tels que le COMPAS aux États-Unis, présentaient indirectement de forts préjugés raciaux. Il serait non seulement contraire à l’éthique mais également inacceptable que des personnes soient désavantagées par de tels systèmes appliqués à grande échelle.

Un autre point pose problème. La reconnaissance faciale est une technologie très intrusive. Lorsqu’elle est utilisée, les sujets sont introduits dans le système sans qu’ils ne le sachent ou y consentent. Les logiciels utilisés pour prédire le « visage type » du criminel, par exemple, s’appuient sur les réseaux sociaux, les relations, les événements, les horaires scolaires et les données disponibles sur le marché des données. Contrairement aux méthodes traditionnelles des forces de l’ordre telles que les arrestations et fouilles, contrôlées administrativement, la manière dont ces outils établissent des prévisions et dont les services de police les utilisent n’est pas clair. Veiller à ce que des codes de pratique soient appliqués est important.

Un autre domaine à examiner est l’utilisation de cadres d’évaluation ou d’algorithmes pour la détermination de la peine. Certains systèmes d’intelligence artificielle pourraient prédire la criminalité future en fonction du passé d’un individu et de sa propension à nuire. Aux États-Unis, la Pennsylvanie pourrait être l’un des premiers États à fonder ses condamnations pénales non seulement sur les crimes pour lesquels les personnes sont condamnées, mais également sur leur susceptibilité à commettre de nouveaux crimes à l’avenir. L’évaluation des risques grâce aux statistiques (âge, casier judiciaire et emploi) aidera les juges à déterminer les peines à infliger. Selon cet argument, cela contribuerait à réduire le coût et la charge du système pénitentiaire.