Il faut se faire une raison, aux Etats-Unis, la lutte contre les fusillades ne passera pas par la limitation et une réglementation sévère du port d’armes. Les Américains sont attachés à cette liberté constitutionnelle et le lobby des armes est très puissant. Il faut donc trouver d’autres parades. Du côté des écoles américaines, on est assez tentés de se tourner vers de nouveaux systèmes de surveillance, dit “intelligents” pour aider à prévenir la survenue d’un nouvel événement meurtrier.
Il s’agit, avec des appareils, d’enregistrer les moindres déplacements et paroles des élèves et ainsi de repérer les comportements suspects. Une sorte de “super surveillant” omniprésent. De nombreux chercheurs se sont penchés, d’une part sur la compréhension des motivations et des manières de penser des tueurs dans les fusillades. D’autre part, ils cherchent à travers la surveillance les symptômes, qui peuvent alerter sur le déclenchement de ces terribles et funestes passages à l’acte.
C’est pour cela, par exemple que Shreya Nallapati a mis en place un projet pour récolter un maximum d’informations susceptibles d’indiquer les facteurs à risque. On trouve dans cette collecte, des renseignements sur le statut socio-économique, l’état de santé des responsables, mais aussi la disponibilité des armes dans l’Etat où l’incident est survenu. De leur côté, des chercheurs du Cincinnati Children’s Hospital Medical Center proposent d’utiliser toutes ces données et les croiser avec l’IA pour prédire les comportements violents sur la base du langage employé par les enfants et les jeunes adultes.
Tout ceci débouche sur la mise en place de caméras couplées avec un algorithme permettant de retracer les déplacements de chaque individu. Grâce à un système de reconnaissance faciale, il serait possible en théorie de signaler les comportements qui sembleraient sortir de l’ordinaire.
Tout ceci est évidemment sujet à caution sur bien des points. Tout d’abord, du point de vue technique, on connaît les limites de l’IA et les aspects néfastes de son utilisation. Rashida Richardson de l’AI Institute résume “les personnes qui conçoivent ces algorithmes ne comprennent pas nécessairement l’ensemble des aspects sociaux, et même politiques des données qu’elles utilisent“. De nombreux exemples de prévisions policières assistées par l’IA ont déjà démontré les limites actuelles de la méthode. Un esprit humain est capable d’apporter une nuance dans le jugement dont les machines sont pour l’instant incapables, c’est à la fois sa faiblesse, mais aussi sa force.
Ensuite, il reste le problème plus moral de la surveillance à outrance, ses limites et sur ses dangers d’utilisation. La question de la protection de la vie privée se fait d’autant plus vivement ressentir qu’elle est ici appliquée à des mineurs.
Hélas, le dernier facteur et non des moindres, est comme toujours le facteur financier. La limite tant technique que morale de ses systèmes, n’est plus à démontrer, s’ils reviennent régulièrement sur le devant de la scène, c’est qu’ils représentent la volonté d’avoir des résultats pour un moindre coup.
Concernant les Etats-Unis, il est une nouvelle fois étrange que les tenants de la liberté, si virulents pour avoir le droit de porter une arme, et si inquiets de la place et de la surveillance du gouvernement fédéral, ne s’offusquent pas plus que cela de toute cette surveillance et ce fichage dans les écoles.
Crédit photo : hitesh choudhary