Nouvelle Stratégie de Sécurité dans le Métro de Londres
Transport for London (TfL) a mis en place une stratégie innovante pour augmenter la sécurité et l’efficacité dans ses stations de métro. L’initiative repose sur l’utilisation d’images de CCTV, d’algorithmes d’Intelligence Artificielle (IA) et de «modèles de détection» pour identifier des schémas de comportement qui pourraient indiquer des situations problématiques. L’objectif est de fournir au personnel de la station des informations en temps réel sur le mouvement et le comportement des utilisateurs, permettant une réponse plus rapide face à des situations potentiellement dangereuses ou perturbatrices.
Résultats et Critiques du Test de la Nouvelle Technologie
L’essai de cette nouvelle technologie a fourni des informations précieuses, notamment en ce qui concerne l’évasion des tarifs, ce qui permettra à TfL de développer des approches et des interventions plus efficaces à l’avenir. Malgré les préoccupations concernant les biais dans les algorithmes de l’IA, TfL assure qu’aucune preuve de biais n’a été trouvée dans les données collectées lors de l’essai. Cependant, il est important de mentionner que lors de l’essai, les utilisateurs n’ont pas été informés des tests de ces outils de surveillance de l’IA. Actuellement, TfL envisage la conception et la portée d’une deuxième phase de l’essai.
La technologie utilisée dans l’essai comprend des systèmes de vision par ordinateur capables de détecter des objets et des personnes dans des images et des vidéos. Pendant l’essai à Londres, des algorithmes ont été utilisés pour détecter certains comportements ou mouvements, combinés avec des images des caméras de CCTV de la station de métro. Lorsque le système détectait l’un des 11 comportements ou événements identifiés comme problématiques, il émettait une alerte au personnel de la station.
Comportements Problématiques et Défis Futurs
Les comportements problématiques identifiés comprennent le mouvement des foules, l’accès non autorisé, les situations de protection, l’assistance à la mobilité, les délits et le comportement antisocial, les personnes sur les voies, les personnes blessées ou malades, les dangers tels que les déchets ou les sols mouillés, les objets abandonnés, les clients échoués et l’évasion des tarifs.
Malgré les résultats prometteurs de l’essai, TfL a fait face à des critiques et des défis. Le rapport de TfL mentionne qu’il a été tenté d’inclure des actes d’agression dans la liste des comportements problématiques, mais ils n’ont pas réussi à les détecter avec succès. Daniel Leufer, analyste des politiques chez Access Now, remet en question la capacité des systèmes d’apprentissage automatique à détecter de manière fiable l’agression sans reproduire les biais existants dans la société. Pendant l’essai, un total de 66 alertes de comportement agressif ont été enregistrées, y compris des données de test.
En conclusion, TfL explore de nouvelles façons d’utiliser la technologie pour améliorer la sécurité et l’efficacité de ses stations de métro. Bien que l’essai ait été un succès à bien des égards, il a également soulevé des questions importantes sur la vie privée, les biais et l’efficacité des algorithmes d’IA dans la détection des comportements problématiques.
Sandra est spécialiste en marketing digital et experte en réseaux sociaux. Elle a obtenu un post-diplôme en Communication et RP pour les marques de mode à Idep Barcelone, ainsi qu'un autre en Marketing et réputation en ligne : communautés virtuelles. Sandra est au courant des dernières tendances et des meilleures pratiques sur les réseaux sociaux, ce qui se reflète dans son travail quotidien en générant un impact positif dans le monde numérique.
Cette entrée est également disponible dans : Español Português