Suçu gerçek zamanlı olarak tespit etmek için Londra Metrosu'nda yapay zeka video gözetimi

amerikali

Yeni Üye
Londra Metrosu'nun operatörü, suçları veya güvenli olmayan durumları tespit etmek amacıyla, olağandışı davranışlar açısından yapay zeka (AI) tarafından her gün binlerce kişinin video gözetimini kontrol ediyor. Bunu başarmak için Transport for London (TfL), mevcut güvenlik kameralarını makine öğrenimi yazılımıyla birleştirdi. Silahlar ve bilet kaçakçıları tespit edilmeli, aynı zamanda saldırgan davranışlar veya insanların raylara düşme riski olup olmadığı da tespit edilmelidir. Böyle bir durumda personel derhal bilgilendirildi.

Reklamcılık



TfL, İngiltere'nin başkentinde otobüs ve metro ağını işletiyor ve yapay zeka sistemini Ekim 2022'den Eylül 2023 sonuna kadar Willesden Green adlı bir metro istasyonunda test etti. Korona pandemisinden önce bu istasyonun günde 25.000 civarında ziyaretçisi vardı. Bu, nakliye şirketinin yapay zekayı canlı video gözetimiyle birleştirdiği ve çalışanları buna göre bilgilendirdiği ilk seferdi. Wired dergisinin elde ettiği belgelere göre, neredeyse bir yıl süren test süresi boyunca 44.000'den fazla alarm tetiklendi ve 19.000 vakada personel gerçek zamanlı olarak bilgilendirildi. Geriye kalan 25.000 vaka ise analiz amacıyla saklandı.

Yapay zeka sistemi öncelikle suç teşkil eden ve anti-sosyal davranışları tespit etmeyi amaçlıyordu ancak aynı zamanda tekerlekli sandalyeleri, bebek arabalarını, sigara içenleri ve yetkisiz alanlara giren veya platformun kenarına çok yakın duran insanları tespit etmek için de eğitildi. Trendeki isyancıların yapay zeka kullanılarak saldırganlık tespiti kullanılarak tespit edilmesinin beklendiği 2019 yılında Almanya'da da benzer yaklaşımlar zaten mevcuttu.

AI tespiti sıklıkla hatalı


Belgeler, Londra'daki yapay zekanın yanılmaz olmaktan çok uzak olduğunu gösteriyor. Bilet kapılarında ebeveynlerini takip eden çocuklar, potansiyel bilet kaçakçıları olarak tanımlandı ve sistem, katlanmış bir bisiklet ile normal bir bisiklet arasında hiçbir ayrım yapmıyordu. Sadece ikincisinin metroya binmesine izin verilmiyor. Polis testi destekledi ve istasyon kapatıldığında açıkça pala ve ateşli silah taşıyan memurların, yapay zekayı silahları tanıma konusunda eğitmesi gerekiyordu. Ancak test sırasında hiçbir silah alarmı tetiklenmedi.

Ancak eğitim boşluklar gösterdi. TfL raporuna göre yapay zekayı eğitmek için yeterli veri mevcut olmadığından istenen saldırganlık tespiti başarılı olamadı. Birisi kollarını kaldırdığında alarmlar tetikleniyordu; belgeler bunu “saldırgan eylemlerle ilişkili yaygın davranış” olarak tanımlıyor. Yapay zeka bunu test aşamasında yalnızca 66 potansiyel agresif davranış vakasında keşfetti.

Trenlere giren ve çıkan sürücülerin yetkisiz alanlardaki kişiler olduğunun belirlenmesi nedeniyle alarmlar da tetiklendi. Güneş ışığı, yaklaşık 20 yıllık kameralara doğrudan yansıdığında video gözetiminin yapay zeka değerlendirmesini de etkiliyor. Willesden Green, Londra Metrosu'nun yer üstünde bir istasyonudur. Biletten kaçanlar daha iyi tanınıyordu. Rapora göre yapay zeka, birisinin biletsiz araç kullanmak istemesi nedeniyle 26.000 vakada alarmı tetikledi.

Veri koruma görevlileri uyarıyor


Ancak veri koruma uzmanları nesne tanıma algoritmalarının doğruluğunu sorguluyor. Ayrıca, bu tür AI video gözetiminin gelecekte örneğin yüz tanımayı da içerecek şekilde genişletilebileceği konusunda da uyarıyorlar. TfL, test aşamasında kaydedilen kişilerin tüm yüzlerinin bulanıklaştırılacağını ve verilerin maksimum 14 gün boyunca saklanacağını garanti ediyor. Ancak testin başlamasından altı ay sonra TfL, potansiyel bilet kaçakçılarının yüzlerini yeniden tanınabilir hale getirmeye karar verdi ve bu verileri daha uzun süre sakladı.


(fds)



Haberin Sonu