Londoner U-Bahn nutzt KI, um unbefugte Personen in Echtzeit zu erkennen
In einer der Londoner U-Bahn-Stationen wurden CCTV-Kameras mit künstlicher Intelligenz kombiniert, um Verstöße gegen die U-Bahn-Regeln zu verfolgen. Während des Prozesses wurden mehr als 44.000 Bescheide ausgestellt, von denen die meisten das Schwarzfahren betrafen.
Dies wird von Wired berichtet.
Von Oktober 2022 bis Ende September 2023 testete TfL, das Verkehrsunternehmen, das das Londoner U-Bahn-Netz betreibt, KI-Algorithmen zur Erkennung von Ereignissen in Videos. Die Tests fanden am Bahnhof Willesden Green im Nordwesten der Stadt statt.
Die Software wurde mit Live-Übertragungen von Videoüberwachungskameras kombiniert, um aggressives Verhalten und das Vorzeigen von Waffen oder Messern zu erkennen sowie nach Personen zu suchen, die auf die U-Bahn-Gleise fallen oder Fahrpreise umgehen.
Es ist das erste Mal im Vereinigten Königreich, dass eine Verkehrsbehörde künstliche Intelligenz und Echtzeit-Video kombiniert, um Warnmeldungen für das Bahnhofspersonal zu erstellen. Während des Versuchs wurden mehr als 44.000 Warnungen ausgegeben, 19.000 davon in Echtzeit.
Die meisten Verwarnungen wurden gegen Personen ausgesprochen, die das Fahrgeld hinterzogen hatten – 26 000. Nach Angaben von TfL belaufen sich die Verluste durch nicht gezahlte Fahrpreise auf bis zu 130 Millionen Pfund (über 150 Millionen Euro) pro Jahr.
Mandy McGregor, Leiterin der Abteilung für öffentliche Sicherheit bei TfL, sagt, dass es im Bahnhof keine Schilder gab, die auf die Erprobung von KI-Tracking-Tools hinwiesen, um die Fahrgäste zu einem natürlichen Verhalten zu bewegen.
Ein wesentlicher Teil der Analyse diente dazu, dem Personal zu helfen, die Vorgänge in der Anlage zu verstehen und schnell auf Zwischenfälle zu reagieren. Das System sendete 2.200 Warnungen über Personen, die die gelben Sicherheitslinien überschritten, 39 über Personen, die sich über die Bahnsteigkante lehnten, und fast 2.000 Warnungen über Personen, die lange auf der Bank saßen.
Die Publikation schreibt, dass die KI bei den Tests Fehler gemacht hat. So kennzeichnete er beispielsweise Kinder, die ihren Eltern durch die Drehkreuze folgten, als potenzielle Zahlungssäumige. Auch Polizeibeamte halfen bei der Einrichtung des Systems. Die Polizeibeamten hielten die Machete und die Schrotflinte in das Sichtfeld der Kameras, damit das System die Waffen besser erkennen konnte.
Bei allen Tests waren die Bilder der Gesichter der Personen unscharf und die Daten wurden maximal 14 Tage lang gespeichert. Sechs Monate nach Beginn der Tests des Systems wurde jedoch beschlossen, diese Daten länger zu speichern, da die Mitarbeiter keine Zeit hatten, auf die zahlreichen Meldungen zu reagieren.
Mit den Tests sollte auch herausgefunden werden, ob künstliche Intelligenz Fahrräder und Motorroller erkennen kann. “Die KI konnte weder zwischen einem gefalteten Fahrrad und einem normalen Fahrrad noch zwischen einem Elektroroller und einem Kinderroller unterscheiden”, heißt es in dem Artikel.