Das Wichtigste auf einen Blick
- KI-Chatbots wie Axons Draft One werden verwendet, um Polizeiberichte schneller zu erstellen, doch es bestehen Bedenken hinsichtlich ihrer Genauigkeit und Zuverlässigkeit vor Gericht.
- Die KI kommt hauptsächlich bei weniger schwerwiegenden Polizeiberichten zum Einsatz, nicht bei schweren Verbrechen.
- Rechtsexperten befürchten, dass KI-generierte Berichte falsche Informationen enthalten und die Wahrnehmung von Polizeiaussagen in Gerichtsverfahren beeinflussen könnten.
Die Polizei von Oklahoma City testet eine neue Methode zur Berichterstellung mit KI-Chatbots.
Diese Chatbots, wie Axons Draft One, erstellen erste Entwürfe von Polizeiberichten, indem sie Audioaufnahmen von Bodycams analysieren. Die KI wird ausschließlich für kleinere Vorfälle verwendet, die nicht zu Festnahmen oder schweren Straftaten führen.
Wie KI-Chatbots der Polizei bei der schnellen Berichtserstellung helfen
Während einer einstündigen Suche nach Verdächtigen zeichnete eine Bodycam alle Details der Aktion von Polizeisergant Matt Gilmore und seinem K-9, Gunner, auf. Normalerweise würde Sgt. Gilmore 30 bis 45 Minuten benötigen, um einen Bericht auf seinem Laptop zu schreiben. Diesmal entschied er sich jedoch, die künstliche Intelligenz den ersten Entwurf erstellen zu lassen.
Die KI nutzt Ton- und Funkgespräche von der Bodycam, um den Bericht in nur acht Sekunden zu erstellen.
„Der Bericht war besser, als ich ihn je hätte schreiben können, und er war zu 100 % genau. Er war flüssiger“, sagte Gilmore. Der Bericht enthielt sogar ein Detail, das er vergessen hatte – die Erwähnung der Fahrzeugfarbe durch einen anderen Beamten, vor dem die Verdächtigen geflüchtet waren.
Police officers are starting to use AI chatbots to write crime reports. Will they hold up in court? – KXII https://t.co/IjnF6Q9r5R
— audai (@audaiuk) August 27, 2024
Der Einsatz von KI in der Strafverfolgung ist nicht neu. Es gibt bereits verschiedene Anwendungsfälle, wie die Erkennung von Schusswunden und die Nutzung von KI zur Vorhersage möglicher Verbrechensorte.
Jedoch haben viele dieser Anwendungen Datenschutzbedenken aufgeworfen und zu Bemühungen der Gesetzgeber geführt, entsprechende Schutzmaßnahmen zu entwickeln. Trotz dieser Herausforderungen zeigt das Potenzial der KI zur Verbesserung des Berichtswesens vielversprechende Ansätze.
Rick Smith, Gründer und CEO von Axon, unterstrich die Begeisterung für ihr neues KI-Produkt, Draft One, und sagte: „Polizisten werden Polizisten, weil sie Polizeiarbeit leisten möchten. Die halbe Zeit ihres Arbeitstags mit Dateneingaben zu verbringen, ist lediglich ein mühsamer Teil des Jobs, den sie nicht mögen.“
Experten sorgen sich um KI-Berichte vor Gericht
Ein Hauptanliegen bei KI-generierten Berichten ist die Möglichkeit falscher Informationen. KI-Modelle, einschließlich der von Axon verwendeten, können gelegentlich ungenaue oder erfundene Details erzeugen.
KI-Halluzinationen treten auf, wenn ein großes Sprachmodell (LLM) falsche Behauptungen aufstellt, die nicht auf tatsächlichen Ereignissen oder Daten basieren. Dies kann dazu führen, dass KI-Chatbots fiktive Geschichten, Namen, Zitate, Daten und andere Fakten erstellen.
In diesem Zusammenhang äußerte der Rechtsexperte Andrew Ferguson erhebliche Bedenken und argumentierte, dass Automatisierung die Genauigkeit und Gründlichkeit der Polizeidokumentation beeinträchtigen könnte.
Gemeinschaftsaktivisten haben ebenfalls Bedenken hinsichtlich der Rolle von KI in der Polizeiarbeit. Aurelius Francisco, ein örtlicher Aktivist, fürchtet, dass die Technologie bestehende Vorurteile verstärken und marginalisierte Gemeinschaften negativ beeinflussen könnte.
Ein Fall aus Detroit illustriert diese Problematik: Ein Mann wurde fälschlicherweise festgenommen und über Nacht inhaftiert, nachdem ein KI-gestütztes Gesichtserkennungssystem ihn fälschlicherweise als Verdächtigen identifiziert hatte.
Dieser Vorfall zeigt einen erheblichen Mangel bei einigen KI-Gesichtserkennungssystemen, die Schwierigkeiten haben, Personen mit dunkleren Hauttönen korrekt zu identifizieren, was zu fehlerhaften Festnahmen führt.
[2] Coded Bias
A gripping documentary on Joy Buolamwini's MIT discovery, revealing racial biases in facial recognition algorithms. pic.twitter.com/pDVq4G3bdh
— Priyank Ahuja (@ahuja_priyank) August 24, 2024
Trotz dieser Bedenken finden einige Polizeibeamte die Technologie nützlich. Sie schätzen, dass die KI ihnen hilft, sich auf ihre eigentlichen Aufgaben zu konzentrieren, anstatt Zeit mit Papierkram zu verbringen, und dass sie klare und präzise Berichte schnell erstellen kann.