Chatboty AI w służbie policji. Kwestie odpowiedzialności prawnej

Dlaczego warto zaufać Techopedii
Najważniejsze punkty

  • Chatboty AI, takie jak Draft One firmy Axon, zawitały w szeregi policji, gdzie pomagają szybciej tworzyć raporty. Pojawiły się jednak obawy, czy dokumenty stworzone w ten sposób są precyzyjne i czy można je wykorzystać w postępowaniu sądowym.
  • Sztuczną inteligencję wykorzystuje się do raportów na temat mniej szkodliwych czynów, nie do poważnych przestępstw.
  • Eksperci prawni obawiają się, że raporty wygenerowane przez AI mogą wprowadzać fałszywe informacje i wpłynąć na postrzeganie zeznań policji w sądach..

Na razie nową metodę pisania raportów wspomaganych sztuczną inteligencją testuje policja z Oklahoma City.

Chatboty wykorzystujące AI, takie jak zaprojektowany przez firmę Axon Draft One, tworzą szkice policyjnych raportów, analizując warstwę dźwiękową nagrań z kamer nasobnych. Sztuczna inteligencja wspiera wyłącznie tworzenie raportów w mniej istotnych sprawach, które nie prowadzą do aresztowania i nie są przestępstwami.

Jak chatboty AI pomagają policji szybciej pisać raporty

Kamera nasobna uchwyciła każdy szczegół przeszukania prowadzonego przez sierżanta policji Matta Gilmore’a. Policjant wraz ze swoim psem służbowym imieniem Gunner przez godzinę szukał podejrzanych. W normalnych okolicznościach sierżant Gilmore napisałby swój raport na laptopie, co zajęłoby mu około 30 do 45 minut. Tym razem jednak postanowił wesprzeć się sztuczną inteligencją, która stworzyła wstępną wersję raportu.

AI wykorzystuje dźwięk i rozmowy prowadzone przed radio, które nagrywają się na kamerze nasobnej, by sporządzić raport. Chatbotowi zajmuje to zaledwie osiem sekund.

„Sam nie napisałbym tego lepiej. Wszystko się zgadzało, a raport świetnie się czytało”, powiedział Gilmore. W raporcie pojawił się nawet jeden szczegół, o którym sam policjant zapomniał – wzmiankę innego policjanta o kolorze samochodu, przed którym uciekli podejrzani.

Organy ścigania dopiero zaczynają swoją przygodę z aplikacjami AI. Na razie nową technologię wykorzystuje się na przykład do wykrywania ran postrzałowych czy przewidywania, gdzie może dojść do przestępstwa, zanim rzeczywiście coś się wydarzy.

Jednak wiele z tych aplikacji wzbudza obawy w zakresie prywatności. Z tego powodu ustawodawcy już teraz podejmują próby stworzenia odpowiednich zabezpieczeń. Mimo tych wyzwań potencjał sztucznej inteligencji do pisania raportów wydaje się obiecujący.

Rick Smith, założyciel i CEO firmy Axon, opisał, że nowy produkt AI, Draft One, spotkał się z entuzjastycznym przyjęciem. Powiedział: „Ci ludzie zostają policjantami, żeby wykonywać policyjne zadania. Nie znoszą marnować połowy dnia na nudne wprowadzanie danych do formularzy”.

Eksperci mają obawy w związku z wykorzystaniem raportów AI w sądzie

Jednym z zarzutów formułowanych pod adresem raportów generowanych przez sztuczną inteligencję jest podejrzenie, że ta technologia może zafałszować informacje. Wiadomo, że modele AI, w tym również te wykorzystywane przez Axon, czasami doświadczają halucynacji. To oznacza, że generują nieprecyzyjne lub wręcz fałszywe dane.

Halucynacje AI to zjawisko, w ramach którego duży model językowy (LLM) formułuje fałszywe stwierdzenia, niepoparte rzeczywistymi danymi lub zdarzeniami. I pewnie każdy z nas miał do czynienia z chatbotem, który konfabuluje lub zmyśla historie, imiona, cytaty, daty czy inne quasi-fakty.

W świetle takich informacji Andrew Ferguson, specjalista od doktryny prawnej, wyraził poważne obawy, jakoby automatyzacja mogła obniżyć dokładność i prawidłowość dokumentacji policyjnej.

Zaniepokojeni są również aktywiści społeczni. Oni również mają wątpliwości co do roli sztucznej inteligencji w pracy policji. Aurelius Francisco, jeden z takich aktywistów, obawia się, że technologia może zaognić istniejące uprzedzenia i w negatywny sposób dotknąć społeczności zmarginalizowane.

W Detroit pewien mężczyzna został niesłusznie zatrzymany na noc w areszcie, ponieważ system oparty na sztucznej inteligencji błędnie rozpoznał jego twarz na miejscu zdarzenia. Fałszywie pozytywny wynik z systemu zidentyfikował tego człowieka jako podejrzanego.

Ten przypadek ukazuje krytyczną wadę niektórych systemów rozpoznawania twarzy. Wykazano, że mają one trudność z dokładnym rozróżnianiem osób o ciemniejszej karnacji, co w konsekwencji prowadzi do błędnej identyfikacji i niesłusznych zatrzymań.

Mimo tych obaw niektórzy policjanci uważają nową technologię za pomocną. Dzięki niej mogą skupić się na swoich podstawowych obowiązkach, zamiast poświęcać nadmiernie dużo czasu na papierkową robotę. Podoba im się, że AI jest w stanie szybko sporządzić przejrzysty i dokładny raport.

Tim Keary
Technology Specialist
Tim Keary
specjalista ds. technologii

Tim Keary pracuje jako freelancer. Jest autorem publikacji z dziedziny nowych technologii oraz reporterem. W swojej pracy dziennikarskiej zajmuje się takimi tematami jak sztuczna inteligencja, cyberbezpieczeństwo, czy najnowsze technologie biznesowe. W 2023 toku dołączył w pełnym wymiarze czasowym do zespołu Techopedii, przedtem zaś publikował swoje teksty w serwisach takich jak VentureBeat, Forbes Advisor i kilka innych renomowanych platform technologicznych. Tim najczęściej publikował teksty, w których analizowal najnowsze trendy i badał innowacje w świecie technologii. Tim ma dyplom magistra historii, który uzyskał na Uniwersytecie w Kent. Podczas studiów zdobył umiejętność rozbijania trudnych tematów na proste koncepty. Kiedy nie jest zajęty pisaniem…