A polícia de Oklahoma City está testando uma nova maneira de escrever relatórios usando chatbots com IA.
Esses chatbots, como o Draft One da Axon, criam os primeiros rascunhos dos relatórios policiais analisando o áudio das câmeras corporais. A IA é usada somente para incidentes menores que não levam a prisões ou crimes.
Como os chatbots de IA ajudam a polícia a escrever relatórios rapidamente
Uma câmera corporal capturou todos os detalhes durante uma busca realizada pelo sargento da polícia Matt Gilmore e seu K-9, Gunner, enquanto procuravam suspeitos por quase uma hora.
Normalmente, o sargento Gilmore usaria seu laptop para escrever um relatório, o que levaria de 30 a 45 minutos. Mas, dessa vez, ele deixou a inteligência artificial criar o primeiro rascunho.
A IA usa o som e as conversas de rádio da câmera corporal para fazer um relatório em apenas oito segundos.
“Foi um relatório melhor do que eu jamais poderia ter escrito, e foi 100% preciso. Ele fluía melhor”, disse Gilmore.
O relatório incluía até mesmo um detalhe que ele havia esquecido – a menção de outro policial sobre a cor do carro do qual os suspeitos haviam fugido.
A aplicação da lei não é novidade para os aplicativos de IA. Já houve vários casos de uso, incluindo a detecção de ferimentos de bala e o uso de IA para prever onde os crimes podem ocorrer antes de acontecerem.
Porém, muitos desses aplicativos geraram preocupações com a privacidade e tentativas dos legisladores de criar salvaguardas.
Apesar desses desafios, o potencial da IA para simplificar os processos de redação de relatórios parece promissor.
Rick Smith, fundador e CEO da Axon, destacou o entusiasmo com seu novo produto de IA, o Draft One, observando: “Eles se tornam policiais porque querem trabalhar na polícia, e passar metade do dia fazendo a entrada de dados é apenas uma parte tediosa do trabalho que eles odeiam”.
Especialistas estão preocupados com relatórios de IA no tribunal
No entanto, uma preocupação fundamental com os relatórios gerados por IA é o potencial de informações falsas. Os modelos de IA, inclusive os usados pela Axon, às vezes podem ter alucinações ou criar detalhes imprecisos.
Alucinação de IA é quando um modelo de linguagem grande (LLM – do Inglês, Large Language Model) faz afirmações falsas que não são baseadas em eventos ou dados reais.
Isso pode se manifestar em chatbots de IA que fabricam histórias, nomes, citações, datas e outros detalhes factuais.
Nesse sentido, o acadêmico jurídico Andrew Ferguson expressou uma grande preocupação, argumentando que a automação poderia diminuir a precisão e o rigor da documentação dos policiais.
Os ativistas comunitários também levantam preocupações sobre o papel da IA no policiamento.
Aurelius Francisco, um ativista local, teme que a tecnologia possa exacerbar os preconceitos existentes e impactar negativamente as comunidades marginalizadas.
Em Detroit, um homem foi erroneamente preso e mantido durante a noite devido a uma identificação falsa positiva feita por um sistema de reconhecimento facial alimentado por IA. Esse sistema o identificou incorretamente como um suspeito.
Esse caso destaca uma falha crítica em alguns sistemas de reconhecimento facial por IA, que demonstraram dificuldade em distinguir com precisão indivíduos com tons de pele mais escuros, levando a identificações e prisões incorretas.
Apesar dessas preocupações, alguns policiais consideram a tecnologia benéfica. Ela os ajuda a se concentrar em suas tarefas principais em vez de gastar tempo com a papelada. Eles também apreciam a capacidade da IA de produzir relatórios claros e precisos rapidamente.