Promotor pede: Não use IA em relatórios policiais, para a aplicação da lei em Seattle

Don't use AI for police reports, prosecutor tells Seattle-area law enforcement – GeekWire

# A Inteligência Artificial ainda não é confiável para produzir relatórios policiais, diz promotoria

![King County Courthouse](https://cdn.geekwire.com/wp-content/uploads/2024/09/kcch.png)

A Promotoria do Condado de King, em Seattle, anunciou recentemente que não aceitará relatórios policiais produzidos com o auxílio de inteligência artificial (IA), citando o potencial de erros não intencionais, como alucinações geradas pela IA. O comunicado foi enviado às agências de segurança por Daniel J. Clark, vice-chefe da Divisão Criminal Principal. Clark afirmou que a referência a um policial que sequer estava presente na cena foi um dos erros encontrados em um dos relatórios analisados.

Em um memorando emitido no dia 25 de setembro, Clark alerta que esses erros podem passar despercebidos pelos oficiais revisores devido à quantidade de material a ser analisado dentro de prazos apertados. Ele também ressalta que, quando confrontados em um tribunal, os policiais que alegarem que seus relatórios são precisos serão desmentidos. Além disso, quando atribuírem os erros à IA, não haverá um rascunho do relatório para confirmar que a IA cometeu o erro.

A preocupação com o uso de tecnologias de IA por agências policiais com falta de pessoal não é um caso isolado, mas sim uma questão amplamente discutida em nível nacional. O memo de Clark faz referência ao ChatGPT, da Open AI, e ao Draft One, da Axon, que utilizam IA para gerar relatórios a partir de gravações de áudio dos policiais.

A Axon, responsável pelo Draft One, afirmou que o modelo de IA possui salvaguardas para minimizar especulações ou exageros. A empresa enfatizou que seus produtos são rigorosamente testados e seguem princípios de inovação responsável. A Axon também ressaltou a importância de que todos os relatórios sejam editados, revisados ​​e aprovados por um oficial humano, garantindo a precisão e a responsabilidade das informações.

Apesar disso, a Promotoria do Condado de King declarou que não aceitará relatórios que tenham sido produzidos com a ajuda de IA, devido a preocupações com a privacidade e ao impacto negativo que esses relatórios podem ter em casos judiciais. A posição atual é que a IA ainda não é confiável o suficiente para produzir relatórios policiais precisos e que garantam a justiça nos tribunais.

As autoridades destacam que estão abertas ao uso da IA no futuro, desde que a tecnologia seja desenvolvida de forma a garantir a confiabilidade dos relatórios. Enquanto isso, a promotoria continuará se reunindo com empresas como a Axon e participando de comitês nacionais para abordar as preocupações levantadas pelo uso da IA.

**Conclusão**

Embora a inteligência artificial esteja cada vez mais presente em nosso cotidiano, nem todos os seus usos são adequados para todas as áreas. A partir do exemplo dos relatórios policiais, vemos como a IA pode apresentar falhas, comprometer a confiabilidade das informações e prejudicar o andamento de um caso judicial. Por isso, é fundamental que as tecnologias de IA sejam desenvolvidas com cuidado e responsabilidade, garantindo que a tomada de decisões humanas não seja substituída em momentos críticos. O futuro da IA no campo jurídico ainda precisa ser aperfeiçoado, visando uma maior segurança e justiça para toda a sociedade.

## Importância da Revisão humana na Produção de Relatórios Policiais

A quantidade e a complexidade dos relatórios policiais podem representar um desafio para os agentes, principalmente quando se trata de produzir um texto com detalhes precisos e relevantes para investigações e processos judiciais. Nesse contexto, a inteligência artificial (IA) surgiu como uma solução potencial para agilizar o processo de produção de relatórios, liberando tempo para outras atividades operacionais.

No entanto, a recente decisão da Promotoria do Condado de King em Seattle de não aceitar relatórios policiais gerados com o auxílio da IA levanta importantes questionamentos sobre a confiabilidade dessas tecnologias. O principal motivo para tal decisão é a possibilidade de erros não intencionais e alucinações geradas pela IA, resultando em informações inexatas nos relatórios.

A falta de um controle rigoroso e confiável dos erros cometidos pela IA durante a geração de relatórios é um dos principais pontos destacados pela Promotoria do Condado de King. Esses erros podem ser sutis, como a menção a um policial que não estava presente na cena do crime, e passar despercebidos na revisão do relatório por parte dos oficiais. Isso compromete a acurácia do relatório e, consequentemente, pode prejudicar o andamento do caso judicial, levando a consequências graves tanto para a comunidade quanto para os próprios oficiais.

É importante ressaltar que a IA ainda está em constante desenvolvimento e que existem produtos no mercado que são insuficientemente confiáveis. Embora empresas como a Axon tenham implementado medidas de segurança em seus modelos de IA, a falta de um controle mais eficiente dos erros gerados ainda é motivo de preocupação para a Promotoria do Condado de King.

Essa posição da promotoria reforça a importância da revisão e da aprovação humana na produção de relatórios policiais. É fundamental que um oficial humano, que esteve presente nos eventos relatados, revise e aprove o relatório final, garantindo a precisão das informações contidas nele. A IA pode ser utilizada como uma ferramenta de apoio para a produção de relatórios, mas a decisão final e a responsabilidade pela exatidão das informações devem permanecer nas mãos dos oficiais.

O futuro da IA no campo da produção de relatórios policiais ainda é incerto. Embora existam esperanças de que a IA possa oferecer benefícios significativos em termos de economia de tempo e recursos, é necessária uma abordagem cautelosa para garantir a confiabilidade dos relatórios e a justiça nos tribunais. A colaboração entre promotorias, agências de segurança, empresas de tecnologia e outros órgãos relevantes é essencial para discutir essas preocupações e desenvolver soluções que atendam às necessidades de todas as partes envolvidas.

Para informações adicionais, acesse o [site da Axon](https://www.axon.com/responsible-innovation) e [aqui](https://cdn.geekwire.com/wp-content/uploads/2024/09/PID-revised-2-10-20.pdf) você pode encontrar o documento sobre o PID (Procedures for Identifying, Tracking, and Disclosing Evidence).