Um sistema de detecção de armas baseado em inteligência artificial (IA) instalado na Escola Secundária Antioch, em Nashville, Tennessee, falhou em identificar a arma usada por um estudante de 17 anos para atirar fatalmente em outro estudante e em si mesmo, durante um tiroteio ocorrido na quarta-feira (22).
Um sistema de detecção de armas baseado em inteligência artificial (IA) instalado na Escola Secundária Antioch, em Nashville, Tennessee, falhou em identificar a arma usada por um estudante de 17 anos para atirar fatalmente em outro estudante e em si mesmo, durante um tiroteio ocorrido na quarta-feira (22).
O sistema Omnilert, projetado para ativar alertas imediatos quando detecta armas, não conseguiu identificar a arma neste caso devido à “localização e posicionamento das câmeras”, segundo Sean Braisted, porta-voz das Escolas Públicas de Metro Nashville, em uma conferência de imprensa. Braisted também afirmou que o sistema já havia identificado com sucesso outras armas no passado, incluindo as dos policiais que chegaram ao local após o incidente.
O distrito escolar de Nashville, que firmou um contrato de $1 milhão com a Omnilert em 2023, implementou o sistema como parte de uma estratégia para aumentar a segurança nas escolas. No entanto, o tiroteio expôs limitações no sistema, especialmente no que diz respeito à visibilidade da arma no local do ataque. Em resposta, Dave Fraser, CEO da Omnilert, explicou que a arma não estava visível para o sistema devido à localização do atirador e da arma, mas enfatizou que isso não significava que o sistema não reconheceria uma arma em situações diferentes.
A Omnilert faz parte de uma crescente indústria de detecção de armas baseada em IA, que inclui empresas como Evolv Technologies e ZeroEyes. Essas empresas têm conquistado contratos multimilionários com escolas e outras agências governamentais, apesar de evidências que sugerem que a eficácia desses sistemas não corresponde às promessas feitas.
Outros incidentes semelhantes levantaram preocupações sobre a precisão dos sistemas de detecção de armas. Em novembro de 2023, a Federal Trade Commission (FTC) processou a Evolv por alegações de publicidade enganosa sobre a precisão de seu sistema de digitalização de armas. A FTC destacou que o sistema da Evolv falhou em detectar uma faca usada em um ataque em uma escola em Utica, Nova York, e que um aumento na sensibilidade do sistema resultou em um número elevado de alarmes falsos.
Além disso, um piloto realizado no Jacobi Medical Center de Nova York mostrou que mais de 85% dos alertas do sistema Evolv foram falsos, enquanto testes em estações de metrô também geraram alarmes falsos, sem detectar armas. Em março de 2023, a agência de transporte público da Filadélfia (SEPTA) rescindiu seu contrato com a ZeroEyes devido à falha em integrar seu sistema de detecção com as câmeras de segurança da cidade.
Esses exemplos revelam que, apesar do aumento da adoção desses sistemas, as preocupações com a precisão e a eficácia da tecnologia de detecção de armas baseada em IA continuam a crescer, gerando questionamentos sobre seu papel na segurança pública.