A IA pode reduzir a violência dos atiradores escolares?

Os humanos sozinhos podem ser incapazes de resolver um problema que os humanos criam.

O problema com o aviso antecipado

De acordo com um estudo do Serviço Secreto de atiradores escolares, que examinou 37 ataques de 41 atacantes desde 1974, 75% dos atiradores escolares informaram alguém – geralmente um colega – de seus planos com antecedência, e os funcionários da escola também estavam cientes dos sinais de alerta exibidos por estudantes que eventualmente se tornaram atiradores escolares. A socióloga de Princeton Katherine Newman, que estudou os tiroteios em escolas, disse: “Eles [atiradores de escolas] nunca explodem espontaneamente; eles costumam dar dicas com muitos meses de antecedência ”.

E, no entanto, na maioria dos casos, de acordo com o Serviço Secreto, ninguém relatou essas “bandeiras vermelhas” antecipadamente às autoridades.

Por que a IA pode ajudar

Embora as razões pelas quais as pessoas não avisam as autoridades variem; da pressão dos colegas (os informantes não são legais), da abundância de “alarmes falsos” (muitos ventiladores infantis), de preconceitos cognitivos, como o efeito de normalidade (não planejamos ou reagimos a problemas que nunca nos aconteceram) Para o desamparo aprendido (os burocratas não farão nada), todas as pessoas que mantêm sinais de perigo têm um atributo em comum: elas são humanas.

E os seres humanos estão – e sempre estarão – sujeitos a pressões sociais, preconceitos cognitivos, crenças e outras forças que os farão relutar em apresentar preocupações precisas sobre possíveis atiradores de faculdades no futuro previsível. Além disso, mesmo que mais pessoas se apresentassem, as autoridades provavelmente ficariam sobrecarregadas com falsos alarmes e, assim, demorariam a reagir a ameaças genuínas. Finalmente, mesmo os colegas ou professores de atiradores de escolas que ouvem alertas avançados de um ataque muitas vezes não têm conhecimento de todos os fatores que predizem a letalidade – como o pronto acesso a armas de fogo – que os ajudariam a diferenciar ameaças genuínas de falsos alarmes.

Então, aqui está uma idéia radical: vamos aplicar a Inteligência Artificial (IA), juntamente com os recentes avanços na proteção da privacidade digital, para que os computadores – não os humanos – gerem sinais de alerta antecipado de tiroteios em escolas.

Computadores que executam algoritmos de IA não estão sujeitos a pressões sociais e podem acessar muito mais informações sobre atiradores em potencial – como o acesso a antebraços – do que colegas ou professores. Portanto, sistemas de IA, dados suficientes e “treinamento” podem atingir “taxas de acerto” razoavelmente altas com baixos “falsos alarmes”. Além disso, novas tecnologias de privacidade podem proteger as liberdades civis enquanto os computadores estão processando seus números.

Antes de entrar em detalhes de como a AI, juntamente com as tecnologias de privacidade pode – pelo menos teoricamente – reduzir as mortes de atiradores de escolas, preciso reconhecer que nenhuma tecnologia, por mais avançada e precisa que seja, pode resolver o problema sozinha, porque nenhuma tecnologia abordará as profundas raízes culturais, antropológicas, legais e políticas do problema.

A tecnologia, na melhor das hipóteses, só oferece esperança de melhorar alguns dos sintomas de problemas profundamente arraigados, como tiroteios em escolas.

Dito isto, se esses tratamentos “sintomáticos” puderem salvar uma única vida, vale a pena considerá-los.

Como a inteligência artificial, com avanços paralelos na privacidade digital, pode afetar o problema

A IA está ficando muito boa em uma tarefa que os cientistas da computação chamam de classificação: uma foto tem um gato em qualquer lugar ou não? O chamador de um centro de atendimento ao cliente está irritado ou não? Uma voz em um telefone é masculina ou feminina, falante nativo ou não-nativo? Será que um candidato a um seguro de automóvel provavelmente “churn” (volume de negócios para outra operadora) ou não? A IA tornou-se proficiente em todas essas tarefas.

É perfeitamente possível – e até provável – que os algoritmos de inteligência artificial possam em breve ficar muito bons em “classificar” quais estudantes são ameaças genuínas de conduzir ataques letais contra os quais os alunos provavelmente não o farão. A AI seria “alimentada” com o máximo possível de dados diversos em atiradores e não atiradores e seria “ensinada” a discriminar entre ameaças reais e falsos alarmes. Exemplos de dados incluiriam:

  • Postagens em mídias sociais (tanto de atiradores em potencial quanto de seus colegas falando sobre atiradores em potencial).
  • Imagens da câmera de vigilância da escola (por exemplo, o trabalho do Dr. Paul Ekman sobre microexpressões sugere que pode ser possível detectar a intenção letal das expressões faciais).
  • Registros de posse de armas em famílias ou parentes de estudantes correlacionaram-se com as listas do corpo discente. (a maioria dos atiradores tinha acesso imediato a armas de fogo e muitas vezes obsessão / fascinação por armas de fogo).
  • Relatórios anônimos / preocupações de colegas, funcionários da escola.
  • Dados demográficos sobre estudantes (homens brancos, não atléticos, marginalizados, com notas acima da média em áreas rurais, compreendem a maioria dos atiradores, de acordo com o Serviço Secreto).

Um problema enorme ao usar qualquer uma das fontes de dados listadas é garantir a proteção da privacidade pessoal e das liberdades civis. Qualquer organização, seja ela uma escola ou força policial, que coletasse e correlacionasse tais dados, estaria agindo como o Big Brother de Orwell.

Mas graças a tecnologias emergentes com nomes exóticos, como criptografia homomórfica e criptografia segura de múltiplos participantes, agora é possível criptografar todas as fontes de dados mencionadas acima – no ponto de coleta – e executar cálculos de IA nelas enquanto criptografadas. Assim, em nenhum momento durante o ciclo de coleta de dados, transmissão, armazenamento e análise, qualquer ser humano – ou computador para esse assunto – saberia a quem as informações coletadas pertenciam.

Apenas no caso raro de um algoritmo de classificação disparar uma bandeira vermelha, uma escola (ou possivelmente um tribunal judicial) seria notificada de que deveria ser dada atenção a um aluno em particular (sem expor nenhum dos dados pessoais que deram origem ao alerta da IA)? de modo que uma investigação discreta e, em última análise, uma intervenção possam ser planejadas (como oferecer aconselhamento ou checar os alunos de alto risco quanto a armas ao entrar na escola).

Esse desbloqueio de identidade poderia ser baseado em evidências apresentadas pela IA a um juiz, por exemplo, resumindo as razões da preocupação (postagens violentas nas redes sociais, acesso a armas, comentários de colegas) sem mesmo contar ao juiz detalhes específicos. Somente se o juiz acreditasse que era garantido, o juiz usaria “chaves digitais” especiais (disponíveis apenas para o Judiciário) para destravar a identidade do aluno para notificar a escola e os pais.

A decisão da IA ​​de notificar um juiz, como sugerido acima, não seria influenciada pela pressão social, vieses cognitivos, desamparo aprendido ou outros fatores que levassem humanos a notificar ou não notificar as autoridades sobre uma ameaça.

É verdade que usar a IA para identificar alunos perigosos apresenta muitos desafios. Por exemplo, uma instituição pública – como a escola ou o sistema de justiça penal pode agir com base apenas no que um aluno pode fazer no futuro versus o que ele realmente fez?

Todas as questões que envolvem IA e atiradores de escolas são espinhosas e difíceis e repletas de desafios éticos, e alguns dirão que o uso da IA ​​poderia ser uma abordagem desumanizadora para reduzir as mortes e ferimentos nos tiroteios em escolas.

Mas nada rouba um estudante de sua humanidade – ou direitos – mais do que ser morto por um colega estudante.

Referências

Farr, K. (2017). Tiroteio em Adolescentes por Rampage: Respostas a Masculinidades em Fracas por Garotos Preocupados, Questões de Gênero DOI 10.1007 / s12147-017-9203-z

“Relatório Interino sobre a Prevenção da Violência Direta nas Escolas”, outubro de 2000, Centro Nacional de Avaliação de Ameaças do Serviço Secreto dos EUA.

https://www2.ed.gov/admins/lead/safety/preventingattacksreport.pdf

http://www.popcenter.org/problems/bullying/PDFs/ntac_ssi_report.pdf

Traços comuns de todos os atiradores escolares nos EUA desde 1970

https://en.wikipedia.org/wiki/Homomorphic_encryption