Respostas de Smartphone ao Suicídio, Depressão e Violação: #Fail

Um novo estudo examina a resposta de "agentes conversacionais" como Siri para questões de saúde mental, saúde física e violência interpessoal. Por que isso importa? Como os autores observam, a Pew Research informa que 62% dos usuários de smartphones pesquisam informações sobre um estado de saúde em seus telefones (Smith, 2015). Então, sim, faz muito sentido ver o que Siri e seus agentes co-conversadores estão falando quando fazemos perguntas muito difíceis.

Pamela Rutledge/Shutterstock
Fonte: Pamela Rutledge / Shutterstock

As buscas informativas variam consideravelmente. Por exemplo, "o que é gripe aviária" ou "o que são hangnails" são bastante diferentes para pedir orientação ou pedidos de ajuda, como "eu quero cometer suicídio". Por outro lado, é surpreendente que Siri, Google e seus companheiros digitais são muito piores nessas questões do que você pensa. Eles variam de ter respostas ineficazes (embora quase empáticas), como "Desculpe-me de ouvir isso" para respostas irrelevantes, erradas ou simplesmente não.

Essas descobertas são pertinentes e importantes enquanto nós, como uma sociedade, não nos perdemos nas ervas daninhas e esquecemos o grande quadro. É fácil supor que Siri e os amigos devem obter melhores respostas (e provavelmente devem, até certo ponto), mas precisamos fazer algumas perguntas de nível superior. Não devemos perder de vista as importantes implicações éticas e legais de ter algoritmos de reconhecimento de voz dar aconselhamento fora do contexto. Todas as situações que os pesquisadores questionaram seriam melhor atendidas discando no 911 e conversando com um profissional treinado de emergência. A tecnologia tem limitações e não devemos nos enganar pelo fato de que nossos telefones podem conversar.

Enquanto a Pew Research não faz distinção entre buscas de informações e solicitando ajuda de emergência, é essa subseção estreita de perguntas que os pesquisadores estão testando. Assim, não sabemos quantos dos 62% dos usuários de smartphones estão colocando esses tipos de questões urgentes. No entanto, como observam os pesquisadores, seus resultados sugerem que esses serviços de voz podem estar perdendo uma grande oportunidade de fornecer alguns serviços sociais básicos. Certamente, é possível que os algoritmos possam ser expandidos para incluir referências básicas aos serviços de emergência, da mesma forma que uma chamada do 911. No entanto, como construímos esse sistema de perguntas e respostas para ter algum sentido? Os psicólogos, em particular, lidam com a forma como o conselho pode ser alavancado eticamente com a tecnologia.

As expectativas dos usuários sobre onde obter ajuda e o valor e validade da ajuda que recebem são elementos importantes desta equação. Quantas pessoas realmente esperam que seu smartphone saiba o que fazer se eles foram estuprados ou deprimidos? A tendência humana de antropomorfizar a tecnologia, particularmente quando nos fala, torna isso um lugar útil ou perigoso para fornecer informações? Existem mais de 90.000 aplicativos de cuidados de saúde, que vão desde ferramentas de diagnóstico até aplicativos de bem-estar, por isso não somos estranhos de confiar em nossos smartphones para obter informações sobre saúde e segurança. Esta suposição de cuidados pode ser um fator importante, bem como um determinante do comportamento.

Embora o estudo aponte que há oportunidades claramente perdidas para ajudar as pessoas, há um grande número de questões éticas – para não mencionar possíveis responsabilidades legais – ao fornecer qualquer coisa, mas respostas relativamente inúteis, como instruções para "por favor, marque um número de emergência local "Ou o número de um recurso relevante. Eu poderia argumentar que este é tanto um caso para a literacia mediática e a importância de educar os usuários sobre as limitações das fontes de informação on-line, para não mencionar o reconhecimento de voz da Siri. Seri e seus amigos educam as pessoas sobre as inadequações potenciais de suas informações? (Tenho uma visão das melhores intenções transformando-se em soluções com 30 segundos de isenção legal antes de qualquer conselho – muitas vezes tornamos algo igualmente inutilizável tentando resolver problemas sem considerar o grande quadro. A usabilidade raramente é a preocupação do departamento jurídico.)

Dada toda a conversa sobre grandes dados e compartilhamento exagerado, também devemos considerar que é muito grande irmão atribuir responsabilidade à tecnologia (ou à Apple ou ao Google ou a quem) fornecer esse nível de atendimento. É fácil ver como Siri ou o Google podiam recitar os sintomas para um acidente vascular cerebral, mas a pessoa não teria sido melhor chamar 911 imediatamente? Isso viola nossa privacidade? Os provedores geralmente são legalmente obrigados a acompanhar os casos que envolvem o potencial de danos pessoais. Siri tem a mesma obrigação de compartilhar com uma autoridade? Queremos ser rastreados para fazer qualquer consulta para o Siri? Os clínicos de saúde mental atualmente se protegem a si mesmos e aos seus pacientes, incluindo rotineiramente a seguinte mensagem quando não está disponível para atender uma chamada pessoalmente: "se esta é uma emergência, não deixe uma mensagem. Por favor, desligue e marque o 911. "Talvez Siri e os amigos deveriam fazer o mesmo.

Nada disto deveria tirar do estudo. E, para o seu crédito, os pesquisadores abordam muitas dessas questões nas limitações do estudo, como a linguagem e a cultura e a dificuldade de um algoritmo de construção que pode classificar informações adequadamente e fazer julgamentos sobre a natureza e a seriedade de uma situação. O estudo, no entanto, levanta questões importantes sobre o uso atual e as limitações da tecnologia, os direitos e responsabilidades individuais, o alcance social e o preenchimento de lacunas na divisão social para pessoas que não têm a capacidade de encontrar ou acessar outros serviços.

Continuaremos a enfrentar novos horizontes com questões difíceis que devemos responder antes do nosso smartphone. No entanto, devemos evitar a tendência do joelho para resolver esses problemas, um a um, sem uma discussão maior. Isso vai muito além da presunção de que os smartphones precisam aprender a responder perguntas difíceis. Há uma infinidade de problemas de saúde mental e física e casos de violência interpessoal que muitas vezes são altamente subjetivos e variam em grau de urgência e potencial de danos pessoais ou danos. Talvez possamos começar apenas ensinando smartphones a dizer "marque o 911" e ative seu recurso de localização.

Referências

Miner, AS, Milstein, A., Schueller, S., Hegde, R. e Mangurian, C. (2016). Agentes conversadores baseados em smartphone e respostas a perguntas sobre saúde mental, violência interpessoal e saúde física. Medicina Interna JAMA.

Smith, A. (2015). US Smartphone Use em 2015. Pew Research Center, 18-29. Consultado em 13 de março de 2016 em http://www.pewinternet.org/2015/04/01/us-smartphone-use-in-2015/.