Big Data Atende à Saúde Comportamental

Dr. Big Brother, diagnosticando você goste ou não.

Pixabay

Fonte: Pixabay

Quem é o proprietário dos dados que você gera, à medida que você se engaja on-line e eletronicamente? E quanto à informação que é criada SOBRE VOCÊ? Você tem alguma habilidade para ver essas informações, muito menos excluir ou controlá-las? Para muitos relatos, essa parece ser uma das batalhas sociais e legais mais abrangentes dos tempos modernos. Agora, esses dados estão chegando a um lugar que tem as mais fortes proteções de confidencialidade e privacidade: sua saúde mental.

Quando o Facebook revelou que a Cambridge Analytica, e uma série de outros grupos, obtiveram acesso a dados sobre milhões de usuários do Facebook, começamos a ter um escopo da amplitude dessa questão. Usando dados gerados de e sobre pessoas individuais, essas empresas puderam direcionar anúncios direcionados e compromissos eletrônicos, com o objetivo de afetar a maneira como as pessoas votam, compram e gastam.

BJ Fogg é psicólogo da Universidade de Stanford, criador do Stanford Persuasive Technology Lab, onde pesquisadores desenvolvem técnicas para “mudar humanos” e “mudar o que as pessoas pensam e o que as pessoas fazem…” Seu trabalho influenciou muitos no Vale do Silício, e os esforços modernos para usar a tecnologia de maneiras mais sofisticadas para afetar o comportamento, inclusive a saúde. Esses esforços levam a softwares e dispositivos que são melhores em demandar e comandar a atenção e o tempo das pessoas. Ao manter as pessoas coladas em telas e dispositivos, com mais frequência usando software e plataformas de mídia social, os anúncios colocados nessas plataformas obtêm mais exposição, gerando mais receita.

A Dopamine Labs é outro grupo que usa “brain hacking” para aumentar o engajamento dos usuários e “dar a seus usuários as explosões perfeitas de dopamina… Uma explosão de dopamina não apenas nos faz sentir bem: está comprovado que ela reavalia o comportamento e hábitos do usuário”. (Isso não é realmente como funciona a dopamina, é claro, mas todo mundo gosta de usar dopamina para soar inteligente …)

Pixabay

Fonte: Pixabay

Documentos vazados do Facebook mostraram que a empresa foi capaz de identificar e responder quando os usuários, especialmente adolescentes, se sentiam inseguros, sem valor, estressados, ansiosos ou sobrecarregados. Em 2014, o Facebook enfrentou críticas ao realizar um experimento com usuários, a fim de testar e inspirar os efeitos que poderia criar por meio do “contágio emocional” e alterar as pistas emocionais que os usuários recebiam.

Talvez não seja tudo ruim, embora? Afinal, o Facebook agora está usando um sistema de inteligência artificial para detectar e identificar usuários que podem ser suicidas. Se detectado, um indivíduo que está fazendo declarações suicidas pode ser contatado por um moderador do Facebook, ou receber informações sobre recursos locais ou socorristas (polícia ou resgate de incêndio). Em alguns casos, os membros da equipe de segurança do Facebook estão até contatando os socorristas e o 911, onde o usuário do Facebook está localizado, e informando-os do risco de suicídio que detectaram. Nesses casos, os socorristas podem, então, fazer um “teste de boa pessoa” e visitar o indivíduo identificado. Esta é uma ferramenta comum usada por profissionais de saúde mental quando se tornam conscientes do risco em um paciente. Observe que os usuários do Facebook não podem atualmente sair desse processo e não consentiram em ter sua saúde mental e risco de suicídio monitorados. Como médico licenciado, quando me encontro com um paciente, tenho que explicar antecipadamente que, se eu acredito que eles são um perigo para si mesmo ou para os outros, sou obrigado a denunciá-los. Enterrados nos novos termos de serviço do Facebook, há uma observação de que eles usam seus dados para “detectar quando alguém precisa de ajuda”, embora as informações detalhadas a que o Facebook se vincula nessa divulgação não deixem claro que socorristas podem ser contatados pelo Facebook em seu nome. .

A Mindstrong Health, outra startup de Palo Alto, tem uma plataforma que monitora o uso de smartphones das pessoas para indicações de depressão. Foi co-fundada pelo Dr. Thomas Insel, ex-diretor do Instituto Nacional de Saúde Mental. A empresa também está participando de pesquisas com os sinais eletrônicos de trauma.

Estes são todos os problemas que envolvem dados gerados pelo usuário, onde os comportamentos da pessoa real estão sendo analisados. Mas e os dados sobre você e sua saúde mental? Esses dados estão por aí também. Ele tem sido objeto de inúmeras violações de dados, no VA, de organizações de atendimento gerenciado e de provedores de serviços de saúde. Os dados sobre você, seus diagnósticos de saúde mental e os tratamentos que você recebeu, incluindo medicamentos, estão à disposição para serem pegos.

Pixabay

Fonte: Pixabay

Outros grupos também estão coletando e compartilhando informações sobre você e suas necessidades de saúde comportamental. Três são vários novos softwares e projetos eletrônicos que têm plataformas para socorristas e agências de aplicação da lei para criar bancos de dados sobre cidadãos com problemas ou necessidades comportamentais de saúde, para que os entrevistados acessem quando interagem com esses indivíduos. O RideAlong, um projeto interessante baseado em Seattle, analisou com atenção o pessoal encarregado da aplicação da lei que pode acessar ou alterar as informações que mantém em seu sistema e decidiu que informações sobre diagnósticos, por exemplo, não deveriam ser identificadas. Mas, até o momento, não há provisões em que uma pessoa possa realmente conhecer ou alterar qualquer informação sobre elas armazenada neste sistema. Eu ouvi pessoas desta empresa presentes, e enquanto eles levam a confidencialidade a sério, eles também querem fornecer à polícia uma ferramenta para compartilhar informações – sobre você.

A Collective Medical Technologies é uma empresa de Oregon com uma plataforma similar, que cria, rastreia e compartilha um banco de dados de informações robustas sobre pessoas que vão a salas de emergência de hospitais. O banco de dados só pode ser acessado por profissionais de saúde e provedores de cuidados gerenciados, mas contém registros de por que os indivíduos vão para o pronto-socorro, que tratamento receberam e técnicas úteis para desescalá-los caso fossem agitados. Um provedor de saúde comportamental como eu (Divulgação justa, eu e a organização que lidero, agora sou um prestador de serviços de saúde participante neste projeto) pode até ser notificado se um dos meus pacientes aparecer no pronto-socorro, para que eu possa ser capaz para chegar e se envolver em seu tratamento. Novamente, como esses dados são gerados sobre pessoas, não pela pessoa e estão sendo compartilhados por entidades sujeitas a leis de confidencialidade, as pessoas individuais não precisam consentir, e podem nem saber que elas ou seus dados estão neste sistema.

Os dados sobre sua história de diagnósticos e tratamento de saúde comportamental são usados ​​para orientar decisões tomadas sobre você por autoridades policiais, empresas de tecnologia, seguradoras de assistência gerenciada, estados e governos e muitos outros grupos que têm acesso a essas informações. Esse histórico pode ajudá-lo a obter mais acesso ao suporte, mas também pode ser usado para limitar suas opções e escolhas. Dr. Big Brother, diagnosticando você goste ou não.

Pixabay

Fonte: Pixabay

Como um provedor de saúde comportamental envolvido em políticas em nível estadual e nacional, tenho visto esse recente aumento na mineração e análise de dados atingindo o mundo da saúde comportamental. Estou em conflito sobre tudo isso, para ser perfeitamente honesto. Eu posso definitivamente ver muitos lugares onde esta informação pode salvar vidas, prevenir tragédias e ajudar pessoas a obter ajuda. Mas sempre me lembro de ficção científica distópica em que os sistemas de inteligência artificial ou de estado detectam sinais de infelicidade e fazem esforços para mudar ou alterar essas pessoas e seus sentimentos. Temos o direito de sermos infelizes? Se artistas famosos e gênios como Van Gogh, Robin Williams e Anthony Bourdain – todos indivíduos com histórico de necessidades comportamentais de saúde conhecidas – fossem detectados e recebessem tratamento, eles poderiam não ter morrido e continuado a produzir um trabalho incrível. Mas, que direito teriam tido, de escolher ficar doentes mentais e ficarem sozinhos?

Os dados sobre sua saúde comportamental, mental e emocional estão sendo coletados e analisados. Grandes conjuntos de dados como este SERÃO usados. Esta informação não está sendo coletada apenas para que ela possa ficar lá. Como isso será usado e com a permissão de quem faz parte de uma grande e assustadora pergunta que, no momento, não fazemos parte da resposta.