Os computadores faltam o julgamento social

istock subsciption
Fonte: subscrição de istock

Um dobrador de pára-choque recente no qual um automóvel auto-dirigido da Google foi atingido por um ônibus enquanto tentava se fundir na frente dele, lançou uma onda sobre a indústria automobilística autônoma. Como exemplo da desmoralização causada pelo acidente, um executivo do Google afirmou que pode demorar três décadas para resolver o problema descoberto por este recuo. O problema é que o computador do carro previu que o ônibus pararia para permitir que o carro da fusão fosse à sua frente, mas o motorista do ônibus não se comportou como previsto. O Google assumiu a responsabilidade pelo acidente, ao mesmo tempo em que afirmou que o motorista humano contribuiu para o acidente por (minhas palavras) sendo descortês. (Para uma conta do acidente do Google e suas conseqüências, veja este link: theverge.com).

Ao discutir esta história com um entusiasta automóvel auto-dirigido recentemente, ele disse que o problema real é a reação pública. Ele apontou para o fato de que os dobradores de pára-choques em carros operados por seres humanos ocorrem com muita freqüência, sem suscitar muita preocupação, e que o objetivo de um carro completamente autônomo é mais próximo da realidade do que a maioria das pessoas percebe. A questão PR é, obviamente, um problema, embora eu vejo isso intimamente ligado à quimera de alcançar a perfeição na busca de evasão de acidentes. Em uma pesquisa AAA recente, 75% dos motoristas indicaram que eles seriam extremamente relutantes em conferir o controle completo de sua condução para o carro deles. Provavelmente, o número de céticos declinaria substancialmente se os carros auto-dirigidos fossem absolutamente seguros. Alguns acidentes fatais ou quase fatais poderiam, na minha opinião, levar a uma iniciativa de carro auto-dirigida na prateleira por um longo período de tempo, talvez para sempre. Alguém além de um visionário de software realmente acredita que tal perfeição de segurança é sempre alcançável, ou que a aceitação pública generalizada na ausência de quase perfeição é provável? Com o risco de me colocar na mesma categoria que os céticos que riram da demonstração de éter ou de qualquer outra inovação, minha resposta aos empreendedores autônomos de condução é "sonhar".

Aqueles que acreditam que os carros auto-dirigidos estão perto de um ponto realty para o carro elétrico totalmente modelo modelo Tesla, que possui um modo auto-dirigindo ("piloto automático") que um driver pode ativar. Segundo meu amigo. Hoje, pode-se dirigir por centenas de milhas na interestadual em uma Tesla auto-dirigida enquanto faz distrair coisas como ler um jornal. Achando isso surpreendente, chequei a afirmação e achei um pouco exagerado. De acordo com o fundador e CEO da Tesla, Elon Musk, a opção de auto-condução (que ele descreveu como uma versão Beta imperfeita) deve sempre ser usada com as mãos na roda, o que certamente descarta a leitura de um jornal. Musk reconheceu alguns incidentes quase catastróficos recentemente, mas ele culpou isso em motoristas que ignoraram esse aviso, tirando as mãos do volante. Esses incidentes envolveram principalmente o que poderia ser chamado de erros não sociais (ou seja, leitura do terreno), mas quase todas as decisões de condução, especialmente quando outros carros fazem parte do terreno, fazem alguma demanda de julgamento social no operador, seja o operador humano ou um computador. (Para uma conta de algumas missões perto de Tesla-S, veja technologyreview.com).

O suporte para a reivindicação de que hoje pode dirigir centenas de quilômetros no piloto automático Tesla pode ser encontrado em uma viagem de cross-country bem divulgada, tomada em uma Tesla-S que fez a jornada em tempo recorde. No entanto, o que geralmente não pode ser conhecido, é que houve três incidentes durante a viagem, em que um acidente grave foi evitado de forma alguma. Em um desses incidentes, o carro entrou em uma curva a 90 milhas por hora (bem acima do limite de velocidade) e o carro perderia o controle se o humano não tivesse sido rapidamente assumido. O problema parecia ser que o algoritmo do computador do carro exigia que ele seguisse a linha ou o marcador da linha central a uma distância padrão, mas os drivers experientes sabem que é preciso corrigir a alta velocidade (além de abrandar), tomando uma curva mais próxima do que Normal para o ápice da estrada, a fim de diminuir o grau de rotação necessário para negociar a curva com segurança. A conclusão aqui parece ser que o carro ainda não pode operar com segurança de forma autônoma em alta velocidade. Outro acidente próximo ocorreu quando o carro ficou confuso com a ação de outro carro e atravessou a linha média da estrada, orientando o Tesla-S para o tráfego que se aproximava e o que poderia ter sido uma colisão frontal fatal.

Curiosamente, enquanto o Google culpou parcialmente o motorista de ônibus por seu acidente, a Tesla responsabilizou inteiramente seus clientes por tais incidentes, alertando os proprietários que, em caso de acidente, no modo piloto, a responsabilidade financeira ficaria inteiramente com o motorista. Para o que eu digo "muita sorte", Elon, contando isso a um juiz quando algum cliente gravemente ferido ou a família do dono morto te perguntam. "Na verdade, alguns comentadores levaram Tesla à tarefa por motivos éticos e legais para disponibilizar um piloto automático imperfeito quando é previsível que muitos proprietários assumirão erroneamente que é um veículo totalmente operacional e, portanto, completamente seguro, auto-dirigido. Os motivos de Tesla para se precipitarem para a produção são um produto claramente não disponível? Muito provavelmente o ego (reforçando a afirmação de Musk de que ele está à frente do Google e outros concorrentes na corrida da AI) e, claro, monetário (levando as pessoas a comprar produtos bastante baratos da empresa).

Embora pareça que situações não-sociais (como linhas centrais ambíguas, confusas ou mal desenhadas ou rampas) continuam sendo uma porca muito resistente para a indústria automobilística auto-dirigida quebrar, acredito que o principal impedimento para seu eventual sucesso reside no domínio social. Como o acidente de ônibus ilustrou, as decisões de um carro auto-dirigido baseiam-se em parte em previsões sobre o que o motorista de outro carro provavelmente fará, mas se sabemos algo sobre o comportamento humano é que ele não é totalmente previsível, racional ou cortês (para prova disso, é preciso apenas olhar para os recentes desenvolvimentos políticos no Oriente Médio ou, nesse caso, nos Estados Unidos). Além disso, os motoristas que compartilham a estrada com um veículo autônomo podem ter problemas de visão, estarem com problemas, estado desatento ou agitado, ou não têm competência de condução, o que pode fazer com que eles façam movimentos repentinos e perigosos, que nenhum computador que não seja o maior do mundo O supercomputador sempre será capaz de se adaptar rapidamente. O fato é que um driver experiente e competente está sempre "lendo" o comportamento e as intenções de outros drivers, e fazendo respostas de segundo nível, baseadas não em probabilidades, mas em inferências e percepções em tempo real.

Ilustração para a base de julgamento social para muitos acidentes pode ser encontrada na experiência de começar motoristas adolescentes, cujos pais pagam prêmios de seguro muito elevados por um motivo. Minha senhora de cortar cabelo recentemente me contou a história de seu filho de 18 anos, que teve dois (por sorte) acidentes menores nos primeiros cinco dias após a obtenção de sua licença. Nenhum deles foi tecnicamente culpa dele, mas o fato é que nem provavelmente teria acontecido se tivesse um ano ou dois de idade. Em um dos acidentes, o jovem estava dirigindo quando um carro entrou na estrada de uma entrada à direita e arado na porta lateral do passageiro do motorista neófito. A explicação do jovem é que ele estava se concentrando na estrada à frente e não considerou a possibilidade de que algo acontecesse. Quase certamente, havia sugestões sutis, como o outro carro subindo na estrada e parecendo como se pudesse sair. Também é provável que ele próprio tenha inconscientemente contribuído para o problema, como por exemplo, ao parecer que o outro carro poderia continuar. Um motorista experiente e cuidadoso está em sintonia com essas sugestões sutis (essencialmente sociais) e está ciente da necessidade de se envolver em um fluxo contínuo de cálculos de avaliação de risco. Um motorista inexperiente, como este jovem, é profundamente egocêntrico, pois ele considera apenas seu próprio ponto de vista ao dirigir, e também quando faz muito mais. Na minha opinião, não é claro para mim como um carro dirigido por computador seria melhor do que um motorista neófito ao ler e emitir pistas sociais tão sutis.

Os engenheiros de software são bons para resolver problemas físicos, mas ainda não resolvem, nem mesmo prestaram muita atenção, problemas de julgamento social. A consciência dessa realidade veio a mim alguns anos atrás em uma conferência anual no Colorado que aborda a aplicação da tecnologia a pessoas com deficiências cognitivas. Todas as apresentações eruditas trataram da aplicação de software e hardware para problemas físicos, como problemas de mobilidade. Quando minha vez veio falar, falei sobre um filme que a platéia havia assistido sobre um homem de deficiência intelectual que estava sendo apoiado por seus vizinhos gentis que lhe permitiram continuar a viver no prédio de apartamentos de Nova York. Cada um dos desafios que ameaçavam continuar a viver no prédio era social, como sua extrema credulidade (meu interesse especial), como refletiu em coisas tais como o empréstimo da chave para seu apartamento para as pessoas da rua (que aterrorizavam os vizinhos, roubavam coisas e danificou o edifício de várias maneiras). Quando desafiei as autoridades de computação (alguns lendários) que se reuniram na conferência para dizer como a tecnologia poderia resolver tais comportamentos sociais (e solidão) conduzidos, a resposta foi de silêncio.

O movimento auto-dirigente é interessante não apenas como um fenômeno automotivo, mas como uma ilustração dos desenvolvimentos no campo da inteligência artificial (AI). O Google é um exemplo de uma empresa que é extremamente otimista sobre a capacidade de seus cientistas da computação, usando avanços crescentes na miniaturização de chips, para melhorar o funcionamento humano através da AI. Talvez o exemplo principal de tal atitude seja Raymond Kurzweil – um inventor de gênio de muitos dispositivos de computador autodenominados (e alguém considerou um moderno Thomas Edison) – que agora trabalha em tempo integral como futurologista residente da Google. Kurzweil escreveu vários livros e deu muitas palestras exaltando sua visão otimista do futuro do "transhumanismo" (o uso de tecnologias cada vez mais sofisticadas para melhorar a inteligência humana) e a "singularidade" (o uso da tecnologia para mudar a biologia humana, como por cura doença e extensão da vida humana). Central para esses conceitos é a crença um pouco controversa de Kurzweil de que a essência da inteligência é o reconhecimento de padrões (algo em que os computadores são bons) e que os cientistas da computação, eventualmente, poderão construir uma versão melhorada do cérebro humano. A condução competente do carro, que depende muito do reconhecimento de padrões, parece ser, portanto, uma extensão óbvia do conceito de AI. Um problema com grandes gênios (como o Kurzweil) e as grandes empresas (como o Google) é que muitas vezes eles têm dificuldade em saber quando tomaram um "problema demais". Minha própria opinião é que criar um carro auto-dirigido capaz de reconhecer e responder com sucesso às centenas de desafios de julgamento social e físico envolvidos na obtenção segura do ponto A ao ponto B será um problema incapaz de ser resolvido na vida de Kurzweil, mesmo que ele tenha sucesso em alterar sua bioquímica (ele toma 150 [de um máximo de 200] comprimidos por dia) e vive por mais cem anos.

Copyright Stephen Greenspan