David Chalmers é um filósofo da mente, mais conhecido por seu argumento sobre a dificuldade do que ele chamou de "difícil problema" de consciência, que ele tipicamente discute por meio de um experimento de pensamento com zumbis que atuam e falam exatamente como humanos e ainda não tenho pensamento consciente (expliquei claramente o que penso desse tipo de coisa no meu ensaio sobre "A Zombificação da Filosofia").
Ontem tive o prazer de ver Chalmers em ação ao vivo no Centro de Pós-Graduação da Universidade da Cidade de Nova York. Ele não falou sobre zumbis, dizendo-nos, em vez disso, seus pensamentos sobre a chamada Singularidade, o suposto momento em que a inteligência artificial superará a inteligência humana, resultando em todo o inferno que se solta ou no próximo estágio glorioso da evolução humana – dependendo se Você normalmente vê o copo como meio vazio ou meio cheio. A conversa deixou claro o que é o problema de Chalmers (além de seu corte de cabelo realmente ruim): ele lê muita ficção científica e, aparentemente, não consegue sair da necessária suspensão da descrença quando volta para o mundo real. Deixe-me explicar.
O argumento de Chalmers (e outros defensores da possibilidade de um Singularismo) começa com a simples observação de que as máquinas ganharam poder de computação a uma taxa extraordinária ao longo dos últimos anos, uma tendência que pode extrapolar para uma futura explosão de inteligência. Muito ruim que, como qualquer estudante de estatística 101 deveria saber, a extrapolação é uma maneira realmente ruim de fazer previsões, a menos que se possa razoavelmente garantir a compreensão dos fenômenos causais subjacentes (o que não fazemos, no caso da inteligência). (Eu fiz uma pergunta ao longo dessas linhas para Chalmers no Q & A e ele negou ter usado a palavra extrapolação, verifiquei com vários colegas sobre vinho e queijo, e todos confirmaram que ele fez – várias vezes.)
Seja como for, Chalmers passou a apresentar seu principal argumento para a Singularidade, que é algo assim:
1. Em breve haverá IA (isto é, Inteligência Artificial)
2. Em breve haverá uma transição de AI para AI +
3. Em breve haverá uma transição de AI + para AI ++
Portanto, haverá AI ++
Todas as três premissas e a conclusão em que se seguiu uma declaração entre parênteses para o efeito de que cada uma detém apenas "derrotas ausentes", ou seja, ausente qualquer coisa que possa entrar no caminho de qualquer um dos acima.
Chalmers estava obviamente muito orgulhoso de seu argumento, mas tive a sensação de que poucas pessoas ficaram impressionadas, e certamente não era. Primeiro, ele se recusou consistentemente a definir o que AI ++, AI +, ou mesmo, para esse assunto, AI, na verdade, significa. Isso, em uma conversa de filosofia, é um pecado muito grave, porque a análise filosófica não sai do chão, a menos que estivéssemos razoavelmente claros sobre o que estamos falando. Na verdade, grande parte da análise filosófica visa esclarecer conceitos e suas relações. Você teria sido pressionado (e cada vez mais frustrado) em encontrar qualquer análise filosófica qualquer na conversa de Chalmers.
Em segundo lugar, Chalmers não forneceu um único motivo para qualquer um de seus movimentos, simplesmente afirmando cada premissa e acrescentando que, se a AI é possível, então não há motivo para acreditar que a AI + (seja o que for) também não é possível, de fato, provável e em breve. Mas, meu amigo, se você está fazendo uma alegação de romance, o ônus da prova é sobre você argumentar que existem razões positivas para pensar que o que você está sugerindo pode ser verdade, e não o resto de nós para provar que não é . Deslocar o ónus da prova é o truque mais velho da caixa de ferramentas retórica, e não um que um filósofo que se respeite se deva desdobrar na frente de seus pares (ou em qualquer outro lugar, para esse assunto).
Em terceiro lugar, observe o aviso de parênteses que qualquer uma das premissas, bem como a conclusão, não serão válidas se um "vencedor" entrar no caminho. Quando perguntado durante as perguntas e respostas sobre o que ele quis dizer com os derrotistas, Chalmers quase disse tudo o que os seres humanos ou a natureza poderiam lançar no desenvolvimento da inteligência artificial. Mas, se for esse o caso, e se não tivermos uma classificação e análise de tais derrotas, então todo o argumento equivale a "X é verdadeira (a menos que algo demonstre que X não seja verdade)." Não tão impressionante.
O outro elefante na sala, é claro, é o próprio conceito de "inteligência", artificial ou humano. Este é um conceito notoriamente difícil de desempacotar, e ainda mais para medir quantitativamente (o que seria necessário para dizer a diferença entre AI e AI + ou AI ++). Várias pessoas observaram esse problema, incluindo eu próprio no Q & A, mas Chalmers o descartou descaradamente dizendo que seu argumento não depende da inteligência humana, do poder computacional ou da inteligência em um sentido mais amplo, mas apenas em uma quantidade não especificada "G" que Ele rapidamente se associou a um conjunto não especificado de capacidades cognitivas através de uma função de mapeamento matemático igualmente não especificada (acrescentando que "mais trabalho teria que ser feito" para concretizar essa noção – sem brincadeiras). Mesmo? Mas espere um minuto, se iniciarmos toda essa discussão sobre a Singularidade usando um argumento baseado na extrapolação do poder computacional, nossa discussão não deve limitar-se ao poder computacional? (O que, é escusado será dizer, não é o mesmo que a inteligência.) E se estamos falando de AI, o que a Terra faz no "eu" representa, se não a inteligência – presumivelmente de tipo humano?
Na verdade, o problema com o esforço de IA em geral é que temos pouco progresso para mostrar após décadas de tentativas, provavelmente pelo motivo muito bom de que a inteligência humana não é algorítmica, pelo menos não no mesmo sentido em que os programas de computador são. Eu certamente não invoco o misticismo ou o dualismo aqui, acho que a inteligência (e a consciência) são o resultado da atividade de um substrato cerebral físico, mas o próprio fato de que podemos construir máquinas com um grau de poder de computação e velocidade que muito excede os da mente humana e, no entanto, está longe de ser "inteligente", deve deixar bem claro que o problema não é o poder ou a velocidade de computação.
Após a implantação do "argumento" altamente questionável acima mencionado, as coisas simplesmente ficaram bizarras na conversa de Chalmers. Ele rapidamente passou a nos dizer que A ++ acontecerá pela evolução simulada em um ambiente virtual – fazendo assim uma mistura borrada e confusa de diferentes noções, como seleção natural, seleção artificial, evolução física e evolução virtual.
O que, naturalmente, levantou a questão de como controlamos a Singularidade e impedimos que eles "nos" impeçam a extinção. A solução preferida de Chalmers é evitar o "vazamento" de AI ++ no nosso mundo ou selecionar valores morais durante o processo (virtual) evolutivo. Tímido, pensei que a maneira mais fácil de parar a ameaça de AI ++ seria simplesmente desconectar as máquinas que executam o suposto mundo virtual e ser feito com eles. (Aliás, o que significa que existe uma inteligência virtual? Como ele está "vazando" em nosso mundo? Como um holograma Star Trek que ficou louco?)
Então, o nível de absurdo infundado aumentou ainda mais rapidamente: talvez seja de fato um exemplo de inteligência virtual, disse Chalmers, e nosso Criador pode estar se preparando para nos desativar porque podemos estar prestes a vazar no seu mundo . Mas, se não, então, poderemos pensar em como nos integrar no AI ++, o que, naturalmente, poderia ser feito "fazendo o upload" de nossa estrutura neural (a recomendação de Chalmers é um neurônio de cada vez) na inteligência virtual – novamente, seja lá o que for Pode significar.
Finalmente, Chalmers – evidentemente perturbado por sua própria mortalidade (bem, quem não é?) – expressou a esperança de que A ++ tenha a tecnologia (e o interesse, eu suponho) para engenharia reversa de seu cérebro, talvez de uma coleção de varreduras, livros e vídeos dele, e trazê-lo de volta à vida. Você vê, ele não pensa que ele vai viver o tempo suficiente para realmente ver o Singularity acontecer. E essa é a única parte da conversa sobre a qual concordamos.
A razão pela qual eu durou tanto tempo sobre a performance abismal de Chalmers é porque este é precisamente o tipo de coisa que dá à filosofia um nome ruim. É bom ver os filósofos se interessando seriamente pela ciência e trazendo as ferramentas e as perspectivas de sua disciplina para a mesa alta de debates sociais importantes sobre o futuro da tecnologia. Mas a tentativa se torna uma piada não particularmente engraçada quando um filósofo bem conhecido começa por implantar um argumento realmente ruim e acaba soando mais cuco do que os fãs de trekkie em sua convenção anual. Agora, se você me desculpar, eu voltarei para o próximo episódio da Battlestar Galactica, onde você pode encontrar todas as idéias básicas discutidas por Chalmers apresentadas de forma imensamente mais divertida do que a conversa.