Alguns dos melhores técnicos e cientistas de hoje estão expressando publicamente suas preocupações com os cenários apocalípticos que provavelmente surgirão como resultado de máquinas com motivos. Entre os temerosos estão os pesos pesados intelectuais como Stephen Hawking, Elon Musk e Bill Gates, que todos acreditam que os avanços no campo da aprendizagem de máquinas em breve produzirão AIs autoconscientes que procuram nos destruir – ou talvez apenas descaradamente dispor de nós, muito Como uma escória obtida obliterada por um limpador de pára-brisa. Na verdade, o Dr. Hawking disse à BBC: "O desenvolvimento da inteligência artificial completa poderia significar o fim da raça humana".
Na verdade, há poucas dúvidas de que o futuro AI será capaz de causar danos significativos. Por exemplo, é concebível que os robôs possam ser programados para funcionar como armas autônomas tremendamente perigosas ao contrário de qualquer visto antes. Além disso, é fácil imaginar uma aplicação de software sem restrições que se espalha por toda a Internet, dificultando severamente o nosso meio mais eficiente e confiável para a troca global.
Mas esses cenários são categoricamente diferentes daqueles em que as máquinas decidem nos ligar, nos derrotar, nos tornar escravos ou exterminar-nos. A este respeito, somos incontestavelmente seguros. Em uma nota mais triste, somos tão improváveis que um dia tenha robôs que decidam nos fazer amizade ou nos mostrar amor sem ser especificamente solicitados por instruções para fazê-lo.
Isso ocorre porque esse comportamento intencional de uma IA exigirá indubitavelmente uma mente, uma vez que a intencionalidade só pode surgir quando algo possui suas próprias crenças, desejos e motivações. O tipo de IA que inclui esses recursos é conhecido como comunidade científica como "Inteligência Artificial Forte". A AI forte, por definição, deve possuir toda a gama de habilidades cognitivas humanas. Isso inclui a autoconsciência, a sensibilidade e a consciência, pois todos esses são os aspectos da cognição humana.
Por outro lado, "Weak Artificial Intelligence" refere-se a AI não-sensível. A Hipótese de Inteligência Fraca afirma que nossos robôs – que funcionam em programas de computador digital – não podem ter estados conscientes, nem mente, nem consciência subjetiva, nem agência. Tal AI não pode experimentar o mundo de forma qualitativa, e embora eles possam exibir um comportamento aparentemente inteligente, é para sempre limitado pela falta de uma mente.
A incapacidade de reconhecer a importância desta distinção forte / fraca poderia estar contribuindo para as preocupações existenciais de Hawking e Musk, que acreditam que já estamos bem no caminho do desenvolvimento de IA forte (também conhecido como Inteligência Geral Artificial). Para eles, não é uma questão de "se", mas "quando".
Mas o fato é que todas as AI atuais são fundamentalmente insuficientes, e isso se reflete na ausência total de qualquer computador intencional de computadores. Embora existam alguns robôs muito complexos e relativamente convincentes por aí que parecem estar vivos, após um exame mais atento, todos eles revelam-se tão ausentes como a calculadora de bolso comum.
Isso ocorre porque os cérebros e os computadores funcionam de forma muito diferente. Ambos calculam, mas apenas um entende – e há alguns motivos muito convincentes para acreditar que isso não vai mudar. Parece que existe um obstáculo mais técnico que interfere no fato de o IA forte se tornar uma realidade.
Turing Machines não estão pensando máquinas
Todos os computadores digitais são sistemas binários. Isso significa que eles armazenam e processam informações exclusivamente em termos de dois estados, que são representados por símbolos diferentes – neste caso 1s e 0s. É um fato interessante da natureza que os dígitos binários podem ser usados para representar a maioria das coisas; Como números, letras, cores, formas, imagens e até mesmo áudio com uma precisão quase perfeita.
Este sistema de dois símbolos é o princípio fundamental de que toda a computação digital é baseada. Tudo o que um computador faz envolve a manipulação de dois símbolos de alguma forma. Como tal, eles podem ser pensados como um tipo prático de máquina de Turing – uma máquina abstrata e hipotética que calcula manipulando símbolos.
As operações de uma máquina de Turing são ditas "sintáticas", o que significa que eles apenas reconhecem símbolos e não o significado desses símbolos – isto é, sua semântica. Mesmo a palavra "reconhecer" é enganosa porque implica uma experiência subjetiva, então talvez seja melhor simplesmente dizer que os computadores são sensíveis aos símbolos, enquanto o cérebro é capaz de entender semântico.
Não importa o quão rápido é o computador, a quantidade de memória que tem, ou o quão complexo e de alto nível a linguagem de programação. O Jeopardy e o Xadrez que jogam campeões Watson e Deep Blue funcionam fundamentalmente o mesmo que o seu microondas. Simplificando, uma máquina de processamento de símbolos rigorosa nunca pode ser uma máquina de compreensão de símbolos. O influente filósofo John Searle descreveu com inteligência esse fato por analogia em seu famoso e altamente controverso "Argumento da sala chinesa", que vem convencendo as mentes de que "a sintaxe não é suficiente para a semântica" desde que foi publicada em 1980. E, embora algumas refutações esotéricas foram colocados adiante (sendo o mais comum a "Respondência de Sistemas"), nenhum superou com êxito a diferença entre sintaxe e semântica. Mas, mesmo que alguém não esteja totalmente convencido com base apenas no Argumento do Quarto Chinês, não altera o fato de que as máquinas de Turing são máquinas manipuladoras de símbolos e não pensam máquinas, uma posição tomada pelo grande físico Richard Feynman há mais de uma década.
Feynman descreveu o computador como "Um sistema de arquivamento glorificado, de classe alta, muito rápido, estúpido", gerenciado por um funcionário de arquivo infinitamente estúpido (a unidade de processamento central) que acompanha cegamente as instruções (o programa de software). Aqui, o funcionário não tem conceito de nada – nem mesmo letras ou números únicos. Em uma famosa conferência sobre heurísticas de computadores, Feynman expressou suas dúvidas graves sobre a possibilidade de máquinas verdadeiramente inteligentes, afirmando que "Ninguém sabe o que fazemos ou como definir uma série de etapas que correspondem a algo abstrato como o pensamento".
Esses pontos apresentam razões muito convincentes para acreditar que talvez nunca possamos alcançar AI forte, ou seja, agentes artificiais verdadeiramente inteligentes. Talvez até mesmo as simulações mais precisas do cérebro não produzam mentes, nem os programas de software produzem consciência. Pode não estar nos cartões para um processador binário rígido. Não há nada sobre o processamento de símbolos ou computação que gere experiências subjetivas ou fenômenos psicológicos como sensações qualitativas.
Ao ouvir isso, alguém poderia estar inclinado a perguntar: "Se um computador não pode estar consciente, então, como pode um cérebro?" Afinal, é um objeto puramente físico que funciona de acordo com a lei física. Ele mesmo usa atividade elétrica para processar informações, assim como um computador. No entanto, de alguma forma, experimentamos o mundo subjetivamente – de uma perspectiva de primeira pessoa, onde ocorrem sensações internas, qualitativas e inefáveis que só nos são acessíveis. Tome, por exemplo, a maneira como se sente quando vê uma garota bonita, bebe uma cerveja, pisa em uma unha ou ouça uma orquestra temperamental.
A verdade é que os cientistas ainda estão tentando descobrir tudo isso. Como os fenômenos físicos, como processos bioquímicos e elétricos, criam sensação e experiência unificada é conhecido como "Problema difícil da consciência", e é amplamente reconhecido por neurocientistas e filósofos. Mesmo o neurocientista e autor popular Sam Harris – que compartilha as preocupações de rebelião robótica de Musk – reconhece o difícil problema ao afirmar que se uma máquina pode estar consciente é "uma questão aberta". Infelizmente, ele parece não perceber plenamente que, para as máquinas, representam uma ameaça existencial decorrente de seus próprios interesses, é necessária uma conscientização.
No entanto, embora o problema da consciência seja reconhecidamente difícil, não há razões para acreditar que não é resolvível pela ciência. Então, que tipo de progresso fizemos até agora?
A consciência é um fenômeno biológico
Como um computador, os neurônios se comunicam entre si através da troca de sinais elétricos de forma binária. Ou um neurônio dispara ou não, e assim é como os cálculos neurais são realizados. Mas, ao contrário dos computadores digitais, os cérebros contêm uma série de processos celulares e moleculares analógicos, reações bioquímicas, forças eletrostáticas, disparo de neurônios sincronizados globais em freqüências específicas e conexões estruturais e funcionais únicas com inúmeros circuitos de feedback.
Mesmo que um computador possa criar com precisão uma representação digital de todos esses recursos, o que em si envolve muitos obstáculos sérios, a simulação de um cérebro ainda não é um cérebro físico. Existe uma diferença fundamental entre a simulação de um processo físico eo próprio processo físico. Isso pode parecer um ponto discutível para muitos pesquisadores de aprendizado de máquinas, mas quando considerado extensamente parece algo trivial.
A simulação não é igual a duplicação
A hipótese da Fraqueza AI diz que os computadores só podem simular o cérebro e, de acordo com alguns como John Searle – que inventou os termos AI Forte e Fraco – uma simulação de um sistema consciente é muito diferente do real. Em outras palavras, o hardware da "máquina" importa, e as meras representações digitais dos mecanismos biológicos não têm poder para fazer com que nada aconteça no mundo real.
Consideremos outro fenômeno biológico, como a fotossíntese. A fotossíntese refere-se ao processo pelo qual as plantas convertem a luz em energia. Este processo requer reações bioquímicas específicas apenas viáveis, dado um material que possui propriedades moleculares e atômicas específicas. Uma simulação perfeita de computador – uma emulação – da fotossíntese nunca será capaz de converter a luz em energia, independentemente da precisão, e não importa o tipo de hardware que você forneça ao computador. No entanto, existem de fato máquinas de fotosíntese artificial. Essas máquinas não apenas simulam os mecanismos físicos subjacentes à fotossíntese nas plantas, mas duplicam as forças bioquímicas e eletroquímicas usando células fotoeletroquímicas que fazem a separação de água fotocatalítica.
De forma semelhante, uma simulação de água não vai possuir a qualidade da "umidade", que é um produto de uma formação molecular muito específica de átomos de hidrogênio e oxigênio mantidos juntos por ligações eletroquímicas. A liquidez emerge como um estado físico que é qualitativamente diferente do expresso por qualquer molécula isolada.
Mesmo a teoria da nova consciência quente da neurociência, a Teoria Integrada da Informação, deixa muito claro que uma simulação computacional perfeitamente precisa de um cérebro não teria consciência como um cérebro real, assim como uma simulação de um buraco negro não causará o seu computador e sala para implodir. Neurocientistas Giulio Tononi e Christof Koch, que estabeleceram a teoria, não mincem palavras sobre o assunto:
"O IIT implica que os computadores digitais, mesmo que o comportamento deles fossem funcionalmente equivalentes aos nossos, e mesmo se tivessem que executar simulações fieles do cérebro humano, não seriam próximas a nada".
Com isso em mente, ainda podemos especular sobre se existem máquinas não-biológicas que sustentam a consciência, mas devemos perceber que essas máquinas podem precisar duplicar os processos eletroquímicos essenciais (independentemente do que sejam) que estão ocorrendo no cérebro durante a consciência estados. Se isso se revelar possível sem materiais orgânicos – que possuem propriedades moleculares e atômicas únicas – presumivelmente exigiria mais do que máquinas de Turing, que são processadores puramente sintáticos (manipuladores de símbolos) e simulações digitais, que podem não ter os mecanismos físicos necessários.
A melhor abordagem para alcançar a IA forte requer descobrir como o cérebro o que faz primeiro e o maior erro dos pesquisadores em aprender a máquina é pensar que eles podem tomar um atalho em torno disso. Como cientistas e humanos, devemos ser otimistas sobre o que podemos realizar. Ao mesmo tempo, não devemos ter muita confiança em maneiras de orientar-nos em direções erradas e nos impedir de fazer um progresso real.
O Mito da IA forte
Desde já, na década de 1960, pesquisadores de IA têm afirmado que o IA forte está ao virar da esquina. Mas, apesar dos aumentos monumentais na memória do computador, na velocidade e no poder de processamento, não estamos mais perto do que antes. Então, por enquanto, assim como os filmes de ficção científica do passado que retratam cenários de AI apocalípticos, robôs verdadeiramente inteligentes com experiência consciente interna continuam sendo uma fantasia fantástica.