As pessoas devem ter medo da inteligência artificial?

Stephen Hawking e Elon Musk descreveram recentemente a inteligência artificial como uma grande ameaça para a humanidade. A preocupação deles é que as melhorias rápidas no desempenho inteligente dos computadores os tornarão tão inteligentes como os humanos. A inteligência de máquinas de nível humano poderia rapidamente levar a computadores que são muito mais inteligentes que nós. Esse salto é plausível porque os computadores têm vantagens sobre nós em relação à velocidade de processamento, armazenamento, acesso a enormes quantidades de informações e facilidade de transferência entre computadores. Uma vez que este tipo de superinteligência existe, pode resultar em interesses e ações contrárias às dos humanos, em detrimento e talvez até mesmo da nossa morte. Quão preocupado as pessoas sobre esse problema?

Atualmente ensino um curso que compara sistematicamente a inteligência em máquinas, humanos e outros animais. Para os humanos, estou usando o que eu acho é a melhor teoria atual da inteligência: a arquitetura do ponteiro semântico Chris Eliasmith. Para as máquinas, a classe está procurando exemplos líderes de programas atuais de inteligência artificial, incluindo o Watson da IBM, os carros sem excitadores do Google, o CYC, o Siri da Apple e o Google translate.

Esta comparação mostra que ainda existem grandes lacunas entre inteligência humana e inteligência artificial. O Watson da IBM é muito impressionante em responder perguntas bem o suficiente para vencer excelentes jogadores humanos no jogo de TV Jeopardy. E até começa a mostrar algumas habilidades para a resolução criativa de problemas quando o Chef Watson gera novas receitas. Além disso, parece que a Watson vai fazer contribuições valiosas para muitas outras áreas, como negócios e medicina. No entanto, Watson, no futuro previsível, é muito inferior às habilidades humanas de lidar com representações perceptivas, imagens, emoções, consciência, aprendizado, linguagem e toda a gama de resolução criativa de problemas que os humanos podem realizar. Outros programas AI atuais compartilham limitações semelhantes.

Portanto, acho que a inteligência artificial de nível humano é mais distante no futuro do que muitas pessoas supõem. A idéia de que a inteligência da máquina pode resultar simplesmente baixando as conexões neurais das pessoas em um computador é extremamente ingênua sobre as complexidades do cérebro humano, que incluem não apenas conexões elétricas, mas também uma vasta gama de processos químicos envolvendo neurotransmissores, hormônios e células gliales. A inteligência artificial fez avanços impressionantes nos últimos 60 anos, produzindo máquinas que podem jogar xadrez e navegar na superfície de Marte. Mas eu aposto que será pelo menos mais 60 a 100 anos antes que a inteligência da máquina comece a aproximar a inteligência humana, tornando a AI uma ameaça muito menos premente para a humanidade do que o aquecimento global, as pandemias e a crescente desigualdade que levam a conflitos sociais.

Uma preocupação mais imediata com a AI é assegurar que os tipos de inteligência artificial que se adoçam por grupos como os militares dos EUA, Google e Facebook sejam usados ​​para beneficiar os seres humanos. Uma carta aberta recente assinada por Hawking, Musk e pesquisadores líderes de IAs faz um apelo forte e sensato que a inteligência artificial pode ser usada para ganhos humanos.

Embora eu não esteja preocupado com as máquinas que suplantam a humanidade no futuro próximo, há uma grande plausibilidade para a afirmação de que, uma vez alcançado, a inteligência artificial de nível humano poderia produzir rapidamente superinteligência que de fato poderia ser uma ameaça para a humanidade. O salto do nível humano para a superinteligência pode acontecer rapidamente devido à sua capacidade provável de se expandir a um ritmo muito mais rápido do que a inteligência humana. Os computadores podem evitar nossas limitações em relação à velocidade de processamento, taxa de aprendizado e transmissibilidade de informações. A superinteligência realmente é assustadora porque não há nenhum motivo para acreditar que ela funcionaria de acordo com os princípios éticos humanos.

Você pode pensar que você poderia programar princípios éticos no computador, mas qualquer programa inteligente poderia reprogramar-se para eliminar as regras que lhe foram fornecidas. Duvido que a superinteligência tenha o impulso ao pensamento ético que chegue a quase todos os seres humanos através da nossa capacidade emocional de cuidar uns dos outros. As visões mais influentes na filosofia tentaram tornar a ética uma questão de razão, por exemplo através de direitos e deveres kantianos ou através de cálculos utilitários do maior bem para o maior número. Eu acho mais plausível a visão de Hume e alguns éticos feministas de que as emoções e o cuidado são a base de nossos julgamentos éticos. Não se pode esperar que a inteligência da máquina tenha a mesma base ética porque as emoções são em parte o resultado da fisiologia, e não apenas a avaliação cognitiva das situações. John Hoagland disse uma vez que o problema com os computadores é que eles simplesmente não se importam. Do ponto de vista do benefício a longo prazo da AI para a humanidade, o problema é que eles simplesmente não nos importarão.