Problema Profundo da IA

Modelado no Cérebro Humano, Aprendizado Profundo é Opaco

Public Domain Archive

Fonte: Arquivo de Domínio Público

A inteligência artificial é modelada em certa medida no cérebro humano; e há um problema profundo com essa abordagem. O aprendizado de máquina é um subconjunto da inteligência artificial (IA), na qual os programas de computador aprendem automaticamente a partir de dados sem programação explícita. Inspirado em parte pela biologia humana, o aprendizado profundo é um método de aprendizado de máquina que implanta camadas de neurônios artificiais, chamados nós, em um cérebro artificial chamado rede neural. Neurocientistas e psicólogos ainda não entenderam completamente como o cérebro humano funciona. Da mesma forma, há um grande problema com o aprendizado profundo; os cientistas não sabem exatamente como a aprendizagem profunda alcança suas decisões. Em ambos os casos, a complexidade está na raiz da falta de transparência.

O cérebro humano é complexo; Os pesquisadores estimam que um cérebro humano adulto tem 86 bilhões de neurônios em média [1]. Os livros didáticos de neuroanatomia humana geralmente medem o número para estarem próximos a 100 bilhões de neurônios. Semelhante ao cérebro humano, o aprendizado profundo consiste em neurônios de processamento densamente interconectados, ou nós, organizados em múltiplas camadas. O aprendizado profundo não requer programação explícita porque foi projetado para aprender com grandes quantidades de dados de entrada. Por exemplo, o programa de aprendizagem profunda do Google aprendeu a reconhecer imagens de gatos depois de alimentar 10 milhões de miniaturas de vídeos do YouTube sem codificar ou rotular as imagens [2].

Entender por que a aprendizagem profunda é extraordinariamente complexa requer uma compreensão do próprio processo funcional. As redes neurais encontram padrões em grandes conjuntos de dados e, em seguida, desenvolvem a capacidade de conceituar e generalizar. Grandes quantidades de dados são inseridas nas redes neurais artificiais. A primeira camada de nós processa os dados e depois passa para as camadas subseqüentes de nós até que a última camada seja alcançada e uma única decisão seja tomada. No processamento, os pesos são calculados matematicamente para os nós e para a força da conexão entre os nós, como as sinapses cerebrais. A rede neural cria um modelo com mais de bilhões, se não trilhões, de parâmetros baseados em conexões complexas entre os nós. É essa complexidade inerente ao modelo que torna impossível determinar exatamente como a aprendizagem profunda produz sua saída.

A opacidade da aprendizagem profunda torna-se problemática em várias áreas de ética, controle legal e de qualidade. Por exemplo, a indústria automobilística está se movendo rapidamente em direção a veículos autônomos usando tecnologia de aprendizagem profunda. Em caso de acidente, não há uma maneira definitiva de entender o raciocínio por trás das decisões tomadas pelas redes neurais em um veículo autônomo. Quem é o culpado em tais casos? A questão coloca um dilema ético e legal para todas as partes interessadas, incluindo os feridos, passageiros, companhias de seguros e fabricantes de automóveis. Como um consumidor avalia a qualidade de um veículo autônomo sem entender o processo de tomada de decisão do motorista?

Outro exemplo é a implantação de aprendizagem profunda para análise de imagens em cuidados de saúde para certos tipos de câncer e retinopatia diabética [6]. Você confiaria no diagnóstico da doença de um modelo de aprendizagem profunda sem saber por que ele foi feito? Um médico humano pode explicar seu raciocínio e lógica quando questionado pelo paciente. Este não é o caso da aprendizagem profunda.

A extensão do problema de transparência da IA ​​está crescendo e só se tornará mais um problema no futuro, à medida que a automação aumentar. O recente aumento nos avanços comerciais e de pesquisa em IA tem sido em grande parte devido ao aumento do poder computacional através de aceleradores de unidade de processamento gráfico (GPU) para alcançar processamento paralelo massivo, versus uma unidade central de processamento (CPU) que processa informações serial e seqüencialmente [5]. Também contribuindo para o surgimento da IA ​​estão a computação baseada em nuvem descentralizada e a disponibilidade de grandes conjuntos de dados. O aprendizado de máquina é usado para reconhecimento de fala, veículos autônomos, processamento de imagem, reconhecimento de manuscrito e muito mais. O nível de poder e sofisticação da IA ​​foi demonstrado quando o programa AlphaGo do Google DeepMind, um modelo de aprendizado profundo, derrotou os melhores jogadores humanos do Go [3]. Algoritmos de aprendizagem profunda são parte da tecnologia de reconhecimento de fala da Apple, Microsoft, Amazon e Google [4]. A IA está sendo implantada em várias indústrias globalmente, ressaltando a importância de abordar sua opacidade.

Cientistas e pesquisadores estão atualmente trabalhando para desmistificar o que é comumente chamado de caixa negra da IA; ninguém sabe exatamente como a aprendizagem profunda chega a suas decisões. A ironia é que a inteligência artificial é modelada a partir do cérebro e, ao fazê-lo, herda a incompreensível complexidade da cognição humana.

Referências

1. Frederico Azevedo et al., “Números iguais de células neuronais e não neuronais fazem do cérebro humano um cérebro primata ampliado isometricamente”. Journal of Comparative Neurology . 2009 10 de abril.

2. Clark, Liat. “O cérebro artificial do Google aprende a encontrar vídeos de gatos.” Wired UK . 06.26.12.

3. Gibney, Elizabeth. “O que o algoritmo Go, do Google, fará a seguir.” 15 de março de 2016.

4. Parloff, Roger. “Por que o Aprendizado Profundo está mudando repentinamente sua vida.” Fortuna . 28 de setembro de 2016.

5. NVIDIA. “O que é computação acelerada por GPU?” Retirado em 20 de fevereiro de 2018, de http://www.nvidia.com/object/what-is-gpu-computing.html

6. Weidman Metis, Seth. “4 avanços de aprendizagem profunda que os líderes de negócios devem entender.” VentureBeat . 23 de janeiro de 2018.