O que causou o AI Renaissance

Muita Ado sobre Backpropagation Deep Learning

pixabay

Fonte: pixabay

A inteligência artificial (IA) não é um conceito novo, com suas origens remontando aos anos 50. No entanto, apenas recentemente a AI emergiu na vanguarda do interesse de investimento da indústria, do governo e do capital de risco após décadas de relativa dormência. O que contribuiu para o descongelamento do inverno e do boom atual da IA?

A IA está crescendo em grande parte devido aos avanços nos recursos de reconhecimento de padrões resultantes do aprendizado profundo – um subconjunto do aprendizado de máquina em que uma rede neural artificial consiste em mais de duas camadas de processamento. O aprendizado de máquina é um subconjunto da IA ​​que envolve algoritmos capazes de aprender com dados, em vez de um programador ter que codificar instruções explicitamente. Esse aprendizado pode ser feito com treinamento supervisionado ou não supervisionado de dados. Na aprendizagem supervisionada, os dados usados ​​para treinamento são rotulados, enquanto na aprendizagem não supervisionada, não há rótulos de dados.

As redes neurais de aprendizagem de máquina AI foram, na sua maior parte, paralisadas durante os anos 1970 e 1980, após a publicação da pesquisa de MIT, Marvin Minsky e Seymour Papert intitulada Perceptrons: uma introdução à geometria computacional em 1969. No seu artigo, a dupla científica aponta as “limitações severas” dos perceptrons, redes neurais desenvolvidas na década de 1950 pelo psicólogo americano Frank Rosenblatt, para os propósitos pretendidos do reconhecimento de padrões de IA.

Minsky e Papert questionaram a capacidade dos perceptrons de treinar, ou aprender, em redes neurais que tinham mais de duas camadas de neurônios – a camada de entrada e saída. Eles chegaram a suas conclusões com base em provas matemáticas. Os cientistas escreveram que talvez “algum teorema de convergência poderoso será descoberto, ou alguma razão profunda para a falha em produzir um interessante ‘teorema de aprendizagem’ para a máquina multicamadas será encontrada”.

Um ano depois, em 1970, o matemático finlandês Seppo Linnainmaa escreveu em sua tese de mestrado sobre a estimativa de erros de arredondamento e o modo reverso de diferenciação automática (AD). Sem que ele soubesse, essa idéia que ele pensava enquanto estava em um parque de Copenhague em uma tarde ensolarada forneceria depois a semente para um aprendizado profundo para germinar anos depois para florescer em um renascimento da IA ​​décadas depois. Linnainmaa ganhou o primeiro doutorado em ciência da computação pela Universidade de Helsinque em 1974.

Também em 1974, o cientista Paul J. Werbos publicou seu doutorado na Universidade de Harvard. dissertação sobre o treinamento de redes neurais artificiais através da retropropagação de erros. Werbos concebeu novos projetos inteligentes de controle que tinham paralelos com o cérebro humano. Werbos recebeu o prêmio Pioneer Award do IEEE 1995 da Rede Neural por sua descoberta de retropropagação e outras contribuições para as redes neurais de IA.

Em 1986, Geoffrey Hinton, David E. Rumelhart e Ronald J. Williams popularizaram o conceito de usar a retropropagação através de redes de unidades semelhantes a neurônios com seu artigo publicado na Nature , “Aprendendo representações retratando erros”. O procedimento envolve o ajuste do pesos de conexões na rede (nós ou neurônios), de forma a minimizar uma medida da diferença entre o vetor de saída real da rede e o vetor de saída desejado. Como resultado dos ajustes de peso, há unidades ocultas internas que não fazem parte da entrada nem da saída. Essencialmente, Hinton e sua equipe demonstraram que redes neurais profundas consistindo de mais de duas camadas poderiam ser treinadas via retropropagação. Ali estava a poderosa técnica de aprendizado para mais de duas camadas neurais que Minsky e Papert tinham especulado como uma possibilidade em 1969. Mas isso, por si só, não foi suficiente para ressuscitar a IA.

Outro grande fator contribuinte para o boom da IA ​​é devido ao aumento dos videogames. Nos anos 70, os videogames de fliperama usavam chips gráficos especializados devido ao custo. Durante a década de 1980 até o início dos anos 2000, a unidade de processamento gráfico (GPU) acabou evoluindo de principalmente o uso de jogos para fins de computação geral. As GPUs são capazes de processar grandes quantidades de dados em paralelo, uma vantagem distinta sobre a CPU padrão (unidade central de processamento). O poder de processamento paralelo da GPU para computação geral é bem adequado para o processamento de grandes quantidades de big data para fins de aprendizado de máquina.

Em 2012, Geoffrey Hinton, Alex Krizhevsky e Ilya Sutskever anunciaram seu sucesso no treinamento de uma rede neural convolucional profunda com 60 milhões de parâmetros, 650.000 neurônios e cinco camadas convolucionais, para classificar 1,2 milhão de imagens de alta resolução em 1.000 classes diferentes. A equipe utilizou uma implementação da GPU para acelerar o tempo total de treinamento. Hinton e sua equipe fizeram história demonstrando que uma rede neural convolucional grande e profunda poderia alcançar “resultados recordes em um conjunto de dados altamente desafiador usando aprendizado puramente supervisionado” com retropropagação.

A inteligência artificial foi ressuscitada da dormência pela profunda propagação de backpropagation e pela tecnologia GPU. O aprendizado profundo está nos estágios iniciais da comercialização aplicada. Na próxima década, a IA continuará ganhando força rapidamente à medida que se aproxima do abismo tecnológico em direção à proliferação global em massa. A Inteligência Artificial (IA) tem tendências em saúde, transporte, descoberta de drogas, biotecnologia, genômica, eletrônica de consumo, aplicativos de software empresarial, medicina de precisão, esports, veículos autônomos, aplicativos de mídia social, manufatura, pesquisa científica, entretenimento, geopolítica e muitos mais áreas. No futuro não tão distante, a inteligência artificial se tornará tão onipresente quanto a internet.

Copyright © 2019 Cami Rosso Todos os direitos reservados.

Referências

Griewank, Andreas. “Quem inventou o modo reverso de diferenciação?” Documenta Mathematica . Extra Volume ISMP 389-400. 2012

IEEE “Convidado Editorial Neural Networks Council Awards.” Transações IEEE em redes neurais. Vol 7, No 1. January 1996.

Rumelhart, David E., Hinton, Geoffrey E., Williams, Ronald J. “Aprendendo representações retratando erros”. Natureza . Vol. 323. 9 de outubro de 1986.

Krizhevsky, Alex, Sutskever, Ilya, Hinton e Geoffrey E. “Classificação do ImageNet com redes neurais convolucionais profundas.” Avanços nos sistemas de processamento de informações neurais 25 . 2012