Uma cartilha sobre o aprendizado de máquina AI

O que você precisa saber sobre aprendizado de máquina em um relance

coffee/pixabay

Fonte: café / pixabay

As chances são de que você já está usando serviços alimentados por inteligência artificial (AI) todos os dias. Mas o que exatamente potencializa o aprendizado de máquina? Vamos dar uma olhada no motor sob o capô do aprendizado de máquina AI.

O aprendizado de máquina é um subconjunto de inteligência artificial que não requer codificação explícita (programação) para executar tarefas. Isso é conseguido fornecendo algoritmos de aprendizado de máquina com grandes quantidades de dados para “aprender” e processar. O aprendizado de máquina é executado de maneira supervisionada, não supervisionada, semi-supervisionada ou por métodos de reforço.

O aprendizado de máquina supervisionado usa dados de treinamento rotulados – para cada entrada, existe um valor de saída conhecido e associado. O objetivo da aprendizagem supervisionada é aprender uma função que melhor calcule a relação entre os dados de entrada e saída. Enquanto em aprendizado não supervisionado, não há dados de treinamento de saída rotulados associados aos dados de entrada, então o objetivo é que a máquina deduza dos dados de treinamento de entrada fornecidos – para identificar as semelhanças e diferenças entre os pontos de dados. O aprendizado de máquina semi-supervisionado usa alguns dados de treinamento rotulados.

Aprendizado por reforço (RL) é o método em que o aprendizado é obtido por meio de agentes de software que interagem com seu ambiente com o objetivo de maximizar a recompensa. Os Processos de Decisão de Markov (MDPs) são tipicamente usados ​​para aprendizado por reforço. O MDP modela matematicamente a tomada de decisões em ambientes incertos.

No coração da inteligência artificial está a matemática e a estatística usadas em algoritmos de computador, os procedimentos para resolver um problema. Algoritmos que realizam regressão, classificação ou agrupamento são exemplos de tarefas comuns de aprendizado de máquina.

O conceito de regressão foi introduzido pelo polímata Sir Francis Galton (primo de Charles Darwin) em seus trabalhos de pesquisa genética “Regressão à mediocridade na estatura hereditária” e “Herança Natural” publicados em 1886 e 1889, respectivamente. “Regressão em direção à média” é o fenômeno de dados fora da norma estarem mais próximos da média na próxima vez em que forem medidos. Em termos científicos, a regressão à média ocorre tipicamente devido a erros na amostragem de dados. Isso pode ocorrer quando o tamanho da amostra é muito pequeno ou se as amostras não são selecionadas aleatoriamente.

Uma maneira de pensar sobre isso é no contexto do familiar ditado de “se afastar da mesa” quando você está à frente em um cassino porque ganhar é um outlier aleatório e, com o tempo, o resultado irá regredir em direção à média de perda. Listas vencedoras são resultados incomuns e as chances são altas que com o tempo você acabará perdendo se continuar jogando.

A regressão linear é a forma mais simples de regressão que é usada para análise preditiva em algoritmos de aprendizado de máquina. O objetivo é minimizar o erro entre o valor real e o valor previsto do algoritmo. Uma função de custo, também conhecida como função Mean Squared Error (MSE), mede os erros de previsão.

A descida de gradiente é um algoritmo de otimização para aprendizado de máquina usado para identificar os valores dos coeficientes (parâmetros) de uma função que minimizarão uma função de custo.

A regressão linear é relativamente simples e direta. Muitas vezes, no entanto, em qualquer conjunto de dados, a relação entre duas variáveis ​​não é diretamente proporcional e, portanto, não pode ser derivada por regressão linear. No aprendizado de máquina, técnicas de regressão tipicamente não lineares são usadas. Exemplos de algoritmos de regressão não linear incluem os métodos de gradiente descendente, Gauss-Newton e Levenberg-Marquardt.

Outra tarefa comum de aprendizado de máquina é a classificação. A classificação é o aprendizado de máquina supervisionado, em que o computador aprende com os dados de treinamento rotulados e aplica o aprendizado com o objetivo de prever com precisão a classe para os dados. Por exemplo, na comédia da HBO “Silicon Valley”, um dos personagens empreendedores, Jian-Yang, criou um aplicativo de IA chamado “Not Hotdog” para classificar imagens como cachorros-quentes ou não cachorros-quentes. Na vida real, Tim Anglade, o principal consultor técnico do programa, criou um aplicativo Not Hotdog. Como acontece com qualquer aprendizado de máquina, a quantidade e a qualidade do treinamento é importante. Nesse caso, Anglade escreveu em seu post no Medium que, devido a vieses no conjunto de dados inicial usado, o aplicativo era “incapaz de reconhecer cachorros-quentes de estilo francês, cachorros-quentes asiáticos e outras esquisitices com as quais não tivemos experiência pessoal imediata” e que a IA é impactada “pelos mesmos preconceitos humanos aos quais somos vítimas, por meio dos conjuntos de treinamento que os humanos fornecem”.

O terceiro tipo principal de tarefa de aprendizado de máquina é o agrupamento – a organização de dados não rotulados em grupos semelhantes por meio de aprendizado de máquina não supervisionado. Para ilustrar o conceito de clustering, vamos dar uma olhada em um exemplo de análise de cluster estatístico baseado em humanos – o trabalho feito por John Snow, MD, foi um dos primeiros epidemiologistas. O Dr. Snow mapeou casos de cólera e notou que os grupos de surtos estavam perto de uma bomba de água. Acontece que a água naquela bomba foi poluída com a fralda suja de um bebê com cólera. O Dr. Snow teorizou que a cólera era uma doença transmitida pela água durante um grande surto em 1854, no bairro londrino de SoHo. Com base em sua análise detalhada, ele concluiu que a cólera não era causada por “miasma” (“ar ruim”), como era o pensamento dominante na época.

O recente aumento nos investimentos em inteligência artificial (AI) em muitos setores da indústria é em grande parte devido às capacidades de reconhecimento de padrões da aprendizagem profunda, um método de aprendizado de máquina de mais de duas camadas de redes neurais. Aprendizado profundo são redes neurais consistindo de duas ou mais camadas que usam processamento não linear. A aprendizagem profunda é o estado da arte do reconhecimento de padrões usado para reconhecimento de imagem e fala. Essa técnica é ideal quando há grandes conjuntos de dados disponíveis para treinamento.

AI foi entrelaçada em aplicativos de mídia social, pesquisa na internet, sugestões de compras online, bots de atendimento ao cliente, medicina personalizada, negociação financeira, gerenciamento de manufatura industrial, descoberta de medicamentos, prevenção de fraudes, análise de business intelligence, recrutamento de recursos humanos, assistentes virtuais, veículos autônomos , mecanismos de tradução, reconhecimento facial, conversão de imagens em cores e até mesmo em esports. Os campos interdisciplinares da matemática, estatística, ciência de dados e ciência da computação convergem no aprendizado de máquina, que, por sua vez, está mudando rapidamente a forma como vivemos, trabalhamos e nos divertimos.

Copyright © 2019 Cami Rosso Todos os direitos reservados.

Referências

Galton, Francis. “Regressão à mediocridade na estatura hereditária”. Macmillan . 1886. Recuperado 2-4-2019 de http://galton.org/books/natural-inheritance/pdf/galton-nat-inh-1up-clean.pdf

Galton, Francis. “Herança Natural”. Macmillan . 1889. Recuperado 2-4-2019 de http://galton.org/books/natural-inheritance/pdf/galton-nat-inh-1up-clean.pdf

GeegksforGeeks. “Agrupamento em Aprendizado de Máquina”. Retirado em 2/4/2019 de https://www.geeksforgeeks.org/

Anglade, Tim. “Como o Vale do Silício da HBO construiu o“ Not Hotdog ”com o Mobile TensorFlow, o Keras & React Native.” Médio . 26 de junho de 2017.

Rogers, Simon. “Jornalismo de dados de John Snow: o mapa do cólera que mudou o mundo.” The Guardian . 15 de março de 2013.