Inteligência Artificial é Antifragile?

O potencial iatrogênico da intervenção humana na inteligência artificial

istockphoto

Fonte: istockphoto

Estamos no meio da Revolução da Inteligência Artificial (AR), a próxima grande época na história da inovação tecnológica. A inteligência artificial (IA) está globalmente ganhando impulso não apenas em pesquisa científica, mas também em negócios, finanças, consumo, arte, saúde, esports, cultura pop e geopolítica. À medida que a IA se torna cada vez mais difundida, é importante examinar em um nível macro se a IA ganha com a desordem. Antifragile é um termo e conceito apresentado por Nassim Nicholas Taleb, um ex-comerciante quantitativo e autoproclamado “flâneur”, que se tornou o autor do bestseller do New York Times de “O Cisne Negro: O Impacto do Altamente Improvável”. Taleb descreve antifrágil como o “Exatamente o oposto de frágil”, que é “além de resiliência ou robustez” em “Antifragile: coisas que ganham de desordem”. De acordo com Taleb, coisas antifragile não só “ganham do caos”, mas também “precisa para sobreviver e florescer . ”AI é antifragile? A resposta pode não ser tão intuitiva quanto parece.

Os recentes avanços na IA são em grande parte devido à melhoria nas habilidades de reconhecimento de padrões através da aprendizagem profunda, um subconjunto do aprendizado de máquina, que é um método de IA que não requer programação explícita. A aprendizagem é alcançada alimentando conjuntos de dados através de duas ou mais camadas de processamento não linear. Quanto maior o volume e mais rápido o processamento de dados, mais rápido o computador aprende.

O processamento mais rápido é obtido principalmente através dos recursos de processamento paralelo da GPU (Unidades de Processamento Gráfico), versus o processamento serial de CPUs (Central Processing Unit). Curiosamente, os jogos de computador ajudaram a acelerar os avanços no aprendizado profundo e, portanto, também desempenham um papel no atual boom da IA. As GPUs, originalmente usadas principalmente para renderização de gráficos para jogos de computador, agora são parte integrante da arquitetura de aprendizagem profunda. Para ilustrar, imagine que há três carrinhos de sorvete com os clientes alinhados em cada um e apenas uma scooper. No processamento em série, o scooper pretende terminar de servir todos os carrinhos ao mesmo tempo e faz isso saltando entre carrinhos, retirando alguns cones de cada vez antes de atender o próximo. No processamento paralelo, existem várias scoopers, em vez de apenas uma. Um cliente experiente dividirá o pedido entre os carrinhos ao mesmo tempo para obter resultados mais rápidos.

A aprendizagem profunda ganha de um alto volume e ampla variedade de dados. O acesso a conjuntos de dados grandes e diversos, completos com outliers, é imprescindível para minimizar a saída tendenciosa ou de baixa qualidade. Beber da proverbial mangueira de dados não é um fator estressante para a aprendizagem profunda, mas sim um cenário desejado. Aprendizado de máquina prospera em big data e traz ordem do caos da informação. A aprendizagem profunda de IA ganha com a diversidade de dados.

A advertência para a antifragilidade inerente à aprendizagem profunda é o risco potencial de resultados adversos acidentais resultantes dos efeitos iatrogênicos do manejo humano defeituoso. Em “Antifragile”, Taleb usa o termo “iatrogênico” no lugar da frase “efeitos colaterais prejudiciais não intencionais” que resultam do “intervencionismo ingênuo”. Embora a IA seja um sistema baseado em máquina, ela é criada e gerenciada por humanos. Há muitas conseqüências não intencionais potenciais que podem resultar da intervenção humana do conjunto de dados e algoritmos de aprendizagem profunda da IA. Coloque o pão mofado na torradeira de melhor desempenho do mundo, o que resulta em torrada de qualidade inferior.

Cami Rosso

Fonte: Cami Rosso

O adágio clássico da ciência da computação de “Garbage In, Garbage Out” (GIGO) ressoa com o aprendizado profundo. Operadores humanos decidem em grande parte o tamanho do conjunto de dados, fonte (s), seleção, temporização, freqüência, marcação e substituições manuais para o sistema AI. Os programadores humanos que criam os algoritmos de IA definem os critérios e métricas usadas para classificação, priorização, associação, classificação e filtragem do sistema. Quando há um ponto de dados notável que está ausente, os programadores podem intervir criando pontos de dados sintéticos. Programadores humanos tomam decisões sobre algoritmos de ajuste. O potencial efeito iatrogênico da intervenção humana pode incluir saída tendenciosa, reconhecimento de padrão inferior, resultados distorcidos, algoritmos falhos, pesos inadequados, atributos imprecisos e falsos positivos ou negativos. Coloque o pão fresco na torradeira, mas ajuste o nível de aquecimento muito alto ou baixo durante o processo pode produzir resultados indesejados, como torradas queimadas ou mal cozidas. Assim, embora o aprendizado profundo da IA ​​seja antifrágil, é o fator humano que tende a ser frágil.

Isso levanta a questão de se a inteligência artificial pode ser usada para substituir os pontos de intervenção humana – um sistema de IA auto-regulado. Em teoria, isso é possível. AI pode ser criado para produzir e gerenciar outros programas de IA. Por exemplo, programas de IA especializados individuais podem ser criados para se concentrar em tarefas como selecionar dados para conjuntos de treinamento, sinalizar dados discrepantes, prever falsos positivos ou negativos, sugerir pontos de dados sintéticos para algoritmos e muitas outras funções. Imagine um sistema principal de inteligência artificial que administre uma rede de programas especializados de IA. Durante o processamento, a IA abrangente ativa a AI especialista para realizar a tarefa que uma vez exigiu a intervenção humana.

Este é um sistema grande e complexo, e há muitas ressalvas nessa abordagem de aprendizado profundo auto-regulador de IA. Entre os atributos mais inquietantes de um sistema de aprendizagem profunda de IA auto-regulado está a possibilidade aumentada do “efeito borboleta” – o conceito de que pequenas diferenças em um sistema dinâmico poderiam desencadear consequências vastas e generalizadas. Edward Lorenz, um professor de meteorologia do MIT, é o pai da teoria do caos e do efeito borboleta. O termo efeito borboleta foi apresentado por Lorenz em seu artigo “Previsibilidade: o bater das asas de uma borboleta no Brasil provocou um tornado no Texas?” [1]. Neste caso, a pequena quantidade de intervenção humana no estabelecimento de um sistema de IA auto-regulável em qualquer de seus programas de componentes modulares de IA poderia causar diferenças massivas na saída geral do sistema de IA.

Portanto, agora, estabelecemos que, embora a própria tecnologia de aprendizado profundo da IA ​​pareça inerentemente antifrágil, seu calcanhar de Aquiles, o potencial efeito iatrogênico da intervenção humana, é uma fonte de vulnerabilidades e fragilidades sistêmicas. A criação de um sistema de IA auto-regulador é ainda mais frágil, dada sua suscetibilidade ao efeito borboleta de Lorenz – qualquer erro humano na configuração inicial do sistema em qualquer um de seus componentes iniciais, seja ele de dados ou algorítmico, poderia causar erros de saída. Os melhores algoritmos de IA projetados com os melhores conjuntos de dados ainda são propensos à fragilidade humana. A IA será inerentemente frágil. A maneira pela qual os humanos gerenciam o sistema AI determinará sua robustez geral e tolerância a falhas. O sucesso futuro da IA ​​dependerá da capacidade do homem e da máquina de “aprender” as melhores práticas ao longo do tempo – evoluindo em simbiose.

Copyright © 2018 Cami Rosso Todos os direitos reservados.

Referências

1. Dizikes, Peter. “Quando o Efeito Borboleta Voou”. MIT Technology Review . 22 de fevereiro de 2011.