A Inteligência Artificial não é “inteligente”. Apenas exibe comportamento que parece “inteligente”…
Sou um entusiasta das tecnologias que chamamos de IA. E não é de hoje. Lembro que na adolescência devorava os livros de Isaac Asimov, como a famosa trilogia “Fundação” e, principalmente, “Eu, robô”. “Eu, robô” foi uma série de contos que são um marco na história da ficção científica, pela introdução das célebres Leis da Robótica, e por um olhar completamente novo a respeito das máquinas. Os robôs de Asimov conquistaram a cabeça e a alma de gerações de escritores, cineastas e cientistas, sendo até hoje fonte de inspiração de tudo o que lemos e assistimos sobre eles. Depois veio o inesquecível filme de Stanley Kubrick, “2001, uma odisséia no espaço” e com ele o HAL 9000 (Heuristically programmed ALgorithmic computer), que é um computador com avançada inteligência artificial, instalado a bordo da nave espacial Discovery e responsável por todo seu funcionamento. Os diálogos dele com os atores me deixaram realmente impressionado com que o futuro poderia nos trazer. Quando li um paper sobre Eliza, software criado por pesquisadores do MIT, vi que a IA era possível sim, pois já nos anos 60 um sistema conseguia interagir de forma razoável com humanos. Comecei a ler todos os livros sobre o assunto e em meados dos anos 80, consegui aprovação para colocar em prática uma experiência, dentro da empresa na qual trabalhava.
Na época o cenário da IA estava dividido em duas linhas de pensamento, um grupo que adotava o conceito de “rule-based”, também chamado de “expert systems” ou sistemas especialistas, e o grupo que se orientava pelo conceito de redes neurais (neural networks). Sim, redes neurais já existiam. As redes neurais pareciam muito promissoras, mas faltavam dados e a capacidade computacional disponível era imensamente inferior à que temos hoje. Pragmaticamente optei pelos sistemas especialistas, pois a lógica de desenvolvimento me parecia mais factível: entrevistar profissionais especialistas em determinada área e codificar seus processos de decisão, em uma árvore de decisão. Um sistema especialista tem dois componentes básicos: um motor de inferência e uma base de conhecimentos. A base de conhecimento tem os fatos e regras, e o motor de inferência aplica as regras aos fatos conhecidos e deduz novos fatos. Primeira dificuldade foi aprender novas linguagens como Lisp, mas vencida a barreira, a prática de buscar o conhecimento dos especialistas foi um entrave: por serem especialistas eram muito requisitados e não tinham tempo disponível, muito menos para um projeto experimental. Além disso, era muito difícil tentar traduzir suas decisões, muitas vezes intuitivas, em regras claras para serem colocadas na árvore de decisão. E à medida que o sistema acumulava conhecimento do especialista, o processo tornava-se mais e mais complexo. Em resumo, o sistema nunca funcionou adequadamente e foi descontinuado. Na verdade, o sistema especialista não era especialista! Mas, valeu a experiência.
Nos últimos quinze anos, a IA renasceu e a ênfase foi direcionada para as redes neurais. Já temos disponíveis os seus dois fatores essenciais: capacidade computacional e abundância de dados. O ponto de inflexão das redes neurais deu-se em meados dos anos 2000 com as pesquisas de Geoffrey Hinton, que descobriu maneiras eficientes de treinar várias camadas de redes neurais. Isto permitiu o rápido avanço de algoritmos de reconhecimento de imagem e fala. Surgiu o termo “deep learning” que hoje é o motor básico dos principais avanços na área de IA.
Depois de muito anos de estudo e prática em projetos, tenho hoje uma visão bem mais realista. A IA tem muito potencial, mas creio que estamos vivendo uma fase de hype, onde ela está sendo superestimada. Esse hype foi anabolizado com o surgimento das técnicas de IA generativa e o gatilho foi o lançamento do ChatGPT.
Vamos começar com o próprio termo, “Inteligência Artificial”. As palavras geralmente têm mais significado do que a própria palavra. Por exemplo, quando falamos em cores, nós associamos o verde com natureza e vida saudável, e o vermelho com proibição e perigo. Mas essas inferências não estão embutidas no significado básico de “vermelho” ou “verde”. São acréscimos culturais que atribuímos às palavras que possibilitam a riqueza da linguagem. Essa riqueza, aliás, é um dos motivos pelos quais os documentos jurídicos e os estudos médicos são tão difíceis de ler. Os termos usados são retirados dessa bagagem cultural, exigindo palavras adicionais para preencher as lacunas.
A palavra “inteligente” é assim. Dizer que um computador ou programa é inteligente pode nos levar a percepções diferentes. Podemos apenas dizer que o computador provido de IA produz um resultado que normalmente associamos à inteligência. Ou seja, o resultado se parece com a atividade de um agente (uma pessoa) conhecido por possuir inteligência. Mas para muitos, o termo transmite muito mais: que o computador está se tornando tão inteligente quanto nós e que em breve poderá até nos ultrapassar.
O termo “inteligente” pode, portanto, significar coisas diferentes e ocultar as diferenças entre as maneiras como os seres humanos pensam e como as máquinas processam dados. Por exemplo, sabemos que os computadores não jogam xadrez como nós. Mas, esquecemos essa diferença porque os avanços impressionantes dos algoritmos permitem agora que os computadores ganhem de nós não apenas em jogos de xadrez, mas também em jogos de estratégia (como o Go), traduzam idiomas, analisem ressonâncias magnéticas e até reconheçam figuras como nossos rostos, cães e gatos. Esses avanços nos transmitem a ideia de que está acontecendo mais do que uma mera programação, e que os computadores estão se tornando “inteligentes” no mesmo sentido que um ser humano.
Vamos olhar as técnicas de Deep Learning, que funcionam por meio de camadas de programação. Cada camada, na verdade, reduz um pouco o problema, transferindo-o para a próxima camada, até que a camada final produza o resultado. O ajuste cuidadoso das camadas, auxiliado por técnicas como backpropagation, eventualmente cria redes que podem fornecer respostas confiáveis dentro de um domínio conhecido e restrito, como, por exemplo, reconhecer rostos ou um câncer de mama. O sistema alcança esse resultado porque cada camada deixa de lado os dados que não são relevantes para o problema.
Nós, humanos fazemos isso o tempo todo: se colocarmos uma fantasia de cachorro em um gato, ainda assim veremos um gato. Sabemos o suficiente para ignorar a fantasia e continuar a reconhecer o gato. Em certo sentido, comprimimos a informação canina que recebemos para chegar à essência felina. Os pesquisadores de IA esperavam que os sistemas de DL fizessem, mais ou menos, a mesma coisa. Acontece que eles não fazem.
Por isso é relativamente fácil enganar os algoritmos. Os sistemas de DL não tem bom senso, e não conseguem reconhecer o que “vêem”, podendo produzir resultados verdadeiramente absurdos. Por exemplo, nos LLMs as alucinações são um fenômeno estranho e muitas vezes preocupante. Eles acontecem quando uma IA, como o ChatGPT, gera respostas que parecem reais, mas na verdade são erradas ou enganosas. Esse problema é especialmente comum em grandes modelos de linguagem (LLMs), as redes neurais que impulsionam essas ferramentas de IA. Eles produzem frases que parecem humanas, mas sem “compreender” verdadeiramente a informação que apresentam. Então, às vezes, eles caem na ficção. Para pessoas ou empresas que dependem da IA para obter informações corretas, essas alucinações podem ser um grande problema, pois elas quebram a confiança e às vezes levam a erros graves.
Apesar dos impressionantes avanços que aparentemente colocam os computadores ao alcance da inteligência humana, suas operações internas desmentem o hype: os computadores não são inteligentes como os humanos. Embora eles possam, por meio da programação e da engenharia inteligente (ambas providas por humanos!), produzir resultados que associamos à inteligência, eles não entendem o que estão fazendo ou vendo. Eles podem reconhecer uma mancha em uma radiografia e apontar que é um câncer, mas não têm a mínima ideia do que seja um câncer. Pode gerar um texto de poesia, mas não sabe o que é poesia. Ao contrário dos humanos, que entendem as palavras como símbolos ligados ao significado do mundo real, os LLMs apenas reconhecem palavras como padrões de letras. Se você vir a palavra “gato”, poderá se lembrar de memórias ou associações relacionadas a gatos reais. Para um modelo de linguagem, entretanto, “gato” é apenas uma sequência de letras: G-A-T-O. Este modelo calcula então quais palavras têm probabilidade estatística de seguir a ela, com base nos padrões que aprendeu, e não a partir de qualquer compreensão real do que é um “gato”. Falta compreensão do mundo. Muitas vezes nós tratamos nossas criações algorítmicas como se estivessem vivas, proclamando que nosso algoritmo “aprendeu” uma nova tarefa, em vez de meramente induzir um conjunto de padrões estatísticos de um conjunto de dados de treinamento escolhido a dedo, sob a supervisão direta de um humano, que escolheu quais algoritmos, parâmetros e fluxos de trabalho usar para construí-lo.
A tecnologia de IA, (vamos continuar usando o termo, cunhado em 1956, pelo fato de já estar disseminado e pela falta de outro), vai produzir um conjunto extremamente poderoso de ferramentas que nos ajudarão em muitas coisas. Mas são apenas isso, ferramentas. São um conjunto de modelos matemáticos. Não podemos superestimar seu potencial e criar iniciativas “moon shot” caríssimas e que provavelmente fracassarão. Devemos compreender as limitações e fragilidades da IA, para melhor analisar seus riscos e aproveitar as vantagens reais que, como ferramentas, essas tecnologias oferecem.
Infelizmente o termo “Inteligência Artificial”, não expressa a realidade e acaba se tornando enganoso. O fato é que as suas técnicas mais avançadas, como Deep Learning e agora a IA generativa (um subconjunto do DL) tem apenas a aparência de inteligência. Os humanos são inteligentes. Os computadores apenas fingem que são.