Filosofando sobre IA…

Cezar Taurion
9 min readAug 29, 2024

--

A IA é uma tecnologia transformadora. Tecnologias transformadoras são aquelas, que ao longo do tempo, mudam e moldam a sociedade. Como exemplos tempos o motor a combustão interna, a eletricidade, o computador, a internet e mais recentemente os smartphones, com o lançamento do iPhone em 2007. Creio então que ao longo do tempo a IA vai também se tornar tão ubíqua como essas tecnologias. Mas, vamos tomar um antídoto contra o hype que hoje envolve a IA, mais precisamente com a IA generativa. Quando deixarmos de nos concentramos na árvore (a IA generativa) e olharmos a floresta, um novo horizonte de uso da IA vai aparecer. Já temos muitos modelos de DL operando debaixo de camadas de software e por isso nem são mencionados. Mas já estão no nosso dia a dia. E nos próximos anos veremos outros modelos como SLM e neurosimbólicos começando a crescer em interesse e aplicabilidade. Quando o frenesi da IA generativa e mais precisamente dos LLM arrefecer, a floresta vai se abrir.

Aliás, desde que o termo IA foi criado em 1956, sempre foi envolvida em hypes e otimismo exagerado. Em 1965, um pioneiro da IA, Herb Simon já afirmava com convicção que “Machines will be capable, within 20 years, of doing any work a man can do”. Marvin MInsky em 1967 disse “Within a Generation, the problem of AI will be substantially solved”. Bem, 60 anos se passaram e essas previsões ainda estão bem distantes.

Mais recentemente vimos outra onda de entusiasmo, agora com a IA generativa e os LLM. Ilya Sutskever, co-fundador da OpenAI (saiu de lá recentemente) disse em 2018 que “near term AGI should be taken seriously as a possibility”. Mas, pelos resultados dos LLM até agora, parece que esse “near term” não é tão “near” assim. Pelo menos no sentido de uma AGI dispor da flexibilidade da inteligência humana.

Muitas promessas de projetos ambiciosos também não foram cumpridas. Veículos autônomos são um exemplo. A classificação de autonomia varia de 0 a 5, e hoje, após décadas (o projeto DARPA foi no início dos anos 90), a maioria dos veículos estão no L3, que é considerado autônomo, e onde os motoristas podem legalmente tirar os olhos da estrada quando as condições forem atendidas. A rigor, apenas os veículos classificados como L3 e superiores são veículos verdadeiramente autônomos. A Waymo disse que alcançou L4, mas esse nível é autodeclarado e não oficialmente homologado. Para chegar a L5 é um salto de complexidade exponencial.

Na prática, com a IA generativa colocando sistemas complexos como chatbots com fluência natural em contato direto com as pessoas, surgiram milhares de autodenonimados “AI experts”, que, junto com a mídia, começaram a superestimar a IA generativa e cada pequeno avanço tecnológico, como um ganho aqui ou ali de um LLM em determinados benchmarks (na maioria das vezes bem restritos), o que acontece cada semana, é visto como um “breakthrough”. Esse fenômeno influencia decisões de negócio, criando um efeito FOMO, que faz os gestores acharem que estão atrasados no uso da IA, pelo que leem na mídia ou no Linkedin.

Convivo com IA desde final dos anos 80, quando participei do desenvolvimento de um expert system, e, claro reconheço que avançamos muito. O Deep Blue da IBM vencendo Kasparov no xadrez, o Watson vencendo os campeões do programa Jeopardy em 2011, o AlphaGo vencendo o campeão mundial de Go, o avanço das técnicas de DL e suas amplas aplicações, em diversos setores e mais recentemente com a disponibilidade de imensa capacidade computacional, vimos uma variante do DL, a IA generativa despertando emoções apaixonadas. A razão para esse frenesi é simples: a IA generativa usa dados existentes para gerar mais dados. O fato de sua utilidade se manifestar no nível do consumidor tem potencial de mudar a maneira como interagimos com sistemas que usam IA. Qualquer pessoa pode usar a IA generativa para criar novos dados, como textos e imagens.

Os dois motivos para o avanço da IA foram, portanto, a capacidade computacional e a disponibilidade de imensa quantidade de dados (Big Data) que permitiram a construção de sofisticados algoritmos que processam bilhões de cálculos por segundo. Esses avanços no hardware e na disponibilidade de dados permitiram que a técnicas de DL (baseadas no conceito de redes neurais e sofisticados motores estatísticos) evoluíssem muito e se tornassem a base do avanço atual da IA.

Mas o fato que a atual IA é o que chamamos “narrow AI”. São boas para uma única coisa, seja analisar imagens médicas para detectar sinais de câncer ou gerar textos e imagens, tudo a partir de dados obtidos no seu treinamento. Assim, na prática, as técnicas de IA se baseiam no passado, seja para reconhecer um câncer, seja para gerar um novo conteúdo remixando dados já existentes. Mas essas “narrow AI” podem ser muita utilidade, mudando processos e acelerando atividades que vão da melhoria do atendimento ao cliente à aceleração do processo de descoberta de novas drogas.

Portanto, se usadas como ferramentas no local certo e nos problemas certos, farão muita diferença. Por outro lado, não podemos superestimar a tecnologia e acreditar cegamente nos seus resultados. São sistemas probabilísticos, ou sejam, sistemas que geram resultados ´probabilísticos e não determinísticos. Apresentam margem de erro.

Além disso, devemos ser cautelosos quando usando técnicas de baixa prontidão ou maturidade tecnológica. A IA generativa é um exemplo. Nos entusiasmamos com ela, e nos esquecemos de prováveis efeitos colaterais.

As ferramentas de IA generativa podem ajudar a melhorar a capacidade humana, de escrever, pintar, codificar e qualquer outra coisa que possa surgir. Se uso de forma criativa, com as pessoas explorando seus “eus” criativos, é extremante positiva. Essas criações terão intenção e personalidade, mesmo que seja impossível capturá-las totalmente com os textos dos prompts.

Mas, o problema aparece quando essas ferramentas se cruzam com nossa falta de senso de proporção e os incentivos externos aos quais todos estamos sujeitos, quando nosso objetivo é gerar o máximo de conteúdo possível para obter algum benefício. A cultura do “like”.

Muitas pessoas não aprimorarão suas habilidades, mas a substituirão, usando as ferramentas em todas as oportunidades possíveis. Uma consequência negativa é que eventualmente inundaremos a Internet com dados gerados por IA. Isso não implica que os sistemas de IA criarão todos os dados na internet, mas se uma boa parcela for gerada por IA e não soubermos disso, talvez aí tenhamos um problema. Esses métodos sofisticados de IA produzem resultados sem explicar por que ou como seu processo funciona.

Um LLM é solicitado por uma consulta de um ser humano. A máquina de aprendizagem responde em um texto coerente em segundos. Ele é capaz de fazer isso porque tem representações pré-geradas dos vastos dados nos quais foi treinado. Como o processo pelo qual criou essas representações foi desenvolvido por aprendizado de máquina que reflete padrões e conexões em grandes quantidades de texto, as fontes precisas e os motivos para os recursos específicos de qualquer representação permanecem desconhecidos. Por qual processo a máquina de aprendizagem armazena seu conhecimento, destila e recupera permanece igualmente desconhecido.

À medida que a IA generativa melhora e se torna mais acessível ao público em geral, a diferença na velocidade com que nós, coletivamente, criamos dados da forma pessoal versus a automática só aumentará, com a porcentagem de dados e imagens criados pelos humanos diminuindo rapidamente.

Enquanto uma imagem do Instagram pode ter filtros ou reestruturação de formato, ou seja, uma melhoria no trabalho humano, uma imagem gerada por um sistema como DALL·E ou Gemini, pertence a uma categoria diferente de mídia sintética. Com modelos de texto para imagem, a entrada humana é um prompt, um simples texto. É o sistema de LLM que apresenta uma representação visual, que não é apenas uma transformação mínima, e o processo intermediário é opaco (impenetrável) e estocástico (dificilmente repetível).

Os dados gerados pelos sistemas LLM são o mais distante do “natural”, pois a entrada humana é mínima. Embora isso não reduza necessariamente o valor do resultado, o coloca em uma categoria própria. Isso abre todo uma discussão sobre direitos autorais que precisarão ser atualizados.

Hoje, talvez menos de 1% do conteúdo online é gerado usando esses algoritmos. Agora, imagine que as ferramentas de IA generativa, cresçam de forma acelerada durante os próximos anos para mais de 1 bilhão de usuários diários, que é um crescimento plausível, se assumirmos que a tecnologia amadurecerá e será integrada a produtos e serviços populares. Teríamos alguns trilhões de imagens sendo geradas por esses sistemas em pouco anos. Isso é no mínimo quatro a cinco vezes todas as imagens feitas pelo homem na Internet. E esse volume pode ser esperado para texto, código, imagens, etc. A Internet já contém mais informações do que qualquer ser humano (ou todos combinados, aliás) jamais poderia consumir em toda a vida. Apenas no YouTube, os usuários carregam 30 anos de vídeos todos os dias. O mesmo acontecerá com textos e imagens, gerados por ferramentas LLMs.

O problema pode ser a qualidade dessas informações. Nada impede que a baixa qualidade impere e sejamos inundados por imagens desagradáveis e textos que geram desinformação, preconceitos e falsidades. Como temos o incentivo para criar mais dados porque a maioria não tem a intenção de transmitir ou armazenar ideias, pensamentos ou sentimentos, mas sim atrair atenção (objetivo de gerar receita com “likes”), a proposta de “precisamos criar mais e mais” não é positiva. Nesse caso, a IA generativa piora a situação. Um exemplo e a multiplicação de livros escritos basicamente via ChatGPT. Já temos muitos exemplos da proliferação desses livros, o que agrava o plagiarismo.

A ciência iluminista acumulou certezas; a nova IA gera ambiguidades cumulativas. A ciência do Iluminismo evoluiu tornando os mistérios explicáveis, delineando os limites do conhecimento e da compreensão humana à medida que se moviam. As duas faculdades moviam-se em conjunto: a hipótese era o entendimento pronto para se tornar conhecimento; a indução era o conhecimento se transformando em compreensão. Na Era da IA, os enigmas são resolvidos por processos que permanecem desconhecidos. Esse paradoxo desorientador torna os mistérios inexplicáveis. Inerentemente, a IA altamente complexa promove o conhecimento humano, mas não a compreensão humana — um fenômeno contrário a quase toda a modernidade pós-iluminista. No entanto, ao mesmo tempo, a IA, quando combinada com a razão humana, representa um meio de descoberta mais poderoso do que a razão humana sozinha.

A diferença essencial entre a Era do Iluminismo e a Era da IA, portanto, não é tecnológica, mas cognitiva. Após o Iluminismo, a filosofia acompanhou a ciência. Novos dados desconcertantes e conclusões muitas vezes contraintuitivas, dúvidas e inseguranças foram dissipadas por explicações abrangentes da experiência humana. A IA generativa está igualmente preparada para gerar uma nova forma de consciência humana. Até agora, entretanto, a oportunidade existe em direções para as quais não temos bússola. Nenhuma liderança política ou filosófica foi formada para explicar e orientar essa nova relação entre homem e máquina, deixando a sociedade relativamente sem limites.

Novas aplicações de IA generativa que afetem de forma substancial a sociedade deveriam passar por critérios que avaliem e regulem o seu lançamento, com base em evidências de segurança cuidadosamente delineadas. Provavelmente também será necessária mais transparência sobre como as decisões sobre lançamentos desses produtos de IA são tomadas e como e quais critérios as empresas adotam para criar mecanismo de segurança e evitar que vieses sejam incorporados em seus resultados.

Na medida em que usamos menos nossos cérebros e mais nossas máquinas, os humanos podem perder algumas habilidades. Nosso próprio pensamento crítico, escrita e (no contexto de programas de conversão de texto em imagem, podemos atrofiar as nossas habilidades de design. O impacto da IA ​​generativa na educação pode se manifestar no declínio da capacidade dos futuros líderes de discriminar entre o que intuem e o que absorvem mecanicamente. Ou pode resultar em líderes que aprendem seus métodos de negociação com máquinas e sua estratégia militar com evoluções de IA generativa, em vez de humanos nos computadores. Os efeitos colaterais podem ser muitos e ainda nem temos ideia do seu alcance.

A IA, como escrevi no início, é uma tecnologia transformadora e vai se disseminar pelas aplicações de negócio e no dia a dia das pessoas. Por outro lado, precisamos deixar de lado a concentração na árvore da IA generativa e olhar a floresta da IA como um todo. E sempre buscar criar sistemas que sejam os mais confiáveis e seguros possíveis. As decisões de suas aplicabilidades devem ser racionais e não emocionais.

--

--