Gerando valor com IA

Cezar Taurion
5 min readNov 17, 2024

--

Muitos fatores afetam a capacidade das empresas na implementação de soluções baseadas em IA, e o fator humano, não apenas do pessoal técnico, mas dos executivos e a cultura da empresa são dos mais críticos. Não são apenas tecnologia, dados e capacidade computacional que fazem os projetos de IA avançarem. A liderança, atitudes, cultura organizacional e skills são os atributos humanos que afetam muito mais que a disponibilidade de tecnologia. Sem tecnologia, não se avança, mas sem o lado humano da moeda, também não.

Em torno de 2012 começamos a ver uma onda de otimismo no uso de IA nas empresas. O sucesso do Watson da IBM ao vencer o programa Jeopardy e as várias soluções de reconhecimento de imagens, principalmente no setor de saúde alavancaram esse entusiasmo. A Apple lançou o Siri em seu iPhone em 2011, seguido pelo Alexa em 2014. Por volta de 2017 o Google anunciou sua estratégia “AI First” e em 2015 a IBM lançou o Watson Health com ambições de transformar a saúde. Projetos de IA começaram a pipocar nas empresas e começamos a ver surgirem iniciativas de “AI labs” em muitas organizações. Startups com “.ai” no nome, mas sem usar IA, proliferaram. Mas, muitos desses projetos fracassaram. O caso do Watson Health tornou-se emblemático. Projetos ambiciosos demais e muitas vezes o descompasso entre técnicos como cientistas de dados e a perspectivas e visões dos executivos foram as principais causas.

A falta de compreensão do potencial e das limitações das tecnologias de IA por parte dos executivos e linguagens diferentes destes com os técnicos, gerando problemas de entendimento e comunicação, fizeram com que a liderança das empresas não se engajasse de forma significativa nessas iniciativas de IA. Muitas foram criadas mais por pressão dos acionistas e reação ao FOMO (Fear of MIssing Out), de sua empresa ficar para trás, mas sem visão clara do que queriam realmente resolver com projetos de IA. Em muitos casos o discurso era “estamos fazendo projetos de IA” e não “estamos resolvendo um problema de negócios com aplicação de técnicas de IA”. IA passou a ser o motivo e não a solução para os problemas. Não deu certo. E com isso arrefeceu-se o entusiasmo.

E eis que surge o chatGPT e o otimismo desenfreado começou de novo. Novamente vemos um descompasso entre o pessoal técnico entusiasmadíssimo, e os executivos, embora novamente com o sinal do FOMO ligado, receosos de ir em frente. As técnicas por trás do chatGPT são bem avançadas, mas existem muito mais técnicas e aplicações de IA além dos chatbots.

Indiscutivelmente que o uso do chatGPT de forma pessoal é totalmente diferente do uso corporativo, onde a empresa está atrelada às regras de compliance, processos de auditoria, olhar atento dos acionistas quanto a eventuais danos à imagem e claro, em setores altamente regulados, as barras de privacidade e segurança são muito mais altas. Estamos ainda na fase das experimentações e temos muito que aprender. Embora todos estejam empolgados com o chatGPT no uso individual, mas ao sair desse contexto e pensarmos em seu uso corporativo, as tarefas não serão apenas fazer mais prompts. Questões como inserir e tokenizar os dados corporativos? Onde eles estão? Como serão curados? Como validar a saída do modelo? As regras de compliance, privacidade e segurança estão sendo seguidas? O mundo corporativo é bem mais complexo que fazer uma poesia ou escrever um TCC falso. E mais importante: qual será o ROI desse investimento? Do hype para o ROI tem um longo caminho. E hype sem ROI não evolui.

Com o tempo vamos identificando onde e como usar esses modelos LLM e quais os limites e cuidados que devemos ter com eles. Mas, sem experimentações, a empresa não conseguirá validar sua aplicabilidade ao seu negócio. Algumas experimentações já mostram potencial, que podem e devem ser exploradas com cautela. Os primeiros estudos apontam que o ChatGPT e outros modelos de linguagem/chatbots avançados são ferramentas poderosas, que se usadas de forma adequada, têm o potencial de transformar processos em diversas áreas como educação, engenharia de software, saúde e marketing. Tarefas robotizáveis, como anotações e geração de textos simples, podem ser feitas pelos sistemas LLM. Por exemplo, um estudo sobre atividades efetuadas por free-lancers criadores de conteúdo que atuam no modelo crowd-worker mostra que esses criadores de conteúdo terão que se esforçar muito para obter alta qualidade na sua redação e imagens criativas e originais, tanto para serem notados pelos clientes quanto para otimização dos mecanismos de busca. Esses, por sua vez já começam a se preparar para detectar conteúdo gerado automaticamente e baixar sua prioridade no resultado da busca. Acreditamos que os freelancers que irão se manter serão apenas os especializados que criam textos inovadores e criativos. E as plataformas que intermediam freelances e contratantes podem perder grande parte de sua receita.

No entanto, alguns questionamentos, como plágio, parcialidade e falta de transparência, e “alucinações”, precisam ser abordados com atenção. Como qualquer nova tecnologia, experimente antes de mergulhar fundo. E não subestime questões de segurança, privacidade e riscos de violação de direitos autorais.

O fator humano é essencial. Sem compreensão da tecnologia, os executivos não se engajam e não abrem a carteira para suportar projetos. Existem vários passos que precisam ser trilhados, sendo que obviamente o primeiro é o aculturamento e evangelização dos executivos. Esses precisam ser mostrar líderes engajados e entusiastas das iniciativas de IA. As empresas e suas ações são reflexo das suas lideranças e caso esses líderes não se engajem, a empresa não se engajará. Depois é essencial ter uma verdadeira governança de dados, com um data lake e não com um conjunto disperso de data warehouses. Os dados precisam ser higienizados e aí descobre-se quanto de sujeira está embutida nos arquivos corporativos. A maioria das empresas tem um grande volume de dados. O desafio é saber qual a qualidade desses dados. A arquitetura de tecnologia precisa ser revista: nuvem híbrida ou pública? Os critérios de aprovação de projetos de IA que usam muitos dados, precisam ser avaliados por políticas de ética, privacidade e aderência às regulações. A criação de um comitê para “Responsible Data Use” se encaixa nesse cenário.

A escolha dos primeiros projetos é um ponto importante. Não podem ser insignificantes, que se derem certo ou errado, ninguém vai se importar, mas também não podem comprometer a saúde da empresa em caso de falha. Mas, tem que ser suficientemente impactantes para que a organização veja os resultados e isso amplie o interesse em disseminar projetos similares.

A liderança dos executivos nas estratégias de IA pode assumir diversos aspectos, dependendo das características próprias dos negócios em si, mas um fator comum é indiscutivelmente é o fato deles compreenderem o que é a IA e suas implicações para as estratégias, modelos de negócio, processos, pessoas e aderência aos princípios e valores éticos das suas empresas. Sem essa compreensão, não conseguirão desenhar uma visão coerente e adequada para o futuro.

--

--

Cezar Taurion
Cezar Taurion

No responses yet