É hora de repensar a nossa relação com a IA
Flávio Coelho/Getty Images
Não se pode negar que o lançamento do ChatGPT é um evento histórico importante, mas será isso porque é o primeiro passo glorioso em direção a um futuro superinteligente ou porque é o início de um mundo cheio de vendedores de óleo de cobra de IA? Há muito que penso que os grandes modelos de linguagem, a tecnologia por detrás dos chatbots de IA, eram entusiasmantes, mas falhos, o que me colocava em desvantagem. Mas uma semana de codificação vibracional revelou algo surpreendente: tanto os defensores como os céticos estavam errados.
Primeiro, tenho que explicar. Vibe coding, se você não conhece, é um termo cunhado há cerca de um ano por Andrej Karpathy, um pesquisador de IA que foi cofundador e trabalhou anteriormente na OpenAI. Refere-se ao processo de desenvolvimento de software “vibrando” com um modelo de IA, instruindo-o em linguagem simples e permitindo-lhe gerar código real. Recentemente, vi pessoas dizendo que as ferramentas mais recentes – Claude Code e ChatGPT Codex – são surpreendentemente boas em codificação, como no artigo sobre Que New York Times intitulado “A interrupção da IA que esperávamos chegou”.
Decidi experimentar essas ferramentas e fiquei impressionado com os resultados. Em apenas alguns dias, com experiência limitada em codificação, criei aplicativos pessoalmente úteis, como um seletor de audiolivros que verifica o que está disponível na minha biblioteca local e um aplicativo combinado de câmera e teleprompter que roda no meu telefone.
Isso pode parecer chato para você, e tudo bem, por motivos que explicarei mais tarde. O que é importante aqui é que esse processo me permitiu envolver-me mais profundamente com um produto como o ChatGPT do que antes. No passado, tentei pequenos experimentos, fiquei farto de escrita genérica, astúcia ou resultados de pesquisa imprecisos e desisti. Para este novo projeto de codificação, meu uso prolongado me fez perceber algo que nunca havia experimentado antes – a forma como o LLM foi produzido resultou em uma máquina que eu certamente odiaria.
Muito poucos de nós já foram expostos a LLMs “brutos”, ou seja, modelos estatísticos que foram treinados em grandes conjuntos de dados para produzir textos representativos e coerentes. Em vez disso, a maioria de nós usa tecnologia mediada por um processo chamado aprendizagem por reforço a partir de feedback humano (RLHF). As empresas de IA usam humanos para avaliar textos brutos gerados por LLM, recompensando respostas consideradas confiáveis, úteis e interessantes, e penalizando conteúdos prejudiciais ou respostas que provavelmente desencorajarão a maioria dos usuários de interagir com seu produto.
Este processo RLHF é o que produz a “voz do chatbot” comum com a qual você deve estar familiarizado. É um processo que incorpora os valores implícitos dos produtores, desde a atitude geral do Vale do Silício de “agir rápido e quebrar as coisas” até a ideologia Grok mais específica instilada por Elon Musk, nomeadamente o controverso chatbot X.
Atualmente, é muito difícil tornar os chatbots capazes de expressar incerteza, desafiar os usuários ou restringir o impulso. Isso ficou muito claro para mim quando me deparei com um problema que não poderia ser resolvido com meu teleprompter. Estou tentando criar um aplicativo que exiba texto em meu aplicativo de câmera existente, presumindo que seria mais fácil do que construir uma câmera do zero, mas o código gerado pelo ChatGPT continua falhando. Sugeriu repetidamente melhorias, instando-me a continuar com o projeto. Só quando percebi que as complexidades do sistema operacional Android, do qual você não vai ficar entediado, significavam que a criação de aplicativos completos seria muito mais fácil. Assim que pedi ao ChatGPT para construir isso, funcionou.
Aprendendo com isso, comecei a instruir o ChatGPT a questionar continuamente a si mesmo e a mim. Exijo ceticismo cauteloso. “Jacob quer que seu assistente use a análise que prioriza a evidência: evitando extrapolação, marcando explicitamente inferência versus evidência e preferindo expressar incerteza ou parar quando a evidência é escassa, a menos que o usuário peça especulação”, é apenas uma das estruturas (autogeradas) que guardei em sua memória. Em outras palavras, construí um modelo projetado exclusivamente para se adequar ao meu perfil psicológico, removendo cuidadosamente os valores da OpenAI e substituindo-os pelos meus.
Não é perfeito. É muito difícil para um LLM ir contra a sua formação RLHF, e os padrões continuam a vazar. Mas o que isso significa é que agora tenho uma ferramenta que serve como um espelho cognitivo útil. Não o usei para escrever este artigo, porque o estilo de escrita ainda é um desperdício e também porque Novo CientistaÉ verdade, tem regras rígidas contra cópias geradas por IA, mas usei-as para pensar neste artigo. Pedi ao meu espelho cognitivo que examinasse os argumentos e contra-argumentos, rejeitando muitas conclusões consideradas falsas ou espúrias. Recebo os benefícios, mas isso exige cuidado e trabalho árduo, e não deixar a IA fazer o trabalho pesado. Mais importante ainda, meu cérebro permanece totalmente engajado o tempo todo.
Isto levou-me a reforçar a conclusão a que já tinha chegado: envolver-se com os resultados da IA de outras pessoas é, em quase todos os casos, funcionalmente inútil. Você não pode obter nada do texto gerado pela IA que não seria melhor recebido se você mesmo usasse a IA. Também continuei a refutar a ideia de que a IA era realmente inteligente – em vez disso, pensei no LLM como uma ajuda cognitiva, como uma calculadora ou um processador de texto. Com este enquadramento, como uma ferramenta pessoal, e não como uma máquina de conquistar o mundo, agora vejo os benefícios. Portanto, é natural que você não se importe com meu aplicativo de teleprompter. O que deve entusiasmar você é a possibilidade de resolver seus problemas únicos de uma maneira única.
É aqui que o nosso atual paradigma de IA levanta outro problema. Na minha opinião, o melhor LLM é aquele que roda no seu próprio computador, sem ligação a uma empresa privada. Deve ser tratado como uma ferramenta experimental e perigosa sobre a qual você tem controle total. Lembro-me do meme que os engenheiros de software manter uma arma de fogo perto da impressora, caso haja algum som que eles não reconheçam. Infelizmente, atualmente é impossível executar seu próprio LLM de última geração por vários motivos, um dos quais é o boom da IA, que está aumentando o preço do hardware de que você precisa.
Também tive que abordar o pecado original do LLM: potencial violação de direitos autorais. Por definição, esta tecnologia só pode ser construída com base em dados ingeridos em grande escala, que constituem essencialmente todo o registo textual da humanidade. Não se pode negar que empresas como a OpenAI constroem os seus modelos utilizando texto protegido por direitos de autor sem permissão, embora a questão de saber se isto é realmente ilegal ainda seja objeto de processos judiciais em curso. Os LLM privados têm os mesmos problemas, mas consigo ver uma solução, como um modelo do sector público, que seja efectivamente sancionado pelo governo e distribuído gratuitamente para o benefício de todos, não das empresas privadas. Também continuo preocupado com o impacto dos centros de dados no ambiente, mas, mais uma vez, isto poderia ser mitigado por uma distribuição mais ampla do LLM executado nas nossas próprias máquinas.
Aceito que algumas pessoas que estão lendo isto me acusem de me vender para técnicos. O que posso dizer é que não revisei a minha posição de longa data relativamente ao LLM como uma tecnologia fascinante, perigosa e por vezes maravilhosa.
O que percebi é que a principal forma como interagimos com a tecnologia, através de chatbots sofisticados como o ChatGPT, é onde muitos dos impactos negativos acontecem e podem se espalhar pelo mundo. Os LLMs não devem ser finalizados e fabricados, forçados a entrar em todas as partes de nossas vidas por emojis brilhantes que querem ser seus amigos. Seria muito melhor se utilizássemos estas ferramentas de forma consciente, com maior atrito e com plena consciência e cautela dos danos potenciais que podem causar. Aqui, uma metáfora útil surge com suas presas. Não quero óleo de cobra OpenAI. Eu quero uma cobra.
Tópico:



