Mais uma vez, a IA foi uma das maiores agendas do Fórum Económico Mundial de 2026.
Somente este ano a atmosfera ficou visivelmente mais tensa. As empresas e os jornalistas têm perguntado ansiosamente aos líderes da tecnologia profunda sobre a segurança da IA, a governação, os encargos com as infra-estruturas, se a temida “bolha da IA” é realmente uma bolha e quando os investimentos começarão a produzir retornos económicos. Em outras palavras, os riscos nunca foram tão altos.
Vice-presidente de engenharia da LikelyAI.
Entre os muitos líderes de IA que falaram em Davos: O CEO da Microsoft, Satya Nadella, quase atingiu o pico. Ele alertou que a IA só pode evitar tornar-se uma bolha se realmente produzir resultados amplamente distribuídos, em vez de concentrar valor em algumas empresas e economias.
A IA não confiável (particularmente o problema psicodélico) continua a aprofundar a falta de confiança empresarial que prejudica o impacto económico positivo.
Por que o debate atual sobre IA está começando no lugar errado
Grande parte da conversa em Davos reflete a realidade de que os sistemas de IA dominantes de hoje: Large Language Models (LLM) – É aqui que se concentram as capacidades, a atenção e o investimento atuais.
A regulamentação, o planeamento de infra-estruturas e a modelização económica estão todos a ser construídos em torno desta realidade. Como resultado, as alucinações são vistas como um risco infeliz mas inevitável que deve ser divulgado ou mitigado.
LLM é um sistema estocástico. Ou seja, gera resultados prevendo o que virá a seguir com base em padrões estatísticos aprendidos em enormes conjuntos de dados. É isso que os torna linguisticamente fluentes e flexíveis, mas é também o motivo pelo qual têm alucinações.
Se o LLM produzir respostas convincentes, mas incorretas, isso não é um bug, é resultado de nossas práticas de engenharia.
Em Davos, as alucinações eram frequentemente discutidas como uma questão de governação ou de segurança, mas isto era inerente à própria abordagem probabilística.
Esta distinção é importante porque determina se as alucinações são vistas como algo a ser abordado ou como um sinal de que um design de sistema diferente pode ser necessário para um caso de uso específico.
Se as alucinações forem consideradas inevitáveis, as únicas respostas disponíveis serão avisos, isenções de responsabilidade, supervisão humana e barreiras de proteção cada vez mais complexas.
É por isso que grande parte da conversa em Davos centrou-se na divulgação, transferência de riscos e regulamentação. Todos são necessários, mas nenhum deles pode transformar um sistema não confiável numa infra-estrutura confiável.
Combinação de flexibilidade e confiabilidade
Então, quais são as alternativas? O facto é que os modelos probabilísticos não são a única forma de construir sistemas de IA. Muito antes de a IA generativa captar a atenção do público, os sistemas de raciocínio simbólico eram utilizados para codificar o conhecimento em regras, factos e restrições explícitas.
Este sistema elimina as suposições. Dada a mesma entrada, sempre produz a mesma saída.
A maioria das pessoas interage com sistemas de símbolos todos os dias, sem sequer pensar nisso. As planilhas são apenas um exemplo. quando A planilha calcula os resultados para que os usuários não precisem se preocupar em ter alucinações de respostas alternativas que “parecem certas”. As empresas querem e precisam desse mesmo determinismo da IA.
A maior parte do software em uso hoje é um sistema simbólico. Ele não consegue lidar com o processamento de linguagem natural em que o LLM se destaca. Mas a escolha entre neurótico e simbólico não é binária.
Hoje, uma classe crescente de sistemas híbridos conhecidos como IA neurossimbólica combina intencionalmente as vantagens de ambas as abordagens.
As redes neurais são usadas onde a flexibilidade é necessária, como na interpretação de linguagem ou na extração de informações de documentos, enquanto as camadas de raciocínio simbólico aplicam regras, restrições e lógica explícitas para determinar os resultados.
Crucialmente, isto significa que os resultados não são determinados apenas pela validade estatística. Os sistemas neurosimbólicos podem rastrear como chegaram às suas conclusões, produzir resultados idênticos para dados idênticos e sinalizar claramente quando não conseguem responder a uma pergunta com segurança.
Esses atributos são essenciais em ambientes onde as decisões devem ser explicadas, auditadas e defendidas.
O custo de perder alternativas
Este foco estreito tem consequências reais. Grande parte da ansiedade expressa em Davos decorre da luta contra as limitações reais do LLM, um sistema que oferece grande funcionalidade, mas também apresenta inevitáveis problemas de confiabilidade.
Quando estas limitações se tornam aparentes, a confiança é prejudicada e a supervisão humana torna-se obrigatória. Os ganhos de produtividade tornam-se mais difíceis de alcançar.
Muitas organizações podem ter dificuldade em ampliar projetos-piloto, especialmente se as equipas jurídicas e de conformidade levantarem preocupações sobre resultados que não podem ser defendidos ou auditados de forma fiável.
Os resultados do ROI são variados em todo o setor, mas um problema recorrente é que os sistemas que oferecem os recursos mais impressionantes nunca são projetados para justificar suas decisões.
As empresas em Davos tiveram razão ao perguntar como a IA deveria ser gerida, regulamentada e integrada na economia global. Os sistemas neurosimbólicos oferecem uma solução natural para as preocupações empresariais sobre a adoção, onde os sistemas somente LLM apresentam novos riscos com confiabilidade e explicabilidade.
Mas não podemos responder de forma significativa a estas questões sem primeiro ampliar a conversa sobre o que realmente é a IA.
A maioria dos profissionais compreende as limitações do LLM e já está a discutir estratégias de mitigação. No entanto, há uma diferença entre mitigar uma limitação inerente e escolher uma arquitetura que a evite para um caso de uso específico.
A questão não é se devemos abandonar o LLM, mas se estamos facilmente a optar pelo LLM, mesmo quando os requisitos de estabilidade sugerem uma abordagem diferente.
Se a IA pretende sustentar a economia, em vez de simplesmente causar uma boa impressão numa demonstração, então a fiabilidade não pode ser uma reflexão tardia. Este deve ser o padrão para um design auditável, compatível e confiável desde o início.
Davos 2026 levantou algumas questões urgentes, e já existem respostas em abordagens que combinam flexibilidade LLM e raciocínio determinístico.
Muitos argumentos ainda tratam as alucinações como inevitáveis, em vez de reconhecerem que são inerentes aos sistemas probabilísticos e que existem alternativas para casos de utilização onde a fiabilidade é fundamental.
A IA confiável não é algo que espera que inventemos. Já existe na forma de IA neurossimbólica. Até que estas realidades se reflitam nas implementações convencionais, o fosso entre as ambições de Davos e aquilo em que as organizações podem confiar com segurança continuará a aumentar.
Apresentamos a você os melhores construtores de sites de IA.
Este artigo foi produzido como parte do canal Expert Insights da TechRadarPro, que destaca as melhores e mais brilhantes mentes da tecnologia atualmente. As opiniões expressas aqui são de responsabilidade do autor e não necessariamente da TechRadarPro ou Future plc. Se você estiver interessado em contribuir, saiba mais aqui: https://www.techradar.com/news/submit-your-story-to-techradar-pro



