Com tanto dinheiro fluindo para startups de IA, agora é um ótimo momento para ser um pesquisador de IA com uma ideia para testar. E se a sua ideia for suficientemente inovadora, poderá ser mais fácil garantir os recursos necessários como uma empresa independente, em vez de dentro de um grande instituto de investigação.
Esta é a história da Inception, uma startup que desenvolve modelos de IA baseados em difusão que arrecadou US$ 50 milhões em financiamento inicial liderado pela Menlo Ventures. Andrew Ng e Andrej Karpathy forneceram financiamento anjo adicional.
O líder do projeto é o professor de Stanford Stefano Ermon. Sua pesquisa se concentra em modelos de difusão que geram resultados por meio de refinamento iterativo, em vez de palavra por palavra. Esses modelos suportam sistemas de IA baseados em imagens, como Stable Diffusion, Midjourney e Sora. Ermon, que desenvolve esses sistemas desde antes do boom da IA, está usando o Inception para aplicar o mesmo modelo a uma gama mais ampla de tarefas.
Junto com o financiamento, a empresa lançou uma nova versão do seu modelo Mercury projetado para desenvolvimento de software. Mercury já está integrado a diversas ferramentas de desenvolvimento, incluindo ProxyAI, Buildglare e Kilo Code. Mais importante ainda, diz Ermon, a abordagem de difusão ajudará os modelos da Inception a economizar em duas das métricas mais importantes: latência (tempo de resposta) e custo de computação.
“Esses LLMs baseados em difusão são muito mais rápidos e eficientes do que outros estão construindo hoje”, diz Ermon. “É apenas uma abordagem completamente diferente que ainda traz muitas inovações que podemos trazer para a mesa.”
Compreender as diferenças técnicas requer um pouco de conhecimento. Os modelos de difusão são estruturalmente diferentes dos modelos autorregressivos que dominam os serviços de IA baseados em texto. Modelos autorregressivos, como GPT-5 e Gemini, funcionam sequencialmente, prevendo cada palavra seguinte ou fragmento de palavra com base em material previamente processado. Os modelos de difusão treinados para geração de imagens adotam uma abordagem mais holística, modificando gradativamente a estrutura geral da reação até que correspondam ao resultado desejado.
A sabedoria convencional é usar modelos autoregressivos para aplicações de texto, e esta abordagem tem sido usada com grande sucesso nas últimas gerações de modelos de IA. No entanto, um número crescente de pesquisas mostra que os modelos de difusão podem ter melhor desempenho quando o modelo: Processando grandes quantidades de texto ou Gerenciamento de restrições de dados. Como disse Ermon, essa qualidade é uma vantagem real ao trabalhar em grandes bases de código.
Evento de crise tecnológica
São Francisco
|
13 a 15 de outubro de 2026
O modelo de difusão também proporciona mais flexibilidade na forma como o hardware é utilizado, uma vantagem particularmente importante à medida que os requisitos de infraestrutura da IA se tornam mais claros. Enquanto um modelo autorregressivo deve executar tarefas uma após a outra, um modelo de difusão pode processar muitas tarefas simultaneamente, reduzindo significativamente a latência para tarefas complexas.
“Avaliamos mais de 1.000 tokens por segundo, o que é muito maior do que é possível usando técnicas autorregressivas tradicionais”, diz Ermon. “Como nosso trabalho é construído em paralelo, ele foi desenvolvido para ser muito rápido.”



