A inteligência artificial (IA) está ganhando autonomia e agora pode realizar muitas tarefas sozinha, mas continua sujeita a erros e alucinações; Este é um risco que muitas companhias de seguros já concordam em cobrir para as empresas.
“O objetivo destas ferramentas avançadas de IA é tomar decisões sem assistência e supervisão humana, o que questiona a lógica fundamental dos seguros atuais”, explica Phil Dawson, diretor de IA da startup Armilla.
Novos assistentes de IA, comumente chamados de agentes, podem agora não apenas responder a uma pergunta, mas também realizar tarefas semelhantes às de um ser humano usando um computador de forma autônoma e acelerada.
O analista Sonal Madhok e a professora de direito Anat Lior estimam, em um documento publicado pela corretora Willis Towers Watson no final de 2025, que os riscos de responsabilidade legal associados à IA por padrão são “em sua maioria implicitamente cobertos pelos contratos tradicionais”.
Eles acreditam que esta é uma situação temporária, uma fonte de incerteza, em comparação com os primeiros anos do cibercrime em grande escala.
Mas, nos últimos meses, “o mercado de seguros emergiu da sua postura de esperar para ver”, segundo Jonathan Mitchell, diretor financeiro da corretora Founder Shield. “As políticas padrão agora têm as chamadas ‘exclusões absolutas de IA’.”
De acordo com o Financial Times, várias grandes seguradoras, principalmente a britânica Chubb, pediram aos reguladores americanos que excluíssem da sua cobertura a responsabilidade relacionada com a IA. Nenhum respondeu quando contactado pela AFP.
A IA generativa é ainda mais difícil de entender porque está em constante mudança e os casos de uso continuam a proliferar.
“Você precisa entrar em detalhes em seu contrato para contabilizar a responsabilidade legal pela IA”, diz Jonathan Mitchell.
Um mercado de US$ 4,8 bilhões
Phil Dawson cita uma agência imobiliária corporativa que inicialmente queria cobrir seu agente de IA como funcionário, mas acabou adquirindo uma apólice específica de IA.
O Founder Shield oferece seguro contra erros e omissões (E&O), o que é típico de um provedor de serviços profissional, mas cobre especificamente cenários de “mau funcionamento ou alucinação de IA” que “resultam em perda financeira direta para o cliente”.
Jonathan Mitchell explica que o escopo do contrato pode ser estendido além das redes de computadores, até os danos causados pela IA no mundo real, citando um agente de IA que acidentalmente encomendou muitos itens.
Já Armilla, antes de se comprometer, a empresa testa modelos para avaliar sua robustez e vulnerabilidades. Ele também está interessado na gestão geral de riscos na empresa cliente e na sua possível adesão aos atuais padrões de inteligência artificial americanos ou internacionais, como a ISO 42001.
As seguradoras posicionadas neste mercado excluem certos riscos. Armilla não cobrirá tudo relacionado a diagnóstico médico e práticas de saúde mental.
Quanto à Munich Re, que opera neste domínio desde 2018, não compensará o fracasso de um modelo resultante de condições excepcionais de mercado, afirma Michael von Gablenz, chefe de seguros da AI, referindo-se à avaliação de obras de arte ou activos financeiros.
Nesta fase, os clientes da Munich Re são principalmente empresas de tecnologia que operam em muitos setores, desde a agricultura à indústria e energia. As empresas que projetam e utilizam os modelos também podem se inscrever.
Segundo Michael von Gablenz, o potencial deste mercado é “tão importante quanto a segurança cibernética, se não maior”.
Ele lembra que o aprimoramento contínuo dos modelos reduz as viagens, mas “o risco de erros e alucinações não pode ser totalmente eliminado”. “Estes continuam a ser modelos estatísticos” e todos apresentam “alguma incerteza”.
Num estudo publicado em agosto, a Deloitte estimou que o volume de prémios poderá atingir 4,8 mil milhões de dólares a nível mundial até 2032.



