Nos últimos sete anos, a startup Kintsugi, com sede na Califórnia, vem desenvolvendo inteligência artificial projetada para detectar sinais de depressão e ansiedade na fala de uma pessoa. Mas depois de não conseguir obter a aprovação da FDA a tempo, a empresa está fechando e lançando grande parte de sua tecnologia como código aberto. Alguns elementos podem até encontrar uma segunda vida fora da área da saúde, como a detecção de deepfakes.
As avaliações de saúde mental ainda dependem fortemente de questionários aos pacientes e entrevistas clínicas, em vez de testes laboratoriais ou tomografias comuns na medicina física. Em vez de focar no que alguém está dizendo, o software do Kintsugi analisa como ele está dizendo. A ideia não é nova – padrões de fala como pausas, estrutura de frases ou velocidade são indicadores conhecidos de vários problemas de saúde mental – mas Kintsugi diz que a sua inteligência artificial pode captar mudanças subtis que podem não ser óbvias para os observadores humanos, embora não tenha detalhado publicamente quais as características que impulsionam as previsões do seu modelo. existir Pesquisa revisada por paresa empresa relatou resultados que foram amplamente consistentes com ferramentas de triagem de autorrelato para depressão que usam breves amostras de fala.
A empresa posiciona a tecnologia como um complemento ou potencial substituto para ferramentas de triagem auto-relatadas.
A empresa posiciona a tecnologia como um complemento ou potencial substituto para ferramentas de triagem de autorrelato, como o Patient Health Questionnaire-9 ou PHQ-9, um elemento básico na atenção primária e na psiquiatria. Estas ferramentas devem ser utilizadas em conjunto com a avaliação clínica formal e, embora tenham sido extensivamente validadas, As taxas de triagem podem ser mais baixaseles contam com pacientes que descrevem os sintomas com precisão e Pode não capturar o conjunto completo de sintomas Relacionado a transtornos de saúde mental. Kintsugi acredita que o seu modelo baseado em voz pode fornecer um sinal mais objectivo, expandir o rastreio a mais pacientes e ser implementado em escala em sistemas de saúde, companhias de seguros e programas de empregadores. No entanto, isso requer permissão da FDA.
Kintsugi tem trabalhado através do “de novo“Um caminho, um caminho para dispositivos médicos novos e de baixo risco que não possuem produtos similares no mercado. Embora projetado para agilizar a aprovação de novos produtos, ainda é um processo que pode levar anos de coleta de dados e revisão regulatória”, disse-nos a fundadora e CEO da Kintsugi, Grace Chang. borda Os reguladores passam muito tempo ensinando sobre inteligência artificial. A estrutura também não é adequada para inteligência artificial; muitos foram concebidos tendo em mente dispositivos mais tradicionais – implantes de anca, instrumentos cirúrgicos, pacemakers, por exemplo – e, uma vez aprovados, os seus designs permanecem em grande parte fixos. Para os sistemas de inteligência artificial, isto pode significar fixar um modelo que, de outra forma, continuaria a ser otimizado e atualizado ao longo do tempo.
A FDA não é adequada para inteligência artificial; muitos são projetados tendo em mente dispositivos mais tradicionais.
Apesar do esforço do governo Trump para reduzir a burocracia e colocar produtos de inteligência artificial no mundo real o mais rápido possível, Zhang disse que especialistas em regulamentação lhe disseram que “nada além de gritar do topo pode ajudá-los a fazer isso”. O processo de aprovação foi ainda mais retardado pela paralisação do governo federal. A startup ficou sem dinheiro enquanto aguardava os envios finais.
Os esforços para levantar capital adicional fracassaram à medida que o caminho da empresa foi encurtando. Em vez de aceitar ofertas “predatórias” de curto prazo para atender às necessidades salariais – Chang disse que uma oferta oferecia cerca de US$ 50 mil por semana em troca de US$ 1 milhão em capital – a equipe decidiu abrir o código-fonte de grande parte da tecnologia para que outros pudessem continuar a trabalhar. Os investidores não estão satisfeitos.
A abertura de modelos de rastreio de saúde mental também levanta preocupações sobre o abuso. Em teoria, as ferramentas concebidas para sinalizar sinais de depressão ou ansiedade poderiam ser implementadas fora dos ambientes clínicos, como por empregadores ou companhias de seguros, sem as salvaguardas normalmente exigidas nos cuidados de saúde. Obviamente isso não deveria acontecer, mas uma vez lançado publicamente, não há quase nada que impeça a tecnologia de ser usada de maneiras que seus criadores não pretendiam.
Existem outras complicações. Nicholas Cummins, professor sênior em análise de fala e IA responsável pela saúde, King’s College London borda As versões de código aberto muitas vezes carecem da “trilha documental” detalhada que os reguladores esperam, incluindo registros claros de como os modelos foram treinados, validados e testados em termos de segurança. Sem isso, poderia ser difícil obter a aprovação da FDA para produtos baseados na tecnologia, disse ele.
A abertura de modelos de rastreio de saúde mental também levanta preocupações sobre o abuso.
Cummins sugere que é mais provável que as empresas vejam o modelo como um ponto de partida e construam seus próprios materiais e processos de validação com base nele. Mesmo assim, alertou que os sistemas baseados na fala ainda são imperfeitos e apresentam um risco “razoável” de erro, especialmente para condições como a depressão, que se comportam de forma diferente em contextos individuais, linguísticos e culturais e dependem fortemente da variedade e estrutura do material de fala utilizado no treino.
Zhang não descartou as preocupações sobre o potencial uso indevido, mas disse que “as preocupações na prática não são tão preocupantes quanto na teoria”. Ela argumentou que as organizações mais motivadas para o uso indevido da tecnologia são também aquelas que “enfrentam as maiores barreiras à implementação real da tecnologia”. Na opinião de Zhang, “o risco mais realista é a subutilização e não o abuso”.
Embora a tecnologia de triagem de saúde mental da Kintsugi seja de código aberto, Chang disse que nem toda a tecnologia da empresa foi divulgada publicamente. Ela disse que isso se devia em parte a questões de segurança, a principal delas ciência e tecnologia Pode detectar sons sintetizados ou manipulados.
Chang disse que a capacidade surgiu quando a equipe tentou usar a fala gerada por IA para impulsionar seu modelo de saúde mental. O áudio sintético não possui os sinais sonoros que o modelo é treinado para reconhecer, sugerindo que ele pode ser usado para distinguir entre sons gerados por inteligência humana e artificial. Dada a proliferação de vulnerabilidades de IA e deepfakes fraudulentos, este é um desafio crescente que ainda não foi abordado de forma confiável. Esta é uma oportunidade potencialmente lucrativa e, felizmente, Kintsugi é uma área que não é regulamentada pelo FDA.
Chang se recusou a especular sobre seu próximo passo ou se a tecnologia focada na segurança da Kintsugi ressurgirá, mas ela disse que espera que outros desenvolvam o trabalho da empresa e o levem para os estágios finais do processo da FDA. Mas sem mudanças mais amplas, é improvável que o fechamento de Kintsugi seja o último exemplo de uma colisão do cronograma de uma startup com a regulamentação médica, uma realidade que Chang disse esperar que não impeça outros fundadores de tentar.



