Julho passado OpenAI CEOSam Altman ele disse ao podcaster viral Theo Von. É “uma pena” que as conversas com um assistente de IA não forneçam a mesma proteção legal que as conversas com um advogado humano.
“Conversar com uma IA deveria ser como conversar com um advogado ou um médico. Espero que a sociedade descubra isso em breve”, disse Altman. enviado Para X.
Este Tweet não está disponível no momento. Ele pode ser instalado ou removido.
Existe um CEO foi defendido muitas vezes para proteções de privacidade mais fortes Mesmo enquanto os estados reprimem os bots de IA, as conversas do chatbot com os usuários terapêutico ou especialistas jurídicos.
Mas especialistas jurídicos dizem ao Mashable que a privacidade do usuário não é a única razão pela qual pessoas como Altman estão tentando criar uma proteção mais rígida entre as conversas do chatbot e o tribunal; Há também uma motivação egoísta, diz ele. Manter os Masters intocados pelos tribunais isola não apenas os usuários de IA, mas também as empresas. Na verdade, os comentários de Altman a Von podem ter sido desencadeados pela própria ideia da OpenAI. problemas legais: Os tribunais exigiram que o gigante da IA salvasse e, eventualmente, entregasse os registros de bate-papo do usuário como descoberta legal; Esta foi uma ação que poderia ter sido evitada se a IA fosse vista aos olhos do tribunal como o mesmo que um terapeuta, médico ou advogado.
Qual é uma maneira de conseguir isso? Impulsionar uma mudança cultural que trate a orientação da IA com o mesmo respeito que os profissionais humanos, começando pela nossa saúde.
Você está usando ChatGPT Saúde? Leia isto primeiro.
O que exatamente é “privilégio de IA”?
“O privilégio tem um certo significado para os advogados e no contexto jurídico”, disse a advogada sênior Melodi Dinçer. Projeto de Lei de Justiça Técnica. Por exemplo, existe o privilégio padrão de advogado-cliente, também existe o privilégio de psiquiatra-cliente e o privilégio de cônjuge. As comunicações com o clero, os votos políticos e os segredos comerciais ou de estado também são reconhecidos pelos tribunais. Em todos estes casos, as comunicações entre as duas partes são confidenciais e inadmissíveis em processos judiciais.
Os estados também têm as suas próprias regras de privilégio para casos julgados em tribunais estaduais, que são abrangidos pela lei estadual. Dinçer disse que alguns estados privilegiam reuniões entre você e seu clínico geral, bem como seu psiquiatra. Mas muitos estados não fazem isso. Isso tudo está explicado aqui Regra 501 entre Regras Federais de ProvasDinçer explicou que isso permite que os tribunais federais concedam privilégios que os tribunais estaduais já concedem.
Por exemplo, se você estiver sendo processado, a outra parte do caso não poderá aceitar as anotações da sessão do seu terapeuta, nem poderá aceitar conversas confidenciais entre você e seu advogado ou seu cônjuge.
“O objetivo do privilégio do cliente é poder ter conversas francas e abertas com esses provedores para que eles possam lhe fornecer o melhor conselho”, disse Lily Li, advogada e fundadora de privacidade de dados e gerenciamento de risco de IA. Lei do Metaversoele disse ao Mashable. “Do ponto de vista social, queremos que os indivíduos sejam abertos e honestos com os seus advogados, médicos e psicólogos.”
Mas estas são condições que se aplicam às relações humanas e não às digitais. Se você acredita que um chatbot de IA é tão eficaz quanto um terapeuta humano ou um consultor jurídico, essas comunicações também deveriam ser protegidas? Alguns desenvolvedores de IA, como Altman, dizem que sim.
Chatbots de IA: ferramentas ou pessoas?
“O litígio de direitos autorais de IA aberta colocou esta questão em foco”, disse Li. Ele está falando sobre uma série de TV recente. consolidado Um total de 16 ações judiciais de direitos autorais foram movidas contra a OpenAI por editores, artistas e autores nos últimos anos. As questões em questão, que incluem questões de uso justo e como lidar com os dados usados na pós-graduação, são uma espécie de medidor de temperatura para avaliar a percepção da IA aos olhos do tribunal.
É por isso que os especialistas jurídicos estão observando de perto como os tribunais categorizam os desenvolvedores de IA, seus produtos e os dados de usuário que eles contêm. Mais especificamente, eles precisam acompanhar como a lei trata os LLMs durante a evidência e a descoberta, incluindo dados de treinamento e registros de bate-papo.
Não queremos uma situação em que exista apenas um escudo de responsabilidade.
Em fevereiro, um juiz federal decidiu que os documentos de estratégia jurídica criados pelo chatbot Claude da Anthropic e depois enviados por um cliente ao seu advogado eram ilegais. não coberto pelo privilégio advogado-cliente. A decisão ganhou as manchetes. O juiz do caso baseou-se em parte na própria política de privacidade da Anthropic para determinar se os chats eram protegidos. Como as regras da Anthropic não prometem total confidencialidade ao usar seu produto disponível publicamente, a comunicação deve ser feita com um advogado licenciado. entendendo que estes são confidenciaiso privilégio não se aplicava. Documentos eram um jogo justo.
Relatório de tendências do Mashable
Mas nesse mesmo mês, um juiz diferente num caso diferente, embora semelhante, decidiu o contrário. Neste exemplo, segundo o juiz, o privilégio advogado-cliente se aplicou ao trabalho produzido pela IA porque o resultado passou a ser um “produto de trabalho advogado-cliente”. Neste caso de uso, o chatbot não era uma “pessoa”, mas sim uma ferramenta utilizada pelo consultor e pelo cliente. Esta é uma distinção importante porque se o chatbot fosse visto como uma entidade terceira, o cliente estaria a fornecer-lhe voluntariamente informações confidenciais, o que poderia renunciar a privilégios.
Estes são apenas alguns dos primeiros casos em tribunais distritais federais envolvendo o que é chamado de questões de primeira impressão. Fundamentalmente, ninguém fez estas perguntas e estamos apenas nos estágios iniciais de resolvê-las.
Enquanto isso, ações judiciais de direitos autorais envolvendo OpenAI levantaram mais questões sobre descobertas e dados. Pouco antes das duas decisões mencionadas, OpenAI apelou com sucesso Despacho determinando que a empresa renunciou ao privilégio advogado-cliente e abriu acesso a dados anteriormente privilegiados. A ordem de entrega foi dada à empresa milhões de registros anônimos de conversas do ChatGPTbem como comunicações internas.
Empresas como a OpenAI se opuseram a tal descoberta, defendendo a privacidade. Decidindo pela aceitação dos dados, os juízes afirmaram que a remoção das informações de identificação pessoal, o estreitamento do foco dos diários e a não divulgação dos dados ao exterior tornavam os tesouros digitais admissíveis em tribunal. O cenário jurídico está repleto de questões como essas.
Os desenvolvedores de IA geralmente se esforçam para manter seus dados internos protegidos contra descoberta. Embora a privacidade do utilizador seja uma das questões mais prementes na era da IA, enumerar os privilégios da IA num contexto jurídico representa um dilema. Como podemos proteger os dados privados dos usuários sem tornar impossível responsabilizar aqueles que criam a IA?
“Não queremos uma situação em que exista apenas um escudo de responsabilidade”, disse Li.
A nova série AI + Health do Mashable examinará como a inteligência artificial está mudando o mundo da medicina e da saúde. Exploraremos como manter seus dados de saúde segurosComece a usar IA para decifrar seus exames de sangueSaiba como duas mulheres usaram inteligência artificial para detectar uma forma perigosa de doença cardíacae muito mais.
IA em saúde é um grande negócio
No início deste ano, a OpenAI lançou o ChatGPT Health, um novo “mod” voltado para o consumidor para seu chatbot de suporte que visa transformar a IA em um guru de saúde pessoal. A empresa incentiva os usuários a fazer upload de seu histórico médico para personalizar melhor a experiência. Os dados não estão protegidos no momento Lei de Portabilidade e Responsabilidade de Seguro Saúde (HIPAA), a principal regulamentação de privacidade em saúde do país.
Outras empresas seguiram o exemplo da OpenAI; Anthropic, Microsoft e Amazon lançaram seus próprios chatbots com foco na saúde nos meses seguintes, alguns compatíveis com HIPAA, outros não. O rival da OpenAI, Google, há muito investe em IA para casos de uso médico. clínicos e pesquisadores. O Fitbit, de propriedade do Google, oferece: coaching de saúde pessoal usando um assistente Gemini integrado. A empresa também possui um “agente de inteligência artificial de diagnóstico conversacional“referido como Articulate Medical Intelligence Explorer (ou AMIE).
Altman e seus rivais migrando para o potencial de lucro O estado do setor de saúde, mesmo que uma regra de exclusividade de IA ainda não esteja no horizonte. OpenAI em janeiro adquiriu a startup de saúde TorchE MergeLabs desenvolvido por AltmanUma empresa de biotecnologia interessada em interfaces cérebro-computador (BCIs), obteve uma avaliação de US$ 850 milhões.
De acordo com uma notícia recente relatório 1,4 mil milhões de dólares gastos pela Menlo Ventures em soluções generativas de IA específicas para cuidados de saúde em 2025. A grande maioria deste valor fluiu para iniciativas de inteligência artificial. E essas estatísticas cobrem apenas produtos de nível clínico, ferramentas para profissionais médicos de empresas como OpenEvidence e Hippocratic AI, não gastando em produtos comerciais como ChatGPT Health.
Um mundo com privilégio de chatbot humano?
Falta de clareza regulatória e legal entre produtos não clínicos, dispositivos de bem-estar e chatbots não compatíveis com HIPAA alarma muitos especialistas em privacidade. Alguns sugerem que o ambiente político incerto poderia ser uma bênção para os desenvolvedores de IA, que poderiam introduzir os seus próprios produtos de IA para a saúde num ambiente regulatório, num movimento estratégico para aumentar os lucros das empresas. E ganhos legais
À medida que os chatbots acumulam mais conversas “secretas”, mais privilégios podem estar disponíveis sob a Regra 501. Os “médicos” de IA também contam em estados que protegem o contato com o seu médico? Ou consideremos um exemplo menos óbvio oferecido por Dinçer: quando, digamos, um utilizador pergunta a um chatbot como o seu parceiro contraiu uma infecção sexualmente transmissível apesar do teste ser negativo, esse aviso e resposta poderiam ser apresentados como prova, ou poderiam desencadear outra forma de protecção, como o privilégio conjugal?
Num mundo hipotético com amplos privilégios de IA, ou mesmo num mundo onde os chatbots estão integrados nas regras de privilégios existentes, as empresas de IA podem tentar recusar-se a reconhecer provas óbvias de abuso. Por exemplo, se uma empresa de IA for processada por enganar indivíduos sobre a sua saúde, os procuradores não poderão utilizar registos internos ou análises de chat que incluam os registos de saúde das pessoas.
Dinçer sugere que talvez se mais usuários inserirem seus registros médicos pessoais, raios-X ou outras informações confidenciais no produto voltado ao consumidor, e mais e mais empresas de IA se conectarem à rede de informações pessoais identificáveis e de tecnologia de saúde, os tribunais poderão estar mais inclinados a considerar a ideia de privilégio envolvendo IA.
Além das receitas, pode ser por isso que as empresas estão tentando fornecer nos assistentes de IA a mesma confiança que depositamos nos profissionais. Com tantas pessoas já consultando IA para suas necessidades de saúde e empresas como a OpenAI já enfrentando uma série de ações judiciais, não é segredo por que executivos como Altman querem manter as conversas do chatbot longe dos olhares indiscretos de advogados e juízes.
As informações contidas neste artigo são apenas para fins educacionais e informativos e não constituem aconselhamento médico ou de saúde. Consulte sempre um médico ou outro profissional de saúde qualificado caso tenha alguma dúvida sobre uma condição médica ou objetivos de saúde.
Divulgação: A empresa controladora do Mashable, Ziff Davis, já entrou com uma ação judicial contra a OpenAI por supostamente violar os direitos autorais de Ziff Davis no treinamento e operação de sistemas de IA.



