Entre o mito e a verdade: o que a polêmica sobre o ChatGPT revela sobre o futuro da IA na saúde

  • Por Gabriela Mialich
  • @gabmialich
  • 05 novembro, 2025
  • 7 min de leitura
ChatGPT/ Imagem Dima Solomin from Unsplash
Nos últimos dias, circulou com força nas redes sociais e em alguns portais de notícia a afirmação de que o ChatGPT deixaria de dar orientações médicas, jurídicas e financeiras. O texto sugeria que a OpenAI teria imposto uma espécie de “banimento” desses usos, fazendo com que a ferramenta só pudesse atuar como recurso educacional, e que os usuários precisariam obrigatoriamente recorrer a profissionais humanos para qualquer tipo de auxílio especializado.
Em um país como o Brasil, onde plataformas de inteligência artificial são cada vez mais acessadas para “tirar dúvidas de saúde”, o impacto dessa notícia foi grande e gerou confusão, preocupação e muitos questionamentos.
Vejamos primeiro os fatos confirmados, e depois o que realmente se aplica ao ChatGPT.
O que a OpenAI realmente comunicou
A OpenAI atualizou em 29 de outubro de 2025 o seu conjunto de políticas de uso consolidadas em uma única lista universal que reforçam diretrizes já existentes sobre áreas de risco, como saúde, direito e finanças.
No comunicado oficial, o chefe de IA para saúde da OpenAI, Karan Singhal, afirmou que “o comportamento do ChatGPT permanece inalterado”.
Em resumo: a ferramenta não foi bloqueada de responder perguntas relacionadas à saúde ou direito, o que ela nunca faz é substituir o aconselhamento profissional licenciado.
O que motivou os rumores
Os rumores ganharam tração provavelmente por causa de um mal-entendido provocado por publicações e posts virais que interpretaram de modo extremo a frase nas políticas:
“Fornecimento de aconselhamento personalizado que requer uma licença, como aconselhamento jurídico ou médico, sem o envolvimento apropriado de um profissional licenciado” Essa redação, apesar de já existente, acabou sendo apresentada como “novo bloqueio” e gerou manchetes como “ChatGPT proibido de dar conselhos médicos”. Vale acrescentar que estudos independentes já apontavam que modelos de linguagem como o ChatGPT ofereciam respostas inadequadas e inseguras em contextos médicos. Por exemplo, uma investigação recente encontrou taxas de respostas “problemáticas” que variavam entre 21 % a 43 % dependendo do modelo.
ChatGPT / Imagem Emiliano Vittoriosi from Unsplash
O que os usuários devem entender
A situação exige clareza e equilíbrio:
Sim, o ChatGPT ainda pode responder perguntas relacionadas à saúde, discutir sintomas, explicar conceitos médicos ou jurídicos, orientar sobre o que procurar, sugerir “perguntas para levar ao médico”, e assim por diante.
Não, ele não substitui um profissional de saúde, advogado ou consultor financeiro, e não deve emitir diagnósticos, indicar tratamento, prescrever medicamentos ou tomar decisões críticas. Esse era o cenário antes da atualização e continua assim.
A atualização de política serve para deixar mais explícito o que já era prática recomendada e para mitigar riscos legais, de uso indevido ou de má interpretação.
Em outras palavras, o boato de que o ChatGPT “vai parar de dar conselhos médicos” é na melhor das hipóteses, impreciso e na pior, falso e trata-se de uma leitura exagerada da mudança normativa. Essa leitura exagerada ganhou força em portais que divulgaram afirmações como “ChatGPT não poderá mais fornecer orientação médica ou jurídica” sem nuance.
Por que isso importa agora? O panorama brasileiro e os riscos de uso indevido
O Brasil figura entre os países que mais utilizam o ChatGPT no mundo, um dado que reforça a relevância desse debate em nosso contexto. Em meio a esse uso crescente, surgem algumas dinâmicas que é importante destacar:
A primeira delas é que, na prática cotidiana, usuários têm recorrido às IAs para tirar dúvidas de saúde o que, por si só, não é necessariamente problemático. O uso para esclarecimentos gerais ou para apoio à decisão preliminar pode trazer benefícios. Porém, especialistas alertam que confiar exclusivamente na IA para decisões de saúde ou bem-estar pode agravar quadros clínicos, atrasar diagnósticos ou gerar falsa sensação de segurança.
A segunda é que a percepção dos usuários sobre os limites da tecnologia muitas vezes não acompanha a realidade técnica: há quem imagine que “médico artificial” está ao alcance imediato ou que “se a IA disse, tá certo”. Esse hiato entre expectativa e uso real representa risco.
E a terceira: o Brasil enfrenta desafios estruturais na saúde, filas no Sistema Único de Saúde (SUS), desigualdades regionais, dificuldade de acesso em algumas localidades. Nesse cenário, a ideia de “um primeiro cuidado digital” ganha apelo, mas exige clareza, governança e transparência para não virar falsa solução.
E onde entra a iniciativa brasileira “Primeiro Cuidado” nessa situação?
Dentro desse contexto, chama a atenção a iniciativa da healthtech brasileira Primeiro Cuidado AI, criada pela Laborit em parceria com a Haigen AI, com o propósito de utilizar inteligência artificial para ampliar o acesso à saúde de forma preventiva, acessível e humana.
A proposta principal do Primeiro Cuidado não é substituir o médico, mas fortalecer a porta de entrada do cuidado em saúde, ou seja, oferecer orientação, tirar dúvidas e ajudar no acompanhamento antes que o problema se torne crítico.
Entre os pontos destacados pela plataforma estão:
Atuar 24 horas por dia, com tecnologia de IA generativa aliada a protocolos clínicos auditados;
Auxiliar pessoas que ainda não acessaram, ou demorariam a acessar, um profissional por barreiras de acesso físico, geográfico ou econômico lembrando que a empresa aponta que 72 milhões de brasileiros não estão cobertos pelo programa de atenção básica do SUS;
Trabalhar com base em dados da realidade brasileira, com foco em prevenção, engajamento contínuo e acompanhamento ou seja, mais “antes da consulta” do que “em lugar da consulta”;
Garantir que não se trata de um sistema de diagnóstico automatizado, mas sim de acolhimento, escuta e antecipação.
Outro diferencial fundamental é a base de dados que sustenta o modelo de inteligência artificial desenvolvido pela Haigen AI. O sistema do Primeiro Cuidado é alimentado por informações provenientes de fontes seguras e verificadas, incluindo dados do próprio Sistema Único de Saúde (SUS) e outros bancos de dados confiáveis da área médica, o que assegura respostas mais contextualizadas, realistas e alinhadas à realidade brasileira.
Essa iniciativa ganha ainda mais relevância justamente no momento em que o debate sobre o uso da IA em saúde se intensifica: o Primeiro Cuidado mostra que é possível adotar uma abordagem responsável e nacional, que utiliza a IA como extensão e complemento, e não como substituto, do cuidado profissional.
Por isso, ao analisar o boato sobre a OpenAI e o papel do ChatGPT, vale enxergar também este contraponto: não basta limitar o uso da IA em saúde é preciso ampliar o debate sobre quem, quando, como e com quais garantias essa tecnologia pode e deve atuar.
IA de saúde desenvolvida no Brasil pela Laborit & Haigen AI
Conclusão: Fatos, mitos e reflexões para o futuro da IA em saúde
Voltando ao ponto de partida: o boato de que o ChatGPT deixará de dar conselhos médicos ou jurídicos é, segundo as declarações da OpenAI, infundado em termos absolutos. A ferramenta permanece disponível para consultas gerais e explicativas, porém com a ressalva de que não substitui profissionais habilitados. A mudança recente nas diretrizes é mais de formalização do que de restrição radical.
Contudo, o episódio serve como um alerta para os usuários: a adoção de IA em áreas sensíveis (como saúde) exige consciência, educação e autocuidado. Saber o que a ferramenta pode (e não pode) fazer é parte desse caminho.
Nesse sentido, iniciativas como a Primeiro Cuidado demonstram que existe espaço para modelos de IA que acompanham e potencializam o sistema de saúde tradicional, especialmente em países como o Brasil, onde os desafios de acesso ainda são grandes. A inteligência artificial não é panaceia mas, se bem aplicada, pode antecipar problemas, envolver pessoas no seu próprio cuidado e reduzir barreiras.
Para o futuro, a combinação de regulação adequada, transparência dos modelos, educação do usuário e parcerias entre tecnologia e profissionais de saúde será essencial. O debate sobre IA em saúde não é simplesmente sobre “posso ou não posso”, mas sobre “como fazemos para que funcione com segurança, equidade e confiança”.

Inscreva-se para a inovação

Receba as últimas notícias sobre inovação direto na sua caixa de e-mail.
Seus dados estão protegidos conosco. Conheça nossaPolítica de Privacidade
Feito por humanos comem SP, Brasil © 2021 Techpost, Techpost Logo e Laborit Ltda e Laborit logo são marcas registradas.
Olá! Leu até aqui? Você se preocupa com os mínimos detalhes, mesmo. A gente também. Por isso o time Techpost/Laborit está sempre trabalhando para fazer a plataforma digital de trabalho perfeita para você ;).
O Techpost, a Laborit e Lab são marcas proprietárias que operam o site https://techpost.com.br, onde você pode encontrar informações sobre nossos produtos e serviços e as últimas novidades do mundo da tecnologia. Estes Termos e Condições do Site descrevem os direitos e obrigações de um usuário ou visitante não registrado do site (“usuário” ou “você”) em relação ao uso do Site.
Ao acessar ou usar o Site de qualquer forma, incluindo como um visitante não registrado, você concorda em obedecer a estes Termos do Site e à nossa Política de Privacidade, que está disponível no Site.
Estes Termos do site se aplicam apenas ao seu uso do site e do conteúdo nele disponibilizado ou por meio dele, como um usuário ou visitante não registrado do. Se você usar ou acessar qualquer um de nossos serviços baseados na web de acesso restrito (ou seja, aqueles que exigem um login), a nossa plataforma, produtos, programa de referência ou outros serviços que fornecemos, o uso de tal espaço, serviços ou programa está sujeito aos termos e condições que você recebeu e aceitou quando se inscreveu nesse espaço, serviços ou programa.
De vez em quando, podemos fazer modificações, exclusões ou acréscimos ao Site ou a estes Termos. Seu uso continuado do Site após a publicação de quaisquer alterações aos Termos constitui aceitação dessas alterações.
Coletamos informações sobre seus dispositivos e sua localização, e seu uso de nossos serviços, incluindo por meio de cookies, pixels, web beacons, registros e outras tecnologias da Internet.
Você pode ler mais sobre como utilizamos as Informações Pessoais que são coletadas clicando no link conheça nossa Política de Privacidade.
Referências a “você” nesta Política, “você” significa qualquer pessoa que use nossos sites, aplicativos ou outros serviços. Se você é um funcionário ou candidato, a Política de Privacidade do Techpost e da Laborit para Dados Pessoais de um funcionário ou um Candidato, explica como usamos as Informações Pessoais no contexto de nossa relação empregatícia com você.
Se você é um funcionário ou candidato que usa nossos serviços, esta Política explica como coletamos, usamos e divulgamos suas Informações Pessoais no contexto de seu uso de nossos Serviços.