• Terça-feira, 4 de novembro de 2025

ChatGPT vai parar de dar conselhos médicos? OpenAI desmente boato

Ferramenta segue respondendo normalmente os usuários sobre temas de saúde, direito, entre outros assuntos

Publicações recentes nas redes sociais espalharam a informação de que o , teria deixado de oferecer conselhos médicos e jurídicos. A empresa, no entanto, negou o boato e afirmou que não houve qualquer mudança no funcionamento da ferramenta. A confusão surgiu após internautas interpretarem de forma incorreta uma atualização nas políticas de uso da OpenAI, publicada na última quarta-feira (29/10). Leia também A nova versão do documento lista uma série de usos proibidos da inteligência artificial, entre eles o , como aconselhamento jurídico ou médico, sem o envolvimento adequado de um profissional licenciado”. De acordo com o documento publicado pela OpenAI, essa regra não é nova — ela já constava nas políticas anteriores, divulgadas em janeiro deste ano — e serve apenas para reforçar que o ChatGPT não deve ser utilizado como substituto de um profissional habilitado, mas sim como um recurso de apoio à compreensão de informações complexas. O esclarecimento foi feito por, em uma publicação na rede social X. Ele escreveu: “Não é verdade. Apesar das especulações, esta não é uma mudança recente em nossos termos. O comportamento do modelo permanece inalterado. O ChatGPT nunca substituiu o aconselhamento profissional, mas continuará sendo um excelente recurso para ajudar as pessoas a compreenderem informações jurídicas e de saúde”. Not true. Despite speculation, this is not a new change to our terms. Model behavior remains unchanged. ChatGPT has never been a substitute for professional advice, but it will continue to be a great resource to help people understand legal and health information. — Karan Singhal (@thekaransinghal)   Para o oncologista Rafael Botan, especialista em inteligência artificial,  a ferramenta pode ser útil como apoio educacional, desde que o usuário saiba interpretar corretamente suas respostas. “Na prática clínica, vejo o ChatGPT como um suporte interessante, ajudando o paciente a compreender termos médicos, exames e condutas gerais. Mas é essencial lembrar que Ela tem valor como recurso complementar, mas não substitui o julgamento individualizado de um profissional”, considera. Segundo Botan, os melhores usos da inteligência artificial por pacientes são em situações pontuais — como entender sintomas inespecíficos, termos técnicos ou quando buscar atendimento. Mas, o risco está em o paciente interpretar uma resposta genérica como um diagnóstico. “A IA pode parecer convincente, mas carece de contexto clínico e histórico. Quando erra, erra muito convincentemente, e isso é perigoso”, alerta o médico. Para ele, , mas reforça que a ferramenta oferece informação, não orientação médica. E que a diferença está no vínculo: a orientação profissional e o cuidado humano. O especialista em comunicação digital Gabriel Goerhing acrescenta que o caso evidencia a importância da educação digital e da transparência no uso dessas ferramentas. “Quando uma empresa como a OpenAI reconhece seus limites, ela demonstra responsabilidade e compromisso ético. , não como substituto de especialistas humanos”, afirma. Até a publicação desta reportagem, a OpenAI continua respondendo normalmente aos usuários sobre questões médicas e jurídicas e reforça na sua última atualização que não é uma plataforma de diagnósticos ou consultoria profissional. Siga a editoria de e fique por dentro de tudo sobre o assunto!
Por: Metrópoles

Artigos Relacionados: