O chefe de inteligência artificial para a área da saúde da OpenAI, Karan Singhal, veio a público para desmentir a informação de que o ChatGPT teria deixado de oferecer conselhos nos âmbitos médico e jurídico.
O rumor começou a circular após uma atualização nas políticas do chatbot que, supostamente, o reclassificaria de “consultor” para apenas uma “ferramenta de educação”.
A Interpretação Errada da Política de Uso
A confusão que deu origem à interpretação de restrição surgiu a partir de uma atualização divulgada nas Políticas de Uso da OpenAI em outubro. Nela, constava na lista de usos proibidos o “fornecimento de aconselhamento personalizado que requer uma licença, como aconselhamento jurídico ou médico, sem o envolvimento adequado de um profissional licenciado”.
Entretanto, Singhal esclareceu que essa regra não é nova, tendo sido adicionada à lista em janeiro deste ano. O objetivo da norma é impedir que usuários usem o chatbot para dar aconselhamento jurídico ou médico sem a necessária revisão e acompanhamento de um profissional devidamente habilitado.
Executivo Reforça a Posição da Empresa
Em seu perfil na plataforma X (antigo Twitter), Karan Singhal reforçou que a política em questão não é recente e que os termos de uso do ChatGPT permanecem inalterados.
Ele sublinhou que, embora o chatbot não substitua o aconselhamento profissional, ele funciona como “um excelente recurso para ajudar as pessoas a compreenderem informações jurídicas e de saúde”.
O Caso da Terapia com Auxílio da IA e Seus Riscos
O uso da IA em contextos sensíveis levanta questões. O site MIT Technology Review relatou um caso notável em que um terapeuta utilizava o ChatGPT para analisar o que seu paciente dizia e, em seguida, resumia as respostas geradas pela ferramenta.
Apesar de poder gerar desconfiança ética, o MIT aponta que estudos indicam um potencial papel positivo da IA na psicoterapia. Contudo, esse benefício parece estar condicionado ao desconhecimento do paciente sobre a interação com a inteligência artificial.
Um estudo realizado em 2025 mostrou que as respostas terapêuticas do ChatGPT podem ser avaliadas como melhores do que as humanas, mas recebem notas significativamente menores quando o paciente é informado de que está interagindo com uma IA. Da mesma forma, uma pesquisa da Universidade Cornell demonstrou que mensagens criadas por IA aumentam “sentimentos de proximidade e cooperação”, mas somente se a origem da mensagem for mantida em segredo.