Milhões de usuários têm recorrido ao ChatGPT para desabafar questões íntimas, mas o CEO da OpenAI, Sam Altman, adverte que essas interações não contam com a mesma proteção legal oferecida por médicos, psicólogos ou advogados. A ausência de sigilo profissional pode permitir que autoridades solicitem o histórico completo das conversas mantidas com o chatbot.
Alerta público do CEO da OpenAI
Durante participação no podcast “This Past Weekend with Theo Von”, Altman afirmou que a legislação atual sobre inteligência artificial não estabelece garantias de confidencialidade equivalentes às previstas em serviços de saúde ou assessoria jurídica. Segundo ele, a Justiça pode exigir que a OpenAI entregue registros sempre que houver determinação judicial, expondo dados sensíveis fornecidos pelos usuários.
Altman defende a criação de uma estrutura legal específica para proteger informações trocadas com sistemas de IA. Na opinião do executivo, sem regras claras, a adoção da tecnologia fica limitada, sobretudo em áreas que envolvem saúde mental. “Deveríamos ter o mesmo conceito de privacidade para suas conversas com a IA que temos com um terapeuta”, argumentou.
Uso massivo no Brasil
No Brasil, o hábito de buscar apoio emocional em chatbots já é expressivo. Levantamento da agência Talk Inc. estima que cerca de 12 milhões de brasileiros utilizam ferramentas de IA para fins terapêuticos, dos quais aproximadamente 6 milhões recorrem especificamente ao ChatGPT. A procura é motivada pela disponibilidade 24 horas e pela sensação de anonimato, fatores que podem reduzir o estigma associado à busca por ajuda psicológica.
Especialistas apontam, porém, que essa busca por conveniência esbarra na ausência de proteção de dados. Sem respaldo legal, as informações compartilhadas ficam vulneráveis a eventuais solicitações judiciais ou a falhas de segurança.
Riscos psicológicos e comportamento do modelo
O debate sobre confidencialidade se soma a outras preocupações já levantadas pela OpenAI. A empresa admite o risco de usuários desenvolverem apego emocional às vozes ultrarrealistas introduzidas com o GPT-4o. Embora o recurso possa atenuar a solidão de alguns indivíduos, ele também pode comprometer a qualidade das relações humanas ao substituir interações sociais genuínas.


Camiseta Camisa Bolsonaro Presidente 2026 Pátria Brasil 6 X 10,00 S/JUROS


IMPERDÍVEL! Jair Bolsonaro: O fenômeno ignorado: Eles não entenderam nada





Imagem: Vitor Pádua via tecnoblog.net
Profissionais de saúde mental alertam que a atuação de chatbots tende a tratar problemas de forma superficial, focando em sintomas imediatos e ignorando causas profundas. Além disso, a abordagem excessivamente otimista — identificada pela própria OpenAI após atualizações recentes — pode levar o sistema a oferecer conselhos inadequados ou minimizar o sofrimento relatado.
Repercussões na indústria
A discussão sobre o uso terapêutico de IA ganhou força depois que um executivo da Microsoft sugeriu o Copilot para ajudar funcionários a lidar com demissões em massa. O episódio evidenciou a popularidade da tecnologia como suporte emocional, mas também expôs dúvidas sobre limites éticos e responsabilidades corporativas.
Enquanto empresas avançam na oferta de assistentes cada vez mais envolventes, cresce a cobrança por regulamentação que assegure privacidade e qualidade do atendimento. Para Altman, estabelecer proteção legal semelhante ao sigilo médico seria um passo essencial para tornar a inteligência artificial um recurso realmente confiável em questões pessoais.


