Claude.ai: Muda as Regras do Jogo: Os Vossos Dados Agora Servem Para Treinar IA

Olá a todos!

Perguntam-me sempre: “Nuno, porque é que fazes tanto barulho com o self-hosting quando temos o Claude, ChatGPT e outros serviços tão bons?”
Bem, a resposta chegou esta recentemente e diretamente da Anthropic. A empresa anunciou alterações significativas aos seus Termos de Serviço e Política de Privacidade do Claude.ai que devem servir de alerta vermelho para qualquer pessoa ou empresa que valorize a privacidade dos seus dados.

A Mudança Que Já Todos Esperavamos

A partir de agora, a Anthropic está a dar aos utilizadores a “escolha” de permitir que os seus dados sejam utilizados para melhorar o Claude e fortalecer as suas salvaguardas contra uso prejudicial. Reparem nas aspas em “escolha” – voltarei a isso.As alterações aplicam-se a utilizadores dos planos Claude Free, Pro e Max, incluindo quando utilizam Claude Code associado a essas contas.
Felizmente, ainda não se aplicam aos serviços sob Termos Comerciais, como Claude for Work, Claude Gov, Claude para Educação, ou uso de API através de terceiros como Amazon Bedrock e Google Cloud.

O Diabo Está Nos Detalhes

Aqui está o que realmente mudou e porque deve nos preocupar:

Retenção de Dados Estendida para 5 Anos

Se escolherem permitir que os vossos dados sejam utilizados para treinar modelos, a Anthropic agora mantém os vossos dados durante cinco anos – um salto gigantesco dos anteriores 30 dias. Isto aplica-se apenas a conversas novas ou retomadas, mas ainda assim representa uma mudança radical na filosofia de privacidade da empresa.

A “Escolha” Que Não é Bem Uma Escolha

Para utilizadores existentes, têm até 28 de setembro de 2025 para aceitar os novos termos e fazer a vossa decisão. Mas aqui está o truque: depois dessa data, precisam de fazer uma seleção sobre a configuração de treino de modelos para continuar a usar o Claude.

Por outras palavras: aceitem ou saiam.

O Problema da Confiança Retrospectiva

O aspeto mais preocupante é que estas alterações aplicam-se apenas a conversas “novas ou retomadas”. Mas o que acontece se retomarem uma conversa antiga? Toda essa conversa fica sujeita às novas regras.
A Anthropic assegura que usa “uma combinação de ferramentas e processos automatizados para filtrar ou ocultar dados sensíveis” e que “não vende dados dos utilizadores a terceiros”. Mas quantas vezes já ouvimos promessas similares de empresas tecnológicas?

Por Que Isto Importa Para As Empresas

Se a vossa empresa utiliza Claude para:

  • Análise de documentos confidenciais
  • Debugging de código proprietário
  • Brainstorming de estratégias de negócio
  • Interações com dados de clientes

Esses dados podem agora ser preservados por cinco anos e utilizados para treinar modelos futuros. Mesmo que acreditem na boa-fé da Anthropic em proteger informações sensíveis, estão a confiar a vossa propriedade intelectual a algoritmos de filtragem e processos automatizados.

O Padrão Preocupante da Indústria

Esta mudança da Anthropic segue um padrão que temos visto por toda a indústria de IA. As empresas começam com políticas de privacidade rigorosas para ganhar confiança, depois relaxam gradualmente essas políticas quando têm uma base de utilizadores estabelecida.
Sobretudo lembrem-se: os dados que partilham hoje podem ser utilizados de formas que nem imaginam daqui a cinco anos.
A definição de “uso prejudicial” pode mudar, os algoritmos de filtragem podem falhar, e as políticas empresariais podem evoluir de formas imprevistas.

Recomendações Práticas

Face a estas mudanças, aqui estão as minhas recomendações:

Para Utilizadores Individuais:

  • Revejam cuidadosamente que tipo de informação partilham com o Claude
  • Considerem desativar a opção de treino de modelos se valorizam a privacidade
  • Migrem conversas sensíveis para soluções auto-hospedadas/on-prem

Para Empresas:

  • Auditoria imediata de que dados foram partilhados através do Claude
  • Revisão de políticas internas sobre uso de ferramentas de IA externas
  • Consideração séria de soluções de IA auto-hospedadas para dados críticos
  • Atualização de políticas de privacidade para clientes se necessário

A Alternativa Existe

Como sempre defendo, a solução para este tipo de dilemas está no self-hosting. Com ferramentas como Ollama, LM Studio, ou soluções mais empresariais, podem ter modelos poderosos sem comprometer a vossa privacidade ou propriedade intelectual.
Sim, requer mais trabalho técnico inicial. Sim, consome recursos computacionais próprios. Mas pelo menos sabem exatamente onde estão os vossos dados e quem tem acesso aos mesmos.

A Anthropic apresenta esta mudança como uma evolução natural para melhorar os seus modelos. E tecnicamente, podem ter razão – modelos treinados com mais dados tendem a ser melhores.
Mas a questão fundamental permanece: vale a pena sacrificar cinco anos da vossa privacidade digital por conveniência?
A resposta, como sempre, depende do vosso apetite para risco e da importância que dão à vossa privacidade. Mas pelo menos agora sabem quais são as regras do jogo.

Até ao próximo post na quinta. Um abraço.
Nuno