Olá a todos!
Perguntam-me muitas vezes: ó Nuno, com LLM’s públicos tão poderosos, porque é que teimas em ter LLM’s selfhosted? A gastar energia, recursos e tempo?
O post extra desta semana é precisamente sobre isso: Um caso judicial que está a passar despercebido pode ter implicações devastadoras para qualquer empresa que utilize APIs de inteligência artificial. A OpenAI está agora obrigada por ordem judicial a preservar todos os registos de conversas do ChatGPT, incluindo chats eliminados e interações através da API – uma decisão que quebra anos de compromissos de privacidade e cria um precedente jurídico extremamente preocupante.
A ordem judicial de 13 de maio de 2025, emitida pela juíza Ona Wang, surgiu no contexto de um processo por violação de direitos de autor movido pelo New York Times e outras organizações noticiosas contra a OpenAI. A preocupação era de que utilizadores pudessem estar a usar o ChatGPT para contornar paywalls e depois eliminar os registos das conversas para “cobrir os rastos”.
A ordem obriga a OpenAI a “preservar e segregar todos os dados de registo de saída que de outra forma seriam eliminados”, afetando não apenas utilizadores diretos do ChatGPT, mas também todas as empresas que utilizam a API da OpenAI.
O Risco Empresarial Oculto
O aspeto mais alarmante desta situação é que mesmo empresas que apenas utilizam a API da OpenAI estão agora expostas. Isto significa que:
- Dados sensíveis empresariais enviados através da API estão a ser preservados indefinidamente
- Informações confidenciais de clientes, estratégias de negócio e código proprietário podem estar a ser armazenadas sem consentimento
- Contratos de confidencialidade podem estar a ser violados involuntariamente
Como alertou um consultor no LinkedIn: “sejam extra cuidadosos ao partilhar dados sensíveis com o ChatGPT ou através da API da OpenAI por agora – os vossos outputs podem eventualmente ser lidos por outros, mesmo que tenham optado por não partilhar dados de treino ou usado ‘chat temporário’!”
Violação de Promessas de Privacidade
A OpenAI argumenta que a ordem “continua a impedir a OpenAI de respeitar as decisões de privacidade dos seus utilizadores”. Anteriormente, a empresa permitia que os utilizadores:
- Eliminassem conversas específicas
- Utilizassem “Chats Temporários” que desapareciam após o fecho
- Solicitassem a eliminação completa das suas contas e histórico
Tudo isto foi suspenso. A empresa está agora “forçada a preservar o histórico de conversas mesmo quando os utilizadores ‘elegem não reter conversas particulares eliminando manualmente conversas específicas ou iniciando um ‘Chat Temporário'”.
Implicações Legais e Contratuais
Vários especialistas em tecnologia no LinkedIn sugeriram que a ordem criou “uma violação grave de contrato para todas as empresas que usam a OpenAI”. As empresas que garantiram aos seus clientes que os dados seriam eliminados ou não retidos podem agora estar em violação dos seus próprios acordos de privacidade.
Para empresas que utilizam APIs da OpenAI em:
- Sistemas de atendimento ao cliente
- Processamento de documentos confidenciais
- Análise de dados proprietários
- Desenvolvimento de produtos
O risco é imenso. Todos os dados estão agora sujeitos a potencial divulgação judicial, com “a privacidade de centenas de milhões de utilizadores do ChatGPT globalmente em risco todos os dias”.
Este caso estabelece um precedente onde tribunais podem forçar fornecedores de tecnologia a quebrar compromissos de privacidade com base em especulações. A OpenAI alega que “não há uma única peça de evidência a apoiar” as alegações de que utilizadores que violam direitos de autor são mais propensos a eliminar chats.
Recomendações Urgentes
A situação é grave. O que se pode fazer para mitigar estes riscos?
- Revejam imediatamente todos os contratos com fornecedores de AI
- Auditem que dados sensíveis foram enviados através de APIs
- Implemente políticas de não utilização de dados confidenciais em ferramentas de AI externas
- Considere soluções de AI auto-hospedadas para dados críticos e na duvida sobre qual caminho a tomar existem empresas que vos podem ajudar.
- Atualizem políticas de privacidade para refletir estes novos riscos
Este caso representa um momento de viragem na utilização empresarial de inteligência artificial. A lição é clara: quando se depende de serviços externos de AI, a empresa está sujeita não apenas às políticas do fornecedor, mas também às decisões judiciais que podem quebrar essas políticas sem aviso prévio.
A era da confiança cega nos fornecedores de AI – que nunca deveria ter existido – chegou ao fim. As empresas precisam agora de assumir que qualquer dado enviado para serviços externos pode ser preservado indefinidamente e potencialmente divulgado em processos judiciais – independentemente das garantias de privacidade iniciais.
Até ao próximo post.
Nuno