Conduit: OpenWebUI Client – A native client for your own private IA – even for iOS.

Olá a todos,

Como já sabem, ando sempre à procura de soluções que nos devolvam o controlo sobre os nossos dados e que tornem o self-hosting ou o hosting fora de hyperscalers uma realidade prática, não apenas um ideal teórico. Hoje venho partilhar convosco uma aplicação que descobri recentemente que é muito importante para quem tem LLMs self-hosted: o Conduit, um cliente iOS nativo para Open WebUI que finalmente colmata a lacuna que existia no ecossistema Apple.
Para quem já segue o blog há algum tempo, sabe que sou um defensor acérrimo de soluções self-hosted, especialmente quando se trata de IA. Já falámos do Cline com LM Studio, do Qwen3 Coder, e de como o self-hosting nos protege de decisões unilaterais de empresas como a Anthropic com o Claude. Mas havia sempre um problema prático: o iOS Client. Temos webui, temos API, mas faltava o cliente nativo que estamos habituados de outros fornecedores.

O Problema que Todos Sentem

Vamos ser honestos: quem usa iPhone/iPad e tem um setup de LLM self-hosted com Ollama ou Open WebUI sabe o quão frustrante é a experiência móvel. Sim, podemos aceder via browser, mas não é a mesma coisa. Não é fluido, não é nativo, e certamente não é a experiência que esperamos num dispositivo de mil euros.
O iOS em termos de cliente sempre foi o calcanhar de Aquiles do self-hosting de IA. Enquanto que no desktop temos LM Studio, Ollama com interfaces gráficas elegantes, e no Android temos alguma flexibilidade, o iOS ficou para trás, muito por culpa da Apple e dos custos que impõe a developers para a plataforma. A Apple tem o jardim murado mais bem guardado da indústria tech, e isso significa que simplesmente não podemos instalar o que queremos, como queremos.
Esta limitação não é um bug – é uma feature do modelo de negócio da Apple. Eles querem que usemos os seus serviços, paguemos as suas subscrições, e depositemos os nossos dados nos seus servidores. Mas para quem valoriza privacidade e controlo, isto é inaceitável.

Enter Conduit: A Solução Que Faltava

O Conduit é exatamente o que o nome sugere: um conduíte, uma ponte entre o nosso iPhone e o nosso LLM self-hosted. É um cliente iOS nativo para Open WebUI, disponível na App Store, que transforma a forma como interagimos com os nossos modelos locais.
Mas vamos lá deixar uma coisa clara: não é apenas mais uma app que faz um wrapper do browser. Estamos a falar de uma aplicação nativa, desenhada especificamente para iOS, que tira partido das capacidades do sistema operativo da Apple de forma inteligente. Paga, mas que vale os €4 euros q custa.

O Que Torna o Conduit Especial?

A primeira coisa que notamos é a experiência nativa. A app é fluida, responde como uma aplicação iOS deve responder, e integra-se perfeitamente com o sistema. Não há aquela sensação de “isto é uma web view mal disfarçada”. É iOS puro e duro.
Mas o verdadeiramente interessante é como o Conduit resolve o problema fundamental do self-hosting móvel: conectividade. Todos nós sabemos que os nossos LLMs correm na nossa rede local ou num servidor remoto que controlamos. O Conduit permite-nos configurar múltiplas instâncias de Open WebUI, alternar entre elas de forma simples, e manter as sessões sincronizadas.

A Arquitectura por Trás da Magia

Para quem gosta de entender como as coisas funcionam (e sei que somos muitos por aqui), o Conduit é essencialmente um cliente que consome a API do Open WebUI. Isto é crucial por várias razões.

Primeiro, significa que qualquer funcionalidade que o Open WebUI expõe através da sua API está potencialmente disponível no Conduit. Não estamos limitados a um subset de features – temos acesso ao poder completo do Open WebUI, mas com uma interface móvel pensada para o iOS.
Segundo, esta abordagem API-first garante que o Conduit não está a fazer coisas estranhas com os nossos dados. Tudo passa pela nossa instância de Open WebUI, que nós controlamos. Zero telemetria para terceiros, zero cloud processing não autorizado, zero surpresas desagradáveis.
Terceiro, e talvez mais importante, esta arquitectura significa que o Conduit beneficia automaticamente de melhorias no Open WebUI. Quando a equipa do Open WebUI adiciona suporte para um novo modelo ou uma nova feature, não precisamos de esperar por uma actualização da app – está lá, pronto a usar.

Self-Hosting de IA: Porque É Que Isto Importa Mais do Que Nunca

Já falámos disto no blog, mas vale a pena repetir: o panorama da IA está a mudar rapidamente, e nem sempre para melhor. Vimos recentemente a Anthropic a mudar os seus termos de serviço para permitir o uso dos nossos dados no treino de modelos. Vimos empresas a fechar APIs, a aumentar preços exponencialmente, e a implementar limitações arbitrárias.
Quando dependemos de serviços cloud para as nossas interações com IA, estamos à mercê das decisões corporativas. Um dia acordamos e descobrimos que aquele modelo que usávamos religiosamente agora custa o dobro. Ou que os nossos dados estão a ser usados de formas que nunca autorizámos. Ou que o serviço simplesmente deixou de existir porque a empresa pivotou para outra coisa.
Self-hosting resolve estes problemas. O nosso hardware, o nosso modelo, as nossas regras. Mas self-hosting sem mobilidade é self-hosting incompleto. É como ter um supercomputador no escritório mas não conseguir aceder-lhe quando estamos fora. O Conduit completa o puzzle.

A Experiência Prática: Como É Usar o Conduit no Dia-a-Dia

Vamos ao que interessa: como é que isto funciona na prática? Instalei o Conduit há algumas semanas e desde então tem sido o meu cliente principal para interagir com os meus LLMs locais quando estou fora do homelab.
A configuração inicial é surpreendentemente simples. Descarregamos a app da App Store, introduzimos o URL da nossa instância de Open WebUI (pode ser local se estivermos na mesma rede, ou remoto se tivermos configurado acesso externo via VPN ou reverse proxy), e fazemos login com as nossas credenciais. Pronto. Está feito.
A interface é lean & clean, moderna, e intuitiva. As conversas são organizadas de forma lógica, podemos alternar entre diferentes modelos (assumindo que temos múltiplos configurados no Open WebUI), e a experiência de chat é fluida. Não há lag perceptível, não há solavancos, não há aquela frustração de usar uma interface web não optimizada para mobile.
Uma das coisas que mais aprecio é o suporte para múltiplas instâncias. Tenho o meu servidor principal em casa com os modelos maiores, mas também tenho uma instância mais leve em servidores ocasionais de testes para quando preciso de algo rápido e não estou na rede doméstica. O Conduit permite-me alternar entre elas com dois toques. Esta flexibilidade é exactamente o que um utilizador power precisa.

Segurança e Privacidade: O Verdadeiro Valor Proposto

Aqui está a questão fundamental que muitas pessoas ignoram quando falam de IA: onde estão os seus dados? Quando usam ChatGPT, Claude, ou qualquer outro serviço cloud, os vossos prompts, as respostas, tudo está nos servidores deles. Podem ter políticas de privacidade bonitas, mas no fim do dia, os dados estão lá.
Com self-hosting via Conduit, isto muda completamente. Cada prompt que fazem, cada resposta que recebem, tudo fica no vosso hardware. Se estiverem a usar uma VPN para aceder ao vosso servidor doméstico, até o tráfego está encriptado end-to-end.
Esta não é apenas uma questão de paranóia ou de princípios abstractos. É uma questão prática para qualquer pessoa que trabalhe com informação sensível. Advogados a rever casos, médicos a consultar sobre diagnósticos, empresários a discutir estratégias – todas estas pessoas beneficiam massivamente de ter a garantia absoluta de que os seus dados nunca saem do seu controlo.
E não nos esqueçamos das implicações de compliance. GDPR, HIPAA, e inúmeras outras regulamentações tornam-se muito mais simples de gerir quando podemos garantir que os dados nunca saem da nossa infraestrutura. O Conduit torna isto possível mesmo em mobilidade.

A Questão do Acesso Remoto: VPN vs Reverse Proxy

Um aspecto técnico que vale a pena discutir é como configurar acesso ao nosso Open WebUI quando não estamos em casa. Há essencialmente duas abordagens: VPN ou reverse proxy com HTTPS.

A abordagem VPN é a mais segura mas requer algum setup. Precisamos de configurar um servidor VPN (WireGuard é a minha recomendação) na nossa rede doméstica, e depois o iPhone conecta-se via VPN quando queremos aceder ao Open WebUI. Esta abordagem significa que estamos efectivamente “dentro” da nossa rede doméstica, independentemente de onde estejamos fisicamente.
A alternativa é expor o Open WebUI à internet através de um reverse proxy com HTTPS (Nginx ou Caddy funcionam perfeitamente) e protegê-lo com autenticação forte. Esta abordagem é mais conveniente mas requer mais cuidado com segurança. Precisamos de garantir certificados SSL válidos, implementar rate limiting, e idealmente adicionar alguma forma de 2FA.
Pessoalmente, uso VPN. É mais trabalho inicial mas durmo melhor à noite sabendo que a minha instância de Open WebUI não está exposta directamente à internet. O Conduit funciona perfeitamente com ambas as abordagens, mas a decisão sobre qual usar deve ser baseada no vosso threat model e expertise técnico.

Performance: Sempre na Ordem do Dia

Vamos falar sobre o que realmente interessa a quem está a considerar esta solução: performance. Usar um LLM self-hosted remotamente é viável? A resposta curta é: depende.
Se tiverem um servidor decente com uma GPU dedicada (RTX 3090 ou superior, idealmente) e uma ligação de internet razoável (tanto no servidor como no móvel), a experiência é surpreendentemente boa. Com modelos como o Llama 3.1 8B ou Mistral 7B, as respostas chegam quase instantaneamente. Modelos maiores (70B+) são mais lentos, mas ainda assim usáveis.
A latência de rede é obviamente um factor. Se estiverem a aceder via VPN através de uma ligação 4G com sinal fraco, vão notar algum lag. Mas em WiFi decente ou com boa cobertura 5G, a experiência é muito próxima do local.
Um dado importante: o Conduit não faz streaming de tokens da mesma forma que a interface web. As respostas aparecem em chunks maiores. Para alguns isto pode ser menos satisfatório visualmente, mas na prática não afecta a usabilidade.

O Ecossistema Open WebUI: Mais do Que Apenas Chat

O que torna o Conduit verdadeiramente poderoso é que ele não é uma solução isolada – é uma porta de entrada para todo o ecossistema Open WebUI. E esse ecossistema é rico.
O Open WebUI suporta múltiplos backends: Ollama, llama.cpp, e até APIs de serviços comerciais se quiserem híbrido. Suporta function calling, RAG (Retrieval Augmented Generation), e tem um sistema de plugins cada vez mais robusto.
Isto significa que quando usam o Conduit, não estão apenas a fazer chat com um LLM. Podem integrar com as vossas bases de conhecimento, podem usar ferramentas customizadas, podem ter workflows complexos – tudo isto acessível nativamente no vosso iPhone.

Esta é a verdadeira promessa do self-hosting: não apenas controlo, mas também flexibilidade infinita. Querem treinar um adapter LoRA para um caso de uso específico? Podem. Querem integrar com o vosso sistema de documentação interno? Podem. Querem criar um assistente especializado para o vosso domínio? Podem. E tudo isto fica acessível através do Conduit.

Comparação com Alternativas: O Que Existe Lá Fora?

Honestamente? Não muito. O mercado de clientes iOS nativos para LLMs self-hosted é praticamente inexistente. Há algumas apps que tentam fazer coisas similares, mas ou são wrappers glorificados de browsers, ou têm limitações severas, ou simplesmente não são mantidas.
Existem soluções como correr modelos directamente no iPhone usando Core ML, mas estamos a falar de modelos muito pequenos e com capacidades limitadas. Não é comparável a ter acesso aos vossos modelos maiores rodando em hardware dedicado.
Portanto, na prática, o Conduit não tem competição real. É literalmente a única solução viável para quem quer acesso móvel iOS nativo aos seus LLMs self-hosted através do Open WebUI. E isto não é hipérbole – procurei extensivamente e simplesmente não encontrei alternativas credíveis.

Limitações e Áreas de Melhoria

Nada é perfeito, e o Conduit não é excepção. Há algumas limitações que vale a pena mencionar.
A app ainda está em desenvolvimento activo, e isso nota-se. Algumas features do Open WebUI ainda não estão completamente implementadas no Conduit. Por exemplo, a gestão de documentos para RAG é básica comparada com a interface web. Algumas configurações avançadas também só estão disponíveis via web.
A sincronização entre dispositivos poderia ser melhor. Se tivermos uma conversa no Conduit e depois abrirmos no browser desktop, está lá, mas por vezes demora alguns segundos a actualizar. Não é um deal breaker, mas nota-se.
A interface, embora boa, poderia beneficiar de mais opções de personalização. Temas, tamanhos de fonte, organização de conversas – há margem para melhorias aqui.
Mas aqui está a coisa: estas são limitações de uma aplicação jovem em desenvolvimento activo. O ritmo de updates é bom, e a direcção é claramente positiva. Estou confiante que muitas destas limitações serão resolvidas com o tempo.

O Contexto Maior: Self-Hosting Como Resistência

Temos que falar sobre o elefante na sala: o self-hosting de IA não é apenas uma escolha técnica. É uma declaração política. É uma recusa em aceitar o futuro que as big tech querem impor-nos.
Eles querem-nos dependentes dos seus serviços, pagando subscrições mensais ad eternum, com os nossos dados a alimentar os seus modelos que depois nos vendem de volta. O self-hosting quebra este ciclo.
Com ferramentas como o Conduit, estamos a provar que é possível ter o bolo e comê-lo também. Podemos ter a conveniência de acesso móvel sem sacrificar controlo. Podemos ter capacidades de IA de ponta sem entregar os nossos dados.
Isto é importante porque estamos num ponto de inflexão. Nos próximos anos, a IA vai tornar-se cada vez mais central às nossas vidas profissionais e pessoais. Se não criarmos alternativas self-hosted viáveis agora, vamos acordar num futuro onde toda a IA é controlada por meia dúzia de empresas.

Casos de Uso Práticos: Onde o Conduit Brilha

Deixem-me partilhar alguns cenários reais onde o Conduit tem sido indispensável para mim.
Como no fundo faço consultadoria a vários niveis, frequentemente preciso de assistência com código ou arquitectura quando estou em reuniões com clientes. Anteriormente, ou tinha que usar ChatGPT (e preocupar-me com o que a OpenAI faria com potencialmente informação sensível), ou esperar até estar de volta ao homelab. Com o Conduit, posso rapidamente consultar o meu LLM local mesmo estando na sala de reuniões.
Para escrita e brainstorming, ter acesso móvel tem sido transformador. Posso trabalhar em snippets de codigo, documentação técnica, ou propostas comerciais em qualquer lugar, usando o meu modelo fine-tuned que conhece o meu estilo e domínio.
Para aprendizagem, é fantástico poder fazer perguntas técnicas complexas enquanto leio documentação ou tutoriais no iPad, sem ter que alternar constantemente entre dispositivos ou preocupar-me com limitações de API calls.

Setup Recomendado: Como Maximizar o Potencial

Para quem está a considerar implementar esta solução, aqui vai a minha recomendação de setup ideal.
No servidor, tenham no mínimo uma RTX 3090 ou equivalente. Isto permite-vos correr modelos de 13B confortavelmente, e até alguns 30B com quantização. Para os verdadeiros entusiastas, uma RTX 4090 ou uma A100 transformam a experiência.
Em termos de modelos, recomendo ter pelo menos três configurados: um small (7-8B) para respostas rápidas, um medium (13-30B) para trabalho sério, e um especializado para o vosso domínio específico (pode ser um fine-tune ou um modelo com adapter LoRA).
Para rede, configurem WireGuard/openVPN se possível. É mais simples que IPsec, mais performante, e mais seguro. O overhead é mínimo e a peace of mind é máxima.

No Open WebUI, configurem pelo menos autenticação básica com passwords fortes. Idealmente, implementem OAuth com o vosso identity provider preferido. E activem logging – é sempre útil ter um audit trail 🙂

O Futuro: Para Onde Vamos a Partir Daqui?

O Conduit representa apenas o início do que é possível. Estamos a ver o nascimento de um ecossistema genuinamente open source de ferramentas de IA que respeitam a privacidade e autonomia do utilizador.
Nos próximos meses, espero ver mais features sendo adicionadas ao Conduit. Suporte para mais tipos de conteúdo (imagens, voz, potencialmente até video), melhor integração com iOS (Shortcuts, widgets, Siri), e optimizações de performance.
Mais importante, espero ver mais desenvolvedores a criar ferramentas que complementem esta visão. Clientes para outras plataformas, ferramentas de gestão de modelos, sistemas de orquestração mais sofisticados – o céu é o limite.
E aqui está a beleza do open source: qualquer um de nós pode contribuir para este futuro. O Conduit, sendo open source, aceita contribuições. O Open WebUI também. Se tiverem competências de desenvolvimento, podem literalmente moldar o futuro destas ferramentas.

E chegamos a fim de mais um post. Neste vimos como o Conduit não é apenas mais uma app. É a validação de que o self-hosting de IA pode ser tão conveniente quanto os serviços cloud, sem nenhum dos compromissos.
Para quem já tem uma instância de Open WebUI em execução, o Conduit é absolutamente essencial. Transforma o vosso setup de algo que usam apenas no desktop para algo que está sempre disponível, sempre acessível, sempre privado.
Para quem ainda não tem um setup self-hosted mas está a considerar, o Conduit deveria ser o empurrão final que precisavam. Prova que não têm que escolher entre conveniência e controlo. Podem ter ambos.
O futuro da IA é local. É privado. É controlado pelo utilizador. E com ferramentas como o Conduit, esse futuro está mais próximo do que pensam.

Experimentem. Instalem. Configurem. E depois digam-me se não concordam que isto muda completamente o jogo do self-hosting de IA.
Até ao próximo post, e como sempre, se notarem algo que possa ser melhorado ou queiram partilhar as vossas experiências com o Conduit, já sabem onde me encontrar.

Abraço, Nuno

PS – Para referencia os repositórios e binários estão aqui:

iOSApp Store Link
Android
Google Play Link
Source & BuildsGitHub Repo (FOSS forever—stars and PRs welcome!)