Vamos falar de liderança na época da AI?

Vamos falar de liderança na época da IA?

Olá a todos!

Há uns dias apareceu-me na caixa de entrada um artigo da CEOWORLD Magazine. O autor é o Kai Riemer, professor de TI e Organização na Universidade de Sydney. O título: “Five truths about AI that leaders need to know.”
Deixem-me ser honesto: li com um sorriso torto. Não porque o artigo seja mau — é bom, aliás — mas porque em 2026 ainda precisamos de alguém com letras atrás do nome a dizer coisas que muitos de nós andamos a repetir, cansados, há meses. Em calls, em Slack, em conversas de corredor que terminam sempre com alguém a dizer “sim mas a gestão não quer saber.”
Peguei nos cinco pontos do Riemer e decidi escrever sobre eles à minha maneira. Sem o verniz das conferências de tecnologia. Sem os slides bonitos. Com as minhas opiniões, os meus exemplos, e provavelmente uma ou duas opiniões que vão incomodar algumas pessoas.


A analogia do carro e da frota

O Riemer abre bem: saber conduzir um carro não é a mesma coisa que perceber como ele funciona, e muito menos gerir uma frota. Aplicado à tecnologia — e à IA em particular — o argumento é sólido. Um trabalhador competente no digital precisa de capacidade de reflexão. De recuar, pensar, e tomar decisões conscientes. Caso contrário, é só mais um utilizador a fazer scroll.
Concordo. Mas o problema vai além da falta de reflexão. É falta de curiosidade fundamental.
A maioria das pessoas que conheço e que usam ChatGPT, Copilot, ou qualquer chatbot, nunca se fizeram uma pergunta simples: “Mas como é que isto funciona a sério?” Não precisam de dominar atenção multi-cabeça ou de saber derivar um gradiente. Mas deviam perceber, pelo menos, que aquilo não é magia. Não é uma base de dados sofisticada. Não é um ser pensante escondido algures num servidor em Dublin.
É um modelo estatístico que gera texto com base em padrões aprendidos. Isso é tudo.
Enquanto não interiorizarem isto, vão continuar a tratar o modelo como um oráculo — e depois ficam chocados quando o oráculo inventa referências bibliográficas que nunca existiram.

Verdade 1: A IA não é um colega

Talvez o ponto mais importante. E o mais ignorado.

Existe uma tendência profunda e persistente para antropomorfizar estes sistemas. O chatbot responde com frases articuladas, faz perguntas de seguimento, parece entender o contexto — e o nosso cérebro faz o que sempre fez: projeta intenção, memória, personalidade.
Só que não há nada disso.
Um modelo de linguagem, depois de treinado, é estático. Não aprende com as nossas conversas. Não evolui com o feedback que lhe damos dentro de uma sessão. Não se pode “desenvolver” como se desenvolve um colaborador. Se as respostas são fracas, a solução não é fazer uma reunião de feedback — é mudar os prompts, dar mais contexto, ou mudar de modelo.
O ponto que o Riemer destaca e que acho mais importante: a IA é probabilística. As respostas são previsões estatísticas. Muitas vezes certas, às vezes erradas, mas sempre ditas com uma convicção inabalável.
E aí é que está a armadilha. Um colega humano que não sabe a resposta diz “não tenho a certeza, deixa-me verificar.” Um chatbot não. Um chatbot inventa com a mesma confiança com que acerta. E o output soa sempre bem.

Por isso o meu conselho padrão a quem me pede opinião sobre usar IA no trabalho: trata o output como primeiro rascunho. Sempre. Verifica o que importa. Desconfia por defeito, especialmente quando parece demasiado bem estruturado para ser verdade.

Verdade 2: Pensamento crítico e IA crescem juntos

O medo mais comum é que a IA vai destruir a criatividade. O Riemer defende o oposto — e na minha experiencia tem razão.

Criatividade, experiência, pensamento crítico tornam-nos melhores a trabalhar com estas ferramentas. Não piores. O output que obtenho de um LLM é directamente proporcional à qualidade do que coloco como input. Se não sei formular o problema, o modelo também não sabe. Se não tenho critérios para avaliar o que recebo, aceito mediocridade sem perceber.
A comparação que ele faz é boa: trabalhar com IA é como delegar. Se delegas sem contexto, sem objectivos, sem critérios de qualidade — recebes trabalho raso. Exactamente o mesmo acontece com um LLM, com a diferença que um colega humano pode pedir esclarecimentos. O modelo preenche os espaços em branco com o que achar mais provável.
Outro ponto que bate fundo: profissionais experientes tendem a tirar mais partido destas ferramentas do que juniores. Não porque sejam mais “tech savvy” — são simplesmente melhores a avaliar qualidade. Um sénior olha para um texto gerado e vê o que está 70% certo e o que precisa de ser ajustado. Um júnior pode aceitar o mesmo texto como perfeito, porque ainda não tem a referência para saber o que está errado.

A ideia de que os “nativos digitais” vão resolver isto todos sozinhos é uma fantasia. As competências que importam aqui não são competências de IA. São competências de mundo.

Verdade 3: A IA vem atrás das tarefas, não do emprego

A narrativa que vende mais manchetes continua a ser “a IA vai destruir X milhões de empregos.” E sim, alguns empregos vão desaparecer — já estão a desaparecer. Mas para a maioria das pessoas em ambientes de conhecimento, o que vai mudar é a composição do trabalho, não o trabalho em si.
Vamos escrever menos e rever mais. Gerar menos rascunhos do zero e passar mais tempo a curar, a refinar, a decidir o que fica e o que sai. E vamos precisar — cada vez mais — de discernimento. De conseguir distinguir entre um bom output e um output que apenas parece bom.
O Riemer coloca uma questão que acho particularmente incómoda: se a IA consegue fazer certas tarefas rotineiras, deviam essas tarefas sequer existir? É uma pergunta legítima. Quantos relatórios são escritos todos os dias que ninguém lê? Quantas apresentações existem por obrigação de processo, não por valor real?

Aqui, a IA pode ser a desculpa que muitas organizações precisavam para repensar não só como trabalham — mas a própria estrutura do trabalho. No contexto português, onde a burocracia tem raízes profundas, isto podia ser uma oportunidade extraordinária. Mas para isso, os líderes precisam de duas coisas: coragem para questionar o status quo, e honestidade para admitir que muito do que se faz é trabalho pelo trabalho.

Verdade 4: Os fundamentos da IA têm 40 anos

Este é o ponto que mais surpreende, mas é absolutamente verdadeiro.

O conceito de aprendizagem por padrões e predição estatística remonta aos anos 1950. Os primeiros sistemas práticos apareceram nos anos 1980. O que mudou desde então foi a escala: mais dados, mais poder computacional, arquitecturas mais sofisticadas, produtos mais polidos. Mas os fundamentos são os mesmos.
Isto é importante por duas razões. Primeiro, desmistifica a ideia de que estamos perante algo completamente novo e incompreensível. Não estamos. Segundo, mostra que é possível ensinar e aprender estes conceitos. Não é teoria de foguetões.
A maior oportunidade que vejo neste momento não é na construção de modelos — é na literacia. Não precisamos de formar toda a gente em deep learning. Mas podemos dar a qualquer pessoa uma compreensão básica de como funciona um modelo de linguagem. O que é um token. Porque é que o modelo alucina. O que significa, de facto, que o modelo foi “treinado.” Não é ciência de elite — é literacia básica para trabalhar com estas ferramentas de forma responsável.

Verdade 5: Saber fazer prompts não é uma carreira

Esta é a verdade mais impopular do artigo, e a mais necessária.

Alguém cuja única competência diferenciadora é saber usar um chatbot não acrescenta valor nenhum a um empregador — porque o empregador pode usar o chatbot directamente. O intermediário que só sabe carrear texto para uma caixa e aceitar o resultado sem pensar é, efectivamente, desnecessário.
O Riemer usa o termo “vibe working” — trabalhar à base de vibes, de sensações, aceitando outputs sem questionar, sem acrescentar perspectiva própria. É uma descrição justa do que vejo cada vez mais: pessoas que delegaram o pensamento para um modelo. Que produzem mais volume, mas menos substância.
A resposta não é proibir a IA — isso é inútil e contraproducente. É garantir que as pessoas continuam a desenvolver pensamento próprio, independentemente das ferramentas que usam. Na universidade, isso significa avaliações onde a IA simplesmente não pode substituir o raciocínio. No trabalho, significa culturas que valorizam julgamento e discernimento, não apenas velocidade de produção.

O futuro que eu quero ver — e que acredito que vem aí

O Riemer termina com um olhar para 2030, prudente e realista. O meu é mais optimista — deliberadamente.

Porque aqui está o que eu acredito, depois de anos a trabalhar neste espaço: a IA não é o fim do trabalho humano. É o começo de algo que ainda não temos palavras certas para descrever.
Estamos na fase em que toda a gente discute o que a IA não pode fazer, ou o que pode fazer de forma imprecisa. É uma discussão válida e necessária. Mas há outra conversa — mais interessante, mais honesta — sobre o que acontece quando estas ferramentas continuam a melhorar. E elas vão continuar.
Os modelos de 2024 fazem coisas que pareciam ficção científica em 2020. Os modelos de 2028 vão fazer coisas que hoje nos parecem igualmente impossíveis. Não por magia — por escala, por dados, por investimento, por tempo. O progresso neste campo não é linear, mas também não é ilusório.
O que me entusiasma genuinamente não é a IA a substituir pessoas. É a IA a remover as partes do trabalho que nunca deveriam ter consumido tempo humano — as tarefas repetitivas, mecânicas, sem margem para julgamento — e a devolver às pessoas espaço para o que somos realmente bons a fazer. Pensar em contexto. Navegar ambiguidade. Construir relações. Tomar decisões com informação incompleta.
A IA que vem aí vai ser uma parceira, não uma ameaça — mas apenas para quem decidir tratá-la como ferramenta e não como muleta. Para quem mantiver o pensamento crítico afiado. Para quem perceber que a inteligência artificial mais poderosa do mundo continua a precisar de uma boa pergunta para dar uma boa resposta.

E boas perguntas? Essas ainda são exclusivamente humanas.

Até ao post da próxima semana.
Abraço!
Nuno


O artigo original é “Five truths about AI that leaders need to know” por Kai Riemer, publicado na CEOWORLD Magazine a 6 de Março de 2026.