Desde há algumas semanas estão a surgir e a se desenvolver rapidamente canais do YouTube que apresentam analistas internacionais conhecidos na forma de vídeos encarnados, longos, coerentes e tecnicamente credíveis. Esses canais não reproduzem intervenções existentes, não traduzem conferências anteriores e não contêm nenhum sinal explícito de ficção ou simulação. Produzem conteúdos originais, atribuídos implicitamente a pessoas reais que não são os seus autores.
O fenómeno distingue-se por várias características convergentes. Em primeiro lugar, a sua rapidez: alguns canais são criados ex nihilo e atingem, em poucos dias ou semanas, vários milhares de subscritores, com volumes de visualizações significativos. Em seguida, a sua coerência industrial: identidade gráfica homogénea, cadência regular de publicação, guiões estruturados, transcrições propostas, monetização ativa. Por fim, a sua segmentação precisa: as figuras utilizadas são analistas já identificados pelo público, associados a posições claras, reconhecíveis e com um capital simbólico pré-existente.
A deteção desses conteúdos não é feita pelo público comum. Os comentários geralmente não sinalizam nenhuma anomalia específica. Os discursos são recebidos como plausíveis: conformes com o que esses analistas costumam dizer e compatíveis com as expectativas do público. As dúvidas surgem noutros locais: em ouvintes atentos, a partir de detalhes secundários (números incoerentes, formulações atípicas), ou nos próprios interessados, obrigados a sinalizar publicamente a existência de vídeos que nunca produziram, como por exemplo Emmanuel Todd através da sua conta Substack[1].
Um ponto é central: esses vídeos não se distinguem por seu caráter manifestamente falso. Eles não se baseiam em falsidades flagrantes, nem em inversões ideológicas espetaculares. O conteúdo é, em geral, defensável do ponto de vista factual e narrativamente alinhado com as posições conhecidas das figuras imitadas. O que é falso não é a declaração isoladamente, mas a atribuição da declaração.
O caráter recente do fenómeno é determinante. Já existiam tentativas de deepfakes intelectuais, mas eram marginais, tecnicamente imperfeitas ou economicamente inviáveis. O que muda hoje não é a existência da tecnologia em si, mas a sua escalabilidade: qualidade suficiente, custo marginal reduzido, integração fluida no ecossistema das plataformas e rentabilidade rápida.
Este conjunto de indícios permite falar não de experiências isoladas, mas de um limiar ultrapassado. Uma atividade que até agora era cara, arriscada e visível torna-se banal, reprodutível e discreta. É esta mudança, mais do que a própria tecnologia, que merece ser analisada.
Exemplo recente de canal do YouTube que apresenta um analista reconhecido num formato padronizado e industrializado. O caso aqui ilustrado não é único nem isolado. Captura de ecrã realizada em 14 de janeiro de 2026.
Um exemplo permite ilustrar concretamente essa mudança. Um canal francófono que surgiu recentemente, Le Brief Politique, apresenta o economista marxista norte-americano Richard Wolff em vídeos longos, estruturados e encarnados. Os conteúdos não correspondem a nenhuma intervenção existente, não são traduções de conferências anteriores e nunca foram reivindicados pelo interessado.
No entanto, o discurso é coerente com as suas posições públicas, tanto no conteúdo como no tom. É precisamente isso que torna a identificação difícil. A falsificação não aparece na argumentação geral, mas em detalhes secundários, ordens de grandeza discutíveis, ausência de fontes precisas e, acima de tudo, na impossibilidade de encontrar uma versão original.
Este caso não é excecional. É representativo de uma série de cadeias que surgiram muito recentemente, baseadas no mesmo princípio: uma declaração plausível, atribuída a uma figura real, produzida de forma autónoma.
Por que é que estes conteúdos são aceites: a ortopraxia narrativa é fácil de reproduzir
Se estas produções raramente são identificadas como artificiais, não é devido a uma sofisticação técnica excecional, mas porque se inscrevem num quadro discursivo já estabilizado. Os vídeos retomam esquemas narrativos familiares, argumentos esperados e um tom que corresponde ao que o público associa às figuras imitadas. Não surpreendem, não destoam, não rompem.
Os analistas em questão ocupam há vários anos um lugar identificável no espaço mediático. As suas palavras estão associadas a temas recorrentes, a posições relativamente constantes e a um estilo reconhecível. Esta estabilidade facilita o reconhecimento, mas também torna possível a reprodução. O discurso torna-se previsível sem ser trivial, estruturado sem ser rígido, o que constitui um terreno particularmente favorável à geração automática.
O funcionamento é análogo ao observado em muitos formatos mediáticos contemporâneos, sejam eles dominantes ou alternativos. A informação é transmitida menos como uma série de factos e mais como uma imersão numa linguagem. Expressões repetem-se, oposições são reativadas, quadros de interpretação são reproduzidos de um episódio para outro. O público não procura uma ruptura ou uma descoberta, mas sim uma continuidade.
Neste contexto, o falso não choca, porque retoma as formas esperadas da narrativa. Não introduz dissonância ideológica nem contradição frontal. Insere-se num conjunto já conhecido, cujos códigos adota. A credibilidade depende menos da precisão das palavras do que da sua conformidade com uma expectativa pré-existente.
A deteção de uma falsificação baseia-se tradicionalmente na identificação de erros, incoerências ou divergências manifestas. Ora, neste caso, o discurso é «correto» no sentido narrativo do termo. Corresponde ao que se espera ouvir. As eventuais anomalias são marginais, quantitativas ou estilísticas, e não põem em causa o conjunto.
Este mecanismo explica por que razão a vigilância individual é amplamente ineficaz. Desde que o conteúdo respeite a ortopraxia (os usos esperados) do papel atribuído ao analista, ele cumpre a sua função. O problema não reside, portanto, numa credulidade particular do público, mas num ambiente discursivo em que a repetição e a conformidade se tornaram critérios implícitos de validade[2].
Nestas condições, a geração automática não cria um discurso artificial exógeno. Ela prolonga um regime de discurso já existente, cujos contornos são suficientemente nítidos para serem reproduzidos sem problemas. É essa continuidade, mais do que a própria tecnologia, que permite que o falso circule sem resistência aparente.
O papel decisivo do estrelato
A própria possibilidade dessas produções depende de um elemento prévio: a existência de figuras já estabelecidas no espaço mediático. Os analistas imitados não são escolhidos ao acaso. Eles têm visibilidade suficiente, um rosto identificável, uma voz associada a uma postura intelectual estável e um público já constituído. Em outras palavras, eles se tornaram referências.
Este processo não é exclusivo dos meios de comunicação alternativos. É o resultado de uma lógica geral de funcionamento das plataformas, que favorecem a personalização, a recorrência e a personificação. A palavra é indexada a indivíduos mais do que a argumentos, a figuras mais do que a raciocínios.
Progressivamente, o analista deixa de ser visto como um produtor de pensamento situado e evolutivo, para se tornar uma posição reconhecível num determinado panorama discursivo. À medida que esse reconhecimento se instala, a palavra se estabiliza. Não porque o analista deixa de refletir, mas porque o ambiente mediático valoriza a coerência, a continuidade e a fidelidade a um papel.
Os desvios, as hesitações ou as revisões são penalizados pela diminuição da audiência, pela perda de assinantes ou pela ruptura com as expectativas do público. A figura fica estagnada, não por dogmatismo, mas por adaptação ao quadro.
Essa transformação é central. Um pensamento em movimento é difícil de reproduzir mecanicamente. Uma postura estabilizada, por outro lado, torna-se modelável. O estrelato fornece assim à geração automática uma matéria-prima ideal: uma assinatura reconhecível, associada a um conjunto de temas, tons e reações esperadas. A notoriedade torna-se um capital simbólico independente da presença efetiva de seu detentor.
É por isso que a substituição não é vivida como uma ruptura. O público não segue uma pessoa no sentido estrito, mas uma função narrativa. Enquanto essa função for assegurada, mesmo que por um artefacto, a experiência de receção permanece inalterada. O falso não substitui um pensamento singular, ocupa um lugar já definido.
Seria errado ver nisso uma falha moral individual. O estrelato é uma condição estrutural de visibilidade no ecossistema das plataformas. Mas produz um efeito secundário: quanto mais uma figura se torna central e identificável, mais se torna substituível. O reconhecimento que protege contra o apagamento protege mal contra a substituição.
Este ponto permite compreender por que razão o fenómeno observado não afeta indistintamente todos os produtores de conteúdo. Afeta prioritariamente aqueles cuja palavra já foi transformada num ponto de referência estável, num papel reconhecível, numa marca pessoal. São essas figuras que a geração automática pode explorar imediatamente, sem trabalho de construção prévio.
A viragem económica: porquê agora?
Seria tentador interpretar o aparecimento destes canais como o produto de uma intenção ideológica ou de uma estratégia de manipulação. Nada impõe essa leitura. Os elementos observáveis remetem para uma lógica mais simples e banal: a de um modelo económico que se tornou viável.
Durante muito tempo, a produção de conteúdos credíveis por meios artificiais continuva a ser dispendiosa. A geração de vozes naturais, a sincronização labial, a coerência visual em formatos longos e a estabilidade da produção exigiam recursos técnicos e financeiros incompatíveis com uma exploração em grande escala em plataformas como o YouTube. O falso existia, mas era marginal, artesanal ou experimental.
O que mudou recentemente foi a ultrapassagem de um limiar. O custo marginal de produção de um vídeo tornou-se suficientemente baixo para ser absorvido pelas receitas geradas pela publicidade, assinaturas e mecanismos de recomendação. A partir desse momento, a questão deixou de ser a da possibilidade técnica, passou a ser a da otimização. O falso deixou de ser uma aposta arriscada para se tornar uma atividade rentável.
Esta evolução não pode ser explicada por um único fator. As ofertas de IA generativa desenvolvidas nos EUA (Gemini, ChatGPT, Grok...) têm, desde 2024-2025, baixado progressivamente o seu preço de entrada. Os serviços de geração de texto, voz ou imagens tornaram-se mais acessíveis, nomeadamente através de assinaturas ou fórmulas integradas destinadas aos criadores. No entanto, este movimento continua a ser limitado. O modelo económico norte-americano continua a basear-se na captação de valor por cliente e em utilizações com margens elevadas. As soluções mais eficazes continuam a ser relativamente caras e concebidas para atores solventes, institucionais ou profissionais.
Paralelamente, surgiram outros atores com uma lógica diferente. As recentes ofertas chinesas em matéria de IA generativa, em particular no domínio multimodal, privilegiam menos a excelência máxima do que a suficiência funcional em grande escala. O objetivo não é produzir artefactos perfeitos, mas conteúdos suficientemente credíveis para uso massivo, a custos reduzidos. Essa diferença de modelo, volume versus renda, é decisiva para compreender o surgimento de um mercado cinzento de fala sintética.
Esta evolução coincide com a entrada na bolsa de valores de Hong Kong de várias empresas chinesas especializadas em inteligência artificial generativa. Empresas como a MiniMax ou a Zhipu AI[3] levantaram, no final de 2025 e início de 2026, montantes significativos, posicionando-se explicitamente em serviços multimodais (texto, voz, imagem e vídeo) destinados a uso massivo[4].
Os produtos promovidos por esses atores, como HailuoAI, Talkie ou os modelos de geração de vídeo e voz da MiniMax, não visam a perfeição máxima, mas uma qualidade suficiente para usos comuns, a custos fortemente reduzidos e destinados ao grande público. Essa abordagem é coerente com uma lógica de ampla difusão e rentabilidade por volume, em vez de por raridade.
Não é necessário nem possível estabelecer uma ligação direta entre estas cadeias e fornecedores específicos. O que importa é a conjunção das dinâmicas. Por um lado, ferramentas que se tornaram suficientemente boas e suficientemente baratas. Por outro lado, um ecossistema de plataformas perfeitamente aperfeiçoado para monetizar formatos repetitivos, concretos e envolventes. Entre os dois, abre-se um espaço económico, sem necessidade de intenção ideológica ou coordenação central.
Esta mudança é muito recente porque depende da convergência destes fatores. As tecnologias já existiam, as plataformas também, as figuras mediáticas igualmente. O que faltava era o alinhamento dos custos, dos usos e das receitas. Uma vez alcançado este alinhamento, a substituição torna-se não só possível, mas racional.
Nesse sentido, o fenómeno observado não é uma anomalia. Corresponde a um ajuste clássico na economia das plataformas: quando um processo pode ser automatizado sem perda imediata de valor percebido, acaba por sê-lo. A palavra encarnada, desde que estabilizada e monetizável, não escapa a esta lógica.
O papel silencioso das plataformas
O desenvolvimento desses conteúdos não seria possível sem um ambiente de difusão perfeitamente adaptado. As plataformas de vídeo, e o YouTube em particular, não são simples vetores neutros. Elas constituem a infraestrutura económica que torna a operação viável, sem ter que intervir ativamente.
Os formatos em questão correspondem precisamente ao que os algoritmos favorecem: vídeos longos, encarnados, regulares, que suscitam a fidelidade da audiência e um compromisso estável. Os temas abordados, muitas vezes geopolíticos ou analíticos, geram um consumo atento e repetido, compatível com a monetização publicitária e os mecanismos de assinatura. Neste contexto, a plataforma não tem qualquer interesse estrutural em distinguir o autêntico do sintético, desde que os indicadores de desempenho sejam satisfatórios.
A responsabilidade editorial é assim transferida para a fase posterior. Existem dispositivos de denúncia, mas dependem da iniciativa das pessoas envolvidas ou dos utilizadores. Não há filtragem sistemática a montante, nem mecanismo de verificação da identidade do autor para este tipo de conteúdo. A autenticidade da palavra não faz parte dos critérios de elegibilidade para difusão ou monetização.
Este funcionamento não é o resultado de uma escolha ideológica explícita. Resulta da própria lógica das plataformas, concebidas para maximizar o volume, a duração de visualização e a regularidade das publicações. A distinção entre discurso encarnado e discurso simulado não é relevante neste contexto, desde que a experiência do utilizador permaneça fluida e a retenção seja assegurada.
Este silêncio estrutural produz um efeito cumulativo. Quanto mais estes conteúdos circulam, mais normalizam a sua própria existência. O público habitua-se a uma palavra desligada de qualquer garantia de origem, sem que isso constitua um obstáculo imediato ao consumo. As plataformas, por seu lado, beneficiam de uma oferta alargada, pouco dispendiosa de produzir e perfeitamente compatível com os seus modelos económicos.
O resultado é um sistema autossustentável. Os produtores de conteúdos sintéticos não precisam de visibilidade institucional nem de reconhecimento formal. Basta-lhes inserir-se nos formatos esperados e responder aos sinais algorítmicos. A plataforma, por sua vez, assegura a difusão e a monetização, sem ter de se pronunciar sobre a questão da autenticidade.
Este papel passivo, mas determinante, explica por que razão o fenómeno não encontra resistência estrutural. Não se trata de uma falha pontual, mas de um alinhamento de interesses. Enquanto a palavra, seja ela humana ou sintética, permanecer compatível com as métricas de desempenho, nada incentiva as plataformas a introduzir fricções suscetíveis de reduzir o fluxo.
Uma fala verdadeira sem autor
A dificuldade colocada por esses conteúdos não se deve principalmente à sua veracidade factual. Em muitos casos, as análises propostas são coerentes, informadas e compatíveis com o estado dos conhecimentos disponíveis. Não se baseiam em invenções grosseiras nem em inversões ideológicas manifestas. É precisamente isso que as torna difíceis de identificar como artificiais.
O problema reside na enunciação: esses discursos são implicitamente atribuídos a pessoas reais que não os produziram. Não se trata de uma mentira no sentido clássico, mas de uma usurpação da palavra. O conteúdo pode ser defensável isoladamente, mas não é autêntico na sua fonte.
Essa dissociação entre a verdade do discurso e a identidade de quem fala constitui uma mudança importante. Os mecanismos tradicionais de vigilância baseiam-se na verificação dos factos, na confrontação das fontes ou na análise das intenções. No entanto, neste caso, estas ferramentas são largamente ineficazes quando não há factos falsos a corrigir, nem teses absurdas a refutar. A falha reside na própria atribuição.
Neste novo regime, a verdade torna-se em parte fungível. Qualquer enunciador pode apresentar um raciocínio plausível, desde que a sua forma, estilo e enquadramento narrativo correspondam às expectativas. O autor deixa de ser uma condição necessária para a validade percebida do discurso. Torna-se um simples suporte simbólico, intercambiável.
Esta evolução não é exclusiva da IA. Ela prolonga um movimento já iniciado, no qual a palavra pública é cada vez mais avaliada à luz da sua conformidade com um papel, em vez da experiência singular de quem a profere. A geração automática apenas explora esta transformação, levando ao extremo a lógica da dissociação entre conteúdo e responsabilidade.
O resultado é uma situação paradoxal: quanto mais razoável, esperado e alinhado é um discurso, mais facilmente ele pode ser apropriado. A singularidade, a hesitação, a contradição interna (todos elementos que caracterizam um pensamento vivo) tornam-se obstáculos à reprodução. Por outro lado, a estabilidade, o consenso e a repetição facilitam a substituição.
Essa mudança explica por que a questão levantada por esses conteúdos não pode ser reduzida a um debate sobre desinformação. O que está em jogo não é a circulação do falso, mas a possibilidade de uma palavra que circula sem autor identificável, sem responsabilidade explícita e sem ancoragem em uma trajetória intelectual real.
O que ainda torna uma palavra insubstituível?
O recente surgimento de canais encarnados artificialmente não é resultado de uma ruptura tecnológica repentina, nem de um projeto ideológico coordenado. Corresponde a um ajuste económico num ambiente já estruturado pelo estrelato, pela repetição narrativa e pela monetização algorítmica.
Quando a palavra se torna previsível, estabilizada e rentável, a sua reprodução mecânica deixa de ser um problema técnico para se tornar uma opção racional. A IA não introduz uma lógica estranha a este ecossistema; simplesmente revela os seus resultados.
O fenómeno observado não anuncia o desaparecimento da palavra humana, mas a sua concorrência com formas sintéticas capazes de ocupar os mesmos espaços, a menor custo e sem restrições de responsabilidade. A questão que se coloca não é, portanto, a da veracidade dos discursos, mas a das condições em que uma palavra ainda pode ser atribuída, situada e assumida.
A longo prazo, esta mudança obriga a repôr uma questão simples: num sistema em que a conformidade é recompensada e a singularidade penalizada, o que torna ainda uma palavra insubstituível?
[1] Substack, Emmanuel Todd, Attention aux contrefaçons, 13 de janeiro de 2026.